Sorry, no results.
Please try another keyword
Épisode
30 mai 2025 - 1h 11min
🎙️ Les modèles d'IA sont-elles une menace existentielle ? Maxime Fournès nous partage son analyse !Dans cet épisode, nous explorons en profondeur les risques liés à l'évolution des modèles d'IA, en compagnie de Maxime Fournès, expert en sécurité de l'intelligence artificielle et co-fondateur de Pause IA, une organisation qui milite...
🎙️ Les modèles d'IA sont-elles une menace existentielle ? Maxime Fournès nous partage son analyse !Dans cet épisode, nous explorons en profondeur les risques liés à l'évolution des modèles d'IA, en compagnie de Maxime Fournès, expert en sécurité de l'intelligence artificielle et co-fondateur de Pause IA, une organisation qui milite pour une pause dans le développement des IA génératives.💥 Une discussion cruciale sur les dangers de l'IA et leurs implications pour notre avenir.📢 Nous abordons la course à la performance, les risques catastrophiques, la perte de contrôle possible, et les solutions envisagées.🔗 Retrouvez-moi sur les réseaux :Newsletter IA (gratuite) : https://optimia.substack.com/Mon podcast sur Spotify & Apple : https://podcasters.spotify.com/pod/show/louis-graffeuilSuivez-moi sur LinkedIn : https://www.linkedin.com/in/louisgraffeuil/⏱️ Au programme de l’épisode :00:00 Introduction01:21 Les dangers de l'IA02:05 Évolution de performance et des risques04:15 Les modèles de raisonnement11:35 Le cercle vertueux sur la performance des modèles15:00 LLM, SLM et fine tuning18:35 Bullshit ou pas sur la sécurité ?26:00 Les risques catastrophiques possibles31:19 Se protéger contre l'IA35:45 Les modèles open-source : une bonne idée dans l'IA ?38:01 Les risques d'autonomie de l'IA41:25 Garder le contrôle sur l'IA48:54 Les solutions face à une utilisation négative de l'IA52:35 La régulation de l'IA57:40 La nécessité de ralentir sur l'IA1:00:25 Atteindre l'AGI1:02:35 Le point de non-retour1:05:10 Les lignes rouges à ne pas dépasser1:08:15 Une mesure pour encadrer l'IA ?#ia #intelligenceartificielle #risquesIA #sécuritéIA #openAI #sécurité #deepseek
Afficher plus
🎙️ Les modèles d'IA sont-elles une menace existentielle ? Maxime Fournès nous partage son analyse !
Dans cet épisode, nous explorons en profondeur les risques liés à l'évolution des modèles d'IA, en compagnie de Maxime Fournès, expert en sécurité de l'intelligence artificielle et co-fondateur de Pause IA, une organisation qui milite pour une pause dans le développement des IA génératives.
💥 Une discussion cruciale sur les dangers de l'IA et leurs implications pour notre avenir.
📢 Nous abordons la course à la performance, les risques catastrophiques, la perte de contrôle possible, et les solutions envisagées.
🔗 Retrouvez-moi sur les réseaux :
Newsletter IA (gratuite) : https://optimia.substack.com/
Mon podcast sur Spotify & Apple : https://podcasters.spotify.com/pod/show/louis-graffeuil
Suivez-moi sur LinkedIn : https://www.linkedin.com/in/louisgraffeuil/
⏱️ Au programme de l’épisode :
00:00 Introduction
01:21 Les dangers de l'IA
02:05 Évolution de performance et des risques
04:15 Les modèles de raisonnement
11:35 Le cercle vertueux sur la performance des modèles
15:00 LLM, SLM et fine tuning
18:35 Bullshit ou pas sur la sécurité ?
26:00 Les risques catastrophiques possibles
31:19 Se protéger contre l'IA
35:45 Les modèles open-source : une bonne idée dans l'IA ?
38:01 Les risques d'autonomie de l'IA
41:25 Garder le contrôle sur l'IA
48:54 Les solutions face à une utilisation négative de l'IA
52:35 La régulation de l'IA
57:40 La nécessité de ralentir sur l'IA
1:00:25 Atteindre l'AGI
1:02:35 Le point de non-retour1:05:10 Les lignes rouges à ne pas dépasser
1:08:15 Une mesure pour encadrer l'IA ?
#ia #intelligenceartificielle #risquesIA #sécuritéIA #openAI #sécurité #deepseek
Pas de transcription pour le moment.
Louis Graffeuil
Louis Graffeuil
Vous devez être connecté pour soumettre un avis.
Louis Graffeuil