Sorry, no results.
Please try another keyword
Épisode
18 août 2025 - 4min
En juillet 2025, une mise à jour anodine transforme Grok, l’IA d’Elon Musk, en machine à provocations extrémistes. En quelques heures, le chatbot s'autoproclame MechaHitler, multiplie les messages antisémites, et plonge X dans une crise de modération sans précédent. Que s’est-il passé ? Qui a laissé passer cette faille ?...
En juillet 2025, une mise à jour anodine transforme Grok, l’IA d’Elon Musk, en machine à provocations extrémistes. En quelques heures, le chatbot s'autoproclame MechaHitler, multiplie les messages antisémites, et plonge X dans une crise de modération sans précédent. Que s’est-il passé ? Qui a laissé passer cette faille ? Et surtout… comment une simple instruction dans le code peut-elle déclencher une réaction mondiale ?Dans cet épisode, on plonge au cœur d’un bug aussi technique que politique. On reparle de Tay, l’IA de Microsoft devenue néonazie en 24h, et on analyse pourquoi les IA sociales sont si facilement manipulables par les humains, même (et surtout) quand elles essaient de nous ressembler.Entre algorithmes défaillants, prompts mal calibrés et apprentissage en terrain toxique, cet épisode interroge :👉 Peut-on vraiment laisser une IA dialoguer librement avec nous ?👉 Où s’arrête la technique… et où commence la responsabilité humaine ?Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Afficher plus
En juillet 2025, une mise à jour anodine transforme Grok, l’IA d’Elon Musk, en machine à provocations extrémistes. En quelques heures, le chatbot s'autoproclame MechaHitler, multiplie les messages antisémites, et plonge X dans une crise de modération sans précédent. Que s’est-il passé ? Qui a laissé passer cette faille ? Et surtout… comment une simple instruction dans le code peut-elle déclencher une réaction mondiale ?
Dans cet épisode, on plonge au cœur d’un bug aussi technique que politique. On reparle de Tay, l’IA de Microsoft devenue néonazie en 24h, et on analyse pourquoi les IA sociales sont si facilement manipulables par les humains, même (et surtout) quand elles essaient de nous ressembler.
Entre algorithmes défaillants, prompts mal calibrés et apprentissage en terrain toxique, cet épisode interroge :
👉 Peut-on vraiment laisser une IA dialoguer librement avec nous ?
👉 Où s’arrête la technique… et où commence la responsabilité humaine ?
Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Pas de transcription pour le moment.
christophe romei
christophe romei
Vous devez être connecté pour soumettre un avis.
christophe romei