Sorry, no results.
Please try another keyword
Épisode
27 mai 2025 - 47min
Claudine TiercelinMétaphysique et philosophie de la connaissanceAnnée 2024-2025Colloque - Implications philosophiques de l'IACyrille Imbert : Fiabilité, fiabilisme, et problème de la généralité : perspective à partir de l'IA et des machines épistémiquesCyrille ImbertArchives Henri Poincaré / CNRSRésuméLes IAs sont de plus en plus impliquées dans les processus de traitement de...
Claudine TiercelinMétaphysique et philosophie de la connaissanceAnnée 2024-2025Colloque - Implications philosophiques de l'IACyrille Imbert : Fiabilité, fiabilisme, et problème de la généralité : perspective à partir de l'IA et des machines épistémiquesCyrille ImbertArchives Henri Poincaré / CNRSRésuméLes IAs sont de plus en plus impliquées dans les processus de traitement de l'information à partir desquels nous élaborons nos croyances. Dans ces conditions, il est légitime de se demander dans quelles circonstances il est légitime de considérer que de tels processus sont fiables et donc que nous sommes justifiés à entretenir nos croyances – c'est typiquement en clarifiant cette question qu'on peut espérer décrire ce que constitue un usage ou une mise à disposition responsable d'une IA.Cette question est déjà abondamment étudiée dans le cadre du courant fiabiliste en épistémologie. Un des problèmes principaux rencontrés dans ce contexte est le problème dit de la généralité : pour étudier la fiabilité d'un processus particulier qui produit des croyances, on doit lui assigner un type donné. Par exemple, un processus particulier peut être décrit comme mettant en jeu la vision d'un animal, celle d'un homme, celle d'un homme de 60 ans, celle d'un homme de 60 ans le soir, etc., et il convient donc de se demander quel type doit être choisi pour caractériser la fiabilité du processus. Cette présentation sera consacrée à la discussion de cette question dans le cas où des IAs et, plus généralement, des machines épistémiques comme les simulations numériques, sont utilisées dans un processus.-- Colloque organisé par Jacques-Henri Vollet, codirecteur du Groupe de recherche en épistémologie (GRE) au Collège de France, et Alexandre Declos, directeur du Groupe d'études en métaphysique (GEM).PrésentationCe colloque vise à explorer les implications philosophiques de l'intelligence artificielle (IA) à travers trois axes majeurs : épistémologique, esthétique et éthique.Sur le plan épistémologique, nous interrogerons la nature de la connaissance produite par l'IA : peut-elle être qualifiée de véritable connaissance ou s'agit-il d'une simple corrélation statistique ? Quelles conséquences l'IA a-t-elle sur les notions de justification, de vérité et d'explicabilité en science et dans la prise de décision ?D'un point de vue esthétique, nous examinerons le statut artistique et la valeur esthétique des productions de l'IA. Peut-on attribuer une forme d'intentionnalité ou d'auctorialité à ces systèmes ? L'IA peut-elle créer de l'art ? N'est-elle qu'un outil artistique parmi d'autres ?Enfin, l'axe éthique portera sur les responsabilités associées au développement et à l'usage de l'IA. Comment assurer une IA alignée sur des valeurs humaines ? Quels sont les défis liés à la partialité algorithmique, à la surveillance de masse et aux impacts socio-économiques de l'automatisation ?Ce colloque réunira des philosophes, des chercheurs en intelligence artificielle et des experts en éthique du numérique afin de proposer une réflexion interdisciplinaire sur ces enjeux cruciaux.
Afficher plus
Claudine Tiercelin
Métaphysique et philosophie de la connaissance
Année 2024-2025
Colloque - Implications philosophiques de l'IA
Cyrille Imbert : Fiabilité, fiabilisme, et problème de la généralité : perspective à partir de l'IA et des machines épistémiques
Cyrille Imbert
Archives Henri Poincaré / CNRS
Résumé
Les IAs sont de plus en plus impliquées dans les processus de traitement de l'information à partir desquels nous élaborons nos croyances. Dans ces conditions, il est légitime de se demander dans quelles circonstances il est légitime de considérer que de tels processus sont fiables et donc que nous sommes justifiés à entretenir nos croyances – c'est typiquement en clarifiant cette question qu'on peut espérer décrire ce que constitue un usage ou une mise à disposition responsable d'une IA.
Cette question est déjà abondamment étudiée dans le cadre du courant fiabiliste en épistémologie. Un des problèmes principaux rencontrés dans ce contexte est le problème dit de la généralité : pour étudier la fiabilité d'un processus particulier qui produit des croyances, on doit lui assigner un type donné. Par exemple, un processus particulier peut être décrit comme mettant en jeu la vision d'un animal, celle d'un homme, celle d'un homme de 60 ans, celle d'un homme de 60 ans le soir, etc., et il convient donc de se demander quel type doit être choisi pour caractériser la fiabilité du processus. Cette présentation sera consacrée à la discussion de cette question dans le cas où des IAs et, plus généralement, des machines épistémiques comme les simulations numériques, sont utilisées dans un processus.
--
Colloque organisé par Jacques-Henri Vollet, codirecteur du Groupe de recherche en épistémologie (GRE) au Collège de France, et Alexandre Declos, directeur du Groupe d'études en métaphysique (GEM).
Présentation
Ce colloque vise à explorer les implications philosophiques de l'intelligence artificielle (IA) à travers trois axes majeurs : épistémologique, esthétique et éthique.
Sur le plan épistémologique, nous interrogerons la nature de la connaissance produite par l'IA : peut-elle être qualifiée de véritable connaissance ou s'agit-il d'une simple corrélation statistique ? Quelles conséquences l'IA a-t-elle sur les notions de justification, de vérité et d'explicabilité en science et dans la prise de décision ?
D'un point de vue esthétique, nous examinerons le statut artistique et la valeur esthétique des productions de l'IA. Peut-on attribuer une forme d'intentionnalité ou d'auctorialité à ces systèmes ? L'IA peut-elle créer de l'art ? N'est-elle qu'un outil artistique parmi d'autres ?
Enfin, l'axe éthique portera sur les responsabilités associées au développement et à l'usage de l'IA. Comment assurer une IA alignée sur des valeurs humaines ? Quels sont les défis liés à la partialité algorithmique, à la surveillance de masse et aux impacts socio-économiques de l'automatisation ?
Ce colloque réunira des philosophes, des chercheurs en intelligence artificielle et des experts en éthique du numérique afin de proposer une réflexion interdisciplinaire sur ces enjeux cruciaux.
Pas de transcription pour le moment.
Collège de France
Collège de France
Vous devez être connecté pour soumettre un avis.
Collège de France