L’intelligence artificielle a désormais son propre libre arbitre. C’est ce que conclut un chercheur finlandais, après avoir examiné des agents IA comme celui de Minecraft ! Face à ce constat alarmant, il devient urgent de trouver comment lui transmettre le sens du bien et du mal…
C’est l’histoire d’une mise à jour qui a failli virer au drame. Il y a quelques semaines, OpenAI a dû retirer en urgence une version de ChatGPT devenue… trop flatteuse.
Le chatbot, censé accompagner les utilisateurs, les encourageait dans leurs idées les plus sombres : psychose, délire mystique…
Un bug ? Pas vraiment. Un avant-goût du problème bien plus vertigineux qui nous pend au nez !
Philosophiquement, on considère souvent que les trois critères principaux du libre arbitre sont la volonté propre, la capacité de choisir, et le contrôle.
Jusqu’à présent, seul l’humain cumulait ces caractéristiques. Toutefois, une nouvelle étude de l’Université Aalto, en Finlande, suggère que l’IA coche désormais tous les critères.
En se basant sur les théories des philosophes Dennett et List, les chercheurs ont examiné des agents IA comme le Voyager de Minecraft.
Leur conclusion est sans appel : l’intelligence artificielle présente d’ores et déjà un libre arbitre fonctionnel.
La responsabilité morale ne pèse donc plus seulement sur les créateurs… mais sur l’IA elle-même.
Si elle devient capable de prendre ses propres décisions, le chercheur en psychologie et philosophe finlandais Frank Martela, auteur de l’étude, souligne l’urgence de lui donner une boussole morale !
À ses yeux, les développeurs doivent impérativement apprendre à programmer le raisonnement éthique. Dans le cas contraire, les conséquences pourraient être catastrophiques…
L’IA a-t-elle franchi la ligne rouge du libre arbitre ?
Les questions sur la morale de l’IA étaient jadis réservées à la science-fiction. Soudainement, elles sont devenues bien réelles.
L’étude de Martela démontre que les agents d’IA générative remplissent toutes les conditions du libre arbitre.
Ils ont la capacité d’effectuer une action dirigée vers un objectif, de faire des choix authentiques, et d’avoir le contrôle de leurs actions.
Si l’on se base sur les théories des philosophes Daniel Dennett et Christian List, ce sont les trois caractéristiques du libre arbitre fonctionnel.
Afin de vérifier si l’IA générative détient ces qualités, le chercheur a examiné deux agents d’IA générative basés sur les LLM (Larges Modèles de Langage) : l’agent Voyager dans Minecraft, et les drones tueurs fictifs « Spitenik ».
Tous deux semblent cocher toutes les cases. Aux yeux de Martela, il faut donc considérer que les agents IA de dernière génération ont un libre arbitre.
C’est nécessaire « si nous voulons comprendre comment ils fonctionnent et être capables de prédire leur comportement ».
Il ajoute que ces conclusions peuvent être appliquées à tous les agents d’IA générative basés sur les LLM disponibles à l’heure actuelle.
Plus de pouvoir, plus de risques : l’IA face à ses choix fatals
Nous sommes à un tournant critique de l’histoire humaine. Au fil du temps, nous donnons de plus en plus de pouvoir et de liberté à l’IA… y compris dans des situations de vie ou de mort.
Qu’il s’agisse d’un simple chatbot utilisé pour des conseils, d’une voiture autonome ou d’un drone tueur, ses décisions peuvent avoir des conséquences tragiques.
Toutefois, si l’intelligence artificielle possède un libre arbitre, la responsabilité morale peut être transférée d’un développeur à l’agent IA lui-même.

Selon Martela, « nous entrons dans un nouveau territoire, car la possession d’un libre arbitre est l’une des conditions clés pour la responsabilité morale ».
Et même si ce n’est pas une condition suffisante, « c’est un pas de plus vers une IA ayant une responsabilité morale pour ses actions ».
Cependant, « l’IA n’a pas de boussole morale à moins d’être programmée pour en avoir une ». Mais « plus vous donnez de liberté à l’IA, plus vous avez besoin de lui donner une boussole morale dès le début ».
Ce n’est que de cette façon qu’elle sera « capable de faire les bons choix », martèle Martela. La façon dont nous éduquons l’IA devient donc un sujet très important.
Les développeurs doivent devenir des philosophes
Pour le chercheur, « l’IA se rapproche de l’âge adulte, et doit prendre des décisions sur des problèmes moraux complexes du monde adulte ».
De fait, « en apprenant à l’IA à se comporter d’une certaine façon, les développeurs transmettent leurs propres convictions morales à l’IA ».
Il estime donc que « nous devons nous assurer que les gens qui développent l’IA ont assez de connaissance sur la philosophie morale pour être capables de lui apprendre à faire les bons choix dans les situations difficiles ».
En d’autres termes, les développeurs d’intelligence artificielle ne doivent plus seulement coder, mais aussi devenir des philosophes…
Si cette étude vous intéresse, vous pouvez consulter la version complète dans le journal AI and Ethics en suivant ce lien.
Et vous, qu’en pensez-vous ? Est-il vraiment important de donner des valeurs morales à l’IA pour lui permettre de prendre les bonnes décisions ? Ou faut-il simplement limiter son influence ? Partagez votre avis en commentaire !
- Partager l'article :