Les humains ne pourront pas contrôler l’IA, la science le prouve

L’idée de l’intelligence artificielle renversant l’humanité a été évoquée pendant de nombreuses décennies. Les scientifiques viennent de rendre leur verdict sur la possibilité de contrôler une super intelligence informatique de haut niveau. La réponse ? Certainement pas, ou presque.

Besoin d’une simulation pour comprendre

Dans toute cette histoire, il y a un hic. Contrôler une super-intelligence bien au-delà de la compréhension humaine exigerait une simulation de celle-ci pour l’analyser. Mais sans compréhension de cette super-intelligence, il est impossible de créer une telle simulation. Ne pas nuire aux humains : ce type de règle ne peut être définie si nous ne comprenons pas le type de scénarios qu’une intelligence artificielle va proposer. Une fois qu’un système informatique fonctionne à un niveau supérieur à la portée des programmeurs, nous ne pouvons plus fixer de limites.

Selon les chercheurs, une super-intelligence pose un problème fondamentalement différent de ceux généralement étudiés sous la bannière de l’éthique des robots. En effet, celle-ci a de multiples facettes. Donc, potentiellement, elle est capable de mobiliser une diversité de ressources afin d’atteindre des objectifs potentiellement incompréhensibles pour les humains, et encore moins contrôlables.

Zoom sur le problème d’arrêt

Une partie du raisonnement de l’équipe vient du problème d’arrêt mis en avant par Alan Turing en 1936. Le problème est de savoir si un programme informatique parviendra ou non à une conclusion et à une réponse (il s’arrête donc). Ou fonctionnent en boucle pour toujours essayer d’en trouver une.

Tout programme écrit pour empêcher l’IA de nuire aux humains et de détruire le monde par exemple, peut parvenir à une conclusion (et s’arrêter) ou non. Il est mathématiquement impossible d’être absolument sûr de toute façon, ce qui signifie qu’il ne peut pas être contenu. En fait, cela rend l’algorithme de confinement inutilisable.

Limiter les capacités de la super-intelligence

L’alternative à l’enseignement de l’éthique à l’IA et à lui dire de ne pas détruire le monde, ce qu’aucun algorithme ne peut être absolument certain de faire, disent les chercheurs, est de limiter les capacités de la super-intelligence. Il pourrait être coupé de certaines parties d’Internet ou de certains réseaux, par exemple. 

La nouvelle étude rejette également cette idée, suggérant qu’elle limiterait la portée de l’intelligence artificielle. L’argument veut que si nous n’allons pas l’utiliser pour résoudre des problèmes dépassant la portée des humains, alors pourquoi la créer ?

Se poser des question sur la direction à prendre

En allant de l’avant avec l’intelligence artificielle, nul ne peut savoir quand la super-intelligence sera effective. Là repose toute l’incompréhensibilité de la situation. Cela signifie que nous devons commencer à nous poser de sérieuses questions sur les directions à prendre en ce qui concerne l’IA.

Une machine super-intelligente qui contrôle le monde ressemble à de la science-fiction. Mais il existe déjà des machines qui effectuent certaines tâches importantes de manière indépendante sans que les programmeurs comprennent pleinement comment ils l’ont appris. La question est donc de savoir si cela pourrait à un moment donné devenir incontrôlable et dangereux pour l’humanité