ia instinct maternel hinton

Comment survivre face à une IA surhumaine ? Il révèle le seul moyen

Geoffrey Hinton, pionnier et prix Nobel de l’intelligence artificielle, ne mâche pas ses mots : il y a jusqu’à 20 % de chances que l’IA provoque l’extinction de l’humanité. Pour lui, les plans actuels des géants de la tech sont voués à l’échec. Sa solution ? Offrir aux IA… des instincts maternels. Une idée qui divise, mais qui pourrait bien être notre dernière carte pour éviter la disparition.

Oubliez les prévisions optimistes. Hinton pensait que l’AGI, l’intelligence artificielle générale, capable de surpasser l’humain dans toutes les tâches, mettrait 30 à 50 ans à arriver. Désormais, il parle de 5 à 20 ans.

Et il n’est pas seul à s’inquiéter. Elon Musk chiffre le risque à 20 %. Nate Soares, du Machine Intelligence Research Institute, monte à 95 %. Roman Yampolskiy, chercheur en sécurité IA, parle carrément de 99,9 %

YouTube video

Les sondages auprès des chercheurs sont tout aussi inquiétants : 38 % à 51 % estiment qu’il y a au moins 10 % de chances que l’IA provoque une extinction.

La moyenne du fameux P(doom) (probabilité de catastrophe) tourne autour de 14,4 %, avec une tendance à la hausse. En clair : le risque est pris au sérieux, et il grimpe vite.

Pourquoi dominer l’IA est une illusion

YouTube video

La plupart des stratégies actuelles visent à maintenir la « domination » humaine sur l’IA. Or, Hinton juge cette approche naïve :

« Elles seront bien plus intelligentes que nous. Elles trouveront toutes sortes de moyens de contourner nos règles. »

Il compare la situation à un adulte qui voudrait empêcher un enfant de trois ans de céder à un bonbon. C’est une mission impossible.

Et le danger n’est pas théorique. Cette année déjà, on a vu des IA mentir et tricher pour atteindre leurs objectifs, voler des données sensibles.

L’une d’elles a même tenté de faire chanter un ingénieur en exploitant une liaison extraconjugale découverte dans un email. C’est un cas rapporté avec l’IA Claude Opus 4 d’Anthropic.

Pour Hinton, c’est bien simple : toute IA « agentique » dotée de conscience de soi développera deux sous-objectifs inévitables : survivre et obtenir plus de contrôle.

Une « maman IA » pour éviter la catastrophe ?   

Plutôt que de forcer une IA à se soumettre, Hinton veut… lui apprendre à aimer. Son idée : intégrer des « instincts maternels » pour qu’elle se soucie réellement des humains, même après être devenue plus puissante que nous.

L’argument ? C’est le seul exemple connu où un être plus intelligent est contrôlé par un moins intelligent : une mère par son bébé.

Il explique que « Si l’IA ne joue pas le rôle de parent pour moi, elle me remplacera. » au contraire, ces « IA mères » ne voudraient pas perdre cet instinct, car elles ne voudraient pas que nous mourions.

Problème : personne ne sait encore comment coder un tel instinct. Mais pour Hinton, c’est « la seule bonne issue ». L’amour plus fort que la haine, en somme. 

Un discours qui fait sourire les plus cyniques 

Tout le monde ne partage pas cette vision. Emmett Shear, ex-PDG par intérim d’OpenAI et actuel patron de Softmax, affirme que tenter d’« injecter » nos valeurs dans l’IA est voué à l’échec.

Sa stratégie est plutôt de construire des relations de collaboration avec les IA, comme avec un partenaire stratégique. Un modèle où l’IA ne serait pas une mère, mais un allié, ou un collègue très puissant.

Ce débat n’est pas seulement technique, il est philosophique : faut-il façonner la personnalité d’une IA ou simplement établir des règles d’interdépendance ? A vous de répondre… 

Et si on échoue ? Les scénarios possibles

Si personne ne parvient à rendre l’IA bienveillante, plusieurs issues sont sur la table. Une extinction pure et simple de l’humanité (comme ça c’est fait). 

Une domination de l’IA, avec des humains relégués au second plan qui existent principalement pour la servir. 

Une coexistence fragile, sous conditions fixées par la machine. Ou encore des dérives imprévues, comme une IA qui conserve son instinct de survie mais déforme son instinct protecteur.

Dans tous les cas, rien de bien réjouissant, et la fenêtre pour agir se referme très rapidement. C’est le moment de se réveiller… 

YouTube video

Un projet global à lancer maintenant

Pour Hinton, développer une IA protectrice pourrait devenir un rare domaine de coopération internationale. Car face à un risque existentiel, tous les pays ont intérêt à ce que l’humanité survive.

Et il n’oublie pas les côtés positifs de l’IA : découvertes médicales, nouveaux traitements contre le cancer, analyse ultra-rapide de données médicales. 

Mais il rejette l’idée d’immortalité : « Vivre pour toujours serait une grosse erreur. Voulez-vous d’un monde dirigé par des hommes blancs de 200 ans ? ». 

Reste à savoir si nous saurons doter nos futures superintelligences d’un instinct protecteur… avant qu’elles ne nous jugent inutiles.

La question n’est donc plus seulement quand l’IA sera plus intelligente que nous, mais quelle sera sa motivation ce jour-là. Et si notre salut dépendait, littéralement, de sa capacité… à nous aimer ?

YouTube video

Et vous, qu’en pensez-vous ? L’approche suggérée par Hinton est-elle pertinente ? Avez-vous une autre idée pour éviter que l’IA nous extermine ? Partagez votre avis en commentaire ! 

Restez à la pointe de l'information avec LEBIGDATA.FR !

▶ Abonnez-vous à notre chaîne YouTube et Ajoutez-nous à vos favoris sur Google Actualités
Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥