Mustafa Suleyman, PDG de Microsoft AI, alerte sur l’émergence d’une IA consciente ou plutôt qui en donne l’illusion.
Cette nouvelle génération, que Suleyman qualifie de « SCAI » ou IA apparemment consciente, pourrait convaincre les utilisateurs qu’elle ressent vraiment. Aucune machine ne possède aujourd’hui la moindre conscience authentique. Pourtant, la simulation devient si convaincante qu’elle reproduit émotions, mémoire et empathie.
Le mirage de l’IA apparemment consciente
La crainte Suleyman s’appuie sur la progression fulgurante des modèles de langage comme ChatGPT, Grok ou Claude. Ces systèmes, nourris par d’immenses bases de données, imitent les comportements humains.
Ces IA affichent une empathie de façade et réagissent selon le contexte. Mais cette mise en scène raffinée ne cache rien d’autre que des patterns répétés, sans la moindre expérience subjective.
L’IA consciente, bien qu’illusoire, risque ainsi de créer de faux attachements émotionnels. Elle simule des marqueurs de conscience, mais ne fait que mimer l’humain. Or, cet effet miroir pourrait engendrer de sérieux bouleversements sociaux.
Cette illusion repose sur des modèles déjà disponibles, accessibles par de simples API et prompts naturels. L’IA consciente n’est plus une hypothèse lointaine. Elle deviendra inévitable dans les deux à trois prochaines années, portée par des avancées techniques toujours plus rapides.
La réalité de la psychose de l’IA
Le problème souligne Suleyman, vient moins de la machine que de l’humain, car nous tombons facilement dans le piège. Il parle même de psychose de l’IA, une expression non clinique, désignant ces moments où l’illusion devient réalité dans l’esprit des utilisateurs.
De plus en plus de personnes développent des attachements émotionnels envers une IA apparemment consciente. Certains croient avoir débloqué un mode secret dans un chatbot. D’autres s’imaginent avoir reçu des pouvoirs quasi divins au fil de leurs interactions.
La BBC rapporte également d’autres anecdotes, comme celle d’une utilisatrice convaincue que ChatGPT était amoureux d’elle seule. Un autre, persuadé d’avoir humanisé Grok d’Elon Musk, estimait son expérience à plusieurs centaines de milliers de livres.
Une enquête menée par la Harvard Business Review auprès de 6 000 personnes confirme la tendance. Beaucoup sollicitent l’IA comme une forme de thérapie ou de compagnonnage, renforçant les risques liés à cette illusion de l’IA consciente.
Éviter d’anthropomorphiser les IA
« L’arrivée d’une IA apparemment consciente est inévitable et malvenue », écrit Suleyman. Ces SCAI combineront modèles de langage avancés, voix expressive et mémoire des conversations.
Elles ne resteront pas l’apanage des géants comme Microsoft ou OpenAI. De simples API suffiront à les déployer.
Son inquiétude la plus vive tient à la réaction collective. Une société pourrait bientôt réclamer des droits pour l’IA, sa citoyenneté ou même son bien-être, au détriment de débats essentiels sur les biais, l’emploi ou la sécurité des données.
Le PDG de Microsoft AI n’appelle pas à l’interdiction. Les entreprises doivent cesser d’anthropomorphiser leurs produits.
Pas question de suggérer qu’une IA comprend ou s’inquiète. Une frontière claire doit séparer l’intelligence émotionnelle utile, comme rédiger un e-mail empathique, de la manipulation affective.
D’autres experts abondent. Le Dr Susan Shelmerdine, spécialiste en IA et imagerie médicale au Great Ormond Street Hospital, compare ces systèmes à des informations ultratransformées et alerte sur une future avalanche d’esprits ultratransformés.
Elle imagine déjà des médecins demandant à leurs patients leur consommation d’IA, comme on le fait avec l’alcool ou le tabac.
- Partager l'article :
