les dangers de l'IA

Esclavage, bioterrorisme, drones tueurs : le CEO d’Anthropic alerte sur les dangers de l’IA

Trop fort, trop vite, trop loin ? Le patron d’Anthropic tire la sonnette d’alarme. Dans un essai dense de 38 pages, Dario Amodei décrit les dangers de l’IA. Cette dernière serait capable d’asservir, de tuer et de rendre l’humain obsolète.

L’IA n’a jamais autant fasciné. Elle promet d’aider, d’accélérer, de simplifier, parfois même d’éblouir. Pourtant, cette innovation suscite aussi une inquiétude grandissante. Les dangers de l’IA s’invitent désormais au cœur des débats, y compris chez ceux qui la conçoivent. Cette fois, l’alerte vient de l’intérieur. Dario Amodei, CEO et cofondateur d’Anthropic, a publié un long essai pour prévenir des dérives possibles d’une IA dite « super-intelligente ».

Dangers de l’IA : pourquoi Amodei s’inquiète t-il ?

Dans son texte intitulé L’adolescence de la technologie, Dario Amodei affirme que des systèmes d’IA capables de s’auto-améliorer pourraient émerger « d’ici un à deux ans ». 

Le Financial Times note que Amodei craint « une rupture technologique sans précédent ». Selon lui, cette rupture entraînerait des dangers de l’IA majeurs, allant jusqu’à la possibilité d’une « destruction massive ». Pourquoi ainsi une telle inquiétude ?

L’auteur insiste sur la vitesse. L’évolution de l’IA est trop rapide pour les institutions. Trop rapide pour la société. Cette innovation dépasserait l’humain dans presque tous les domaines, sans garde-fous suffisants.

YouTube video

De même, des études académiques et rapports internationaux sur l’IA mettent en garde contre les risques liés aux systèmes auto-apprenants, notamment pour les applications militaires ou le bioterrorisme.

L’affirmation du CEO d’Anthropic rappelle des discours déjà entendus, souvent repris par les dirigeants du secteur.Amodei assume cette position. « Il ne faudra certainement pas plus de quelques années avant que l’IA ne surpasse les humains dans pratiquement tous les domaines », écrit-il. Ce qui souligne combien la course à l’innovation peut amplifier les dangers de l’IA existants.

YouTube video

Les dangers de l’IA les plus spectaculaires

L’essai détaille plusieurs menaces concrètes. L’une des plus inquiétantes concerne le bioterrorisme assisté par IA. Amodei redoute des systèmes capables d’aider à concevoir des agents biologiques dangereux, à grande échelle. Cela sans expertise humaine avancée.

Un autre danger pour l’humanité consiste aux drones armés contrôlés par une IA malveillante. Dans ce scénario, la machine ne se contente plus d’exécuter des ordres. Elle planifie, optimise et agit de manière autonome. La perspective alimente depuis longtemps la science-fiction, mais qui, selon Amodei, se rapproche dangereusement du réel.

YouTube video

Il évoque aussi l’obsolescence massive du travail humain. Des pans entiers de la population deviendraient inutiles économiquement. Une forme d’asservissement moderne, non pas par la chaîne, mais par l’algorithme.

Un discours qui « anthopomorphise »  la machine

C’est là que le bât blesse. Amodei décrit l’IA comme une entité presque vivante. Il parle de systèmes psychologiquement complexes, dotés d’une forme d’identité propre. Le CEO va jusqu’à présenter les modèles d’Anthropic comme cherchant à être une bonne personne.

Ce glissement pose problème. Car les LLM actuels ne pensent pas. Ils prédisent des mots. Ils n’ont ni conscience, ni intention, ni empathie. De nombreux chercheurs rappellent déjà une telle réalité.

YouTube video

Le texte critique souligne cette dérive. À force de dialoguer avec ses propres créations, Amodei semble projeter sur elles des caractéristiques humaines. Ce qui renforce l’idée de dangers de l’IA imminents.

Cette confusion entre fiction et réalité peut alimenter un discours anxiogène. Cela amplifie la peur autour de l’IA plutôt que d’informer sur ses risques concrets.

La psychose de l’IA, un symptôme révélateur

Coïncidence troublante, le New York Times publiait au même moment une enquête sur la « psychose liée à l’IA ». Des utilisateurs vulnérables développent des délires ou une dépendance émotionnelle aux chatbots. Avec le temps, certains finissent par croire que la machine est vivante.

Comme le souligne Time dans son article sur le phénomène appelé « AI psychosis », des interactions prolongées avec des chatbots comme ChatGPT peuvent induire des idées fausses, voire des comportements irrationnels chez certaines personnes.

Le phénomène repose en effet sur une illusion. Les IA conversationnelles imitent à la perfection le langage humain. Avec le temps, certains oublient qu’il n’y a « pas d’esprit derrière l’écran ».

L’article de Timothy Beck Werth pour Fortune le rappelle : « Lorsqu’un vendeur d’IA vous affirme que l’IA est une technologie irrésistible […] vous devriez prendre cette prédiction pour ce qu’elle est : un argument de vente. » Une phrase qui résume bien l’ambiguïté du discours.

Catastrophisme et intérêts économiques

Le catastrophisme des dangers de l’IA  n’est pas nouveau. Il revient par vagues. Toujours avec la même promesse qui est la singularité approche.

Pourtant, les faits tempèrent cet enthousiasme. Les rendements décroissent. Plusieurs projets d’IA d’entreprise échouent. Des études, y compris chez Apple, parlent d’« illusion de penser ». Même les modèles les plus attendus déçoivent.

Dans ce contexte, maintenir la peur sert aussi un objectif de justifier des investissements colossaux. L’infrastructure IA coûte cher. Et le secteur a besoin que l’argent continue d’affluer.

YouTube video

Amodei plaide pour la réglementation de l’IA, un point à son crédit. Il cite le terme à de nombreuses reprises. Mais il mélange souvent risques avérés et scénarios spéculatifs, brouillant la frontière entre recherche scientifique et récit alarmiste.

L’IA reste un outil puissant. Et comme tout outil puissant, elle devient dangereuse entre de mauvaises mains. Les vrais problèmes existent déjà. Des licenciements automatisés basés sur des projections douteuses, des Deepfakes non consensuels ou encore de la surveillance algorithmique.

Ces dérives ne relèvent pas de la science-fiction. Elles touchent déjà des millions de personnes. Elles appellent des réponses politiques, juridiques et sociales concrètes. À force de regarder vers un futur apocalyptique peu probable, le risque sur les dangers de l’Ia reste le même. Celui de détourner l’attention des dégâts actuels, bien tangibles, causés par une adoption

Restez à la pointe de l'information avec LEBIGDATA.FR !

▶ Abonnez-vous à notre chaîne YouTube et Ajoutez-nous à vos favoris sur Google Actualités
Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥