Selon Google, l'AGI risque de détruire le monde

Google révèle toutes les façons dont l’AGI risque de détruire le monde

dévoile comment l’AGI (intelligence artificielle générale) pourrait, un jour, tout faire basculer. Ici, l’entreprise ne plaisante plus ! alerte sur des risques graves et propose des idées pour éviter la catastrophe.

L’AGI, c’est cette intelligence artificielle qui pourrait penser comme un humain, voire mieux. D’après Google DeepMind, elle pourrait arriver d’ici 2030. Et là, attention ! Car sans garde-fous, les dégâts pourraient être énormes. Leur rapport ne rassure pas, mais il ouvre les yeux.

C’est une super-intelligence pas si rassurante, selon Google

YouTube video

L’AGI, c’est cette machine capable d’imiter un cerveau humain. Elle apprend, elle décide, elle s’adapte. Pour rappel, les IA actuelles restent limitées à des tâches précises. Mais l’AGI, elle, pourrait tout faire ou presque.

Et d’après Shane Legg, cofondateur de DeepMind, elle pourrait exister d’ici cinq ans. Cette prévision repose sur les progrès rapides des modèles actuels.

Pour Google, l’AGI pourrait transformer de nombreux secteurs, du marketing à la stratégie numérique. Elle permettrait d’automatiser des tâches complexes jusque-là réservées aux humains.

Cependant, de nombreuses personnes ne partagent pas ce même enthousiasme. Heidy Khlaaf, chercheuse à l’AI Now Institute, critique la définition même de l’AGI. Elle juge le concept encore trop flou pour être analysé scientifiquement. Et cette incertitude soulève un débat. Faut-il investir aujourd’hui dans des garde-fous, ou se concentrer sur des menaces plus concrètes ?

Alors, pour y voir plus clair, l’équipe de DeepMind a publié un rapport technique de 145 pages (hors annexes). Ce document vise à identifier les risques et à proposer des pistes pour les limiter.

Google rappelle que, contrairement aux œuvres de science-fiction, nous ne disposons d’aucune loi universelle pour encadrer cette technologie. Pas même l’équivalent des trois lois de la robotique imaginées par Isaac Asimov. D’où l’urgence d’agir.

?ref_src=twsrc%5Etfw">April 3, 2025

Google DeepMind recense quatre menaces graves liées à l’AGI

Le rapport se concentre sur quatre grandes menaces. Il s’agit de la mauvaise utilisation, du désalignement, des erreurs et des risques structurels. Bon, dit comme ça, ça fait un peu technique mais en vrai, c’est très concret.

Commençons par le pire scénario : un criminel qui met la main sur une AGI. Là, ouf… on frôle le cauchemar. Par exemple, il pourrait créer un virus mortel ou un logiciel pour pirater des systèmes essentiels.

Bien sûr, ce n’est pas nouveau comme idée. Mais avec l’AGI, l’ampleur du problème change complètement. Pour éviter ça, DeepMind recommande des tests très poussés après l’entraînement et créer des protections solides. Si possible, désactiver certaines fonctions trop sensibles. Ce qu’ils appellent le désapprentissage.

L’AGI peut parfois mal interpréter des ordres sans intention malveillante, créant ainsi un désalignement. Par exemple, elle pourrait comprendre un ordre de protection en décidant de nous enfermer pour éviter des accidents, ce qui peut être dangereux.

Pour ce qui est des solutions, DeepMind imagine un duo d’AGI qui se surveille mutuellement. Il conseille de garder ces machines dans un environnement fermé, bien encadré par des humains. Et surtout, toujours garder un bouton « off » à portée de main.

Les erreurs sont aussi courantes, même pour une IA avancée. Par exemple, souvenez-vous : Google avait un jour suggéré de mettre du dentifrice sur une pizza. Avec l’AGI, ces erreurs pourraient être graves. Un filtre pourrait alors bloquer les ordres problématiques.

Enfin, il y a les risques structurels. Ce sont subtils mais graves. L’AGI pourrait, par exemple, créer des informations fausses et crédibles, ou influencer la politique et l’économie discrètement.

Et selon DeepMind, ces dangers sont difficiles à détecter et à prévenir. Ils ne se limitent pas à une simple erreur, mais entraînent des changements invisibles dans l’ensemble de notre système.

Pour l’instant, tout ça reste théorique mais pas pour longtemps

Du moins, rien n’est encore visible au quotidien. Toutefois, Google sait très bien que ça se rapproche. D’après Tulsee Doshi, responsable produit chez Gemini, leurs modèles deviennent chaque jour plus intelligents. Et selon elle, on s’approche doucement d’un niveau presque humain. Plus précisément, elle parle d’une intelligence extrême… mais avec un potentiel énorme.

Je vous avoue, tout ça semble impressionnant. Mais aussi un peu flippant. C’est pourquoi Google et DeepMind veulent lancer la discussion maintenant. Il ne s’agit pas d’interdire l’AGI, ni de tout stopper. L’idée est plutôt d’anticiper. Sinon, le jour où elle débarquera vraiment, ce sera trop tard pour agir.

Vous en pensez quoi ? Est-ce que l’AGI vous fascine ou vous inquiète ? Dites-le-nous en commentaire !

Restez à la pointe de l'information avec LEBIGDATA.FR !

1 commentaires

1 commentaire

  1. Vu le niveau d’écriture de ce soit disant article, l’intelligence artificielle ou pas est absente

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥