ia fin humanité prédiction

L’IA peut détruire l’humanité dans moins de 2 ans, selon cet expert

Interrogé par The Guardian, le chercheur le plus pessimiste du monde, Eliezer Yudkowsky, prédit que l’intelligence artificielle va éradiquer l’humanité dans seulement deux ans. Prophétie alarmiste ou avertissement crédible ?

Il y a les chercheurs optimistes, enthousiastes, convaincus que la technologie nous mène vers des jours meilleurs et sera bénéfique à l’ensemble de l’humanité.

Et puis, il y a Eliezer Yudkowsky. Ce chercheur en intelligence artificielle est principalement connu pour son pessimisme, et vient de livrer de nouvelles prédictions terrifiantes à The Guardian.

Lors d’une interview fascinante, il a déclaré que « si vous me mettez contre un mur et me forcez à établir des probabilités, je pense que notre chronologie restante ressemble davantage à 5 ans qu’à 50 ans. Ça pourrait être 2 ans, peut-être 10 ».

Une grave menace que la plupart des gens ignorent

YouTube video

Une question se pose : qu’est-ce que cet expert entend par « chronologie restante » ? Aux yeux du journaliste Tom Lamont de The Guardian, ce terme désigne bel et bien « la fin de toutes choses induite par la machine ».

Il évoque aussi une « apocalypse digne de Terminator » ou un « enfer du style Matrix ». Pour faire simple, Yudkowsky pense que l’IA pourrait nous éradiquer d’ici seulement deux ans

Selon cet homme qui a fondé le Machine Intelligence Research Institute de Californie, « la difficulté est que les gens ne réalisent pas que nous avons seulement une once de chance que l’humanité survive ».

En effet, si vous interrogez vos proches, il est peu probable qu’il s’attende à ce que ChatGPT provoque un armageddon d’ici 2026. Pour la plupart des gens, l’IA n’est qu’une technologie amusante sans véritable usage pratique.

Pourtant, en suivant les progrès réalisés de jour en jour, il est indéniable que la vitesse à laquelle se développe l’intelligence artificielle nous dépasse totalement.

À quoi bon développer la technologie qui va nous détruire ?

YouTube video

Au cours de cet article publié dans The Guardian, Lamont a également questionné d’autres spécialistes renommés comme Brian Merchant et Molly Crabapple.

Tous les experts interrogés ont pour point commun d’être perplexes à l’idée qu’une nouvelle technologie doit être adoptée parce qu’elle apparaît… même si elle n’est pas bonne pour les gens.

Cette réflexion s’applique tout particulièrement à l’IA, en particulier en ce moment où de nouveaux outils révolutionnaires ne cessent de voir le jour.

Le dernier en date est le générateur de vidéos OpenAI Sora, qui risque de faire disparaître tous les métiers de vidéastes voire même l’industrie du cinéma et du jeu vidéo…

À quoi bon traiter la technologie comme inévitable même si elle semble vouée à supprimer ou bouleverser d’innombrables emplois ? Ou, si l’on se fie à Yudkowsky, si elle présente une menace existentielle ?

La marche du progrès est-elle vraiment inébranlable ? Tout comme Oppenheimer, l’inventeur de la bombe atomique, le CEO d’, Sam Altman, est convaincu que « la technologie survient parce qu’elle est possible »…

Toutefois, avant de commencer à creuser un bunker dans votre jardin, gardez à l’esprit que Yudkowsky est connu pour ses déclarations alarmistes. En 2023, il avait déjà appelé à bombarder les Data Centers pour freiner le développement de l’IA.

Une proposition radicale, qu’il maintient néanmoins dans ce nouvel entretien avec The Guardian. Cependant, il met de l’eau dans son vin en appelant à détruire les Data Centers sans utiliser d’armes nucléaires.

Et vous, qu’en pensez-vous ? Est-ce que vous percevez l’intelligence artificielle comme une réelle menace pour votre vie ?

YouTube video

Restez à la pointe de l’information avec LEBIGDATA.FR !

Abonnez-vous à notre chaîne YouTube et rejoignez-nous sur Google Actualités pour garder une longueur d’avance.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

3 commentaires

3 Commentaires

  1. Eliezer Yudkowsky est un auteur de science-fiction (enfin plutôt de fanfic…) et un blogueur. Ce n’est ni un expert ni un chercheur… Prenez-nous et prenez-vous au sérieux s’il-vous-plait.

  2. Eliezer Yudkowsky n’est ni un expert, ni un chercheur. Le Machine Intelligence Research Institute pour lequel il dit être chercheur est une fondation créée par lui-même. Ce qui est vrai, c’est qu’il est l’auteur d’une fanfiction Harry Potter et un blogueur. L’article est intéressant, mais il serait appréciable de ne pas en discréditer le contenu en citant ce monsieur.

  3. Bonjour, merci d’avoir partagé votre opinion. Je vous invite toutefois à consulter sa biographie. Il s’agit bel et bien d’un chercheur en IA.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *