Face aux dangers d’une intelligence artificielle surhumaine, le chercheur en machine learning Eliezer Yudkowsky appelle à interdire le développement d’une telle IA et à bombarder militairement les Data Centers d’un pays qui ne respecterait pas cette règle…
L’intelligence artificielle se développe vite, très vite, à tel point que l’humanité peine à suivre son rythme. Si aucune mesure n’est prise, nous risquons de perdre le contrôle de cette technologie surpuissante.
Afin d’éviter ce désastre, Elon Musk et plus de 1000 experts ont signé une lettre ouverte le 28 mars 2023. Ils appellent à faire une pause d’au moins six mois dans le développement d’IA plus puissantes que GPT-4, pour éviter une crise mondiale.
De nombreuses personnalités ont signé cette pétition, dont le co-fondateur d’Apple Steve Wozniak et l’ancien candidat aux élections présidentielles américaines Andrew Yang.
Toutefois, pour le chercheur en machine learning Eliezer Yudkowsky, il faut aller encore plus loin. Dans une tribune publiée par le magazine Time, il appelle tout bonnement à détruire militairement les Data Centers avant que l’IA ne se révolte contre nous…
Un moratoire de six mois ne suffit pas
Cet expert avoue ne pas avoir signé la lettre, car il pense qu’elle « sous-estime le sérieux de la situation et demande trop peu pour y remédier ».
À ses yeux, le véritable danger n’est pas une intelligence artificielle capable de rivaliser avec l’humain, mais « ce qui arrive après ».
Comme il l’explique, « les seuils clés ne sont pas évidents, et nous ne pouvons pas calculer à l’avance ce qui surviendra ». Ainsi, il est « actuellement imaginable qu’un laboratoire de recherche franchisse les limites sans s’en apercevoir ».
D’après lui, « le résultat le plus probable de la création d’une IA supérieurement intelligente à l’humain est que littéralement tout le monde sur Terre meurt ».
L’expert sonne l’alarme depuis 20 ans
eliezer has IMO done more to accelerate AGI than anyone else.
— Sam Altman (@sama) February 3, 2023
certainly he got many of us interested in AGI, helped deepmind get funded at a time when AGI was extremely outside the overton window, was critical in the decision to start openai, etc.
Déjà critiqué par le CEO d’OpenAI pour ses prédictions catastrophistes, Yudkowksy sonne l’alarme depuis plus de 20 ans sur le futur dystopique que pourrait causer une AGI (intelligence artificielle généraliste).
Toutefois, il souligne ne pas être la seule personne à avoir pointé ces risques du doigt. Il cite notamment un sondage au cours duquel un grand nombre d’experts ont exprimé une vive inquiétude quant aux « risques existentiels » posés par l’IA.
Ces risques ne sont pas seulement des « possibilités distantes » comme il l’écrit dans Time. Le problème n’est pas que « vous ne pouvez pas survivre à la création d’une chose plus intelligente que vous ».
Néanmoins, « cela nécessiterait de la précision et de la préparation et de nouvelles informations scientifiques, et probablement pas des systèmes IA composés de gigantesques tableaux de nombres fractionnaires insondables »…
Interdire l’IA quitte à bombarder un pays ?
Ainsi, pour Yudkowsky, il n’y a qu’une seule solution pour mettre à terme à la menace existentielle d’une AGI hostile : « tout éteindre », par tous les moyens nécessaires.
Il appelle notamment à « éteindre tous les larges clusters de GPU (les larges fermes d’ordinateurs où les plus puissantes IA sont raffinées ». À « éteindre tous les larges runs d’entraînement ».
Par ailleurs, le chercheur invite à « mettre un plafond sur la puissance que quiconque est autorisé à utiliser dans l’entraînement d’un système IA, et la réduire au fil des années à venir pour compenser l’efficacité accrue des algorithmes d’entraînement ». Et ce, sans faire d’exceptions pour les gouvernements ou les armées.
Quiconque enfreint ces règles devrait être lourdement sanctionné financièrement. Si les services de renseignement révèlent qu’un pays hors de l’accord construit un cluster de GPU, cela devrait être traité comme une menace plus grave qu’un conflit armé. Dès lors, le Data Center doit être « détruit par une frappe aérienne ».
Afin de justifier ses propositions extrêmes, Yudkowsky évoque une conversation avec sa femme. Le couple est effrayé à l’idée que leur fille Nina ne survive pas à l’âge adulte si nous continuons à construire des IA de plus en plus intelligentes…
Ce spécialiste appelle aussi les plus modérés à adopter une ligne tout aussi dure, car s’ils ne le font pas, « leurs propres enfants vont mourir aussi »…
Et vous, qu’en pensez-vous ? Ces prédictions alarmistes sont-elles une exagération, ou craignez-vous réellement de perdre la vie à cause de l’IA ?
- Partager l'article :
le problème principal est « à quoi est connectée cette IA »
si bien qu’elle prendra le contrôle total de ce qu’on lui a offert !
et aussi que pour l’instant lA ne sait pas expliquer ses choix alors qu’il existe des languages comme Prolog qui permettent d’EXACTEMENT savoir ce qui se passe…
de plus les données utilisées sont vraiment en vrac alors que cela devrait être SOIGNEUSEMENT trié et choisi sinon il est évident qu’on obtient des résultats délirants du pur n’importe quoi, généré par les incoherences qu’on a laissé passer parce qu’on n’a pas tout regardé…
et si on s’appuie là dessus comme vérité ultime, c’est la destruction assurée !…
a la limite au début ne lui donner que les texte d’un seul auteur pour avoir son style pur.