IA

« Seulement 0,1% de chances qu’on survive à l’IA » : terrifiante prédiction d’un chercheur

À première vue, l'intelligence artificielle (IA) est un outil merveilleux qui simplifie nos vies de tous les jours. Toutefois, utilisée incorrectement, elle peut devenir un vecteur de criminalité ou de désinformation. Et souvent, les vrais risques se trouvent là où on les attend le moins.

La question de l'impact de l'intelligence artificielle (IA) sur notre avenir est de plus en plus discutée. Doit-on être méfiant vis-à-vis de la transformation entraînée par l'IA ? Roman Yampolskiy, un chercheur renommé en IA de l'Université de Louisville, a récemment fait une prédiction effrayante. Selon lui, il y a 99,9 % de risques que l'IA provoque la fin du monde au cours des 100 prochaines années.

Roman Yampolskiy discute de l'intelligence artificielle sur le podcast de Lex Fridman

Yampolskiy a partagé ses préoccupations dans un épisode du podcast de Lex Fridman. Il argue que, avec une IA capable de prendre un milliard de décisions par seconde pendant un siècle, le risque n'est pas négligeable. Apparemment, les superintelligences, ou AGI, pourraient évoluer au point que leur autonomie devienne incontrôlable.

Effectivement, il mentionne des accidents et des détournements de GPT, comme le « mode Dieu », récemment bloqué par . Pour lui, ces incidents sont des exemples palpables des dangers que nous risquons.

Quant à la communauté scientifique, elle est divisée. Certes, des experts comme Yann Le Cun, chef de l'IA chez , expriment aussi leurs inquiétudes.

Entre autre, le manque de considérations éthiques dans le développement de l'IA est régulièrement débattu. Mis à part quelques accords, il n'existe aucun consensus global sur l'ampleur des risques. Même si la technologie présente des avantages, le spectre de ses dangers potentiels reste préoccupant.

Sécurité ou destruction ? Un avenir incertain pour l'IA d'OpenAI

Récemment, un collectif composé d'anciens et actuels employés d'OpenAI a lancé un avertissement similaire.

Dans une lettre ouverte, ils ont critiqué la direction de la société pour sa négligence face aux risques de l'IA. Ils affirment être souvent réduits au silence quand ils soulèvent des problèmes de sécurité.

De cette façon, ils espèrent attirer l'attention du public sur ces enjeux critiques. Pendant ce temps, OpenAI a tenté de rassurer en soulignant sa confiance dans la gestion scientifique des risques.

Daniel Kokotajlo, ex-chercheur chez OpenAI, a particulièrement critiqué la firme dans une interview au New York Times. Il accuse les décideurs de se précipiter, fascinés par les promesses de l'IA, sans tenir compte de sa sécurité.

Même si , le patron d'OpenAI, a montré un certain intérêt pour les garde-fous, les mesures concrètes manquent encore. Au final, la société prétend que l'IA ne présenterait qu'environ 70 % de risques de nuire ou détruire l'humanité.

Personnellement, la prédiction de Roman Yampolskiy me fait vraiment réfléchir sur les risques associés à l'intelligence artificielle. Sans doute, cette technologie offre de grands avantages, mais ses dangers potentiels exigent une surveillance continue.

Comment pensez-vous que nous devrions réguler l'IA ? Partagez vos idées en commentaire.

Restez à la pointe de l'information avec LEBIGDATA.FR !

Abonnez-vous à notre chaîne YouTube et rejoignez-nous sur Google Actualités pour garder une longueur d'avance.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *