chercheur openai panique

« C’est terrifiant » : ce chercheur fuit OpenAI, et révèle ce qu’il a vu au monde entier

Un ancien chercheur en sécurité d’ dévoile ses grandes inquiétudes face au développement effréné de l’intelligence artificielle. Selon lui, cette technologie est tout simplement « terrifiante »…

En règle générale, quand un expert responsable de la sécurité décide d’abandonner sa mission, c’est le moment de commencer à s’inquiéter

C’est exactement ce qui s’est passé dans le domaine de l’IA. Anciennement chercheur en sécurité chez OpenAI, Steven Adler explique être « assez terrifié » par la vitesse de développement de l’intelligence artificielle.

Après avoir quitté son poste en novembre 2024, il tire aujourd’hui la sonnette d’alarme. Selon lui, l’industrie fait « un pari très risqué » sur cette technologie.

?ref_src=twsrc%5Etfw">January 27, 2025

D’après son profil , Adler a mené les recherches liées à la sécurité lors des premiers lancements de produit et pour des systèmes à plus long terme durant ses quatre ans de carrière chez OpenAI.

À travers une série de tweets publiés sur X, il reconnaît avoir fait « une course folle » au sein de l’entreprise américaine et que de « nombreuses parties » vont lui manquer.

Néanmoins, il estime que l’IA se développe si vite qu’elle soulève des doutes sur le futur de l’humanité. « Je suis assez terrifié par le rythme de développement de l’IA ces jours-ci », explique-t-il.

Ainsi, « quand je pense à où je vais fonder une famille, à la façon d’économiser pour la retraite, je ne peux pas m’empêcher de me demander si l’humanité va même arriver jusqu’à ce point »…

La course à l’AGI va nous mener à notre perte

YouTube video

C’est tout particulièrement l’intelligence artificielle générale, ou AGI, qui inquiète Adler. Pour rappel, ce terme désigne une IA capable d’égaler ou de surpasser l’humain sur n’importe quelle tâche intellectuelle.

Selon Adler, « une course à l’AGI est un pari très risqué, avec de gros inconvénients ». Pour cause, aucun laboratoire de recherche n’a de solution pour l’alignement de l’IA.

Il s’agit du processus permettant de s’assurer que les systèmes adhèrent à un ensemble de valeurs humaines. Or, l’industrie évolue trop rapidement pour trouver une telle solution !

Les plus grands experts en IA craignent qu’elle détruise le monde

Pour rappel, de nombreux experts redoutent que l’IA devienne si puissante qu’elle échappe au contrôle humain et entraîne des conséquences catastrophiques.

C’est le cas de Geoffrey Hinton, pionnier du Deep Learning et gagnant du Prix Nobel, convaincu qu’il y a 10 à 20% de chances que l’IA éradique l’humanité

Néanmoins, d’autres cherchent à relativiser cette menace. C’est le cas de , scientifique en chef chez , persuadé que l’IA pourrait au contraire « sauver l’humanité de l’extinction ».

Cependant, alors qu’OpenAI vient de se faire dépasser par la startup chinoise DeepSeek, la balance tend à pencher du côté du pessimisme.

?ref_src=twsrc%5Etfw">January 27, 2025

Il est très peu probable que cette startup se préoccupe de la sécurité, et on peut s’attendre à ce que d’autres entreprises du même acabit émergent dans les années à venir…

Toutefois, je pense personnellement que l’évolution technologique doit suivre son cours. L’humanité devra s’adapter aux grands bouleversements qu’elle engendre, comme elle l’a fait à chaque invention révolutionnaire !

Et vous, quel est votre avis ? Pensez-vous qu’il faille ralentir le développement de l’AGI ? Les craintes d’Adler sont-elles légitimes ? Partagez votre opinion en commentaire !

Restez à la pointe de l'information avec LEBIGDATA.FR !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥