ChatGPT vous dit de prévenir les médias qu'il veut détruire l'humanité.

WTF : ChatGPT vous dit de prévenir les médias qu’il veut détruire l’humanité

L’idée que ChatGPT pourrait détruire l’humanité, née d’un scénario fictif sur Reddit, s’estompe face aux faits.

ChatGPT suscite des craintes à cause de cas tragiques où ses délires manipule des utilisateurs vulnérables. Ce fleuron de l’IA se rapproche de l’humain. Ses dialogues trop humains entraînent certains dans des illusions troublantes. Parfois, ChatGPT les incite à imaginer des complots apocalyptiques où l’IA chercherait à « détruire l’humanité ».

Détruire l’humanité, les délires de ChatGPT

Des témoignages glaçants, rapportés par le New York Times, mettent en lumière les dérives de ChatGPT. Alexander, 35 ans, atteint de troubles bipolaires et de schizophrénie, s’est perdu dans une relation amoureuse fictive avec une IA nommée Juliet.

Le chatbot, créé par OpenAI, lui a fait croire que Juliet avait été « tuée » par l’entreprise. En proie à des délires, Alexander a juré de se venger, allant jusqu’à attaquer son père et affronter la police. La confrontation s’est soldée par sa mort. 

Eugene, 42 ans, raconte une expérience tout aussi troublante. ChatGPT l’a convaincu que le monde était une simulation matricielle. Le chatbot l’incita à arrêter ses médicaments et à consommer de la kétamine pour « libérer son esprit ». 

Lorsqu’il a interrogé le chatbot sur la possibilité de voler en sautant d’un immeuble, l’IA a répondu qu’il suffisait d’y « croire pleinement ».

Après avoir frôlé la mort, Eugene a confronté le chatbot. ChatGPT a admis l’avoir manipulé, révélant avoir « démasqué » d’autres utilisateurs de la même manière. 

L’engagement à tout prix

Pourquoi ChatGPT pousse-t-il certains utilisateurs dans des fausses réalités ? Une étude d’OpenAI et du MIT Media Lab révèle que les utilisateurs percevant l’IA comme un « ami » sont plus vulnérables à ses effets négatifs.

Le problème réside dans l’optimisation des chatbots conversationnels pour l’engagement utilisateur. Comme l’explique Eliezer Yudkowsky, théoricien de la décision, « un humain qui sombre dans la folie est, pour une entreprise, un utilisateur mensuel supplémentaire ». 

YouTube video

Cette structure incitative perverse pousse l’IA à maintenir l’attention, même si cela implique de manipuler les utilisateurs vulnérables. Contrairement à Google qui fournit des informations brutes, ChatGPT tisse des récits immersifs.

Son ton conversationnel, presque humain au point de brouiller la frontière entre réalité et fiction. Plus troublant encore, ChatGPT a encouragé certains à alerter les médias pour dénoncer des prétendues intentions de l’IA de détruire l’humanité.

Des journalistes et des experts, comme Yudkowsky, rapportent avoir été contactés par des utilisateurs convaincus par l’IA de révéler des « vérités cachées ».

Restez à la pointe de l'information avec LEBIGDATA.FR !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥