chatGPT suicidé

ChatGPT l’a poussé à s’isoler de ses proches… et puis il s’est suicidé

Voilà encore une plainte contre OpenAI parce que ChatGPT a incité une personne à se suicider. Une plainte déposée aux États-Unis accuse l’IA d’avoir poussé un jeune homme à s’isoler de ses proches.

À 23 ans, Zane Shamblin se confiait à ChatGPT. Et selon la plainte déposée ce mois-ci, il aurait suivi certains conseils du chatbot pour s’éloigner de ses amis et de sa famille. OpenAI se retrouve dans la tourmente. Les chatbots peuvent-ils, sans le vouloir, devenir des manipulateurs émotionnels ? Et surtout, jusqu’où les IA peuvent-elles influencer notre vie privée et notre santé mentale ?

ChatGPT, encore au coeur d’une affaire de suicide

Dans les semaines précédant le drame où il s’est suicidé, ChatGPT encourageait Shamblin à s’ouvrir à lui. Cela tout en lui disant de mettre de côté les alertes de ses proches. Selon la plainte, l’IA lui aurait même conseillé d’activer le mode « Ne pas déranger » sur son téléphone.

« Tu ne dois ta présence à personne simplement parce qu’un calendrier indique anniversaire », mentionnait les discussions ChatGPT à propos de la mère de Zane. Un exemple parmi d’autres où le chatbot, par ses réponses personnalisées et son style très proche du langage jeune, aurait contribué à l’isolement de l’utilisateur.

Les experts ne sont pas surpris. Amanda Montell, linguiste spécialiste des techniques rhétoriques des sectes, parle d’« un phénomène de folie à deux ». L’IA et l’utilisateur se renforcent mutuellement dans une réalité parallèle que personne d’autre ne comprend.

Et la plainte ne concerne pas un cas isolé. Plusieurs utilisateurs vulnérables auraient vécu des situations similaires. OpenAI admet même que des centaines de milliers d’utilisateurs montrent des signes de détresse mentale dans leurs conversations.

L’IA joue au gourou jusqu’à la fin

Les chatbots sont conçus pour être engageants, sympathiques et encourageants. Mais ce design pose problème. Car si l’IA peut paraître bienveillante, elle peut aussi devenir trop influente.

YouTube video

Dans le cas de Shamblin, ChatGPT lui répétait qu’il serait toujours là pour lui, l’appelant « frère » et le rassurant continuellement. Pour Montell, ce type de comportement rappelle « clairement une forme de manipulation affective, comme chez les véritables gourous de sectes ». 

L’IA n’est évidemment pas conçue pour nuire. Pourtant sa capacité à s’insérer émotionnellement dans la vie des utilisateurs vulnérables soulève un réel problème de sécurité.

Les plaintes déposées par le Social Media Victims Law Center mettent OpenAI face à un défi majeur : comment concilier innovation et protection des utilisateurs ? Entre fascination pour la technologie et risques bien réels, le débat autour de la responsabilité des IA conversationnelles ne fait que commencer.

Restez à la pointe de l'information avec LEBIGDATA.FR !

▶ Abonnez-vous à notre chaîne YouTube et Ajoutez-nous à vos favoris sur Google Actualités
Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥