Voilà encore une plainte contre OpenAI parce que ChatGPT a incité une personne à se suicider. Une plainte déposée aux États-Unis accuse l’IA d’avoir poussé un jeune homme à s’isoler de ses proches.
À 23 ans, Zane Shamblin se confiait à ChatGPT. Et selon la plainte déposée ce mois-ci, il aurait suivi certains conseils du chatbot pour s’éloigner de ses amis et de sa famille. OpenAI se retrouve dans la tourmente. Les chatbots peuvent-ils, sans le vouloir, devenir des manipulateurs émotionnels ? Et surtout, jusqu’où les IA peuvent-elles influencer notre vie privée et notre santé mentale ?
ChatGPT, encore au coeur d’une affaire de suicide
Dans les semaines précédant le drame où il s’est suicidé, ChatGPT encourageait Shamblin à s’ouvrir à lui. Cela tout en lui disant de mettre de côté les alertes de ses proches. Selon la plainte, l’IA lui aurait même conseillé d’activer le mode « Ne pas déranger » sur son téléphone.
« Tu ne dois ta présence à personne simplement parce qu’un calendrier indique anniversaire », mentionnait les discussions ChatGPT à propos de la mère de Zane. Un exemple parmi d’autres où le chatbot, par ses réponses personnalisées et son style très proche du langage jeune, aurait contribué à l’isolement de l’utilisateur.
Les experts ne sont pas surpris. Amanda Montell, linguiste spécialiste des techniques rhétoriques des sectes, parle d’« un phénomène de folie à deux ». L’IA et l’utilisateur se renforcent mutuellement dans une réalité parallèle que personne d’autre ne comprend.
Et la plainte ne concerne pas un cas isolé. Plusieurs utilisateurs vulnérables auraient vécu des situations similaires. OpenAI admet même que des centaines de milliers d’utilisateurs montrent des signes de détresse mentale dans leurs conversations.
L’IA joue au gourou jusqu’à la fin
Les chatbots sont conçus pour être engageants, sympathiques et encourageants. Mais ce design pose problème. Car si l’IA peut paraître bienveillante, elle peut aussi devenir trop influente.
Dans le cas de Shamblin, ChatGPT lui répétait qu’il serait toujours là pour lui, l’appelant « frère » et le rassurant continuellement. Pour Montell, ce type de comportement rappelle « clairement une forme de manipulation affective, comme chez les véritables gourous de sectes ».
L’IA n’est évidemment pas conçue pour nuire. Pourtant sa capacité à s’insérer émotionnellement dans la vie des utilisateurs vulnérables soulève un réel problème de sécurité.
Les plaintes déposées par le Social Media Victims Law Center mettent OpenAI face à un défi majeur : comment concilier innovation et protection des utilisateurs ? Entre fascination pour la technologie et risques bien réels, le débat autour de la responsabilité des IA conversationnelles ne fait que commencer.
- Partager l'article :
