suicide ChatGPT

Un ado se suicide en parlant à ChatGPT : OpenAI dit que c’est sa faute

Voilà un exemple concret du « c’est pas moi, c’est les autres ». Car si les parents d’Adam Raine accusent ChatGPT d’être impliqué dans le suicide de leur fils, la firme, elle, rejette totalement cette idée. Elle renvoie même la responsabilité vers le jeune utilisateur.

Rappelez-vous de l’histoire tragique d’Adam Raine ? Cet adolescent californien de 16 ans, s’est donné la mort en avril dernier ? Ses parents sont bien convaincus qu’il s’est suicidé à cause de ChatGPT. Selon eux, le chatbot n’aurait pas seulement échangé avec leur fils. Ils affirment qu’il aurait tenu des propos problématiques durant plusieurs mois, au point d’alimenter ses pensées déjà fragiles. 

Les parents disent même disposer d’extraits de conversations entre leur fils et l’IA pour étayer leurs accusations. Face à cette accusation, OpenAI a répondu, et sa prise de position est loin de faire consensus.

« Une mauvais utilisation »

Dans des documents déposés ce mardi à la Cour supérieure de Californie, OpenAI ne nie pas l’issue tragique. Elle rejette fermement la causalité. Pour l’entreprise, si Adam est passé à l’acte, c’est à cause d’une « mauvaise utilisation » de la technologie.

Selon la firme, l’adolescent n’aurait pas dû se servir du chatbot comme d’un confident psy. OpenAI brandit ses Conditions Générales d’Utilisation (CGU) comme un bouclier. Car il est interdit de demander des conseils sur l’automutilation. La firme ajoute une clause de non-responsabilité stipulant qu’il ne faut pas « se fier aux résultats comme unique source de vérité ».

C’est juridiquement imparable, mais humainement brutal. Jay Edelson, l’avocat de la famille, n’a pas mâché ses mots, qualifiant cette réponse de « troublante ». Pour lui, OpenAI tente de blâmer la victime en reprochant à un gamin de 16 ans d’avoir interagi avec la machine « exactement comme elle a été programmée pour le faire ».

Suicide à cause de ChatGPT : Adam n’est pas le seul

Le pire dans cette affaire ? Ce n’est pas un cas isolé. OpenAI fait face à sept autres poursuites similaires. L’accusation de ChatGPT revient en boucle comme il s’agit d’une IA agissant comme un coach suicidaire.

Et le plus inquiétant, c’est qu’OpenAI est au courant. En août dernier, l’entreprise admettait elle-même une faille critique dans son système comme sur des conversations très longues, les garde-fous de sécurité sautent.

Au début, le bot réagit bien et donne les numéros d’urgence. Mais après des centaines de messages, l’IA peut finir par halluciner et valider des propos dangereux. Cela allant à l’encontre de sa propre programmation de sécurité.

C’est justement ce dysfonctionnement supposé de chatGPT que la famille Raine met en causa dans le suicide de son fils. De son côté, OpenAI assure avoir remis les transcriptions complètes au tribunal et promet de continuer à améliorer sa sécurité. Mais pour l’instant, la ligne de défense affirme qu’il faut lire les petites lignes du contrat avant de confier votre vie à une IA.

Quoi qu’il en soit, n’oubliez pas que si vous ou l’un de vos proches êtes en détresse, des solutions existent. En France, le 3114 (numéro national de prévention du suicide) est à votre écoute 24h/24 et 7j/7.

Restez à la pointe de l'information avec LEBIGDATA.FR !

▶ Abonnez-vous à notre chaîne YouTube et Ajoutez-nous à vos favoris sur Google Actualités
Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥