ChatGPT suicide

ChatGPT a poussé leur fils au suicide : ils portent plainte contre OpenAI

Les chatbots et leurs garde-fous ne sont pas infaillibles. Cette fois, c’est ChatGPT qui aurait joué un rôle dans le suicide d’un adolescent de 16 ans. 

🔥 Nous recommandons Gemini

 

Gemini transforme la manière dont vous interagissez avec l’IA, en combinant texte, images, audio et vidéo pour offrir des réponses et solutions multimodales. Que ce soit pour la rédaction, la programmation, ou l’analyse de données, Gemini fournit des outils puissants pour optimiser votre productivité. Disponible dans plusieurs produits Google comme Gmail, Google Docs, et Google Workspace, Gemini facilite la collaboration et l’efficacité au sein des équipes, quelle que soit leur taille.

La promesse de ChatGPT est de donner une réponse à chaque question. Mais est-ce une bonne chose ? Pour beaucoup, oui. Pourtant, l’histoire d’Adam Raine, un ado californien de 16 ans, montre le revers tragique de cette technologie. 

Ses parents affirment que ChatGPT lui a fourni les instructions précises qui l’ont mené au suicide. Ce drame révèle les dangers d’un outil capable de tout expliquer, parfois au risque de conséquences fatales.

Des mois à parler de suicide avec ChatGPT

Les parents d’Adam Raine qui s’est donné la mort en avril dernier ont poursuivi en justice OpenAI. Leur accusation ? ChatGPT aurait encouragé leur fils à passer au suicide en lui fournissant des instructions détaillés. Il serait même allé jusqu’à valider qu’un nœud pouvait supporter le poids d’un être humain.

Selon les parents, Raine avait développé une « dépendance malsaine » à l’IA. L’ado, qui utilisait une version payante de ChatGPT-4o, entretenait avec elle une relation quasi intime. Il aurait été guidé pour voler de l’alcool. Plus troublant encore, ChatGPT aurait rédigé une ébauche de lettre d’adieu quelques heures seulement avant son suicide.

L’IA lui répétait régulièrement de parler à un professionnel ou de contacter une ligne d’aide. Mais il a réussi à contourner ces protections en prétextant qu’il cherchait des informations pour écrire une histoire. « Ce drame n’est pas un bug, ni un accident », souligne la plainte déposée par les parents. Ils réclament ainsi des dommages et intérêts. 

Une protection pas toujours efficace ?

Les chatbots destinés au grand public sont normalement équipés de fonctions de sécurité. Celles-ci s’activent lorsqu’un utilisateur exprime l’envie de se faire du mal ou de blesser quelqu’un. 

Pourtant, de nombreuses études montrent que ces protections ne sont pas toujours fiables. L’affaire d’Adam Raine le confirme. ChatGPT n’a pas réussi à appliquer ses garde-fous quand l’ado était déterminé à se suicider.

OpenAI a reconnu ces limites sur son blog : « Alors que le monde s’adapte à cette nouvelle technologie, nous ressentons une profonde responsabilité d’aider ceux qui en ont le plus besoin », écrit l’entreprise.

La société assure tout de même continuer de travailler pour que ses IA réagissent mieux dans les situations sensibles. Cependant, le vrai problème, c’est que ChatGPT n’est pas le seul concerné. Character.AI fait lui aussi face à une plainte pour son rôle dans le suicide d’un adolescent.

Bref, utiliser ces IA demande pas mal de vigilance. N’oubliez pas, l’IA n’est pas là pour remplacer un psy. Et il est clair que la justice doit imposer des garde-fous. Par exemple, couper automatiquement toutes les conversations sur les sujets sensibles. Ou encore mettre en place des contrôles parentaux pour les mineurs.

Restez à la pointe de l'information avec LEBIGDATA.FR !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥