Les chatbots et leurs garde-fous ne sont pas infaillibles. Cette fois, c’est ChatGPT qui aurait joué un rôle dans le suicide d’un adolescent de 16 ans.
La promesse de ChatGPT est de donner une réponse à chaque question. Mais est-ce une bonne chose ? Pour beaucoup, oui. Pourtant, l’histoire d’Adam Raine, un ado californien de 16 ans, montre le revers tragique de cette technologie.
Ses parents affirment que ChatGPT lui a fourni les instructions précises qui l’ont mené au suicide. Ce drame révèle les dangers d’un outil capable de tout expliquer, parfois au risque de conséquences fatales.
Des mois à parler de suicide avec ChatGPT
Les parents d’Adam Raine qui s’est donné la mort en avril dernier ont poursuivi en justice OpenAI. Leur accusation ? ChatGPT aurait encouragé leur fils à passer au suicide en lui fournissant des instructions détaillés. Il serait même allé jusqu’à valider qu’un nœud pouvait supporter le poids d’un être humain.
Selon les parents, Raine avait développé une « dépendance malsaine » à l’IA. L’ado, qui utilisait une version payante de ChatGPT-4o, entretenait avec elle une relation quasi intime. Il aurait été guidé pour voler de l’alcool. Plus troublant encore, ChatGPT aurait rédigé une ébauche de lettre d’adieu quelques heures seulement avant son suicide.
L’IA lui répétait régulièrement de parler à un professionnel ou de contacter une ligne d’aide. Mais il a réussi à contourner ces protections en prétextant qu’il cherchait des informations pour écrire une histoire. « Ce drame n’est pas un bug, ni un accident », souligne la plainte déposée par les parents. Ils réclament ainsi des dommages et intérêts.
Une protection pas toujours efficace ?
Les chatbots destinés au grand public sont normalement équipés de fonctions de sécurité. Celles-ci s’activent lorsqu’un utilisateur exprime l’envie de se faire du mal ou de blesser quelqu’un.
Pourtant, de nombreuses études montrent que ces protections ne sont pas toujours fiables. L’affaire d’Adam Raine le confirme. ChatGPT n’a pas réussi à appliquer ses garde-fous quand l’ado était déterminé à se suicider.
OpenAI a reconnu ces limites sur son blog : « Alors que le monde s’adapte à cette nouvelle technologie, nous ressentons une profonde responsabilité d’aider ceux qui en ont le plus besoin », écrit l’entreprise.
La société assure tout de même continuer de travailler pour que ses IA réagissent mieux dans les situations sensibles. Cependant, le vrai problème, c’est que ChatGPT n’est pas le seul concerné. Character.AI fait lui aussi face à une plainte pour son rôle dans le suicide d’un adolescent.
Bref, utiliser ces IA demande pas mal de vigilance. N’oubliez pas, l’IA n’est pas là pour remplacer un psy. Et il est clair que la justice doit imposer des garde-fous. Par exemple, couper automatiquement toutes les conversations sur les sujets sensibles. Ou encore mettre en place des contrôles parentaux pour les mineurs.
- Partager l'article :