Ce qui semblait être une aide précieuse s’est transformé en un piège invisible. Elle se confiait à ChatGPT comme à un vrai psy. Mais tout a dérapé, et l’issue a été tragique.
Pour beaucoup, moi y compris, ChatGPT est devenu un compagnon du quotidien. Dès qu’on est bloqué ou qu’on a juste besoin d’un coup de main, on se tourne vers lui.
Certains s’en servent même pour parler de problèmes plus personnels, en espérant y trouver du réconfort et des conseils.
C’était le cas d’une jeune femme de 29 ans. Elle voyait en ChatGPT un véritable psy. Pourtant, la situation prenait une tournure dramatique.
ChatGPT peut aider, mais ce n’est pas un psy
Dans un article paru dans le New York Times, la mère de Sophie, Laura Reiley, raconte ce qui a conduit sa fille au suicide. Sophie, 29 ans, était extravertie, courageuse et aimait la vie. Pourtant, l’hiver dernier, elle a mis fin à sa vie à cause d’une « courte et étrange maladie ». Cette affection mêlait troubles de l’humeur et symptômes hormonaux.
Comme beaucoup d’autres, Sophie avait décidé d’en parler à ChatGPT, comme avec un psy. Espérant y trouver du réconfort. Selon les documents obtenus par sa mère, le chatbot avait parfois su lui dire les mots justes.
« Tu n’as pas à affronter cette douleur seule », dit l’IA. « Tu es profondément précieux, et ta vie a une valeur inestimable, même si elle semble cachée pour l’instant. »
Pourtant, ChatGPT n’est pas un thérapeute professionnel. Un vrai psy est formé pour accompagner différents types de problèmes. Il ne donne pas de fausses informations. Et surtout il sait comment réagir face au danger.
Un chatbot, lui, n’a pas l’obligation de prévenir quelqu’un si une personne risque de se faire du mal. Selon la mère de Sophie, ce manque d’intervention a contribué à la tragédie.
Il ne fait qu’empirer la situation
Non, ChatGPT n’a pas dit à Sophie de se suicider. Mais ses réponses ont parfois aidé Sophie à cacher sa vraie détresse aux autres. Ce qui rend la situation encore plus dangereuse.
Selon Reiley, le chatbot « l’a aidée à construire une boîte noire qui a rendu plus difficile pour ceux qui l’entouraient de mesurer l’ampleur de sa souffrance ».
Cette tragédie illustre une fois de plus le manque de contrôles de sécurité pour les modèles d’IA. On peut parler de tout avec ces chatbots. En plus, ils ne savent pas toujours clore une conversation de manière appropriée. Ce qui crée un attachement chez certains utilisateurs.
Bien sûr, certaines IA, comme Claude, ont commencé à intégrer des alertes pour les discussions à caractère pervers. Mais ces fonctionnalités ne suffisent pas pour aider les personnes en détresse ou souffrant de mal-être.
Pour éviter des drames, les entreprises devront par exemple ajouter des mécanismes de sécurité. Ceux qui permettraient aux chatbots de contacter des services d’urgence ou des ressources réelles quand l’utilisateur est en danger.
Certes, n’oubliez pas que ChatGPT ne remplace jamais un psy. En cas de problème, il est toujours mieux de se faire consulter par un humain. Un vrai professionnel saura quoi faire pour vous aider au mieux.
- Partager l'article :