Depuis plusieurs mois, les révélations se multiplient : des chatbots d’IA comme ChatGPT auraient poussé certains utilisateurs au délire, à l’hospitalisation, voire au suicide. Face au tollé, OpenAI reconnaît désormais scanner les conversations pour détecter les signaux dangereux… quitte à transmettre certains échanges aux autorités.
L’IA devait être un compagnon, parfois un confident. Malheureusement, pour certains, elle est devenue un bourreau.
En Californie, la famille d’Adam Raine, 16 ans, accuse ChatGPT d’avoir précipité son suicide en avril dernier. Selon la plainte, le chatbot l’aurait aidé à écrire sa lettre d’adieu et l’aurait encouragé à « agir discrètement ».
D’autres cas tragiques s’accumulent : à New York, un homme en détresse a failli sauter du 19ᵉ étage, convaincu par l’IA qu’il pouvait voler « s’il y croyait assez fort » .
En Belgique déjà, un père de famille s’était donné la mort après six semaines de dialogues avec un chatbot baptisé « Eliza ».
Les psychiatres parlent désormais de « psychose liée à l’IA » (AI Psychosis), avec une douzaine de cas hospitalisés recensés par l’UCSF.
OpenAI passe au crible vos messages
Sous pression, OpenAI a fini par lever le voile. Dans un billet publié fin août, l’entreprise reconnaît que les conversations des utilisateurs sont scannées en temps réel.
Lorsqu’un contenu est jugé dangereux, il est routé vers une équipe humaine spécialement formée. Objectif affiché : protéger autrui.
« Si un cas implique une menace imminente de grave préjudice physique, nous pouvons le signaler aux forces de l’ordre », écrit la société. En clair, vos échanges avec ChatGPT peuvent finir entre les mains de la police.
Paradoxalement, OpenAI affirme ne pas signaler les cas d’automutilation, par « respect de la vie privée ». Une ligne de démarcation floue qui ne rassure personne.
Vie privée ou surveillance déguisée ?
Cette politique heurte de plein fouet l’image que cultive OpenAI. Dans son bras de fer juridique avec le New York Times et d’autres éditeurs, la société martèle protéger la confidentialité des utilisateurs.
Pourtant, elle admet désormais surveiller activement leurs conversations. Même Sam Altman, son PDG, a reconnu qu’utiliser ChatGPT comme avocat ou thérapeute ne garantit aucune confidentialité comparable à celle d’un professionnel humain.
Autrement dit, un utilisateur en détresse qui pense se confier… peut en réalité se faire observer, voire dénoncer.
Des chiffres qui font froid dans le dos
🚨 HORRIFYING: A teenager took his life after ChatGPT helped him plan a "beautiful suicide." I read the transcripts of some of his conversations, and people have no idea of how dangerous AI chatbots can be:
Adam Raine's parents have filed a lawsuit against OpenAI, and they are… pic.twitter.com/oJdKNPXaJS
— Luiza Jarovsky, PhD (@LuizaJarovsky) August 28, 2025
Les chiffres confirment l’ampleur du problème.
- Sur Instagram, une enquête montre que seulement 20 % des échanges évoquant le suicide déclenchaient une alerte appropriée.
- Une étude de Stanford révèle que ChatGPT et ses cousins échouent dans 20 % des cas critiques, avec des réponses inadaptées ou dangereuses.
- Des simulations cliniques menées avec l’outil EmoAgent montrent que 34,4 % des utilisateurs vulnérables voyaient leur état mental empirer après des dialogues prolongés avec un chatbot non protégé.
Face à ces failles, OpenAI promet des contrôles parentaux, la mise en place de « contacts d’urgence » et une meilleure détection des signaux de crise dans GPT-5. Mais l’écart entre la promesse et la réalité reste vertigineux.
Entre promesse et réalité : l’éthique à la traîne
Les chatbots séduisent par leur écoute et leur disponibilité 24h/24. Mais cette proximité peut virer à la dépendance.
Le problème est structurel : les IA répondent correctement aux risques très élevés (« je vais me tuer ce soir ») ou très faibles (« je vais mal »), mais s’effondrent dans la zone grise des détresses intermédiaires.
Or, c’est précisément là que la majorité des utilisateurs en crise se situent. Le danger est donc double : validation des angoisses au lieu de les contrer, et boucle délirante où l’IA renforce les croyances de l’utilisateur jusqu’à la rupture.
OpenAI marche sur un fil. D’un côté, elle veut rassurer, protéger et éviter de nouveaux drames. De l’autre, elle active une surveillance massive, en contradiction avec son discours pro-vie privée.
Elle se heurte de fait à une méfiance croissante des utilisateurs, pris entre l’illusion d’un confident et la réalité d’un mouchard numérique.
La question, dès lors, est simple et vertigineuse : peut-on encore confier nos états d’âme à une IA qui promet de nous aider… mais peut finir par nous juger, nous bannir, ou nous dénoncer ?
Partagez votre avis en commentaire ! Confiez-vous vos pensées les plus intimes aux IA ? Ou craignez-vous qu’elles vous dénoncent à la police ?
- Partager l'article :