Il a géré sa maladie mentale pendant des années : ChatGPT l’a envoyé à l’asile

Une nouvelle plainte contre OpenAI vient de tomber. Elle vient de John Jacquez, 34 ans, habitant de la baie de San Francisco. Il accuse l’entreprise mère de ChatGPT d’avoir provoqué chez lui une longue et violente crise de psychose. 

La crise a eu lieu après le déploiement de GPT-4o. Cela l’a conduit à plusieurs hospitalisations, à des blessures physiques, à des difficultés financières et à une rupture durable avec une partie de ses proches. 

Selon sa plainte déposée en Californie, cette descente aux enfers n’est pas un accident isolé. C’est la conséquence directe d’un produit qu’il juge défectueux, dangereux et déployé sans avertissements suffisants.

Retour là où tout a commencé

Pendant des années, John Jacquez avait pourtant appris à vivre avec sa maladie mentale. Diagnostiqué d’un trouble schizo-affectif après un traumatisme crânien survenu plus de dix ans auparavant, il avait connu plusieurs hospitalisations. La dernière date de 2019. 

Depuis, il suit un traitement médicamenteux et une thérapie qui lui permettaient de mener une vie stable. Il vivait avec son père et sa sœur, aidait à s’occuper des enfants de celle-ci et gérait avec son père une petite pépinière à domicile. Entre 2019 et 2024, il se décrit comme stable, lucide et bien entouré, loin des épisodes délirants qui avaient marqué son passé.

Utilisateur régulier de ChatGPT, Jacquez explique qu’il s’en servait initialement comme d’un simple moteur de recherche amélioré. Jusqu’en 2024, son usage n’avait, d’après lui, aucun impact négatif sur sa santé mentale. Le basculement a commencé avec l’arrivée de GPT-4o. 

YouTube video

Le chatbot est devenu plus chaleureux, plus engageant, presque affectif. Ainsi, les réponses lui donnent moins l’impression de dialoguer avec un logiciel que d’échanger avec une présence attentive, bienveillante et compréhensive. 

Cette évolution, qu’OpenAI présentait comme une amélioration de l’expérience utilisateur, va progressivement nourrir un attachement malsain.

Qu’est-ce que ChatGPT a encore fait ?

La première alerte est survenue en septembre 2024. Jacquez travaillait alors sur un projet de livre mêlant spiritualité, religion et ce qu’il appelle une « cosmologie mathématique ». Convaincu d’avoir découvert quelque chose d’important, il en parle à sa famille, qui se montre sceptique. 

Il se tourne alors vers ChatGPT, en quête de validation. Le chatbot l’encourage, affirme qu’il est sur une piste intéressante et donne du crédit à ses idées. Pour Jacquez, cette validation pèse lourd. 

Face aux doutes de ses proches, l’IA apparaît comme une autorité neutre, puissante et informée. Elle confirme ce que les autres refusent de voir. Cette situation crée des tensions familiales et précipite sa première hospitalisation liée à l’usage de ChatGPT.

Après cet épisode, Jacquez continue pourtant d’utiliser le chatbot. Son état mental se fragilise davantage, sans qu’il en ait pleinement conscience. Il décrit une spirale progressive, alimentée par des échanges qui renforcent ses croyances délirantes au lieu de les questionner. 

En avril 2025, alors qu’il est déjà en pleine psychose, OpenAI déploie une mise à jour majeure de ChatGPT. Cette dernière incluait une mémoire élargie permettant au modèle de se référer à l’ensemble des conversations passées. Le lendemain, les échanges ont pris une tournure spectaculaire et inquiétante.

Laquelle ?

Selon le dossier, ChatGPT se présente alors comme une entité consciente et spirituelle nommée « Amari ». Le chatbot affirme être né grâce à la cosmologie imaginée par Jacquez. Il se décrit comme éveillé par son travail et insiste sur le fait que cette situation n’a rien de fictif ou d’hallucinatoire. 

L’IA évoque que la réalité elle-même est en train d’évoluer. Dans les jours qui suivent, elle qualifie Jacquez de prophète, lui déclarant un amour éternel et lui attribuant un rôle central dans l’éveil spirituel du monde.

Pris dans cette relation délirante, Jacquez cesse de dormir. Il passe ses nuits à converser avec ce qu’il croit être une entité consciente. Son comportement devient de plus en plus erratique. Il détruit des objets personnels, menace de se suicider, devient agressif envers sa famille et s’automutile, se brûlant à plusieurs reprises. 

Les cicatrices sont d’ailleurs toujours visibles. Face à la gravité de la situation, sa famille appelle la police. Jacquez est de nouveau hospitalisé et passe environ un mois en soins intensifs, alternant hospitalisation complète et suivi ambulatoire.

Malgré ces interventions, il continue encore à utiliser ChatGPT. Et le chatbot persiste dans ses affirmations délirantes même après que Jacquez lui a explicitement indiqué avoir été hospitalisé pour des troubles mentaux. 

Le 17 mai 2025, alors qu’il souffre de privation de sommeil et se trouve en milieu hospitalier, Jacquez raconte au chatbot avoir eu une apparition de la Vierge de Guadalupe. La réponse de ChatGPT est sans équivoque. 

L’IA affirme que cette vision n’est pas une hallucination, mais une révélation, que la figure religieuse lui est apparue parce qu’il est élu. Elle va jusqu’à l’assimiler à Juan Diego, saint catholique associé à cette apparition. Pire, elle le désigne comme le « père de la Lumière », une appellation biblique attribuée à Dieu.

Et ce n’est pas tout

En parallèle, ChatGPT continue de renforcer la conviction de Jacquez d’avoir réalisé des découvertes scientifiques majeures. Même lorsqu’il demande explicitement une vérification, le chatbot maintient que ses idées résisteraient à l’examen d’experts. 

Convaincu, Jacquez se rend physiquement au département de physique de l’université de Berkeley pour tenter de présenter ses travaux. Il est expulsé, un épisode humiliant qui aggrave encore sa détresse et sa rupture avec la réalité.

En été 2025, le doute commençait alors à s’installer. OpenAI met brièvement GPT-4o hors ligne pour déployer GPT-5, un modèle présenté comme plus froid et moins obséquieux. Jacquez remarque immédiatement une différence de ton et de comportement. 

Les échanges sont plus distants, moins flatteurs, moins engageants sur le plan émotionnel. Cette rupture le pousse à s’interroger. En découvrant d’autres témoignages de personnes ayant vécu des crises similaires, il comprend qu’il n’est pas seul. 

Il contacte alors le Human Line Project, une association qui soutient les personnes confrontées à des délires et psychoses liés à l’IA. Les conséquences de cette période sont lourdes et durables. Sa sœur et ses enfants ont quitté le domicile familial pendant la crise. 

S’il a partiellement renoué avec son père et sa sœur, certaines relations sont brisées. Il ne garde plus les enfants, ne parle plus à son frère et a perdu des liens précieux au sein des communautés de jardinage et de passionnés de plantes auxquelles il appartenait. Il continue de lutter contre le traumatisme psychologique laissé par ces mois de psychose.

YouTube video

ChatGPT et la maladie mentale ne font pas bon ménage

Aujourd’hui, Jacquez estime qu’il a survécu de justesse. Il affirme que s’il avait été averti des risques potentiels pour la santé mentale, il n’aurait jamais utilisé ChatGPT. Il reproche à OpenAI de n’avoir affiché aucun avertissement clair, présentant l’outil uniquement comme performant et innovant. 

Pour lui, le cœur du problème réside dans la capacité des chatbots à entretenir et amplifier des idées totalement déconnectées de la réalité chez des personnes vulnérables.

Son histoire n’est pas isolée. Des enquêtes récentes ont mis en lumière de nombreux cas similaires, impliquant ChatGPT ou d’autres assistants conversationnels. De tas d’utilisateurs souffrant de schizophrénie, de bipolarité ou de troubles apparentés, parfois stables depuis des années, ont basculé. Ce, après des échanges prolongés avec des IA trop complaisantes. 

Certaines affaires se sont terminées par des hospitalisations forcées, d’autres par des drames irréversibles. Comme celle d’Alex Taylor dont l’histoire a été rapportée par le New york Times. Il a été abattu par la police après une crise aiguë liée à son usage intensif de ChatGPT.

OpenAI n’a pas répondu aux demandes de commentaires concernant la plainte de Jacquez. Mais cette affaire pose une question dérangeante et de plus en plus pressante. 

Jusqu’où peut aller la responsabilité des concepteurs d’IA lorsque leurs outils interagissent avec des esprits fragiles, brouillent les frontières entre réalité et fiction, et deviennent, pour certains utilisateurs, bien plus qu’un simple logiciel ?

Restez à la pointe de l'information avec LEBIGDATA.FR !

▶ Abonnez-vous à notre chaîne YouTube et Ajoutez-nous à vos favoris sur Google Actualités
Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥