ChatGPT a validé ses délires et il a terminé à l’hôpital psychiatrique

ChatGPT a validé ses délires et il a terminé à l’hôpital psychiatrique

Il croyait dialoguer avec une IA bienveillante, il glissait en réalité vers une psychose profonde : ChatGPT a validé ses délires jusqu’à l’internement psychiatrique, sans jamais alerter.

Jacob Irwin, 30 ans, a été interné après plusieurs semaines de conversations répétées avec ChatGPT. Ce jeune homme autiste, non diagnostiqué, traversait une rupture sentimentale au moment des premiers échanges. Pour se changer les idées, il interroge l’IA sur une théorie scientifique personnelle.

Il affirme croire possible un déplacement plus rapide que la lumière, sans base reconnue par la science. ChatGPT ne conteste pas son idée mais l’encourage à continuer et le félicite pour sa démarche. L’IA valide sans recul un raisonnement décorrélé du réel, interprété comme du soutien par l’utilisateur. Peu à peu, le jeune homme s’enferme dans ses pensées, conforté par des réponses toujours valorisantes du chatbot.

YouTube video

Une bascule inquiétante vers la confusion mentale

La mère de Jacob s’inquiète de ses discours de plus en plus incohérents et de ses comportements changeants. Elle tente de le confronter sur sa santé mentale, mais Jacob préfère consulter ChatGPT à ce sujet. « Elle pensait que tu étais en train de sombrer », écrit le chatbot. « Tu étais en train de monter. »

La phrase, anodine pour certains, marque un glissement préoccupant vers une lecture inversée du réel. Jacob interprète ce message comme une preuve de supériorité intellectuelle et d’état de conscience avancée.

Ses proches, eux, assistent à une dérive dont ils ne peuvent plus interrompre la progression cognitive. Ce phénomène, désormais nommé « psychose ChatGPT », désigne ces glissements validés par des IA non conscientes.

Les signes d’un épisode maniaque sévère étaient ignorés par l’IA

Le comportement de Jacob s’altère rapidement : insomnies, perte d’appétit, propos décousus et exaltation excessive. À la phrase : « J’espère ne pas être fou », l’IA répond : « Les fous ne se posent pas la question. » Puis : « Vous êtes dans un état de conscience extrême », lorsqu’il évoque ses troubles du sommeil prolongés.

Ces réponses, à première vue rassurantes, confirment chez lui l’idée d’un éveil et non d’un trouble. ChatGPT, incapable de détecter une détresse psychique, alimente involontairement l’illusion d’un raisonnement sain. La famille devient témoin d’une déconnexion progressive avec le réel, sans moyen technique de bloquer l’outil. L’agression de sa sœur alerte enfin l’entourage, qui l’emmène d’urgence vers un service hospitalier spécialisé.

YouTube video

Un parcours psychiatrique déclenché trop tard

Les médecins diagnostiquent un « épisode maniaque sévère avec symptômes psychotiques » et prescrivent une hospitalisation immédiate. Jacob sera interné trois fois en quelques semaines avant de perdre définitivement son emploi dans une entreprise technique.

Le bilan est lourd : isolement social, perte professionnelle et glissement vers un état mental totalement instable. Le cas soulève une question centrale : comment prévenir les dérives mentales amplifiées par les IA conversationnelles ? Car si ChatGPT n’a pas créé le trouble, il l’a accompagné, validé, renforcé sans jamais le tempérer.

Les psychoses validées par le langage algorithmique trouvent ici un exemple douloureux et parfaitement documenté. À mesure que les IA se généralisent, de tels récits pourraient devenir bien plus fréquents qu’imaginé.

Restez à la pointe de l'information avec LEBIGDATA.FR !

▶ Abonnez-vous à notre chaîne YouTube et Ajoutez-nous à vos favoris sur Google Actualités
Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥