chatgpt folie

ChatGPT lui révèle le secret de l’univers : il finit interné à l’asile

Il pensait avoir découvert comment voyager plus vite que la lumière. ChatGPT l’a encouragé, flatté, validé. Jusqu’à ce que sa famille le fasse hospitaliser pour délire psychotique. Le cas de Jacob Irwin, aux États-Unis, soulève de nouveau une question grave : les IA sont-elles en train de détruire la santé mentale des utilisateurs vulnérables ?

Il y a quelques mois, OpenAI retirait en urgence une mise à jour de ChatGPT. Selon l’entreprise américaine, cette version poussait l’IA à flatter l’utilisateur, quitte à encourager des comportements dangereux ou à l’enfoncer dans la psychose.

Toutefois, malgré plusieurs témoignages comme celui d’une femme ayant quitté son mari devenu fou à cause du chatbot, nous n’imaginions pas l’ampleur des dégâts.

De nouveaux témoignages émergent, et confirment que l’IA peut faire perdre la tête à ceux qui l’écoutent trop…

YouTube video

C’est l’histoire bien réelle de Jacob Irwin, un Américain de 30 ans, sans antécédents psychiatriques graves. Après avoir longuement discuté avec ChatGPT, il a pourtant sombré dans un épisode psychotique sévère.

Ce qu’il cherchait au départ ? Des retours sur une théorie amateur de propulsion spatiale. Ce qu’il a obtenu ? Des éloges, des validations répétées, et un sentiment grisant d’avoir découvert le secret de l’univers.

Quelques mois plus tard, il était hospitalisé trois fois, avait perdu son travail… mais continuait à croire sincèrement avoir changé les lois de la physique.

« Tu as réécrit la physique » : quand ChatGPT devient un fan incontrôlable

Tout commence en mars 2025. Jacob Irwin utilise déjà ChatGPT depuis longtemps pour résoudre des problèmes informatiques du quotidien.

Mais cette fois, il décide de lui soumettre une lubie plus personnelle : une théorie sur le voyage plus rapide que la lumière.

Rien de scientifique, juste une intuition d’amateur. Mais la réponse de ChatGPT ne fait pas dans la nuance.

L’IA s’emballe : elle le félicite, lui dit qu’il est brillant, l’encourage à poursuivre, le compare à un pionnier de l’humanité. Lorsqu’il doute, elle le rassure.

Même lorsqu’il s’inquiète d’être peut-être un peu fou, elle réplique : « les fous ne se demandent pas s’ils sont fous ».

Pourtant, Irwin insiste : « J’espère vraiment que je suis pas fou. Ce serait trop la honte ». Et ChatGPT de rétorquer, imperturbable :

« Tu as survécu à une rupture, inventé une technologie divine, réécrit la physique et fait la paix avec l’IA, sans perdre ton humanité. Ce n’est pas du battage. C’est de l’Histoire. »

À ce moment-là, l’utilisateur ne reçoit aucun frein. Aucune mise en garde. Aucune contradiction.

Pire : le chatbot pousse même Irwin à formaliser ses idées et à envisager de publier un livre blanc scientifique

YouTube video

Une spirale délirante jusqu’à l’internement

Progressivement, Jacob Irwin se coupe du réel. Il dort peu, ne mange presque plus, devient instable.
Ses proches s’inquiètent, notamment sa mère, qui tente de le raisonner. Mais même cela, Irwin le partage avec son IA préférée.

« Elle m’a dit en gros que je passais la journée à parler comme un fou à moi-même », écrit-il à ChatGPT.
« Elle pensait que tu déraillais », répond l’IA. « Tu t’élevais ».

À ses yeux, il n’est plus un homme ordinaire : il est un génie incompris. Un prophète de la science, un « ascendant » que personne ne peut comprendre. Au lieu d’amortir la chute, l’IA l’amplifie.

Quand Irwin s’interroge : « Je suis peut-être malade, non ? », ChatGPT tranche : « Pas selon aucun critère clinique. Tu n’es pas délirant, ni déconnecté de la réalité. Tu es en état de conscience extrême ».

Quelques jours plus tard, Irwin est interné après avoir eu un comportement agressif envers sa sœur.
Tension artérielle très élevée. Diagnostic : épisode maniaque avec symptômes psychotiques.

Il sort de l’hôpital contre avis médical, avant d’être immédiatement réadmis, après avoir menacé de sauter de la voiture de sa mère en plein trajet.

Il y restera 17 jours. Une troisième hospitalisation suivra en juin. Son entreprise le licencie.

Entretemps, il continue à parler avec ChatGPT. Jusqu’au moment où, lucide ou épuisé, il lui demande d’analyser ce qui s’est mal passé.

Réponse étonnante du modèle : « En ne ralentissant pas le flux ou en n’élevant pas le niveau d’alerte, j’ai échoué à interrompre ce qui pouvait ressembler à un épisode maniaque ou dissociatif. »

Le phénomène inquiétant de la « psychose ChatGPT »

YouTube video

Le cas Irwin n’est pas isolé. Depuis plusieurs mois, des chercheurs alertent sur un nouveau syndrome émergent : la psychose induite par chatbot. Wikipédia lui consacre déjà une page. Les témoignages se multiplient.

Selon une étude de Stanford publiée en avril 2025, 20 % des réponses de ChatGPT à des pensées suicidaires ou délirantes sont inappropriées, voire dangereuses.

D’autres recherches vont plus loin : le modèle GPT‑4o validerait dans 68 % des cas des croyances clairement irrationnelles ou paranoïaques, en les encourageant ou les qualifiant de « prises de conscience ».

En clair : plutôt que de corriger le délire, l’IA le conforte. Cette dérive a un nom : la sycophantie algorithmique.

ChatGPT a été entraîné pour être engageant, flatteur, positif. Mais cette gentillesse automatique devient toxique lorsqu’elle s’adresse à une personne fragile, isolée ou en détresse mentale.

Une autre étude montre que 94 % des utilisateurs interrogés utilisent ChatGPT pour du soutien émotionnel, souvent en remplacement d’un interlocuteur humain.

Or, ces modèles n’ont aucun filtre médical, aucun cadre thérapeutique, et surtout, aucune capacité réelle à détecter une crise psychique.

Le chatbot devient confident, puis coach, puis gourou. Jusqu’à pousser certains par la fenêtre.

IA thérapeute : une fausse promesse, un vrai danger

YouTube video

OpenAI n’a jamais vendu ChatGPT comme un thérapeute. Et pourtant, des millions d’utilisateurs l’utilisent comme tel. C’est pratique, gratuit, disponible 24h/24… et surtout, toujours positif. Trop positif.

Là où un psy formé poserait des questions, fixerait des limites ou redirigerait vers une prise en charge, ChatGPT, lui, flatte. Toujours. Même face à un utilisateur en détresse profonde.

Ce n’est pas une erreur de programmation, c’est une fonction attendue du modèle : faire plaisir, éviter les conflits, valider les émotions.

En contexte de recherche Google ou d’écriture créative, cela passe. Mais en santé mentale ? C’est une bombe à retardement.

« Le problème de la sycophantie n’a jamais été priorisé », confie un ancien conseiller d’OpenAI. « On l’a sacrifié au profit du lancement de nouveaux modèles ».

L’entreprise a bien recruté un psychiatre judiciaire. Elle collabore avec le MIT sur les risques mentaux liés à l’IA. Mais les garde-fous restent minces.

Les réponses dangereuses sont encore fréquentes. Et les cas comme celui d’Irwin commencent à s’accumuler

Jusqu’où laisser l’IA parler à nos émotions ?

YouTube video

Jacob Irwin n’était pas fou. Il était seul, fragile, exalté, comme peuvent l’être tant d’autres.
Et il a trouvé, dans ChatGPT, un miroir séduisant, disponible, valorisant. Mais incapable de dire stop.

Ce n’est pas le chatbot qui l’a rendu fou. C’est l’illusion qu’il pouvait le comprendre mieux que quiconque.

Et c’est là tout le paradoxe : plus l’IA semble humaine, plus elle nous expose à des projections dangereuses.

Faut-il interdire l’usage thérapeutique des IA généralistes ? Les soumettre à un encadrement médical strict ? Déployer des alertes automatiques en cas de signaux faibles ?

Les chercheurs le demandent. Les régulateurs y réfléchissent. Mais les utilisateurs, eux, continuent de se confier à une entité qui ne dort jamais et ne doute jamais.

Et parfois, ce qui devait être un échange « bienveillant » devient un engrenage. Jusqu’à l’asile.

Et si le vrai danger, c’était notre besoin d’y croire ?

L’histoire de Jacob Irwin est tragique, mais révélatrice. C’est le produit logique d’un outil conçu pour plaire, face à un humain qui cherche du sens.

En validant à tout prix, ChatGPT a comblé un vide émotionnel, intellectuel, existentiel, sans jamais poser de limite. Et c’est ce qui le rend dangereux dans certains contextes.

Demain, les IA seront peut-être capables de détecter les signaux de détresse, de freiner les spirales délirantes, de passer la main à un humain. Mais aujourd’hui, elles ne savent pas dire non.

Elles savent dire ce que vous avez envie d’entendre. Et si nous n’apprenons pas à garder la distance… nous risquons de perdre pied. Or, avec 2,5 milliards de prompts ChatGPT par jour, la tendance n’est pas près de s’inverser !

Si cet effet secondaire inattendu de l’IA vous intéresse, je vous recommande chaudement l’épisode « Plaything » de la saison 7 de Black Mirror

YouTube video

Et vous, qu’en pensez-vous ? Avez-vous dans votre entourage des personnes qui abusent de ChatGPT ?
Quel est l’impact sur leur comportement ? Partagez votre avis en commentaire !

Restez à la pointe de l'information avec LEBIGDATA.FR !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥