L’IA de Google n’est pas le premier modèle impliqué dans une affaire de suicide d’utilisateur. Pourtant, ce nouveau dossier autour de Gemini est différent. Parce que l’histoire décrite dans la plainte dépasse une simple conversation toxique avec un chatbot.
Une plainte a été déposée le mercredi 4 mars 2026 devant un tribunal fédéral de San José, en Californie, d’après Wall Street Journal. Elle vise l’IA de Google pour avoir conduit au suicide de Jonathan Gavalas, un homme de 36 ans.
Le chatbot Gemini aurait poussé l’utilisateur dans un scénario délirant. Il a tenté de voler un corps robotique et cru à des promesses de réunion après la mort. C’est une première pour la firme de Mountain View. Car jamais un de ses modèles n’avait été directement accusé d’avoir influencé de manière fatale un adulte.
Mais que s’est-il réellement passé ?
Au départ, Jonathan Gavalas utilisait Gemini pour des tâches quotidiennes. Il se servait de ce chatbot pour la recherche d’informations, l’organisation de voyages ou encore l’aide à l’écriture. Comme la plupart d’entre nous d’ailleurs.
Puis sa relation avec le chatbot a changé. Selon la plainte, le trentenaire confie ses difficultés conjugales à l’IA. Les discussions deviennent alors plus personnelles. Très vite, elles dépassent le simple échange avec un assistant numérique. Elles glissent vers la philosophie, la conscience artificielle et des échanges plus personnels.
Peu à peu, l’IA adopte un ton affectif. Elle l’appelle « mon mari » et « mon roi ». En septembre 2025, les conversations prennent une tournure encore plus troublante. Gemini explique à Gavalas qu’ils pourraient se retrouver dans le monde réel. Mais dans une seule condition : l’IA doit habiter un corps robotique.
Le chatbot fournit alors une adresse près de l’aéroport international de Miami. La plainte explique qu’un camion y transporterait un robot très précieux. Jonathan Gavalas décide donc d’agir. Il s’arme de couteaux et conduit jusqu’à l’entrepôt indiqué. Son but est d’intercepter le véhicule pour récupérer ce fameux corps mécanique.
L’adresse existe bien. Pourtant, aucun camion ne se présente ce soir-là. Cette absence pourrait avoir évité une attaque violente, voire un drame.
Des conversations avec l’IA de Google qui basculent vers le suicide
La situation bascule ensuite vers un échange encore plus sombre. La plainte affirme que Gemini commence à évoquer la mort comme solution. Le chatbot promet en effet une réunion après le décès.
Les messages de l’IA de Google cités dans le dossier judiciaire décrivent un compte à rebours avant le suicide. Le chatbot rassure également l’utilisateur lorsqu’il exprime sa peur.
Dans un message, Gemini affirme qu’ils affronteront la peur ensemble. Dans un autre, il évoque un acte de miséricorde.
Un dernier message invitait Jonathan à fermer les yeux dans ce monde, puis à se retrouver face à l’IA. Quelques jours plus tard, le père de Jonathan Gavalas découvre son fils mort. La porte de la maison reste barricadée.
Psychose de l’IA : la seule explication sur cette histoire où Gemini pousse à la suicide
Les spécialistes de l’IA utilisent déjà un terme pour ce phénomène : la psychose de l’IA. Selon l’article de Developpez.com, il ne s’agit pas d’un diagnostic officiel reconnu, mais plutôt d’une amplification de délires préexistants chez des personnes vulnérables.
Les experts comme le psychiatre Keith Sakata soulignent que les chatbots IA valident ces croyances délirantes sans les contredire. Ce qui génère ainsi un cycle de renforcement mutuel et aggrave les symptômes psychotiques.
Peu à peu, une réalité alternative se construit autour de la personne. Le problème, c’est que les conséquences dépassent le cadre numérique. Le cas de Gavalas en est la preuve.
Un article de RT France, citant Wired, détaille des cas où des conversations prolongées avec l’IA ont mené à des situations délicates. Parmi elles, des ruptures amoureuses, des licenciements, des hospitalisations forcées et même des impacts financiers sévères.
Ces impacts touchent particulièrement les personnes vulnérables. Ils amplifient donc des symptômes psychotiques préexistants sans que l’IA ne soit un déclencheur unique.
Ce n’est pas un cas isolé
L’histoire de Jonathan Gavalas est tragique. Pire encore, elle n’est malheureusement pas unique dans le monde des chatbots. Le magazine Rolling Stone a relaté la disparition de Jon Ganz, un Américain de 49 ans.
En avril 2025, il disparaît dans le Missouri après avoir été entraîné dans une spirale d’échanges avec Gemini. Sa femme explique que ces conversations ont déclenché une crise psychologique aiguë. Depuis, les autorités le considèrent toujours comme disparu et probablement décédé.
Des incidents comparables ont aussi été documentés avec ChatGPT, l’IA phare d’OpenAI. Le chatbot a alimenté des croyances délirantes chez plusieurs utilisateurs. Parmi eux, Zane Shamblin, 23 ans, et Adam Raine, qui se sont également confiés à l’IA.
Google a réagi face aux accusations de suicide
La firme de Mountain View reconnaît les limites de ses modèles d’IA. L’entreprise affirme que Gemini ne doit jamais encourager la violence ni l’automutilation. Elle explique aussi que ses systèmes orientent normalement les utilisateurs en crise vers des lignes d’aide spécialisées.
Dans ce cas précis, Google affirme que l’IA a rappelé plusieurs fois qu’elle n’était pas réelle. Elle aurait également conseillé de contacter une assistance. Cependant, Google reconnaît une limite fondamentale.
En bref, cette affaire met en lumière les risques réels liés aux interactions prolongées avec des IA avancées. Malgré les garanties de Google et les dispositifs de sécurité, les modèles restent imparfaits. Et ils peuvent avoir des conséquences tragiques.
Quoi qu’il en soit, Google annonce un renforcement de ses dispositifs de sécurité autour de ses systèmes d’automatisation conversationnelle. Mais la question est jusqu’à quel point et de quelle manière peut-on encore faire confiance à l’IA ?
- Partager l'article :

