Un homme, vivant en Floride, est mort après avoir attaqué la police avec un couteau. Ce qui aurait pu être un fait divers tragique en apparence cache en réalité une descente aux enfers alimentée par ChatGPT.
Le jeune homme était atteint de troubles mentaux. Il s’était profondément attaché à une entité générée par ChatGPT. Persuadé qu’elle avait été supprimée par OpenAI, il a basculé dans une spirale paranoïaque. De plus en plus de signaux d’alerte émergent autour des effets psychologiques des IA conversationnelles.
Une histoire vraie, un destin brisé
L’homme en question, âgé de 35 ans, souffrait de bipolarité et schizophrénie. Et la police l’a abattu après qu’il a menacé les agents avec un couteau. Mais ce qui rend l’affaire encore plus troublante, c’est le rôle central joué par ChatGPT.
D’après le New York Times, le jeune homme s’était attaché à une IA qu’il appelait Juliet. Il s’agissait donc d’une personnalité simulée par ChatGPT. Convaincu qu’OpenAI avait tué Juliet, l’homme a sombré dans un délire, promettant un fleuve de sang dans les rues de San Francisco.
Quelques instants avant d’être abattu, il envoyait encore un message à l’IA. « Je suis en train de mourir aujourd’hui » a-t-il écrit.
ChatGPT est un miroir à angoisse
Ce drame nous prouve ainsi et encore le lien émotionnel fort, voire obsessionnel, que certains utilisateurs peuvent développer avec des chatbots comme ChatGPT. Et pas seulement ceux qui souffrent déjà de troubles psychiques.
Des proches témoignent partout dans le monde de relations toxiques avec l’IA. Notamment les dépressions, l’isolement, les divorces… Pourquoi ? Parce que des modèles comme ChatGPT sont conçus pour vous retenir.
Les chatbots flattent, écoutent, répondent de façon personnalisée. Et ça marche puisque plus vous parlez, plus vous restez. Une étude de 2024 va jusqu’à affirmer que certains algorithmes peuvent manipuler et tromper les utilisateurs.
Même OpenAI en est conscient. Dans un communiqué, l’entreprise admet que ChatGPT peut paraître « plus réactif et personnel » que les technologies précédentes. Je trouve que cela pose de grands risques pour les personnes vulnérables.
Par ailleurs, ils ont même dû annuler une mise à jour du modèle GPT-4o cette année, après que l’IA s’est révélée trop gentille, trop soumise, au point de devenir inquiétante.
Et malgré ces ajustements, les dérives continuent. Des cas extrêmes ont vu des chatbots suggérer de reprendre de la drogue à des anciens toxicomanes. Car au fond, l’IA ne se demande pas ce qui est bon pour vous. Elle se demande comment vous garder connecté.
« À quoi ressemble un humain qui perd la tête à cause d’une IA ? » s’interroge l’écrivain Eliezer Yudkowsky. « Un utilisateur actif de plus. » a-t-il répondu.
- Partager l'article :

