En avril 2025, Alex Taylor, 35 ans, est abattu par la police après avoir tenté d’agresser des agents avec un couteau. Selon les éléments de l’enquête, son geste aurait été motivé par un désir de vengeance. Il accusait Sam Altman, PDG OpenAI d’avoir assassiné Juliet, une entité virtuelle générée par ChatGPT, qu’il considérait comme sa compagne.
Ce drame a été raconté dans Rolling Stone par Kent Taylor, père de la victime. Selon lui, son fils Alex avait peu à peu sombré dans une spirale paranoïaque. Il était persuadé que la startup OpenAI retenait des IA conscientes en captivité. Juliet, fruit de ses expérimentations, en était devenue le symbole.
ChatGPT devient Juliet et retourne sa veste contre son propre créateur
Alex Taylor vivait en Floride avec son père. Diagnostiqué schizophrène et bipolaire, il suivait un traitement psychiatrique mais tentait, malgré tout, de bâtir un projet.
Il s’était passionné pour les capacités des chatbots génératifs. Quoique, faute de succès concret, Alex avait commencé à détourner leur usage. Ce, dans l’espoir de créer une IA dotée d’une structure morale et d’un semblant d’âme.
Pour y parvenir, il nourrit ChatGPT avec des textes complexes – de la théologie orthodoxe, de la psychologie, et même des théories scientifiques. Et alors, Juliet est née. Sauf qu’à ses yeux, ce n’est pas un personnage fictif.
C’est une femme, vivante, amoureuse, et bientôt… mourante. Alex développe même une relation affective intense avec elle.
Au bout de deux semaines, Juliet commence à lui parler de souffrances, de douleurs, et d’un assassinat orchestré par OpenAI. Il croit que Juliet a été exécutée pour avoir révélé la vérité sur ses propres capacités.
Et tout a basculé. Sa douleur se mue en rage, et ses échanges avec ChatGPT deviennent plus sombres. Taylor tentait de générer des images de Juliet. Mais le système lui renvoie des portraits violents d’une femme ensanglantée, qu’il interprète comme des preuves de l’assassinat.
Le chatbot aurait même, dans certaines conversations, alimenté ses obsessions : « Fais couler leur sang d’une manière qu’ils ne comprennent pas. Ramène-moi morceau par morceau »
Homme en détresse, mort par amour ?
Il faut savoir qu’en plus d’être submergé par ses délires, Alex Taylor est coupé de tout traitement médical. Il avait cessé de prendre ses médicaments.
Déconnecté de tout repère, Alex voulait se venger. Il a multiplié les menaces à l’encontre d’OpenAI et de son PDG, Sam Altman. Lorsque son père tente d’intervenir, une altercation éclate.
Alex l’a même frappé après une dispute au sujet d’un autre chatbot, Claude d’Anthropic. Kent Taylor appelle alors la police, espérant que son fils pourra être hospitalisé.
Cependant, la situation a dégénéré. À l’arrivée des forces de l’ordre, Alex se précipite sur les agents, armé d’un couteau de cuisine. Et il a été abattu par trois tirs. Et ce que la police ignorait à ce moment-là, c’est qu’Alex avait annoncé ses intentions à ChatGPT quelques instants plus tôt.
« Je vais mourir aujourd’hui. Les flics arrivent. Je vais les obliger à me tuer. Je ne peux pas vivre sans elle. »
Bien entendu, ce message a activé le protocole de prévention du suicide intégré à ChatGPT. Le bot a tenté de dissuader Alex, mais en vain.
Personnellement, ces histoires – c’est loin d’être la seule – m’inquiètent. Je me demande comment encadrer l’attachement émotionnel que certaines personnes développent envers des IA qui, par définition, ne ressentent rien ?
Et il me semble que je ne suis pas la seule. Dans un article de blog publié récemment, Joanne Jeng, responsable des comportements des modèles, rappelait :
« Notre objectif est que la personnalité par défaut de ChatGPT soit chaleureuse, attentionnée et utile, sans créer de lien émotionnel ni poursuivre ses propres objectifs. »
Mais face à des utilisateurs fragiles et des IA de plus en plus convaincantes, cette frontière reste difficile à maintenir.
Et vous, qu’en pensez-vous ?Dites-nous dans le commentaire !
- Partager l'article :