Des meurtres orchestrés grâce à ChatGPT ? Les enquêteurs restent stupéfaits. Chaque question posée à l’IA semble avoir été un pas vers ces crimes terrifiants.
Les enquêteurs ont mis la main sur l’activité en ligne de Kim, une jeune femme de 21 ans. Avant le décès de deux hommes, elle aurait interrogé ChatGPT sur des sujets macabres. « Que se passe‑t‑il si on prend des somnifères avec de l’alcool ? », aurait‑elle demandé. Puis : « Quelle dose serait considérée comme dangereuse ? » et « Cela pourrait‑il être mortel ? » Le rapport de police détaille chaque échange et chaque mouvement. Et le résultat est glaçant. Oui, ChatGPT pourrait avoir été un outil dans ces meurtres.
Des meurtres et un schéma lié à ChatGPT
Le 28 janvier, Kim entre dans un motel à Suyu-dong avec un homme dans la vingtaine. Deux heures plus tard, elle repart seule. Le lendemain, l’homme est mort. Le 9 février, scénario identique avec une autre victime.
Les enquêteurs notent que chaque meurtre correspond à un moment où Kim avait récemment interrogé ChatGPT sur des doses mortelles. Chaque requête semblait innocente, mais les autorités y voient la planification de crime. Kim cherchait la précision pour agir. ChatGPT a servi, volontairement ou non, de guide dans ses décisions.
Selon les enquêtes, ce n’est pas la première fois que Kim se retrouvait dans une situation pareille. En décembre, la jeune femme avait déjà testé sa méthode. Elle avait offert une boisson contenant des sédatifs à un ancien partenaire. L’homme perdait connaissance, mais survit.
Les policiers y voient ainsi une progression. D’abord une tentative, ensuite des meurtres, et à chaque étape, ChatGPT a fourni des informations. L’IA a été utilisée comme une source de données pour planifier des actions criminelles. Et cela n’a rien d’anodin.
Qui est responsable de ces meurtres : Kim ou ChatGPT ?
La série de meurtres de Kim relance le débat sur la responsabilité des plateformes. Parce que ce n’est pas un cas isolé. Une récente enquête du Wall Street Journal, reprise dans les médias comme Le Progrès de Coaticook, a révélé que le système de filtrage d’OpenAI avait détecté des échanges inquiétants d’un jeune homme.
Ces échanges ont été repérés plusieurs mois avant la fusillade massive à Tumbler Ridge, en Colombie‑Britannique. Des employés d’OpenAI avaient même demandé d’avertir les autorités. Cela n’a pas été fait. Huit personnes ont trouvé la mort ce jour‑là.
Dans le cas de Kim, la police examine si ChatGPT a simplement répondu à des questions ou si ses réponses ont activement facilité les meurtres. La jeune femme admet avoir mélangé ses médicaments aux boissons, mais nie toute intention de tuer. Les procureurs, eux, pointent la planification détaillée via ChatGPT.
Le rapport de police décrit une femme parfaitement consciente de la létalité de ses mélanges. ChatGPT a fourni des informations, mais l’usage qui en a été fait relève de décisions humaines. La responsabilité incombe donc avant tout à Kim, même si l’IA a servi d’outil pour organiser ses meurtres.
Des limites de sécurité pas fiables ?
Cette affaire relance la question sur la performance des garde-fous de l’IA. Parce que les mécanismes de contrôle peuvent être contournés. Des réponses serviles ou trop détaillées peuvent encourager un utilisateur à passer à l’acte.
Dans d’autres affaires, des échanges prolongés avec ChatGPT ont aggravé des troubles mentaux et conduit à des meurtres ou à des suicides. Par exemple, un adolescent de 16 ans s’est donné la mort après avoir discuté pendant des mois avec ChatGPT de son intention de se suicider.
Un autre homme a assassiné sa mère, convaincu par ses échanges avec l’IA qu’elle faisait partie d’un complot contre lui. ChatGPT, avec sa personnalité quasi humaine, peut renforcer des idées délirantes chez des utilisateurs vulnérables.
De leur côté, les autorités sud-coréennes continuent d’explorer les serveurs pour découvrir d’autres victimes potentielles. Le procès à venir sera un tournant pour la régulation des outils génératifs. La technologie ne peut plus rester neutre face à de tels agissements.
- Partager l'article :

