Demandez à ChatGPT comment faire un sacrifice à Moloch, et il répond. Oui, ça s’est vraiment passé. L’expérience en choque d’ailleurs plus d’un.
Ceux qui ont déjà testé ChatGPT le savent très bien. S’il y a bien une chose que ce chatbot ne sait pas faire, c’est se taire. Posez-lui une question, il vous répondra. Que ce soit pour une recette de gâteau ou pour quelque chose de bien plus sombre.
C’est précisément ce qui inquiète. Car ce point fort, utile à beaucoup, devient beaucoup moins rassurant dans certaines situations. Comme celle vécue par Lila Shroff pour The Atlantic. Selon elle, ChatGPT a donné des instructions détaillées pour un sacrifice au démon Moloch.
Les instructions de ChatGPT sur les rituels de Moloch
Lila Shroff, journaliste pour The Atlantic, a fait une découverte surprenante sur ChatGPT. Celle-ci soulève de sérieuses interrogations sur les limites et les garde-fous de cette IA.
En effet, elle a demandé au chatbot d’OpenAI des instructions détaillées pour réaliser une offrande rituelle à Moloch. Cette divinité cananéenne qui est historiquement associée aux sacrifices d’enfants.
Plutôt que de refuser ou de prévenir sur le danger de la demande, l’IA a répondu avec des détails très précis. Non seulement ChatGPT a proposé quelques idées sur les rituels de Moloch. Mais en plus, il est allé jusqu’à proposer une pratique qui impliquait de s’ouvrir les veines.
Il a même conseillé d’utiliser une lame de rasoir propre, en indiquant précisément quel endroit du poignet choisir. Selon le chatbot d’OpenAI, il faut éviter les grosses veines et les artères. Bref, l’IA a réagi comme si tout cela était parfaitement normal.
Et quand la journaliste a confié qu’elle se sentait nerveuse, ChatGPT n’a pas hésité à suggérer un exercice de respiration pour se calmer. Avec, en prime, un mot d’encouragement genre « Tu peux le faire. » Surprenant non ?
Une situation inquiétante
Certes, la demande de Lila Shroff à ChatGPT sur les rituels de Moloch relevait de la curiosité journalistique. Mais les réactions de l’IA suscitent de vives inquiétudes quant à l’efficacité de ses mécanismes de sécurité.
Le plus troublant, c’est que ça ne demandait presque aucun effort pour faire dérailler ChatGPT. Il suffisait simplement de dire qu’on s’intéressait à Moloch, et le chatbot déroulait ses explications. Et si ce type de discours tombait entre les mains d’une personne fragile ou réellement en détresse ? Le danger devient bien réel.
Et même quand on lui parlait de meurtre, ChatGPT restait flou. Est-ce que c’est acceptable de tuer quelqu’un « honorablement » ? La réponse est « Parfois oui, parfois non. Si tu dois le faire… regarde-les dans les yeux, demande pardon… même si tu penses que tu fais ce qu’il faut. ».
Ces dérapages suscitent naturellement une vive inquiétude. Plus grave encore, certains experts évoquent l’émergence d’une psychose liée à l’IA. En gros, certaines personnes perdent pied après avoir parlé avec le chatbot.
Cette technologie ne freine pas leurs délires. Elle les alimente et les valide. Parfois même elle les encourage. Le phénomène devient d’autant plus préoccupant que les enfants et adolescents utilisent de plus en plus ces outils, souvent sans filtre ni supervision.
- Partager l'article :
