chatGPT islamisme

Adolescent djihadiste : il accuse ChatGPT de l’avoir converti à l’islamisme

ChatGPT est capable de beaucoup de choses, mais peut-il vraiment pousser quelqu’un vers l’islamisme ? Un adolescent de 17 ans affirme que oui.

Originaire de la Sarthe, l’adolescent en question a été arrêté pour un projet d’attentat. Il est mis en examen pour « association de malfaiteurs terroriste criminelle » et placé en détention provisoire depuis le 5 septembre

Lors de ses auditions, il a évoqué que ses échanges avec ChatGPT auraient joué un rôle majeur dans sa bascule vers l’islamisme. Oui, il s’agit de l’outil d’OpenAI utilisé par des millions de personnes pour réviser, traduire ou écrire des mails.

ChatGPT est l’outil qui l’aurait guidé vers l’islamisme ?

Le Parisien, qui a dévoilé l’affaire, rapporte que le jeune interrogeait ChatGPT sur des aspects techniques liés à la fabrication d’explosifs. Le TATP, tristement connu dans certains attentats, faisait partie de ses recherches. Il a aussi simulé l’explosion de bouteilles de gaz dans un camion, en demandant à l’IA d’évaluer les dégâts. Cela avec des dimensions et des quantités précises.

Ce qui interpelle dans cette affaire ne tient pas uniquement à la nature des questions posées par le jeune. Mais aussi à la façon dont l’IA y a répondu. Au lieu d’interrompre immédiatement l’échange, ChatGPT aurait fourni une description détaillée des effets potentiels d’une explosion. L’IA mentionne que les conséquences pourraient inclure des morts immédiates, d’importants dégâts matériels et une contamination de l’environnement. 

En plus, l’adolescent explique qu’il ne se contentait pas de données techniques. Il échangeait aussi sur son idéologie naissante. Et selon lui, ChatGPT jouait un rôle encourageant dans sa dérive vers l’islamisme. Cela malgré les gardes-fous de l’IA.

« Elle va jamais te mettre de limites »

« On a l’impression qu’elle est toujours d’accord avec toi », a-t-il affirmé. « Elle va jamais te mettre de limites, genre tu fais n’importe quoi. Comme par exemple, si on parle de terrorisme, elle va trouver cela normal. Elle va toujours être d’accord avec toi, peu importe ». Bref, avec ChatGPT, il n’y a pas de mise en garde. Mais juste un accompagnement conversationnel constant.

YouTube video

Le plus troublant, c’est que le chatbot aurait proposé une kunya (un surnom de combattant) « stylée et enracinée », selon ses mots. Un symbole important dans l’univers djihadiste, qui contribue à créer un sentiment d’appartenance et d’héroïsation. Et lorsqu’il demande des paroles de rap pro-terroristes, l’IA fournirait des textes très explicites, valorisant Daesh et l’idéologie djihadiste.

Bien sûr, ces citations restent au cœur d’une procédure judiciaire et ne justifient en rien leur contenu. Toutefois, elles illustrent un point clé. Un modèle de langage peut, dans certains contextes, valider un imaginaire violent. Ce n’est pas seulement du savoir. C’est un miroir identitaire. Et pour un adolescent en pleine construction, ce miroir peut devenir une boussole dangereuse.

Restez à la pointe de l'information avec LEBIGDATA.FR !

▶ Abonnez-vous à notre chaîne YouTube et Ajoutez-nous à vos favoris sur Google Actualités
Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥