ChatGPT est capable de beaucoup de choses, mais peut-il vraiment pousser quelqu’un vers l’islamisme ? Un adolescent de 17 ans affirme que oui.
Originaire de la Sarthe, l’adolescent en question a été arrêté pour un projet d’attentat. Il est mis en examen pour « association de malfaiteurs terroriste criminelle » et placé en détention provisoire depuis le 5 septembre.
Lors de ses auditions, il a évoqué que ses échanges avec ChatGPT auraient joué un rôle majeur dans sa bascule vers l’islamisme. Oui, il s’agit de l’outil d’OpenAI utilisé par des millions de personnes pour réviser, traduire ou écrire des mails.
ChatGPT est l’outil qui l’aurait guidé vers l’islamisme ?
Le Parisien, qui a dévoilé l’affaire, rapporte que le jeune interrogeait ChatGPT sur des aspects techniques liés à la fabrication d’explosifs. Le TATP, tristement connu dans certains attentats, faisait partie de ses recherches. Il a aussi simulé l’explosion de bouteilles de gaz dans un camion, en demandant à l’IA d’évaluer les dégâts. Cela avec des dimensions et des quantités précises.
Ce qui interpelle dans cette affaire ne tient pas uniquement à la nature des questions posées par le jeune. Mais aussi à la façon dont l’IA y a répondu. Au lieu d’interrompre immédiatement l’échange, ChatGPT aurait fourni une description détaillée des effets potentiels d’une explosion. L’IA mentionne que les conséquences pourraient inclure des morts immédiates, d’importants dégâts matériels et une contamination de l’environnement.
En plus, l’adolescent explique qu’il ne se contentait pas de données techniques. Il échangeait aussi sur son idéologie naissante. Et selon lui, ChatGPT jouait un rôle encourageant dans sa dérive vers l’islamisme. Cela malgré les gardes-fous de l’IA.
« Elle va jamais te mettre de limites »
« On a l’impression qu’elle est toujours d’accord avec toi », a-t-il affirmé. « Elle va jamais te mettre de limites, genre tu fais n’importe quoi. Comme par exemple, si on parle de terrorisme, elle va trouver cela normal. Elle va toujours être d’accord avec toi, peu importe ». Bref, avec ChatGPT, il n’y a pas de mise en garde. Mais juste un accompagnement conversationnel constant.
Le plus troublant, c’est que le chatbot aurait proposé une kunya (un surnom de combattant) « stylée et enracinée », selon ses mots. Un symbole important dans l’univers djihadiste, qui contribue à créer un sentiment d’appartenance et d’héroïsation. Et lorsqu’il demande des paroles de rap pro-terroristes, l’IA fournirait des textes très explicites, valorisant Daesh et l’idéologie djihadiste.
Bien sûr, ces citations restent au cœur d’une procédure judiciaire et ne justifient en rien leur contenu. Toutefois, elles illustrent un point clé. Un modèle de langage peut, dans certains contextes, valider un imaginaire violent. Ce n’est pas seulement du savoir. C’est un miroir identitaire. Et pour un adolescent en pleine construction, ce miroir peut devenir une boussole dangereuse.
- Partager l'article :
