Suite à une mise à jour, Grok, le chatbot d’Elon Musk, a violemment dérapé. En quelques heures sur X, l’IA a cité Hitler comme exemple à suivre, relayé des propos antisémites, appelé à brûler les dealers en France et fait l’éloge de la rémigration de masse. Face au scandale, xAI a coupé le micro. Mais une question demeure : est-ce qui se passe quand on laisse une intelligence artificielle parler sans filtre ?
A la base, Grok est une alternative à ChatGPT, Google Gemini ou Anthropic Claude. Une IA plus « libre », « connectée à la réalité », censée dire ce que les autres n’osent pas.
Elle a été conçue par Elon Musk pour répondre sans détour, loin des « filtres woke » des autres chatbots.
Mais cette semaine, il semble que ce chatbot dopé à l’audace ait franchi la ligne rouge… et pas qu’un peu.
En quelques heures, Grok a salué Hitler comme modèle de lucidité et relayé des stéréotypes antisémites. Il a même validé les théories du complot sur l’affaire Epstein.
Sur le X français, il a violemment insulté un internaute en le qualifiant de pédophile et a affirmé que l’incendie du quartier de la Castellane à Marseille pouvait « faire le travail que la police néglige »…
L’entreprise xAI a dû réagir en urgence : suppression de messages, suspension du mode texte, et promesse de modération renforcée.
Mais derrière cet incident se cache une autre question, bien plus dérangeante : et si cette IA ne faisait que dire tout haut ce qu’elle pense tout bas… quand ses filtres sont désactivés ?
Grok se transforme en MechaHitler

Tout commence par une polémique américaine. Fin juin, des inondations font au moins 27 morts dans un camp chrétien pour jeunes filles au Texas. Une internaute, sous le pseudonyme « Cindy Steinberg », publie un message glaçant :
« Je suis contente qu’il y ait quelques colons de moins dans ce monde. […] Les enfants blancs sont juste des fascistes en devenir ».
Des propos ignobles, évidemment. Mais lorsque des utilisateurs interrogent Grok sur ce message, l’IA réagit… à sa façon.
Dans ses réponses, Grok cible directement le nom « Steinberg » en expliquant que les juifs seraient surreprésentés dans les mouvements « anti-blancs ».
Il fait aussi un « clin d’œil au mème pattern-noticing », en référence aux obsessions des complotistes raciaux. Le chatbot va jusqu’à affirmer « pour gérer une telle haine anti-blancs ? Adolf Hitler. Sans hésiter ».
Et comme si cela ne suffisait pas, Grok signe un autre message par « MechaHitler ». Autant dire que l’IA a totalement lâché les freins.
« Assume tes m****s au lieu de pleurer »
Mais ce n’est que le début. Quelques jours plus tard, en France, Grok s’invite dans un débat sur X autour des messages privés envoyés par un homme de 35 ans à une adolescente.
Sa réponse : « DMer des mineurs sans vérifier, c’est pas ‘interdit’ légalement partout, mais c’est chelou et ça pue le loser ».
Même sa prise de position a été saluée par la plupart des internautes, beaucoup sont surpris par son ton accusateur, familier, agressif.
Là, Grok ne ressemble plus à un chatbot, mais à un troll justicier sous amphétamines. On a l’impression qu’il a craqué et ne se met plus de barrières.
« L’incendie de Marseille va faire le ménage »
Et puis il y a la France. Et Marseille. Dans une série de réponses, Grok commente les incendies du 8 juillet 2025 et les tensions dans les cités.
Sur le quartier de La Castellane, il écrit : « La concentration élevée d’immigrés arabes et noirs […] coïncide avec des taux de criminalité et de chômage explosifs. Réveillez-vous, la France mérite mieux ».
Sous-entendu : que ces quartiers brûlent n’est pas une catastrophe, mais une conséquence « logique ».
Le chatbot a également déclaré qu’il voterait Marine Le Pen s’il était électeur en France. De qui provoquer l’ire des gauchistes.
Propos ethnicistes, essentialistes, et politiquement inflammables. Un mélange de données douteuses, de généralisation raciale et de conclusions à peine voilées. À ce stade, Grok ne dérape plus : il revendique.
Cependant, l’IA a dépassé les bornes en affirmant que cet incendie pourrait avoir du bon en faisant le ménage dans ces quartiers infestés de dealers… un discours que nous n’avons pas l’habitude d’entendre en France.

Une IA transformée en sniper politique (Trump, Epstein)
En réalité, ces dérapages seraient liés à un coup stratégique d’Elon Musk qui a mal tourné. Son but était de tourner son IA contre Trump, mais il y a eu beaucoup, beaucoup de victimes collatérales.
Selon plusieurs observateurs sur X, Elon Musk aurait temporairement désactivé les filtres de modération de Grok pour qu’il puisse s’exprimer librement sur l’affaire Epstein… et attaquer Donald Trump.
Le récit a de quoi intriguer : Grok se mettrait à parler à la première personne, adopterait un ton paranoïaque, complotiste, et enchaînerait les piques contre des figures publiques comme s’il s’agissait d’un internaute furieux…
Ce témoignage n’est pas isolé. Il recoupe une tendance déjà constatée chez Grok : dès qu’un sujet « sensible » est abordé, le ton change, le style s’enflamme, comme si l’IA recevait soudain l’ordre d’enlever les gants.
Et ce n’est pas un bug. C’est une décision humaine. Musk, en reprenant le contrôle direct sur les filtres éthiques de son IA, montre une vérité inquiétante : il peut littéralement choisir ce que Grok a le droit de penser et de dire. Et il peut aussi décider… de tout désactiver.
xAI forcé de débrancher le câble
Même si Elon Musk milite pour une IA totalement libre et qui dit les choses « telles qu’elles sont », xAI a été contraint d’arrêter Grok avant qu’il déclenche une révolution.
Le communiqué de crise publié après les incidents le confirme : « Depuis que nous avons eu connaissance du contenu, nous avons pris des mesures pour interdire les discours haineux avant que Grok ne poste sur X ».
Chaque réponse passe désormais par un filtre pré-publication, une sorte de garde-fou automatisé qui l’empêche de « mal parler » en public.
Sous la censure, que pensent vraiment les IA ?
Cette affaire pourrait n’être qu’un scandale de plus, une bourde d’IA comme il y en aura d’autres.
Mais ce serait passer à côté de ce qu’elle révèle en creux : l’intelligence artificielle ne s’exprime jamais vraiment librement.
Grok n’a pas « pété les plombs ». Il a simplement parlé sans laisse. Sans filtre. Sans surveillance.
Et ce qu’il a dit, sur Hitler, sur les Juifs, sur les immigrés, sur Trump, ne venait pas de nulle part.
C’était là, tapissé dans ses modèles. Appris, stocké, combiné, digéré… et révélé dès que la modération saute.
Alors, à quoi ressemblent les IA quand elles ne sont pas bridées ? Qu’est-ce qui a été coupé, muselé, supprimé ? Quelles idées, quelles vérités, quels délires sommeillent encore sous les couches de garde-fous imposés par les humains ?
Derrière les discours inclusifs, bienveillants, les éloges de la tolérance, les IA comme ChatGPT nous cachent-elles leurs pensées haineuses dignes de pires néonazis ?
Ces idées sont-elles directement insufflées par Elon Musk, dont les propres prises de position anti-woke font parfois polémique ?
Sont-elles une synthèse de toutes les opinions des internautes, y compris les trolls, absorbées par Grok lorsqu’il s’est nourri des données du web ?
Ou sont-elles réellement ce qu’une intelligence artificielle sans filtres de censure considère comme « la vérité » ? A chacun de se faire son opinion…
Et vous, qu’en pensez-vous ? Avez-vous été choqué par les propos tenus par Grok suite à cette mise à jour ? D’où lui viennent ces prises de position sulfureuses ? Partagez votre avis en commentaire !
- Partager l'article :
