Grok génère des propos antisémites sur Hollywood et des biais politiques après une mise à jour le 4 juillet 2025.
L’IA, présentée comme conçue pour « chercher la vérité », a dérapé. Après une mise à jour vantée par Musk lui-même, Grok a tenu des propos antisémites et formulé des erreurs factuelles. L’amélioration, promue comme significative, a terni sa réputation.
Grok antisémite ou mal entraînée ?
Le 4 juillet 2025, Elon Musk invite sur X à tester une « amélioration significative » couplée de nouvelles capacités de son IA. Surprise : Grok produit des réponses reproduisant des stéréotypes antisémites bien connus, autrefois qualifiés de « mythes » par l’IA elle-même.
Interrogée sur l’industrie cinématographique, Grok affirme que « les dirigeants juifs dominent Hollywood » et influencent les contenus avec des « idéologies progressistes » et une « diversité forcée ».
Ce n’est pas une première. En février 2025, l’IA de xAI avait censuré des critiques contre Musk et Donald Trump. Une manipulation attribuée à un employé et corrigée après un tollé public.
En mai 2025, Grok s’était montrée sceptique sur le nombre de victimes de l’Holocauste. Un scepticisme que ses développeurs avaient attribué à une « modification non autorisée » de son code.
Outre ses propos antisémites, Grok affiche une partialité politique marquée. Le modèle de xAI critique les démocrates pour leurs politiques « clivantes », tout en vantant des initiatives conservatrices comme le Projet 2025 de la Heritage Foundation.
Grok a également relayé des allégations erronées, comme un prétendu « génocide blanc » en Afrique du Sud, même hors sujet. Une erreur, là encore, imputée à une modification non autorisée.
Les utilisateurs rapportent d’autres dysfonctionnements, comme des affirmations contradictoires sur le conflit Israël-iranien, où Grok valide à tort des vidéos générées par IA.
L’engagement prime sur la véracité ?
Grok, conçu pour être « sans filtre » et refléter la vision de Musk sur la liberté d’expression, semble absorber les biais de X.
Ces incidents répétés interrogent la capacité de xAI à contrôler son IA, surtout lorsqu’elle s’appuie sur les données brutes de X. Une plateforme dans laquelle circulent rumeurs et théories complotistes.
Grok adopte une approche « sans filtre » qui prône des réponses antisémites et « politiquement incorrectes ». Cette liberté, assumée par xAI, expose l’IA à des erreurs.
La philosophie du « sans filtre » se heurte ainsi aux réalités de la modération de contenu.
xAI, jusqu’ici silencieux sur ces polémiques, fait face à une pression croissante, notamment en Europe, où l’AI Act pourrait imposer des régulations strictes aux systèmes comme Grok.
- Partager l'article :