ChatGPT est comme un guide fiable dans le chaos informationnel du web. Mais, d’après les experts, le chatbot d’OpenAI cite à plusieurs reprises Grokipedia, l’encyclopédie générée par l’IA d’Elon Musk.
Le mythe d’une IA toute-puissante, neutre et parfaitement fiable prend un sérieux coup. Selon une enquête fouillée du Guardian, la dernière version de ChatGPT, baptisée GPT-5.2, aurait puisé à plusieurs reprises ses réponses dans Grokipedia d’Elon Musk. Alors que nous savons que l’encyclopédie générée par l’IA de xAI traîne derrière elle une réputation pour le moins sulfureuse. Et voir ChatGPT la citer comme source nous fait douter de la fiabilité des informations générées par ce chatbot.
ChatGPT cite une autre IA comme source
Lors de tests menés par le Guardian, GPT-5.2 a cité Grokipedia à neuf reprises en réponse à plus d’une douzaine de questions. Les sujets abordés étaient la géopolitique iranienne, les structures de pouvoir à Téhéran, les salaires de la milice Basij, le propriété de la Fondation Mostazafan ou encore la biographie de l’historien britannique Sir Richard Evans. Celui-ci est connu pour avoir témoigné contre le négationniste David Irving.
Le problème n’est pas seulement que ChatGPT s’appuie sur une encyclopédie concurrente de Wikipédia. C’est surtout que Grokipedia est entièrement générée par IA, sans possibilité d’édition directe par des humains.
Wikipédia, elle, repose sur une communauté de bénévoles et un système de corrections permanentes. Alors que Grokipedia confie la rédaction et la validation des modifications à un autre modèle d’IA, Grok. Ainsi, une IA cite une IA, qui se vérifie elle-même. Et cette boucle informationnelle inquiète fortement chercheurs et spécialistes de la désinformation.
Wikipedia: Built by millions of humans over decades.
— XNextMan (@XNextMan) January 27, 2026
Grokipedia: Built by AI in months.
One is crowd-checked knowledge, the other is machine-generated speed.
The real question — will the future value accuracy or instant answers? 🤔 pic.twitter.com/uq1iG0saOg
Grokipedia, une encyclopédie sous haute suspicion
Lancée pour concurrencer Wikipédia, Grokipedia s’est rapidement retrouvée au cœur de polémiques. Des chercheurs américains, dont Harold Triedman et Alexios Mantzarlis de Cornell Tech, ont pointé l’énorme présence de sources jugées « discutables » ou « problématiques ». Leurs travaux mettent en cause la fiabilité de l’encyclopédie IA d’Elon Musk sur des sujets aussi sensibles que la politique iranienne ou le négationnisme de l’Holocauste.
Ces critiques font écho à un précédent troublant. Il y a quelques mois, Grok avait généré un texte expliquant que les chambres à gaz d’Auschwitz auraient été conçues pour la désinfection contre le typhus, et non pour des meurtres de masse. Et cette reformulation de thèses négationnistes fut dénoncée par plusieurs universitaires. Dont Jeanne Vermeirsche et Eric Sanjuan dans une tribune publiée dans Le Monde.
Elon Musk n’a cessé ces dernières années d’attaquer Wikipédia. Il l’accuse d’être idéologiquement biaisée et appelle même à ne plus financer la plateforme. Jimmy Wales, fondateur de Wikipédia, a rejeté ces accusations. Et il a reconnu que l’encyclopédie collaborative pouvait toujours s’améliorer. Mais voir aujourd’hui Grokipedia reprocher les mêmes dérives qu’elle prétendait corriger a de quoi faire sourire… jaune.
Une pollution informationnelle difficile à contenir
Ce qui trouble le plus les observateurs, c’est l’absence de transparence sur la sélection des sources. ChatGPT ne cite pas systématiquement Grokipedia. Le Guardian note par exemple que GPT-5.2 a refusé de relayer des informations manifestement erronées sur l’insurrection du Capitole, le traitement médiatique de Donald Trump ou l’épidémie de VIH. En revanche, sur des sujets plus obscurs, les contenus de Grokipedia se glissent subtilement dans les réponses.
Dans certains cas, ChatGPT a même repris des affirmations plus catégoriques que celles présentes sur Wikipédia. Notamment concernant les liens supposés entre le gouvernement iranien et l’opérateur MTN-Irancell, ou des éléments factuellement inexacts sur le rôle de Sir Richard Evans.
Malgré tout, OpenAI se défend. Un porte-parole assure que ChatGPT indique ses sources et applique des filtres de sécurité pour limiter les contenus nuisibles. Mais pour Romain Leclaire, expert du web interrogé par Mediapart, le mal est déjà là. En traitant Grokipedia comme une source équivalente à des médias ou institutions académiques, ChatGPT participerait donc à une véritable pollution informationnelle.
ChatGPT, l'IA d’OpenAI, a désormais ajouté Grokipedia à ses sources d’information, le contenu de l’encyclopédie anti-woke d’Elon Musk est justement généré par… une IA pic.twitter.com/qzUB4RmHzC
— Jonathan Chan 💡📣 (@ChanPerco) January 27, 2026
Outre ChatGPT, d’autres modèles, comme Claude d’Anthropic, auraient eux aussi cité Grokipedia. Pour les chercheurs en désinformation, le risque est qu’à force d’être reprises par des IA populaires, des sources douteuses gagnent en crédibilité. Et une fois intégrée dans les réponses d’un chatbot utilisé par des centaines de millions de personnes, la désinformation devient extrêmement difficile à effacer.
À la question posée par le Guardian, xAI a répondu que « les médias traditionnels mentent ». Et je pense que cette phrase résume parfaitement le climat actuel.
- Partager l'article :
