un petit chatbot robot "ChatGPT" en train de lire un petit livre source Grok

OpenAI s’avoue vaincu ? ChatGPT pompe ses réponses sur Grokipedia

ChatGPT est comme un guide fiable dans le chaos informationnel du web. Mais, d’après les experts, le chatbot d’OpenAI cite à plusieurs reprises Grokipedia, l’encyclopédie générée par l’IA d’Elon Musk.

Le mythe d’une IA toute-puissante, neutre et parfaitement fiable prend un sérieux coup. Selon une enquête fouillée du Guardian, la dernière version de ChatGPT, baptisée GPT-5.2, aurait puisé à plusieurs reprises ses réponses dans Grokipedia d’Elon Musk. Alors que nous savons que l’encyclopédie générée par l’IA de xAI traîne derrière elle une réputation pour le moins sulfureuse. Et voir ChatGPT la citer comme source nous fait douter de la fiabilité des informations générées par ce chatbot.

ChatGPT cite une autre IA comme source

Lors de tests menés par le Guardian, GPT-5.2 a cité Grokipedia à neuf reprises en réponse à plus d’une douzaine de questions. Les sujets abordés étaient la géopolitique iranienne, les structures de pouvoir à Téhéran, les salaires de la milice Basij, le propriété de la Fondation Mostazafan ou encore la biographie de l’historien britannique Sir Richard Evans. Celui-ci est connu pour avoir témoigné contre le négationniste David Irving.

Le problème n’est pas seulement que ChatGPT s’appuie sur une encyclopédie concurrente de Wikipédia. C’est surtout que Grokipedia est entièrement générée par IA, sans possibilité d’édition directe par des humains.

Wikipédia, elle, repose sur une communauté de bénévoles et un système de corrections permanentes. Alors que Grokipedia confie la rédaction et la validation des modifications à un autre modèle d’IA, Grok. Ainsi, une IA cite une IA, qui se vérifie elle-même. Et cette boucle informationnelle inquiète fortement chercheurs et spécialistes de la désinformation.

Grokipedia, une encyclopédie sous haute suspicion

Lancée pour concurrencer Wikipédia, Grokipedia s’est rapidement retrouvée au cœur de polémiques. Des chercheurs américains, dont Harold Triedman et Alexios Mantzarlis de Cornell Tech, ont pointé l’énorme présence de sources jugées « discutables » ou « problématiques ». Leurs travaux mettent en cause la fiabilité de l’encyclopédie IA d’Elon Musk sur des sujets aussi sensibles que la politique iranienne ou le négationnisme de l’Holocauste.

Ces critiques font écho à un précédent troublant. Il y a quelques mois, Grok avait généré un texte expliquant que les chambres à gaz d’Auschwitz auraient été conçues pour la désinfection contre le typhus, et non pour des meurtres de masse. Et cette reformulation de thèses négationnistes fut dénoncée par plusieurs universitaires. Dont Jeanne Vermeirsche et Eric Sanjuan dans une tribune publiée dans Le Monde.

Elon Musk n’a cessé ces dernières années d’attaquer Wikipédia. Il l’accuse d’être idéologiquement biaisée et appelle même à ne plus financer la plateforme. Jimmy Wales, fondateur de Wikipédia, a rejeté ces accusations. Et il a reconnu que l’encyclopédie collaborative pouvait toujours s’améliorer. Mais voir aujourd’hui Grokipedia reprocher les mêmes dérives qu’elle prétendait corriger a de quoi faire sourire… jaune.

YouTube video

Une pollution informationnelle difficile à contenir

Ce qui trouble le plus les observateurs, c’est l’absence de transparence sur la sélection des sources. ChatGPT ne cite pas systématiquement Grokipedia. Le Guardian note par exemple que GPT-5.2 a refusé de relayer des informations manifestement erronées sur l’insurrection du Capitole, le traitement médiatique de Donald Trump ou l’épidémie de VIH. En revanche, sur des sujets plus obscurs, les contenus de Grokipedia se glissent subtilement dans les réponses.

Dans certains cas, ChatGPT a même repris des affirmations plus catégoriques que celles présentes sur Wikipédia. Notamment concernant les liens supposés entre le gouvernement iranien et l’opérateur MTN-Irancell, ou des éléments factuellement inexacts sur le rôle de Sir Richard Evans.

Malgré tout, OpenAI se défend. Un porte-parole assure que ChatGPT indique ses sources et applique des filtres de sécurité pour limiter les contenus nuisibles. Mais pour Romain Leclaire, expert du web interrogé par Mediapart, le mal est déjà là. En traitant Grokipedia comme une source équivalente à des médias ou institutions académiques, ChatGPT participerait donc à une véritable pollution informationnelle.

Outre ChatGPT, d’autres modèles, comme Claude d’Anthropic, auraient eux aussi cité Grokipedia. Pour les chercheurs en désinformation, le risque est qu’à force d’être reprises par des IA populaires, des sources douteuses gagnent en crédibilité. Et une fois intégrée dans les réponses d’un chatbot utilisé par des centaines de millions de personnes, la désinformation devient extrêmement difficile à effacer.

À la question posée par le Guardian, xAI a répondu que « les médias traditionnels mentent ». Et je pense que cette phrase résume parfaitement le climat actuel.

Restez à la pointe de l'information avec LEBIGDATA.FR !

▶ Abonnez-vous à notre chaîne YouTube et Ajoutez-nous à vos favoris sur Google Actualités
Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥