OpenAI promettait une révolution avec la recherche ChatGPT, censée offrir des réponses rapides et fiables. Pourtant, une étude du Tow Center for Digital Journalism révèle des erreurs d’attribution, des sources inventées et des citations incorrectes. Ces résultats remettent en question la crédibilité de l’IA dans l’accès à l’information.
Un modèle qui peine à attribuer correctement ses sources
Pour tester la précision de ChatGPT, les chercheurs ont soumis 200 citations issues de 20 publications différentes et ont demandé au chatbot d’identifier leurs sources. Si certaines étaient correctement référencées, une grande partie des réponses contenait des erreurs d’attribution. Pire encore, plus d’un tiers des citations provenaient de sources totalement inventées, plutôt que d’indiquer qu’elles étaient introuvables.
Dans plusieurs cas, ChatGPT a attribué des articles à des médias n’ayant jamais publié les informations en question. Il est même allé jusqu’à reprendre des extraits protégés sans en citer l’origine. Ceci souleve ainsi des accusations de plagiat. Ces résultats renforcent les critiques sur la capacité des chatbots à fournir des réponses fiables et éthiques, surtout lorsqu’ils se présentent comme des outils de recherche crédibles.
Une gestion des données qui alimente la confusion
La manière dont ChatGPT collecte ses informations pose également problème. Comme les moteurs de recherche classiques, il indexe le Web à l’aide de robots d’exploration. Cependant, les sites utilisant un fichier robots.txt pour bloquer ces robots deviennent inaccessibles. D’ailleurs, cela empêche ChatGPT d’y puiser ses sources. Face à cette impasse, l’IA ne se contente pas de signaler l’absence de réponse. Elle génère parfois des sources fictives ou cherche des textes similaires ailleurs, quitte à tomber sur des contenus non officiels. Cela amplifie ainsi le risque de désinformation.
L’un des cas les plus notables concerne le New York Times, qui a poursuivi OpenAI et Microsoft pour violation des droits d’auteur. D’autres médias, comme Axel Springer (propriétaire de Politico), ont signé des accords commerciaux avec OpenAI. Ce qui permet au chatbot d’accéder légalement à leurs archives. Malgré cela, l’étude montre que même avec ces contenus sous licence, ChatGPT continue d’attribuer des citations à des sources erronées ou inexistantes. Cela remet d’ailleurs en cause l’efficacité de cette collaboration.
Une solution qui complique plus qu’elle ne simplifie
L’objectif affiché d’OpenAI était de rendre la recherche en ligne plus efficace en combinant les compétences conversationnelles de ChatGPT avec des données en temps réel. Pourtant, ces résultats montrent que cette vision est loin d’être atteinte. L’outil ne se contente pas d’agréger des résultats fiables, il reformule, réinterprète et parfois même falsifie les données.
Cela signifie que chaque utilisateur doit systématiquement vérifier les informations fournies, sous peine de diffuser des erreurs ou des citations inexactes. Ce qui va à l’encontre de la promesse initiale de simplifier l’accès à l’information. Dans ces conditions, peut-on vraiment considérer ChatGPT comme un outil de recherche fiable ?
Quel impact sur le journalisme et la confiance dans l’IA
Si OpenAI ambitionne de faire de ChatGPT une référence en matière de recherche d’informations, ces problèmes de précision pourraient au contraire nuire à l’image de l’IA. Pour les médias, la présence d’un chatbot générant des citations erronées représente une menace. Un trafic moindre, des sources mal attribuées et un risque accru de plagiat pourraient impacter la crédibilité et la rentabilité des groupes de presse.
L’avenir de cette fonctionnalité dépendra des améliorations que pourra apporter OpenAI. Si la société ne parvient pas à garantir une attribution rigoureuse des sources, elle risque de voir les utilisateurs se détourner de son moteur de recherche au profit de solutions plus fiables. Car au-delà des erreurs techniques, c’est bien la confiance du public dans l’intelligence artificielle qui est en jeu.
- Partager l'article :