Le nouvel outil de recherche de ChatGPT promettait une révolution. Mais selon une récente étude, il a un léger problème. Il adore inventer des citations, des sources et d’erreurs dignes d’un scénario de science-fiction.
En octobre dernier, OpenAI annonçait en fanfare sa nouvelle fonctionnalité de recherche ChatGPT. Elle est présentée comme la fusion ultime entre intelligence artificielle et navigation Web.
Fini les longues listes de liens fastidieux ! Place à des réponses claires, pertinentes et en temps réel. Du moins, sur le papier.
Un rapport récent du Tow Center for Digital Journalism est venu briser l’élan triomphaliste. L’étude, menée sur 200 citations provenant de 20 publications, révèle que ChatGPT, bien qu’impressionnant, n’est pas à la hauteur lorsqu’il s’agit de véracité.
Avec des erreurs d’attribution, des sources inexistantes et des citations sorties de nulle part, le chatbot semble avoir un penchant pour la fiction. C’est, d’ailleurs, un expert en ce qui concerne les hallucinations.
Mais qu’est-ce qui cloche avec ChatGPT ?
Je crois que nous nous posons tous la question. Au fait, ChatGPT est tout ce qu’il y a d’imprévisible. Par moments, le chatbot voyait juste. À d’autres, il attribuait une citation au mauvais média ou, pire, inventait une source inexistante.
S’il fait des erreurs quand les publications bloquent les robots d’indexation d’OpenAI, personne ne lui en veut. Mais ces dernières ont beau signer des accords de licence officiels, ChatGPT fait toujours des siens.
La preuve ? Même les partenaires privilégiés d’OpenAI, comme The Wall Street Journal, The Atlantic ou les groupes Axel Springer et Meredith, n’ont pas échappé aux incohérences.
Ces accords, présentés comme une solution pour renforcer le journalisme et améliorer la fiabilité de ChatGPT, n’offrent pas encore les garanties espérées. Par exemple, lorsqu’il s’appuyait sur des articles de Politico, publié par Axel Springer, il s’est souvent emmêlé les pinceaux.
La personne qu’il citait n’était tout simplement pas celle qui avait pris la parole. Je crois que le problème principal vient de la manière dont ChatGPT recherche et interprète les informations.
Même si ses robots d’exploration web font bien leur travail en récupérant des données, le modèle d’IA, lui, reste sujet aux erreurs et aux fameuses « hallucinations« . Et ce, peu importe qu’il ait un accès sous licence ou non à des contenus de qualité.
Quand certains médias, comme le New York Times, bloquent les robots d’indexation via des fichiers robots.txt, la précision de ChatGPT dégringole. Plutôt que d’admettre qu’il n’a pas de réponse, il improvise en créant des sources fictives.
Le chatbot d’OpenAI essai donc d’improviser, mais ce n’est réussi et… ça craint
D’après l’étude, plus d’un tiers des réponses analysées montrent ce genre de ratés. Autant dire qu’on est loin d’un simple bug facile à corriger.
Saviez-vous ce qui est pire ? Quand ChatGPT n’a pas accès à des sources officielles, il se rabat sur des sites obscurs où le contenu a souvent été republié sans autorisation. Résultat : il contribue au plagiat plutôt que de le freiner.
Au final, le vrai problème, ce n’est pas juste que ChatGPT attribue mal une citation. Non, c’est surtout l’impact que cela pourrait avoir sur le journalisme et sur la crédibilité des outils d’IA.
OpenAI aspire à faire de sa recherche un réflexe pour quiconque cherche des réponses rapides, fiables et bien sourcées. Mais si l’outil continue à dérailler, il risque de briser la confiance, autant envers l’IA qu’envers les médias qu’elle résume.
Et pour les partenaires d’OpenAI, les gains financiers issus des accords de licence pourraient vite être éclipsés par la perte de trafic et de réputation provoquée par ces incohérences.
En discutant avec ChatGPT, est-ce que vous avez remarqué ces réponses bizarres vous aussi ? Racontez les dans les commentaires !
- Partager l'article :