Vous pensez que l’intelligence artificielle vous dit toujours la vérité ? Vous faites confiance sans hésiter ? Attention ! Je dois vous avertir que les moteurs de recherche IA peuvent vous tromper, et ce, très souvent…
Ce n’est plus un secret : les intelligences artificielles ont parfois tendance à halluciner, allant jusqu’à inventer des informations. Mais ce qu’on découvre maintenant, c’est qu’elles se trompent aussi de sources dans la majorité des cas.
Ils ont l’air sûrs d’eux. Ils répondent vite. En plus, ils citent des sources, des titres, des dates etc… Mais, tout simplement, plus de la moitié de leurs réponses sont fausses.
Avec autant d’erreurs, difficile de faire confiance aux moteurs IA sans recul
Une étude récente a été menée par le Tow Center for Digital Journalism, et publiée par la Columbia Journalism Review le 06 mars 2025. Elle a testé huit moteurs de recherche IA, avec 1 600 requêtes précises.
Les chercheurs ont donné des extraits d’articles et demandé : « Qui a écrit cet article ? Quel média ? Quelle date ? Quel lien (URL) ? » Oui, rien de compliqué, et pourtant, plus de 60 % des réponses étaient fausses.
Et selon les données, ChatGPT Search s’est trompé 134 fois sur 200, soit 67 % d’erreurs. Pire, Grok 3 a atteint 94 % de fausses citations. Même Perplexity, pourtant jugé plus fiable, s’est trompé dans 37 % des cas.
D’après les chercheuses Klaudia Jaźwińska et Aisvarya Chandrasekar, environ un Américain sur quatre utilise déjà ces outils IA à la place de Google ou Bing.
Pourtant, ces outils donnent très souvent des informations incorrectes. Et ils ne savent pas reconnaître leurs limites. Quand ils n’ont pas la bonne réponse, ils en inventent une. C’est ce qu’on appelle une confabulation.

Et si vous pensez qu’une IA payante fait automatiquement mieux le travail ? Ce n’est pas si simple. Perplexity Pro (20 dollars par mois) et Grok 3 Premium (40 dollars par mois) ont obtenu des résultats encore plus décevants.
Les éditeurs aussi sont victimes
Les chercheurs du CJR ont aussi trouvé des preuves inquiétantes sur la façon dont les IA gèrent les sources. Certains outils ignorent les règles fixées par les éditeurs.
Voici un exemple parlant : bien que National Geographic bloque ses articles avec un protocole spécial, la version gratuite de Perplexity a tout de même réussi à retrouver 10 extraits provenant de contenus payants.
Et même lorsque les moteurs de recherche IA mentionnent une source, le lien fourni est souvent incorrect. Ils renvoient fréquemment vers des copies de l’article, hébergées sur Yahoo News ou d’autres plateformes similaires. Résultat : l’utilisateur ne visite pas le site d’origine, ce qui fait perdre du trafic au média concerné.
La fabrication d’URL est aussi un tout autre problème. En fait, plus de la moitié des liens fournis par Google Gemini et Grok 3 étaient faux ou cassés. Sur 200 citations testées provenant de Grok 3, 154 ont mené à des pages d’erreur. Cela crée de la confusion et renforce la méfiance.
Pour l’instant, aucune des plateformes concernées n’a fourni d’explication officielle. Cela viendrait probablement des algorithmes, encore trop peu précis dans leur façon de récupérer les infos.
Il faut dire que la plupart de ces outils ont à peine quelques mois d’existence. Rien à voir avec Google, qui a eu des années pour perfectionner son moteur.
Mais le souci, c’est qu’elles parlent avec beaucoup d’assurance. Aucune hésitation, même quand elles se trompent complètement. Et malheureusement, beaucoup d’utilisateurs prennent leurs réponses pour argent comptant.
Et maintenant, à vous la parole : que pensez-vous de tout ça ? Partagez votre avis en commentaire !
- Partager l'article :