Le géant de la recherche en ligne Google a récemment intégré des résumés générés par l’IA dans ses résultats de recherche, une fonctionnalité présentée comme l’évolution majeure de son moteur depuis des décennies. Cependant, ce déploiement a rapidement suscité de vives critiques sur les réseaux sociaux en raison de réponses aberrantes fournies par la machine.
De nombreux utilisateurs ont partagé des captures d’écran mettant en évidence des affirmations complètement erronées ou farfelues suggérées par ces nouveaux résumés IA. Parmi les exemples les plus décriés, on peut citer des recommandations telles que la consommation quotidienne de roches ou l’ajout de colle dans les sauces pour faire adhérer le fromage sur les pizzas.
Un problème d’hallucination persistant
Malgré des tests approfondis menés en amont, Google peine à contenir ce phénomène appelé « hallucination » chez les modèles d’IA générative actuels. En tentant de formuler des réponses cohérentes, ces systèmes ont tendance à inventer des faits erronés plutôt que d’admettre leurs limites.
L’entreprise a reconnu que certains résumés franchissaient la ligne rouge et violaient ses politiques de contenu. Un porte-parole a toutefois défendu cette mise à jour et affirme que « la grande majorité » des résumés restaient précis. Certains exemples circulant en ligne auraient par ailleurs été trafiqués.
Une confiance à rebâtir
Cet incident illustre les défis persistants auxquels sont confrontées les grandes entreprises technologiques dans leur quête d’intégrer l’intelligence artificielle générative. Malgré des progrès fulgurants, ces systèmes peinent encore à produire des réponses pleinement fiables.
Face à ce constat, de nombreuses sociétés d’IA ont ajouté des avertissements explicites à leurs applications et leurs sites web pour informer les utilisateurs que le contenu généré peut s’avérer incorrect ou trompeur.
Au final, ces incidents prouvent que l’IA générative est encore loin d’être parfaite. Les entreprises technologiques comme Google ou OpenAI n’ont ainsi d’autres choix que de continuer à l’améliorer. Elles doivent également être totalement honnêtes sur ce que ce type d’IA peut et ne peut pas faire pour le moment. Faute de quoi, les utilisateurs pourraient rapidement perdre confiance dans cette technologie malgré son immense potentiel.
- Partager l'article :