L’IA de recherche de Google fait face à une nouvelle controverse. Imaginez une IA capable de confondre un outil thérapeutique avec un jouet sexuel pour enfants.
En recherchant « grossesse baguette magique », un utilisateur de Reddit a découvert une recommandation alarmante : l’utilisation d’un sextoy, le « Magic Wand » d’Hitachi, comme outil thérapeutique pour les enfants. Cet incident met en lumière les failles inquiétantes de l’IA dans le traitement de l’information.
L’erreur découle d’une mauvaise interprétation par l’IA d’un document officiel. Ce dernier, publié par le ministère de la Santé du New Hampshire, évoquait une technique thérapeutique appelée « baguette magique ». Il s’agit d’un exercice où les parents imaginent résoudre des problèmes grâce à un outil mystique. L’IA a fusionné ces termes avec des informations sur le vibromasseur Hitachi Magic Wand. De ce fait, elle a créé un résumé pour le moins inapproprié.
« Une aberration technologique », selon les utilisateurs
L’extrait suggérait que le sextoy « Magic Wand » pouvait identifier des « changements de comportement » chez les enfants. Une image du produit était même associée à l’aperçu. « Voici comment fonctionne l’outil Baguette magique », indiquait le résumé. Il mentionnait alors des utilisations fictives totalement déconnectées de la réalité. La communauté a immédiatement qualifié cela de « problème grave ».

Cet incident n’est pas isolé. L’IA de Google a généré par le passé des suggestions absurdes, comme inviter des utilisateurs à manger des cailloux ou mélanger de la colle à de la pizza. Ces erreurs révèlent une problématique majeure : l’incapacité de l’outil à contextualiser correctement les informations complexes.
Pourquoi de tels dysfonctionnements persistent-ils ? La pression du marché semble en être la cause. Google, confronté à des rivaux comme OpenAI et Microsoft, cherche à dominer la recherche par IA. Cependant, cette précipitation met en péril la qualité et la fiabilité des résultats.
Google répond… partiellement
Suite à cette polémique, Google a corrigé manuellement le résumé erroné. Désormais, la recherche concernée affiche un message indiquant qu’un aperçu IA n’est pas disponible. Cependant, aucune déclaration officielle n’a été faite pour rassurer les utilisateurs ou expliquer en détail la nature de cette erreur.

Cet incident soulève des questions cruciales : dans quelle mesure peut-on faire confiance à l’IA pour traiter des sujets sensibles ? L’utilisation massive de l’IA dans la recherche en ligne risque de compromettre la précision des informations. Cette situation, couplée à l’impact écologique des technologies, inquiète autant qu’elle interroge sur les priorités des géants technologiques.
Google, tout comme ses concurrents, doit garantir des outils fiables et éthiques. Cet incident met en lumière les défis de l’IA et rappelle l’importance d’une gestion rigoureuse. Les utilisateurs, eux, attendent des solutions concrètes pour éviter de nouveaux dérapages.
- Partager l'article :