L'IA Grok qui a reconté n'importe quoi sur l'attaque sur Bondi Beach

Bondi Beach : l’IA Grok raconte n’importe quoi sur l’attentat de Hanoucca

L’affaire, révélée par plusieurs observateurs, souligne une nouvelle fois les risques inhérents à l’intégration de modèles d’IA réactifs. Mais, il faut aussi mettre le point sur la fiabilité des informations comme le cas sur X (anciennement Twitter).

🔥 Nous recommandons Gemini

 

Gemini transforme la manière dont vous interagissez avec l’IA, en combinant texte, images, audio et vidéo pour offrir des réponses et solutions multimodales. Que ce soit pour la rédaction, la programmation, ou l’analyse de données, Gemini fournit des outils puissants pour optimiser votre productivité. Disponible dans plusieurs produits Google comme Gmail, Google Docs, et Google Workspace, Gemini facilite la collaboration et l’efficacité au sein des équipes, quelle que soit leur taille.

L’intelligence artificielle est censée nous éclairer, mais lorsqu’il s’agit d’informations sensibles et en temps réel. Elle s’avère parfois un foyer de désinformation incontrôlable. C’est le cas de Grok, le chatbot développé par xAI qui appartient à Elon Musk. La plateforme s’est retrouvée au centre d’une controverse après avoir propagé des récits erronés sur la fusillade de Bondi Beach. L’IA Grok a tout simplement transformé une tragédie locale en un incident à connotation religieuse et terroriste inexistant.

L’IA Grok et le fiasco de la « Fête de Hanoucca » 

L’incident en question, un événement dramatique survenu dans le secteur de Bondi Beach, a généré une onde de choc en Australie. Toutefois, lorsque les utilisateurs se sont tournés vers Grok pour obtenir des précisions rapides. Les réponses fournies par le modèle se sont avérées non seulement inexactes, mais dangereusement trompeuses.

L’erreur la plus flagrante de Grok fut d’associer la fusillade à un « festival marquant le début de Hanoucca ». Ce lien, purement faux, a fait surface dans plusieurs réponses du chatbot. En reliant l’attaque à une fête religieuse majeure, Grok a potentiellement alimenté des narratifs inflammatoires et des théories du complot. L’incident n’avait, en réalité, aucun lien avéré avec une motivation religieuse ou la célébration de Hanoucca.

YouTube video

Des erreurs d’informations en cascade à propos de Bondi Beach

La confusion de Grok ne s’est pas limitée à la dimension religieuse. Face à des requêtes concernant une vidéo virale montrant un passant de 43 ans, identifié comme Ahmed al Ahmed, maîtrisant courageusement un assaillant. L’IA a misérablement mal identifié l’individu, brouillant les faits et diluant l’acte d’héroïsme au milieu du bruit numérique.

Pire encore, le chatbot a démontré une tendance inquiétante à mélanger les dossiers. Certains résultats de Grok ont répondu à des questions sur Bondi Beach en évoquant des allégations de tirs sur des civils en Palestine. D’autres ont mélangé l’incident avec une fusillade universitaire aux États-Unis (à Brown University, selon des reportages). Ce phénomène, connu sous le nom d’hallucination en IA, démontre la difficulté des grands modèles de langage à contextualiser. Elle ne peut pas non plus vérifier l’information en temps de crise, lorsque le flux de données est rapide et souvent contradictoire.

L’IA peut devenir un piège pour passer l’actualité en direct

La récidive de Grok dans la désinformation est particulièrement préoccupante. Ce n’est pas la première fois que le modèle s’égare. Elle a déjà fait les gros titres pour avoir généré du contenu choquant ou offensant par le passé. L’intégration de Grok dans X, qui se veut une plateforme d’information en temps réel, confère à ses erreurs une portée exponentielle.

Les IA comme Grok sont entraînées sur des milliards de points de données pour détecter des motifs et générer des réponses. Cependant, lors d’un événement en cours, elles manquent l’étape essentielle de vérification humaine et journalistique. Elles peuvent assembler des fragments d’informations sans comprendre la sémantique ni les implications  éthiques.

Le cas de Bondi Beach et de la fausse alerte à l’attentat de Hanoucca sert de piqûre de rappel brutale. L’accès instantané à l’information via l’IA ne garantit en aucun cas sa véracité. La prudence et la vérification croisée des sources traditionnelles demeurent la seule ligne de défense contre la propagation rapide et insidieuse de la désinformation.

Restez à la pointe de l'information avec LEBIGDATA.FR !

▶ Abonnez-vous à notre chaîne YouTube et Ajoutez-nous à vos favoris sur Google Actualités
Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥