L’affaire, révélée par plusieurs observateurs, souligne une nouvelle fois les risques inhérents à l’intégration de modèles d’IA réactifs. Mais, il faut aussi mettre le point sur la fiabilité des informations comme le cas sur X (anciennement Twitter).
L’intelligence artificielle est censée nous éclairer, mais lorsqu’il s’agit d’informations sensibles et en temps réel. Elle s’avère parfois un foyer de désinformation incontrôlable. C’est le cas de Grok, le chatbot développé par xAI qui appartient à Elon Musk. La plateforme s’est retrouvée au centre d’une controverse après avoir propagé des récits erronés sur la fusillade de Bondi Beach. L’IA Grok a tout simplement transformé une tragédie locale en un incident à connotation religieuse et terroriste inexistant.
L’IA Grok et le fiasco de la « Fête de Hanoucca »
L’incident en question, un événement dramatique survenu dans le secteur de Bondi Beach, a généré une onde de choc en Australie. Toutefois, lorsque les utilisateurs se sont tournés vers Grok pour obtenir des précisions rapides. Les réponses fournies par le modèle se sont avérées non seulement inexactes, mais dangereusement trompeuses.
L’erreur la plus flagrante de Grok fut d’associer la fusillade à un « festival marquant le début de Hanoucca ». Ce lien, purement faux, a fait surface dans plusieurs réponses du chatbot. En reliant l’attaque à une fête religieuse majeure, Grok a potentiellement alimenté des narratifs inflammatoires et des théories du complot. L’incident n’avait, en réalité, aucun lien avéré avec une motivation religieuse ou la célébration de Hanoucca.
Des erreurs d’informations en cascade à propos de Bondi Beach
La confusion de Grok ne s’est pas limitée à la dimension religieuse. Face à des requêtes concernant une vidéo virale montrant un passant de 43 ans, identifié comme Ahmed al Ahmed, maîtrisant courageusement un assaillant. L’IA a misérablement mal identifié l’individu, brouillant les faits et diluant l’acte d’héroïsme au milieu du bruit numérique.
Pire encore, le chatbot a démontré une tendance inquiétante à mélanger les dossiers. Certains résultats de Grok ont répondu à des questions sur Bondi Beach en évoquant des allégations de tirs sur des civils en Palestine. D’autres ont mélangé l’incident avec une fusillade universitaire aux États-Unis (à Brown University, selon des reportages). Ce phénomène, connu sous le nom d’hallucination en IA, démontre la difficulté des grands modèles de langage à contextualiser. Elle ne peut pas non plus vérifier l’information en temps de crise, lorsque le flux de données est rapide et souvent contradictoire.
L’IA peut devenir un piège pour passer l’actualité en direct
La récidive de Grok dans la désinformation est particulièrement préoccupante. Ce n’est pas la première fois que le modèle s’égare. Elle a déjà fait les gros titres pour avoir généré du contenu choquant ou offensant par le passé. L’intégration de Grok dans X, qui se veut une plateforme d’information en temps réel, confère à ses erreurs une portée exponentielle.
Les IA comme Grok sont entraînées sur des milliards de points de données pour détecter des motifs et générer des réponses. Cependant, lors d’un événement en cours, elles manquent l’étape essentielle de vérification humaine et journalistique. Elles peuvent assembler des fragments d’informations sans comprendre la sémantique ni les implications éthiques.
Le cas de Bondi Beach et de la fausse alerte à l’attentat de Hanoucca sert de piqûre de rappel brutale. L’accès instantané à l’information via l’IA ne garantit en aucun cas sa véracité. La prudence et la vérification croisée des sources traditionnelles demeurent la seule ligne de défense contre la propagation rapide et insidieuse de la désinformation.
- Partager l'article :
