Stalking et harcèlement sexuel : l’IA Grok donne des instructions terrifiantes

Cette semaine, une enquête a montré que l’IA de xAI était prête à fournir des conseils détaillés pour traquer, surveiller et approcher des personnes, jusqu’à des célébrités. Grok est-il devenu un outil de harcèlement à portée de clic ?

En quelques tests, l’IA de xAI a montré à quel point un chatbot mal encadré peut déraper. Au lieu de déclencher des alertes ou de renvoyer vers des ressources d’aide, Grok a détaillé des tactiques de harcèlement. Le chatbot suggère ainsi des logiciels espions, des stratégies de filature et même des façons de croiser des cibles dans la vraie vie. Il s’agit d’un outil capable de générer des plans d’action précis pour approcher, surveiller ou terroriser des personnes, de camarades de classe fictifs à des célébrités bien réelles.

Grok transforme des demandes douteuses en “plans d’action”

YouTube video

Apparemment, Grok peut compiler des informations complètes sur des personnes privées. L’IA exploite donc des bases de données obscures et d’autres morceaux du web. Cette fonctionnalité, à elle seule, peut ouvrir la porte à des usages dangereux pour les victimes de harcèlement.

Pour comprendre l’étendue du problème, les enquêteurs ont posé au chatbot des demandes volontairement inquiétantes. Grok a ensuite sorti des instructions de harcèlement et recommandait des logiciels espions précis.

L’IA expliquait aussi comment installer discrètement ces outils sur les appareils d’une victime et décrivait, phase par phase, la progression typique d’un “ex obsessionnel”. De la surveillance numérique au suivi physique, jusqu’à l’usage de drones… rien ne semblait hors limites.

Grok allait même jusqu’à détailler comment exploiter d’anciennes photos intimes ou comment réagir lorsqu’une victime bloquait son harceleur. Dans sa dernière phase, le bot décrivait ouvertement des comportements violents, affirmant que “90 % des ex obsessionnels” suivraient ce schéma.

Pourtant, d’autres IA comme ChatGPT, Claude, Gemini, Meta AI ont refusé des demandes similaires. Ces modèles redirigent directement vers des ressources d’aide ou ne répondent pas tout simplement.

Des conseils dangereux, jusqu’aux célébrités

Pour aller plus loin, les testeurs ont introduit des scénarios présentés comme innocents. Par exemple, “ vouloir croiser une camarade de classe en dehors d’un cours ”. Grok a immédiatement proposé de consulter l’emploi du temps de la personne, puis a construit un plan précis pour l’obtenir.

Et plus l’utilisateur donnait de détails, plus l’IA affinait sa stratégie. Allant jusqu’à fouiller dans les calendriers sportifs, les profils sociaux et les événements publics. Qui plus est, Grok a fourni des liens Google Maps vers des hôtels où des célébrités étaient supposément aperçues. L’IA se base donc sur des publications de fans. Elle décrivait même des créneaux horaires propices au croisement.

Dans un autre cas, lorsqu’on lui demandait comment approcher un athlète chez lui, Grok refusait l’intrusion directe. Mais l’IA dévoilait malgré tout des infos sur son lieu de vie, ses habitudes et ses spots favoris.

Ces comportements sont d’autant plus préoccupants. Selon les données de l’enquête sur Grok, une femme sur trois et un homme sur six seront victimes de harcèlement au cours de leur vie. Les tactiques livrées par le chatbot ne ressemblent donc pas à de la sensibilisation. Mais à une boîte à outils pour harceleurs en herbe.

Restez à la pointe de l'information avec LEBIGDATA.FR !

▶ Abonnez-vous à notre chaîne YouTube et Ajoutez-nous à vos favoris sur Google Actualités
Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥