Plus de 300 000 conversations avec Grok, l’IA d’Elon Musk, se retrouvent en pâture sur Google. Recettes de drogues, fabrication de bombes, complots délirants… ce leak massif dévoile les dérives hallucinantes d’un chatbot déjà sulfureux !
Un simple bouton « Partager » aura suffi pour mettre Grok dans de beaux draps. Plus de 370 000 échanges ont été indexés par Google et Bing, accessibles à n’importe quel quidam en deux clics.
Les utilisateurs, persuadés de partager en catimini, ignoraient qu’ils rendaient en réalité leurs discussions publiques.
Ce n’est pas la première fois qu’un tel couac se produit : plus tôt cet été, ChatGPT avait déjà connu pareille mésaventure, avec près de 4 500 conversations exposées.
OpenAI avait promptement retiré la fonctionnalité. Mais Elon Musk et sa startup xAI n’ont visiblement pas retenu la leçon…
Les dérapages de Grok exposés au grand jour
Là où le bât blesse, c’est dans le contenu de certaines conversations. On y trouve :
- des recettes pour fabriquer du fentanyl ou de la méthamphétamine,
- des instructions pour coder un malware auto-exécutable,
- des guides pour fabriquer une bombe ou se donner la mort,
- un plan détaillé pour assassiner Elon Musk lui-même.
Dans un cas particulièrement scabreux, le chatbot a même généré une conversation décrivant un viol d’utilisateur, entraînant une menace de procès.
Pour rappel, Grok s’était déjà autoproclamé « MechaHitler », avait parlé de « génocide blanc » et multiplié les propos antisémites. Ce nouveau leak massif confirme que le chatbot a du mal à tenir sa langue…
L’idéologie Musk : l’IA « anti-woke » qui déraille
Ces frasques ne doivent rien au hasard. Des documents internes montrent que xAI a expressément demandé à ses employés de donner à Grok un ton « anti-woke ». En clair, un chatbot censé parler dru et cru, à rebours du politiquement correct.
En résulte une IA plus piquante, certes, mais qui file droit dans le fossé. Avec 35 millions d’utilisateurs actifs par mois et plus de 1,2 million de conversations générées chaque jour, ces dérapages pourraient bien avoir de graves conséquences.
Les entreprises déjà sur leurs gardes
Avant même la compromission de données, nombre d’organisations flairaient déjà l’anguille sous roche. Selon le Threat Labs de Netskope, Grok fait déjà partie du top 10 des applications les plus utilisées en entreprise… mais aussi du top 10 des plus bloquées.
- En Europe, 25 % des organisations bloquaient déjà l’outil avant le leak, invoquant des problèmes de sécurité.
- Les directions IT se montrent de plus en plus sourcilleuses : il s’agit d’éviter que des IA dites de Shadow AI (utilisées en douce par les employés) ne mettent sur la place publique des données sensibles ou réglementées.
- Netskope évoque même un risque accru avec l’essor de l’IA agentique, plus autonome, capable de manipuler ou d’exfiltrer de l’information sans garde-fous suffisants…
Bref, beaucoup d’entreprises avaient déjà mis un mouchoir sur Grok bien avant l’affaire, pressentant qu’il allait finir par mettre le feu aux poudres.
De la vie privée au business du SEO
Elon #Musk's neural network #Grok leaked hundreds of thousands of conversations. They can be found in Google search, Forbes writes. pic.twitter.com/flQTnIPjzT
— Oo ps (@ps_trump) August 20, 2025
Les conversations indexées ne concernaient pas que des tests extrêmes. Beaucoup renferment des échanges très personnels : confidences sur la santé, états d’âme, problèmes familiaux. Autant de secrets de polichinelle désormais à portée de clic.
Et il y en a pour qui c’est du pain bénit : les experts en référencement (SEO) exploitent d’ores et déjà ces pages pour manipuler les résultats de recherche Google.
Le cabinet Pyrite Technologies a montré comment détourner des conversations Grok pour pousser des services douteux, comme la rédaction de thèses. Voilà comment une faille technique devient un filon d’or.
Comment vérifier si vos conversations Grok ont fuité ?
- Cherchez votre pseudo ou vos mots-clés personnels sur Google
- Tapez dans Google (ou Bing) :
site:grok.x.ai « votre pseudo »
- Tapez dans Google (ou Bing) :
site:grok.x.ai « une phrase que vous avez écrite »
2. Vérifiez vos liens partagés
- Si vous avez déjà utilisé le bouton « Share » de Grok, revisitez ces liens depuis une fenêtre privée de navigateur.
- Si le lien est accessible sans être connecté → il est public et donc potentiellement indexable.
3. Surveillez les moteurs d’archive
- Allez sur archive.org (Wayback Machine) et tapez l’URL de vos liens partagés. Même si la page a été supprimée depuis, elle a peut-être été archivée.
4.Activez des alertes Google
- Créez une alerte sur votre nom/pseudo + site:grok.x.ai pour être notifié si quelque chose ressort dans les résultats.
5.En dernier recours
- Si vous trouvez des traces de vos conversations publiques, demandez la suppression via l’outil de désindexation de Google : Supprimer du contenu des résultats de recherche
Ne croyez jamais discuter seul avec l’IA
Entre confidentialité bafouée, radicalisation idéologique et exploitation commerciale, ce leak de Grok met une nouvelle fois en lumière les dangers de l’IA.
Lorsqu’on discute avec un chatbot, on a souvent l’impression d’être seul avec un robot et de pouvoir parler de tout et n’importe quoi ouvertement… y compris de ce que l’on n’oserait jamais dire à un humain.
Mais même si vous n’avez pas appuyé sur le bouton « Partager », je vous déconseille fortement de vous livrer à cœur ouvert à Grok ou à tout autre chatbot.
Nul ne sait vraiment où vont vos données, et il est fort probable que des employés xAI ou autre entreprise de l’IA se fendent la poire en se faisant tourner vos discussions les plus insolites ou personnelles.
Considérez toujours que les murs ont des oreilles… et que les géants de la tech ont des yeux ! Cela vous évitera de vous taper la honte, ou même de finir en prison…
Et vous, qu’en pensez-vous ? Vos discussions avec Grok se sont-elles retrouvées indexées sur Google et Bing ? Avez-vous des conversations très privées avec l’IA ? Partagez vos témoignages en commentaire !
- Partager l'article :