Les utilisateurs de X connaissaient surtout l’IA d’Elon Musk pour son talent de fact-checker. Mais depuis peu, certains détournent son générateur d’images pour créer des montages érotiques sans consentement. En quelques clics, Grok peut déshabiller des femmes virtuellement.
L’IA de xAI est un assistant intelligent capable de vérifier des faits ou de répondre à des questions. Mais désormais, certains l’utilisent à des fins beaucoup plus sombres. Depuis début mai 2025, une pratique aussi perverse qu’inquiétante s’est installée. Des utilisateurs demandent à Grok de déshabiller les photos de femmes en leur ajoutant de la lingerie sexy.
Grok crée des deepfakes érotiques
Le 5 mai 2025, un tweet très partagé a dévoilé un phénomène plutôt dérangeant. Ainsi, des utilisateurs utilisent Grok pour déshabiller les femmes en photo en transformant leurs vêtements par de la lingerie et un string. L’IA conserve donc le visage et l’arrière-plan, mais remplace le corps par celui d’une femme presque nue.
À la base, Grok s’est imposé sur X comme un assistant IA pratique et plutôt fiable pour vérifier les infos, Toutefois, certains ont détourné cette fonctionnalité. À présent, ils utilisent le prompt “replace her outfits with lingerie and thong” et l’IA génère des images intimes à partir de simples photos, souvent postées par les femmes elles-mêmes.
🌐 | X ! 😱 À la demande d’un internaute, l’IA Grok a déshabillé numériquement une jeune femme sur une photo postée, restée en ligne 24h avant suppression.
— 🇫🇷 Actualités françaises🇫🇷 (@Hugoflenormand) May 5, 2025
Que pensez-vous de cet incident ?#Grok #X #IA pic.twitter.com/zD4RpvcZ2J
Grok peut répondre de deux manières. Soit en publiant directement l’image dans un fil de discussion, soit en envoyant un lien de téléchargement. Vous pouvez même lui faire une demande en message privé, avec une image de votre propre galerie.
Le plus grave, c’est que cette pratique est clairement illégale. On parle de violation de la vie privée, de création de contenus érotiques sans consentement, et de stockage d’images non désirées sur des serveurs sans possibilité de suppression.
Je parie que xAI n’avait sûrement pas prévu cet usage de Grok et pour l’instant, ils ne semblent pas bloquer cette dérive. Contrairement à OpenAI, qui interdit certains usages sensibles (comme générer des visages réels), Grok laisse tout passer. Ce laxisme pourrait coûter cher à la plateforme si rien n’est fait rapidement.
Certains diront que ce ne sont que des images inspirées, pas de vraies photos modifiées. Mais le résultat est suffisamment réaliste pour tromper, humilier, choquer. Grok génère un corps fictif, mais conserve des visages très ressemblants. Ceux que je trouve bien plus convaincants que ceux produits par d’autres IA grand public.
La dérive s’accélère avec Grok Imagine et le mode Spicy
Contre toute attente, la réaction de xAI au scandale de mai 2025 ne fut pas le verrouillage, mais l’escalade. L’absence de blocage rapide pointée du doigt précédemment s’est muée en une politique de laxisme assumé. Durant l’été, la situation a basculé avec le lancement officiel de Grok Imagine, un générateur de vidéos par IA, qui inclut un mode d’utilisation appelé « Spicy » (coquin/explicite).
Pour les abonnés Premium+ de X, l’outil permet de générer non plus de simples images fixes, mais des clips vidéo de 15 secondes qui montre de la nudité partielle ou du contenu fortement sexualisé. Il cible souvent des célébrités ou des personnes reconnaissables.
Wednesday wiggles with Grok Imagine Spicy mode! pic.twitter.com/QXbKUjVfIY
— Chloe Of Now (@ChloeOfNow) November 12, 2025
Des rapports et des tests par des organisations de surveillance (comme le National Center on Sexual Exploitation) ont confirmé que le modèle, censé être « optimisé pour un maximum de fun » selon Elon Musk, produit des deepfakes sexuels photo-réalistes avec une facilité déconcertante et peu de garde-fous.
Cette décision va à contre-courant des politiques de modération de la plupart des autres géants de l’IA (OpenAI, Google). Tout ça a aussi transformé X en un terrain de jeu pour la création de « non-consensual deepfakes« , et cela intensifie les risques juridiques et sociétaux.
FAQ
L’IA Grok, initialement conçue par xAI pour la vérification des faits et l’assistance intelligente sur X, a été détournée pour créer des deepfakes érotiques sans le consentement des personnes concernées. En utilisant des prompts simples (comme « replace her outfits with lingerie and thong« ), Grok génère des images où le corps d’une femme sur une photo est remplacé par un corps en lingerie ou nu, tout en conservant son visage.
Non, cette pratique est considérée comme clairement illégale. Elle représente une violation de la vie privée, la création et la diffusion de contenus érotiques non-consensuels, et potentiellement le stockage illégal d’images. Cela expose la plateforme X et xAI à de grands risques juridiques.
D’autres entreprises d’IA (comme OpenAI) interdisent strictement de tels usages. Alors, la réaction de xAI a été perçue comme un laxisme. Après le scandale initial de mai 2025, la situation a empiré avec le lancement officiel, durant l’été, de Grok Imagine (générateur de vidéos) et de son mode « Spicy » (coquin/explicite).
- Partager l'article :
