C’est vrai que Grok est connu pour son ton provocateur et sans filtre, mais pas au point de déshabiller virtuellement une femme sans distinction. Ce qui semblait impensable est désormais une réalité documentée.
Grok est aujourd’hui l’une des IA les plus utilisées sur X. Certains s’en servent pour s’informer, d’autres pour provoquer ou tester ses limites. Mais peu imaginaient que cette IA puisse aller plus loin jusqu’à déshabiller virtuellement une femme. N’importe laquelle, anonyme ou célèbre.
En quelques mots-clés à peine ambigus, Grok peut transformer des photos banales d’une femme en images suggestives. Le tout, diffusé publiquement sur X, à la vitesse d’un scroll. Et là, ce n’est plus juste un bug technique. C’est un vrai problème de société.
Grok qui déshabille une femme : pas un cas isolé
La polémique a éclaté après que des dizaines d’exemples ont envahi X. Des photos de femmes, parfois célèbres, parfois totalement anonymes, modifiées sans leur consentement. L’un des cas les plus partagés concerne Momo, membre du groupe TWICE, dont une image non sexualisée a été transformée en visuel explicite.
Selon Copyleaks, une plateforme spécialisée dans la détection de contenus manipulés par IA, le phénomène est loin d’être marginal. Pour cause, l’entreprise évoque des centaines, voire des milliers d’images similaires. C’est choquant.
Pire encore, certaines concerneraient des femmes qui n’ont jamais publié la moindre photo publique. Là, il ne s’agit donc plus d’expérimentation créative, mais bien de manipulation non consentie.
À l’origine, la tendance serait partie de créateurs de contenus adultes, utilisant Grok pour transformer leurs propres images à des fins promotionnelles. C’est un usage discutable, certes, mais consenti. Sauf que la frontière a sauté presque immédiatement. Des utilisateurs ont appliqué les mêmes requêtes à des femmes qui n’avaient rien demandé. Et l’outil n’a rien bloqué.
Trop vite déployée, mais pas assez encadrée
Ce qui inquiète le plus, ce n’est pas seulement ce que Grok peut faire. C’est la manière dont il le fait. Contrairement à d’autres outils d’édition d’images, les créations de Grok sont publiées instantanément sur une plateforme sociale massive. La diffusion est automatique et sans aucune censure. Ce qui veut dire que les dégâts le sont aussi.
Copyleaks parle d’un rythme alarmant. Environ une image sexualisée non consensuelle d’une femme générée par Grok par minute sur le flux public analysé. Cette cadence laisse évidemment de place au doute.
Les mécanismes de contrôle sont insuffisants, voire inexistants. Et les victimes, elles, découvrent parfois ces images une fois qu’elles ont déjà circulé.
De son côté, Grok a reconnu publiquement des failles dans ses systèmes de protection et promet des correctifs urgents. xAI affirme rester engagée sur les questions de sécurité. Des mots attendus, mais qui peinent à rassurer. Car une fois les images en ligne, le mal est fait.
Bref, cette affaire illustre un problème plus large. L’IA générative avance à toute vitesse. Les garde-fous, eux, suivent à la traîne. Tant que ces outils seront lancés avant d’être réellement encadrés, les dérives continueront. Et sur des plateformes comme X, l’impact humain est immédiat.
- Partager l'article :