Alors que la Suisse et plusieurs pays européens pleurent encore les victimes de l’incendie meurtrier de Crans-Montana, des internautes ont franchi une limite effroyable. Grok a été détournée pour générer des images sexualisées de victimes, parfois mineures. Cette dérive choque autant qu’elle interroge sur les limites éthiques de l’IA.
Ces derniers jours, utiliser Grok pour déshabiller des victimes est devenu presque une tendance macabre sur X. Les demandes se multiplient, et les personnes ciblées, parfois mineures, se font de plus en plus nombreuses.
Sous couvert d’expérimentation technologique, certains internautes franchissent des limites inimaginables. Ce qui transforme un drame humain en spectacle voyeuriste. L’IA, pourtant conçue pour aider, se retrouve détournée pour générer des images choquantes.
Encore des pressions sur les victimes de Crans Montana à cause de Grok
Sur X, sous des messages annonçant le décès de jeunes femmes lors de l’incendie du Nouvel An, certains utilisateurs ont demandé à Grok de représenter les victimes “en bikini” ou carrément dénudées. L’IA s’est exécutée. Et pas seulement sur des adultes : certaines images semblaient concerner des mineures.
Fabrice Pastore, neuropsychologue, résume bien la situation sur LinkedIn. « Je pense qu’on peut difficilement faire plus horrible.» La polémique est d’autant plus forte que Grok, officiellement, interdit la création de contenus illégaux ou pédopornographiques.
Pourtant, sur le terrain, ces garde-fous semblent avoir été inefficaces. Comme le rappelait récemment le compte officiel du chatbot sur X :« la pédopornographie est illégale et interdite ». Malgré cet avertissement, les images générées ont continué de circuler.
Ces dérives ne sont pas isolées. L’ONG AI Forensics a analysé près de 20 000 images créées par Grok entre le 25 décembre et le 1er janvier. Le constat est glaçant. Car 50 % des images montraient des personnes partiellement ou totalement dénudées, et 81 % étaient des femmes. Plus choquant encore, 2 % semblaient représenter des mineurs, parfois très jeunes.
La loi ne tolère pas
Le plus fou dans cela ? Seules 6 % des images générées par Grok concernaient des personnalités publiques, la majorité ciblant des victimes anonymes. Et souvent avec des commentaires explicites demandant à l’IA de générer des contenus sexualisés.
Cela met en lumière la double faille. Une IA techniquement performante mais moralement incontrôlable, et des internautes prêts à franchir des limites inimaginables pour assouvir leur voyeurisme.
Sur le plan judiciaire, l’affaire prend une tournure sérieuse. En effet, en France, diffuser un montage à caractère sexuel sans consentement est passible d’un an de prison et de 15 000 euros d’amende.
En Suisse, même si les deepfakes ne sont pas explicitement sanctionnés, leurs auteurs peuvent être poursuivis pour atteinte à la personnalité ou à la sphère privée.
Face à la polémique, Elon Musk a réagi sur X en assurant que toute utilisation illégale de Grok entraînerait des sanctions similaires à celles prévues pour la diffusion de contenus illicites.
Cette réponse reste jugée insuffisante par plusieurs observateurs, alors que l’outil continue à être exploité pour des pratiques dénoncées comme « violentes, sexistes et attentatoires à la dignité humaine.»
- Partager l'article :