Des pervers défloutent les visages des victimes d'Epstein

Des pervers défloutent les visages des victimes d’Epstein

Certains utilisateurs de Grok auraient récemment essayé de déflouter les visages des victimes dans les dossiers d’Epstein.

Depuis la diffusion de ces fameux dossiers, des internautes ont tenté ce que beaucoup appellent une dérive numérique dangereuse. Ils ont voulu “déflouter” les visages d’enfants qui étaient des victimes de l’affaire Epstein. L’identité des victimes était pourtant censée rester anonyme pour leur propre sécurité.

Grok, l’IA au service d’internautes malsains

Cela s’est passé entre le 1er et le 12 février 2026. Des dizaines d’internautes ont demandé à Grok de lever le floutage sur des photos d’enfants apparaissant sur les photos. D’après TF1 Info, on a vu ces images plus de 20 millions de fois sur X, malgré leur caractère artificiel.

Dans près de 60 cas, l’IA a généré des visages fictifs. Ces photos “défloutées” des victimes d’Epstein étaient parfois crédibles, parfois grotesques. On voyait par exemple des bébés sur le corps d’adolescentes. Certaines images montraient quant à elles des visages incohérents avec l’âge des victimes.

YouTube video

Ari Kouts, consultant en IA, a néanmoins expliqué que les modèles de génération d’image ne peuvent pas deviner ce qui se cache derrière un floutage. Selon lui, ils inventent un visage à partir des instructions de l’utilisateur, sans aucun lien avec la réalité. D’autres confirment qu’un même floutage peut produire une multitude de résultats différents. Ces images des dossiers Epstein ne représentent donc jamais les véritables victimes.

Une atteinte à la dignité des victimes de l’affaire Epstein

Pour Nathalie Bucquet, avocate de l’association Innocence en danger, ce type de pratique est gravement problématique. Elle affirme que c’est une atteinte à la dignité des victimes. Aussi, qu’on ne doit pas utiliser l’IA pour simuler des images de mineurs, même de manière fictive. Elle a d’ailleurs trouvé cela on ne peut plus dangereux.

Les experts alertent que ce “défloutage” virtuel des victimes d’Epstein peut alimenter des fantasmes. Mais aussi, des rumeurs et même des théories complotistes. Tristan Mendès France, spécialiste des cultures numériques, note d’ailleurs que le public interprète ces images générées comme de la vérité potentielle. Et pourtant, il n’en est rien. D’après lui, cela crée une virtualité dangereuse autour des victimes.

Des pervers défloutent les visages des victimes d'Epstein

Comment X réagit face au défloutage des victimes d’Epstein ?

Face à la polémique, X a en fait modifié les règles de Grok. Depuis le 6 février, l’IA refuse la plupart des demandes de défloutage. Elle rappelle que les images de mineurs sont protégées légalement et éthiquement. Certaines requêtes destinées aux abonnés payants ont par ailleurs encore abouti à des images fictives. Cela dit, le nombre de cas est désormais très limité.

Si vous vous en rappelez, ce n’est pas la première fois que Grok est impliqué dans ce genre de dérive. Avant les victimes d’Epstein, les internautes ont déjà utilisé l’IA pour créer des deepfakes sexuels de femmes et d’enfants. Cela a alors généré des milliers de contenus problématiques en quelques jours. Les contrôles mis en place restent imparfaits, mais la protection des victimes doit primer sur la curiosité morbide.

Restez à la pointe de l'information avec LEBIGDATA.FR !

▶ Abonnez-vous à notre chaîne YouTube et Ajoutez-nous à vos favoris sur Google Actualités
Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥