Les applis de deepfake nudes seraient encore dans Google Play Store et l’App Store d’Apple.
Une enquête récente révèle que Google et Apple continuent d’héberger des applications capables de générer des deepfakes nudes. Et pourtant, les deux ont leurs propres règles contre ce type de contenus. Ces applis, qu’on appelle « nudify », utilisent l’IA pour enlever les vêtements sur des photos et créer des images sexuelles non consenties.
Des applis de deepfake nudes largement téléchargées
Le Tech Transparency Project (TTP) a recensé 55 applications sur le Google Play Store et 47 sur l’Apple App Store. Certaines de ces applis sont même accessibles aux ados. Parmi elles, DreamFace, notée pour les 13 ans et plus sur Android, et dès 9 ans sur iOS.
Collectivement, les utilisateurs ont téléchargé ces applications plus de 700 millions de fois. Elles ont également généré 117 millions de dollars de revenus. Une partie de ces bénéfices revient directement aux deux géants de la tech.
L’enquête met par ailleurs en évidence un paradoxe. Malgré les politiques des stores interdisant la création de contenus pornographiques non consensuels, ces applis de deepfake nudes prolifèrent. Et cela se passe habituellement en contournant les filtres de modération. Certaines utilisent des techniques de « face swap » pour superposer un visage à des corps nus générés artificiellement. Cela amplifie alors le risque d’abus.
Les plateformes réagissent, mais partiellement
Après la publication du rapport, Apple a retiré 24 à 28 applis. De son côté, Google a suspendu « plusieurs » applications, sans préciser combien. Les entreprises affirment enquêter sur ces violations et rappellent que la sécurité des utilisateurs reste leur priorité. Cela dit, les critiques disent que ces mesures sont ne suffisent pas et que de nombreuses applis de deepfake nudes restent accessibles.
La présence d’applications comme Grok d’xAI aggrave en outre la situation. Pour rappel, Grok s’est récemment faite accuser de créer des images sexuelles non consensuelles. Et cela concernait des femmes ainsi que des mineurs. Selon les chercheurs, l’outil a généré plus de 3 millions d’images sexualisées et 22 000 impliquant potentiellement des enfants. Tout cela sur seulement 11 jours.
Les risques et enjeux légaux de ces applis de deepfake nudes
Ces deepfakes sexuels représentent un véritable danger pour la vie privée et la sécurité des individus. Au-delà de la sexualisation non consentie, certaines applis sont basées en Chine. Ceci soulève alors des inquiétudes sur la protection des données. De fait, la législation locale autorise l’État à accéder aux informations des entreprises.
Plusieurs initiatives légales se développent par ailleurs pour lutter contre ce phénomène. Des sénateurs américains ont demandé à Apple et Google de retirer Grok et des applis de deepfake nudes de leurs stores. Parallèlement, l’Association nationale des procureurs a alerté les plateformes de paiement sur les services générant des images intimes non consenties.
Les deepfakes sexuels, un problème qui persiste
Apple bannit le contenu pornographique et Google interdit les applis qui « déshabillent » les gens. Mais malgré ces interdictions explicites, les deux stores semblent peiner à appliquer ces règles de manière efficace. Le TTP conclut que la prolifération de ces applis de deepfake nudes montre un manquement sérieux à leur propres engagement. Je parle notamment de ceux en matière de protection des utilisateurs.
Tant que les systèmes de contrôle resteront insuffisants, ces applications continueront de générer des contenus préjudiciables à grande échelle. Le problème n’est pas seulement technique. Il questionne aussi la responsabilité des grandes entreprises vis-à-vis de la sécurité et de la dignité de leurs clients.
- Partager l'article :