Les IA permettant de déshabiller des femmes connaissent un succès fulgurant, et soulèvent de graves inquiétudes liées au risque de harcèlement. Malheureusement, ni les réseaux sociaux ni les gouvernements ne semblent décidés à lutter efficacement contre le fléau des DeepFakes pornos…
L’intelligence artificielle peut décupler la productivité et libérer la créativité… mais elle peut aussi réveiller les plus bas instincts humains.
Selon les chercheurs, les sites web et applications utilisant l’IA pour déshabiller les femmes sur les photos connaissent une explosion de popularité.
Rien qu’au mois de septembre 2023, plus de 24 millions de personnes ont visité de telles plateformes selon l’entreprise d’analyse des réseaux sociaux Graphika.
Sur les sites web des différents services de DeepFake, les créateurs se vantent d’attirer de nombreux utilisateurs. Certains affirment attirer plus d’un millier d’utilisateurs par jour…
Un phénomène qui se répand sur les réseaux sociaux
Beaucoup de ces services utilisent les réseaux pour leur marketing. Au cours de l’année 2023, le nombre de liens faisant la promotion de telles applis a augmenté de 2400% sur les sites comme X ou Reddit.
Ils utilisent l’IA pour recréer une image existante afin que la personne apparaisse nue. La plupart du temps, ce traitement fonctionne uniquement sur les femmes…
Ces applications s’inscrivent dans une tendance plus globale, très inquiétante, de pornographie non consentie développée et distribuée par les progrès de l’intelligence artificielle : les DeepFakes pornos.
Sa prolifération croissante soulève de nombreux problèmes éthiques et légaux, car les photos sont souvent dérobées sur les réseaux et distribuées sans consentement, contrôle ou même connaissance de la victime.
Comment l’IA permet d’enlever les vêtements des femmes
La hausse de popularité est directement liée au lancement d’IA open source comme Stable Diffusion reposant sur les modèles à diffusion. Ces outils permettent de créer des images d’une qualité incomparablement supérieure avec ce qui se faisait il y a encore quelques années.
Et en raison de leur nature open source, ces modèles sont disponibles gratuitement et sans aucun contrôle de leurs créateurs. Comme l’explique Santiago Lakatos, analyste chez Graphika, « il est possible de créer quelque chose qui semble vraiment réaliste ».
La grande hypocrisie des GAFAM
Sur X, une publicité pour une telle appli présente une image accompagnée d’un texte suggérant que les utilisateurs peuvent créer une image de nu et l’envoyer à la personne. Il s’agit littéralement d’une incitation au harcèlement.
De même, une application a fait sa pub sur YouTube et apparaît en première position lorsqu’on tape le mot « Nudify ». Pourtant, un porte-parole de Google confirme que l’entreprise n’autorise pas le contenu sexuellement explicite.
Il en va de même pour Reddit dont le porte-parole déclare que le site interdit le partage non-consensuel de matériel sexuellement explicite falsifié. Plusieurs domaines ont ainsi été bannis des résultats de recherche.
De son côté, TikTok a bloqué le mot-clé « undress » (déshabiller) : un terme de recherche populaire associé à ce type de service. Les personnes tentant d’effectuer cette recherche sur l’application reçoivent un avertissement.
Enfin, Meta a également bloqué ce type de mots-clés sur ses réseaux. Toutefois, aucune plateforme n’a pris de réelle mesure pour lutter efficacement contre ce phénomène sordide…
La démocratisation des DeepFakes porno en milieu scolaire
Les montages pornos de célébrités sont loin d’être une nouveauté sur internet, mais les experts craignent que les progrès de l’IA rendent les logiciels de DeepFake toujours plus faciles d’utilisation et efficaces.
Selon Eva Galperin, directrice de la cybersécurité à l’Electronic Frontier Foundation, « nous voyons de plus en plus de tels contenus réalisés par des gens ordinaires avec des cibles ordinaires ». C’est notamment le cas parmi les élèves des lycées et des universités…
De nombreuses victimes n’ont même pas conscience de faire l’objet de telles images, et ne le sauront très probablement jamais. Même pour celles qui s’en rendent compte, il est très difficile de réussir à convaincre les autorités de mener l’enquête.
Comme aux États-Unis, il n’existe pas encore en France de loi portant spécifiquement sur les DeepFakes créés via IA. La diffusion de montages pornos est interdite, avec des sanctions maximales d’un an de prison et 15 000 euros d’amende, mais l’arsenal législatif n’a pas été mis à jour pour faire face à ce fléau lié aux progrès technologiques…
Comment se protéger des DeepFakes pornos ?
Face à la menace croissante des DeepFakes pornos, il est essentiel d’adopter une approche proactive pour protéger votre vie privée et prévenir les abus. Voici quelques conseils pratiques et mesures que chacun peut prendre pour limiter les risques.
Maîtrisez votre présence en ligne
Réduisez la quantité d’informations personnelles et de photos publiques accessibles sur internet. Évitez de partager des images en haute résolution sur les réseaux sociaux, car ces clichés peuvent être utilisés pour créer des DeepFakes. Si vous postez des photos, utilisez des paramètres de confidentialité stricts pour limiter leur visibilité.
Activez des alertes de contenu
Des outils comme Google Alerts peuvent vous avertir si votre nom ou des images associées apparaissent en ligne. Bien qu’imparfait, ce système permet de surveiller votre empreinte numérique et d’agir rapidement en cas de problème.
Signalez immédiatement les abus
Si vous découvrez qu’un DeepFake porno vous concernant a été créé ou partagé, signalez-le immédiatement à la plateforme concernée. En parallèle, contactez les autorités locales pour déposer une plainte. Des associations spécialisées, comme StopNCII.org, peuvent également vous aider.
Sensibilisez votre entourage
Parlez des dangers des DeepFakes avec vos proches pour qu’ils comprennent l’importance de protéger leur identité numérique. Enseigner ces bonnes pratiques dès le plus jeune âge est crucial pour limiter les abus.
- Partager l'article :