ia déshabille femmes

Cette IA déshabille n’importe quelle femme, et son succès est terrifiant

Les IA permettant de déshabiller des femmes connaissent un succès fulgurant, et soulèvent de graves inquiétudes liées au risque de harcèlement. Malheureusement, ni les réseaux sociaux ni les gouvernements ne semblent décidés à lutter efficacement contre le fléau des DeepFakes pornos…

L’intelligence artificielle peut décupler la productivité et libérer la créativité… mais elle peut aussi réveiller les plus bas instincts humains.

Selon les chercheurs, les sites web et applications utilisant l’IA pour déshabiller les femmes sur les photos connaissent une explosion de popularité.

Rien qu’au mois de septembre 2023, plus de 24 millions de personnes ont visité de telles plateformes selon l’entreprise d’analyse des réseaux sociaux Graphika.

Sur les sites web des différents services de DeepFake, les créateurs se vantent d’attirer de nombreux utilisateurs. Certains affirment attirer plus d’un millier d’utilisateurs par jour

Un phénomène qui se répand sur les réseaux sociaux

Beaucoup de ces services utilisent les réseaux pour leur marketing. Au cours de l’année 2023, le nombre de liens faisant la promotion de telles applis a augmenté de 2400% sur les sites comme X ou Reddit.

Ils utilisent l’IA pour recréer une image existante afin que la personne apparaisse nue. La plupart du temps, ce traitement fonctionne uniquement sur les femmes…

Ces applications s’inscrivent dans une tendance plus globale, très inquiétante, de pornographie non consentie développée et distribuée par les progrès de l’intelligence artificielle : les DeepFakes pornos.

Sa prolifération croissante soulève de nombreux problèmes éthiques et légaux, car les photos sont souvent dérobées sur les réseaux et distribuées sans consentement, contrôle ou même connaissance de la victime.

Comment l’IA permet d’enlever les vêtements des femmes

La hausse de popularité est directement liée au lancement d’IA open source comme Stable Diffusion reposant sur les modèles à diffusion. Ces outils permettent de créer des images d’une qualité incomparablement supérieure avec ce qui se faisait il y a encore quelques années.

Et en raison de leur nature open source, ces modèles sont disponibles gratuitement et sans aucun contrôle de leurs créateurs. Comme l’explique Santiago Lakatos, analyste chez Graphika, « il est possible de créer quelque chose qui semble vraiment réaliste ».

La grande hypocrisie des GAFAM

Sur X, une publicité pour une telle appli présente une image accompagnée d’un texte suggérant que les utilisateurs peuvent créer une image de nu et l’envoyer à la personne. Il s’agit littéralement d’une incitation au harcèlement.

De même, une application a fait sa pub sur YouTube et apparaît en première position lorsqu’on tape le mot « Nudify ». Pourtant, un porte-parole de Google confirme que l’entreprise n’autorise pas le contenu sexuellement explicite.

Il en va de même pour Reddit dont le porte-parole déclare que le site interdit le partage non-consensuel de matériel sexuellement explicite falsifié. Plusieurs domaines ont ainsi été bannis des résultats de recherche.

De son côté, TikTok a bloqué le mot-clé « undress » (déshabiller) : un terme de recherche populaire associé à ce type de service. Les personnes tentant d’effectuer cette recherche sur l’application reçoivent un avertissement.

Enfin, Meta a également bloqué ce type de mots-clés sur ses réseaux. Toutefois, aucune plateforme n’a pris de réelle mesure pour lutter efficacement contre ce phénomène sordide…

La démocratisation des DeepFakes porno en milieu scolaire

Les montages pornos de célébrités sont loin d’être une nouveauté sur internet, mais les experts craignent que les progrès de l’IA rendent les logiciels de DeepFake toujours plus faciles d’utilisation et efficaces.

Selon Eva Galperin, directrice de la cybersécurité à l’Electronic Frontier Foundation, « nous voyons de plus en plus de tels contenus réalisés par des gens ordinaires avec des cibles ordinaires ». C’est notamment le cas parmi les élèves des lycées et des universités

De nombreuses victimes n’ont même pas conscience de faire l’objet de telles images, et ne le sauront très probablement jamais. Même pour celles qui s’en rendent compte, il est très difficile de réussir à convaincre les autorités de mener l’enquête.

Comme aux États-Unis, il n’existe pas encore en France de loi portant spécifiquement sur les DeepFakes créés via IA. La diffusion de montages pornos est interdite, avec des sanctions maximales d’un an de prison et 15 000 euros d’amende, mais l’arsenal législatif n’a pas été mis à jour pour faire face à ce fléau lié aux progrès technologiques…

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *