Les IA telles que Nudify permettent de déshabiller des femmes. Elles connaissent un succès fulgurant, et soulèvent de graves inquiétudes liées au risque de harcèlement.
Malheureusement, ni les réseaux sociaux ni les gouvernements ne semblent décidés à lutter efficacement contre le fléau des DeepFakes pornos… L’intelligence artificielle peut décupler la productivité et libérer la créativité… mais elle peut aussi réveiller les plus bas instincts humains. Focus sur cette IA qui déshabille les femmes.
Une IA qui gagne en popularité
Selon les chercheurs, les sites web et applications utilisant l’IA pour déshabiller les femmes sur les photos connaissent une explosion de popularité. Rien qu’en 2023, plus de 24 millions de personnes ont visité de telles plateformes selon l’entreprise d’analyse des réseaux sociaux Graphika.
Sur les sites web des différents services de DeepFake, les créateurs se vantent d’attirer de nombreux utilisateurs. Certains affirment attirer plus d’un millier d’utilisateurs par jour…
Un phénomène qui se répand sur les réseaux sociaux
Beaucoup de ces services utilisent les réseaux pour leur marketing. Au cours de l’année 2023, le nombre de liens faisant la promotion de telles applis a augmenté de 2400% sur les sites comme X ou Reddit.
Ils utilisent l’IA pour recréer une image existante afin que la personne apparaisse nue. La plupart du temps, ce traitement fonctionne uniquement sur les femmes…
Ces applications s’inscrivent dans une tendance plus globale, très inquiétante, de pornographie non consentie développée et distribuée par les progrès de l’intelligence artificielle : les DeepFakes pornos.
Sa prolifération croissante soulève de nombreux problèmes éthiques et légaux, car les photos sont souvent dérobées sur les réseaux et distribuées sans consentement, contrôle ou même connaissance de la victime.
Comment l’IA permet d’enlever les vêtements des femmes
La hausse de popularité est directement liée au lancement d’IA open source comme Stable Diffusion reposant sur les modèles à diffusion. Ces outils permettent de créer des images d’une qualité incomparablement supérieure avec ce qui se faisait il y a encore quelques années.
Et en raison de leur nature open source, ces modèles sont disponibles gratuitement et sans aucun contrôle de leurs créateurs. Comme l’explique Santiago Lakatos, analyste chez Graphika, « il est possible de créer quelque chose qui semble vraiment réaliste ».
La grande hypocrisie des GAFAM
Sur X, une publicité pour une telle appli présente une image accompagnée d’un texte suggérant que les utilisateurs peuvent créer une image de nu et l’envoyer à la personne. Il s’agit littéralement d’une incitation au harcèlement.
De même, une application a fait sa pub sur YouTube et apparaît en première position lorsqu’on tape le mot « Nudify ». Pourtant, un porte-parole de Google confirme que l’entreprise n’autorise pas le contenu sexuellement explicite.
Il en va de même pour Reddit dont le porte-parole déclare que le site interdit le partage non-consensuel de matériel sexuellement explicite falsifié. Plusieurs domaines ont ainsi été bannis des résultats de recherche.
De son côté, TikTok a bloqué le mot-clé « undress » (déshabiller) : un terme de recherche populaire associé à ce type de service. Les personnes tentant d’effectuer cette recherche sur l’application reçoivent un avertissement.
Enfin, Meta a également bloqué ce type de mots-clés sur ses réseaux. Toutefois, aucune plateforme n’a pris de réelle mesure pour lutter efficacement contre ce phénomène sordide…
La démocratisation des DeepFakes porno en milieu scolaire
Les montages pornos de célébrités sont loin d’être une nouveauté sur internet, mais les experts craignent que les progrès de l’IA rendent les logiciels de DeepFake toujours plus faciles d’utilisation et efficaces.
Selon Eva Galperin, directrice de la cybersécurité à l’Electronic Frontier Foundation, « nous voyons de plus en plus de tels contenus réalisés par des gens ordinaires avec des cibles ordinaires ». C’est notamment le cas parmi les élèves des lycées et des universités…
De nombreuses victimes n’ont même pas conscience de faire l’objet de telles images, et ne le sauront très probablement jamais. Même pour celles qui s’en rendent compte, il est très difficile de réussir à convaincre les autorités de mener l’enquête.
Comme aux États-Unis, il n’existe pas encore en France de loi portant spécifiquement sur les DeepFakes créés via IA. La diffusion de montages pornos est interdite, avec des sanctions maximales d’un an de prison et 15 000 euros d’amende. Malheureusement, l’arsenal législatif n’a pas été mis à jour pour faire face à ce fléau lié aux progrès technologiques…
IA qui déshabille : comment se protéger des DeepFakes pornos ?
Les DeepFakes pornos exploitent l’intelligence artificielle pour créer de fausses vidéos sexuelles à partir de photos volées. Le phénomène prend de l’ampleur. Pour préserver sa vie privée, chacun peut adopter des gestes simples mais efficaces.
D’abord, limitez votre exposition en ligne. Ne publiez pas de photos en haute définition accessibles publiquement. Les images trop nettes sont les plus faciles à détourner. Réglez vos profils sociaux en mode privé. N’autorisez l’accès qu’à des contacts de confiance.
Ensuite, installez des alertes automatiques. Avec un service comme Google Alerts, vous pouvez suivre l’apparition de votre nom ou de vos images sur le web. Cela permet d’agir vite si un contenu suspect circule.
En cas de DeepFake, réagissez sans attendre. Signalez la vidéo à la plateforme où elle apparaît. Contactez aussi les forces de l’ordre pour porter plainte. Des organisations comme StopNCII.org peuvent vous accompagner dans les démarches pour faire supprimer les contenus.
Enfin, sensibilisez votre entourage. Expliquez les risques à vos amis, votre famille, vos enfants. L’éducation au numérique doit intégrer ces nouvelles menaces. Comprendre les enjeux, c’est mieux se défendre.
Protéger son image n’est plus un luxe. C’est une nécessité face à l’essor des IA capables de nuire. Prévenir vaut mieux que réparer.
DeepFakes et IA : des lois enfin à la hauteur en 2025 ?
En France, le projet de loi visant à sécuriser et réguler l’espace numérique (SREN) introduit des amendements pour sanctionner la diffusion de montages. Les deepfakes sont aussi sanctionnés s’ils sont diffusés sans le consentement des personnes concernées. Ces initiatives illustrent une prise de conscience accrue des législateurs face aux défis posés par les deepfakes et l’IA.
De l’autre côté de la frontière, en Espagne, le gouvernement a approuvé un projet de loi imposant des amendes substantielles aux entreprises qui diffusent du contenu généré par IA sans étiquetage approprié. Cette mesure vise à freiner l’utilisation abusive des deepfakes, notamment ceux à caractère sexuel ou diffamatoire. Les contrevenants s’exposent à des amendes pouvant atteindre 35 millions d’euros ou 7 % de leur chiffre d’affaires annuel mondial.
Parallèlement, la Californie a adopté huit lois visant à encadrer l’IA en vue d’établir certaines des régulations les plus strictes aux États-Unis. La loi SB 926, par exemple, criminalise la création et la diffusion de deepfakes à caractère sexuel, notamment lorsqu’ils sont utilisés pour faire du chantage. De plus, la loi SB 981 oblige les plateformes de réseaux sociaux à mettre en place des outils pour signaler ces contenus.
Néanmoins, nous ne sommes pas en mesure de confirmer que cela soit suffisant pour stopper les mauvais usage de l’IA.
Détournement de Grok : l’IA d’Elon Musk utilisée pour déshabiller des femmes
Depuis peu, une inquiétante tendance a émergé sur le réseau social X. En effet, des utilisateurs détournent l’IA Grok pour générer des images de femmes partiellement dénudées. Grok n’est autre qu’ un chatbot conversationnel intégré à X, développé par la start-up xAI d’Elon Musk. Au début, il a été conçu pour des tâches comme le fact-checking. Il suffit de le mentionner sous une publication pour qu’il vérifie les informations
Cependant, des internautes utilisent désormais cette fonction pour lui demander de modifier des photos en simulant des corps en sous-vêtements. Une telle demande est très simple à formuler, car il suffit de simples phrases pour obtenir un tel résultat. Le pire dans tout cela, c’est que souvent, cette manœuvre se fait sans le consentement des personnes concernées.
En réalité, l’IA ne reproduit pas le véritable corps des victimes. Néanmoins, elle en génère une version fictive en conservant l’arrière-plan et en altérant légèrement les traits du visage. Ce procédé, certains le présentent comme non-atteinte à la vie privée. Pourtant, il constitue bel et bien une infraction grave au droit à l’image, selon la législation française.
En France, des personnalités comme Éric Ciotti ou Jean Messiha ont été ciblées. Mais ce sont majoritairement des femmes qui subissent cette forme de harcèlement sexiste. Jusqu’ici, malgré les rappels de Grok sur les risques éthiques et légaux, les images restent visibles et stockées sur ses serveurs. De plus, xAI n’a pas encore réagi publiquement.
- Partager l'article :