ia déshabille femmes

Cette IA déshabille n’importe quelle femme, et son succès est terrifiant

Les IA telles que Nudify permettent de déshabiller des femmes. Elles connaissent un succès fulgurant, et soulèvent de graves inquiétudes liées au risque de harcèlement.

Malheureusement, ni les réseaux sociaux ni les gouvernements ne semblent décidés à lutter efficacement contre le fléau des DeepFakes pornos… L’intelligence artificielle peut décupler la productivité et libérer la créativité… mais elle peut aussi réveiller les plus bas instincts humains. Focus sur cette IA qui déshabille les femmes.

Une IA qui gagne en popularité

Selon les chercheurs, les sites web et applications utilisant l’IA pour déshabiller les femmes sur les photos connaissent une explosion de popularité. Rien qu’en 2023, plus de 24 millions de personnes ont visité de telles plateformes selon l’entreprise d’analyse des réseaux sociaux Graphika.

Sur les sites web des différents services de DeepFake, les créateurs se vantent d’attirer de nombreux utilisateurs. Certains affirment attirer plus d’un millier d’utilisateurs par jour

Un phénomène qui se répand sur les réseaux sociaux

YouTube video

Beaucoup de ces services utilisent les réseaux pour leur marketing. Au cours de l’année 2023, le nombre de liens faisant la promotion de telles applis a augmenté de 2400% sur les sites comme X ou Reddit.

Ils utilisent l’IA pour recréer une image existante afin que la personne apparaisse nue. La plupart du temps, ce traitement fonctionne uniquement sur les femmes…

Ces applications s’inscrivent dans une tendance plus globale, très inquiétante, de pornographie non consentie développée et distribuée par les progrès de l’intelligence artificielle : les DeepFakes pornos.

Sa prolifération croissante soulève de nombreux problèmes éthiques et légaux, car les photos sont souvent dérobées sur les réseaux et distribuées sans consentement, contrôle ou même connaissance de la victime.

Comment l’IA permet d’enlever les vêtements des femmes

YouTube video

La hausse de popularité est directement liée au lancement d’IA source comme Stable Diffusion reposant sur les modèles à diffusion. Ces outils permettent de créer des images d’une qualité incomparablement supérieure avec ce qui se faisait il y a encore quelques années.

Et en raison de leur nature open source, ces modèles sont disponibles gratuitement et sans aucun contrôle de leurs créateurs. Comme l’explique Santiago Lakatos, analyste chez Graphika, « il est possible de créer quelque chose qui semble vraiment réaliste ».

La grande hypocrisie des GAFAM

YouTube video

Sur X, une publicité pour une telle appli présente une image accompagnée d’un texte suggérant que les utilisateurs peuvent créer une image de nu et l’envoyer à la personne. Il s’agit littéralement d’une incitation au harcèlement.

De même, une application a fait sa pub sur YouTube et apparaît en première position lorsqu’on tape le mot « Nudify ». Pourtant, un porte-parole de confirme que l’entreprise n’autorise pas le contenu sexuellement explicite.

Il en va de même pour Reddit dont le porte-parole déclare que le site interdit le partage non-consensuel de matériel sexuellement explicite falsifié. Plusieurs domaines ont ainsi été bannis des résultats de recherche.

De son côté, TikTok a bloqué le mot-clé « undress » (déshabiller) : un terme de recherche populaire associé à ce type de service. Les personnes tentant d’effectuer cette recherche sur l’application reçoivent un avertissement.

Enfin, a également bloqué ce type de mots-clés sur ses réseaux. Toutefois, aucune plateforme n’a pris de réelle mesure pour lutter efficacement contre ce phénomène sordide…

La démocratisation des DeepFakes porno en milieu scolaire

YouTube video

Les montages pornos de célébrités sont loin d’être une nouveauté sur internet, mais les experts craignent que les progrès de l’IA rendent les logiciels de DeepFake toujours plus faciles d’utilisation et efficaces.

Selon Eva Galperin, directrice de la cybersécurité à l’Electronic Frontier Foundation, « nous voyons de plus en plus de tels contenus réalisés par des gens ordinaires avec des cibles ordinaires ». C’est notamment le cas parmi les élèves des lycées et des universités

De nombreuses victimes n’ont même pas conscience de faire l’objet de telles images, et ne le sauront très probablement jamais. Même pour celles qui s’en rendent compte, il est très difficile de réussir à convaincre les autorités de mener l’enquête.

Comme aux États-Unis, il n’existe pas encore en France de loi portant spécifiquement sur les DeepFakes créés via IA. La diffusion de montages pornos est interdite, avec des sanctions maximales d’un an de prison et 15 000 euros d’amende. Malheureusement, l’arsenal législatif n’a pas été mis à jour pour faire face à ce fléau lié aux progrès technologiques…

YouTube video

IA qui déshabille : comment se protéger des DeepFakes pornos ?

Les DeepFakes pornos exploitent l’intelligence artificielle pour créer de fausses vidéos sexuelles à partir de photos volées. Le phénomène prend de l’ampleur. Pour préserver sa vie privée, chacun peut adopter des gestes simples mais efficaces.

D’abord, limitez votre exposition en ligne. Ne publiez pas de photos en haute définition accessibles publiquement. Les images trop nettes sont les plus faciles à détourner. Réglez vos profils sociaux en mode privé. N’autorisez l’accès qu’à des contacts de confiance.

Ensuite, installez des alertes automatiques. Avec un service comme Google Alerts, vous pouvez suivre l’apparition de votre nom ou de vos images sur le web. Cela permet d’agir vite si un contenu suspect circule.

En cas de DeepFake, réagissez sans attendre. Signalez la vidéo à la plateforme où elle apparaît. Contactez aussi les forces de l’ordre pour porter plainte. Des organisations comme StopNCII.org peuvent vous accompagner dans les démarches pour faire supprimer les contenus.

Enfin, sensibilisez votre entourage. Expliquez les risques à vos amis, votre famille, vos enfants. L’éducation au numérique doit intégrer ces nouvelles menaces. Comprendre les enjeux, c’est mieux se défendre.

Protéger son image n’est plus un luxe. C’est une nécessité face à l’essor des IA capables de nuire. Prévenir vaut mieux que réparer.

DeepFakes et IA : des lois enfin à la hauteur en 2025 ?

En France, le projet de loi visant à sécuriser et réguler l’espace numérique (SREN) introduit des amendements pour sanctionner la diffusion de montages. Les deepfakes sont aussi sanctionnés s’ils sont diffusés sans le consentement des personnes concernées. Ces initiatives illustrent une prise de conscience accrue des législateurs face aux défis posés par les deepfakes et l’IA.

 

🔥 Nous recommandons ArtSpace

ArtSpace est le meilleur générateur d’image pour de nombreuses raisons. Intuitif, il offre des options diversifiées pour inspirer votre créativité.

Profitez de –10 % de remise supplémentaire avec le code PUBLITHINGS10.

De l’autre côté de la frontière, en Espagne, le gouvernement a approuvé un projet de loi imposant des amendes substantielles aux entreprises qui diffusent du contenu généré par IA sans étiquetage approprié. Cette mesure vise à freiner l’utilisation abusive des deepfakes, notamment ceux à caractère sexuel ou diffamatoire. Les contrevenants s’exposent à des amendes pouvant atteindre 35 millions d’euros ou 7 % de leur chiffre d’affaires annuel mondial.

Parallèlement, la Californie a adopté huit lois visant à encadrer l’IA en vue d’établir certaines des régulations les plus strictes aux États-Unis. La loi SB 926, par exemple, criminalise la création et la diffusion de deepfakes à caractère sexuel, notamment lorsqu’ils sont utilisés pour faire du chantage. De plus, la loi SB 981 oblige les plateformes de réseaux sociaux à mettre en place des outils pour signaler ces contenus.

Néanmoins, nous ne sommes pas en mesure de confirmer que cela soit suffisant pour stopper les mauvais usage de l’IA.

Détournement de : l’IA d’ utilisée pour déshabiller des femmes

Depuis peu, une inquiétante tendance a émergé sur le réseau social X. En effet, des utilisateurs détournent l’IA Grok pour générer des images de femmes partiellement dénudées. Grok n’est autre qu’ un chatbot conversationnel intégré à X, développé par la start-up d’Elon Musk. Au début, il a été conçu pour des tâches comme le fact-checking. Il suffit de le mentionner sous une publication pour qu’il vérifie les informations

Cependant, des internautes utilisent désormais cette fonction pour lui demander de modifier des photos en simulant des corps en sous-vêtements. Une telle demande est très simple à formuler, car il suffit de simples phrases pour obtenir un tel résultat. Le pire dans tout cela, c’est que  souvent, cette manœuvre se fait sans le consentement des personnes concernées.

En réalité, l’IA ne reproduit pas le véritable corps des victimes. Néanmoins, elle en génère une version fictive en conservant l’arrière-plan et en altérant légèrement les traits du visage. Ce procédé, certains le présentent comme non-atteinte à la vie privée. Pourtant, il constitue bel et bien une infraction grave au droit à l’image, selon la législation française.

En France, des personnalités comme Éric Ciotti ou Jean Messiha ont été ciblées. Mais ce sont majoritairement des femmes qui subissent cette forme de harcèlement sexiste. Jusqu’ici, malgré les rappels de Grok sur les risques éthiques et légaux, les images restent visibles et stockées sur ses serveurs. De plus, xAI n’a pas encore réagi publiquement.

Restez à la pointe de l'information avec LEBIGDATA.FR !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥