La prolifération de DeepFake sexuellement explicites devient de plus en plus inquiétante. Des logiciels accessibles permettent de transformer une simple photo en un faux nu en quelques clics.
L’intelligence artificielle est à l’origine d’une recrudescence inquiétante de DeepFake de femmes nues. Ces montages permettent de manipuler une image habillée pour en créer une version dénudée. Bien que leur création semble anodine pour certains, les experts en cyberharcèlement alertent sur l’impact dévastateur de ces pratiques sur les victimes.
Deepfakes sexuellement explicite ? Une menace qui touche même les adolescents et les personnalités publiques
Les militants tirent la sonnette d’alarme face à la banalisation de l’utilisation de l’IA pour créer de faux nus réalistes à partir de photos de vraies femmes. Ce phénomène, qui s’étend de plus en plus, suscite également des inquiétudes dans les écoles.
Une enquête récente menée par Internet Matters révèle que 13 % des adolescents ont été confrontés à des deepfakes de ce type, tandis que la NSPCC alerte sur « un nouveau danger en plein essor ».
Pour lutter contre la diffusion de ces DeepFakes illégaux, l’Ofcom prévoit de mettre en place, ce mois-ci, des codes de pratique destinés aux entreprises Internet. Néanmoins, des victimes interrogées par Sky News appellent à un renforcement des lois pour mieux les protéger.
Cally Jane Beech, influenceuse et ancienne participante de l’émission Love Island, fait partie des victimes. Plus tôt cette année, elle a découvert avec horreur qu’une photo d’elle prise pour une marque de lingerie avait été transformée en un faux nu grâce à l’IA et partagée en ligne. L’image originale avait été téléchargée sur un site exploitant un logiciel capable de générer ces montages numériques.
Dans une interview accordée à Sky News, Cally Jane Beech a exprimé son profond malaise face à la situation : « Cela avait l’air tellement réaliste, comme si personne d’autre que moi ne le savait. C’était comme si on me regardait, mais en même temps, ce n’était pas vraiment moi. »
Malgré la gravité de l’incident, lorsqu’elle a tenté de signaler les faits à la police, Cally s’est heurtée à un manque de soutien. Elle a expliqué : « Ils ne savaient pas vraiment quoi faire, et comme le site hébergeant l’image était basé à l’étranger, ils m’ont dit que cela ne relevait pas de leur juridiction. »
Un système défaillant face à une menace en pleine expansion ?
En novembre, Samantha Miller, cheffe adjointe de la police et représentante du Conseil national des chefs de police, a admis devant un comité parlementaire que « le système est en échec ». Elle a pointé un manque de moyens et une incohérence dans la gestion des affaires entre les différentes forces de police.
Lors de son intervention devant le comité des femmes et de l’égalité, ACC Miller a rapporté une conversation récente avec un militant en contact avec 450 victimes. En fait, seules deux d’entre elles ont eu une expérience positive avec les forces de l’ordre.
Face à l’ampleur du problème, le gouvernement prévoit d’introduire l’année prochaine une nouvelle législation interdisant la création de nus générés par IA. Bien que créer de faux nus de mineurs soit déjà illégal, les DeepFakes sexuellement explicites continuent de proliférer.
Clare McGlynn, professeure spécialisée dans les méfaits en ligne, a déclaré : « Nous assistons à une augmentation exponentielle de l’utilisation de DeepFakes explicites. Par exemple, un des sites les plus connus dans ce domaine reçoit environ 14 millions de visites par mois. »
Elle souligne également que ces applications, souvent promues sur des plateformes comme TikTok et facilement accessibles via des App Stores, sont largement utilisées par les jeunes. Cela contribue ainsi à normaliser ces pratiques inquiétantes.
Je pense que pour pouvoir lutter contre les vagues de DeepFake, il est essentiel de réglementer l’utilisation de l’IA. Et vous, qu’en pensez-vous ? Partagez votre avis en commentaire !
- Partager l'article :