L’augmentation des outils d’intelligence artificielle a facilité la conception et la diffusion d’images sexuelles non consensuelles et truquées. Néanmoins, les victimes de cette forme de harcèlement ont également des opinions.
À l’ère de l’intelligence artificielle, les DeepFakes porn présentent de plus en plus de risques. L’avocate Carrie Goldberg décrit d’ailleurs ces risques comme suit : « Il suffit d’avoir une forme humaine pour être une victime. »
Le revenge porn ou le partage non consensuel d’images à caractère sexuel existe depuis longtemps. Néanmoins, la prolifération des outils d’IA signifie que tout le monde peut être la cible de cette nouvelle forme de harcèlement. La différence, c’est qu’ici la victime n’a pas pris ou envoyé de photo de nu.
Les outils d’IA peuvent désormais superposer le visage d’une personne ou un corps nu. Ils permettent également de manipuler les photos existantes afin de donner l’impression qu’une personne ne porte pas de vêtements.
Deepfake porno, une expérience atroce pour les victimes
Au cours de l’année écoulée, les cibles des images pornographiques non consensuelles générées par l’IA ciblaient les femmes éminentes comme Taylor Swift et Alexandria Ocasio-Cortez, la représentante aux lycéennes.
L’expérience est souvent bouleversante et effrayante pour les victimes et leurs familles, selon Goldberg, le dirigeant du cabinet CA Goldberg Law basé à New York. Cette avocate représente d’ailleurs les victimes de crimes sexuels et de harcèlement en ligne.
Mais la situation est encore plus difficile pour certaines personnes. « Surtout s’ils sont jeunes et qu’ils ne savent pas comment faire face à la situation et qu’Internet est un endroit vaste, immense et nébuleux », a-t-elle déclaré.
Comment se protéger des Deepfakes porn ? Voici les conseils d’un expert
Goldberg affirme dans un interview sur le nouveau podcast technologique de CNN, Terms of Service avec Clare Duffy, qu’il existe des mesures pour se protéger ou encore des lieux où se tourner pour recevoir de l’aide face à cette forme de harcèlement.
Les conditions d’utilisations permettent d’informer sur les nouvelles technologies émergentes que les auditeurs doivent faire face dans leur vie quotidienne.
Selon Goldberg, les personnes visées par des DeepFakes IA doivent premièrement capturer les images. Je sais que cela pourrait sembler contre-intuitif, mais cela peut vraiment aider.
« Le premier réflexe est de retirer cette information d’Internet le plus vite possible », a-t-elle noté. « Mais si vous voulez avoir la possibilité de la signaler au pénal, vous avez besoin de preuves. »
Ensuite, les victimes peuvent remplir des formulaires fournis par des plateformes comme Meta, Google, Snapchat afin de demander la suppression d’images explicites.
Dans certains cas, la suppression de ces images est particulièrement difficile, ainsi, ils peuvent se tourner vers des organisations à but non lucratif comme Take It Down et StopNCII.org. Elles peuvent faciliter le processus de suppression, et ce, sur plusieurs plateformes à la fois, même si tous les sites ne coopèrent pas avec ces groupes.
Pensez-vous que ces mesures suffisent pour se protéger des DeepFakes porn ? Dites-nous votre avis dans les commentaires.
- Partager l'article :