Les applications d’IA capables de générer des vidéos truquées de personnes s’embrassant prolifèrent sur les réseaux sociaux. Ces outils, accessibles à tous, soulèvent de sérieuses préoccupations éthiques et légales.
Sur des plateformes comme TikTok, X et Instagram, des publicités promeuvent des applications d’IA permettant de créer des vidéos de baisers entre individus sans leur consentement. Certaines mettent en avant des usages innocents, comme la création de vidéos avec des proches décédés. D’autres encouragent des utilisations plus problématiques, telles que la génération de contenus intimes avec des personnes non consentantes.
Des applications accessibles aux mineurs
De nombreuses applications proposant ces fonctionnalités sont disponibles sur les boutiques en ligne. Ces dernières sont souvent classées comme adaptées aux adolescents, voire aux enfants dès 4 ans. Par exemple, l’application Fotorama est répertoriée comme sûre pour les jeunes enfants sur l’App Store. Cette accessibilité pose des questions sur la protection des mineurs face à des outils potentiellement nuisibles.
Certaines applications, telles que Mova AI, mettent en avant leur technologie à travers des campagnes publicitaires, mais minimisent la fonction de création de baisers dans leurs descriptions sur les stores. À l’inverse, des services comme YouCam ou AIKiss.AI assument pleinement ces possibilités. Elles vantent même leur simplicité d’utilisation et promettent des vidéos réalistes en quelques clics. Leurs descriptions très explicites encouragent des usages qui flirtent avec l’illégalité.
Des dérives potentielles préoccupantes
Ces outils ne se limitent pas à la création de vidéos innocentes. Ils participent à la production de contenus non consensuels, voire illégaux. La popularité croissante des deepfakes à caractère pornographique en est un exemple. Ces derniers ciblent généralement des femmes célèbres, des mineurs et des personnalités publiques. En parallèle, des applications générant des images de nus, comme Nudify, ont amplifié le problème dans les établissements scolaires.
Les prédateurs exploitent ces outils pour produire des contenus abusifs, notamment des vidéos intimes truquées par l’IA. Des organisations comme l’Internet Watch Foundation signalent une augmentation alarmante de ces pratiques. Bien que certaines initiatives légales aient vu le jour, elles peinent à offrir un soutien concret aux victimes.

Un cadre juridique encore flou
Actuellement, la législation peine à encadrer l’usage des deepfakes et des contenus générés par l’IA. Un projet de loi approuvé par le Sénat en avril 2024 prévoit des mesures pour réguler ce type de contenu. Si adopté, partager des contenus sans le consentement de la personne visée pourrait entraîner jusqu’à 2 ans de prison et 45 000 euros d’amende. Si le deepfake est à caractère sexuel, la sanction pourrait monter jusqu’à 3 ans d’emprisonnement et 75 000 euros d’amende.
Ces applications d’IA révèlent les dangers que représente une technologie puissante lorsqu’elle est détournée à des fins malveillantes. Sans un encadrement strict, elles risquent de compromettre encore davantage les notions de consentement et d’éthique. Il est essentiel que les utilisateurs, les développeurs et les régulateurs travaillent ensemble pour établir des normes éthiques et protéger la vie privée des individus.
- Partager l'article :