Initialement conçue pour créer des œuvres artistiques et simplifier des tâches quotidiennes, l’IA générative révèle un côté sombre. Aujourd’hui, elle est utilisée pour fabriquer des images sexuellement explicites d’enfants, un phénomène qui inquiète.
L’ampleur de cette pratique reste méconnue, mais des milliers d’enfants seraient déjà victimes sans le savoir.
Le Center for Democracy and Technology (CDT) a récemment publié un rapport révélant que 15 % des lycéens américains ont déjà entendu parler de deepfakes intimes circulant dans leurs écoles. Ces deepfakes, des images générées par IA, représentent généralement des élèves de manière sexuellement explicite sans leur consentement. Ce phénomène, amplifié par les outils d’IA générative, expose des milliers d’adolescents aux abus numériques.
Selon une enquête menée par Thorn, une organisation luttant contre la diffusion de contenus d’abus sexuels sur mineurs (CSAM), 11 % des enfants connaissent des camarades ayant utilisé l’IA pour créer des images dénudées. Ce constat illustre la facilité avec laquelle ces technologies peuvent être détournées à des fins nuisibles. De plus, les forces de l’ordre sont de plus en plus confrontées à des images d’abus générées par IA, ce qui complique leur travail de détection et de suppression.
Bien que les signalements liés à des images d’abus sexuels générées par IA soient encore faibles (environ 5 000 cas en 2023), ces chiffres sont en augmentation. La création de ces images devient de plus en plus simple et rapide. Ce qui facilite leur propagation sur le dark web. Par exemple, l’Internet Watch Foundation a recensé plus de 3 500 images d’abus sexuels générées par IA téléchargées en un mois, un chiffre en nette hausse.
Une crise facilitée par la technologie
Le développement des plateformes de médias sociaux et des applications de messagerie cryptée a facilité la diffusion de contenus explicites non consensuels. L’IA générative permet désormais de créer des images sexuellement abusives à moindre coût et avec une grande facilité. Les outils d’IA, en open source ou disponibles à faible coût, représentent un véritable danger pour les jeunes, surtout dans les écoles où la sensibilisation est encore insuffisante.
Les entreprises technologiques, comme Meta, utilisent des bases de données d’empreintes digitales visuelles pour détecter et supprimer les CSAM. Toutefois, l’IA complexifie cette tâche en générant des images légèrement modifiées ou totalement nouvelles. La vitesse à laquelle ces images sont produites dépasse la capacité de détection des autorités. Même si les hachages permettent d’identifier les images abusives, les nouvelles technologies mettent à mal ces méthodes.
Une possible solution par l’IA elle-même
Ironiquement, l’IA pourrait aussi être la solution à ce problème. Thorn a développé des modèles capables de détecter des contenus d’abus sexuels générés par IA. Cependant, la conception de tels systèmes reste complexe en raison des lois entourant l’utilisation des contenus abusifs dans les données d’entraînement. Malgré ces défis, certains experts restent optimistes quant à la possibilité de créer des outils efficaces.
Des entreprises d’IA, telles que Google, Meta et Microsoft, ont récemment accepté de collaborer pour freiner la création de CSAM généré par IA. La Maison Blanche a également lancé un appel à l’action en exhortant les entreprises technologiques à lutter contre cette menace. Toutefois, la mise en œuvre de telles mesures prendra du temps. Et pendant ce temps, des milliers d’images abusives continuent de circuler.
Un manque de sensibilisation dans les écoles
Les écoles, pourtant directement concernées, sont mal préparées face à cette nouvelle menace. Selon le CDT, moins de 20 % des lycéens ont reçu des informations sur les deepfakes dans leurs établissements. La majorité des parents affirment que leurs enfants n’ont reçu aucune directive pour faire face à ces images. Il est impératif de former et sensibiliser les élèves pour limiter la création et la diffusion de ce type de contenus.
Les images sexuellement abusives générées par l’IA ne sont pas un problème nouveau. Pourtant, gouvernements, entreprises et médias ont sous-estimé cette crise pendant des années. Les deepfakes, initialement perçus comme une menace de désinformation politique, se révèlent être un fléau d’une autre nature. Espérons que cette prise de conscience tardive permettra de freiner l’ampleur de ce fléau.
- Partager l'article :