L’Intelligence artificielle a la capacité de créer des fake faces (faux visages) qui sont particulièrement réalistes. Difficile de discerner les vrais des faux même pour les observateurs les plus aguerris.
IA, GAN et arnaques
Les programmes d’IA appelés GAN (réseaux antagonistes génératifs) sont capables de créer de faux visages très réalistes. Le GAN désigne une approche de la modélisation générative utilisant des méthodes de Deep Learning (apprentissage profond) comme les réseaux de neurones convolutifs
Ce type de modélisation consiste à découvrir et à apprendre automatiquement les régularités ou les modèles dans les données d’entrée. Ceci, de manière à ce que le modèle puisse être utilisé pour générer ou produire de nouveaux exemples qui auraient vraisemblablement pu être tirés de l’ensemble de données d’origine.
Si la technologie impressionne, celle-ci peut être utilisée à des fins malveillantes. Sophie Nightingale de l’Université de Lancaster au Royaume-Uni dit qu’il faut réellement s’inquiéter de la facilité dont les utilisateurs peuvent recourir à ces fake faces.
Les chercheurs soulignent aussi la possibilité pour les acteurs malveillants d’utiliser ces imitations pour mener des campagnes d’arnaque et de fraude en usurpant l’identité d’une victime par exemple. Les experts citent également le revenge porn comme risque potentiel des fakes faces.
Signaler les images comme fausses
Pour se prémunir des risques, les experts en IA estiment que les développeurs devraient marquer les images générées par l’IA comme fausses. Ils peuvent entre autres intégrer des filigranes dans les images.
Les fake faces induisent les internautes en erreur et cela a été prouvé. Sophie Nightingale et Hany Farid de l’Université de Californie à Berkeley ont mené une étude pour évaluer la confiance que suscite les fake faces. Les quatre images jugées peu fiables sont des photos réelles. Et les trois visages qui inspirent le plus de confiances étaient ceux générés par l’IA.
Face à ce constat, les chercheurs tirent la sonnette d’alarme. « Nous avons besoin de directives éthiques plus strictes et de plus de cadres juridiques en place car, inévitablement, il y aura des gens qui voudront utiliser ces images pour faire du mal, et c’est inquiétant » déclare Nightingale.
- Partager l'article :