Accueil > Intelligence artificielle > DeepPrivacy vous protège de la reconnaissance faciale grâce au DeepFake
deepprivacy tout savoir

DeepPrivacy vous protège de la reconnaissance faciale grâce au DeepFake

DeepPrivacy est un programme d’intelligence artificielle permettant de vous protéger contre les systèmes de reconnaissance faciale. Pour ce faire, le logiciel remplace votre visage par ceux d’inconnus puisés dans une vaste base de données…

À mesure que la technologie de reconnaissance faciale se développe, elle se révèle de plus en plus menaçante pour la confidentialité. En Chine, par exemple, une caméra de 500 mégapixels permet désormais de détecter instantanément une personne dans un stade plein à craquer grâce à l’intelligence artificielle. Même en France, la CNIL s’inquiète face à l’usage croissant de la reconnaissance faciale.

Cette technologie est si préoccupante que la ville de San Francisco aux États-Unis a tout simplement choisi de l’interdire. Malheureusement, la dystopie semble à présent inéluctable. Dans un futur proche, les autorités du monde entier seront en mesure de vous surveiller en permanence grâce à des caméras de sécurité toujours plus précises et la reconnaissance faciale permettra de vous identifier sans la moindre difficulté.

DeepPrivacy se tourne vers le DeepFake pour anonymiser votre visage

La question qui se pose maintenant est la suivante : comment préserver la notion de confidentialité dans ce futur digne des ouvrages de science-fiction les plus pessimistes ? Pour y parvenir, une équipe de chercheurs de la Norwegian University of Science and Technology a décidé de se tourner vers une autre technologie inquiétante : les DeepFakes.

Les chercheurs ont développé un programme intitulé  » DeepPrivacy « , permettant de protéger votre visage contre la reconnaissance faciale, en le masquant par le biais d’une combinaison de plus d’un million de visages d’autres individus. DeepPrivacy fonctionne en temps réel, et peut donc masquer votre visage même pendant que vous bougez ou que vous parlez. Il pourrait donc se révéler très utile pour les personnes qui prennent la parole en public sur le web, tels que les streamers de Twitch ou les hôtesses de sites de webcam pour adultes.

Pour réaliser cette prouesse, DeepPrivacy repose sur le même fonctionnement que les DeepFakes. Le programme utilise les réseaux antagonistes génératifs (GAN) pour remplacer le visage de l’utilisateur par un autre.

Ce réseau de neurones puise les visages dans un ensemble de données intitulé  » Flickr Diverse Faces  » créé par les chercheurs. Le dataset regroupe 1,47 million de visages en provenance de l’ensemble de données YFCC100M qui rassemble 100 millions de photos de visage disponibles sur Flickr sous la licence Creative Commons. Plus tôt cette année, IBM avait utilisé YFCC100M pour créer son dataset Diversity in Faces.

DeepPrivacy confirme que chaque technologie est une arme à double tranchant

Encore en développement, DeepPrivacy ne fonctionne pas encore parfaitement. Dans la démonstration faite par les chercheurs, on constate que les visages sont souvent fluctuants, flous, instables et combinant plusieurs photos différentes pour un résultat presque psychédélique. Quoi qu’il en soit, l’objectif principal est que le visage de l’utilisateur soit anonymisé. C’est le cas.

Cependant, certains éléments du visage de l’utilisateur, comme ses yeux, restent visibles. Or, les analystes forensiques professionnels pourraient utiliser ces éléments pour identifier la personne. De fait, même si leur système peut assurer une protection contre les algorithmes de reconnaissance faciale les plus basiques, il est impossible de garantir un anonymat absolu et éternel. De nouveaux systèmes de reconnaissance faciale toujours plus performants verront le jour, et DeepPrivacy devra s’adapter au fur et à mesure.

Ce programme représente un symbole d’espoir, en démontrant que des technologies potentiellement néfastes comme le DeepFake peuvent être utilisées de façon positive. Même si les DeepFakes ont été utilisées à des fins de diffamation ou de désinformation, ils peuvent aussi servir à protéger les citoyens contre l’oeil de Big Brother

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Send this to a friend