Les outils de reconnaissance faciale en ligne ont une performance limitée. Les systèmes animés par l’intelligence artificielle et alimentés par des images personnelles sont bien plus efficaces. Lorsque les entreprises de technologie ont créé ces dispositifs de reconnaissance faciale, elles ont eu recours à des données insoupçonnées, votre visage, une violation de la vie privée.
Vos photos exploitées
Pour développer leur technologie de reconnaissance faciale, les entreprises, les universités ou encore les centres de recherche gouvernementaux utilisent des millions d’images collectées à partir de nombreuses sources. L’outil de partage de photo en ligne comme Flickr donne une idée sur la quantité d’images nécessaire pour créer une grande variété de technologies IA, de la reconnaissance faciale aux chatbots en ligne.
Les systèmes utilisant l’IA ne deviennent pas intelligents par magie. Ils apprennent en identifiant des modèles dans les données générées par les humains. Cela peut être des photos, des enregistrements vocaux, des livres, des articles de Wikipédia et tout autre document. La technologie s’améliore tout le temps, mais elle peut aussi apprendre les préjugés humains, comme ceux contre les femmes ou les minorités raciales.
Exposing.AI : un moteur de recherche de vérification
Les gens doivent se rendre compte que certaines de leurs photos les plus intimes ont été utilisées pour l’apprentissage des dispositifs animées par l’IA. Pour vous permettre de vérifier si vos photos ont effectivement été utilisées dans ces contextes, Adam Harvey a créé Exposing.AI.
Il s’agit d’un moteur de recherche conçu pour vérifier si vos photos ont été utilisées pour former, tester ou améliorer les technologies de surveillance de l’intelligence artificielle pour une utilisation dans des applications universitaires, commerciales ou liées à la défense. Les images Flickr constituent une partie importante des ensembles de données de reconnaissance faciale qui ont été diffusées sur Internet.
Collecte d’images : l’exemple de MegaFace
Il y a des années, les chercheurs en IA des principales universités et entreprises technologiques ont commencé à collecter des photos numériques à partir d’une grande variété de sources. Cela peut être les services de partage de photos comme Flickr (qui a largement été utilisé), des réseaux sociaux, des sites de rencontres comme OkCupid et même des caméras installées sur des campus d’université. Ils ont partagé ces photos avec d’autres organisations.
MegaFace par exemple est un ensemble de données créé par des professeurs de l’Université de Washington en 2015. Ils l’ont construit à l’insu ou sans le consentement des personnes dont ils ont intégré les images dans son énorme banque de photos. Les professeurs l’ont posté sur Internet pour que d’autres puissent le télécharger. MegaFace a été téléchargé plus de 6 000 fois par des entreprises et des agences gouvernementales du monde entier, selon une demande d’archives publiques du New York Times. Aujourd’hui, MegaFace est déjà hors service.
- Partager l'article :