biometric mirror

Biometric Mirror : l’IA qui devine votre personnalité à partir d’une simple photo

Biometric Mirror est une intelligence artificielle capable d’évaluer les différents traits de personnalité d’un individu à partir d’une simple photo de son visage. Créée par l’Université de Melbourne, Australie, cette application vise à interroger sur les limites éthiques de l’IA.

L’intelligence artificielle est de plus en plus utilisée par les entreprises de toutes les industries et par les gouvernements du monde entier pour analyser de larges ensembles de données personnelles. Par exemple, les compagnies d’assurance analysent les données de santé et le comportement des conducteurs de voitures pour personnaliser les frais d’assurance.

Les autorités peuvent utiliser les photos sur les permis de conduire pour identifier des criminels. Les centres commerciaux analysent les caractéristiques faciales de leurs clients pour proposer des publicités personnalisées.

Le fait de collecter des données pour personnaliser des services peut sembler positif, mais cette pratique a aussi son côté sombre. L’un des principaux problèmes est que la logique et la justification des prédictions réalisées par les algorithmes sont totalement opaques.

On ignore aussi généralement si les prédictions sont basées sur des données incorrectes, ou si ces données ont été collectées de façon illégale ou non éthique. Par exemple, une caméra de surveillance pourrait confondre une simple poignée de main avec un échange entre un dealer et son client. Un algorithme pourrait vous confondre avec un criminel recherché.

De précédentes études ont démontré que certains systèmes IA tendent à reproduire les mêmes discriminations racistes ou sexistes que les humains. Or, plus nous ferons confiance à l’intelligence artificielle et au Big Data, plus ces éventuelles erreurs pourront avoir des conséquences dramatiques pour leurs victimes. Si les données sur lesquelles ces décisions erronées sont prises, il est impossible de s’y opposer.

Afin de répondre à cette problématique, le professeur Tim Miller de l’Université de Melbourne a décidé de créer une intelligence artificielle dont les décisions peuvent être expliquées de façon compréhensible pour tout un chacun. Une interface homme-machine ouverte et transparente quant aux décisions prises par l’IA, afin de contribuer au débat sur l’éthique les possibles impacts de cette technologie sur la société.

Biometric Mirror : une expérience pour alimenter le débat sur l’éthique de l’IA et du Big Data

L’application interactive Biometric Mirror est capable d’analyser la photo d’une personne afin d’identifier ses caractéristiques démographiques et sa personnalité. Grâce à l’IA, cette application est capable de reconnaître des traits tels que le niveau d’attractivité, d’agressivité, de stabilité émotionnelle, ou même de bizarrerie.

L’IA se base sur un ensemble de données ouvertes regroupant des milliers d’images de visages associées à des évaluations crowd-sourced. En effet, il a été demandé à un grand nombre de personnes d’évaluer les traits de personnalités des multiples visages composant cet ensemble de données. Ces évaluations sont comparées avec la photo soumise par l’utilisateur pour permettre à Biometric Mirror de définir sa personnalité.

Par la suite, l’application demande à l’utilisateur d’imaginer que l’un des traits de sa personnalité soit partagé avec quelqu’un. Par exemple, il est demandé à l’utilisateur d’imaginer sa réaction si son niveau de responsabilité était partagé avec son assureur ou avec son futur employeur.

Ce projet expérimental vise à démontrer les conséquences possibles des erreurs commises par l’IA ou par les algorithmes. Elle incite à réfléchir à un futur où les décisions prises par les gouvernements et les entreprises seront fortement guidées par l’IA.

Il s’agit d’un outil de recherche, permettant de comprendre la façon dont l’attitude des gens change à mesure que leurs données sont révélées. Certains participants, interviewés par la suite, font aussi part de leurs inquiétudes. De manière générale, cette expérience démontre l’importance de faire entrer l’utilisation éthique de l’IA dans le débat public.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Pin It on Pinterest