Cette asiatique dit à l’IA d’améliorer sa photo : elle la transforme en blanche

Cette asiatique dit à l’IA d’améliorer sa photo : elle la transforme en blanche

Une jeune femme asiatique à soumis sa photo à l’IA pour l’améliorer, mais l’outil a totalement transformé son visage. La peau a été blanchie, les yeux sont devenus bleus en plus d’avoir été débridés. Si la situation paraît a priori anodine, elle démontre clairement un grave biais de l’IA.

Générateur d’images IA : certains outils ont des préjugés raciaux

Rona Wang, une étudiante du MIT (Institut de technologie du Massachusetts, États-Unis) a utilisé l’IA pour retoucher l’une de ses photos. Elle raconte qu’elle a voulu créer une photo « plus professionnelle » pour son profil LinkedIn. La requête soumise à l’IA va dans ce sens

Elle explique avoir utilisé le générateur d’images AI Playground. Wang a téléchargé sa photo sur la plateforme avant de soumettre l’invite suivante : « Donnez à la fille sur la photo d’origine une photo de profil LinkedIn professionnelle ».

Le résultat l’a surpris, et pas dans le bon sens du terme, au contraire. L’outil a littéralement modifié les traits de son visage. L’IA a rendu sa peau plus blanche et ses yeux bleus. Ces derniers ont également été débridés si à la base, Rona Wang a un visage de type asiatique. 

Publié sur les réseaux sociaux, les photos avant/après ont soulevé de nombreuses questions sur la fiabilité de l’IA et mis en exergue les biais de cette technologie, notamment les préjugés raciaux

Des risques élevés de discrimination

Suite à cette expérience, Rona Wang comme de nombreux autres utilisateurs d’ailleurs, évoquent leurs inquiétudes quant aux conséquences de ces biais de l’IA. Imaginez dit-elle qu’une entreprise utilise cette technologie pour sélectionner les candidats et choisit d’office les personnes de type caucasien. 

« Je pense que c’est vraiment un problème », déclare-t-elle, avant d’ajouter « J’espère que les créateurs de logiciels sont conscients de ces préjugés et réfléchissent aux moyens de les atténuer ». Suhail Doshi, le fondateur de Playground AI reconnaît que les outils ne sont pas assez intelligents pour faire la part des choses à ce niveau. Il espère néanmoins pouvoir résoudre le problème.

Les outils d’IA sont formés sur des données biaisées susceptibles d’amplifier les stéréotypes. Le générateur d’image DALL-E2 par exemple a tendance à fournir des images de personnes blanches lorsqu’on lui demande de générer des images de PDG ou de personnes influentes, expliquent les chercheurs de la société d’IA franco-américaine Hugging Face.

L’IA et la conscience morale 

L’intelligence artificielle (IA) est généralement définie comme la simulation des processus d’intelligence humaine par des systèmes informatiques. La technologie est principalement mathématique, à la recherche d’une réponse optimale dans un vaste espace de solutions multidimensionnelles. 

Cela suppose que la machine n’a aucune conscience ni conscience morale. Le défi consiste maintenant à s’assurer que l’IA reflète et respecte la dimension éthique de la société humaine. Certes, mais les questions (et les défis) fusent. 

L’intelligence artificielle peut-elle apprendre les valeurs morales des sociétés humaines ? Un système d’IA peut-il prendre des décisions dans des situations où il doit peser et équilibrer les dommages et les avantages pour les personnes ? L’IA peut-elle développer un sens du bien et du mal ?

Certaines organisations appliquent déjà des algorithmes d’IA à des domaines où les limites des bonnes et des mauvaises décisions ne sont pas clairement définies. C’est le cas du secteur des demandes d’emploi ou de la justice. Au fur et à mesure que l’utilisation de cette technologie se démocratise, la question de la conscience deviendra encore plus critique.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *