Accueil > Intelligence artificielle > La reconnaissance faciale mégenre les personnes non-binaires
reconnaissance faciale mégenre non binaires

La reconnaissance faciale mégenre les personnes non-binaires

Les technologies de reconnaissance faciale d’Amazon, IBM, Microsoft et Clarifai ne peuvent identifier correctement les personnes trans et non-binaires. C’est ce que révèle une étude menée par les chercheurs de l’University of Colorado Boulder…

On savait déjà que l’intelligence artificielle peut être biaisée à l’égard des personnes de couleur. En janvier 2019, une étude menée par le MIT Meda Lab révélait que Amazon Rekognition confond les femmes noires avec des hommes noirs dans près d’un tiers des cas.

À présent, une nouvelle étude menée par les chercheurs de l’University of Colorado Boulder révèle que les systèmes de reconnaissance faciale des différents géants de la tech ne peuvent identifier les personnes transgenres ou non-binaires. Ceci concerne Amazon Rekognition, IBM Watson, Microsoft Azure ou encore Clarifai.

En utilisant les hashtags #woman, #man, #transwoman, #transman, #agenderqueer et #nonbinary, les chercheurs ont collecté 2450 images de visages sur Instagram. Ils ont ensuite soumis ces images aux outils de reconnaissance faciale des quatre entreprises.

La reconnaissance faciale est  » basée sur des stéréotypes archaïques  » selon les chercheurs

Concernant les hommes et femmes  » cisgenre « , les systèmes sont parvenus à identifier leur genre avec une précision de 98%. En revanche, dans 30% des cas, les hommes trans étaient mal catégorisés. Les résultats sont encore pires pour les personnes non-binaires ou genderqueer, qui sont tout simplement systématiquement mal catégorisées.

Selon les chercheurs, cette confusion est liée au fait que les algorithmes sur lesquels reposent ces systèmes sont basés sur des stéréotypes obsolètes sur le genre. C’est ce qui accroît fortement le taux d’erreurs. Ainsi, la moitié des systèmes ont confondu un homme aux cheveux longs avec une femme.

Pour l’heure, aucune des quatre entreprises dont les systèmes ont été passés en revue n’a commenté cette étude. Cependant, en septembre 2019, Amazon expliquait sur son site web que Rekognition n’est pas conçu pour  » catégoriser l’identité de genre d’une personne «  et ne devrait donc pas être utilisé à cet effet…

2 Commentaires

  1. en même temps la technologie rappelle une vérité :on nait homme ou femme. il n’y a donc aucun problème technique

  2. cette étude est typique d’une question mal posée… qui reçoit logiquement une réponse inadaptée !

    Si on vous donne un QCM avec 2 cases « homme » ou « femme », vous n’aurez pas de réponses tierces comme « ? » ou « je ne sais pas »…

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Send this to a friend