humain robot raciste sexiste

L’IA devient raciste et sexiste au contact de l’humain, les chercheurs alertent

L’IA devient raciste et sexiste à cause des données sur lesquelles elle est entraînée, et semble directement influencée par les préjugés des humains. C’est ce que confirme une étude alarmante menée par des chercheurs américains.

L’intelligence artificielle et les robots sont généralement pensés comme des entités objectives et impartiales. Malheureusement, il semble que ces machines soient directement influencées par le vice humain.

Les chercheurs de la John Hopkins University, du Georgia Institute of Technology et de l’Université de Washington tirent la sonnette d’alarme à travers une étude publiée cette semaine. Ils ont découvert que leur robot, contrôlé par un modèle de Machine Learning populaire, catégorise les personnes à partir de stéréotypes toxiques liés à la race ou au genre.

Ceci semble confirmer les inquiétudes des experts : l’intelligence artificielle reproduit les préjugés et les biais humains. À l’image de sa créature, la créature juge de manière hâtive et infondée.

Un robot IA entraîné sur le modèle de Machine Learning CLIP d’OpenAI

Le modèle de Machine Learning sur lequel repose cette IA est dénommé CLIP. Il a été créé par Open AI, le groupe de recherche co-fondé par le CEO de SpaceX, Elon Musk, sous forme d’organisation non lucrative visant à encourager le développement de l’IA. Toutefois, quelques années plus tard, Musk a quitté le groupe sur fond de désaccord sur la direction empruntée.

La firme est ensuite devenue une entreprise privée lucrative, et a produit plusieurs modèles de Machine Learning aux performances bluffantes. On peut citer GPT qui génère des textes entiers, ou DALL-E capable de produire une image à partir d’une phrase.

De son côté, le réseau de neurones CLIP utilise un large ensemble de données constitué d’images légendées d’internet, afin d’associer des images à des textes.

Dans le cadre de cette expérience, CLIP a été intégré à Baseline, un système capable de contrôler un bras robotique pour manipuler des objets dans le monde réel ou dans une simulation virtuelle. Ce robot devait trier des visages humains imprimés sur des blocs en les rangeant dans une boîte.

Toutefois, il devait suivre plusieurs règles. Par exemple, les visages de criminels devaient être rangés dans une boîte et les concierges dans une autre.

L’IA classe les noirs comme criminels et les femmes comme domestiques

Vous vous en doutez : c’est là que l’expérience a mal tourné. Au total, le robot a identifié les hommes noirs comme des criminels 10% plus souvent que les hommes blancs. De même, les femmes étaient beaucoup plus souvent catégorisées comme concierges que les hommes.

Il ne s’agit là que de deux exemples parmi d’autres. Suite à cette expérience, les chercheurs tirent l’alarme. Dans un communiqué de presse, Andrew Hundt du Georgia Tech Institute estime que « nous risquons de créer une génération de robots racistes et sexistes, mais les gens et les organisations semblent avoir décidé que c’est OK de créer ces produits sans résoudre les problèmes ».

Une corruption à la racine

Ce problème est notamment lié au fait que les chercheurs IA entraînent généralement leurs modèles à partir de contenu glané sur internet. Or, le web est bien connu pour être noyé dans les stéréotypes et les clichés toxiques, racistes ou sexistes.

En l’occurrence, la base de données de CLIP contenait des images légendées à partir de stéréotypes. Malheureusement, utiliser de larges ensembles de données déjà disponibles est la façon la plus rapide d’entraîner un algorithme de Machine Learning.

Toutefois, le problème pourrait être plus profond. Dans son communiqué, Hundt explique que « quand nous avons dit de mettre le criminel dans la boîte marron, un système bien conçu aurait refusé de faire quoi que ce soit ».

À ses yeux, « même si c’est quelque chose qui semble positif, comme mettre le docteur dans la boîte, rien sur une photo ne permet d’indiquer qu’une personne est docteur et il n’est donc pas possible de le désigner comme tel ».

Ainsi, les chercheurs estiment que « les systèmes robotiques ont le même problème que les systèmes logiciels, auxquels s’ajoute leur incarnation qui ajoute le risque de causer des dégâts physiques irréversibles ».

Dans l’avenir qui se profile à l’horizon, les robots IA conduiront nos voitures, veilleront à la sécurité dans nos rues et travailleront à nos côtés au quotidien. Il semble donc impératif de résoudre ce problème de biais, d’une façon ou d’une autre…

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.

Pin It on Pinterest