google what if tool racisme sexisme

Google : un outil pour combattre le racisme et le sexisme des IA

lance le What-If-Tool : un outil permettant de détecter les éventuels préjugés dans les données d'une intelligence artificielle afin de les combattre. Une solution pour rendre l'IA moins raciste et sexiste que les humains qui l'ont créé.

L'intelligence artificielle est une technologie pleine de promesses pour l'avenir de l'humanité. En théorie, l'IA pourrait nous permettre de tendre vers un monde plus juste, plus équitable, et plus paisible.

Malheureusement, dans la pratique, on constate que l'intelligence artificielle peut être entachée par les mêmes préjugés racistes et sexistes que les êtres humains. Pour cause, si les données utilisées pour nourrir une IA sont  » biaisées « , alors cette IA risque de prendre certains stéréotypes pour des réalités. Un peu comme un enfant qui grandirait en entendant des clichés à longueur de journée.

C'est ainsi que le Big Data entretient les préjugés racistes de la police de Chicago, ou que les moteurs de recherche tendent à présenter uniquement des images d'hommes lors d'une recherche de photos de médecins. De même, le chatbot Tay, lancé sur par , était rapidement devenu antisémite, raciste et misogyne à cause des nombreux trolls qui s'étaient amusés à lui inculquer de tels préjugés.

Google What-If-Tool : un outil pour détecter les préjugés dans les données des IA

google what if tool préjugés

Afin de lutter contre ce phénomène, Google vient de lancer un nouvel outil dénommé  » What-If-Tool « . Cet outil permet de détecter les éventuels préjugés dans les données utilisées pour alimenter les IA.

Comme l'explique l'ingénieur James Wexler de Google, jusqu'à présent, pour déceler les préjugés dans un ensemble de données, il était nécessaire de rédiger du code pour tester chaque préjugé potentiel. Cette méthode prend beaucoup de temps, et rend le processus complexe pour les non-initiés.

Ce nouvel outil va permettre de simplifier les choses. Le What-If-Tool se charge d'examiner la diversité d'un ensemble de données. En outre, il vérifie si le fait de changer les données décrivant l'adresse ou les origines ethniques d'une personne influencent la décision d'un algorithme IA. L'outil compare aussi les différents facteurs menant l'algorithme à prendre une décision plutôt qu'une autre, afin d'offrir une vision claire aux programmeurs.

Selon Wexler, cet outil est déjà utilisé massivement en interne chez Google, et a permis à différentes équipes de trouver des faiblesses dans leurs algorithmes. Le code du What-If-Tool est disponible dès à présent en open source sur GitHub à cette adresse.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *