imagenet roulette

ImageNet Roulette : découvrez à quel stéréotype l’IA vous associe

ImageNet Roulette est une intelligence artificielle de reconnaissance d’images entraînée à partir de l’ensemble de données biaisé ImageNet. Si vous lui présentez votre selfie, elle vous associera à un stéréotype grotesque… 

Dans un futur proche, l’intelligence artificielle bouleversera probablement nos existences. Vous serez peut-être contraint de laisser un robot faire votre métier à votre place, et peut-être même qu’une IA finira par diriger le monde. Cependant, à l’heure actuelle, les machines ne sont pas clairement pas assez intelligentes pour envisager de ” nous voler notre travail “.

L’intelligence artificielle ” généraliste ” n’existe pas encore, et même les réseaux de neurones les plus sophistiqués ne sont capables d’effectuer que les tâches auxquelles elles ont été entraînées. Et si l’on tente de confier à une IA une tâche pour laquelle elle n’a reçu aucun entraînement, le résultat peut être très comique.

C’est ce que démontre ” ImageNet Roulette “, un petit site web créé dans le cadre de l’exposition artistique sur l’histoire des systèmes de reconnaissance d’image ” Training Humans “ qui prend actuellement place au musée Fondazione Prada de Milan.

Cet outil web repose ” ImageNet “, un ensemble de données d’entraînement que les chercheurs en intelligence artificielle utilisent depuis près d’une décennie. Or, les IA entraînées à l’aide de ce dataset se révèlent plutôt mauvaises pour identifier les personnes.

S’il est possible d’entraîner une machine à reconnaitre des objets après les avoir vues une première fois, c’est loin d’être aussi facile pour les êtres humains. Pour cause, il est presque impossible de définir des ” catégories ” d’individus. Même un humain sombrerait rapidement dans le cliché en tentant de s’y atteler.

ImageNet Roulette illustre le problème de biais de l’intelligence artificielle

C’est exactement ce qui se passe avec ImageNet Roulette, une IA entraînée à catégoriser les personnes à partir d’un selfie en se basant sur les données de ImageNet. Plus précisément, elle a été formée à partir des images de la catégorie ” Personnes ” de l’ensemble de données. Celle-ci comprend des milliers de sous-catégories censées aider le logiciel à ” classer ” les êtres humains.

Lorsqu’un selfie est présenté à ImageNet Roulette, l’application commence tout d’abord par détecter les visages. Dès qu’un visage est repéré, il est envoyé au framework open source de Deep Learning Caffe, entraîné à partir des images ImageNet, qui va alors tenter de le classifier et présenter son résultat sous la forme d’une étiquette ajoutée à l’image.

Dans certains cas, le résultat est amusant. Par exemple, l’IA pourra vous associer à un pilote d’avion sous prétexte que vous portez un casque audio. Dans d’autres cas, toutefois, le résultat peut s’avérer nettement moins plaisant.

Un utilisateur de Twitter a par exemple été catégorisé comme ” suspect de viol “. L’explication à ce phénomène est que le dataset ImageNet comporte de nombreuses catégories étranges, voire racistes ou misogynes. Ces dernières reflètent tout simplement les biais des créateurs humains de cet ensemble de données, comme c’est trop souvent le cas avec l’IA à l’heure actuelle.

Le but d’ImageNet Roulette est de faire comprendre au grand public la façon dont fonctionne l’intelligence artificielle, mais aussi de leur faire découvrir cette notion de biais qui viennent gangréner les données sur lesquelles les systèmes sont entraînés. Un phénomène qui risque de devenir de plus en plus problématique à mesure que l’IA se répandra dans nos sociétés…