L'IA de Meta

L’IA de Meta refuse d’imaginer ces deux ethnies en couple : bug ou racisme ?

L'IA de , Imagine, semble rencontrer des difficultés particulières lorsqu'il s'agit d'imaginer des couples de différentes ethnies.

Imagine, l'outil de génération d'images de l'IA de Meta, a récemment été sous le feu des critiques. Il peine à représenter correctement certaines relations interraciales. Plus spécifiquement, lorsqu'on demande à l'outil de générer des images d'un homme asiatique avec une femme blanche, il réagit de manière inattendue.

À plusieurs reprises, il a produit des images représentant uniquement deux personnes asiatiques. Cette répétition suscite des interrogations sur les mécanismes internes de l'outil.

D'autres combinaisons interraciales ne rencontrent pas ce problème, ce qui rend la situation paradoxale. Par exemple, Imagine ne rencontre aucune difficulté apparente à créer des images d'un homme blanc en compagnie d'une femme asiatique.

Or, cette incohérence suscite légitimement des interrogations profondes sur les fondements des données sur lesquelles l'IA est formée. En effet, « C'est encore un autre signe que les outils de données sur lesquels Imagine de Meta et les systèmes concurrents sont formés sont intrinsèquement défectueux et souffrent de biais flagrants. »

Cette déclaration souligne le défi et suggère que le problème principal pourrait être dans les données d'apprentissage.

Comment l'IA de Meta apprend de données déjà chargées de stéréotypes

Pour information, les modèles d'IA comme Imagine de Meta, Gemini de Google, et DALL-E d'OpenAI sont entraînés sur des données collectées sur Internet. Ce processus tend à perpétuer les stéréotypes raciaux existants, car il se nourrit d'un corpus de données déjà imprégné de préjugés.

La fermeture du générateur d'images Gemini de Google, par exemple, s'est produite après la génération d'images inappropriées. Ceci illustre un cas où la tentative de diversification a mal tourné.

La question se pose alors : ces biais sont-ils le résultat de la sous-représentation et de l'exotisation des Asiatiques dans les médias ? Ou sont-ils inhérents à la technologie elle-même ?

Il est clair que les outils d'IA tendent à recycler et à synthétiser ce qui existe déjà. Ainsi, ils amplifient les biais préexistants au lieu de créer du nouveau.

La lutte continue contre les biais existants

Les problèmes de biais et de représentation au sein de l'IA ne sont, certes, pas une nouveauté. Historiquement, les chatbots ont montré qu'ils éprouvaient des difficultés significatives à émettre des déclarations à la fois véridiques et logiques.

À l'heure actuelle, ces défis se sont étendus aux générateurs d'images. Les entreprises technologiques doivent donc s'occuper de ces problèmes immédiats et aussi des erreurs plus profondes dans leurs technologies.

Alors, peut-on éliminer ces biais, ou sont-ils trop ancrés dans la technologie de l'IA ? On n'en est pas sûr, mais ce qui est certain, c'est que le chemin vers une IA vraiment inclusive et représentative est encore long.

Restez à la pointe de l'information avec LEBIGDATA.FR !

Abonnez-vous à notre chaîne YouTube et rejoignez-nous sur Google Actualités pour garder une longueur d'avance.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *