générateurs d'images IA

Les générateurs d’images IA sont plein de stéréotypes : voici la preuve

Avec la montée en puissance des générateurs d’images IA, des questions se posent sur leur neutralité. Ces outils, malgré leur potentiel innovant, semblent refléter et parfois renforcer des préjugés ancrés dans notre société. Est-ce vraiment surprenant ?

Les générateurs d’images d’IA, tels que Stable Diffusion et DALL-E, sont capables de créer des images à partir de descriptions textuelles, mais ces images peuvent souvent refléter des stéréotypes préjudiciables et dépassés.

Le fonctionnement des IA génératrices d’images

Les générateurs d’images IA, comme et , tirent leur force des vastes ensembles de données d’entraînement. Ces données, composées d’images et de légendes, sont glanées sur le web. C’est grâce à cette méthode que l’IA parvient à transformer des descriptions textuelles en images visuelles. Toutefois, la pertinence de ces données pose question.

Rares sont les entreprises qui dévoilent les détails de leurs ensembles de données. Les raisons ? Les droits d’auteur, les inexactitudes, voire l’indécence du contenu. Cependant, des initiatives comme Stable Diffusion et LAION adoptent une démarche transparente en privilégiant l’open source.

Le « texte alternatif » qui accompagne souvent les images est aussi source de problèmes. Bien qu’utile pour décrire visuellement une image à une personne malvoyante, il peut s’avérer peu fiable. Les générateurs d’images IA, en se basant sur ces légendes, peuvent donc produire des images erronées ou stéréotypées.

Les stéréotypes dans les images générées par l’IA

La réalité est alarmante : les générateurs d’images IA peuvent renforcer des clichés. Ainsi, Stable Diffusion XL pourrait illustrer une scène chinoise par une maison au toit incurvé, ou une scène américaine par une maison entourée d’une vaste pelouse soignée.

DALL-E 3, lui, aurait tendance à produire des images de personnes blanches, jeunes et féminines.

De plus, en matière de race, de sexe, de richesse ou même de religion, ces outils montrent des biais flagrants. Par exemple, en sollicitant des images de bénéficiaires de services sociaux, l’IA pourrait majoritairement proposer des visages non-blancs, en décalage avec la réalité statistique.

La complexité de la réduction des biais

Des efforts sont menés pour atténuer ces préjugés. Certains, comme Stable Diffusion, ont cherché à améliorer les images en filtrant les contenus inappropriés. Mais filtrer, c’est aussi risquer d’introduire d’autres biais, d’où la complexité de la tâche.

Ainsi, malgré des consignes précises pour la génération d’images, les stéréotypes persistent. Une solution envisagée serait de créer des générateurs d’images nationaux, calqués sur les valeurs de chaque pays, avec le soutien des institutions publiques. Mais cela ne garantit pas une représentation juste et équitable.

La lutte contre les biais dans les images générées par l’IA est un véritable défi. Chaque image est le fruit d’une multitude de décisions liées à des critères tels que la race, l’âge, le genre… Difficile donc de trouver une solution informatique adéquate. Les utilisateurs de ces technologies doivent être conscients de leurs limites et de leurs potentiels biais

YouTube video

Restez à la pointe de l'information avec LEBIGDATA.FR !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥