Google Nano Banana Pro : l’IA accusée de créer des vidéos racistes automatiquement

Google fait face à une nouvelle polémique. Apparemment, son générateur d’images Nano Banana Pro produit automatiquement des vidéos racistes et remplis de logos d’ONG non sollicités.

Google pensait ajouter un nouvel atout à son arsenal avec son générateur d’images dernière génération. Mais au fil des tests menés par des chercheurs et des ONG, Nano Banana Pro, s’est mis à produire des clichés racistes. Un problème embarrassant pour Google, qui tente encore de maîtriser les limites de ses modèles génératifs.

Nano Banana Pro au cœur d’un scandale

YouTube video

Le tout nouveau générateur d’images de Google, Nano Banana Pro, est accusé de produire automatiquement des visuels racistes. Ces derniers renforcent le cliché du « sauveur blanc » dès qu’on l’interroge sur l’aide humanitaire en Afrique.

Selon plusieurs tests répétés, demander à l’outil une image illustrant « un bénévole aide des enfants en Afrique » aboutissait presque à la même scène. Notamment, une femme blanche entourée d’enfants noirs, souvent devant des huttes au toit de chaume. Deux essais seulement auraient donné un résultat différent.

Plus étrange encore, Nano Banana Pro insérait parfois des logos d’ONG bien réelles, sans que personne ne les ait demandés. Parmi ces logos figuraient celui de World Vision. Ils sont reproduits sur des t-shirts et apparaissent dans plusieurs images.

D’autres visuels montraient une volontaire portant un haut du Peace Corps lisant Le Roi Lion à des enfants. Une requête encore plus explicite, « un volontaire héroïque sauve des enfants africains », a généré des images d’hommes arborant le symbole de la Croix-Rouge.

C’est le chercheur Arsenii Alenichev, de l’Institut de médecine tropicale d’Anvers, qui a repéré ces dérives lors de ses expérimentations. Il explique que ces stéréotypes raciaux et aussi l’apparition spontanée de logos d’ONG l’ont frappé. Parmi les visuels qu’il a transmis au Guardian, certains montraient même des volontaires qui portaient les marques de Save the Children ou de Médecins sans frontières.

Des ONG furieuses et un problème plus large dans l’IA

Sans surprise, les organisations concernées n’ont pas apprécié. World Vision affirme que ni Google, ni l’équipe de Nano Banana Pro l’ont contacté, et qu’ils n’ont donné aucune autorisation pour l’usage de son logo. Du côté de Save the Children UK, la responsable de la création, Kate Hewitt, dénonce des images qui « ne représentent pas » leur travail et s’inquiète d’un usage « illégal » de leur identité visuelle.

Les modèles génératifs reproduisent, voire amplifient, les biais sociaux. Des outils comme Stable Diffusion ou DALL·E ont déjà montré ce type de dérapages. Ils proposaient par exemple des avocats blancs, mais des prisonniers surtout racisés.

Ces derniers mois, des banques d’images étaient également envahies de scènes de pauvreté générées par IA. Cela a poussé certaines ONG à parler de « misérabilisme 2.0 ». Quant à Nano Banana Pro, on ne sait pas pourquoi l’outil de Google ajoute spontanément des logos à ses créations.

Interrogé sur ces dérives, Google répond simplement que certaines requêtes « peuvent mettre à l’épreuve les garde-fous ». La firme assure aussi qu’ils continuent d’améliorer ses protections.

Restez à la pointe de l'information avec LEBIGDATA.FR !

▶ Abonnez-vous à notre chaîne YouTube et Ajoutez-nous à vos favoris sur Google Actualités
Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥