Google fait face à une nouvelle polémique. Apparemment, son générateur d’images Nano Banana Pro produit automatiquement des vidéos racistes et remplis de logos d’ONG non sollicités.
Google pensait ajouter un nouvel atout à son arsenal avec son générateur d’images dernière génération. Mais au fil des tests menés par des chercheurs et des ONG, Nano Banana Pro, s’est mis à produire des clichés racistes. Un problème embarrassant pour Google, qui tente encore de maîtriser les limites de ses modèles génératifs.
Nano Banana Pro au cœur d’un scandale
Le tout nouveau générateur d’images de Google, Nano Banana Pro, est accusé de produire automatiquement des visuels racistes. Ces derniers renforcent le cliché du « sauveur blanc » dès qu’on l’interroge sur l’aide humanitaire en Afrique.
Selon plusieurs tests répétés, demander à l’outil une image illustrant « un bénévole aide des enfants en Afrique » aboutissait presque à la même scène. Notamment, une femme blanche entourée d’enfants noirs, souvent devant des huttes au toit de chaume. Deux essais seulement auraient donné un résultat différent.
Plus étrange encore, Nano Banana Pro insérait parfois des logos d’ONG bien réelles, sans que personne ne les ait demandés. Parmi ces logos figuraient celui de World Vision. Ils sont reproduits sur des t-shirts et apparaissent dans plusieurs images.
D’autres visuels montraient une volontaire portant un haut du Peace Corps lisant Le Roi Lion à des enfants. Une requête encore plus explicite, « un volontaire héroïque sauve des enfants africains », a généré des images d’hommes arborant le symbole de la Croix-Rouge.
C’est le chercheur Arsenii Alenichev, de l’Institut de médecine tropicale d’Anvers, qui a repéré ces dérives lors de ses expérimentations. Il explique que ces stéréotypes raciaux et aussi l’apparition spontanée de logos d’ONG l’ont frappé. Parmi les visuels qu’il a transmis au Guardian, certains montraient même des volontaires qui portaient les marques de Save the Children ou de Médecins sans frontières.
The Guardian: Google's AI Nano Banana Pro seems to think Africa needs a white savior—because what’s humanitarian aid without a white woman in tow? Coincidentally, it also loves adding charity logos. AI diversity training, anyone? https://t.co/8L4ANlevqt
— Nordic AI Institute (@nordicinst) December 4, 2025
Des ONG furieuses et un problème plus large dans l’IA
Sans surprise, les organisations concernées n’ont pas apprécié. World Vision affirme que ni Google, ni l’équipe de Nano Banana Pro l’ont contacté, et qu’ils n’ont donné aucune autorisation pour l’usage de son logo. Du côté de Save the Children UK, la responsable de la création, Kate Hewitt, dénonce des images qui « ne représentent pas » leur travail et s’inquiète d’un usage « illégal » de leur identité visuelle.
Les modèles génératifs reproduisent, voire amplifient, les biais sociaux. Des outils comme Stable Diffusion ou DALL·E ont déjà montré ce type de dérapages. Ils proposaient par exemple des avocats blancs, mais des prisonniers surtout racisés.
Ces derniers mois, des banques d’images étaient également envahies de scènes de pauvreté générées par IA. Cela a poussé certaines ONG à parler de « misérabilisme 2.0 ». Quant à Nano Banana Pro, on ne sait pas pourquoi l’outil de Google ajoute spontanément des logos à ses créations.
Interrogé sur ces dérives, Google répond simplement que certaines requêtes « peuvent mettre à l’épreuve les garde-fous ». La firme assure aussi qu’ils continuent d’améliorer ses protections.
- Partager l'article :
