microsoft dall-e 3 restrictions

Bing DALL-E 3 était mieux que MidJourney, mais Microsoft lui a lavé le cerveau

Pendant quelques jours, le générateur d'images IA Bing 3 a laissé une liberté de création totale aux internautes. Toutefois, face aux nombreux abus, a préféré lui laver le cerveau pour le rendre totalement stérile et aseptisé… est-ce vraiment la meilleure voie ?

Avec seulement 3% de parts du marché des moteurs de recherche web, Microsoft Bing est toujours resté dans l'ombre de depuis son lancement en 2009.

Bien qu'il ait l'avantage d'être intégré à Windows, qui demeure l'OS le plus populaire, cet outil n'a jamais vraiment pu séduire le grand public.

Les internautes préfèrent Google et ses résultats plus précis et plus récents. Jusqu'à présent, la seule vraie bonne raison d'utiliser Bing était la possibilité d'obtenir des points pour le programme Microsoft Rewards.

Bing DALL-E 3 a laissé une liberté totale aux internautes pendant 1 semaine

Néanmoins, début 2023, Microsoft a réalisé un coup de maître en incorporant ChatGPT à Bing. Ainsi, ce moteur de recherche est devenu le premier à intégrer une IA pour répondre aux questions des utilisateurs.

Encore plus récemment, début octobre, une seconde intelligence artificielle d' a été ajoutée à Bing : DALL-E 3, le générateur d'images de dernière génération.

Ceci a permis de décupler les performances de l'outil de création d'image de Bing, Image Creator. Grâce au nouveau modèle IA d'OpenAI, la qualité des images générées a fait un vrai bond en avant.

C'est la raison pour laquelle les groupes de partage d'images générées via l'IA ont été inondés de créations de Bing DALL-E 3 au cours des derniers jours.

Toutefois, cette augmentation de la qualité s'est aussi accompagnée d'une vive controverse. Pour cause : avec cet outil surpuissant, les internautes n'ont plus de limite et peuvent donner libre cours à leur imagination…

De nombreux abus avec des images violentes et des DeepFakes

Par exemple, des utilisateurs se sont amusés à créer des images de « Mickey Mouse causant le 11 septembre 2001 ». Beaucoup n'ont pas hésité à générer des images choquantes, violentes, pornographiques ou même des DeepFakes extrêmement réalistes.

Tout comme les stickers Meta générés par l'IA devenus totalement incontrôlables, ces dérives rappellent à quel point il est important d'incorporer des barrières à ces outils d'IA générative.

Par exemple, MidJourney censure automatiquement les prompts érotiques ou violents et même les requêtes contenant les noms de personnalités politiques.

Le but est non seulement d'éviter la création d'images traumatisantes, mais aussi et surtout les mises en scène réalistes qui pourraient être utilisées à des fins de désinformation ou de propagande.

Or, dans un premier temps, Microsoft semble avoir oublié de poser ces garde-fous autour de Bing DALL-E 3. La firme s'est finalement précipitée pour corriger cette erreur, et certains internautes pensent même qu'elle est allée un peu trop loin…

Microsoft panique et censure n'importe quoi

Désormais, de nombreuses requêtes sont censurées automatiquement avec un message indiquant qu'elles enfreignent les conditions d'utilisation. Si cela est compréhensible pour les images incluant de la violence ou des personnages soumis aux droits d'auteur, les internautes sont surpris de voir des prompts inoffensifs bannis de la même façon.

Cerise sur le gâteau : Bing Image Creator se censure seul. L'outil est doté d'un bouton « surprends-moi » permettant de créer une image aléatoire, mais même les résultats de cette option sont bloqués dans près de 30% des cas.

I clicked « Surprise me » and this is what i gotten. Too bad.
by inOpenAI

Un utilisateur de Reddit révèle même avoir été banni après avoir simplement demandé une image de « chat avec un chapeau et des bottes de cow-boy ». Pour une raison que l'on ignore, ce prompt a été considéré comme un offensant.

this is fucking RIDICULOUS
byu/Moreg inOpenAI

De même, des utilisateurs affirment avoir été bannis juste pour avoir demandé des DeepFakes de célébrités anodins comme « Dolly Parton fait le DJ à une rave party gothique ».

cool weird stuff i made with bing image generator before it banned me
byu/ihavetopee777 inOpenAI

Comment trouver l'équilibre entre liberté et danger ?

Autant dire que cet outil d'IA initialement libre et amusant s'est fait laver le cerveau, castrer et menotter par Microsoft. Le fun n'aura duré que quelques jours.

Cela reste néanmoins compréhensible, car Microsoft est une entreprise renommée dans le monde entier avec une large proportion de clients d'entreprise. La firme ne peut se permettre d'entacher sa réputation à cause des images créées par l'IA.

Par le passé, elle a déjà été confrontée à ce type de polémique. Son chatbot IA Tay relâché sur était très rapidement devenu raciste, sexiste et antisémite au point qu'elle avait dû le retirer après quelques heures …

Le véritable défi de l'intelligence artificielle est de parvenir à équilibrer censure et liberté. C'est d'autant plus difficile que ces outils sont disponibles à l'échelle mondiale, et que les mœurs peuvent fortement varier d'un pays à l'autre.

Ce qui est choquant en Chine ne le sera pas forcément en France, et ce qui est choquant en France pourra être acceptable ailleurs.

Toutefois, d'une certaine façon, aseptiser un générateur d'images lui fait perdre sa raison d'être : permettre à chacun d'exprimer visuellement ses idées.

Pour cause, nos idées ne sont pas toujours pures et innocentes. Seule la censure permet de maintenir cette illusion utopique.

Au cours des mois à venir, les acteurs de l'industrie de l'IA devront trouver l'équilibre entre la filtration et la flexibilité. Dans le cas contraire, des jailbreakers se feront une joie de détourner ces outils pour supprimer les barrières…

Restez à la pointe de l'information avec LEBIGDATA.FR !

Abonnez-vous à notre chaîne YouTube et rejoignez-nous sur Google Actualités pour garder une longueur d'avance.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *