Stable Diffusion : tout savoir sur l'IA qui crée du porno basé sur vos mots
stable diffusion ia tout savoir

Stable Diffusion : découvrez comment l’IA crée du du porno basé sur vos mots

L’intelligence artificielle text-to-image Stable Diffusion de Stability AI permet de générer des images à partir de textes, à l’instar de MidJourney et DALL-E. Toutefois, cette IA est la seule à permettre de générer du contenu pornographique sans censure. Inutile de préciser que les internautes s’en donnent à coeur joie… découvrez tout ce que vous devez savoir.

Depuis plusieurs mois, DALL-E et MidJourney émerveillent les internautes en créant des oeuvres d’art à partir de leurs idées. Il suffit d’entrer des mots pour que ces IA génèrent de magnifiques dessins.

Malheureusement pour les amoureux d’art et de poésie, même l’IA text-to-image n’échappe pas à la règle 34 d’internet : la pornographie existe concernant tous les sujets concevables.

Le modèle de génération text-to-image Stable Diffusion de l’entreprise d’intelligence artificielle Stability AI vient d’être lancé, mais les gens l’utilisent déjà pour créer des images pornographiques…

Stable Diffusion : l’IA text-to-image sans censure

Comme DALL-E Mini (CrAIyon) ou MidJourney, Stable Diffusion est capable de créer des images réalistes à partir de simples textes entrés par les internautes grâce aux réseaux de neurones.

Toutefois, les créateurs de ces MidJourney et DALL-E Mini ont implémenté des limites. Les requêtes contenant des mots violents ou à caractère sexuel sont automatiquement censurées.

De son côté, le modèle Stable Diffusion de Stability AI n’a aucune restriction. Les utilisateurs peuvent télécharger ce modèle et le modifier à leur guise pour générer n’importe quel contenu. Sans surprise, beaucoup s’en servent pour créer du contenu pornographique automatiquement.

Afin de développer son modèle IA, Stability AI a reçu l’aide de plus de 15 000 beta testeurs. En juillet 2022, elle a enfin ouvert l’accès à son outil pour les chercheurs.

Depuis lundi 22 août 2022, Stable Diffusion est ouvert à tous. Toutefois, ce modèle a fuité sur le web et notamment sur 4Chan bien avant sa sortie officielle.

Malgré l’interdiction fixée par l’entreprise de générer du contenu pornographique, et avant le lancement, de nombreux internautes égrillards se sont affairés à créer des images aussi grivoises que possible

Stability AI interdit la création de porno… en vain

Depuis le début du mois d’août 2022, le forum de Stable Diffusion est inondé par les images pornographiques. Des dessins hentai, des photos de célébrités nues, des scènes pornographiques imaginaires créées par l’IA affluent sur le site.

Pourtant, Stability AI s’oppose fermement à ce type de contenu. Sur Twitter, l’entreprise avait demandé aux utilisateurs de « ne rien générer que vous auriez honte de montrer à votre mère ».

Il demandait par ailleurs aux internautes de créer le contenu pour adulte uniquement sur leur propre GPU lorsque le modèle sera relaxé. La version bêta de Stable Diffusion et l’application web DreamStudio permettant de générer des images interdisent le contenu pornographique ou érotique.

La firme précise que des filtres de contenu sont mis en place sur la plateforme. Elle applique donc la même forme de censure que MidJourney ou DALL-E Mini.

Toutefois, n’importe qui peut le copier pour l’exécuter sur son PC et les vils internautes s’empressent de créer des images obscènes. Néanmoins, les utilisateurs de Stable Diffusion doivent respecter les conditions d’utilisation de la licence du modèle. Il s’agit de la licence CreativeML OpenRAIL-M dont les termes sont les mêmes que ceux DALLE-Mini pour la version open-access.

Cette licence interdit notamment l’usage « détourné, malicieux ou malveillant ». Il est également proscrit de « générer des images que les gens risquent de trouver dérangeantes ou offensives, ou du contenu propageant des stéréotypes historiques ou actuels ».

Reddit, Discord : où voir les images créées par Stable Diffusion ?

La différence entre le modèle Stable Diffusion et les autres IA text-to-image est qu’il est disponible en « open access » (accès libre). Cela signifie que n’importe qui peut télécharger le modèle et l’exécuter sur sa propre machine à la maison ou dans un laboratoire de recherche.

Il n’est pas nécessaire d’exploiter les serveurs de l’entreprise via le cloud. Or, les filtres et les règles de censure s’appliquent uniquement sur ces serveurs.

Quatre subreddits dédiés au contenu licencieux ont déjà vu le jour : r/unstablediffusion, r/PornDiffusion, r/HentaiDiffusion et r/stablediffusionnsfw. Au total, ces groupes rassemblent environ 2000 membres. Le subreddit principal de Stable Diffusion rassemble quant à lui 8000 fans.

Un serveur Discord a aussi été ouvert par le modérateur des subbredits r/Singularity, r/UnstableDiffusion, r/PornDiffusion et r/HentaiDiffusion : Ashley22. Vous le trouverez à cette adresse.

La personne explique avoir créé ce serveur parce que certaines de ces images présentaient une réelle beauté artistique. Elle explique ne pas aimer « l’écrasante et envahissante pudibonderie et la peur de l’art érotique qui règne ». En outre, elle pense que ces modèles IA peuvent changer notre perception de choses telles que la nudité et les tabous.

Comme l’explique johnnyornot, le modérateur de r/stablediffusionnsfw, « il y a une forme de nouveauté à expérimenter le contenu NSFX généré par l’IA. C’est presque tabou de le voir en sachant que c’est généré par un robot. Et il y a aussi la curiosité de savoir si ça peut capturer la complexité de ce qui cause l’excitation humaine, ou si ça sera un dessin d’alien distordu ».

LAION : un dataset d’entraînement « truffé d’images porno »

Afin d’obtenir les dessins souhaités, les utilisateurs rédigent de longues descriptions qu’ils partagent et complètent entre eux. Par exemple, un dessin a été créé à partir du texte « peinture à l’huile d’une princesse blanche nue réaliste exposée seins symétriques et cuisses réalistes exposées avec de charmants yeux détaillés, le ciel, page de couleur, tankoban, 4K, cartographie de tons, poupée, akihiko yoshida, james dean, andrei riabovitchev, marc simonetti, yoshitaka amano, longs cheveux, bouclés ».

Ces textes sont ensuite fournis à l’IA pour la laisser créer une image. Stable Diffusion a été entraîné en utilisant 4000 GPU Nvidia A100, sur un ensemble de données nommé « LAION-Aesthetics ».

LAION est l’anagramme de Large-scale Artificial Intelligence Open Network (réseau ouvert d’intelligence artificielle à grande échelle). C’est le nom d’une organisation non lucrative consacrée à l’IA.

Le dataset open source LAION 5B pèse 250 terabytes et contient 5,6 milliards d’images collectées sur internet. Son prédécesseur LAION-400M était connu pour contenir du contenu aberrant. Une étude de 2021 révélait qu’il comportait « de nombreux textes et images troublants et explicites de viols, pornographie, stéréotypes malins, insultes racistes, et autre contenu extrêmement problématique ».

L’équipe Google Research a elle aussi entraîné son modèle texte-to-image Imagen sur LAION-400M. Les chercheurs ont préféré éviter d’ouvrir l’accès à leur modèle au public de peur qu’il produise des représentations blessantes et mette en scène des stéréotypes.

Pour remédier au problème, Stability AI a réduit LAION 5B de deux milliards à 120 millions d’images en entraînant un modèle à prédire la note de 1 à 10 que les gens donneraient à une image. Seules les meilleures ont été retenues pour le dataset LAION-Aesthetics. Le but étant notamment d’éliminer les images pornographiques.

Le danger des DeepFakes

Si des images de hentaï générées par une IA n’ont rien de bien dangereux, Stable Diffusion peut être détourné pour générer du contenu beaucoup plus problématique : des DeepFakes.

Les internautes peuvent utiliser cette IA pour créer de fausses photos nues de célébrités. Il suffit de lui fournir la photo d’une star, et de lui laisser imaginer son corps dénudé.

Les DeepFakes générés grâce à l’IA posent problème aux chercheurs et aux ingénieurs depuis plusieurs années, et les nouveaux modèles text-to-images dans la lignée de Stable Diffusion ne vont clairement pas arranger les choses…

Contrairement à DALL-E ou MidJourney, Stable Diffusion peut être utilisé pour créer de fausses photos de célébrités car l’ensemble de données LAION open-source sur lequel il est entraîné contient de nombreuses photos de stars.

De telles photos peuvent nuire à la réputation d’une vedette, même si elles sont fausses. Les images générées par l’IA ne sont pas encore suffisamment réalistes pour être pris pour de vrais clichés, mais pourraient rapidement le devenir…

Comment utiliser Stable Diffusion ?

Depuis le 22 août 202, Stable Diffusion est disponible en libre accès. L’interface DreamStudio est également disponible en version beta pour créer des images en utilisant les serveurs cloud de Stability AI.

L’API publique sera prochainement disponible pour permettre « d’étendre votre créativité et d’autoriser de nouvelles expériences » selon le CEO Emad Mostaque.

D’autres fonctionnalités seront ajoutées prochainement à DreamStudio, dont la possibilité d’utiliser directement son GPU local ou d’ajouter des animations…

En vous inscrivant à DreamStudio, vous recevrez 200 crédits gratuitement. Par la suite, vous devrez payer environ 1 euro pour 100 générations et 100 euros pour 10 000 générations. La version beta est disponible à cette adresse.

Vous trouverez les instructions pour utiliser DreamStudio sur Reddit à cette adresse. En guise d’alternative à DreamStudio, HuggingFace offre aussi une interface web rudimentaire pour Stable Diffusion.

Gardez en tête que vous ne pouvez pas générer de contenu pornographique si vous utilisez DreamStudio. Pour créer ce type d’images, vous devez exécuter le modèle IA localement sur votre GPU.

Le code complet est disponible sur GitHub à cette adresse. Pour faire tourner Stable Diffusion localement, il suffit de télécharger le modèle et de disposer d’une carte graphique Nvidia avec plus de 4Go de VRAM.

Les cartes graphiques AMD ne sont pas officiellement prises en charge, mais peuvent être utilisées avec quelques astuces. Les puces Apple M1 seront prochainement prises en charge.

La communauté d’utilisateurs a créé un système permettant d’exécuter Stable Diffusion directement sur un navigateur web avec quelques lignes de code. Vous trouverez les instructions pour exécuter Stable Diffusion localement à cette adresse.

En outre, si vous n’êtes pas très inspiré, vous pouvez utiliser un créateur de textes automatique à cette adresse. Pour rejoindre la communauté officielle de Stable Diffusion sur Discord, rendez-vous à cette adresse.

1 commentaire

  1. Ouah ca c’est précis et complet comme article! Ca change des articles rédigés à la va-vite où y apprend rien, un grand bravo, et merci aussi pour l’éclairage sur ce sujet assez mystérieux…

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Pin It on Pinterest