stable diffusion ia tout savoir

Stable Diffusion : découvrez comment l’IA crée du porno basé sur vos mots

L'intelligence artificielle text-to-image de Stability AI permet de générer des images à partir de textes, à l'instar de et . Toutefois, cette IA est la seule à permettre de générer du contenu pornographique sans censure. Inutile de préciser que les internautes s'en donnent à coeur joie… découvrez tout ce que vous devez savoir.

Depuis plusieurs mois, DALL-E et MidJourney émerveillent les internautes en créant des oeuvres d'art à partir de leurs idées. Il suffit d'entrer des mots pour que ces IA génèrent de magnifiques dessins.

Malheureusement pour les amoureux d'art et de poésie, même l'IA text-to-image n'échappe pas à la règle 34 d'internet : la pornographie existe concernant tous les sujets concevables.

Le modèle de génération text-to-image Stable Diffusion de l'entreprise d'intelligence artificielle Stability AI vient d'être lancé, mais les gens l'utilisent déjà pour créer des images pornographiques.

Qu'est-ce que Stable Diffusion ?

Développé par Stability AI et lancé officiellement lancé le 22 août 2022, Stable Diffusion est un générateur freemium de texte à image qui crée des images étonnantes et détaillées à partir d'invites. Contrairement à DALL-E et Midjourney, il est open-source, ce qui signifie que vous êtes libre d'utiliser, de modifier ou de distribuer son code légalement. En septembre 2023, Stable Diffusion compte plus de 10 millions d'utilisateurs.

Lancée en juillet 2023, Stable Diffusion XL ou SDXL est la dernière version de Stable Diffusion. Comme prévu, elle présente des avancées significatives en termes de génération d'images par l'IA. SDXL ajoute plus de nuances, comprend mieux les messages courts et reproduit mieux l'anatomie humaine.

Comment utiliser Stable Diffusion ?

Pour profiter des fonctionnalités de Stable Diffusion, saisissez votre texte dans le champ réservé et cliquez ensuite sur « Générer ». Il est conseillé d'être le plus explicite possible lors de la rédaction du texte, étant donné que le logiciel prend en compte le langage naturel. Par exemple, vous pouvez simplement décrire le sujet et le style de l'image que vous souhaitez créer. En fonction de votre demande, le logiciel peut générer jusqu'à 4 images liées au texte. Pour avoir accès à ces propositions, il suffit de cliquer sur l'une d'entre elles et d'appuyer sur la touche « + ». 

Selon Emad Mostaque, PDG de DreamStudio, cette API publique a pour but d'« étendre la créativité des utilisateurs et de leur permettre de vivre de nouvelles expériences ». D'autres fonctionnalités vont être ajoutées à DreamStudio, notamment la possibilité d'utiliser directement votre GPU local ou d'ajouter des animations.

Vous trouverez egalement les instructions pour utiliser Stable Diffusion via DreamStudio à cette adresse. En guise d'alternative à DreamStudio, HuggingFace offre aussi une interface web rudimentaire pour Stable Diffusion.

Gardez en tête que vous ne pouvez pas générer de contenu pornographique si vous utilisez DreamStudio. Pour créer ce type d'images, vous devez exécuter le modèle IA localement sur votre GPU. Le code complet est disponible sur GitHub à cette adresse.

Les systèmes nécessaires pour exécuter Stable Diffusion localement

Pour exécuter Stable Diffusion localement, il faut télécharger le modèle. En outre, il faut disposer d'une carte graphique avec plus de 4 Go de RAM.

Quant aux cartes graphiques AMD, elles ne sont pas officiellement supportées, mais peuvent être utilisées avec quelques astuces. Or, bientôt les puces M1 seront prises en charge.

En outre, si vous n'êtes pas très inspiré, vous pouvez utiliser un créateur de textes automatique à cette adresse. Pour rejoindre la communauté officielle de Stable Diffusion sur Discord, rendez-vous à cette adresse.

Stable Diffusion : l'IA text-to-image sans censure

Comme DALL-E Mini (CrAIyon) ou MidJourney, Stable Diffusion est capable de créer des images réalistes à partir de simples textes entrés par les internautes grâce aux réseaux de neurones.

Toutefois, les créateurs de ces MidJourney et DALL-E Mini ont implémenté des limites. Les requêtes contenant des mots violents ou à caractère sexuel sont automatiquement censurées.

De son côté, le modèle Stable Diffusion de Stability AI n'a aucune restriction. Les utilisateurs peuvent télécharger ce modèle et le modifier à leur guise pour générer n'importe quel contenu. Sans surprise, beaucoup s'en servent pour créer du contenu pornographique automatiquement.

Afin de développer son modèle IA, Stability AI a reçu l'aide de plus de 15 000 beta testeurs. En juillet 2022, elle a enfin ouvert l'accès à son outil pour les chercheurs.

Depuis lundi 22 août 2022, Stable Diffusion est ouvert à tous. Toutefois, ce modèle a fuité sur le web et notamment sur 4Chan bien avant sa sortie officielle.

Malgré l'interdiction fixée par l'entreprise de générer du contenu pornographique, et avant le lancement, de nombreux internautes égrillards se sont affairés à créer des images aussi grivoises que possible

Stability AI interdit la création de porno… en vain

Depuis le début du mois d'août 2022, le forum de Stable Diffusion est inondé par les images pornographiques. Des dessins Hentai, des photos de célébrités nues, des scènes pornographiques imaginaires créées par l'IA affluent sur le site.

Pourtant, Stability AI s'oppose fermement à ce type de contenu. La version bêta de Stable Diffusion et l'application web DreamStudio interdisent le contenu pornographique ou érotique. Sur , l'entreprise avait demandé aux utilisateurs de « ne rien générer que vous auriez honte de montrer à votre mère ».

La firme précise que des filtres de contenu sont mis en place sur la plateforme. Elle applique donc la même forme de censure que MidJourney ou DALL-E Mini. En fait, la société demandait aux internautes de créer le contenu pour adulte uniquement sur leur propre GPU lorsque le modèle sera relaxé.

Toutefois, n'importe qui peut le copier pour l'exécuter sur son PC et les vils internautes s'empressent de créer des images obscènes. Néanmoins, les utilisateurs de Stable Diffusion doivent respecter les conditions d'utilisation de la licence du modèle. Il s'agit de la licence CreativeML OpenRAIL-M dont les termes sont les mêmes que ceux DALLE-Mini pour la version open-access.

Cette licence interdit notamment l'usage « détourné, malicieux ou malveillant ». Il est également proscrit de « générer des images que les gens risquent de trouver dérangeantes ou offensantes, ou du contenu propageant des stéréotypes historiques ou actuels ».

Reddit, Discord : où voir les images créées par Stable Diffusion ?

La différence entre le modèle Stable Diffusion et les autres IA text-to-image est qu'il est disponible en « open access » (accès libre). Cela signifie que n'importe qui peut télécharger le modèle et l'exécuter sur sa propre machine à la maison ou dans un laboratoire de recherche.

Il n'est pas nécessaire d'exploiter les serveurs de l'entreprise via le . Or, les filtres et les règles de censure s'appliquent uniquement sur ces serveurs. Quatre subreddits dédiés au contenu licencieux ont déjà vu le jour :

  • r/unstablediffusion,
  • r/PornDiffusion,
  • r/HentaiDiffusion
  • et r/stablediffusionnsfw.

Au total, ces groupes rassemblent environ 2000 membres. Le subreddit principal de Stable Diffusion rassemble quant à lui 8000 fans.

Un serveur Discord a aussi été ouvert par le modérateur des subbredits r/Singularity, r/UnstableDiffusion, r/PornDiffusion et r/HentaiDiffusion : Ashley22.

LAION : un dataset d'entraînement « truffé d'images porno »

Afin d'obtenir les dessins souhaités, les utilisateurs rédigent de longues descriptions qu'ils partagent et complètent entre eux. Par exemple, un dessin a été créé à partir du texte « peinture à l'huile d'une princesse blanche nue réaliste exposée seins symétriques et cuisses réalistes exposées avec de charmants yeux détaillés, le ciel, page de couleur, tankoban, 4K, cartographie de tons, poupée, akihiko yoshida, james dean, andrei riabovitchev, marc simonetti, yoshitaka amano, longs cheveux, bouclés ».

Ces textes sont ensuite fournis à l'IA pour la laisser créer une image. Stable Diffusion a été entraîné en utilisant 4000 GPU Nvidia A100, sur un ensemble de données nommé « LAION-Aesthetics ». En fait, LAION est l'anagramme de Large-scale Artificial Intelligence Open Network (réseau ouvert d'intelligence artificielle à grande échelle). Il s'agit d'une organisation non lucrative consacrée à l'IA.

Le dataset open source LAION 5B pèse 250 terabytes et contient 5,6 milliards d'images collectées sur internet. Son prédécesseur LAION-400M était connu pour contenir du contenu aberrant. Une étude de 2021 révélait qu'il comportait « de nombreux textes et images troublants et explicites de viols, pornographie, stéréotypes malins, insultes racistes, et autre contenu extrêmement problématique ».

L'équipe Research a elle aussi entraîné son modèle texte-to-image Imagen sur LAION-400M. Les chercheurs ont préféré éviter d'ouvrir l'accès à leur modèle au public de peur qu'il produise des représentations blessantes et mette en scène des stéréotypes.

Pour remédier au problème, Stability AI a réduit LAION 5B de deux milliards à 120 millions d'images en entraînant un modèle à prédire la note de 1 à 10 que les gens donneraient à une image. Seules les meilleures ont été retenues pour le dataset LAION-Aesthetics. Le but étant notamment d'éliminer les images pornographiques.

Le danger des DeepFakes

Si des images de hentaï générées par une IA n'ont rien de bien dangereux, Stable Diffusion peut être détourné pour générer du contenu beaucoup plus problématique : des DeepFakes. Les internautes peuvent utiliser cette IA pour créer de fausses photos nues de célébrités. Il suffit de lui fournir la photo d'une star, et de lui laisser imaginer son corps dénudé.

Les DeepFakes générés grâce à l'IA posent problème aux chercheurs et aux ingénieurs depuis plusieurs années. Mais encore, les nouveaux modèles text-to-images dans la lignée de Stable Diffusion ne vont clairement pas arranger les choses.

Contrairement à DALL-E ou MidJourney, Stable Diffusion peut être utilisé pour créer de fausses photos de célébrités car l'ensemble de données LAION open-source sur lequel il est entraîné contient de nombreuses photos de stars.

De telles photos peuvent nuire à la réputation d'une vedette, même si elles sont fausses. Les images générées par l'IA ne sont pas encore suffisamment réalistes pour être pris pour de vrais clichés, mais pourraient rapidement le devenir…

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

1 commentaires

1 commentaire

  1. Ouah ca c’est précis et complet comme article! Ca change des articles rédigés à la va-vite où y apprend rien, un grand bravo, et merci aussi pour l’éclairage sur ce sujet assez mystérieux…

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *