DALL-E

Vous ne confondrez plus jamais les images DALL-E avec de vraies photos

Après Meta, c’est au tour d’OpenAI de lutter contre les contenus Deepfake. Le géant de l’IA vient d’annoncer son filigrane sur les images générées par DALL-E 3. Avec cette approche, l’entreprise est aussi en accord avec les normes de la C2PA (Coalition for Content Provenance and Authenticity).

Les géants de la high-tech ont enfin la même vision concernant les images créées par l’IA. Leur objectif est le même : authentifier ces images afin de les distinguer des photos réelles. Rien de mieux qu’un filigrane particulier pour respecter les réglementations en vigueur. À partir du 12 février prochain, OpenAI va mettre un watermark sur les images générées par l’intermédiaire de DALL-E 3. Mais cette approche pourrait-elle stopper définitivement la création de contenu deepfake ?

DALL-E 3: un groupe de filigranes pour limiter la désinformation

OpenAI ne va pas se contenter d’un seul et unique watermark. L’entreprise s’engage à protéger coûte que coûte les internautes de la désinformation. Les images générées par DALL-E 3 auront alors une marque dans le coin supérieur gauche. Et ce n’est pas tout. OpenAI ajoute aussi des renseignements supplémentaires dans les métadonnées de chaque contenu. Ces derniers ne sont pas visibles sur l’image.

Et ces éléments n’impactent pas les qualités des rendus. Selon Open AI, son filigrana a « un effet négligeable sur la latence et n’affectera pas la qualité de la génération d’images ».

Des perfectionnements s’imposent

Malgré cette approche innovante, OpenAI n’est pas encore capable de stopper définitivement les contenus deepfakes. En effet, les filigranes peuvent être supprimés par une capture d’écran. Il existe aussi d’autres méthodes faciles pour les contourner.

« Les métadonnées, telles que C2PA ne constituent pas une solution miracle pour résoudre les problèmes de de provenance » OpenAI.

Toutefois, ce filigrane sur les images de DALL-E 3 est une avancée majeure dans le domaine de la high-tech. Et OpenAI est assez fier de son approche : « Nous pensons que l’adoption de ces méthodes pour établir la provenance et encourager les utilisateurs à reconnaître ces signaux essentiels pour accroître la fiabilité des informations numériques » OpenAI.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *