Oups ! Sora n’était pas censé montrer ça ! Deepfake de Avori Strib

Oups ! Sora n’était pas censé montrer ça !

Une vidéo deepfake créée avec Sora montre une influenceuse dénudée sans son consentement. OpenAI admet une faille et promet de renforcer la sécurité de son outil.

L’outil vidéo Sora, développé par OpenAI, fait de nouveau parler de lui. L’influenceuse Avori Strib, connue pour ses streams et son passage dans The Mole sur Netflix, a révélé qu’une vidéo deepfake générée par Sora la montrait exposant sa poitrine. Le clip, partagé sur les réseaux, a rapidement été signalé comme faux. Pourtant, sa diffusion souligne une inquiétude grandissante : celle d’une IA capable de manipuler les images sans contrôle réel.

Avori Strib a déclaré à TMZ qu’elle n’avait évidemment jamais tourné une telle scène. Selon elle, la vidéo générée par Sora démontre à quel point les outils d’IA peuvent devenir dangereux lorsqu’ils échappent à la régulation. “Je crois au potentiel créatif de l’IA”, dit-elle, “mais pas à son déploiement irresponsable.” L’influenceuse appelle les entreprises du secteur à protéger les individus contre l’utilisation abusive de leur image. Pour elle, l’affaire met en lumière la frontière fragile entre innovation et atteinte à la vie privée.

YouTube video

Sora et la question des deepfakes sexuels

L’incident relance le débat sur les deepfakes à caractère sexuel, un phénomène en pleine expansion. Ces vidéos truquées utilisent l’image de personnes réelles pour créer du contenu falsifié, souvent pornographique. Bien que Sora soit conçu pour produire des vidéos à partir de textes ou d’images, il peut être détourné.

Des utilisateurs malveillants l’ont déjà employé pour créer des scènes fictives mettant en cause des célébrités. Dans le cas d’Avori, la vidéo a été partagée avant qu’OpenAI ne la supprime. Cela confirme que le système de détection avait failli.

OpenAI reconnaît une erreur

Un porte-parole d’OpenAI a confirmé que le contenu sexuellement explicite était strictement interdit sur Sora. L’entreprise reconnaît toutefois que la vidéo a “échappé à ses systèmes de modération”. Elle affirme renforcer ses mesures de sécurité pour éviter qu’un tel incident ne se reproduise. OpenAI promet aussi d’améliorer la détection automatique de tout deepfake impliquant des visages réels. L’entreprise rappelle que Sora empêche déjà, en principe, la création de contenu pornographique ou non consenti.

Oups ! Sora n’était pas censé montrer ça !
Deepfake de Avori Strib

L’affaire Sora dépasse le simple scandale individuel. Elle symbolise la difficulté croissante à encadrer des outils capables de générer des vidéos réalistes. Pour Avori Strib, le danger vient moins de la technologie que de son usage incontrôlé. Elle demande à ses abonnés de ne pas relayer ce type de contenu et espère que son expérience servira d’exemple. Les deepfakes produits par Sora rappellent que la régulation de l’IA devient urgente, avant que le virtuel ne détruise la frontière du consentement.

Restez à la pointe de l'information avec LEBIGDATA.FR !

▶ Abonnez-vous à notre chaîne YouTube et Ajoutez-nous à vos favoris sur Google Actualités
Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥