Une vidéo deepfake créée avec Sora montre une influenceuse dénudée sans son consentement. OpenAI admet une faille et promet de renforcer la sécurité de son outil.
L’outil vidéo Sora, développé par OpenAI, fait de nouveau parler de lui. L’influenceuse Avori Strib, connue pour ses streams et son passage dans The Mole sur Netflix, a révélé qu’une vidéo deepfake générée par Sora la montrait exposant sa poitrine. Le clip, partagé sur les réseaux, a rapidement été signalé comme faux. Pourtant, sa diffusion souligne une inquiétude grandissante : celle d’une IA capable de manipuler les images sans contrôle réel.
Avori Strib a déclaré à TMZ qu’elle n’avait évidemment jamais tourné une telle scène. Selon elle, la vidéo générée par Sora démontre à quel point les outils d’IA peuvent devenir dangereux lorsqu’ils échappent à la régulation. “Je crois au potentiel créatif de l’IA”, dit-elle, “mais pas à son déploiement irresponsable.” L’influenceuse appelle les entreprises du secteur à protéger les individus contre l’utilisation abusive de leur image. Pour elle, l’affaire met en lumière la frontière fragile entre innovation et atteinte à la vie privée.
Sora et la question des deepfakes sexuels
L’incident relance le débat sur les deepfakes à caractère sexuel, un phénomène en pleine expansion. Ces vidéos truquées utilisent l’image de personnes réelles pour créer du contenu falsifié, souvent pornographique. Bien que Sora soit conçu pour produire des vidéos à partir de textes ou d’images, il peut être détourné.
Des utilisateurs malveillants l’ont déjà employé pour créer des scènes fictives mettant en cause des célébrités. Dans le cas d’Avori, la vidéo a été partagée avant qu’OpenAI ne la supprime. Cela confirme que le système de détection avait failli.
OpenAI reconnaît une erreur
Un porte-parole d’OpenAI a confirmé que le contenu sexuellement explicite était strictement interdit sur Sora. L’entreprise reconnaît toutefois que la vidéo a “échappé à ses systèmes de modération”. Elle affirme renforcer ses mesures de sécurité pour éviter qu’un tel incident ne se reproduise. OpenAI promet aussi d’améliorer la détection automatique de tout deepfake impliquant des visages réels. L’entreprise rappelle que Sora empêche déjà, en principe, la création de contenu pornographique ou non consenti.

L’affaire Sora dépasse le simple scandale individuel. Elle symbolise la difficulté croissante à encadrer des outils capables de générer des vidéos réalistes. Pour Avori Strib, le danger vient moins de la technologie que de son usage incontrôlé. Elle demande à ses abonnés de ne pas relayer ce type de contenu et espère que son expérience servira d’exemple. Les deepfakes produits par Sora rappellent que la régulation de l’IA devient urgente, avant que le virtuel ne détruise la frontière du consentement.
- Partager l'article :
