chatgpt itw sora 2

[ITW] Félix Balmonet (Chat3D) : « Avec Sora 2, nous ne sommes pas capables de distinguer le vrai du faux »

Alors qu’OpenAI déploie progressivement Sora 2, sa technologie de génération vidéo ultra-réaliste, les enjeux juridiques, éthiques et géopolitiques s’intensifient. Nous avons échangé avec Félix Balmonet, CEO de Chat3D, qui a pu tester l’outil aux États-Unis. Il revient sur les zones grises du droit à l’image, le risque de manipulation et la centralisation du pouvoir créatif entre quelques géants technologiques.

Lancée par OpenAI, Sora 2 repousse les limites de la génération vidéo par IA, au point de rendre la frontière entre réel et synthétique presque imperceptible. Cette technologie, encore en phase de test aux États-Unis, soulève déjà d’importantes questions juridiques et éthiques en Europe.

Pour décrypter ces enjeux, nous avons rencontré Félix Balmonet, CEO de Chat3D, une startup spécialisée dans l’IA générative appliquée à la 3D et à la vidéo immersive. Son équipe a pu tester Sora 2 en avant-première et partage avec nous ses observations et ses inquiétudes.

felix balmonet sora 2 itw

Peut-on utiliser l’apparence ou la voix d’une personne sans son consentement dans une vidéo générée par IA ?

Avec Sora 2, il est techniquement possible de générer des vidéos utilisant l’apparence et la voix de soi-même ou d’une personne qui nous y autorise (cas prévu dans l’application disponible uniquement aux États-Unis que nous avons pu tester).

Cependant, d’un point de vue légal, c’est une zone grise. En France, l’image d’une personne est protégée par le droit à l’image : on ne peut pas l’utiliser sans autorisation, sauf dans certains cas (journalisme, information publique, etc.).

Mais ici, il ne s’agit pas seulement d’une photo ou d’une vidéo classique : on parle de données biométriques (forme du visage, mensurations, etc.), considérées comme sensibles par la CNIL. Cela pourrait empêcher qu’un tel logiciel soit distribué tel quel en France.

Le vrai problème, c’est que des acteurs comme OpenAI permettent déjà de créer des avatars imitant d’autres personnes — et que les garde-fous liés au consentement peuvent être contournés.

En résumé :

  • ✅ Utiliser sa propre image via un avatar IA est légal mais très encadré.
  • ❌ Utiliser l’image d’autrui sans consentement viole la loi française, notamment sur les données biométriques.
YouTube video

Comment garantir que les vidéos créées avec Sora 2 ne serviront pas à manipuler l’opinion ou diffuser de fausses informations ?

C’est l’un des grands défis actuels. Des outils comme Sora 2 peuvent être utilisés pour influencer l’opinion publique de manière très subtile et difficile à détecter, notamment via des deepfakes ou des avatars IA convaincants.

Pour limiter les dérives, plusieurs leviers sont nécessaires :

  • Traçabilité : le standard C2PA (Content Credentials) permet de marquer les contenus pour indiquer leur origine et signaler qu’ils sont générés. Ce “certificat” pourrait devenir un outil clé contre la désinformation, mais il n’est pas encore massivement adopté.
  • Régulation : les plateformes doivent mettre en place des règles claires, notamment sur la diffusion de contenus politiques ou sensibles, et empêcher techniquement le contournement de ces règles.
  • Éthique des créateurs : les utilisateurs doivent respecter des codes stricts, surtout lorsqu’ils manipulent l’image de personnes publiques ou privées. Le consentement explicite doit inclure les usages prévus des vidéos générées.
YouTube video

L’accès à des outils aussi puissants doit-il être encadré par des règles internationales ?

Oui, sans aucun doute. Aujourd’hui, chaque pays a sa propre approche :

  • L’Europe mise sur la protection des données personnelles (RGPD, AI Act).
  • Les États-Unis privilégient une approche orientée “marché” et monétisation de la ressemblance.

Cette absence de régulation mondiale crée des zones de non-droit, que certains exploitent pour utiliser ces technologies de manière abusive (deepfakes, manipulation, etc.).

Une régulation internationale devrait inclure :

  • des normes sur la provenance des contenus,
  • des restrictions d’usage commercial,
  • et des protocoles clairs pour révoquer un consentement.

Pour l’instant, chaque puissance technologique (USA, Chine, UE…) avance en ordre dispersé, ce qui complique la mise en place de garde-fous communs.

Peut-on encore distinguer ce qui est réel de ce qui est généré ? Et que perd-on collectivement si cette frontière s’efface ?

Très honnêtement, nous n’étions pas capables de dire si les vidéos étaient générées ou non. Certaines rumeurs évoquent même que certaines vidéos promotionnelles d’OpenAI seraient… réelles.

De nombreux spécialistes ont partagé le même ressenti : incapacité totale à identifier un fake après un premier visionnage.

Le risque est majeur : la disparition de cette frontière pourrait entraîner une méfiance généralisée vis-à-vis de tous les contenus en ligne. Les conséquences seraient profondes :

  • Manipulation politique et sociale.
  • Perte de crédibilité des médias et journalistes.
  • Confusion entre authenticité et fabrication.

Les labels de provenance comme C2PA et une meilleure transparence pourraient aider, mais l’éducation des utilisateurs, notamment des plus de 50 ans, est aussi essentielle pour reconnaître les dangers de ces nouveaux formats.

YouTube video

Les modèles comme Sora 2 renforcent-ils la centralisation du pouvoir créatif entre les mains de quelques acteurs technologiques ?

Oui. Ces outils renforcent clairement la centralisation du pouvoir créatif au profit de géants comme OpenAI, Google ou Microsoft, mais aussi des BATX chinois.

Ces modèles puissants et coûteux sont principalement contrôlés par des entreprises qui dominent désormais non seulement la diffusion, mais aussi la création de contenu numérique. Cela crée une inégalité d’accès pour les indépendants et les petites structures.

Certes, l’open source a permis aux LLM comme ChatGPT d’avoir des équivalents publics performants (ex. Mistral, DeepSeek), mais la vidéo est un domaine beaucoup plus coûteux à entraîner : il faut des millions de dollars et des infrastructures massives.

Un contre-poids pourrait venir de la Chine, qui a déjà surpris le monde avec DeepSeek, un modèle open source performant. Si cette stratégie est poursuivie, elle pourrait freiner la concentration du pouvoir vidéo dans les mains d’un petit nombre d’acteurs américains.

📝 Propos recueillis par LeBigData.fr

Félix Balmonet est CEO de Chat3D, une startup spécialisée dans les technologies immersives et l’IA générative appliquée à la 3D et à la vidéo.

YouTube video

Restez à la pointe de l'information avec LEBIGDATA.FR !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥