OpenAI balance la version 2 de son générateur vidéo et l’Internet n’en revient toujours pas. Plus rapide, plus précis et désormais capable de créer de vraies personnes ou d’imiter des univers de films, Sora 2 fait le show.
Alors oui, tout n’est pas parfait, mais avouons-le, Sora 2 donne envie de tester. Si vous n’êtes pas convaincu, laissez-moi vous montrer les vidéos qu’il a générées. Voici les 6 meilleures séquences.
La première vidéo
La première claque visuelle vient de simples parties d’échecs. Ou plutôt, de ce qui ressemble à des vidéos floues de gens qui tombent dans un monde en mouvement constant. Sora 2 réussit à capturer un chaos visuel crédible, plein de micro-mouvements et d’effets flous qu’on retrouve sur des caméras bon marché. La vidéo que voici est signée D_studioproject.
Sora 2 Fail Compilation
— DStudioproject (@D_studioproject) October 2, 2025
Prompt :
A series of raw, grainy CCTV clips stitched together like a fail compilation. Each feed has a timestamp flickering in the corner, wide fisheye distortion, and washed-out colors. In one scene, a man carrying a stack of boxes in a convenience… pic.twitter.com/v4Un9LtmLK
Comme vous pouvez le voir, les détails techniques sont fascinants. Les arrières-plans bougent, les objets se déforment légèrement et les ombres oscillent comme dans une vraie prise de vue. Oh et ai-je omis de mentionner que la fluidité est impressionnante.
Les vidéos IA de la première version de Sora ressemblaient souvent à des diaporamas animés, avec des personnages figés dans des poses étranges. Sora 2, lui, crée du mouvement réel, une dynamique proche du tournage.
Cela dit, on sent quand même toujours, la patte de l’IA. Ça se voit dans les détails. Genre, les montres qui ne donnent jamais la même heure, les chaises qui fondent dans le décor, et les mains qui font parfois des gestes impossibles.
Une vidéo très audacieuse de Halim Alrasihi
Halim Alrasihi a eu une idée que peu oseraient tester : transformer Sam Altman, le PDG d’OpenAI, en top model. Et le résultat est… étonnamment convaincant. Dans cette vidéo, Sora 2 génère une personne bien réelle, avec une tenue complète, une gestuelle crédible et un regard presque conscient.
Sora 2 is mind-blowing.
You can upload image references and have cameos interact with them.
It generates a fully edited video complete with music, sound and lip sync, all from just ONE prompt. pic.twitter.com/zIKaeGg5gq— Halim Alrasihi (@HalimAlrasihi) September 30, 2025
Ce qui rend cette expérience fascinante, c’est le mélange entre concept absurde et utilité potentielle. Le générateur ne se contente plus de créer des visages aléatoires. Il peut maintenant combiner une personne réelle et un vêtement pour visualiser à quoi ressemblerait une tenue sur elle. Une idée qui pourrait séduire le monde de la mode, du e-commerce ou des stylistes en herbe.
L’éthique, elle, s’invite évidemment dans le débat. Faire poser un PDG sans son accord, même virtuellement, reste un terrain glissant. Pourtant, sur un marché saturé de clones d’IA génératives, OpenAI a réussi à rallumer la discussion – et surtout, la curiosité.
Un Masterchef extraterrestre
Le créateur Skirano, quant à lui, a poussé Sora 2 dans ses retranchements avec un concept qu’on n’aurait jamais osé pitcher. Un concours culinaire intergalactique. Des chefs extraterrestres, des plats étranges et des dialogues absurdes… tout y est. Le résultat ? Voyez par vous-même dans la vidéo.
Chef critiques alien food on MasterChef, Sora 2 pic.twitter.com/zdAWk3tJyE
— Pietro Schirano (@skirano) September 30, 2025
La prouesse technique saute aux yeux : textures, sons, expressions, tout semble coordonné. Les voix, elles aussi, sont créées par IA. Et entendre un chef hurler « La mousse a le goût de l’acide de batterie ! » avec une intensité dramatique pendant qu’une larme coule lentement sur la joue de l’extraterrestre, c’est tout un art.
Ce genre de contenu montre à quel point Sora 2 a progressé. Là où la première version peinait à synchroniser les lèvres et les sons, la nouvelle génération reproduit la cohérence d’un sketch télévisé. On ne sait plus si on regarde une parodie de Masterchef ou le pilote d’une série de science-fiction.
Des publicités automobiles dignes d’une vraie agence
Une autre démonstration met en avant des pubs automobiles. La vidéo a été générée par AllarHaltsonen. On y voit une Lamborghini Urus qui s’affiche sous un ciel orageux, accompagnée d’une narration façon spot TV, avec une collaboration fictive avec Nike.
Sora 2 + Reference image + prompts.
I uploaded my car images then added a base prompt that’s something like this:
“use this car as a reference and make a cinematic automotive ad for this”
or even simpler like “make automotive ad for this car” and then add some extra details… pic.twitter.com/A9tjILXtmT— Allar Haltsonen (@AllarHaltsonen) October 2, 2025
Cette fois, le réalisme est total. La voiture roule, freine et dérape selon des lois physiques crédibles. Les reflets bougent avec la lumière et les ombres respectent les volumes. On se surprend même à oublier que tout est généré par IA. Ce genre de rendu semblait impossible il y a encore quelques mois.
La voix off n’a rien à envier aux vraies publicités. Rythmée, claire, calibrée, elle reprend les codes du marketing automobile : puissance, élégance, performance. Le tout avec un soupçon d’ironie qui rend la vidéo encore plus savoureuse.
Des chiens parachutistes signés Sora 2
Encore une création signée Skirano, mais dans un tout autre registre : un saut en parachute… avec un chien. Oui, un vrai bon gros toutou lancé depuis un avion, oreilles au vent, parachute au dos. Et contre toute attente, tout est cohérent. Ci-dessus la vidéo.
Dog parachuting, GoPro footage, Sora 2 pic.twitter.com/c8kiEX6i4N
— Pietro Schirano (@skirano) October 1, 2025
Dans la première version de Sora, ce genre de demande donnait des résultats cauchemardesques. Visages déformés, membres qui se détachaient et parachutes fantômes. Et pourtant, cette fois, tout fonctionne. Le mouvement est fluide, les textures sont stables et même le vent dans les poils du chien semble réel.
La synchronisation avec la narration est étonnante. L’homme décrit le saut pendant qu’on voit le parachute s’ouvrir pile au bon moment. Pas de glitch, pas de coupure brutale : la scène se déroule comme dans une vraie vidéo d’aventure.
Le son, lui, reste simple – et c’est tant mieux. Nul besoin d’ajouter du chaos audio quand le visuel se suffit à lui-même.
Des extraits façon blockbuster hollywoodien
Enfin, le clou du spectacle. BrentLynch a utilisé Sora 2 pour générer une scène d’action à la Mad Max. Explosion, poursuites, personnages poussiéreux et décors post-apocalyptiques, tout y est. Le niveau de détail dépasse tout ce qu’on avait vu jusque-là.
SORA 2 CAN BE PRETTY AWESOME!
— Brent Lynch (@BrentLynch) October 1, 2025
The camera shadows a weathered survivor's piercing eyes in the midst of a sandstorm-swept ambush on rusted highways. Her skin is scarred by radiation and wrapped in scavenged hazmat rags, her gray eyes sharp with wary resolve. She layers patched… pic.twitter.com/DaUdoYP7TG
Les visages bougent naturellement, les cheveux volent au vent et les reflets sur les carrosseries suivent les mouvements. Même les arrière-plans, souvent problématiques dans les IA vidéo, restent cohérents. On sent une vraie maîtrise de la lumière et de la perspective.
Certes, quelques anomalies persistent. Par exemple, des autocollants qui changent tout seuls, des textures qui se réajustent à la volée.
- Partager l'article :