Avec Rubin, sa nouvelle architecture dédiée à l’intelligence artificielle, NVIDIA promet un bond de performances spectaculaire et une efficacité énergétique inédite. Une annonce stratégique qui confirme l’avance de l’entreprise dans la course mondiale à l’IA.
NVIDIA n’a pas attendu longtemps pour rappeler qui mène la danse dans l’univers de l’IA. Lors du CES, Jensen Huang est monté sur scène et a annoncé que la nouvelle architecture de calcul Rubin est officiellement lancée. Décrite comme la nouvelle référence du matériel d’IA, elle entre déjà en production et promet de changer d’échelle.
Pensée pour répondre à l’explosion des besoins en calcul, Rubin succède à Blackwell, elle-même héritière de Hopper et Lovelace. Un rythme effréné, mais assumé par NVIDIA, devenu au fil des années l’acteur incontournable de l’infrastructure IA mondiale.
NVIDIA Rubin prêt pour l’IA de demain
Cette nouvelle architecture de NVIDIA est baptisée en hommage à l’astronome Vera Florence Cooper Rubin. Elle repose sur six puces distinctes, conçues pour fonctionner ensemble.
Au centre, on retrouve le GPU Rubin, épaulé par un nouveau CPU baptisé Vera, dédié au raisonnement autonome. NVIDIA s’attaque aussi à deux points critiques souvent négligés. Notamment, le stockage et la communication entre puces. Ainsi, les technologies BlueField et NVLink évoluent pour mieux absorber les flux massifs de données générés par les modèles modernes.
Un autre changement clé concerne la mémoire. Avec l’essor de l’IA agentielle et des tâches longues, les systèmes actuels saturent rapidement leur mémoire cache. NVIDIA introduit donc un nouveau niveau de stockage externe au calcul, capable de s’étendre beaucoup plus facilement. C’est pour éviter les goulots d’étranglement qui freinent les modèles les plus ambitieux.
Vera Rubin is in full production.
— NVIDIA (@nvidia) January 6, 2026
We just kicked off the next generation of AI infrastructure with the NVIDIA Rubin platform, bringing together six new chips to deliver one AI supercomputer built for AI at scale.
Here are the top 5 things to know 🧵 pic.twitter.com/TiQKUK4eY3
Selon NVIDIA, Rubin serait 3,5 fois plus rapide que Blackwell pour l’entraînement des modèles et 5 fois plus rapide pour l’inférence, avec des performances pouvant atteindre 50 pétaflops. Côté efficacité énergétique, l’inférence offrirait jusqu’à 8 fois plus de puissance par watt.
Sans surprise, les géants du cloud sont déjà au rendez-vous. Anthropic, OpenAI et Amazon Web Services prévoient d’utiliser ces puces. Tout comme plusieurs supercalculateurs majeurs, dont Blue Lion de HPE et le futur Doudna du laboratoire Lawrence Berkeley.
Par ailleurs, cette annonce intervient dans un contexte de concurrence féroce. Les infrastructures d’IA sont devenues un enjeu stratégique mondial. Et Jensen Huang estime que 3 000 à 4 000 milliards de dollars seront investis dans ce domaine au cours des cinq prochaines années.
- Partager l'article :