Jensen hUANG avec ses puces

10x plus puissante ? NVIDIA pulvérise tous les records avec sa nouvelle architecture Rubin

Avec Rubin, sa nouvelle architecture dédiée à l’intelligence artificielle, NVIDIA promet un bond de performances spectaculaire et une efficacité énergétique inédite. Une annonce stratégique qui confirme l’avance de l’entreprise dans la course mondiale à l’IA.

NVIDIA n’a pas attendu longtemps pour rappeler qui mène la danse dans l’univers de l’IA. Lors du CES, Jensen Huang est monté sur scène et a annoncé que la nouvelle architecture de calcul Rubin est officiellement lancée. Décrite comme la nouvelle référence du matériel d’IA, elle entre déjà en production et promet de changer d’échelle.

Pensée pour répondre à l’explosion des besoins en calcul, Rubin succède à Blackwell, elle-même héritière de Hopper et Lovelace. Un rythme effréné, mais assumé par NVIDIA, devenu au fil des années l’acteur incontournable de l’infrastructure IA mondiale.

NVIDIA Rubin prêt pour l’IA de demain

Cette nouvelle architecture de NVIDIA est baptisée en hommage à l’astronome Vera Florence Cooper Rubin. Elle repose sur six puces distinctes, conçues pour fonctionner ensemble.

Au centre, on retrouve le GPU Rubin, épaulé par un nouveau CPU baptisé Vera, dédié au raisonnement autonome. NVIDIA s’attaque aussi à deux points critiques souvent négligés. Notamment, le stockage et la communication entre puces. Ainsi, les technologies BlueField et NVLink évoluent pour mieux absorber les flux massifs de données générés par les modèles modernes.

Un autre changement clé concerne la mémoire. Avec l’essor de l’IA agentielle et des tâches longues, les systèmes actuels saturent rapidement leur mémoire cache. NVIDIA introduit donc un nouveau niveau de stockage externe au calcul, capable de s’étendre beaucoup plus facilement. C’est pour éviter les goulots d’étranglement qui freinent les modèles les plus ambitieux.

Selon NVIDIA, Rubin serait 3,5 fois plus rapide que Blackwell pour l’entraînement des modèles et 5 fois plus rapide pour l’inférence, avec des performances pouvant atteindre 50 pétaflops. Côté efficacité énergétique, l’inférence offrirait jusqu’à 8 fois plus de puissance par watt.

Sans surprise, les géants du cloud sont déjà au rendez-vous. Anthropic, OpenAI et Amazon Web Services prévoient d’utiliser ces puces. Tout comme plusieurs supercalculateurs majeurs, dont Blue Lion de HPE et le futur Doudna du laboratoire Lawrence Berkeley.

Par ailleurs, cette annonce intervient dans un contexte de concurrence féroce. Les infrastructures d’IA sont devenues un enjeu stratégique mondial. Et Jensen Huang estime que 3 000 à 4 000 milliards de dollars seront investis dans ce domaine au cours des cinq prochaines années.

Restez à la pointe de l'information avec LEBIGDATA.FR !

▶ Abonnez-vous à notre chaîne YouTube et Ajoutez-nous à vos favoris sur Google Actualités
Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥