Eh oui, NVIDIA a dominé le CES 2025 le 6 janvier. Ce n’est pas grâce à la fameuse RTX 5090 au prix équivalent à un week-end dans les îles (vol inclus). Non, ce qui a vraiment captivé l’attention, c’est les annonces en matière d’IA et de nouvelles technologies.
Bon, j’avoue : avec les annonces plutôt minimalistes d’Intel et la présentation trop chargée d’AMD – qui, au passage, a raté l’occasion de faire briller l’un de ses lancements les plus prometteurs – Nvidia a eu la voie libre pour briller.
Toutefois, le potentiel des technologies présentées est énorme pour l’avenir des jeux vidéo. Impossible de ne pas être fasciné.
La technologie qui a relégué la RTX 5090 au second plan
Parmi les innovations, Nvidia a présenté des outils pour développeurs, comme Neural Materials et Neural Texture Compression. Mais pour moi, le vrai bijou, ce sont les shaders neuronaux.
D’ailleurs, je parie que même sans la RTX 5090, cette seule annonce suffisait à placer Nvidia au sommet du CES cette année. Mais qu’est-ce que c’est exactement ?
Eh bien, Shaders neuronaux, ce n’est pas juste un terme tendance, même si avec l’invasion de l’IA ces deux dernières années, on pourrait facilement le croire.
Mais là on s’écarte du sujet alors revenons à la base. D’abord, un shader, c’est quoi ? En gros, ce sont de petits programmes qui tournent sur votre carte graphique. À l’époque, ils étaient très limités, ne servant qu’à des tâches bien précises.
Puis, au début des années 2000, Nvidia a révolutionné le domaine avec les shaders programmables, qui offraient des possibilités bien plus vastes. Et aujourd’hui, on passe à l’étape suivante : les shaders neuronaux.
Pour faire simple, ils permettent aux développeurs d’intégrer de petits réseaux neuronaux directement dans le code des shaders. Quand vous lancez un jeu, ces réseaux sont activés sur les cœurs Tensor de votre carte graphique, libérant ainsi une puissance de calcul énorme.
En voilà une technologie révolutionnaire
Nvidia a déjà dévoilé quelques applications concrètes pour les shaders neuronaux, comme les Neural Materials, la Neural Texture Compression et le Neural Radiance Cache.
Parlons d’abord de ce dernier, car c’est sans doute le plus impressionnant. Le Neural Radiance Cache utilise l’IA pour prédire à quoi ressembleraient un nombre infini de rebonds de lumière dans une scène.
Actuellement, le traçage de lumière en temps réel est limité. Cependant après un certain nombre de rebonds, le calcul devient beaucoup trop lourd pour être géré efficacement.Avec cette technologie, Nvidia promet un éclairage bien plus réaliste, avec des rebonds de lumière multipliés, tout en boostant les performances.
Comment ? Simple : l’IA ne calcule réellement que les un ou deux premiers rebonds, puis déduit le reste à l’aide d’un réseau neuronal. C’est un vrai gain de puissance et une avancée majeure pour le réalisme des jeux.
Neural Materials, de son côté, simplifie le code complexe utilisé habituellement pour le rendu hors ligne. Ce qui permet de créer des graphismes « qualité cinéma » en temps réel, selon Nvidia.
Neural Texture Compression, quant à lui, utilise l’IA pour compresser les textures de manière bien plus efficace. Une économie de mémoire sept fois supérieure à la méthode classique est garantie, et cela sans perdre en qualité visuelle.
Ce ne sont que trois exemples des nouvelles façons dont les réseaux neuronaux sont utilisés dans les jeux PC et je dois dire que l’impact est déjà significatif. Tant sur les performances que sur l’aspect visuel des jeux.
Et ce n’est surement que le début. Aujourd’hui, AMD, Intel et Nvidia équipent tous leurs GPU de technologies d’IA, et il est clair que les possibilités d’intégrer ces réseaux neuronaux dans les shaders ne font que commencer.
Vous êtes d’accord avec moi ? À vous la parole dans les commentaires !
- Partager l'article :