illustration de la compression neuronale et du TSNC d'Intel

Intel TSNC : l’incroyable IA qui va réduire le poids de vos jeux vidéo par 18

Intel vous présente TSNC, pour Texture Set Neural Compression. C’est une technologie de compression neuronale permettant de réduire la taille des textures jusqu’à 18 fois. 

Le problème est bien connu. Plus les jeux cherchent à imiter la réalité, plus ils empilent des textures détaillées. Chaque reflet, chaque ombre, chaque surface rugueuse demande sa propre couche d’informations. 

Résultat, les fichiers s’accumulent et les jeux deviennent gigantesques. Ce qui pèse lourd sur le stockage, mais aussi sur la mémoire vidéo, la fameuse VRAM. 

Et quand celle-ci sature, les performances chutent brutalement et cassent toute l’immersion. Face à ce problème, augmenter la puissance brute ne suffit plus. D’où TSNC.

Cet outil s’attaque directement au cœur du problème. Plutôt que d’imposer un format totalement inédit, qui forcerait les studios à revoir toutes leurs méthodes, Intel mise sur une approche plus souple. 

Sa solution d’IA vient se greffer naturellement sur la compression par blocs classique, notamment le format BC1 déjà largement adopté dans l’industrie.

Bien entendu, pendant ce temps, la concurrence ne reste pas les bras croisés non plus. Nvidia travaille déjà sur sa propre technologie de compression neuronale, baptisée NTC. Même Sony serait dans la course avec des projets similaires pour une future PS6. 

YouTube video

Intel TSNC, comment ça marche ?

Au lieu de compresser chaque texture individuellement, le TSNC adopte une stratégie plus globale. Il entraîne un réseau de neurones sur un ensemble de textures similaires, qu’il regroupe ensuite dans un espace commun. 

Ces données sont organisées selon plusieurs niveaux de compression traditionnels. Elles seront ensuite reconstruites par un autre réseau neuronal, un MLP à trois couches, chargé de redonner forme à l’ensemble.

Ce système offre une grande souplesse d’utilisation. Les développeurs peuvent choisir à quel moment effectuer la décompression selon leurs besoins. Cela peut se faire pendant l’installation du jeu, lors des temps de chargement ou même en pleine session. 

L’objectif varie selon les priorités. Réduire le poids du téléchargement, limiter l’usage de la bande passante ou alléger la consommation de mémoire vidéo.

Pour s’adapter à tous les scénarios, Intel a découpé son outil en deux profils bien distincts, chacun avec sa propre philosophie.

La Variante A mise sur l’équilibre. Elle propose une compression impressionnante, capable de réduire la taille des textures jusqu’à neuf fois. Là où les méthodes classiques peinent à dépasser les 4,8x. 

Et le plus impressionnant, c’est que la qualité visuelle reste presque intacte. La perte perçue tourne autour de 5 %, un écart à peine visible, mesuré avec l’outil FLIP de Nvidia.

La Variante B, elle, ne fait pas dans la demi-mesure. Ici, l’objectif est de compresser au maximum. L’intelligence artificielle pousse les curseurs pour atteindre un ratio spectaculaire de 18x. Évidemment, cela a un petit prix. 

La dégradation visuelle grimpe légèrement, entre 6 et 7 %, avec l’apparition de quelques artefacts discrets. Rien de bien dramatique toutefois. Surtout pour les joueurs qui cherchent avant tout de la fluidité sur des machines moins puissantes.

Cette petite magie d’Intel à base d’IA va-t-elle ralentir votre machine ?

YouTube video

Intel a sérieusement étudié la question. Ses tests, réalisés sur l’architecture Panther Lake équipée d’un GPU intégré Arc B390, montrent des résultats plutôt impressionnants. 

En s’appuyant sur les cœurs XMX, spécialement conçus pour l’intelligence artificielle, la technologie parvient à générer un premier pixel en seulement 0,194 nanoseconde. À ce niveau de rapidité, parler de latence devient presque inutile, tant le délai est invisible pour l’œil humain.

Et bonne nouvelle pour ceux qui ne disposent pas du dernier matériel flambant neuf. Intel n’a pas oublié les configurations plus anciennes ou les utilisateurs de GPU concurrents. 

Une solution alternative, basée sur des instructions plus classiques, permet de faire tourner le système sur un large éventail de machines. Certes, cette méthode est environ 3,4 fois plus lente, avec 0,661 nanoseconde par pixel. Mais elle reste suffisamment rapide pour garantir une expérience fluide.

Restez à la pointe de l'information avec LEBIGDATA.FR !

▶ Abonnez-vous à notre chaîne YouTube et Ajoutez-nous à vos favoris sur Google Actualités
Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥