Avec l’avènement de l’Intelligence Artificielle, l’utilisation de GPU dans un Data Center est en constante augmentation. Cette demande croissante est en train de changer la donne sur le marché des GPU pour Data Center, entraînant une hausse significative des prix.
Les GPU de data center sont conçus pour des tâches de calcul intensives. Les meilleures cartes graphiques pour l’IA sont capables d’entraîner des réseaux de neurones profonds, la reconnaissance d’images et le traitement du langage naturel. Cependant, l’essor des modèles de langage comme ChatGPT a augmenté la demande de ces puces. Ces dernières sont devenues essentielles pour les applications d’IA en entreprise.
El Capitan : 2,1 exaflops pour data centers avec 132 000 GPU
Le système El Capitan est doté de six GPU logiques dans chaque socket. Cela équivaut à environ 132 000 GPU et offre une puissance brute de 2,1 exaflops. En augmentant l’utilisation des GPU, la performance en FP64 pourrait être multipliée par 16,9. Bien que le coût soit 4,8 fois plus élevé que les systèmes classiques, l’objectif d’El Capitan est d’améliorer les performances. Cette amélioration consiste à augmenter de 10 fois la performance par rapport à Sierra. En effet, le superordinateur en question espère maintenir une limite de dissipation thermique de 40 MW.
En conséquence, le coût des moteurs de calcul pour un système El Capitan de 2,1 exaflops serait d’approximativement 25 mégawatts. Pour illustrer cela en exemple, supposons que 85% du coût total de la machine El Capitan est lié aux processus graphiques, et qu’il en existe 23 000. Ainsi, le coût par machine serait d’environ 23 200 dollars. Il est peu probable que les fournisseurs de service cloud puissent bénéficier des tarifs inférieurs à ceux des laboratoires nationaux américains. Ces derniers sponsorisent l’entrée d’AMD dans le domaine du HPC.
Supermicro is now listing a new Server with x8 Datacenter GPU Max 1550 in their website pic.twitter.com/w56Flwvua9
— Bionic_Squash (@SquashBionic) May 3, 2023
Data Center Cray EX : 17 280 GPU pour stockage optimal
Le Cray EX ne peut accueillir que 43 armoires pour ses 22 000 processeurs MI300A. Ces dispositifs sont installés par huit sur une seule lame. Cela limite la capacité de la machine et contredit la stratégie commerciale de Cray. En effet, cette dernière cherche à vendre des machines avec une capacité de 100 armoires, extensible jusqu’à 200 pour le stockage. Afin de répondre à cette stratégie, le Cray EX a été équipé de six éléments MI300A par carte fille. Il peut alors stocker environ 100 armoires.
Le système actuel, baptisé « Sierra », est équipé de 4 320 nœuds. Ainsi, chacun dispose de deux processeurs IBM Power9 et de quatre cartes graphiques « Volta » V100 de Nvidia, pour un total de 17 280 GPU. Ainsi, ces performances en FP64 des MI300A sont supérieures. Par contre, la configuration d’El Capitan ne permettrait d’augmenter que de 27% le nombre de sockets GPU par rapport à celle de Sierra.
L’importance des cartes graphiques pour les performances des centres de données
Le rôle crucial des cartes graphiques pour améliorer les performances des centres de données. Ces derniers bénéficient grandement des avantages des GPU performants. En premier lieu, elles accélèrent considérablement le traitement des données massives. Ainsi, elle peut entraîner une amélioration significative des performances de calcul. Les puces graphiques ont la capacité d’exécuter de multiples tâches en parallèle. Cela permet de traiter les données de manière efficace et simultanée.
En outre, les GPU performants sont également précieux pour les applications de visualisation de données et de modélisation. À titre d’exemple, elles peuvent faire la conception assistée par ordinateur et la simulation. De plus, les processeurs graphiques permettent de traiter les images et les graphiques haute définition en temps réel.
- Partager l'article :