Et si un serveur IA consommait trois fois moins d’énergie qu’un DGX H200 de NVIDIA ? C’est la promesse de Positron AI Atlas, qui revendique une efficacité énergétique 4,5× supérieure par watt. Au coeur d’un marché dominé par les GPU propriétaires, cette annonce bouscule les équilibres établis. Alors que la demande en calcul IA explose, je vous propose d’examiner, ce nouvel acteur qui défie les standards du secteur.
Avant de découvrir de Positron AI Atlas et de ses superpuces, pensez à vous abonner à notre chaîne YouTube pour les meilleurs contenus IA.
Qu’est-ce que Positron AI Atlas?
Le serveur Positron AI Atlas se définit comme un système d’intelligence artificielle hautement optimisé. Il est spécifiquement conçu pour l’inférence et les charges de travail de type transformer workloads. Ce système spécialisé s’écarte de l’approche généraliste des unités de traitement graphique (GPU). Il cherche à offrir une efficacité maximale pour les grands modèles de langage (LLM).
Le cœur du système est structuré autour de 08 AI accelerator propriétaires, nommés Archer. Chaque accélérateur intègre une quantité substantielle de mémoire HBM memory. Le serveur Atlas offre une capacité de mémoire agrégée totale de 256 Go de HBM et 384 Go de DDR5. Cette architecture ciblée vise à résoudre les goulots d’étranglement de bande passante souvent rencontrés dans les architectures IA traditionnelles.
Comment est né l’idé de Positron AI Atlas ?
Positron AI Atlas est né en 2022, au moment où la demande en calcul intensif atteignait un seuil critique. L’entreprise a choisi de défier directement les puces NVIDIA Hopper et DGX H200, références lancées respectivement en mars 2022 et mai 2023. L’objectif stratégique consiste à proposer une infrastructure d’intelligence artificielle capable de réduire les coûts d’acquisition et surtout la consommation énergétique. Le marché de l’inférence en temps réel connaît une croissance rapide. Ainsi, la demande impose une efficacité énergétique maximale pour accroître la densité dans les centres de données.
L’entreprise a officialisé son projet Atlas en janvier 2023. Elle mise sur une meilleure efficacité économique pour séduire les fournisseurs de services numériques et les grandes sociétés confrontées à l’inflation des dépenses liées à l’IA. Pourtant, les processeurs graphiques haut de gamme restent rares et coûteux. Cette architecture spécialisée offre donc une réponse directe aux besoins pressants du marché. En effet, Positron a conçu et expédié sa première génération Atlas en avril 2024, soit en 15 mois seulement après l’annonce initiale. Cette rapidité d’exécution constitue un avantage concurrentiel majeur face aux longs cycles de développement de l’industrie du silicium. Elle interfère même le marché du semi-conducteur.
Les fondations technologiques d’Atlas
Les accélérateurs Archer
L’accélérateur Archer repose sur une architecture propriétaire dédiée à l’exécution de modèles IA génératifs. La phase initiale de développement rapide a utilisé les circuit intégré programmable (FPGAs). Ainsi, Positron s’est appuyé sur l’Altera Agilex 7M afin de valider rapidement l’architecture. Chaque puce Archer incorpore 32 Go de mémoire HBM2e. Cette mémoire est allouée au stockage des poids des modèles massifs, essentiels pour l’inférence.
L’architecture est optimisée pour atteindre une utilisation de bande passante de plus de 93 %. Ce taux dépasse largement les rendements typiques des systèmes à base de GPU. Ceux‑ci stagnent souvent entre 10 % et 30 %.
Mémoire et Stockage
Le système Atlas utilise une hiérarchie mémoire sophistiquée qui contraste avec les architectures GPU généralistes. La mémoire HBM est dédiée aux poids pou garantir un accès ultra‑rapide aux paramètres des modèles. En parallèle, la DDR5 stocke le contexte utilisateur et le KV cache. Cette segmentation améliore l’efficacité du flux de données lors de l’exécution des transformer workloads.
Le serveur supporte jusqu’à 2 To de mémoire DDR5. Cette capacité offre une flexibilité importante pour la gestion de multiples modèles ou de contextes étendus. L’infrastructure physique intègre également des disques SSD NVMe pour la rapidité. De plus, elle comprend des baies hot‑swap destinées à la maintenance des données.
Consommation Énergétique
La consommation totale du système Atlas atteint 2000 W. Ce chiffre constitue un pilier de la stratégie de l’entreprise. Cependant, le système de référence DGX H200 affiche une consommation de 5900 W. L’écart de 3900 W par serveur autorise une densité de calcul bien plus élevée dans les racks existants. Pour cause, le serveur intègre des unités d’alimentation redondantes de niveau Titanium. Elles assurent une efficacité de 96 % lors de la conversion électrique.
Benchmarks et Validation
Positron a soumis son système à des tests objectifs basés sur l’inférence du modèle de langage Llama 3.1 8B avec calcul BF16. Le système Atlas délivre une performance de 280 tokens/sec/user. Cette performance dépasse celle du DGX H200, limité à 182 tokens/sec/user dans le même scénario d’exécution. Ainsi, le rapport d’efficacité clé, la performance par watt, atteint un facteur impressionnant de 4,54×. Ce résultat confirme l’affirmation de l’entreprise concernant l’efficacité énergétique de son architecture spécialisée.
Les offres et configurations de Positron AI Atlas
Positron AI Atlas se décline en plusieurs configurations adaptées aux besoins et aux budgets, allant des PME aux data centers de grande envergure.
Pack Atlas Standard
La configuration Standard cible les petites et moyennes entreprises ainsi que les laboratoires de recherche. Elle fournit la puissance de calcul nécessaire pour initier rapidement des projets d’inférence de modèles de langage. Ainsi, l’offre Standard vise à démocratiser l’accès à une infrastructure d’IA avancée. L’avantage principal réside dans un coût initial réduit.
Cette configuration se situe alors dans une fourchette estimée entre 80 000 € et 100 000 €. Cela rend la technologie accessible à des entités ne disposant pas de budgets comparables à ceux des géants du cloud.
La formule Atlas Enterprise
La version Enterprise s’adresse aux data centers de grande envergure. Elle inclut des fonctionnalités avancées de gestion de réseau et une redondance accrue. L’objectif consiste à garantir un fonctionnement continu et une fiabilité maximale.
Cependant, cette offre met aussi l’accent sur la scalabilité et la facilité d’intégration au cloud. Elle devient essentielle pour les fournisseurs de services gérés d’IA. De ce fait, elle supporte des racks de production à grande échelle. Le prix estimé se situe entre 120 000 € et 150 000 €, ce qui reste compétitif face aux solutions concurrentes.
L’offre personnalisée Atlas Custom
L’offre Custom propose des configurations hautement modulaires. Les clients ajustent précisément les ressources du système. Cela inclut la mémoire, le stockage et la bande passante selon leurs besoins spécifiques.
Ainsi, ces configurations conviennent à des cas d’usage spécialisés et exigeants. On peut citer le traitement des données dans la fintech. On peut aussi mentionner les besoins intenses en calcul de la recherche scientifique. Le prix varie fortement selon les options choisies. Il oscille généralement entre 100 000 € et 200 000 €.
Le sur-mésure Atlas vs DGX
La confrontation avec le DGX H200 établit Atlas comme un leader en efficacité opérationnelle. Le système Positron fonctionne avec seulement un tiers de la puissance électrique requise par le DGX H200. Les gains d’efficacité sont mesurés de manière précise.
Par ailleurs, le système affiche un facteur de 4,54× en performance par watt. Il atteint aussi 3,08× en performance par dollar. Ces ratios redéfinissent l’économie du calcul IA. Ils déplacent l’avantage financier vers les dépenses opérationnelles. Le DGX H200 est proposé entre 300 000 € et 400 000 €. Ainsi, l’Atlas se positionne comme une alternative environ trois fois plus avantageuse en coût‑performance.
La stratégie de Positron face aux géants du GPU
La stratégie de Positron illustre une volonté claire : défier la domination des géants établis grâce à l’efficacité énergétique et l’agilité technologique.
Concurrence NVIDIA/AMD
NVDIA corporation maintient une domination quasi totale sur les accélérateurs IA, principalement grâce à son écosystème logiciel CUDA. Le marché souffre d’une dépendance structurelle vis‑à‑vis des chaînes d’approvisionnement des acteurs établis. Cependant, les startups comme Positron capitalisent sur deux faiblesses majeures. Il s’agit des coûts prohibitifs des puces haut de gamme. Il s’agit aussi des goulots d’étranglement liés à l’approvisionnement.
Positionnement Différencié
Positron se concentre exclusivement sur le marché de l’inférence et évite la compétition directe sur l’entraînement des IA, très gourmand en silicium. L’efficacité énergétique devient l’argument clé. Elle transforme le coût de l’électricité en un avantage concurrentiel décisif pour l’inférence. Le Positron Inference Engine assure une compatibilité logicielle essentielle. En effet, il accepte les modèles de la librairie HuggingFace et les API OpenAI. Cette compatibilité neutralise partiellement la barrière d’entrée du software moat de NVIDIA.
Marchés Cibles
L’entreprise vise principalement les cloud providers et les grandes sociétés consommatrices d’inférence massive. Un marché clé concerne la souveraineté numérique, notamment en Europe, où l’indépendance technologique devient un impératif politique. Ainsi, les systèmes Atlas offrent aux gouvernements et aux entreprises locales une alternative crédible. Ces systèmes restent technologiquement indépendants des infrastructures des hyperscalers américains.
Partenariats et Avenir
Positron a déjà déployé ses premiers racks de production chez une plateforme Cloud majeure. Cependant, des collaborations futures avec des hyperscalers régionaux pourraient renforcer leur présence sur le marché de l’infrastructure souveraine. La feuille de route de l’entreprise reste ambitieuse. Elle inclut le système Titan 2026, suggérant une transition vers des custom chips encore plus optimisés pour l’IA générative. Enfin, cette progression rapide démontre une capacité d’agilité face à l’inertie des géants.
Articles du même auteur :
AI-powered, voici la démystification du concept
Qu’est-il arrivé à Tesla Dojo, le supercalculateur d’IA
Meta Dino v3, un modèle de vision self-supervised de
- Partager l'article :

