MatX lève 500 M$ auprès de Jane Street pour bousculer le marché des puces IA

La start-up MatX vient de boucler un tour de table de série B à 500 millions de dollars. Le financement a été mené par Jane Street et Situational Awareness, un fonds fondé par l’ancien Leopold Aschenbrenner. 

L’objectif de cette levée est de développer des processeurs d’IA. Des modèles spécifiquement conçus pour entraîner les grands modèles de langage plus vite et plus efficacement que les GPU classiques.

Petit mis au point sur MatX

YouTube video

MatX est une entreprise spécialisée dans la conception de puces d’intelligence artificielle sur mesure. Elle a été fondée en 2023 par son actuel PDG, Reiner Pope, ancien responsable des logiciels d’IA pour les TPU chez Google. Ce, avec Mike Gunter, impliqué dans la conception matérielle de ces unités, comme cofondateur.

MatX s’inscrit dans une tendance plus large où le matériel devient aussi stratégique que les modèles eux-mêmes. Cependant, il se distingue par sa promesse audacieuse. Celle proposer des puces jusqu’à dix fois plus performantes pour l’entraînement et l’inférence des modèles de langage que le matériel le plus avancé aujourd’hui. 

D’ailleurs, les fonds levés permettront de produire les puces via TSMC, avec un lancement commercial prévu pour 2027. Sa stratégie ? 

Plutôt que de s’appuyer sur des composants génériques, l’entreprise conçoit des puces optimisées pour le calcul matriciel, les traitements parallèles et l’entraînement de modèles à contexte long. Elle adapte ainsi l’architecture, la gestion de la mémoire et les transferts de données aux besoins spécifiques de l’intelligence artificielle.

Coïncidence ou cette levée de MatX tombe à pic ?

La question mérite d’être posée car ce tour table coïncide avec la transformation majeure du marché des puces pour l’IA. Voyez-vous, depuis peu, on observe un basculement important.

Les GPU génériques, longtemps rois pour entraîner et exécuter des modèles, commencent à être challengés. D’après TrendForce, la croissance des puces ASIC développées en interne par les fournisseurs de services cloud devrait même bondir de 44,6 % cette. 

Inutile de pointer du doigt l’écart avec celle des GPU, dont la progression est limitée à 16,1 % toujours selon TrendForce. On peut donc croire que MatX ne compte pas rester les bras croisés.

En plus, certes, les GPU dominés par Nvidia continuent à être utilisés partout. Toutefois, leurs limites en termes de consommation électrique et de coût deviennent de plus en plus évidentes à mesure que les modèles d’IA grossissent. Ce qui représente une opportunité en or de proposer une solution alternative.

YouTube video

Voilà où tout se concrétise. MatX qui conçoit des puces optimisées pour les mathématiques de réseau neuronal au lieu d’utiliser des GPU polyvalents. 

D’ailleurs, cette stratégie n’est pas isolée. D’autres startups comme SambaNova ont aussi levé des centaines de millions pour des architectures alternatives aux GPU rapporte Reuters

Les grands acteurs cloud ou hyperscaleurs, eux, développent leurs propres circuits internes ou passent des contrats pour obtenir des architectures plus performantes et économiques.

Qu’est-ce que ce financement change ?

Eh bien, cette levée ouvre des perspectives concrètes dans la conception de puces pour l’IA. Plutôt que de dépendre de composants standards, l’entreprise crée des circuits spécialement optimisés pour le calcul matriciel et les traitements parallèles. 

Cela signifie que les modèles d’IA volumineux, notamment ceux avec un contexte long, pourront s’entraîner plus rapidement. Et ce, avec moins de contraintes techniques. 

L’efficacité des transferts de données entre mémoire et processeurs est aussi améliorée. Ce qui réduit les goulets d’étranglement qui ralentissent habituellement les calculs intensifs.

Concrètement, ces puces dédiées permettent aux fournisseurs de services cloud de gérer des charges plus importantes à moindre coût énergétique. Pour les startups et les laboratoires de recherche, l’accès à du matériel sur-mesure change la donne.

Elles pourront tester des modèles plus ambitieux sans devoir multiplier les serveurs génériques qui jusqu’ici, représentait un obstacle économique et logistique. Les architectures ajustées aux besoins spécifiques de l’IA facilitent aussi l’exploration de nouveaux types de modèles. Comme ceux traitant simultanément du texte, des images et des séquences temporelles complexes.

En pratique, on peut s’attendre à une baisse des temps d’entraînement et à une hausse de la densité de calcul par puce. Cela accélérera la recherche, la mise en production de systèmes d’IA sophistiqués et la capacité des entreprises à déployer des modèles personnalisés pour des applications concrètes.

YouTube video

Ce qui pourrait tenir tête à MatX.

L’initiative de MatX derrière cette levée comporte plusieurs points qui pourraient créer des difficultés. La complexité des puces sur-mesure entraîne des coûts de conception élevés et des délais plus longs

Une erreur dans l’architecture ou la gestion de la mémoire pourrait réduire fortement l’efficacité du matériel. Ce qui affecterait la rentabilité et la compétitivité. 

Les fournisseurs de services cloud devront adapter leur infrastructure pour intégrer ces puces spécifiques. Or, cela demande des investissements supplémentaires et une expertise technique pointue.

L’adoption par le marché pourrait aussi se heurter à des standards déjà établis. Les entreprises habituées aux GPU généralistes pourraient hésiter à changer leurs systèmes.

Surtout si les nouvelles puces exigent des modifications logicielles importantes. Les développeurs doivent alors réécrire ou optimiser leurs modèles pour tirer pleinement parti de ces circuits. Les logiciels d’IA existants pourraient ne pas être compatibles immédiatement, créant des frictions dans l’utilisation quotidienne.

Enfin, la dépendance à des puces très spécialisées peut rendre les acteurs vulnérables à des problèmes de production ou d’approvisionnement. Toute interruption dans la fabrication ou retard de livraison pourrait ralentir les projets d’IA qui dépendent de ces composants. 

L’innovation matérielle s’accompagne également de défis thermiques et énergétiques. Car : augmenter la densité de calcul peut générer des besoins en refroidissement et en énergie difficilement soutenables pour certaines installations.

Restez à la pointe de l'information avec LEBIGDATA.FR !

▶ Abonnez-vous à notre chaîne YouTube et Ajoutez-nous à vos favoris sur Google Actualités
Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥