Microsoft possède désormais sa propre puce IA personnalisée. En plus de réduire sa dépendance à Nvidia, la compagnie va renforcer son infrastructure cloud.
Le géant américain de l’informatique se dote ainsi d’une puce sur mesure adaptée aux besoins des grands modèles de langage. Il a profité de sa conférence annuelle des développeurs, cette semaine, pour présenter Maia 100. Microsoft a aussi dévoilé au côté de sa puce IA, son nouveau processeur Cobalt 100.
L’intelligence artificielle facilite beaucoup notre quotidien. En revanche, nous n’avons pas conscience des charges pesant sur les entreprises technologiques qui fournissent ces services. Ces compagnies, dont Microsoft fait partie, font face à un coût exorbitant. Ces solutions sont dix fois plus chères à fournir que des services informatiques classiques.
La demande des services incluant l’intelligence artificielle connaît une hausse remarquable. Cette croissance accentue le risque de pénurie de composants. En effet, le principal fournisseur, Nvidia, peut ne plus être en mesure de suivre. Ce contexte a motivé le géant américain de l’informatique à développer sa solution maison.
Microsoft ne va pas commercialiser sa puce IA
La conception de Maia 100 prend en compte l’exécution de grands modèles de langage comme GPT 3.5 Turbo et GPT-4. Rappelons que ces deux LLM se trouvent au cœur du fonctionnement de Microsoft Azure et Copilot.
Pour information, la nouvelle puce IA possède 105 milliards de transistors, dont la fabrication a utilisé le processus TSMC de 5 nm. Par ailleurs, le processeur Cobalt 100 repose sur une structure ARM à 128 cœurs.
À noter que le géant américain de l’informatique n’envisage pas de vendre sa première puce IA et son nouveau processeur. Il préfère les garder pour un usage interne exclusif. Par ailleurs, la compagnie va utiliser ses deux nouveaux composants pour équiper ses centres de données dès l’an prochain.
En effet, les composants seront montés sur des cartes de serveur personnalisées et installés dans des racks sur mesure. Microsoft indique avoir optimisé son matériel pour fonctionner avec ses suites logicielles. Cela va permettre de booster les performances et de débloquer des capacités inédites.
Combiner solutions internes et externes
Bien que Microsoft dispose désormais de sa propre puce IA, la compagnie ne compte pas interrompre l’utilisation des composants tiers. Elle prévoit de continuer à se fournir chez ses partenaires, à la fois pour répondre à ses besoins en matière d’approvisionnement. Le but est également de satisfaire ses collaborateurs.
À noter que l’année prochaine, le GPU H200 Tensor Core de Nvidia sera inclus dans la flotte des centres de données. Le processeur graphique supportera l’inférence sur des LLM plus larges sans augmenter la latence. La compagnie de Bill Gates comptera aussi sur le surpuissant MI300X d’AMD.
Microsoft se dote donc d’une puce IA native pour son infrastructure cloud. En revanche, les performances de celles-ci ne sont pas connues. En effet, la présentation des nouveaux composants n’est pas accompagnée de benchmarks. De ce fait, on ne peut pas les évaluer par rapport aux solutions tierces disponibles sur le marché.
Néanmoins, le géant américain de l’informatique promet des améliorations notables de ses services cloud avec ces prochains ajouts.
- Partager l'article :