Puces au nom de Google

De nouvelles puces IA… Comment Google veut défier Microsoft et Amazon

Cette semaine, lors de sa grand-messe Next à Las Vegas, a dégainé une panoplie impressionnante d’innovations qui en disent long sur ses ambitions. 

Le géant a annoncé pas mal de nouvelles puces IA, des modèles dopés à la réflexion et une plateforme d’agents IA qui pourrait bien chambouler l’ordre établi. 

Vous voulez un média comme celui que vous lisez ?

Passez de lecteur à leader ! Faites de votre entreprise un acteur inévitable avec votre propre média 🔥

Vous voulez un média comme celui que vous lisez ?

Passez de lecteur à leader ! Faites de votre entreprise un acteur inévitable avec votre propre média 🔥

Mais le plus impressionnant c’est Ironwood, une nouvelle génération de TPU (Tensor Processing Unit). et sont prévenus : la course se complique. Je vous explique dans cet article pourquoi.

?ref_src=twsrc%5Etfw">April 9, 2025

Commençons par ce que Ironwood a à offrir

L’année dernière, Google avait déjà secoué la fourmilière avec ses puces Trillium et une ribambelle de modèles de langage. Alors cette année, pas question de faire du surplace.

Voici donc Ironwood, la puce vedette de l’annonce. Pensée pour l’IA, elle ne suit pas les traces de ses grandes sœurs. Non, elle tourne le dos à l’approche traditionnelle « entraînement + inférence » pour se consacrer à 100 % à la seconde étape qui est de faire tourner des modèles d’IA une fois qu’ils ont été formés. 

Ironwood se décline en deux configurations. Une version de 256 puces et une autre, plus avancée, composée de 9 216 puces refroidies par liquide. Cette dernière est  interconnectées par un réseau ICI (Inter-Chip Interconnect) de dernière génération, caractérisé par une latence réduite et une bande passante élevée. 

Dans sa configuration maximale (9 216 puces/pod), Ironwood offre plus de 42 exaflops de puissance de calcul par pod. C’est-à-dire 24 fois plus puissant que le supercalculateur El Capitan, pourtant considéré comme une référence mondiale avec ses 1,7 exaflops par pod.

Mais chaque puce Ironwood peut atteindre un pic de 4 614 TFLOPs. L’ensemble peut atteindre une puissance de près de 10 MW. 

Quoi d’autres ?

?ref_src=twsrc%5Etfw">April 9, 2025

Google annonce avoir doublé l’efficacité énergétique par rapport à la génération précédente, Trillium. 

Apparemment, Ironwood délivre deux fois plus de puissance par watt. Il atteint 29,3 TFlops/Watt, contre 14,6 TFlops/Watt pour Trillium. 

En parallèle, sa mémoire HBM (High Bandwidth Memory) a été considérablement améliorée. Celle-ci passe à 192 Go par puce, soit six fois plus que Trillium, avec une bande passante mémoire de 7,2 Tbps/puce, soit 4,5 fois celle de Trillium.

Ces évolutions permettent de traiter des modèles et ensembles de données bien plus vastes tout en réduisant les transferts de données fréquents. Ce qui améliore les performances globales. 

De plus, la bande passante ICI (Inter-Chip Interconnect) a été portée à 1,2 Tbps bidirectionnels. Soit 1,5 fois celle de Trillium, garantissant une communication puce-à-puce encore plus rapide.

Maintenant je comprends pourquoi Amin Vahdat – vice-président en charge des systèmes IA et du machine learning chez Google – le considère comme le TPU le plus puissant, le plus performant et le plus économe en énergie jamais conçu. 

Devinez pourquoi Microsoft et Amazon devront se méfier

L’entreprise a décidé d’intégrer ses derniers TPU, dont Ironwood, dans son supercalculateur AI Hypercomputer. Selon Mark Lohmeyer, Vice-Président de la division Compute & AI Infrastructure, le but est de fournir l’intelligence la plus élevée par dollar pour les charges de travail d’IA. 

Ce supercalculateur est pensé pour coordonner efficacement matériel et logiciel afin d’optimiser les performances sur les charges de travail IA les plus exigeantes.

Il a, d’ailleurs, déjà permis des avancées notables. Notamment avec Flash 2.0, qui offre 24 fois plus d’intelligence par dollar que -4 et 5 fois plus que DeepSeek-R1.

YouTube video

Or, ce n’est pas tout. Cette nouvelle génération de TPU, Ironwood ouvre la voie à des applications IA dans des secteurs comme la finance ou la recherche scientifique. 

Et ce, tout en étant parfaitement adapté à des modèles d’IA plus complexes, tels que les modèles MoE (Mixture of Experts) qui se multiplient actuellement. D’ailleurs, les modèles de référence tels que Gemini 2.5 ou AlphaFold, lauréat du prix Nobel, fonctionnent déjà sur ces TPU. Toujours, selon les déclarations de la société.

Plus loin encore ! En plus des puces Ironwood, dévoile ses nouvelles machines virtuelles (VMs) A4 et A4X. Ces dernières sont équipées des derniers GPU , ainsi qu’un réseau 400G Cloud Interconnect, qui quadruple la bande passante disponible.

Alors, comme je disais, la course se complique car à coup sûr, Amazon et Microsoft ont une réplique. Toujours le même scénario avec ces géants de la tech.

Sinon, vous, qu’est-ce que vous en pensez ? Dites-nous tout dans le commentaire !

Restez à la pointe de l'information avec LEBIGDATA.FR !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥