Cette semaine, lors de sa grand-messe Cloud Next à Las Vegas, Google a dégainé une panoplie impressionnante d’innovations qui en disent long sur ses ambitions.
Le géant a annoncé pas mal de nouvelles puces IA, des modèles dopés à la réflexion et une plateforme d’agents IA qui pourrait bien chambouler l’ordre établi.
Mais le plus impressionnant c’est Ironwood, une nouvelle génération de TPU (Tensor Processing Unit). Microsoft et Amazon sont prévenus : la course se complique. Je vous explique dans cet article pourquoi.
?ref_src=twsrc%5Etfw">April 9, 2025Some of what’s new from #GoogleCloudNext:
— Google (@Google)
✨ We announced Ironwood, our most powerful, capable and energy-efficient TPU yet
✨ With the addition of Lyria, Vertex AI is now the only platform with generative media models for video, image, speech and music
✨ Even more helpful AI… pic.twitter.com/4IfQCa07Bu
Commençons par ce que Ironwood a à offrir
L’année dernière, Google avait déjà secoué la fourmilière avec ses puces Trillium et une ribambelle de modèles de langage. Alors cette année, pas question de faire du surplace.
Voici donc Ironwood, la puce vedette de l’annonce. Pensée pour l’IA, elle ne suit pas les traces de ses grandes sœurs. Non, elle tourne le dos à l’approche traditionnelle « entraînement + inférence » pour se consacrer à 100 % à la seconde étape qui est de faire tourner des modèles d’IA une fois qu’ils ont été formés.
Ironwood se décline en deux configurations. Une version de 256 puces et une autre, plus avancée, composée de 9 216 puces refroidies par liquide. Cette dernière est interconnectées par un réseau ICI (Inter-Chip Interconnect) de dernière génération, caractérisé par une latence réduite et une bande passante élevée.
Dans sa configuration maximale (9 216 puces/pod), Ironwood offre plus de 42 exaflops de puissance de calcul par pod. C’est-à-dire 24 fois plus puissant que le supercalculateur El Capitan, pourtant considéré comme une référence mondiale avec ses 1,7 exaflops par pod.
Mais chaque puce Ironwood peut atteindre un pic de 4 614 TFLOPs. L’ensemble peut atteindre une puissance de près de 10 MW.
Quoi d’autres ?
?ref_src=twsrc%5Etfw">April 9, 2025Ironwood is built to support this next phase of generative AI and its tremendous computational and communication requirements.
— Google (@Google)
Learn more → https://t.co/yW59GT1J6q
#GoogleCloudNext
Google annonce avoir doublé l’efficacité énergétique par rapport à la génération précédente, Trillium.
Apparemment, Ironwood délivre deux fois plus de puissance par watt. Il atteint 29,3 TFlops/Watt, contre 14,6 TFlops/Watt pour Trillium.
En parallèle, sa mémoire HBM (High Bandwidth Memory) a été considérablement améliorée. Celle-ci passe à 192 Go par puce, soit six fois plus que Trillium, avec une bande passante mémoire de 7,2 Tbps/puce, soit 4,5 fois celle de Trillium.
Ces évolutions permettent de traiter des modèles et ensembles de données bien plus vastes tout en réduisant les transferts de données fréquents. Ce qui améliore les performances globales.
De plus, la bande passante ICI (Inter-Chip Interconnect) a été portée à 1,2 Tbps bidirectionnels. Soit 1,5 fois celle de Trillium, garantissant une communication puce-à-puce encore plus rapide.
Maintenant je comprends pourquoi Amin Vahdat – vice-président en charge des systèmes IA et du machine learning chez Google – le considère comme le TPU le plus puissant, le plus performant et le plus économe en énergie jamais conçu.
Devinez pourquoi Microsoft et Amazon devront se méfier
L’entreprise a décidé d’intégrer ses derniers TPU, dont Ironwood, dans son supercalculateur AI Hypercomputer. Selon Mark Lohmeyer, Vice-Président de la division Compute & AI Infrastructure, le but est de fournir l’intelligence la plus élevée par dollar pour les charges de travail d’IA.
Ce supercalculateur est pensé pour coordonner efficacement matériel et logiciel afin d’optimiser les performances sur les charges de travail IA les plus exigeantes.
Il a, d’ailleurs, déjà permis des avancées notables. Notamment avec Gemini Flash 2.0, qui offre 24 fois plus d’intelligence par dollar que GPT-4 et 5 fois plus que DeepSeek-R1.
Or, ce n’est pas tout. Cette nouvelle génération de TPU, Ironwood ouvre la voie à des applications IA dans des secteurs comme la finance ou la recherche scientifique.
Et ce, tout en étant parfaitement adapté à des modèles d’IA plus complexes, tels que les modèles MoE (Mixture of Experts) qui se multiplient actuellement. D’ailleurs, les modèles de référence tels que Gemini 2.5 ou AlphaFold, lauréat du prix Nobel, fonctionnent déjà sur ces TPU. Toujours, selon les déclarations de la société.
Plus loin encore ! En plus des puces Ironwood, Google Cloud dévoile ses nouvelles machines virtuelles (VMs) A4 et A4X. Ces dernières sont équipées des derniers GPU Nvidia, ainsi qu’un réseau 400G Cloud Interconnect, qui quadruple la bande passante disponible.
Alors, comme je disais, la course se complique car à coup sûr, Amazon et Microsoft ont une réplique. Toujours le même scénario avec ces géants de la tech.
Sinon, vous, qu’est-ce que vous en pensez ? Dites-nous tout dans le commentaire !
- Partager l'article :