PDG de Meta et de Google

Meta signe un accord à plusieurs milliards avec Google pour ses TPU IA

Selon The Information, Google a conclu un accord pluriannuel de plusieurs milliards de dollars avec Meta Platforms. Dans le cadre de ce partenariat, l’entreprise de Mark Zuckerberg va louer les célèbres TPU de la filiale d’Alphabet Inc.

D’après nos confrères de The Information, qui cite une source proche du dossier, ces puces seront déterminantes pour les futurs projets IA de la firme de Mark Zuckerberg.

Quelles implications pour la conception et l’optimisation des modèles IA ?

La location de TPU par Meta ne se limite pas à obtenir plus de puissance de calcul. Alle pourrait transformer en profondeur la manière dont ses modèles IA sont conçus et optimisés. 

Les TPU, contrairement aux GPU traditionnels, sont spécifiquement conçues pour accélérer les calculs tensoriels et les opérations d’inférence massive. Cela signifie que certaines parties des modèles, notamment les couches profondes ou les opérations répétitives à grande échelle, peuvent être exécutées beaucoup plus rapidement. Ce, avec moins de consommation énergétique.

YouTube video

Bien entendu, en pratique, les équipes de Meta devront repenser leurs pipelines d’entraînement pour exploiter pleinement ces spécificités. Ses ajustements d’architecture, de parallélisation et même de format de données peuvent devenir nécessaires. 

Cette adaptation peut entraîner des gains significatifs pour certaines tâches. En revanche, il y a des chances que cela crée de nouvelles complexités pour des opérations qui étaient optimisées pour des GPU classiques. 

Au final donc, l’utilisation combinée de TPU, GPU Nvidia et GPU AMD pourrait encourager une hybridation des architectures et des méthodologies. Ce qui pousserait les ingénieurs à inventer de nouvelles façons de gérer la mémoire, la distribution des calculs et l’optimisation des performances. 

Cette diversification technique va bien au-delà de la simple sécurité d’approvisionnement. Elle pourrait ouvrir la voie à des innovations inédites dans le développement et le déploiement des modèles d’IA à grande échelle.

Ceci dit, il faut noter que ce ne sont pour le moment que des hypothèses.

Un fournisseur de plus pour Meta

Cet accord fait suite à un précédent signé en août 2025. Meta s’était alors engagé pour six ans à utiliser l’infrastructure et les services de Google Cloud. L’opération s’élève à plus de 10 milliards de dollars rapporte Reuters.

Déjà à l’époque, l’avantage stratégique des TPU pour Google et le potentiel usage par Meta avait été largement souligné. Aujourd’hui, tout cela devient concret.

Bien entendu, Meta ne se limite pas à Google. La firme derrière Facebook a également passé d’importantes commandes de GPU auprès de Nvidia et AMD pour ses propres data centers

YouTube video

Ces investissements massifs visent à rattraper son retard sur ses concurrents, notamment après le flop de Llama 4. The Information évoque même la possibilité que Meta achète un jour des TPU pour les installer directement dans ses infrastructures. Cependant, rien n’a encore été décidé.

Et si vous vous demandez pourquoi tant d’engouement pour les alternatives, vous êtes servi. Depuis dix ans, Nvidia reste le fournisseur incontournable pour l’entraînement des IA. Ce qui crée une forte dépendance et des pénuries régulières. 

Meta cherchent donc à diversifier leurs sources pour ne pas rester à la merci d’un seul acteur. Tout comme beaucoup d’entreprises d’ailleurs. Et dans ce contexte, AMD se positionne comme un principal challenger attirant des clients majeurs. 

Oracle a par exemple commandé 50 000 Instinct MI450, OpenAI l’équivalent de 6 GW de GPU, et Cohere se joint également à la danse. Même les start-up comme SambaNova ou Axelera AI multiplient les initiatives, au point de séduire Intel. 

Côté Google, rivalité avec Nvidia intensifié

Il n’y a pas lieu de préciser que Nvidia, le roi des GPU, domine actuellement le marché des puces d’IA. Pour autant, cela n’empêche Google de challenger ce quasi-monopole. D’autant plus que la demande pour les TPU ne cesse de croître.

Alors, pour ce faire, le groupe cherche à diversifier l’usage de ses TPU et à séduire de nouvelles startups. Depuis plusieurs mois, Google pousse ces puces maison, pensées spécialement pour l’apprentissage et l’inférence des modèles d’IA, hors de ses propres murs. 

Lancés il y a une dizaine d’années, ces puces étaient accessibles aux entreprises uniquement via Google Cloud. Mais au vu des événements, il faut croire qu’elles commencent à séduire d’autres acteurs de premier plan. 

Malgré cela, Google reste confronté à des limitations de production face aux besoins mondiaux. Comme l’a récemment souligné un responsable de Google AI Studio, l’écart entre l’offre et la demande de calcul ne cesse de croître. Ce qui pourrait devenir un goulet d’étranglement majeur pour l’industrie si rien n’évolue.

Et puis, l’intérêt de la part des géants du cloud reste mesuré comparé à l’adoption massive des GPU NVIDIA. Signe que ce n’est pas gagné pour Google. Du moins, pour l’instant.

YouTube video

Les risques financiers et contractuels liés à l’accord entre Meta et Google

Signer un contrat pluriannuel de plusieurs milliards avec Google engage Meta sur plusieurs années sans flexibilité. Et ce dernier point est justement ce qui pourrait rendre le contrat moins favorable. 

Si les besoins en puissance changent ou si d’autres technologies plus performantes apparaissent, Meta aura du mal à ajuster ses dépenses sans payer des pénalités ou renégocier. 

La firme de Zuckerberg se trouvera en mauvaise posture ne serait-ce qu’en cas de  baisse des prix des GPU ou encore un ajustement stratégique de Google. Or, la rigidité imposée par ces engagements limite sa capacité à adapter son infrastructure sans coûts supplémentaires.

Les fluctuations du marché des composants IA ajoutent un facteur d’incertitude. Un fournisseur peut rencontrer des retards de production ou des pénuries. Inutile de vous expliquer que cela impacte directement les projets internes de Meta. 

L’entreprise doit donc anticiper non seulement la croissance de ses projets IA, mais aussi la variabilité du marché et la concurrence. Bien entendu, rien ne prouve que ce n’est pas déjà fait.

Restez à la pointe de l'information avec LEBIGDATA.FR !

▶ Abonnez-vous à notre chaîne YouTube et Ajoutez-nous à vos favoris sur Google Actualités
Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥