OpenAI va créer ses propres puces IA ! Un tsunami pour l’industrie ?

prend un virage audacieux dans l’industrie des puces IA. La société travaille à la conception de son propre matériel. Cela va avec une stratégie en partenariat qui pourrait rebattre les cartes du marché. Après avoir longtemps dépendu de et AMD, OpenAI veut prendre les commandes avec des puces taillées sur mesure pour ses besoins en IA. Mais ce changement sera-t-il à la hauteur ?

OpenAI travaille désormais sur une puce IA personnalisée. Ainsi, l’entreprise est en étroite collaboration avec Broadcom, pour transformer ses opérations d’inférence. Bien que la production soit confiée à des fonderies comme TSMC, OpenAI souhaite réduire sa dépendance aux GPU de Nvidia. Le créateur de souhaite diversifier son matériel avec AMD et créer une puce d’inférence unique. En abandonnant l’idée de construire ses propres usines, OpenAI met toute son énergie sur la conception et l’efficacité de ses nouveaux composants.

Des puces d’inférence d’OpenAI pour une IA plus efficace

OpenAI se lance dans un tout nouveau projet. En collaboration avec Broadcom, la société veut créer sa propre puce d’IA. La production serait confiée à TSMC, le leader mondial des semi-conducteurs. Mais sans pour autant créer son propre réseau de fabrication. Avec cette puce personnalisée, OpenAI espère réduire sa dépendance à Nvidia et AMD et optimiser ses opérations.

Pour ceux qui ne le savent pas, les puces IA sont souvent conçues pour deux types de tâches, dont la formation et l’inférence. La formation est le processus d’enseignement d’un modèle, tandis que l’inférence correspond aux réponses en temps réel de l’IA.

YouTube video

OpenAI utilise déjà des GPU comme les H100 et H200 de Nvidia pour la formation de ses modèles. Des puces performantes, mais coûteuses et difficiles à obtenir. L’idée est donc de créer une puce dédiée à l’inférence, capable d’améliorer l’efficacité d’OpenAI sans dépendre exclusivement de Nvidia.

Les premiers prototypes de cette puce d’inférence sont attendus pour 2026. Mais ce projet reste adaptable, selon les besoins et les avancées technologiques en cours. En mettant en avant cette spécialisation, OpenAI souhaite donc optimiser le coût et la performance de ses services IA. L’entreprise se concentrera alors sur des réponses en temps réel plus fluides et rapides.

Une équipe d’élite pour piloter le projet

OpenAI n’a pas laissé ce projet entre n’importe quelles mains. Pour concevoir cette puce IA, l’entreprise a réuni une équipe d’environ vingt ingénieurs spécialisés. Incluant des experts de ayant travaillé sur les unités de traitement Tensor (TPU). Ces spécialistes, comme Thomas Norrie et Richard Ho, connaissent bien les défis de la conception de puces personnalisées. Leur expertise en matière de semi-conducteurs est cruciale pour qu’OpenAI puisse concevoir un produit interne qui allie performance et efficacité énergétique.

En recrutant une équipe d’ingénieurs aussi expérimentée, je pense qu’OpenAI espère concurrencer les géants comme , Google, , et . Ces derniers disposent déjà de solutions de puces personnalisées pour leurs propres IA.

Outre cette initiative de puces maison, OpenAI continue de diversifier ses fournisseurs de matériel. Le projet de puce d’inférence est en quelque sorte un pari pour alléger sa dépendance à Nvidia. Sans pour autant rompre les liens. En effet, Nvidia reste le leader incontesté du marché des GPU IA. Puisque l’enteprise fournit des composants essentiels pour l’entraînement des modèles IA.

Mais OpenAI explore d’autres options, comme l’utilisation des puces Instinct MI300X d’AMD via la plateforme Azure de Microsoft. Cette diversification est un levier pour réduire les coûts, surtout dans un contexte où les GPU IA sont de plus en plus gourmands en énergie.

La question du coût et de l’efficacité

OpenAI ne cache pas ses ambitions, mais garde un pied dans le partenariat stratégique avec Nvidia. En effet, les GPU de nouvelle génération de Nvidia, baptisés « Blackwell », promettent une amélioration des performances significative par rapport aux GPU actuels Hopper. Pour OpenAI, qui cherche à maintenir ses modèles IA parmi les meilleurs, ces nouvelles puces de Nvidia sont difficilement remplaçables.

https://twitter.com/koltregaskes/status/1851405772216774823

L’ambition d’OpenAI de réduire les coûts est également un facteur clé de cette stratégie. Bien que ChatGPT rencontre un succès fulgurant, l’entreprise devrait subir une perte de 5 milliards de dollars cette année, en partie due aux dépenses d’exploitation liées au matériel, au , et à l’électricité. En développant une puce d’inférence plus économe en énergie, OpenAI pourrait diminuer ces coûts d’ici 2026.

Cependant, les GPU Blackwell de Nvidia, bien que très performants, consomment plus d’énergie que leurs prédécesseurs, ce qui représente un dilemme pour OpenAI. Si les coûts de possession de ces GPU peuvent rester raisonnables grâce à leurs performances, leur fonctionnement risque d’alourdir les frais d’OpenAI à long terme. D’où l’intérêt de cette puce maison, qui pourrait apporter une solution moins coûteuse et plus écologique pour les opérations d’inférence.

Pensez-vous que cette puce maison permettra à OpenAI de rivaliser avec les géants du secteur ? Dites-nous ce que vous en pensez en commentaire !

Restez à la pointe de l'information avec LEBIGDATA.FR !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥