Nvidia prépare une opération d’envergure autour de Groq. Un acteur déjà très suivi dans l’univers des puces d’intelligence artificielle. Le groupe prévoit d’obtenir une licence d’exploitation sur la technologie développée par cette société. Ce, tout en accueillant dans ses rangs plusieurs figures clés de l’entreprise.
Jonathan Ross, fondateur de Groq, va, par exemple, rejoindre Nvidia. Et Sunny Madra, son président, ainsi que d’autres membres de l’équipe l’accompagnent. Cette arrivée marque un renfort stratégique pour le constructeur. Lui qui récupère à la fois des compétences rares et une technologie déjà éprouvée sur le terrain.
Jusqu’où Nvidia est-il prêt à aller pour sécuriser la technologie Groq ?
En septembre, Groq a levé 750 millions de dollars, pour une valorisation estimée à 6,9 milliards de dollars. Sa progression est impressionnante. Savez-vous pourquoi ? Car l’entreprise revendique plus de deux millions de développeurs utilisateurs de ses services, contre environ 356 000 un an plus tôt.
Cette dynamique attire logiquement l’attention de Nvidia. Selon CNBC, Nvidia a accepté de dépenser près de vingt milliards de dollars pour acquérir certains actifs de Groq. Le constructeur précise pourtant qu’il ne s’agit pas d’un rachat complet de la société.
Le groupe a précisé que l’opération porte sur une partie de ses ressources, sans donner davantage de détails sur le périmètre exact. Si ce montant se confirme, cette transaction deviendrait la plus élevée jamais réalisée par Nvidia.
Elle placerait aussi l’entreprise dans une position encore plus solide sur le marché des puces destinées à l’intelligence artificielle.
Pourquoi s’intéresser à une puce pensée pour le langage ?
Les entreprises technologiques investissent massivement dans le calcul intensif afin d’entraîner et d’exploiter des modèles toujours plus complexes. Dans ce paysage, les GPU de Nvidia constituent la référence la plus répandue.
Groq développe pourtant une approche différente, avec une puce baptisée LPU, pensée spécialement pour le traitement du langage. La société affirme que cette technologie peut exécuter des modèles de langage dix fois plus vite. Ce, tout en consommant dix fois moins d’énergie.
Et puis, Jonathan Ross n’est pas étranger à ce type d’innovation. Rappelez-vous, il a déjà participé à la conception du TPU chez Google, une puce dédiée à l’accélération de l’IA.
- Partager l'article :