Ce rival de Nvidia s’allie à DeepSeek, et promet de multiplier la vitesse de l’IA par 57 !

Le 30 janvier, a officialisé son soutien à DeepSeek, et surtout à son modèle de raisonnement R1 70B. La société promet du lourd.

DeepSeek R1 70B a déjà convaincu et Groq, qui ont déjà intégré ce nouveau modèle d’IA dans leurs infrastructures . Toutefois, c’est avec Cerebras qu’il pourrait révéler tout son potentiel. Explications.

Cerebras place la barre trop haut

Cerebras, spécialiste des puces d’inférence IA, promet un débit de 1 600 jetons/seconde avec DeepSeek R1 70B. Au cas où vous ne le saurez pas, les solutions basées sur GPU, comme DeepInfra, plafonnent normalement à 28 jetons/seconde

La soicété annonce donc une performance 57 fois supérieure à celle des GPU classiques. Ce chiffre impressionnant s’explique en partie par la taille colossale de la dernière puce de Cerebras, 57 fois plus grande que la H100 de Nvidia

Mais la puissance brute ne fait pas tout. Cerebras mise aussi sur la précision. Ses tests internes montrent que DeepSeek surpasse certains modèles d’ dans plusieurs évaluations. 

YouTube video

De quoi attirer l’attention des entreprises soucieuses d’efficacité et de rapidité. Pour rassurer ceux qui s’inquiètent des questions de confidentialité, le modèle fonctionnera sur des serveurs basés aux États-Unis

Cependant, l’application DeepSeek elle-même envoie les données et métadonnées en Chine. Elles y seront probablement stockées.C’est courant pour de nombreuses applications, notamment les solutions gratuites qui exploitent les informations des utilisateurs.

Devons-nous nous attendre à un prix colossal ?

Pour l’instant, la société n’a pas annoncé combien coûtera l’exécution de DeepSeek sur ses puces. Cependant, on peut se faire une idée en regardant ses tarifs passés.

Par exemple, l’année dernière, faire tourner 3.1 405B sur les serveurs de Cerebras coûtait 6 $ pour un million de jetons d’entrée et 12 $ pour un million de jetons de sortie.

Et si DeepSeek est encore moins cher que Llama 3.1 405B, cela pourrait accroître la pression sur OpenAI et d’autres concurrents qui pratiquent des tarifs bien plus élevés. 

Par ailleurs, Cerebras prépare déjà la relève avec le WSE-4. Ce successeur du WSE-3 améliorera les performances de DeepSeek et des modèles de raisonnement similaires. 

Son lancement est prévu entre 2026 et 2027, selon les évolutions du marché.

Bref, je crois que l’arrivée de DeepSeek ne se contente pas d’apporter un nouveau modèle d’IA performant. Elle risque aussi de bouleverser l’économie du secteur. 

OpenAI devra vraiment revoir ses tarifs au risque de se faire détrôner par les entreprises qui offrent des solutions performantes mais à faible prix

Le comparateur de prix API Docsbot.ai LLM montre qu’il affiche presque toujours les tarifs les plus élevés. Parfois même avec des écarts vertigineux. 

Et vous, qu’est ce que vous en pensez ? Partagez votre avis dans le commentaire !

Restez à la pointe de l'information avec LEBIGDATA.FR !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥