Une baleine en métal pour illustrer DeepSeek

Ce rival discret d’OpenAI et Google affole déjà les experts de l’IA

Deepseek, la célèbre société dont tout le monde avait entendu parlé au moins une fois en janvier, est de retour sous les projecteurs. Et pas les mains vides ! Elle revient en force avec R1-0528.  C’est une mise à jour de son modèle open source R1.

YouTube video

Un retour en force, oui, parce que cette nouvelle version se rapproche des performances de modèles propriétaires les plus avancés du marché comme o3 d’OpenAI ou Gemini 2.5 Pro de Google.

DeepSeek-R1-0528, entre autres, marque une progression spectaculaire dans les capacités de raisonnement. Notamment sur des tâches complexes en mathématiques, sciences, programmation ou encore en analyse d’affaires. 

Et grâce à une exploitation accrue des ressources de calcul et à l’intégration d’optimisations post-entraînement, les résultats sont au rendez-vous.

Que donnent les benchmarks ?

Eh bien, sur le benchmark AIME 2025, le taux de précision grimpe de 70 % à 87,5 %. Et ce, avec un volume moyen de 23 000 jetons par question, contre 12 000 auparavant. 

Côté codage, le modèle affiche également des gains notables. Il passe de 63,5 % à 73,3 % de précision sur LiveCodeBench. Même les évaluations réputées difficiles, comme « Le Dernier Examen de l’Humanité », révèlent une nette progression, avec un score doublé de 8,5 % à 17,7 %.

Ces performances placent désormais la version R1-0528 dans la même cour que les ténors du secteur. Sauf qu’elle est open source et gratuite. Elle est publiée sous licence MIT, permettant une utilisation commerciale sans restriction, et une personnalisation libre par les développeurs

Le modèle, ses poids et sa documentation sont disponibles via Hugging Face, la plateforme phare du partage open source en IA. Ceux qui souhaitent l’intégrer à leur propre infrastructure peuvent s’appuyer sur des guides détaillés disponibles sur le dépôt GitHub de DeepSeek.

Un robot R1-0528

Les utilisateurs de l’API DeepSeek bénéficient quant à eux d’une mise à jour automatique du modèle, sans frais supplémentaires. Le tarif reste inchangé. 0,14 $ par million de tokens d’entrée en journée, réduit à 0,035 $ en heures creuses. 

L’output est facturé à 2,19 $ par million de tokens. Pour les curieux, une version gratuite est accessible via le site de DeepSeek. Il suffit de s’identifier via Google ou un numéro de téléphone.

Ce rival d’OpenAI a plus à offrir

En plus des gains de performances, DeepSeek-R1-0528 embarque plusieurs nouveautés pensées pour les développeurs

L’export JSON et l’appel de fonctions sont désormais pris en charge. Cette fonctionnalité facilite l’intégration du modèle dans des flux de travail automatisés ou des applications métiers.

Le modèle devient également plus fiable. Le taux d’hallucination diminue, la cohérence des réponses s’améliore. Côté interface, DeepSeek introduit un nouveau système d’invites. Plus besoin de recourir à un jeton spécial pour activer le mode « réflexion ». 

L’entreprise pense aussi à ceux qui n’ont pas accès à des fermes de GPU. La société propose une variante plus légère, le R1-0528-Qwen3-8B, conçue pour tourner sur du matériel grand public. 

Ce modèle distillé reprend l’architecture du R1 mais avec un volume réduit, tout en conservant des performances remarquables. Il dépasse Qwen3-8B de 10 % sur le benchmark AIME 2024 et rivalise avec la version Qwen3-235B en réflexion.

Avec ses 8 milliards de paramètres, ce modèle requiert environ 16 Go de VRAM pour fonctionner en FP16. Il est donc compatible avec des cartes comme la NVIDIA RTX 3090 ou 4090, et même avec des modèles plus modestes pour des versions quantifiées.

Cette option est particulièrement adaptée à la recherche académique, ou aux applications industrielles qui nécessitent des modèles plus légers, sans sacrifier la qualité.

Qu’en pense le public ?

YouTube video

Depuis l’annonce de la mise à jour, les réactions enthousiastes se multiplient sur les réseaux sociaux. Le développeur Haider (@slow_developer) salue les performances de DeepSeek-R1-0528 en programmation.

Il a expliqué que le modèle a généré un code et des tests parfaitement fonctionnels du premier coup. Un exploit qu’il n’avait vu que chez o3 jusqu’ici.

L’influenceur Lisan al Gaib souligne quant à lui que « DeepSeek vise le trône occupé par o3 et Gemini ». Chubby, connu pour ses analyses de tendances IA, s’est aussi exprimé. Il a parlé d’un modèle « qui mijote sérieusement » et flirte désormais avec les performances des meilleurs.

D’ailleurs, certains évoquent la possibilité que la startup prépare discrètement l’arrivée de son prochain modèle de frontière. Le très attendu DeepSeek R2. Mais tant qu’il n’y a aucune annonce officielle sur, nous pouvons placer cela dans la cage des rumeurs.

Maintenant à votre tour, que pensez-vous de R1-0528 ? Dites-le-nous en commentaire !

Restez à la pointe de l'information avec LEBIGDATA.FR !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥