DeepSeek sort sa toute nouvelle IA. Sa promesse ? Un modèle open source, plus rapide et moins cher. OpenAI et Google peuvent commencer à s’inquiéter.
GPT-5 et Gemini 3 ne sont pas seuls dans le jeu de l’IA. DeepSeek vient de dévoiler ses modèles V3.2 et V3.2-Speciale, qui n’ont rien à envier aux géants. Open source, ils sont capables de résoudre des problèmes complexes. En plus, ils sont beaucoup moins gourmands en ressources que les géants américains. Ces modèles bousculent les habitudes et font réfléchir sur ce que sera vraiment la prochaine génération d’IA. Parce que ce n’est plus seulement une question de puissance ou de features
DeepSeek-V3.2 : l’IA qui joue dans la cour des géants
DeepSeek-V3.2 est conçu taillé pour le raisonnement du quotidien. Quant à DeepSeek-V3.2-Speciale, il est calibré pour les maths et le code façon compétition internationale. Jusque-là, rien d’extraordinaire.
Sauf qu’ils affichent des niveaux comparables, voire supérieurs, à GPT-5 et Gemini 3 Pro sur le raisonnement long. Mais aussi sur l’usage d’outils et les résolutions complexes. La version Speciale a même claqué un 99,2 % au Harvard-MIT Math Tournament. Un 73 % en correction de bugs, et des performances « médaille d’or » sur plusieurs benchmarks sans accès internet.
En plus, il y a le DeepSeek Sparse Attention (DSA). Il s’agit d’une astuce architecturale qui réduit drastiquement les coûts. Les transformers classiques lisent tout, tout le temps. DeepSeek, lui, ne garde que l’essentiel. Ce qui permet de diminuer les coûts sur les longs contextes jusqu’à 70 %.
Pour un modèle avec 128 000 tokens de contexte, c’est juste indécent. Et surtout, ces modèles sont téléchargeables et modifiables gratuitement. Vous pouvez les utiliser sans payer un centime.
Un apprentissage sur le long terme
Les équipes de DeepSeek n’ont pas seulement optimisé le prix et les maths. Elles ont aussi réglé l’un des plus gros soucis des agents actuels, à savoir la perte de mémoire à chaque action. Parce qu’avec plus de 85 000 instructions complexes dédiées aux outils, le modèle apprend à naviguer dans de vrais environnements. Parmi eux, le navigateur web, l’IDE, ou encore les interactions multi-étapes.
Ce n’est pas qu’une prouesse technique. C’est aussi un défi géopolitique. DeepSeek est chinois. Et l’ouverture totale de ses modèles, sous licence MIT, effraie les régulateurs. L’Allemagne a tenté un blocage’ L’Italie a banni l’application. Les États-Unis veulent même l’empêcher de tourner sur les appareils gouvernementaux.
Pourtant, si ces performances sont bien réelles, on se demande si payer le prix fort chez les géants en vaut la peine face à une alternative open source moins chère. Par ailleurs, sachez que la Speciale est encore limitée à une API temporaire. Pourtant, elle devrait fusionner dans la release publique d’ici mi-décembre. Cela veut dire donc que le monde entier pourra bientôt jouer avec une IA du niveau GPT-5 sans sortir la carte bleue.
- Partager l'article :