ChatGPT d’OpenAI est tellement un idole que tout le monde compare son IA à lui. Bon, par tout le monde, comprenez : les startups.
Tenez ! DeepSeek, par exemple, un laboratoire chinois a créé un concurrent de ChatGPT d’OpenAI. Mais le sien est plus performant, open source et abordable en plus, ce qui inquiète la Silicon Valley et bouscule les marchés.
Comment DeepSeek menace la Silicon Valley ?
Le 26 novembre 2024, DeepSeek a présenté son modèle de langage avancé DeepSeek-V3. Ce dernier a été développé en seulement deux mois pour un budget modeste de 5,58 millions de dollars.
Et, il a été conçu à une vitesse et un coût largement inférieurs à ceux des géants de la Silicon Valley. Cependant, ce n’est pas tout ! Le 20 janvier dernier, le laboratoire chinois a lancé son dernier bijou, DeepSeek-R1.
Alors que son prédécesseur, V3, a démontré des performances comparables à celles de GPT-4o d’OpenAI et de Claude Sonnet 3.5 d’Anthropic. R1, lui, a surpassé le tout dernier modèle o1 d’OpenAI.
Avec des performances impressionnantes, un coût bien inférieur à celui des autres modèles, une architecture semi-open source et un entraînement réalisé avec beaucoup moins de GPU, il a surpris les experts en IA.
Certains estiment même que les modèles chinois pourraient bientôt dépasser leurs équivalents américains.
?ref_src=twsrc%5Etfw">January 20, 2025🚀 DeepSeek-R1 is here!
— DeepSeek (@deepseek_ai)
⚡ Performance on par with OpenAI-o1
📖 Fully open-source model & technical report
🏆 MIT licensed: Distill & commercialize freely!
🌐 Website & API are live now! Try DeepThink at https://t.co/v1TFy7LHNy today!
🐋 1/n pic.twitter.com/7BlpWAPu6y
Le 22 janvier, Satya Nadella, PDG de Microsoft, partenaire stratégique d’OpenAI, a même exprimé publiquement ses inquiétudes. « Nous devons prendre très, très au sérieux les développements en provenance de Chine. »
Pourquoi ils s’inquiètent ?
Pour faire simple, les systèmes d’IA apprennent en s’appuyant sur des données fournies par des humains. Ces informations leur permettent de produire des résultats basés sur des probabilités observées dans l’ensemble des données utilisées pour leur formation.
Pour les grands modèles linguistiques (LLM), ces données sont principalement textuelles. Par exemple, GPT-3.5 d’OpenAI, lancé en 2023, a été entraîné sur environ 570 Go de texte provenant de Common Crawl, soit 300 milliards de mots extraits de livres, articles en ligne, Wikipédia, et autres sites web.
Les modèles de raisonnement, comme R1 et o1, en revanche, vont encore plus loin. Grâce à une méthode appelée « chaîne de pensée », ils peuvent réviser et affiner leur logique, ce qui les rend plus précis sur des tâches complexes.
Ce niveau d’intelligence les a rendus incontournables pour les scientifiques et ingénieurs intégrant l’IA dans leurs travaux.
Mais DeepSeek se distingue clairement. Contrairement au modèle o1 d’OpenAI, il est semi-open source. Les utilisateurs peuvent examiner et ajuster son algorithme, même si ses données de formation restent propriétaires.
En fait, les concurrents de Deepseek ont peur
L’engouement autour de DeepSeek ne tient pas seulement à ses performances, mais aussi à son coût défiant toute concurrence. Avec un budget de développement bien plus modeste que les dizaines, voire centaines de millions investis par ses rivaux, le modèle fait figure d’exception dans le paysage de l’IA.
Face aux restrictions américaines sur l’exportation des puces informatiques haut de gamme, les ingénieurs de DeepSeek ont dû redoubler d’ingéniosité.
Résultat : leurs algorithmes sont plus intelligents mais économes en énergie, capables de compenser un déficit de puissance de calcul.
Alors que ChatGPT aurait mobilisé 10 000 GPU Nvidia pour son entraînement, DeepSeek se vante d’avoir atteint des résultats comparables avec seulement 2 000 unités.
C’est à coup sûr la raison pour laquelle le prix de R1 est ultra-compétitif : 27 fois moins cher que celui de o1.
Reste à savoir si ces prouesses se traduiront par des avancées concrètes en sciences et en technologie ou si DeepSeek s’est simplement taillé une place dans les classements de performance.
Quoi qu’il en soit, les chercheurs et investisseurs en IA scrutent attentivement la suite des événements.
Alors, que pensez-vous de Deepseek ? Un bon représentant des chinois non ?
À vous la parole dans le commentaire !
- Partager l'article :