Le modèle d’intelligence artificielle DeepSeek R1-Lite-Preview, développé par une entreprise chinoise, suscite déjà l’attention des experts. Promettant des performances impressionnantes, ce modèle axé sur le raisonnement est de taille à rivaliser avec celui d’OpenAI.
DeepSeek est une filiale chinoise spécialisée dans l’intelligence artificielle (IA). Elle appartient à High-Flyer Capital Management, un fonds spéculatif qui se concentre sur la technologie open source. Son objectif est de rendre des outils performants et accessibles au plus grand nombre.
Leur dernière innovation, le modèle de langage R1-Lite-Preview, vient d’être dévoilée. Ce modèle, conçu pour améliorer le raisonnement de l’IA, est pour l’instant disponible uniquement via DeepSeek Chat, un chatbot accessible en ligne. Cette nouvelle version promet des performances impressionnantes tout en mettant l’accent sur la transparence et la simplicité d’utilisation.
DeepSeek R1-Lite-Preview : meilleur que o1-preview d’OpenAI ?
L’une des innovations clés du R1-Lite-Preview est son raisonnement par chaînes de pensée. Ce processus consiste à décomposer et expliquer chaque étape suivie pour arriver à une réponse, offrant une transparence rarement vue dans l’IA.
Les utilisateurs peuvent donc observer en temps réel les étapes logiques et les justifications du modèle. Et ce, même lorsqu’elles semblent inhabituelles ou erronées à première vue.
Malgré quelques anomalies, cette approche se révèle extrêmement efficace, notamment pour des questions pièges qui ont mis à mal des modèles tels que GPT-4o et Claude.
Par exemple, le R1-Lite-Preview s’est illustré en répondant avec justesse à des énigmes mathématiques comme : « Combien de lettres R y a-t-il dans le mot Fraise ? » ou encore : « Lequel est le plus grand, 9,11 ou 9,9 ? ».
DeepSeek a conçu ce modèle pour exceller dans des domaines exigeant des capacités d’inférence logique, de résolution mathématique et de traitement en temps réel. Le R1-Lite-Preview surpasse le modèle d’OpenAI o1 sur des benchmarks renommés tels que l’AIME (American Invitational Mathematics Examination) et MATH.
D’ailleurs, le R1-Lite-Preview a également brillé dans des évaluations majeures, rivalisant avec les leaders de l’industrie sur des tests comme GPQA et Codeforces.
Ses performances sont renforcées par une gestion dynamique des « jetons de réflexion« . Ce qui permet d’améliorer progressivement la précision en allouant davantage de ressources computationnelles à des problèmes complexes.
Des données publiées par DeepSeek montrent que plus le modèle s’investit dans un problème, plus ses résultats sont précis. Cette capacité à évoluer en fonction du temps ou des ressources disponibles le positionne comme une option particulièrement adaptée aux tâches nécessitant une réflexion approfondie.
Un modèle accessible au grand public …
Pour l’instant, le R1-Lite-Preview est uniquement accessible via DeepSeek Chat. Gratuit pour le grand public, il impose néanmoins une limite de 50 messages quotidiens pour son mode avancé « Deep Think », encourageant les utilisateurs à explorer ses capacités dans des cas précis.
DeepSeek a également annoncé son intention de publier des versions open source de la série R1, accompagnées d’API dédiées. Cette stratégie s’inscrit dans la tradition de l’entreprise, connue pour son soutien à la communauté de l’IA open source.
Dans le passé, des modèles comme DeepSeek-V2.5 ont été salués pour leurs capacités avancées en traitement du langage et en codage. Ce qui laisse entrevoir un potentiel similaire pour la série R1.
En combinant performance et accessibilité, DeepSeek poursuit son ambition de démocratiser l’innovation dans le domaine de l’IA.
Pour le moment, DeepSeek n’a pas encore publié de code source complet ni autorisé de tests indépendants pour valider ses résultats dits impressionnants. Aucun détail sur son entraînement n’a également été partagé à ce jour.
Et je dois dire que, personnellement, cette opacité me suscite des doutes quant à ses véritables capacités. Et vous,qu’est-ce que vous en dites ?
- Partager l'article :