Multiverse Computing assure avoir réussi un petit exploit. Réduire de moitié le modèle de raisonnement DeepSeek R1, sans perdre sa tête. Cette version Slim affiche un gabarit allégé, tout en esquivant la censure intégrée à l’original.
Ce travail intervient alors que les géants chinois de l’IA doivent intégrer des règles strictes liées aux valeurs du pays. Les réponses à certains sujets interdits sont souvent éludées ou orientées.
Le modèle compact imaginé par Multiverse se glisse justement dans ces zones sensibles, avec une liberté qui tranche avec l’écosystème chinois. La prouesse réside autant dans la taille que dans cette liberté retrouvée, d’après les chercheurs.
Comment l’équipe s’y est pris pour créer DeepSeek R1 Slim ?
Les équipes de Multiverse ont utilisé une approche inspirée de la physique quantique pour réduire le modèle. Elles ont appliqué des réseaux tensoriels, un outil mathématique habituellement réservé aux problèmes complexes. Cette représentation en grilles multidimensionnelles permet de compresser un modèle sans l’écraser.
Les chercheurs expliquent que ces réseaux dessinent une carte des corrélations internes du système. Cette carte repère les zones redondantes, inutiles ou trop chargées. Elle permet aussi de localiser les morceaux à retirer avec une précision rare. Le résultat tient dans une version compacte qui préserve les réactions logiques de DeepSeek R1.
L’équipe assure ensuite un travail d’affinage pour éviter des écarts trop visibles avec les réponses d’origine. Ce réglage final sert à empêcher des dérives ou des comportements imprévus. L’idée est de rester très proche du raisonnement attendu sans réinjecter la censure supprimée.
Ce type de compression remet en cause l’usage exclusif de GPU massifs pour manipuler de grandes IA. Selon Roman Orús, ces modèles géants consomment trop d’énergie et perdent en efficacité. Une version compacte facilite leur utilisation tout en réduisant les coûts.
Et si on posait des questions interdites, juste pour voir ?
Pour vérifier que la censure avait disparu, les chercheurs ont préparé une série d’environ vingt-cinq questions interdites. Elles portent sur des thèmes sensibles en Chine, comme Winnie l’Ourson, souvent associé au président Xi Jinping. Elles abordent aussi des sujets comme Tiananmen en 1989. Chaque requête sert de test pour évaluer le comportement du modèle.
Les réponses de DeepSeek R1 Slim ont été comparées à celles du modèle officiel. Le jugement final a été confié à GPT-5, utilisé comme arbitre neutre. L’IA allégée s’est montrée capable de donner des réponses factuelles. Elles se rapprochent de celles des modèles occidentaux non filtrés. Le contraste avec la version officielle est net.
Ce travail rappelle l’intérêt croissant pour des systèmes dépourvus de filtres politiques chinois. Certains chercheurs et entreprises cherchent déjà à contourner ces blocages. Perplexity a proposé une autre version non censurée de DeepSeek, en utilisant une méthode plus classique. Son approche s’appuyait sur un réglage après entraînement à partir de milliers de requêtes sensibles.
Malgré ces efforts, plusieurs spécialistes restent prudents. Thomas Cao explique que la censure en Chine est complexe et change régulièrement. Elle traverse toutes les étapes d’un modèle, de la collecte des données à son calibrage final. Retirer toutes les traces n’est pas simple, surtout avec un échantillon aussi réduit.
- Partager l'article :

