Anthropic décrit une opération industrielle de distillation qui aspire l’intelligence de Claude pour entraîner des modèles d’IA de la Chine. 24 000 comptes fantômes, 16 millions de requêtes : les modèles les plus avancés sont devenus des ressources stratégiques et des proies.
L’intelligence artificielle n’est plus seulement une course à l’innovation. C’est aussi une bataille d’accès, de contrôle et, parfois, d’appropriation. En accusant DeepSeek, Moonshot et MiniMax d’avoir exploité des milliers de comptes pour “aspirer” les capacités de son assistant Claude, Anthropic démasque la pratique à grande échelle de la Chine qui dépasse le cadre de la concurrence classique. À travers cette affaire, je vois surtout que protéger un modèle d’IA est devenu aussi important que le développer.
24 000 comptes fantômes pour aspirer le cerveau IA d’Anthropic
Ce 23 février, Anthropic a accusé des géants d’IA de la Chine d’avoir utilisé la technique de la distillation à grande échelle via 24 000 comptes frauduleux. Apparemment, ces 3 géants de l’IA interrogent massivement Claude pour en extraire des réponses exploitables dans l’entraînement de leurs propres modèles.
Au total, 16 millions de transactions ont été enregistrées. Selon les éléments techniques publiés par Anthropic, les acteurs auraient utilisé des services commerciaux revendant l’accès à des modèles avancés. Ils auraient ensuite construit des réseaux baptisés en interne “cluster hydra”. C’est comme des larges grappes de comptes répartissant le trafic entre l’API d’Anthropic et différents clouds tiers.
Dans un cas précis, un seul serveur proxy aurait piloté simultanément plus de 20 000 comptes. Pour éviter d’être détecté, le système mélangeait les requêtes d’extraction avec du trafic d’usage classique. Mais les volumes, la répétitivité et la nature ciblée des demandes trahissaient une autre intention. Celui d’entraîner un modèle, pas de discuter avec un assistant.
Breaking: @Anthropic just exposed a massive AI espionage operation: 16 million+ attempts to steal Claude's capabilities.
— Russell Sean (@RussellQuantum) February 24, 2026
The numbers are staggering:
⬩ 24,000 fake accounts deployed
⬩ Sophisticated proxy networks used
⬩ Three China-based AI labs identified as perpetrators… pic.twitter.com/XeY0mS1uXk
La distillation, une technique légitime détournée
La distillation n’est pas illégale en soi. C’est une méthode bien connue en machine learning. Elle consiste à entraîner un modèle plus petit à partir des sorties d’un modèle plus puissant. Beaucoup de laboratoires l’utilisent pour décliner des versions plus légères de leurs propres modèles.
Mais ici, le contexte change tout. Selon Anthropic, lorsque cette technique est utilisée par des entités soumises à des restrictions américaines à l’exportation et qu’elle viole les conditions de licence, elle devient une infraction contractuelle et réglementaire.
Dans son communiqué officiel sur la détection et la prévention des attaques de distillation, l’entreprise explique que ce type d’extraction peut permettre de supprimer des garde-fous et d’intégrer les capacités de modèles américains dans des systèmes militaires, de renseignement ou de surveillance.
Distillation can be legitimate: AI labs use it to create smaller, cheaper models for their customers.
— Anthropic (@AnthropicAI) February 23, 2026
But foreign labs that illicitly distill American models can remove safeguards, feeding model capabilities into their own military, intelligence, and surveillance systems.
DeepSeek, Moonshot, MiniMax : trois stratégies, un même objectif
Les chiffres détaillés donnent une idée plus précise des priorités. DeepSeek aurait généré plus de 150 000 échanges. Le géant cible des tâches de raisonnement, des systèmes d’évaluation adaptés aux modèles de récompense en apprentissage par renforcement et des reformulations permettant de contourner la censure sur des requêtes politiquement sensibles. Anthropic affirme également avoir observé des prompts destinés à faire révéler le raisonnement interne étape par étape, afin d’extraire la “chaîne de pensée”.
Moonshot, connu pour ses modèles Kimi, aurait effectué plus de 3,4 millions d’échanges. Les requêtes portaient sur le raisonnement agentiel, l’usage d’outils, la programmation, l’analyse de données ou encore la vision par ordinateur. Des centaines de comptes frauduleux auraient été utilisés pour extraire et reconstituer les traces de raisonnement de Claude.
MiniMax aurait mené la campagne la plus grande avec plus de 13 millions d’échanges. Il vise le codage et l’orchestration d’agents. Ce qui m’interpelle, c’est la rapidité d’adaptation. Après le lancement d’un nouveau modèle Claude, MiniMax aurait redirigé près de la moitié de son trafic en 24 heures pour capter ses nouvelles capacités. Ainsi, nous observons ici une logique quasi industrielle, calée sur le cycle de vie des modèles américains.
La contre-attaque d’Anthropic et les enjeux pour l’écosystème
Face à ces opérations, Anthropic affirme renforcer ses défenses. L’entreprise a déployé des classificateurs et des systèmes d’empreinte comportementale pour identifier des schémas d’extraction. Notamment l’élicitation de la chaîne de pensée ou l’activité coordonnée de multiples comptes.
Elle partage également des indicateurs techniques avec d’autres laboratoires, des fournisseurs cloud et les autorités. Elle a aussi renforcé la vérification des comptes éducatifs, de recherche et de startups, souvent exploités pour créer des accès frauduleux.
Je pense que la sécurité des modèles devient une discipline à part entière. Nous entrons dans une ère où protéger une IA ne signifie plus seulement éviter les jailbreaks. Mais il faut empêcher son aspiration systématique par des concurrents.
Pour le marché, cela pourrait signifier des API plus restrictives, des limitations sur la transparence des raisonnements internes et peut-être une fragmentation accrue entre blocs technologiques.
- Partager l'article :
