Trois robots chinois en train de voler un cerveau IA

24 000 faux comptes, 16 millions d’échanges : comment la Chine vole l’IA d’Anthropic

Anthropic décrit une opération industrielle de distillation qui aspire l’intelligence de Claude pour entraîner des modèles d’IA de la Chine. 24 000 comptes fantômes, 16 millions de requêtes : les modèles les plus avancés sont devenus des ressources stratégiques et des proies.

L’intelligence artificielle n’est plus seulement une course à l’innovation. C’est aussi une bataille d’accès, de contrôle et, parfois, d’appropriation. Claude vient d’accuser DeepSeek, Moonshot et MiniMax d’avoir exploité des milliers de comptes pour “aspirer” les capacités de son assistant. Dans les faits, Anthropic a démasqué la pratique à grande échelle de la Chine qui dépasse le cadre de la concurrence classique. À travers cette affaire, je vois surtout que protéger un modèle d’IA est devenu aussi important que le développer.

24 000 comptes fantômes pour aspirer le cerveau IA d’Anthropic

Ce 23 février, Anthropic a accusé des géants d’IA de la Chine d’avoir utilisé la technique de la distillation à grande échelle via 24 000 comptes frauduleux. Apparemment, ces 3 géants de l’IA interrogent massivement Claude pour en extraire des réponses exploitables dans l’entraînement de leurs propres modèles.

Au total, 16 millions de transactions ont été enregistrées. Selon les éléments techniques publiés par Anthropic, les acteurs auraient utilisé des services commerciaux revendant l’accès à des modèles avancés. Ils auraient ensuite construit des réseaux baptisés en interne “cluster hydra”. C’est comme des larges grappes de comptes répartissant le trafic entre l’API d’Anthropic et différents clouds tiers.

Dans un cas précis, un seul serveur proxy aurait piloté simultanément plus de 20 000 comptes. Pour éviter d’être détecté, le système mélangeait les requêtes d’extraction avec du trafic d’usage classique. Mais les volumes, la répétitivité et la nature ciblée des demandes trahissaient une autre intention. Celui d’entraîner un modèle, pas de discuter avec un assistant.

La distillation, une technique légitime détournée

La distillation n’est pas illégale en soi. C’est une méthode bien connue en machine learning. Elle consiste à entraîner un modèle plus petit à partir des sorties d’un modèle plus puissant. Beaucoup de laboratoires l’utilisent pour décliner des versions plus légères de leurs propres modèles.

Mais ici, les faits change tout. Selon Anthropic, le recours à cette technique par des entités soumises aux restrictions américaines à l’exportation se fait parfois au mépris des conditions de licence. Dès lors, une telle pratique constitue une véritable infraction contractuelle et réglementaire.

Le problème est jugé majeur, selon le communiqué officiel, sur la détection et la prévention des attaques de distillation. L’entreprise avertit que ce type d’extraction est capable de désactiver les garde-fous imposés à l’IA. Par extension, il permet de détourner les capacités des modèles américains pour alimenter des systèmes militaires, de renseignement ou de surveillance.

DeepSeek, Moonshot, MiniMax : trois stratégies, un même objectif

Les chiffres détaillés donnent une idée plus précise des priorités. DeepSeek aurait généré plus de 150 000 échanges. Le géant cible des tâches de raisonnement, des systèmes d’évaluation adaptés aux modèles de récompense en apprentissage par renforcement et des reformulations. Cela permet de contourner la censure sur des requêtes politiquement sensibles. Anthropic affirme également avoir observé des prompts destinés à faire révéler le raisonnement interne étape par étape, afin d’extraire la “chaîne de pensée”.

Moonshot, connu pour ses modèles Kimi, aurait effectué plus de 3,4 millions d’échanges. Les requêtes portaient sur le raisonnement agentiel, l’usage d’outils, la programmation, l’analyse de données ou encore la vision par ordinateur. Des centaines de comptes frauduleux auraient été utilisés pour extraire et reconstituer les traces de raisonnement de Claude.

MiniMax aurait mené la campagne la plus grande avec plus de 13 millions d’échanges. Il vise le codage et l’orchestration d’agents. Ce qui m’interpelle, c’est la rapidité d’adaptation. Après le lancement d’un nouveau modèle Claude, MiniMax aurait redirigé près de la moitié de son trafic en 24 heures pour capter ses nouvelles capacités. Ainsi, nous observons ici une logique quasi industrielle, calée sur le cycle de vie des modèles américains.

YouTube video

La contre-attaque d’Anthropic et les enjeux pour l’écosystème

Face à ces opérations, Anthropic affirme renforcer ses défenses. L’entreprise a déployé des classificateurs et des systèmes d’empreinte comportementale pour identifier des schémas d’extraction. Notamment l’élicitation de la chaîne de pensée ou l’activité coordonnée de multiples comptes.

Elle partage également des indicateurs techniques avec d’autres laboratoires, des fournisseurs cloud et les autorités. Elle a aussi renforcé la vérification des comptes éducatifs, de recherche et de startups, souvent exploités pour créer des accès frauduleux.

Je pense que la sécurité des modèles devient une discipline à part entière. Nous entrons dans une ère où protéger une IA ne signifie plus seulement éviter les jailbreaks. Mais il faut empêcher son aspiration systématique par des concurrents.

Pour le marché, cela pourrait signifier des API plus restrictives, des limitations sur la transparence des raisonnements internes et peut-être une fragmentation accrue entre blocs technologiques.

Restez à la pointe de l'information avec LEBIGDATA.FR !

▶ Abonnez-vous à notre chaîne YouTube et Ajoutez-nous à vos favoris sur Google Actualités
1 commentaires

1 commentaire

  1. Du coup ça dérangé personne sue antropic vole tout le monde mais c’est gênant qu’il se fasse volé ?
    Faut peut être ce réveiller

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter

La newsletter IA du futur

Rejoins nos 100 000 passionnés et experts et reçois en avant-première les dernières tendances de l’intelligence artificielle🔥