Blog

DeepSeek a-t-il volé Claude ? 24 000 faux comptes et 16 millions d'échanges

Anthropic affirme avoir identifié des campagnes massives de distillation contre Claude par DeepSeek, MoonshotAI et MiniMax. 24 000 faux comptes. 16 millions d’échanges. Ciblés sur ce que Claude fait de mieux : le raisonnement, le tool use, le code. Un modèle distillé sans accord, c’est un modèle sans garde-fous — et quand il est open-sourcé, ces capacités se répandent librement.

Comment fonctionne la distillation sauvage

TL;DR : Vous posez des millions de questions au meilleur modèle, vous récupérez ses réponses, et vous entraînez votre propre modèle dessus. En quelques semaines, vous rattrapez des années de R&D.

Le principe est connu mais l’échelle est inédite :

  1. Création de faux comptes — 24 000 comptes Anthropic créés spécifiquement pour l’opération
  2. Extraction systématique — 16 millions d’échanges ciblés sur les capacités les plus avancées de Claude
  3. Entraînement — les réponses de Claude servent de données d’entraînement pour un nouveau modèle
  4. Reward model — DeepSeek serait allé plus loin en utilisant Claude comme modèle de récompense pour son propre reinforcement learning

Le résultat : un modèle qui reproduit les capacités de Claude sans les années de R&D ni les investissements de sécurité.

Pourquoi c’est un problème de sécurité, pas juste de propriété intellectuelle

TL;DR : Les protections contre les usages dangereux ne survivent pas à la distillation. Et quand le modèle est open-sourcé, c’est irréversible.

Anthropic investit massivement dans les garde-fous de sécurité (RLHF, Constitutional AI, red teaming). Ces protections sont entraînées dans le modèle au prix de performances brutes.

Un modèle distillé copie les capacités sans copier les protections. Le résultat :

  • Capacités de raisonnement avancées ✅
  • Protections contre les usages dangereux ❌
  • Refus de requêtes nocives ❌
  • Transparence sur les limitations ❌

Quand DeepSeek open-source un tel modèle, ces capacités non protégées se répandent dans l’écosystème mondial. C’est irréversible.

Le contexte géopolitique

TL;DR : Le rapport d’Anthropic tombe pile au moment des débats sur les contrôles à l’export de puces vers la Chine. Le timing n’est pas innocent.

Il faut lire ce rapport avec lucidité :

  • Anthropic n’est pas un juge — c’est une partie prenante avec des intérêts commerciaux
  • Le timing est politique — débats en cours au Congrès sur les restrictions d’export
  • Les accusations sont crédibles — la distillation est une pratique connue et documentée
  • Mais les preuves sont propriétaires — impossible de vérifier indépendamment

Ce qui est indiscutable : les modèles d’IA sont devenus des actifs stratégiques nationaux. Et personne n’a encore décidé qui a le droit de faire quoi avec.

Les implications pour les entreprises

TL;DR : Si les plus grands modèles du monde peuvent être copiés en quelques semaines, votre avantage concurrentiel basé sur l’IA est plus fragile que vous ne le pensez.

  1. Ne comptez pas sur un seul fournisseur — la distillation signifie que les capacités se démocratisent rapidement
  2. Votre valeur est dans les données, pas dans le modèle — les modèles se copient, vos données métier non
  3. Investissez dans l’intégration, pas dans le modèle — les workflows, les connexions, l’orchestration — c’est ça qui n’est pas copiable
  4. Surveillez les modèles open source — ils rattrapent les modèles propriétaires à vitesse grand V

Questions fréquentes

La distillation est-elle légale ?

C’est une zone grise juridique. Les CGU d’Anthropic l’interdisent explicitement, mais les CGU ne sont pas des lois. Il n’existe aucun cadre légal international spécifique à la distillation de modèles IA. Le droit d’auteur classique est mal adapté car les réponses d’un LLM ne sont pas clairement protégées.

DeepSeek est-il toujours utilisable en entreprise ?

DeepSeek est un modèle open source performant, mais son origine pose question. Pour une entreprise française soumise au RGPD, l’utilisation d’un modèle potentiellement entraîné sur des données volées crée un risque juridique. Privilégiez des modèles avec une chaîne de provenance claire.

Comment protéger son propre modèle contre la distillation ?

Rate limiting, détection de patterns d’extraction, watermarking des réponses, et clauses contractuelles. Mais aucune protection n’est infaillible. La meilleure défense est de construire sa valeur sur l’intégration et les données propriétaires, pas sur le modèle lui-même.


Vous voulez construire une stratégie IA résiliente ? Contactez BubbleStone AI pour un audit de votre architecture.