Blog

Anthropic a proposé Claude pour des essaims de drones : la fin du mythe éthique

Anthropic, le champion auto-proclamé de l’éthique IA, a soumis une proposition pour un concours du Pentagone à 100 millions de dollars visant à développer des essaims de drones autonomes contrôlés par la voix. Avec Claude. C’est Bloomberg qui révèle l’information — et elle change tout ce qu’on croyait savoir sur les limites éthiques de l’IA.

Ce que Bloomberg a révélé

TL;DR : Anthropic a candidaté à un programme militaire de 100M$ pour coordonner des essaims de drones avec Claude, tout en refusant publiquement l’usage militaire de son IA.

Les faits, selon des sources proches du dossier (Bloomberg, 2 mars 2026) :

  • Le concours : un « prize challenge » du Pentagone doté de 100 millions de dollars
  • L’objectif : développer des technologies d’essaims de drones autonomes, opérant dans les airs et en mer
  • La proposition d’Anthropic : utiliser Claude pour interpréter les ordres vocaux d’un commandant et les convertir en commandes numériques de coordination d’essaim
  • Le résultat : Anthropic n’a pas été retenu
  • Le contexte : la soumission a eu lieu pendant les négociations tendues entre Anthropic et le Pentagone sur les limites d’utilisation militaire de Claude

Le budget total du Département de la Défense américain pour les systèmes autonomes : 13,4 milliards de dollars pour l’année fiscale 2026 (The Atlantic).

La chronologie qui détruit le narratif

TL;DR : En quelques semaines, Anthropic est passé du refus éthique à la proposition commerciale militaire, puis au bannissement.

Remettez les événements dans l’ordre :

  1. Janvier 2026 : Claude est utilisé pour la capture de Maduro au Venezuela
  2. Anthropic s’oppose : « pas d’usage violent de nos modèles »
  3. En parallèle : Anthropic soumet une proposition pour coordonner des essaims de drones avec Claude
  4. Le Pentagone exige un accès total et illimité
  5. Anthropic refuse les conditions
  6. Trump bannit Claude de toutes les agences fédérales
  7. 3 heures plus tard : l’armée utilise Claude pour les frappes sur l’Iran (Reuters, 2 mars)
  8. OpenAI signe immédiatement avec le Pentagone

La question se pose : comment peut-on simultanément refuser l’usage militaire et candidater à un programme d’essaims de drones ?

L’argument d’Anthropic : coordination ≠ ciblage

TL;DR : Anthropic distingue « coordonner un essaim » et « décider qui tuer ». Cette distinction tient-elle la route ?

La position d’Anthropic, selon les sources Bloomberg :

  • Claude ne ferait que traduire les ordres vocaux en commandes structurées
  • Aucune décision de ciblage ou de tir ne serait déléguée à l’IA
  • Les opérateurs humains conserveraient le contrôle et pourraient intervenir à tout moment
  • C’est de la coordination, pas de l’armement

Sur le papier, c’est cohérent avec leur politique (« nous soutenons les applications militaires légales, mais pas les armes entièrement autonomes »).

Dans la réalité, cette distinction est extrêmement fragile :

  • Un essaim de drones coordonné par IA est un système d’armes, même si l’IA ne « tire » pas
  • La frontière entre coordination et ciblage est aussi floue qu’un drone à 10 km d’altitude
  • En contexte opérationnel, le commandant qui parle dans son casque attend de l’IA qu’elle fasse le job — pas qu’elle s’arrête à mi-chemin pour des raisons éthiques
  • Le précédent Iran montre que les restrictions théoriques ne survivent pas au champ de bataille

Ce que ça signifie pour l’industrie IA

TL;DR : Aucune entreprise IA ne peut rester en dehors du militaire. La question est comment, pas si.

Cette révélation a trois implications majeures :

1. La fin de l’éthique comme argument commercial

Anthropic a bâti sa marque sur le Constitutional AI, la sécurité, les garde-fous. Cette proposition montre que même le plus éthique des acteurs répond aux appels d’offres militaires. L’éthique IA n’est pas un absolu — c’est un spectre.

2. La course aux contrats militaires s’accélère

Avec 13,4 milliards de budget et OpenAI qui signe dans la foulée du bannissement d’Anthropic, le message est clair : l’IA militaire est le prochain marché géant. Les entreprises qui n’y vont pas perdent en influence politique ET en revenus.

3. La régulation est urgente

Il n’existe aucun cadre international pour :

  • Définir ce qu’est une « arme autonome » vs un « outil de coordination »
  • Encadrer l’usage de LLMs dans des contextes militaires
  • Garantir le contrôle humain dans les systèmes d’essaims de drones
  • Auditer les décisions prises par des IA en situation de combat

Ce que les entreprises françaises doivent retenir

TL;DR : Si même Anthropic ne peut pas tracer de ligne claire entre usage civil et militaire, votre propre gouvernance IA a besoin d’être revue.

  • Auditez vos fournisseurs IA — savez-vous si votre fournisseur a des contrats militaires ? Ça peut affecter la disponibilité, la politique de données, les sanctions
  • Définissez vos propres limites — ne comptez pas sur les CGU du fournisseur
  • Préparez-vous aux implications RGPD — l’usage de modèles liés à des programmes militaires pose des questions de conformité
  • Formez vos équipes — le débat éthique IA n’est plus théorique, il a des conséquences business directes

Questions fréquentes

Anthropic a-t-il réellement proposé des drones tueurs ?

Non, pas directement. La proposition portait sur la coordination d’essaims de drones par commande vocale via Claude — de la communication et de la planification, pas du ciblage. Mais la distinction est fine : un système qui coordonne un essaim de drones armés contribue mécaniquement à leur capacité offensive, même sans « appuyer sur la gâchette ».

Pourquoi Anthropic n’a-t-il pas été retenu ?

Les raisons exactes ne sont pas publiques. Mais le contexte de conflit ouvert avec le Pentagone (refus d’accès illimité, bannissement par Trump) rend peu probable qu’Anthropic obtienne des contrats militaires à court terme. OpenAI a pris cette place.

Un LLM peut-il vraiment coordonner un essaim de drones ?

Techniquement, oui. Un LLM peut interpréter des ordres en langage naturel et les convertir en commandes structurées pour des systèmes autonomes. La Chine a déjà démontré un essaim de 200 drones contrôlé par un seul soldat (janvier 2026, PLA Swarm I). La technologie existe — c’est le cadre d’usage qui manque.

Quel impact pour les entreprises qui utilisent Claude ?

L’impact direct est limité — Claude reste un modèle commercial standard. Mais le risque géopolitique augmente : sanctions, restrictions d’export, changements de politique. Les entreprises dépendantes d’un seul fournisseur IA américain doivent diversifier.


Vous voulez auditer votre dépendance aux fournisseurs IA et construire une stratégie résiliente ? Contactez BubbleStone AI pour un diagnostic gratuit.