Blog

L'IA qui refuse la guerre fait quand même la guerre — le paradoxe Anthropic

L’IA qui refuse la guerre fait quand même la guerre

Le 1er mars 2026, l’armée américaine a utilisé Claude d’Anthropic pour ses frappes sur l’Iran — intelligence, sélection de cibles, simulations de combat. Trois heures après que Trump ait ordonné l’arrêt de tout usage de Claude dans les agences fédérales.

Anthropic refuse l’usage militaire. Le Pentagone s’en fiche. OpenAI prend la relève. L’IA est désormais un outil de guerre, que ses créateurs le veuillent ou non.


Vous voulez intégrer l’IA dans votre stratégie ? Contactez BubbleStone AI pour un diagnostic gratuit.