Quelques heures après que le président Donald Trump a ordonné aux agences fédérales de cesser d’utiliser les outils d’IA d’Anthropic, l’armée américaine a mené une importante frappe aérienne contre l’Iran, qui aurait utilisé la plateforme Claude de l’entreprise. Le Commandement central des États-Unis a utilisé Claude pour des évaluations de renseignement, l’identification de cibles et la simulation de scénarios de bataille lors des frappes en Iran, ont confirmé des sources proches du dossier au Wall Street Journal samedi. Cela malgré la directive de Trump vendredi, demandant aux agences de commencer un retrait progressif de six mois des produits d’Anthropic, suite à l’échec des négociations entre l’entreprise et le Pentagone concernant l’utilisation par ce dernier de systèmes d’IA commercialement développés. Decrypt a contacté le Département de la Défense et Anthropic pour un commentaire.
« Lorsque les outils d’IA sont déjà intégrés dans des systèmes d’intelligence et de simulation en direct, les décisions en haut lieu ne se traduisent pas instantanément par des changements sur le terrain », a déclaré à Decrypt Midhun Krishna M, co-fondateur et PDG de TknOps.io, un suivi des coûts de LLM. « Il y a un décalage — technique, procédural et humain. » « Lorsqu’un modèle est intégré dans des systèmes d’intelligence et de simulation classifiés, vous faites face à des coûts d’intégration irrécupérables, à une reformation, à des re-certifications de sécurité et à des tests parallèles, donc un retrait de six mois peut sembler décisif, mais la charge financière et opérationnelle réelle est bien plus profonde », a ajouté Krishna. « Les agences de défense vont désormais privilégier la portabilité et la redondance des modèles », a-t-il dit. « Aucun opérateur militaire sérieux ne veut découvrir en crise que sa couche d’IA est politiquement fragile. »
Le PDG d’Anthropic, Dario Amodei, a déclaré jeudi que l’entreprise ne supprimerait pas les protections empêchant Claude d’être déployé pour une surveillance domestique de masse ou des armes entièrement autonomes. « Nous ne pouvons pas, en conscience, accéder à leur demande », a écrit Amodei, après que le Département de la Défense a exigé que ses contractants permettent l’utilisation de leurs systèmes pour « tout usage légal ». « Les extrémistes de gauche chez Anthropic ont commis une ERREUR CATASTROPHIQUE en tentant de faire pression sur le Département de la Guerre », a ensuite écrit Trump sur Truth Social, ordonnant aux agences de « cesser immédiatement » toute utilisation des produits d’Anthropic. Le secrétaire à la Défense, Pete Hegseth, a suivi en désignant Anthropic comme un « risque dans la chaîne d’approvisionnement pour la sécurité nationale », une étiquette auparavant réservée aux adversaires étrangers, interdisant à tous les contractants et partenaires du Pentagone toute activité commerciale avec l’entreprise. Anthropic a qualifié cette désignation d’« inédite » et a promis de la contester en justice, affirmant qu’elle n’avait « jamais été appliquée publiquement à une entreprise américaine ». L’entreprise a ajouté qu’à sa connaissance, les deux restrictions contestées n’avaient pas affecté à ce jour une seule mission gouvernementale. « Le débat ne porte pas sur l’utilisation de l’IA dans la défense, cela se produit déjà », a ajouté Krishna. « Il s’agit de savoir si les laboratoires de pointe peuvent maintenir des garde-fous différenciés une fois que leurs systèmes deviennent des actifs opérationnels sous des contrats « tout usage légal ». » OpenAI a rapidement comblé le vide, le PDG Sam Altman annonçant vendredi soir un accord avec le Pentagone concernant des réseaux militaires classifiés, affirmant qu’il comprenait les mêmes garde-fous que ceux recherchés par Anthropic.
Hier, nous avons conclu un accord avec le Département de la Guerre pour déployer des systèmes d’IA avancés dans des environnements classifiés, que nous avons demandé qu’ils mettent à la disposition de toutes les entreprises d’IA.
Nous pensons que notre déploiement comporte plus de garde-fous que tout accord précédent pour l’IA classifiée…
— OpenAI (@OpenAI) 28 février 2026
Interrogé sur le fait que la mise sur liste noire effective d’Anthropic par le Pentagone pourrait établir un précédent inquiétant pour de futurs différends avec des entreprises d’IA, le PDG d’OpenAI, Sam Altman, a répondu sur X : « Oui ; je pense que c’est un précédent extrêmement effrayant, et j’aurais préféré qu’ils gèrent cela différemment. Je ne pense pas qu’Anthropic ait bien géré non plus, mais en tant que partie plus puissante, je tiens le gouvernement davantage responsable. J’espère encore une résolution bien meilleure », a-t-il ajouté. Par ailleurs, près de 500 employés d’OpenAI et de Google ont signé une lettre ouverte avertissant que le Pentagone tentait de faire s’affronter les entreprises d’IA.