Wall Street Journal révèle que, malgré l’interdiction de Trump, l’armée américaine a toujours utilisé Claude lors des bombardements en Iran. En refusant une utilisation militaire illimitée, Anthropic a perdu un contrat de 200 millions de dollars et a été classé comme « risque dans la chaîne d’approvisionnement ». Le Pentagone a désormais collaboré avec OpenAI.
Récemment, l’attaque conjointe des États-Unis et d’Israël contre l’Iran a suscité une attention internationale. Cependant, selon le Wall Street Journal, quelques heures après l’interdiction de Trump, l’armée américaine a utilisé le système Claude lors d’un raid en Iran.
Des sources proches ont indiqué que le gouvernement de Trump avait donné l’ordre vendredi dernier aux agences fédérales de cesser toute collaboration avec cette société, et avait demandé au Département de la Défense de la considérer comme un « risque potentiel pour la sécurité ». Mais, y compris le CENTCOM, les commandements militaires ont continué à utiliser le modèle Claude d’Anthropic pour le soutien opérationnel, aidant à l’analyse du renseignement, à l’identification des cibles potentielles et à la simulation de terrain.
La raison de l’interdiction de Claude par le gouvernement américain réside dans l’échec des négociations contractuelles, Anthropic ayant refusé de dépasser les limites de sécurité imposées par le gouvernement, permettant aux responsables militaires d’utiliser leur IA sans restriction dans tout contexte légal.
Auparavant, Anthropic avait obtenu un contrat pluriannuel d’une valeur de 200 millions de dollars avec le Pentagone, aux côtés d’autres grands acteurs de l’IA. Grâce à des partenariats avec Palantir et Amazon Web Services, Claude était autorisé pour le renseignement classifié et les opérations militaires.
Le Wall Street Journal indique que Claude a également été impliqué dans des opérations militaires précoces, notamment en janvier dernier, lors d’une mission en Venezuela qui a conduit à l’arrestation du président Nicolás Maduro, transféré de force aux États-Unis où il a clamé son innocence lors du procès.
Cependant, après que le ministre de la Défense Pete Hegseth a exigé qu’Anthropic permette une utilisation illimitée de Claude par l’armée, la tension a augmenté. Le PDG d’Anthropic, Dario Amodei, a refusé cette demande, affirmant que certaines applications dépassent une ligne morale que la société ne franchira jamais, même si cela signifie perdre des contrats gouvernementaux.
En réponse, le Pentagone a commencé à chercher des fournisseurs alternatifs, et a conclu un accord avec OpenAI pour déployer le modèle ChatGPT sur des réseaux militaires sécurisés.
Après avoir signé un accord avec l’armée américaine, OpenAI a rapidement fait face à des critiques. Sreemoy Talukdar, rédacteur en chef de Firstpost, a commenté que, auparavant, Anthropic avait clairement indiqué qu’il ne voulait pas violer ses principes fondamentaux concernant la surveillance massive nationale et les systèmes d’armes autonomes. Par la suite, le ministère de la Guerre sous Trump a suspendu leur collaboration.
Mais aujourd’hui, le PDG d’OpenAI, Sam Altman, affirme que le ministère de la Guerre a accepté ces mêmes principes de sécurité, ce qui a suscité un débat public sur les standards des contrats.
Source : X OpenAI reprend le contrat avec l’armée américaine, suscitant des critiques
Anthropic, en refusant de permettre à l’armée américaine une utilisation illimitée de Claude, est actuellement en conflit avec la Maison Blanche. Le ministre de la Défense Pete Hegseth a publiquement désigné Anthropic comme un « risque dans la chaîne d’approvisionnement ».
Cela fait d’Anthropic la première société américaine à être officiellement étiquetée « risque dans la chaîne d’approvisionnement », une classification généralement réservée aux entreprises ayant des liens directs avec des adversaires étrangers.
Après cette classification, le gouvernement pourra exiger de tous les contractants travaillant avec l’armée qu’ils prouvent que leurs activités militaires n’impliquent pas les produits d’Anthropic. Face à cette décision, Anthropic prévoit de contester cette classification en justice, déclarant :
« Cela va à l’encontre de la loi et crée un dangereux précédent pour toute entreprise américaine négociant avec le gouvernement. Peu importe les menaces ou sanctions du ministère de la Guerre, notre position contre la surveillance massive nationale ou les armes autonomes reste inchangée. »
Lecture complémentaire :
Sécurité nationale vs Éthique : Anthropic refuse de retirer la sécurité de Claude, confrontation avec le ministère de la Défense