Selon une exclusivité d’Axios, le Pentagone envisage de mettre fin à sa collaboration avec Anthropic, car cette société d’IA insiste pour limiter l’utilisation de Claude par l’armée, refusant d’ouvrir les deux domaines clés que sont la surveillance de masse et les armes autonomes totalement autonomes. Il est à noter que OpenAI, Google et xAI ont tous accepté les « usages légaux » du Pentagone, faisant d’Anthropic le seul des quatre grands laboratoires d’IA à rester un client fidèle.
(Précédent contexte : le nouveau projet de Musk « Base lunaire Alpha » : construire une super usine d’IA sur la Lune, lancée vers le système solaire avec un gigantesque propulseur)
(Complément d’information : panique liée à l’IA et chômage ! Un cadre de Microsoft avertit : la majorité des travailleurs de cols blancs seront remplacés par automatisation « dans les 12 à 18 prochains mois »)
Table des matières
Selon une source haut placée citée par Axios, le Pentagone presse les quatre principaux laboratoires d’IA (OpenAI, Google, xAI, Anthropic) d’autoriser l’armée à utiliser leurs outils pour « tous usages légaux » (all lawful purposes), couvrant la recherche d’armes, la collecte de renseignements et les opérations sur le terrain, dans les domaines les plus sensibles.
Cette demande découle du « Mémorandum stratégique sur l’intelligence artificielle » publié par le Département de la Défense le 9 janvier dernier. Le document indique clairement que, dans un délai de 180 jours, la clause « tous usages légaux » doit être intégrée dans tous les contrats d’achat d’IA, ce qui signifie que l’utilisation militaire de l’IA sera alignée sur les standards de l’usage de la force conventionnelle, sans exigence supplémentaire de « contrôle humain significatif ».
Cependant, après plusieurs mois de négociations difficiles, Anthropic n’a toujours pas accepté ces clauses, ce qui agace le Pentagone. Selon cette source :
Tout est possible, y compris réduire ou mettre fin à la collaboration avec Anthropic. Mais si nous estimons que c’est la bonne décision, il faut leur trouver un remplaçant approprié.
Face à la pression du Pentagone, Anthropic maintient deux lignes rouges infranchissables :
L’officiel admet que la zone d’ombre demeure quant à savoir quels scénarios d’utilisation relèvent de ces interdictions, et lesquels ne le sont pas. Si le Pentagone doit négocier au cas par cas chaque usage précis ou si Claude pourrait, dans la pratique, refuser certains usages, cela serait « ingérable ».
Il est à noter qu’Anthropic a signé l’été dernier un contrat prototype de deux ans d’un montant maximal de 200 millions de dollars, faisant de Claude le premier modèle commercial autorisé à fonctionner sur le réseau classifié du Pentagone, pour des tâches allant des tests d’armement à la communication en temps réel lors d’opérations sensibles.
La crise contractuelle trouve son origine dans un incident survenu plus tôt ce mois-ci. Selon Axios du 13 février, lors d’une opération américaine pour attaquer le Venezuela et arrêter l’ancien président Nicolás Maduro, l’armée aurait déployé Claude via la plateforme de Palantir pour traiter des données de renseignement en temps réel.
L’article indique que, après avoir appris cela, des responsables d’Anthropic ont contacté Palantir pour demander si Claude avait été utilisé lors de cette opération, « leur ton laissant entendre qu’ils désapprouvaient cette utilisation, car l’opération impliquait une attaque par énergie cinétique (sans explosion, avec pénétration). »
Claude aurait nié toute implication, ce qui aurait suscité de graves inquiétudes au sein du Pentagone.
Un porte-parole d’Anthropic a catégoriquement nié, affirmant que la société avait discuté avec le ministère de la Défense pour des opérations militaires spécifiques.
Contrairement à Anthropic, les trois autres laboratoires d’IA ont montré une plus grande flexibilité face aux exigences du Pentagone :
Selon des sources, au moins l’un de ces trois a entièrement accepté la clause « tous usages légaux », tandis que les deux autres ont montré une flexibilité bien supérieure à celle d’Anthropic. Cela place Anthropic comme le seul à maintenir une position de sécurité stricte, mais aussi à risquer d’être marginalisé.
L’extension ultime des produits d’IA est de servir l’État, et la dimension militaire est une réalité incontournable.