Le Département de la Défense américain évalue actuellement l’éventualité d’inscrire la société d’intelligence artificielle Anthropic sur la « liste noire des risques liés à la chaîne d’approvisionnement », afin de bloquer son modèle phare Claude dans le système de défense. La tension provient de divergences concernant l’utilisation militaire : Anthropic insiste sur la mise en place de garde-fous éthiques, soulignant que ses produits ne doivent pas être utilisés pour la surveillance ou les armes ; le Pentagone, quant à lui, estime que l’IA militaire doit pouvoir servir à toutes les applications.
Le partenariat militaire tourne au vinaigre : Anthropic face à une évaluation de « risque dans la chaîne d’approvisionnement »
Selon Axios, le Département de la Défense basé au Pentagone envisage de couper ses liens avec Anthropic et de l’inscrire sur la « liste noire des risques dans la chaîne d’approvisionnement ». Il s’agit généralement d’une mesure punitive contre des acteurs étrangers hostiles, qui pourrait interdire à toutes les entreprises collaborant avec l’armée américaine d’utiliser les systèmes d’IA d’Anthropic.
Actuellement, le modèle Claude d’Anthropic est intégré dans plusieurs systèmes militaires confidentiels. En cas de retrait forcé, les contractants concernés devront faire face à d’importants coûts techniques et de conformité, avec une estimation de contrats de défense potentiellement affectés d’environ 200 millions de dollars.
L’incident de Maduro : la frontière de l’utilisation militaire de l’IA remise en question
L’un des points de discorde concerne l’utilisation de Claude dans une mission militaire en janvier dernier contre le président vénézuélien Nicolás Maduro, une opération réalisée avec succès grâce à une collaboration entre Anthropic et la société d’analyse de données Palantir.
Selon des sources, les hauts responsables d’Anthropic ont par la suite interrogé sur cette utilisation spécifique, laissant entendre qu’ils avaient des réserves quant à l’emploi de leur modèle dans des opérations impliquant des tirs réels. Cette démarche a suscité le mécontentement du Pentagone, qui estime qu’une entreprise ne devrait pas remettre en question l’utilisation militaire dans le cadre d’un partenariat déjà signé. Des négociations ont ensuite été engagées à plusieurs reprises sur l’étendue de l’usage de l’IA, notamment dans la surveillance, le renseignement et la recherche d’armes.
Le porte-parole du Pentagone, Sean Parnell, a confirmé cette information, la qualifiant de question de sécurité nationale : « Nos partenaires doivent être prêts à aider nos combattants à gagner dans n’importe quel combat. En fin de compte, il s’agit de la sécurité de nos forces et du peuple américain. »
Quand l’éthique rencontre la sécurité nationale : une position ferme du ministère de la Défense
Dario Amodei, PDG d’Anthropic, a toujours plaidé pour l’établissement de limites éthiques claires pour l’IA. La politique d’utilisation de l’entreprise interdit explicitement l’emploi de ses modèles pour la conception d’armes, la surveillance intérieure ou les systèmes d’armes entièrement autonomes, sauf dans le cadre d’évaluations spécifiques sous contrat.
(De l’outil totalitaire aux risques de dérapage incontrôlé : le PDG d’Anthropic détaille les cinq grands dangers que l’IA puissante pourrait faire peser sur l’humanité)
Cependant, le Pentagone considère que l’IA militaire doit pouvoir être utilisée « pour toutes les applications légales », soulignant que la réalité du champ de bataille comporte souvent des zones grises, et que des restrictions trop rigides pourraient réduire la flexibilité opérationnelle. Il est également rapporté que le ministère de la Défense applique des standards similaires à d’autres fournisseurs d’IA, tels qu’OpenAI, Google et xAI (Grok).
(Participation de SpaceX à la compétition pour la technologie de drones du Pentagone, Musk s’attaque à l’intégration de l’IA dans l’armement)
L’affrontement entre géants de la tech s’intensifie : Musk critique Claude pour ses « biais raciaux »
Pendant que le Département de la Défense examine la situation, Anthropic fait face à des critiques publiques de la part de ses concurrents. Elon Musk, fondateur de Tesla et xAI, a récemment accusé Claude de présenter des biais idéologiques, notamment en ce qui concerne ses outputs jugés peu amicaux envers certaines races. Étant donné que xAI et Anthropic sont en concurrence directe sur le marché des grands modèles linguistiques et des applications de défense, cette critique est aussi perçue comme une manœuvre de rivalité industrielle.
Actuellement, des responsables gouvernementaux admettent que, dans certains scénarios gouvernementaux et applications confidentielles, d’autres modèles restent légèrement inférieurs à Claude, ce qui complique la décision de changer rapidement de fournisseur. Si le Pentagone décide finalement d’inscrire Anthropic sur la liste noire, ce sera la première fois que les États-Unis sanctionnent une entreprise technologique nationale pour des questions liées à l’utilisation de l’IA, marquant une étape symbolique dans la coopération en matière de technologie de défense.