Anthropic reprend les négociations avec le Pentagone, l'étiquetage des risques de la chaîne d'approvisionnement menace la coopération militaire en IA

MarketWhisper

Anthropic relance les négociations avec le Pentagone

Le développeur d’intelligence artificielle Anthropic, son PDG Dario Amodei, a repris les négociations avec Emil Michael, vice-ministre de la Recherche et de l’Ingénierie du Département de la Défense des États-Unis, dans le but de parvenir à un accord avant que l’entreprise ne soit officiellement classée comme une entreprise à risque dans la chaîne d’approvisionnement militaire, afin de préserver la coopération militaire. Selon un rapport du Financial Times citant des sources proches du dossier, si Anthropic est officiellement reconnu, elle sera exclue du réseau d’approvisionnement de l’armée américaine.

Le déclencheur de la rupture des négociations : la ligne rouge des clauses sur les Big Data

La semaine dernière, les négociations ont soudainement échoué. Selon des rapports, Emil Michael aurait accusé Dario Amodei, après un affrontement intense, d’être un « menteur » et aurait critiqué son « complexe de Dieu ». Le cœur du conflit résidait dans un désaccord fondamental sur une clause relative à l’utilisation des données : le Pentagone exigeait qu’Anthropic supprime une clause limitant l’analyse de « la collecte massive de données » dans le contrat, en échange de l’acceptation des autres conditions d’Anthropic.

Amodei a clairement indiqué dans une note interne que cette clause visait à prévenir toute surveillance massive nationale potentielle, et qu’Anthropic la considérait comme une ligne rouge intransigeante, au même titre que l’interdiction d’utiliser l’IA pour des systèmes d’armes autonomes létaux. Le secrétaire à la Défense, Pete Hegseth, a ensuite intensifié la pression, avertissant que si un consensus n’était pas trouvé, Anthropic serait officiellement reconnue comme une entreprise à risque dans la chaîne d’approvisionnement.

Le déploiement militaire de Claude : une dépendance profonde derrière un contrat de 200 millions de dollars

Malgré la crise diplomatique, les liens commerciaux entre Anthropic et l’armée américaine dépassent largement ce que l’on pensait :

  • Contrat secret de 200 millions de dollars : signé en juillet 2025, Claude est devenu le premier modèle d’IA commerciale à accéder à un environnement classifié et à des agences de sécurité nationale.
  • Soutien aux frappes en Iran : l’armée américaine a utilisé le modèle Claude pour soutenir une opération majeure de bombardement en Iran, quelques heures seulement après que Trump ait ordonné aux agences fédérales de désactiver le système d’Anthropic.
  • Déploiements secrets étendus : Claude fonctionne déjà dans plusieurs scénarios de renseignement classifié, mais la portée complète de son déploiement n’a pas encore été rendue publique.

Ce contexte rend la position ferme du Pentagone extrêmement contradictoire : d’un côté, il dépend de Claude pour exécuter des missions militaires cruciales, et de l’autre, il menace de le classer comme une menace à la sécurité, ce qui suscite une attention considérable dans l’industrie.

Une alliance technologique pour la sauvegarde : Nvidia, Apple et autres envoient une lettre conjointe à Trump

Mercredi, plusieurs grandes organisations du secteur technologique ont adressé une lettre ouverte conjointe à Trump, avertissant que classer une entreprise américaine d’IA comme une menace dans la chaîne d’approvisionnement pourrait fondamentalement nuire à l’avantage concurrentiel des États-Unis face à la Chine dans la course mondiale à l’IA. Les signataires incluent l’Association des industries logicielles et de l’information, TechNet, l’Association des industries de l’informatique et des communications, la Business Software Alliance, avec des membres tels que Nvidia, Google (filiale d’Alphabet) et Apple, représentant des centaines d’entreprises technologiques américaines.

La lettre souligne que « considérer une entreprise technologique américaine comme un adversaire étranger plutôt que comme un atout » entraverait l’innovation et affaiblirait la compétitivité mondiale de l’industrie de l’IA américaine.

Questions fréquentes

Pourquoi Anthropic refuse-t-elle de supprimer la clause sur l’analyse massive de données ?
Anthropic considère cette clause comme une barrière de sécurité essentielle pour prévenir une surveillance massive nationale, et l’associe à la ligne rouge interdisant l’utilisation de l’IA pour des systèmes d’armes autonomes létaux. Dario Amodei a clairement indiqué dans une note interne que supprimer cette clause reviendrait à permettre au gouvernement d’utiliser Claude pour une surveillance de masse des citoyens, ce qui constitue une position intransigeante pour l’entreprise.

Quelles seraient les conséquences concrètes si Anthropic était classée comme une entreprise à risque dans la chaîne d’approvisionnement ?
Une reconnaissance officielle exclurait Anthropic du réseau d’approvisionnement de l’armée et du gouvernement fédéral américain. Le contrat secret de 200 millions de dollars pourrait être annulé, et tous les sous-traitants gouvernementaux utilisant Claude pourraient être contraints de couper leurs relations commerciales. Pour Anthropic, cela représenterait non seulement un coup financier, mais aussi une atteinte à sa crédibilité globale sur les marchés d’entreprise et gouvernementaux.

Pourquoi Nvidia, Apple et d’autres géants technologiques interviennent-ils pour défendre Anthropic ?
Leur soutien ne vise pas simplement à défendre Anthropic, mais à avertir que de tels précédents pourraient mettre en danger toute l’industrie de l’IA américaine. Si le gouvernement peut, par décret, classer toute entreprise locale d’IA comme une menace à la sécurité, cela créerait un effet de dissuasion généralisé dans le secteur, affaiblissant la confiance et l’innovation des entreprises technologiques américaines sur le marché mondial.

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire