在特朗普总统下令联邦机构停止使用Anthropic的AI工具数小时后,美军对伊朗发动了一次重大空袭,据报道此次行动依赖于该公司的Claude平台。 据《华尔街日报》周六报道,知情人士确认,美国中央司令部在伊朗空袭期间使用Claude进行情报评估、目标识别和模拟战斗场景。 尽管特朗普在周五发出指令,要求各机构在与五角大楼就如何使用商业开发的AI系统的谈判破裂后,开始为期六个月的逐步淘汰。 _Decrypt_已就此事向国防部和Anthropic寻求评论。
“当AI工具已经嵌入到实时情报和模拟系统中时,高层的决策并不会立即转化为地面上的变化,”LLM成本追踪平台TknOps.io的联合创始人兼CEO Midhun Krishna M告诉_Decrypt_。“存在滞后——技术、程序和人为因素。” “当模型嵌入到机密情报和模拟系统中时,你面对的是沉没的整合成本、再培训、安全重新认证和并行测试,所以六个月的逐步淘汰听起来很果断,但真正的财务和操作负担要深得多,”Krishna补充道。 “国防机构现在将优先考虑模型的可移植性和冗余性,”他说。“没有哪个严肃的军事操作者希望在危机中发现其AI层面在政治上脆弱。”
Anthropic的CEO Dario Amodei周四表示,公司不会移除阻止Claude被用于大规模国内监控或完全自主武器的安全措施。 “我们不能良心上答应他们的请求,”Amodei写道,在国防部要求承包商允许其系统用于“任何合法用途”之后。 “Anthropic的左翼疯子们试图强行施压国防部,犯下了灾难性的错误,”特朗普随后在Truth Social上写道,命令各机构“立即停止”使用Anthropic的所有产品。 国防部长Pete Hegseth随后将Anthropic列为“国家安全的供应链风险”,这一标签此前只授予外国对手,禁止所有五角大楼承包商和合作伙伴与该公司进行商业活动。 Anthropic称这一指控“前所未有”,并誓言将通过法律途径挑战,称其“从未公开适用于美国公司”。 该公司补充说,据其所知,这两项有争议的限制迄今尚未影响任何一项政府任务。 “争论的焦点不在于AI是否会被用于国防,这已经在发生了,”Krishna补充。“而在于前沿实验室能否在其系统成为‘任何合法用途’合同下的运营资产后,保持差异化的防护措施。” OpenAI迅速行动,CEO Sam Altman在周五晚上宣布与五角大楼达成一项涉及机密军事网络的协议,声称其中包含了与Anthropic所寻求的相同的防护措施。
昨天我们与国防部达成协议,在机密环境中部署先进的AI系统,我们请求他们向所有AI公司提供这些系统。
我们认为我们的部署比任何以前的机密AI协议都具有更多的防护措施……
— OpenAI (@OpenAI) 2026年2月28日
当被问及五角大楼对Anthropic的实际黑名单是否为未来与AI公司争端树立了令人担忧的先例时,OpenAI的CEO Sam Altman在X上回应:“是的;我认为这是一个非常可怕的先例,我希望他们以不同的方式处理这件事。 我也不认为Anthropic处理得很好,但作为更强势的一方,我认为政府应承担更多责任。我仍然希望能达成一个更好的解决方案,”他补充道。 与此同时,近500名OpenAI和Google的员工签署了一封公开信,警告五角大楼试图让AI公司相互对立。