在特朗普采取行动切断关系后,Anthropic的人工智能被用于伊朗罢工:华尔街日报

Decrypt

简要

  • 据报道,美国中央司令部在伊朗空袭期间使用Anthropic的Claude进行情报评估、目标识别和战斗模拟。
  • 专家警告,六个月的逐步淘汰时间表低估了替换嵌入在机密国防管线中的AI模型的真实成本。
  • OpenAI在Anthropic的风波之后与五角大楼达成了协议。

在特朗普总统下令联邦机构停止使用Anthropic的AI工具数小时后,美军对伊朗发动了一次重大空袭,据报道此次行动依赖于该公司的Claude平台。 据《华尔街日报》周六报道,知情人士确认,美国中央司令部在伊朗空袭期间使用Claude进行情报评估、目标识别和模拟战斗场景。 尽管特朗普在周五发出指令,要求各机构在与五角大楼就如何使用商业开发的AI系统的谈判破裂后,开始为期六个月的逐步淘汰。 _Decrypt_已就此事向国防部和Anthropic寻求评论。

 “当AI工具已经嵌入到实时情报和模拟系统中时,高层的决策并不会立即转化为地面上的变化,”LLM成本追踪平台TknOps.io的联合创始人兼CEO Midhun Krishna M告诉_Decrypt_。“存在滞后——技术、程序和人为因素。” “当模型嵌入到机密情报和模拟系统中时,你面对的是沉没的整合成本、再培训、安全重新认证和并行测试,所以六个月的逐步淘汰听起来很果断,但真正的财务和操作负担要深得多,”Krishna补充道。 “国防机构现在将优先考虑模型的可移植性和冗余性,”他说。“没有哪个严肃的军事操作者希望在危机中发现其AI层面在政治上脆弱。”

Anthropic的CEO Dario Amodei周四表示,公司不会移除阻止Claude被用于大规模国内监控或完全自主武器的安全措施。 “我们不能良心上答应他们的请求,”Amodei写道,在国防部要求承包商允许其系统用于“任何合法用途”之后。 “Anthropic的左翼疯子们试图强行施压国防部,犯下了灾难性的错误,”特朗普随后在Truth Social上写道,命令各机构“立即停止”使用Anthropic的所有产品。 国防部长Pete Hegseth随后将Anthropic列为“国家安全的供应链风险”,这一标签此前只授予外国对手,禁止所有五角大楼承包商和合作伙伴与该公司进行商业活动。 Anthropic称这一指控“前所未有”,并誓言将通过法律途径挑战,称其“从未公开适用于美国公司”。 该公司补充说,据其所知,这两项有争议的限制迄今尚未影响任何一项政府任务。 “争论的焦点不在于AI是否会被用于国防,这已经在发生了,”Krishna补充。“而在于前沿实验室能否在其系统成为‘任何合法用途’合同下的运营资产后,保持差异化的防护措施。” OpenAI迅速行动,CEO Sam Altman在周五晚上宣布与五角大楼达成一项涉及机密军事网络的协议,声称其中包含了与Anthropic所寻求的相同的防护措施。

昨天我们与国防部达成协议,在机密环境中部署先进的AI系统,我们请求他们向所有AI公司提供这些系统。

我们认为我们的部署比任何以前的机密AI协议都具有更多的防护措施……

— OpenAI (@OpenAI) 2026年2月28日

当被问及五角大楼对Anthropic的实际黑名单是否为未来与AI公司争端树立了令人担忧的先例时,OpenAI的CEO Sam Altman在X上回应:“是的;我认为这是一个非常可怕的先例,我希望他们以不同的方式处理这件事。 我也不认为Anthropic处理得很好,但作为更强势的一方,我认为政府应承担更多责任。我仍然希望能达成一个更好的解决方案,”他补充道。 与此同时,近500名OpenAI和Google的员工签署了一封公开信,警告五角大楼试图让AI公司相互对立。

查看原文
免责声明:本页面信息可能来自第三方,不代表 Gate 的观点或意见。页面显示的内容仅供参考,不构成任何财务、投资或法律建议。Gate 对信息的准确性、完整性不作保证,对因使用本信息而产生的任何损失不承担责任。虚拟资产投资属高风险行为,价格波动剧烈,您可能损失全部投资本金。请充分了解相关风险,并根据自身财务状况和风险承受能力谨慎决策。具体内容详见声明
评论
0/400
暂无评论