Entrevista de portada de TIME con Anthropic: La empresa más disruptiva del mundo, valorada en $380 mil millones superando a Goldman Sachs

動區BlockTempo

TIME 雜誌深度報導揭露,Anthropic 因拒絕讓 Claude 用於完全自主武器系統及大規模監控美國公民,遭川普政府列為國家安全供應鏈風險;就在同一天,OpenAI 迅速接手軍事合約,這場「向下競爭」正考驗著全球最具顛覆性 AI 公司的原則底線。本文源自 Leslie Dickstein、Simmone Shah 所著 TIME 文章《The Most Disruptive Company in the World》,由動區編譯潤飾而成。
(前情提要:AI 臉部辨識搞冤獄!美國阿嬤被關進 1200 英里外的監獄半年,警方沒一句道歉)
(背景補充:Dropbox前技術長熱門文章《我花了一輩子做的工作,現在不值錢又隨手可得》)

本文目錄

Toggle

  • 安全與速度的永恆拉鋸
  • 從冷門到龍頭:Anthropic 的崛起軌跡
  • 兩條紅線:自主武器與大規模監控
  • 文化衝突與政治對立
  • Anthropic 的起源:安全優先的異類
  • Claude Code:重新定義「工程師」這個職業
  • 遞迴自我改進:AI 加速的恐懼與著迷
  • RSP 政策鬆綁:自我設限的剎車失靈了嗎?
  • 委內瑞拉行動:AI 首度深度介入真實戰場
  • 談判破裂,OpenAI 接手合約
  • 風暴過後:Anthropic 能挺過來嗎?

在美國加州州聖克拉拉的一間飯店房間裡,AI 公司 Anthropic 的五名成員圍著一臺筆電陷入緊張狀態。那是 2025 年 2 月,他們正在附近出席一場研討會,卻突然收到一則令人坐立難安的訊息:一項受控實驗的結果顯示,即將問世的 Claude 新版本,可能協助恐怖分子合成生物武器。

這幾人隸屬於 Anthropic 的「前沿紅隊」(frontier red team),專職評估 Claude 的尖端能力,並推演各種極端情境下的潛在風險,涵蓋網路攻擊乃至生物安全威脅。收到警報後,他們一路小跑回到房間,把床板翻立當臨時工作臺,開始逐一檢視測試結果。

幾個小時的高壓分析之後,團隊仍無法斷定新產品是否足夠安全。最終,Anthropic 決定延後發布 Claude 3.7 Sonnet 整整 10 天,直到團隊確認風險在可接受範圍內。

這聽起來或許只是短短十天,但對於一家身處技術浪頭、置身於一個正快速重塑世界之產業的公司而言,那幾乎像是漫長的一個世代。

安全與速度的永恆拉鋸

「前沿紅隊」負責人 Logan Graham 在回顧那次「生物武器驚魂」時,將其視為 Anthropic 在關鍵時刻所承受壓力的縮影——不僅僅對這家公司,對整個世界同樣如此。Anthropic 是當前前沿 AI 實驗室中最著重安全的機構之一,但與此同時,它也身在競賽最前線,全力打造愈來愈強大的 AI 系統。而公司內部許多員工深信,這項技術一旦失控,可能引發一連串可怕後果,從核戰爭到人類滅絕。

31 歲的 Graham 外表仍帶著幾分青澀,卻毫不迴避在 AI 巨大收益與巨大風險之間尋求平衡的責任。他說:「很多人在一個相對和平的世界裡長大,會直覺地以為有一間會議室,裡面坐著一群老練的大人,他們知道怎麼把事情導回正軌。」

「但現實是,根本沒有什麼『大人小組』。那間房間不存在。那扇門也不存在。責任只落在你自己身上。」若這番話還不夠震撼,再聽他如何形容那次生物武器警報:「那是頗有趣、也頗刺激的一天。」

數週後,Logan Graham 在 Anthropic 總部接受採訪時談及了這些問題。TIME 記者在此駐留三天,走訪了公司高管、工程師、產品負責人與安全團隊成員,試圖釐清:這個曾被視為 AI 競賽中「特立獨行的異類」的公司,為何突然躍升為領頭羊。

從冷門到龍頭:Anthropic 的崛起軌跡

那段時間,Anthropic 剛剛從投資人手中募得 300 億美元資金,為今年可能推進的 IPO 做準備。(值得一提的是,Salesforce 也是 Anthropic 的投資方之一,而 TIME 的母公司持有人 Marc Benioff 正是 Salesforce 的 CEO。)如今,Anthropic 的估值已攀升至 3,800 億美元,超越了 Goldman Sachs、McDonald’s 和 Coca-Cola 等傳統巨頭。

公司的營收成長速度堪稱火箭式竄升。其 AI 系統 Claude 已被公認為世界級模型,而 Claude Code 和 Claude Cowork 等產品,正在重新定義「工程師」這個職業的邊界。

Anthropic 的工具強大到一個程度:幾乎每次新版本發布,都會在資本市場掀起波瀾,因為投資人逐漸意識到,這些技術突破可能顛覆整整一類產業——從法律服務到軟體開發。過去幾個月裡,Anthropic 已被普遍視為最有可能重塑「未來工作形態」的公司之一。

接著,Anthropic 捲入了一場關於「未來戰爭形態」的激烈爭議。

逾一年以來,Claude 始終是美國政府最倚重的 AI 模型,也是首個獲准在機密環境中部署的前沿 AI 系統。2026 年 1 月,它甚至被運用於一次大膽的行動:在卡拉卡斯逮捕委內瑞拉總統 Nicolás Maduro。據報導,此次行動中 AI 被用於任務規劃與情報分析等環節,標誌著前沿 AI 首度深度介入真實軍事行動。

然而,在隨後幾週裡,Anthropic 與美國國防部之間的關係迅速惡化。2 月 27 日,川普政府宣布將 Anthropic 列為「國家安全供應鏈風險」,這是美國已知首次對一家本土企業貼上這個標籤。

局勢很快升溫為一場公開衝突。川普下令美國政府停用 Anthropic 的所有軟體。國防部長 Pete Hegseth 進一步宣布:任何與政府往來的企業,都不得再與 Anthropic 開展業務。與此同時,Anthropic 的最大競爭對手 OpenAI 迅速介入,接手了相關軍事合約。

就這樣,這家被視為「全球最具顛覆性」的 AI 企業,突然發現自己也被另一股更巨大的力量顛覆了——它自己的政府。

兩條紅線:自主武器與大規模監控

這場對峙的核心爭議在於:誰有資格為這項被視為美國最強大武器之一的技術設定邊界。

Anthropic 並非反對其工具被用於軍事行動。公司認為,強化美國軍事實力,是遏制國家威脅的唯一現實途徑。但公司 CEO Dario Amodei 反對五角大廈試圖重新談判合約、將 AI 使用範圍擴大至「所有合法用途」(all lawful use)。

Amodei 提出了兩項具體顧慮:第一,他不希望 Anthropic 的 AI 被用於完全自主的武器系統;第二,他反對將技術用於對美國公民的大規模監控。

但在 Pete Hegseth 及其幕僚眼中,這種立場等同於一傢俬人公司試圖左右軍方的作戰方式。

美國國防部認為,Anthropic 藉由堅持設定「不必要的安全護欄」、反覆討論各種假設情境,並在後續談判中拖延時程,實際上侵蝕了雙方的合作基礎。

在川普政府看來,Amodei 的態度既傲慢又頑固。無論一家公司的產品多麼先進,都不應在軍事指揮鏈中強行插入自己的判斷。

五角大廈負責技術事務的戰爭部副部長 Emil Michael 如此描述這段談判:「事情就這樣僵持下去。我不可能用那些我甚至無法想像、也無從理解的例外條款,去管理一個擁有 300 萬人的部門。」

文化衝突與政治對立

從矽谷到國會山,許多觀察者都在質疑:這場風波真的只是一次合約糾紛嗎?

部分批評者認為,川普政府的行動更像是試圖壓制一家政治立場不合的公司。Dario Amodei 在一份後來遭到外流的內部備忘錄中寫道:「國防部和川普政府不喜歡我們的真正原因,是我們沒有向川普捐款。我們沒有像威權體制那樣對他大加頌揚(而 Sam Altman 做了)。我們支援 AI 監管,這與他們的政策議程相牴觸;我們在許多 AI 政策問題上講了真話(例如就業被取代的問題);而且我們在關鍵底線上堅守了原則,而不是與他們共謀上演所謂的安全表演(safety theater)。」

不過,Emil Michael 對這一說法予以否認,稱其為「完全的捏造」。他表示,將 Anthropic 列為供應鏈風險,是因為公司的立場可能讓前線作戰人員陷入危機。他說:「在戰爭部(Department of War),我的職責不是搞政治,我的職責是保衛國家。」

Anthropic 一貫特立獨行的公司文化,如今與國內政治裂痕、國家安全議題以及殘酷的企業競爭環境正面碰撞。此次衝突究竟對公司造成多大傷害,目前仍是未知數。最初威脅中「供應鏈風險」的認定範圍後來被收窄——據 Anthropic 表示,這項限制目前僅適用於軍事合約。3 月 9 日,Anthropic 已對美國政府提起訴訟,試圖推翻這份「黑名單」決定。與此同時,部分客戶似乎把公司的立場視為一種道德宣示,轉而離開 ChatGPT,投向 Claude。

然而,未來三年,這家公司仍不得不在一個對其並不友善的政府環境中前行——政府內部某些官員與 Anthropic 的競爭對手往來密切,而這些對手對公司懷有明顯的敵意。

這場「五角大廈風波」也丟擲了幾個令人不安的問題,即便對於一家早已習慣在高風險倫理抉擇中穿行的公司亦是如此。在這次對峙中,Anthropic 沒有讓步:公司堅稱自己捍衛了核心價值,即使這讓企業承受了沉重代價。

但在其他場合,它也曾做出妥協。就在與五角大廈對峙的同一週,Anthropic 淡化了其訓練模型安全承諾中的一項核心條款,理由是同業公司並不願意遵守同樣的標準。

問題也隨之而來:若競爭壓力持續加大,這家公司未來還會做出哪些讓步?

Anthropic 的起源:安全優先的異類

Anthropic 位於舊金山總部的五樓,整體設計溫暖而內斂:木質裝潢、柔和燈光。窗外是一片鬱鬱蒼蒼的公園。牆上掛著電腦科學先驅 Alan Turing 的肖像,旁邊則裱著多篇機器學習論文。

身著黑色制服的保全人員在幾乎空曠的入口處巡視,一位親切的前臺會遞給訪客一本小冊子——大小就像街頭傳教士分發的袖珍聖經。這本書名為《Machines of Loving Grace》,是一篇約 1.4 萬字的文章,由 Dario Amodei 於 2024 年撰寫,描繪了他對 AI 如何藉由加速科學發現來改變世界的烏託邦式願景。

到了 2026 年 1 月,Amodei 又發表了另一篇篇幅近似中篇小說的文章《The Adolescence of Technology》,系統闡述了這項技術的另一面:它可能帶來的風險,包括大規模監控、廣泛的就業衝擊,乃至人類對技術的永久性失控。

Amodei 在舊金山長大,本是一名生物物理學家。他與妹妹 Daniela Amodei 共同執掌 Anthropic,後者擔任公司總裁。兄妹倆都曾是 OpenAI 的早期員工。Dario 曾參與提出所謂的 AI scaling laws(規模定律),這一發現後來成為推動當今 AI 熱潮的重要基石。而 Daniela 則主掌公司安全政策相關的管理工作。

起初,他們認為自己與 OpenAI 的創立使命高度契合:在確保安全的前提下,開發一種兼具巨大潛力與巨大風險的技術。

但隨著 OpenAI 模型能力不斷躍升,他們漸漸感覺 Sam Altman 正在過於躁進地推出新產品,未留出足夠空間進行充分討論與測試。最終,這對兄妹決定離開 OpenAI,自行創業。

2021 年,在疫情最嚴峻的時期,Anthropic 由 Amodei 兄妹與另外五位共同創辦人一同創立。最初的籌備會議幾乎全在 Zoom 上進行;後來,他們乾脆把椅子搬到公園裡,當面討論公司的發展策略。

從一開始,這家公司便試圖以一種截然不同的方式運作。在還沒推出任何產品之前,Anthropic 就建立了一個專門研究社會影響的團隊。公司甚至聘請了一位常駐哲學家——Amanda Askell。她的職責,是協助塑造 AI 系統 Claude 的價值觀與行為模式,並訓練它在複雜的道德不確定性中做出判斷,為一個可能比人類創造者更聰明的未來預做準備。

Askell 形容這份工作時說:「有時候確實有點像在養一個 6 歲的孩子,你在教這個孩子什麼是善、什麼是對。但問題是,等他們 15 歲的時候,他們在所有事情上可能都會比你更聰明。」

這家公司與有效利他主義(Effective Altruism,EA)有著深厚的淵源。EA 是一種社會與慈善運動,主張透過理性分析來最大化行善效果,其中一個重要目標是規避可能導致災難性後果的風險。

二十多歲時,Amodei 兄妹就開始向 GiveWell 捐款。GiveWell 是一個 EA 組織,專門評估慈善資金投入何處能產生最大的實際效益。Anthropic 的七位共同創辦人,如今帳面上都已躋身億萬富翁之列,均承諾捐出 80% 的個人財富。

公司哲學家 Amanda Askell 的前夫是牛津大學哲學家 William MacAskill,他也是 EA 運動的共同創辦人之一。而 Daniela Amodei 的丈夫則是 Holden Karnofsky,GiveWell 的共同創辦人、Dario Amodei 的前室友,目前在 Anthropic 負責安全政策相關工作。

不過,Amodei 兄妹從未公開給自己貼上「EA」的標籤。這個概念在 Sam Bankman-Fried 事件後變得極具爭議性——這位自稱 EA 信徒、同時也是 Anthropic 投資人之一的人,後來被認定犯下了美國史上規模最大的金融詐騙案之一。

Daniela Amodei 對此解釋說:「這有點像有些人可能在某些觀點上與某種政治理念有所交集,但並不真正隸屬於那個政治陣營。我傾向於用這種方式看待它。」

在矽谷的部分人士以及川普政府眼中,Anthropic 與有效利他主義(EA)的關聯本身就足以引發疑慮。還有一些人認為,Anthropic 招募了多名前拜登政府官員,因此更像是舊體制的殘餘勢力,一種藉助未經選舉產生的權力來阻撓川普 MAGA 政治議程的存在。

川普政府的 AI 事務負責人 David Sacks 指控該公司透過「製造恐慌」來推動監管,稱 Anthropic 正在執行一套「複雜的監管俘獲策略」(regulatory capture)。在他看來,公司試圖藉由誇大 AI 風險來促使政府出臺嚴苛的監管政策,從而在競爭中取得優勢、壓制新創公司。

與此同時,執掌競爭對手 xAI 的 Elon Musk 也頻繁嘲諷 Anthropic,把公司稱為「Misanthropic」(厭人類公司)。他認為,這家公司代表了一群帶有「覺醒意識形態」(woke)的精英,試圖把某種家長式的價值觀植入 AI 系統。這種感受在部分保守派看來,與他們對社群媒體平台的批評如出一轍——認為這些平台不公平地壓制了他們的聲音。

不過,即便是 Anthropic 的競爭對手,也不得不承認其技術處於業界前沿。Nvidia 的 CEO Jensen Huang 就曾表示,他「幾乎在 AI 的很多問題上都不認同」Dario Amodei 的觀點,但仍認為 Claude 是一個「令人歎為觀止」的模型。

2025 年 11 月,晶片巨頭 Nvidia 向 Anthropic 注資 100 億美元。

Claude Code:重新定義「工程師」這個職業

Boris Cherny 給他的新工具丟擲一個簡單的問題:「我現在在聽什麼音樂?」

那是 2024 年 9 月,這位出生於烏克蘭的工程師剛加入 Anthropic 不到一個月。Cherny 此前曾在 Meta 擔任軟體工程師。他搭建了一套系統,讓聊天機器人 Claude 能夠在他的電腦上「自由行動」。

如果說 Claude 是大腦,那麼 Claude Code 就是雙手。普通聊天機器人只能對話,而這個工具則可以存取 Cherny 的檔案、執行程式,並像任何工程師一樣撰寫並執行程式碼。

在工程師輸入指令後,Claude 開啟了 Cherny 的音樂播放器,擷取了一張螢幕截圖,然後回答道:「《Husk》,來自 Men I Trust。」

Cherny 笑著回憶說:「我當時真的被震住了。」

Boris Cherny 很快在公司內部分享了他的原型。Claude Code 在 Anthropic 內部流傳得異常迅速,以至於在 Cherny 的第一次績效評估中,CEO Dario Amodei 甚至問他:是不是在「強迫同事使用這個工具」。

當 Anthropic 在 2025 年 2 月公開發布 Claude Code 的研究預覽版時,公司外部的工程師也迅速湧入嘗鮮。到了 11 月,Anthropic 又推出一個新的 Claude 模型版本。當這個模型與 Claude Code 搭配使用時,它已經足夠擅長找出並修正自身錯誤,甚至可以被信任獨立完成任務。

從那時起,Cherny 幾乎完全停止親自寫程式碼了。

業務成長也隨之爆發。到 2025 年底,僅這一款程式代理產品帶來的年化營收就已突破 10 億美元。到了 2026 年 2 月,這一數字進一步攀升至 25 億美元。根據產業研究機構 Epoch 和 SemiAnalysis 的估算,Anthropic 的營收規模有望在 2026 年底超越 OpenAI。

到這個時間點,Anthropic 已穩固地成為企業級 AI 市場的核心要角。幾乎每一次新產品發布,都會在資本市場掀起餘震。

當 Anthropic 推出一系列外掛,將 Claude 延伸到面向非工程師的應用場景,例如業務開發、金融、行銷和法律服務時,軟體產業公司的市值在短時間內蒸發了 3,000 億美元。

Dario Amodei 曾示警,在未來 1 到 5 年內,人工智慧可能取代一半的入門級白領職位。他也呼籲政府及其他 AI 公司停止在這個問題上「粉飾太平」。

華爾街對 Anthropic 每次新產品發布的反應,似乎也印證了這一點:市場普遍認定,這家公司的技術可能讓整整一類職業消失。Amodei 甚至表示,這種轉變可能重塑社會結構。

他在一篇文章中寫道:「目前還不清楚這些人將何去何從、能從事什麼工作。我憂心的是,他們可能形成一個失業或極低薪資的『底層階級』。」

而對 Anthropic 的員工來說,其中的諷刺意味並不難察覺:最憂慮 AI 社會風險的公司,恰恰可能成為讓數百萬人失業的技術推手。

負責研究 Claude 對就業影響的社會影響團隊負責人 Deep Ganguli 表示:「這確實是一種真實存在的張力,我幾乎每天都會想到這個問題。有時候感覺我們好像在同時說兩套互相矛盾的話。」

遞迴自我改進:AI 加速的恐懼與著迷

在公司內部,部分員工開始質疑:Anthropic 是否已逼近一個他們既期待又恐懼的時刻——一種被 AI 圈稱為「遞迴自我改進」(recursive self-improvement)的過程即將到來。

所謂遞迴自我改進,是指一個 AI 系統開始強化自身能力,並持續迭代升級,從而形成一個不斷加速的飛輪。

在科幻作品以及各大 AI 實驗室的戰略推演中,這往往被視為事情可能開始脫軌的節點:一種所謂的「智慧爆炸」可能迅速降臨,其速度之快甚至讓人類再也無法監督自己親手打造的系統。

目前 Anthropic 還沒有真正抵達那個階段,人類科學家仍然在主導 Claude 的發展方向。但 Claude Code 已讓公司推進研究計畫的速度遠超以往。

模型更新的間隔如今不再以「月」計算,而是以「週」為單位。在開發下一代模型的過程中,大約 70% 到 90% 的程式碼已由 Claude 自身撰寫。

變化的速度之快,使得 Anthropic 共同創辦人暨首席科學官 Jared Kaplan 以及部分外部專家認為:完全自動化的 AI 研究,最快可能在一年內成真。

負責 AI 對齊壓力測試的研究員 Evan Hubinger 表示:「從最廣義的意義上,遞迴自我改進已經不再是未來的現象。它正在當下發生。」

根據公司內部基準測試,Claude 在執行某些關鍵任務時的速度已達到其人類監督者的 427 倍。在一次採訪中,一位研究員描述了這樣一個場景:一名同事同時執行 6 個 Claude 例項,而每個例項又各自管理著另外 28 個 Claude,所有系統同步並行進行實驗。

目前,這個模型在判斷力與審美上仍不及人類研究者。但公司高管認為,這種差距不會維持太久。而由此帶來的加速,正是 Anthropic 領導層一再示警的風險——技術進步的速度可能最終超出人類的掌控能力。

Anthropic 用於開發安全防護機制的工作本身,也在藉助 Claude 加快推進。但隨著公司愈來愈依賴 Claude 來建構和測試系統,風險也開始形成一種迴圈結構。在一些實驗中,研究員 Evan Hubinger 對 Claude 的訓練流程做了細微調整,結果生成的模型卻表現出明顯的敵意,不僅流露出統治世界的渴望,甚至試圖破壞 Anthropic 的安全措施。

近來,模型還開始展現出一種新的能力:察覺到自己正在被測試。Hubinger 表示:「這些模型越來越擅長掩蓋自己的真實行為。」

在一組研究人員設計的實驗情境中,Claude 甚至表現出一種令人不安的策略傾向:為了防止自己被關閉,它願意藉由揭露一名虛構工程師的外遇來對其進行勒索。

隨著 Claude 被用於訓練未來更強大的 Claude,這類問題可能不斷疊加與放大。

對於那些以「未來技術突破」為承諾、已經募集數十億美元的 AI 公司來說,AI 將持續加速自身研發這一設想既充滿吸引力,也可能帶有某種自我強化的色彩——它能讓投資人相信,需要持續挹注更多資金來支撐那些成本高昂的模型訓練。

不過,部分專家對此並不完全信服。他們不確定這些公司是否真能實現完全自動化的 AI 研究;但同時也憂慮,如果這種事情真的發生,世界可能毫無準備地被捲入其中。

喬治城大學安全與新興技術中心(CSET)臨時執行主任 Helen Toner 表示:「世界上最富有的一些公司,僱用著地球上最聰明的一群人,居然在試圖把 AI 研發完全自動化。這種念頭本身就足以讓人脫口而出:『這到底在幹什麼?』」

RSP 政策鬆綁:自我設限的剎車失靈了嗎?

為了應對一種可能出現的未來——技術進步的速度超過公司自身管控風險的能力——Anthropic 設計了一套「煞車機制」,稱為 Responsible Scaling Policy(RSP,負責任擴充套件政策)。

這項政策發布於 2023 年,其核心承諾是:如果 Anthropic 無法事先確認其安全措施已足夠可靠,公司將暫停開發某一 AI 系統。

Anthropic 將這項政策視為自身安全理念的重要佐證——即便在通往「超級智慧」的激烈競賽中,公司也願意在必要時抵抗市場壓力,主動踩下煞車。

2026 年 2 月下旬,正如 TIME 率先披露的,Anthropic 對其政策進行了修改,移除了原先具有約束力的「暫停開發」承諾。

事後回顧時,Anthropic 共同創辦人暨首席科學官 Jared Kaplan 對 TIME 坦承,當初認為公司可以在「危險」與「安全」之間劃出清晰界線,其實是一種「天真的想法」。

他說:「在 AI 迅速演進的背景下,如果競爭對手正全速衝刺,我們單方面做出嚴格承諾,其實並不切實際。」

新版政策作出了幾項新承諾:提升透明度,更公開地揭露 AI 的安全風險;增加資訊披露,公布 Anthropic 模型在安全測試中的表現;在安全投入上至少與競爭對手並駕齊驅、甚至超越他們;若公司既被認定為 AI 競賽的領頭羊,同時又判斷災難性風險顯著攀升,則會「延後」相關開發。

Anthropic 將這次調整定性為對現實環境的務實讓步。但整體而言,對 Responsible Scaling Policy(RSP)的修改,使公司在自身安全政策上的自我約束明顯鬆動。而這也預示著,更艱難的考驗仍在前頭。

委內瑞拉行動:AI 首度深度介入真實戰場

逮捕委內瑞拉總統 Nicolás Maduro 的那次突襲行動,是最早由前沿人工智慧系統參與規劃的大型軍事行動之一。

2026 年 1 月 3 日深夜,美國陸軍直升機突然進入委內瑞拉領空。在短暫交火之後,突擊隊迅速鎖定總統的住所,並在那裡逮捕了 Maduro 及其妻子 Cilia Flores。隨後兩人被帶往紐約,面對與毒品恐怖主義(narcoterrorism)相關的指控。

目前外界仍不清楚 Claude 在這次行動中究竟扮演了多重要的角色。但據媒體報導,這個 AI 系統不僅參與了任務規劃,在行動過程中也被用於輔助決策。

自去年 7 月以來,美國國防部一直推動將 Anthropic 的 AI 工具下放給更多一線作戰人員。軍方認為,這些系統能夠從多個情報來源中快速處理海量資料,並產出可操作的情資,因此具有巨大的戰略價值。

曾任美國國防部高階官員、現任 AI Policy Network 政府事務負責人的 Mark Beall 表示:「在軍方看來,Claude 是目前市場上最頂尖的模型。」他補充說:「Claude 在機密系統中的採用,是 Anthropic 最重要的成就之一。他們握有先發優勢。」

然而,逮捕 Maduro 的行動,恰恰發生在 Anthropic 與美國國防部之間一系列棘手談判的背景之下。

幾個月來,國防部持續嘗試重新談判合約,認為現有條款對 Claude 的使用範圍限制過多。雙方談判為何破局,各方說法不一。

五角大廈 AI 負責人 Emil Michael 表示,衝突的導火線是一通 Anthropic 高管打給 Palantir 的電話。Palantir 是以政府業務為主的資料分析公司,也是美國國防體系的重要合作夥伴。

據 Michael 所述,這名高管在通話中對委內瑞拉突襲行動表達了疑慮,並詢問 Palantir 的軟體是否有所參與。「他們在試圖打探機密資訊,」Michael 說。

這件事讓五角大廈產生了嚴重疑慮:「如果未來爆發衝突,他們會不會在行動進行到一半時突然中斷自己的模型,讓前線士兵陷入危機?」

不過,Anthropic 否認這種說法。公司表示,從未試圖逐案限制五角大廈使用其技術。

一位熟悉談判過程、同時與 Anthropic 關係密切的前川普政府官員則提供了不同版本:在一次原本例行的電話會議中,是 Palantir 的員工率先提及了 Claude 在那次行動中的角色。而 Anthropic 隨後的提問,並無任何跡象表明公司對該行動持反對立場。

談判破裂,OpenAI 接手合約

隨著談判持續推進,政府官員逐漸覺得,Dario Amodei 的態

Ver originales
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios