Anthropic 表示其已成為大規模蒸餾攻擊的目標

Crypto Breaking

前沿人工智能開發商Anthropic公開指控三家中國人工智能實驗室——DeepSeek、Moonshot和Minimax——進行蒸餾攻擊,旨在從Anthropic的大型語言模型Claude中竊取能力。在一篇詳細的部落格文章中,該公司描述了這些活動,據稱產生了超過1600萬次交互,涉及約24,000個虛假帳戶,利用Claude的輸出來訓練能力較弱的模型。蒸餾是一種在人工智能中廣泛使用的訓練策略,但當大規模部署以複製強大功能而不承擔相應開發成本時,便會變得問題重重。Anthropic強調,儘管蒸餾具有合法用途,但它也可能使競爭對手得以捷徑突破,並以較低的時間和成本提升自己的產品。

重點摘要

蒸餾涉及用較弱模型學習較強模型的輸出,這是一種用於創建較小、較便宜AI系統的常用方法。

Anthropic指控DeepSeek、Moonshot和Minimax策劃了大規模蒸餾活動,通過數萬個假帳戶與Claude進行數百萬次互動。

這些攻擊針對Claude的差異化能力,包括代理推理、工具使用和編碼能力,顯示出對高價值、可轉移能力的重點關注。

該公司認為,來自國外的蒸餾活動具有地緣政治風險,可能使威權主義行為者獲得先進的網絡行動、假資訊和監控能力。

Anthropic表示,將加強檢測、分享威脅情報並收緊存取控制,同時呼籲行業合作與監管介入,以應對這些威脅。

市場背景:此事件發生之際,對AI模型互操作性和雲端AI服務安全的關注日益升高,這也涉及加密市場中使用的自動化系統及相關風險管理工具。隨著AI模型越來越多地融入交易、風險評估和決策支援,確保輸入數據和模型輸出完整性對開發者和用戶來說都變得越來越重要。

為何重要

這些指控凸顯了前沿AI的核心矛盾:合法的模型蒸餾與剝削性複製之間的界線。蒸餾是實驗室常用的合法做法,用於為客戶提供較為精簡的模型版本。然而,當在單一生態系統中大規模利用此技術時,可能被用來提取本需大量研發投入的能力。如果這些活動被證實,可能促使人們重新思考如何控制、監控和審計對強大模型的存取,尤其是對於具有全球影響力和複雜雲端架構的公司。

Anthropic聲稱,這三家被指控的公司通過IP地址相關性、請求元數據和基礎設施指標,並得到行業合作夥伴的獨立驗證,進行了旨在獲取Claude高級能力的活動。這表明一個有組織的、數據驅動的努力,旨在映射和複製基於雲端的AI能力,而非孤立的實驗。描述的規模——數千萬次交互,涉及數千個帳戶——引發了對現有防禦措施的疑問,這些措施是否能有效檢測和阻止此類模式,以及管理在AI領域具有國家和經濟直接影響的外國競爭者的責任框架。

“蒸餾是一種廣泛使用且合法的訓練方法。例如,前沿AI實驗室經常蒸餾自己的模型,為客戶創建更小、更便宜的版本,”Anthropic寫道,並補充:

“但蒸餾也可以用於非法目的:競爭對手可以利用它在較短時間內,以較低成本獲取其他實驗室的強大能力,而不必獨立開發。”

除了知識產權問題外,Anthropic還將這些活動與國家安全的戰略風險聯繫起來,認為外國實驗室的蒸餾攻擊可能被用於軍事、情報和監控系統。公司認為,未受保護的能力可能促使攻擊性網絡行動、假資訊運動和大規模監控,為政策制定者和行業參與者的地緣政治考量增添複雜性。這一說法將問題不僅定位為競爭糾紛,而是涉及如何保護和治理前沿AI技術的廣泛議題。

展望未來,Anthropic表示將提升檢測系統,以識別可疑流量模式,加快威脅情報共享,並收緊存取控制。公司還呼籲國內企業和立法者加強合作,共同防範外國蒸餾行為,認為協調一致的行業反應對於遏制此類活動至關重要。

對於追蹤AI政策前沿的讀者來說,這些指控呼應了關於如何在創新與安全保障之間取得平衡的持續辯論——這些議題已在治理、出口管制和跨境數據流的討論中反覆出現。行業長期以來一直在努力平衡遏制非法用途與促進合法實驗之間的矛盾,這將成為未來監管和標準制定的重要焦點。

接下來值得關注的事項

Anthropic及被指控的公司可能會公布更多有關指控和各自回應的細節或澄清。

威脅情報機構和雲端服務提供商可能會發布更新的危害指標或防禦指南,針對蒸餾式攻擊。

監管機構和立法者可能會制定或修訂有關AI模型存取、跨境數據共享和高能力模型反盜版措施的政策。

獨立研究人員和安全公司可能會重現或挑戰用於識別所謂活動的技術,擴展證據基礎。

行業合作可能會出現,以建立保護前沿模型能力和審計模型蒸餾流程的最佳實踐。

資料來源與驗證

Anthropic部落格文章:Detecting and Preventing Distillation Attacks——官方聲明,詳述指控和描述的活動。

Anthropic在X上的公開貼文——公司調查結果的同期公開記錄。

Cointelegraph的報導及相關資料,討論AI代理、前沿AI及相關安全問題。

有關蒸餾在AI訓練中的角色及其在競爭環境中潛在濫用的相關討論。

蒸餾攻擊與前沿AI安全

核心主張基於對蒸餾的結構性濫用,即用較強模型(此例中為Claude)的輸出來訓練模仿或近似其能力的替代模型。Anthropic認為這不是一次小規模的泄露,而是一場持續的活動,涉及數百萬次交互,使得這三家公司能在不承擔全部研發成本的情況下,逼近高端決策、工具使用和編碼能力。所引用的數字——超過1600萬次交互,涉及約24,000個假帳戶——顯示出一個可能動搖模型性能、用戶體驗和數據完整性的規模,對依賴Claude服務的用戶來說具有潛在的破壞性。

對用戶和開發者的影響

對於基於AI進行開發的從業者來說,此案凸顯了建立可靠來源、存取控制和持續監控模型使用的重要性。如果外國蒸餾能大規模產生可行的替代品,則強大功能的商品化將變得更加普遍,這些功能曾經需要大量投資才能獲得。其後果不僅限於知識產權的流失,還可能導致模型行為偏差、工具整合失敗或輸出被微妙篡改並傳遞給最終用戶。金融、醫療或消費科技等領域的AI服務提供者和運營商,可能會加強對第三方整合的審查、嚴格授權條款,並加強對API流量和模型查詢的異常檢測。

對加密生態系統的關鍵考量

雖然此事件聚焦於AI模型安全,但對加密市場的影響在於自動化決策支援、交易機器人和風險評估工具依賴可靠的AI輸入。市場參與者和開發者應保持警惕,確保AI服務的完整性,並警惕被篡改或複製的能力可能影響自動化系統。此情況也凸顯跨行業合作在威脅情報、模型來源標準和最佳實踐方面的重要性,以防止AI漏洞擴散到金融技術和數字資產平台。

近期應關注的事項

Anthropic關於調查結果、危害指標和修復進展的公開更新。

DeepSeek、Moonshot和Minimax對指控的澄清或聲明。

政策制定者針對外國蒸餾和高能力模型出口管制的新指南或執法行動。

雲端服務提供商採用的增強監控工具和存取控制策略。

獨立研究驗證或質疑用於檢測蒸餾模式的方法,以及所聲稱活動的規模。

本文最初刊載於Crypto Breaking News——您的加密新聞、比特幣新聞和區塊鏈更新的可信來源,標題為:Anthropic稱遭受大規模蒸餾攻擊。

查看原文
免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見聲明
留言
0/400
暫無留言