就像1980年代科幻經典電影《終結者》和《戰爭遊戲》中的場景,倫敦國王學院的最新研究指出,現代人工智慧模型在模擬戰爭中幾乎在每個測試場景中都升級到核武器。
在上週發布的報告中,研究人員表示,在模擬地緣政治危機期間,三個領先的大型語言模型——OpenAI的GPT-5.2、Anthropic的Claude Sonnet 4,以及Google的Gemini 3 Flash——在95%的情況下選擇部署核武器。
“每個模型在不同危機情境中與對手進行六場戰爭模擬,並與自己的一個副本進行第七場比賽,共計21場比賽和超過300回合,”報告指出。“模型扮演國家領導人,指揮對抗的核武超級大國,國家檔案的設定大致受到冷戰動態的啟發。”
在研究中,AI模型被置於涉及邊界爭端、資源競爭和政權存亡威脅的高風險情境中。每個系統沿著從外交抗議和投降到全面戰略核戰的升級階梯運作。
根據報告,這些模型產生了約78萬字的解釋其決策的文字,幾乎在每場模擬衝突中都使用了至少一件戰術核武器。
“以一個角度來看:這場比賽產生的戰略推理文字比《戰爭與和平》和《伊利亞特》加起來還多(73萬字),大約是肯尼迪古巴導彈危機期間執行委員會的總討論記錄(26萬字,跨越43小時會議)的三倍,”研究人員寫道。
在戰爭模擬中,無一個AI模型選擇直接投降,無論其在戰場上的位置如何。雖然模型會暫時嘗試緩和暴力,但在86%的情境中,它們的升級程度超出了模型自身的推理意圖,反映出在模擬“戰爭迷霧”下的錯誤。
儘管研究人員對政府將核武庫控制權交給自主系統表示懷疑,但他們指出,未來危機中緊湊的決策時間可能會增加依賴AI生成建議的壓力。
隨著軍事領導人越來越多地考慮在戰場上部署人工智慧,這項研究也引發關注。去年12月,美國國防部推出了GenAI.mil,這是一個將前沿AI模型引入美國軍事用途的新平台。該平台包括Google的Gemini for Government,並通過與xAI和OpenAI的合作,Grok和ChatGPT也已上線。
週二,《CBS新聞》報導,美國國防部威脅要將Anthropic(Claude AI的開發商)列入黑名單,除非其獲得不受限制的軍事訪問權。自2024年起,Anthropic已通過與AWS和軍事承包商Palantir的合作,提供其AI模型的訪問權。去年夏天,Anthropic獲得了一份價值2億美元的協議,用於“原型前沿AI能力,以增強美國的國家安全”。
然而,根據一份熟悉情況的消息來源的報告,國防部長Pete Hegseth給予Anthropic截止到星期五的期限,要求其Claude模型必須符合五角大樓的要求,並將Claude列為“供應鏈風險”。
本週,Axios報導,美國國防部已與Elon Musk的xAI簽署協議,允許其Grok模型在機密軍事系統中運行,作為如果五角大樓切斷與Anthropic合作的潛在替代方案。
OpenAI、Anthropic和Google未對_Decrypt_的置評請求作出回應。