3月3日消息,据CNBC报道,OpenAI首席執行官 Sam Altman 承認,公司此前與美國國防部達成的人工智能合作協議推進過於倉促,並表示將對相關條款進行調整。這一表態出現在輿論持續發酵之際,此前OpenAI宣布與五角大樓達成合作,引發AI倫理、軍事用途以及數據安全方面的廣泛討論。
據公開信息顯示,這項協議是在上週五宣布的,而就在同一時間,美國政府正在推進多項與國家安全相關的決策。消息披露後,部分科技社區與用戶對人工智能技術可能被用於軍事用途表達擔憂。Sam Altman隨後在社交平台發文回應稱,公司將為協議增加新的限制條款,其中包括明確規定AI系統不得被用於對美國公民或居民進行國內監控。
Sam Altman還表示,美國國防部已經確認,OpenAI的人工智能工具不會被美國國家安全局(NSA)等情報機構直接用於情報監控任務。與此同時,OpenAI計劃與五角大樓共同制定額外的技術保障措施,以降低AI在敏感場景中的濫用風險。
這位CEO同時承認,公司在推進協議時判斷失誤。他表示,當時團隊希望迅速緩和局勢並避免更嚴重的政治衝突,但回頭看這一決定顯得過於草率,也容易被外界理解為投機行為。
此次爭議還與另一家人工智能公司 Anthropic 有關。此前,Anthropic與美國政府圍繞其AI模型 Claude 的使用邊界產生分歧,並尋求明確保證其系統不會被用於國內監控或自主武器開發。據報導,雙方談判隨後破裂。
與此同時,網路上出現明顯的用戶情緒波動。一些用戶在應用平台上減少使用 ChatGPT,並轉向 Claude 等競爭產品,使得AI行業的倫理爭議進一步擴大。
Sam Altman在回應中還表示,他並不認為 Anthropic 應被視為供應鏈風險,並希望美國國防部能夠給予其與OpenAI類似的合作條件。此次事件也再次凸顯,在人工智能技術迅速發展的背景下,AI與國家安全、軍事應用以及社會監管之間的邊界問題正成為全球科技行業關注的焦點。