Axiosの独占報道によると、米国防総省はAnthropicとの協力関係を終了させることを検討している。これは、このAI企業が軍事用途においてClaudeモデルの制限を堅持し、大規模監視や完全自律兵器の解放を拒否しているためだ。注目すべきは、OpenAI、Google、xAIはすでに米国防総省の「すべて合法的な用途」条項に同意しており、Anthropicだけが唯一の例外的な存在となっている。
(前提:イーロン・マスクの新たな野望「月面基地Alpha」:月にAI超大型工場を建設し、巨大エレベーターで太陽系へ射出予定)
(補足:AI恐慌と失業!マイクロソフト幹部が警告:多くのホワイトカラー労働者が「今後12〜18ヶ月以内」に自動化に置き換えられる)
本文目次
Axiosの引用によると、政府高官は、米国防総省がトップクラスのAI研究機関(OpenAI、Google、xAI、Anthropic)に対し、「すべて合法的な用途」(all lawful purposes)での軍事利用を許可するよう促していると述べている。これには兵器開発、情報収集、戦場作戦など最も敏感な分野も含まれる。
この要求は、今年1月9日に発表された「国防省人工知能戦略覚書」に由来する。同文書は、180日以内に「すべて合法的な用途」条項をすべてのAI調達契約に盛り込むよう指示しており、これによりAIの軍事利用基準は一般的な武力行使と同等となり、「意味のある人間の管理」が不要となる。
しかし、数ヶ月にわたる交渉の末、Anthropicはこれらの条項を受け入れておらず、米国防総省はこれに「苛立ち」を示している。高官は次のように述べている。
すべてが可能だ。Anthropicとの協力関係を縮小することも、完全に終了させることも。だが、もしそれが正しいと判断すれば、適切な代替者を見つけなければならない。
米国防総省の圧力に直面し、Anthropicは二つの絶対的なラインを堅持している。
高官は、これらの禁制区域に該当する具体的な使用シナリオとそうでないシナリオの境界について、「かなり曖昧な部分がある」と認めている。米国防総省がAnthropicと個別に用途ごとに交渉し、Claudeが実際の運用中に特定の用途を拒否する可能性も、「現実的ではない」としている。
ちなみに、Anthropicは昨夏、米国防総省と最大2億ドルの2年契約を締結し、Claudeは米国防総省の機密ネットワーク内で動作する最初の商用AIモデルとなった。武器試験や即時作戦通信など最も敏感な任務に使用されている。
この契約危機のきっかけは、今月初めの出来事に遡る。Axiosの2月13日の報道によると、米軍は委内瑞拉の前大統領ニコラス・マドゥロの逮捕作戦において、Palantirのプラットフォームを通じてClaudeを展開し、即時情報処理に利用した。
報道によると、Anthropicの幹部はこの事実を知ると、Palantirに連絡し、Claudeがこの突撃作戦に使われたかどうかを問い合わせた。「彼らはこの用途に対して否定的な口調だった。なぜなら、作戦には動能打撃(爆発性のない貫通兵器攻撃)が関わっていたからだ」とのこと。
Claudeはこれを否定し、米国防総省内部では深刻な懸念が生じた。
Anthropicの広報はこれを否定し、特定の軍事作戦のために国防総省と議論したことは認めている。
Anthropicと対照的に、他の三大AI研究機関は米国防総省の要求に対してより柔軟な姿勢を示している。
少なくとも一社はすでに「すべて合法的な用途」条項を完全に受け入れており、他の二社もAnthropicよりはるかに柔軟な対応を見せている。これにより、米軍のAI兵器開発競争において、Anthropicは安全性を最優先する唯一のプレイヤーとなり、孤立化のリスクも抱えている。
AI製品の究極の目的は国家のために働くことであり、軍事は避けて通れない重要な分野だ。