AI倫理と軍事ニーズが激しく衝突する中、AnthropicのCEOダリオ・アモディは最近、米国国防総省(ペンタゴン)との交渉を再開し、同社の「レッドライン」を堅持しつつ、数億ドル規模のAI協力契約を救済し、正式に防衛サプライチェーンから排除されるのを回避しようとしている。
(前提:Anthropic CEOが激怒:OpenAIとペンタゴンの契約は全て虚偽、Altmanは自らを平和大使に偽装)
(背景補足:トランプ大統領はAnthropicを全面封殺!Claudeの「殺人制限」改変を拒否、対するOpenAIは前例のない支援を表明)
本文目次
Toggle
米国の人工知能企業AnthropicのCEOダリオ・アモディは、最近、米国国防総省(ペンタゴン)との交渉を再開し、AIモデルClaudeの軍事用途に関する契約条件について最終的な努力を行っている。この動きは、先週、両者の交渉が破綻し、ペンタゴンがAnthropicを「サプライチェーンリスク」としてリストアップした後に行われたもので、Anthropicが米軍との協力から排除されるのを防ぎつつ、基本的な倫理原則を維持することを目的としている。
Anthropicは昨年から、ペンタゴンと2億ドル規模の試験契約を締結し、Claudeを機密ネットワークに展開可能な先進AIモデルとして初めて認められた。しかし、トランプ政権はその後、条項の修正を要求し、「すべての合法的用途」(any lawful use)に適用されることを強調し、制限を設けない方針を示した。
これに対し、Anthropicは二つの「レッドライン」を堅持している:一つはClaudeの米国民の大規模国内監視への使用禁止、もう一つは完全自律型致死兵器(fully autonomous weapons、つまり人間の介入なしに目標を選び攻撃できるシステム)への使用禁止だ。Anthropicは、これらの用途は民主主義の価値を危うくし、現段階のAI技術は十分に信頼できないと考えている。一方、国防長官ピート・ヘグセットは最後通牒を発し、期限内に妥協しなければ契約を終了し、関連法規を根拠に強制執行すると警告し、先週金曜日に一時交渉は崩壊した。
関係筋によると、アモディは現在、国防省の研究・工学副長エミル・マイケルと直接協議を行っており、米軍がClaudeを引き続き使用できるよう妥協案を模索している。これにより、Anthropicが正式にブラックリスト入りするリスクを大幅に低減させることを狙っている。
成功すれば、新たな契約は緊張緩和に寄与し、AI業界の競争構図にも影響を与える可能性がある。例えば、OpenAIはすでにペンタゴンと協定を結んでいるが、類似の制限を盛り込むために条項を調整している。一方、Anthropicは協力の意向を示しつつも、コアとなる倫理的防護策は放棄しない方針だ。もし合意に至らなければ、同社は他のサプライヤーへの円滑な移行を支援し、軍の運用に支障をきたさないよう努める。
この論争は、AI企業と軍の間で倫理、安全保障、国家安全保障を巡る激しい駆け引きを浮き彫りにしている。Anthropicは「責任あるAI」をブランドの核に掲げ、無条件の譲歩を拒否しており、これにはシリコンバレーの一部企業がAIの軍事利用に対して抱く深刻な懸念が反映されている。一方、ペンタゴンは戦場での柔軟性と技術的優位性を強調している。
交渉が成功すれば、AIの軍事応用に新たなモデルケースが築かれる可能性があるが、失敗すれば業界の分裂を加速させる恐れもある。関係者は、近く公式声明や新たな進展が公表されることを予想している。