OpenAIと五角大楼のAI協力に対して議論が巻き起こる:従業員が公に声を上げ、安全の境界線と監視リスクが焦点となる

GateNews

3月3日、OpenAIと米国国防総省とのAI協力協定に関するニュースが引き続き議論を呼び、多くの現職および元従業員がソーシャルプラットフォームX上で、この協定の安全性の境界線、潜在的な用途、そしてAnthropicとの立場の違いについて公に議論しました。これにより、技術界や政策分野で広く注目を集めています。

OpenAIのCEOサム・アルトマンは以前、同社が米国国防総省と協力協定を結び、特定の条件下でOpenAIの人工知能モデルを使用できることを認めていました。この協力はすぐに物議を醸しました。なぜなら、別のAI企業であるAnthropicは、Claudeモデルが大規模な国内監視や自律型致死兵器システムに利用される可能性を懸念し、同様の条件を受け入れなかったためです。

これに対し、OpenAIの研究者ボアズ・バラクは、OpenAIの契約を「安全性のレッドラインを弱める」と表現するのは正確ではないと述べました。彼は、現時点で入手できる情報によると、OpenAIの契約におけるAIモデルの用途制限は、特に大規模な国内監視や自律兵器の防止に関して、Anthropicが以前に取得した契約よりも厳しい可能性があると指摘しました。

一方、OpenAIの元政策研究責任者マイルズ・ブランデージは異なる見解を示しています。彼は、外部の弁護士や米国防総省の公式声明を背景に、一部の従業員は会社が交渉の過程で譲歩したと疑い、それを技術的な協力として隠そうとしている可能性があると考えています。しかし、その後、OpenAIの内部構造は複雑であり、交渉に関わったチームは合理的な結果を得るために努力している可能性もあると付け加えました。

もう一人のOpenAIの技術者クライブ・チャンは、同社の契約には大量監視や自律致死兵器へのAIの使用を禁止する保障条項が含まれていることを明かし、世間の懸念に応えるために契約の詳細をさらに公開するよう促しています。

研究科学者ムハンマド・バエルリアンは、米国防総省がAnthropicをサプライチェーンリスクとみなすのは不公平だと述べました。彼は、両者が冷静に交渉を続ければ、立場のギャップを埋める余地はまだあると信じています。

さらに、研究者ノーム・ブラウンは、最初に公表された協定の表現には、AIが新たな合法的監視手段として利用される可能性など、いくつかの疑問点が残っていると指摘しました。しかし、OpenAIが公式ブログを更新した後、これらの表現は修正されました。

ノーム・ブラウンはまた、国家安全保障機関におけるAIの利用は民主的な手続きによる審査を経るべきであり、単に技術企業や情報機関だけが決定すべきではないと強調しています。現在、米国国家安全保障局などへのAIシステム展開計画も、さらなる政策議論を待つために一時保留となっています。

この一連の出来事は、国家安全保障の分野においてAI技術の応用が直面する複雑な論争を浮き彫りにしています。今後も、AIの軍事利用、監視リスク、倫理的ガバナンスに関する議論は一層活発になることが予想されます。

原文表示
免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。
コメント
0/400
コメントなし