OpenAIと米国国防総省の提携が論争を呼び、Sam Altmanは契約があまりに急いで結ばれたことを認め、緊急に条項を修正しました

GateNews

3月3日の報道によると、CNBCによれば、OpenAIのサム・アルトマン最高経営責任者(CEO)は、同社と米国国防総省との間で締結された人工知能協力協定の推進があまりにも急ぎすぎたと認め、関連条項の調整を行うと述べました。この発言は、OpenAIが五角大楼と協力関係を結んだことに伴う倫理、軍事用途、データセキュリティに関する議論が続く中で出されました。

公開情報によると、この協定は先週金曜日に発表され、その同じタイミングで米国政府は国家安全保障に関わる複数の決定を進めていました。発表後、一部のテクノロジーコミュニティやユーザーからは、人工知能技術が軍事目的に利用される可能性について懸念の声が上がっています。サム・アルトマンはその後、ソーシャルプラットフォーム上で、協定に新たな制限条項を追加する意向を示し、その中にはAIシステムが米国市民や居住者の国内監視に使用されないことを明確に規定することも含まれています。

また、サム・アルトマンは、米国国防総省がOpenAIの人工知能ツールが米国国家安全保障局(NSA)などの情報機関による情報監視任務に直接使用されないことを確認したと述べました。同時に、OpenAIは五角大楼と共同で追加の技術的保障措置を策定し、敏感な場面でのAIの乱用リスクを低減させる計画です。

このCEOはさらに、協定推進において判断を誤ったことも認めました。彼は、当時のチームは状況を迅速に緩和し、より深刻な政治的対立を避けたいと考えていたが、振り返るとこの決定はあまりにも軽率であり、外部からは投機的な行動と見なされやすいと述べました。

この論争は、もう一つの人工知能企業Anthropicとも関連しています。以前、Anthropicは米国政府とそのAIモデルClaudeの使用範囲について意見の相違が生じ、システムが国内監視や自主兵器開発に利用されないことを明確に保証するよう求めていました。報道によると、その後両者の交渉は破談となったとのことです。

一方、インターネット上ではユーザーの感情が大きく揺れ動いています。あるユーザーはアプリケーションプラットフォーム上でChatGPTの利用を減らし、Claudeなどの競合製品に切り替える動きも見られ、AI業界の倫理議論はさらに拡大しています。

サム・アルトマンは回答の中で、Anthropicをサプライチェーンリスクとみなすべきではないとし、米国国防総省がOpenAIと同様の協力条件を提供してくれることを望んでいると述べました。今回の事件は、人工知能技術の急速な発展を背景に、AIと国家安全保障、軍事応用、社会的規制の境界問題が世界のテクノロジー業界の焦点となっていることを改めて浮き彫りにしています。

原文表示
免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。
コメント
0/400
コメントなし