OpenAIは月曜日、米国国防総省が開発したAIプラットフォームであるGenAI.milにカスタム版のChatGPTを展開すると発表しました。 この動きにより、軍は強力な生成AIモデルへのアクセスを拡大しますが、批評家はユーザーの誤操作が依然として重要なセキュリティリスクであると警告しています。 ChatGPTは、GoogleのGeminiやxAIが開発し今月SpaceXに統合されたGrokなど、米軍に提供されるAIモデルの増加するリストに加わります。
「国を守る責任を持つ人々には、利用可能な最良のツールにアクセスできるべきだと考えています。そして、適切な安全策を講じることで、AIが人々を守り、敵を抑止し、将来の紛争を防ぐのに役立つことを、米国や他の民主主義国が理解することが重要です」とOpenAIは声明で述べました。 OpenAIによると、GenAI.mil版のChatGPTは、機密でない国防省の用途に承認されており、認可された政府クラウドインフラ内で運用される予定です。 OpenAIは、システムには敏感なデータを保護するための安全策が組み込まれていると述べています。 しかし、Public Citizenのビッグテック責任追及活動家J.B. Branchは、AIへの過度の依存がこれらの保護を損なう可能性があると警告しています。
「研究によると、人々はこれらの大規模言語モデルを使うとき、疑いなく信じてしまう傾向があります」とBranchは_decrypt_に語りました。「そのため、軍のような高影響の場面では、正確性を確保することがさらに重要になります。」 この展開は、ペンタゴンが軍事ネットワーク全体で商用AIの採用を加速させる中、AI開発者が収益性を追求している状況で行われています。 1月、国防長官のピート・ヘグセスは、同省が機密・非機密の両方の軍事ネットワークに主要なAIモデルを展開する計画を示しました。 OpenAIは、カスタム版のChatGPTはあくまで非機密データ専用と述べていますが、Branchは、敏感な情報をAIシステムに入力することは敵に脆弱性をもたらすと警告し、そのようなツールを安全な金庫と誤解するユーザーもいると指摘しています。 「機密情報は特定の人だけが見るべきものです」と彼は言います。「たとえ軍内だけで許可されたシステムであっても、機密データは限定された人々だけのものにすべきです。」 OpenAIは_decrypt_からのコメント要請には直ちに応じませんでした。