Кратко
OpenAI в понедельник сообщил, что внедряет кастомную версию ChatGPT на платформе GenAI.mil, разработанной Министерством обороны США. Этот шаг расширяет доступ военных к мощным генеративным моделям ИИ, несмотря на предупреждения критиков о том, что ошибки пользователей остаются ключевым риском для безопасности. ChatGPT присоединяется к растущему списку моделей ИИ, доступных для вооруженных сил США, включая Gemini от Google и Grok — систему ИИ, разработанную xAI, которая была интегрирована в SpaceX в начале этого месяца.
«Мы считаем, что люди, ответственные за защиту страны, должны иметь доступ к лучшим доступным инструментам, и важно, чтобы США и другие демократические страны понимали, как при правильных мерах предосторожности ИИ может помочь защищать людей, сдерживать противников и предотвращать будущие конфликты», — говорится в заявлении OpenAI. OpenAI заявил, что версия ChatGPT для GenAI.mil одобрена для неразглашенного использования Министерством обороны и будет работать внутри авторизованной государственной облачной инфраструктуры. По словам OpenAI, система включает меры предосторожности, предназначенные для защиты конфиденциальных данных. Тем не менее, Дж. Б. Бранч, защитник ответственности крупных технологических компаний в Public Citizen, предупредил, что чрезмерная зависимость пользователей от ИИ может подорвать эти меры защиты.
«Исследования показывают, что при использовании этих больших языковых моделей люди склонны доверять им безоговорочно», — сказал Бранч Decrypt. «В таких важных ситуациях, как военные операции, это делает особенно важным обеспечение точности их работы». Развертывание происходит на фоне ускорения Пентагоном внедрения коммерческих ИИ в военные сети и стремления разработчиков ИИ к получению прибыли. В январе министр обороны Пит Хегсэт заявил, что ведомство планирует развернуть ведущие модели ИИ как в неразглашенных, так и в секретных военных сетях. Хотя OpenAI заявил, что кастомная версия ChatGPT предназначена только для неразглашенных данных, Бранч предупредил, что размещение любой чувствительной информации в системах ИИ делает ее уязвимой для противников, добавив, что пользователи часто ошибочно воспринимают такие инструменты как защищенные хранилища. «Секретная информация должна иметь доступ только определенного круга лиц», — сказал он. «Даже если у вас есть система ограничения доступа, разрешенная только внутри армии, это не меняет того факта, что секретные данные предназначены только для ограниченного круга людей». OpenAI не сразу ответила на запрос Decrypt о комментарии.