3 марта было сообщено, что новость о соглашении OpenAI о сотрудничестве в области ИИ с Министерством обороны США продолжает распространяться, и ряд нынешних и бывших сотрудников недавно публично обсуждали границы безопасности, возможные применения и различия между позицией соглашения и позицией Anthropic по социальной платформе X, что привлекло широкое внимание в области технологий и политики.
Генеральный директор OpenAI Сэм Алтман ранее подтвердил, что компания достигла соглашения о сотрудничестве с Министерством обороны США, позволяющему использовать модели искусственного интеллекта OpenAI при определённых условиях. Сотрудничество быстро вызвало споры, поскольку другая компания, занимающаяся ИИ, Anthropic, ранее отказывалась принимать аналогичные условия из-за опасений, что её модель Claude может использоваться для крупномасштабного внутреннего наблюдения или автономных летальных оружейных систем.
В ответ исследователь OpenAI Боаз Барак заявил, что неточно описывать контракт OpenAI как «ослабляющие красные линии безопасности». Он отметил, что исходя из имеющейся информации, ограничения на использование моделей ИИ в соглашении OpenAI могут быть строже, чем ранее заключённые контракты Anthropic, особенно в отношении предотвращения масштабного внутреннего наблюдения и автономного оружия.
Тем временем Майлз Брандейдж, бывший руководитель отдела политических исследований в OpenAI, высказывает иную точку зрения. Он считает, что на фоне внешних юристов и публичных заявлений Пентагона некоторые сотрудники могут заподозрить, что компания пошла на уступки в переговорах и попытаться предложить такие уступки, как техническое сотрудничество. Однако позже он добавил, что внутренняя структура OpenAI сложна, и команда, участвующая в переговорах, действительно может усерьёзно работать над достижением разумного результата.
Другой техник OpenAI, Клайв Чан, раскрыл, что в контракте компании есть запретная оговорка, запрещающая использование ИИ для массового наблюдения или автономного летального оружия, и заявил, что он настаивает на том, чтобы компания раскрывала больше деталей соглашения в ответ на общественные опасения.
Научный сотрудник Мухаммад Бавариан заявил, что несправедливо с точки зрения Пентагона рассматривать Anthropic как риск для цепочки поставок. Он считает, что если обе стороны сохранят спокойствие в переговорах, всё ещё появится возможность преодолеть разрыв в позициях.
Кроме того, исследователь Ноам Браун отметил, что первоначально анонсированная формулировка соглашения вызвала некоторые вопросы, например, возможность использования ИИ в новых юридических формах слежки. Однако после обновления официального блога OpenAI эти заявления были скорректированы.
Ноам Браун также подчеркнул, что использование ИИ в агентствах национальной безопасности должно подлежать демократическому рассмотрению процессов и не должно решаться исключительно технологическими компаниями или разведывательным агентствами. В настоящее время планы по внедрению соответствующих систем ИИ в разведывательные службы, такие как АНБ, также приостановлены в ожидании дальнейших обсуждений политики.
Этот инцидент отражает сложные споры, с которыми сталкивается применение технологий ИИ в области национальной безопасности. По мере роста возможностей ИИ ожидается обострение обсуждений военного применения ИИ, рисков наблюдения и этического управления ИИ.