Когда этические вопросы ИИ сталкиваются с военными требованиями, генеральный директор Anthropic Dario Amodei недавно возобновил переговоры с Пентагоном США, пытаясь сохранить «красные линии» компании и спасти контракт на миллионы долларов на сотрудничество в области ИИ, избегая исключения из оборонного цепочка поставок.
(Предыстория: Генеральный директор Anthropic резко критикует: контракты OpenAI с Пентагоном — ложь, Altman маскируется под посланника мира)
(Дополнительный фон: Трамп намерен полностью запретить Anthropic! Отказывается менять Claude «ограничения на убийство», а OpenAI неожиданно поддерживает)
Содержание статьи
Переключить
Американская компания искусственного интеллекта Anthropic во главе с Дарио Амодеи (Dario Amodei) недавно возобновила переговоры с Министерством обороны США (Пентагоном) по контракту на использование их модели Claude в военных целях. Это произошло после того, как на прошлой неделе стороны разошлись, и Пентагон включил Anthropic в список «рисков цепочки поставок», что ставит под угрозу участие компании в военных проектах и одновременно пытается сохранить этические принципы.
С прошлого года Anthropic заключила с Пентагоном пилотный контракт на сумму до 200 миллионов долларов, сделав Claude первым передовым ИИ, разрешённым для работы в секретных сетях. Однако правительство Трампа потребовало изменить условия, настаивая, чтобы ИИ мог использоваться «для всех законных целей» без ограничений.
Anthropic придерживается двух «красных линий»: запрет на использование Claude для массового внутреннего наблюдения за гражданами США и запрет на полностью автономное оружие (fully autonomous weapons — системы, которые могут самостоятельно выбирать и атаковать цели без участия человека). Компания считает, что такие применения могут угрожать демократическим ценностям, и что текущие технологии ИИ ещё недостаточно надёжны. Однако министр обороны Пит Хегсет (Pete Hegseth) выдвинул ультиматум, требуя в срок пойти на компромисс, иначе контракт будет расторгнут и применены соответствующие нормативы, что привело к разрыву переговоров в прошлую пятницу.
По информации источников, Амодеи сейчас ведёт прямые переговоры с заместителем министра обороны по исследованиям и инженерии Эмилем Майклом (Emil Michael), с целью достичь компромиссного соглашения, позволяющего армии США продолжать использовать Claude и одновременно значительно снизить риск включения Anthropic в чёрный список.
Если удастся договориться, новый контракт может снизить напряжённость и повлиять на конкурентную ситуацию в индустрии ИИ — например, OpenAI уже достигла соглашения с Пентагоном, но также вносит изменения в условия, добавляя похожие ограничения. Anthropic подчёркивает свою готовность к сотрудничеству, но не собирается отказываться от своих ключевых принципов; в случае невозможности договориться компания поможет плавно перейти к другим поставщикам, чтобы не нарушить работу армии.
Этот конфликт подчёркивает противостояние между ИИ-компаниями и военными в вопросах этики, безопасности и национальной безопасности. Anthropic позиционирует себя как бренд «ответственного ИИ», отказываясь безусловно идти на уступки, что отражает глубокие опасения части Кремниевой долины по поводу военного применения ИИ; в то время как Пентагон подчеркивает важность гибкости на поле боя и технологического преимущества.
Если переговоры пройдут успешно, это может стать примером для будущего военного использования ИИ; в противном случае, ситуация может усилить раскол в индустрии. Ожидается, что вскоре появятся официальные заявления или новые новости по ситуации.