Anthropic и Министерство обороны США возобновляют переговоры по ИИ: стремятся сохранить сотрудничество с Claude в области обороны, но придерживаются этических красных линий

動區BlockTempo

Когда этические вопросы ИИ сталкиваются с военными требованиями, генеральный директор Anthropic Dario Amodei недавно возобновил переговоры с Пентагоном США, пытаясь сохранить «красные линии» компании и спасти контракт на миллионы долларов на сотрудничество в области ИИ, избегая исключения из оборонного цепочка поставок.
(Предыстория: Генеральный директор Anthropic резко критикует: контракты OpenAI с Пентагоном — ложь, Altman маскируется под посланника мира)
(Дополнительный фон: Трамп намерен полностью запретить Anthropic! Отказывается менять Claude «ограничения на убийство», а OpenAI неожиданно поддерживает)

Содержание статьи

Переключить

  • Контекст переговоров и соблюдение «красных линий»
  • Последние новости о возобновлении переговоров
  • Значение событий и перспективы на будущее

Американская компания искусственного интеллекта Anthropic во главе с Дарио Амодеи (Dario Amodei) недавно возобновила переговоры с Министерством обороны США (Пентагоном) по контракту на использование их модели Claude в военных целях. Это произошло после того, как на прошлой неделе стороны разошлись, и Пентагон включил Anthropic в список «рисков цепочки поставок», что ставит под угрозу участие компании в военных проектах и одновременно пытается сохранить этические принципы.

Контекст переговоров и соблюдение «красных линий»

С прошлого года Anthropic заключила с Пентагоном пилотный контракт на сумму до 200 миллионов долларов, сделав Claude первым передовым ИИ, разрешённым для работы в секретных сетях. Однако правительство Трампа потребовало изменить условия, настаивая, чтобы ИИ мог использоваться «для всех законных целей» без ограничений.

Anthropic придерживается двух «красных линий»: запрет на использование Claude для массового внутреннего наблюдения за гражданами США и запрет на полностью автономное оружие (fully autonomous weapons — системы, которые могут самостоятельно выбирать и атаковать цели без участия человека). Компания считает, что такие применения могут угрожать демократическим ценностям, и что текущие технологии ИИ ещё недостаточно надёжны. Однако министр обороны Пит Хегсет (Pete Hegseth) выдвинул ультиматум, требуя в срок пойти на компромисс, иначе контракт будет расторгнут и применены соответствующие нормативы, что привело к разрыву переговоров в прошлую пятницу.

Последние новости о возобновлении переговоров

По информации источников, Амодеи сейчас ведёт прямые переговоры с заместителем министра обороны по исследованиям и инженерии Эмилем Майклом (Emil Michael), с целью достичь компромиссного соглашения, позволяющего армии США продолжать использовать Claude и одновременно значительно снизить риск включения Anthropic в чёрный список.

Если удастся договориться, новый контракт может снизить напряжённость и повлиять на конкурентную ситуацию в индустрии ИИ — например, OpenAI уже достигла соглашения с Пентагоном, но также вносит изменения в условия, добавляя похожие ограничения. Anthropic подчёркивает свою готовность к сотрудничеству, но не собирается отказываться от своих ключевых принципов; в случае невозможности договориться компания поможет плавно перейти к другим поставщикам, чтобы не нарушить работу армии.

Значение событий и перспективы на будущее

Этот конфликт подчёркивает противостояние между ИИ-компаниями и военными в вопросах этики, безопасности и национальной безопасности. Anthropic позиционирует себя как бренд «ответственного ИИ», отказываясь безусловно идти на уступки, что отражает глубокие опасения части Кремниевой долины по поводу военного применения ИИ; в то время как Пентагон подчеркивает важность гибкости на поле боя и технологического преимущества.

Если переговоры пройдут успешно, это может стать примером для будущего военного использования ИИ; в противном случае, ситуация может усилить раскол в индустрии. Ожидается, что вскоре появятся официальные заявления или новые новости по ситуации.

Посмотреть Оригинал
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев