Пентагон против Anthropic! Полностью открывает доступ к военному Claude «Иначе расторжение контракта и увольнение»

動區BlockTempo

По данным эксклюзивного отчёта Axios, Пентагон рассматривает возможность прекращения сотрудничества с Anthropic, поскольку эта компания по искусственному интеллекту настаивает на ограничениях для военного использования модели Claude, отказываясь открывать доступ к масштабному мониторингу и полностью автономному оружию. Стоит отметить, что OpenAI, Google и xAI уже согласились с условием «все законные цели», установленным Пентагоном, и Anthropic остаётся единственной из четырёх ведущих лабораторий ИИ, которая продолжает сопротивляться.

(Предыстория: новый проект Илона Маска «Лунная база Alpha»: создание на Луне суперзавода по производству ИИ с помощью гигантского ракетного стартера, направляющегося к Солнечной системе)

(Дополнительный фон: паника по поводу ИИ и массовых увольнений! Руководитель Microsoft предупреждает: большинство белых воротничков в ближайшие 12–18 месяцев будут заменены автоматизацией)

Содержание статьи

  • Две красные линии Anthropic: запрет на масштабный мониторинг, запрет на автономное оружие
  • Взрывной конфликт из-за внезапных действий Мадуро
  • Остальные три гиганта «без возражений»

По информации Axios, цитирующей высокопоставленного чиновника правительства, Пентагон настоятельно требует от четырёх ведущих лабораторий ИИ (OpenAI, Google, xAI, Anthropic) разрешить военным использовать их инструменты для «всех законных целей», включая разработку оружия, сбор разведданных и боевые операции — в самые чувствительные области.

Это требование исходит из Стратегической записки Минобороны по искусственному интеллекту, опубликованной 9 января этого года. Документ ясно предписывает включить условие «все законные цели» во все контракты на закупку ИИ в течение 180 дней, что означает, что военное использование ИИ будет регулироваться стандартами, аналогичными обычному применению силы, без дополнительных требований к «значимому человеческому контролю».

Однако после нескольких месяцев сложных переговоров Anthropic до сих пор не согласилась с этими условиями, и Пентагон уже «устал» от этого. Этот чиновник заявил:

Всё возможно, включая сокращение сотрудничества с Anthropic или его полное прекращение. Но если мы считаем это правильным, нам нужно найти им подходящую замену.

Две красные линии Anthropic: запрет на масштабный мониторинг, запрет на автономное оружие

Столкнувшись с давлением Пентагона, Anthropic настаивает на двух непроходимых границах:

  • Запрет на масштабный мониторинг граждан США
  • Запрет на полностью автономные системы оружия (то есть автоматические боевые системы без участия человека)

Высокопоставленный чиновник признал, что существует значительная неопределенность относительно того, какие сценарии использования попадают под эти запреты, а какие — нет. И если Пентагон будет требовать рассматривать каждое конкретное применение по отдельности или столкнется с ситуацией, когда Claude по факту откажется выполнять некоторые задачи, это будет «недопустимо».

Стоит отметить, что прошлым летом Anthropic подписала двухлетний прототипный контракт с Пентагоном на сумму до 2 миллиардов долларов, и Claude стал первым коммерческим ИИ, разрешённым работать в секретных сетях Минобороны, применяемым для тестирования оружия и оперативной связи.

Взрывной конфликт из-за действий Мадуро

Причиной кризиса в контрактных переговорах стал инцидент этого месяца. Согласно Axios от 13 февраля, во время рейда американских сил против президента Венесуэлы Николаса Мадуро, в операции использовалась платформа Palantir с Claude для обработки разведданных в реальном времени.

Сообщается, что после этого руководители Anthropic связались с Palantir, чтобы узнать, использовался ли Claude в этой операции, и выразили недовольство, поскольку в ходе операции применялись кинетические средства (не взрывные, проникающие оружия).

Действия Claude были отвергнуты, что вызвало серьёзную озабоченность внутри Пентагона.

Представитель Anthropic резко опроверг эти сведения, заявив, что компания обсуждала использование ИИ в рамках конкретных военных задач с Министерством обороны.

Остальные три гиганта «без возражений»

В отличие от Anthropic, другие три лаборатории проявили большую гибкость в ответ на требования Пентагона:

  • OpenAI (ChatGPT) согласилась снять стандартные ограничения безопасности для своих сервисов при работе на военных заказах
  • Google (Gemini) активно сотрудничает
  • xAI (Grok) также выразила готовность к сотрудничеству

По сведениям, как минимум одна из этих компаний полностью приняла условие «все законные цели», а остальные две проявили гораздо большую гибкость, чем Anthropic. Это делает Anthropic единственным игроком, который придерживается принципов безопасности, но рискует оказаться на обочине военной гонки за ИИ, что может привести к его изоляции.

Конечная цель развития ИИ — служить государству, а военное применение — неизбежный аспект этой гонки.

Посмотреть Оригинал
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев