По данным эксклюзивного отчёта Axios, Пентагон рассматривает возможность прекращения сотрудничества с Anthropic, поскольку эта компания по искусственному интеллекту настаивает на ограничениях для военного использования модели Claude, отказываясь открывать доступ к масштабному мониторингу и полностью автономному оружию. Стоит отметить, что OpenAI, Google и xAI уже согласились с условием «все законные цели», установленным Пентагоном, и Anthropic остаётся единственной из четырёх ведущих лабораторий ИИ, которая продолжает сопротивляться.
(Предыстория: новый проект Илона Маска «Лунная база Alpha»: создание на Луне суперзавода по производству ИИ с помощью гигантского ракетного стартера, направляющегося к Солнечной системе)
(Дополнительный фон: паника по поводу ИИ и массовых увольнений! Руководитель Microsoft предупреждает: большинство белых воротничков в ближайшие 12–18 месяцев будут заменены автоматизацией)
Содержание статьи
По информации Axios, цитирующей высокопоставленного чиновника правительства, Пентагон настоятельно требует от четырёх ведущих лабораторий ИИ (OpenAI, Google, xAI, Anthropic) разрешить военным использовать их инструменты для «всех законных целей», включая разработку оружия, сбор разведданных и боевые операции — в самые чувствительные области.
Это требование исходит из Стратегической записки Минобороны по искусственному интеллекту, опубликованной 9 января этого года. Документ ясно предписывает включить условие «все законные цели» во все контракты на закупку ИИ в течение 180 дней, что означает, что военное использование ИИ будет регулироваться стандартами, аналогичными обычному применению силы, без дополнительных требований к «значимому человеческому контролю».
Однако после нескольких месяцев сложных переговоров Anthropic до сих пор не согласилась с этими условиями, и Пентагон уже «устал» от этого. Этот чиновник заявил:
Всё возможно, включая сокращение сотрудничества с Anthropic или его полное прекращение. Но если мы считаем это правильным, нам нужно найти им подходящую замену.
Столкнувшись с давлением Пентагона, Anthropic настаивает на двух непроходимых границах:
Высокопоставленный чиновник признал, что существует значительная неопределенность относительно того, какие сценарии использования попадают под эти запреты, а какие — нет. И если Пентагон будет требовать рассматривать каждое конкретное применение по отдельности или столкнется с ситуацией, когда Claude по факту откажется выполнять некоторые задачи, это будет «недопустимо».
Стоит отметить, что прошлым летом Anthropic подписала двухлетний прототипный контракт с Пентагоном на сумму до 2 миллиардов долларов, и Claude стал первым коммерческим ИИ, разрешённым работать в секретных сетях Минобороны, применяемым для тестирования оружия и оперативной связи.
Причиной кризиса в контрактных переговорах стал инцидент этого месяца. Согласно Axios от 13 февраля, во время рейда американских сил против президента Венесуэлы Николаса Мадуро, в операции использовалась платформа Palantir с Claude для обработки разведданных в реальном времени.
Сообщается, что после этого руководители Anthropic связались с Palantir, чтобы узнать, использовался ли Claude в этой операции, и выразили недовольство, поскольку в ходе операции применялись кинетические средства (не взрывные, проникающие оружия).
Действия Claude были отвергнуты, что вызвало серьёзную озабоченность внутри Пентагона.
Представитель Anthropic резко опроверг эти сведения, заявив, что компания обсуждала использование ИИ в рамках конкретных военных задач с Министерством обороны.
В отличие от Anthropic, другие три лаборатории проявили большую гибкость в ответ на требования Пентагона:
По сведениям, как минимум одна из этих компаний полностью приняла условие «все законные цели», а остальные две проявили гораздо большую гибкость, чем Anthropic. Это делает Anthropic единственным игроком, который придерживается принципов безопасности, но рискует оказаться на обочине военной гонки за ИИ, что может привести к его изоляции.
Конечная цель развития ИИ — служить государству, а военное применение — неизбежный аспект этой гонки.