Через несколько часов после того, как президент Дональд Трамп приказал федеральным агентствам прекратить использование ИИ-инструментов Anthropic, американские военные нанесли крупный воздушный удар по Ирану, который, по сообщениям, опирался на платформу Claude компании. Сообщается, что Центральное командование США использовало Claude для оценки разведданных, определения целей и моделирования боевых сценариев во время ударов по Ирану, подтвердили источники, знакомые с ситуацией, газете Wall Street Journal в субботу. Это произошло несмотря на указ Трампа в пятницу о начале шестимесячного этапа вывода продукции Anthropic, после того как переговоры между компанией и Пентагоном по поводу использования коммерчески разработанных систем ИИ завершились провалом. Decrypt обратился в Министерство обороны и Anthropic за комментариями.
«Когда инструменты ИИ уже встроены в системы разведки и моделирования в реальном времени, решения на высшем уровне не мгновенно приводят к изменениям на местах», — сказал Decrypt Мидхун Кришна М, соучредитель и CEO платформы для учета затрат на LLM TknOps.io. «Существует задержка — техническая, процедурная и человеческая.» «К тому моменту, когда модель интегрирована в засекреченные системы разведки и моделирования, вы сталкиваетесь с уже понесенными затратами на интеграцию, переобучение, повторную сертификацию безопасности и параллельное тестирование, поэтому шести-месячный срок вывода может показаться решительным, но настоящие финансовые и операционные издержки гораздо глубже», — добавил Кришна. «Теперь оборонные агентства будут уделять приоритетное внимание переносимости моделей и резервным копиям», — отметил он. «Ни один серьезный военный оператор не хочет обнаружить во время кризиса, что его слой ИИ политически уязвим.»
Генеральный директор Anthropic Дарио Амодеи в четверг заявил, что компания не снимет меры предосторожности, препятствующие использованию Claude для массового внутреннего наблюдения или полностью автономного оружия. «Мы не можем по совести согласиться с их требованием», — написал Амодеи после того, как Министерство обороны потребовало от подрядчиков разрешить использование их систем «для любых законных целей». «Левые радикалы из Anthropic совершили катастрофическую ошибку, пытаясь принудительно навязать Министерству войны», — позже написал Трамп в Truth Social, приказав агентствам «немедленно прекратить» использование продуктов Anthropic. Министр обороны Пит Хегсэт последовал за ним, назвав Anthropic «риском для национальной безопасности в цепочке поставок», что ранее было прерогативой иностранных противников, и запретил всем подрядчикам и партнерам Пентагона вести коммерческую деятельность с компанией. Anthropic назвала это «беспрецедентным» и пообещала оспорить это в суде, заявив, что «никогда ранее не применяли публично к американской компании». Компания добавила, что, насколько ей известно, оба спорных ограничения до настоящего времени не повлияли на ни одну государственную миссию. «Дискуссия не о том, будет ли ИИ использоваться в обороне, это уже происходит», — добавил Кришна. «Речь идет о том, смогут ли передовые лаборатории сохранять дифференцированные рамки безопасности, когда их системы станут операционными активами по контрактам «для любых законных целей»». OpenAI быстро заполнила этот пробел, объявив в пятницу вечером о сделке с Пентагоном, которая охватывает засекреченные военные сети, заявляя, что в ней предусмотрены те же рамки безопасности, что и у Anthropic.
Вчера мы достигли соглашения с Министерством войны о развертывании передовых систем ИИ в засекреченных средах, которое мы попросили сделать доступным для всех компаний, работающих с ИИ.
Мы считаем, что наше развертывание содержит больше рамок безопасности, чем любое предыдущее соглашение по засекреченному ИИ…
— OpenAI (@OpenAI) 28 февраля 2026 г.
На вопрос, создает ли фактический черный список Anthropic со стороны Пентагона тревожный прецедент для будущих споров с компаниями, разрабатывающими ИИ, генеральный директор OpenAI Сэм Альтман ответил в X: «Да; я считаю, что это очень страшный прецедент, и мне хотелось бы, чтобы они поступили иначе. Я не считаю, что Anthropic поступила хорошо, но поскольку они более влиятельная сторона, я считаю, что больше ответственности лежит на правительстве. Я все еще надеюсь на гораздо лучшее решение», — добавил он. Между тем, почти 500 сотрудников OpenAI и Google подписали открытое письмо, в котором предупреждали, что Пентагон пытается заставить компании по ИИ конкурировать друг с другом.