Искусственный интеллект Anthropic используется в иранских протестах после того, как Трамп предпринял шаги по разрыву связей: WSJ

Decrypt

Вкратце

  • Сообщается, что Центральное командование США использовало Claude от Anthropic для оценки разведданных, определения целей и моделирования боевых сценариев во время ударов по Ирану.
  • Эксперты предупреждают, что шестимесячный срок вывода из эксплуатации недооценивает реальные затраты на замену модели ИИ, встроенной в засекреченные оборонные системы.
  • OpenAI заключила сделку с Пентагоном после конфликта с Anthropic.

Через несколько часов после того, как президент Дональд Трамп приказал федеральным агентствам прекратить использование ИИ-инструментов Anthropic, американские военные нанесли крупный воздушный удар по Ирану, который, по сообщениям, опирался на платформу Claude компании. Сообщается, что Центральное командование США использовало Claude для оценки разведданных, определения целей и моделирования боевых сценариев во время ударов по Ирану, подтвердили источники, знакомые с ситуацией, газете Wall Street Journal в субботу. Это произошло несмотря на указ Трампа в пятницу о начале шестимесячного этапа вывода продукции Anthropic, после того как переговоры между компанией и Пентагоном по поводу использования коммерчески разработанных систем ИИ завершились провалом. Decrypt обратился в Министерство обороны и Anthropic за комментариями.

 «Когда инструменты ИИ уже встроены в системы разведки и моделирования в реальном времени, решения на высшем уровне не мгновенно приводят к изменениям на местах», — сказал Decrypt Мидхун Кришна М, соучредитель и CEO платформы для учета затрат на LLM TknOps.io. «Существует задержка — техническая, процедурная и человеческая.» «К тому моменту, когда модель интегрирована в засекреченные системы разведки и моделирования, вы сталкиваетесь с уже понесенными затратами на интеграцию, переобучение, повторную сертификацию безопасности и параллельное тестирование, поэтому шести-месячный срок вывода может показаться решительным, но настоящие финансовые и операционные издержки гораздо глубже», — добавил Кришна. «Теперь оборонные агентства будут уделять приоритетное внимание переносимости моделей и резервным копиям», — отметил он. «Ни один серьезный военный оператор не хочет обнаружить во время кризиса, что его слой ИИ политически уязвим.»

Генеральный директор Anthropic Дарио Амодеи в четверг заявил, что компания не снимет меры предосторожности, препятствующие использованию Claude для массового внутреннего наблюдения или полностью автономного оружия. «Мы не можем по совести согласиться с их требованием», — написал Амодеи после того, как Министерство обороны потребовало от подрядчиков разрешить использование их систем «для любых законных целей». «Левые радикалы из Anthropic совершили катастрофическую ошибку, пытаясь принудительно навязать Министерству войны», — позже написал Трамп в Truth Social, приказав агентствам «немедленно прекратить» использование продуктов Anthropic. Министр обороны Пит Хегсэт последовал за ним, назвав Anthropic «риском для национальной безопасности в цепочке поставок», что ранее было прерогативой иностранных противников, и запретил всем подрядчикам и партнерам Пентагона вести коммерческую деятельность с компанией. Anthropic назвала это «беспрецедентным» и пообещала оспорить это в суде, заявив, что «никогда ранее не применяли публично к американской компании». Компания добавила, что, насколько ей известно, оба спорных ограничения до настоящего времени не повлияли на ни одну государственную миссию. «Дискуссия не о том, будет ли ИИ использоваться в обороне, это уже происходит», — добавил Кришна. «Речь идет о том, смогут ли передовые лаборатории сохранять дифференцированные рамки безопасности, когда их системы станут операционными активами по контрактам «для любых законных целей»». OpenAI быстро заполнила этот пробел, объявив в пятницу вечером о сделке с Пентагоном, которая охватывает засекреченные военные сети, заявляя, что в ней предусмотрены те же рамки безопасности, что и у Anthropic.

Вчера мы достигли соглашения с Министерством войны о развертывании передовых систем ИИ в засекреченных средах, которое мы попросили сделать доступным для всех компаний, работающих с ИИ.

Мы считаем, что наше развертывание содержит больше рамок безопасности, чем любое предыдущее соглашение по засекреченному ИИ…

— OpenAI (@OpenAI) 28 февраля 2026 г.

На вопрос, создает ли фактический черный список Anthropic со стороны Пентагона тревожный прецедент для будущих споров с компаниями, разрабатывающими ИИ, генеральный директор OpenAI Сэм Альтман ответил в X: «Да; я считаю, что это очень страшный прецедент, и мне хотелось бы, чтобы они поступили иначе. Я не считаю, что Anthropic поступила хорошо, но поскольку они более влиятельная сторона, я считаю, что больше ответственности лежит на правительстве. Я все еще надеюсь на гораздо лучшее решение», — добавил он. Между тем, почти 500 сотрудников OpenAI и Google подписали открытое письмо, в котором предупреждали, что Пентагон пытается заставить компании по ИИ конкурировать друг с другом.

Посмотреть Оригинал
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев