По данным Wall Street Journal, Центральное командование США (CENTCOM) использовало систему Claude AI компании Anthropic в иранских авиаударах для анализа разведки, идентификации целей и моделирования поля боя — но это произошло всего через несколько часов после подписания Трампом исполнительного указа о блокировке Anthropic. Этот инцидент показывает, что ИИ глубоко интегрирован в оборонную инфраструктуру, и даже президентские запреты сложно сразу отменить. Anthropic был исключён Пентагоном за отказ снять ограничения на «автономное оружие» и «массовое наблюдение», и OpenAI быстро взял на себя руководство.
(Резюме: Трамп хочет полностью запретить Anthropic!) отказался изменить «лимит убийств» Клода, и его соперник OpenAI впервые поддержал его)
(Справочное дополнение: противостояние Пентагона против Anthropic!) Полностью открытый Claude Military — «иначе расторгнуть контракт и уйти»)
Содержание этой статьи
Переключение
В тот же день, когда администрация Трампа в прошлую пятницу приказала полностью отключить технологии Anthropic, а министр обороны даже назвал это «риском цепочки поставок», авиаудары американских вооружённых сил по Ирану всё ещё зависят от Claude AI для работы. Эта, казалось бы, противоречивая картина раскрывает тревожную реальность: проникновение ИИ в военную систему превысило непосредственные возможности исполнительных указов.
По данным источников, цитируемых Wall Street Journal, Центральное командование США продолжало использовать Claude для выполнения ряда ключевых задач во время иранского авиаудара под кодовым названием «Операция Эпическая ярость» — включая анализ разведывательных данных, помощь в идентификации целей и симуляцию сценариев поля боя.
Anthropic подписала двухлетний контракт на прототип стоимостью 200 миллионов долларов прошлым летом с Пентагоном, и благодаря партнёрству между Palantir и Amazon Web Services Claude стал первой коммерческой моделью ИИ, одобренной для работы в секретной сети Пентагона для целей от испытаний оружия до связи на поле боя в реальном времени. По сообщениям, система также ранее оказывала поддержку в захвате президента Венесуэлы Мадуро в январе этого года.
В основе конфликта лежит то, что Пентагон попросил Anthropic снять ограничения на использование из контракта, позволяя использовать Claude для «всех законных целей»; Но генеральный директор Anthropic Дарио Амодей отказался идти на компромисс и настаивал на двух этических принципах —
Claude не должен использоваться для массового наблюдения за гражданами США или для управления полностью автономными оружейными системами.
Amodei заявила, что компания выступает против использования ИИ для «крупномасштабного внутреннего наблюдения» и «полностью автономных систем вооружения», подчеркнув, что военные решения должны контролироваться людьми, а не оставлять их на расследование алгоритмов. В заявлении он написал: «Мы не можем согласиться с их просьбой с чистой совестью.»
Министр обороны Пит Хегсет сразу же включил Anthropic в список «рисков цепочки поставок», а Трамп прямо приказал всем федеральным агентствам «немедленно прекратить использование» технологий Anthropic — хотя ключевые ведомства, такие как Министерство обороны, всё ещё имеют шестимесячный переходный период. Anthropic объявила, что будет оспаривать это заключение в суде, назвав его «необоснованным с юридической точки зрения» и предупредив, что этот шаг создаст опасный прецедент для «любой американской компании, ведущей переговоры с правительством».
Всего через несколько часов после того, как Трамп объявил о запрете Anthropic, OpenAI объявила о соглашении с Министерством обороны о развертывании своей технологии ИИ в засекреченных военных сетях.
Стоит отметить, что в ходе скандала генеральный директор OpenAI Сэм Олтман публично поддержал Anthropic в эксклюзивном интервью CNBC, назвав его «надёжным в области безопасности» — хотя в итоге OpenAI решила взять на себя военный контракт, от которого Anthropic была вынуждена отказаться. Это деликатное взаимодействие между гигантами ИИ отражает сложную борьбу Силиконовой долины между бизнес-интересами и этическими позициями.
Самое заставляющее задуматься в этом инциденте — это не политическая борьба между Трампом и Anthropic, а более фундаментальный факт: когда системы ИИ глубоко интегрированы во все военные связи — от разведывательного анализа до целевого назначения, — ни один «отключённый» исполнительный указ не может вступить в силу за короткое время.
Для сообществ криптовалют и Web3 это дело также является внимательным открытием — будь то ИИ или блокчейн, когда технологии входят в ядро государственных и оборонных систем, идеал «децентрализации» должен пройти практическое испытание «национальной воли». Опыт Anthropic показывает, что цена соблюдения технической этики может быть самой большой потерей для клиентов.