The Wall Street Journal сообщает: Трамп убрал Хамене из Ирана с помощью определения Claude AI, OpenAI полностью взяла под контроль системы Пентагона

動區BlockTempo

По данным Wall Street Journal, Центральное командование США (CENTCOM) использовало систему Claude AI компании Anthropic в иранских авиаударах для анализа разведки, идентификации целей и моделирования поля боя — но это произошло всего через несколько часов после подписания Трампом исполнительного указа о блокировке Anthropic. Этот инцидент показывает, что ИИ глубоко интегрирован в оборонную инфраструктуру, и даже президентские запреты сложно сразу отменить. Anthropic был исключён Пентагоном за отказ снять ограничения на «автономное оружие» и «массовое наблюдение», и OpenAI быстро взял на себя руководство.
(Резюме: Трамп хочет полностью запретить Anthropic!) отказался изменить «лимит убийств» Клода, и его соперник OpenAI впервые поддержал его)
(Справочное дополнение: противостояние Пентагона против Anthropic!) Полностью открытый Claude Military — «иначе расторгнуть контракт и уйти»)

Содержание этой статьи

Переключение

  • Запрет только что подписан, а Клод всё ещё «работает» на поле боя
  • Anthropic придерживался двух красных линий и был трагически «ослушан» и покинут»
  • OpenAI быстро взял верх, и гонка вооружений ИИ сменила главного героя
  • ИИ не может вернуться назад: техническая инерция, которую невозможно остановить банами

В тот же день, когда администрация Трампа в прошлую пятницу приказала полностью отключить технологии Anthropic, а министр обороны даже назвал это «риском цепочки поставок», авиаудары американских вооружённых сил по Ирану всё ещё зависят от Claude AI для работы. Эта, казалось бы, противоречивая картина раскрывает тревожную реальность: проникновение ИИ в военную систему превысило непосредственные возможности исполнительных указов.

Запрет только что был подписан, а Клод всё ещё «работает» на поле боя

По данным источников, цитируемых Wall Street Journal, Центральное командование США продолжало использовать Claude для выполнения ряда ключевых задач во время иранского авиаудара под кодовым названием «Операция Эпическая ярость» — включая анализ разведывательных данных, помощь в идентификации целей и симуляцию сценариев поля боя.

Anthropic подписала двухлетний контракт на прототип стоимостью 200 миллионов долларов прошлым летом с Пентагоном, и благодаря партнёрству между Palantir и Amazon Web Services Claude стал первой коммерческой моделью ИИ, одобренной для работы в секретной сети Пентагона для целей от испытаний оружия до связи на поле боя в реальном времени. По сообщениям, система также ранее оказывала поддержку в захвате президента Венесуэлы Мадуро в январе этого года.

Anthropic придерживался двух красных линий и трагически был «ослушан» и ушёл»

В основе конфликта лежит то, что Пентагон попросил Anthropic снять ограничения на использование из контракта, позволяя использовать Claude для «всех законных целей»; Но генеральный директор Anthropic Дарио Амодей отказался идти на компромисс и настаивал на двух этических принципах —

Claude не должен использоваться для массового наблюдения за гражданами США или для управления полностью автономными оружейными системами.

Amodei заявила, что компания выступает против использования ИИ для «крупномасштабного внутреннего наблюдения» и «полностью автономных систем вооружения», подчеркнув, что военные решения должны контролироваться людьми, а не оставлять их на расследование алгоритмов. В заявлении он написал: «Мы не можем согласиться с их просьбой с чистой совестью.»

Министр обороны Пит Хегсет сразу же включил Anthropic в список «рисков цепочки поставок», а Трамп прямо приказал всем федеральным агентствам «немедленно прекратить использование» технологий Anthropic — хотя ключевые ведомства, такие как Министерство обороны, всё ещё имеют шестимесячный переходный период. Anthropic объявила, что будет оспаривать это заключение в суде, назвав его «необоснованным с юридической точки зрения» и предупредив, что этот шаг создаст опасный прецедент для «любой американской компании, ведущей переговоры с правительством».

OpenAI быстро взял верх, и гонка вооружений ИИ сменила своего главного героя

Всего через несколько часов после того, как Трамп объявил о запрете Anthropic, OpenAI объявила о соглашении с Министерством обороны о развертывании своей технологии ИИ в засекреченных военных сетях.

Стоит отметить, что в ходе скандала генеральный директор OpenAI Сэм Олтман публично поддержал Anthropic в эксклюзивном интервью CNBC, назвав его «надёжным в области безопасности» — хотя в итоге OpenAI решила взять на себя военный контракт, от которого Anthropic была вынуждена отказаться. Это деликатное взаимодействие между гигантами ИИ отражает сложную борьбу Силиконовой долины между бизнес-интересами и этическими позициями.

ИИ — это уже нет пути назад: техническая инерция, которую запрещение не может остановить

Самое заставляющее задуматься в этом инциденте — это не политическая борьба между Трампом и Anthropic, а более фундаментальный факт: когда системы ИИ глубоко интегрированы во все военные связи — от разведывательного анализа до целевого назначения, — ни один «отключённый» исполнительный указ не может вступить в силу за короткое время.

Для сообществ криптовалют и Web3 это дело также является внимательным открытием — будь то ИИ или блокчейн, когда технологии входят в ядро государственных и оборонных систем, идеал «децентрализации» должен пройти практическое испытание «национальной воли». Опыт Anthropic показывает, что цена соблюдения технической этики может быть самой большой потерей для клиентов.

Посмотреть Оригинал
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев