Генеральный директор Anthropic в ярости: Контракт OpenAI с Пентагоном — это ложь, Altman притворяется послом мира

動區BlockTempo

Антропик внутренний меморандум исполнительного директора Амодеи утек, прямо обвиняя CEO OpenAI Сэма Альтмана в «полной лжи», две крупнейшие AI-компании жестко спорят по поводу военных контрактов.
(Предыстория: Сэм Альтман — злодей? После того, как Pentagon заблокировал Anthropic, он внезапно заявил о получении контракта с Министерством обороны США)
(Дополнительный фон: Wall Street Journal сообщает: Трамп использовал Claude AI для определения местонахождения Хамени Ирана, OpenAI полностью взяла под контроль системы Пентагона)

Содержание статьи

Переключить

  • Последний ультиматум — начало конфликта
  • Реалистичный курс OpenAI
  • Реальная сцена, раскрытая меморандумом
  • Мгновенная реакция пользователей и рынка

1

Внутренний меморандум, написанный исполнительным директором Anthropic Дарьо Амодеи для сотрудников, утек. В нем он прямо обвиняет руководителя OpenAI Сэма Альтмана в «полной лжи» и называет последние сделки с Пентагоном «показухой безопасности».

Две крупнейшие мировые AI-компании в решающем вопросе, который может определить будущее AI на ближайшие десять лет, разошлись во мнениях.

Последний ультиматум — начало конфликта

Искра конфликта — контракт Anthropic на 200 миллионов долларов с военными. Через сотрудничество с Palantir, Claude AI Anthropic уже внедрена в секретные военные сети.

Однако в конце февраля ситуация резко изменилась: Пентагон выдал Anthropic последний ультиматум: убрать все ограничения на использование AI, разрешить «любое законное применение» без ограничений, иначе контракт будет расторгнут до 27 февраля, а компанию внесут в черный список.

Генеральный директор Амодеи публично отказался, заявив, что «не может поступиться совестью», и назвал два непроходимых красных линий:

  • Первое — запрет на автономные боевые системы: AI не должен принимать окончательные решения о прицеливании на поле боя
  • Второе — запрет на массовое внутреннее наблюдение: не разрешается создавать инструменты массового слежения за гражданами США

Дополнительное чтение: Трамп хочет полностью заблокировать Anthropic! Отказывается от Claude с «убийственными» ограничениями

Ответ последовал быстро и жестко. Через несколько часов после отказа Anthropic, правительство Трампа внесло компанию в список «рисков для цепочки поставок» (обычно этот ярлык используют для иностранных враждебных сил), фактически исключив ее из всех федеральных контрактов, назвав «радикальными левыми, пробужденцами» и угрозой национальной безопасности.

Реалистичный курс OpenAI

28 февраля, всего через несколько часов после блокировки Anthropic, Альтман объявил, что OpenAI достигла соглашения с министерством обороны. В официальном блоге OpenAI говорится, что контракт включает те же «красные линии»: ограничения автономных оружий, массового внутреннего наблюдения и автоматизированных решений.

Но в деталях скрыт подвох. Контракт OpenAI разрешает «любое законное применение», в отличие от четкого запрета Anthropic. OpenAI объясняет: «В наших взаимодействиях министерство ясно заявило, что массовое внутреннее наблюдение незаконно, и у них таких планов нет.»

Критики сразу указали на проблему: законы меняются. То, что сегодня считается незаконным, завтра может стать допустимым, и защита контрактом по принципу «законное применение» по сути уязвима.

Реальная сцена, раскрытая меморандумом

В утекшем меморандуме Амодеи прямо оценивает информационную войну:

Я считаю, что попытки манипулировать общественным мнением и СМИ неэффективны: большинство считает, что сделка OpenAI с министерством вызывает подозрение, а мы — герои.

Он также прямо критикует мотивацию Альтмана:

Их главная причина — угодить сотрудникам, а наша — предотвратить злоупотребления.

По данным TechCrunch, Амодеи в меморандуме обвиняет Альтмана «в маскировке себя как миротворца и мастера сделок». В ответ на шквал критики Альтман признал на общем собрании OpenAI, что это решение принесет серьезные репутационные потери, но считает его сложным, но правильным с точки зрения национальной безопасности.

Мгновенная реакция пользователей и рынка

По мере развития событий пользователи активно реагируют. Недавно количество скачиваний ChatGPT резко выросло; одновременно скачивания Claude от Anthropic значительно увеличились.

Anthropic выбрала отказ и понесла последствия — потерю федеральных контрактов и связей с правительством; OpenAI выбрала сотрудничество с ограничениями — потерю доверия пользователей и репутации бренда. Обе стратегии логичны, но имеют цену.

Самое тревожное — этот конфликт выявил более глубокую проблему: в эпоху быстрого военного использования AI граница между «законным» и «правильным» все больше размывается.

Посмотреть Оригинал
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев