Пентагон посилює свій ультиматум до Anthropic у конфлікті щодо використання ШІ

Пентагон посилює свою ультиматум щодо Anthropic у суперечці про використання ШІ

Ієн Марлоу

П’ятниця, 27 лютого 2026 року о 4:37 ранку за місцевим часом GMT+9 2 хв читання

У цій статті:

ANTH.PVT

(Bloomberg) — Пентагон у четвер посилив свій тривалий конфлікт з Anthropic PBC, зробивши публічним погрозу фактично заборонити стартапу штучного інтелекту працювати у масштабній ланцюжку постачання військових США.

У повідомленні у соціальних мережах головний речник Міноборони Шон Парнелл попередив Anthropic про дедлайн у п’ятницю о 17:01 у Вашингтоні, щоб дозволити Пентагону безперешкодно використовувати інструменти штучного інтелекту Claude Gov після того, як компанія раніше наполягала на деяких заходах безпеки.

Найчитаніше від Bloomberg

Банкрутські «Графіті-Вежі» в Лос-Анджелесі шукають покупця за 470 мільйонів доларів
Експерт з страхування оцінює безпеку самоврядних автомобілів
Новий податковий проект спрямований проти пристрасті Таїланду до солоних страв
Осло відновлює свою урядову частину з новим акцентом: відкритість
Це важкий час для чорних забудовників нерухомості

“Це просте, здорове для розуму прохання, яке запобігатиме ризику для критичних військових операцій і потенційно поставить під загрозу наших військових,” — написав Парнелл. Старший офіційний представник Пентагону підтвердив у четвер, що Міноборони надіслало своє остаточне пропозицію Anthropic у середу.

У переговорах з Пентагоном Anthropic просила американських чиновників утриматися від використання своїх продуктів для створення зброї, яка автономно цілиться у ворога або проводить масове спостереження за громадянами США, за словами осіб, знайомих із цим питанням.

Пентагон відреагував і вимагав можливості використовувати Claude, один із небагатьох інструментів ШІ, дозволених для роботи у захищених хмарних системах, без будь-яких обмежень з боку компанії. Міноборони також погрожує застосувати Закон про оборонне виробництво часів холодної війни, щоб все одно використовувати програмне забезпечення Anthropic.

Пост у X Парнелла у четвер став першим офіційним висловлюванням, яке окреслює потенційні наслідки.

Пентагон не зацікавлений у масовому спостереженні або розробці «автономної зброї, яка працює без участі людини», — написав Парнелл.

“Ми не дозволимо жодній компанії диктувати умови щодо того, як ми приймаємо оперативні рішення,” — продовжив він. “Вони мають до 17:01 за східним часом у п’ятницю, щоб прийняти рішення. Інакше ми припинимо співпрацю з Anthropic і визнаємо їх ризиком для ланцюжка постачання.”

–За підтримки Катрін Мэнсон.

Найчитаніше від Bloomberg Businessweek

Як Covid тихо перепрограмував мозок
Код Claude і велика паніка продуктивності 2026 року
Індійські десерти готові до свого матча-моменту
Любов Америки до убе напружує постачання на Філіппінах
Рішення Верховного суду щодо тарифів таємно є подарунком Трампу

©2026 Bloomberg L.P.

Умови та політика конфіденційності

Панель управління конфіденційністю

Детальніше

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити