TIME глибоко розслідує, що Anthropic через відмову дозволити використання Claude для повністю автономних озброєнь та масштабного спостереження за громадянами США був внесений урядом Трампа до списку ризиків національної безпеки у ланцюжку постачань; у той самий день OpenAI швидко взяла на себе військові контракти — ця «конкуренція вниз» випробовує принципи та межі найперспективнішої у світі компанії штучного інтелекту. Статтю підготовлено на основі TIME статті «The Most Disruptive Company in the World» авторів Leslie Dickstein та Simmone Shah, переклад і редагування — компанією Динамічний сектор.
(Передісторія: AI-розпізнавання обличчя спричинило неправомірне ув’язнення! Бабуся з США провела півроку у в’язниці за 1200 миль від дому, поліція не вибачилась)
(Додатковий фон: колишній техлідер Dropbox — популярна стаття «Я присвятив життя роботі, яка тепер безцінна і легко доступна»)
Зміст статті
Перемикач
У готельній кімнаті в Санта-Кларі, Каліфорнія, п’ять співробітників Anthropic зібралися навколо ноутбука у напруженій атмосфері. Це лютий 2025 року, вони перебували на конференції неподалік, коли несподівано отримали тривожний сигнал: результати контрольованого експерименту свідчили, що нова версія Claude, яка незабаром з’явиться, може допомогти терористам у створенні біологічної зброї.
Ці люди входять до «передової червоної команди» Anthropic — спеціалізованої групи, яка оцінює передові можливості Claude та моделює потенційні ризики у крайніх сценаріях, від кібератак до біологічної безпеки. Після отримання тривоги вони побігли назад у кімнату, перевернули ліжко, зробили тимчасовий робочий стіл і почали детально аналізувати результати тестів.
Після кількох годин напруженої роботи команда так і не змогла визначити, наскільки новий продукт безпечний. Врешті-решт, Anthropic вирішила відкласти реліз Claude 3.7 Sonnet на 10 днів, доки не переконається у безпеці.
Це здавалося коротким періодом, але для компанії, яка перебуває на передовій технологічної революції і швидко змінює світ, це був майже цілий вік.
«Передова червона команда» під керівництвом Логана Грема розглядає цей випадок «біологічної тривоги» як яскравий приклад тиску, що відчуває Anthropic у критичний момент — не лише для себе, а й для всього світу. Anthropic — один із найактивніших у сфері безпеки AI, але водночас він змагається за створення все більш потужних систем. Багато співробітників переконані, що якщо ця технологія вийде з-під контролю, наслідки можуть бути катастрофічними — від ядерної війни до знищення людства.
Грем, 31 рік, з молодим виглядом, не уникає відповідальності за баланс між прибутками і ризиками. Каже: «Багато з нас виросли у світі, де панує мир, і мають інтуїтивне уявлення, що у цій кімнаті сидять досвідчені дорослі, які знають, як повернути ситуацію на правильний шлях.»
«Але реальність така, що «доросла команда» — це міф. Такої кімнати і дверей немає. Відповідальність лежить лише на тобі», — додає він. І описує цей день як «дуже цікавий і напружений».
Через кілька тижнів Грем у інтерв’ю для TIME розповів про ці події. Журналіст провів у компанії три дні, спілкуючись із керівниками, інженерами, менеджерами та командою безпеки, щоб зрозуміти, чому ця компанія, яка раніше вважалася «незалежною» у AI-гонці, раптово стала лідером.
Тоді Anthropic щойно залучила 30 мільярдів доларів інвестицій і готувалася до IPO. (Звернемо увагу, що Salesforce — один із інвесторів Anthropic, а її головний акціонер — Марк Беніофф, CEO Salesforce.) Зараз оцінка компанії зросла до 380 мільярдів доларів, перевищуючи Goldman Sachs, McDonald’s і Coca-Cola.
Річний дохід Anthropic стрімко зростає. Її модель Claude визнана світовим стандартом, а продукти Claude Code і Claude Cowork переосмислюють поняття «інженер». Інструменти настільки потужні, що кожне нове оновлення викликає хвилі на ринку, адже інвестори починають усвідомлювати, що ці технології можуть революціонізувати цілі галузі — від юридичних послуг до розробки софту. За кілька місяців Anthropic стала однією з найімовірніших компаній, що змінять «майбутнє роботи».
Паралельно компанія потрапила у суперечливу дискусію щодо «майбутнього війни».
Більше року Claude залишається найважливішим AI-моделлю для уряду США і першим, що дозволений для використання у секретних операціях. У січні 2026 року його застосували для сміливої операції — арешту президента Венесуели Nicolás Maduro. За повідомленнями, AI допомагало у плануванні та аналізі розвідки, що стало першим глибоким втручанням AI у реальні військові дії.
Згодом відносини Anthropic із Міноборони США швидко погіршилися. 27 лютого уряд Трампа оголосив Anthropic «ризиком у ланцюжку постачань національної безпеки» — вперше у США таке зроблено щодо внутрішньої компанії.
Це швидко переросло у відкритий конфлікт. Трамп наказав заборонити використання всього софту Anthropic у державних структурах. Міністр оборони Pete Hegseth заявив, що жодна компанія, яка співпрацює з урядом, не може більше працювати з Anthropic. Водночас, її головний конкурент OpenAI швидко взяла на себе військові контракти.
Так, ця компанія, яку вважали «найбільш революційною у світі AI», раптово опинилася під контролем власного уряду.
Головний конфлікт — хто має право визначати межі цієї технології, що вважається однією з найпотужніших зброї США.
Anthropic не заперечує, що її інструменти можуть використовуватися у військових цілях. Вони вважають, що посилення військової потужності США — єдиний спосіб стримати загрози. Але CEO Dario Amodei виступає проти того, щоб Міноборони перепідписувало контракти і розширювало застосування AI «на всі законні цілі».
Він висловлює дві конкретні побоювання: по-перше, щоб AI Anthropic не використовували у повністю автономних озброєннях; по-друге, щоб не застосовували для масштабного спостереження за громадянами США.
Для Hegseth і його команди ця позиція — спроба компанії впливати на військову політику.
Міноборони вважає, що Anthropic, наполягаючи на «захисних бар’єрах» і обговорюючи гіпотетичні сценарії, фактично підриває співпрацю.
З погляду Трампа, позиція Amodei — зарозуміла і вперта. Навіть найсучасніша продукція не повинна нав’язуватися військовим без їхнього контролю.
Заступник міністра оборони Emil Michael описує цю ситуацію так: «Все застопорилося. Я не можу керувати 3 мільйонами людей, використовуючи якісь незрозумілі винятки.»
З Кремнієвої долини до Конгресу — багато хто ставить питання: чи це просто конфлікт контрактів?
Деякі вважають, що дії Трампа — спроба пригнічення компанії з інакшою політичною позицією. У внутрішньому меморандумі Anthropic, що з’явився у мережі, йдеться: «Міністерство оборони і Трамп не люблять нас тому, що ми не підтримуємо його політику і не робимо йому «похвал». Ми підтримуємо регулювання AI, що суперечить їхнім інтересам; говоримо правду про ризики заміни людей роботами; і дотримуємося принципів, а не «сценічної безпеки»».
Між тим, Emil Michael заперечує ці звинувачення, називаючи їх «повною вигадкою». Він каже, що Anthropic внесена до списку ризиків у ланцюжку постачань через те, що її позиція може поставити під загрозу військових.
«У Міноборони моя робота — не політика, а захист країни», — додає він.
Культура Anthropic, яка завжди була незалежною, тепер стикається з політичними розколами, питаннями безпеки і конкуренцією. Наскільки ця криза шкодить компанії — невідомо. Спершу «ризик у ланцюжку» обмежили лише військовими контрактами. 9 березня Anthropic подала позов проти уряду США, намагаючись скасувати «чорний список». Деякі клієнти сприйняли цю позицію як моральний протест і перейшли від ChatGPT до Claude.
Проте у найближчі три роки компанія мусить діяти у складних умовах — її конкуренти і частина урядових структур налаштовані ворожо. Вона не здається, але й не може ігнорувати ризики.
Ця «штормова ситуація» підкреслює важливі питання: чи зможе Anthropic зберегти свої цінності і вижити у конфлікті з урядом, що прагне контролювати технології? Чи не стане ця боротьба початком більшої історії — епохи, коли AI і військова потужність зливаються у нову реальність?