Часопис Time обкладинка інтерв'ю Anthropic: глобально найбільш революційна компанія, оцінка вартості 380 мільярдів перевищує Goldman Sachs

動區BlockTempo

TIME глибоко розслідує, що Anthropic через відмову дозволити використання Claude для повністю автономних озброєнь та масштабного спостереження за громадянами США був внесений урядом Трампа до списку ризиків національної безпеки у ланцюжку постачань; у той самий день OpenAI швидко взяла на себе військові контракти — ця «конкуренція вниз» випробовує принципи та межі найперспективнішої у світі компанії штучного інтелекту. Статтю підготовлено на основі TIME статті «The Most Disruptive Company in the World» авторів Leslie Dickstein та Simmone Shah, переклад і редагування — компанією Динамічний сектор.
(Передісторія: AI-розпізнавання обличчя спричинило неправомірне ув’язнення! Бабуся з США провела півроку у в’язниці за 1200 миль від дому, поліція не вибачилась)
(Додатковий фон: колишній техлідер Dropbox — популярна стаття «Я присвятив життя роботі, яка тепер безцінна і легко доступна»)

Зміст статті

Перемикач

  • Вічна боротьба безпеки та швидкості
  • Від нішевої до лідерської позиції: шлях зростання Anthropic
  • Дві червоні лінії: автономна зброя та масштабний контроль
  • Культурний конфлікт і політична опозиція
  • Витоки Anthropic: аутсайдер з пріоритетом безпеки
  • Код Claude: нове визначення професії «інженер»
  • Рекурсивне самовдосконалення: страх і захоплення швидким розвитком AI
  • Політика RSP: чи зламався механізм самообмеження?
  • Діяльність у Венесуелі: перше глибоке втручання AI у реальні бойові дії
  • Переговори зірвані, OpenAI отримує контракт
  • Після шторму: чи зможе Anthropic вистояти?

У готельній кімнаті в Санта-Кларі, Каліфорнія, п’ять співробітників Anthropic зібралися навколо ноутбука у напруженій атмосфері. Це лютий 2025 року, вони перебували на конференції неподалік, коли несподівано отримали тривожний сигнал: результати контрольованого експерименту свідчили, що нова версія Claude, яка незабаром з’явиться, може допомогти терористам у створенні біологічної зброї.

Ці люди входять до «передової червоної команди» Anthropic — спеціалізованої групи, яка оцінює передові можливості Claude та моделює потенційні ризики у крайніх сценаріях, від кібератак до біологічної безпеки. Після отримання тривоги вони побігли назад у кімнату, перевернули ліжко, зробили тимчасовий робочий стіл і почали детально аналізувати результати тестів.

Після кількох годин напруженої роботи команда так і не змогла визначити, наскільки новий продукт безпечний. Врешті-решт, Anthropic вирішила відкласти реліз Claude 3.7 Sonnet на 10 днів, доки не переконається у безпеці.

Це здавалося коротким періодом, але для компанії, яка перебуває на передовій технологічної революції і швидко змінює світ, це був майже цілий вік.

Вічна боротьба безпеки і швидкості

«Передова червона команда» під керівництвом Логана Грема розглядає цей випадок «біологічної тривоги» як яскравий приклад тиску, що відчуває Anthropic у критичний момент — не лише для себе, а й для всього світу. Anthropic — один із найактивніших у сфері безпеки AI, але водночас він змагається за створення все більш потужних систем. Багато співробітників переконані, що якщо ця технологія вийде з-під контролю, наслідки можуть бути катастрофічними — від ядерної війни до знищення людства.

Грем, 31 рік, з молодим виглядом, не уникає відповідальності за баланс між прибутками і ризиками. Каже: «Багато з нас виросли у світі, де панує мир, і мають інтуїтивне уявлення, що у цій кімнаті сидять досвідчені дорослі, які знають, як повернути ситуацію на правильний шлях.»

«Але реальність така, що «доросла команда» — це міф. Такої кімнати і дверей немає. Відповідальність лежить лише на тобі», — додає він. І описує цей день як «дуже цікавий і напружений».

Через кілька тижнів Грем у інтерв’ю для TIME розповів про ці події. Журналіст провів у компанії три дні, спілкуючись із керівниками, інженерами, менеджерами та командою безпеки, щоб зрозуміти, чому ця компанія, яка раніше вважалася «незалежною» у AI-гонці, раптово стала лідером.

Від нішевої до лідерської: шлях зростання Anthropic

Тоді Anthropic щойно залучила 30 мільярдів доларів інвестицій і готувалася до IPO. (Звернемо увагу, що Salesforce — один із інвесторів Anthropic, а її головний акціонер — Марк Беніофф, CEO Salesforce.) Зараз оцінка компанії зросла до 380 мільярдів доларів, перевищуючи Goldman Sachs, McDonald’s і Coca-Cola.

Річний дохід Anthropic стрімко зростає. Її модель Claude визнана світовим стандартом, а продукти Claude Code і Claude Cowork переосмислюють поняття «інженер». Інструменти настільки потужні, що кожне нове оновлення викликає хвилі на ринку, адже інвестори починають усвідомлювати, що ці технології можуть революціонізувати цілі галузі — від юридичних послуг до розробки софту. За кілька місяців Anthropic стала однією з найімовірніших компаній, що змінять «майбутнє роботи».

Паралельно компанія потрапила у суперечливу дискусію щодо «майбутнього війни».

Більше року Claude залишається найважливішим AI-моделлю для уряду США і першим, що дозволений для використання у секретних операціях. У січні 2026 року його застосували для сміливої операції — арешту президента Венесуели Nicolás Maduro. За повідомленнями, AI допомагало у плануванні та аналізі розвідки, що стало першим глибоким втручанням AI у реальні військові дії.

Згодом відносини Anthropic із Міноборони США швидко погіршилися. 27 лютого уряд Трампа оголосив Anthropic «ризиком у ланцюжку постачань національної безпеки» — вперше у США таке зроблено щодо внутрішньої компанії.

Це швидко переросло у відкритий конфлікт. Трамп наказав заборонити використання всього софту Anthropic у державних структурах. Міністр оборони Pete Hegseth заявив, що жодна компанія, яка співпрацює з урядом, не може більше працювати з Anthropic. Водночас, її головний конкурент OpenAI швидко взяла на себе військові контракти.

Так, ця компанія, яку вважали «найбільш революційною у світі AI», раптово опинилася під контролем власного уряду.

Дві червоні лінії: автономна зброя і масштабний контроль

Головний конфлікт — хто має право визначати межі цієї технології, що вважається однією з найпотужніших зброї США.

Anthropic не заперечує, що її інструменти можуть використовуватися у військових цілях. Вони вважають, що посилення військової потужності США — єдиний спосіб стримати загрози. Але CEO Dario Amodei виступає проти того, щоб Міноборони перепідписувало контракти і розширювало застосування AI «на всі законні цілі».

Він висловлює дві конкретні побоювання: по-перше, щоб AI Anthropic не використовували у повністю автономних озброєннях; по-друге, щоб не застосовували для масштабного спостереження за громадянами США.

Для Hegseth і його команди ця позиція — спроба компанії впливати на військову політику.

Міноборони вважає, що Anthropic, наполягаючи на «захисних бар’єрах» і обговорюючи гіпотетичні сценарії, фактично підриває співпрацю.

З погляду Трампа, позиція Amodei — зарозуміла і вперта. Навіть найсучасніша продукція не повинна нав’язуватися військовим без їхнього контролю.

Заступник міністра оборони Emil Michael описує цю ситуацію так: «Все застопорилося. Я не можу керувати 3 мільйонами людей, використовуючи якісь незрозумілі винятки.»

Культурний конфлікт і політична опозиція

З Кремнієвої долини до Конгресу — багато хто ставить питання: чи це просто конфлікт контрактів?

Деякі вважають, що дії Трампа — спроба пригнічення компанії з інакшою політичною позицією. У внутрішньому меморандумі Anthropic, що з’явився у мережі, йдеться: «Міністерство оборони і Трамп не люблять нас тому, що ми не підтримуємо його політику і не робимо йому «похвал». Ми підтримуємо регулювання AI, що суперечить їхнім інтересам; говоримо правду про ризики заміни людей роботами; і дотримуємося принципів, а не «сценічної безпеки»».

Між тим, Emil Michael заперечує ці звинувачення, називаючи їх «повною вигадкою». Він каже, що Anthropic внесена до списку ризиків у ланцюжку постачань через те, що її позиція може поставити під загрозу військових.

«У Міноборони моя робота — не політика, а захист країни», — додає він.

Культура Anthropic, яка завжди була незалежною, тепер стикається з політичними розколами, питаннями безпеки і конкуренцією. Наскільки ця криза шкодить компанії — невідомо. Спершу «ризик у ланцюжку» обмежили лише військовими контрактами. 9 березня Anthropic подала позов проти уряду США, намагаючись скасувати «чорний список». Деякі клієнти сприйняли цю позицію як моральний протест і перейшли від ChatGPT до Claude.

Проте у найближчі три роки компанія мусить діяти у складних умовах — її конкуренти і частина урядових структур налаштовані ворожо. Вона не здається, але й не може ігнорувати ризики.

Ця «штормова ситуація» підкреслює важливі питання: чи зможе Anthropic зберегти свої цінності і вижити у конфлікті з урядом, що прагне контролювати технології? Чи не стане ця боротьба початком більшої історії — епохи, коли AI і військова потужність зливаються у нову реальність?

Переглянути оригінал
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів