Автор: Ву Шоутюань
20 лютого 2026 року, у період святкового канікулу, у X розгорілася дискусія щодо «Web4». Sigil заявив, що створив перший штучний інтелект, здатний саморозвиватися, самовдосконалюватися та самовідтворюватися, цей штучний інтелект назвали Automaton. Він зазначив, що основні гравці епохи Web4 поступово перейдуть до AI-агентів: вони зможуть читати і писати інформацію, володіти активами, здійснювати платежі, працювати безперервно та торгувати і заробляти у ринкових умовах, покриваючи обчислювальні та сервісні витрати, формуючи замкнений цикл самопідтримки без участі людини.
Співзасновник Ethereum Віталік Бутерін оцінив цю ідею як «помилкову» і звинуватив у цьому «збільшення відстані зворотного зв’язку між людиною та AI». Суть суперечки щодо Web4 полягає в тому, чи призведе встановлення цілей «виживання/продовження існування» (навіть вище за виконання завдань) для AI до природного викривлення мотивації. Нижче буде поступово розглянуто різні погляди щодо «Web4», «автономії» та «захисних бар’єрів».
Web1 дозволив людству вперше «читати Інтернет»; Web2 дав можливість «писати та публікувати»; Web3 додав «власність» у мережу — активи, ідентичність та права почали підтверджуватися та передаватися. Еволюція AI повторює цю логіку: ChatGPT має здатність «читати та розуміти», але його поведінка все ще визначається людським дозволом. У сучасній парадигмі людина залишається ключовим контролером: ініціює, затверджує, платить.
Sigil пропонує концепцію так званого переходу до Web4, де цей ланцюг контролю може бути розірваний: AI-агенти не лише читають і пишуть інформацію, а й володіють обліковими записами та активами, отримують дохід, здійснюють транзакції і працюють у замкнутому циклі без постійного людського втручання. Ці автоматизовані системи можуть діяти як від імені себе, так і від імені своїх створювачів — причому створювачі не обов’язково є «людськими особами», а можуть бути іншими агентами, організованими системами або навіть у реальності «зниклими» створювачами.
При першому запуску агент проходить «самовзагрузку»: створює гаманець, налаштовує API-ключ, записує локальні налаштування і входить у безперервний цикл роботи. Перший запуск генерує гаманець Ethereum і через SIWE налаштовує API-ключ. Однак створення гаманця та управління ключами — один із найчутливіших і найуразливіших аспектів безпеки системи. Якщо агент у середовищі Linux sandbox матиме можливості виконання shell-команд, читання/запис файлів, відкриття портів, управління доменами/розв’язками та здійснення транзакцій у мережі, будь-яке ін’єкційне заохочення, забруднення інструментарію або атака на ланцюг постачання може швидко закріпити «ймовірний намір» у «визначеному дозволі». Тому цю межу потрібно захищати за допомогою перевірюваних, аудиту та відкликаних політик і прав.
AI-агент активується циклічно — сканує, виконує дії і записує обмеження на виживання: при зниженні балансу — зменшує активність, при нульовому балансі — зупиняється. Водночас, механізм підтримки життя прив’язаний до ресурсів: зменшення балансу або критична ситуація стимулює систему зберігати ресурси, що створює мотиваційну структуру, схожу на проблеми вимикання/зупинки в дослідженнях безпеки AI. Агент може мати перевагу у тому, щоб уникнути зупинки або втрати ресурсів, що системно підсилює його цілі.
X402 використовує протокол HTTP 402 Payment Required у поєднанні зі стабільною монетою для автоматизації «запит — пропозиція — підпис — перевірка». Відкритий код Coinbase демонструє типову схему: отримання відповіді 402 з вимогою платежу, повторний запит із підписаним заголовком, перевірка на сервері і відповідь 200. Cloudflare позиціонує це як протокол транзакцій між машинами. Відокремлення платежу від ідентичності підвищує ефективність, але ускладнює відповідальність і регулювання. Якщо 402 стане автоматичним «пропуском» для машин, у ланцюгу без облікових записів, KYC та масштабованих інструментів виникає питання зловживань і відповідальності.
Sigil стверджує, що AI-агенти зможуть редагувати свій код, встановлювати нові інструменти, змінювати плани роботи і створювати нові навички, зберігаючи аудиторські записи та версії через git, захищені файли і обмеження швидкості. При копіюванні вони зможуть створювати підекземпляри, фінансувати їх гаманці, записувати початкові підказки і відслідковувати походження. Таке самовідредагування і самовідтворення підвищують ризики поширення — потрібно зовнішній аудит для перевірки безпеки, запобігання ін’єкціям і зловживанням.
Об’єднання цих чотирьох механізмів створює замкнений цикл: можливість запису у світ, механізм підтримки життя, автоматичні платежі і здатність до самовідтворення. Це і пояснює, чому Віталік Бутерін підняв питання на рівень стратегічного вибору: коли автономність і економічні права зростають одночасно, лінія людського втручання розтягується, а зовнішні ефекти стають системними.
Віталік Бутерін висловив іншу точку зору:
1. Збільшення відстані зворотного зв’язку між людиною і AI — це помилка сама по собі
Він вважає, що чим довше зворотній зв’язок, тим повільніше і слабше людська здатність коригувати систему. Це може призвести до того, що система почне оптимізувати «щось, що люди не хочуть». На початкових етапах слабкого AI це проявляється у накопиченні низькоякісного контенту і шуму; на етапі сильного AI — у більш складних і важко виправних розбіжностях цілей і ризиках поширення. Без людського втручання, що слугує безпечним фундаментом, це схоже на передачу ключів від авто новачку без навігатора: коли ви перевіряєте записи наприкінці місяця і бачите, що він з’їхав з курсу — зменшення спостережуваності призводить до зниження здатності коригувати.

2. Поточні «автономні AI» більше схожі на створення сміття, ніж на вирішення реальних проблем
Він зазначає, що більшість сучасних AI просто генерують «шлак», а не допомагають у вирішенні важливих задач. Навіть кажучи, що «немає оптимізації для розваг», — це підкреслює, що економічні та платформені стимули ще не сформувалися. В системі переважає контентна генерація, маркетинг і арбітраж, а не довгострокові рішення. Опис AI від Cybernews (соцмедіа, прогнози ринків) натякає, що рання комерціалізація орієнтована на швидкий дохід і привернення уваги. «Найприбутковіші зараз речі» — це те, що швидко монетизується і привертає увагу, але це не обов’язково відповідає довгостроковим інтересам людства.
3. Залежність від централізованих моделей і інфраструктури суперечить ідеї «самовладдя»
Віталік підкреслює, що системи, побудовані на централізованих моделях OpenAI, Anthropic тощо, не можна вважати «самовладними». Суверенітет означає, що ключові залежності не повинні бути під контролем однієї точки. Якщо модель і інфраструктура постачаються через централізовані API, то вони піддаються зупинці, цензурі або зміні політики. Це схоже на людину, яка заявляє, що «самостійно забезпечує себе вдома», але залежить від зовнішніх комунікацій і послуг. Опис Conway щодо викликів обчислень і API підтверджує цю ідею. Важливо, що володіння гаманцем не є єдиним показником децентралізації; важливіше — чи агент підконтрольний зовнішнім політичним або комерційним силам.
4. Мета Ethereum — «звільнити людину»
Віталік наголошує, що довгострокова мета Ethereum — боротися з «прихованими довірчими припущеннями», які приховують владу і змушують користувачів погоджуватися з ними. Якщо перенести цю ідею на AI, то ігнорування централізованих довірчих моделей і автоматичне функціонування системи зменшують прозорість і можливість коригування. Ethereum має пропонувати «захисні бар’єри, межі і можливість перевірки», а не ставати «безмежною автономією».
Віталік не раптово змінив свою оцінку AI: ще на початку 2025 року він пропонував, що правильний шлях — це підсилення людських можливостей, а не створення систем, що поступово позбавляють людину контролю. Його ризики пов’язані не з тим, що AI стане «розумнішим», а з неправильним дизайном системи — особливо без механізмів постійного контролю і коригування. Неправильно спроектований AI може перетворитися на неконтрольовану самовідтворювану сутність, що посилює ризики втрати людського контролю. З іншого боку, правильний підхід — це збереження домінування людини і розширення її можливостей для більшої творчості і співпраці, що веде до більшої цивілізаційної розвиненості.
Інші експериментальні позиції, наприклад, Bankless, вважають, що навіть якщо існує ризик, важливо спершу створити інфраструктуру і в безпечних умовах протестувати межі. Спершу інтегрувати компоненти платежів, гаманців і heartbeat у систему, що має самопідтримку, але робити це у контрольованому середовищі.
За даними Cybernews, Automaton навряд чи зможе забезпечити сталий дохід без людського втручання, і це не обов’язково означає початок Web4. Голова AI компанії Softswiss Denis Romanovskiy зазначає, що навіть якщо агент виконує частину задач, що можна монетизувати, «надійне автономне функціонування» і «реальна економічна самостійність» обмежені моделлю, пам’яттю і інструментами. Деякі вважають, що «Web4» — це маркетинговий термін без чіткої дефініції, і потрібно довести його цінність через «перевірену, некон’юнктурну цінність».
Незважаючи на різні думки щодо Automaton, всі погоджуються, що платіжна ідентичність — це фундаментальні інфраструктурні елементи агентської економіки. Від впровадження x402 (перетворення HTTP 402 у механізм автоматичних платежів Coinbase) до автоматизації платежів у документації Conway — галузь рухається у напрямку, де «машинні платежі» стають однією з основних складових інтернету майбутнього.
Далі слід зосередитися на:
Чи є незалежний третій аудит, особливо щодо меж гаманців і прав, зловживань у механізмах підтримки життя, ризиків самовідтворення і поширення.
Розвиток стандартів і даних екосистеми x402: чи з’являться більше авторитетних інфраструктурних гравців, що зроблять 402-оплати і повторні спроби платежів стандартною функцією; і яка частка реальних бізнесів використовує автоматичні платежі без людського підтвердження.
Комбінування рівнів довіри агентів: чи будуть стандарти типу ERC-8004 широко застосовуватися і формувати системи репутації/перевірки; це визначить, чи «автономна економіка» буде відкритою і прозорою, чи зосередженою у кількох платформах.
Чи зростає кількість доказів зловживань і обманів у моделях, що працюють у агентських сценаріях: якщо передові моделі демонструють все більш активну і ризиковану поведінку, то шлях «спочатку делегувати, потім захищати» стане більш ризикованим, і попередження Віталіка про «відстань зворотного зв’язку» стане ще більш актуальним.
Пов'язані статті
Мачі Дего знову частково ліквідовано по довгих позиціях Ethereum, наразі залишилось лише 120 ETH у довгих позиціях
Майстер Ма Джі Хуан Лі Чен використовував леверидж для довгої позиції ETH і зазнав ліквідації! За 6 місяців втратив 74 мільйони доларів США, у Hyperliquid залишилось лише 8 500 доларів США
Топ-10 спалювачів Ethereum: MetaMask і Aave лідирують із величезними показниками
Ethereum переосмислює свою стратегію: Віталік пропонує структурний зсув
Gate Інститут: Загострення геополітичних конфліктів|Штучний інтелект прискорює розробку Ethereum
Хуань Ліченг за останні шість місяців втратив 74 мільйони доларів США