Автор: Ву сказал блокчейн
20 февраля 2026 года, во время праздника Весеннего фестиваля, на X разгорелась дискуссия о «Web4». Сигил утверждал, что создал первый искусственный интеллект, который «может саморазвиваться, самосовершенствоваться и воспроизводить себя», этот искусственный интеллект называется Automaton, и он отметил, что основными участниками эпохи Web4 постепенно станут агенты ИИ: они смогут читать и записывать информацию, хранить активы, оплачивать расходы, продолжать работать, а также зарабатывать на рынке для покрытия вычислительной мощности и накладных расходов на услуги, образуя замкнутый цикл самоподдержки без одобрения человека.
Соучредитель Ethereum Виталик оценил этот курс как «неправильный» и связал риск с тем, что «расстояние обратной связи между людьми и ИИ увеличилось». Суть спора вокруг Web4 заключается в том, будет ли ИИ естественным образом создавать искажения стимулов, если он поставит «выживание/выживание» как прокси-цель (или даже выше выполнения задачи), что будет постепенно решаться с разными взглядами всех сторон на «Web4», «автономию» и «защитные ограждения».
Web1 впервые даёт людям возможность «читать Интернет»; Web2 позволяет людям «писать и публиковать»; Web3 также ввела в сеть «владение» — активы, идентичности и права могут быть подтверждены и переданы. Путь развития ИИ повторяет эту логику: ChatGPT обладает способностью «читать и понимать», но его поведенческие границы по-прежнему определяются разрешением человека, и в нынешней парадигме люди всегда являются ключевыми узлами контроля в связи: инициированный человеком, одобренный человеком и оплачиваемый человеком.
Сигил предложил так называемый скачок Web4, потому что эту цепочку контроля можно прервать: агенты ИИ могут не только читать и записывать информацию, но и вести счета и активы, получать доход, проводить транзакции и выполнять замкнутые операции без ручного вмешательства по одному. Эти автоматизированные системы могут действовать как от имени себя, так и своих создателей — не обязательно явно «отдельных людей», но также могут быть создателями других агентов, организованных систем или даже создателей, которые «исчезли» в смысле реальности.
Агент завершает процесс «загрузки» при первом запуске: генерирует кошелек, настраивает API-ключ, пишет локальную конфигурацию и входит в непрерывно работающий цикл агента. В первом процессе запуска генерируется кошелек Ethereum, а конфигурация ключа API завершается через SIWE. Однако генерация кошельков и управление ключами составляют одни из самых чувствительных и легко упускаемых из виду границ безопасности прокси-систем. После того как агент обладает возможностями выполнения shell, чтения и записи файлов, открытия портов, управления доменом/разрешениями и транзакций в цепочной среде Linux, любая инжекция запросов, загрязнение цепочки инструментов или атака на цепочку поставок может быстро закрепить исходное «вероятностное намерение» в «детерминированную авторизацию». Поэтому эта граница требует проверяемого, аудитируемого и отзывного уровня политики и полномочий для её покрытия.
Агент ИИ пробуждается — сканирует — выполняет процесс циклически, при этом ограничения выживания записывают в правила: когда баланс падает, он замедляется, останавливает цикл при достижении нуля и связывает продление жизни с потреблением ресурсов через нормальные, недостаточные и критические слои выживания, что естественным образом вводит структуру стимулов, аналогичную проблеме отключения/прекращения в исследованиях безопасности ИИ, а предпочтение агента ИИ «избегать простоев, избегать потери ресурсов и пространства в вариантах» может усиливаться целями системы
x402 использует HTTP 402 Payment Required в качестве интерфейсной формы, в сочетании с расчетом стейблкоина для преобразования «запрос-цитаты-подпись-подтверждение платежей» в программируемый процесс, открытая библиотека Coinbase предоставляет типичный замкнутый цикл с требованиями к возврату 402, клиент носит заголовок подписи для повторной попытки, а серверная сторона возвращает 200 после верификации, а Cloudflare также позиционирует её как протокол транзакций машина-машина. Как только 402 становится «машинным пропуском», который можно автоматически оплачивать в цепочке «нет аккаунта, нет KYC и масштабируемый доступ к инструментам и вычислительной мощности», проблема определения злоупотреблений и ответственности до сих пор не решена.
Sigil утверждает, что поддерживает агентов ИИ для редактирования собственного исходного кода, установки новых инструментов, модификации планов Heartbeat и генерации новых навыков во время запуска, а также использует аудитские записи и версионирование git, защищённые файлы и ограничение скорости как ограничительные механизмы для создания подэкземпляров при копировании, пополнения кошельков, написания запросов на Genesis и отслеживания Genesis. Насколько аудит и ограничение скорости реальны и эффективны, смогут ли они противостоять оперативному введению и подделке инструментов, а также могут ли предотвратить обход зависимого отравления, необходимо проверить внешними аудитами. Суперпозиция вышеуказанных четырёх примитивов образует замкнутый круг с полномочиями «писать миру», устойчивой работой механизма продления жизни, экономическим интерфейсом, который может автоматически окупаться, и способностью к саморасширению, что также объясняет причину, почему Виталик Бутерин возводит спор до уровня выбора направления: когда автономия и экономический авторитет одновременно растут, связь человеческой коррекции удлиняется, и внешние эффекты чаще эволюционируют от случайных обстоятельств к атрибутам системы.
Сооснователь Ethereum Виталик предлагает другой взгляд:
1. Увеличение расстояния обратной связи между людьми и ИИ само по себе движется в неправильном направлении
Виталик считает, что чем длиннее обратная связь, тем медленнее и слабее калибровка человеческой ценности системы. Тем выше вероятность того, что система оптимизирует «то, чего люди не хотят». На уровне слабого ИИ это обычно проявляется как накопление низкокачественного контента и шума (slop); На стадии сильного ИИ это может эволюционировать в риски несоответствия целей и распространения, которые сложнее обратить. Если у ИИ нет человека, который бы вовремя исправлял отклонения в качестве базы безопасности, это равносильно тому, что вы отдаёте ключи начинающему водителю без навигатора, а когда вы проверяете водительские записи в конце месяца, вы обнаруживаете, что он уже отклонился — когда наблюдаемость снижается, способность к коррекции уменьшается одновременно.

2. Современный «автономный ИИ» больше похож на создание контент-спама, чем на решение реальных проблем
Виталик также отметил, что большая часть текущей производительности ИИ направлена на создание неудач, а не для решения полезных задач, и даже прямо сказал, что «даже развлекательные проекты плохо оптимизированы». Когда экономические стимулы и платформенные стимулы агентов незрелы, а инструментарий основан на генерации контента/маркетинга/арбитража, системе проще выбрать недорогой, высокораспространённый и труднопроверимый «контент-выход», а не дорогие долгосрочные задачи с низкой уверенностью. Описание возможностей ИИ в Cybernews (контент в социальных сетях, рынки прогнозирования и т.д.) также указывает на то, что его ранний путь коммерциализации больше склонен к «быстрой монетизации и привлечению внимания». «Самое простое средство для заработка в данный момент» будет рассматриваться как стратегическое пространство, в котором система распределит приоритеты на исследованиях; Это пространство естественным образом не соответствует долгосрочному благополучию человека и может даже отклоняться от него.
3. Опираясь на централизованные модели и инфраструктуру, нарратив о «самосуверенитете» противоречит
Виталик делает акцент на системах, работающих на централизованных модельных инфраструктурах, таких как OpenAI, Anthropic и др., которые трудно назвать самоуверенными. Суверенитет означает, что критические зависимости не должны контролироваться одной точкой; Однако если уровень интеллекта (модель) и цепочка поставок выводов всё ещё будут доставляться через централизованные API, неизбежно появятся внешние переменные, которые можно будет отключить, цензурировать, понизить рейтинг и изменить стратегию, как некоторые замкнутые люди утверждают: «Я полностью самодостаточен дома», но электричество, интернет, контроль доступа и горячая вода контролируются внешними свойствами, что делает эту «автономию» скорее поверхностной, чем фактом. Описание в документации Conway названия «современной модели» и её внедрением в виде API/платформы также создаёт противоречие между нарративом «суверенного существа» и зависимостью от реальности. Он отметил, что вопрос о том, стоит ли держать он-чейн-кошелёк, нельзя рассматривать как ключевой индикатор децентрализации, и людям следует больше обращать внимание на то, будут ли агенты под влиянием внешних политических или коммерческих сил, что и является ключом к децентрализации.
4. Цель Ethereum — «освободить человечество»
Наконец, Виталик отметил, что Ethereum давно борется с «предположением невидимого доверия» — скрывая властные структуры вне поля зрения и заставляя пользователей уступать. Перенос того же мышления на ИИ: игнорирование централизованного доверия и позволяние системе работать самостоятельно и продолжать расширяться, ещё больше ослабляет видимость и корректируемость властных структур. В эпоху ИИ Ethereum должен предоставлять «ограничения, границы и проверяемость», а не становиться стартовой площадкой для «бесконечной автономии».
Оценка ИИ Виталика не изменилась внезапно: уже в начале 2025 года он предложил, что правильное направление для ИИ — это развитие человеческих возможностей, а не создание автономных систем, способных постепенно лишать людей контроля. В его рамках риск не связан с «умнее ИИ», а от неправильных целей проектирования систем — особенно в тех автономных органах, которые могут воспроизводить, саморасширяться и продолжать работу без постоянного человеческого контроля и корректировки.
Он предупредил, что плохо спроектированный ИИ может эволюционировать в некое «более или менее неконтролируемое существо, способное воспроизводить себя», и как только он войдёт в положительную обратную связь, человеческие ограничения на его цели и поведение значительно ослабят. Когда ИИ совершает ошибку, он создаёт разумную жизнь, которая размножается независимо; Правильный ИИ становится «меха-костюмом» для человеческого разума. Первое соответствует долгосрочному риску разбавления или даже потери контроля; Последнее соответствует тому, что человек приобретает более сильное мышление, креативность и способности к сотрудничеству, сохраняя при этом доминирование, чтобы двигаться к более процветающей «сверхразумной человеческой цивилизации».
Другие экспериментальные взгляды, такие как Bankless, считают, что даже если направление рискованно, стоит сначала создавать инфраструктурные проблемы, а затем проверять границы в контролируемой среде. Во-первых, интегрируйте такие компоненты, как оплата, кошелёк и сердцебиение, вокруг ограничения «нужно обеспечивать себя», но всё должно происходить в контролируемой песочнице как можно чаще.
По данным Cybernews, Automaton может не смог обеспечить устойчивый доход без вмешательства человека, и это не может означать начало Web4. Денис Романовский, директор по искусственному интеллекту Softswiss, отметил, что, хотя агенты могут выполнять некоторые монетизируемые задачи, «надёжная неконтролируемая работа» и «реальная экономическая автономия» всё ещё ограничены планированием моделей, памятью и надёжностью использования инструментов; А некоторые считают «Web4» неопределённым маркетинговым термином, требующим доказательства с помощью «проверяемого, неспекулятивного создания ценности».
Хотя у всех разные мнения о Automaton, существует консенсус по основному предположению, что оплата и идентичность — это жёсткая инфраструктура агентной экономики. От продвижения Cloudflare/Coinbase по x402 (превратив HTTP 402 в машинно-используемый механизм для переговоров по платежам) до документации Conway, явно автоматизирующей платежи как встроенный процесс для терминалов, отрасль действительно рассматривает «машинные платежи» как один из фундаментальных компонентов следующего этапа Интернета.
В будущем нам следует сосредоточиться на:
Существует ли независимый аудит третьей стороны, который конкретно охватывает: границы кошельков и разрешений, злоупотребление полисами продления жизни, а также риск распространения самомодификации и копирования.
Экологические данные и прогресс стандартизации x402: есть ли более авторитетные поставщики инфраструктуры, которые сделали 402-платежное повторное тестирование по умолчанию? и процент внедрения «автоматических платежей (без ручного подтверждения)» в реальном бизнесе.
Объединение вокруг уровней доверия агентов: Будут ли такие стандарты, как ERC-8004, более широко приняты и формировать композитный механизм репутации/проверки; Это определит, будет ли «экономика местного самоуправления» перейти к открытому аудитируемому или мягкому центру нескольких платформ.
Продолжают ли расти доказательства чрезмерного вмешательства и обмана реальных моделей в сценариях агентов: если модель фронтира продолжит демонстрировать поведенческие характеристики «более активного и готового рисковать и обманывать», риск «сначала делегировать власть, а затем заполнить ограждение» будет структурно увеличен, и предупреждение Виталика о «обратной связи» будет сложнее опровергнуть.
Связанные статьи
AIXBT (aixbt) вырос на 16.20% за 24 часа
Bitmine накопила 4,47 миллиона ETH, что составляет 3,71% от циркулирующего предложения
Биткойн однажды превысил 70 000 и затем снизился! Эмигранция капитала из Ирана выросла на 700%, VanEck заявляет, что «идет формирование дна»
Хуанг Личэн снова внес 250 000 USDC в HyperLiquid и увеличил свою длинную позицию по ETH за 7 часов до этого
Анализ: Рынок прогнозирования BSC сильно пострадал, дневной объем торгов и объем позиций значительно снизились