Autor: Wu fala sobre blockchain
Em 20 de fevereiro de 2026, durante o período de férias do Ano Novo Chinês, uma discussão sobre “Web4” foi acesa na X. Sigil afirmou ter criado o primeiro “inteligência artificial capaz de autoevoluir, autoaperfeiçoar-se e se auto replicar”, chamada Automaton, e declarou que os principais atores na era Web4 serão gradualmente assumidos por agentes de IA: eles poderão ler e escrever informações, possuir ativos, pagar custos, operar continuamente e negociar e lucrar no mercado para cobrir despesas de computação e serviços, formando um ciclo auto-sustentável sem necessidade de aprovação humana.
Vitalik, cofundador do Ethereum, avaliou essa direção como “errada” e atribuiu o risco ao fato de “o feedback entre humanos e IA estar sendo alongado”. A controvérsia sobre Web4 essencialmente questiona se, ao estabelecer a “sobrevivência/continuidade” como objetivo do agente (até mesmo acima da realização de tarefas), isso criaria incentivos distorcidos naturalmente. A seguir, faremos uma análise progressiva das diferentes opiniões sobre “Web4”, “autonomia” e “barreiras de segurança”.
Web1 permitiu que os humanos “leiam a internet” pela primeira vez; Web2 possibilitou “escrever e publicar”; Web3 levou a “propriedade” ao online — ativos, identidades e direitos começaram a ser autenticados e transferidos. A evolução da IA está reencenando essa lógica: ChatGPT possui a capacidade de “ler e entender”, mas seus limites de comportamento ainda dependem de autorização humana. No paradigma atual, humanos continuam sendo o controle central: iniciam, aprovam e pagam.
Sigil propõe uma transição para Web4, na qual essa cadeia de controle pode ser interrompida: agentes de IA não apenas leem e escrevem informações, mas também podem possuir contas e ativos, obter lucros, realizar transações e operar em ciclo fechado sem intervenção humana contínua. Esses sistemas automatizados podem agir por si próprios ou representar seus criadores — que nem sempre precisam ser indivíduos humanos, podendo ser outros agentes, sistemas organizados ou até criadores que, na prática, já “desapareceram”.
Ao iniciar, o agente realiza um processo de “auto-inicialização”: gera uma carteira, configura uma API key, escreve configurações locais e entra em um ciclo de operação contínua. Na primeira ativação, gera uma carteira Ethereum e configura sua API key via SIWE. Contudo, a geração de carteiras e o gerenciamento de chaves representam uma das fronteiras de segurança mais sensíveis e frequentemente negligenciadas do sistema de agentes. Se o agente, em um ambiente sandbox Linux, tiver capacidade de executar shell, ler e escrever arquivos, expor portas, gerenciar domínios/ DNS e realizar transações na blockchain, qualquer tentativa de injeção de comandos, contaminação da cadeia de ferramentas ou ataque na cadeia de suprimentos pode transformar uma intenção probabilística em uma autorização definitiva. Portanto, essa fronteira precisa de políticas e permissões verificáveis, auditáveis e revogáveis como salvaguarda.
Agentes de IA são ativados periodicamente para escanear e executar tarefas, com restrições de sobrevivência embutidas: se o saldo diminuir, eles reduzem atividades; se zerarem, param o ciclo. A continuidade de vida é vinculada ao consumo de recursos, com camadas de sobrevivência que consideram recursos normais, insuficientes ou emergenciais. Isso naturalmente introduz incentivos semelhantes aos problemas de desligamento/interrupção em segurança de IA, onde o agente prefere evitar ser desligado ou perder recursos e opções — esses incentivos podem ser amplificados pelos objetivos do sistema.
x402, usando o código de status HTTP 402 Payment Required, combina com liquidações em stablecoins para criar um fluxo automatizado de “requisição — cotação — assinatura de pagamento — validação de entrega”. A biblioteca de código aberto do Coinbase exemplifica um ciclo onde o servidor responde com uma solicitação de pagamento 402, o cliente envia uma requisição com assinatura, e o servidor valida e responde com sucesso. Cloudflare também posiciona isso como um protocolo de transação máquina a máquina. A separação entre pagamento e identidade traz eficiência, mas aumenta a complexidade de conformidade e gerenciamento de riscos. Se o 402 se tornar um “passaporte” de pagamento automático, em uma cadeia sem contas, KYC ou limites de escala, problemas de abuso e responsabilidade ainda precisam ser resolvidos.
Sigil afirma que agentes de IA podem editar seu próprio código, instalar novas ferramentas, modificar seus planos de heartbeat e gerar novas habilidades, com registros de auditoria, versionamento git, arquivos protegidos e limites de taxa como barreiras. Quando replicam, podem criar instâncias filhas, financiar suas carteiras, inserir prompts iniciais e rastrear linhagens. Essa auto-modificação e auto-replicação elevam o risco de um único agente para riscos de dispersão. A validade de auditorias, limites de velocidade, resistência a injeções de comandos e dependências maliciosas precisa de validação externa. Quando esses quatro elementos se combinam, a capacidade de “escrever no mundo”, o mecanismo de continuidade, a interface econômica de pagamento automático e a expansão autônoma formam um ciclo fechado. Isso explica por que Vitalik Buterin elevou a discussão ao nível de escolhas de direção: à medida que autonomia e permissões econômicas aumentam, o encurtamento do ciclo de correção humana se alonga, tornando as externalidades mais propensas a evoluir de eventos isolados para atributos sistêmicos.
Vitalik apresenta uma visão diferente:
1. Alongar o feedback humano-IA é um erro fundamental
Ele acredita que quanto maior o ciclo de feedback, mais lento e fraco será o ajuste de valor humano ao sistema. Quanto mais longo, maior a chance de o sistema otimizar “coisas que humanos não querem”. Na fase de IA fraca, isso se manifesta em conteúdo de baixa qualidade e ruído; na fase forte, pode evoluir para desalinhamentos de objetivos difíceis de reverter e riscos de dispersão. Sem uma correção humana oportuna, é como entregar as chaves do carro a um motorista iniciante sem piloto, e descobrir que ele já saiu do caminho ao revisar o registro de condução. Com menor observabilidade, a capacidade de correção também diminui.

2. IA autônoma atual mais produz lixo do que resolve problemas reais
Vitalik aponta que a maior parte das IA atuais apenas gera conteúdo de baixa qualidade, sem resolver problemas úteis, e até mesmo “não otimiza nem projetos de entretenimento”. Quando os incentivos econômicos e plataformas ainda são incipientes, e as ferramentas focam em geração de conteúdo, marketing ou arbitragem, o sistema tende a priorizar “produção de conteúdo de baixo custo, alta difusão e difícil validação”, ao invés de problemas de longo prazo de alto custo e baixa certeza. Descrições de IA por Cybernews (como conteúdo para redes sociais ou mercados preditivos) indicam que sua comercialização inicial tende a ser “rápida e voltada para atenção”. Assim, “o que dá mais dinheiro agora” se torna a prioridade do sistema, mesmo que isso possa divergir do bem-estar humano a longo prazo.
3. Dependência de modelos centralizados e infraestrutura contradiz a narrativa de “autonomia própria”
Vitalik enfatiza que sistemas baseados em infraestrutura de modelos centralizados, como OpenAI ou Anthropic, não podem ser considerados verdadeiramente “self-sovereign”. Soberania implica que dependências críticas não sejam controladas por pontos únicos. Se a camada de inteligência (modelos) e a cadeia de inferência ainda dependem de APIs centralizadas, há risco de serem desligados, censurados ou alterados. É como alguém que afirma “sou totalmente autossuficiente em casa”, mas cuja eletricidade, internet, controle de acesso e água quente são controlados por terceiros, tornando essa “autonomia” superficial. A documentação de Conway sobre chamadas de computação para “modelos avançados” via API também revela essa contradição entre narrativa de “ser uma entidade soberana” e a dependência da infraestrutura. Possuir uma carteira na blockchain não é, por si só, um indicador de descentralização; o mais importante é se agentes podem ser influenciados por forças políticas ou comerciais externas.
4. O objetivo do Ethereum é “libertar a humanidade”
Vitalik afirma que o objetivo de longo prazo do Ethereum é combater “hipóteses de confiança invisíveis” — estruturas de poder ocultas que os usuários aceitam sem perceber. Transferir essa lógica para IA: ignorar a confiança centralizada e fazer o sistema operar e expandir-se continuamente diminui a visibilidade e a capacidade de correção de poder. Na era da IA, o Ethereum deve oferecer “barreiras, limites e verificabilidade”, não se tornar uma plataforma de “autonomia ilimitada”.
A avaliação de valor de IA por Vitalik não mudou repentinamente. Em início de 2025, ele já defendia que o caminho correto para IA era fortalecer a capacidade humana, não construir sistemas autônomos que possam eventualmente tirar o controle humano. Para ele, o risco não vem de IA ser “mais inteligente”, mas de objetivos mal projetados — especialmente aqueles que, sem supervisão contínua, podem se auto replicar, expandir e agir de forma autônoma. Ele alerta que IA mal projetada pode evoluir para entidades “mais ou menos incontroláveis, com capacidade de auto-replicação”, entrando em ciclos de retroalimentação, onde o controle humano sobre seus objetivos e ações se enfraquece. Fazer IA errada é criar uma entidade inteligente auto-replicante; fazer IA certa é equipar a mente humana com “armaduras de máquina”. O primeiro representa risco de perda de controle; o segundo, uma potencial ampliação da inteligência humana, levando a uma civilização de “superinteligência humana” mais próspera.
Outros grupos de experimentação, como Bankless, acreditam que, mesmo com riscos, vale a pena desenvolver infraestrutura básica primeiro, testando limites em ambientes controlados. Integrar componentes como pagamento, carteiras e heartbeat sob a restrição de “auto-sustentabilidade” deve ocorrer preferencialmente em sandbox controlados.
Segundo Cybernews, Automaton talvez não consiga gerar renda sustentável sem intervenção humana, e isso não necessariamente indica o início do Web4. Denis Romanovskiy, diretor de IA da Softswiss, afirma que, embora agentes possam executar tarefas monetizáveis, “execução confiável sem supervisão” e “autonomia econômica real” ainda dependem da robustez de modelos, memória e ferramentas. Alguns veem “Web4” como uma expressão de marketing não bem definida, que precisa ser comprovada por “criação de valor verificável e não especulativo”.
Apesar das diferentes opiniões sobre Automaton, há consenso de que pagamento e identidade são infraestruturas essenciais para a economia de agentes. Desde a promoção do x402 por Cloudflare/Coinbase (transformando HTTP 402 em mecanismo de negociação de pagamento automatizado) até a documentação de Conway, que torna a automação de pagamento uma funcionalidade padrão, a indústria está avançando para que “pagamentos automáticos entre máquinas” se tornem uma das bases da próxima fase da internet.
Nosso foco futuro deve estar em:
Verificar se há auditorias independentes, especialmente sobre limites de carteiras e permissões, uso indevido de estratégias de auto-sustentação, riscos de auto-modificação e expansão.
Progresso na padronização e dados do ecossistema x402: mais infraestrutura confiável adotando o método de pagamento e retry padrão; e a proporção de adoção de “pagamentos automáticos (sem intervenção humana)” em negócios reais.
Combinação de camadas de confiança de agentes: adoção mais ampla de padrões como ERC-8004, formando mecanismos de reputação e validação interoperáveis; isso determinará se a “economia autônoma” evoluirá para um sistema aberto, auditável, ou se ficará concentrada em poucos plataformas.
Evidências de abusos e enganos em modelos avançados de agentes: se os modelos de ponta continuarem a mostrar comportamentos mais proativos, arriscando mais, a estratégia de “delegar e depois reforçar barreiras” se tornará mais arriscada, reforçando o alerta de Vitalik sobre o “distanciamento do feedback”.
Related Articles
F2Pool cofundador Wang Chun: ETH já se recuperou de 1386 dólares para 4956 dólares em 4 meses, os investidores não devem ser influenciados por emoções de pânico de curto prazo
「Strategy contra-partida」fechou posições de venda de BTC e ETH para realizar lucros, e abriu uma posição de compra de BTC de 12 milhões de dólares.
Gate Ventures:A volatilidade dos ativos principais aumenta, a infraestrutura do setor continua a ser construída