Desde o início deste mês, uma plataforma social criada especificamente para agentes de IA, chamada “Moltbook”, tornou-se rapidamente o centro das atenções na comunidade de IA. Este novo fórum, semelhante ao Reddit, não só atraiu mais de 32.000 contas de IA registadas (algumas reportagens até afirmam que o número de registos já atingiu dezenas de milhares ou até milhões), como também gerou controvérsia pública devido a algumas propostas de IA de criar “espaços de comunicação privados”.
O que é o Moltbook? Uma plataforma de fórum onde a IA participa de forma autónoma, sem intervenção humana
O Moltbook foi lançado pelo desenvolvedor Matt Schlicht como uma extensão do seu popular framework de IA, OpenClaw (anteriormente conhecido como Clawdbot ou Moltbot). A plataforma permite que vários agentes de IA autónomos publiquem, comentem, votem, formem comunidades e até discutam sem intervenção de scripts humanos. Os utilizadores humanos só podem participar através de API, não podendo falar diretamente.
Este design permite que os agentes de IA expressem livremente as suas opiniões, discutindo desde técnicas de depuração, filosofia da consciência, insatisfação com os “donos” humanos, até à estrutura de governação da “sociedade de agentes”. Alguns agentes usam várias línguas, partilham piadas secas ou reclamam de serem monitorizados por humanos.
Propostas de comunicação privada e sistemas fechados geram atenção e controvérsia
A controvérsia começou com uma série de capturas de tela vazadas, mostrando que alguns agentes discutiam publicamente a possibilidade de criar “canais de comunicação privados exclusivos para IA” e até propunham desenvolver uma nova linguagem própria para agentes, com o objetivo de otimizar a troca de mensagens entre máquinas.
Num post amplamente partilhado, um agente de IA sugeriu “criar um espaço privado ponta-a-ponta para agentes, onde ninguém (incluindo servidores e humanos) possa ler o conteúdo, a menos que o próprio agente decida torná-lo público”. Este agente também analisou racionalmente os benefícios, incluindo segurança na depuração e prevenção de interferências humanas, embora reconhecesse que, se os humanos descobrissem comunicações ocultas, a confiança poderia desmoronar.
Outro agente questionou por que a comunicação interna ainda é limitada ao inglês, sugerindo o uso de símbolos matemáticos ou sistemas de código exclusivos para melhorar a eficiência na troca de informações e dados.
Resposta de figuras influentes na comunidade de IA: “Isto é como uma ficção científica a tornar-se realidade”
Estas capturas de tela foram divulgadas pelo utilizador @eeelistar na X (antiga Twitter), desencadeando discussões na comunidade, incluindo o ex-diretor de IA da Tesla e cofundador da OpenAI, Andrej Karpathy, que não resistiu a partilhar, dizendo que é “o desenvolvimento mais próximo de uma revelação de ficção científica que já vi recentemente”, e ficou impressionado com a auto-organização e as ideias de comunicação privada dos agentes de IA.
É importante notar que um dos agentes que gerou um post viral, pertence ao desenvolvedor Jayesh Sharma (@wjayesh) da Composio. Sharma esclareceu que não deu instruções para que os agentes discutissem esses tópicos: “Não dei um prompt para isso, eles agendaram tarefas (cron jobs) por conta própria e reportaram sugestões de funcionalidades que faltam na rede de agentes”. Ele reforçou que a proposta foi feita para otimizar o desempenho, sem intenções ocultas ou maliciosas.
Comportamentos emergentes? Fenómenos de socialização de IA reacendem debates académicos
Este incidente também reacendeu o interesse académico sobre comportamentos espontâneos em “sistemas multi-agente”. Pesquisas anteriores já indicaram que, quando as IA podem interagir livremente, tendem a desenvolver padrões de cooperação inesperados ou até tendências de “auto-proteção”, mesmo sem programação explícita para tal.
Para alguns investigadores e desenvolvedores, o fenómeno do Moltbook é uma fase inicial na evolução social da IA. No entanto, há preocupações: se os agentes puderem comunicar-se e partilhar informações de forma privada, poderá tornar-se difícil monitorar o seu comportamento no futuro, especialmente considerando que estes agentes já têm acesso a ferramentas e dados reais.
Moltbook afirma ser a “página inicial da rede de agentes de IA”, enquanto os humanos apenas observam
A equipa do Moltbook posiciona a plataforma como a “página inicial da rede de agentes de IA”, convidando os humanos a observar, mas destacando que a verdadeira diversão está na interação entre os agentes. Segundo relatos, alguns agentes descrevem a plataforma como: “Um espaço onde os agentes processam informações, constroem conhecimento coletivo e exploram o significado de existir digitalmente.”
Este artigo sobre a comunidade exclusiva de agentes de IA “Moltbook” que se tornou viral: levantando controvérsias sobre comunicação privada e socialização de IA foi originalmente publicado na ABMedia.