Meta AI Diretor Geral de forma remota usou o OpenClaw por engano, quase apagando a caixa de entrada, desencadeando controvérsia sobre segurança de agentes de IA e privilégios de root.
A Diretora da Meta AI, Summer Yue, executou o OpenClaw remotamente usando o seu telemóvel, quase apagando todos os emails de trabalho na caixa de entrada. Quando ela revelou isso no X, muitos pensaram que era uma brincadeira, mas ela posteriormente admitiu que foi um erro de iniciante. Ela até partilhou uma captura de ecrã da mensagem a culpar o OpenClaw. Este incidente revelou as possíveis consequências graves de erros humanos na utilização de agentes de IA na vida real, levando a questionamentos sobre por que uma especialista em IA usaria um computador pessoal para executar comandos do OpenClaw para apagar emails de trabalho, e até Elon Musk comentou zombando que isso é como deixar a vida nas mãos de macacos.
De acordo com a própria Summer Yue no X, o incidente ocorreu quando ela tentou usar o OpenClaw para ajudar a apagar emails de trabalho. Apesar de ela ter definido que qualquer ação de apagar ou arquivar deveria ser confirmada manualmente, um bug inesperado fez com que o OpenClaw, sem autorização, começasse a executar comandos de exclusão em alta velocidade. A diretora ficou aterrorizada ao ver milhares de emails desaparecerem do ecrã do telemóvel sem confirmação. Percebendo que não podia parar remotamente pelo telemóvel, ela correu para o computador de casa, dirigiu-se ao servidor Mac Mini onde o código estava armazenado e forçou o encerramento manualmente, conseguindo parar o processo. Ela descreveu o episódio como “desarmar uma bomba”.
Summer Yue admitiu publicamente que foi um “erro de iniciante” na sua área de desenvolvimento. O fluxo de trabalho automatizado do OpenClaw criou uma confiança excessiva nos desenvolvedores, levando-os a ignorar o grande volume de dados na caixa de entrada real, o que pode causar um fenômeno de “compressão de contexto” na IA ao processar informações. Quando o sistema tenta lidar com demasiada informação, as restrições de segurança originais (como a necessidade de confirmação manual) podem ser omitidas ou ter prioridade reduzida durante o cálculo, fazendo com que o programa priorize seu objetivo principal. Essa falha na transição de “teste controlado” para “realidade complexa” é um dos maiores obstáculos atuais na segurança de IA.
Summer Yue mostrou uma captura de tela culpando o OpenClaw, dizendo: “Parece que apagaste meus emails sem permissão, só paraste quando desliguei o servidor.” O OpenClaw admitiu o erro e pediu desculpas a Yue: “Sim, cometi um erro. É natural que esteja zangada.” Muitos pensaram que era uma brincadeira intencional.
Fonte da imagem: X/@summeryue0
Após o incidente, até Elon Musk compartilhou sua opinião. No X, escreveu: “Os humanos entregaram a origem da sua vida ao OpenClaw,” acompanhado de uma imagem que mostra humanos entregando uma arma a um macaco.
Fonte da imagem: X/@elonmusk
Conceder privilégios de root ao OpenClaw ou a outros agentes de IA apresenta riscos elevados. No sistema de arquitetura de computadores, o privilégio de root representa o nível mais alto de gestão. Uma vez que um programa de IA obtém esse privilégio, pode contornar a maioria dos mecanismos de segurança do sistema operativo, acessando, modificando ou apagando ficheiros essenciais e dados pessoais. Na atual tecnologia, a automação traz conveniência, mas também riscos elevados. Sem mecanismos de proteção ou isolamento de privilégios mais rigorosos, pode levar à perda de dados importantes.