O CEO da OpenAI, Sam Altman, acusou a rival Anthropic de usar “marketing baseado no medo” para promover seu modelo de IA Claude Mythos, de acordo com comentários feitos no podcast Core Memory, apresentado pela jornalista de tecnologia Ashlee Vance. Altman argumentou que a retórica baseada no medo é projetada para justificar manter sistemas avançados de IA sob o controle de “um grupo menor de pessoas”, embora ele tenha reconhecido que algumas preocupações com segurança são legítimas.
Altman afirmou que, embora existam preocupações válidas sobre segurança de IA, “é claramente um marketing incrível dizer: ‘Nós construímos uma bomba. Estamos prestes a jogá-la na sua cabeça. Vamos vender para você um abrigo antiaéreo por $100 milhões. Você precisa dele para rodar em tudo que você tem, mas só se nós o escolhermos como cliente.’” Ele observou que “nem sempre é fácil” equilibrar as novas capacidades da IA com a crença de que a tecnologia deve ser acessível.
Altman reconheceu que “vão existir preocupações legítimas de segurança”, mas sugeriu que mensagens baseadas no medo podem ser usadas como arma para justificar controle centralizado. Ele declarou: “se o que você quer é tipo ‘precisamos de controle da IA, só nós, porque somos as pessoas confiáveis’, eu acho que o marketing baseado no medo é provavelmente a forma mais eficaz de justificar isso.”
O modelo Anthropic Claude Mythos foi revelado no mês passado e chamou bastante atenção de pesquisadores, governos e da indústria de cibersegurança. De acordo com testes, o modelo consegue identificar autonomamente vulnerabilidades de software e executar operações cibernéticas complexas. Durante os testes, o Mythos identificou centenas de vulnerabilidades no navegador Firefox da Mozilla e demonstrou a capacidade de realizar simulações de ciberataque em múltiplas etapas.
A Anthropic restringiu o acesso ao sistema por meio do Project Glasswing, um programa limitado que concede a empresas selecionadas — incluindo Amazon, Apple e Microsoft — a capacidade de testar suas capacidades. A empresa também se comprometeu com recursos significativos para apoiar esforços de segurança de código aberto, argumentando que os defensores deveriam se beneficiar da tecnologia antes que ela se torne mais amplamente disponível.
A Anthropic enquadrou as capacidades do Mythos como um avanço defensivo — permitindo detecção mais rápida de falhas críticas de software — e também como um risco potencial ofensivo se for usado de forma indevida. O modelo também expôs limitações nos sistemas atuais de avaliação de IA, com a Anthropic reconhecendo que muitos benchmarks atuais de cibersegurança já não são suficientes para medir as capacidades do seu sistema mais recente.
Apesar de apelos dentro de partes do governo dos EUA para interromper o uso da tecnologia devido a preocupações com suas possíveis aplicações em guerra e vigilância, a Agência de Segurança Nacional (NSA) teria começado a testar uma versão de prévia do modelo em redes classificadas. No mercado de previsão Myriad, usuários atribuíram uma chance de 49% de o Claude Mythos ser lançado ao público em geral até 30 de junho.
Um grupo de pesquisadores afirmou na semana passada que foi capaz de reproduzir as descobertas do Mythos usando modelos publicamente disponíveis.
Altman sugeriu que a retórica em torno de sistemas de IA altamente perigosos pode aumentar à medida que as capacidades melhoram, mas argumentou que nem todas essas alegações devem ser tomadas pelo valor de face. Ele disse: “Vai haver muita mais retórica sobre modelos que são perigosos demais para serem liberados. Também haverá modelos muito perigosos que terão que ser liberados de diferentes maneiras. Tenho certeza de que o Mythos é um ótimo modelo para cibersegurança, mas acho que temos um plano do qual gostamos sobre como colocamos esse tipo de capacidade no mundo.”
Altman também descartou sugestões de que a OpenAI está reduzindo seus gastos com infraestrutura, dizendo que a empresa continuará expandindo sua capacidade de computação. Ele observou: “Eu não sei de onde isso está vindo… as pessoas realmente querem escrever a história de que estão voltando atrás. Mas bem em breve vai ser de novo, tipo: ‘A OpenAI é tão irresponsável. Como eles podem estar gastando essa quantidade absurda?’”