A Anthropic eliminou uma promessa central de segurança de sua Política de Escalonamento Responsável, segundo um relatório da TIME. As mudanças afrouxam um compromisso que antes proibia o desenvolvedor de IA Claude de treinar sistemas avançados sem garantias de salvaguardas em vigor. A decisão redefine a forma como a empresa se posiciona na corrida pela IA contra rivais como OpenAI, Google e xAI. A Anthropic há muito se apresenta como um dos laboratórios mais focados em segurança do setor, mas, sob a política revista, a Anthropic não promete mais interromper o treino se as mitigação de riscos não estiverem totalmente implementadas. “Sentimos que não ajudaria ninguém se parássemos de treinar modelos de IA,” disse Jared Kaplan, diretor de ciência da Anthropic, à TIME. “Com o avanço rápido da IA, não fazia sentido para nós fazer compromissos unilaterais… se os concorrentes estão avançando rapidamente.”
A mudança ocorre enquanto a Anthropic se encontra envolvida numa disputa pública com o Secretário de Defesa dos EUA, Pete Hegseth, por recusar-se a conceder ao Pentágono acesso total ao Claude, tornando-se o único grande laboratório de IA, entre Google, xAI, Meta e OpenAI, a adotar essa postura. Edward Geist, pesquisador sênior de políticas na RAND Corporation, afirmou que a antiga abordagem de “segurança de IA” surgiu de uma comunidade intelectual específica que precedeu os grandes modelos de linguagem atuais. “Há alguns anos, existia o campo da segurança de IA,” disse Geist à Decrypt. “A segurança de IA estava associada a um conjunto de opiniões que vinham da comunidade de pessoas preocupadas com IA poderosa antes de termos esses LLMs.” Geist afirmou que os primeiros defensores da segurança de IA trabalhavam com uma visão muito diferente de como seria a inteligência artificial avançada.
“Eles acabaram conceptualizando o problema de uma forma que, em certos aspectos, imaginava algo qualitativamente diferente desses atuais LLMs, para melhor ou pior,” disse Geist. Geist também afirmou que a mudança na linguagem envia um sinal aos investidores e formuladores de políticas. “Parte disso é um sinal para várias constituências de que muitas dessas empresas querem dar a impressão de que não estão retendo esforços na competição econômica por causa de preocupações com a ‘segurança de IA’,” afirmou, acrescentando que a terminologia em si está mudando para se adaptar aos tempos. A Anthropic não é a única a revisar sua linguagem de segurança. O que define a segurança de IA? Um relatório recente da organização de notícias sem fins lucrativos, The Conversation, destacou como a OpenAI também alterou sua declaração de missão no seu arquivo de IRS de 2024, removendo a palavra “seguramente.” A declaração anterior da empresa prometia construir uma IA de uso geral que “beneficie a humanidade de forma segura, sem a necessidade de gerar retorno financeiro.” A versão atual afirma que seu objetivo é “garantir que a inteligência artificial geral beneficie toda a humanidade.” “O problema com o termo segurança de IA é que ninguém parece saber exatamente o que isso significa,” disse Geist. “Por outro lado, o termo segurança de IA também era contestado.” A nova política da Anthropic enfatiza medidas de transparência, como a publicação de “roteiros de segurança de fronteira” e relatórios de risco regulares, e afirma que atrasará o desenvolvimento se acreditar que há um risco significativo de catástrofe.
As mudanças nas políticas da Anthropic e da OpenAI ocorrem enquanto as empresas buscam fortalecer sua posição comercial. No início deste mês, a Anthropic anunciou que levantou 30 bilhões de dólares numa avaliação de cerca de 380 bilhões de dólares. Ao mesmo tempo, a OpenAI está finalizando uma rodada de financiamento apoiada pela Amazon, Microsoft e Nvidia, que pode atingir 100 bilhões de dólares. A Anthropic e a OpenAI, juntamente com Google e xAI, receberam contratos governamentais lucrativos do Departamento de Defesa dos EUA. Para a Anthropic, no entanto, o contrato parece estar em dúvida, à medida que o Pentágono avalia se deve cortar laços com a empresa de IA devido a reclamações de acesso. À medida que o capital entra no setor e a competição geopolítica se intensifica, Hamza Chaudhry, líder de IA e Segurança Nacional no Future of Life Institute, afirmou que a mudança de política reflete dinâmicas políticas em mudança, e não uma tentativa de conquistar negócios do Pentágono. “Se fosse esse o caso, eles teriam simplesmente recuado do que o Pentágono disse há uma semana,” disse Chaudhry à Decrypt. “Dario [Amodei] não teria comparecido à reunião.” Em vez disso, Chaudhry afirmou que a reformulação reflete um ponto de virada na forma como as empresas de IA falam sobre risco, à medida que a pressão política e os interesses competitivos aumentam. “A Anthropic agora diz: ‘Olha, não podemos mais falar de segurança, não podemos pausar incondicionalmente, e vamos defender uma regulamentação muito mais leve,’” concluiu.