
O desenvolvedor de inteligência artificial Anthropic, CEO Dario Amodei, reabriu as negociações com o vice-secretário de pesquisa e engenharia do Departamento de Defesa dos EUA, Emil Michael, com o objetivo de chegar a um acordo antes que a empresa seja oficialmente classificada como uma empresa de risco na cadeia de suprimentos de defesa, preservando assim a colaboração militar. Segundo fontes familiarizadas, citadas pelo Financial Times do Reino Unido, se Anthropic for oficialmente reconhecida, será excluída da rede de compras do exército americano.
Na semana passada, as negociações entre as duas partes abruptamente fracassaram. De acordo com relatos, Emil Michael, após um confronto acalorado, acusou Dario Amodei de ser um “enganador” e criticou-o por ter uma “complexo de Deus”. O núcleo do conflito foi uma divergência fundamental sobre uma cláusula de uso de dados: o Pentágono exigia que a Anthropic eliminasse uma cláusula no contrato que limitava a “análise de grandes volumes de dados adquiridos”, como condição para aceitar outras propostas da Anthropic.
Amodei deixou claro em um memorando interno que essa cláusula visa prevenir possíveis monitoramentos domésticos em grande escala, posicionando a Anthropic como uma linha vermelha intransigente, equivalente à proibição de uso de IA em sistemas de armas autônomas letais. O secretário de Defesa, Pete Hegseth, posteriormente aumentou a pressão, alertando que, se as negociações não chegarem a um consenso, a Anthropic será oficialmente reconhecida como uma empresa de risco na cadeia de suprimentos.
Apesar do impasse diplomático, os laços comerciais entre a Anthropic e o setor militar dos EUA vão muito além do que o público imagina:
Este contexto torna a postura dura do Pentágono altamente contraditória — por um lado, dependem do Claude para executar tarefas militares críticas, por outro, ameaçam classificá-lo como uma ameaça à segurança, o que tem gerado grande preocupação na indústria.
Na quarta-feira, várias principais organizações do setor de tecnologia enviaram uma carta pública conjunta a Trump, alertando que classificar uma empresa de IA americana como risco na cadeia de suprimentos pode prejudicar fundamentalmente a vantagem dos EUA na competição global de IA contra a China. As organizações signatárias incluem a Associação de Software e Indústria de Informação, TechNet, a Associação de Computação e Comunicações, e a Aliança de Software Empresarial, representando centenas de empresas de tecnologia americanas como Nvidia, Google (subsidiária da Alphabet) e Apple.
A carta afirma que “considerar uma empresa de tecnologia americana como adversária estrangeira, em vez de um ativo”, prejudicará a inovação e enfraquecerá a competitividade global da indústria de IA dos EUA.
A Anthropic vê essa cláusula como uma barreira de segurança fundamental para evitar monitoramento doméstico em grande escala, equiparada à proibição de uso de IA em armas autônomas letais. Dario Amodei, em um memorando, deixou claro que remover essa cláusula equivaleria a permitir que o governo utilize Claude para monitorar dados de cidadãos em larga escala, uma posição que a empresa considera inegociável.
A classificação oficial excluiria a Anthropic do sistema de compras do exército e do governo federal, podendo levar à rescisão do contrato de 200 milhões de dólares e obrigar todos os contratantes governamentais que usam Claude a cortarem relações comerciais. Para a Anthropic, isso representaria não apenas um golpe financeiro, mas também afetaria sua credibilidade no mercado corporativo e governamental.
O apoio dessas empresas não é apenas uma forma de respaldo à Anthropic, mas um aviso de que esse tipo de precedente pode prejudicar toda a indústria de IA dos EUA. Se o governo puder, por meio de ordens executivas, classificar qualquer empresa de IA doméstica como ameaça à segurança, isso criará um efeito de efeito calafrio no setor, minando a confiança e a capacidade de inovação das empresas americanas no mercado global.