Anthropic move uma ação contra o governo federal, opõe-se à sua inclusão na lista de riscos da cadeia de abastecimento e à suspensão do uso do Claude por 6 meses, enquanto as controvérsias sobre aplicações militares de IA e governança de segurança aumentam.
A empresa de inteligência artificial Anthropic entrou recentemente com uma ação no tribunal federal dos Estados Unidos, acusando o governo de Trump de tê-la classificado como uma empresa de “risco na cadeia de abastecimento” (supply chain risk), e solicitando que todas as agências federais parem de usar seus sistemas de IA. A empresa considera que essa medida é uma retaliação. O processo foi protocolado na Corte Distrital do Norte da Califórnia.
No documento de acusação, a Anthropic afirma que as ações do governo carecem de base legal e causam impactos significativos nas operações e parcerias da empresa. Os documentos processuais listam várias agências e funcionários do governo como réus, incluindo o Departamento de Defesa dos EUA, o Secretário de Defesa Pete Hegseth, o Secretário do Tesouro Scott Bessent, o Secretário de Estado Marco Rubio e o Secretário de Comércio Howard Lutnick.
Fonte: Anthropic Anthropic move ação contra o governo federal dos EUA, acusando-o de classificar a empresa como risco na cadeia de abastecimento e solicitando a suspensão do uso de seus sistemas de IA
A etiqueta de “risco na cadeia de abastecimento” costuma ser usada para empresas de tecnologia de países hostis, como fornecedores que podem conter softwares espionagem ou maliciosos. A Anthropic destaca que incluir uma empresa americana de IA nessa classificação causa impacto negativo na reputação e nas parcerias comerciais da companhia. A Anthropic afirma que busca, por meio de processos judiciais, esclarecer se as ações do governo são legais, ao mesmo tempo que protege os interesses da empresa, clientes e parceiros.
A raiz do conflito está na divergência entre a Anthropic e o Departamento de Defesa dos EUA quanto ao uso de tecnologia de IA. A Anthropic havia negociado anteriormente um contrato de até aproximadamente 200 milhões de dólares com o Pentágono. Durante as negociações, o Departamento de Defesa exigiu que o sistema de IA pudesse ser utilizado para todos os fins legais, incluindo cenários militares. A Anthropic insistiu em manter duas restrições de segurança:
A empresa considera essas restrições princípios essenciais de governança de segurança de IA. As posições das partes nunca conseguiram chegar a um consenso. Em fevereiro de 2026, o governo dos EUA classificou a Anthropic como uma empresa de risco na cadeia de abastecimento e exigiu que as agências federais suspendessem o uso do sistema Claude em 6 meses.
Na ação, a Anthropic afirma que o governo usou seu poder administrativo para pressionar a empresa, tentando forçá-la a alterar suas políticas de segurança de IA. Os advogados da companhia afirmam que a Constituição dos EUA não permite que o governo tome medidas punitivas contra empresas por suas posições públicas.
Leitura adicional
Segurança nacional vs ética: Anthropic recusa remover barreiras de segurança do Claude e confronta o Departamento de Defesa dos EUA
O conflito entre a Anthropic e o governo rapidamente gerou debates na indústria de tecnologia. Pouco após a ação, 37 pesquisadores de IA de empresas como OpenAI e Google enviaram pareceres ao tribunal, expressando apoio à Anthropic. Esses pesquisadores argumentam que, se o governo punir empresas por divergências em políticas de segurança de IA, isso pode enfraquecer a competitividade dos EUA na indústria de inteligência artificial.
O parecer destaca que, se o governo usar a segurança nacional como justificativa para reprimir empresas de IA, isso terá efeitos de longo prazo na indústria tecnológica e no ambiente de pesquisa. Alguns acadêmicos também apontam que a classificação de “risco na cadeia de abastecimento” costuma ser usada em contextos de suspeitas de vulnerabilidades de softwares estrangeiros. O caso da Anthropic não se encaixa nesse tipo de risco.
Ben Goertzel, CEO da empresa de IA SingularityNET, afirma que recusar o uso de IA para vigilância em massa ou armas autônomas não representa uma ameaça à segurança. Se o exército precisar dessas aplicações, pode optar por outros sistemas de IA.
Fonte: DigFin CEO da SingularityNET, Ben Goertzel
Diante do processo, o governo dos EUA respondeu rapidamente, afirmando que não permitirá que empresas limitem o uso de tecnologias essenciais pelo exército americano. Um porta-voz da Casa Branca afirmou que o governo deve garantir que o exército possa usar as tecnologias necessárias dentro da legalidade para proteger a segurança nacional.
A controvérsia também envolve questões mais amplas de políticas tecnológicas. O governo de Trump, anteriormente, relaxou restrições à exportação de chips de IA para a China e criticou posições políticas de algumas empresas de tecnologia, aumentando a tensão entre o Vale do Silício e Washington.
A Anthropic afirmou que, após ser incluída na lista negra, algumas empresas que colaboram com o Departamento de Defesa podem precisar provar que seus sistemas não utilizam Claude. Essa exigência pode gerar efeitos em cadeia nas parcerias comerciais da empresa.
Algumas grandes empresas de tecnologia continuam apoiando a Anthropic. Google afirmou que continuará fornecendo tecnologia de IA da Anthropic a seus clientes de nuvem, sem envolvimento em aplicações militares. Microsoft e Amazon também disseram que seguirão colaborando com a empresa no setor comercial.
A Anthropic já entrou com um pedido na justiça para declarar ilegal a ação do governo e impedir a execução da etiqueta de “risco na cadeia de abastecimento”. Com o avanço do processo judicial, as discussões sobre governança de segurança de IA, segurança nacional e autonomia empresarial continuam a se expandir.
Leitura adicional
OpenAI colabora com o exército dos EUA e enfrenta boicote! Download do Claude App supera concorrentes, entenda os dilemas éticos e políticos por trás
Wall Street Journal: Após a proibição da Anthropic por Trump, EUA e Israel continuam dependentes de Claude para ataques a Irã