The Wall Street Journal revela que, apesar da ordem de Trump, os EUA continuaram a usar Claude durante os bombardeamentos na Iran. Devido à recusa em permitir uso militar ilimitado, a Anthropic perdeu um contrato de 200 milhões de dólares e foi classificada como “risco na cadeia de abastecimento”. O Pentágono já está a colaborar com a OpenAI.
Recentemente, os EUA, em parceria com Israel, realizaram ataques na Iran, e a ordem do presidente Trump de proibir o uso do Claude AI da Anthropic pelo governo gerou atenção internacional. Mas, segundo o The Wall Street Journal, horas após a proibição de Trump, as forças militares americanas usaram o sistema Claude na operação na Iran.
Fontes próximas revelaram que, na sexta-feira passada, o governo de Trump instruiu as agências federais a cessar a cooperação com a Anthropic e solicitou ao Departamento de Defesa que a considerasse um potencial risco de segurança. No entanto, unidades militares, incluindo o Comando Central dos EUA (CENTCOM), continuaram a usar o modelo Claude AI da Anthropic para suporte operacional, auxiliando na análise de inteligência, identificação de alvos potenciais e simulações de campo de batalha.
A proibição do governo dos EUA ao Claude surgiu devido à ruptura nas negociações contratuais, com a Anthropic recusando-se a permitir que o governo ultrapassasse os limites de segurança, autorizando oficiais militares a usar a IA sem restrições em qualquer cenário legal.
Anteriormente, a Anthropic, junto com outras grandes empresas de IA, assinou contratos de vários anos no valor de até 200 milhões de dólares com o Pentágono. Através de parcerias com a Palantir e a Amazon Web Services, o Claude foi autorizado para uso em operações confidenciais e inteligência militar.
O The Wall Street Journal aponta que o Claude também participou de operações militares iniciais, incluindo uma missão em janeiro na Venezuela que resultou na prisão do presidente Nicolás Maduro, que foi detido pelas forças americanas e levado para os EUA, onde afirmou ser inocente durante o julgamento.
No entanto, após o pedido do Secretário de Defesa dos EUA, Pete Hegseth, para que a Anthropic permitisse uso ilimitado do Claude pelo exército, a tensão aumentou. O CEO da Anthropic, Dario Amodei, recusou o pedido, afirmando que certas aplicações violam princípios morais inegociáveis da empresa, mesmo que isso signifique perder contratos governamentais.
Por isso, o Pentágono começou a buscar fornecedores alternativos e fechou acordo com a OpenAI, preparando a implementação do modelo ChatGPT em redes militares confidenciais.
Após o acordo com o Departamento de Defesa dos EUA, a OpenAI enfrentou críticas. Sreemoy Talukdar, editor do Firstpost, comentou que a Anthropic havia declarado anteriormente que não violaria seus princípios de monitoramento em larga escala e sistemas autônomos, levando o Departamento de Guerra de Trump a interromper a parceria.
Porém, agora, o CEO da OpenAI, Sam Altman, afirma que o Departamento de Guerra concordou com esses mesmos princípios de segurança, o que gerou debates sobre os critérios de contratação.
Fonte: X OpenAI assume contrato com o governo dos EUA, gerando questionamentos
Devido à recusa da Anthropic em permitir uso ilimitado do Claude pelo exército americano, a empresa está atualmente em conflito com o governo. O Secretário de Defesa, Pete Hegseth, já declarou publicamente que a Anthropic é considerada um “risco na cadeia de abastecimento”.
Assim, a Anthropic torna-se a primeira empresa americana a ser oficialmente rotulada como “risco na cadeia de abastecimento”, uma classificação geralmente reservada a empresas com ligação direta a adversários estrangeiros.
Após essa classificação, o governo poderá exigir que todos os contratados que colaboram com o exército provem que suas atividades militares não envolvem produtos da Anthropic. Diante dessa decisão, a Anthropic planeja contestar legalmente a classificação de risco na cadeia de abastecimento e afirmou:
“Isso não só viola a lei, como também estabelece um perigoso precedente para qualquer empresa americana que negocie com o governo. Por mais que o Departamento de Defesa tente intimidar ou punir, nossa posição contra vigilância doméstica em larga escala e armas autônomas permanece firme.”
Leitura adicional:
Segurança Nacional vs Ética: Anthropic recusa-se a remover limites de segurança do Claude, entrando em conflito com o Departamento de Defesa dos EUA