The Wall Street Journal: Após Trump emitir a ordem de bloqueio da Anthropic, os EUA continuam a bombardear o Irã usando Claude

CryptoCity

The Wall Street Journal revela que, apesar da ordem de Trump, os EUA continuaram a usar Claude durante os bombardeamentos na Iran. Devido à recusa em permitir uso militar ilimitado, a Anthropic perdeu um contrato de 200 milhões de dólares e foi classificada como “risco na cadeia de abastecimento”. O Pentágono já está a colaborar com a OpenAI.

Após a proibição de Trump, os EUA continuam a depender de Claude para ataques na Iran?

Recentemente, os EUA, em parceria com Israel, realizaram ataques na Iran, e a ordem do presidente Trump de proibir o uso do Claude AI da Anthropic pelo governo gerou atenção internacional. Mas, segundo o The Wall Street Journal, horas após a proibição de Trump, as forças militares americanas usaram o sistema Claude na operação na Iran.

Fontes próximas revelaram que, na sexta-feira passada, o governo de Trump instruiu as agências federais a cessar a cooperação com a Anthropic e solicitou ao Departamento de Defesa que a considerasse um potencial risco de segurança. No entanto, unidades militares, incluindo o Comando Central dos EUA (CENTCOM), continuaram a usar o modelo Claude AI da Anthropic para suporte operacional, auxiliando na análise de inteligência, identificação de alvos potenciais e simulações de campo de batalha.

A proibição do governo dos EUA ao Claude surgiu devido à ruptura nas negociações contratuais, com a Anthropic recusando-se a permitir que o governo ultrapassasse os limites de segurança, autorizando oficiais militares a usar a IA sem restrições em qualquer cenário legal.

Por que a Anthropic entrou em conflito com o Pentágono?

Anteriormente, a Anthropic, junto com outras grandes empresas de IA, assinou contratos de vários anos no valor de até 200 milhões de dólares com o Pentágono. Através de parcerias com a Palantir e a Amazon Web Services, o Claude foi autorizado para uso em operações confidenciais e inteligência militar.

O The Wall Street Journal aponta que o Claude também participou de operações militares iniciais, incluindo uma missão em janeiro na Venezuela que resultou na prisão do presidente Nicolás Maduro, que foi detido pelas forças americanas e levado para os EUA, onde afirmou ser inocente durante o julgamento.

  • Notícia relacionada: Maduro afirma ser inocente em julgamento nos EUA! ONU realiza reunião de emergência sobre a Venezuela, veja as posições de cada país

No entanto, após o pedido do Secretário de Defesa dos EUA, Pete Hegseth, para que a Anthropic permitisse uso ilimitado do Claude pelo exército, a tensão aumentou. O CEO da Anthropic, Dario Amodei, recusou o pedido, afirmando que certas aplicações violam princípios morais inegociáveis da empresa, mesmo que isso signifique perder contratos governamentais.

Por isso, o Pentágono começou a buscar fornecedores alternativos e fechou acordo com a OpenAI, preparando a implementação do modelo ChatGPT em redes militares confidenciais.

OpenAI assume contrato militar, gerando questionamentos

Após o acordo com o Departamento de Defesa dos EUA, a OpenAI enfrentou críticas. Sreemoy Talukdar, editor do Firstpost, comentou que a Anthropic havia declarado anteriormente que não violaria seus princípios de monitoramento em larga escala e sistemas autônomos, levando o Departamento de Guerra de Trump a interromper a parceria.

Porém, agora, o CEO da OpenAI, Sam Altman, afirma que o Departamento de Guerra concordou com esses mesmos princípios de segurança, o que gerou debates sobre os critérios de contratação.

Fonte: X OpenAI assume contrato com o governo dos EUA, gerando questionamentos

Anthropic torna-se a primeira empresa americana listada como risco na cadeia de abastecimento

Devido à recusa da Anthropic em permitir uso ilimitado do Claude pelo exército americano, a empresa está atualmente em conflito com o governo. O Secretário de Defesa, Pete Hegseth, já declarou publicamente que a Anthropic é considerada um “risco na cadeia de abastecimento”.

Assim, a Anthropic torna-se a primeira empresa americana a ser oficialmente rotulada como “risco na cadeia de abastecimento”, uma classificação geralmente reservada a empresas com ligação direta a adversários estrangeiros.

Após essa classificação, o governo poderá exigir que todos os contratados que colaboram com o exército provem que suas atividades militares não envolvem produtos da Anthropic. Diante dessa decisão, a Anthropic planeja contestar legalmente a classificação de risco na cadeia de abastecimento e afirmou:

“Isso não só viola a lei, como também estabelece um perigoso precedente para qualquer empresa americana que negocie com o governo. Por mais que o Departamento de Defesa tente intimidar ou punir, nossa posição contra vigilância doméstica em larga escala e armas autônomas permanece firme.”

Leitura adicional:
Segurança Nacional vs Ética: Anthropic recusa-se a remover limites de segurança do Claude, entrando em conflito com o Departamento de Defesa dos EUA

Ver original
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário