Anthropic reinicia negociações com o Pentágono, risco na cadeia de abastecimento ameaça cooperação militar de IA

MarketWhisper

Anthropic reinicia negociações com o Pentágono

O desenvolvedor de inteligência artificial Anthropic, CEO Dario Amodei, reabriu as negociações com o vice-secretário de pesquisa e engenharia do Departamento de Defesa dos EUA, Emil Michael, com o objetivo de chegar a um acordo antes que a empresa seja oficialmente classificada como uma empresa de risco na cadeia de suprimentos de defesa, preservando assim a colaboração militar. Segundo fontes familiarizadas, citadas pelo Financial Times do Reino Unido, se Anthropic for oficialmente reconhecida, será excluída da rede de compras do exército americano.

O estopim para o rompimento das negociações: cláusulas de big data se tornaram uma linha vermelha intransponível

Na semana passada, as negociações entre as duas partes abruptamente fracassaram. De acordo com relatos, Emil Michael, após um confronto acalorado, acusou Dario Amodei de ser um “enganador” e criticou-o por ter uma “complexo de Deus”. O núcleo do conflito foi uma divergência fundamental sobre uma cláusula de uso de dados: o Pentágono exigia que a Anthropic eliminasse uma cláusula no contrato que limitava a “análise de grandes volumes de dados adquiridos”, como condição para aceitar outras propostas da Anthropic.

Amodei deixou claro em um memorando interno que essa cláusula visa prevenir possíveis monitoramentos domésticos em grande escala, posicionando a Anthropic como uma linha vermelha intransigente, equivalente à proibição de uso de IA em sistemas de armas autônomas letais. O secretário de Defesa, Pete Hegseth, posteriormente aumentou a pressão, alertando que, se as negociações não chegarem a um consenso, a Anthropic será oficialmente reconhecida como uma empresa de risco na cadeia de suprimentos.

Implantação militar do Claude: dependência profunda por trás de um contrato de 200 milhões de dólares

Apesar do impasse diplomático, os laços comerciais entre a Anthropic e o setor militar dos EUA vão muito além do que o público imagina:

  • Contrato confidencial de 200 milhões de dólares: assinado em julho de 2025, tornando o Claude o primeiro modelo de IA comercial a entrar em ambientes confidenciais e agências de segurança nacional.
  • Suporte a ataques aéreos no Irã: o exército dos EUA utilizou o modelo Claude para apoiar operações de ataque de grande escala contra o Irã, até mesmo poucas horas após Trump ordenar que agências federais desativassem os sistemas da Anthropic.
  • Implantação confidencial ampla: o Claude já opera em diversos cenários de inteligência classificados, embora a extensão total da implantação ainda não seja pública.

Este contexto torna a postura dura do Pentágono altamente contraditória — por um lado, dependem do Claude para executar tarefas militares críticas, por outro, ameaçam classificá-lo como uma ameaça à segurança, o que tem gerado grande preocupação na indústria.

Unidos na proteção da tecnologia: Nvidia, Apple e outras empresas enviam carta conjunta a Trump

Na quarta-feira, várias principais organizações do setor de tecnologia enviaram uma carta pública conjunta a Trump, alertando que classificar uma empresa de IA americana como risco na cadeia de suprimentos pode prejudicar fundamentalmente a vantagem dos EUA na competição global de IA contra a China. As organizações signatárias incluem a Associação de Software e Indústria de Informação, TechNet, a Associação de Computação e Comunicações, e a Aliança de Software Empresarial, representando centenas de empresas de tecnologia americanas como Nvidia, Google (subsidiária da Alphabet) e Apple.

A carta afirma que “considerar uma empresa de tecnologia americana como adversária estrangeira, em vez de um ativo”, prejudicará a inovação e enfraquecerá a competitividade global da indústria de IA dos EUA.

Perguntas frequentes

Por que a Anthropic recusa eliminar a cláusula de restrição de análise de big data?

A Anthropic vê essa cláusula como uma barreira de segurança fundamental para evitar monitoramento doméstico em grande escala, equiparada à proibição de uso de IA em armas autônomas letais. Dario Amodei, em um memorando, deixou claro que remover essa cláusula equivaleria a permitir que o governo utilize Claude para monitorar dados de cidadãos em larga escala, uma posição que a empresa considera inegociável.

Quais seriam as consequências reais se a Anthropic for classificada como uma empresa de risco na cadeia de suprimentos?

A classificação oficial excluiria a Anthropic do sistema de compras do exército e do governo federal, podendo levar à rescisão do contrato de 200 milhões de dólares e obrigar todos os contratantes governamentais que usam Claude a cortarem relações comerciais. Para a Anthropic, isso representaria não apenas um golpe financeiro, mas também afetaria sua credibilidade no mercado corporativo e governamental.

Por que gigantes de tecnologia como Nvidia e Apple estão defendendo a Anthropic?

O apoio dessas empresas não é apenas uma forma de respaldo à Anthropic, mas um aviso de que esse tipo de precedente pode prejudicar toda a indústria de IA dos EUA. Se o governo puder, por meio de ordens executivas, classificar qualquer empresa de IA doméstica como ameaça à segurança, isso criará um efeito de efeito calafrio no setor, minando a confiança e a capacidade de inovação das empresas americanas no mercado global.

Ver original
Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.
Comentário
0/400
Sem comentários