Anthropic reinicia negociações com o Pentágono, risco na cadeia de abastecimento ameaça cooperação militar de IA

MarketWhisper

Anthropic reinicia negociações com o Pentágono

O desenvolvedor de inteligência artificial Anthropic, CEO Dario Amodei, reabriu as negociações com o vice-secretário de pesquisa e engenharia do Departamento de Defesa dos EUA, Emil Michael, com o objetivo de chegar a um acordo antes que a empresa seja oficialmente classificada como uma empresa de risco na cadeia de suprimentos de defesa, preservando assim a colaboração militar. Segundo fontes familiarizadas, citadas pelo Financial Times do Reino Unido, se Anthropic for oficialmente reconhecida, será excluída da rede de compras do exército americano.

O estopim para o rompimento das negociações: cláusulas de big data se tornaram uma linha vermelha intransponível

Na semana passada, as negociações entre as duas partes abruptamente fracassaram. De acordo com relatos, Emil Michael, após um confronto acalorado, acusou Dario Amodei de ser um “enganador” e criticou-o por ter uma “complexo de Deus”. O núcleo do conflito foi uma divergência fundamental sobre uma cláusula de uso de dados: o Pentágono exigia que a Anthropic eliminasse uma cláusula no contrato que limitava a “análise de grandes volumes de dados adquiridos”, como condição para aceitar outras propostas da Anthropic.

Amodei deixou claro em um memorando interno que essa cláusula visa prevenir possíveis monitoramentos domésticos em grande escala, posicionando a Anthropic como uma linha vermelha intransigente, equivalente à proibição de uso de IA em sistemas de armas autônomas letais. O secretário de Defesa, Pete Hegseth, posteriormente aumentou a pressão, alertando que, se as negociações não chegarem a um consenso, a Anthropic será oficialmente reconhecida como uma empresa de risco na cadeia de suprimentos.

Implantação militar do Claude: dependência profunda por trás de um contrato de 200 milhões de dólares

Apesar do impasse diplomático, os laços comerciais entre a Anthropic e o setor militar dos EUA vão muito além do que o público imagina:

  • Contrato confidencial de 200 milhões de dólares: assinado em julho de 2025, tornando o Claude o primeiro modelo de IA comercial a entrar em ambientes confidenciais e agências de segurança nacional.
  • Suporte a ataques aéreos no Irã: o exército dos EUA utilizou o modelo Claude para apoiar operações de ataque de grande escala contra o Irã, até mesmo poucas horas após Trump ordenar que agências federais desativassem os sistemas da Anthropic.
  • Implantação confidencial ampla: o Claude já opera em diversos cenários de inteligência classificados, embora a extensão total da implantação ainda não seja pública.

Este contexto torna a postura dura do Pentágono altamente contraditória — por um lado, dependem do Claude para executar tarefas militares críticas, por outro, ameaçam classificá-lo como uma ameaça à segurança, o que tem gerado grande preocupação na indústria.

Unidos na proteção da tecnologia: Nvidia, Apple e outras empresas enviam carta conjunta a Trump

Na quarta-feira, várias principais organizações do setor de tecnologia enviaram uma carta pública conjunta a Trump, alertando que classificar uma empresa de IA americana como risco na cadeia de suprimentos pode prejudicar fundamentalmente a vantagem dos EUA na competição global de IA contra a China. As organizações signatárias incluem a Associação de Software e Indústria de Informação, TechNet, a Associação de Computação e Comunicações, e a Aliança de Software Empresarial, representando centenas de empresas de tecnologia americanas como Nvidia, Google (subsidiária da Alphabet) e Apple.

A carta afirma que “considerar uma empresa de tecnologia americana como adversária estrangeira, em vez de um ativo”, prejudicará a inovação e enfraquecerá a competitividade global da indústria de IA dos EUA.

Perguntas frequentes

Por que a Anthropic recusa eliminar a cláusula de restrição de análise de big data?

A Anthropic vê essa cláusula como uma barreira de segurança fundamental para evitar monitoramento doméstico em grande escala, equiparada à proibição de uso de IA em armas autônomas letais. Dario Amodei, em um memorando, deixou claro que remover essa cláusula equivaleria a permitir que o governo utilize Claude para monitorar dados de cidadãos em larga escala, uma posição que a empresa considera inegociável.

Quais seriam as consequências reais se a Anthropic for classificada como uma empresa de risco na cadeia de suprimentos?

A classificação oficial excluiria a Anthropic do sistema de compras do exército e do governo federal, podendo levar à rescisão do contrato de 200 milhões de dólares e obrigar todos os contratantes governamentais que usam Claude a cortarem relações comerciais. Para a Anthropic, isso representaria não apenas um golpe financeiro, mas também afetaria sua credibilidade no mercado corporativo e governamental.

Por que gigantes de tecnologia como Nvidia e Apple estão defendendo a Anthropic?

O apoio dessas empresas não é apenas uma forma de respaldo à Anthropic, mas um aviso de que esse tipo de precedente pode prejudicar toda a indústria de IA dos EUA. Se o governo puder, por meio de ordens executivas, classificar qualquer empresa de IA doméstica como ameaça à segurança, isso criará um efeito de efeito calafrio no setor, minando a confiança e a capacidade de inovação das empresas americanas no mercado global.

Ver original
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário