Pentágono confronta Anthropic! Abertura total ao Claude militarizado «senão, rescisão e despedimento»

動區BlockTempo

De acordo com uma reportagem exclusiva da Axios, o Pentágono está a considerar terminar a parceria com a Anthropic, uma vez que esta empresa de IA insiste em limitar o uso do modelo Claude pelo setor militar, recusando-se a abrir as áreas de monitorização em larga escala e armas totalmente autónomas. É importante notar que a OpenAI, Google e xAI já concordaram com os termos de “todos os usos legais” do Pentágono, tornando a Anthropic a única das quatro principais laboratórios de IA a resistir a essa condição.

(Antecedentes: A nova grande promessa de Elon Musk, “Base Lunar Alpha”: construir uma superfábrica de IA na Lua, lançando componentes em direção ao sistema solar com um gigantesco sistema de propulsão)

(Complemento de contexto: Pânico de IA e desemprego! Executivos da Microsoft alertam que a maioria dos trabalhadores de escritório será substituída por automação nos próximos 12-18 meses)

Índice deste artigo

  • As duas linhas vermelhas da Anthropic: proibição de monitorização em larga escala e armas autónomas
  • A ação surpresa de Maduro acende o gatilho
  • As outras três gigantes “sem objeções”

Segundo uma fonte de alto nível do governo citada pela Axios, o Pentágono está a pressionar os quatro principais laboratórios de IA (OpenAI, Google, xAI, Anthropic) a permitirem que o setor militar utilize as suas ferramentas para “todos os usos legais” (all lawful purposes), incluindo desenvolvimento de armas, recolha de inteligência e operações no campo de batalha, áreas altamente sensíveis.

Este pedido decorre do Memorando de Estratégia de IA do Departamento de Defesa, publicado a 9 de janeiro deste ano. O documento orienta que, dentro de 180 dias, a cláusula de “todos os usos legais” seja incorporada em todos os contratos de aquisição de IA, o que significa que o uso militar da IA passará a ter os mesmos padrões do uso de força convencional, sem a necessidade de “controle humano significativo”.

No entanto, após meses de negociações difíceis, a Anthropic ainda não aceitou esses termos, e o Pentágono já está “cansado” disso. Uma fonte afirmou:

Tudo é possível, incluindo reduzir ou até mesmo terminar a parceria com a Anthropic. Mas, se acharmos que essa é a decisão certa, teremos que encontrar um substituto adequado para eles.

As duas linhas vermelhas da Anthropic: proibição de monitorização em larga escala e armas autónomas

Diante da pressão do Pentágono, a Anthropic mantém duas linhas vermelhas intransigentes:

  • Proibição de monitorização em massa de cidadãos americanos
  • Proibição de sistemas de armas totalmente autónomas (ou seja, armas de destruição automática sem intervenção humana)

A fonte admitiu que há uma grande zona cinzenta sobre quais cenários de uso entram nessas restrições e quais não. Caso o Pentágono tente negociar caso a caso cada aplicação específica, ou se Claude recusar inadvertidamente algum uso na prática, isso será “inviável”.

Vale destacar que, no verão passado, a Anthropic assinou um contrato protótipo de dois anos, com limite de 200 milhões de dólares, tornando Claude o primeiro modelo comercial autorizado a operar na rede confidencial do Pentágono, sendo utilizado desde testes de armas até comunicações em combate em tempo real.

A ação surpresa de Maduro acende o gatilho

A crise dessa parceria remonta a um incidente ocorrido há algumas semanas. Segundo a Axios, em 13 de fevereiro, durante uma operação militar dos EUA na Venezuela, que resultou na prisão do ex-presidente Nicolás Maduro, a plataforma da Palantir foi usada para implantar Claude na análise de dados de inteligência em tempo real.

A reportagem indica que, ao saber disso, executivos da Anthropic entraram em contato com a Palantir para questionar se Claude tinha sido utilizado na operação, “de tom que sugeria uma possível discordância com esse uso, pois a operação envolvia ataques com energia cinética (não explosivos)”.

A ação foi negada por Claude, o que gerou preocupações internas graves no Pentágono.

Um porta-voz da Anthropic negou categoricamente, afirmando que a empresa discutiu o uso com o Departamento de Defesa para uma operação militar específica.

As outras três gigantes “sem objeções”

Em contraste com a resistência da Anthropic, as outras três principais laboratórios de IA demonstraram maior flexibilidade diante das exigências do Pentágono:

  • A OpenAI (ChatGPT) concordou em remover as barreiras de segurança padrão ao fornecer serviços ao Pentágono
  • A Google (Gemini) mostrou uma postura de cooperação ativa
  • A xAI (Grok) também manifestou disposição para colaborar

Sabe-se que pelo menos uma dessas empresas já aceitou completamente os termos de “todos os usos legais”, enquanto as outras duas mostraram maior flexibilidade do que a Anthropic. Assim, a Anthropic permanece como a única a defender uma postura de segurança, mas corre o risco de ser marginalizada.

A extensão final dos produtos de IA é servir ao país, e a esfera militar é uma área inevitável nesse contexto.

Ver original
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário