Anthropic e o Pentágono entram em conflito direto! O CEO Amodei recusa-se a aceitar "vigilância em massa no país" e "armas totalmente autónomas"

ChainNewsAbmedia

Anthropic, liderada por Dario Amodei, sempre considerada uma das empresas de IA mais ativas na colaboração com o governo dos EUA, agora enfrenta um confronto público com o Pentágono devido a duas restrições de uso essenciais.

Amodei destacou que a empresa está disposta a apoiar 98% a 99% dos usos de defesa, mas mantém limites claros em relação à “vigilância em massa doméstica” e às “armas totalmente autônomas”. Ele afirmou que isso não é uma recusa à segurança nacional, mas uma defesa dos valores democráticos e do espírito constitucional dos EUA.

Colaboração estreita com o sistema de defesa, mas com limites claros

Amodei enfatizou que a Anthropic foi uma das primeiras empresas de IA a colaborar profundamente com o sistema de segurança dos EUA. Ela foi pioneira ao implantar modelos em ambientes de nuvem confidenciais e a criar modelos personalizados para fins de segurança nacional, que já são amplamente utilizados por unidades de inteligência e forças armadas, incluindo áreas de cibersegurança e apoio a operações.

Em outras palavras, a Anthropic não rejeita usos militares, pelo contrário, participa ativamente.

No entanto, a empresa estabeleceu duas restrições inegociáveis:

Primeiro, a “vigilância em massa doméstica”. Amodei teme que a IA permita ao governo analisar em escala sem precedentes grandes volumes de dados de empresas privadas, como registros de localização, tendências políticas e comportamentos pessoais. Embora essas ações possam não violar a legislação atual, o rápido avanço da tecnologia de IA tem ampliado significativamente as capacidades de monitoramento além do que a legislação pretendia.

Segundo, as “armas totalmente autônomas”, ou seja, sistemas de armas que podem decidir disparar sem qualquer participação humana. Amodei apontou que os sistemas de IA ainda apresentam problemas de imprevisibilidade e confiabilidade; se deixados inteiramente ao controle das máquinas, podem levar a erros de julgamento, ataques acidentais ou até mesmo ferimentos a civis.

Ele destacou que isso difere das “armas semi-autônomas” atualmente usadas em combate, referindo-se a sistemas completamente não supervisionados.

Três dias de ultimato e controvérsia sobre “risco na cadeia de suprimentos”

Segundo Amodei, o Pentágono exigiu que a Anthropic aceitasse suas condições em apenas três dias, sob pena de ser classificada como um “risco na cadeia de suprimentos”. Essa designação geralmente é usada para empresas estrangeiras, como russas ou chinesas, e raramente é aplicada a empresas americanas.

Mais controverso ainda, toda a comunicação ocorreu principalmente por meio de postagens em redes sociais. Amodei afirmou que a empresa ainda não recebeu documentos legais formais, tendo visto apenas declarações públicas do presidente e de oficiais do Departamento de Defesa no X (antigo Twitter).

O presidente dos EUA, Donald Trump, chegou a criticar publicamente a Anthropic como “egoísta”, alegando que a ação ameaça as forças armadas e a segurança nacional.

Em resposta, Amodei afirmou que a empresa está disposta a ajudar o Departamento de Defesa a fazer uma transição suave para outros fornecedores, mesmo sob sanções, para evitar que o setor militar sofra atrasos de 6 a 12 meses devido à interrupção tecnológica.

Qual é a questão central?

Amodei acredita que a essência da controvérsia não é sobre “quem é mais patriota”, mas sim sobre maturidade tecnológica e responsabilidade.

Ele destacou que a IA ainda é imprevisível. Mesmo com desempenho geral excelente, um erro de 1% em momentos críticos pode ser catastrófico para operações militares. Erros que resultem em ataques a civis, equívocos de identificação de inimigos ou aliados, ou até mesmo mortes de soldados podem ocorrer.

Um problema mais profundo é o “mecanismo de responsabilização”. Se no futuro houver uma rede de armas composta por milhões de drones controlados por poucos ou por um único comandante, quem será responsável pelos erros? A IA? Os engenheiros? Os oficiais militares? Ou os líderes políticos?

Essas questões ainda não foram discutidas completamente no Congresso.

A supremacia do setor privado sobre o governo?

A questão mais aguda na entrevista foi: por que uma empresa privada tem o poder de decidir como o exército pode usar sua tecnologia?

Amodei respondeu de forma direta — pelo mercado livre.

Ele afirmou que o governo pode escolher outros fornecedores. Se os valores não coincidirem, as partes devem se separar de forma pacífica, e não punir a empresa com a etiqueta de risco na cadeia de suprimentos. Ele acredita que essa prática cria um efeito de freio para as empresas privadas.

Ao mesmo tempo, reconhece que, a longo prazo, não deve ser o setor privado a delimitar as fronteiras com o setor militar, mas sim o Congresso, por meio de legislação clara. Ele apela para que o Congresso crie novos marcos regulatórios para IA em vigilância e armas autônomas, acompanhando o ritmo do avanço tecnológico.

Isso tem uma dimensão ideológica?

Alguns críticos veem a Anthropic como uma “empresa woke de esquerda”. Amodei nega essa acusação, ressaltando que a empresa já colaborou com o governo em questões de política energética e planos de ação de IA. Ele afirma que essa divergência não tem relação com posições políticas, mas sim com valores e gestão de riscos.

Ele enfatiza: “Discordar do governo é a coisa mais americana que há.”

A Anthropic consegue sobreviver à tempestade?

No aspecto comercial, Amodei demonstra confiança. Ele afirmou que o impacto real da designação de risco na cadeia de suprimentos é limitado, não proibindo o uso da tecnologia da Anthropic por outras empresas, apenas em contratos militares.

Ele acredita que algumas declarações têm sido exageradas para criar medo, incerteza e dúvida (FUD), mas que os negócios principais da empresa permanecerão estáveis.

Este conflito revela uma questão maior: quando a tecnologia de IA avança exponencialmente enquanto a legislação e a regulamentação caminham lentamente, quem decide os limites?

A Anthropic defende que “99% podem colaborar, 1% deve ser tratado com cautela”, enquanto o Pentágono insiste que “todos os usos legais devem estar abertos”. A diferença entre ambos é tanto uma divergência de políticas quanto uma previsão diferente de como será o futuro da guerra.

Esta matéria sobre o conflito direto entre Anthropic e o Pentágono foi originalmente publicada na Chain News ABMedia.

Ver original
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)