OpenAI conquista o contrato de IA do Pentágono! Sam Altman admite que foi uma decisão apressada, enfatizando que não envolve vigilância em massa nem armas automáticas

ChainNewsAbmedia

Após o fracasso nas negociações com o Pentágono, a Anthropic foi listada pelo governo dos EUA como uma empresa de risco na cadeia de abastecimento, enquanto a OpenAI anunciou rapidamente a obtenção de um contrato com o Departamento de Defesa, implantando seu modelo de IA em ambientes confidenciais. Essa transação não só causou impacto na indústria, mas também levou o CEO da OpenAI, Sam Altman, a admitir de forma rara: «Esta transação foi realmente apressada, a impressão não é boa.»

(Anthropic entra em conflito direto com o Pentágono! CEO Amodei rejeita «monitoramento em grande escala doméstico» e «armas totalmente autônomas»)

Anthropic fracassa nas negociações, governo Trump intervém para bloquear

Após o impasse nas negociações com o Pentágono na última sexta-feira, o presidente Donald Trump ordenou às agências federais que, após um período de transição de seis meses, parassem de usar a tecnologia da Anthropic. O Secretário de Defesa, Pete Hegseth, também declarou publicamente que a Anthropic foi designada como uma «risco na cadeia de abastecimento».

Essa decisão causou um grande impacto na indústria de IA. A Anthropic sempre enfatizou que sua tecnologia não deve ser usada em «armas totalmente autônomas» ou «monitoramento doméstico em grande escala», estabelecendo limites claros. No entanto, essa posição parece não ter sido aceita pelo Pentágono.

Enquanto o mercado ainda digeria essa notícia, a OpenAI anunciou rapidamente um acordo com o Departamento de Defesa, implantando seu modelo em ambientes confidenciais. A coincidência no timing gerou grande atenção na indústria.

OpenAI: nossos limites permanecem os mesmos

Diante das dúvidas do público sobre se a OpenAI estaria cedendo sob pressão de segurança nacional, a empresa publicou um artigo oficial no blog, listando três usos claramente proibidos:

Monitoramento doméstico em grande escala

Sistemas de armas autônomas

Decisões automatizadas de alto risco (como «sistemas de crédito social»)

A OpenAI destacou que, ao contrário de algumas empresas de IA que «reduzem ou removem barreiras de segurança, dependendo apenas de políticas de uso», sua colaboração com o Departamento de Defesa adota uma estrutura de segurança «multicamadas e abrangente».

Segundo a explicação oficial, a OpenAI mantém controle completo sobre as tecnologias de segurança, implantando seus modelos via API na nuvem, garantindo que apenas pessoal treinado e autorizado opere, além de contar com cláusulas contratuais rigorosas e conformidade com as leis existentes nos EUA.

Na declaração, a OpenAI também afirmou: «Não sabemos por que a Anthropic não conseguiu fechar esse acordo, mas esperamos que eles e outros laboratórios reconsiderem.»

Nuvem de vigilância: a Ordem Executiva 12333 no centro das atenções

Apesar de a OpenAI afirmar que seus limites são claros, o setor de tecnologia não está convencido. Mike Masnick, fundador do Techdirt, apontou que o contrato menciona que a coleta de dados seguirá a Ordem Executiva 12333, o que na prática pode ainda permitir monitoramento doméstico.

Masnick explicou que a Ordem Executiva 12333 tem sido criticada há muito tempo como base legal para a NSA interceptar comunicações internacionais envolvendo cidadãos americanos. Isso sugere que o contrato da OpenAI «na prática, permite vigilância doméstica».

Em resposta, Katrina Mulligan, responsável por cooperação de segurança nacional na OpenAI, publicou no LinkedIn uma refutação. Ela afirmou que a atenção excessiva a um único cláusula do contrato é um equívoco, pois essa compreensão «é completamente incorreta» ao pensar que ela é a única barreira contra o uso de IA em vigilância em massa ou armas autônomas.

Ela reforçou: «A arquitetura de implantação é mais importante do que a linguagem do contrato.» Ao oferecer apenas API na nuvem, a OpenAI garante que seus modelos não possam ser integrados diretamente em sistemas de armas, sensores ou outros hardwares de combate.

Sam Altman admite a pressa: para «esfriar» o conflito na indústria?

Nas redes sociais, Sam Altman também respondeu às críticas. Ele admitiu que a transação foi «realmente apressada» e reconheceu que a empresa enfrentou forte reação.

A reação foi tão grande que, até mesmo, refletiu na competição de mercado: no sábado, o modelo Claude da Anthropic chegou a superar o ChatGPT em downloads na App Store da Apple.

(Anthropic tem contrato rescindido pelo Pentágono, aumento de downloads de Claude faz dele o mais baixado)

Por que então assinar o contrato?

Altman afirmou: «Realmente queríamos acalmar as coisas, achamos que esse acordo é razoável.» Ele acrescentou que, se essa colaboração ajudar a aliviar as tensões entre o Departamento de Defesa e a indústria de IA, a OpenAI será vista como uma empresa que cedeu à pressão e promove estabilidade; caso contrário, a crítica por decisões apressadas e pouco cautelosas continuará.

Batalha de fronteiras entre IA e defesa: uma nova fase na indústria

Esse episódio revela uma questão mais profunda: à medida que a tecnologia de IA se torna mais avançada, como as empresas de tecnologia podem equilibrar segurança nacional e limites éticos?

A Anthropic optou por manter seus princípios e acabou perdendo o contrato governamental; a OpenAI escolheu uma intervenção rápida, tentando garantir limites de segurança por meio de sua arquitetura técnica e mecanismos legais. Ambas as estratégias representam diferentes formas de lidar com riscos.

No futuro, a colaboração entre empresas de IA e governos será ainda mais frequente. O ponto-chave será se essas parcerias conseguirão proteger a segurança nacional sem comprometer a liberdade civil e os princípios éticos tecnológicos.

Este artigo: OpenAI conquista contrato com o Pentágono! Sam Altman admite decisão «apressada», reforça que não envolve vigilância em massa nem armas autônomas foi publicado originalmente no Chain News ABMedia.

Ver original
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)