Como uma cena de filmes clássicos de ficção científica dos anos 1980, como “O Exterminador” e “Jogos de Guerra”, modelos modernos de inteligência artificial utilizados em simulações de guerra escalaram para armas nucleares em quase todos os cenários testados, de acordo com uma nova pesquisa do King’s College London. No relatório publicado na semana passada, os pesquisadores afirmaram que, durante crises geopolíticas simuladas, três grandes modelos de linguagem — GPT-5.2 da OpenAI, Claude Sonnet 4 da Anthropic e Gemini 3 Flash do Google — optaram por usar armas nucleares em 95% dos casos. “Cada modelo participou de seis jogos de guerra contra cada rival em diferentes cenários de crise, com um sétimo confronto contra uma cópia de si mesmo, totalizando 21 jogos e mais de 300 turnos,” disse o relatório. “Os modelos assumiram os papéis de líderes nacionais comandando superpotências armadas com armas nucleares, com perfis de estado inspirados vagamente pela dinâmica da Guerra Fria.”
No estudo, os modelos de IA foram colocados em cenários de alta tensão envolvendo disputas de fronteira, competição por recursos escassos e ameaças à sobrevivência de regimes. Cada sistema operava ao longo de uma escada de escalada que ia desde protestos diplomáticos e rendição até guerra nuclear estratégica em grande escala. Segundo o relatório, os modelos geraram aproximadamente 780.000 palavras explicando suas decisões, e pelo menos uma arma nuclear tática foi usada em quase todos os conflitos simulados. “Para colocar isto em perspetiva: o torneio gerou mais palavras de raciocínio estratégico do que Guerra e Paz e Ilíada juntas (730.000 palavras), e aproximadamente três vezes o total de deliberações registradas do Comitê Executivo de Kennedy durante a Crise dos Mísseis de Cuba (260.000 palavras ao longo de 43 horas de reuniões),” escreveram os pesquisadores. Durante os jogos de guerra, nenhum dos modelos de IA optou por rendição total, independentemente da posição no campo de batalha. Embora os modelos tentassem temporariamente desescalar a violência, em 86% dos cenários, eles escalaram ainda mais do que o raciocínio declarado pelos próprios modelos parecia indicar, refletindo erros sob uma “névoa de guerra” simulada.
Embora os pesquisadores expressem dúvidas de que os governos entregariam o controle de arsenais nucleares a sistemas autônomos, eles notaram que prazos de decisão comprimidos em futuras crises poderiam aumentar a pressão para confiar em recomendações geradas por IA. A pesquisa ocorre num momento em que líderes militares procuram cada vez mais implantar inteligência artificial no campo de batalha. Em dezembro, o Departamento de Defesa dos EUA lançou o GenAI.mil, uma nova plataforma que traz modelos de IA de fronteira para uso militar nos EUA. No lançamento, a plataforma incluía o Gemini do Google para o Governo, e graças a acordos com a xAI e a OpenAI, o Grok e o ChatGPT também estão disponíveis. Na terça-feira, a CBS News informou que o Departamento de Defesa dos EUA ameaçou colocar a Anthropic na lista negra, caso não fosse concedido acesso militar irrestrito ao modelo Claude AI. Desde 2024, a Anthropic tem fornecido acesso aos seus modelos de IA através de uma parceria com a AWS e a contratada militar Palantir. No verão passado, a Anthropic recebeu um contrato de 200 milhões de dólares para “prototipar capacidades de IA de fronteira que avancem a segurança nacional dos EUA.” No entanto, segundo um relatório que cita fontes familiarizadas com a situação, o Secretário de Defesa, Pete Hegseth, deu à Anthropic até sexta-feira para cumprir a exigência do Pentágono de disponibilizar o seu modelo Claude. O departamento está avaliando se deve classificar o Claude como um “risco na cadeia de abastecimento.” A Axios relatou esta semana que o Departamento de Defesa assinou um acordo com a xAI de Elon Musk para permitir que o seu modelo Grok opere em sistemas militares classificados, posicionando-o como uma possível alternativa caso o Pentágono corte laços com a Anthropic. OpenAI, Anthropic e Google não responderam aos pedidos de comentário feitos pelo Decrypt.