A CIA usou recentemente IA para gerar um relatório de inteligência sem um analista humano a conduzir o processo. O vice-diretor Michael Ellis confirmou o marco na quinta-feira, num evento do Special Competitive Studies Project, assinalando uma mudança da experimentação discreta para uma declaração pública de ambição. Ellis disse que a agência levou a cabo mais de 300 projetos de IA no ano passado, Politico noticia. Algures nesse conjunto, uma máquina produziu um produto de inteligência inteiramente por iniciativa própria — o primeiro na história da agência. A roadmap a curto prazo é mais incremental. Os analistas receberiam “colegas” de IA integrados nas plataformas de analítica da agência para tratar da elaboração, da edição para clareza e da comparação dos resultados com normas de “tradecraft”. Os humanos acabariam ainda assim por aprovar os resultados. Mas o objetivo é a rapidez — conseguir colocar produtos de inteligência no terreno mais depressa do que uma pipeline composta apenas por humanos permite.
Dentro de uma década, disse Ellis, os oficiais da CIA vão gerir equipas de agentes de IA a operar como “parceiros de missão autónomos”, um modelo híbrido que escala a recolha de inteligência de formas que nenhuma força de trabalho humana consegue corresponder sozinha. A CIA tem trabalhado para chegar a isto há anos. Em 2023, a agência de inteligência anunciou o seu próprio chatbot de IA para ajudar o pessoal a interpretar dados de vigilância. Em 2024, o diretor da CIA, Bill Burns, e o chefe do MI6, Richard Moore, divulgaram em conjunto que estavam a usar ativamente IA generativa para triagem de conteúdos, apoio aos analistas e para acompanhar como adversários estrangeiros implementam a tecnologia. As observações de Ellis avançam significativamente essa linha do tempo pública. Mais cedo este ano, a Anthropic recusou flexibilizar as restrições que impedem as suas ferramentas de serem usadas na vigilância interna ou em aplicações totalmente autónomas de armas. O secretário da Defesa Pete Hegseth respondeu ao designar os produtos da Anthropic como um “risco de cadeia de abastecimento”. O presidente Trump, depois, ordenou a todas as agências federais que deixassem de usar ferramentas da Anthropic. A empresa contestou legalmente a medida.
Ellis não mencionou a Anthropic, mas a mensagem ficou clara. A CIA “não pode permitir que os caprichos de uma única empresa limitem a sua utilização de IA”, disse, e a agência está a diversificar ativamente os fornecedores para se manter operacionalmente flexível. Ellis também sublinhou que a CIA duplicou o seu reporte de inteligência estrangeira com foco em tecnologia, acompanhando como adversários como a China estão a empregar IA em semicondutores, computação na nuvem e I&D. O seu Center for Cyber Intelligence foi elevado a um centro de missão completo — uma medida que Ellis descreveu como crucial, dado que “a batalha da cibersegurança será uma batalha de inteligência artificial”.