O Grupo de Inteligência de Ameaças do Google (GTIG) volta a alertar para os riscos da IA, publicando o seu mais recente relatório sobre como a inteligência artificial está a ser utilizada por hackers perigosos patrocinados por estados. Esta equipa identificou um aumento nas tentativas de extração de modelos, um método de roubo de propriedade intelectual onde alguém consulta repetidamente um modelo de IA, tentando aprender a sua lógica interna e replicá-la num novo modelo.
O nosso novo relatório do Grupo de Inteligência de Ameaças do Google (GTIG) explica como os atores de ameaça estão a usar IA para tudo, desde reconhecimento avançado até phishing e desenvolvimento automatizado de malware.
Mais sobre isso e como estamos a combater as ameaças ↓ https://t.co/NWUvNeBkn2
— Google Políticas Públicas (@googlepubpolicy) 12 de fevereiro de 2026
Embora isto seja preocupante, não é o principal risco que o Google manifesta preocupação. O relatório avisa também sobre atores de ameaça apoiados pelo governo que usam grandes modelos de linguagem (LLMs) para investigação técnica, alvo e geração rápida de iscas de phishing sofisticadas. O relatório destaca preocupações em relação à República Popular Democrática da Coreia, Irão, República Popular da China e Rússia. Gemini e ataques de phishing Reza a notícia que estes atores estão a usar ferramentas de IA, como o próprio Gemini do Google, para reconhecimento e perfilamento de alvos, usando recolha de inteligência de código aberto em grande escala, bem como para criar esquemas de phishing hiperpersonalizados. “Esta atividade sublinha uma mudança para o uso de IA na facilitação de phishing, onde a velocidade e precisão dos LLMs podem ultrapassar o trabalho manual tradicionalmente necessário para o perfilamento de vítimas”, afirma o relatório do Google. “Os alvos há muito dependem de indicadores como má gramática, sintaxe estranha ou falta de contexto cultural para identificar tentativas de phishing. Cada vez mais, os atores de ameaça usam LLMs para gerar iscas hiperpersonalizadas que podem espelhar o tom profissional de uma organização alvo”.
Por exemplo, se Gemini fosse fornecido com a biografia de um alvo, poderia gerar uma boa persona e ajudar a criar um cenário que captasse efetivamente a atenção. Usando IA, estes atores de ameaça também podem traduzir de forma mais eficaz para línguas locais e vice-versa. À medida que a capacidade da IA de gerar código cresceu, também se abriram portas para o seu uso malicioso, com estes atores a solucionar problemas e a gerar ferramentas maliciosas usando a funcionalidade de codificação de IA. O relatório avisa ainda sobre um interesse crescente em experimentar com IA agentic. Esta é uma forma de inteligência artificial que pode atuar com um grau de autonomia, apoiando tarefas como o desenvolvimento de malware e a sua automação. O Google destaca os seus esforços para combater este problema através de vários fatores. Além de criar relatórios de Inteligência de Ameaças várias vezes por ano, a empresa tem uma equipa que procura constantemente ameaças. O Google também está a implementar medidas para reforçar o Gemini numa versão que não possa ser usada para fins maliciosos. Através do Google DeepMind, a equipa tenta identificar estas ameaças antes que possam ser possíveis. Eficazmente, o Google procura identificar funções maliciosas e removê-las antes que possam representar um risco. Embora seja claro pelo relatório que o uso de IA no panorama de ameaças aumentou, o Google nota que ainda não existem capacidades revolucionárias. Em vez disso, há simplesmente um aumento no uso de ferramentas e riscos.