Le Groupe de renseignement sur les menaces de Google (GTIG) tire à nouveau la sonnette d’alarme sur les risques liés à l’IA, en publiant son dernier rapport sur la façon dont l’intelligence artificielle est utilisée par des hackers dangereux soutenus par des États. Cette équipe a identifié une augmentation des tentatives d’extraction de modèles, une méthode de vol de propriété intellectuelle où quelqu’un interroge un modèle d’IA à plusieurs reprises, dans le but d’apprendre sa logique interne et de la reproduire dans un nouveau modèle.
Notre nouveau rapport du Groupe de renseignement sur les menaces de Google (GTIG) explique comment les acteurs malveillants utilisent l’IA pour tout, de la reconnaissance avancée au phishing en passant par le développement automatisé de logiciels malveillants.
Plus d’informations à ce sujet et sur nos contre-mesures ↓ https://t.co/NWUvNeBkn2
— Politique Publique Google (@googlepubpolicy) 12 février 2026
Bien que cela soit préoccupant, ce n’est pas le principal risque que Google met en garde. Le rapport continue en avertissant que des acteurs soutenus par des gouvernements utilisent de grands modèles de langage (LLMs) pour la recherche technique, le ciblage et la génération rapide de leurres de phishing nuancés. Le rapport met en évidence des préoccupations concernant la République populaire démocratique de Corée, l’Iran, la République populaire de Chine et la Russie. Gemini et attaques de phishing Ces acteurs utilisent apparemment des outils d’IA, tels que Gemini de Google, pour la reconnaissance et le profilage des cibles, en utilisant la collecte de renseignements en source ouverte à grande échelle, ainsi que pour créer des escroqueries de phishing hyper-personnalisées. « Cette activité souligne une évolution vers une facilitation du phishing augmentée par l’IA, où la rapidité et la précision des LLM peuvent contourner le travail manuel traditionnellement nécessaire pour le profilage des victimes », indique le rapport de Google. « Les cibles ont longtemps compté sur des indicateurs tels que la mauvaise grammaire, une syntaxe maladroite ou l’absence de contexte culturel pour identifier les tentatives de phishing. De plus en plus, les acteurs malveillants exploitent désormais les LLM pour générer des leurres hyper-personnalisés pouvant refléter le ton professionnel d’une organisation ciblée ».
Par exemple, si Gemini recevait la biographie d’une cible, il pourrait générer une bonne persona et aider à élaborer un scénario qui capterait efficacement leur attention. En utilisant l’IA, ces acteurs malveillants peuvent également mieux traduire dans et hors des langues locales. Alors que la capacité de l’IA à générer du code s’est améliorée, cela a également ouvert la porte à une utilisation malveillante, ces acteurs utilisant l’IA pour dépanner et générer des outils malveillants grâce à la fonctionnalité de codage automatique de l’IA. Le rapport met aussi en garde contre un intérêt croissant pour l’expérimentation avec l’IA agentique. Il s’agit d’une forme d’intelligence artificielle pouvant agir avec un certain degré d’autonomie, soutenant des tâches comme le développement de logiciels malveillants et leur automatisation. Google souligne ses efforts pour lutter contre ce problème par divers moyens. En plus de produire des rapports sur les menaces plusieurs fois par an, l’entreprise dispose d’une équipe constamment à la recherche de nouvelles menaces. Google met également en place des mesures pour renforcer Gemini afin qu’il devienne un modèle incapable d’être utilisé à des fins malveillantes. Grâce à Google DeepMind, l’équipe tente d’identifier ces menaces avant qu’elles ne deviennent possibles. En résumé, Google cherche à repérer les fonctions malveillantes et à les supprimer avant qu’elles ne posent un risque. Bien qu’il soit clair d’après le rapport que l’utilisation de l’IA dans le paysage des menaces a augmenté, Google note qu’il n’y a pas encore de capacités révolutionnaires. Il s’agit simplement d’une augmentation de l’utilisation des outils et des risques.