Les hackers parrainés par l'État utilisant des outils d'IA populaires, dont Gemini, avertit Google

Decrypt

En résumé

  • Le Groupe de renseignement sur les menaces de Google a publié son dernier rapport sur les dangers de l’IA.
  • Le rapport suggère que des hackers soutenus par des États utilisent des outils comme Gemini de Google pour accélérer leurs cyberattaques.
  • Les hackers s’intéressent de plus en plus à l’IA agentique pour mettre l’IA entièrement en contrôle des attaques.

Le Groupe de renseignement sur les menaces de Google (GTIG) tire à nouveau la sonnette d’alarme sur les risques liés à l’IA, en publiant son dernier rapport sur la façon dont l’intelligence artificielle est utilisée par des hackers dangereux soutenus par des États. Cette équipe a identifié une augmentation des tentatives d’extraction de modèles, une méthode de vol de propriété intellectuelle où quelqu’un interroge un modèle d’IA à plusieurs reprises, dans le but d’apprendre sa logique interne et de la reproduire dans un nouveau modèle.

Notre nouveau rapport du Groupe de renseignement sur les menaces de Google (GTIG) explique comment les acteurs malveillants utilisent l’IA pour tout, de la reconnaissance avancée au phishing en passant par le développement automatisé de logiciels malveillants.

Plus d’informations à ce sujet et sur nos contre-mesures ↓ https://t.co/NWUvNeBkn2

— Politique Publique Google (@googlepubpolicy) 12 février 2026

Bien que cela soit préoccupant, ce n’est pas le principal risque que Google met en garde. Le rapport continue en avertissant que des acteurs soutenus par des gouvernements utilisent de grands modèles de langage (LLMs) pour la recherche technique, le ciblage et la génération rapide de leurres de phishing nuancés. Le rapport met en évidence des préoccupations concernant la République populaire démocratique de Corée, l’Iran, la République populaire de Chine et la Russie. Gemini et attaques de phishing Ces acteurs utilisent apparemment des outils d’IA, tels que Gemini de Google, pour la reconnaissance et le profilage des cibles, en utilisant la collecte de renseignements en source ouverte à grande échelle, ainsi que pour créer des escroqueries de phishing hyper-personnalisées. « Cette activité souligne une évolution vers une facilitation du phishing augmentée par l’IA, où la rapidité et la précision des LLM peuvent contourner le travail manuel traditionnellement nécessaire pour le profilage des victimes », indique le rapport de Google. « Les cibles ont longtemps compté sur des indicateurs tels que la mauvaise grammaire, une syntaxe maladroite ou l’absence de contexte culturel pour identifier les tentatives de phishing. De plus en plus, les acteurs malveillants exploitent désormais les LLM pour générer des leurres hyper-personnalisés pouvant refléter le ton professionnel d’une organisation ciblée ».

Par exemple, si Gemini recevait la biographie d’une cible, il pourrait générer une bonne persona et aider à élaborer un scénario qui capterait efficacement leur attention. En utilisant l’IA, ces acteurs malveillants peuvent également mieux traduire dans et hors des langues locales. Alors que la capacité de l’IA à générer du code s’est améliorée, cela a également ouvert la porte à une utilisation malveillante, ces acteurs utilisant l’IA pour dépanner et générer des outils malveillants grâce à la fonctionnalité de codage automatique de l’IA. Le rapport met aussi en garde contre un intérêt croissant pour l’expérimentation avec l’IA agentique. Il s’agit d’une forme d’intelligence artificielle pouvant agir avec un certain degré d’autonomie, soutenant des tâches comme le développement de logiciels malveillants et leur automatisation.  Google souligne ses efforts pour lutter contre ce problème par divers moyens. En plus de produire des rapports sur les menaces plusieurs fois par an, l’entreprise dispose d’une équipe constamment à la recherche de nouvelles menaces. Google met également en place des mesures pour renforcer Gemini afin qu’il devienne un modèle incapable d’être utilisé à des fins malveillantes. Grâce à Google DeepMind, l’équipe tente d’identifier ces menaces avant qu’elles ne deviennent possibles. En résumé, Google cherche à repérer les fonctions malveillantes et à les supprimer avant qu’elles ne posent un risque. Bien qu’il soit clair d’après le rapport que l’utilisation de l’IA dans le paysage des menaces a augmenté, Google note qu’il n’y a pas encore de capacités révolutionnaires. Il s’agit simplement d’une augmentation de l’utilisation des outils et des risques.

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)