Googleの脅威情報グループ(GTIG)は、再びAIのリスクについて警鐘を鳴らし、危険な国家支援ハッカーによる人工知能の利用方法について最新レポートを公開しました。 このチームは、モデル抽出攻撃の増加を確認しています。これは、AIモデルを繰り返しクエリし、その内部ロジックを学習して新たなモデルに複製しようとする知的財産の窃盗手法です。
当社の新しいGoogle脅威情報グループ(GTIG)のレポートでは、脅威アクターが高度な偵察からフィッシング、そして自動化されたマルウェア開発まで、AIをどのように利用しているかを詳述しています。
それについてと、我々がどのように脅威に対抗しているかの詳細は↓ https://t.co/NWUvNeBkn2
— Google Public Policy (@googlepubpolicy) 2026年2月12日
これは憂慮すべき事態ですが、Googleが特に懸念を示している主なリスクではありません。レポートは、政府支援の脅威アクターが大規模言語モデル(LLM)を技術研究やターゲットの特定、微妙なフィッシング誘導の迅速な生成に利用していることも警告しています。 レポートは、北朝鮮、イラン、中国、ロシアに対する懸念を強調しています。 Geminiとフィッシング攻撃 これらのアクターは、GoogleのGeminiなどのAIツールを偵察やターゲットのプロファイリングに利用しており、オープンソースの情報収集や、超個別化されたフィッシング詐欺の作成に活用しています。 「この活動は、LLMの速度と精度を活用したAI支援のフィッシング促進へのシフトを示しており、従来のターゲットのプロファイリングに必要だった手作業を凌駕しています」とGoogleのレポートは述べています。 「ターゲットは長い間、誤った文法や不自然な構文、文化的背景の欠如といった指標を用いてフィッシングの試みを見分けてきましたが、近年では脅威アクターはLLMを駆使して、ターゲット組織の専門的なトーンを模倣した超個別化された誘導を生成しています。」
例えば、Geminiにターゲットの経歴を入力すれば、適切なペルソナを生成し、効果的に注意を引くシナリオを作り出すことが可能です。AIを利用することで、これらの脅威アクターは現地語への翻訳や逆翻訳もより効果的に行えるようになります。 また、AIのコード生成能力が向上したことで、悪意あるツールの作成やトラブルシューティングも可能となり、これらのアクターはAIのコーディング機能を悪用しています。 レポートはさらに、エージェント型AIの実験への関心の高まりについても警告しています。これは、ある程度の自律性を持ち、マルウェアの開発や自動化といったタスクを支援する人工知能の一形態です。 Googleは、この問題に対抗するためにさまざまな取り組みを行っていると述べています。年に複数回の脅威情報レポートの作成に加え、常に脅威を監視するチームを配置しています。さらに、Geminiを悪用できないモデルに強化する措置も進めています。 Google DeepMindを通じて、これらの脅威を事前に特定し、悪意のある機能を検出して排除しようとしています。 レポートからは、AIの脅威 landscapeにおける利用が増加していることは明らかですが、Googleは現時点で画期的な能力の進展は見られないと指摘しています。むしろ、ツールの使用とリスクの増加が進んでいるだけです。