Googleの脅威情報グループ(GTIG)は、再びAIのリスクについて警鐘を鳴らし、危険な国家支援ハッカーによる人工知能の利用方法について最新レポートを公開しました。 このチームは、モデル抽出攻撃の増加を確認しています。これは、AIモデルを繰り返しクエリし、その内部ロジックを学習して新しいモデルに複製しようとする知的財産の窃盗手法です。
当社の新しいGoogle脅威情報グループ(GTIG)のレポートでは、脅威アクターが高度な偵察からフィッシング、そして自動化されたマルウェア開発まで、AIをどのように利用しているかを詳述しています。
それについてや、我々がどのように脅威に対抗しているかの詳細は↓ https://t.co/NWUvNeBkn2
— Google Public Policy (@googlepubpolicy) 2026年2月12日
これは懸念すべき事態ですが、Googleが特に懸念を示している主なリスクではありません。レポートは、政府支援の脅威アクターが大規模言語モデル(LLM)を技術研究やターゲットの特定、微妙なフィッシング誘導の迅速な生成に利用していることも警告しています。 レポートは、北朝鮮、イラン、中国、ロシアに対する懸念を強調しています。 Geminiとフィッシング攻撃 これらのアクターは、GoogleのGeminiをはじめとするAIツールを、偵察やターゲットのプロファイリングに利用していると報告されています。オープンソースの情報収集を大規模に行い、超個別化されたフィッシング詐欺を作り出すためです。 「この活動は、LLMの速度と精度を活用したAI支援のフィッシング促進へのシフトを示しています。従来のターゲットのプロフィール作成に必要だった手作業を、LLMの能力で凌駕できるようになっています」とGoogleのレポートは述べています。 「ターゲットは長い間、誤った文法や不自然な構文、文化的背景の欠如といった指標を使ってフィッシングの試みを見分けてきましたが、今や攻撃者はLLMを駆使して、ターゲット組織の専門的なトーンを模した超個別化された誘導文を生成しています。」
例えば、Geminiにターゲットの経歴を入力すれば、適切なペルソナを作り出し、効果的に注意を引くシナリオを作成することが可能です。AIを使うことで、これらの脅威アクターは現地語と他言語間の翻訳もより効果的に行えるようになります。 AIのコード生成能力が向上するにつれ、その悪用も増加しています。これらのアクターは、AIのコーディング機能を利用して、悪意のあるツールのトラブルシューティングや生成を行っています。 レポートはまた、エージェント型AIの実験への関心の高まりについても警告しています。これは、ある程度の自律性を持ち、マルウェアの開発や自動化といったタスクを支援する人工知能の一形態です。 Googleは、この問題に対抗するためにさまざまな取り組みを行っていると述べています。年に複数回の脅威情報レポートの作成に加え、常に脅威を監視するチームを配置しています。また、Geminiを悪用されにくいモデルに強化する措置も進めています。 Google DeepMindを通じて、これらの脅威を事前に特定し、悪意のある機能を検出して排除しようとしています。 レポートからは、AIの脅威 landscapeにおける利用が増加していることは明らかですが、Googleは現時点で画期的な能力の進展は見られないと指摘しています。むしろ、ツールの使用とリスクの増加が進んでいるだけです。