简要概述
谷歌威胁情报组(GTIG)再次发出警告,警示人工智能的风险,发布了关于危险国家支持黑客如何利用人工智能的最新报告。 该团队发现模型提取尝试增加,这是一种知识产权盗窃方法,黑客通过反复查询AI模型,试图了解其内部逻辑并复制成新模型。
我们的谷歌威胁情报组(GTIG)最新报告详细分析了威胁行为者如何利用AI进行从高级侦察、钓鱼到自动化恶意软件开发的各种活动。
更多内容以及我们如何应对这些威胁 ↓ https://t.co/NWUvNeBkn2
— 谷歌公共政策 (@googlepubpolicy) 2026年2月12日
虽然这令人担忧,但谷歌关注的主要风险并非如此。报告还警告政府支持的威胁行为者利用大型语言模型(LLMs)进行技术研究、目标定位以及快速生成细致的钓鱼诱饵。 报告特别提及朝鲜、伊朗、中国和俄罗斯的担忧。 Gemini与钓鱼攻击 据报道,这些行为者使用AI工具,如谷歌的Gemini,进行侦察和目标分析,利用开源情报大规模收集信息,以及创建高度个性化的钓鱼骗局。 “这一活动凸显了向AI增强钓鱼的转变,LLMs的速度和准确性可以绕过传统的受害者分析所需的人工劳动”,谷歌的报告指出。 “目标长期以来依赖诸如语法差、句法尴尬或缺乏文化背景等指标来识别钓鱼尝试。如今,威胁行为者越来越多地利用LLMs生成高度个性化的诱饵,模仿目标组织的专业语调”。
例如,如果给Gemini提供目标的简历,它可以生成一个良好的人设,帮助设计出能有效吸引注意的场景。通过使用AI,这些威胁行为者还能更有效地在本地语言之间转换。 随着AI生成代码能力的提升,这也为其恶意用途打开了大门,这些行为者利用AI的代码生成功能调试和生成恶意工具。 报告还警示对自主AI的实验兴趣日益增长。这是一种具有一定自主性的人工智能,支持恶意软件开发及其自动化等任务。 谷歌指出,已采取多种措施应对这一问题。除了每年多次发布威胁情报报告外,谷歌还拥有一支不断搜索威胁的团队。公司也在实施措施,将Gemini打造为不能被用于恶意目的的模型。 通过谷歌DeepMind,团队试图在威胁变得可能之前识别它们。实际上,谷歌旨在识别恶意功能,并在其造成风险之前将其移除。 虽然报告显示AI在威胁环境中的使用有所增加,但谷歌指出,目前尚未出现突破性能力。只是工具的使用和风险的增加而已。