国家支持的黑客利用包括Gemini在内的流行AI工具,Google发出警告

Decrypt

简要概述

  • 谷歌威胁情报组发布了关于人工智能危险的最新报告。
  • 报告指出,国家支持的黑客使用谷歌自己的Gemini等工具加快网络攻击速度。
  • 黑客对自主AI表现出兴趣,试图让AI完全掌控攻击。

谷歌威胁情报组(GTIG)再次发出警告,警示人工智能的风险,发布了关于危险国家支持黑客如何利用人工智能的最新报告。 该团队发现模型提取尝试增加,这是一种知识产权盗窃方法,黑客通过反复查询AI模型,试图了解其内部逻辑并复制成新模型。

我们的谷歌威胁情报组(GTIG)最新报告详细分析了威胁行为者如何利用AI进行从高级侦察、钓鱼到自动化恶意软件开发的各种活动。

更多内容以及我们如何应对这些威胁 ↓ https://t.co/NWUvNeBkn2

— 谷歌公共政策 (@googlepubpolicy) 2026年2月12日

虽然这令人担忧,但谷歌关注的主要风险并非如此。报告还警告政府支持的威胁行为者利用大型语言模型(LLMs)进行技术研究、目标定位以及快速生成细致的钓鱼诱饵。 报告特别提及朝鲜、伊朗、中国和俄罗斯的担忧。 Gemini与钓鱼攻击 据报道,这些行为者使用AI工具,如谷歌的Gemini,进行侦察和目标分析,利用开源情报大规模收集信息,以及创建高度个性化的钓鱼骗局。 “这一活动凸显了向AI增强钓鱼的转变,LLMs的速度和准确性可以绕过传统的受害者分析所需的人工劳动”,谷歌的报告指出。 “目标长期以来依赖诸如语法差、句法尴尬或缺乏文化背景等指标来识别钓鱼尝试。如今,威胁行为者越来越多地利用LLMs生成高度个性化的诱饵,模仿目标组织的专业语调”。

例如,如果给Gemini提供目标的简历,它可以生成一个良好的人设,帮助设计出能有效吸引注意的场景。通过使用AI,这些威胁行为者还能更有效地在本地语言之间转换。 随着AI生成代码能力的提升,这也为其恶意用途打开了大门,这些行为者利用AI的代码生成功能调试和生成恶意工具。 报告还警示对自主AI的实验兴趣日益增长。这是一种具有一定自主性的人工智能,支持恶意软件开发及其自动化等任务。 谷歌指出,已采取多种措施应对这一问题。除了每年多次发布威胁情报报告外,谷歌还拥有一支不断搜索威胁的团队。公司也在实施措施,将Gemini打造为不能被用于恶意目的的模型。 通过谷歌DeepMind,团队试图在威胁变得可能之前识别它们。实际上,谷歌旨在识别恶意功能,并在其造成风险之前将其移除。 虽然报告显示AI在威胁环境中的使用有所增加,但谷歌指出,目前尚未出现突破性能力。只是工具的使用和风险的增加而已。

查看原文
免责声明:本页面信息可能来自第三方,不代表 Gate 的观点或意见。页面显示的内容仅供参考,不构成任何财务、投资或法律建议。Gate 对信息的准确性、完整性不作保证,对因使用本信息而产生的任何损失不承担责任。虚拟资产投资属高风险行为,价格波动剧烈,您可能损失全部投资本金。请充分了解相关风险,并根据自身财务状况和风险承受能力谨慎决策。具体内容详见声明
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)