2022 年俄乌战争爆发时,社群媒体上充斥着品质低劣的假影像 — 无论是用 Photoshop 合成的图片,还是截取自电玩、电影或旧新闻的错误标记画面。如今,相同的手法再度出现在伊朗战事中,但这一次,有了一种在 2022 年尚未普及的新型欺骗工具:任何人都能轻松上手的 AI 工具,可生成以假乱真的高画质影片与图像。
加州大学柏克莱分校数字鉴识学教授 Hany Farid 指出,十年前,类似的假讯息顶多一两件,很快就会被揭穿;如今却是数以百计,且逼真程度令人咋舌。「不仅逼真,而且正在发酵 — 深深影响着人们。大家信以为真,并持续转发扩散。」
生成式 AI 普及,让造假门槛大幅降低
BBC Verify 资深记者、长期追踪战地假讯息的 Shayan Sardarizadeh 表示,过去一年來最关键的变化,在于生成式 AI 的取得门槛大幅下降,「现在任何人都能制作出极具说服力的影片和图像,看起来像是重大战事现场,且难以用肉眼或非专业眼光识别真伪。」
伊朗战事开打不到两周,Sardarizadeh 等专家已确认多支 AI 生成的假影片在各大社群平台累积数千万次观看。
哪些假影像正在流传?
目前已被识别的 AI 伪造内容涵盖面极广,包括:
虚构的伊朗飞弹炮击以色列特拉维夫画面
民众逃离特拉维夫机场遭攻击的恐慌场景
美国特种部队被伊朗士兵持枪押解的影片
声称为伊朗军事设施遭炸毁的「监视器画面」(其中三段为 AI 生成,一段为去年真实事件)
美军在伊朗境内的「地面行动车队」
美军坠机残骸在德黑兰街头游行的画面
静态假图方面,则出现美军基地与美国大使馆遭伊朗攻击后燃烧的画面、伊朗最高领袖哈梅内伊被压在瓦砾下的死亡图像,以及伊朗平民悼念伤亡者的场景。甚至有与伊朗政府有关联的媒体,发布一张伪造的卫星图,声称显示美军巴林基地受损情况。
而这些,仅是目前流传中伊朗相关假讯息的冰山一角。
平台管制松,假讯息更难遏止
尽管 Sardarizadeh 等人每天持续揭穿假讯息,新的伪造内容仍以远超过辟谣的速度涌现,且逼真程度足以让普通用户在滑动动态时难以即时报破。
部分广泛流传的假讯息,明显出自亲伊朗的账号、具有宣传目的。但更多假讯息的制作动机难以判断 — 可能是为了流量、影响力或收益,也可能只是因为制作太容易了。
Farid 点出当前的困境:「内容更逼真、数量更庞大、渗透更深 — 这就是我们当下的现实,而且非常混乱。」
社群媒体平台 X 上周宣布,若付费创作者发布未标示 AI 来源的战地影像,将被暂停收益资格 90 天,再犯则永久停权。然而 Farid 对此政策的执行效果持怀疑态度,且绝大多数 X 用户根本不在创作者付费计划内。TikTok 与 Meta(旗下拥有 Facebook 与 Instagram)则未回应 CNN 的置评请求。
更令人忧虑的是,X 自家的 AI 聊天机器人 Grok 已被 Sardarizadeh 多次点名,指其在事实查核上反而帮了倒忙 — 错误告知用户多支 AI 生成影片为真实画面。
如何避免被假讯息欺骗?
Farid 坦言,即便是数月前流传的「辨识 AI 假影像技巧」,在今日已几乎失效。过去可留意人物手指数量或肢体比例,现在的 AI 早已修正这类明显错误。
他建议的根本之道,是主动选择从具公信力的新闻媒体获取资讯,而非依赖社群媒体上的陌生账号。「在全球冲突时刻,社群媒体不是获取资讯的地方。」
对于仍需频繁浏览社群媒体的用户,专家建议:
放慢脚步:看到耸动的战地影像,先花几秒搜索查证,再转发或相信
观察细节:音画是否同步?影像特征是否符合现实环境?AI 仍有缺陷,部分生成内容仍留有浮水印
查询专业辟谣:确认是否有专业事实查核媒体或领域专家已就该影像发表意见
留意留言区:一般用户有时也能提出有效质疑
使用 AI 偵测工具:虽不完美,但仍有一定参考价值
趋势令人忧虑,未来挑战更大
Sardarizadeh 呼吁大众尽力「训练自己的眼睛」,学习识别 AI 内容的痕迹。但他同时坦承:「侦测 AI 生成内容正变得极为困难,且趋势显示,未来只会愈来愈难。」
在生成式 AI 技术持续演进、社群平台管制趋于宽松的双重压力下,数位假讯息的战场正以前所未有的速度扩张,而每一位滑手机的用户,都站在这场资讯战的最前线。
这篇文章 AI 伪造战争影像泛滥:伊朗战事假讯息如何席卷社群媒体 最早出现于 链新闻 ABMedia。