2022 年俄烏戰爭爆發時,社群媒體上充斥著品質低劣的假影像 — 無論是用 Photoshop 合成的圖片,還是截取自電玩、電影或舊新聞的錯誤標記畫面。如今,相同的手法再度出現在伊朗戰事中,但這一次,有了一種在 2022 年尚未普及的新型欺騙工具:任何人都能輕鬆上手的 AI 工具,可生成以假亂真的高畫質影片與圖像。
加州大學柏克萊分校數位鑑識學教授 Hany Farid 指出,十年前,類似的假訊息頂多一兩件,很快就會被揭穿;如今卻是數以百計,且逼真程度令人咋舌。「不只是逼真,而且正在發酵 — 深深影響著人們。大家信以為真,並持續轉發擴散。」
生成式 AI 普及,讓造假門檻大幅降低
BBC Verify 資深記者、長期追蹤戰地假訊息的 Shayan Sardarizadeh 表示,過去一年來最關鍵的改變,在於生成式 AI 的取得門檻大幅下降,「現在任何人都能製作出極具說服力的影片和圖像,看起來像是重大戰事現場,且難以用肉眼或非專業眼光識別真偽。」
伊朗戰事開打不到兩週,Sardarizadeh 等專家已確認多支 AI 生成的假影片在各大社群平台累積數千萬次觀看。
哪些假影像正在流傳?
目前已被識別的 AI 偽造內容涵蓋面極廣,包括:
虛構的伊朗飛彈砲擊以色列特拉維夫畫面
民眾逃離特拉維夫機場遭攻擊的恐慌場景
美國特種部隊被伊朗士兵持槍押解的影片
聲稱為伊朗軍事設施遭炸毀的「監視器畫面」(其中三段為 AI 生成,一段為去年真實事件)
美軍在伊朗境內的「地面行動車隊」
美軍墜機殘骸在德黑蘭街頭遊行的畫面
靜態假圖方面,則出現美軍基地與美國大使館遭伊朗攻擊後燃燒的畫面、伊朗最高領袖哈梅內伊被壓在瓦礫下的死亡圖像,以及伊朗平民悼念傷亡者的場景。甚至有與伊朗政府有關聯的媒體,發布一張偽造的衛星圖,聲稱顯示美軍巴林基地受損情況。
而這些,僅是目前流傳中伊朗相關假訊息的冰山一角。
平台管制鬆,假訊息更難遏止
儘管 Sardarizadeh 等人每天持續揭穿假訊息,新的偽造內容仍以遠超過闢謠的速度湧現,且逼真程度足以讓普通用戶在滑動動態時難以即時識破。
部分廣泛流傳的假訊息,明顯出自親伊朗的帳號、具有宣傳目的。但更多假訊息的製作動機難以判斷 — 可能是為了流量、影響力或收益,也可能只是因為製作太容易了。
Farid 點出當前的困境:「內容更逼真、數量更龐大、滲透更深 — 這就是我們當下的現實,而且非常混亂。」
社群媒體平台 X 上週宣布,若付費創作者發布未標示 AI 來源的戰地影像,將被暫停收益資格 90 天,再犯則永久停權。然而 Farid 對此政策的執行效果持懷疑態度,且絕大多數 X 用戶根本不在創作者付費計畫內。TikTok 與 Meta(旗下擁有 Facebook 與 Instagram)則未回應 CNN 的置評請求。
更令人憂慮的是,X 自家的 AI 聊天機器人 Grok 已被 Sardarizadeh 多次點名,指其在事實查核上反而幫了倒忙 — 錯誤告知用戶多支 AI 生成影片為真實畫面。
如何避免被假訊息欺騙?
Farid 坦言,即便是數月前流傳的「辨識 AI 假影像技巧」,在今日已幾乎失效。過去可留意人物手指數量或肢體比例,現在的 AI 早已修正這類明顯錯誤。
他建議的根本之道,是主動選擇從具公信力的新聞媒體獲取資訊,而非依賴社群媒體上的陌生帳號。「在全球衝突時刻,社群媒體不是獲取資訊的地方。」
對於仍需頻繁瀏覽社群媒體的用戶,專家建議:
放慢腳步:看到聳動的戰地影像,先花幾秒搜尋查證,再轉發或相信
觀察細節:音畫是否同步?影像特徵是否符合現實環境?AI 仍有缺陷,部分生成內容仍留有浮水印
查詢專業闢謠:確認是否有專業事實查核媒體或領域專家已就該影像發表意見
留意留言區:一般用戶有時也能提出有效質疑
使用 AI 偵測工具:雖不完美,但仍有一定參考價值
趨勢令人憂慮,未來挑戰更大
Sardarizadeh 呼籲大眾盡力「訓練自己的眼睛」,學習識別 AI 內容的痕跡。但他同時坦承:「偵測 AI 生成內容正變得極為困難,且趨勢顯示,未來只會愈來愈難。」
在生成式 AI 技術持續演進、社群平台管制趨於寬鬆的雙重壓力下,數位假訊息的戰場正以前所未有的速度擴張,而每一位滑手機的用戶,都站在這場資訊戰的最前線。
這篇文章 AI 偽造戰爭影像氾濫:伊朗戰事假訊息如何席捲社群媒體 最早出現於 鏈新聞 ABMedia。