網路狂轉的「戰地實況」都是 AI 產生?五招讓你不會上當

作者 | 發布日期 2026 年 03 月 06 日 7:50 | 分類 AI 人工智慧 , 社群 , 網路 line share Linkedin share follow us in feedly line share
Loading...
網路狂轉的「戰地實況」都是 AI 產生?五招讓你不會上當

「我懷念網路圖片總是真的時代……等等,好像從來沒真過?」

最近中東戰爭消息充斥各大資訊串流,爆炸、防空警報等強衝擊畫面層出不窮,但無數人點讚轉發的「戰地紀實」,竟然大半都是假的。

▲ 瀏覽量都超過百萬次,但最後證實是 AI 產生的影片。

X 多個認證的自媒體,發表數支 AI 產假影片,補充資訊都提到,影片有非常明顯的 AI 跡象,如煙霧效果,還有變形水面和屋頂太陽能電池板,影片素材有的是九年前毫不相干的舊衝突,有的是 AI 操縱的合成幻影。最荒誕的還是,美國德州州長 Greg Abbott 也轉發一支遊戲影片,但迅速刪除。

▲ 某遊戲畫面,發文已超過 700 萬次瀏覽。

社群媒體廣泛引用的所謂「第一手衝突紀錄」,竟然是取自軍事類遊戲。不只把 AI 當新聞,把遊戲畫面當新聞看,都令人感慨。這 AI 產影像狂飆突進的 2026 年,「有圖有真相」這句古老的網路格言,已淪為徹頭徹尾的笑話。

而這些百萬次轉發的內容,也都證實是超低級 AI 縫合怪。

除了影片氾濫,引起大家關注的還有 X 瘋傳的衛星圖,畢竟誰會花幾個億發射衛星,就為了網路 P 張圖騙人?下圖為卡達某美軍雷達系統,遭伊朗無人機打擊後化為廢墟,連伊朗主流媒體《德黑蘭時報》帳號都迫不及待轉發這張「戰果圖」。

短短 48 小時內,發文瀏覽量直接破百萬,但開源情報專家就把這張圖的褲子都扒掉了。比對後顯示這根本不是卡達雷達基地,而是巴林某區,更荒謬的是,這圖是用一年前的老照片再用 AI「捏」成的。

怎麼看出來的?網友發現這張圖片細看非常拙劣,雖然建築看起來炸毀,但周圍停車位置竟然和一年前一模一樣;更離譜的是,「爆炸後」光照陰影角度,跟一年前晴朗日子分毫不差。

打敗 AI 魔法,還是得靠樸素五步驟

儘管多數 AI 產生內容,都強制要求上浮水印或數位浮水印,但還是很容易破解。以 Nano Banana 為例,官方提示會加入 Gemini Logo 浮水印,和無法肉眼察覺的 Synth ID 數位浮水印,但社群媒體經多輪手動截圖裁剪壓縮甚至外掛等,都很難再辨識是否有浮水印,Reddit 已有不少繞過 Synth ID 浮水印的方法。

一,抓細節,看不對勁的地方

既然都發現 AI 影像破綻明顯,為什麼多數人一開始沒看出來?理由很簡單,當我們看 AI 產人臉,大腦會本能尋找違和感,眼睛、皮膚紋理、耳朵形狀,這是人類幾百萬年進化出的生物本能。

但俯視幾百公里高空往下拍的建築、道路和地形時,這種本能失效了,因為沒人天生知道特定解析度的感測器看到的炸毀雷達站「應該」長什麼樣,沒有太多參考資訊,AI 捏造的內容通常人類很陌生,自然容易變成普通人眼裡的客觀事實。

演算法已能完美類比光影和肌膚紋理,尋找破綻的邏輯早就變了。除了要打破需依賴參考資訊的想法、找各種技術 Bug,更需要找到現實邏輯斷層。如背景有不合時宜的建築風格、人物違背常理的微小動作等。

▲ 未經查證的照片。

委內瑞拉總統馬杜洛被美國抓捕後,社群媒體瘋傳幾張他的「囚禁照」,外媒視覺調查團隊迅速發現都很可疑,如飛機窗戶設計與現實機型不符、馬杜洛穿的衣服不同。雖然沒有直接證據證明是假照片,但疑點太多讓媒體決定不刊登這些照片。

二,源頭是誰比資訊本身更重要

圖片發行者身分往往比內容更能自證。這張伊朗領導人哈米尼遇害照片,也在社群媒體獲 550 萬次瀏覽,但帳號主人網頁「關於」敘述是「SilverTrade.com 致力提供貴金屬業最準確、最具洞察力和最及時的報導」。

馬杜洛照片雖於 Truth Social 流轉,但多家新聞機構依然對真實性心存疑慮,最後多數媒體是選擇截圖引用,而非直接配文發表,隱含「不信任但有新聞價值」意味。

三,追蹤數位足跡,歷史紀錄很難說謊

AI 製造的假新聞,最常見手法是「挪用」舊素材。以 Google、TinEye 等搜尋引擎反向圖片搜尋,甚至查看圖片資訊(如拍攝時間、設備型號),就能快速判斷是否造假。

如上圖就是很經典的篡改圖,用舊照以傳統複製移動後製,就輕鬆騙過一票媒體。

四,以時間地點驗證關鍵背景資訊

假設看到聲稱某地拍攝影片,可用 Google 地圖或衛星圖檢查畫面是否一致。

還能以攝影圈愛用的 SunCalc 從陰影方向判斷大概拍攝時間,如果聲稱是昨晚拍的,但分析陰影顯示是正午,就能確定是假照。

五,善用深度研究,讓 AI 對抗 AI

現在幾乎所有 AI 工具都有自己的深度研究,好處在 AI 產生每句話都附來源連結,可以直接看到資訊出自哪裡、什麼性質。如果對資料精確度要求更高,提示詞還能加上「每個結論都增加可信度判斷」。

但要注意:深度研究可能靠譜,普通問答不太行。

直接問 AI「這條新聞是真的嗎?」它有時候會把社群媒體某人隨便推測和正規報導混為一談,出現「看起來有憑有據」的錯誤答案。深度研究至少讓你看到原始資訊,再自己判斷。

▲ 你能分出哪張圖是真的嗎?

把兩圖丟給 AI,問「這張圖片是 AI 產生的嗎?」Gemini 說兩張圖極有可能是基於同原圖,再後製處理或 AI 換色;ChatGPT 和豆包則說,紅色圖更有可能是 AI 產生。

圖片修改監測工具現在也有很多,網友前幾天還專門測試一波市面十多款 AI 內容檢測工具(包括 hivedetect.ai、aiornot.com、copyleaks.com 及部分通用 AI 工具),結果超過千次測試顯示,魔法打敗不了魔法,用 AI 檢測 AI 是注定破滅的幻想。

AI 檢測工具可當參考,只是給我們方向,但無法直接判斷。Adobe 在 PS 25 週年時,推出圖片真假小測驗網站,感興趣的讀者可看看,當時技術只是純 PS,就能做到難辨真假,更不用說現在強大的 AI。

「讓子彈飛一會兒」

面對各種 AI 假圖假新聞滿天飛,社群平台在各國政府施壓下不得不行動。

即日起 X 創作者如果上傳 AI 產生影片卻未標註「AI 製作」,將被暫停 90 天「創作者收入共享計畫」。 如果再次違規,就永久停止廣告分成。X 廣告分成向來可觀,不少 AI 自媒體都會在 X 同步更新;年初 X 還更新內容獎勵計畫,以首頁出現次數分級內容創作的廣告,同時鼓勵長文創作。

▲ X 產品負責人 Nikita Bier 發文稱修改創作者收益分成。

新政策一出,X 創作者和網友又炸鍋了。有些人贊成「總算要列管了!」但也有人質疑「為什麼只針對衝突影片?其他假內容也會造成各種危害啊」。即便新措施涵蓋各領域假消息,實際成效恐怕不樂觀,畢竟使用者可再創新帳號,平台審核速度遠遠追不上假照傳播。

The Verge 採訪假新聞專家說:「普通人必須清楚認知,目前數位環境天生就是向操縱和欺騙傾斜。」

看來更大問題還是回到我們對 AI 假造的警惕性仍然不足。但身為吃瓜群眾,如果要對每條新聞都查證是否事實非常麻煩,保持耐心或許是更簡單的方法,姜文電影〈讓子彈飛〉那句名台詞「讓子彈飛一會兒」,或是演算法操縱下,人類最清醒的特立獨行。

(本文由 愛范兒 授權轉載;首圖來源:AI 生成)

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》