「我懷念網路圖片總是真的時代……等等,好像從來沒真過?」
最近中東戰爭消息充斥各大資訊串流,爆炸、防空警報等強衝擊畫面層出不窮,但無數人點讚轉發的「戰地紀實」,竟然大半都是假的。

▲ 瀏覽量都超過百萬次,但最後證實是 AI 產生的影片。
X 多個認證的自媒體,發表數支 AI 產假影片,補充資訊都提到,影片有非常明顯的 AI 跡象,如煙霧效果,還有變形水面和屋頂太陽能電池板,影片素材有的是九年前毫不相干的舊衝突,有的是 AI 操縱的合成幻影。最荒誕的還是,美國德州州長 Greg Abbott 也轉發一支遊戲影片,但迅速刪除。
An Iranian plane VS a US ship.
I can watch this all day 😂 pic.twitter.com/qjLH2rA8V1
— Joel Fischer 🇺🇸 (@realJoelFischer) March 1, 2026
▲ 某遊戲畫面,發文已超過 700 萬次瀏覽。
社群媒體廣泛引用的所謂「第一手衝突紀錄」,竟然是取自軍事類遊戲。不只把 AI 當新聞,把遊戲畫面當新聞看,都令人感慨。這 AI 產影像狂飆突進的 2026 年,「有圖有真相」這句古老的網路格言,已淪為徹頭徹尾的笑話。
而這些百萬次轉發的內容,也都證實是超低級 AI 縫合怪。
除了影片氾濫,引起大家關注的還有 X 瘋傳的衛星圖,畢竟誰會花幾個億發射衛星,就為了網路 P 張圖騙人?下圖為卡達某美軍雷達系統,遭伊朗無人機打擊後化為廢墟,連伊朗主流媒體《德黑蘭時報》帳號都迫不及待轉發這張「戰果圖」。
#BREAKING
Before vs. afterAn American radar in Qatar was completely destroyed today in an Iranian drone strike. pic.twitter.com/GEebfcWH0q
— Tehran Times (@TehranTimes79) February 28, 2026
短短 48 小時內,發文瀏覽量直接破百萬,但開源情報專家就把這張圖的褲子都扒掉了。比對後顯示這根本不是卡達雷達基地,而是巴林某區,更荒謬的是,這圖是用一年前的老照片再用 AI「捏」成的。
怎麼看出來的?網友發現這張圖片細看非常拙劣,雖然建築看起來炸毀,但周圍停車位置竟然和一年前一模一樣;更離譜的是,「爆炸後」光照陰影角度,跟一年前晴朗日子分毫不差。
打敗 AI 魔法,還是得靠樸素五步驟
儘管多數 AI 產生內容,都強制要求上浮水印或數位浮水印,但還是很容易破解。以 Nano Banana 為例,官方提示會加入 Gemini Logo 浮水印,和無法肉眼察覺的 Synth ID 數位浮水印,但社群媒體經多輪手動截圖裁剪壓縮甚至外掛等,都很難再辨識是否有浮水印,Reddit 已有不少繞過 Synth ID 浮水印的方法。
一,抓細節,看不對勁的地方
既然都發現 AI 影像破綻明顯,為什麼多數人一開始沒看出來?理由很簡單,當我們看 AI 產人臉,大腦會本能尋找違和感,眼睛、皮膚紋理、耳朵形狀,這是人類幾百萬年進化出的生物本能。

但俯視幾百公里高空往下拍的建築、道路和地形時,這種本能失效了,因為沒人天生知道特定解析度的感測器看到的炸毀雷達站「應該」長什麼樣,沒有太多參考資訊,AI 捏造的內容通常人類很陌生,自然容易變成普通人眼裡的客觀事實。
演算法已能完美類比光影和肌膚紋理,尋找破綻的邏輯早就變了。除了要打破需依賴參考資訊的想法、找各種技術 Bug,更需要找到現實邏輯斷層。如背景有不合時宜的建築風格、人物違背常理的微小動作等。

▲ 未經查證的照片。
委內瑞拉總統馬杜洛被美國抓捕後,社群媒體瘋傳幾張他的「囚禁照」,外媒視覺調查團隊迅速發現都很可疑,如飛機窗戶設計與現實機型不符、馬杜洛穿的衣服不同。雖然沒有直接證據證明是假照片,但疑點太多讓媒體決定不刊登這些照片。
二,源頭是誰比資訊本身更重要
🚨IRAN RELEASES IMAGE OF KHAMENEI’S BODY BENEATH RUBBLE pic.twitter.com/eyx7w2F62H
— SilverTrade (@silvertrade) March 1, 2026
圖片發行者身分往往比內容更能自證。這張伊朗領導人哈米尼遇害照片,也在社群媒體獲 550 萬次瀏覽,但帳號主人網頁「關於」敘述是「SilverTrade.com 致力提供貴金屬業最準確、最具洞察力和最及時的報導」。
馬杜洛照片雖於 Truth Social 流轉,但多家新聞機構依然對真實性心存疑慮,最後多數媒體是選擇截圖引用,而非直接配文發表,隱含「不信任但有新聞價值」意味。
三,追蹤數位足跡,歷史紀錄很難說謊
AI 製造的假新聞,最常見手法是「挪用」舊素材。以 Google、TinEye 等搜尋引擎反向圖片搜尋,甚至查看圖片資訊(如拍攝時間、設備型號),就能快速判斷是否造假。

如上圖就是很經典的篡改圖,用舊照以傳統複製移動後製,就輕鬆騙過一票媒體。
四,以時間地點驗證關鍵背景資訊
假設看到聲稱某地拍攝影片,可用 Google 地圖或衛星圖檢查畫面是否一致。
還能以攝影圈愛用的 SunCalc 從陰影方向判斷大概拍攝時間,如果聲稱是昨晚拍的,但分析陰影顯示是正午,就能確定是假照。
五,善用深度研究,讓 AI 對抗 AI
現在幾乎所有 AI 工具都有自己的深度研究,好處在 AI 產生每句話都附來源連結,可以直接看到資訊出自哪裡、什麼性質。如果對資料精確度要求更高,提示詞還能加上「每個結論都增加可信度判斷」。
但要注意:深度研究可能靠譜,普通問答不太行。
直接問 AI「這條新聞是真的嗎?」它有時候會把社群媒體某人隨便推測和正規報導混為一談,出現「看起來有憑有據」的錯誤答案。深度研究至少讓你看到原始資訊,再自己判斷。

▲ 你能分出哪張圖是真的嗎?
把兩圖丟給 AI,問「這張圖片是 AI 產生的嗎?」Gemini 說兩張圖極有可能是基於同原圖,再後製處理或 AI 換色;ChatGPT 和豆包則說,紅色圖更有可能是 AI 產生。
圖片修改監測工具現在也有很多,網友前幾天還專門測試一波市面十多款 AI 內容檢測工具(包括 hivedetect.ai、aiornot.com、copyleaks.com 及部分通用 AI 工具),結果超過千次測試顯示,魔法打敗不了魔法,用 AI 檢測 AI 是注定破滅的幻想。
AI 檢測工具可當參考,只是給我們方向,但無法直接判斷。Adobe 在 PS 25 週年時,推出圖片真假小測驗網站,感興趣的讀者可看看,當時技術只是純 PS,就能做到難辨真假,更不用說現在強大的 AI。
「讓子彈飛一會兒」
面對各種 AI 假圖假新聞滿天飛,社群平台在各國政府施壓下不得不行動。
即日起 X 創作者如果上傳 AI 產生影片卻未標註「AI 製作」,將被暫停 90 天「創作者收入共享計畫」。 如果再次違規,就永久停止廣告分成。X 廣告分成向來可觀,不少 AI 自媒體都會在 X 同步更新;年初 X 還更新內容獎勵計畫,以首頁出現次數分級內容創作的廣告,同時鼓勵長文創作。
Today we are revising our Creator Revenue Sharing policies to maintain authenticity of content on Timeline and prevent manipulation of the program.
During times of war, it is critical that people have access to authentic information on the ground. With today’s AI technologies,…
— Nikita Bier (@nikitabier) March 3, 2026
▲ X 產品負責人 Nikita Bier 發文稱修改創作者收益分成。
新政策一出,X 創作者和網友又炸鍋了。有些人贊成「總算要列管了!」但也有人質疑「為什麼只針對衝突影片?其他假內容也會造成各種危害啊」。即便新措施涵蓋各領域假消息,實際成效恐怕不樂觀,畢竟使用者可再創新帳號,平台審核速度遠遠追不上假照傳播。
The Verge 採訪假新聞專家說:「普通人必須清楚認知,目前數位環境天生就是向操縱和欺騙傾斜。」
看來更大問題還是回到我們對 AI 假造的警惕性仍然不足。但身為吃瓜群眾,如果要對每條新聞都查證是否事實非常麻煩,保持耐心或許是更簡單的方法,姜文電影〈讓子彈飛〉那句名台詞「讓子彈飛一會兒」,或是演算法操縱下,人類最清醒的特立獨行。
(本文由 愛范兒 授權轉載;首圖來源:AI 生成)






