加薩戰火現 AI 合成深偽影像,假浴血棄嬰照激化憤怒

作者 | 發布日期 2023 年 11 月 29 日 12:00 | 分類 AI 人工智慧 , 資訊安全 line share follow us in feedly line share
加薩戰火現 AI 合成深偽影像,假浴血棄嬰照激化憤怒


以色列與哈瑪斯開戰以來,加薩走廊炸毀的房屋和街道照片,有些畫面極度恐怖,如浴血棄嬰,這些影像是利用 AI 深偽技術合成,網路有數以百萬計瀏覽量。

美聯社報導,如果仔細觀察會發現破綻,如手指彎得很怪,或眼睛閃爍不自然光芒,這些都是數位欺騙的跡象。

然而,製造這些影像激發的怒火,都是非常真實的情緒。

以色列與巴勒斯坦武裝團體「哈瑪斯」(Hamas)戰爭相關照片生動且強烈突顯人工智慧(AI)成為宣傳工具的潛力,創造逼真屠殺影像。10月以哈戰爭爆發後,社群媒體流傳的數位修圖常製造傷亡究責的不實說法,或欺騙民眾有暴行但從未發生。

雖然網路流傳不實說法大多不需動用AI,而是更傳統來源,但科技進步也讓頻率變高,且幾乎沒有監管機制。這使AI成為另類武器的潛力更明顯,讓人一窺未來衝突、選舉和其他重大事件持續發生的狀況。

總部設於舊金山和巴黎的科技公司CREOpoint利用AI評估網路說法的正確性,執行長戈登斯坦(Jean-Claude Goldenstein)表示:「情況會惡化,變得更糟,之後才會好轉。」這家公司建立資料庫,儲存加薩走廊(Gaza Strip)最瘋傳的「深偽」(Deepfake)內容,「有了生成式AI,照片、影片和音檔將前所未見『升級』」。

某些案例,其他衝突或災難照片重新利用,冒充成新照片。另有生成式AI程式「無中生有」創造新影像,如有個嬰兒在轟炸殘骸哭泣的影像在衝突初期迅速流傳。其他AI生成影像例子如據稱是以色列飛彈襲擊的影片,或戰車駛過摧毀社區、家屬在瓦礫堆搜尋生還者的影片。

許多案例,假照片目的似乎是要激起強烈情緒反應。血腥衝突初期,以色列和哈瑪斯支持陣營都指對方傷害孩童和嬰兒,哭泣嬰兒的深偽影像馬上出現當成「證據」。

追蹤戰爭假消息的非營利組織「對抗網路仇恨中心」(Center for Countering Digital Hate)執行長阿邁德(Imran Ahmed)表示,製作這類影像的宣傳者善於瞄準人們最深層的衝動和焦慮。影像愈令人厭惡,網路用戶就愈有可能記住並分享,不知不覺成為假消息傳播的幫兇。阿邁德說:「假消息目的就是讓你參與。」

俄羅斯去年入侵烏克蘭後,網路也開始流傳類似AI生成欺騙性內容。經修改的影片似乎顯示烏克蘭總統澤倫斯基(Volodymyr Zelenskyy)下令烏克蘭人投降。這類說法直到上週都還在流傳,顯示即使很容易揭穿的錯誤資訊也能持久流竄。

每當有新衝突或選舉季節,假消息傳播者又有機會展示最新AI進展。許多AI專家和政治學家對來年風險發出警告,屆時有多國舉行重大選舉,包括美國、台灣、印度、巴基斯坦、烏克蘭、印尼和墨西哥。

AI和社群媒體可能向選民傳播謊言的風險引發美國兩黨議員擔憂。維吉尼亞州民主黨籍聯邦眾議員康諾里(Gerry Connolly)在最近深偽技術危險聽證會表示,美國必須資助研發目的是對抗其他AI的AI工具。世界許多新創科技公司正在開發新程式,協助揪出深偽影像、影像添加浮水印以證明來源,或掃描文字驗證任何可能AI介入的似是而非說法。

電腦科學家多爾曼(David Doermann)表示,雖然這種技術有前景,但利用AI撒謊的不肖人士往往領先一步。多爾曼曾在美國國防先進研究計畫局(DARPA)協助因應AI操縱影像構成的國安威脅。

現為大學教授的多爾曼表示,若要有效因應AI假消息構成的政治和社會挑戰,需要更優秀技術和監管機制、自願性產業標準及投資數位素養計畫,幫助網路用戶分辨真假,「偵測並試圖將這些內容撤下不是辦法,我們需要更好的解決方案」。

(譯者:盧映孜;首圖來源:shutterstock)

延伸閱讀: