AI 產圖掀起圖片攻擊高峰,MIT 開發能干擾惡意 AI 的技術 PhotoGuard

作者 | 發布日期 2023 年 07 月 31 日 8:10 | 分類 AI 人工智慧 , 網路 , 資訊安全 line share follow us in feedly line share
AI 產圖掀起圖片攻擊高峰,MIT 開發能干擾惡意 AI 的技術 PhotoGuard


隨著 DALL‧E 和 Stable Diffusion 等 AI 產圖模型大行其道,加上 Shutterstock 和 Adobe 更搶先將這類 AI 模型整合至自家主力產品線,使網路聊天機器人也有編輯圖片甚至創圖能力,使惡意攻擊者能編修及操縱未授權的合法圖片。故 MIT 麻省理工學院電腦科學與人工智慧實驗室(CSAIL)開發出能杜絕浮濫風氣的「PhotoGuard」技術。 

用浮水印增加有心人竊取圖片或影像作品的難度與門檻已有很長時間,但拜 AI 產圖模型風行,駭客可直接用模型非法編修或改造圖片。面對威脅,MIT「PhotoGuard」技術採能「擾動」(perturbation)AI 的「編碼器」(encoder)攻擊法,改變選定畫素,破壞 AI 理解圖片的能力。

AI 演算法模型會以複雜數學表示目標圖像每個畫素位置和顏色,而「編碼器」攻擊是引入偽影,阻止 AI 理解看到的圖片內容。

不僅如此,「PhotoGuard」技術採更先進且運算密集的「擴散」(diffusion)攻擊,讓駭客特殊處理過圖(最佳化圖片擾動,與駭客鎖定圖類似)誤認成想攻擊的目標圖,為其加上「免疫」防護罩。AI 若試圖編輯「免疫」圖,都會套用至「假目標」圖,最終只會產生看起來非常不真實的圖片。

但這技術並非萬無一失,攻擊者可透過增加數位雜訊、剪貼或翻轉等,逆向工程受保護的圖。麻省理工學院博士生和論文主要作者 Hadi Salman 表示,要使保護機制可行,還有許多工作要做,唯有集合模型開發人員、社群媒體和政策制定者眾人之力,才能有效防禦未授權圖片編輯攻擊。

(首圖來源:影片截圖)