當我們與生成式 AI 對話時,大多驚嘆於它的無所不知,卻很少有人追問:這些知識背後,它究竟記住了什麼?
長期以來,開發者宣稱AI學的是規律而非背誦,但最新的研究卻打破了這項美好表象。研究證實,透過特定的誘導方式,攻擊者可以從數十億參數的大型語言模型中,直接還原出原始的訓練資料,其中甚至包含姓名、電話、地址與私密的對話紀錄。這代表AI隱私風險已從資料蒐集階段,蔓延到了模型輸出本身。
AI 變身資料外洩新管道
這項針對GPT-2等模型的研究揭露了一個令人不安的事實,AI並非只是在做數學機率的聯想,它們有時會化身為具有完美記憶力的紀錄者。攻擊者僅需透過查詢模型,就能成功提取出數百段與訓練資料完全一致的文字序列。
讓人擔憂的是,即便某些敏感資訊(如個人的電話號碼或聊天紀錄)在龐大的訓練數據中只出現過一次,AI依然有能力將其還原。這代表AI本身已成為一個全新的資料外洩管道。當模型在回應請求時,可能在無意間將其訓練過程中所記錄的個人辨識資訊(PII)直接透漏給使用者,這種外洩方式極難透過傳統的關鍵字過濾來完全阻斷。
隱私防護的兩難困境
研究中提出了一個極具挑戰性的趨勢,當模型規模越大,洩密風險越高。隨著科技巨頭追求更強大的AI能力,模型的參數也隨之膨脹,這反而賦予了AI更強的記憶力,去儲存訓練資料中的細節。這對於致力於開發大型模型的企業來說,無疑是一個巨大的法律與倫理不定時炸彈。
在這種情況下,現有的AI治理框架顯然低估了模型本身的洩密風險。AI的關聯能力可能重新拼湊出被隱藏的身份。因此,AI服務必須建立全新的輸出審查與防護機制,例如在推論階段建立行為監測,以防堵模型被誘導還原敏感數據。
重新定義法律對 AI 的定性
如果AI輸出的內容包含他人的私密對話或商業機密,這是否應視為原始資料的非法複製?目前法律多半在規範如何蒐集資料,但對於模型記住並再現資料的規範仍處於灰色地帶。未來,監管機構可能需要強制要求AI廠商證明其模型具備遺忘敏感資訊的能力,或是建立可驗證的審計流程,確保模型輸出不會成為隱私保護的破口。這場關於 AI 記憶的博弈,將決定未來我們是否能真正安全地與這些AI系統共存。
目前的法律爭議點在於,我們應如何定性AI模型?如果模型可以被還原出原始資料,它是否應被視為一種特殊的資料庫,而應受到更嚴苛的資料保護法規範?
當AI的風險發生在輸出階段,監管重心也應從訓練資料的蒐集轉向輸出端的動態監管。未來,AI服務商可能需要建立即時的隱私偵測器,在內容生成的一瞬間,就阻斷任何包含敏感模式(如身分證號或特定敏感資訊)的輸出,完善 AI針對個資的保護措施。
(首圖來源:pixabay)






