微軟揭「Whisper Leak」漏洞,AI 聊天機器人加密對話主題也可能外洩

作者 | 發布日期 2025 年 11 月 10 日 11:10 | 分類 AI 人工智慧 , Microsoft , 網路 line share Linkedin share follow us in feedly line share
Loading...
微軟揭「Whisper Leak」漏洞,AI 聊天機器人加密對話主題也可能外洩

微軟最近揭露了一項名為「Whisper Leak」的隱私漏洞,這個漏洞可能會讓人們在使用像 ChatGPT 這樣的 AI 聊天機器人時,暴露出他們的對話內容主題,即使這些對話是加密的。這項研究指出,監控你網路連線的人可能會根據數據流動的模式,推測出你正在詢問的敏感話題,例如金融犯罪或政治問題。

這項漏洞的特點在於,雖然實際的對話內容仍然安全且無法讀取,但封包的大小和傳輸時間卻能透露出足夠的訊息,讓人能夠對對話主題做出合理的猜測。微軟的安全專家Jonathan Bar Or和Geoff McDonald以及微軟Defender安全研究團隊的研究顯示,這個漏洞影響了AI聊天機器人逐字顯示回應的方式,這種串流傳輸特性雖然讓對話感覺更自然,但也無意中創造了隱私風險。

攻擊者可以透過分析加密數據封包的大小和時間來進行攻擊,任何能夠監控你網路流量的人,包括網路服務提供商的政府機構、當地網路的駭客,甚至是同一咖啡店Wi-Fi的使用者,都可能利用這個技術。令人擔憂的是,攻擊者不需要破解加密,實際的對話內容仍然被鎖定,但透過觀察加密數據的流動,分析哪些封包較大或較小,並記錄它們之間的時間,精密的軟體可以對對話主題做出準確的猜測。

微軟的研究人員訓練了電腦程式來辨識對話模式,並測試了來自Mistral、xAI、DeepSeek和OpenAI等公司的AI聊天機器人。結果顯示,這些軟體能以超過98%的準確率正確辨識特定的對話主題。更令人擔憂的是,隨著攻擊者使用這個技術的時間越長,他們的檢測軟體對特定主題的辨識能力會越來越強,耐心且資源充足的攻擊者甚至能達到更高的成功率。

不過,微軟指出,主要的AI提供商已經開始針對這個漏洞進行修補。在微軟報告問題後,OpenAI、微軟和Mistral採取一項巧妙的解決方案:在每個回應中添加隨機長度的無意義字元,這樣的額外填充會打亂攻擊者依賴的模式,使攻擊無效。

如果你對使用AI聊天機器人的隱私感到擔憂,微軟建議採取幾個簡單的預防措施。隨著AI技術的日益強大和普及,安全考量也需要隨之演變。這個發現提醒我們,僅依賴加密並不能保證完全的隱私,因為即使你的實際對話內容是加密的,後設資料仍然可能揭示敏感的細節。

(首圖來源:Unsplash

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》