
生成式 AI 發展速度極為快速,這也使得企業安全面臨前所未有的挑戰。DeepSeek 的 R1 版本於 2025 年 1 月 20 日發表,由於其高效能與成本效益,迅速獲得了廣泛的關注。與現有的 AI 模型相比,DeepSeek 的價格遠低於同類產品,並且開放原始碼的特性使得 AI 開發者可以免費使用,進一步加速了其在應用程式商店及業界排名中的崛起。
在 R1 釋出後,資安廠 Palo Alto Networks 觀察到平台上 DeepSeek 的流量激增了 1,800%。這一突如其來的漲幅提醒世人,新的 AI 工具可能會迅速滲透進企業內部,並有可能超越現有的安全防護措施。
Palo Alto Networks 指出,DeepSeek 之所以受歡迎,源於其處理複雜指令並提供深入見解的能力。然而這種便利性是有代價的。DeepSeek-R1 模型最近涉及幾起備受關注的安全事件,暴露了可能危及企業資料的關鍵漏洞。此外,DeepSeek 的開放原始碼特性及其強大的效能,可能降低惡意攻擊者使用 AI 發動攻擊的門檻,進一步突顯了 AI 資安的迫切需求。
即使企業決定完全禁止使用 DeepSeek,問題仍然無法就此結束。如果缺乏有效的管控措施、員工訓練及適當的安全機制,員工可能會在不自覺的情況下使用這些有用(即使被禁用)的工具,並未意識到其所帶來的安全風險。
影子 AI 潛藏的隱形威脅──未經授權使用生成式 AI 工具為資安團隊帶來不確定性,這使得追蹤AI 相關的威脅及資料外洩向量變得幾乎不可能。
不當的資料處理做法──多國監管機構已針對 DeepSeek 的資料處理方式採取行動,關注的問題包括未經授權的資料存取、監控以及可能對國家安全構成的威脅。
易受越獄攻擊影響──透過「The Bad Likert Judge」、「Crescendo」和「Deceptive Delight」等越獄技術,DeepSeek LLM 的安全機制被繞過,使其易受到操控。
那麼應該如何防範生成式 AI 所帶來的風險呢?Palo Alto Networks 表示,雖然對於某一特定的 LLM,保證完全防範所有對抗性技術是一大挑戰,企業應該做好即時監控企業內部使用的生成式AI 應用程式及使用者;防止敏感資料遭未經授權存取,並避免暴露於風險較高的生成式 AI 應用程式與其訓練模型中;且應該簡化存取控制,以阻擋未經授權的應用程式,執行資訊安全政策並抵禦各種威脅。上述措施可做到監控員工何時以及如何使用像 DeepSeek 這樣的應用程式。
(首圖來源:Unsplash)