防機密資訊再度外洩,三星祭出 ChatGPT 禁令

作者 | 發布日期 2023 年 05 月 02 日 11:26 | 分類 AI 人工智慧 , Samsung , 資訊安全 line share follow us in feedly line share
防機密資訊再度外洩,三星祭出 ChatGPT 禁令


出於安全考量,三星(Samsung)禁止員工使用近來備受關注的生成式 AI(Generative AI)工具,像是 ChatGPT、Bing AI 或者 Google Bard 等。

《彭博社》週一取得一份三星的內部備忘錄指出,公司擔心資料傳輸到時下流行的 AI 平台,會儲存在外部伺服器,難以收回和刪除,甚至會有洩露給他人的疑慮。

「總部正在審查安全措施,創造一個安全的環境,以使用生成式 AI 來提高員工的生產力和效率」,備忘錄寫道,在準備好相關措施之前,三星將會暫時限制生成式 AI 的使用。

三星的新規定禁止員工在公司提供的電腦、平板、手機以及內部網路使用生成式 AI 系統,然而新政策不會影響銷售給消費者的產品,包括三星品牌的 Android 手機、Windows 筆電。

員工在個人裝置使用 ChatGPT 或其他 AI 工具時,三星也要求不要提交任何公司智慧財產或個人隱私的內容,並警告說,違反新規定將會受到紀律處分,最重可能被公司開除。

三星上個月進行一項關於內部使用 AI 工具的調查,有 65% 受訪者認為這類服務存在安全風險。備忘錄也提道,4 月初有三星工程師將內部程式碼上傳到 ChatGPT,因此洩露了機密資訊。

三星目前正在建立自家內部使用的 AI 工具,用於翻譯、總結文件重點以及軟體開發等用途,並且也在研究阻止公司機密資訊傳送到外部服務的方法。

當 ChatGPT 激起人們興趣的同時,也有越來越多人關注 AI 服務如何保護用戶隱私和安全。其實不只三星,包括摩根大通、美國銀行、花旗集團在內的華爾街公司先祭出禁用或限制使用範圍,並研擬更多措施以跟上先進 AI 技術的發展腳步。

(首圖來源:三星

延伸閱讀: