出於安全考量,三星(Samsung)禁止員工使用近來備受關注的生成式 AI(Generative AI)工具,像是 ChatGPT、Bing AI 或者 Google Bard 等。
《彭博社》週一取得一份三星的內部備忘錄指出,公司擔心資料傳輸到時下流行的 AI 平台,會儲存在外部伺服器,難以收回和刪除,甚至會有洩露給他人的疑慮。
「總部正在審查安全措施,創造一個安全的環境,以使用生成式 AI 來提高員工的生產力和效率」,備忘錄寫道,在準備好相關措施之前,三星將會暫時限制生成式 AI 的使用。
三星的新規定禁止員工在公司提供的電腦、平板、手機以及內部網路使用生成式 AI 系統,然而新政策不會影響銷售給消費者的產品,包括三星品牌的 Android 手機、Windows 筆電。
員工在個人裝置使用 ChatGPT 或其他 AI 工具時,三星也要求不要提交任何公司智慧財產或個人隱私的內容,並警告說,違反新規定將會受到紀律處分,最重可能被公司開除。
三星上個月進行一項關於內部使用 AI 工具的調查,有 65% 受訪者認為這類服務存在安全風險。備忘錄也提道,4 月初有三星工程師將內部程式碼上傳到 ChatGPT,因此洩露了機密資訊。
三星目前正在建立自家內部使用的 AI 工具,用於翻譯、總結文件重點以及軟體開發等用途,並且也在研究阻止公司機密資訊傳送到外部服務的方法。
當 ChatGPT 激起人們興趣的同時,也有越來越多人關注 AI 服務如何保護用戶隱私和安全。其實不只三星,包括摩根大通、美國銀行、花旗集團在內的華爾街公司先祭出禁用或限制使用範圍,並研擬更多措施以跟上先進 AI 技術的發展腳步。
(首圖來源:三星)