AI 語音複製造成安全隱憂,企業防護不足易引發消費者風險

作者 | 發布日期 2025 年 03 月 13 日 8:30 | 分類 AI 人工智慧 , 數位內容 , 資訊安全 line share Linkedin share follow us in feedly line share
Loading...
AI 語音複製造成安全隱憂,企業防護不足易引發消費者風險

人工智慧飛速發展,AI 語音複製從實驗室進入民間商業應用。但最新研究顯示,多數 AI 語音複製服務公司防止濫用方案嚴重不足,讓消費者面臨前所未有假冒身分威脅。

《消費者報告》(Consumer Reports)評估六家有 AI 語音複製軟體公司:Descript、ElevenLabs、Lovo、PlayHT、Resemble AI 和 Speechify。四家公司 ElevenLabs、Speechify、PlayHT 和 Lovo 防止濫用都缺乏有效措施,只要求用戶聲明擁有複製相關聲音的合法權利,或類似的自我聲明。

申請帳號門檻同樣令人擔憂。Speechify、Lovo、PlayHT 和 Descript 只要求用戶的姓名和電子信箱就能創建帳號,幾乎沒有任何身分驗證。寬鬆審查機制使詐騙者能輕鬆取得語音複製工具。

更嚴重的是,某些公司甚至將軟體明確宣傳可用於欺騙。PlayHT 網誌將「惡作劇」列為 AI 語音工具使用場景之一,Speechify 建議可打惡作劇電話,並稱「沒有比裝成別人更好的方法來整朋友」,這種說法就是鼓勵用戶騙人。

而大型 AI 供應商對語音複製採較謹慎態度。微軟不公開發表 VALL-E 2,理由是擔心潛在濫用風險,如詐騙語音辨識或冒充特定人士。OpenAI 也限制語音引擎存取權限,兩邊差異反映業界對科技責任的不同理解和態度。

冒充詐騙對企業也有威脅

冒充詐騙已對社會和企業造成不容忽視的問題。美國聯邦貿易委員會 2023 年報告,當年有超過 85 萬起冒充詐騙案例,約 20% 導致經濟損失,總計高達 27 億美元。雖然用 AI 語音複製軟體比例不明,但技術濫用報告越來越普遍。

對企業而言,這現象有多方啟示和挑戰。企業需認識,AI 語音技術雖然有很多合法用途,但雙面性使企業需採非常負責任態度,尤其金融服務、客服和品牌溝通等,企業必須建立更嚴格身分驗證機制,以防範語音複製的詐騙。

企業還應考慮如何保護高層和品牌代言人的聲音資產。語音複製越普及,品牌聲音也成為需保護的知識產權。企業可以法律聲明、聲音註冊和監控系統等,減少聲音盜用風險,並發現冒充行為時迅速採取行動。

AI 服務科技公司,建立完善安全防護機制不僅是社會責任,也是贏得用戶信任和避免監管風險的必要措施,如更嚴格身分驗證程序、聲音使用權確認機制、濫用監控系統,以及明確使用條款和道德準則。可能措施包括要求提供聲音樣本所有者書面同意、對產生語音內容加入數位浮水印,以及明確禁止詐騙用途。

對商業用戶,了解並正確評估 AI 語音複製風險與收益至關重要。採用這類技術時,企業應優先考慮有完善安全措施的服務商,並建立員工使用指南,確保技術應用符合道德標準和法律要求。企業也需教育員工辨識語音詐騙,特別涉及財務授權或敏感資訊存取。

規範值得注意

展望未來,AI 語音複製安全問題會持續受關注,並可能促使更嚴格監管出現。美國聯邦貿易委員會已確定禁止用 AI 冒充政府和企業等規則,並提議擴大禁令範圍,禁止任何冒充。儘管現在政治環境聯邦層級監管可能面臨阻力,但州級監管可能會更活躍。

《消費者報告》政策分析師 Grace Gedye 指出,許多有抱負的立法者希望解決 AI 問題,各州總檢察長也有興趣保護選民免受新興技術傷害。即使聯邦層級消費者保護面臨挑戰,詐騙和冒充問題有望成為超越黨派分歧的議題。

企業主動採取負責態度,而非等待監管法規推出,是明智之舉。不僅有助塑造正面形象,也能贏得消費者信任。消費者數位安全意識提高,提供安全可靠服務的企業就會更有競爭優勢。

我們也會看到更多解決方案出現,如語音驗證系統、詐騙檢測工具和數位認證機制,以應付假語音挑戰。這些工具將成為企業數位安全基礎設施的重要部分,特別是需語音授權時。對企業不僅是技術問題,也是職業倫理和風險管理問題。

(本文由 Unwire Pro 授權轉載;首圖來源:Pixabay

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》