「媽媽救我!」30 秒錄音就能模擬人聲,你真的能識破 AI 詐騙嗎?

作者 | 發布日期 2023 年 09 月 11 日 8:00 | 分類 AI 人工智慧 , 資訊安全 line share follow us in feedly line share
「媽媽救我!」30 秒錄音就能模擬人聲,你真的能識破 AI 詐騙嗎?


從 ChatGPT 興起的人工智慧熱潮,讓許多人大大感受到 AI 工具的便利。然而水能載舟亦能覆舟,AI 技術發展日益成熟,利用 AI 詐騙也層出不窮,更以「深偽技術」(Deepfake)詐騙最猖獗。

彭博最近專題報導Deepfake犯罪潮,這種能複製臉的AI技術效果逼真,消費者根本無從分辨,最近這波AI爆炸式成長使Deepfake詐騙又更上層樓,AI詐騙全球造成巨大財務損失,更引起監管機構、執法部門與金融產業注意。

AI擬聲連爸媽都騙倒

澳洲聯邦銀行(Commonwealth Bank of Australia)詐欺管理主管羅伯茨(James Roberts)表示,他為數500人的團隊曾花好幾天時間監聽詐騙集團,並蒐集到利用Deepfake技術犯罪的第一手資料。

模擬受害人的親朋好友聲音勒索已不新奇。羅伯茨透露,現在Deepfake技術複製小孩的聲音惟妙惟肖,犯罪集團會透過AI複製小孩聲音,再打給父母討錢,這種詐騙成功機率不但相當高,且技術成本也低。

社群平台還不盛行年代,普通電話詐騙相當容易識破,可如今大家都活在社群軟體,只要用點心,不難「肉搜」到受害者的親朋好友與同事。詐騙集團還能從Facebook、IG等平台知道你住哪、上班地點,以及讀過哪間學校。

羅伯茨透露,只要詐騙集團從社群平台短影音或語音簡訊「下載」一段聲音,最短只要30秒,就可用AI語音合成工具「複製」某人聲音,甚至產生各種內容,讓受害家屬根本察覺不出來。彭博警告,這種稱為「社交工程陷阱」(social engineering scams)的詐騙手法受AI技術加持後更防不勝防。

這波犯罪潮不只衝擊個人也影響金融體系,澳洲與德國銀行業者皆向彭博坦言,現在詐騙集團規模就像企業,甚至會花數月只為計劃一場詐騙。

為了防範這波AI詐騙,澳洲聯邦銀行與德意志銀行(Deutsche Bank)紛紛部署新軟體與AI模型工具,監控客戶線上交易,如果出現不尋常金流或任何可疑情形,就會特別注意。羅伯茨分享一項資料,讓大眾了解銀行業者面臨的挑戰。他表示,現在澳洲聯邦銀行追蹤的潛在詐騙事件約8,500萬件,澳洲人口只有2,600萬。

美國聯邦貿易委員會主席卡恩(Lina Khan)6月還示警執法機構,稱AI技術會被不肖業者「升級」詐騙手段,呼籲執法人員提高警惕。據統計,2022年美國消費者遭詐騙損失金額逼近88億美元,與2021年相較高44%,今年全球含詐騙的網路犯罪,損失成本更達8兆美元。

這數字有多誇張?彭博比喻,這數字超過日本GDP,研究機構Cybersecurity Ventures數據,到2025年更達10.5兆美元,與十年前相比,足足成長逾兩倍多。

希恩(Chris Sheehan)加入澳洲國民銀行前,曾在警察部隊工作近30年,負責調查詐騙事件,他表示,面對層出不窮的AI犯罪事件,即便有解方,但永遠無法完全解決問題。

Deepfake詐騙怎麼防?善用三招破解

有些公司會用更高階技術檢測工具防範Deepfake詐騙,合成數據平台提供商Synthesis AI執行長兼創辦人Yashar Behzadi表示,越來越多使用3D合成數據,開發更複雜的臉部驗證模型。這些模型使用3D、多感測器和動態面部資料辨識檢測。

只是無論政府或公司技術有多好,詐騙集團偽造技術也會跟著提高,可謂「道高一尺,魔高一丈」。詐騙橫行的時代,科技發展超出我們認知,因此更要懂得如何靠「觀察」分辨Deepfake詐騙。

美國資安公司Pindrop建議,消費者應謹慎對待任何要求個人資訊的電話,無論是否為親朋好友或上司,只要涉及金融交易,就必須再三確認電話來源為真。只要電話聲音出現三種跡象,很可能就是AI偽造的聲音,建議再三確認,盡早察覺破綻避免被騙:

  1. 有長時間停頓和聲音失真跡象。
  2. 出乎意料的轉帳要求。
  3. 要求對方提供更多資料佐證消息虛實。

(譯者:陳宜伶;本文由《商業周刊》授權轉載;首圖來源:Pixabay

延伸閱讀: