親耳聽到也不是真的,AI 複製人聲詐騙興起

作者 | 發布日期 2023 年 04 月 18 日 11:01 | 分類 AI 人工智慧 , 資訊安全 line share follow us in feedly line share
親耳聽到也不是真的,AI 複製人聲詐騙興起


近期 AI 應用發展風生水起,但讓有心人士有機可趁,現在詐騙型態日趨複雜,最新詐騙即是 AI 語音複製詐騙。

《9to5mac》報導,AI 語音複製技術只需 3 秒人聲即可製作逼真語音,這項技術如果與行之有年的來電顯示詐騙結合,就會形成更嚴重的詐騙問題,因聽起來就是認識或信任的人在呼救。

舉例假設有詐騙犯利用兩項技術打電話給你,聲稱綁架親人,要求你不得報警立刻匯款,又讓「親人」與你通話,但這「親人」其實是用 AI 語音複製親人聲音再來詐騙,緊張下大多數人都會相信親人真被綁架。

不過這詐騙真的無敵嗎?有四個方法可幫忙保住你的錢。

撥電話確認

假設接到這種詐騙電話,若想確認來電者是否偽造親人電話號碼,最快速就是掛斷打給親人確認,罪犯不太可能直接攔截你打電話。

問對方有困難度的問題

先確定這問題答案只有親人知道,千萬不要問在社群媒體或網路就找得到答案的問題。

不要接聽不明來源電話

美國 FCC 建議,不要接聽未知來電,應直接轉入語音信箱再聽;但現在很多詐騙來電都會偽裝成親人來電。

不要在網路公開個資

如果可以,永遠不要在社群媒體、網路公開電話號碼,也鼓勵親人不要在任何地方公開電話號碼。

電話詐騙已是相當普遍的問題,FCC 也提醒,如果接到這類來電,千萬不要透露任何個資。

但高階罪犯將來可能使用更厲害技術取得民眾信任,就是上述兩項技術加上 Deepfake,用視訊通話取得民眾信任。

但不管罪犯用哪些 AI 詐騙,接到這類電話(綁架、親人受傷)時,只要切記上述 4 個方法,就有較高機率可保住你的錢。

(首圖來源:Pixabay