親耳聽到也不是真的 AI 複製人聲詐騙興起

【正見新聞網2023年04月18日】

近期 AI 應用發展風生水起,但讓有心人士有機可趁,現在詐騙型態日趨複雜,最新詐騙即是 AI 語音複製詐騙。

《9to5mac》報導,AI 語音複製技術只需 3 秒人聲即可製作逼真語音,這項技術如果與行之有年的來電顯示詐騙結合,就會形成更嚴重的詐騙問題,因聽起來就是認識或信任的人在呼救。

舉例假設有詐騙犯利用兩項技術打電話給你,聲稱綁架親人,要求你不得報警立刻匯款,又讓「親人」與你通話,但這「親人」其實是用 AI 語音複製親人聲音再來詐騙,緊張下大多數人都會相信親人真被綁架。

不過這詐騙真的無敵嗎?有四個方法可幫忙保住你的錢。
撥電話確認

假設接到這種詐騙電話,若想確認來電者是否偽造親人電話號碼,最快速就是掛斷打給親人確認,罪犯不太可能直接攔截你打電話。
問對方有困難度的問題

先確定這問題答案只有親人知道,千萬不要問在社群媒體或網路就找得到答案的問題。
不要接聽不明來源電話

美國 FCC 建議,不要接聽未知來電,應直接轉入語音信箱再聽;但現在很多詐騙來電都會偽裝成親人來電。
不要在網路公開個資

如果可以,永遠不要在社群媒體、網路公開電話號碼,也鼓勵親人不要在任何地方公開電話號碼。

電話詐騙已是相當普遍的問題,FCC 也提醒,如果接到這類來電,千萬不要透露任何個資。

但高階罪犯將來可能使用更厲害技術取得民眾信任,就是上述兩項技術加上 Deepfake,用視訊通話取得民眾信任。

但不管罪犯用哪些 AI 詐騙,接到這類電話(綁架、親人受傷)時,只要切記上述 4 個方法,就有較高機率可保住你的錢。

添加新評論