我的頻道

* 拖拉類別可自訂排序
恢復預設 確定
設定
快訊

還有多少以色列人質存活?哈瑪斯發言人:沒人知道

可怕…佛州4公尺巨鱷生吞女遊民 警擊斃剖肚挖出肉塊 

語音新詐騙…只要3秒 AI就能「複製人聲」盜你密碼

詐騙集團只要3秒時間,就能透過AI複製真人聲音詐騙。(示意圖/ingimage)
詐騙集團只要3秒時間,就能透過AI複製真人聲音詐騙。(示意圖/ingimage)

AI 技術日新月異,雖然提升了工作效率,卻也成為有心人士用來詐騙 的工具。

據「太陽報」(The Sun)報導,AI風險評估公司Blackbird.AI共同創辦人哈利德(Wasim Khaled)表示,目前有詐騙集團利用AI技術,複製他人聲音進行「語音詐騙」,這種詐騙技巧稱之為「AI語音複製人」,通常被用來竊取使用者的銀行資訊、身份或密碼 。

哈立德說,「AI語音複製人」的聲音不只跟真人難以區別,政商名流等公共人物更容易陷入被複製的危機。因為公共人物的語音樣本較多,讓AI更能透過深度學習做出真假難辨的音檔。

不僅如此,由於AI技術發展神速,只要在網路上搜尋就能找到許多低成本甚至免費的供應商。防毒軟體McAfee 的研究人員也發現,詐騙集團只需要花3秒鐘,就有辦法複製真人的聲音,利用這種技巧打給家人朋友來騙人。

哈立德說表示,如果能夠使用AI檢測技術來偵測音檔,就可能避免這類的詐騙發生,但短期內應該無法開發出可靠的檢測技術。

要避免語音詐騙,在親朋好友打電話緊急要求匯款、給予物品或其他金援時,應進一步跟本人確認。除此之外,民眾也應避免在網路上分享個人資訊,以避免遭詐騙集團利用。

詐騙集團 AI 檢測

上一則

北京遇今年以來最嚴重沙塵暴 早晨猶如黃昏

下一則

伊州經濟動盪 11月7企業大裁員1854人

超人氣

更多 >