我的頻道

* 拖拉類別可自訂排序
恢復預設 確定
設定
快訊

布林肯抵上海首日 夜遊豫園大啖南翔小籠包、看CBA

美國拍板「不賣就禁」 TikTok執行長放話:我們哪也不去

我撞死人需要錢…AI「擬真兒子聲」騙走老夫妻2萬元

隨著人工智慧(AI)技術的提升,有心人士也開始透過該技術進行犯罪,捏造出接近真人的聲音進行詐騙。(路透)
隨著人工智慧(AI)技術的提升,有心人士也開始透過該技術進行犯罪,捏造出接近真人的聲音進行詐騙。(路透)

近年來AI人工智慧高速發展,雖然為生活帶來便利,但也造成許多隱憂。加拿大一對老夫妻就接到AI冒充兒子聲音的電話後,被詐騙了2萬1000美元。根據聯邦貿易委員會(FTC)的數據顯示,相關詐騙案件在2022年已經來到240萬件,整體損失的金額也來到了88億美元。

AI人工智慧在近期成為熱門話題,但是隨著相關科技發展,許多「AI詐騙事件」開始發生。華盛頓郵報日前報導,加拿大一對夫婦接到一通電話,聲稱是他們的兒子,並告訴他們自己因為駕車撞死一名外交官而入獄,因此需要付2萬1000美元的法律相關費用。

老夫妻在聽這通電話時,因為聲音實在太像兒子,所以幾乎完全相信了。老夫妻隨後開始籌錢並透過虛擬貨幣付款給詐騙集團,事後回想起來時,老夫妻也坦承當時「假兒子」的談話內容有些奇怪,但已經於事無補,遭詐騙的金錢也已無法尋回。

然而AI是如何找到老夫妻兒子的聲音?有可能是透過他在YouTube上傳的一部關於雪地摩托車的影片,以擷取音軌等方式進行合成與偽造,才讓老夫妻誤信而上鉤。

「這太可怕了,」柏克萊加大教授法里德(Hany Farid)說,「這將是一場完美風暴…具有製造混亂所需的所有元素。」

法里德說,AI語音生成軟體可以分析是什麼讓一個人的聲音與眾不同——包括年齡、性別和口音——並從龐大的聲音數據庫中,找到相似的聲音並預測模式;然後它可以重新創造一個人聲音的音調、音色和個人聲音,以創造出相似的整體效果。

法里德說,AI只需要從YouTube、Podcast、商業廣告、TikTok、Instagram或 Facebook影片等地方獲取一小段音頻樣本就好。

「兩年前,甚至一年前,你需要大量的音頻來仿製一個人的聲音,」法里德說。「現在只要你的聲音持續了30秒,人們就可以仿製你的聲音。」

成立於2022年的AI語音合成初創公司ElevenLabs等公司,透過文本轉語音工具,將簡短的人聲取樣轉換生成為合成語音。該網站稱,ElevenLabs軟體可以免費使用,用戶也能以每月5到330美元的費用,生成更多的音頻。

該工具曾被用來複製名人的聲音,說出他們事實上從未說過的話,例如艾瑪華森被偽造背誦出希特勒《我的奮鬥》中的段落。

據聯邦貿易委員會報告,這些冒名的詐騙在2022年通報數量已經來到240萬件,雖然低於2021年的數字,但是損失的整體金額卻更高,共遭詐騙損失88億美元,新型態的詐騙手法層出不窮,民眾仍需多加提防。

ElevenLabs在推特上表示,他們正在採取保護措施以阻止濫用,包括禁止免費用戶創建自定義聲音和啟動檢測AI生成音頻的工具。

詐騙集團 AI 人工智慧

上一則

北京遇今年以來最嚴重沙塵暴 早晨猶如黃昏

下一則

買大買小?挑選家具 小心買來變成「雜物堆」

超人氣

更多 >