我的頻道

* 拖拉類別可自訂排序
恢復預設 確定
設定
快訊

TikTok母公司「字節跳動」爆貪腐 61名員工遭辭退

美3女做醫美「吸血鬼美容」 因針頭染HIV愛滋病毒

AI詐騙...女兒來電哭喊救命 英女一查是仿造聲音

珍妮佛接到女兒打來求救,沒想到竟是AI模仿的詐騙電話。示意圖,非新聞當事者。(取材自pexels.com@Engin Akyurt)
珍妮佛接到女兒打來求救,沒想到竟是AI模仿的詐騙電話。示意圖,非新聞當事者。(取材自pexels.com@Engin Akyurt)

英國一名女子分享自己遇上詐騙集團的過程,女子接到電話聽見女兒尖叫哭嚎的聲音,讓她驚慌失措。女子後來跟女兒連絡以後才發現,那通電話是AI模仿女兒的聲音,決定分享自身經驗提醒其他民眾別受騙。

據《太陽報》(The Sun)報導,接到詐騙電話的是4寶媽珍妮佛(Jennifer DeStefano)。電話中15歲的女兒布莉安娜(Briana)哭喊說自己被壞人抓了,尖叫著要媽媽救她,讓珍妮佛嚇壞了。珍妮佛之後跟布莉安娜本人確認,這才知道電話中的聲音根本不是女兒本人,而是詐騙集團用AI仿造出來的聲音。

近期網路安全公司McAfee一份研究指出,有將近四分之一的英國人表示,自己或周遭的人曾被AI詐騙,這當中有78%的人因此造成金錢損失。這份研究也發現,AI技術只需要短短3秒的音檔,就能複製一個人的聲音,也就是說我們分享到社群媒體上的各種音檔影片,都可能成為被模仿的元素。

芬蘭防毒軟體公司F-Secure的情報負責人坎卡拉(Laura Kankaala)表示,由於AI技術越來越發達,不論是音檔或照片,都有可能不是真實的,民眾千萬別輕易匯款或提供任何銀行資訊。她也建議,可以跟家人設定好一個彼此間才知道的問題或安全詞,藉此確認電話那端的真實身分。

上一則

長大才懂的美味 茄子、皮蛋、苦瓜都入列

下一則

蘋果新款iPad傳5月初發布 史上最長的無新機時期即將結束

超人氣

更多 >