我的頻道

* 拖拉類別可自訂排序
恢復預設 確定
設定
快訊

核對照片、人臉掃描 好市多打擊借卡愈來愈嚴

賓州護士認罪連殺3人、19人險死 判關760年

可假冒人聲的AI系統廣泛測試中 OpenAI要了解它有多危險

OpenAI正在測試能假冒人聲的新AI系統,任何人只要上傳15秒鐘自己朗讀一段文字的語音檔,它就能用合成聲音替對方讀出任何一段文字,而且不限原來的語言,包括可轉化為中文。(美聯社)
OpenAI正在測試能假冒人聲的新AI系統,任何人只要上傳15秒鐘自己朗讀一段文字的語音檔,它就能用合成聲音替對方讀出任何一段文字,而且不限原來的語言,包括可轉化為中文。(美聯社)

人工智慧(AI)開發公司OpenAI說,它正在廣泛測試能夠假冒人聲的新AI系統,以便了解這種被稱為「聲音引擎」(Voice Engine)的系統之危險性,因為任何人只要上傳15秒鐘自己朗讀一段文字的語音檔,它就能用合成聲音替對方讀出任何一段文字,而且不限原來的語言,甚至可以轉化為中文。

也就是說,你用英語對「聲音引擎」唸一段文字,它可以用西班牙語、法語、華語或任何語言,以你的聲音「發言」。

這是OpenAI繼生成圖像、生成影片功能人工智慧系統後,又一「新猷」。該公司29日表示,有數家公司正在測試「聲音引擎」的功能。前兩者是透過AI替使用者繪製想要的圖像或製造一段影片,而且立刻就能交件,如今,AI還可替使用者以任何語言發聲。

數月前,民主黨總統準候選人拜登的聲音即遭人以AI冒用,撥打AI生成的自動語音電話,呼籲選民不要在今年1月的新罕布夏州初選投票。

造假資訊研究員擔心AI驅動的應用程式在關鍵選舉年遭大量濫用,因為語音複製工具愈來愈多,且費用低廉、使用簡單又很難追蹤。

認知到這些問題的OpenAI表示,「基於合成語音濫用的可能性」,將對更廣泛的發布採取謹慎態度且隨時掌握狀況。

如同圖像或影片生成器,聲音生成器也極可能被用在社交媒體上散播假訊息,不法分子可用來仿冒他人聲音,在網路上、電話中遂行詐騙或其他犯罪目的。

OpenAI最擔心的是,這套技術可以突破聲音認證的應用軟體,駭入他人的銀行帳戶等受聲控程式保護的網路及數位資產。該公司產品開發經理哈里斯(Jeff Harris)說,「這是很敏感的事,不能出錯,這點很重要。」

這家聲名大噪的新創公司正在研究以「數位浮水印」等方法,防範不法分子以「聲音引擎」為工具,偽造政治人物或名人的聲音做壞事。

OpenAI上月發布影像生成器「索拉」(Sora)時,也提出防範被濫用的措施,不過只展示,沒有公開發行。

谷歌、11實驗室(ElevenLabs)等科技廠商也發展出類似「聲音引擎」的生成技術,業者可藉此製作有聲書、網路聊天機器人,甚至創造廣播電台節目主持人。

哈里斯說,暫不公開發行「聲音引擎」,因為它很危險,尤其在選舉年。公司也不想馬上靠這套AI技術賺錢;不過他說,這套系統對於因為生病或意外事故而喪失聲音的人「特別有用」。

哈里斯指出,OpenAI幫助一名因腦癌損壞聲帶,不能說話的女性患者,利用她高中時留下的一小段錄音,重建說話功能。

AI OpenAI 人工智慧

上一則

中國無證客湧關島 非法居留華男駕車闖加州軍事基地

下一則

中國外交部:中國公民赴美遭無端盤查、偵訊 甚至禁入美國

延伸閱讀

超人氣

更多 >