馬杜洛落網的AI生成影像氾濫 凸顯AI技術對突發新聞的影響
委內瑞拉遭罷黜總統馬杜洛(Nicolás Maduro)3日遭美軍逮捕後,關於他狼狽落網模樣的深偽技術(deepfake)在網路上迅速傳播,凸顯人工智慧(AI)技術與突發新聞在事件發生前期可能引發的混亂。
「紐約時報」報導,馬杜洛3日遭美軍夜襲逮捕的消息曝光數小時之後,社群媒體充斥大量影像,顯示馬杜洛被上銬、由聯邦緝毒局(DEA)押解,或在軍機上遭士兵包圍。
不過,這些影像全都是假的,且高機率由AI工具產製。
專家指出,這是重大歷史事件仍在快速發展之際,AI影像隨即被用以描繪著名人物的少數案例之一。
智庫「美國數位民主研究協會」(Digital Democracy Institute of the Americas)執行長布拉加(Roberta Braga)表示:「這是我第一次親眼目睹,針對理應真實發生時刻,卻湧現如此大量的AI生成影像。」
紐時指出,多數主流AI影像生成工具均設有規範,禁止產製欺騙或誤導性的內容,且有數款工具明文禁止製作馬杜洛這類公眾人物的假影像。
目前仍難斷定哪些工具生成馬杜洛落網時,最廣泛流傳的假圖像,但紐時5日測試發現,許多主流的AI免費工具可在數秒內生成類似影像。
報導指出,AI生成的新聞時事假影像,可能在事件發生之初,混淆視聽並誤導大眾。
委內瑞拉首都卡拉卡斯經營事實查核機構的詹夫雷迪‧古鐵雷斯(Jeanfreddy Gutiérrez)表示,他在官方宣布馬杜洛被捕當天就注意到假影像擴散的現象,部分拉丁美洲的新聞媒體甚至刊登了AI生成的假圖,之後才悄悄換成川普總統分享的真實照片。
古鐵雷斯本周發布的查核報告,辨識出多張馬杜洛的深偽影像,其中一張清楚標明出自Google的AI工具Gemini。

FB留言