夢露教英文、富蘭克林製蠟燭…深偽影片擅自消費已故名人
OpenAI 的新文字轉影片應用程式 Sora 原本被設計成一個社交性 AI 遊樂場,讓使用者能夠創造出自己、朋友或名人的創意 AI 影片,並在彼此的作品基礎上延伸靈感。
這款應用的社交結構設計——允許使用者調整他人使用自己肖像的授權範圍——在最近推出時,似乎已回應了關於 AI 生成影片最迫切的「同意」問題。
然而,隨著 Sora 登上 iOS App Store 熱門榜首、下載量突破一百萬次,專家們開始憂慮它可能引發的問題:這款應用或將讓互聯網被大量歷史錯誤資訊與已故歷史人物的深偽影片所淹沒——這些人無法同意、也無法拒絕被納入 Sora 的 AI 模型中。
在不到一分鐘的時間內,這款應用就能生成已故名人的短片,描繪他們從未經歷過的場景。
例如富蘭克林(Aretha Franklin)在製作大豆蠟燭、嘉莉費雪(Carrie Fisher)玩平衡繩、或瑪麗蓮夢露(Marilyn Monroe)教越南小孩學英文。
對於像史崔山(Adam Streisand)這樣的律師而言,這是場噩夢。他曾代表多位名人遺產,包括夢露的一段時間。他說,「AI 的挑戰不在於法律本身,」史崔山在電郵中指出,加州法院早已保護名人免於遭受「類似 AI 再製」的肖像或聲音濫用。
Sora 上的影片風格從荒誕、可愛到令人困惑皆有。除了名人之外,平台上也出現大量令人信以為真的歷史場景深偽影片。能夠生成這類未經同意的已故人物影片,已經引起多位家屬的不滿。
馬丁路德金恩(Martin Luther King Jr.)的女兒 Bernice King 也在 X 平台上表示:「我同意關於我父親的說法。請停止。」金恩著名的「我有一個夢」演講不斷在該應用上被修改與混音。
OpenAI 對 Sora 政策的快速調整讓一些評論者認為,該公司採取「快速行動、邊做邊改」的策略是刻意為之,藉此向使用者與智慧財產權人展示這款應用的威力與影響範圍。
萊斯大學媒體研究講師 Liam Mayes 認為,越來越逼真的深偽影片將對社會造成兩大影響。首先,他說:「我們將看到許多人受騙、強勢企業施壓、惡意人士破壞民主進程。」同時,若人們無法分辨真實與偽造影片,對媒體的信任也可能瓦解。
Mark Roesler 是 CMG Worldwide 的創辦人與主席,該公司管理超過三千位已故娛樂、運動、歷史與音樂名人的智慧財產與授權權益,包括詹姆斯狄恩(James Dean)、尼爾阿姆斯壯(Neil Armstrong)與愛因斯坦。他表示,Sora 只是最新一項引發「名人遺產保護」爭議的科技。
為了讓使用者與平台能區分真實與 Sora 生成的影片,OpenAI 已實施多層偵測機制。每支影片都包含隱形訊號、可見浮水印與中繼資料(metadata),用以標示內容為 AI 生成。但哈佛大學電腦科學家 Sid Srinivasan 指出,其中幾個層級很容易被移除。
關於深偽技術的擔憂早已多次登上新聞。不到一年前,許多人預測 2024 年選舉將被深偽影片淹沒,但事實證明並非如此。然而直到今年以前,AI 生成的影像、音訊與影片仍多半可與真實內容區分開來。許多評論者指出,2025 年推出的模型特別逼真,威脅了公眾辨識真實人類創作與 AI 生成內容的能力。

FB留言