AI盜臉「造黃謠」 還假裝明星直播賣貨

中國新聞組/整理

近年,AI技術逐漸更低的使用門檻和創作成本,給施害者甚至不法分子提供了便利,AI換臉詐騙、換明星臉直播賣貨、換臉和明星「接吻」等案例層出不窮。而在流量加持下,一批不法分子躲在網路後面藉AI盜臉「造黃謠」獲利,「收集一張照片就能複製一個人的人臉信息」,受害者卻困於自證難維權,對周遭世界的信任也一夕崩解。

新京報報導,一周前,林致突然收到近十名陌生人發來的微信好友請求,留言都是「小姐姐,交個朋友」。林致添加了其中一人,這名陌生人稱見過林致的一些「大尺度」照片,並發來幾張林致穿漢服的生活照。林致認出那是自己曾發在朋友圈裡的照片。隨後,對方又發來她從未見過的淫穢照片和視頻,那些赤身裸體的女性臉上,長著與自己相像的五官。

「我被AI盜臉了。」林致很快反應過來,她沒想到這種事會發生在自己身上。林致在聊天中了解到,對方是在國外社交軟件Telegram(下稱「電報」)淫穢聊天群中,看到有人發布她的照片和視頻並配上「蕩婦」、「可撩」等字眼,私聊發布者獲取了她的隱私信息。製圖者對她瞭如指掌,知道她的名字、年齡和家庭住址,甚至可能是熟人,了解越多,林致越感到恐懼。

某電報群內,普通女性日常生活的照片也成為AI盜臉的對象。(取材自新京報)

為了抓到製圖者,林致只能不停地搜索、查看各平台,還要面對上司和同事們的質疑,最終患上了抑鬱症。「妳沒有錯,錯的是造謠者。」在丈夫和摯友不斷鼓勵下,5月23日,林致決定去公安局報案。

還有些受害者因為種種原因,選擇了沉默。一位受害者被AI盜臉造黃謠後,有陌生人加了她好友,一直給她打電話,發用AI偽造的淫穢視頻。因為害怕,她不敢報警,隨後把陌生人拉黑,再不理睬。另一位受害者稱,自己發在社交媒體上的兩張自拍照,曾被人用AI脫衣後傳播,但電報等海外軟件上的造謠者很難被抓到,維權艱難。

●淫穢圖像 有償訂製 

報導指出,在流量加持下,一批不法分子趁機湧入,靠私人訂製、搬運和賣課等方式獲利。其中不乏擦邊出售淫穢內容的投機者們,在一些主流社交平台定期更新AI作品,並暗示網友,可有償製作淫穢圖像。

電報以「隱私」、「安全」著稱,由於服務器架設在境外,相關部門更難追溯到造謠者;「閱後即焚」的銷毀功能也讓警方難以獲取證據。在電報搜索欄中輸入含性暗示關鍵詞,顯示近10個超過5000名訂閱者的淫穢聊天群,內容多為製作、公開女性的淫穢圖像和隱私信息,並充斥著大量AI換臉、脫衣的淫穢影像。

一名「供應商」稱可以按需求訂製AI美女圖像,根據圖像畫質高低,每張價格從100元人民幣(約14美元)到180元不等,畫質高可清楚看到女性的隱私部位;有發布者直接提供軟件收費200美元到350美元,一年有效期,包教學;直接製作圖片30美元一張,視頻50美元一條,購買軟件可進入VIP專屬群享受更多影像資源。

一名「供應商」向民眾發來露點的AI合成圖像,並稱,「一切按照你的要求」。(取材自新京報)
不少AI合成淫穢圖像發布者的目的是侮辱女性。(取材自新京報)

江蘇法德東恒律師事務所高級合夥人律師藍天彬表示,在未經當事人同意情況下,不法分子利用AI技術製作、傳播淫穢圖片或視頻,已涉嫌侵犯當事人肖像權、名譽權和隱私權;若以牟利為目的且達到一定涉案數量或金額,則涉嫌製作、傳播淫穢物品牟利罪。

AI 隱私 微信

推薦文章

留言