LAION大型AI資料庫 發現3200張兒童性虐圖

史丹福大學監督組織「史丹福網路觀測站」(Stanford Internet Observatory)20日發布驚人報告,指它們在LAION人工智慧(AI)圖像生成器大型資料庫發現了3200多張疑似兒童性虐待圖像。該報告敦促各公司採取行動,修正其所建構技術中的有害缺陷。
史丹福網路觀測站與加拿大兒童保護中心(Canadian Centre for Child Protection)及其他反虐待慈善機構,合作識別出非法資料後,已提供執法部門原始照片連結。LAION則搶在報告公布前,向美聯社聲明表示,它已「暫時刪除該資料庫」。
LAION是非營利大型人工智慧開放網路(Large-scale Artificial Intelligence Open Network)縮寫,它的線上圖像及字幕索引,被用於培訓Stable Diffusion等知名AI圖像生成器。LAION聲明表示,它「對非法內容採取零容忍政策;出於謹慎考慮已刪除LAION資料集,以確保在重新發布內容前一切安全。」
史丹福網路觀測站表示,這3000多張兒童性虐待圖像雖只僅占LAION約58億張圖像索引的一小部分,卻可能影響AI工具產生有害輸出,並讓真實受害者進一步受虐。
這些圖像讓AI系統更易生出明確的假兒童圖像,還將社群媒體上的真實青少年照片轉為裸體圖像,已引起世界各地學校和執法部門警惕。
在此之前,反虐待研究人員曾以為,一些未經檢查的AI工具產生出的虐待兒童圖像,是透過成人色情內容和一般兒童照片結合而成。
LAION表示,它已開發出「嚴格過濾器」並正持續改進,以在重新發布資料庫之前檢測和刪除非法內容。史丹福網路觀測站報告承認,LAION開發人員曾嘗試過濾「未成年」露骨內容,若他們能更早諮詢兒童安全專家,或許會做得更好。
反兒童性虐待組織Thorn數據科學主管波特諾夫(Rebecca Portnoff)表示,研究顯示,AI生成圖像在施虐者中的流行程度仍小,但在持續增長。目前科技公司和兒童安全組織為追蹤記錄虐待兒童材料,會為相關影片和圖像分配獨特數位簽名;同樣的防範概念也可以應用在AI模型方面。
FB留言