網路監督組織警告:AI生成兒童遭性虐影像 可能瘋傳
網路監督組織「網路觀察基金會」(Internet Watch Foundation)在最新報告中警告,兒童遭性虐待的影像在網路到處散布,如果主管機關沒有對於人工智慧(artificial intelligence,AI)工具生成的深偽(deepfakes)電腦合成技術訂定管控規範,這種亂象未來恐將變得更加嚴重。
位於英國的「網路觀察基金會」呼籲各國政府及科技廠商盡快行動,否則執法機關調查人員很快就會被人工智慧生成的兒童性虐影像淹沒,潛在受害者人數則將暴增,調查人員接獲報案忙著拯救遭到性虐的孩童,到頭來卻可能白忙一場,因為當事人只是人工智慧工具生成的虛擬角色。
「網路觀察基金會」科技長賽克斯頓(Dan Sexton)指出:「我們說的不是它可能造成哪些傷害,因為傷害正在發生,問題必須馬上解決。」
韓國發生首起案例,一名男子利用人工智慧生成360張兒童遭到性虐的虛擬圖像,結果今年9月被釜山法院判處坐牢兩年半。
在某些實例中,兒童利用人工智慧彼此捉弄。根據警方調查,西班牙西南部一所學校有青少年使用手機應用程式,讓有穿衣服的同學在照片裡變成裸體。
報告指出,歹徒可能利用人工智慧生成影像誘拐、逼迫更多受害兒童。報告中也說,AI工具很難遭到定罪。
「網路觀察基金會」分析師發現,性虐加害者在網路上分享操作步驟,說明如何將家用電腦變成自動生成情色影像的工廠,影像內容則包括各年齡層的兒童。某些同好彼此交換影像,設法利用栩栩如生的人工智慧生成兒童性虐影像謀利。
FB留言