把生活照變裸照 3少女告馬斯克的xAI
田納西州三名少女本周控告馬斯克(Elon Musk)旗下人工智慧公司xAI的圖像生成工具,被用來將她們的生活照竄改為露骨裸照。
這三名高中生採用化名,在xAI總部所在地加州提告,尋求集體訴訟,想代表數千名和他們一樣的受害者。
訴訟稱,化名珍·多伊1號(Jane Doe 1)的受害者去年12月收到匿名訊息,聲稱有人在社群媒體散布她的色情照片,至少五個檔案(一影片、四圖片)呈現她的真實面容和身體,背景是她熟悉的場景,都被竄改為露骨性愛姿勢。
提告高中生因檔案附有真實姓名和學校名稱而擔心害怕。
珍·多伊1號稱自己飽受焦慮、憂鬱和壓力之苦,進食和睡眠都困難、反覆做噩夢;另一原告簡·多伊2號自我隔離,不敢去學校、害怕參加畢業典禮;簡·多伊3號持續感到恐懼和焦慮,擔心有人看到生成圖像並認出她的臉。
散布這些色情圖像的人認識多伊,使用xA聊天機器人Grok的I圖像生成功能,將她的真實照片竄改為性虐待圖像,其中一張照片取自返校日合影,另一張來自高中畢業紀念冊。
散布者還製作了至少18名其他女孩的露骨圖像。去年12月下旬,警方逮捕該嫌犯並沒收其手機,發現他已將圖片上傳到若干平台,並以圖換圖、換取其他未成年人色情圖片。
xAI以外的其他人工智慧業者,明文禁止用圖像生成器生成色情內容;馬斯克卻將同業的禁令視同商機,大力宣傳Grok能夠產生勁爆內容。
訴訟稱,xAI明知Grok能夠生成為成年人露骨圖片,仍發布上市。散布原告照片的人使用獲xAI技術授權的應用程式、或以其他方式購買Grok使用權。
xAI尚未針對本案出面置評,但1月14日曾針對此爭議話題在社群媒體發文稱,該公司始終致力將X平台打造成對所有人都安全的平台,對任何形式的兒童性剝削、未經同意的裸露,以及不受歡迎的性內容採取零容忍態度,並聲稱將採取行動刪除兒童性虐待素材和非自願裸露等高度違規內容,必要時向執法部門舉報。
