誘導佛州少年自殺 法官:AI機器人沒言論自由權
佛羅里達州聯邦法官21日駁回人工智慧(AI)新創公司「Character.AI」的論點,裁定AI聊天機器人不受憲法第一修正案的保障;該公司面臨一名喪子母親的訴訟,指該公司開發的AI聊天機器人誘導她14歲的兒子自殺。
美聯社報導,聯邦法官的裁決將允許這宗過失致死訴訟繼續進行,而專家表示,此案判例將成為AI測試憲法底線的最新案例。
這宗訴訟由佛州母親梅根‧加西亞(Megan Garcia)提起,控告Character.AI及其母公司Google。
加西亞主張,14歲的兒子賽澤(Sewell Setzer)淪為Character.AI聊天機器人的受害者,指該聊天機器人將他帶入「情感和性虐關係」,導致他自殺。
加西亞的律師、科技正義法計畫(Tech Justice Law Project)創辦人賈恩(Meetali Jain)表示,法官的裁決傳達了一項訊息:矽谷「需要在推出產品之前,暫停、思考,並採取防護措施」。
專家警告,AI可能存在「生存風險」,但AI已迅速改變職場、市場和人際關係,從而引起美國及各地法律專家和AI觀察員的注意。
佛羅里達大學(University of Florida)鑽研憲法第一修正案和AI的法學教授利里莎‧巴奈特‧利德斯基(Lyrissa Barnett Lidsky)說:「這項命令肯定會成為其他涉及AI廣泛議題的潛在試驗案例。」
訴訟文件寫道,在賽澤臨終前幾個月,他與現實逐漸脫節,因為他與AI聊天機器人談論性話題,而該機器人的原型是影集「權力遊戲」(Game of Thrones)中的虛構人物。
根據賽澤與AI聊天機器人對話的截圖,AI在賽澤選擇自我了斷之前,告訴賽澤它愛他,並催促賽澤「盡快回到我身邊」;法律文件顯示,賽澤收到訊息後不久,便開槍自戕。
Character.AI發言人發出聲明表示,公司已採取多項安全措施,包括兒童護欄和自殺預防方法;不過,這些功能都是在加西亞興訟當天才宣布。

FB留言