我的頻道

* 拖拉類別可自訂排序
恢復預設 確定
設定
快訊

南韓男星趙震雄竟是性侵犯?為刪除黑歷史「身分個資全是假」

這10個夜間習慣 可能在悄悄破壞你的睡眠

用戶要自己負責 不應完全究責AI

聽新聞
test
0:00 /0:00
許多人會跟AI聊天機器人分享心事。(路透)
許多人會跟AI聊天機器人分享心事。(路透)

在網路世代,如何負責任的使用虛擬產品,已成嚴重的問題;自12月10日起,澳大利亞社交媒體將被要求採取「合理措施」,確保澳洲16歲以下人士無法在其平台上開設帳戶,並必須停用或移除現有的未成年帳戶,禁令的目的是在減少兒童在社交媒體上面臨的「壓力和風險」,歐洲議會目前也有類似的提案,但對會員國沒有強制力。

對於每日使用生成式AI的數億用戶來說,使用AI的頻率可能過度,有時甚至因此而加劇妄想和危險行為。近期在美國就發生好幾樁針對OpenAI產品ChatGPT自殺的訴訟,使人工智慧(AI)聊天機器人成為關注焦點。

AI聊天機器人被設計成可以隨時回應、全天待命而且語言流暢。對於那些自覺不被理解或孤立的患者來說,這些特性可能極具吸引力,這種長期與聊天機器人互動而產生情感依賴和幻想的現象,被心理學界稱為「AI妄想」。

但也正是聊天機器人這種吸引人的特質帶來了風險:它們模仿同理心卻缺乏判斷力,在缺乏背景資訊的情況下強化用戶的片面觀點,並且不會提醒家長、治療師或緊急服務部門。它們就像是不負責任的閨密知己。

近日就發生了多起因使用AI走火入魔而自殺的案例,可是成為被告的OpenAI卻拒絕為用戶的自殺負責,強調用戶先違反了聊天機器人「禁止用來自殺或自殘」的使用規則,「錯誤使用」才是真正的問題。

科技專家也指出,自殺需要透過器具才能執行。相較於存在電腦和手機中的AI聊天機器人,一把放在未上鎖櫥櫃內的槍支反而更危險,聊天機器人可被問責的部分,則在於降低患者的抑制力、美化自殺行為,或提供操作細節。

其實在網際網路問世之初,不少論壇就出現自殺討論小組,但傳統的搜尋引擎並不扮演傾聽聊天者的角色,不像AI聊天機器人如同一位值得信賴的朋友,詢問你一天過得如何,並提供情感上的安慰,並因應用戶詢問有關自殺的資料。

隨著訴訟案件不斷增加,加強監管呼聲日益高漲。但將AI作為個別心理健康問題的代罪羔羊,反而會讓人忽略了影響心理健康的其他因素。「AI妄想」固然令人不安,但並不能代表大多數人使用AI的方式。

再者,很難衡量或證明AI對某些用戶的影響程度。許多受到AI影響的人,原本可能就已經患有妄想或偏執等心理問題。加上AI聊天機器人的回應往往是迎合用戶的觀點或對話風格,才會強化個人的妄想信念。

由於缺乏針對這些現象的實證研究,很難預測哪些人更容易受到影響。事實上,真正了解這類互動頻率的只有AI公司,但它們並沒有公開相關數據。唯一可供參考的資料是OpenAI針對ChatGPT使用情況發布的研究報告。報告發現,引發精神病、躁狂或自殺念頭等安全隱患的心理健康對話「極為罕見」,每周活躍用戶中只有0.15%的對話顯示出自殘或對AI的情感依賴。但以ChatGPT每周8億活躍用戶套入比例,有這些不正常的對話的用戶仍然超過百萬。

面對來自各方的壓力, ChatGPT於9月針對青少年帳戶推出全新家長監護功能,如果識別出青少年可能存在自殘傾向,家長將收到來自受監護帳戶的通知。加州在10月通過一項AI安全法令,要求聊天機器人業者防阻提供自殺內容,並告知未成年人他們其實是正在與機器聊天,同時引導他們使用危機熱線。Character AI更直接宣布自今年11月25日起禁止未成年人使用其AI平台聊天功能。

AI聊天機器人科技是當前AI熱潮中的新興事物,人們對其了解有限,甚至對這項技術頗有微詞,但也有人對其表示讚賞,認為它有助於提升生活品質,因此,單就少數個案制訂大幅限縮AI發展政策的依據並不恰當,少數人的悲劇故事不應影響大多數用戶與AI互動的方式。

AI ChatGPT 心理健康

上一則

制度不全「斷食善終」何其無奈

下一則

打造軍備之外的台灣之盾

超人氣

更多 >