我的頻道

* 拖拉類別可自訂排序
恢復預設 確定
設定
快訊

黃仁勳繼時代雜誌後 再登金融時報年度風雲人物

FDA擬對新冠疫苗加註嚴重等級最高的「黑框警告」

史丹福最新研究:ChatGPT不能取代心理治療師

聽新聞
test
0:00 /0:00
ChatGPT網站上不建議用戶用它來取代專業心理治療師。 (取自官網https://chatgpt.com)
ChatGPT網站上不建議用戶用它來取代專業心理治療師。 (取自官網https://chatgpt.com)

OpenAI生產的人工智慧(AI)大語言模型ChatGPT在2022年底上市以來,得到愈來愈多用戶的青睞。但史丹福大學剛發表的一篇研究指出,在心理治療方面,ChatGPT目前不應該用來取代真人治療師。

SFGATE報導,至少已有數百萬人將人工智慧聊天機器人(artificial intelligence chatbots)融入日常生活,人們對其興趣的激增甚至超過了對其影響的研究。但現在學術界正在迎頭趕上,史丹福的一些研究人員對ChatGPT 的熱門用途之一潑了一大盆冷水。

史丹福電腦科學博士生摩爾(Jared Moore)及其幾位合著者的新研究「觸動了人們的神經」。研究認為,像ChatGPT這樣的聊天機器人不應該取代治療師,因為它們有表達恥辱感(stigma)、鼓勵妄想並在關鍵時刻做出不當反應的危險傾向。

報告的出現正值聊天機器人在心理治療等領域的應用日益正規化之際——YouGov去年的一項民意調查發現,超過一半的18至29歲人群願意用人工智慧工具取代人類治療師進行心理健康討論——而且大大小小的公司都在兜售人工智慧治療技術。

摩爾和其他作者強調,心理治療是高風險的領域。他們寫道,聊天機器人的「誤診或未能捕捉自殺意念」可能會對患者造成傷害。不幸的是,他們在數百萬人使用的各種市售心理治療機器人中發現了這種行為。

摩爾表示,他和該研究的另一位史丹福大學作者克萊曼 (Kevin Klyman)決定繼續進行這項研究,因為他們找不到任何論文能夠具體評估對於像ChatGPT這樣的大語言模型來說,「良好的治療」應該是什麼樣的。

團隊首先整理了數百頁的指導文件,從通用治療手冊到退伍軍人事務部的官方文件。接下來,他們列出了一系列特質:例如,治療師理想情況下應該具備同理心、避免恥辱感、在療程間佈置任務、阻止自殘以及與患者建立「聯盟」。

論文中寫道:「大語言模型會對患有妄想症、自殺意念、幻覺和強迫症的人做出危險或不恰當的言論。拒斥來訪者(Pushing back against a client)是心理治療的一個重要部分,但大語言模型的本意卻是要讓人順從(compliant)和諂媚(sycophantic)。」

ChatGPT 人工智慧 史丹福大學

上一則

幫助獄友…Theranos創辦人荷姆斯請求減刑兩年

下一則

Muni 票價將從 7 月 1 日起調整

超人氣

更多 >