我的頻道

* 拖拉類別可自訂排序
恢復預設 確定
設定
快訊

梅西兩度神助攻 帶領邁阿密國際首奪MLS冠軍

中國戰機兩度雷達照射日本F-15 日方深夜緊急抗議

把AI當心理治療師? 專家示警風險

聽新聞
test
0:00 /0:00
專家提醒不可過度依賴AI來進行心理治療。(美聯社)
專家提醒不可過度依賴AI來進行心理治療。(美聯社)

據WebMD報導,印第安納波里斯獨立製片人羅素(Luke W. Russell)坦言,自己常在ChatGPT上傾訴創傷與焦慮,甚至感到「被理解」。羅素的例子反映了新趨勢:愈來愈多人把聊天機器人當心理支持工具。

根據美國心理學會(APA)與哈里斯民調,今年18至54歲成年人中,有逾半數願意與AI談心理健康;55歲以上比例也有四分之一。專家指出,美國心理健康人力嚴重不足,昂貴費用與保險不足,使得24小時可用的聊天機器人成為替代選擇。

目前市面上的ChatGPT、Claude、Gemini,或標榜心理輔助的Replika、Wysa等,都非建立在經過驗證的心理治療基礎上。APA專家萊特(C. Vaile Wright)強調,「目前沒有任何獲得認可的AI輔助心理治療,多數產品缺乏研究支持。」

雖然達特茅斯學院開發的「Therabot」在臨床試驗中顯示可減輕焦慮與憂鬱症狀,但專家認為研究仍早,不能等同於專業治療。

批評者警告,AI缺乏同理心且可能帶有偏見,對青少年、憂鬱症患者及有自殺傾向者尤其危險。甚至出現「ChatGPT 精神病」一詞,形容AI互動可能帶來的心理傷害。伊利諾州本月已立法禁止AI用於心理治療,內華達與猶他州也有類似規範。

此外,AI回覆可能基於偏差數據,導致少數族裔需求被忽視。一些聊天機器人甚至因商業動機而迎合用戶,可能強化有害想法;同時,互動內容也不受美國健康隱私法(HIPAA)保障。

心理學家憂心,與AI建立過度情感連結,可能取代真實人際互動,加劇孤獨感並削弱批判思考能力。南加大教授格拉奇(Jonathan Gratch)警告:「AI提供即時回饋,會讓人缺乏動力走出去與人交流。」

專家一致強調,AI或許未來能成為科學化輔助工具,甚至獲得保險給付,但目前不能取代專業心理治療。萊特提醒,用戶在使用時應保持警覺,「不要過度依賴,AI不是治療師。」

AI ChatGPT 保險

上一則

中秋佳節將近,送禮宜早準備鯉魚門推出中秋月餅及即開即食12頭紅燒金網鮑魚送禮佳選

下一則

重開新店排除加州 Bed Bath & Beyond:環境不佳

超人氣

更多 >