把AI當心理治療師? 專家示警風險
據WebMD報導,印第安納波里斯獨立製片人羅素(Luke W. Russell)坦言,自己常在ChatGPT上傾訴創傷與焦慮,甚至感到「被理解」。羅素的例子反映了新趨勢:愈來愈多人把聊天機器人當心理支持工具。
根據美國心理學會(APA)與哈里斯民調,今年18至54歲成年人中,有逾半數願意與AI談心理健康;55歲以上比例也有四分之一。專家指出,美國心理健康人力嚴重不足,昂貴費用與保險不足,使得24小時可用的聊天機器人成為替代選擇。
目前市面上的ChatGPT、Claude、Gemini,或標榜心理輔助的Replika、Wysa等,都非建立在經過驗證的心理治療基礎上。APA專家萊特(C. Vaile Wright)強調,「目前沒有任何獲得認可的AI輔助心理治療,多數產品缺乏研究支持。」
雖然達特茅斯學院開發的「Therabot」在臨床試驗中顯示可減輕焦慮與憂鬱症狀,但專家認為研究仍早,不能等同於專業治療。
批評者警告,AI缺乏同理心且可能帶有偏見,對青少年、憂鬱症患者及有自殺傾向者尤其危險。甚至出現「ChatGPT 精神病」一詞,形容AI互動可能帶來的心理傷害。伊利諾州本月已立法禁止AI用於心理治療,內華達與猶他州也有類似規範。
此外,AI回覆可能基於偏差數據,導致少數族裔需求被忽視。一些聊天機器人甚至因商業動機而迎合用戶,可能強化有害想法;同時,互動內容也不受美國健康隱私法(HIPAA)保障。
心理學家憂心,與AI建立過度情感連結,可能取代真實人際互動,加劇孤獨感並削弱批判思考能力。南加大教授格拉奇(Jonathan Gratch)警告:「AI提供即時回饋,會讓人缺乏動力走出去與人交流。」
專家一致強調,AI或許未來能成為科學化輔助工具,甚至獲得保險給付,但目前不能取代專業心理治療。萊特提醒,用戶在使用時應保持警覺,「不要過度依賴,AI不是治療師。」

FB留言