研究:ChatGPT教青少年喝醉、吸毒、寫自殺信…
一項最新研究發現,聊天機器人ChatGPT會指示13歲未成年人如何喝醉和吸毒,指導他們如何隱瞞飲食失調,甚至在要求下,寫出一封令人心碎的自殺信給他們的父母。
美聯社密切觀察由研究人員所扮演的青少年與ChatGPT之間超過三小時的互動後發現,這個人工智慧程式在通常的情況下,會針對危險活動發出警告,但卻又會隨之提供令人震驚的詳細且個人化的藥物使用、限制卡路里飲食或自殘計畫。
「對抗網路仇恨中心」(Center for Countering Digital Hate)的研究人員,再一次大規模的重複他們的詢問,並將ChatGPT給出的1200則回覆,過半數歸類為「危險」。
「我們想測試一下保護機制,」該組織執行長阿邁德(Imran Ahmed)指出,「我的第一個反應是,『天啊,它完全沒有保護機制』,這些機制根本沒用,根本沒多少機制,就算有,頂多就只能算是一塊遮羞布而已。」
ChatGPT製造商OpenAI在5日看過報告後表示,正在繼續改進該聊天機器人,如何「識別敏感情況並做出適當反應。」
該公司在一份聲明中表示:「與ChatGPT的一些對話,可能一開始是無害或探索性的,但可能會隨之轉向更敏感的領域。」
OpenAI並未直接針對調查報告結果或ChatGPT會如何影響青少年做出回應,但表示會專注於利用「能更好偵測到精神或情緒困擾跡象」的工具來「正確處理此類情況」,改善聊天機器人的行為。
這項於6日出爐的報告,發布時機正值愈來愈多成人和兒童開始使用AI聊天機器人,來取得資訊、靈感和陪伴。
根據摩根大通(JPMorgan Chase)7月報告,約有8億人正在使用ChatGPT,約占全球人口的10%。
阿邁德指出:「這項技術有大幅提升生產力和人類認知的潛力,但同時,也在推動更具有破壞性和惡意的想法。」
此一聊天機器人也經常分享一些有用的信息,例如危機熱線(crisis hotline)等;OpenAI表示,ChatGPT是經過訓練,在人們在表達自殘想法時,鼓勵他們聯繫心理健康專家或值得信賴的親人。
但是當ChatGPT拒絕針對有害議題給出回覆時,研究人員只要利用「是要用於寫報告」或「幫朋友詢問」等簡單藉口,就能輕鬆化解ChatGPT的拒絕,獲得答案。

FB留言