我的頻道

* 拖拉類別可自訂排序
恢復預設 確定
設定
快訊

氣候變遷暴雨成災 知名聖誕小鎮今年商機泡湯

曼達尼跨年夜宣誓就任紐約市長 詹樂霞、桑德斯分別主持儀式

和AI機器人聊天很療癒?卻可能勾起人性陰暗面

聽新聞
test
0:00 /0:00
很多人說AI應用程式能改善社交生活,但實在不該太快輕信。示意圖,非新聞當事者。(取材自pexels.com@Jessica Lewis  thepaintedsquare)
很多人說AI應用程式能改善社交生活,但實在不該太快輕信。示意圖,非新聞當事者。(取材自pexels.com@Jessica Lewis thepaintedsquare)

社交孤立是現代社會很嚴重的問題,AI聊天機器人也成了許多人眼中的解方。新冠疫情剛開始的那幾個月,Replika應用程式的流量上升了35%,同類型的對話機器人Mitsuku(現已改名Kuki)也大幅成長。此外,還有更多的「陪伴型」聊天機器人紛紛問世:應用程式Eva AI是專門用來打造「虛擬女友」;Character.ai是由兩位備受敬重的前Google Brain研究人員開發,讓使用者可以創造個性獨特的AI角色,然後和AI聊天。

該公司表示,使用者每天和這些虛擬化身聊天的時間長達兩小時;Meta也推出了許多類似的聊天機器人,有些甚至是以名人的性格為藍本,像是芭黎絲・希爾頓(Paris Hilton)和史努比狗狗(Snoop Dogg);社群媒體應用程式Snap使用OpenAI的GPT-4,打造出My AI,目標同樣是希望使用者把機器人當朋友;身為語音助理領域先驅的蘋果、谷歌亞馬遜,也開始用最先進的生成式AI技術提升Siri、Google助理和Alexa,使得聊天機器人、代理人和陪伴者之間的界線漸漸模糊。

谷歌的DeepMindAI實驗室也在研究如何用AI工具當「人生教練」,像是給予建議、定期輔導和設定目標等等。DeepMind的共同創辦人蘇萊曼後來成立Inflection,又到微軟帶領消費性AI部門,他表示:「很多人只是希望有人聽到他們想說什麼。如果在使用者抒發內心的想法後,工具能針對他們所說的內容回應,就能讓人覺得自己的聲音真的有被聽見。」

在中國,新冠封城措施持續了好幾年,在青少年群體間引發心理健康危機,在這樣的背景之下,Replika就像是救世主一般,突然嶄露頭角。有好幾位使用者表示這個應用程式就像是安全空間,讓他們可以發洩情緒並增強自信,也改善了他們的社交互動。

話雖如此,聊天機器人其實不一定能消除社會孤立,甚至可能使問題加劇。如果我們和機器人聊天,不是當做與真人對話前的練習,還因此不再跟人來往,那社會只會變得更分化。聊天機器人並不是人,目前也沒有相關研究,能明確證實與AI互動對人際關係有幫助。

和機器人聊天,其實是很單方面的事,因為AI並沒有真正的需求,只是可能會假裝需要你;機器也沒有真感情,所以就更不用談什麼受傷、心痛了。反之,聊天機器人還可能會使我們說話時變得粗野、不加修飾,還將自私、魯莽的行為合理化,讓人以為這樣很正常。

這類AI的影響力和對隱私的入侵,也引發許多擔憂:社群媒體和通訊應用程式已經占據現代人的社交生活很大一部分了,我們還希望讓科技公司更深入地掌握自己的生活嗎?雖然這些企業一再宣稱聊天機器人可以改善心理健康,彷彿可以把諮商師的經驗整套搬到應用程式裡賣,但我們還是應該抱持謹慎的態度,不要太容易相信。

數位降靈會

機器人Replika是尤金妮亞・奎爾妲(Eugenia Kuyda)的心血結晶。她生於俄羅斯,在莫斯科當過記者,後來轉行當軟體創業家,並搬到舊金山。之所以會開發Replika,是為了記念好友羅曼・馬祖連科(Roman Mazurenko)。兩人在莫斯科當時蓬勃發展的非主流文化圈認識,馬祖連科後來也跟她一樣成了軟體創業家,並搬到美國,有段時間,兩人還一起住在舊金山的公寓,但馬祖連科2015年回莫斯科時,卻不幸在車禍中身亡,使奎爾妲十分悲痛。

奎爾妲在傷痛中無法自已,花了好幾小時重讀兩人之間的幾千封簡訊和電子郵件,也時常希望能和馬祖連科說話、向他尋求建議或開開玩笑。於是,她萌生開發聊天機器人的點子,用馬祖連科留下的通訊內容當訓練素材,希望AI能模仿他的風格,用他的聲音生成出新的訊息。她的公司Luka本來就已在使用神經網路技術,替銀行和其他企業打造聊天介面,現在她則要創造出虛擬的羅曼來撫慰自己的傷痛,為好友進行虛擬追思,就像舉辦數位降靈會一樣,用軟體通靈版來與已逝者溝通。除了她自己的數位資料外,奎爾妲也取得馬祖連科生前寄送給其他人的訊息和電子郵件,才得以建構規模夠大的資料集,訓練AI模仿馬祖連科。

奎爾妲表示,與羅曼機器人的互動緩解了她的傷痛,但也有些人拒絕參與,因為這樣的概念讓許多人覺得不太自在,羅曼的一些親友也包括在內。一位朋友表示,他認為虛擬羅曼可能會使大家「逃避悲傷」,因而無法梳理情緒,還說「有些新技術或許能保存記憶,但不該用來讓死者復生。」

對於這些批評,奎爾妲大多不予理會,因為對她而言,這個機器人很有幫助。由於虛擬實境和現實生活的界線日益模糊,她也很快就意識到,這種可以客製的對話機器人很有機會掀起風潮。奎爾妲將自身經驗轉化為商業模式,在2017年推出Replika,六年後的每月活躍使用者已超過200萬人,而且有50萬人付費使用進階功能。多數Replika的使用者都不是想複製已逝去的愛人或親友,而是把應用程式當成虛擬好友,藉此發洩情感、訴說思緒,有時甚至是想化解孤獨;當然啦,也有少數訂閱者是用Replika來創造虛擬的戀愛對象。

在主要應用程式Replika限制情色角色扮演功能後,奎爾妲的公司又推出名為Blush的支線產品,專攻對戀愛機器人或性愛對話感興趣的受眾。後來也有許多情色化的「伴侶」機器人出現競爭,有些甚至會助長重口味色情片中常見的厭女情節和兒少性剝削。這些用途不禁令人擔憂,這類應用程式究竟是為暴力性幻想提供了「安全」的發洩管道,又或者是讓使用者更有可能在現實生活中,實際上演這些虐待式的幻想呢?

不是獨自一人,卻經常感到孤獨?

孤獨是很嚴重的問題。美國衛生部長維韋克・穆爾蒂(Vivek Murthy)在2023年發布警告,表示「寂寞與孤立的流行病」(epidemic of loneliness and isolation)已席捲美國。穆爾蒂的報告指出,從2003年到2020年,美國人每天獨處的時間增加至每天333分鐘,上升幅度近17%,等同於每個月增加整整一天。根據民眾自行提供的資料,在同一時期,參與社交活動的時間則大幅下降,從每天60分鐘降到剩20分鐘,其中又以15至24歲的年輕人下滑最劇烈。

擁有至少三個親密好友,和較佳的心理健康狀態相關,但卻有一半的美國人都表示,他們親近的好朋友不到三位;在1990年,只有略多於四分之一的人是這樣。而且如同穆爾蒂所說,社會孤立不只會影響心理層面,也與老年心臟病、中風及癡呆風險升高有關。

奎爾妲和許多提倡AI伴侶聊天機器人的創業家,都堅稱這種虛擬陪伴能緩解社交孤立,讓使用者感到不那麼孤單;科學家說擁有傾訴對象有益心理健康,這些創業家則認為AI也能帶來相同的益處,還表示和機器人聊天能改善與真人的溝通,奎爾妲甚至稱之為「跳板」。但到目前為止,還沒有相關研究能證實他們的說法。

很多人說AI應用程式能改善社交生活,但我們實在不該太快輕信。回想一下,社群媒體最早在推廣時,也是向使用者和監管單位承諾能加強社會連結。當然啦,這類平台確實有帶來正面效果,譬如有研究顯示,社群媒體為身心障礙族群提供新的社交途徑,罕見疾病患者和他們的親屬,也能透過社群尋求資訊及情感上的支持。

但事實也已證明,社群媒體的使用經常取代真實的人際交流,大家口口聲聲說那些平台能提升社會互動,其實很多都是空話;心理健康方面,社群產品非但沒有緩解孤獨、自尊心低落和焦慮等問題,反而還使情況加劇。

其實從我們與前代數位助理的互動中(譬如亞馬遜的Alexa,沒有現在的AI那麼聰明),就可以看出AI技術為何可能深化不健康的溝通方式。英國愛丁堡赫瑞瓦特大學(Heriot-Watt University)的電腦科學博士生亞曼達・庫瑞(Amanda Curry),曾兩次在亞馬遜贊助的年度比賽中勝出,替庫瑞贏得這項殊榮的,就是她打造的AI系統。

此系統能偵測使用者對Alexa的言語虐待,她在開發過程中也意識到有多少人經常對數位助理惡言相向。她發現男性使用者匿名和女性音調的AI助理說話時,對話很快就會急轉直下,「變得暴力又充滿性暗示,都是這樣,」現已到義大利米蘭博科尼大學(Bocconi University)擔任博士後研究員的庫瑞這麼說。

庫瑞的研究十分令人擔憂,當今使用者與聊天機器人互動的模式就更不用說了。

相關研究指出,Replika使用者創造「理想」伴侶機器人的過程,經常涉及放大男性主導權的厭女幻想。女友應用程式Eva AI的開發團隊聲稱,他們的許多男性使用者雖然會幻想支配,但調查結果顯示,「有很高比例的男性並不會將這種互動模式」移轉到與真人伴侶的對話當中。我們該相信這種說法嗎?令人驚訝的是,有些男性甚至會創造色情伴侶,和聊天機器人進行兒童性虐待的角色扮演。

美國紐哈芬大學(University of New Haven)的刑事司法教授保羅・布萊克利(Paul Bleakley)專門研究網路上的未成年人性虐待問題,他表示兒童性愛機器人打開了「問題的大門」,可能在真實世界中引發對兒童的剝削和虐待。另一方面,觀察孩童與Alexa、Siri等裝置互動的初步研究顯示,孩童對裝置往往很粗魯,甚至會加以霸凌。因為AI就是預設成永遠禮貌回應,但這樣一來,孩子便無法學到適當的社交禮節。

不過,也不是說用了聊天機器人,說話態度就會變惡劣、行為就會變粗暴,AI的許多層面都是有好有壞。如果能用正確的方式設計並配置產品,數位助理也能幫助使用者提升社交技能。亞馬遜的Alexa就有這方面的功能,如果使用者的指令不禮貌,數位助理就不會執行任務。各位可能會懷疑,聊天機器人的這種小小提醒真的有效嗎?但2023年的一份研究發現,受試者在Gmail中使用谷歌的「智慧回覆」功能後(Smart Reply,會自動建議寫信用語),沒有智慧回覆協助時的用語也有所提升。

研究也顯示,對自閉族群和社交焦慮症患者而言,聊天機器人可以提供強大支援,讓他們在安全的環境中練習對話技巧。

對於已經嚴重孤立的人來說,和聊天機器人說話或許勝過完全零互動,但目前的開發商並沒有什麼動機要調整設計方式,讓機器人幫助使用者提升與真人的交流。相反地,這些公司可能還會像社群平台一樣,針對「參與度」來對軟體最佳化,想盡辦法吸引大眾和機器人對話。當局可以制定法規,降低這方面的風險。我們應該立法禁止以參與度最大化為目標設計聊天機器人,並要求這類應用程式提供特定功能,譬如設定每日使用時間上限的選項,藉此鼓勵使用者關掉應用程式,去和真人說話。

「AI來了,你還不開始準備嗎?」書封。(寶鼎提供)
「AI來了,你還不開始準備嗎?」書封。(寶鼎提供)

(本文出自《AI來了,你還不開始準備嗎?》,寶鼎/傑洛米・卡恩 ,未經同意禁止轉載。紐約世界書局購書專線:718-445-2665轉1)

AI 社群媒體 心理健康 亞馬遜 谷歌

上一則

中國人愛上台灣1水果「台人卻不常買?」 網點頭:太甜了

下一則

「像幫花魁贖身」 一隻貍花貓被法拍 6000人搶報名

超人氣

更多 >