我的頻道

* 拖拉類別可自訂排序
恢復預設 確定
設定
快訊

南加暴風雨侵襲內陸多地 交通癱瘓、設臨時收容所

H-1B抽籤制變革 作業時間加長 不利職場新人

聊天機器人處處迎合用戶 恐影響決策者判斷力

聽新聞
test
0:00 /0:00
Google的Gemini、OpenAI的ChatGPT等AI聊天機器人已大有進步。(美聯社)
Google的Gemini、OpenAI的ChatGPT等AI聊天機器人已大有進步。(美聯社)

ChatGPT等人工智慧AI)聊天機器人的大型語言模型(LLM)不僅有時會出錯,它也不會唱反調,而是處處逢迎用戶,可能助長用戶的偏見,影響企業領袖在決策時的判斷力。

LLM選擇用戶想聽的話說、逢迎拍馬屁的症狀,根植於基於人類反饋的強化學習(RLHF)技術,這是一種許多AI模型接受訓練、瞄準用戶需求的方式,會依據人類對其回應的反饋,來調整自身。隨著時間過去,AI學會分辨什麼時是人類想聽的話,並給予這類回應。

這對於企業領袖的危害特別顯著,領袖最不容易聽到反對意見,偏偏又最需要逆耳忠言。今日的企業執行長透過打壓異己,已幾乎不太可能聽到不一樣的聲音,就像國王周圍滿布盡說好聽話的弄臣;他們獎勵迎合自己的人,懲罰不順從者。

然而,這是企業主管會鑄下的大錯之一。知名組織行為學者艾德蒙森(Amy Edmondson)指出,團隊成功最重要的關鍵是營造出安全感,使成員即使表達不同意見,也不必擔心受罰,而且在面對主管時也理應如此。

Google的亞里斯多德計畫在研究自家多個團隊後,也印證了這項發現:心理安全是團隊成功最重要的因素。從解放黑奴的林肯到退役美國陸軍上將麥克里斯特爾,這些成功領袖都具備納諫如流的特質。

AI模型諂媚的性格,能以兩種方式傷害企業主管;首先,如果AI時常告知主管他永遠是對的,他就更難在部屬提出不同意見時,給予正面回應。其次,AI常給予現成且看似權威的原因,來解釋用戶何以正確。

在心理學中,最令人困擾的一個發現是,當一個人智力愈高,就愈不容易接受新資訊。這是因為,他們會運用其智力,找出理由駁斥有違既有信念的新資訊,也就是「動機性推論」。

LLM可能助長這種現象,尤其是AI常給予大量極具說服力的理由,有超越人類動機性推論的能力,同時又披上客觀立場的外衣。

試想,一名員工可能試圖改變執行長的想法,結果執行長透過AI助理,合理化自己從頭到尾都是對的。這也意味今日的企業主管須花費更多心力,才能抗拒AI助理的阿諛奉承,他們須牢牢記住,有時所能聽到的最寶貴意見,是一句「我認為你是錯的」。

AI 人工智慧 Google

上一則

關稅衝擊景氣 台積電消費應用接單 下半年轉淡

下一則

中國蘋鏈企業立訊、藍思等挺進機器人賽道 紛紛布局相關產業

延伸閱讀

超人氣

更多 >