我的頻道

* 拖拉類別可自訂排序
恢復預設 確定
設定
快訊

助學子更好融入社會 紐約市教育局辦研討會

全美空汙最嚴重前5名 南加占了4城

AI「幻覺」編造答案 研究人員:連簡單問題也會錯

OpenAI的ChatGPT等聊天機器人雖能力驚人,卻有一個致命缺點,就是會編造答案,即所謂的「人工智慧幻覺」。(路透)
OpenAI的ChatGPT等聊天機器人雖能力驚人,卻有一個致命缺點,就是會編造答案,即所謂的「人工智慧幻覺」。(路透)

「華盛頓郵報」(The Washington Post)報導,ChatGPT不可靠,研究人員指聊天機器人目前仍會有幻覺,連簡單問題也錯得離譜,且研究人員擔憂問題恐無解。

儘管OpenAI的ChatGPT、微軟的Bing和谷歌的Bard等聊天機器人,在過去半年間展示出令人驚豔的能力,但它們仍有一個致命缺點,那就是會編造答案,即所謂的「人工智慧幻覺」(hallucinations)。

人工智慧幻覺指的是,AI自信地生成出看似具說服力、實際卻是錯誤答案的問題,儘管這答案在其訓練數據中並不合理。多數研究人員認為,幻覺問題是運行聊天機器人的大型語言模型(Large Language Models)本身設計的問題。

麻省理工學院研究員、前OpenAI研究員杜懿倫(Yilun Du,音譯)指出,語言模式是設計用來預測下一個詞,其中並不包括承認自己不知道答案的訓練,而結果就是讓機器人形成討好型人格,寧可編造答案,也不會承認不知道答案是什麼。

谷歌母公司Alphabet 執行長皮柴(Sundar Pichai)就曾公開警告過AI幻覺問題的嚴重性。OpenAI執行長奧特曼(Sam Altman)5月初在國會作證時也指出,AI可能會通過傳播假信息和情緒操縱人類,來「對世界造成重大傷害」。奧特曼30日與數百名AI研究人員與包括谷哥與微軟等企業高層,共同簽署聲明,表示AI對人類構成的風險,與流行病和核戰不相上下。

而要如何預防或修復人工智慧幻覺,也因此成了目前科技產業員工、研究人員和對AI仍抱持疑論者,急於解決的問題。

有些公司使用人類訓練師來重寫機器人的答案,然後在反饋給機器人,幫助機器人學習;谷歌和微軟雖然已經開始在搜尋引擎中使用機器人的大案,但仍同時會檢查機器人的搜尋結果;麻省理工學院(MIT)最新報告則是提議,讓多個機器人相互辯論,來取得更符合事實的答案;劍橋研究人員則是提出,設立SelfCheckGPT系統,讓機器人多次回答同一問題,看答案是否一致。

有些AI研究人員則認為,應該要接受人工智慧幻覺問題;畢竟,即使人類也有不好的記憶且會無意識的自行填補回憶中的空白。

AI 人工智慧 微軟

上一則

華郵:FBI搜索前夕 文件曾被移動 川普可能構成妨礙調查

下一則

川普被控性侵案 律師辯「可能隔衣抓胸非強暴」要求降低賠償金額

超人氣

更多 >