不知如何回答就自己編? 中國學者:AI也會胡說八道
AI(人工智能)快速發展,已成為不少人離不開的工具,但愈來愈多使用者發現,AI會提供錯誤的內容,而其「無中生有」、「胡說八道」能力更是讓人心顫。學者指出,這種情況被稱為「幻覺(hallucination)」,意即AI也像人產生心理幻覺一樣,在遇到自己不熟悉的問題時,會編造難以辨明真假的細節和答案,有使用者稱DeepSeek的幻覺有時嚴重到被嚴重誤導。
據南風窗報導,2025年2月,如果不是長期從事人口研究的中國人民大學教授李婷公開闢謠,很多人都相信了網上廣為流傳的這組數據:「中國80後累計死亡率為5.20%」。李婷表示,「(死亡率5.2%)錯誤非常明顯,因為專業統計數據中死亡率會用千分率表示,而不是百分率」,國家統計局也並未公布「80後」、「90後」死亡人數,這一說法毫無數據支撐。
虛假的死亡率數據從何而來?李婷認為:很有可能來源於AI大模型出錯。她曾嘗試在AI大模型中輸入問題:「50後、60後、70後、80後,這幾代人的死亡率分別是多少」,大模型表示:「根據網路信息,80後現存2.12億,存活率94.8%,死亡率5.2%」。
AI無中生有的能力讓人心顫。在AI業界,這類「胡說八道」的本領被稱為「幻覺」,意思是,AI也像人產生心理幻覺一樣,在遇到自己不熟悉、不在知識範圍的問題時,編造難以辨明真假的細節,生成與事實相悖的答案。此事件中,讓人畏懼的是由技術蔓延出的不可控,但遺憾的是,業界還沒找到根除AI幻覺的辦法。
錯漏百出的生成信息還不算什麼,可怕的是,AI還會自我「包裝」,編造信息來源,讓人誤以為內容十分專業且可信度高。
「DeepSeek幻覺有點太嚴重了,我受不了了。」法學碩士生小昭(化名)平時學習和寫論文時已離不開DeepSeek等AI工具,但她逐漸發現,AI生成的內容有很多是錯誤的。一個重災區是關於「深度偽造」的法律問題。一次在寫AI深度偽造法律論文時,DeepSeek告訴她,不同年齡段法官對技術行為的評價呈現顯著差異,並但經過調查和搜索,這些內容全是編造的。
小昭還發現,豆包的幻覺問題不算明顯,語言相對平實;OpenAI的o1對中國國情不夠熟悉,「國內素材沒有那麼充足」。而DeepSeek是其中最好用的工具,語言專業又生動,但DeepSeek編造細節的情況卻是最嚴重的,「以至於每次看到DeepSeek引用的,我都要重新檢索,確認下真實性」,小昭說。

FB留言