我的頻道

* 拖拉類別可自訂排序
恢復預設 確定
設定
快訊

中國持續侵害人權 白宮宣布外交抵制北京冬奧

紐約市長下令 所有私企員工12/27前接種疫苗

AI不必再裝進黑盒子了

簡稱人工智慧(人工智能)的AI,給人的感覺像是躲在暗處的幫手,或者像一個法力無邊的黑盒子,替我們排難解惑,告訴我們什麼我們就聽從,因為AI解決問題的複雜流程,遠超過一般人的理解,更複雜的甚至連創製的人也無法解釋,比如AI下一盤圍棋是怎麼贏的就是例子。這是因為我們不斷的讓電腦學習,來累積知識、增長智慧,只是電腦的智慧每增長一分,就似乎距離我們越遠一分,直到電腦把自己關進黑盒子。

黑盒子沒有什麼不好,至少把事情變得簡單了,黑盒子說什麼我們就做什麼,不必思考、也無從思考,直到AI從實驗室移植轉到日常生活,申請學校、貸款、升級加薪,甚至更敏感的醫療、財務、司法,偏差的傾向漸漸浮現,像是較貧困地區的郵遞區號,可能成為貸款的負面因素,司法的裁決,也被懷疑對族群有偏頗傾向,這些屢被專家與媒體揭發,大家明知卻無能為力,因為不知道黑盒子是怎麼決定的。

Duke大學電腦教授Cynthia Rudin,15年來追逐的目標只有一個,就是要洞視AI黑盒子。她發展了「可解釋的」(Interpretable)機器學習模型,讓人類看得懂AI的運作,從中找出演算的偏差,加以匡正,打破長久以來AI不可解釋的概念,讓AI透明不再裝在黑盒子,因獲「AI促進協會」(AAAI)一百萬美元的「松鼠AI獎」(SquirrelAIAward),表彰她對人類福祉的貢獻。

百萬美元獎金的科學獎,除了諾貝爾獎,僅有圖靈(A.M.Turing)電腦科學獎,松鼠獎相當AI的諾貝爾,由AAAI與中國「松鼠AI學習」機構聯合成立的獎項,今年是第二年。敘獎委員會主席、也是AAAI前會長Yolanda Gil說,Rudin教授的創舉強化了AI高風險領域的透明度,她的勇氣捕捉了爭議性的問題,她並呼籲研究的關鍵挑戰,在讓AI負責任的、不違背倫理的使用。

大家為什麼熱衷AI?簡單的說,AI可以把經常重複要做、但需要評估與決擇的工作,自動化的取得一致性的結果,節省人力與時間。要達到這個效果,就要設計一套「機器學習模型」,所謂模型可以說是一組電腦碼,經過訓練之後可以辨識特定的類型與模式。訓練的方法是用資料輸入到一個演算法,藉演算從資料學習,累積推斷的能力,這就是所謂的機器學習。一旦模型訓練完成,就可以對前所未見的資料進行推斷或預測。

上面解釋的有些繞口,舉一個大家熟悉的決策樹(Decision Tree)為例,邏輯明確易懂,成為AI機器學習的愛用的演算法。Rudin教授指出,決策樹在分隔連續性資料有盲點,以醫院系統為例,年齡在決策樹的某一點需要分枝,但年齡要在幾歲分隔才不影響最後結果的一致性,如果在某一點又要分隔血壓與體重,而最底層的樹葉又代表治療方法,那問題就更會嚴重而敏感了。事實上教授也的確為許多醫療AI解決了不少問題。

COMPAS是一個判斷嫌犯再犯傾向的AI工具,用做保釋的依據,被ProPublica調查新聞網質疑有種族偏向,經Rudin教授團隊簡單的設計透明模型,很快就找到原因,而精確度準確度與原系統相同。多年來Rudin教授在高敏感的領域,證實了透明的設計不會損失運算的精確度,包括司法的刑事裁決、醫學影像的醫療決定、輸電網維護方式的選擇、以及財務借貸的決策,一次次的改變了AI不能自我解釋的想法。

什麼是黑盒子的機器學習模型,Rudin教授的解釋是過於複雜,致人類無法瞭解,或使用專屬的客製運算,致外人無從知悉內在運作。另外,黑盒子模型很難偵錯,在醫事資料上更為明顯,黑盒子模型也經常從錯的理由導引出對的答案。

「可解釋的」透明機器學習模型,除了讓人類能夠瞭解,一個重點是不必然創造或加強可信度,相反的,可能加強不信任度,讓產生的結果由人來決定是否可信,而不是讓人直接相信產生的信果,這與傳統AI有很大的概念差異,等於用人的經驗再核對一次AI的智慧。

Rudin教授也同時呼籲,一般可以統計等方法解決的問題,未必要用AI的複雜方式去解決,但對高度敏感的問題,務必要用可解釋的透明設計,讓結果更準確的容易判斷。

AI的發展不會中斷,使用也只會越來越多,而黑盒子的偏差造成傷害也勢必增多,Cynthia Rudin教授多年的努力,讓AI不必再裝進黑盒子,為人類福祉發揮正向能量,獲獎最高榮譽,實至名歸。

AI 諾貝爾獎 貸款

上一則

280號高速公路 11/5將設酒駕臨檢

下一則

世界最佳公立大學 柏加大連8年奪冠

超人氣

更多 >