我的頻道

* 拖拉類別可自訂排序
恢復預設 確定
設定
快訊

房屋遭鄰居樹倒砸壞 樹主卻不承擔責任 理由是…

新州兩直升機相撞2死 飛行員身分公布 生前常相約用餐

成大與哈佛醫學院合作揭露AI診斷風險 登國際期刊封面

論文圖解:A模型架構_B資料說明_CFairpath,與其他方法比較結果明顯更正確。(蔣榮先提供)
論文圖解:A模型架構_B資料說明_CFairpath,與其他方法比較結果明顯更正確。(蔣榮先提供)

人工智慧已成為醫師判讀切片重要工具,然「客觀理性」的AI真的沒有風險嗎?成功大學資訊工程學系與哈佛大學醫學院合作研究論文「Contrastive learning enhances fairness in pathology artificial intelligence systems」揭露潛藏AI診斷偏差風險,實驗結果不同族群間診斷一致性平均提升約88%,登上國際頂尖醫學期刊「Cell Reports Medicine」封面論文。

AI在醫療尤其是癌症病理影像分析有助大幅提升診斷效率與準確率。但成大與哈佛的研究指出,現今被廣泛應用臨床與研究場域的病理影像AI模型,可能在使用者未察覺情況下產生系統性診斷偏差,影響不同族群例如西方與東方患者實際診斷品質。

研究團隊蒐集分析乳癌、肺癌等23種癌症大量病理影像資料,系統性測試多個目前常見的病理影像AI模型。結果顯示,這些模型雖然設計初衷是僅根據病理特徵判斷疾病,但在實際運作AI可能會判讀出與患者性別、年齡與族群背景相關潛在線索,並將這些非疾病本質資訊納入判斷依據,導致不同族群間出現顯著診斷準確率差異。

整體分析發現,約有3分之1的AI臨床診斷可觀察到顯著的族群間表現差異。這意味著,即使模型在整體平均準確率上表現亮眼,仍可能有部分族群承擔較高的誤判風險。這項發現,也直接挑戰了醫療AI長期被認為「天生客觀、公正」的既有想像。

研究團隊指出,深入分析診斷偏差的來源不僅來自訓練資料中族群比例不均,也與不同疾病在族群間的分布差異,AI在學習過程對某些與族群高度相關、卻非疾病本質的影像線索產生「捷徑式依賴」有關。這些線索本身未必與疾病直接相關,卻與族群背景高度相關,因而在不知不覺中放大診斷不公平風險。

針對「捷徑式依賴」,成大資工系特聘教授蔣榮先解釋說,有時AI在學習判斷疾病時,會不小心「偷懶」,不是看真正跟疾病有關的地方,而是記住一些跟某些族群常一起出現的影像特徵。這些特徵不一定代表生病,但因為常出現在特定族群身上,AI就誤以為它們是判斷疾病的重要線索。久而久之,反而可能誤判,造成不公平的診斷風險。

為了回應這項挑戰,蔣榮先帶領博士生蔡沛蓁與蘇芳毅聚焦於可信任(Trustworthy)AI,進一步提出 FAIR-Path(Fairness-Aware Representation Learning for Pathology)架構,透過訓練策略設計,引導模型專注於與疾病本身高度相關的病理特徵,同時降低對族群相關影像線索的依賴。

蔣榮先指出,在訓練AI過程中,FAIR-Path 會不斷提醒模型:「如果兩個病人得的是同一種疾病,就算是來自不同族群,影像特徵也應該被判斷為相似;但如果疾病不一樣,就算族群背景相同,也不應該被混在一起。」就像在教學生看病理切片時,老師會一直糾正:「不要因為病人是某個族群,就以為影像一定代表某種疾病;要看的是腫瘤結構、細胞變化這些真正和疾病有關的線索。」這樣訓練出來的 AI,比較不會學到偏見,也比較公平。也就是把判斷重點放在疾病本身,非病人的族群背景。

實驗結果顯示,在導入 FAIR-Path 後,模型在不同族群間的診斷一致性平均提升約 88%,且在不犧牲原有整體診斷效能的前提下,顯著提升不同族群間的診斷一致性,成功改善模型的公平性與可信賴性,顯示該方法具有高度實務應用潛力。

該論文由蔣榮先與哈佛教授擔任共同通訊作者,並同步獲哈佛醫學院專文報導,顯示研究成果已獲國際學術界高度肯定。研究團隊表示,這項研究不僅為醫療AI臨床提供重要警示,也提出具體可行技術解方,為未來發展更公平、更值得信賴的智慧醫療系統奠定關鍵基礎。

成大資工系與哈佛醫學院合作揭露AI診斷風險,登國際期刊封面。(蔣榮先提供)
成大資工系與哈佛醫學院合作揭露AI診斷風險,登國際期刊封面。(蔣榮先提供)

AI 癌症 乳癌

上一則

女性不抽菸卻罹患肺癌 最新研究:與空汙、食物防腐劑有關

下一則

輕忽無痛血尿3個月 4旬男攝護腺珊瑚狀腫瘤擴散輸精管

超人氣

更多 >