走進電聲 電聲家族 電波指數 有話大聲說 e哥傳書
統一發票查詢
高速公路路況
火車時刻表
天氣預報
股市財經
台南市政府網
Advertisting
勝利之聲廣播公司
勝利電台FB
勝利會客室
電聲廣播電台
俊逸文教基金會
俊逸文教基金會FB
俊逸慈善基金會
臺南市青年志工平台
臺南市青年志工平台FB
歲末有愛嘉年華會FB
俊逸基金會相簿
交通部
交通路公路局
勞動部勞工保險局
Advertisting
即時新聞
即時新聞 活動訊息 媒體露出 專訪訊息
成大資工與哈佛醫學院合作揭露 AI 診斷偏差之風險 登《Cell Repts Medicine》封面論文::俊逸文教基金會::
 
  ↖回到列表
成大資工與哈佛醫學院合作揭露 AI 診斷偏差之風險 登《Cell Repts Medicine》封面論文
【記者蘇芳芸臺南報導】人工智慧近年快速導入醫療領域,已成為醫師判讀切片的重要輔助工具,然而,被視為「客觀理性」的 AI 系統,真的能對所有病人一視同仁嗎?國立成功大學資訊工程學系與哈佛大學醫學院合作的研究論文《Contrastive learning enhances fairness in pathology artificial intelligence systems》揭露了潛藏在 AI 診斷偏差上的風險,登上國際頂尖醫學期刊《Cell Reports Medicine》並選為封面論文。期刊連結https://www.cell.com/cell-reports-medicine/fulltext/S2666-3791(25)00600-7。

AI在醫療領域,尤其是癌症病理影像分析中,有助於大幅提升診斷效率與準確率。但成大資訊系團隊與哈佛大學醫學院的研究指出,現今被廣泛應用於臨床與研究場域的病理影像 AI 模型,可能在使用者未察覺的情況下,產生系統性的診斷偏差,進而影響不同族群(例如:西方人與東方人)患者實際獲得的診斷品質。

研究團隊蒐集並分析多種癌症(例如:乳癌、肺癌等 23 種癌症)類型的大量病理影像資料,系統性測試多個目前常見的病理影像 AI 模型。結果顯示,這些模型雖然設計初衷是僅根據病理特徵進行疾病判斷,但在實際運作過程中,AI 可能會從影像中判讀出與患者性別、年齡與族群背景相關的潛在線索,並將這些非疾病本質的資訊納入判斷依據,導致不同族群之間出現顯著的診斷準確率差異。

整體分析發現,約有 3 分之 1 的 AI 臨床診斷中,可觀察到顯著的族群間表現差異。這意味著,即使模型在整體平均準確率上表現亮眼,仍可能有部分族群承擔較高的誤判風險。這項發現,也直接挑戰了醫療 AI 長期被認為「天生客觀、公正」的既有想像。

進一步深入分析後,研究團隊指出,診斷偏差的來源不僅來自訓練資料中族群比例不均,也與不同疾病在族群間的分布差異,以及 AI 在學習過程中對某些與族群高度相關、卻非疾病本質的影像線索產生「捷徑式依賴」有關。這些線索本身未必與疾病直接相關,卻與族群背景高度相關,因而在不知不覺中放大了診斷上的不公平風險。

針對「捷徑式依賴」,成大資訊工程學系蔣榮先特聘教授解釋說,有時候 AI 在學習判斷疾病時,會不小心「偷懶」,不是看真正跟疾病有關的地方,而是記住一些跟某些族群常一起出現的影像特徵。這些特徵不一定代表生病,但因為常出現在特定族群身上,AI 就誤以為它們是判斷疾病的重要線索。久而久之,反而可能讓某些族群被誤判,造成不公平的診斷風險。

為了回應這項挑戰,成大資訊工程學系團隊,由蔣榮先特聘教授帶領博士生蔡沛蓁與蘇芳毅同學,聚焦於可信任(Trustworthy)AI,進一步提出 FAIR-Path(Fairness-Aware Representation Learning for Pathology)架構,透過訓練策略設計,引導模型專注於與疾病本身高度相關的病理特徵,同時降低對族群相關影像線索的依賴。蔣榮先特聘教授指出,團隊以可信任人工智慧(Trustworthy AI)為核心研究主軸,簡稱 TW-AI,名稱隱含 Taiwan AI 的雙重意涵,彰顯團隊致力於發展具可信性與國際競爭力之台灣 AI 技術。 

在訓練 AI 的過程中,FAIR-Path 會不斷提醒模型:「如果兩個病人得的是同一種疾病,就算是來自不同族群,影像特徵也應該被判斷為相似;但如果疾病不一樣,就算族群背景相同,也不應該被混在一起。」就像在教學生看病理切片時,老師會一直糾正:「不要因為病人是某個族群,就以為影像一定代表某種疾病;要看的是腫瘤結構、細胞變化這些真正和疾病有關的線索。」這樣訓練出來的 AI,比較不會學到偏見,也比較公平。也就是把判斷重點放在疾病本身,非病人的族群背景。

實驗結果顯示,在導入 FAIR-Path 後,模型在不同族群間的診斷一致性平均提升約 88%,且在不犧牲原有整體診斷效能的前提下,顯著提升不同族群間的診斷一致性,成功改善模型的公平性與可信賴性,顯示該方法具有高度實務應用潛力。

成大跨國研究團隊於醫療人工智慧公平性與模型可信賴性之研究成果,該論文由蔣榮先特聘教授與哈佛教授擔任共同通訊作者,並同步獲哈佛醫學院《Harvard Medical School》專文報導,顯示該研究成果已獲國際學術界高度肯定。研究團隊表示,這項研究不僅為醫療 AI 的臨床導入提供重要警示,也提出具體可行的技術解方,為未來發展更公平、更值得信賴的智慧醫療系統奠定關鍵基礎。

   
張貼日期: 2025/12/22 下午 02:55:00 <<上一則 | 下一則>> ↖回到列表
推到 Twitter!
推到 Plurk!
推到 Facebook!
800*600的螢幕,並且為IE5.0版以上之瀏覽器 CALL-IN 電話:(06)235-8462
地址:台南市林森路一段149號15樓之11
服務電話:(06)238-1262∼3 傳真電話:(06)238-1264 訪客人次: