|
Cast a cold eye:談智慧醫學影像分析與可解釋性 |
帥宏翰 助理教授 |
 |
 |
AI醫療的應用範圍除醫療影像分析、生物檢測等外,還包含文字與語意辨識。著名物理學家史蒂芬霍金罹患漸凍症後半生無法言語,借助手持式點擊器輸入、紅外線臉頰肌肉運動偵測輸入,最終採用ACAT(assistive context-aware toolkit)軟體追蹤眼球視線輸入並轉換為語音,以實現日常的溝通。現 |
 |
 |
 |
 |
今AI在醫療照護領域廣泛應用,機器學習將人類大腦電流訊號直接生成語音,可望使癱瘓的病患不再困於無法自主的軀殼之內,而能流暢地與外界溝通交流。儘管機器學習透過模仿人腦神經網路的傳導機制,衍生出深度學習,並發展諸如卷積神經網路(Convolutional Neural Network,CNN)、循環神經網絡(Recurrent Neural Network,RNN)等模型,然而所使用的巨量資料失準、不完整、錯誤或發生前所未見的狀況仍無法避免。運用人工智慧協助醫療診斷,如何解釋、驗證其判斷的根據與過程,從而得以評估而信賴之,乃X-AI(Explainable AI)研究的重點。除技術面之外,智慧醫學牽涉到複雜的法律議題,相關醫療法規的制定與配套措施必須同步進行。 |
 |
|
為何大數據分析可能加深AI的歧視與偏見 |
林勤富 副教授 |
 |
 |
 |
 |
大數據強化AI機器學習能力,經訓練後的AI也為資料蒐集、標註彙整及分析進行優化並提昇效率,兩者相輔相成。然而提供AI演算法的資料、自然語言辨識下的關連性等數據均是基於開發者既有認知而來,舉凡語言文字、人際互動等人類社會思想產物,難免存在歧視或偏見等價值判斷,倘不自覺加以運用,在 |
 |
技術上極可能產生誤判、甚至加劇歧視、加重刻板印象。例如:求職網站會根據過去性別就業紀錄提供就業取向預判、治安單位基於過去不完全的報案紀錄、巡邏資料預測犯罪熱點。使用AI與大數據固可協助更快速完成工作,卻亦導致重複不斷加深偏見的結果。 |
 |
|
|
|