人工智能怎樣融入醫療

區結成醫生 | 2021-06-21
人工智能納入醫療關係是會改變既有的責任關係。

今年我們中心籌辦一系列有關嶄新科技的倫理學研討,環繞兩個主題:基因組醫學及人工智能的醫療應用。前者的技術和應用已經頗成熟,相關的倫理課題和挑戰是清晰的;相比之下,人工智能在醫療保健方面的發展,很多方面還在突破階段,技術在起飛中。它會怎樣被應用於臨床診治,並不完全清晰。更大的特點在於人工智能是具顛覆性的,可能催生全新的醫療模式。

一般醫療科技從研究開發到引入常規醫療,有既定的科技評估程序,規範較容易;人工智能或不一樣:它不單是被動地融入既有的療保健服務,更會從根本上改變範式,包括臨床診治的醫學邏輯。

以人工智能為主題的第一場網上研討於4月中順利舉行。兩位學者主講的焦點都精確。澳洲Monash University的Robert Sparrow教授詰問:人工智能經深度學習大數據,可以根據演算法進行診治。在特定範圍,它的表現可以媲美專科醫生,在更小的範圍可能勝過醫生的平均水準。

問題是,和真人醫生一樣,它也會出錯,病人受損,能追究誰?一般的想法是,應用人工智能診治,出了事,生產商、程式設計員、引入和使用人工智能的醫療機構,以及依賴人工智能的醫生,都有共同責任,問題只是如何分擔責任。

Sparrow問的是一個哲學上更根本的問題:當人工智能被賦予相當於診治醫生的角色或職能,而且它能自行深度學習和改進自己的演算法,它可以在某程度上被視為一個「道德主體」嗎?意思是,好壞對錯它要「自己」負責,不要深責其他人。Sparrow的基本立論是不能,也不應該。開發者和使用者不可諉過於沒有人能完全理解掌握的「黑箱演算」(black box algorithm)。這立論不是全無爭議的,引發兩位學者評論員Daniel Tigard(慕尼黑)和蔡甫昌教授(台灣)的深層次提問。

另一位主講嘉賓Sarah Chan(愛丁堡)探討的是一個具前瞻性的新問題:人工智能機械人日趨擬人化,它不但擁有高智能,更形成感性特質(affective quality),例如它不只是靠語音識別進行簡單對話,而是進化至學習口音、語調語氣表達感性。深度學習人類語言,可以開放式地聊天,讓病人與它「傾談心事」。講者細心提出的問題是,要讓人工智能(可以是機械人也可以是流動程式)成為病者的感性對象嗎?答案並非自問的。

出錯責任 變得複雜

現代醫療中的醫患關係已經很小空間讓病人細談心事,問病情的時間很稀有,人工智能若能安病者的心,能撫慰、作諮詢輔導和開解,病者投以信任,那不是自然不過的發展嗎?這個應用方向,與一般人設想未來人工智能會替醫生做厭惡性的重複工作,給醫生騰出時間好好與病人傾談的那種境況恰恰相反!

對這方向的發展,講者未有作出定論,但提出一個思考例子:在一個先導計劃,醫療中心應用了人工智能向病人透露診斷結果:「你患的是晚期癌病。」在臨床醫學,透露壞消息(breaking bad news)是高難度動作,醫生未必做得很好,讓有智能、可以詳談的機械人「代勞」,質素是否更有保證?還是非人性化?

在構思這篇文章時我讀到一篇有份量的理論性文章,覺得可以借來界定一下人工智能在醫學範疇的倫理課題。3位作者之中,兩位是港人熟悉的:前私隱專員黃繼兒大律師和香港中文大學前校長、轉往新加坡發展的沈祖堯教授。第一作者是Cameron Stewart法律學教授(Sydney University)。文章發表在《腸胃醫學期刊》,題目也放在腸胃醫學的人工智能,但它的宏闊法律和倫理框架展示了更大的企圖心:這是全面地討論人工智能在數碼醫療紀元的倫理和法律問題,包括尊重個人主體、隱私和保密、操守、處理利益衝突、裨益、毋傷害和公平公正。作者認為,醫學實踐中人工智能引發的複雜問題當然有待努力地具體解決,但在當前,起步最好採用基於原則的方法去梳理。這與筆者在本文開首的看法不謀而合:在現階段,人工智能的相關倫理課題和挑戰還未好好地清晰界定。3位作者這篇學術文章應會成為此後開展討論的奠基性文獻。

文章中有一點觀察可以呼應上述Sparrow在我們研討會提出的「出錯了責任誰屬」的問題。人工智能納入醫療關係是會改變既有的責任關係。從好的方面想,人工智能可以從根本上減少人為錯誤造成的傷害,如果這成為趨勢,臨床的標準將把人工智能的服務標準吸納。在普通法地區,臨床標準一向是由專業團體自主制定的,法律上,應用人工智能的標準依然可以遵循醫學專業。

賠償了事 忽略檢討

然而也不能否定,人工智能令各相關方的責任關係變得錯綜複雜。在這種情況下,考慮責任放在哪裏是費煞思量的。有人構想,人工智能機器、病人和多重交疊的醫療服務提供者可能會迫使監管機構推行更乾脆的賠償保險計劃,例如可以通過對人工智能的使用徵稅,設立資金,把稅收用於賠償受傷害的病者,而不需深究其中的過錯是如何發生。

筆者昔日曾在醫管局主理醫療風險管理和檢討醫療事故,對於不深研過錯因由,單邊提供方便賠償的機制,不免有些保留,因為檢討醫療事故的目的不單是追究責任,更是要設法學習改進,防止再發生。如果一律不問箇中因由,無異於完全接受了「黑箱演算」是無可奈何的事,任之由之,可能滋長輕忽了事的科技應用。這在保險概念上也是道德風險(moral hazard)。

參考資料:Cameron Stewart, Stephen K Y Wong, Joseph J Y Sung. Mapping ethico-legal principles for the use of artificial intelligence in gastroenterology, 21 March 2021.(https://onlinelibrary.wiley.com/doi/pdf/10.1111/jgh.15521

撰文:區結成醫生_香港中文大學生命倫理學中心總監

 

[信健康] 人工智能融入醫療,支援資訊派用場!【更多健康資訊:health.hkej.com