生物倫理學 | 岑信棠

從醫學院畢業及完成一年的實習醫生訓練後,有志成為腫瘤科醫生的初級醫生需要經過六年的在職培訓,才能夠成為合格的腫瘤科醫生。在這六年在職培訓中,將要學習影響身體不同部位各種癌症類型的行為、特性和治療方法,包括各種各樣癌症治療方案的演變過程(癌症治療在過去三十年中取得了多次里程碑式的突破,例如標靶治療和PD-1免疫治療)。完成在職培訓後的數十年行醫過程中,必須不斷學習和進修,了解腫瘤學各方面的最新進展。因應腫瘤學的最新進展,針對不同癌症類型的國際癌症治療指南都需要定時進行修訂和變更,所有這些修訂都是基於一系列詳細及認真的臨床研究。

專門從事生物倫理學政策研究的國際權威「納菲爾德生物倫理委員會」指出,人工智能應用在醫療保健範疇,引發的道德問題廣泛,包括用於訓練人工智能系統的資料存在固有偏差的風險;人工智能做出錯誤決策的可能性;驗證人工智能系統決策的困難;當人工智能用於支援臨床治療的決策時誰要最終負責;對醫療保健專業人員的角色和技能方面的要求和影響;如何避免人工智能被用於惡意目的。

今年三月,美國醫學會雜誌(JAMA)發表了訪問及研究腫瘤科醫生有關在癌症治療中實施人工智能相關的生物倫理問題和看法,包括對人工智能的熟悉度、尊重和偏見,對人工智能建議的「可解釋性」(解釋人工智能如何作出結論,和結論的依據),和實施時的責任問題。二百○四名美國腫瘤科醫生接受了訪問,其中四成七受訪者接受過有關人工智能在醫療保健中使用的訓練和教育。

八成五受訪者認同,基於人工智能的臨床決策模型需要具備「可解釋性」,以及需要經過腫瘤科醫生對病人解釋才能在臨床上使用。八成一受訪者認為如果在治療決策過程中使用人工智能模型,需要病人簽署「知情同意書」。當人工智能選擇的治療方案與腫瘤科醫生計劃推薦的治療方案不同時,最常見的反應(三成七)是同時提出兩種選擇並讓患者決定。大多數受訪者(九成一)認為,人工智能開發者應該對與人工智能使用相關的醫療法律問題負上最終責任。最後,大多數受訪者(七成七)認同腫瘤科醫生應該保護患者免受有偏見的人工智能模型的壞影響,但只有二成八受訪者表示自己有能力辨識較差的人工智能模型。

這項研究表明,腫瘤科醫生對人工智能引起的生物倫理問題擔憂,包括人工智能建議的「可解釋性」、患者的知情同意和有關的醫療法律責任問題。在人工智能為癌症患者帶來更好治療效果的同時,必須確保其使用對患者百利而無一害。

更多文章