人工智能(AI)“不可解釋性”的特點,讓人不明覺厲,但在醫(yī)療領(lǐng)域則可能面臨巨大的倫理挑戰(zhàn)。當(dāng)醫(yī)療AI應(yīng)用對的時候,所有人皆大歡喜;當(dāng)醫(yī)療AI犯了錯,盡管概率很小,但錯的時候,由誰承擔(dān)這個責(zé)任?是醫(yī)生,是程序員,還是簽字購買醫(yī)療AI服務(wù)的院長?11月22日,在北京大學(xué)醫(yī)學(xué)部舉行的“智慧醫(yī)療革命:潛力與挑戰(zhàn)” 論壇上,清華大學(xué)臨床醫(yī)學(xué)院院長、北京清華長庚醫(yī)院執(zhí)行院長董家鴻院士分享了他的精彩觀點。
在某些方面AI可以超過人,但在總體的智慧上,機器永遠不可能超過人類。技術(shù)是服務(wù)于人的,人工智能的發(fā)展是為了為人類提供更好的健康服務(wù)。我們要認(rèn)識到是醫(yī)生的AI,而不是AI醫(yī)生。
從醫(yī)療服務(wù)診斷的感知、認(rèn)知、決策、干預(yù)幾個主要流程上,AI可以在感知方面超越人的極限,在認(rèn)知方面也可以在某種程度上超越人,為醫(yī)生提供輔助決策支持。包括對于腫瘤發(fā)生機理的研究,未來如果在算法上無法取得突破,則對于腫瘤本質(zhì)的認(rèn)識和防治策略不可能有突破。但是個體疾病復(fù)雜的變異性,常態(tài)的個體差異,一定還需要醫(yī)生的智慧。如果要求醫(yī)生遵從機器的決策,那會出很多問題。從干預(yù)方面,機器可以提高手術(shù)操作的精度和可控性,但必須要由醫(yī)生作出判斷和控制。
當(dāng)前醫(yī)療AI風(fēng)險在于不可解釋性,那就是為什么人工智能能夠作出準(zhǔn)確的判斷,如果沒有明晰的原理可解釋,在實際使用過程中醫(yī)生心里不踏實,患者接受起來也有疑慮。如果一個醫(yī)生犯了錯,受損害的是一個患者。如果人工智能機器人出了錯,將會損害一批患者。因此,對于不可解釋的人工智能技術(shù),應(yīng)該嚴(yán)格限定它的應(yīng)用邊界。
我們主張將機器人作為輔助,讓它處理確定性的事件,由醫(yī)生來處理不確定性事件,并承擔(dān)法律上的責(zé)任。
人體和疾病都是極其復(fù)雜的,因此在人類的健康醫(yī)療服務(wù)中是不可能不出錯誤。醫(yī)學(xué)發(fā)展的本身就是一個不斷試錯和校正的過程,先進的科技手段確實能夠幫助醫(yī)生作出更正確的判斷,做更精準(zhǔn)的干預(yù),但仍然不可能完全避免出錯,最終主導(dǎo)的主體仍然是醫(yī)生。醫(yī)生也應(yīng)該加強培訓(xùn)和學(xué)習(xí),更好地理解AI帶來的輔助決策的支持和其局限性,從而讓人類站在更高的智慧水平上,更好、更準(zhǔn)確地利用AI。
(張廣有根據(jù)智慧醫(yī)療革命論壇整理)
Copyright ? 2004-2025 健康一線-健康視頻網(wǎng)(vodjk.com)All rights reserved.