【案例】
某 AI 科技軟體公司與醫院合作,開發一套專門治療癌症的輔助診斷系統(以下簡稱 X 系統)。X 系統的功能是,醫師先將以問診、觸診等方式取得之病徵輸入後,透過內部所搜集的世界各國癌症醫學文獻與病歷資料等,配合該公司獨家研發的演算法分析後,提供醫師疾病的名稱與所對應的治療方案。
某日,該院的主治醫師 B 採用 X 系統診斷病人 C,系統判別 C 罹患某癌症,並提供了應當服用某款藥物的治療建議。B 不假思索照做後,導致 C 服用該藥後死亡。事後經調查發現,C 死亡的起因是 X 系統失靈,提供的投藥建議顯然有誤。
試問:X 系統如果是一項 AI 的展現,何者需要為 C 的死亡負責?
【解析說明】

 先來談談,現在 AI 醫療發展到哪了?
AI 醫療是什麼?一般社會大眾對於 AI 與醫療技術的結合,其印象往往都來自電影描繪未來世界時的情節片段。可以馬上聯想到的情境是,病人躺在手術台,身旁有好幾隻類似當今達文西手術的機器手臂,在病人先經過紅外線掃瞄身體後,機械手臂就能直接進行手術將病灶取出。在這整項手術的過程中,不需任何人類醫師的參與。
但是,這樣的場景,畢竟仍是只聞樓梯響,雖然現階段我們已經慢慢能從報章雜誌的報導中,看到很多 AI 與醫療結合的身影,但目前 AI 醫療的發展,仍是聚焦於大數據與演算法的交互運用,「協助」醫師提升診療或手術的精準性,或是減輕臨床工作的壓力,也就是作為醫生的好幫手。
目前 AI 應用於醫療場域方面,諸如,AI 醫學影像的判讀、個人健康管理以及醫療文獻分析等。以當中技術最為純熟的影像判讀為例,傳統視網膜的診斷,眼科醫師需親眼觀察,現有 AI 技術則可藉由大量視網膜病變圖像的搜集,並以演算法來訓練歸納與分析,協助醫師精準判讀病人的眼部狀況。
AI 醫療影像判讀,除了提高診斷的精確性外,也能降低醫師診斷耗廢的時間,提升診療效率。就安全性來說,由於目前臨床上並非讓 AI 系統跑出的判讀結果,直接取代醫師的診斷,最終眼科醫師依然要為整體療程負擔最終的法律責任。所以,現今我們的 AI 醫療與應用中,似乎還未能見到稱得上是 AI 醫師的樣貌。

 AI 可以是醫生嗎?
延續上述的話題,我們現在來談談 AI 作為「醫生」的可能性。這個問題可以從兩項層面來思考。其一,AI 是否如同人類,有趨吉避凶,從錯誤中學習的進步能力?其二,AI 如果具有這項能力,法律是否須將「AI」視為如同人類般的存在?也就是在這邊所要探討的重點:「AI 是否為醫師,是否要為自己的醫療判斷承擔法律責任?」這兩個看似不同層次的問題,其實並不複雜,也很好理解,當然要獲得比較全面且令人滿意的答案,也要加入一些假設和想像力。
關於第一個問題,現今對於 AI 的認識,大致可以從「強 AI」(Strong AI)與「弱 AI」(Weak AI)來理解,強 AI 又可以稱為「通用型人工智慧」(Artificial General Intelligence),意思就是能夠擁有與人類相同程度的智慧,具有自主學習、推理等能力,甚至擁有自我意識,對於未知也有未雨綢繆與調整目標的應對能力。簡單的說,就是「AI=人類」。
相較下,弱 AI,也能稱為「特定型人工智慧」(Artificial Narrow Intelligence)。是目前我們人類社會 AI 應用與發展的現在進行式。諸如,某科技大廠開發能擊敗世界棋王的圍棋軟體、能自行判斷地勢與規劃清掃途徑的掃地機器人,他們在特定的領域中,透過人類思考的「模擬」,配合 AI 大數據演算法的精準迅速等特性,甚至可以做的比一般人類還好,所以普羅大眾才會有現代社會「彷彿」已經正式邁入「AI 時代」的印象。
使用「彷彿」來形容,並非在潑誰冷水,這是純粹定義上的問題,如果狹隘的從「強 AI」來定義,我想回歸現實面來觀察,現階段的「技術應用」顯然都不能稱為 AI。例如,一直以來都很有討論熱度的達文西手術,機器手臂仍需倚賴人類醫師的操控,與上述談到的電影情境仍有很大差異。
從仰賴大量醫學文獻分析來嘗試提供精準治療方案的 AI 診療系統來說,AI 依然無法掌握人類基因的獨特性及與疾病間的關聯性,也不易察覺人類醫生可能會留意到的細微線索,理解力與洞察力難以與人類醫生媲美。因此,以上問題的初步答案應是:「在弱 AI 的應用下,AI 不是醫師,後續相關的法律責任仍需由人類醫師承擔。
但是,如果「AI=人類」的假設是成立的,就請各位想像一下,當人類醫師發生醫療失誤時,國家透過過失責任的釐清與追究,希望能讓其他醫師知所警惕,面對脆弱的生命,盡量不要疏忽大意。
如果某天出現「AI=人類」的醫療產品,也就是發展到強 AI 的階段時,AI 屆時將擁有與人相同的情感,懂得利益衡量與趨吉避凶,我們理當能提醒他需對所犯的錯誤知所警惕,法律制裁的效果自然也會同樣有效。這樣的想像,可能有朝一日會發生,我們可以拭目以待。

 病人死了,誰要負責?
在探討開頭的案例前,可能要先稍微介紹一下何謂「醫療過失」。首先,過失的相對概念稱為「故意」,意思是醫師有刻意導致病人死亡或受傷的慾望。一般來說,很難想像實現這項慾望的行為,稱得上是一種「醫療行為」。畢竟,醫療本身目的就是為拯救生命與找回健康,如果脱逸了此項目的,充其量就只是穿著白袍的殺人犯而已。這也是為何一般醫療法領域所探討的法律責任,多為以醫師的「過失」責任為中心。
接著,我們要開始觸及問題核心:「何種情況下,醫師必須負擔醫療過失責任」?簡單來說,病人身體出現不良結果或反應(如嚴重過敏或死亡)後,必須進一步確認,主要原因是否來自醫師本身的疏忽。疏忽與否,一般則會以醫師診療時有無確實遵守「醫療常規」來判斷。醫療常規,主要來自於臨床醫學的共通經驗,可能早被寫入教科書,成為醫師本應具備的基礎專業能力,也可能是臨床上所明訂的作業準則(SOP)。
回到案例中,基本上我們已經確立了一項初步認知:「目前的 AI 醫療,皆是弱 AI 的應用與展現,AI 不是醫師,我們無法讓它承擔任何法律責任。
而在此脈絡下,針對病人 C 的死亡結果,我們又該向誰咎責呢?第一個能想到,當然就是操作 X 系統的人類醫生 B。從系統 A 的功能可知,其實正是目前被廣泛視為「AI 輔助診斷」的醫療軟體,稱為「輔助」診斷,也正是意味著,系統就如同 B 的左右手,無論是左手疏失,還是右手出錯,責任都應回歸主人身上。
換句話說,當 AI 輔助診斷系統出錯,或依演算法提供的治療方案,並未符合病人最佳利益時,由於這項「建議」仍需透過醫生的審視與評估,才會成為臨床上的「診斷」,理所當然的,醫師應當肩負最終的法律責任。

本案例中,顯然 X 系統的演算法出了嚴重紕漏,提供了明顯錯誤的投藥方案供人類醫師參考,故 B 為 C 死亡承擔過失責任的關鍵即是:「B 毫不思索直接採納 X 系統的建議,違反了其診療上應遵守的注意義務」。換言之,當 X 系統的判斷發生偏差或不當時,B 仍有發現錯誤並予以導正的義務。
至於,大家可能會好奇,雖然系統的操作者是人類,難道研發這套 X 系統的科技公司完全沒有任何責任嗎?其實這個答案很簡單,可以用一個重要的觀念來回答,正因為現階段的我們,無法要求 AI 醫療產品的水準,能與未來理想的全自動駕駛一樣,不再需要駕駛者般的精準。
當現今所有的 AI 產品仍被定位於「輔助」的弱 AI 角色時,其實背後所代表的是,系統操作者仍應扮演控制風險與降低損害的責任承擔者
 我們應該怎麼看待 AI 醫療的發展?
在當今 AI 議題受到熱烈探討的背景下,AI 在醫療領域的運用,雖會創造新的風險與實害,但是,面對 AI 技術在醫療領域持續深化發展的趨勢,我們仍應秉持著正面積極與樂觀的態度。
畢竟,AI 能為人類社會創造的公共利益,必然遠遠高於其連帶產生的負面效應。未來,我們應當持續關注 AI 醫療的發展,重視醫療風險的重組與合理分配,讓 AI 所牽動的醫療體系,整體上皆能朝著正確的方向大步邁進。

https://buzzorange.com/techorange/2024/03/26/ai-healthcare-responsibility/?fbclid=IwZXh0bgNhZW0CMTEAAR1PL-_dy0owW_0ajMiiTMLE7potBqSXlMKcM9dbA4wRrkZiz7VhROcoYTE_aem_9TAabMmnCO4a7pAWbRh-jw