?

人工智能醫療侵權糾紛中的責任承擔與舉證分配

2024-05-09 23:24
關鍵詞:義務證據人工智能

林 洧

(中國人民大學 法學院,北京 100872)

一、引言

如今,人工智能賦能普惠醫療逐步成為現實的場景,龐雜的醫療數據也為依靠深度學習的人工智能提供了大量的數據來源。許多醫療機構廣泛地利用醫學影像識別與智能診療來降低誤診率,甚至輔助醫生的手術機器人也開始投入使用。智能醫療場景的應用在我國諸省、市開始推廣,利用人工智能提升整體醫療服務水平具有廣闊的前景,經濟與科技發達省、市的人工智能醫療應用場景更為成熟[1]?!吨腥A人民共和國國民經濟和社會發展第十四個五年規劃和2035年遠景目標綱要》強調推進智能醫療裝備等智能產品的設計與制造,我國人工智能醫療產業布局不斷優化已是大勢所趨。但同時,人工智能產業的迅速發展不僅會對社會倫理或道德體系造成一定的沖擊,還會放大因法律滯后產生的法律漏洞,甚至直接沖擊當前的法律體系[2]。有關人工智能醫療最大的爭議也主要是如何在人工智能醫療監管中充分尊重患者的權利自主性,以及在侵權救濟中設置決策主體的注意義務與歸責標準[3]。人工智能醫療在提升醫療水準的同時也要求提升法律上的注意義務,醫生或醫院需要承擔更高風險的過失責任(過錯責任)。

事實上,人工智能醫療侵權糾紛的類型多樣,涉及產品責任、消費者保護、醫療過失責任等內容,責任主體與侵權損害原因也各不相同。鑒于此,本文首先在實體法上厘清不同主體的損害賠償責任,并進一步確定相關損害責任的具體性質(過失責任或無過失責任);其次,對人工智能醫療侵權糾紛的舉證責任體系進行分析;最后,完善人工智能醫療侵權糾紛中的舉證責任規則。

二、侵權歸責:人工智能醫療侵權責任體系的復雜性

(一)侵權責任復雜的溯因

1.法律屬性具有復雜性

人工智能因機器學習而具有人格化的特征,可介入醫療行為并在其中發揮輔助性的作用。人工智能醫療與傳統醫療器械的區別在于后者僅提供給醫生測量數據,前者卻在此基礎上進一步分析相關醫療數據并給出意見,事實上已經接近醫生在醫療行為中的角色。人工智能技術本身的法律地位仍存在爭議,其或是法律關系的客體(客體說),或是法律關系的主體(主體說),或是強人工智能方具有法律人格(折衷說)。無論如何,至少在奇點來臨前,人工智能的法律人格仍舊有限,人工智能只能發揮智慧型工具的作用。對此,需要適用“刺破人工智能面紗原則”,對人工智能背后的控制人進行法律規制,以尊重人工智能的權利義務有限的客觀事實[4]。人工智能在法律層面無法獨立承擔責任,但可在事實或技術層面配套可問責的機制,這在計算機程序設計上要求能夠為人類所掌控,并能夠留存相關數據作為定責依據。

在人工智能醫療侵權糾紛中,人工智能醫療并非取代了傳統醫療器械,而是取代了醫生的價值。例如,人工智能醫療在醫療影像判讀等特定領域能夠勝任醫生的崗位。但是,在既存法律體系下的人工智能卻無法獨立承擔責任。由此,人工智能的發展模糊了人與工具之間的界限。人工智能醫療的法律規制思維是一種兼有規制傳統醫療器械與規制醫生的雙重思維,技術規制層面具有復雜性。

2.醫療侵權責任的分配具有復雜性

人工智能產品侵權責任分配主要有四種路徑,即產品責任說、高度危險責任說、用人者責任說與法律主體責任說[5]。人工智能產品雖具有部分自我意識并產生替代人類部分行為的現實效果,但目前仍不是法律意義上的“人”。在現實中,人工智能導致的損害問題可能是由侵權人非法控制造成的損害,也可能是人工智能自身產品瑕疵造成的損害。前者需要遵循技術中立原則,未盡善良管理義務之人需要承擔替代責任;后者則直接適用產品責任原則即可,適用《中華人民共和國民法典》(以下簡稱《民法典》)關于產品責任的相關規定[6]。在這個角度,人工智能醫療使醫療行為不再僅是患者與醫生之間的行為,可能在此之外還有人工智能或其控制人的行為,責任承擔主體會比傳統醫療行為更為寬泛。

其一,當前的人工智能醫療器械仍屬于醫療器械,因人工智能瑕疵導致的醫療事故依《民法典》產品責任的規定進行侵權責任的分配。在外觀上,人工智能執行的是醫生的診斷治療決策,可能被認為屬于醫療行為,適用醫療糾紛的規定進行侵權責任的分配。人工智能產品缺陷的認定十分復雜,需要考慮設計上的“風險—效用”規則、制造上的“對預期設計的偏離”標準、警示方面的“合理充分”標準及跟蹤觀察方面的綜合判斷要求等內容[7]。

其二,醫生進行人工智能醫療時,可能因違反注意義務而形成過失。其中,在因人工智能錯誤導致的醫療糾紛中,醫生在客觀上缺乏對人工智能的控制性,而過失本身又要求對損害結果具有可預見性,且相關主體需要有回避義務,但人工智能算法的不透明性無疑阻斷了這種預見性,若過失產生的損害責任由醫生負擔,難免有對醫生過于嚴苛的疑慮。

(二)侵權責任的域外應對

人工智能醫療需結合具體的智能醫療裝備才能實現,即人工智能作為計算機程序必須依附于具體的醫療器械?;诖?域外法通常有兩種問題意識:第一,智能醫療裝備作為一種商品,其制造者是否需要承擔產品責任(無過失責任);第二,人工智能程序的制造者或所有者是否需要承擔產品責任。

1.美國不適用產品責任

美國《侵權法重述·第二版》第402A條要求產品銷售者對產品缺陷采取嚴格產品責任,采納消費者期待標準判斷產品的不合理風險,并將舉證責任負擔分配給更容易接觸到證據的被告。美國《侵權法重述·第三版》第6條對藥品與醫療器械的侵權責任進行規范,要求瑕疵同時符合“損害存在可預見的危險”與“損害充分超過可預見的治療利益”。這實際上已非產品責任,而是過失責任。承此,美國人工智能程序的制造者或所有者無需承擔產品責任,設計缺陷與警示缺陷不屬于產品責任的范疇[8]。一方面,人工智能醫療具備醫療屬性,本質上屬于醫療服務,美國產品責任僅適用于產品而非服務;同時,作為“博學中間人”的醫生更了解其中的醫療風險,負有風險告知責任,智能醫療設備制造者并無直接的風險告知義務。另一方面,人工智能程序設計并非有形物,即使算法錯誤,也不屬于美國《侵權法重述·第三版》第19條規范的客體范圍,不能適用產品責任。

2.日本適用產品責任

日本《制造物責任法》并未免除醫療器械制造者的產品責任,智能醫療裝備的制造者需承擔產品責任。不僅如此,在人工智能配合醫療器械運作時,人工智能程序的制造者或所有者也需要承擔產品責任,并落入無過失責任的歸責范疇。在人工智能程序的設計者屬于生產者的情況下,即使以技術無過失進行抗辯,也無法得到責任免除[9]。若設計者獨立經營,則需要主張瑕疵是不可預見的,并在此基礎上承擔無法發現瑕疵的舉證責任,才能不為人工智能的行為承擔責任。另外,在人工智能純粹作為軟件程序運作而無需依托醫療器械時,人工智能程序的制造者或所有者不必承擔產品責任,只承擔一般過失責任。

3.侵權判斷的具體標準

人工智能醫療對侵權判斷具有反作用,也推動醫療侵權責任規則的發展。醫生對患者進行診斷醫療時,若違背最低限度的勤勉、謹慎、專業等要求而造成患者損害,則醫療過失成立。其中,認定醫療過失行為的關鍵在于是否違反注意義務。依美國傳統侵權法理論,若人工智能醫療對健康的診斷或治療事實上比普通醫生更可靠,則可能發生科技改變習慣的情況,并提升醫生注意義務的標準[10]。當然,從美國醫療訴訟的實踐上看,醫生是否在醫療過程中達到理性醫生的標準,屬于陪審團的判斷范疇;但至少人工智能在介入醫療過程中能動搖一般大眾對醫療標準的認知與期待,應當予以承認。

日本法以臨床醫療實踐中的“醫療水平”作為認定醫療過失的標準,未達此標準時則有過失。在具體個案中,法官會權衡醫療知識的普及性、專業性、地域性及醫療機構的規模、性質進行綜合判斷。日本行政機關雖已明確因為人工智能的錯誤導致的醫療侵權事故由醫生承擔最終責任,但人工智能的錯誤并非為醫療機構所廣泛知悉時,利用其進行醫療診斷的醫生并不會被追究過失責任[11]。醫生作為人工智能的利用者,對人工智能具有管理責任,類推適用動產占有人責任,其中涉及舉證責任的推定問題。美國和日本正積極通過法律調整人工智能醫療風險承擔關系,人工智能醫療基于深度學習而獲得的“自主性”使其在某種程度上管控著醫療行為,進而影響法律標準的認定。

(三)本土的侵權責任分配

1.我國的醫療侵權責任體系

依我國法律規范與學界主流見解,人工智能本身仍舊是法律關系的客體,人工智能醫療侵權并不會動搖我國現有的侵權責任分配體系。根據我國2021年修訂的《醫療器械監督管理條例》第103條的規定,醫療器械運行所需要的計算機軟件也屬于醫療器械。在我國語境下,作為計算機軟件的人工智能屬于醫療器械,因人工智能瑕疵導致的醫療事故,也有直接適用產品責任的解釋空間。因此,人工智能程序的制造者或所有人也屬于我國產品責任的適用主體范圍。作為商品的人工智能程序還應當符合合理期待之安全性的要求,這種安全性要求需契合時代的科技水平與專業水平。由上述可知,醫療器械侵權具有一般醫療侵權與產品侵權兩種屬性,前者適用過失責任,后者則適用無過失責任。

隨著侵權法理論與實踐的發展,醫療器械與藥品等侵權逐漸從一般醫療侵權中獨立出來并走向產品侵權。醫療器械侵權的本質是產品致害侵權,這種見解能夠更好地保護患者的權益[12]。我國不同于美國,服務也被納入產品責任的范疇,即使是具有公益性的醫療服務,也同樣采取無過失責任進行規范。無論是醫生還是患者在使用智能醫療設備時,若非因設備本身的缺陷,而是由于自身過失導致的損害,則由相關的與有過失的主體承擔損害賠償責任。若是因智能設備自身缺陷導致患者遭受損害,則應由醫療機構先行賠償,但醫療機構之后享有對生產者的追償權。原因在于,依據《醫療技術臨床應用管理辦法》第6條的規定,醫療機構需要對人工智能醫療的臨床應用和管理承擔主體責任,智能醫療設備屬于輔助性地參與醫療活動,醫生對這種輔助工具的診斷具有核查義務。同時,有學者指出,以ChatGPT為代表的生成式人工智能技術具有廣泛的用途,為避免對程序設計者造成過大的責任風險,不宜采取產品責任的歸責路徑,原則上應采取一般侵權的歸責路徑[13]。例外的是,生成式人工智能被集成至某硬件產品中或與硬件產品的功能具有密切的聯系,則仍應采取產品責任的歸責路徑。在此意義上,當前的人工智能醫療仍屬于以產品為主的應用,適用產品責任具有可行性。

2.產品責任下的責任主體

在產品責任的背景下,我國人工智能醫療侵權的責任主體呈現寬泛化與多元化的態勢。依我國《民法典》第1223條規定,因醫療器械缺陷造成患者損害時,醫療器械的生產者和醫療機構都是醫療損害責任的承擔主體。但最高人民法院《關于審理醫療損害責任糾紛案件適用法律若干問題的解釋》進一步擴張了《民法典》的主體范圍,除了醫療機構與醫療產品的生產者,醫療產品的銷售者也是責任承擔主體。原因在于,不同于《民法典》“醫療損害責任”章的條文規定,銷售者承擔的責任屬于“產品責任”章的內容,二者因為法律對侵權行為的類型化而分立。我國司法解釋則進一步明確了我國司法實務的主張,人工智能醫療侵權兼有醫療損害責任與產品責任的雙重屬性,故而相對于《民法典》的規定有主體范圍擴張的情況。

在由人工智能引發的醫療事故中,人工智能的生產者需要承擔產品責任,因科技水平或人類認知水平的限制造成的醫療意外除外。除了人工智能的生產者外,人工智能的使用者主要是醫務人員。結合醫務人員在因人工智能引發的醫療事故中的過失情況,醫務人員未盡注意義務時需承擔過失責任[14]?,F實中的人工智能醫療行為往往更為錯綜復雜,一個醫療侵權損害結果可能是無意思聯絡的多個行為共同促成的,責任主體也因此多元化。例如,在人工智能醫療影像診斷侵權糾紛中,相關的侵權行為就屬于典型的多數人侵權的情形,并且屬于“間接結合”的分別侵權行為[15]。因為,人工智能醫療的影像錯誤診斷本身只是起到輔助性的作用,并不會對患者構成醫療損害,必須結合影像科醫生的診斷與臨床醫生的治療,才能最終對患者構成醫療損害。至于責任主體內部的損害賠償額度,則需要另行依據多數人侵權的“原因力”規則進行分配。

由上述可知,我國人工智能醫療侵權糾紛存在醫療損害責任與醫療產品責任的雙重結構。人工智能在醫療中僅具有輔助性地位,醫務人員仍舊是相關責任承擔的主要責任主體,前者在客觀上發展了后者的義務內涵。一是重構理性醫生標準,醫療人員應履行適當的判斷義務;二是強化醫務人員的特殊告知義務,醫務人員應向患者警示人工智能醫療的算法與其他產品缺陷[16]。在此責任分配體系下,當前人工智能醫療法律規制的重點表現在三方面,即在前端強化醫務人員的主體責任,在中端尊重患者的知情同意權與自主決定權,在后端注重產品責任與醫療過失責任的分配與認定[17]。這些也是未來我國在實體法層面對人工智能醫療責任分配體系予以完善的有益參考。

三、舉證回歸:人工智能醫療糾紛中舉證責任的分配

(一)原告的舉證責任分配

證據裁判主義要求依證據進行案件事實的認定,訴訟的成敗常取決于當事人在證據攻防上的結果。舉證責任制度就是在法律上分配由何方當事人承擔因案件事實真偽不明產生的裁判上不利后果的制度。舉證責任的分配常被認為屬于實體法的問題,羅森貝克創立的規范說也要求與實體法上的法律要件結合以分配舉證責任。因此,研究人工智能醫療糾紛中舉證責任分配的前提是厘清實體法上侵權責任的性質及其認定規則。

因我國將人工智能醫療侵權糾紛視為具有醫療損害責任與產品責任兩種性質的糾紛,人工智能醫療侵權糾紛屬于請求權競合(責任競合)的情形。我國實務通說對此采取“擇一行使、擇一消滅”模式進行處理,允許兩個請求權一并交由受害人在訴訟中選擇其中一個行使,兩種侵權在舉證責任方面存在差異[18]。雖然兩個請求權不得同時實現,但我國司法實務允許當事人在其中一個請求權被法院駁回時,就同一事件依另一請求權再行起訴,尋求另一種法律性質的損害賠償救濟。在類推適用《民法典》第186條規定時,患者作為原告可擇定其中一種請求權進行民事訴訟的證明活動,患者在其中所承擔的舉證責任是不同的。例如,在人工智能醫療損害責任的背景下,患者仍需在優勢證據標準下證明醫療機構沒有達到診療注意義務的要求,證明侵權中的過失要件;在產品責任的脈絡下,特殊情況下的患者可遵循高度危險責任下的無過錯歸責原則,由生產者證明產品不存在缺陷[19]。二者在證明要件及證明程度上存在明顯的差別。

患者若以醫療損害責任作為請求權基礎,則需要承擔過失責任下的舉證責任。根據“誰主張,誰舉證”的一般規則,患者需要承擔四個要件事實的舉證責任,即侵權行為、過錯、損害及因果關系。雖然學界對于醫療損害責任的舉證問題存在過錯責任說、舉證責任倒置說等不同見解,但實務中仍采取第一種主張,立法也考慮到醫療行為的專業性與特殊性,為了避免過錯推定對醫學技術的阻礙,確認了依過失責任的歸責方式進行舉證責任的分配[20]?;颊咴谶@種侵權損害賠償訴訟中需要承擔較高的舉證責任,敗訴的風險較大。相較于此,患者因人工智能錯誤受到損害,依產品責任的請求權基礎尋求訴訟救濟時,其承擔的舉證責任則較輕。

在人工智能醫療產品責任的場合下,患者并不需要就被告的過失進行舉證,只需要對人工智能的缺陷、遭受的損害及其因果關系進行舉證即可。人工智能存在缺陷是產品責任的核心,產品無缺陷時即無產品責任。同時,雖然我國法律與司法解釋并不支持缺陷產品的舉證責任倒置,被告僅對免責事由承擔舉證責任,但司法實務常常從消費者權益保護的角度進行舉證責任倒置或降低證明標準,只要求原告提出表面證據[21]。尤其是面對人工智能這種前沿科技的產品,要求患者對其缺陷進行充分的舉證并不現實,提出缺陷的表面證據就應當認定完成缺陷的舉證。由此,對于人工智能醫療侵權訴訟,患者主張產品責任所承擔的舉證責任較醫療損害之責任會更輕,勝訴的可能性亦會更高。

(二)被告的舉證責任分配

1.醫療損害責任的舉證責任

在醫療損害責任訴訟中,若原告已達成過失責任的舉證要求,被告可以對相關法律要件提出反證,使原告所提出的證據無法達到證明標準的程度。此時,依舉證責任轉移規則,原告將繼續承擔相關法律要件的舉證責任,其中的因果關系認定多依靠醫學鑒定,而推翻因果關系本身并不容易。因為醫療損害責任屬于過失責任,被告可以通過舉證自己完全履行對人工智能醫療的管理義務與對患者的合理診療義務,因并無過失而不需要承擔醫療損害責任。例如,人工智能得出的醫療分析結果認為患者需要進一步治療,醫生診斷后卻得出相左的判斷,因此對患者造成的損害并不能直接表明醫生存在過失。醫生若有合理忽略人工智能分析結果的醫學上的論據支持,則并不構成過失。

即使是在人工智能醫療中,醫生是否具有過失仍舊取決于其專業判斷是否符合醫療常規或當前的醫療水準,而并不在于其是否與人工智能的判斷不一致。蓋因醫療常規或醫療水準是在實證醫學證據的基礎上形成的,相較于人工智能的診療判斷更具有合理性,法律對其也更具有合理的期待性。當然,對于未經過充分醫學驗證的醫療常規,即使醫生遵循該醫療常規,也不能直接主張無過失,此時則需要結合人工智能的意見、當事人的病情等具體情況判斷其是否符合注意義務的標準。這種判斷標準也與《民法典》第1224條的立法意旨相符合,即在緊急情況下醫生已經盡到合理診療義務或限于當時醫療水平難以診療,醫療機構不承擔賠償責任。人工智能醫療與傳統醫療對于過失的認定并無本質區別,判斷被告是否具有過失仍舊以傳統醫療中經過充分驗證后的醫療常規為判斷標準,在證據效力上,人工智能的診斷意見通常無法對抗前者。

2.醫療產品責任的舉證責任

在產品責任的訴訟中,被告需要對不存在因果關系或不存在產品缺陷承擔舉證責任,借此進行無須承擔產品責任的抗辯。在產品的缺陷問題上,被告需要對人工智能不存在缺陷進行舉證,證明人工智能軟件符合安全性的合理期待,若舉證成功則無需承擔產品責任。其中,人工智能技術發展迅猛,固然在出廠時被告未知曉人工智能醫療的安全風險,但若客觀上能夠在患者使用前預知相關風險,則該風險抗辯并無效力,產品仍屬于存在缺陷的范疇。在人工智能醫療侵權糾紛中,被告可以通過主張《中華人民共和國產品質量法》第41條規定的三種客觀上不可期待及時發現產品缺陷的免責事由,使自己免于承擔產品責任。但是,復雜之處在于人工智能具有深度學習的能力,經過大量的數據分析后可能產生某種超出軟件設計者初衷的結果,此種風險可謂是人工智能技術特征使然,是其潛在的固有風險。若該風險屬于人工智能的缺陷,則因此導致的損害都無法主張產品無缺陷。這種因為機器學習導致的新的自主決定風險,其舉證責任并不適合由被告中的醫療機構或原告承擔,而需要由最有可能控制此種風險的生產者或軟件設計者承擔。

基于此,人工智能醫療侵權訴訟的被告需要遵守交易安全義務,承擔及時告知與警示的義務,并對這些義務的履行承擔舉證責任。原告對人工智能醫療具有合理的安全性期待,這種期待應當受到法律保護,原告不需要承受較大的舉證負擔。法律對于自主決定風險的認定是,只要因此對原告造成損害即推定原告符合表見證明的要求而完成舉證。另外,因為被告承擔的是產品責任,一般侵權的免責事由,如原告自己的故意或重大過失、第三人過錯或不可抗力等并不能免除被告的責任??梢?在產品責任訴訟中,被告需要負擔較重的舉證責任,這也是產品質量法與舉證公平的要求。

四、舉證完善:人工智能醫療糾紛中舉證規則的重構

(一)理論端:危險領域說的適用

危險領域說來源于德國的民事訴訟法,是對規范說的一種修正。為了落實舉證公平的理念,該理論要求對加害人就危險領域的舉證責任進行重新分配。具體而言,加害當事人處于危險領域而更容易接近證據,相關的舉證責任需要由加害人承擔。其本質上就是基于武器平等的理念,在損害原因處于加害人控制范疇時,加害人需對此承擔舉證責任。在人工智能醫療侵權訴訟中,許多證據都是處于加害人可以控制的范圍內。例如,人工智能的算法處于設備的生產者或軟件的開發者控制的范圍內,具體的醫療數據則處于醫療機構的控制范圍內,這些都可能構成損害原因。危險領域說則要求此時進行舉證責任的倒置,由被告負擔不存在這些損害原因的舉證責任??梢?危險領域說的實質就是對證據偏在情形下舉證責任的調整,因此產生舉證責任倒置的效果。

人工智能醫療侵權糾紛適用危險領域說的必要性源于人工智能醫療中存在的人工智能屬性與醫療屬性。在人工智能產品責任糾紛中,算法和數據具有封閉性的特征,這種不公開性造成了所謂的“黑箱效應”,生產者或軟件設計者之外的主體都無法知悉算法的具體內容。技術與信息的不對稱導致雙方當事人與證據的距離不同,原告基本不可能對人工智能的程序運行與決策進行還原。為了實現雙方當事人在舉證能力上的實質公平,需進行舉證責任的倒置,由被告承擔人工智能不具有產品缺陷的舉證,這也與被告對風險的預見及控制能力高的特征相吻合[22]。正因如此,對于非主體性人工智能的侵權證明問題具有實施舉證責任倒置的必要,這也與我國產品質量責任與管理者責任中的舉證要求保持一致[23]?;诖?原告應當只提供因人工智能造成損害的證明即可,被告需要承擔不存在產品缺陷與不存在因果關系的舉證責任。

同時,人工智能醫療所需要的各種患者個人信息及其他醫療數據,也大多由醫療機構所壟斷,數據偏在于醫療機構一方。醫療活動的特殊性使得人工智能醫療也有適用危險領域說的余地,畢竟醫療過程全然處于醫療機構的控制之下,如果人工智能導致的損害是在醫療機構所控制的風險下造成的,舉證責任也需要分配給醫療機構?;诖?德國實務有兩類案件適用危險領域說:第一類是醫療相關事項安排不完善導致的損害,比如設備或人員調度不合理導致的損害;第二類是醫療設備不符合使用狀態導致的損害,比如醫療設備使用不當導致的損害[24]。智能醫療設備通常都是由醫療機構所控制的,患者在使用前無法接觸,醫療機構負有更高的注意義務,符合危險領域說的適用條件。進而,融合算法特性與醫療特性的人工智能醫療具有雙重危險,適用危險領域說的舉證責任分配機制也具有更充分的正當性。

(二)證明端:舉證責任減輕的路徑

面對人工智能醫療中存在的證據偏在、當事人對技術控制力之不平衡等情況,民事證據法為落實武器平等原則,需要引入舉證責任減輕的機制。借鑒德國的重大醫療瑕疵理論,人工智能醫療可在此基礎上發展出“重大人工智能醫療瑕疵理論”。在人工智能算法存在重大瑕疵時,原告所受的損害與人工智能重大瑕疵之間的因果關系證明需要被減輕,即法院應當推定因果關系成立,并轉由被告負擔推翻這種推定的證明責任。對人工智能的這種重大瑕疵的判定,表現為其明顯違反人工智能相關技術規范,并發生客觀上難以理解的人工智能錯誤。這種舉證責任減輕的方式,并非為了懲罰產品生產者或軟件開發者不履行其注意義務,而是因為人工智能技術在重大瑕疵的情況下常發生難以厘清的因果關系,原告常陷入舉證困難。相較于此,被告存在技術上的優勢,更可能厘清其中的因果關系,故而減輕原告的舉證責任,要求被告承擔更重的舉證負擔。面對難以厘清的技術性之因果關系,應當減輕原告的舉證責任,解明因果關系的不利益由被告負擔也較為公平。

在人工智能醫療糾紛中,除了技術性特征導致的舉證責任減輕以外,也有行為導致的舉證責任減輕。一方面,人工智能醫療糾紛中可以適用表見證明規則。這是一種減輕原告舉證責任的方法,只需要證明某一客觀存在事實,法院在該事實的基礎上,借由一般生活經驗能夠推定另一重要待證事實的存在。例如,利用微型手術機器人對患者進行手術后,手術部位遺留了本應取出的微型手術機器人或者紗布等其他醫療品,能夠直接推定醫療機構具有過失。事實上,針對過失行為的舉證,通常需要結合常識判斷來推定過失,而非提出直接證據。這種推定也有一定的要件要求,例如原告不存在故意或者原因力,以及被告對損害的發生具有排他性的控制力。

另一方面,被告方發生妨礙原告使用證據的情形,例如將相關醫療數據進行損毀或隱匿,也可推定相關證據所欲證明的事實為真實。此時并非舉證責任的倒置,而是法院審酌妨礙情形之后,降低了自由心證證明度的要求而認定事實為真,屬于舉證責任減輕。例如,患者要求醫療機構提供人工智能診療記錄,但醫院無正當理由拒不提供,違反了訴訟法上證據調查的協力義務,法院可以推定患者欲舉證的事實為真實。行為導致的舉證責任減輕相當仰賴法院的自由裁量,個案的具體情況、證據的重要性程度皆不相同。舉證責任是否減輕及減輕的程度,并無法律上的必然性,而是取決于法院依照個案情況進行的自由裁量。

(三)法院端:證據調查機制的完善

無論是因人工智能醫療的證據偏在,還是算法本身的不透明性,法律都很難期待原告有充足的證據收集能力。對此,法院、當事人及當事人之間發現真實的權能與責任需要重新分配,防止因證據法上不可歸責于當事人的事由導致舉證上的不利益。無論是大陸法系國家的事案解明義務還是英美法系國家的證據開示義務,其實都是對民事訴訟法律關系主體在發現真實方面的舉證之再分配。我國雖然并不一般性地適用事案解明義務,但承認例外性、特殊性的事案解明義務。例如當案件同時符合三個要件時則更容易適用事案解明義務:其一,負擔舉證責任的一方因處于事件外而不得期待知悉主張的事實;其二,不負擔舉證責任的一方易于提出證據;其三,依訴訟法的誠信原則,要求不負舉證責任的一方提出證據具備可期待性[25]。在人工智能醫療糾紛中,患者之外的主體可能符合事案解明義務的三個要件,承擔事案解明的義務。事案解明義務是一種例外性的證明協力義務,法院基于相關主體的事案解明義務與促進訴訟的必要,期待相關主體提交相關的資料。被告不履行事案解明義務的結果是法院在原則上可以推定原告主張的事實成立。

在人工智能醫療糾紛中,在不可歸責于原告無法收集證據的情況下,應當加強保障原告向法院申請證據調查的權利。人工智能醫療糾紛符合我國當事人申請證據調查的特定情形,即與案件相關的信息偏在于對方當事人,以及當事人無法知悉事件的經過。當事人申請證據調查除了主題特定化的要求外,還需要滿足適時提出的要求與證據調查的必要性要求[26]。在因人工智能的錯誤導致患者損害的情形下,人工智能的錯誤屬于產品責任成立的關鍵,患者本身無法接觸到相關的人工智能技術與數據,當事人若及時提出證據調查申請,法院應當予以準許。在此基礎上,法院可以向相關文書的持有人(包括對方當事人與持有文書的案外人)發出文書提出命令。對方當事人若違反文書提出命令,則需要承擔證據認定上的不利益;案外人違反文書提出命令,則會受到罰款、拘留等強制制裁[27]。其中,因為人工智能算法本身涉及商業秘密,法院需對文書提出命令制度附加秘密保護制度,避免相關主體因秘密泄露產生的不利益。例如,設置拒絕文書提出的除外事由,明確文書提出的保密程序,在一定情況下允許不公開審判或進行私下審查等等[28]。故而,法院在進行證據調查時,不能追求增強一方當事人證據收集能力而罔顧對方當事人的利益。

五、結語

人工智能介入醫療行為后產生的侵權糾紛在侵權責任承擔方面兼有醫療損害責任與產品責任兩種屬性,當事人可依照我國實務通說擇定實現責任競合中的一個請求權。不同的請求權路徑對當事人的舉證責任產生不同的分配機制。依規范說的要求,法院進行舉證責任分配的基礎是實體法上的法律要件。依一般醫療糾紛的舉證責任要求,原告需要承擔過失責任的四個法律要件的舉證責任;依產品責任的舉證要求,原告也需要承擔無過失責任的三個法律要件的舉證責任。然而,人工智能醫療本身具有算法的不透明性與醫療數據的偏在性等特性,我們并不能機械地運用規范說進行舉證責任的分配,而需要引入危險領域說對其進行必要的修正,亦即為了尊重人工智能醫療糾紛的特殊性,需要在舉證責任規則方面進行再度修正。對于不可期待原告進行舉證的部分,采取舉證責任的倒置及舉證責任的減輕。在證據收集方面,法院也可以通過介入證據調查來提升當事人的證據收集能力。本文僅是從學理的角度進行探討,未來如何將上述證據法上實質公平的理念貫徹于司法實務之中,仍舊有待學界進行更精細化的探索。

猜你喜歡
義務證據人工智能
幸福的人,有一項獨特的義務
2019:人工智能
人工智能與就業
三十載義務普法情
跟蹤導練(一)(4)
數讀人工智能
對于家庭暴力應當如何搜集證據
下一幕,人工智能!
手上的證據
“大禹治水”有了新證據
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合