?

論人工智能產品發 展風險抗辯的適用

2023-02-28 10:08高完成
科技與法律 2023年6期
關鍵詞:生產者科學技術人工智能

高完成

(鄭州大學 法學院,鄭州 450001)

人工智能引領的新一輪科技革命和產業變革方興未艾,當前我國人工智能產業發展呈現良好態勢?!?022 人工智能發展白皮書》顯示,2021 年我國人工智能核心產業規模達到3 416 億元,人工智能相關企業數量達到7 796 家①2022年3月深圳市人工智能行業協會發布的《2022人工智能發展白皮書》。。2022 年7 月科技部等六部門印發的《關于加快場景創新 以人工智能高水平應用促進經濟高質量發展的指導意見》指出,以促進人工智能與實體經濟深度融合為主線,加速人工智能技術攻關、產品開發和產業培育,探索人工智能發展新模式新路徑。該意見為我國人工智能重大應用和產業化問題指明新的發展方向。人工智能產品極大提升了人類生產生活質量,但與此同時,人工智能的科技特征也可能存在產品潛在風險的不確定性問題。一旦人工智能產品存在缺陷引發系統性風險,將可能產生大規模產品致害事故的市場風險隱患。

習近平總書記在關于人工智能發展的重要論述中強調,要加強人工智能發展的潛在風險研判和防范,維護人民利益和國家安全,確保人工智能安全、可靠、可控②《習近平在中共中央政治局第九次集體學習時強調:加強領導做好規劃明確任務夯實基礎 推動我國新一代人工智能健康發展》。。我國《新一代人工智能發展規劃》提出要圍繞人工智能產品的復雜性、風險性、不確定性等問題,構建人工智能安全監測預警機制。2023 年6 月,國務院辦公廳印發《國務院2023 年度立法工作計劃》,其中明確將《人工智能法》作為新興領域立法的重要內容之一。當前,我國亟須跟進研究人工智能產業相關法律制度,既要激勵人工智能產品的研發創新,又要對人工智能產品的致害風險加以防范,以良法善治保障人工智能新業態、新模式健康發展。面向人工智能產業的未來發展前景,如何從法律制度層面協調保障人工智能產品安全與鼓勵技術研發創新,關鍵在于合理配置發展風險與產品責任之間的關系?;诖?,本文擬對人工智能產品發展風險問題展開研究,通過將發展風險抗辯置于人工智能產品責任體系框架之中進行探討,分析如何化解發展風險抗辯制度運行的體系化邏輯障礙并明確其適用規則,構建消費者保護與人工智能企業創新之間的法律平衡機制,從而促進人工智能產業的良性發展。

一、人工智能產品責任領域適用發展風險抗辯的正當性分析

現代產品責任適用嚴格歸責原則并不意味著發生損害即產生責任的所謂“絕對責任”后果,各國產品責任法均規定了生產者免除或減輕責任的抗辯事由?!鞍l展風險抗辯”(Development Risk Defense)作為其中一項抗辯事由,是指當生產者將產品投入流通時的科學技術水平尚不能發現缺陷存在的,即使其后由于科學技術的進一步發展而認識到產品存在缺陷,那么生產者也可以援引的對該產品致損后果的不承擔賠償責任的抗辯主張[1]。發展風險抗辯涉及產品責任法的基礎性問題。在現代產品責任適用嚴格歸責原則的價值理念中,發展風險抗辯的存在將使立法者處于保護消費者使用安全與鼓勵生產者研發創新的兩難境地。同時,發展風險抗辯也體現著法律對于產品責任領域生產者與消費者之間風險因素的分配。

在當前人工智能產品大力推廣應用的趨勢下,由于人工智能產品具有高度復雜性和自主性的技術特征[2],人工智能系統的不透明性可能導致對產品安全的預測充滿不確定性,這就可能會導致人工智能產品引發的缺陷致損后果具有滯后性。對于人工智能產品的生產研發企業而言,如果人工智能產品存在缺陷造成損害后果,那么其就可能借由人工智能產品的技術特征而援引發展風險抗辯以免于承擔責任,從而導致受害者很難通過主張產品責任的損害賠償而獲得救濟。盡管人工智能產業具有廣闊發展前景,但也不能以犧牲人類利益為代價換取技術創新和突破[3]。因此,在人工智能產品領域,關于發展風險抗辯能否適用存在不同程度的隱憂。其主要焦點在于,發展風險抗辯是否適應于人工智能技術應用場景下產品生產者與消費者之間的風險分配關系,發展風險抗辯能否為一般消費者提供有效的保護,發展風險抗辯與嚴格責任原則是否存在體系矛盾。此外,人工智能產品發展風險抗辯的適用標準也存在模糊不清的問題,主要表現為發展風險抗辯的界定標準、適用范圍以及補救機制均缺乏明確的規范指引,這就可能導致發展風險抗辯在人工智能產品發展應用中遭遇不確定性的現實難題。

2022 年9 月28 日,歐盟委員會通過了《關于〈歐共體缺陷產品責任指令〉修改的提案》(Proposal for a DIRECTIVE OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on liability for defective products),該提案對產品責任規則在新興數字時代的適用問題進行了全面評估,其中特別強調人工智能產品應用場景下發展風險抗辯可能存在的困境,并提出取消保留發展風險抗辯的方案選擇,以確保在新興數字時代為一般消費者提供高水平的有效保護[4]。但是,歐盟委員會設立的“責任和新技術專家組”所發布的一份《關于人工智能和其他新興數字技術責任的報告》(Liability for Artificial Intelligence and Other Emerging Digital Technologies),卻認為發展風險抗辯對于人工智能產品研發具有重要的價值意義,應當予以保留[5]??梢?,當前歐盟層面對于發展風險抗辯的規范價值也存在不同的認識。

盡管對于是否應當在人工智能產品場景下適用發展風險抗辯存在分歧,但是將發展風險抗辯置于整個產品責任制度框架予以審視,保留該抗辯事由具有相對妥當的法律政策基礎。發展風險抗辯能夠為整個社會科學技術的進步創造良好的法律環境[6]。就產品的創新而言,生產研發企業固然能夠通過新產品的投入流通而獲取利潤,事實上產品創新也離不開消費者的市場需求,并且消費者也能分享產品創新帶來的益處。尤其是對于具有新科技特征的人工智能產品的研發而言,保留發展風險抗辯是必要的與合理的。

其一,在人工智能產品場景下確立發展風險抗辯是鼓勵產品創新的重要動力。在人工智能產品的生產研發過程中,如果要求企業對于發展風險承擔全部責任,則勢必會對產品的研發創新產生不當的抑制作用。創新的本質在于,產品在使用過程中可能遇到的風險在其投入市場時根本無法被全部或部分合理地確定或量化。當然,一種可能的方法是要求生產商在銷售產品之前對其進行全面測試,但這又是不現實的。如果要求對人工智能產品的風險持續進行測試,直到確定使用一種產品可能出現的所有風險為止,那么幾乎沒有企業具有進行革新的動力,產品的創新研發也將停滯不前,最終消費者也不能從人工智能技術的進步中獲益[7]。如果能夠妥當構建人工智能產品責任體系中的發展風險抗辯,那么將有助于增強人工智能產品的研發動力,而這正是當今激烈競爭的產品市場所迫切需要的,發展風險抗辯正是人工智能產品抗辯體系中的關鍵內容[8]。

其二,通過發展風險抗辯能夠公平分攤人工智能產品研發中的風險。由于整個社會受益于科學技術的進步,因而伴隨這一進步產生的不可避免的風險應該分配給享受這一進步成果的主體[9]。消費者與生產研發企業并非截然不同的利益沖突群體,而是人工智能產品市場整體系統的一部分,如果消費者希望分享產品創新帶來的利益,那么也應適當分擔產品創新所涉及的一些風險。盡管生產研發企業在幾乎所有情況下都承擔因其缺陷產品造成的損害賠償風險,但在產品確實具備了客觀的、預期的安全水平的情況下,消費者通常應承擔被稱為產品未知風險的責任[7]。從表面上看,將發展風險抗辯納入人工智能產品領域是為實現“受害者與生產者之間公平分攤風險”的最佳點而做出的設想。實際上,發展風險抗辯是在嚴格責任與公平分擔風險之間、生產研發企業與消費者之間搭建的橋梁。通常,社會大眾從人工智能產品中獲得的利益大于生產者的經濟利益。因此,風險的分攤評估必須與社會的整體利益相平衡,而發展風險抗辯的存在則能夠較好實現這一目標[10]。

其三,發展風險抗辯與人工智能產品嚴格責任之間具有可調和性。由于在產品責任領域實施嚴格責任的理由之一是生產者具有發現和避免產品缺陷的能力,而生產者在發展風險中不可能發現或避免未知的風險,因此使生產者對發展風險承擔嚴格責任似乎與實施嚴格歸責原則的基本原理相違背。事實上,發展風險抗辯與嚴格責任的規范精神相契合。如果沒有發展風險抗辯,那么生產者承擔的嚴格賠償責任將可能成為絕對責任[10]。發展風險抗辯的確立并沒有推翻嚴格責任原則,人工智能產品研發風險與嚴格責任具有可調和性,主張嚴格責任的適用并不應當使生產者成為產品的絕對保險人。如果對開發風險的嚴格責任導致了絕對責任,也將意味著迫使生產者成為其產品的絕對保險人。

二、發展風險抗辯融入人工智能產品嚴格責任體系的優化路徑

產品責任的現代發展表現出遏制過于絕對嚴格化的傾向,而發展風險的抗辯將能夠發揮必要的輔助機制[11]。在人工智能產品嚴格責任中,如果純粹依據消費者合理期待標準,排除發展風險抗辯的主張似乎符合邏輯性,因為生產者對產品危險的知悉或者消除危險的能力與消費者實際期待的安全程度并不相關。但需要注意的是,消費者合理期待標準也并不意味著是對人工智能產品抱有漫無邊際或不切實際的安全期望,對于消費者合理期待標準的認識同樣離不開現實的科學技術水平的依托,否則會導致嚴格責任接近于絕對責任。如果人工智能產品符合投入流通當時的科學技術水平,原則上該產品會被認定為符合消費者合理期待的安全性,不得被認定為屬于缺陷的產品??梢哉f,發展風險抗辯與消費者合理期待標準的判斷已經直接交織在一起,產品投入流通市場之時的消費者合理安全性期待一般可以依據受支配的科學技術水平作為判斷標準[12]。由此可見,為了避免嚴格責任原則與發展風險抗辯之間發生直接的邏輯沖突,可以采取將發展風險抗辯融入人工智能產品缺陷判斷標準這一可行的解釋路徑,從而消除具有過錯性質的發展風險抗辯與嚴格責任體系不能兼容的困境。

申言之,發展風險抗辯在人工智能產品責任中所發揮的作用不再是針對產品缺陷侵權責任成立基礎之上實際責任承擔的抗辯,而是直接針對產品缺陷認定方面的抗辯。在美國產品責任法上,發展風險抗辯適用于產品設計缺陷和警示缺陷的案件,其所發揮的抗辯功效在于使得對產品設計缺陷和警示缺陷進行判斷時融入科學技術水平的相關證據[13]。以產品設計缺陷的判斷標準為例,當前美國司法實踐對此的主導標準是采用“風險—效用”標準,并通過合理替代性設計這種具體方式對產品既有設計安全改進所引發的成本和效益進行權衡。其中,產品的合理替代性設計需要建立在現有業內技術水平的基礎之上,這對于判斷產品是否存在設計缺陷非常關鍵。如果產品的合理替代性設計超出了現有的業內技術水平,即依據當時的科學技術水平并不能設計出更為安全的替代性產品,那么則不能認定目前產品的狀態是具有缺陷的,生產者將免于承擔產品致人損害的責任。在產品警示缺陷案件中,發展風險抗辯的意義在于認定生產者對未知悉的產品危害風險是否負有警示的義務。由于生產者僅就產品投入流通時可發現的產品危險致損承擔責任,如果依據當時的科學技術水平并不能發現產品的危險,則生產者未盡到相應的警示義務也不構成產品在警示方面的缺陷。

易言之,采取將發展風險抗辯中科學技術水平證據作為產品缺陷判斷標準相關性的適用方式,能夠使得具有過失性質的發展風險抗辯事由被限定在產品缺陷的判斷過程,并不影響產品責任嚴格歸責原則的基本法律架構。在發展風險抗辯適用的上述情形中,由于受到科學技術水平客觀證據的限定,法律對于生產者過失行為的關注也僅僅局限在對產品缺陷的判斷方面,并不影響產品責任適用嚴格歸責原則的本質。只要依據發展風險抗辯中科學技術水平的證據判定人工智能產品不具有缺陷,那么將不符合產品責任的成立要件;如果依據發展風險抗辯中科學技術水平的證據判定人工智能產品存在缺陷,并且產品缺陷與損害之間具有因果關系,那么也不需要再考察生產者主觀上是否具有過失的情形,生產者將因此承擔法定的嚴格責任。

依據《中華人民共和國產品質量法》(以下簡稱《產品質量法》)第四十一條第二款第三項的規定,如果生產者能夠證明將產品投入流通時的科學技術水平尚不能發現缺陷存在的,將免于承擔損害賠償責任。從該表述規定來看,生產者援引發展風險抗辯的目的在于證明產品投入流通時的科學技術水平并不能“發現”產品缺陷的存在,這就為將發展風險抗辯限定于產品缺陷的判斷方面提供了可能的解釋空間。由于《中華人民共和國民法典》(以下簡稱《民法典》)對于產品責任秉持嚴格歸責原則,產品責任的成立并不以生產者的主觀過失為判斷因素,而是依據產品是否存在缺陷的客觀判定結果。因此,在我國現行的產品責任框架之中,將發展風險抗辯融入嚴格責任體系的可行路徑是將科學技術水平作為人工智能產品缺陷判斷時的相關證據,從而實現將發展風險的抗辯功效由產品責任的豁免轉向產品責任不成立的邏輯結果,以避免發展風險抗辯與人工智能產品嚴格責任體系之間的邏輯沖突。

三、人工智能產品發展風險抗辯的標準厘定

由于我國現行法規缺乏發展風險抗辯的實施標準,這就可能造成實踐中人工智能產品發展風險抗辯具體適用標準的模糊。對于人工智能產品生產研發企業而言,則意味著人工智能產品研發和生產的技術標準缺乏明確的指引,那么生產研發將囿于對潛在風險的擔憂而停滯新產品的市場投放。由此可見,當前厘清人工智能產品責任中發展風險抗辯的適用標準極為關鍵。

(一)人工智能產品“科學技術水平”的界定依據

由于人工智能產品具有高科技特性,且發展速度日新月異,對于發展風險抗辯中“科學技術水平”顯然缺乏明確的界定[14]。究竟是依據當時國內技術標準,抑或是國際技術標準,以及是否應當考慮生產者對于相關知識的可獲取性等因素,都是需要進一步明確的。

當前,經濟全球化已經成為了一項普遍共識,產品流通也不再局限于某一國內市場,而是呈現出跨國貿易的態勢。與此相對應,產品的生產技術水平也應當隨著產品市場范圍的擴大而具備更高程度的安全標準。人工智能產品發展風險抗辯中的科學技術水平不應當限于國內的最高技術水平,而是應當以世界范圍內的最新科學技術水平為依據。這樣將更有利于激勵生產者及時跟蹤世界范圍內人工智能產品研發的前沿技術,從而更好地提升產品的安全性能。易言之,“科學技術水平”通常并不是指與國內行業慣例有關的證據——當一種可能受到質疑的產品被引入產品流通時特定行業中的大多數制造商的技術標準。在一定程度上而言,發展風險抗辯中的科學技術知識狀態含有某種共識或固定的基礎。

以當前人工智能產品的研發與生產為例,人工智能產品作為高度復雜的尖端科技產品,其研發、設計與制造的技術往往被實力雄厚的科技公司所掌握。如果僅僅依賴國內相關企業的生產技術水平并將其作為判斷能否發現產品缺陷的最高科學技術水平,則此種發展風險抗辯的標準過于寬松,這將明顯不利于對消費者權益的保護。將產品投入流通時的“科學技術水平”理解為世界范圍內最先進的科技水平,能夠防止一些科技巨頭企業以其自身掌握的國內領先技術為由來逃避責任[15]。另外,當前以人工智能產品為典型的新興科技產品,其研發技術可謂日新月異,只有將整個世界范圍內的相關科學技術水平作為發展風險抗辯的依據,才能有助于促進國內相關領域的安全生產技術水平與世界標準保持同步。

在認定發展風險抗辯中的科學技術知識水平時,還應當注意考量生產者對于最新科學技術知識是否具有信息獲取的可行性。盡管歐盟對人工智能產品發展風險抗辯中科學技術知識的解釋尚無正式決定性的文件,但傾向于主張將知識的可及性納入合理性標準的考量方面。關于產品最新科學技術的知識首先應當是已經公開的,如果是尚未向社會公布的相關科學知識,則生產者根本沒有獲取該知識的可能性,也不具備發現產品缺陷與規避風險的能力。對于未發表的文獻或者在企業研究部門中保留的未向社會公眾提供的研究成果,則不能被認為是已經公開的科學技術知識[16]。生產者對于已經公開的科學技術知識應當能夠通過合理的途徑予以獲取,此種可獲取性是生產者識別最新科學技術和研發產品的基本前提,其與以發展風險抗辯為基礎的產品責任風險分配原則也相契合。

(二)發展風險抗辯的適用范圍

對于發展風險抗辯的適用范圍,當前歐盟一些成員國與美國產品責任法形成了兩種不同的方案。在歐盟的一些成員國中,德國通過制定《藥品法》的方式將藥品存在不合理的危險致人損害排除適用于發展風險抗辯之外[16]?!斗▏穹ǖ洹吩谶M行修訂時增加了第1386-12條的內容,規定由人體某一部分或從人體中提取的產品造成損害的不得援引發展風險抗辯免于承擔責任[10]。在美國產品責任法上,由于工藝發展水平只與產品設計缺陷、警示缺陷的判斷標準相關,因此發展風險抗辯主要被限定適用于設計缺陷與警示缺陷的案件之中[17]。

所謂針對與消費者人身健康安全息息相關的產品而主張排除發展風險抗辯的適用[18],并不具有合理性依據。如果僅僅考慮此類產品與消費者人身健康安全關聯度較大就否定生產者發展風險的抗辯則未免過于草率,這也不利于此類產品的科技創新,最終損害的也是廣大消費者的利益。以20世紀60年代至80 年代期間美國疫苗產品的曲折發展過程為例,由于疫苗制造商對于依據當時科學技術水平所不能發現的疫苗副作用而承擔嚴格責任,疫苗生產企業的科技創新積極性備受壓制,甚至為了避免大規模產品責任訴訟而固守研發技術,導致疫苗產品行業的發展長期處于停滯不前的局面,這最終影響了社會公眾的健康利益[19]。此外,針對特殊類型的產品主張限制適用發展風險抗辯還存在列舉不夠周延的弊端,食品、藥品、血液制品固然與人身健康安全密切相關,但是這種不完全性的列舉將會導致法律適用上的不確定性,也不符合產品責任的公正性要求。

筆者認為,對于人工智能產品責任中發展風險抗辯的適用范圍是否應當受到限制以及應當在何種程度上予以限制,還需要根據發展風險抗辯的制度價值進行考量。發展風險抗辯在人工智能產品責任領域適用的主要目的在于對嚴格責任原則進行必要的矯正,防止生產者對于不可能預見的人工智能產品風險承擔絕對的責任,以平衡生產者與消費者之間的利益關系。在產品責任中實施嚴格責任的理由之一是生產者具有發現和避免產品缺陷的能力,而生產者在產品發展風險中不可能提前發現或避免不可預知的產品風險。如果沒有發展風險的抗辯,則嚴格產品責任可能成為絕對的賠償責任[10]。由此可見,發展風險抗辯適用范圍的確定也應當遵循相應的科學技術水平對于產品缺陷的發現可能性。

依據人工智能產品缺陷產生原因的不同,產品缺陷類型可以區分為制造缺陷、設計缺陷與警示缺陷。其中,制造缺陷是指人工智能產品對既定設計規格的背離,制造缺陷的判斷與產品的研發風險沒有太大關聯,科學技術水平的發展對于產品制造缺陷的判定并無影響。無論與人工智能產品相關的科學技術水平如何更新,只要在產品制造過程中不符合其生產規格并產生了不合理的危險,則可以判定產品在制造方面存在缺陷。因此,在人工智能產品存在制造缺陷的案件中,發展風險抗辯不具有適用的實際意義。與之相對應,對于人工智能產品設計缺陷的案件而言,科學技術水平的發展與客觀上能否設計出更為安全產品的可行性密切相關;在產品警示缺陷的案件中,科學技術水平也決定著產品所存在的風險是否具有科學上的可認知性。由此可見,發展風險抗辯的適用范圍應當限定適用于設計缺陷和警示缺陷的人工智能產品責任案件。

四、人工智能產品發展風險抗辯的補救機制

發展風險抗辯的適用意味著排除了生產研發企業對于將產品投入流通時所不能發現的不合理危險的責任,雖然有助于鼓勵人工智能產品的研發創新,但也可能在一定程度上削弱對消費者的保護力度。為了防止生產研發企業動輒以發展風險抗辯作為“擋箭牌”來逃避人工智能產品責任以及由此可能導致對消費者保護不利的局面,當前亟須在制度配套層面確立對發展風險抗辯的相關補救機制,從而妥善應對人工智能產品投入流通后可能出現的潛在風險并保障消費者在遭受損害后能夠及時獲得有效的救濟。

(一)產品跟蹤觀察制度的銜接適用

首先應當明確將人工智能產品跟蹤觀察制度作為發展風險抗辯的補救機制,以督促生產研發企業對投入流通后可能出現的人工智能產品潛在風險持續進行質量安全的跟蹤監測,并在發現產品具有不合理的危險時采取必要的補救措施。產品跟蹤觀察是指生產研發企業在將產品投入流通后負有繼續觀察其市場上產品安全的義務,一旦發現某產品存在不合理的危險,則對于尚未進入生產或市場的產品須采取改善的必要措施;對于已經進入市場的產品則應當采取售后警示或召回等補救措施來預防危險[20]。產品跟蹤觀察義務與在產品投入流通之前的設計、制造以及警示方面的安全義務相并列,其在于使得產品的安全性能夠及時跟上科技水平的新發展。盡管《民法典》第一千二百零六條規定了生產者、銷售者對于產品投入流通后的警示、召回義務,但是并未明確違反該項義務的責任性質,理論上也并未就《民法典》第一千二百零六條的規定與《產品質量法》第四十一條第二款第三項的規定之間搭建邏輯周延的體系關聯形成共識。筆者認為,考慮在我國現行法律框架之下如何妥善應對發展風險抗辯可能存在的消極影響,同時為了有效發揮《民法典》第一千二百零六條的體系效應以及進一步明晰違反該項義務的責任性質,因此當前有必要在產品跟蹤觀察制度與發展風險抗辯之間構建合理的銜接適用關系。

就法律效果而言,發展風險抗辯僅在于使得生產者對于產品投入流通時尚不能發現的產品缺陷致損責任予以豁免,一旦產品被發現具有不合理的危險,則生產者應當積極采取措施預防損害的發生。盡管生產者在將產品投入流通時符合當時的科學技術水平,但是并不意味著其對于投入流通后經發展了的科學技術認定存在缺陷的產品撒手不管,發展風險抗辯的適用應當受到產品跟蹤觀察制度的制約[21]。發展風險抗辯與產品跟蹤觀察二者在邏輯上存在緊密的關聯性,后者對于前者能夠發揮功能上的補救作用[22]。具體而言,由于科學技術水平在某一時期內具有局限性,產品在投入流通時或許并不能被準確發現其存在的不合理危險,生產者對于不可能預見的危險可以援引發展風險抗辯免于承擔產品責任。但是,科學技術又具有不斷向前發展的客觀規律,當科技水平能夠發現產品存在的缺陷時,如果此時再允許生產者以發展風險抗辯為由對產品致損免于承擔責任,那么將對受害人的保護明顯不利。為了彌補發展風險抗辯可能引發的不利后果,同時有效督促生產研發企業為預防產品危險積極采取必要措施,應當針對生產者附加一項特殊的產品跟蹤觀察義務。至于生產者在履行產品跟蹤觀察義務時應采取何種預防危險的措施,需要依據個案情形并遵循比例原則予以確定。若產品的不合理危險會對他人的生命、身體或健康造成嚴重損害,則生產者應當采取密集且重要的預防措施[23]。以當前人工智能產品領域應用前景較為可觀的自動駕駛汽車可能出現的研發風險為例,由于自動駕駛汽車的運行需要一系列軟件設備,為了防止自動駕駛系統的軟件出現漏洞,制造商應當負有及時維護和升級產品軟件的義務,并將與產品安全有關的重要信息及時通知產品的終端用戶[24]。

如果生產者在發現產品存在缺陷后,未能夠及時采取相應的補救措施,那么則不允許其再以發展風險抗辯為由企圖逃避產品缺陷造成的實際損害責任。易言之,發展風險抗辯并非一項終局性的抗辯事由,生產者不能憑借產品投入流通時科學技術水平不能發現產品缺陷的抗辯主張而“一勞永逸”免除產品責任。只要發展了的科學技術水平能夠從發現產品缺陷之時起,生產者就應當積極履行產品跟蹤觀察義務,對于缺陷發現之前已經投入流通的產品應當采取售后警示、召回等補救措施,盡可能預防實際損害的發生;對于缺陷發現之后尚未投入流通的產品則應當停止銷售,并努力改善產品的安全設計以消除產品的不合理危險。

(二)產品責任保險救助機制的引入

由于發展風險抗辯的適用,生產者將免于承擔產品投入流通時科學技術水平尚不能發現的缺陷致損責任,這將可能導致受害人遭受的損害無從得到填補。發展風險抗辯固然有助于提升整個社會的產品研發創新動力,最終受益的主體仍然是社會大眾,但是在具體個案中卻讓實際的受害者獨自承擔發展風險帶來的不利后果,則又難免有失公允。特別是伴隨著人工智能產品的應用普及,由于高科技產品的研發風險不易被及時發現,一旦存在不合理的危險往往容易誘發大規模產品侵權責任事故,這不僅不利于人工智能產業的健康發展,而且也使得受害人在遭遇現實損害時難以獲得有效救濟[25]。因此,完善人工智能產品發展風險抗辯的損害救濟分攤機制[26],有助于有效防范人工智能產品的發展風險。

就生產者在產品研發過程中不可預見的風險責任而言,產品責任保險的作用或許是必不可少的。責任保險有可能在一定程度上削弱侵權法的預防目的,但是不應當忽視責任保險對受害人產生的積極意義。責任保險的目的旨在確保損害賠償從而保護受害人的利益,因而責任保險也服務于侵權法的損害填補功能[27]。產品責任保險是基于將產品發展風險予以分散的方式,由保險機構作為第三方參與者,用于緩解產品發展風險抗辯對于受害人產生的不利局面。

2021 年6 月,歐洲議會和理事會制定的《關于人工智能的統一規則(人工智能法)并修正某些聯合立法行為的提案》(laying down harmonised rules on artificial intelligence (artificial intelligence act) and amending certain union legislative acts),明確該提案的主要目的是確保人工智能系統造成的損害能夠得到救濟,對于評估的備選方案包括:為人工智能產品運營商設置嚴格責任,與針對特定風險人工智能應用的強制保險相結合的方式。設置適當的保險機制可以為人工智能產品受害者提供平穩的賠償,從而減輕發展風險抗辯可能帶來的負面后果。因此,在我國當前人工智能產品責任領域,也有必要考慮引入產品責任保險的救助機制,以分散損害風險。由于產品責任保險作為保險的一種類型,其制度運行也應當遵循市場規律和保險法的相關規則[28]。為了有效預防人工智能產品發展風險抗辯可能造成的損害填補空缺,可以針對研發產品設立強制責任險、商業責任險、產品責任保險等不同層級的保險結構。對于產品研發風險中的責任保險,總的思路是應當依據損害風險的大小來確定保險費用的多少,合理配置人工智能產品的保險成本與損害風險的概率,探索個性化的保險模式。

五、結語

隨著人工智能技術與產業領域的深度融合,未來更多的人工智能產品將被逐漸推廣應用。以良法善治保障人工智能產業的高質量發展,既要激勵人工智能產品的研發創新,又要對人工智能產品的致害風險加以防范。發展風險抗辯作為生產者與消費者之間風險分配關系的平衡機制,能夠為人工智能產品研發創新提供重要動力,但是其面臨的適用困境也存在諸多爭議,亟待探索應對方案。在我國產品責任框架中,通過優化發展風險抗辯融入嚴格責任體系的可行路徑,明晰發展風險抗辯的科技水平標準和具體適用范圍,以及配套產品跟蹤觀察制度和產品責任保險的補救機制,能夠有效消解人工智能產品發展風險抗辯的隱憂,從而促進未來人工智能產業的市場化良性發展。

猜你喜歡
生產者科學技術人工智能
《中國空間科學技術》征稿簡則
2021年CCF科學技術獎獲獎項目名單(2)
1月巴西生產者價格指數上漲3.92%
《中國空間科學技術》征稿簡則
《中國空間科學技術》征稿簡則
2019德國IF設計大獎
2019:人工智能
人工智能與就業
家禽福利的未來:生產者能期待什么?
數讀人工智能
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合