?

人工智能的法律挑戰及其應對

2024-01-23 11:27錢燕娜儲召鋒
關鍵詞:挑戰人工智能法律

錢燕娜,儲召鋒

(1.國防大學政治學院 馬克思主義理論系,上海 201602 2.國防大學國際關系學院 國際關系與戰略系,江蘇 南京 210000)

人工智能技術的發展,引發了一場新的產業浪潮,推動了全球互聯網企業的戰略轉型,并在實踐與理論層面給法律帶來巨大挑戰。為此,我們必須采取預防措施,并在法律制度上進行適當的回應。

一、人工智能的法律挑戰的實踐層面

從實際應用的角度來看,人工智能給法律界帶來了四個方面的挑戰。

(一)個人信息保護問題

雖然人工智能在法律上未有明確定義,但因人工智能技術的發展需要收集、分析和使用海量數據,其中必然涉及具有直接或間接的身份識別性的個人信息。因人工智能實踐應用引發的個人信息保護問題大體上可以分為兩類:一是人工智能技術本身侵犯個人信息;二是利用人工智能技術侵犯個人信息。目前兩類問題均已產生了諸多實踐案例。關于人工智能侵犯個人信息的案例,當前主要集中于人臉識別系統方面。2019年,“人臉識別第一案”引發了全國的關注,這一案件的審理重點在于如何正確地評估野生動物世界收集和使用人臉信息的行為。近年來,類似的案例層出不窮,這些案例不僅說明了個人權利亟須法律保障,也是對人工智能技術下的個人信息安全的強有力警示。

(二)算法面臨的法律挑戰問題

目前,基于大規模的數字化信息處理和機器自主決策的人工智能算法已經被普遍采用,并在各領域都取得了巨大的成就。人工智能算法能夠通過收集數據和設定指令對人的行為進行預測和評價。用戶在網購、智能診療、新聞推薦等領域都能享受到算法帶來的便利。但是,人工智能算法獨特的運行邏輯也帶來了諸多法律問題。例如,信用評價算法和保險精算算法等,曾經被用來幫助人們做出正確的決策,但隨著人工智能技術的發展,這些算法已經不再僅僅被用作工具,而是根據大量的數據,自動生成有效的決策,從而改變了“算法權威”的原有模式,在應用中反客為主[1]。同時,人工智能算法的自我決策過程存在許多不確定因素,形成算法黑箱,又引發行政風險、算法歧視、信息繭房與隱私泄露等問題,甚至在無形中構成了算法與人類間的技術支配關系,造成“算法權力”。

(三)人工智能作品的知識產權保護問題

從目前的實踐來看,人工智能作品的知識產權保護主要涉及人工智能的名稱、形象、數據的知識產權保護,對于人工智能創作作品的版權所有者和算法的知識產權保護。其中,人工智能創作作品的著作權歸屬已經出現爭議。隨著技術的進步,機器人不僅可以自主創作音樂和繪畫作品,而且還可以創作詩歌,其作品甚至被出版成專業的詩歌集。因此,傳統“算法”的版權保護已經不能滿足智能化時代的需求,人工智能算法的知識產權保護已經成為一個迫切需要解決的法律問題。

(四)人工智能監管及其引發的責任分配問題

隨著人工智能技術在醫療、運輸、金融等領域的不斷應用,涉及的個人敏感數據也越來越多,因此,政府在設計監管模式時,必須采取“高準入、嚴許可”的有效措施,以確保數據的安全性和可靠性。從市場發展實踐看,人工智能監管不力所引發的責任問題也與日俱增。美國在2018年發生的首例自動駕駛汽車撞人致死事件,使人工智能監管及其引發的責任分配矛盾日趨尖銳,由此延伸出亟須明確的法律問題是:人工智能因系統故障、決策失誤等原因引起的致人傷害或死亡的侵權責任、刑事責任等應當如何認定,法律是否有必要為因人工智能引起的責任分配問題制定專門的規則等。

二、人工智能的法律挑戰的理論層面

從人工智能的法律挑戰的理論層面看,可以概括為四個方面:人工智能對主體制度的挑戰、對權利制度的挑戰、對法律原則的挑戰及對責任制度的挑戰。

(一)對主體制度的挑戰

大多數學者認為人工智能沒有自主意識,但隨著科技的進步,其擬人化和智能化水平日益提升,外觀、行動和語言也越來越接近人類。我們不得不思考這樣一個問題:人工智能在法律上的地位如何?盡管理論界已對此問題展開探索,分別主張賦予智能機器人以法律人格或次等法律人格等,但仍需從理論上徹底明確該問題,這對傳統法律中的主體制度造成極大的沖擊。人工智能對主體制度的挑戰主要表現在兩方面:一是應否賦予人工智能法律主體地位,人工智能能否以其身份獨立地設立、變更和終止法律關系。二是為了確保人工智能獲得合法的法律地位,我們必須清楚地確定其主體類型,因為這涉及它的權利、義務、法律責任、權利能力和行為能力。

(二)對權利制度的挑戰

在實踐中,人工智能的運用涉及個人信息保護、知識產權保護等問題,反映到理論層面可以概括為對權利制度的挑戰。結合當前人工智能在研發、應用與發展過程中產生的法律問題,人工智能對隱私權、知識產權及勞動與社會保障權三類權利造成挑戰。

1.人工智能對隱私權的挑戰。人工智能對隱私權的挑戰主要體現在個人信息收集與安全方面。一方面,隨著人工智能產業化應用的推進,智能語音機器人、人臉識別技術、人工智能推薦系統等已經深深融入人類的日常生活,這使得人工智能系統獲取數據變得易如反掌,如醫療保健、在線交易、通信以及飲食等個人信息,在人們毫不知情的情況下即被相關的人工智能應用程序頻繁收集,此類個人信息收集行為是否合法值得我們深思。另一方面,智慧醫療、智慧教育、自動駕駛、智能家居等人工智能應用的落地在為人類社會帶來極大便利的同時,亦使人們極易遭受攻擊。攻擊者入侵人工智能系統可能導致用戶信息泄露,甚至演變為群體性用戶信息泄露。如果想要在技術層面預防攻擊者入侵人工智能系統,最根本的方法是確保人工智能系統的穩健性。雖然我國一直在積極研發相關安全保護系統,但目前的技術還無法滿足實踐中人工智能應用程序的安全性要求。如何通過立法保障人工智能系統中的個人信息安全,規范人工智能應用程序的數據收集和使用行為,切實保障用戶的隱私權,是當前人工智能帶來的又一法律挑戰。

2.人工智能對知識產權的挑戰。主要的挑戰在于如何保護人工智能的創新成果、算法和數據的知識產權。首先,關于人工智能作品的版權維護,其核心是對版權法的挑戰,這涵蓋了作品的版權所有、版權的運用和權益的約束等問題。要解決這些問題,先要明確權利主體,即機器人能否成為法律主體。除此之外,人工智能創作物是否具有“獨創性”亦是值得探討的問題,這屬于權利客體研究范疇。其次,算法被定義為“智力規則”還是“技術方案”,對于其能否獲取專利保護至關重要。算法作為人工智能的核心,其是否可以申請專利以及是否應當納入《專利法》的保護范圍及延伸的法律救濟將會影響人工智能產業的整體發展。最后,人工智能數據的知識產權保護。當前世界各國對數據(數據庫)的保護主要呈現以下三種路徑:一是大數據的版權保護路徑。此種路徑在《與貿易有關的知識產權協定》和我國《著作權法》中都有所規定。二是《反不正當競爭法》的保護路徑。此種路徑主要用于保護無獨創性的數據庫。三是歐盟的“特殊權利”保護路徑。歐盟于1996年發布《關于數據庫的法律保護指令》,建立了關于數據庫的“特殊權利”,并在歐盟成員國內實施。數據是人工智能研發、應用過程中不可或缺的要素,因為人工智能是以海量數據為支撐的,機器自我學習和深度思考都需要以大數據運算作為基礎,所以,尋求契合人工智能產業發展的人工智能數據知識產權保護方法成為當前需要重點商榷的法律問題。

3.人工智能對勞動與社會保障權的挑戰。人工智能技術能夠通過實現自動化提高社會生產力水平,這意味著相同生產率輸出所必需的勞動力減少。對于我國來說,盡管到2037年,近40%的工作崗位可能會受到自動化的影響,但在這段時間內,現有工作崗位中只有約1/4會真正被取代,而其所創造的就業崗位的比例為38%[2]。目前,無論人工智能是將創造大量工作機會還是造成廣泛失業,其必將擾亂就業市場,但我國現有法律法規體系尚無法應對人工智能帶來的就業市場革命。盡管我們已經頒布實施了很多關于市場監管、勞動就業方面的法律規定,但是如何保障人類勞動權利,機器人勞動是否應該受到法律保護,機器人是否應該享有合理的工作時間和良好的工作環境等問題仍是法律空白區。因此,需要結合人工智能技術的特點,不斷完善勞動與社會保障立法,提前預設人工智能可能帶來的勞動影響和變化,為強人工智能時代的到來引發的全球經濟變革做好準備。

(三)對法律原則的挑戰

平等原則一直被視為社會主義法治體系的核心原則,它強調法律面前人人平等。人工智技術對這一原則的適用挑戰也越來越明顯,主要體現在兩個方面。一是機器人內部的平等原則如何適用。在機器人的內部平等問題上,不同類型、算法、數據、功能、智能化程度的機器人如何能保證在適用法律上平等,這個標準如何界定,它們能否平等地受到相關法律的保護?二是機器人與人類間的平等原則如何適用。如果將人工智能視為一個法定的實體,那么它和我們的法定實體的地位是否一樣,它擁有的權益和需要履行的責任是否和我們一樣?在人工智能背景下,必須對這些問題做出相應的反饋。

(四)對責任制度的挑戰

隨著人工智能技術的發展,一些侵權行為也隨之發生,比如“殺人”機器人的侵權行為在日本、美國、德國等國家日趨普遍。這些侵權行為的發生,是由人工智能系統的故障和系統本身的缺陷所造成的。這也使得人工智能產品的責任和侵權行為成為全球關注的焦點,人們無法回避且亟須解決。人工智能對責任制度的挑戰可以從以下三方面概述:一是責任主體認定方面。法律責任的歸屬前提是明確責任主體,這涉及人工智能是否擁有法律實體的問題。如果人工智能沒有法律實體身份,可以在當前法律框架內處理這個問題。但人工智能從研發到應用涉及人工智能的生產者、設計者、所有者及使用者等,應當由誰承擔法律責任,相關法律責任應當如何分配等一系列問題仍然有待進一步厘清。倘若人工智能或特定條件下的人工智能具有法律主體資格,則在現行法律框架內無法確定人工智能的責任能力問題,存在立法缺失。二是歸責原則方面。傳統歸責原則主要以行為人的故意、過失和無過錯為核心要素,但這些要素在人工智能系統中難以準確判斷。因人類具有完全自主意識,而人工智能系統以算法為運行邏輯,不僅難以判斷其中是否具有算法設計者的主觀意識,而且如何判斷一個計算機系統是否存在故意、過失或無過錯也尚無可供借鑒的經驗。三是責任形式方面。傳統的法律責任形式無法適用于人工智能。傳統的法律責任分為人身責任和財產責任,機器人能否承擔賠禮道歉、消除影響的人身責任,其是否擁有自身的財產,如何行使支配財產的行為等,都是現行法律無法解決的問題。此外,是否應當創設適用于人工智能的責任形式,例如更換芯片、重新設置算法等問題亦有待斟酌。

三、人工智能的法律挑戰的立法應對

全球的法律架構及其相關條例受到了人工智能技術的巨大沖擊,這種沖擊與當前的法律框架產生了矛盾,使得法律框架的落后性問題再一次浮出水面。在應對人工智能科技進步帶來的挑戰時,我們應從理念、原則與措施三方面尋求應對方法。

(一)立法理念

面對人工智能發展引發的法律問題,立法回應顯然是必要的,相關問題也得到了各國的高度關注。然而,各國在人工智能方面的立法大多是應對性的,也可以稱之為“反應性立法”。反應性立法,是指當法律被用于處理當前存在的社會混亂行為。它只是把規范現存的行動和解決現存的沖突視為核心職責,卻沒有把設計能夠徹底消除這些混亂行動和潛在行動的方案視為優先考慮的事項,因此,就形成了一個立法總是針對特定行動的新形態進行管理并不斷演化的狀態[3]。就人工智能領域的立法而言,即當人工智能應用在實踐中出現問題且傳統法律體系無法規制后,再從具體場景出發,試圖以較低層級的法律法規對承擔各種特定功能的人工智能產品加以規制,確保相應規則具有科學性、合理性、可行性。此后,將具體規則抽象化為一般規則,從而形成人工智能的相應立法。此種“實踐問題觀察-具體場景應對-抽象規則制定”的回應性立法理念勢必導致立法進程滯后于技術發展。由回應性立法理念轉變為前瞻性立法理念是解決人工智能時代的立法滯后問題的首要前提。人工智能時代的前瞻性立法理念要求立法者在系統論的理論指引下,結合科技發展的現狀,深入調研高新科技對現代社會的影響,充分把握科技的發展規律以及社會的現實與潛在需求,進而提煉出具有普適性與法理學意義的法律問題,再通過立法加以規制。因此,人工智能的發展帶來的不僅是科學技術的創新,也是經濟模式的變革,更是社會價值觀的重構。

(二)立法原則

1.安全原則。人工智能技術的研發與應用具有復雜性,涉及數據、算法等,在各領域的應用越來越廣泛[4]。因此,確保人工智能的安全性對于個體、社會乃至人類都具有重大意義。理論層面,學界已經認識到在人工智能時代,遵守安全準則的重要性。吳漢東認為,在人工智能的背景下,安全被視為主要的法律價值,它的作用在于保障社會的穩定性,這也是相關法律機構的目標。這種目標可以通過各種不同的體系或者調節手段達成。比如,刑法、行政法利用刑事責任或者行政責任的形式確保社會秩序的安寧,而民法則利用侵權法確保商業和財產安全[5]。實踐層面,安全原則在科技企業中體現得尤為明顯。如微軟公司提出“隱私與安全原則”,谷歌公司提出“保障建立與測試中安全性原則”,騰訊公司提出“可控原則”,百度公司提出“人工智能的最高原則是安全可控”等。因此,有必要將安全原則作為人工智能時代的立法原則。按照該原則,立法者在立法進程中應當確保相關條款能夠維護人工智能的安全,不僅是人工智能技術的安全,還要確保人工智能的應用與發展不會影響個人的生命財產安全和國家安全,不得危害社會經濟和文化安全、環境安全。

2.協同原則。人工智能的發展離不開協同性的資源配置和運行合作。人工智能開發和應用需要的協同,包括基礎方面的協同,如數據協同、平臺協同、管理協同,也包括具體應用功能和主體的協同,還包括人機協同,等等[4]。在私法領域,協作關系體現在權力、義務和責任的劃分方式中。以數據為例,數據作為人工智能的“營養”,其收集與利用會直接影響人工智能的發展,但數據的合法取得和權屬與個人隱私保護存在沖突與協調問題,需要在立法過程中進行巧妙的制度協同設計,平衡各方當事人的利益,其中也包括立法、行政執法以及司法部門的協同。在公法層面的職責落實上,政府通過嵌入人工智能應用,減少信息不對稱,實現扁平化的智能治理。在此過程中,個人數據隱私保護可能與政府權力行使、職責履行存在沖突。因此,各方面應高效協同聯動,實現人工智能時代的多元共治的社會治理。在社會法的勞動關系、社會保障、特殊群體權益保障以及社會組織的架構上,人工智能可能導致大規模的結構性失業的問題,我國勞動法需要前瞻性地進行立法預防。勞動法已經超越了傳統的范疇,它不僅要求我們在處理勞動關系時遵循人性化原則,還應從保護公眾的合法權利和未來的發展趨勢出發,探索如何實現人與機器的和諧共存。

3.創新原則。隨著第四次科技革命在世界范圍內的展開,以互聯網、大數據、人工智能、5G等信息科技及其融合應用等為標志,“四新”的原創性突破正在開辟新的發展方向,甚至會引發顛覆性變革。對于我國而言,當前正是實現“彎道超車”的難得的歷史機遇。人工智能技術的研發與發展作為國際競爭中搶占制高點的核心要素,已經受到我國的高度重視。早在2017年,我國就發布了《新一代人工智能發展規劃》,以推動人工智能技術的發展,并將“提升新一代人工智能科技創新能力作為主攻方向”,力爭到2030年,使中國成為全球最具創新力的人工智能中心。因此,立法工作必須與國家對于人工智能創新的策略相一致,我們不只需要加速對法學理論的創新,并且需要對適應人工智能的法律價值進行重塑,還需要促進法律體系的創新。

(三)具體措施

1.成立人工智能立法工作組。歐盟在人工智能立法上取得的成就與其成立了專門的人工智能高級小組有直接關系。該高級專家小組主要針對與人工智能相關的中長期挑戰和機遇提出建議,且相關建議將被納入人工智能政策制定流程、立法評估流程及歐盟數字戰略的制定。為加快我國人工智能時代的立法修法工作,有必要成立專門的人工智能立法工作組,集中優勢資源對關系國家與民生重大利益的人工智能法律難題協同攻關,保障國家安全,促進行業發展,降低人工智能的負面影響。根據人工智能立法工作組提出的建議,國家可以制訂人工智能的專項立法修法計劃,動態跟蹤實踐問題和及時立法修法,適時進行立法解釋和司法解釋,利用立法技術為可能產生的新問題留下解釋和適用空間。

2.設立人工智能的試驗性立法先行試驗區。盡管前瞻性立法是必要的,但是在未能充分把握人工智能技術的發展規律及其對人類社會可能帶來的深刻影響的前提下就匆匆立法是不科學的。綜觀世界各國對于人工智能的制度回應,大多采取政策引導、粗放式立法模式。通過試驗性立法,可以更好地構建人工智能法律體系,這不僅可以幫助政府收集信息、積累經驗,從而更加主動地調整人工智能相關法律,還可以為相關理論的研究和改進提供科學的理論支撐[6]。因此,可以選取幾個人工智能技術發展較好的地區作為先行試驗區,在遵循人本主義核心理念的基礎上,對人工智能技術研發、應用中的各方主體的權利義務及責任進行立法試驗。在試驗性立法前,有必要采用實驗分析模型來判斷其可行性并預測實施效果。在試驗性立法期屆滿前,應當就立法的實施效果進行全面科學的評估,并基于評估結果作出相應的立法決策。

3.以智慧立法保障科學、民主、依法立法?;ヂ摼W、大數據、人工智能融入和推動科學立法、民主立法、依法立法,是時代大勢[7]。以科技賦能立法工作,建立健全以大數據、人工智能等技術為核心的智慧立法系統有助于加快立法進程。在科學立法層面,主要是運用大數據和人工智能對立法實踐經驗、相關立法的爭議關鍵點、相關司法判例等進行梳理、對比,并通過引入結構方程模型分析法、SWOT矩陣分析法、貝葉斯網絡分析法等對相關問題進行分析,建立系統模型對法律實施效果進行預評估。在民主立法方面,可通過在互聯網平臺設置意見征集渠道,廣泛征集各方意見,之后運用大數據匯總意見和生成分析報告,切實推動民主立法。在依法立法方面,主要是運用大數據、人工智能等技術實現對立法草案的上位法的智能檢索和預警,防止與上位法沖突。同時,實時動態審查已有的立法是否與新通過的上位法相沖突,以現代化手段高效、便捷實現依法立法。

4.多元規范共治破解立法滯后現象。隨著區塊鏈技術的發展,一種新的、具有共識性的自治模式正在出現,它不僅可以取代傳統的自治章程、村規民約、居民公約,而且可以將法治、德治、自治有機融合,從而形成一種更加完善的自治體系。區塊鏈可以彌補法律的不足,或者與之相輔相成。然而,兩者都存在各自的管理限制,應將它們有效整合起來,這種整合可以通過將法律轉化為代碼的方式來完成[8]。區塊鏈技術通過將數據加密(state machine)來保護數據的安全性、完整性和準確性。任何未經授權的人都不能篡改數據,除非他們已經獲得50%以上的網絡節點的授權。區塊鏈技術不僅可以提供一種新型的數據存儲方式,而且可以在沒有任何中介機構或清算系統的情況下實現自動化?,F代區塊鏈技術具有極強的安全性和穩定性,它支持大規模的代碼文件,可以實現快速、安全的傳輸,極大地減少了人工成本。通過將代碼應用于合同,可以有效地維護雙方的信譽,并且讓智能合約可以獨立運作,既可以極大地提高交易的效率,又可以降低傳統合同的不確定性。雖然智能合同也需要被編程,但它們與第三方或者中立的區塊鏈系統不同。智能合約具有卓越的可擴展性和靈活性,用戶可以輕松地調整或修訂類似的協議,而且,區塊鏈技術不受中央服務器的限制,無論在何處,都可以實現跨越地域的傳輸[9]。將智能合約部署到分布式節點網絡中,不僅可以有效降低被提起訴訟的風險,而且可以提前實施技術規范,加強對代碼的管控,因此,區塊鏈技術可以更有效地保護當事人的權益,更好地執行法律規則。在重新審視法律的過程中,必須深入思考以下關鍵性問題:一是科技的進步可能會對法律的定義產生影響,但它們無法替代立法機構在制定法律時所需要的民主討論,以確保法律的公平、合理、有效。二是采用最前沿的軟件技術,不僅有助于立法者更有效地審核和修正法律條款,而且也能夠激發人們的創造力。采取先進的立法手段,能夠極大地降低法律的模糊性,避免出現任何形式的歧視。三是智能合約雖然可以有效地處理復雜的交易,但是為了保證其準確性,許多交易活動都必須建立在真實的社會和政府框架之上。四是通過編寫代碼,可以有效地將法律與合同條款融為一體,從而達到最佳效果。立法者應該努力將法律規范擴展到更廣泛、更靈活的領域,以滿足社會各階層的需求。

法律的價值不僅僅表現在它的參與程度和覆蓋面上,更多的是通過保持社會的穩定,推動社會的安定、高效、協調,以此來實現相應功能,并突出它的關鍵性[10]。多元共建、共享、共治的觀念,主張在法律的框架下,通過多樣化的規則來協同管理,這種方式為網絡社區帶來了一種特殊的價值指南,從而推動社會的和諧與穩定發展[11]73。

猜你喜歡
挑戰人工智能法律
法律解釋與自然法
2019:人工智能
人工智能與就業
數讀人工智能
下一幕,人工智能!
讓人死亡的法律
“互助獻血”質疑聲背后的法律困惑
第52Q 邁向新挑戰
讓法律做主
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合