?

涉人工智能案件的審判難點及應對思路
——基于對220 件司法裁判結果的實證研究

2023-11-30 05:01王新雷秦文豪
關鍵詞:開發者法院案件

王新雷 , 秦文豪

(1.西安交通大學 法學院,陜西 西安 710049;2.新疆大學 法學院,新疆 烏魯木齊 830046)

作為21 世紀三大尖端科技之一的人工智能,為全世界社會經濟發展提供了新動能。黨的十八大以來,面對新一輪科技革命和產業變革新形勢,黨中央和國務院高瞻遠矚、審時度勢,于2017 年7 月由國務院印發了《新一代人工智能發展規劃》,將發展人工智能正式上升為國家戰略,并提出了“三步走”的戰略目標[1]。黨的十九屆五中全會審議通過的《中共中央關于制定國民經濟和社會發展第十四個五年規劃和二〇三五年遠景目標的建議》強調,要“推動互聯網、大數據、人工智能等同各產業深度融合”[2]。當前,中國政府高度重視人工智能的發展,各行各業也因人工智能迎來了跨越式發展的難得機遇[3]。但同時,人工智能帶來的多元法律挑戰和應對措施卻無法一言道明。例如:有學者認為,人工智能是否具有獨立的“人格”,仍值得商榷和討論[4];也有學者認為,人工智能創作能否被認定為著作權法意義上的作品,是亟待解決的問題[5]。此外,在刑事立法層面,不少學者主張加強人工智能的相關刑事立法工作,以彌補當下立法的空缺[6]。在民事立法層面,自《中華人民共和國民法典》頒布實施以來,一些學者希望通過產品責任規制相關行為以控制人工智能的侵權風險[7]。然而,人工智能革命對法律規則和法律秩序的挑戰并非僅限于傳統的刑事和民事領域,在司法實務中,著作權法、交通法、勞動法等領域涉人工智能的裁判難題也不斷涌現,凸顯了法律制度產品的供給不足[8]128-136。涉人工智能法律制度的建立和完善改革是一項系統工程,目前,人工智能在中國各行各業已獲得廣泛應用,在為公眾提供便利和為商家創造商機的同時,也不可避免地會引起諸多糾紛,所以,有必要考察已公布涉人工智能案件的實際情況,對影響公平、公正審判的變量進行發掘和量化統計,分析其中的法律適用問題,總結經驗、歸納方法,以期能為健全人工智能立法及司法適用提供一定的理論參考。

一、樣本的選取

筆者研究所關注的涉人工智能案件,為2008 年12 月至2021 年8 月全國范圍內公布于中國裁判文書網的焦點型案件①。中國裁判文書網是司法領域重要的法律文書搜索平臺,該平臺自2013 年7 月上線運行以來,各級法院按照最高人民法院的統一部署,在該平臺上集中發布生效裁判文書。2018 年12 月,中國社會科學院國家法治指數研究中心和中國社會科學院法學研究所法治指數創新工程項目組發布的《中國司法公開第三方評估報告(2018)》顯示,該平臺的裁判文書上網率總體較好[9]。抽樣研究結果表明,截至2018 年10 月24 日,樣本中涉及的160 家法院②,有19 家法院的案件上網率超過80.0%,另有129 家法院通過中國裁判文書網公開了未上網裁判文書的案件號、案由等信息項,在全部樣本法院中的占比為84.6%。由此表明,在中國裁判文書網公開的涉人工智能案件在所有可能的樣本中具有一定的代表性,對此部分案件進行探討,具有一定的理論價值和研究意義。鑒于此,筆者對涉人工智能案件的審理和裁判情況進行了整理,通過對涉人工智能案件的法律文書進行全文關鍵字檢索,得到1 627 件可供分析的實證樣本,但是絕大多數樣本并不符合要求,主要原因在于:一是同一案件一審和二審雖是兩件獨立的法律文書,但由于是同一案件,在統計時只算作一個基本單位(共997 件,占比為61.28%);二是案情雖然涉及人工智能,但是并非人工智能引起的糾紛,在關鍵詞檢索時被錯誤定位(共879 件,占比為54.03%);三是與案件有關的網名和物品名稱中含有人工智能字樣,但實際案情與人工智能并不相關,在關鍵詞檢索時同樣被錯誤定位(共578 件,占比為35.53%)。通過對樣本作進一步篩選,僅留下有效樣本273 件。鑒于研究樣本中裁判文書的內容存在不同程度的缺失,為了確保研究材料特別是數據的全面性和可比性,筆者的分析對象主要集中在文書內容齊全或者主要變量數據基本符合要求的案件上,進一步將不符合要求的案件從研究樣本中予以剔除,最后僅留下220 件可供分析的樣本。質言之,下文各部分數據的統計在基數上可能略有差異,但整體上不會對分析結果產生顯著影響。筆者通過對案件變量進行編碼,收集整理了近年來中國各地法院審理的案件中涉人工智能案件的類型分布、審級及審理法院類型分布、案件焦點分布等數據。通過上述方法,獲取了較為充分的實證材料,可基本滿足筆者研究的需要。

基于這些文書材料和數據,筆者以“實務中,有關人工智能案件的審理存在多領域、多方面問題未被及時發現和解決”為假設,對中國各地三審法院涉人工智能案件的審理情況進行了較為全面、深入的考察。重點關注以下兩個方面:一是涉人工智能案件在實務中是否存在未被解決或者未被發現的問題;二是在前一個問題成立的前提下,應當如何應對與解決。

二、強人工智能趨勢下涉人工智能案件的審理實踐

(一)人工智能類型劃分

當前,學界通常將人工智能分為三代,即第一代人工智能、第二代人工智能和第三代人工智能[10]。該分類標準雖出自計算機領域,但也被部分法學學者所借鑒[11]。而實證研究表明,這種拿來主義的劃分標準可能無法滿足司法實務的實際需求,因為純粹的技術性劃分標準通常無法服務于對當事人各方權利義務關系的認定。具體到人工智能的審判實務,研究發現,人工智能類型劃分不明確不但會影響如何認定“智能”,而且還會影響使用者是否違反其注意義務等相關司法實務問題的順利解決,有的案件甚至因此上訴到最高人民法院③。因此,從審判實務的實際需求出發對人工智能進行分類,對于處理實務中的難題可能更為有益。筆者將已公布的人工智能類型進行了整理,如表1 所示,并以人工智能創造出來的具象化(智力)成果及其風險能否被人事前預知為標準,將人工智能分為工具型人工智能和智力型人工智能兩類。

1.工具型人工智能

人類通過智力創造出來的事物可以分為兩類:一是體現人類情感和世界觀的事物,二是純粹的技術性解決方案及其產品。實證研究表明,在實務中引發糾紛的人工智能通過其智力創造的事物全部為工具型人工智能。在工具型人工智能中,從事與智力創造無關的流水線生產工作的人工智能在被認定為工具型人工智能這一點上并無爭議,但部分工具型人工智能卻產生了類似智力成果的作品,如人工智能剪輯、拼接之后的文章、視頻和繪畫等,除了樣本案件中整理出來的類型外,實踐中人工智能甚至能夠模仿人類獨立創作出七律詩詞[12]。

此處,筆者無意加入“人工智能創作能否被承認為著作權意義上的作品”的論爭,而只關注工具型人工智能與智力型人工智能的劃分標準。事實上,人工智能創作的作品屬性問題與工具型人工智能和智力型人工智能的區分并非必然相關。實證研究表明,以使用何種技術或者基于何種開發目的對人工智能進行劃分皆不具有可行性,因為單純以技術進行劃分會導致人類在其中角色的缺失,而僅以開發目的進行劃分又容易忽略技術的復雜程度??赡艿慕鉀Q方法是,以人工智能創造出來的具象化(智力)成果及其風險能否被人事前預知為標準,將其劃分為工具型人工智能和智力型人工智能兩類:如果其創造出來的具象化(智力)成果能夠被人事前預知,人類為了實現這一預期具象化(智力)成果而將人工智能(無論它多么復雜)作為工具使用,并能夠預知此具象化(智力)成果可能帶來的風險,那么這種人工智能就是工具型人工智能;如果成果不能被預知,任由人工智能進行智力創造活動,人類希望從中篩選出有利于自身的具象化(智力)成果,同時也無法預知該人工智能的智力創造活動可能帶來的風險,則可以被認為是智力型人工智能。

綜上所述,當前自動生成視頻、文章、繪畫和詩作的人工智能均應當被認定為工具型人工智能,因為其所創造出的具象化(智力)成果及其風險均可以被人類事前預知,只是人類為實現某一類特定預期具象化成果而設計出來的產物,本質上是被人類驅使,是人類體力和耐力的延伸。以樣本中的一個案件為例,某字體公司通過購買書法設計者所書寫的幾百字的手稿,通過人工智能技術生成除了以上幾百字外的其他字,后來在未經授權的情況下,由人工智能技術生成的字體被某知名飲品公司應用于其包裝上,從而引發侵權糾紛③。從該案件的具體情況來看,人工智能雖然創造了剩余字體,但是該具象化(智力)成果(即新型字體)能夠被人類事前預知,人類為了獲得剩余的新型字體而將人工智能作為工具使用,而且能夠預知和控制該具象化(智力)成果(即新型字體)可能產生的法律風險,那么就可以認定這屬于工具型人工智能。事實上,工具型人工智能的使用者大多有一個相似的出發點:節省人力,減少用人成本。就樣本中的另外一個案例來說,某人工智能公司為了節省人力而使用經典的貝葉斯分類算法對需要進行審核的圖片進行初步分類⑨,事實上,人同樣可以實現對圖片的分類,但是1 人卻無法做到像人工智能那樣在1 小時內識別幾萬張圖片,也無法做到在1 月內持續工作,人工智能卻可以幫助人類實現這一點。此種人工智能最大的優點就是能夠在長時間內維持高效和高強度的工作狀態,其主要貢獻在于增加了產品的生產數量。

2.智力型人工智能

由表1 可知,在樣本案件中,并未發現能夠獨立進行發明創造的智力型人工智能在實務中引起糾紛,但此類人工智能存在于生活中已經是客觀事實。例如,創造發明機器一統性感知的自主靴設備(DABUS)在出現之初就引起了普遍關注,而關于其能否獲得獨立發明家的身份這一點也引發了學界的激烈討論[13]。2021 年7 月28 日,南非專利與商標局通過了以DABUS 為“發明人”的專利審批,實際上,從2019 年9 月17 日開始,該人工智能發明人Stephen Thaler 曾向包括美國、歐洲等在內的許多國家和地區提出了以DABUS 為“發明人”的專利申請,雖然多數國家和地區均以“只有人才能成為發明主體”為由將該申請駁回,但南非卻成為第一個敢于“吃螃蟹”的國家[14]。雖然南非專利與商標局對人工智能發明的“發明人”主體身份的認可遭到了不少專家和學者的反對,但也有人認為這是一個新的發展趨勢,代表政府對技術創新的支持和認可。事實上,類似的智力型人工智能不止有DABUS 一種,如John Koza研發的Invention Machine 和IBM 公司研發的Watson 等智能機器,都可以獨立完成發明構思或者方案設計。

與工具型人工智能不同,此類人工智能創造出來的具象化(智力)成果無法被人事前預知,即人類不清楚其可能生成的具象化(智力)成果的種類,更不清楚其大體的外觀(如果有的話)和功能。事實上,如果人類事前就知道智力型人工智能可能會自主生成什么,那么其發明便無法被稱為發明。當然,正是由于智力型人工智能的這一特點,也使得人類無法預知其“發明行為”可能產生的風險。當然,必須提到的是,將能否預知風險作為工具型人工智能與智力型人工智能的分類標準之一,不能和控制風險混為一談。盡管預知風險是控制風險的前提和關鍵,但能夠預知風險不代表能夠控制風險。

事實上,對工具型人工智能來說,其風險往往能夠被預知,但不一定能夠被控制;而對智力型人工智能來說,其風險往往無法被預知,也不太可能被控制。但實證研究表明,當前涉案的人工智能還不是很發達,所以其風險盡管無法被控制,卻常常處于可被接受的范圍內。隨著人工智能技術的發展,其不可預知且無法被控制的風險將會越來越大,針對這些不可控的風險能否被接受,以及相關人工智能可否被允許繼續研發和應用的難題,社會管理者常常要綜合考量其中的風險和收益。

(二)審理法院類型分布

案件審理法院的類型情況,如表2 和表3 所示。

表2 各審級案件分布情況(N=220)

表3 不同類型法院審理案件分布情況(N =220)

由表2 和表3 可知,大多數案件還是經由傳統的基層、中級和高級法院審理,專業性的知識產權法院和互聯網法院審理的案件僅為29 件,占比為13.18%。盡管如此,專業性法院審理案件的效果卻不容忽視。實證研究表明,專業性法院審理的29 件案件中,僅有6 件提起了上訴,上訴率為20.69%,比人工智能案件的平均上訴率低16.89%。其中,民事案件為19 件,提起上訴的為6 件,上訴率為31.58%,盡管高于專業性法院審理案件上訴率近10%,但是如果不將其他類型法院審理的人工智能案件統計在內,其仍然比人工智能案件的平均上訴率低6%。而在專業性法院審理的6 件人工智能行政案件中,沒有發現上訴案件,結案息訴率為100%。相比之下,人工智能行政案件共31 件,其中15 件提起了上訴,上訴率為48.39%。研究結果表明,相較于傳統法院,新型專業性法院在審理民事案件時具有一定的優勢,在審理行政案件時具有絕對的優勢。針對上述情況,可能的解釋是:專業性的互聯網法院和知識產權法院在審理人工智能案件方面具有專業優勢,更容易對侵權行為進行全面且客觀的解讀,從而對提高案件的結案息訴率產生了正向影響。

(三)司法實踐中涉人工智能案件的焦點分布

通過對涉人工智能案件爭議焦點類型進行整理,有利于把握實務中審理該案件的要點和難點。涉人工智能案件審判焦點分布情況,如表4 所示。

一些爭議焦點雖然在統計上涉及次數較多,但是“難而不大”。就涉人工智能案件爭議焦點中涉及次數最多的“人工智能產品和服務在質量上是否符合要求”這一問題來說,該類案件的焦點雖然涉及的案件數量較多,共24 件,在總樣本量中的占比為26.66%,但是對產品質量和服務的評估等技術性問題(合同除外)與法學研究關系較小,此處就不再展開討論。而有的問題則是“大而不難”,如在樣本中統計次數排名第3 的“是否因對人工智能產品進行夸大宣傳而存在不正當競爭行為”,該問題涉及案件12 件,在總樣本量中的占比為13.33%,但通過閱讀案件不難發現,法院均能對此類問題進行合理分析,鮮有不能解決的情況。所以,筆者對涉人工智能案件爭議焦點的分析將圍繞更有討論價值的方面展開,相關案件焦點至少應滿足以下特征:一是產生此類爭議案件數量較多(N≥5),二是該問題給案件的審判帶來了實際困難,三是該問題存在探討的空間。

1.人工智能工作的自主性是否能成為侵權者不存在主觀過錯的理由?

在樣本案件中,當事人之所以提出這一辯解理由,主要是考慮到涉及侵權的“新事物”由人工智能自行創造,在“自主性”上與開發或者使用該人工智能的個人和單位無關。在樣本案件中,該類案件主要集中在視頻、文字的剪輯與組合等涉及智力創作的領域。目前,雖然人工智能創作能否被著作權法保護仍面臨較大爭議,但是其具有自主生成作品的能力卻是客觀存在的事實。當事人提出這一辯解理由一般基于以下兩點考慮:一是在實際案件中,侵權一方經常以人工智能自動篩選使用被侵權一方的圖片和視頻等作品為由而主張其不存在主觀上的故意?。通過對這部分案件進行考察不難發現,該觀點一般不能得到支持,由表4 可知,在14 個相關案件中,一審法院均認定侵權者存在侵權故意,法官認為侵權一方不能因為人工智能自動化功能的存在而免責,通常是由于判定其在使用過程中未盡到合理的注意義務。

針對法官的這一觀點,侵權者通常用以下理由進行抗辯:一是人工智能的自主性并非開發者和使用者所能完全控制的,二是其自身未獲得經濟利益。關于第一個抗辯事由,樣本案件中的侵權者均對此有所提及,但全部被法院駁回,理由是人工智能雖具有一定的自主能動性,但最終還是要根據人的命令行事,同時,人工智能無法成為侵權責任的主體,其行為結果必須由自然人或法人來承擔。

關于法院的駁回理由,筆者對其中的部分內容并不完全認同。在樣本案件中,在設計之初所涉及的人工智能開發者便明確知曉其工作范圍,一旦人工智能在工作范圍內造成侵權,法院認定為其開發者或使用者存在故意侵權看似合情合理,但能夠預判風險不代表就能夠控制風險,認識到問題顯然只是解決問題的第一步。以樣本中的一個案件為例,該案件涉及的“游戲陪聊機器人”能夠在與人溝通中進行自主學習?,在語音聊天機器人得到普遍應用的今天,此類人工智能在與人溝通中學會說臟話甚至對人類進行人身攻擊的侵權案件也不斷涌現[15]。誠然,有學者可能會問,語音聊天機器人在收集語言數據自主學習的過程中,既然是學習人說話,肯定少不了跟說臟話的人交流互動,在這種情況下,人工智能的開發者和使用者應該能意識到這一點,如果其未對人工智能可能的侵權風險進行防范,直接認定開發者或者使用者具有侵權故意即可,還有什么繼續討論的必要呢?事實上,使用人工智能分類算法的確可以將常見的“污言穢語”從因聊天而產生的語言數據中分辨出來,但人類的語言是極為復雜的,在日常生活中,真正的“罵人 ”可能是不帶臟字的,想要人工智能識別這些不帶臟字的“罵人”的話可能比較困難,因為當前雖然人工智能聊天機器人能夠實現與人對話,但卻缺乏在復雜人際交往中的共情能力。所以,在類似語音聊天機器人侵權案件中,其開發者或使用者以無法控制人工智能進行抗辯,存在一定的合理之處,但僅以人工智能應被人控制或無法承擔侵權責任為由推定開發者或使用者存在主觀過錯可能缺乏充分的事實依據。事實上,對那些在現實中有著巨大市場需求的人工智能來說,有些風險雖然無法通過目前的技術解決,但是允許其研發和應用明顯利大于弊;有些風險雖然不可控,但是卻可以被預知,也常??梢员唤邮?。在風險與機會并存的當今社會,畏懼風險往往可能導致錯失機會,如果非要給此類人工智能的開發者和使用者設置過高的注意義務,既不利于經濟的發展,也會阻礙其相關技術的研發和應用。

對此,可能的解決方法是:對大多數風險可控的工具型人工智能來說,如果開發者未對人工智能可能存在的法律風險在交付使用時進行充分解釋,一旦該人工智能在使用過程中出現侵權行為從而引發糾紛,由開發者承擔主要責任,使用者明知該人工智能存在侵權行為而不加以制止的,承擔連帶責任;如果人工智能的開發者對人工智能可能存在的法律風險在交付使用時進行了充分解釋,而使用者仍愿意接收并使用,那么一旦人工智能出現侵權行為從而引發糾紛,則由使用者承擔主要責任,開發者承擔補充責任;但對部分仍存在不可控風險的工具型人工智能來說,如果其投放市場明顯利大于弊,而且風險在可被接受的范圍之內,一旦此類人工智能因為無法被控制的風險而造成侵權,無論是使用者還是開發者,都可以酌情減輕甚至免除責任。

此外,部分法院以侵權者是否實際獲得經濟利益來判斷其是否存在較高的注意義務可能也不合適。經濟利益是一個宏觀的概念,既包括物質性利益,也包括對商業聲譽和平臺知名度的隱形提升。以樣本中的一個工具型人工智能案件為例,某著名飲品公司設計的核桃露商業宣傳圖片被某圖片檢索公司儲存在其服務器上并供讀者下載,該圖片檢索公司使用人工智能對圖片自動進行法律風險篩查,但由于人工智能分類識別算法精準度無法達到100%,涉案的5 張圖片成了“漏網之魚”⑨。一審法院將客戶需要購買VIP 資格才能下載的前4 張圖片認定為侵權圖片,而對第5 張可以免費下載的圖片認為不構成侵權,對此,筆者認為,圖片檢索公司是一個以營利為目的的私人企業,其開發人工智能篩選圖片的目的是營利,涉案飲品公司設計的核桃露宣傳圖片在全國范圍內具有一定的知名度,所以,即便沒有因為VIP 資格下載而為圖片檢索公司帶來物質上的收益,也在無形中提升了該公司的品牌知名度。從這個角度來講,就很難認定該圖片檢索公司沒有因為第5 張圖片而獲得“經濟利益”,更不能因此認為侵權者可以因為未獲得“經濟利益”就可以降低其注意義務。值得注意的是,在對侵權者的注意義務未予以明確的情形下,二審法院維持了一審判決,這說明實務中在處理相關問題時的嚴謹性還有待進一步提升。

2.企業用人工智能取代人進行勞動是不是對勞動者權利的侵犯?

實證研究表明,被人工智能取代的工作不僅包括收款和蓋章這類簡單工作,一些固定資產實物管理和存貨報廢實物管理等相對具有技術含量的工作也在逐漸被取代?,而且隨著強人工智能時代的到來,無論技術含量高低,勞動者的“飯碗”都隨時可能會丟掉,人工智能取代越來越復雜的工作也將是一種必然趨勢。根據《中華人民共和國勞動合同法》第41 條的規定,用人單位生產經營發生嚴重困難,以及企業轉產、重大技術革新或者經營方式調整,經變更勞動合同后,仍需裁員的,可以進行裁員?。在樣本案件中,法院通常根據以下兩種情形進行裁判:如果原用人單位辭退勞動者卻沒有為勞動者提供新的崗位,則認為其存在對勞動者的侵權;如果原用人單位為被人工智能替代的勞動者提供了新的崗位,而勞動者不接受,則勞動者一方一般要承擔敗訴的結果。由表4 可知,在樣本案件中,兩種情形在數量上平分秋色,各為5 件,占比均為5.56%。

在第一種情形中,原用人單位常常以“情勢變更”為理由進行抗辯,即原用人單位的經營狀況惡化,主營業務收入減少。關于這一抗辯理由,在樣本案件中,5 個案件中有3 個案件被法院支持。在這些法院看來,有些用人單位確實存在經營情況惡化的情況,進行裁員無可厚非。但筆者認為,上述法院在認定用人單位經營情況是否發生嚴重困難這一問題時忽略了以下關鍵因素:一是在上述案件中,原用人單位作為市場競爭的參與者,應該清楚企業營收隨著市場行情的波動暫時下行是一種正?,F象。事實上,許多項目在創業之初都普遍存在“燒錢”的虧損現象,有時虧損不但不是一種損失,反而是一種戰略[16]。所以,單純以近兩年主營業務收入是否減少來衡量一個企業是否發生了嚴重的經營困難可能過于武斷,然而在樣本案件中,除了收入減少外,原用人單位均未能提供其他有效的證據來證明其實際上存在經營困難。二是即便公司確實發生了嚴重的經營困難,也應當評估被辭退崗位與公司經營困難之間的因果關系和相關關系。例如,被辭退員工的工資收入在該公司總開支中的占比為多少?使用人工智能取代某些員工的原工作崗位能為緩解公司困難帶來多大的正向影響?從案件的基本情況來看,涉案公司一般規模較大,因某一崗位被人工智能替代而辭退員工的數量約為1~5 人,多數僅為1 人,工資為5 200~12 569.65 元,且多數為10 000 元以下。由此可以推論,在相關案件中,被辭退員工的工資收入在公司總開支中的占比并不高,即便辭退了這些員工,也不會對緩解公司經營困難產生多大正向影響。所以,以緩解經營困難為由,為人工智能取代人引發的裁員進行合理性辯護可能站不住腳。針對上述問題,可能的解決方法是:要求原用人單位對其嚴重經營困難狀況進行充分舉證,并要求其對被取代崗位與公司經營困難之間的因果和相關關系進行說明,如果該困難不是由被取代崗位勞動者的原崗位的相關支出導致的,而且二者之間相關關系較弱,那么就不能將其認定為用人單位“裸辭”員工的事實依據。

在第二種情形中,法院審理結果普遍認為,原用人單位出于節約成本和提高效率的目的使用人工智能替代人進行工作具有合理性,且原用人單位給被人工智能替代的勞動者提供了新的崗位,如果勞動者拒絕接受,則其訴求就很難得到法院的支持。司法機關這一處理方法在道德直覺上看似合情合理,但實際上卻沒有針對主要矛盾去解決問題。換言之,勞動者提起訴訟并非因為用人單位沒有為其提供工作,而是對新的工作不夠滿意,法院不顧工作方面的薪資待遇等因素,而將主要裁判依據放在原用人單位是否為勞動者提供了新的工作上,這種認識上的錯位導致其裁判理由讓人摸不著頭腦。筆者認為,如果想要厘清第二種情形中的矛盾點,就必須對“新工作”的工作內容和相應的薪資待遇進行全面考察。通過對案件的梳理不難發現,5 個案件中有4 個案件是因為“新工作”相較原工作薪資大幅縮水而提起的訴訟,另1 個案件則是對部門調整不夠滿意而提起的訴訟?。在與薪資有關的4 個案件中,原用人單位雖提供了新的工作,但卻均可以被認定為是一種變相辭退。以研究樣本中的一個案件為例,原告是一家知名通信科技公司的工作人員,2017 年,其月收入為12 569.65 元,遠高于南京市當年的平均工資5923.16 元,而且用人單位與原告所簽的合同時限長達22 年,可見當時該公司對該崗位的重視程度;但是由于人工智能技術的發展,原告的工作量被大幅縮減,被公司強制調崗,且工資減少了2/3,原告不服,但一審法院和二審法院均駁回了原告的訴訟請求?。筆者認為,法官對法律的應用和解釋,要符合人民群眾最樸素的價值觀[17],如果一個人的工資突然減少2/3,其個人和家庭生活短時間內必然會受到較大影響,如果作為裁判者可能都接受不了,為什么勞動者就一定要接受呢?在上述案件中,法院的判決不能讓人信服,勞動者提起了上訴,但遺憾的是,二審法院并沒有合理考量勞動者的正當權益,說明法院在處理此類案件時可能缺少較為周全的思考和有效的論證。針對上述問題,可能的解決方法是:要求原用人單位對崗位調整的合理性進行充分說明,新的崗位應征求勞動者的個人意愿并兼顧其特長。在收入方面,應當以是否會在短期內對勞動者的生活產生重大影響作為劃定合理收入減少區間的參考值。如果用人單位為勞動者提供的新崗位薪資待遇縮水幅度較大,則應當要求其提供工資保障緩沖期,在緩沖期內,應保證勞動者的收入減少速度不會在短期內對其生活產生重大影響。此外,原用人單位還應為勞動者習得新的工作技能和尋找新的工作提供資金和渠道支持,企業因辭退勞動者和使用人工智能而獲益,也應當積極與勞動者分享人工智能所帶來的技術紅利[18]。

3.人工智能自檢報告是否可以作為證據使用?

由表4 可知,在樣本案件中,人工智能自檢報告主要集中于車損鑒定領域,共7 個案件,占比為7.8%,均為車主與保險公司之間的矛盾。在實際案件中,多數法院認定保險公司提供的人工智能自檢報告無法作為證據使用,理由是該自檢報告為單方取證行為,無法證明其客觀公正性和有效性。事實上,保險公司之所以要求車主安裝人工智能車損檢測儀器,其目的就是在事故發生后對自身負有的保險賠付責任進行明確。所以,在保險公司提交的人工智能報告可能存在單方利己主義成分的前提下,人工智能自檢報告可能只是保險公司實現其自身利益的一種工具,法院基于此質疑此類人工智能自檢報告的證據效力有一定的道理。通過閱讀法律文書可知,保險公司均主張人工智能自檢報告應該作為關鍵證據?。因為在交通事故發生之后,人工智能可以在第一時間對車損狀況進行評估和記錄,雖然相關法院并不認可人工智能自檢報告的客觀公正性和有效性,但是也不應忽視該自檢報告在關鍵時間點上取證的優勢。換言之,在排除了可能影響客觀公正性和有效性的相關因素之后,該自檢報告就能發揮其在關鍵時間點上取證的優勢,成為一份有力的證據。遺憾的是,在現有樣本案件中,并沒有法院對人工智能自檢報告的客觀公正性和有效性主動進行評估。造成這一現象的原因可能是:想要審核人工智能自檢報告的客觀公正性和有效性,必須要對其后臺算法進行研究,如果后臺算法設計的目的不是為訴訟雙方中的任何一方開脫責任,并且確實能夠對案發時的車損狀況進行如實記錄和客觀評估,同時,硬件設備也能夠有效運轉,則由其生成的報告在效力上也就能得到保證。但是在樣本案件中,保險公司既未提供相關鑒定證明,司法機關也缺乏可以審查后臺算法設計是否具有客觀公正性以及硬件設備是否能夠有效運行的專業技術和人才。針對上述問題,可能的解決方法是:保險公司欲提交人工智能車損自檢報告作為證據使用,應當將第三方鑒定機構對該人工智能算法設計的客觀公正性和硬件設備有效性的相關鑒定意見一并提交法院進行審查。而對于人工智能自動取證這一新興的取證形式,法院也應當積極轉變思維,對那些可以給后臺算法設計提供客觀公正性證明,并且可以給智能硬件設備運行提供有效性證明的人工智能自檢報告來說,應當允許其作為證據使用。

4.人工智能創作是否構成著作權法上的作品、是否侵害第三方權益?

自首批人工智能創作糾紛案例出現以來?,學界有關人工智能創作是否構成著作權法上的作品這一問題的討論就爭議頗多。有學者認為,應該承認人工智能創作為著作權意義上的作品[19];也有學者認為,人工智能創作應當與人類的創作有所區分[20]。當前,人工智能生成物是否應納入著作權法受到保護得到了廣泛討論。支持者認為,可以防止機器人創作中的抄襲之風[8]131,以產權化方式降低市場交易成本[21];反對者則認為,貿然納入不符合要求的人工智能生成物會破壞著作權法的內在統一性和合理性,其利益可以通過其他法律規則保護,同時,保護基于同一算法邏輯得到的不同生成物也會滋生人類創造惰性而背離立法宗旨[22]15-23。此處,筆者無意加入上述論爭,只希望為人工智能創作案件的解決梳理可能的思路。由表4 可知,在樣本案件中,涉及著作權的類型主要有視頻、文字和圖片作品3 類,其中:視頻案件3 件,占比為3.33%;文字作品案件2 件,占比為2.22%;圖片作品案件2 件(包括著名的“菲林案”),占比為2.22%。在上述案件中,當事人皆主張其人工智能作品應當受到著作權法保護,但是一審法院均以主體不適格為由進行了駁回。但要明確的是,雖然人工智能創作的著作權法意義均被一審法院否認,但是其作為作品的確客觀存在的事實。即在著作權法“人類中心主義”色彩短時間內難有大的變動的背景下,雖然其著作權屬性很難被明確,但是其財產屬性卻無法被否認??赡艿慕鉀Q方法是:由于現階段人工智能作品在價值和價值的實現方式上具有抽象性,可以暫時將人工智能作品歸入虛擬財產進行保護,因為虛擬財產的類別本來就是一個流動的區間,當人工智能作品能被著作權法接受或者被明確為其他類型的權利時,可以有條件、有步驟地將其從虛擬財產的類型中移出[23]。

而關于人工智能創作是否構成侵權,應該分不同的情形進行討論。當前,有關科技公司為了增加平臺的流量,通過人工智能自動分析用戶行為數據并結合其愛好創作作品,雖然能夠實現一定的商業目的,但是卻面臨多重法律風險。首先,收集用戶行為數據可能會侵犯用戶的個人隱私。其次,當前人工智能創作一般體現為兩種形態:一種是仍帶有原作品部分外形的剪輯作品,此種類型被法院認定為侵犯原作品的完整權?;另一種雖然已看不出原作品的外形,但是仍然模仿著原作品的部分情感和世界觀,這種情況下能否被認定為是一種侵權行為要根據實際情況進行討論[24],不能一味地認定是侵權或不是侵權。最后,如果人工智能的開發者訓練人工智能時所使用的全部數據或者部分數據仍為著作權法所保護,而開發者在使用數據之前又未經著作權人同意,就構成對相關著作權人權利的侵權;但是,如果全部數據均不在著作權法保護的范圍內(如古代詩詞),而人工智能開發者又基于合理目的對人工智能進行訓練,則不構成侵權??墒?,由于個性化創作是人類社會文化繁榮發展的前提,也是人工智能創作所依賴的數據的根本來源,所以應當盡可能鼓勵個性化創作。因此,有必要將人工智能創作與人的創作區分開來,要求人工智能開發者或使用者為人工智能創作的作品打上標簽或是要求其在單獨設立的平臺或者平臺的特定區域上進行展示。同時,擬在專區進行展示的作品必須嚴格排除侵犯他人著作權等可能的法律風險。如果人工智能的開發者或使用者出于謀取商業利益的目的,故意誘導用戶對人的作品與人工智能的作品產生混淆進而擾亂文藝創作市場的,應當承擔相應的責任,必要時給予行政處罰。

三、涉人工智能案件審判難點的應對之策

(一)以創造出來的具象化(智力)成果及其風險能否被人事前預知為標準將人工智能分為工具型人工智能和智力型人工智能

人工智能所引發的焦慮本身并不在于其在某一功能上是否比人類更為強大,如潛水艇很早就被人類創造而且能夠比人潛得更深,但并不會引起恐慌。所以,學者們若僅僅關注人工智能在實用性上的強度而不關注其背后算法的邏輯深度,那么其對人工智能的認識就只能浮于表面。人類的恐懼其實并不來自人工智能數量的增長和功能的強化,而是來自其失控進而沖擊人類社會現有利益分配格局的可能性。由于司法實務活動開展的目的本身便是定分止爭,所以在對人工智能進行劃分的標準制定中,就需要對當事人之間利益分配的問題進行回應,而不是僅僅滿足于移植技術領域的劃分要求。通過對樣本案件中的人工智能類型的整理可知,以人工智能創造出來的具象化(智力)成果及其風險能否被人事前預知為標準,將其劃分為工具型人工智能和智力型人工智能可能更符合案件審理的實際需要。有關這一標準的具體內容,筆者已在上文中提到,此處不贅。但還要強調的是,在以生成文字、視頻、聲音甚至程序代碼的生成式人工智能被學界廣泛關注的背景下,以上標準在人工智能類型劃分的敘事上仍具有可欲性,也即生成式人工智能本身同樣可以被劃分為工具型人工智能和智力型人工智能兩類。

具體到司法實務中,這一劃分標準對人工智能案件審理和預防工作的推動作用,主要體現在對不同類型人工智能開發者和使用者的注意義務和風險告知義務的認定上。對多數風險可預知且可控的工具型人工智能來說,由于其創造出來的具象化(智力)成果能夠被人事前預知,該人工智能只是像工具一樣被人操控和使用,如果在使用過程中一旦發生侵權行為,其行為后果應當直接歸于控制它的人來承受。當然,在這一過程中,要強調開發者對使用者的風險告知義務,實證研究表明,開發者和使用者之間常常存在技術上的信息不對稱,如果開發者明知風險而未告知使用者,則一旦發生侵權行為,由開發者單獨承擔責任;如果開發者已將可能的風險盡數告知使用者,使用者仍然愿意接受并使用,則一旦發生侵權行為,由使用者承擔責任,開發者可僅承擔補充責任。此外,需要承認的一個事實是,部分工具型人工智能現階段仍存在一些雖可預知但不可控制的風險,而智力型人工智能的風險既不可預知也不可控制。事實上,即便能夠預知風險也不代表能控制風險,更不代表這種風險可以被社會接受。當前,無論是工具型人工智能存在的可以預知但無法控制的風險,還是智力型人工智能面臨的不可預知且不可控制的風險,都需要社會管理者秉承風險社會的底層邏輯,對其利弊進行選擇性權衡,最終決定是否接受風險以及是否允許此類人工智能繼續研發和應用。這一過程可能直接決定某些人工智能的“生死”,是保障人工智能在未來安全研發和應用的重要步驟。

(二)推進涉人工智能案件由專業性法院管轄

實證研究表明,審理人工智能案件的專業法院共有兩類:一類是知識產權法院,另一類是互聯網法院。與知識產權法院不同,互聯網法院是專業性法院卻非專門法院。實證研究表明,專業性法院在審理人工智能民事案件過程中比傳統法院更具優勢,而且在行政案件中具有絕對優勢。如果從效率的角度出發,應該強化人工智能案件向專業性的知識產權法院和互聯網法院引流的力度。但是,加強案件向專業性法院引流要考慮兩個問題:一是怎么引流。想要解決這一問題,不但要強化最高人民法院對案件管轄權的統一分配和領導,還要求強化各級法院之間的相互配合。二是在可以引流的前提下,應考慮專業性法院是否具有足夠的案件承載能力。目前,中國互聯網法院僅有3 家,分別位于北京、杭州和廣州;知識產權法院也為3 家,分別位于北京、上海和廣州。但是實證研究表明,浙江(26 件,占比為11.82%)、江蘇(17 件,占比為7.73%)的人工智能案件在數量上均不低于廣州(17 件,占比為7.73%),所以,在浙江、江蘇等地增設互聯網和知識產權法院或許更符合案件審理的實際需要[25]。此外,還應盡快將互聯網法院的定位從基層法院提升為專門法院[26],此舉將有利于提高互聯網法院的人才吸引力[27],從而增強互聯網法院處理人工智能案件的強度和力度。

(三)對人工智能開發者和使用者注意義務的認定標準應富有彈性

這種彈性主要體現為以下兩點:一是在一定條件下降低部分人工智能開發者和使用者的注意義務,二是對侵權者獲得“經濟利益”的范圍進行擴大解釋。一方面,由于樣本案件中出現的人工智能均為工具型人工智能,而對大多數工具型人工智能來說,其風險是可以被預知的,也是可以被控制的。所以,對于此類人工智能,如果開發者和使用者未盡到合理的注意義務和風險防控義務,則可以認定為其存在侵權故意。但正如上文所言,還有一部分工具型人工智能的風險雖可以預知,但卻無法被控制,而這種無法被控制的風險能否被接受,需要社會管理者對其中的利弊進行比較和權衡。如果這種人工智能被允許繼續進行研發和應用,一旦因其不可控的風險導致侵權,則無論是開發者還是使用者,都可以酌情減輕甚至免除責任,原因在于,全社會因為此類人工智能的應用而獲益,其不可控的風險也應由全體社會成員共同承擔。對上述人工智能來說,若仍以人工智能最終要根據人的命令行事或者人工智能無法成為侵權責任的主體為由要求開發者或使用者承擔責任,既缺乏事實和法理支撐,也不符合法律適用的靈活性要求。另一方面,侵權者可獲“經濟利益”的認定應進行擴大解釋,如果裁判者只關注直接性經濟利益而忽視了商譽提升等間接性經濟利益,就無法認清案件事實,更無法作出公平公正的判決。

(四)要求用人單位對被迫調崗的員工劃定收入大幅縮水前的合理緩沖期

《職業安全和衛生及工作環境公約》明確提出,要關注勞動者的職業安全?。在人工智能取代人進行勞動成為大趨勢的背景下,有必要構建用工市場彈性和就業安定的平衡機制[28]。在某一崗位被人工智能取代之后,法律不僅要照顧公司作為市場主體節約生產運營成本的需求,還要照顧勞動者基于對新崗位收入預期而在一定時間內對生活進行重新安排的合理需要,對此,比較合理的辦法是為勞動者提供工資保障緩沖期。那么需要思考的是,該緩沖期應該為多久,有沒有最短和最長時限。筆者認為,以每個月最多減少10%為限度較為合適,這樣有利于勞動者在當前生活不發生太大變化的前提下合理安排接下來的工作和生活。至于減少多久,要看勞動者和用人單位協商之后的最低工資額,一般用人單位會根據調崗之后新工作的工作內容為勞動者劃定工資線,故工資保障期最短時間的計算公式為:

工資最短保障期=(原崗位月工資——新崗位月工資)/(原崗位月工資/10)

工資保障緩沖期不能低于工資最短保障期(以月為單位),但是沒有上限,用人單位可以為勞動者提供更為緩和的工資減少措施,從而延長工資保障緩沖期。此外,對那些不愿繼續在原用人單位工作的勞動者來說,原用人單位應為其習得新的工作技能和尋找新的工作提供資金和渠道支持,企業因辭退勞動者使用人工智能而獲益,也應當在承擔社會責任的基礎上對勞動者的工作機會損失進行補償。

(五)允許滿足條件的人工智能自檢報告作為證據使用

與傳統的取證方法相比,人工智能自動化取證是一種新型的取證方式,如果市場參與主體能夠對人工智能后臺算法的客觀公正性(非歧視性)進行證明,同時亦能證明其智能硬件設備運行的有效性,那么法院在認定該人工智能自動收集的證據的可靠性時或許無須持過于謹慎態度。從人工智能自檢報告的合格標準來看,首先,其后臺算法應當具有客觀公正性,即車載人工智能設計是為了客觀記錄和評估車損狀況,而不是為保險公司開脫責任,在這一點上,法院既可以要求人工智能使用者提供第三方權威機構的鑒定證明,也可自行審查。其次,應當確保具有人工智能收集證據所必要的功能,即能證明人工智能可以做到在車禍發生時及時記錄車損狀況并進行合理評估。最后,應當確保智能設備運行具有有效性,因為設備的有效性是檢驗算法設計客觀公正性的直接載體,人工智能的算法和終端在審查證據客觀公正性過程中應該是一個共同體,不可偏廢其一,該算法和設備應當同時確保能夠重復做出與案件發生時一樣的反應,開發者和使用者所提供的算法應當分別進行測試,并將二者進行對比,只有算法設計滿足客觀公正性,并且開發者和使用者提供的算法在智能終端運行結果均一致時,其結果才能作為證據使用,此舉可以防止人工智能開發者與使用者合謀串通。

(六)暫時將人工智能作品歸入虛擬財產進行保護,并要求其在展示時與人的作品進行區分

對人工智能作品來說,應當承認其商業價值和存在的合理性。隨著人工智能越來越“聰明”,其創作的作品也越來越受人喜愛,一批以智能數字人為代表的人工智能也開始在社交平臺贏得大批“粉絲”[29]。同時,不應過分以人類的創作標準去影響人工智能作品屬性的認定。因為,如果以人類的創作標準去要求人工智能,單純強調作品的思想性及社會文化價值[30], 或著眼于依附性[31],那么人工智能可能永遠達不到要求,其作品也可能因此無法及時得到保護。但同時要注意的是,貿然納入不符合要求的人工智能生成物,又可能會破壞著作權法的內在統一性和合理性??赡艿慕鉀Q方法是:將人工智能作品的相關利益通過其他法律規則進行保護。由于現階段人工智能作品在價值和價值實現方式上具有抽象性,可以暫時將人工智能作品歸入虛擬財產進行保護,因為虛擬財產的類別本來就是一個流動的區間,當人工智能作品能被著作權法接受或者被明確為其他類型的權利時,可以有條件、有步驟地將其從虛擬財產這一類型中移出。

此外,堅持“人類中心主義”的學者普遍認為,保護基于同一算法邏輯得到的不同生成物會滋生人類創造惰性而背離立法宗旨[22]15-23??赡艿慕鉀Q方法是:劃定人工智能作品的使用范圍,對“作品”的含義做擴大解釋,在承認人工智能作品的同時,將人工智能的作品和人的作品進行明確區分。在法律層面,應針對人工智能作品的管理出臺專門的細則,對其適用范圍進行明確規定[32]。例如,要求人工智能使用者為人工智能創作的作品打上標簽或是要求其在單獨設立的平臺或者平臺的特定區域上進行展示。同時,擬在專區進行展示的作品必須嚴格排除侵犯他人著作權等可能的法律風險。如果人工智能的開發者或使用者出于謀取商業利益的目的,故意使用戶對人的作品與人工智能的作品產生混淆,從而擾亂文藝創作市場,應當追究其責任。

四、結語

“在如今的技術和經濟條件下,逃避風險就意味著放棄理性?!盵33]如何通過法律制度防范人工智能風險的同時兼顧技術發展,成為法學研究在人工智能時代義不容辭的責任和使命。筆者通過對已公布的220 件涉人工智能案件司法裁判結果進行研究,認為以創造出來的具象化(智力)成果及其風險能否被人事前預知為標準對人工智能進行劃分可能更符合案件審理的需要。同時,筆者還討論了專業性法院管轄案件數量提升化、開發者和使用者注意義務認定標準靈活化、勞動者薪資降速降幅合理化、自動化取證合規化、人工智能作品歸類展示合法化等問題。誠然,上述研究能夠為完善人工智能的立法和司法工作提供一定參考,但也應清晰地認識到,不合格樣本的干擾以及合格樣本法律文書的殘缺,也可能導致相關實證研究出現樣本量較小和變量界定不夠清晰等實際難題。但是,上述問題也將隨著樣本量的增加和法律文書平臺的持續完善而得到有效緩解。

注釋:

①中國裁判文書網上的案件信息一直在不斷更新中,筆者所收集樣本的時間截至2021 年8 月27 日。

②包括32 家高級法院、32 家中級法院、96 家基層法院。

③例如,相輿科技(上海)有限公司與福建美沿科技有限公司侵害發明專利權糾紛案,參見:最高人民法院(2020)最高法知民終1042 號民事判決書。

④包括單一的人工智能技術(68 件)、智能化系統(52 件)、智能軟件(20 件)、大型人工智能綜合性平臺(4 件)。

⑤包括智能客服機器人(6 件)、電銷機器人(2 件)、游戲陪聊機器人(1 件)。

⑥包括智能名片軟件(4 件)、智能化物業管理系統(3 件)、倉庫智能管理系統(3 件)、智能看面相(2 件)、來電身份標注技術(2 件)、球賽結果預測(2 件)、自動輸單(2 件)、人際交互(1 件)、圖像分層(1 件)、證據分析與保存技術(1 件)、社區老人智能看護(1 件)、反刷視頻流量系統(1 件)、反洗錢信息報送系統(1 件)、預應力張拉程控系統(1 件)、智能呼叫系統(1 件)、專利檢索分析系統(1 件)、膚質分析軟件(1 件)、智能評分軟件(1 件)、智能短信群發(1 件)、文字作品剪輯推薦(1 件)。

⑦包括人工智能人形機器人(19 件)、早教機器人(5 件)、清潔機器人(2 件)、陪伴機器人(1 件)、智能語音機器人(1 件)、學習機器人(1 件)、語音交互機器人(1 件)。

⑧包括智能語音助手(2 件)、智能服務器(2 件)、智能溫度控制器(2 件)、智能攝像頭(1 件)、智能探測器(1 件)、智能煮飯煲(1 件)。

⑨上海品圖網絡科技有限公司與河北養元智匯飲品股份有限公司侵害作品信息網絡傳播權糾紛案,參見:上海知識產權法院(2019)滬73 民終137 號民事判決書。

⑩包括正常的一審案件(155 件)和向一審法院提出強制執行的案件(2 件)。

?包括北京知識產權法院(21 件)和上海知識產權法院(3 件)。

?包括北京互聯網法院(4 件)和廣州互聯網法院(1 件)。

?包括最高人民法院(2 件)和鐵路運輸法院(2 件)。

?包括:在構成侵權的前提下,賠償數額是否合適(4 件);打碼注冊公司使用人工智能技術抓取數據的行為是否在合理的使用限度之內(4 件);使用人工智能進行非法活動的當事人是否構成欺詐(4 件);原公司職員是否違反競業限制義務(2 件);人工智能開具發票的時間能否被認定為起始時間(1 件);咨詢轉服過程中人工智能是否存在過錯(1 件)。

?北京字節跳動網絡技術有限公司與北京小度互娛掌訊科技有限公司等侵害作品信息網絡傳播權糾紛案,參見:北京互聯網法院(2020)京0491 民初34364 號民事判決書。

?上海智臻智能科技網絡有限公司與蘋果電腦貿易(上海)有限公司專利權糾紛案,參見:最高人民法院(2017)最高法行再34 號行政判決書和上海市中級人民法院(2012)滬一中民五(知)初字第186 號民事判決書。由于法律文書未盡然上網,未找到國家知識產權出具的行政決定書,但是通過閱讀最高人民法院的再審判決書可知,國家知識產權局與一審法院觀點一致。

?張斌與南京愛立信熊貓通信有限公司勞動爭議案,參見:江蘇省南京市中級人民法院(2017)蘇01 民終7261 號民事裁定書。

?《中華人民共和國勞動合同法》第41 條規定:“有下列情形之一,需要裁減人員二十人以上或者裁減不足二十人但占企業職工總數百分之十以上的,用人單位提前三十日向工會或者全體職工說明情況,聽取工會或者職工的意見后,裁減人員方案經向勞動行政部門報告,可以裁減人員:(一)依照企業破產法規定進行重整的;(二)生產經營發生嚴重困難的;(三)企業轉產、重大技術革新或者經營方式調整,經變更勞動合同后,仍需裁減人員的;(四)其他因勞動合同訂立時所依據的客觀經濟情況發生重大變化,致使勞動合同無法履行的?!?/p>

?吳雪萍與江蘇順豐速運有限公司勞動爭議案,參見:江蘇省南京市中級人民法院(2020)蘇01 民終5510 號民事判決書。

?代表性案件為中國太平洋財產保險股份有限公司南陽中心支公司與郭賽財產保險合同糾紛一案,參見:河南省南陽市中級人民法院(2020)豫13 民終4204 號民事判決書。

?代表性案件為上海步升大風音樂文化傳播有限公司訴北京友播世紀信息技術有限公司侵犯錄音制作者權糾紛案,參見:北京市海淀區人民法院(2008)海民初字第6939 號民事判決書。

?北京菲林律師事務所與北京百度網訊科技有限公司侵害署名權、保護作品完整權、信息網絡傳播權糾紛案,參見:北京知識產權法院(2019)京73 民終2030 號民事判決書。

?參見:1981 年《職業安全和衛生及工作環境公約》第5 條第(c)項。

.:

[1]國務院.《國務院關于印發新一代人工智能發展規劃的通知》[EB/OL].(2017—07—20)[2021—10—03].http://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm.

[2]中共中央.中共中央關于制定國民經濟和社會發展第十四個五年規劃和二〇三五年遠景目標的建議[EB/OL].(2020—11—03)

[2021—10—15].https://www.ndrc.gov.cn/fggz/fgdj/zydj/202011/t20201130_1251646.html?code=&state=123.

[3]許曄.下一代人工智能:引領世界發展的新興驅動力[J].人民論壇 · 學術前沿,2020(20): 14—23.

[4]李俊豐,姚志偉.論人工智能的法律人格:一種法哲學思考[J].華僑大學學報(哲學社會科學版),2018(6): 80—86.

[5]劉強,孫青山.人工智能創作物著作權侵權問題研究[J].湖南大學學報(社會科學版),2020,34(3): 140—146.

[6]李文吉.論人工智能時代的預防性刑法立法[J].大連理工大學學報(社會科學版),2020,41(5): 97—103.

[7]張安毅.人工智能侵權:產品責任制度介入的權宜性及立法改造[J].深圳大學學報(人文社會科學版),2020,37(4): 112—119.

[8]吳漢東.人工智能時代的制度安排與法律規制[J].法律科學(西北政法大學學報),2017,35(5): 128—136.

[9]中國社會科學院國家法治指數研究中心,中國社會科學院法學研究所法治指數創新工程項目組.中國司法公開第三方評估報告(2018)[EB/OL].(2019—03—01)[2021—10—15].https://baike.baidu.com/item/中國司法公開第三方評估報告%282018%29/569 56499?fr=aladdin.

[10]張鈸,朱軍,蘇航.邁向第三代人工智能[J].中國科學:信息科學,2020,50(9): 1281—1302.

[11]吳漢東.人工智能生成作品的著作權法之問[J].中外法學,2020,32(3): 653—673.

[12]2021百度世界大會公告:火星車“祝融號”智能數字人展示[EB/OL].(2021—07—8)[2021—10—15].http://www.scicat.cn/oo/20211218/1392470.html.

[13]季冬梅.人工智能生成發明專利保護的理論回歸與制度探索——以DABUS案為例[J].科技進步與對策,2022,39(18):121—129.

[14]AI系統DABUS已被南非認定為專利發明人,澳洲可能跟上[EB/OL].(2021—08—04)[2021—10—15].https://baijiahao.baidu.com/s?id=1707154283981156802&wfr=spider&for=pc&searchword=dabus.

[15]跟人類學壞了?GPT-3 這類人工智能居然學會人身攻擊和罵人[EB/OL].(2021—09—04)[2021—10—15].https://xw.qq.com/cmsid/20210904A060SU00.

[16]同樣都是虧錢擴張,瑞幸咖啡和拼多多有何不同?[EB/OL].(2020—01—01)[2021—10—15].https://www.sohu.com/a/364022718_328948?scm=1002.46005d.16b016f01a2.PC_ARTICLE_REC_OPT.

[17]汪習根,段昀.社會主義核心價值觀融入教育法律制度的理論構建與現實進路[J].求索,2021(2): 115—122.

[18]鄭志峰,李佩艷.人工智能對勞動法的挑戰及其建議探索[J].人工智能,2020(4): 66—75.

[19]孫松.人工智能創作內容的作品定性與制度因應[J].科技與出版,2019(4): 106—110.

[20]余翔,張潤哲,張奔,等.適應人工智能快速發展的知識產權制度研究[J].科研管理,2021,42(8): 176—183.

[21]孫正樑.人工智能生成內容的著作權問題探析[J].清華法學,2019,13(6): 190—204.

[22]何煉紅.人工智能自主生成成果“作品觀”質疑與反思[J].貴州

[23]阿迪力· 阿尤甫,秦文豪.虛擬財產保護路徑之探析——基于已省黨校學報,2018(5):15—23.公布案件的實證研究[J].重慶郵電大學學報(社會科學版),2021,33(4): 73—88.

[24]曾田.人工智能創作的版權侵權問題研究[J].河北法學,2019,37(10): 176—189.

[25]占善則,王譯.互聯網法院在線審理機制之探討[J].江漢論壇,2019(6): 115—122.

[26]劉樹德.關于《人民法院組織法》專門法院設置的若干思考——立足互聯網時代網絡強國戰略的背景[J].法治研究,2017(4):3—14.

[27]陳增寶.構建網絡法治時代的司法新形態——以杭州互聯網法院為樣本的分析[J].中國法律評論,2018(2): 40—45.

[28]汪銀濤,吳延溢.人工智能時代勞動法立法范式的轉型[J].人文雜志,2019(10): 34—43.

[29]李晶.論人工智能虛擬偶像的法律性質[J].浙江社會科學,2020(9): 57—63, 158.

[30]劉銀良.論人工智能作品的著作權法地位[J].政治與法律,2020(3): 2—3.

[31]馮曉青,潘柏華.人工智能“創作”認定及其財產性權益保護研究——兼評“首例人工智能生成內容著作權侵權案”[J].西北大學學報(哲學社會科學版),2020,50(2): 39—52.

[32]張穎.人工智能編創過程中的著作權問題探析[J].中國編輯,2018(9): 81—86.

[33]尼古拉斯 · 盧曼.風險社會學[M].孫一洲,譯.南寧: 廣西人民出版社,2020: 15—159.

猜你喜歡
開發者法院案件
一起放火案件的調查:火災案件中的“神秘來電”
百姓拆遷心結一朝化解法院主持調解握手言和
“左腳丟鞋”案件
班里設個小“法院”
我國法院在線調解的興起、挑戰與未來
HD Monitor在泉廈高速拋灑物案件中的應用
16%游戲開發者看好VR
論人民調解與法院調解的銜接配合
3起案件 引發罪與非罪之爭
iOS開發者調查
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合