?

大模型時代我國人工智能法學理論體系的構建

2024-04-14 12:05楊延超
江漢學術 2024年1期
關鍵詞:理論體系法學人工智能

楊延超

(中國社會科學院法學研究所,北京 100009)

一、大模型時代人工智能法學及其理論體系

(一)大模型與人工智能法學的形成

在現今的“大模型”時代,以ChatGPT 為標志的人工智能(AI)技術在理解能力上已實現質的飛躍[1]。這一時代的人工智能以龐大的參數量、卓越的數據處理能力和多功能性著稱。具體而言,大模型的特征可以從以下三個方面來闡述。首先,參數量的巨幅增加是大模型的明顯標志。舉例來說,GPT-3 模型就配置了約1750 億參數,這一參數的規模使得AI 在處理復雜任務和產出高質量結果方面的能力得到極大增強[2]。其次,大數據作為大模型的支柱,是模型訓練與優化不可或缺的基礎。海量數據的采集、處理及其保護構成了AI 發展的關鍵環節。數據質量、完整性和安全性對AI 性能的影響不言而喻。最后,大模型的核心優勢在于其強大的能力,表現為卓越的學習和適應能力,它在理解、分析、推理及決策等方面的能力有了顯著提升,推動了自然語言處理、圖像識別、語音識別等多個領域的突破性發展。

人工智能法學作為一個概念,在大模型時代來臨前就已形成。然而,圍繞它是否應當只作為一個法律現象存在,還是可以發展成為一個獨立的法學分支,學術界一直爭議不斷[3]。大模型的崛起無疑會對這一爭議產生影響,可能會推動人工智能法學朝著成為一個獨立領域的方向發展,這一點從量變和質變兩個維度體現得尤為明顯。

量的增長體現在,隨著大模型的普及,人工智能將貫穿所有產業,而隨之而來的法律問題也將變得無處不在,這些問題關系著從個體安全到社會公共安全的各個層面。無論是機器人對個人造成的傷害,還是AI 系統對智能交通安全構成的威脅,這些問題都可能涉及財產權和人身安全。無論是有形財產還是無形財產,公法或私法范疇,法律問題的廣泛性和復雜性正不斷增長。

質的提升則意味著,這些法律問題盡管具有多樣性,但它們共同根源于機器學習和自主決策。通過理解這些共性,可以抽象出人工智能法學的一般性法律規律,并確定該學科的獨立研究對象——基于機器學習和自主決策的法律問題。這一法律規律的發現,為構建人工智能法學的總則和分則奠定了基礎。因此,有理由期待,人工智能法學不僅僅作為法律現象存在,而且有望發展成為法學領域內一個獨立且重要的學科。

(二)人工智能法學理論體系的特殊性

人工智能法學理論體系是一個跨學科的研究領域,旨在關注和解決人工智能技術發展對法律領域帶來的深遠影響和挑戰。這個體系主要聚焦于人工智能在法律地位與責任歸屬上的定位,探討如何構建適應人工智能特性的法律規制與合規機制,同時注重保障倫理與人權的尊重,確保技術應用不侵犯個人的基本權利。此外,體系還涵蓋了人工智能在司法領域中的應用,審視它對法律實踐的影響,包括但不限于案件分析、法律文書的生成等方面??紤]到人工智能的全球性和快速變化,該理論體系強調國際法律合作的重要性以及法律規定的動態更新能力,確保法律既能跨越國界,也能跟上技術的步伐??傮w來說,人工智能法學理論體系為理解和應對人工智能所帶來的法律問題提供了一個多維度、高度綜合的分析框架。相比其他法學理論體系,人工智能法學理論體系的特殊性表現在如下幾方面:

1.人工智能法學理論體系研究對象的特殊性

人工智能法學理論體系,作為法學研究的前沿領域,逐漸從傳統法學理論體系中分化而出,構建了獨特的研究框架。與民法、刑法和行政法等傳統法學理論體系關注人與人、人與社會、人與國家的關系不同,人工智能法學學理論體系關注的是人與人工智能、人工智能與社會以及人工智能與國家的關系[4]。這種關系的新穎性在于人工智能作為一個半自主的主體,其行為具有一定的不可預測性和獨立性。人工智能法學理論體系的核心研究對象包括但不限于人工智能的法律地位、人工智能的權利與義務、人工智能行為的法律責任歸屬以及人工智能的倫理與合規問題。該理論體系在借鑒傳統法學理論的同時,必須對傳統概念進行重新審視和定義,例如,對“行為能力”“責任能力”等法律概念的適用性進行探討。在這個過程中,研究者不僅需要法學知識,還需融合技術、倫理和社會科學等多學科知識,體現了人工智能法學理論體系的跨學科特點。

人工智能法學理論體系的獨立性體現在對人工智能獨有屬性的理解上,如自學習能力、自主決策過程等。這些屬性使得人工智能在法律關系中的地位和作用與傳統主體截然不同,需要創新的法學規制理論以適應其特殊性。例如,對于人工智能引發的損害,如何定性、如何追責、如何預防,這些都是人工智能法學理論體系獨立研究的重要議題[5]。由此,人工智能法學理論體系不僅與傳統法學理論體系相關聯,共同探討法律如何適應社會發展的問題,而且因應人工智能的特殊性,展現出明顯的獨立性。其深刻的學術探索對于理解和指導人工智能快速發展的社會現實具有重要價值。

2. 人工智能法學理論體系所依托的研究方法的特殊性

人工智能法學理論體系的形成與發展,既依托于傳統法學研究方法的深度分析與批判思考,又借助于現代科學技術手段,特別是科學實驗方法、算法實驗和人工智能實驗等。此種研究方法的引入,標志著人工智能法學從傳統法學理論體系中的獨立與超越,為解讀與規制人工智能提供了創新工具。

科學實驗方法在人工智能法學中的應用,使得法律規則的制定與適用能夠基于實證數據進行,而非僅僅依賴抽象推理。通過算法實驗,研究者可以模擬人工智能系統的決策過程,從而深入探討責任歸屬與法律適用[6]。同時,人工智能實驗能夠幫助理解AI 系統的行為模式,預測可能的法律問題,并在此基礎上設計出有效的法學理論和法律制度。

此外,這些現代研究方法強調跨學科的整合,借助計算機科學、數據分析、認知心理學等領域的研究成果,豐富法學的分析維度,提高法律規則對于復雜科技現象的適應性與針對性。這種研究方法的獨立性體現在人工智能法學對技術—法律互動關系的特別關注,重視在科技發展的特定語境下,法律概念與規則的適應性和變遷。

總之,人工智能法學理論體系在繼承傳統法學研究方法的同時,其獨特的現代科學技術研究方法的運用,不僅加深了法學對人工智能特性的理解,也推動了法學研究方法本身的革新。這種方法論上的創新,對于人工智能法學的理論構建和實踐應用都有著重要價值。

3. 人工智能法學理論體系倡導的“正義觀”的特殊性

傳統法學理論體系中,正義被理解為一種抽象的道德原則,其核心在于公平、公正地處理人與人之間的關系,確保每個人得到應有的權利與待遇。此理念深植于哲學、宗教及法律傳統,以亞里士多德的分配正義與回報正義為代表,側重于善與惡的倫理評價和社會責任,強調個體行為與社會規范的一致性[7]。人工智能法學理論體系中的正義觀則側重于算法正義和數據正義[8]。算法正義關注的是決策過程的公平性,強調算法設計、執行過程中的透明度和非歧視性,其目標在于消除算法可能導致的偏見和不公。數據正義則側重于數據收集、處理與使用過程中的正義問題,確保數據的準確性、隱私保護和使用的合理性。

兩者的區別在于,傳統法學理論的正義觀是人本位,以社會和諧為目標的;而人工智能法學理論的正義觀則是技術本位,以技術公平為目標的。傳統正義側重于人的行為與道德規范,人工智能法學正義側重于技術運作的合理性與公正性。傳統正義追求的是實現理想化的倫理狀態,人工智能法學正義則追求在現實技術條件下的最優公平狀態。在人工智能時代,正義觀念需要重新審視,法學理論體系亦需更新以包容技術發展的新要求。

二、人工智能法學理論體系建設:歷史回顧與價值分析

(一)人工智能法學理論體系的歷史回顧

1. 大模型產生之前的人工智能法學理論體系

首先,“從無到有”:人工智能法學理論體系的起源。在20 世紀50 年代,隨著人工智能技術的誕生,法律學者開始對這個新興領域可能帶來的法律問題進行初步的理論探討,如人工智能的定義、人工智能的法律地位等基本問題①。這一階段標志著人工智能法學理論體系的萌芽,為后續人工智能法學理論體系發展奠定了基礎。

其次,以“代碼化”為特征的人工智能法學理論體系發展階段。進入20 世紀80 年代,隨著人工智能技術的廣泛應用,人工智能法學理論體系不再局限于理論探討,而是更加關注它的實踐價值,如人工智能引發的人們權利義務的變化等。美國法學家勞倫斯·萊斯格(Lawrence Lessig)在他的著作《代碼與法律》中提出了“代碼即法律”的觀點,這一觀點對理解人工智能如何通過算法和數據影響社會具有重要的啟示意義[9]。這一階段可以看作是以代碼概念為核心的人工智能法學理論體系的形成階段。在這一階段,隨著人工智能的廣泛應用,一些國家開始嘗試制定相關的法律法規。例如,歐洲聯盟在1995 年通過了《數據保護指令》,這是一部旨在保護處理和移動過程中的個人數據的法律②。

再次,以“機器學習”為核心的人工智能法學理論體系發展階段。進入21 世紀,隨著人工智能技術的快速發展,特別是機器學習技術的廣泛應用,人工智能法學理論體系建設逐漸進入系統性階段。其中既有理論問題,也有實踐問題;既有人工智能應用所引發的權利義務問題的討論,也開始關注人工智能的安全治理問題。圍繞著機器學習和數據處理,更為具體和可實用性的人工智能相關法律也隨之誕生,其中較有代表性的是歐盟在2018 年實施了《通用數據保護條例》(GDPR),這是一部專門針對數據保護的法律,對人工智能產業發展產生深遠影響③。

2. ChatGPT 催生全新人工智能法學理論體系

ChatGPT 標志著人工智能進入大模型時代,它在人工智能發展歷史上具有里程碑意義,由此也將催生全新的人工智能法學理論體系。

首先,安全治理開始成為新人工智能法學理論體系的核心。隨著ChatGPT 等大型AI 模型的廣泛使用,潛在的風險與挑戰日益凸顯。這些模型在提供便利和效率的同時,也可能帶來包括數據泄露、決策不透明等一系列問題。更為嚴重的是,它們有可能引發更大規模的風險,如對人類社會整體產生不可預測的影響[10]。因此,將風險控制置于人工智能法學理論體系的核心至關重要,要求對現有的法律框架進行深入的審視和適時的調整,確保在AI 發展的同時保障社會公平、公正與穩定。

其次,人工智能法學理論體系中孕育新的法學概念和基本理論。ChatGPT 等大模型的出現和發展,讓人工智能法學理論體系所涵蓋的基本概念、基本理論面臨全新的挑戰和變革。ChatGPT等大模型的興起,對傳統法學概念提出了新的課題,尤其是在責任歸屬、版權、隱私保護、數據治理等方面。例如,當人工智能創作文學作品或藝術作品時,傳統的版權法律框架如何適用?[11]又或者,當AI 在無人監督下作出決策導致損害時,如何確定責任主體?[12]這些問題迫使學者和法律實踐者重新思考“創作者”和“行為主體”的定義。隨之而來的是,對法律個體主體資格的重新認識。AI 的法律地位,是否應當僅僅被視為工具和對象,或者應當被授予某種形式的“法人”地位?這不僅關乎責任認定,也牽涉AI 的權利與義務,甚至人工智能的倫理道德邊界。因此,人工智能法學理論體系中的基本法學概念和理論正逐漸適應這些新興挑戰,以包容技術進步帶來的復雜性和多樣性。未來的法學體系可能需要更加靈活和動態,以適應人工智能的快速發展。

最后,人工智能法學理論體系開始全面覆蓋各種類型的法律關系。在大模型的推動下,人工智能已經逐漸深入社會的各個領域。這使得人工智能與各類法律關系的交織日益復雜,催生了諸如人工智能的法律地位、人工智能的權利和義務等全新的法律問題。為應對這些挑戰,人工智能法學理論體系也就需要盡可能覆蓋各類型法律關系。

(二)構建我國人工智能法學理論體系的價值分析

當前,雖然美國、歐盟和中國在構建人工智能法律體系方面處于領先地位,但全球范圍內尚未形成一個絕對權威的人工智能法學體系。美國的《AI Bill of Rights》④、歐盟的《人工智能法案》⑤及中國的《個人信息保護法》⑥和《網絡安全法》⑦都是區域性的法律規范,它們在推動各自區域內AI 法律發展方面起到了積極作用。然而,這些法規并未構成全球統一的法律體系,因此,沒有一個單一的法律框架能夠全面統治全球AI 法律實踐。

在這樣的背景下,中國有機會也有責任進一步發展其人工智能法學理論體系。通過建立一個綜合、成熟的人工智能法律體系,中國不僅可以在國內實現對AI 技術的有效規范和倫理引導,也可能為國際社會提供一個可供參考的模式。特別是在當前全球法律體系碎片化、多元化的情況下,中國的法律體系因其獨特性,在均衡保護公民權利與促進科技創新之間的實踐經驗,可以為全球法學理論貢獻新的視角。

由此,通過深化人工智能法學理論的研究與應用,我國不僅能夠在國內外塑造良好的AI 發展環境,還能助力全球人工智能法學的統一和標準化,最終推動全球法學理論向更加公正、合理的方向發展。因此,構筑我國的人工智能法學理論體系,對于我國引領全球人工智能法學的理論發展具有深遠的意義。

三、我國人工智能法學理論體系構建的條件與難點

(一)我國人工智能法學理論體系構建的有利條件

1.既有的法學理論體系,為我國人工智能法學理論體系的構建提供了良好基礎

其一,在我國人工智能法學理論體系的構建中,現有的民法學、刑法學和行政法學理論體系提供了堅實的基石和豐厚的營養。這些傳統的法學分支,已經經歷了長時間的理論沉淀和實踐檢驗,不僅在法理上形成了一套成熟的論述,而且在邏輯結構上構筑了嚴密的體系,在方法論上積累了寶貴的經驗。民法學的物權、債權、合同等領域的討論,為人工智能產權界定、合同履行、債權責任等方面提出了原則和處理框架。當人工智能技術與日常生活越發緊密時,民法學提供的權利分配和法律責任等基礎理論對確立人工智能的法律地位至關重要。刑法學理論體系則在處理人工智能引發的犯罪問題上提供了指導,其中行為人責任原則、罪刑法定原則等成為分析和認定人工智能犯罪的基點。隨著技術的發展,新型犯罪形態不斷涌現,刑法學的基本原理和分類體系對于指導立法和司法實踐,構建科學合理的人工智能犯罪理論框架,具有不可替代的作用。同時,行政法學理論體系為人工智能監管提供了法律架構,政府的規制、監督、評估和執行機制的建立都緊密依托于行政法的基本原理。人工智能的法律規制體系,無疑需要吸收和整合行政法學的理論成果,以實現對這一新興技術合理有效的治理??傮w來看,傳統法學理論體系不僅為人工智能法學理論體系的構建提供了理論依據和方法工具,更為它未來的發展指明了方向,為促進人工智能的健康發展提供了理論上的支撐和實踐上的指南。

其二,我國已經出臺了人工智能相關的法律法規,這對于人工智能法學理論體系構建提供了重要條件,現有的法律法規構成了理論發展的骨架?!毒W絡安全法》《數據安全法》和《個人信息保護法》等法律的出臺,明確了網絡空間的安全原則和數據處理的法律框架,為人工智能法學理論的核心問題提供了法理基礎。這些基礎法律規定,為人工智能法學理論提供了處理個人信息、數據安全和網絡監管等方面的原則和方法,為理論體系注入了具體的法律內容。

同時,我國對AI 算法備案管理的實施以及特定領域如生成式人工智能的監管規定,為人工智能法學理論的深化提供了細化的法律實踐⑧。這些實踐反映出我國在高科技法律領域的探索成果,對理論體系的構建具有重要的推動作用。以算法備案管理為例,相關的法規不僅提出了算法的透明度和公正性要求,也為如何在法學理論中界定算法的責任和權利關系提供了實踐依據。

因此,我國已出臺的有關人工智能的法律法規不僅為人工智能法學理論的構建提供了基礎性的法律原則和規范,同時也通過特定高科技領域的法律實踐,推動理論體系朝著更加細化和完善的方向發展。這為我國人工智能法學理論的未來研究和應用,提供了實證基礎,也確立了理論發展的方向。

2. 我國人工智能產業發展為人工智能法學理論體系構建提供有力的實踐支撐

近年來,我國人工智能產業在政策推動、資本投入和技術創新的三重驅動下,取得了顯著的發展成就。這一行業的蓬勃發展表現在多個層面:首先是基礎研究和核心技術的突破,我國在算法優化、數據挖掘、云計算及邊緣計算等關鍵技術上取得一系列重大進展[13];其次是產業化應用的廣泛擴散,人工智能技術已深入應用于智慧城市建設、工業自動化、智能醫療等多個重要領域,極大提升了產業效率和服務質量[14];再次是市場規模的快速擴張,人工智能企業數量激增,行業生態不斷完善,形成了一批在國內外市場均具有競爭力的領軍企業[15]。人工智能產業的迅猛發展為我國人工智能法學理論體系的構建提供了有力的實踐支撐。

第一,人工智能產業的繁榮為法學理論體系的發展提供了實踐場域。產業發展的第一線是各類人工智能應用的試驗場,智能醫療、自動駕駛、智能制造等領域的應用場景對法律問題提出了新的挑戰。法律制度需要適應這些技術的特性,為其合理運行提供法律框架。在這個過程中,產業實踐推動法學理論體系不斷對現有法律問題進行反思與創新。第二,人工智能技術的復雜性和跨領域特性要求法學理論體系不斷拓展研究視野。傳統法學理論往往圍繞人與人之間的關系展開,而人工智能的介入使得人與機、機與機之間的法律關系變得復雜。例如,智能合同、數據所有權和隱私保護等新興問題,都要求法學理論進行跨學科研究,融合技術、倫理、社會等多維度知識,構建更加全面的法學理論體系。再者,人工智能產業的具體案例為法學理論體系提供了豐富的研究素材。在AI 技術應用過程中出現的法律爭議和法律空白,能夠促使理論家們從具體問題出發,思考法律規則的適應性和改進方向,從而使法學理論體系構建與實踐需求緊密結合,增強法學理論體系的現實指導力。此外,我國人工智能產業的發展還有助于構建與國際接軌的法學理論體系。隨著我國在全球人工智能產業中的地位日益提高,我國有責任也有機會在國際舞臺上參與和引領人工智能法學理論的發展。通過研究我國產業實踐中的典型案例,形成具有國際影響力的法學理論體系,促進人工智能國際法律規則的形成,提升我國在全球人工智能法學理論體系建設中的話語權。第三,人工智能產業的發展也為法學教育和人才培養提供了動力。在產業需求的推動下,法學教育需要不斷創新,將人工智能相關的法律知識納入課程體系,培養掌握人工智能法學知識的復合型人才,為人工智能法學理論體系的構建和發展提供人才儲備。

在人工智能產業發展助推人工智能法學理論體系構建和發展過程中,我們還見證了一種雙向促進、共生共榮的局面逐漸成形。隨著人工智能技術的跨越式發展,它所涉及的法律問題變得日益復雜,給法學理論研究帶來了前所未有的挑戰和機遇。產業發展如同源頭活水,不斷滋養著法學的沃土,推動理論界對傳統法律概念的重塑和對新興問題的深入解析。先進的法學理論體系,以其完備性和前瞻性,對人工智能產業的健康成長起到了極為關鍵的規范作用。法律不僅僅是制約的工具,更是引導和激勵創新的力量。通過對法律責任的明確界定、對權利義務的合理分配以及對技術創新的積極引導,不斷推動著人工智能產業向更高的標準邁進,確保它在安全、合規的軌道上加速前進??傊?,人工智能產業發展與法學理論體系構建的相互促進,標志著一個更高級別的產業法治化進程,對國家治理體系現代化構成了有力支撐,也為全球治理提供了中國方案。這樣的雙贏格局不僅推動了產業和法學的共同進步,而且為人工智能的未來發展營造了更加穩定、可預測的環境。

(二)我國人工智能法學理論體系構建的難點

1.我國人工智能法學研究水平相對滯后

我國人工智能法學相關立法經驗相對滯后。美國等西方國家在人工智能領域的立法相對成熟,例如,美國的《算法問責法案》強調算法的公正與透明[16],而歐盟的通用數據保護條例(GDPR)則在數據保護方面設立了全球標桿⑨。這些法律為人工智能的發展提供了明確的規范與指導。相較之下,我國在人工智能立法與監管框架方面還在探索中,尚缺乏細化的執行規則和充分的實踐案例,難以與國際成熟市場的法律制度對接,差距顯著。

我國人工智能法學研究與技術銜接方面相對滯后。美國高校如斯坦福大學提供的人工智能與法律課程反映出法律教育與技術進步的緊密結合,這種跨學科的教育模式和高校與科技公司間的合作推動了法律學者對于新技術的快速理解與應對[17]。我國尚未在法律教育中廣泛融入此類跨學科內容,這限制了法律研究人才對于人工智能領域的深入了解和對技術發展的即時反饋。

我國人工智能法學國際話語權與學術影響力相對滯后。在國際學術界和規則制定方面,西方國家占據優勢。牛津、哈佛等學術機構的研究成果在人工智能倫理與法律領域具有廣泛的影響力,并常常對全球規則的制定產生重要作用[18]。與此相比,我國在該領域的學術產出和國際合作較少,這限制了我國學者在全球人工智能法律框架制定中的參與度和國際話語權。

2. 學科壁壘限制了我國人工智能法學理論體系構建

人工智能法學理論體系的構建是一個涉及多學科交融的復雜過程,其中尤其側重法學與計算機科學的深度融合。然而,當前學術界普遍存在的學科壁壘對此構成了顯著障礙。這些壁壘不僅妨礙了法律專家對人工智能技術細節的深入理解,還阻礙了計算機科學專家對法律原則和思維方式的充分掌握[19]。結果是,當法律理論試圖涉足人工智能領域時,缺乏對技術核心的精準把握,可能導致理論體系與技術實際相脫節,而技術創新的法律評估和規制也難以及時跟上人工智能的快速發展步伐。

此外,學科壁壘造成的教育和職業培訓上的交叉學科教育不足,意味著法學專業的學生缺乏足夠的技術培養,而計算機科學學生也同樣缺乏法律和倫理的知識[20]。這種單一學科的知識背景限制了從業者在理論構建時考慮其他領域影響的能力,減弱了整個領域的創新動力,并且降低了理論對實務問題的適應性。法學理論無法及時反映人工智能技術的新實踐,例如自動駕駛車輛事故責任、人工智能產生的版權內容等,進而影響了法律實務領域解決這些新興問題的能力。

最終,這些壁壘帶來的后果是在政策制定層面上表現出的落后性,影響了理論與實踐的有效結合。沒有跨學科的理解和合作,政策制定者難以識別新興的技術趨勢和潛在的法律問題,進而導致制定的法律規章可能無法覆蓋或適應人工智能帶來的挑戰。這種情況表明,要想建立一個健全、適應性強的人工智能法學理論體系,就必須打破學科壁壘,推動包括法律專業和技術專業在內的多學科交流與合作。

四、構建我國人工智能法學理論體系的具體目標與安排

(一)我國人工智能法學理論體系建設的基本目標

1.推動人工智能時代法學理論革新發展

人工智能推動生產關系全面變革,由此也導致法律關系面臨全面變革。原有的人與人的關系,正在逐步迭代為人與機器之間的關系,比如學生和老師的關系,正在轉變為學生與大模型(在與大模型的溝通中完成學習)的關系。乘客與司機的關系,也正在轉化為乘客與無人駕駛車輛之間的關系;企業與員工的關系正在迭代為企業與機器人之間的關系。這使得傳統的法律關系發生了根本變革。盡管這里的大模型或者機器人的法律主體地位還存在著理論爭議,但它們取代和變革原有的法律關系的事實已基本確定,傳統法學理論正是構建在傳統的法律關系基礎之上的,當傳統的法律關系發生根本改變時,傳統的法學理論也面臨全面變革。

從人與人到人與機器的轉變,讓傳統法學理論面臨適用上的巨大困境。傳統法學理論基于人的行為完成理論建構,諸如民法的侵權責任原則,它關于人的主觀“過錯”判斷成為最核心的組成部分[21];刑法上的犯罪構成理論,人的主觀罪過同樣系衡量他是否構成犯罪的關鍵[22];知識產權法上人的“獨創性”也成為作品能獲得法律保護的重要條件[23]。然而,當人與人的關系迭代為人與機器的關系時,傳統法學理論中基于人的價值判斷均難以再適用,那么這種人與機器的關系又該采用何種理論進行規范,也將成為人工智能法學需要實現的重大理論創新。

2.推動人工智能時代法治實踐的全面升級

人工智能法學理論體系的重點目標系推動人工智能時代法治實踐的全面升級。

其一,借助人工智能法學理論體系推動人工智能時代科學立法。人工智能法學理論體系的構建目標在于使立法過程更加科學化、精準化。此體系旨在確立一套清晰的人工智能相關概念與法律定義,使立法者能夠準確捕捉到人工智能的法律特性,從而指導立法的具體制定。此目標不僅要求確立責任歸屬和權利保護的明確框架,還要求在國際層面推動立法的一致性,為全球人工智能法律框架的建立打下堅實基礎。在應對由人工智能技術發展帶來的全新法律問題上,如智能合同的法律效力、算法決策的責任界定以及數據治理的框架構建,此體系目標是提供切實可行的原理指導和解決方案。這要求立法者深入理解技術進步與法律體系之間的相互作用,并創造性地思考如何在促進技術創新的同時,保障社會公正和法律秩序。進一步的目標包括利用人工智能技術推動立法方法論的創新,如運用人工智能輔助立法評估和預測法律效果,以增強立法措施的針對性和前瞻性。這一目標鼓勵法學理論與技術實踐相結合,探索和發展新型立法工具與方法,從而提升整體立法過程的效率和質量。

其二,借助人工智能法學理論體系推動人工智能時代司法公正。構建人工智能法學理論體系的目標,在于推動司法領域內的公正裁決。此體系旨在為司法判決提供堅實的理論基礎,特別是在評估由人工智能引發的新型法律問題時,它的目標是讓法官能夠更加精確地理解和適用涉及算法決策和智能合同的法律規定,提高判決的科學性和公正性[24]。此外,該理論體系還致力于培養司法人員對人工智能的深入理解和應用能力,確保他們能夠適應人工智能技術帶來的變化,并在此基礎上作出恰當的法律判斷。這不僅包括判決過程的科學化,還包括在使用人工智能輔助司法時,確保程序的合法性和對當事人權益的保護。最終,這一理論體系的目標是在司法實踐中創造一個可持續發展的環境,隨著人工智能技術的迭代與進步,理論體系也能相應更新和適應,以保證長期的司法公正和法律的穩定性。

其三,借助人工智能法學理論體系推動人工智能時代執法準確。建設人工智能法學理論體系的目標,在于賦予執法機構應對新時代技術挑戰的理論武裝,確保執法行為的精準性和公正性。該體系旨在解析人工智能與現行法律的交叉點,定位人工智能的行為主體性和責任歸屬,以指導法律實施的準確性。目的是通過深入的法理研究,明確數據權利界定、算法透明度和技術監管的法律標準,從而提升執法中對違法行為的識別力和處罰的精確度。進一步,該體系目標包括利用人工智能優化執法流程,提高執法效率,同時確保技術輔助下的執法活動符合法治原則和程序正義,預防對公民權利的不當侵害。在執法實踐中,該理論體系將指導執法人員如何正確應用人工智能工具,避免對技術的盲目依賴,確保執法的人文關懷和倫理責任??傊?,人工智能法學理論體系的建設目標是確立一套適應技術進步和社會發展的執法理論指導原則,以期在確保法律適用的精確性和提升執法效率的同時,維護法律的尊嚴和社會公正。

其四,借助人工智能法學理論體系提升人工智能時代守法自覺。人工智能法學理論體系致力于通過確立清晰的法律規范和原則來增強公眾對法律的認知和遵循。該體系通過提供理論框架,幫助理解人工智能的法律界限和責任,促進法律自覺遵守。主要目標包括:推廣法律教育,提升公眾對AI 法律問題的了解;開發法律合規工具輔助企業和開發者合法運用AI;并鼓勵法學和技術領域跨學科研究,共同尋求技術合規之道。此外,目標還涵蓋創新監管策略,利用AI 技術強化法律執行,保障法規在AI應用中的有效落實,以構建法治社會并促進AI 技術的健康發展。

(二)構建我國人工智能法學理論體系的具體安排

構建我國人工智能法學理論體系可按照如下步驟。

1.梳理和解釋人工智能法學的基本概念

人工智能在法律領域的崛起引發了對法學理論體系的深刻反思與必要的重構。為了建立一個符合時代發展的人工智能法學理論體系,我們首先需要梳理并理解由人工智能引起的法學概念變革。

在傳統法律體系中,如責任歸屬問題,通常責任是直接歸咎于行為的實施者。但是,在涉及人工智能系統的情景下,例如自動駕駛汽車事故,責任劃分的界定就變得更加復雜。這要求對“責任歸屬”這一法學概念重新進行定義和解釋,以適應人工智能時代的需求。智能合約的出現和人工智能對個人隱私的潛在影響,進一步對傳統的合同法提出了挑戰[25]。此外,人工智能的發展也催生了全新的法學概念,例如算法公平性、數據權和人工智能法人的概念[26]。算法公平性關注如何避免算法帶來的歧視,確保算法過程的透明度和可解釋性。數據權則圍繞數據所有權的界定,數據主體權益的保護以及數據利用與保護之間平衡的問題。至于人工智能法人,則涉及對人工智能法律地位的定義、人工智能責任問題的處理以及人工智能權益的保障。

因此,在構建人工智能法學理論體系時,關鍵在于深入地反思傳統法學概念并對它們進行適當的調整,同時準確地解釋新出現的法學概念。這樣的概念明晰與界定不僅是理論建設的基礎,而且對于制定實際適用的法律規則和基本原則至關重要。這將確保人工智能法學理論體系不僅在理論上是合理的,而且在實踐中也是可行和有效的。

2.確立人工智能法學理論體系的基本框架

確立人工智能法學理論體系的基本框架是最終構建人工智能法學理論體系的重要前提,它總體上包括如下內容:

其一,法律地位與主體資格界定。在人工智能法學理論體系中,法律地位與主體資格的界定系首要步驟。它決定人工智能在法律中的位置,及其能否作為獨立的法律實體承擔權利和義務。這一界定不單是技術分類,更關乎法律責任、權利保護與適用范圍?,F有的法律體系以法人和自然人為主體資格核心,人工智能的涉入挑戰著這一框架,激發對“電子人”法律主體的討論[27]。這種法律地位的設定,必須既對接技術發展又預防風險,確保不損害人類主權與社會穩定。此外,明確的法律地位對于人工智能引發損害時的責任歸屬、合同履行、知識產權判定至關重要。因此,界定人工智能的法律地位,是構建法學理論體系的關鍵步驟,確保法律應對人工智能的挑戰和機遇。

其二,權利、義務和責任的設定。權利、義務和責任設定系人工智能法學理論體系框架構建中的主體工程。這涉及如何為人工智能的行為和決策定性,確立它在法律關系中的位置及對應的責任后果。隨著人工智能技術的滲透,其自主性和復雜性帶來了傳統責任制度的挑戰,特別是在無人駕駛車輛、自動化交易系統等領域。確立權利義務關系要解決的核心問題是,當人工智能系統在沒有直接人類指令的情況下獨立作出決策并導致法律后果時,如何歸責。這不僅需要對人工智能行為進行分類,還要創新責任原則,區分人工智能的創造者、所有者、用戶和其他相關方的責任范圍和界限。此外,隨著人工智能的決策過程越來越不透明,建立一套責任追溯機制成為法學研究的焦點[28]。法律必須適應這種變化,發展新的理論和實踐方法來應對人工智能帶來的責任歸屬問題。權利義務與責任歸屬的清晰構建,不僅對保護個人和公共利益至關重要,也是促進人工智能健康發展、贏得社會信任的關鍵。這是建立人工智能法學理論體系時不可忽視的基礎環節。

其三,人工智能的倫理約束與權利保護。在人工智能法學理論體系框架建構中,倫理約束與權利保護旨在防范和減輕AI 可能對人類社會和個體造成的危害。這些潛在危害包括侵犯隱私、加劇社會不平等、制造安全風險以及決策過程的不透明性等[29]。為防止這些危害,首先需要建立和強化倫理框架,比如明確禁止利用AI 進行不正當監視、濫用個人數據或者制造歧視性決策。設立倫理審查委員會,在AI 研發及應用過程中進行監督和評估,確保遵守倫理準則。其次,權利保護的法律措施必不可少。例如,應制定數據保護法律,嚴格規范個人信息的收集、處理和使用,以防止隱私侵犯;制定責任歸屬規則,確保AI 引起的損害能夠得到及時賠償和有效救濟;完善監管機制,對AI 的安全性進行持續檢查,保障公眾利益不受損害??傊?,通過倫理約束與權利保護的雙重保障,人工智能法學理論體系旨在預防AI 技術可能導致的風險,確保技術進步在不損害人類社會和個體權益的前提下,促進公共福祉與可持續發展。

其四,國際合作與標準制定。國際合作與標準制定系推動我國人工智能法學理論體系走向國際化的重要一步。隨著人工智能技術的全球性擴散,多國法律體系的交互影響與合作已成為不可回避的課題。這一過程要求我國法律制定者、學者與實踐者深入參與國際對話,共同推動制定國際通用的人工智能倫理準則和法律標準,以促進科技創新與國際貿易,同時保障公共利益和社會穩定。具體來說,跨國界的法律合作可以幫助我國在全球范圍內維護數據安全、知識產權和消費者權益。這不僅有利于我國企業在海外的健康發展,也有助于國內市場的國際化。同時,通過參與國際標準的制定,我國可以在全球人工智能規則制定中發揮更大的影響力,使得我國的法律體系與國際接軌,推動構建更加公正、合理的人工智能國際法律秩序。因此,跨國界法律合作與標準制定是我國人工智能法學理論體系的關鍵部分。通過積極參與國際交流與合作,可以促進我國人工智能技術法學理論體系在全球發揮更大影響力。

3. 構建一個多維、動態、可進化的人工智能法學理論體系

其一,構建一個多維的人工智能法學理論體系。在構建一個多維的人工智能法學理論體系的征途上,我們必須跨越“國內與國外、法律與技術、理論與實踐、倫理與產業”的維度,創立一個立足于國內需求、兼顧國際法治精粹、跨學科整合、理論與現實緊密相連以及在倫理和商業實踐中找到平衡的綜合體系。這樣的體系將具備全球視野,實現技術法規的前瞻性和適應性,保證理論研究與法律實踐的有效對接,并促進產業發展與倫理價值的協調統一。通過這樣的全方位視角,我們旨在建立一個能夠引領國際標準,指導國內實踐并推動人工智能與社會倫理共同進步的法學理論體系。

其二,構建一個動態的人工智能法學理論體系。為了構建一個動態的人工智能法學理論體系,關鍵在于創設一個適應技術進步的靈活框架,確保它能與時俱進并響應最新的技術變革。這不僅涉及法律文本的持續更新,也包括對跨學科知識的融合,確保法學理論體系在倫理、技術、經濟及法律各領域間的協調一致。此外,考慮到人工智能的全球性影響,體系的構建必須擁有國際視角,加強國際合作與標準制定,以確保法律規則在不同司法轄區間的有效對接和統一。最終,為保持其動態性,法學理論體系需要不斷從實踐中汲取經驗,通過實時的政策反饋和案例分析,動態調整法律規范以應對新出現的挑戰和問題。這樣的體系將更加具有前瞻性和適應性,能夠有效地指導人工智能的合法、合規以及倫理使用,促進技術與社會的和諧發展。

其三,構建一個可進化的人工智能法學理論體系。構建一個可進化的人工智能法學理論體系,意味著打造一個不斷自我完善、適應未來變化的框架。首先,它需具備自適應學習能力,通過不斷吸收新的法律判例和社會變遷信息來更新其法律原則和應用規則。其次,體系內部應包含內建的演化機制,例如通過自我評估和反饋循環,持續地進行自我修正和進化,確保理論不僅能應對當前問題,也能預見并適應未來挑戰。此外,該體系必須能夠整合跨學科的知識,包括技術、倫理、社會科學的最新發展,保持其理論的全面性和前瞻性。最后,為了能夠適應長期的技術變革和社會變遷,該體系的架構應當是開放和可擴展的,使它不僅能夠容納新的理論構建,還能允許現有構成部分的更新和再配置??傮w而言,一個可進化的人工智能法學理系將是自我更新、跨學科融合和未來導向的,持續地在法律前沿領域展現其生命力和應變能力。

五、結語

在人工智能法學理論體系的構建過程中,人工智能是其中最為核心的要素。隨著技術的發展,尤其是隨著從具有特定應用目的的弱人工智能向具備自主意識和決策能力的強人工智能的演進,人工智能法學理論體系必將面對一系列迭代變革。本文正是站在大模型視野下所完成的探索。大模型(如GPT 系列和其他類似的先進技術)對我們理解人工智能自身及其與社會關系的復雜性提供了前所未有的洞見,更為我們構建人工智能法學理論體系提供了重要指引。然而,大模型絕不是人工智能的終點,人類社會正走在通向通用人工智能的路上[30]。通用人工智能的到來又將標志著一個全新時代的開啟,必將促使人工智能法學理論發生又一次重大變革[6]。

在構建和發展人工智能法學理論的過程中,我們終極關懷的是人類自身的福祉。隨著人工智能技術的快速發展,我們必須確保在這場演變中,人類的價值觀、權利和安全得到堅守和提升。在人工智能法學理論體系構建的過程中,我們始終伴隨著兩方面的重要挑戰:一方面防止人工智能做惡,即預防人工智能本身或通過人工智能實施的惡行,從而避免人類自身利益受到危害;另一方面引導人工智能產業健康良性發展,造福人類。人工智能法學理論體系構建和發展也將始終伴隨人工智能“做惡”與“造?!钡钠胶馀c博弈,而關注人類自身也始終是人工智能法學構建和發展的終級目的。

人工智能法學理論體系的建構和發展無疑是一項長期且復雜的工程。這一工程不僅僅需要法學家,還需要工程師、數據科學家、倫理學家等共同參與。這一工程不再僅限于單一國家的范疇,而是一個全球性的合作議題,這一工程不僅代表著學術領域的創新突破,更是新一輪工業革命的背景下,社會對于法律概念與實踐的深刻思考和重新審視。因此,人工智能法學理論體系構建與進化不僅需要跨學科的知識融合與創新思維,也依賴于全球范圍內對法律基礎理論的共識建立與實踐更新。它是一個涉及廣泛領域、多維度合作的復雜過程,其成敗又將對未來社會法治的發展和法律體系的完善產生深遠影響。

注釋:

① 1950 年Alan Turing 發表了“計算機器和智能”,提出了模仿游戲的想法——一個考慮機器是否可以思考的問題。這一建議后來成為圖靈測試,圖靈發展測試了機器的思考能力。圖靈測試成為人工智能哲學的重要組成部分,人工智能在機器中討論智能、意識和能力。圖靈測試是指,人們通過設備和另外一個人進行聊天,可以是文字形式也可以是語音,這不重要。重要的是聊天之后,如果30%的人認為是在和一個真人聊天,而實際對方卻是個機器,那么我們就認為這個機器通過了圖靈測試,它是具有智能的。以現在的計算機人工智能技術來說,30%的比例定得有些低,近年來很多人工智能對話程序都已經通過圖靈測試。

② 數據保護指令是歐盟1995 年通過的一項立法法案,旨在為收集、處理和移動數據時保護隱私和保護識別信息建立一個框架,歐盟成員國必須在1998 年之前實施法律以支持該指令。數據保護指令的目的是解決隱私問題以及圍繞數據使用的人權問題,一些歐盟成員國認為隱私權是一項重要的社會和人權權利,包含數據的服務器。官方稱為95/46/EC號指令,關于在處理個人數據和自由移動此類數據方面保護個人,數據保護指令旨在標準化和協調歐盟范圍內的數據保護程序。未經同意,不得處理個人數據,人們有權訪問自己的數據并糾正錯誤,未經當事人同意,不得濫用或使用數據。隨著支付處理和數據提交等活動的在線系統的出現,私人數據的保護成為一個特別重要的問題。

③ 通用數據保護條例(General Data Protection Regulation)是一項全面的法律,賦予了歐盟居民對個人數據的更多控制權,并試圖澄清在線服務商在收集、利用歐洲用戶個人數據的規則和責任。它取代了1995 年通過的歐盟關于數據保護的法律,并對現有的公約做出了一些重大改變。

④ 2022 年10 月4 日,美國白宮科技政策辦公室(Office of Science and Technology Policy,OSTP)發布《人工智能權利法案藍圖》(Blueprint for an AI Bill of Right),旨在指導自動化系統的設計、使用和部署,從而在人工智能時代保護美國公眾。該藍圖反映了拜登政府對私營公司和政府機構鼓勵采用人工智能技術的原則設想,以減輕涉及數據隱私、算法歧視和自動化系統使用的風險。

⑤ 歐盟自2016 年起就不斷探索推進對人工智能技術應用的監管體系建構。2018 年,歐盟建立人工智能高級專家小組(High-Level Expert Group on Artificial Intelligence,Al HLE),加快建立一個統一的人工智能法律監管框架的步伐。隨著《人工智能法案》三次修改及談判草案的發布,歐盟在世界范圍內率先設計一系列措施以確立人工智能的治理規則體系,并嘗試影響甚至塑造全球范圍內的人工智能治理共識規則和標準。

⑥ 《中華人民共和國個人信息保護法》第五十一條:“個人信息處理者應當根據個人信息的處理目的、處理方式、個人信息的種類以及對個人權益的影響、可能存在的安全風險等,采取下列措施確保個人信息處理活動符合法律、行政法規的規定,并防止未經授權的訪問以及個人信息泄露、篡改、丟失?!?/p>

⑦ 《中華人民共和國網絡安全法》第四十一條第一款:“網絡運營者收集、使用個人信息,應當遵循合法、正當、必要的原則,公開收集、使用規則,明示收集、使用信息的目的、方式和范圍,并經被收集者同意?!?/p>

⑧ 2023 年8 月15 日起,國家互聯網信息辦公室、工業和信息化部、公安部、國家市場監督管理總局發布的《生成式人工智能服務管理暫行辦法》正式實行。

⑨ European Parliament and Council 發布的Regulation(EU)2016/679 on the protection of natural persons with regard to the processing of personal data and on the free movement of such data,并廢除95/46/EC。

猜你喜歡
理論體系法學人工智能
《南大法學》征稿啟事
《中國化的馬克思主義黨建理論體系概論》
《南大法學》征稿啟事
《南大法學》征稿啟事
2019:人工智能
人工智能與就業
數讀人工智能
《文心雕龍》理論體系再認識①——兼論“依經立義”與《文心雕龍》理論體系之關系
下一幕,人工智能!
法學
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合