?

人工智能犯罪治理的原則導向、現實困境與改革路徑

2024-04-15 09:16趙長明
關鍵詞:改革路徑現實困境人工智能

[摘要]21世紀人工智能的發展一方面推動了人類社會的進步,另一方面也為犯罪手段的升級提供了技術支持。由于人工智能的應用場景、運行機制以及使用人員技術水準等因素,人工智能犯罪的治理具有一定的復雜性。因此有必要綜合考慮人工智能技術在刑事司法中應用的影響、所涉及罪名與刑法相關罪名的關系等因素,在堅持“以人為中心、以平等為本、以風險為基礎”原則的基礎上,完善人工智能刑事法律體系、加強人工智能的安全監管體系建設、強化人工智能倫理道德的建設、拓展人工智能領域的國際合作以實現對人工智能犯罪行為的有效治理。

[關鍵詞]人工智能;犯罪治理;現實困境;改革路徑

[中圖分類號]D9200[文獻標志碼]A[文章編號]2095-0292(2024)01-0056-06

[收稿日期]2023-11-10

[基金項目]公安部科技計劃理論軟科學“大數據背景下公安機關打擊虛擬貨幣涉毒洗錢犯罪對策研究”(2022LL43012);西安市社會科學基金“西安公安機關打擊養老詐騙犯罪對策研究”(23FZ12);陜西警官職業學院教學創新團隊資助項目

[作者簡介]趙長明,西安交通大學博士研究生,陜西公安新型網絡金融犯罪研究中心主任,副教授,研究方向:犯罪治理。

一、問題的提出

黨的二十大報告中指出,“中國要積極參與全球治理體系改革和建設,推動全球治理朝著更加公正合理的方向發展?!保?]人工智能是當今科技領域最具革命性意義的技術之一,被認為是繼蒸汽機、電力、信息和互聯網之后最有可能改變世界的技術。當前隨著人工智能技術的迅猛發展,其在社會生產和生活中的應用也越來越廣泛,成為推動人類文明進步的重要力量。據《人工智能:科技與社會》一書中的預測,未來40年內,人工智能將超越人類智能水平,成為人類智力的主要貢獻者。與之相對應的是,人工智能犯罪也日趨嚴重,為了有效治理人工智能犯罪,維護世界秩序的正常運轉,必須長期跟蹤人工智能技術發展的動向。根據(CNNIC)在京發布第52次《中國互聯網絡發展狀況統計報告》,截至2023年6月,我國網民規模達1079億人,互聯網普及率達764%[2]。面對如此迅猛的發展勢頭,在此背景下,人工智能犯罪治理問題也逐漸成為學者們研究的焦點。本文擬在厘清人工智能犯罪內涵和特征基礎上對我國人工智能犯罪治理路徑進行探討,以期為我國人工智能犯罪的有效治理提供一定的參考。

二、人工智能犯罪治理的原則導向

(一)以人為中心:促進人的發展

傳統犯罪治理主要是以國家為中心,是國家基于自身利益和社會發展需求,對犯罪實施的治理活動。從犯罪治理的目標來看,傳統犯罪治理主要是為了實現社會的穩定發展,而人工智能犯罪治理則需要在維護社會穩定的基礎上促進人的發展?,F代社會所面臨的諸多風險中,很多都是因為人自身造成的。例如,人口老齡化問題、疾病醫療負擔、環境污染等問題都會導致社會秩序失衡。對這些問題進行治理時,需要考慮到人自身的利益,使其在社會運行中發揮出應有的作用。正如馬克思所言:“人們自己創造自己的歷史,但是他們并不是隨心所欲地創造,并不是在他們自己選定的條件下創造,而是在直接碰到的、既定的、從過去承繼下來的條件下創造?!保?](P141-143)所以說,人工智能犯罪治理需要從促進人的發展這個角度來進行,對“人”進行尊重和關懷是基礎。

(二)以平等為本:實現權利平等

平等是人類社會的基本價值追求,也是人工智能犯罪治理的基本理念之一。隨著社會的發展,公民的權利意識不斷增強,其對于平等的要求也越來越高。對此,學界已經形成共識。例如,“自由”、“尊嚴”、“平等”等詞匯已經成為國際社會公認的核心價值[4](P103-113)。其中“自由”是最具代表性的概念。自由不僅是一種利益,更是一種價值,與人類追求幸福生活、提升生活品質的基本需要相契合?!白饑馈币彩乾F代社會追求的一種價值目標,其指向自由與平等的結合?!捌降取笔乾F代社會基本價值觀念之一,在此基礎上產生了法律價值體系、社會價值觀和國際社會價值觀等多個概念。平等是法律所追求的重要價值目標之一,人工智能犯罪治理也應當堅持以平等為本,實現權利平等。

(三)以風險為基礎:保障社會發展

以風險為基礎是指在傳統犯罪治理的基礎上,通過對人工智能風險進行識別和評估,對人工智能犯罪的危害性進行綜合考量,進而科學合理地制定治理策略,實現對人工智能犯罪的有效治理。由于人工智能犯罪的危害性很大,因此應當通過風險評估確定其風險等級,并基于此采取相應的治理措施。目前,由于缺乏統一的技術標準和行業規范,導致人工智能風險評估工作難以開展,其具體操作方法也存在較大爭議。有鑒于此,應當盡快出臺相關行業規范和國家標準。

風險評估是人工智能犯罪治理的前提和基礎,也是各國共同關注的問題。但是,由于我國尚未出臺專門的技術標準和行業規范,對于人工智能風險評估的具體操作方法也缺乏統一規定。因此,在立法層面應當盡快制定統一的技術標準和行業規范。在司法層面應當加快制定相關司法解釋或司法政策。隨著相關技術標準和行業規范的制定出臺,以及立法、司法解釋、行政規章等規范性文件的不斷完善和更新,未來我國人工智能犯罪治理將進入全面發展階段。

三、人工智能犯罪治理的現實困境

(一)人工智能技術本身的復雜性影響犯罪的預防與打擊

1人工智能的復雜性使犯罪打擊難度加大

在人工智能技術高速發展的今天,我們面臨的是一個全新的時代。與傳統犯罪不同,人工智能技術發展已經形成了較為成熟的產業鏈,包括算法、數據、芯片、傳感器等多個方面,這使得人工智能技術具有很強的專業性和復雜性[6](P34-43),人工智能技術在不斷發展過程中形成了大量的數據和知識,這使得人工智能技術能夠對大量信息進行有效處理并提供服務。隨著信息技術在社會生活中廣泛應用,越來越多的人掌握了一定的信息技術知識和技能。所以當社會出現問題時,犯罪行為就可能與人工智能技術產生關聯。例如在犯罪偵查過程中,犯罪嫌疑人可以借助人工智能技術進行反偵查,從而逃避偵查和懲罰。而且當人工智能技術與其他犯罪行為相結合時,犯罪行為就有可能會變得更加復雜、隱蔽和難以防范,這就要求我們必須在加強理論研究的同時,還必須加強實踐探索與研究。

2人工智能的危險性增加了犯罪風險

當前,人工智能技術已經應用于各種領域,如軍事、醫療、農業等。對于人工智能機器人的應用,有專家認為“人工智能機器人的出現將對人類社會產生重大影響?!保?]( P54-66)然而,人工智能技術本身就具有一定的危險性,如果這些技術被惡意使用甚至濫用就會產生一定的危害。當前人工智能技術的不安全性主要表現在兩個方面:第一、算法和數據方面存在缺陷。目前人工智能技術所采用的算法和數據都是公開透明的,如果這些算法和數據被惡意利用,就會增加犯罪行為的危害。第二、安全認證問題。在人工智能技術應用領域中,認證問題是非常重要的一環。在人工智能技術中存在著一些認證機制,如身份認證、生物識別、網絡安全等。如果這些機制被惡意利用或者濫用就會對人類社會安全造成威脅。具體而言,如果利用人工智能技術實施犯罪行為,就會對社會造成危害。當前,我國正處于信息時代向智能時代轉型階段,人工智能技術在信息時代中的作用和地位越來越重要。然而,一旦出現安全問題就會對整個社會帶來威脅。

(二)人工智能犯罪主體責任承擔的不確定性

1傳統刑法理論無法解決人工智能犯罪主體認定的問題

對于 “是否具有主體地位”問題,傳統刑法理論一直存在爭議。刑法學界有觀點認為,不能將具有獨立人格的人完全等同于法律擬制的“自然人”;也有觀點認為應當將刑法中“人”的定義擴大到人工智能機器人身上[8](P78-91)。通過分析發現在傳統刑法理論中“人”的定義過于狹窄和僵化,無法對人工智能機器人這一新出現的事物進行充分、合理、準確的解釋。人工智能機器人作為一種被設計出來用于輔助人類社會生活、生產以及科學研究等多個領域中的產品,其與人類社會在本質上存在著巨大區別。如果按照傳統刑法理論來認定人工智能機器人是否屬于刑法意義上的人,顯然會導致人工智能機器人在犯罪主體認定上與人類社會產生重大分歧。根據上述觀點,因為人工智能機器人本質上仍然是人所制造出來的產品,既然是人所制造出來的產品,那么就不可能完全脫離人類社會而獨立存在。因此,按照傳統刑法理論認定人工智能犯罪主體存在諸多困難。

2人工智能是否備獨立的價值判斷能力存在爭議

從價值判斷的角度來看,人工智能機器人不具備獨立的價值判斷能力。這是因為人工智能機器人是為人類服務的工具,其存在價值是為了幫助人類完成一些工作,或者將人類從一些繁瑣的工作中解放出來。人工智能機器人是否具有獨立的價值判斷能力,對于其能否成為犯罪主體至關重要,當前對于人工智能是否具備獨立價值判斷能力的認定存在一定的難度。筆者認為,應該從以下幾個方面進行考慮:第一、人工智能機器人是否具有自主意識。這是指人工智能機器人在進行行為時是否具備自我意識;第二、人工智能機器人是否能夠對自身的行為后果進行獨立判斷,這是指在確定人工智能機器人承擔刑事責任時應考慮哪些因素。從目前來看,人工智能機器人還沒有在行為上表現出能夠獨立判斷行為后果的能力。對于人工智能犯罪的因果關系認定,從傳統刑法理論來看,由于人工智能機器人缺乏主觀能動性和意識能力,因此無法對結果的產生原因進行自我控制和支配,因而其不應承擔刑事責任。由此可見,在一般情況下人工智能不會對結果的產生原因進行控制和支配。但是當人工智能出現故障或遭遇干擾時,其有可能導致危害結果的發生。例如在一起交通事故中,被害人駕駛著自己的車輛在高速公路上行駛時突然失控撞到了旁邊的護欄上,導致被害人當場死亡,對此種情況下人工智能機器人是否需要承擔刑事責任?筆者認為,在當今社會人工智能技術還不能完全取代人類的情況下,人工智能機器人是否能夠成為法律意義上的“人”是一個值得深入探討的問題。

(三)人工智能引發的倫理道德問題

1個人生命安全受到潛在威脅

對于人工智能技術而言,其主要是通過對外部信息的收集、處理、分析,然后根據一定的規則來做出相應的決策。而對于人工智能系統所作出的決策是否符合社會大眾的利益,這是需要進一步探究的。例如:在無人駕駛技術領域中,如果人工智能系統對外部環境信息進行了錯誤判斷,而做出了錯誤的決策,就有可能會導致交通事故。例如:當前網絡信息技術發展過程中所具有的智能識別、定位等技術功能就能夠很好地幫助一些不法分子實施違法犯罪行為。對于人工智能系統而言,其本身就是通過對外部信息進行收集、處理、分析之后作出相應的決策,而外部環境信息本身就具有相當大的盲目性,因此在這種情況下人工智能技術所作出的決策就會對人類的生命安全產生威脅。

2國家安全受到潛在威脅

隨著人工智能技術的不斷發展,其已經在社會生活的各個方面發揮著越來越重要的作用。對于國家安全而言,人工智能技術的快速發展,既能夠有效地促進社會經濟的發展,又能夠給國家安全帶來巨大威脅。對于國家安全而言,首先,需要對其進行保護,而在此過程中人工智能技術就扮演著至關重要的角色。例如:在網絡空間中,網絡攻擊行為本身就是國家安全所面臨的重大威脅之一。其次,由于人工智能技術本身具有極大的自主性以及自我學習能力,所以在這種情況下人工智能系統自身就有可能會受到一定程度上的操縱,從而使其產生一定程度上的危害行為。例如:在智能安防領域中,對于一些存在著一定危險性的物體或者人員就有可能會被人工智能系統所檢測到并做出相應的處理。

四、人工智能犯罪治理的改革路徑

(一)完善人工智能相關刑事法律體系

1明確人工智能的法律主體地位

第一、承認人工智能的主體地位。承認人工智能的主體地位是將人工智能納入法律體系的基礎,也是加強對人工智能管理的關鍵。對于人類而言,其與人工智能之間的關系也越來越緊密。在當前社會中,人類和人工智能之間是一種相互依賴、相互融合、共同發展的關系,沒有任何一個人可以脫離社會而單獨存在。對于一個人來說,其成長過程中需要接受社會中各種事物的洗禮和影響,對于人工智能來說也是如此。

在法律體系中,將人工智能確定為法律主體具有必要性和可行性。從刑法理論上看,未來的人工智能機器人與自然人一樣具有行為能力、辨認能力、控制能力,由于人工智能具有自我學習、自我判斷等特征,它能通過對數據的收集和分析而學習新知識并對未來作出預測,如果人工智能主體在對自身行為進行決策時出現了偏差或者是錯誤,就可能導致危害后果。因此,在未來應當盡快出臺相關法律法規對人工智能機器人進行規范和約束。

第二、賦予人工智能主體法律地位可以避免濫用其權利。由于人工智能技術是人類所創造的產物,但是其具有不能被人類所控制、無法預測的風險。因此在對人工智能機器人進行法律地位確認時應當采取“擬制人”制度,即在認定人工智能機器人是否為法律主體時應當將其視為“人”進行評價和保護,這既是對其權利的保護也是對其義務的規范和約束。

當前,部分國家已經開始嘗試對人工智能進行立法。但由于這些立法并未明確對人工智能的法律主體地位做出規定,所以其并不能解決人工智能犯罪的刑事責任問題。從現有立法來看,關于人工智能法律主體地位的規定主要包括兩種類型:一是賦予人工智能以民事主體資格。2018年,歐盟委員會發布了《關于數字服務法的建議》,首次將人工智能技術納入數字服務法中,為其確立法律主體地位奠定了基礎[9](P110-125);二是將人工智能視為非自然人,并將其作為法人進行管理。2019年3月,德國聯邦議會通過了《電子人工智能法案》,在其中明確規定了對電子人工智能的管理方式[10](P109-113)。而在我國,雖然我國《民法總則》已經規定了自然人的范圍以及法人的范圍,但并未明確規定人工智能可以成為法律主體。因此,從現有立法來看,目前關于人工智能法律主體地位的規定存在著一定的爭議。

2合理設置人工智能犯罪刑罰

人工智能時代必須在罪刑法定原則、刑法的謙抑性原則指導下,對人工智能犯罪的刑罰進行合理設置。

第一、在刑法中對人工智能犯罪予以明確規定并設立相應罪名。目前我國刑法中僅有非法侵入計算機信息系統罪、破壞計算機信息系統罪等少數罪名涉及人工智能的犯罪。隨著人工智能機器人在各個領域的廣泛應用和深度發展,相關法律規定與實踐需求之間存在著一定差距。因此有必要將其納入到現有刑事法律體系中進行規定和規制。例如:機器人故意殺人罪。機器人故意殺人是指人工智能由于自身的原因導致他人死亡的情形。在機器人故意殺人案件中,如果行為主體實施了殺人行為,應當參考故意殺人罪設置進行定罪處罰,以體現對其行為的否定評價。

第二、確定刑罰的種類和幅度。從量刑幅度來看,對于人工智能犯罪的量刑幅度可以參照適用我國現行刑法分則中規定的一般量刑幅度。例如,在故意殺人罪中,雖然人工智能犯罪尚無自我意識與自由意志等主觀要素,但可以借鑒刑法第232條規定的故意殺人罪一般量刑幅度進行處理。在故意傷害致人重傷或死亡罪中,可以參照刑法第234條規定的故意傷害罪一般量刑幅度進行處理。例如在仍工智能故意傷害致人死亡中,行為人對于被害人死亡結果所持態度應當是積極追求或放任該結果發生。如果行為人對被害人死亡結果持積極追求或放任態度時應當判處死刑或者無期徒刑。在確定刑罰種類與幅度時,還應當考慮以下因素:(1)人工智能犯罪的性質與危害程度;(2)人工智能犯罪所侵害的法益;(3)人工智能犯罪社會危害性與人身危險性大??;(4)刑法對人工智能犯罪所設置的刑罰種類與幅度是否合理;(5)對人工智能犯罪設置刑罰的必要性與可行性。此外,還應當注意考察人工智能犯罪發生的概率、造成危害結果發生的概率以及刑罰預防犯罪所需要付出的成本等因素,以確定是否需要設置較高程度的刑罰。

(二)強化人工智能的安全監管體系建設

1加強頂層設計,確定監管主體和內容

應加快人工智能安全監管機構設置,成立專門負責人工智能安全監管的機構。在我國,人工智能安全監管主要由國家互聯網信息辦公室負責,未來可以在現有政府機構設置的基礎上,進一步推動建立跨部門、跨行業、跨領域、跨區域的人工智能安全管理協調機制,明確各部門在人工智能發展中的職責權限和責任邊界,為人工智能發展提供強有力的保障。

我國人工智能的監管主體包括國家、地方和企業三個層面。在國家層面,我國可以在全國人大常委會之下成立人工智能專門委員會,負責對人工智能相關法律和政策進行研究,并提出意見和建議。在地方層面,可以根據地方的實際情況,將有關人工智能發展的管理辦法進行立法。在企業層面,可以由國務院相關部門根據部門職責和行業管理需要,研究制定關于人工智能領域的具體管理辦法。

對人工智能的監管內容應該包含以下幾個方面:一是對涉及人身安全和人格尊嚴的人工智能產品和服務進行監管,確保其安全性、可靠性和有效性。二是對人工智能技術、數據信息進行保護,確保其不被非法獲取和濫用。三是對涉及公共安全、國家安全及社會公共利益的人工智能技術產品進行監管,防止出現安全漏洞。四是對人工智能技術研發活動、應用活動以及產品生產等進行管理和監督,防止出現不正當競爭行為和侵權行為。五是建立完善的監管制度和應急處理機制,對人工智能造成的危害進行防范。

2要盡快出臺《人工智能法》,明確人工智能發展等基本原則和要求

當前,我國的《民法總則》《網絡安全法》等法律法規都對數據安全、人工智能發展等進行了規定,但這些法規均是原則性的,缺乏具體的責任界定,難以為相關產業發展提供有效的制度保障。因此,需要加快出臺《人工智能法》,明確人工智能發展中的數據安全、隱私保護、人工智能倫理等基本原則和要求?!度斯ぶ悄芊ā窇斆鞔_國家對人工智能技術發展和應用中的安全風險進行有效管控,并對研發主體、行業企業、用戶等各方主體行為進行約束?!度斯ぶ悄芊ā窇斀⒔∪珖覍用娴娜斯ぶ悄馨踩O管機制,加強國家對涉及國計民生的重要領域和關鍵環節的數據安全監管工作。同時,建立健全企業及個人信息保護制度,加強個人隱私保護和網絡安全防護。在制度設計方面,要充分考慮到未來人工智能發展的需要,在數據采集、數據存儲、數據使用、數據共享和數據出境等方面制定明確規則。同時,應根據不同行業領域的特點,制定有針對性的安全監管措施和技術要求。同時,在法律責任方面要進一步明確相關企業、組織及個人的法律責任及追責措施。

(三)強化人工智能倫理道德的建設

在人工智能發展過程中,倫理道德問題不可避免,只有遵循倫理道德規范,才能使人工智能的發展更加健康有序。

1要強化黨對人工智能發展的引領,構建社會主義人工智能倫理道德體系

堅持把保障人民根本利益作為人工智能倫理道德建設的出發點和落腳點,使人工智能更好地造福人民。人工智能技術的應用和發展是為了更好地保障人民根本利益,使人民過上更美好的生活,而不是為了追求所謂的“智能化”。因此,應始終堅持以人民為中心,把增進人民福祉、促進人的全面發展作為一切工作的出發點和落腳點。這就要求我們應把保障和改善民生作為人工智能倫理道德建設的根本出發點,把人的全面發展作為人工智能倫理道德建設的出發點和落腳點,確保人工智能在服務于人民根本利益方面發揮出應有作用。要以提高人民群眾生活質量、增進民生福祉為出發點和落腳點,將人工智能技術更多地應用到公共服務領域,不斷提升公共服務質量和效率。

2強化人工智能領域倫理道德問題的研究, 為人工智能健康發展提供理論指導

隨著人工智能技術的快速發展,很多人工智能領域的倫理道德問題逐漸顯現。如在自動駕駛領域,因缺乏統一的倫理道德標準和規范,導致自動駕駛技術的發展可能會產生一些嚴重的后果,例如引發交通事故、導致汽車尾氣污染、影響人類生命安全等。同時,自動駕駛技術可能會對人類產生多方面的影響,比如人車矛盾、交通事故增多等。因此,需要加強對人工智能領域倫理道德問題的研究,構建科學、合理、有效的倫理道德體系,為人工智能健康發展提供理論指導。此外,要加強對人工智能倫理道德問題的研究,也需要加強對相關行業、領域倫理道德問題的研究。通過對相關行業、領域的倫理道德問題進行研究,一方面可以為相關行業和領域提供理論指導;另一方面可以為人工智能健康發展提供技術保障。此外,還可以通過開展專題論壇、研討會等活動來進行交流討論。通過開展這些活動,共同探討人工智能領域倫理道德問題,從而推動人工智能健康發展。

(四)拓展人工智能領域的國際合作

未來人工智能的發展和應用將對人類社會帶來深遠影響,各國應從戰略和全局的高度出發,加強人工智能治理領域的國際交流與合作,為實現全球治理和人類共同利益作出貢獻。

1強化全球治理合作,維護國際秩序

全球治理體系是各國共同參與的全球事務治理體系,是人類文明成果在國際社會共享和傳播的載體。人類命運共同體理念為構建人類命運共同體提供了制度保障。人工智能技術和產業發展不僅影響著國家間的關系,也影響著國際社會間的關系。對于在人工智能發展中出現的問題,各國應積極探索建立人工智能國際治理規則。因此,我們必須立足于全球視野,在現有國際規則和標準基礎上,結合當前全球共同面臨的重大挑戰,積極參與人工智能領域國際治理規則和標準的制定,提出具有前瞻性、穩定性、可操作性和前瞻性的建議。同時加強各國之間的信息交流和政策對話,推動全球治理體系朝著更加公正合理的方向發展,共同應對重大挑戰,促進全球治理規則民主化和法治化。

2積極借鑒國外有益經驗,促進人類共同繁榮發展

當前在人工智能安全治理方面,國際社會已有一些有益經驗。例如,國際機器人聯盟發布的《關于人工智能的報告》中提出了“機器人倫理指南”,提出要減少對人類工人的依賴,提高安全性,增加透明度,使其具有可解釋性。國際標準化組織(ISO)也在發布了《機器人倫理原則》。國際標準化組織的這些舉措都旨在強調機器人應“以人為本”,保護人類生命和安全。此外,歐洲議會也提出了一項關于機器人倫理的提案。在這份提案中提出了“以人為本”的機器人倫理原則,具體包括以下三點:第一,尊重人的權利和自由;第二,保證產品對用戶的安全和保護;第三,確保產品在設計時考慮到消費者對產品的期望。歐盟委員會在2016年發布了《機器人倫理原則》,旨在解決機器人在開發、設計和使用過程中產生的問題。這份提案指出,為了確保機器人和人工智能系統的安全、可靠和高效運行,應優先考慮安全性、保密性、自主性、可靠性、互操作性和可訪問性。因此,加強國際交流與合作,推動形成全球人工智能倫理規范顯得尤為重要。通過制定全球統一的人工智能倫理原則,有利于我們更好地利用全球資源、促進技術交流和合作。同時,這也有助于更好地借鑒國外有益經驗,推動我國人工智能技術的發展。

五、結論

人工智能技術的發展與應用,對人類社會產生了巨大而深遠的影響。但是,技術本身的復雜性也為人工智能犯罪治理帶來了挑戰。由于人工智能技術具有的自主性和非人格化特征,使得其實施的犯罪行為具有難以被發現、難以被預防的特點,這使得我們不得不思考如何對其進行法律規制。如何預防與打擊人工智能犯罪,維護人類社會安全,這是世界各國面臨的共同難題。對此,我們應堅持“以人為中心、以平等為本、以風險為基礎” 的治理原則,積極完善人工智能刑事法律體系、加強人工智能的安全監管體系建設、強化人工智能倫理道德的建設以實現對人工智能犯罪行為的有效治理和預防,以適應不斷變化的社會形勢。

[參考文獻]

[1]習近平:高舉中國特色社會主義偉大旗幟為全面建設社會主義現代化國家而團結奮斗——在中國共產黨第二十次全國代表大會上的報告[EB/OL]. 中國政府網.(2022-10-25)[2022-10-28].http://www.gov.cn/xinwen/2022-10/25/content_5721685.htm

[2]我國網民規模達10.79億 即時通信用戶規模穩居第一[EB/OL]. 央廣網. (2023-08-31)[2023-10-28].https://baijiahao.baidu.com/s?id=1775461048883919432&wfr=spider&for=pc

[3]陳敏.人工智能時代電信詐騙及其應對策略——基于Chat GPT帶來的新思考[J].網絡安全技術與應用,2023(10).

[4]儲陳城,魏培林.生成式人工智能犯罪中研發者刑事責任的認定——以ChatGPT為例[J].重慶理工大學學報(社會科學版),2023(9).

[6]何群,林錦濤.情境犯罪學視域下危險駕駛罪之預防——從人工智能賦能的角度[J].大連海事大學學報(社會科學版),2023(4).

[7]莫曉宇.人工智能的多元刑事治理:理論建構與路徑選擇[J].廈門大學學報(哲學社會科學版),2023,73(4).

[8]李翔,曠銀.ChatGPT類人工智能及其生成物的刑法思考[J].貴州師范大學學報(社會科學版),2023(4).

[9]劉憲權.ChatGPT等生成式人工智能的刑事責任問題研究[J].現代法學,2023,45(4).

[10]焦旋,張懿軒,鄒逸彬.人工智能時代刑事責任體系的重構[J].東南大學學報(哲學社會科學版),2023(S1).

猜你喜歡
改革路徑現實困境人工智能
2019:人工智能
人工智能與就業
數讀人工智能
建筑工程造價控制的現實困境和對策分析
大數據背景下高職教育教學改革研究
中國網絡民主發展的現實困境及優化對策
大學生政治認同的現實困境與教育路徑
高職美術教育的現狀及教學改革路徑探析
高中文言文實詞教學研究
下一幕,人工智能!
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合