?

生成式人工智能的刑事風險與規制

2024-04-05 12:31李楚琦
中阿科技論壇(中英文) 2024年2期
關鍵詞:服務者合規規制

李楚琦

(青海民族大學法學院,青海 西寧 810007)

生成式人工智能是基于算法和數學模型生成的物理性信息的技術,它具有一個自由或者半自由的學習框架,通過模仿、學習和統計生成“類人化”信息。不同于傳統的人工智能,生成式人工智能不僅能夠收集數據還可以通過算法提煉數據并對數據進行整合和檢查,其具有高度的“類人化”特征。ChatGPT是生成式人工智能的代表程序,其主要的算法技術是由美國開放人工智能研究中心(以下簡稱OpenAI)公司開發并不斷更新,該程序突破原有的數權界限將法律發展帶入新的領域。2023年8月15日施行的《生成式人工智能服務管理暫行辦法》對生成式人工智能的數據收集行為、數據交互行為進行政策性引導。人工智能技術的發展將“類人化”行為中部分數據交互和生成行為進一步擬制為刑法規制的危害行為,以算法技術為代表的ChatGpt程序發展帶來的刑事司法挑戰在于如何界定數據生成、交互和獲取行為帶來的法益侵害風險和如何進行刑事規制??梢砸罁墒饺斯ぶ悄艿募夹g特征對刑事風險進行分類討論并明確規制路徑。

1 ChatGPT生成式人工智能引發的刑事風險

金融、醫療企業運營中主要涉及數據的收集、傳輸、處理、存儲和銷毀等工作,網絡數據在這些工作中不斷地流動,企業因此而獲益;與此同時,數據泄露風險、再訓練階段的數據合規風險、數據濫用風險也在流動過程中逐漸增加。

1.1 生成式人工智能在運行階段的數據泄露風險

生成式人工智能在運行階段的數據行為主要以交互行為和收集行為為主,交互行為是基于算法技術結合用戶提供的關鍵詞提出解決方案,生成式人工智能擁有獨立的計算系統和統計系統,其提供的方案往往具有人的思維。以ChatGPT為例,由于在數據交互過程中數據痕跡不會消失,數據泄露的風險也隨之加劇。早期的ChatGPT程序中發生用戶數據泄露的情況,并且由于數據泄露導致用戶的個人信息暴露于公眾之中。

第一,生成式人工智能數據泄露的風險在于運行的廣度。其需要從大量數據中學習和生成模型,海量數據的處理將擴大其攻擊面,數據泄露的發生概率和影響范圍也隨之增大[1]。運行公司對于生成式人工智能的可控性備受質疑,生成式人工智能在運行階段大范圍收集處理數據,其泄露的風險也逐漸加大。比如,出于數據安全考慮,美國太空部隊將暫時禁用以ChatGPT程序為代表的生成式人工智能。

第二,生成式人工智能數據泄露的風險在于其運行的深度。由于生成式人工智能通過語言模型驅動與用戶交流獲取大量數據并學習,數據來源主要是用戶提供的語言信息和利用大數據技術收集的同類型信息。在這一過程中,大量的數據處理工作增加數據泄露的風險。比如,OpenAI公司的技術官表示應謹慎使用該程序以避免出現信息泄露的事故,在很多大型的科技公司、學校等地方都禁止員工和學生使用ChatGPT。

基于此,以ChatGPT為代表的生成式人工智能在運行階段的數據泄露風險主要是運行階段數據收集、處理的深度和廣度,深度越深、廣度越廣,創設的刑事風險越高。所以,應盡可能在運行階段合規處置數據風險以優化生成式人工智能的適用[2]。

1.2 生成式人工智能在再訓練階段的數據合規風險

生成式人工智能的特點之一在于人機交互行為,其中ChatGPT更是人機交互行為的代表,用戶與ChatGPT之間的人機交互行為會產生大量數據,這些數據用于其他模型進行算法更迭訓練,即再訓練階段。

再訓練階段數據流轉于其他數據模型中,這些擁有大型數據模型的科技企業是否可以合理利用獲取的數據是有待商榷的。如果交互數據中涉及個人信息、商業數據,僅依據初次使用獲得的用戶授權不足以覆蓋再訓練階段要求[3]。在這一過程中,科技企業借助授權規則濫用數據會產生數據合規風險,這種風險可能觸犯刑法的相關規定。比如,Facebook曾經發生利用初級的生成式人工智能計算用戶的私人信息,并且導致個人私密信息泄露的事件;生成式人工智能獲取的數據發生泄露或者濫用可能引發侵犯個人信息的犯罪以及非法獲取計算機信息的犯罪,增大科技企業數據合規的風險。

1.3 生成式人工智能在輸出階段的數據濫用和算法濫用風險

生成式人工智能對于用戶的反饋主要是在數據輸出階段,其在數據輸出階段主要是對于收集的信息進行整合得出“類人化”觀點和利用算法技術推測結果、提出解決方案,在數據輸出這一階段會引發非法獲取數據、收集數據的風險,以及濫用算法技術推測結果、侵犯用戶個人信息和社會公眾數據的風險。

第一,數據濫用的風險。用戶登錄門檻較低,僅注冊便可與ChatGPT進行交互式交流并且在問答過程中極易暴露自己的個人信息,而ChatGPT沒有篩除個人信息的算法基礎,多次數據流通會導致數據濫用風險增加,侵犯公民的合法權利,甚至可能促使運行ChatGPT的公司成為刑事犯罪的主體。此外,生成式人工智能在輸出階段反饋大量的信息數據,其中可能包含不同用戶的信息,甚至是敏感信息和國家秘密信息,因為在使用初期,生成式人工智能利用同意規則的漏洞和用戶獵奇的心理,隱秘地收集大量敏感信息成為語言庫后整合成不同的答案反饋給不同的用戶、機構,使用的用戶、機構越多、數據濫用的風險在不斷增加。

第二,算法濫用的風險。生成式人工智能的算法技術可能被濫用,比如,用于挖掘漏洞生成惡意代碼,甚至進行網絡攻擊,從而成為網絡犯罪的工具。并且,生成式人工智能多與搜索引擎聯合開發,這種開發模式造成數據在收集階段的濫用風險加大。比如,ChatGPT與搜索引擎融合后的New Bing程序,其運行模式是搜索與生成式任務相結合的模式,這種模式雖使搜索結果的準確度得到提升,卻增加了個人信息被濫用的風險[4],算法技術作為生成式人工智能的技術基礎,某些企業利用算法技術本身的語言漏洞從后門進入生成式人工智能的數據系統造成用戶信息暴露、企業機密信息泄露,甚至是國家信息非法利用等嚴重后果,算法技術的濫用不僅會降低公眾對于生成式人工智能發展的信任度,更會觸發更為嚴重的刑事犯罪。

基于此,生成式人工智能在輸出階段的數據濫用風險主要是對于用戶信息的濫用和交互信息的可信度降低等;而算法濫用風險的主體是生成式人工智能服務者,他們利用人工智能信息交互的特點,增加“類人化”特性,不斷運用帶有風險的算法技術導致算法濫用,增加企業合規風險。

2 對ChatGPT生成式人工智能初步的刑事規制

生成式人工智能具有傳統產業無法具備的創造力和生產力,同時,也引發數據安全風險和知識產權刑事犯罪問題,為了進一步維護數字技術空間的穩定發展,保障公民的隱私權和數權,國內有關部門制定了一系列的法律文件以規制刑事風險。

2.1 生成式人工智能的現有刑事規范

《生成式人工智能服務管理暫行辦法》《中華人民共和國網絡安全法》《中華人民共和國數據安全法》《中華人民共和國個人信息保護法》《中華人民共和國科學技術進步法》《互聯網信息服務算法推薦管理規定》《中華人民共和國刑法》以及相關的政策中均有條文涉及規制生成式人工智能服務者的不法行為的規定。比如,《互聯網信息服務深度合成管理規定》第六條規定,任何組織及個人不能利用以生成式人工智能為代表的深度合成服務生產、傳播違法信息以及從事違法犯罪活動,并禁止利用深度合成服務的基本特點從中獲取非法信息。此外,《生成式人工智能服務管理暫行辦法》第十七條規定提供具有輿論屬性或者社會動員能力的生成式人工智能服務應履行算法備案義務[5]。不同類型的法律規范均對生成式人工智能有所涉及,其目的在于不同場景下均可以有相關主體和規范對有關生成式人工智能的犯罪進行規制。

刑法中雖然未明確規定生成式人工智能犯罪,但是基于生成式人工智能的特點也有部分罪名可以適用,比如,《中華人民共和國刑法》第二百五十三條之一,違規處理個人信息、非法獲取公民個人信息的,對于生成式人工智能的服務者將以單位犯罪進行處罰。與此同時,不同地區也開始制定有關生成式人工智能的條例,且主要集中于科技、金融發達的地區,比如深圳市發布的《深圳經濟特區人工智能產業促進條例》。

2.2 生成式人工智能現有刑事規范的不足

現有刑事規范對于生成式人工智能的規制主要在于信息網絡犯罪板塊,并且人工智能的規范處于萌芽階段,生成式人工智能的快速發展與法律規范發展的不同步性導致其約束力不足,主要體現在以下幾個方面:

第一,監管主體難以明確。目前,國內對于生成式人工智能的監管主要體現多主體的情況,比如,國家市場監督管理總局、國家互聯網信息辦公室、公訴機關等都可以成為監管主體,但主體之間的權責范圍未加以明確。不同類型的法律規范在一定場景下可能會發生重復適用的情況,或者法律規范缺乏一定的標準以明確如何進行適用,不同的監管主體無法第一時間針對生成式人工智能創設的風險進行規制,公訴機關也無法第一時間進行監查并提出合規舉措,法律規范的現狀在一定程度上不利于生成式人工智能向好發展。

第二,生成式人工智能刑事規范不夠完備、效力不明確。目前,國內對于生成式人工智能的規制主要在于其關聯罪名,多集中于網絡犯罪中,沒有明確界定生成式人工智能刑事主體資格。此外,現有的法律規范部分是依托于某一特定的部門法,對于部分非法行為是否可以由該規范規制存在疑問,則其效力和約束力也無法實現。比如,《生成式人工智能服務管理暫行辦法》和《個人信息保護法》中均規定了同意原則,但是生成式人工智能的使用會淡化同意原則導致相關的法律規范不能有效地規制刑事風險及犯罪。

3 ChatGPT生成式人工智能風險刑事規制的路徑

以ChatGPT程序為代表的生成式人工智能會引發數據安全風險、侵犯個人信息的風險等刑事犯罪風險。所以,應對生成式人工智能創設的風險給予必要的規制。從刑事合規的角度加強刑事規范的實踐性,進一步規制生成式人工智能產生的刑事風險,促進其與公民數字權利、社會公共利益的共同發展。

3.1 生成式人工智能數據刑事合規的路徑

生成式人工智能數據刑事合規的途徑主要針對其產生的刑事風險類型進行,分別從數據泄露、數據濫用風險和算法濫用的風險進行考慮,主要的措施是風險預警、評估、監督和處理機制,以生成式人工智能服務者合規的方式進行刑事規制。

第一,針對數據泄露的刑事風險。應當明確收集數據的類型是否涉及敏感信息、個人信息,并評估在使用過程中存在的數據泄露風險。對于個人信息泄露的刑事風險,應從數據收集的深度和廣度進行衡量。從而構建生成式人工智能服務者的刑事合規體系。生成式人工智能服務者的刑事合規主要聚焦于技術與利益的平衡點上,需要算法技術的層次和深度、既得利益的獲得與生成式人工智能使用者的合法權利之間的平衡,生成式人工智能的發展不能以突破個人權利為條件。一方面,以OpenAI為代表的生成式人工智能服務者,應當承擔保護使用者及其他公民數據信息的責任,設立專門的風險預警、監督和處理機制,風險預警機制在于要求對出現的風險及時報告監督部門,并在風險最小的時候進行處理,減少處理成本;另一方面,風險監督機制和風險處理機制緊密結合。監督機制不僅要監督平臺,還要進一步監督后續平臺合規措施的及時性和完成性。

第二,針對數據濫用的風險?,F有運行的ChatGPT程序具有3 000億單詞的語料基礎上預訓練擁有1 750億參數的模型[6],大量的數據收集和處理工作增大了數據濫用的風險,針對這一情況,應當加強檢察機關對生成式人工智能服務者的監管,形成強有力的監管體系。此外,可以建立專門的第三方機構幫助公檢機關做到日常監管,通過技術手段建立一個有效的、具有針對性的持續監管體系。對出現數據濫用風險的服務者,及時介入并進行查管、做出刑事合規的建議和具體舉措,并針對合規的效果決定是否移送起訴。

第三,針對算法技術濫用創設的刑事風險。以ChatGPT為代表的生成式人工智能是以不同的算法技術為基礎構建的程序,應當引入專業的技術監督部門形成完備的技術監督體系,專業的技術監督部門不僅可以做到日常算法監督還可以提供算法技術濫用的技術判斷支持。對于利用算法技術謀取非法利益的企業應及時處理,并提出是否進行合規的建議,而無法進行合規的服務者及時移送起訴。

基于此,作為超大型、集中式平臺的生成式人工智能服務者,為降低信息數據被泄露和濫用的風險,應通過合規計劃明確數據獲取途徑和獲取中的刑事風險,制定具體的風險識別、評估和防控措施[7],此外,在風險處理中應當從預防階段進行規制以降低解決風險處理成本,并且著重關注風險監督機制和處理機制,做好合規后的評估和處理,對于未及時按照相關機關規定進行合規審查的服務者在核查后移送起訴。

3.2 刑事規范規制生成式人工智能的路徑

第一,明確生成式人工智能的風險分類便于刑事規范規制生成式人工智能。生成式人工智能風險類型化后,根據不同類型的風險在法律規定上也更加清晰,有助于解決實踐中監管主體混雜的問題。比如,對于一般的數據泄露風險和算法技術濫用風險以刑事合規為主要的規制手段。但是,對于嚴重侵犯公民權利和社會公共利益、國家利益的危險行為,應及時以刑事規范進行規制,做到分類處理、高效治理。

第二,基于現有的有關生成式人工智能的監管舉措,形成具有針對性的監管舉措,對生成式人工智能形成綜合性的法律監管體系。在這個法律監管體系中,刑事規范與其他規范的適用場景必須明確、具體化適用標準;對于生成式人工智能的相關定義要統一化、刑事風險行為和其他風險行為的判斷標準要明晰,建立一種監管為前提、明晰化的綜合性法律監管體系,比如,以數據泄露風險為例,在監管初期要利用相關的規范進行行政處罰和民事賠償,并且提出刑事合規舉措,監管后期要利用刑事規范對相關的違法行為加以規制,以打擊生成式人工智能服務者的刑事犯罪。

第三,應當進一步落實數據立法與現有刑法分則的規定。比如,明確非法入侵計算機罪的主體中應包含生成式人工智能,避免生成式人工智能成為網絡犯罪的工具。數據立法成為未來立法的趨勢也是數字法治建設的重要舉措之一,數據立法中應當有一個部分是關于刑事規制的,以便于刑法打擊生成式人工智能犯罪。數據立法是更為宏觀的內容,數據立法的相關內容可以與刑法的相關規定相結合,便于刑法區分什么樣的行為是嚴重危害公民利益、社會公共利益和國家利益的行為,更好地適用刑法分則的規定,做到罪責刑相統一。

基于此,以ChatGPT為代表的生成式人工智能融入法律領域,正在推動著刑事規范的逐漸轉變。目前,刑事規范的內部體系中對于強人工智能與弱人工智能的區分標準尚未明確,對于人工智能創設的刑事風險,主要以打擊生成式人工智能服務者為主,對于人工之智能的主體地位采取消極認可態度,對相應的犯罪行為是積極的應對態度。但是,隨著法律法規的不斷完善,刑事規范對于有關生成式人工智能的內容也將會不斷完善,基于立法原意對新時代的人工智能有更多的解釋。刑事規范規制的關鍵在保證其謙抑性、明確性的前提下,進一步規制生成式人工智能創設的數據泄露、數據濫用和算法濫用風險。

4 結語

以ChatGPT為代表的生成式人工智能通過不斷的人機交互行為逐漸向高級智能發展,從“類人化”轉變為“獨立化思考”從而其引發了新風險。為有效應對這些風險,也在不斷地出現相應的法律規范和政策,對于風險的規制需要采取主動的規制措施,以預防為前提、進而主動應對。不同類型的法律規范在不斷地完善,刑事規制的路徑應從預防和懲治兩個方面介入,針對不同類型的風險提供具有針對性的解決方法。所以,刑事規制的路徑應是動態的、不斷更新的,應立足于數字技術、網絡技術和算法技術,明確生成式人工智能運行過程的法律風險和產物在刑事法律上的主體概念,加強數字刑事立法從源頭規制生成式人工智能創設的刑事風險,做到多層次多維度的刑事規制。

猜你喜歡
服務者合規規制
主動退市規制的德國經驗與啟示
對企業合規風險管理的思考
外貿企業海關合規重點提示
GDPR實施下的企業合規管理
復雜通信設備內部通信技術的研究與應用*
做全球冶煉企業的高端服務者
——上海善吉國際貿易有限公司董事長吳晗訪談
保護與規制:關于文學的刑法
論《反不正當競爭法》的規制范疇
后工業化對“執行者”角色政府的挑戰及轉變
內容規制
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合