?

數據合規科技的風險規制及法理構建

2022-03-03 00:34唐林垚
東方法學 2022年1期
關鍵詞:個人信息保護人工智能

內容摘要:個人信息濫用屢禁不止,引發數據安全“立法熱”,但強監管令可合法使用的有效數字資源尤為稀缺。數據要素化國策下,隱私計算技術、SaaS平臺等數據合規科技有望通過結果輸出、模型訓練、代碼編寫的“去中心化”實現非信任主體間數據價值的合規有序釋放,但也必然導致傳統人工智能風險的泛化和異化。由于數據處理模式被深度重構,散見于各層級法律的信任維系、目標糾偏、損害救濟、權利保障和隱名消除等機制均不同程度失靈。為平衡各方法益,可藉由宏觀政策、社群規范、技術構架、各方博弈的有機聯動,打造以變應變的動態規制體系。其基本原則是,努力消除復雜數據處理局面的風險“盲維”,兼顧數據價值挖掘的效用需求,確保數據合規科技安全合規。

關鍵詞:數據合規科技 隱私計算 低代碼 個人信息保護 安全合規 人工智能

中圖分類號:DF0? 文獻標識碼:A? 文章編號:1674-4039-(2022)01-0079-93

一、問題的提出

數據乃新型生產要素,已為全球共識。助推傳統產業轉型升級、打造新產業新業態新模式、壯大經濟發展引擎,皆以充分發揮數據要素對其他要素的倍增作用為先決條件。根據《國民經濟和社會發展第十四個五年規劃和2035年遠景目標綱要》,“統籌數據開發利用”“強化算力智能調度”“推進數據跨部門、跨層級、跨地區匯聚融合”,成為我國數字化轉型格局下數據驅動生產、生活和治理方式變革的頂層設計。近幾年來,數據作為企業和公共部門重要資產被深度開發利用,隨之而來的是大規模數據泄露事件頻頻發生,隱私保護相關法律接連頒布。國家層面一體推行的民法典、電子商務法、網絡安全法、數據安全法、個人信息保護法等,回應了數字產業發展和社會公共訴求,體現出全球共識和本土經驗的融合。在激發要素潛能和隱私保護的雙重驅動下,數據合規科技的概念炙手可熱。

學界和實務界以數據合規科技的總稱統攝一切在提供隱私保護前提下實現數據價值挖掘的應用手段,包括但不限于以多方安全計算、聯邦學習、可信執行環境為代表的隱私計算技術以及以低代碼、零代碼為核心的“軟件即服務”(SaaS)平臺等?!? 〕各項主流技術的內容和價值,如表1所示。

“新一代人工智能是靠數據和知識‘雙輪驅動’的,數據越多才能越智能?!?〔2 〕作為人工智能時代具有泛在普適性的底層技術,數據合規科技在打通應用通道、破除行業壁壘、化解信息孤島方面有得天獨厚的優勢,必將成為強監管趨勢下數據共享基礎設施的重要組成部分。例如,對于金融機構內部的黑灰名單不能明文共享的困境,多方安全計算能以名單“可用不可見”的方式輸出涉及個體的聯合計算結果,提高整個金融行業風險的聯防聯控能力。再如,鑒于醫療數據的敏感性,智慧醫療服務商很難同時掌握樣本足夠、特征完整、能夠全面反映患者癥狀的數據;聯邦學習為此類問題提供了解決方案,無需交換各個機構的私有數據,便能協同各方參與診療模型的訓練。

雖有廣闊應用前景,但數據合規科技同樣具備顛覆性重構算法應用流程的潛力,其風險也不可小覷。就如“自反性現代化”的經典命題所揭示出的那般,用以消弭風險的技術手段有時“恰恰是風險生產的誘因”?!? 〕持續性、大規模、跨行業的敏感數據互通,與個人信息保護之間已然產生張力;去中心化的“離散”“非均衡”式創新,使得既有法律規則難以對其有效涵蓋。在資本逐利天性的誘導下,原本技術彰顯法律意義上的實質合規極有可能合乎情理地演化為“將計就計的合規”“表里不一的合規”以及“以假亂真的合規”。由于披上了“合規”面紗,數據主體在數據合規科技的潛在風險面前可謂毫不設防。因此,如何用新方法、新手段回應數據合規科技帶來的新問題、新挑戰,無疑是當前法學界必須思考的重要命題。

二、數據合規科技的風險辨識及規制需求

數據合規科技的理念源于歐美立法者廣泛推崇的“通過設計保護隱私”,即在設計之初就將數據安全的需求嵌于其中,成為技術運作的缺省規則,而不是出現問題之后,才將法律規則賦于其上?!? 〕我國科技部“倫理先行、敏捷治理”的倡議 〔5 〕同“通過設計保護隱私”有異曲同工之妙,體現出積極預防而非被動救濟、正和共贏而非零和博弈的全周期數字正義價值觀。遺憾的是,當前數據合規科技的各項技術面臨通信開銷大、性能效率低、傳輸復雜度高、與主流技術體系磨合不佳等瓶頸,技術應用的前端、中端和后端均可能引致不同程度的系統性風險。厘清風險嵌入數據合規科技的技術途徑,是明確規制需求的基本前提。

(一)方案構建維度的風險

方案構建是數據合規科技應用的起點,目的在于將抽象的數據處理需求,比照著監管規則的技術約束轉化為程序和代碼可以處理的計算問題。例如,歐盟通用數據保護條例(以下簡稱GDPR)對跟蹤廣告提出了更高的隱私保護需求,數據處理者想要在不降低廣告跟蹤性能的前提下安全、合法地調取用戶數據,就需通過安全多方計算的技術范式對原有的數據處理過程予以重構。數據合規科技的方案由主導方提出,主導方以技術的受益權為對價換取多個參與方的數據集和算力投入,各方在意思表示一致后開始合作。在數據合規科技場景中,解決特定問題的數理過程依然經由算法實現。弱人工智能階段,算法邏輯直接映射自然人邏輯,開發者的價值觀負載和內隱性偏見將導致自動化決策系統失誤。數據合規科技為算法自動化決策施加了諸多限制性條件,使得主導方在代碼編寫和技術開發過程中不得不心懷更多顧慮,轉譯過程的精確性更加無法保證。

具體而言,安全多方計算通常以降低數據清洗成本為起點,技術方有時會摒棄清洗成本較高的非結構化數據,采用生成對抗網絡(GAN)產生的模擬數據。聯邦學習中參與“集訓”的初始模型必須具備相當程度的適應性品格,才能在多個數據源間往返流轉,這種適應性品格使得初始模型通常承載著多功能乃至多目的因而喪失本應具備的專用性和專屬性??尚艌绦协h境的硬件封閉和低代碼平臺算法間的相互嵌套帶來了銜接和協作方面的問題,讓轉譯過程中的偏差和耗散更為嚴重,畢竟,“中間步驟越多,就越不能終局地定義概念”?!? 〕數據合規科技雖向外拓展了自動化決策的維度,但隨之而來的代價是,方案制定者的內心成見將被技術顯化,代碼意涵與真實意涵相去甚遠。規制的需求,因風險的存在而存在,如何降低轉譯偏差,加固技術性較高的監管薄弱環節,提升底層代碼表意的準確性,是數據合規科技規制需要考慮的第一層問題。

(二)數據整合維度的風險

數據是風險嵌入數據合規科技的另一條重要途徑。數據匱乏將導致機器學習模型過擬合現象。借用權重衰減實現嶺回歸的正則化策略,雖能有效提高模型泛化性能、防止過擬合,但由于權重向量在梯度更新之前先行收縮,該舉措經常會導致模型規則的修改。數據合規科技的重要價值之一,在于顯著拓寬了模型的數據來源渠道,但有時數據渠道本身也是風險的根源:首先,互聯網等外部渠道數據的來源合法性難以甄別;其次,共享模式下數據流轉更加復雜和難以控制,數據使用邊界無法限定;再次,各方數據問題可能相互傳染,激發數據安全的連帶風險。機器學習模型遵循算法邏輯,從大數據的具體樣例中“溫故而知新”出足以指導實踐的普遍規則。多方安全計算利用更大的數據池形成規則集、聯邦學習借用大數據增量完成自我迭代、低代碼平臺使用舊數據訓練的模型解決新問題等過程,實質上是提取數據增量中隱藏秩序、規則和傾向,并將其用于未來發展的感知與決策的過程,不會背離過往數據所體現出的關系特征?!? 〕

本來,大數據的“多渠道和合”有望修正數據采集的天然瑕疵。最理想的情況是,因樣本分布過于離散導致代表性不足的數據暗點、因樣本過于集中導致代表性過剩的數據亮斑、因遺漏誤錄導致樣本缺失的數據盲區,都能因為不同源頭數據集之間的取長補短而完全消失,抹平單一數據集的結構性差異。例如,通過聯邦學習技術,僅能較好識別標準普通話的語音識別軟件可能因方言數據集參與模型訓練而減少識別錯誤;傾向于對流動人口作出高危警示的犯罪預測系統,或隨全國違法數據的加權平均,矯正對外地人的偏見。但是,數據合規科技經常在相互滲透的行業間進行,各技術數據源的選擇標準有時過于僵化,為合規而采取的安全保護手段也因成本限制而日漸趨同,數據合規科技的數據聚合過程可能反而會放大數據集的原本缺陷,導致暗點更暗、亮斑更亮、盲區更盲。簡言之,數據合規科技雖然大幅增加了可供機器學習模型深度挖掘的大數據體量,但如果增加的大數據異質化程度較低,數據量和模型性能之間仍然不呈線性關系,在過擬合問題之外,還可能由于噪聲侵入進一步降低系統效率。如何將數據資源的非均衡性考慮在內,建立科學的數據篩選和容忍機制,是數據合規科技規制需要考慮的第二層問題。

(三)技術適用維度的風險

數據合規科技固有的“白盒特性”,導致了技術適用維度的人機對抗風險。所謂“白盒特性”,是指數據合規科技中的各參與方都可以直接獲取完整的技術參數,惡意攻擊者同樣可以利用該特性偽裝成誠實參與方竊取運算結果、扭曲模型訓練、破解可信環境或生成惡意低代碼。數據合規科技的安全研究,大多都建立在同一個假設之上,即除了主導方、中央服務器是中立可信的,其他所有終端和參與方均不能排除嘗試獲取用戶隱私和對抗系統的可能,即使他們嚴格按照協議方案執行程序?!? 〕正因為如此,一般依據危害性從低到高將數據合規科技的參與方劃分為三種類型:誠實但好奇的、暗自覬覦的、純粹惡意的。此種劃分方式表明,隨著利益需求的不斷變化,各參與方的角色也可能發生改變。當隱私泄露時,“沒有一片雪花是無辜的”。

數據合規科技長期面臨單點故障和人為攻擊的安全隱患,其威脅主要來自三個方面。其一,刻意上傳破壞模型。出于安全考慮,中央服務器沒有訪問各參與方本地數據的權限,因此,即使是誠實但好奇的參與方也可能因為上傳不正確的數據或模型導致運算結果誤差或全局模型損壞。在實踐中,不可信服務器的惡意投毒、樣本對抗和后門攻擊往往更加致命,也更為常見。其二,回推手段獲取信息。好事者無需采用任何非法手段,通過比較數次單獨運算結果同多方計算結果的差異、分析本地模型更新與全局模型的迭代、窺視加密解密的雙向過程等,就足以從中獲取相當豐富的推論信息?!? 〕其三,惡意服務器圍獵用戶隱私。純粹惡意的敵方可能直接對用戶數據集、訓練模型參數、模型預測標簽以及模型返回結果下手,通過對抗式網絡攻擊、成員推理攻擊、屬性物理攻擊和模型反演攻擊等方式獲取用戶隱私數據。

更嚴重的是,防御體系的升級速度,趕不上數據量的指數級增長?!?0 〕即便有所防范,訓練集中只要包含3%的中毒數據,模型誤差將從12%上升至23%?!?1 〕通過隱寫術反匯編,惡意參與方可以將病毒和流氓軟件悄無聲息地傳輸至目標設備中,攻擊成功的概率在九成以上?!?2 〕對于司空見慣的32位浮點數、權值較低的機器學習框架(例如PyTorch、TensorFlow等),惡意負載行為既不會顯著影響原始模型性能,也不會對神經網絡的全局判斷造成影響,可以規避殺毒引擎的安全掃描?!?3 〕如何引導各參與方懷抱誠實和善意,在“你中有我,我中有你”的交互中做到“人人為我,我為人人”,是數據合規科技規制需要考慮的第三層問題。

(四)結果輸出維度的風險

“個人信息不僅關涉個人利益,而且關涉他人和整個社會利益,具有公共性和社會性?!?〔14 〕模型不精確、數據瑕疵放大、用戶隱私泄露等問題,可能導致普遍存在的算法歧視從個體歧視上升至群體歧視。算法歧視主要源于數據集偏差或數據缺陷,在數據合規科技場景中,不同來源數據間的強搭和錯配可能對聯合數據造成沖擊與擾亂,使歧視規模性放大。除了數據投毒等極端手段,誠實但好奇參與方的數據輸入因數據梯度同其他參與方相差過大,也可能間接導致模型被污染,輸出歧視性結果。

單次歧視的即時危害雖不易被察覺,卻足以在更長時間維度和更長數據鏈條上產生積累式影響,聯邦學習全局模型的不斷輪回就將導致群體歧視泛濫。例如,一線城市的銀行對高凈值客戶的劃分標準顯著高于二、三線城市,若不加區分地將銀行數據整合并通過聯邦學習訓練客戶畫像模型,加權得出的高凈值客戶劃分標準定然對二、三線城市客戶產生歧視。同理,當不同學校的畢業生數據被用于訓練招聘篩選系統、當男性占絕對多數的IT行業數據和其他行業數據被共同用于訓練升職評價系統時,同身份緊密捆綁的群體歧視將假模型共訓之名,從數據向模型蔓延。如何對“因時間、空間等聯結形成的特定對象的個人信息加強精準保護”, 〔15 〕減少歧視的發生,是數據合規科技規制需要考慮的第四層問題。

(五)應用市場維度的風險

機器學習模型映鑒社會運營的多元要素及其復雜互動,透過算法將連貫重疊的個體生活分割成彼此獨立的靜態片段。在數據合規科技大規模部署前,面對相似或相異的受眾,不拘一格的智能應用被限制在各自為政的領域,彼此之間沒有交流與協作,更多地是算法間的“朝上競爭”——效率高、服務好、安全穩定的智能應用將獲得更高市場份額,興風作浪、過度榨取用戶剩余的智能應用將面臨被淘汰或整改的命運。數據合規科技可能逐漸導致算法趨同,在技術黑箱的掩護之下,過去算法間的朝上競爭極有可能向逐底競爭轉變。對數據規整性要求不高、通信成本更低、算法可解釋性匱乏的智能應用,或將隨著數據合規科技的跑馬圈地,逆向淘汰相對保守的傳統智能應用。如何避免智能應用的“逆向淘汰”,是數據合規科技規制需要考慮的第五層問題。

上述五個維度的風險并非技術變革的產物,而是前沿科技打破傳統算法應用數據處理慣例的必然結果。易言之,雖然打著合規的旗號,數據合規科技所遵循的內在機理耦合了風險產生的技術規律?!?6 〕應對風險的本土化策略,是緊密結合我國實情,向前檢視當前數據安全法律體系的制度余量,向后探索符合數據合規科技發展規律的規制路徑。

三、應對風險的法律制度余量及規制局限

多維度的風險呼吁多層級的規制手段。數據合規科技的規則完善,已在世界范圍內徐徐展開,呈現出軟法硬法交織、兩者相互推動的特點。梳理發現,雖然早已有“數據創新生態”“數據資源開放”等提法,但數據合規科技成為世界各國競相追逐的技術高地,始于歐盟法院在Scherems II案中判決歐盟—美國隱私保護盾無效, 〔17 〕兩大經濟體數據互傳曾一度陷入癱瘓。為了緩解局勢,歐洲數據保護委員會將數據合規科技背書為跨國數據處理活動的合規依據,英國數據倫理與創新中心推崇隱私計算為值得信賴的數據利用方式,針對數據合規科技的法案和標準不斷頒布,對核心技術的理解日益加深。不過,就規制而言,徒法不足以自行,各國立法尚停留在“政策促進”“應用指引”“技術標準”和“部門立法”層面,未能串聯成應對數據合規科技的動態規范。在“摸著石頭過河”初期,有必要深入檢視以分塊式立法樣態散見于不同層級法律中既有規范的局限性;只有先行廓清現有制度和工具的“能與不能”,再行探討如何將數據合規科技納入體系化動態規范的法治軌道,才謂有的放矢。

(一)信任維系機制的局限

信任維系,是一切數據處理活動得以持續進行的基石。人工智能法律中最常見的信任維系機制,是算法可解釋性的合規要求,被視為“對抗數據個體的主體性、自治性淪陷和喪失的內在之善”?!?8 〕數據合規科技的技術樣態,如數據鏈條的拉長、機器模型的共建、硬件環境的閉合、代碼模塊的借調,必然將加劇算法可解釋性難題,使信任維系機制失效。

數據合規科技的各項技術構成了一系列法益依附的黑箱,由于受商業秘密的保護,監管者難以強制技術方公開披露技術細節。例如,公共管理部門數據合規科技的使用關涉公共安全,將內部細節置于公眾審視之下容易遭受輿論非難,且必然削弱系統抵御惡意攻擊的能力,這顯然是技術善治的不可承受之重。各項技術環環相扣的符碼規則進一步加大了技術可解釋性的難度:分布式學習的模型構建、抵抗惡意攻擊的加密方法以及半封閉的硬件環境均以減少不透明度作為其隱私保護屏障?!?9 〕事實上,在多方安全計算中,與其說參與方對模型公允性篤定不移,毋寧說是出于對人多勢眾的迷信;聯邦學習各參與方可能對本地數據如何教化公共模型尚且難以做到了如指掌,遑論能夠準確把握其他各方對公共模型的啟發和改進。在使用SaaS平臺時,無代碼的創建者按照自己對模塊的理解去搭建能夠迅速上手的功能系統,之所以選擇無代碼正是因為其根本不具備理解和編譯底層代碼的能力和知識儲備。由此可見,算法可解釋性的式微本就是數據合規科技保障數據安全的一種手段。因此,信任維系層面的法律制度有必要根據技術樣態予以重塑。

(二)目標糾偏機制的局限

信任維系機制的局限也導致了目標糾偏機制的局限。連接信任維系機制和目標糾偏機制的法律范式是知情同意框架,數據主體因知情而同意或不同意,共同勾勒出數據處理目標的能動性邊界。數據主體的“同意”,是對個人數據權益的處分,這種處分不能脫離商品或服務合同的語境單獨存在。意思表示居于合同法律關系的核心,合同當事人作出有效意思表示的前提,是對訂立合同時相關重要事項的知悉及表意自由。然而,在數據處理活動中,用戶同意的知情前提常因各種原因被削弱。例如,用戶協議可能篇幅過長,即便語言平實易懂,用戶也不可能潛心閱讀完畢。再如,用戶選擇同意與否的窗口期過于短暫,經常在幾秒之內就必須點擊同意以便進入實質性的主合同履行階段。由于相當多的意外情況在日后的數據處理活動中才可能發生,數據主體在對一系列關切自身重大利益的事項進行“一攬子同意”時,通常無法準確評估合同的每一條款可能使自身面臨的風險。此即約翰·密爾所稱“長期契約中自由意志的局限”“個人是自身利益的最佳決策者, 但該原則的例外情形是,在即期做出遠期的利益判斷?!?〔20 〕就數據合規科技而論,數據主體可能無法想象,允許數據處理者與其他受托方或第三方共享用戶數據,將帶來巨大的數據保護空白;數據主體也無法預料,出于實現公共利益的善心,適當允許處理者擴大數據采集范圍,反而將助長數據剩余權利濫用、隱私迫害等情況的滋生。

雖然表意不自由并不等同于合同法理論上的脅迫與欺詐,很多不透明也確實是因為數據合規科技中加密技術使用過度所致,但某些情況暗含脅迫或欺詐意味,立法者不能等閑視之。例如,數據主體只能通過多方安全計算才能得到優于原本算法決策的結果,技術方以“為客戶提供更精確的運算結果”為名,推薦數據主體同意來自不同數據處理主體的多方處理請求;可信執行環境和低代碼系統隨時間推移出現處理延遲,平臺方建議將企業數據從自家服務器向特定云端服務器遷移以獲得云計算模塊的加速。鑒于數據合規科技的技術復雜性,知情同意框架無法保障數據主體從一開始就作出不含效力瑕疵的意思表示。

綜上所述,數據處理者可以就技術細節提供堪稱翔實的用戶協議,數據主體也對此表示同意,但不能因此完全認可此間法律關系的產生、變更或消滅的合理性,還應“進行價值層面的衡量并做出執法和司法上的正確判斷”?!?1 〕數據主體既無力深究長篇累牘用戶協議中可能存在的雷區,也無法從技術層面知曉自己的數據何時被調取或使用;意思表示真實性和有效性大打折扣,“同意”與“事實上知情”存在斷層,現行知情同意框架實難應對數據合規科技帶來的復雜挑戰。

(三)損害救濟機制的局限

目標糾偏機制的失守,使數據主體在實踐中更傾向于通過損害救濟機制向數據處理者主張責任。脫胎于傳統的侵權責任法,損害救濟機制通過設立較高的賠償數額,引導當事人自行消化高交易成本。一方面,法律向受害人提供可以獲得同所受侵害相匹配賠償的公平允諾,激勵受害人向法院積極主張不受侵害的權利;另一方面,實施不法行為的施害人將被克以明確的賠償責任,確保侵害行為的預期凈收益為負,進而抑制其侵害沖動。理論上,兩者的合理錨定保證了潛在收益和責任負擔之間的連接強度,將施害人自食其果的概率維持在合理區間。但是,從民法典的相關規定來看,自然人對其個人數據享有作為民事權益的人格權益, 〔22 〕而人格權益屬性具備一經成立即附著于復雜社會關系的特殊性,“停止侵害”“返還財產”“賠償損失”“賠禮道歉”等責任承擔方式均無法在實質上消除影響、恢復名譽。

侵權行為的成立,以“侵權行為對被侵害人造成損害”“侵權行為和造成損害之間有因果關系”為構成要件。技術尚不成熟時,數據合規科技的利用是一種“射幸行為”,誰也沒法保證,單個細分場景中算法給出的最優解,經過多方安全計算的跨場景加權后是否會變為次優甚至劣后的結果;在簡單場景中披荊斬棘的低代碼模塊,由于同其他模塊的疊加有無可能造成系統整體效率的走低。在技術黑箱的層層掩護之下,原告方難以證明看似中立的技術應用是導致自身權益受損的直接近因,鎖定數據合規科技侵權行為的法律責任可謂難上加難?!?3 〕受制于部分技術的不可解釋性,舉證責任倒置的引入同樣無濟于事??梢韵胂?,反復歷經個人信息保護立法和司法審判的規訓,技術方早已學會巧妙地把自己的真實意圖進行冠冕堂皇的包裝,將責任免除的說辭嵌入數據合規科技的各個環節,在被告方輕而易舉“證明”損害不存在或自身對損害不負有責任后,原告方將繼續深陷舉證難的困境。損害救濟機制的局限,需要系統性地加以克服,政策制定者可先從新型法律關系的界定和承認著手,再逐步豐富損害救濟機制的手段。

(四)權利保障機制的局限

在目標糾偏和損害救濟機制之間,各國立法者從數據主體的“個人信息自決”入手,賦予了數據主體一系列權利救濟途徑。例如, GDPR第17條規定了“被遺忘權”“數據主體有權要求數據控制者擦除關于其個人數據的權利”。實現被遺忘權的方式是“清除同個人數據相關的鏈接、備份或復制”,此舉因實踐成本極高且有悖信息自由而飽受詬病?!?4 〕美國加州消費者隱私法案(以下簡稱CCPA)第3章規定了“刪除權”“如果服務提供商收到消費者提出的刪除其個人數據的可驗證請求,則應從其系統中刪除消費者個人數據,并指示任何‘從服務提供商’從其系統中相應刪除消費者個人數據”,較之于被遺忘權更具可操作性?!?5 〕我國信息安全技術個人信息安全規范(以下簡稱安全規范)第8條第3款和個人信息保護法第47條借鑒了CCPA刪除權的思路,但通過適當降低刪除權實質內涵的方式進一步降低了技術方的合規成本:只要個人數據在日常業務功能所涉及的系統中不能被“檢索或訪問”,即滿足安全規范第3條第10款對“刪除”的定義。

數據合規科技本為橋接不同源頭的數據而生,此時,為降低企業合規成本而允許技術方采取“名義刪除”的做法不再有效,解決方案是重回GDPR被遺忘權所體現出的“實質刪除”進路,要求企業真正實現不可逆轉的刪除。此外,被遺忘權、刪除權還面臨“技術不能”的考驗。例如,具有不可篡改特性的區塊鏈技術在數據合規科技中的穿插應用,令不可逆轉的刪除難以實現;在數據集中添加噪聲以降低敏感數據泄露風險的常見做法,也將加大“實質刪除”的難度和數據量;聯邦學習全局無損的模型構建,極大地限制了特定區塊的刪除,任何區塊的缺失意味著秘鑰的斷層以及后續區塊無法進行哈希鏈接?!?6 〕總之,數據合規科技中的數據主體需要不同于被遺忘權或刪除權的信息自決手段,才能克服既有權利保障機制的局限。

(五)隱名消除機制的局限

在多重機制紛紛失效的情況下,隱名消除機制構成了數據主體的最后一道防線,數據處理者有責任采取技術手段保證任何人或組織無法以倒推的方式,知曉信息主體的真實身份。安全規范規定了去標識化和匿名化兩種隱名手段。就保護層級而言,去標識化的保護效力低于匿名化:去標識化通過降低數據區分度減少數據同數據主體之間的關聯性,使得數據難以對應到個人,但保留了個體顆粒度、哈希函數等技術手段替代原有信息的標識;匿名化雖然同去標識化的技術手段多有重合,但其終極目的是將個人數據完全同數據主體的身份相剝離。

問題在于,隨著數據如滾雪球般積累,完全匿名化的狀態將不可能保持?!?7 〕“數據最小化、匿名化等原則,在大數據反向識別和預測性挖掘等技術下失去了應有的保護作用?!?〔28 〕單獨看來沒有任何痕跡殘余的匿名化數據,極有可能因為數據聚合而露出蛛絲馬跡。誠然,數據合規科技的加密手段能有效劃分權限,在很大程度上阻絕了多方大數據“實質合并”的可能,但機器學習模型在各參與方之間的多次往返流轉也極有可能粘附足以識別“去標識化”數據的線索。極端情況下,掌握了足夠多的單向反饋和模型變動,完全碎片化的匿名數據也有可能被復原?!皞€人信息具有的可識別性通常并非全有或全無,而是呈現出不同程度的識別能力,經過匿名化處理的信息仍可能殘存一定的‘可識別性’?!?〔29 〕考慮到數據合規科技帶來的數據交流的爆炸式增長,任何匿名化處理手段都將難以有效消弭匿名數據的剩余風險。

上述各項法律機制的局限,實際上是規制思維的局限。其一,政府主導的規則制定模式,極易因為利益關聯和認知局限等,排斥技術場景中的個性化訴求。其二,過度聚焦于應用前端和中端的規則設計,難以有條不紊地化解數據合規科技帶來的各項沖擊。在探尋規制的新方法、新范式之前,我們必須承認一個根本性前提:數據合規科技同傳統人工智能技術的風險在起因、特征、危害等方面已有顯著不同,不可簡單地將傳統規制思維相沿成俗。由于存在不同維度的風險,數據合規科技的法律規制需要透過一種聯結化的努力,在整合當前機制的基礎上,突破前述局限性,形成穩定性與靈活性統一的制度框架。

四、規制數據合規科技的系統性思考

自既有的制度余量觀之,數據合規科技的規制機制并不貧乏,但囿于種種局限性的存在,當前內涵繁雜、維度齊備但功能相對簡單、規則過于剛性的機制統合,很難對數據合規科技不同維度的風險給予有效回應,甚至會對個別數據主體的獨特性利益造成壓制,無法擔當治理數據合規科技的重任。信任維系、目標糾偏、損害救濟、權利保障和隱名消除等機制的突破,最終需要一個系統性的規制體系加以承載。

(一)數據合規科技的規制原理

傳統法律規制的各項局限并非互不相關,它們共同揭示了這樣的原理:數據合規科技的“去中心化”特征,正逐步瓦解企業、部門和平臺的邊界,基于邊界概念的安全防護體系將不復適用。說到底,數據環境越復雜,技術方就越有可能以合法形式繞開預設約束,迂回實現自身利益的最大化進而損害社會公共利益。

新興技術通過顛覆“傳統工商業態和經營模式”促進勞動生產率的提升, 〔30 〕法律若未能及時跟進、推陳出新,將產生監管套利的灰色空間。數據合規科技的大趨勢下,普通人如何拒絕不合理的隱私計算請求、個人生命和財產在數據合規科技出錯失誤時如何獲得及時保護、數據主體如何理解各項技術原理從而有機會對其權益保護作出適當的安排等,都需要通過法律規則的演進賦予其采取合法行動的有效手段或足以抗衡技術濫用的法律地位。數據合規科技的健康發展和合理利用離不開法律和技術的良性互動,因兼顧隱私保護和激發數據潛能的雙重追求,良性互動的基本回路應當脫離自上而下的強監管邏輯,審慎探尋將技術規范循序嵌入法律政策的合理路徑,確?!胺ǘx務的履行和技術標準的遵守有機整合”?!?1 〕順應數據合規科技的應用發展趨勢,數據合規科技的規制應正確對待傳統法律規制的短板,發展出平衡各參與方利益、促進技術增益數據價值、保護數據主體綜合權益的規制體系。

(二)既有機制的補強和完善

面對數據合規科技風險,已有的各項規制手段仍然有延伸適用的空間,但應結合已知局限進行定向的修補和完善。

1.動態知情同意框架

雖然知情同意框架有著諸多缺陷,但至今仍然廣泛被各國立法者前置為信息處理全周期的第一閘口,主要是因為標準化的模式對于各方而言均為最有效減少交易成本的解決方案?!?2 〕可以預計,在數據合規科技作為算法應用基礎設施的全新業態中,知情同意框架仍將發揮巨大的作用,但亟需根據全新的業務特征加以調整。

數據合規科技聯結了多方節點數據和算力資源,通過提升機器學習模型的泛化能力完成從個體智能到群體智能的數據處理生態轉變。不同于業務模式較為固定的傳統算法決策,橫跨數據合規科技全周期的知情同意框架,對應的不再是“搜集—處理—決策”的簡單合同,而是貫穿下游數據、中游技術到上游應用的一系列合同集束,此間任何一個環節的細微改變,都會產生合同的鏈式反應?!靶畔脠鼍暗膭討B化是大數據背景下信息技術的生命力之所在?!?〔33 〕數據合規科技的適用場景呈現高度動態化特征,數據處理者必須結合節點狀態、合約策略、加密方式、環境閉合等情況臨機應變,清晰、穩定、透明的數據處理方式不再具有可期待性。這種動態化的業務特征決定了知情同意框架也必須相應處于動態變化之中,數據主體只有做到與時俱進的“知曉”,才能作出真正符合其意思表示的“同意”,否則無異于緣木求魚。因此,即使是去標識化、匿名化的個人數據參與多方安全計算、聯邦學習等,數據處理主體也應當“逐次、分別、主動”請求用戶授權。

2.嚴格的轉委托原則

個人信息保護法第21條允許處理者在獲得數據主體同意時將個人數據委托受托方進行處理,委托方和受托方須就數據處理的目的、方式、種類和保護措施達成合意,在委托關系解除后,受托方須返還或刪除個人數據。在數據合規科技可能存在的多重合同關系中,受托方及第三方通常處于“從數據處理者”的地位,主數據處理者同意從數據處理者的共同處理行為,在性質上只是對原授權許可范圍的變更,并未因此產生新的獨立授權,主處理者和從處理者之間的權利義務確立應當符合以下原則。

其一,安全評估原則。例如,安全規范第9條規定了數據處理主體委托第三方時的安全評估義務,主處理者應當確保從處理者“根據有關國家標準的要求,建立適當的數據安全能力,落實必要的管理和技術措施”。其二,中心控制原則。主處理者對從處理者應當有合理手段和措施遏制從處理者的機會主義行為,例如,撤銷其委托,以確保從處理者的好奇心在可控范圍內,且任何時候不帶惡意。其三,權限遞減原則。所有從處理者的權限不得大于主數據處理者,包括但不限于處理數據的類型、數量、目的和授權期限等,主處理者對從處理者的授權應以擬實現的正當目的為限。其四,逐次授權原則。即便從處理者的權限范圍小于主處理者,主處理者也必須就新從處理者的引入、擬授權處理權限的變化等額外獲取數據主體的同意。其五,上下游聯動原則。數據主體變更、限制、撤回對主處理者的授權時,從處理者也應當相應調整、減少、停止數據處理行為,主處理者應當確保下游處理者的行為與之聯動,無需數據主體一一知會從處理者。其六,責任共擔原則。對于任何超出自身權限的數據處理行為,主從處理者承擔連帶責任。

3.正當程序的權利保障

無論技術如何發展,自然人享有的正當程序權利,不因規則體系的數字化重建而改變?!?4 〕遵循行政法的自然正義觀,英美立法者正探討“陳情權”的可行性,為遭受不公正自動化決策的數據主體提供獲得公平聆訊和請求行政復議的機會。另一個同數據合規科技息息相關的權利范式是“離線權”,該權利允許數據主體將個人數據從數據合規科技的實踐中撤離出來,并自由決定其個人數據在不同數據處理者之間的流轉, 〔35 〕與歐美數據保護法中的“數據可攜帶權”以及我國個人信息保護法中的“個人信息轉移權”有異曲同工之妙。在不同的技術場景中,離線權的表現形式亦有所不同。例如,在多方安全計算中,數據主體行使離線權即意味著撤銷參與未來多方安全計算的同意,數據處理主體須接續本地自動化決策方案,以保持服務提供的連續性。在聯邦學習中,離線權表現為用戶可以隨時行使的“掉線權”。作為解決多組織協同訓練問題的有效手段,現有聯邦學習技術通常限制用戶掉線。研究表明,通過在本地模型參數上添加差分隱私擾動、在聚合參數上添加用戶噪聲等方式,用戶掉線將不再對模型訓練構成威脅, 〔36 〕掉線權的普及具備了技術層面的可行性,異構系統間的聯邦學習也成為可能。掉線權的法益體現在,雖然掉線權的制度引入給技術方帶來了更高的合規成本,但有助于吸引更多離散客戶端參與聯邦學習,從而提升系統的準確性和魯棒性?!?7 〕

(三)多元機制的構建和分工

1.口徑統一的宏觀行業標準

數字化轉型階段,金融、保險、醫療、銷售、教育等行業都向數據處理行業過渡。2021年6月28日,中國支付清算協會發布《多方安全計算金融應用評估規范》,這是我國第一個有關隱私計算的金融規范,足見金融行業對數據合規科技的重視。數據標準統一、技術規范明晰,是上下游規則聯動的基礎。數據合規科技流派眾多,數據采集和處理方式差別迥異。金融行業之外,其他行業主管部門也應當聯合牽頭制定跨行業共同遵守適用的“數據辭典”,打造數據交換的“通用語言”,做到數據編碼、制式、口徑、格式方面標準的統一,保證數據來源、內涵、處理邏輯可被“反事實校驗”。建立跨行業的統一標準,還將有利于構建新興技術適用的漏洞知識庫:行業主管部門應將零散的概念、實例和規則整合成體系化的檢索庫,在地址、端口、服務、屬性、協議五元組層面實現數據合規科技的知識圖譜化。

政府部門處于數據和關鍵信息基礎設施的要沖,是最龐大、最完整的數據擁有者。政府部門向各行各業定向、合理、有序開放“國家教育資源公共服務平臺”“國家科技管理信息系統公共服務平臺”“國家社會保險公共服務平臺”“全國企業信用信息公示系統”等數據庫,有助于賦能各個產業的數字化轉型?!?8 〕目前,國家級和區域級的大數據交易所已在我國漸次成型。2021年3月31日,北京國際大數據交易所成立,系我國首家基于“數據可用不可見,用途可控可計量”新型交易范式的數據交易所?!?9 〕2021年11月25日,上海數據交易所成立,以“推動數據要素流通、釋放數字紅利、促進經濟高質量發展”為導向,積極突破“確權難、定價難、互信難、入場難、監管難”等阻礙數據交易規?;暮诵膯栴}?!?0 〕統一行業標準之后,可以交易所為依托,選擇政府數據作為數據合規科技試點,在金融普惠、智慧醫療、教育監管等領域率先打造技術沙盒,之后再以點帶面逐步向全國、全行業示范推廣,分步完善數據流轉的確權模式,循序漸進推動數據合規科技的應用落地。

2.技術甄別的中觀審查體系

低代碼的板塊拼接以及隱私計算中同態加密、差分隱私等手段的使用,打破了數據輸入和結果輸出間的線性關聯,算法可解釋性要求被數據合規科技架空。誠然,閉門、隨機、混淆、變化的數據利用模式加大了敵手攻擊的難度,為數據合規科技帶來了相當程度的安全保障,但這并不足以正當化數據處理過程中一系列技術黑箱的存在。數據合規科技應同時具備結構上的穩定性和經濟上的可操作性,縱使加密和防御手段令人眼花繚亂,貫穿數據合規科技前中后端的運行邏輯應當始終如一;此乃評價整體解決方案的一慣性標準,即當且僅當能夠從相對于整體實踐提供最佳證成的數據合規科技方案中脫穎而出,所采取的各項具有“黑箱性質”的技術手段才是可取的。從監管便利性來看,雖然各個流程環環相扣的可解釋性要求既無必要也無可能,但數據合規科技的各參與方確應就整體方案的可欲性和優越性達成共識,并以共同聲明的方式,在請求用戶特別授權時,就以下三個方面內容作出詳細且外行人也能理解的信息披露:(1)整體方案的目標愿景、運作邏輯與構建機理;(2)所選取技術手段的必要性及面臨的權衡取舍;(3)可能存在的系統偏差、隱私風險、運行故障和補救方案。

同算法可解釋性所面臨的問題相似,信息不對等必然誘發權力濫用。技術迷霧可以有效阻礙數據主體證偽上述信息披露,技術方的解釋和說理方式則完全取決于擬實現的經濟或政治目標。技術迭代迅速,多環節技術疊加還有可能造成脫離造物者預設程序但短期內難以被人察覺的情況?!?1 〕因此,心懷善意的技術方至多作出“自以為正確的解釋”,而錯誤乃至虛假的信息披露或是數據合規科技中的常態。因此,有必要引入外部審查機制、深入拷問數據合規科技的潛藏風險。數據合規科技方案的外部審核主體應當由獨立的第三方機構擔任,實施審核的專家委員會由具備相關技術背景、同各參與方無利益往來的專家組成。外部審核應著重關注技術方在降低算法歧視方面是否盡力而為。避免算法歧視群體化需要追問數據合規科技數據處理的社會性聚合機制, 〔42 〕尤其是作為多方安全計算、聯邦學習和低代碼參與方的自身稟賦、行業特點和地域限制在何種程度上影響了數據樣本的生成。無論如何清洗,來源于同一主體的數據通常會被打上難以察覺的烙印,具有隱性的身份化表征,在無形之中限定了數據合規科技的應用格局。不同數據間集體身份在數據合規科技實踐中相互排斥和博弈越明顯,得出的運算結果、訓練出的公共模型和成型的低代碼模塊就越有可能產生歧視。由于歧視主要根源于數據,外部審核應當確保技術方在數據清洗過程中引入了缺省數據篩選機制,主動去除冗余、不相關、不合格數據,降低通信成本、提升運算精度,避免數據合規科技參與方因為數據饑渴而來者不拒,從源頭掐斷算法歧視群體化的苗頭。

3.開發行為的微觀倫理規范

雖然宏觀標準和中觀審查體系有望解決既有機制難以企及的諸多難題,但促進技術向善最有效的手段始終是通過法律將標準和原則植入技術應用的底層行動邏輯,因勢利導出政策制定者期望的結果,這也是“通過設計保護隱私”的應有之義。事實上,數據安全同技術效益、商業價值之間從來就不是此消彼長的沖突關系,保障數據安全并不意味著犧牲其他價值,“企業在保護用戶隱私的同時,也在為自己創造競爭優勢”?!?3 〕如果技術方可以將自己的偏好和價值觀嵌入代碼的字里行間,立法者同樣可將倫理先行原則、聲譽評價機制等固化進開發行為規范,為不同類型的技術應用創設差異化的社群規則。

就數據合規科技而言,各項技術應用首先需要滿足倫理先行原則,不得游走于現有法律體系的灰色地帶進行監管套利。通說認為,算法規制目標無他:其一,警惕本來應當是中立的智能應用,被用來掩飾未取得“多數人同意”的少數人集權;其二,建立利益相關者對話和商談的場域,避免法律淪為技術寡頭的幫兇?!?4 〕數據合規科技匯聚了海量大數據,技術方極有可能經不住誘惑,利用算法壓榨個體攝取不成比例的回報。由于同算法息息相關,數據合規科技同樣包含價值判斷,立場抉擇關涉多方利益,因此,技術方案選擇不應是簡單的效益至上或是性能擇優。數據合規科技踐行倫理先行的理念,要求各參與方的效益增長勢必要同步拉動社會公共利益提升。

此外,技術方還應當主動引入聲譽概念作為參與方信任度的衡量指標,凈化數據合規科技的運行環境。從可采取的技術手段來看,多權重的主觀邏輯模型使基于聲譽的可信賴客戶端之間的“朝上競爭”成為可能,配合區塊鏈技術的不可篡改特性,分布式信譽管理不再是癡人說夢。例如,圍繞深度強化學習設計激勵策略,在開源分布式特殊場景中推行資源按勞分配,以達到邊緣節點的最佳訓練水平; 〔45 〕利用區塊鏈技術跟蹤全局模型更新,對積極參與聯邦學習的用戶給予豐厚獎勵,能實現局部模型的更高穩定性?!?6 〕契約理論可被用于數據合規科技各參與方算力投入和模型質量的衡量,一直以來困擾實務界的“拜占庭將軍問題” 〔47 〕有望通過“聯合誠實參與方而非揪出惡意方”的方法得以解決。不過,技術互嵌的解決方案有時也相互掣肘,技術方需量力而行。例如,區塊鏈技術的公共賬本特性存在通信延遲、數據吞吐量大等問題,與通信開銷同樣不可忽視的隱私計算相結合,必然對通信設備、服務器帶寬以及主機算力等提出更高要求。域外學者提出了對通信成本和模型準確性之間進行表征的方程式,可以對特定帶寬下分布式學習的速率進行有效評估,從而對兩者的權衡取舍予以指導?!?8 〕

(四)整體規制方案的價值衡量

在既有機制補強和多元機制構建所共同組成的圖景中,規制體系的穩定性有賴于規制者結合實情作出正確的價值考量。數據合規科技規制本質上是多層級風險防范與技術方案設計和應用之間的復雜價值平衡,即受數據合規科技影響的多種法益與合理使用技術的利益間的價值平衡。

在福利經濟學領域,價值增減的衡量一直有兩套標準:一套是視福利為個人需求加總的“帕雷托效率”,主張當個體境遇的變好不以犧牲他人利益作為代價時,社會福利才是增值的;另一套是將資源再分配納入計算的“卡爾多—??怂剐省?,認為只要獲益方所獲得的利益足以補償受虧損者的損失,那么社會總體福利也是增值的,至于補償是否實際發生則無關緊要?!?9 〕前文指出,個人數據具有人格權益屬性,而人格權益的侵害既不表現為經濟利益的喪失,也難以通過事后救濟的方式彌補。因此,在數據合規科技場景中,“卡爾多—??怂剐省钡挠嬎惴绞胶翢o用武之地,宜將“帕累托效率”所展示出來的理想目標作為價值衡量標桿。亦即,無論被何種技術加持,技術方的經濟效益在任何時候都不應凌駕于人格權益之上。即使是為了社會效益的增長,個人數據權益的克減有時不可避免,但在有多個參與方的技術場景中,如果部分參與方的利益主要體現為財產利益,其余參與方的利益主要體現為人格權益,人格權益方應當享有優先保護。

(五)機制聯結互動的動態方案

數據合規科技的安全合規,以規制體系的系統性和融貫性為保障。上文建議的多項機制共同展示出了數據合規科技不可或缺的多個規制面向,而各個規制面向間的內部關系,亦可進一步完善。易言之,必須將分散零碎的規則和工具嫁嵌入多維共治的動態方案中,數據合規科技的規制體系才算完整。不同規制面向間的合理聯結和差異化耦合,可以為數據合規科技的各項技術形成有針對性的規制方案,并根據不同維度的風險、結合不同的應用場景,條分縷析出符合“帕累托效率”的動態規制方案。正在征詢意見的網絡數據安全管理條例堅持促進數據開發利用與保障數據安全并重,主張“分地區、分部門、分行業”建立數據分類分級保護制度;以促進保障數據依法有序自由流動、依法合理有效利用為導向,數據合規科技的動態規制圖式,如下圖所示。

這一圖式展示出了數據合規科技的動態規制體系,即以不同層面的法律規則為核心、各項規制要素同頻共振的系統化規制模式。例如,對于智慧金融領域的數據合規科技,因為關涉公共產品的分配,計算結果的準確性和數據安全同等重要, 〔50 〕宏觀層面的行業標準如果偏重數據安全和應用流程的一體化規范,中觀層面的外部審查體系就應當著重關注計算結果的公允程度及其對數據主體的潛在影響;為了緩解規制過程中工具理性和價值理性的沖突,個體層面的權利保障是對結果數據維度風險的補救和兜底。

總之,因應技術的流變、場景的不同以及參與方稟賦的差異,針對數據合規科技的規制方案沒有一成不變的“最優解”,必須基于風險產生的不同機理,考慮治理成本、技術條件、輿論環境等外在約束,形成力所能及的差異化制度安排。誠然,逐一考察數據合規科技的各項技術并提出各個技術專用的制度設計建議頗費周章,非本文在有限篇幅內能夠完成的任務,但圖式中不同維度和要素的交互聯結,可助力不同的風險場景和規制目標形成符合國情、環環相扣的規制方案,希望能為日后各項技術規制的單獨細化拋磚引玉。細分領域的不同技術間因數據處理的目的不同、應用行業不同,需要分別設計不同的社群規范和權利簇,但大體規制框架無論是在方法論層面還是在法益衡量層面均沒有實質差別。

上述動態規制圖式中多項機制間的連接和互動機理并非法律人的憑空臆想,而是立足于我國現有數據安全法律體系的必然選擇。較之于傳統的靜態制度安排,動態的規則設計能夠更為細致地兼顧各項機制和工具之間的整體協調和按需調整,避免小規則對大體制的掣肘和抵消。當然,隨著時間推移,數據合規科技的規則之治不可能變動不居,各項機制和聯動思路也必須隨著技術的嬗變不斷發展和完善。

結? 語

“沒有意識到風險,是最大的風險?!?〔51 〕在人工智能技術面前,人類更應該充分發揮自身的理智優勢使潛在風險最小化。破解數據合規科技的風險迷局,必須超越傳統人工智能法律規制的路徑依賴,摒棄科學烏托邦主義情結,完成思維和方法論的轉變:其一,從單點被動防御轉向全網主動聯防聯控,以數據和人為核心構建覆蓋“客戶端—云—服務器—模型—應用—社會”的一體化縱深安全運營體系;其二,在各關鍵節點優化知情同意、數據處理轉委托等規則,強化對各行各業數據處理行為的約束,結合技術現狀有針對性發力;其三,建立跨部門的溝通和問責機制,在全天候預警監測的基礎上加強跨行業數據的穿透式監管能力,自下而上構建數據合規科技的動態規制體系。唯有如此,透過數據合規科技的要素價值釋放,才可謂安全無虞。

中國社會科學院法學研究所助理研究員,法學博士。

本文系國家社科基金重大項目“大數據時代個人數據保護與數據權利體系研究”(項目批準號:18ZDA145)的階段性研究成果。

〔1〕合規科技不同于“科技合規”,后者是指技術方與監管者以數字化方式互相連通,實時向監管者傳輸應用數據以動態形成合規報告的信息披露實踐,而前者則是將監管要求轉化為科技應用的技術約束,主動降低安全隱患的技術利用模式。

〔2〕中共中央黨史和文獻研究院:《習近平關于網絡強國論述摘編》,中央文獻出版社2021年版,第121頁。

〔3〕參見許可:《個人信息治理的科技之維》,載《東方法學》2021年第5期。

〔4〕I. S. Rubinsteint & N. Good, Privacy by Design: A counterfactual Analysis of Google and Facebook Privacy Incidents, 28 Berkeley Tech. L. J. 1335 (2013).

〔5〕科技部《關于加強科技倫理治理的指導意見(征求意見稿)》(2021年7月28日)。

〔6〕Koch, Hans-Joachim, and Helmut Rü?mann. Juristische Begründungslehre: eine Einführung in Grundprobleme der Rechtswissenschaft, Beck, 1982, p.67.

〔7〕參見沈偉偉:《算法透明原則的迷思》,載《環球法律評論》2019年第6期。

〔8〕參見周純毅等:《分布式深度學習隱私與安全攻擊研究進展與挑戰》,載《計算機研究與發展》2021年第5期。

〔9〕B. Hemenway & W. Welser, Achieving Higher-Fidelity Conjunction Analyses Using Cryptography to Improve Information Sharing, RAND Corporation, 2014, p.6.

〔10〕參見Z. Wang, et al., Beyond Inferring Class Representatives: User-Level Privacy Leakage from Federated Learning, 1 Proceedings of IEEE Infocom Conference On Computer Communications, 2512-2520 (2019).

〔11〕J. Steinhardt, et al., Certified Defenses for Data Poisoning Attacks, in Michael I. Jordan, et al (eds.), Advances in Neural Information Processing Systems, Cambridge: MIT Press, 2017, pp.3517.

〔12〕X. Y. Chen, et al., Targeted Backdoor Attacks on Deep Learning Systems Using Data Poisoning, preprint, (5526) arXiv, 1712 (2017).

〔13〕Z. Wang, et al., EvilModel: Hiding Malware Inside of Neural Network Models, 26 IEEE Symposium on Computers and Communications, 2107 (2021).

〔14〕高富平:《個人信息保護:從個人控制到社會控制》,載《法學研究》2018年第3期。

〔15〕最高人民檢察院《貫徹執行個人信息保護法推進個人信息保護公益訴訟檢查工作》(2021年8月21日)。

〔16〕參見曹建峰:《人工智能治理:從科技中心主義到科技人文協作》,載《上海師范大學學報(哲學社會科學版)》2020年第5期。

〔17〕Commissioner v. Facebook Ireland Limited, Maximillian Schrems (Case C-311/1).

〔18〕張欣:《算法解釋權與算法治理路徑研究》,載《中外法學》2019年第6期。

〔19〕參見劉志勇、何忠江等:《大數據安全特征與運營實踐》,載《電信科學》2021年第5期。

〔20〕J. S. Mill, The Principles of Political Economy, New York: Colonial Press, 1961, p.959.

〔21〕張新寶:《個人信息收集:告知同意原則適用的限制》,載《比較法研究》2019年第6期。

〔22〕參見程嘯:《論我國民法典中個人信息權益的性質》,載《政治與法律》2020年第8期。

〔23〕參見唐林垚:《算法應用的公共妨害及其治理路徑》,載《北方法學》2020年第3期。

〔24〕參見劉文杰:《被遺忘權:傳統元素、新語境與利益衡量》,載《法學研究》2018年第2期。

〔25〕參見丁曉東:《被遺忘權的基本原理與場景化界定》,載《清華法學》2018年第6期。

〔26〕參見黃尹旭:《區塊鏈應用技術的金融市場基礎設施之治理——以數字貨幣為例》,載《東方法學》2020年第5期。

〔27〕[英]維克托·舍恩伯格等:《大數據時代:生活、工作與思維的大變革》,盛楊燕等譯,浙江人民出版社2013年版,第200頁。

〔28〕徐明:《大數據時代的隱私危機及其侵權法應對》,載《中國法學》2017年第1期。

〔29〕齊英程:《我國個人信息匿名化規則的檢視與替代選擇》,載《環球法律評論》2021年第3期。

〔30〕參見馬長山:《司法人工智能的重塑效應及其限度》,載《法學研究》2020年第4期。

〔31〕趙精武、周瑞玨:《隱私計算技術:數據流動與數據安全的協同保護規則構建》,載《信息通信技術與政策》2021年第7期。

〔32〕參見王利明:《數據共享與個人信息保護》,載《現代法學》2019年第1期。

〔33〕萬方:《個人信息處理中的“同意”與“同意撤回”》,載《中國法學》2021年第1期。

〔34〕參見張凌寒:《算法自動化決策與行政正當程序制度的沖突與調和》,載《東方法學》2020年第6期。

〔35〕參見唐林垚:《“脫離算法自動化決策權”的虛幻承諾》,載《東方法學》2020年第6期。

〔36〕參見路宏琳、王利明:《面向用戶的支持用戶掉線的聯邦學習數據隱私保護方法》,載《信息網絡安全》2021年第3期。

〔37〕魯棒性,指系統在其特性或參數發生攝動時仍可使品質指標保持不變的性能。

〔38〕參見許可:《從監管科技邁向治理科技》,載《探索與爭鳴》2018年第10期。

〔39〕參見徐佩玉:《北京國際大數據交易所成立》,載《人民日報》(海外版)2021年4月3日。

〔40〕參見張懿:《助力“艱苦一躍”,更好釋放數字經濟潛能》,載《文匯報》2021年11月26日。

〔41〕參見何大安:《廠商運用大數據和人工智能的經濟學分析》,載《上海師范大學學報(哲學社會科學版)》2021年第3期。

〔42〕參見李成:《人工智能歧視的法律治理》,載《中國法學》2021年第2期。

〔43〕鄭志峰:《通過設計的個人信息保護》,載《華東政法大學學報》2018年第6期。

〔44〕參見[英]凱倫·楊、馬丁·洛奇:《馴服算法》,林少偉等譯,上海人民出版社2020年版,第353頁。

〔45〕See Y. Zhan, et al., A Learning-Based Incentive Mechanism for Federated Learning, 7 IEEE Internet of Things Journal, 1221 (2020).

〔46〕See Y. J. Kim & C. S. Hong, Blockchain-Based Node-Aware Dynamic Weighting Methods for Improving Federated Learning Performance, 20 Asia-Pacific Network Operations and Management Symposium, 1-4 (2019).

〔47〕拜占庭將軍問題是指在有叛徒的情況下將軍們如何共謀的難題。在數據合規科技中,該問題演化為在分布式單元中的部分參與方可能給出不實數據的條件下,如何使分布式單元達到一致的難題。亦即,在缺少可信任的中央節點和數據傳輸通道的情況下,分散在系統中的各參與方應如何達成共識?

〔48〕See Y. Han, A. Ozgur & T. Weissman, Geometric Lower Bounds for Distributed Parameter Estimation Under Communication Constraints, 2 Proceedings of the Conference on Learning Theory, 3163-3188(2018).

〔49〕參見艾佳慧:《法律經濟學的新古典范式》,載《現代法學》2020年第6期。

〔50〕參見蘇宇:《數字代幣監管的模式、架構與機制》,載《東方法學》2021年第3期。

Abstract: Frequent data breaches accelerated privacy protection legislation, yet the strong regulatory trend has in turn caused the scarcity of legitimately-usable data. Under the data-as-production-factor strategy, mainstream CompTech such as privacy-preserving computation and SaaS platform could help to release the data potential in an orderly and compliant manner in-between untrusted entities through the "decentralization" of outcome calculating, model training and hardware defensing, but may also give rise to the generalization and alienation of traditional problems. Due to the deep reconstruction of the data processing mode, trust maintenance scattered across every level of the law, target correction, defect remedy, rights protection and compulsory anonymization methods all malfunctioned in CompTech scenarios. In order to balance the legal interests of each subject, future legislation should aim to build a dynamic regulatory system that adapts to changes, through the collaboration between macro policies, community regulation, technology structure and the competition between actors. The bottom line of such an adaptable legal framework is to eliminate the risks from the blind spots from the complex data processing scenarios and to give full consideration to the utility needs of data productivity, so as to ensure the compliance of the CompTech itself.

Key words: CompTech; privacy-preserving computation; low code; personal information protection; security compliance; Artificial Intelligence

猜你喜歡
個人信息保護人工智能
我校新增“人工智能”本科專業
2019:人工智能
人工智能與就業
數讀人工智能
我國大數據時代個人信息保護研究綜述
下一幕,人工智能!
下一幕,人工智能!
移動互聯環境中個人信息保護的調查與分析—以大學生為例
大數據時代個人信息管理與保護
探究大數據時代的網絡搜索與個人信息保護的分析
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合