?

以標準化實現算法透明研究

2024-05-08 08:18萬文婷彭飛榮
標準科學 2024年4期
關鍵詞:標準

萬文婷 彭飛榮

摘 要:算法透明作為對算法規制的重要方式,在國內外皆得到立法上的確認,但在司法實踐中卻因沒有明確標準而面臨隱私權、個人信息權以及商業秘密的抗辯和技術上的挑戰,進而難以得到有效具體落實,因此有必要借助標準化手段落實和完善算法透明。本文通過將法律上的實體權利與標準相結合進而保障算法透明落實,解決了本土化的算法備案制度所面臨的困境從而為算法透明提供有效落實方式,明確了算法解釋的適用場景,以算法解釋填補算法透明難以滿足的空白。

關鍵詞:算法透明,標準,算法備案,算法解釋

DOI編碼:10.3969/j.issn.1674-5698.2024.04.008

0 引 言

在數字經濟時代背景下,算法早已深入應用到各個場景領域,極大提升了數據處理的效率。早在域外的公共領域,美國就已經應用compas算法軟件進行刑事司法分析,應用算法作為評估公民福利的救濟機制;在國內的商事領域,各大網絡平臺利用算法預測客戶行為,進行精準商業推送。算法應用的案例屢見不鮮,但其在提升工作效能和方便使用者的同時也引發了一系列問題,例如:“大數據殺熟”“算法歧視”“算法繭房”等等,這些都逐漸成為人們關注的焦點。從法律角度來看,無論是歐洲的《通用數據保護條例》(GDPR)還是美國提出的《算法責任法案》,它們都在討論如何規范算法的使用,并強調了“算法透明”這個關鍵性的監管準則[1]。在我國,《電子商務法》和《個人信息保護法》也涉及算法透明問題。算法透明作為針對算法不公的重要規制手段,雖在法律法規的頂層設計上作為指導性原則有著立法依據,但在司法實踐上卻面臨如何落實適用的困境。

此外,算法透明監管在現實中往往面臨商業秘密的抗辯理由,域外如:美國康普斯案以算法涉及商業秘密而駁回被告訴請。在我國司法實踐中“智搜公司控訴光速蝸牛公司等侵犯商業秘密糾紛案”標志著算法商業秘密法律保護已經形成并開始實施,早有學者注意到算法透明與商業秘密之間的沖突關系,但是卻鮮有提出在實踐中的具體可操作性的機制建構[2,3]。

因此,算法透明面對透明對象的適用范圍、透明程度以及披露方式,在司法中仍面臨諸多困阻?!八惴ㄍ该鞫取弊鳛槿斯ぶ悄茴I域的專業術語,本文認為“度”既可解釋為有量化單位的程度,也可理解為廣義上的標準。相較于依賴政府強行實施的硬法,標準的應用更傾向于采用柔性的方式來實現其目標,是一種軟法。這包括各種形式的標準,如:國家標準、行業標準、地方標準或企業標準,它們各自在適用范圍、有效性和彼此間的關系方面有所差異。標準可看作是法律規定和科技應用的結合,也是規制與自治之間的銜接點和緩沖區,同時它在建立并優化算法規制機制上具有相當大的優勢[4,5]。

因此,在認識標準作為法律延伸的“軟法”基礎之上,有必要將其有效利用為一種重要規制機制,對算法透明進行深化,實現可操作化。

1 算法透明與標準化

1.1 算法透明與標準化概述

我國《電子商務法》第三十三條明確規定了電子商業網站運營商應于網絡主頁面明顯位置持續公布平臺服務協議及貿易準則的信息或這些信息的鏈接標識,并且確保商家與顧客能方便閱讀并獲取它們,從而提高電商平臺交易規則的透明度[6]?!秱€人信息保護法》第二十四條的第一款也指出,當使用用戶數據做自動化決策時,必須保障決策過程中的可見性和結果的公允,同時第三款還說明如果這種基于大數據分析的結果會對個人的利益產生重要的影響的話,那么他們就有權力去要求公司予以說明,這進一步強調了個人信息處理者自動化決策技術應用的算法透明度[7,8]。以此為基礎,《關于加強互聯網信息服務算法綜合治理的指導意見》中提出了要推進算法透明的發展,約束企業的算法使用行為,在遵守平等正義基本理念的同時也要維護好公民的合法權益,從而促使算法透明的發展更加健康穩定有序[9,10]。

《互聯網信息服務算法推薦管理規定》(以下簡稱《算法推薦規定》)提到,提供算法推薦服務時應遵循公平公正、公開透明等原則,鼓勵算法推薦服務提供者優化檢索、排序、選擇、推送、展示等規則的透明度和可解釋性,以避免用戶受到不良影響,并預防爭議糾紛。此規定可視為我國首次正式確立了算法透明原則,相較于歐盟以“數據賦權”為核心的算法規制體系下將算法透明釋為“披露義務”,美國“行為規范”模式下將其理解為算法問責的前提,本文認為,我國所確立的算法透明原則更適合作為算法應用的合法性基礎和數據主體的救濟途徑。

而我國的司法實踐也恰恰印證了這一觀點?!霸S興泉訴杭州阿里媽媽軟件服務公司關于互聯網服務的爭議案”中,法庭指出:對于大數據分析的結果是如何得出的,也就是其算法邏輯的問題,這是一個不容忽視的待證事實,同時這也是一個合法性的證明過程。我們不能僅僅依賴于大數據的專業分析報告來進行司法評估。由于大數據分析涉及很強的專業技術性,若不對其邏輯推理的過程進行司法審核,就可能導致用技術分析替代司法決策的情況發生,這將會威脅司法的威信。然而,對邏輯演算過程進行司法審查,也不能完全依靠法律判決去取代技術判定,因為這樣可能會影響司法公正。

1.2 算法透明實現的挑戰

1.2.1 法律挑戰

算法透明旨在理解算法系統背后運作的一般過程,以及算法系統產生個體結果的途徑?;谶@一目的,加之算法應用本就有復雜性、更新快、常變化、分領域的特性,所以算法透明面臨著對誰透明需要不同程度透明度的現實情況。

算法透明的價值即用公開披露信息來平衡權利,克服信息不相稱的缺點,彌補地位不對等的缺陷。透明度的救濟方式即賦予算法相對人相關信息,但不是完整信息,因為透明度可能會暴露隱私和披露個人信息。在使用個人數據進行操作機器學習算法訓練步驟時,“魚缸型”透明可能會帶來侵犯隱私權與個人信息權的問題[11]。

另一方面,算法于企業而言,在其研發制作的過程中往往會付出大量的人力物力,并且算法本身就具有經濟價值。算法是企業競爭優勢的來源,任何披露都有可能會違背公司的利益,鑒于算法應用的合法性前提受算法決策影響的數據主體有權了解其運作方式,要求披露[12]。當前的主流形勢便是將算法作為商業秘密加以保護,算法透明度的提高必然會對企業的市場優勢造成威脅,更有甚者會造成算法商業秘密濫用的趨勢。

1.2.2 技術挑戰

算法透明需要挑戰所有可能的偏見。通常情況下,在自動決策的背后有機器學習算法,在處理數據時傾向于非??焖俚膶W習。在這種情況下,保證透明度是一項非常復雜的任務。

在解釋基于算法的自主決策時,技術障礙的數量取決于算法的復雜度。從技術的角度來看,系統化的方法往往存在局限性,比如:隨著人工智能系統越來越復雜,指令可能不受程序員的監督,因此通過查看系統的內部運行規則并不一定會理解和控制它,這必須與個人的認知程度以及社會因素相結合起來考慮。在處理可解釋的算法時有可能實現依賴于源代碼分析的“白盒”方法,這使得用戶可以直接查看和理解它。但是當算法涉及到商業秘密,或者在更為復雜的情況下,便已經形成“算法黑箱”,此時基于人工智能算法的“白盒”方法是不可行的[13,14]。

然而“算法黑箱”的化解不能夠依賴于對代碼的分析,因此確保透明度是非常具有挑戰性的,要解釋復雜的算法系統也可能具有高度的自主性。

1.3 以標準化手段實現算法透明的正當性

正如前文所述,算法透明的落實仍舊面對諸多障礙與困境,本文認為在法律的頂層設計下,可以借助標準手段,形成法律與標準相結合的模式,以標準化落實算法透明。

首先,標準的建構與算法系統之間的溝通本身就具有一定優越性。標準滿足算法規制的環境要求,同時能夠隨著算法科技的發展而實時調整,具有靈活性。算法治理具有極強的技術性,適合技術標準發揮作用。然而,要在快速的變化過程中找到穩定性與適應性的平衡點,這是算法規制所面臨的一個復雜挑戰。相較法律規范而言,標準制定的過程更為便捷高效,而且各種類型的標準可互相轉換,這有助于適應算法科技的多變性。此外,《算法推薦規定》已經明確提出了關于算法標識與算法備案等相關標準化建設的規則,開辟了一種新的實施路徑,也為其通過標準化方式推動算法透明提供了合法性依據[15]。

孤立地討論透明度無疑是有限的,倘若更清晰地將最佳實踐和標準結合起來,這樣就不需要特別依賴合作監管方法。對于算法問責制來說,透明度頂層設計的原則可以說是必要的,但還不夠全面,目前學界已經呼吁推動算法透明標準體系建設,進而落實算法透明。以標準化落實算法透明是未來發展的必然趨勢。

2 國外算法透明標準建構現狀

2.1 英國《算法透明度標準》解讀

2.1.1 算法透明的形式標準

2021年11月,英國內閣辦公廳中央數字與數據辦公室(簡稱CDDO)發布了名為《算法透明度標準》的新法規,旨在提高政府機構在利用算法技術協助制定策略時的公開性和透明度。該標準在形式上做出了細致規范,內容包括:算法透明度數據標準;算法透明度模板和指南。其中算法透明度數據標準以清單形式列明算法使用者應當填寫的內容和格式。算法透明度模板是算法透明應當公開內容的實例。指南是完成算法透明工作的流程指引。作為全球較早發布的算法透明度標準,《算法透明度標準》為公共部門保障算法透明度提供了具體指引。

2.1.2“以目的信息和技術信息為主要內容”的算法透明的實質標準

首先,在算法透明適用范圍方面,GDPR在某種程度上建立了一定程度的算法透明度。但仍然面臨適用性有限的質疑,因為它只適用于“完全基于自動處理的決定”。這可能意味著,即使存在最低限度的人為干預,數據主體的“解釋權”,以及GDPR第22(3)條的保障措施,都可能不適用。

然而,尚不清楚這種“解釋”是否應該為專門針對算法系統的功能,還是應該理解為影響決策的特定算法特征。此外,這些解釋涉及不同的領域。根據GDPR第13(2)(f)條和第14(2)(g)條,數據控制者有義務在自動決策活動開始之前主動通知數據主體。同時,第15(1)(h)條通過授予隨時訪問自動處理活動詳細信息的權利,引入了事后解釋。這些問題表明,算法透明度要求的簡單存在并不能確保其按照實際情況順利實施。

這是由于技術問題,以及其他可能影響對算法決策背后原因的有效理解的法律障礙。然而,《算法透明度標準》對適用范圍做出了創新性擴大,適用的算法第一類是與公眾直接互動的算法,即完全自動化算法,例如:聊天機器人;第二類是在技術規格、潛在公共影響和決策影響3個層面均滿足一定要求的算法。其次,《算法透明度標準》明確了具體的披露信息并且給出示例。計算機軟件作為著作權客體在判定侵權做實質性對比時,面對商業秘密的保護,不會披露源代碼,僅以目的性代碼作為對比,同樣算法透明不要求披露核心數據,但是理應做出相關算法公開。

《算法透明度標準》還在不斷更新,2023年,C D D O與C D E I聯合發布了《算法透明度記錄標準》,該標準是記錄和共享公共部門如何使用算法工具的標準化形式。其內容涵蓋了算法使用方式、算法工具負責主體、說明算法決策機制并對可能產生的風險及其潛在的影響進行分析等等。這一新規被視為國家數據發展策略的重要組成部分之一,有助于制定算法透明度的跨政府標準[16]。

2.2 歐盟與美國落實算法透明的情況

雖然歐盟《商業秘密保護指令》(以下簡稱《指令》)明確算法可以作為商業秘密進行保護,并且規定了披露義務,但是當GDPR明確規定的算法透明面對商業秘密抗辯時,《指令》并沒有提供公共機構做出披露算法商業秘密決定所應遵循的任何標準。換言之,當算法透明面對商業秘密挑戰時,不僅算法透明度的決定權在《指令》范圍之外,同時算法透明標準也沒有明確。歐洲議會研究服務機構發布了一份名為《算法問責及透明度監管框架》的報告,這份報告深入探討了算法應用對社會、科技以及監管方面的挑戰,提出了構建一種算法影響力的評價制度,以實現風險防范并在未來更好地管理算法的使用[17]。

2022年11月16日,歐盟委員會宣布《數字服務法案》生效。該法案采取算法問責和透明度審計等措施,要求在線平臺應當公開推薦活動所依據的算法參數,提高算法透明度。此外,為落實《數字服務法案》,歐盟委員會新成立了歐洲算法透明度中心(ECAT),ECAT為歐盟委員會在《算法服務法案》規定的超大在線平臺(vlop)和超大在線搜索引擎(vlose)系統的獨家監督和執行職責方面有義務提供科學和技術的相關專業知識,并針對算法風險評估提供新的透明度評估方法和最佳實踐路徑。

再觀美國,其以算法透明為問責制的前提,《算法問責法案》的規制對象幾乎覆蓋了美國所有的互聯網企業。在算法透明原則性規定的基礎上,進一步構建了算法影響性評估制度,明確對算法繼續審查和問責。根據規定,算法自動化決策透明化的程度應結合算法的具體運用場景、處理個人信息的內容等進行相應的風險評級,并根據風險等級來考慮透明度的具體形式。算法影響評估制度也可以看作是海倫·尼森鮑姆提出的場景公正(風險)理論(contextual integrity)的具體落實[18]。

美國鼓勵行業自治,以使企業能夠自主監控并闡釋他們的算法行為。依據算法問責法案,美國的算法責任制度主要依靠外部的專家團體、組織及大眾來監管與追責算法的行為。據此,Facebook于2018年創建了一個獨立的審查委員會,該委員會的憲章詳細說明了它的權限范圍。

3 完善以標準實現算法透明的路徑建議

3.1 以法律上的實質權利與標準相結合實現算法透明

在《網絡安全法》《個人信息保護法》以及《數據安全法》中,我們都可以看到法律借鑒了標準化的策略。當現代社會面臨新興技術挑戰,而立法決策又缺乏有效的參考時,這種創新的治理解決方案:通過法律和標準共同作用便可以提供相應的解決路徑。2020年,我國五部門聯合發布了《國家新一代人工智能標準體系建設指南》,指出要將算法模塊納入標準化規范,強調了標準在人工智能發展中的支撐和引領作用[19]。同時,國際標準化組織如:ISO、ITU、IEEE等也已經開始在人工智能交互、圖像處理、大數據等領域制定相關標準。

盡管國內學者積極倡導行業自我約束,期望通過設定相關準則如“算法透明公約”來推動行業內各方遵守相應的規則并實施算法透明化,但目前我們國家尚無關于算法標準的公開與聲明機制,網絡公司很少透露他們的算法標準。所以,以標準作為手段實現算法透明便不能回避標準的現實效力問題[5]。

首先,相較于英國《算法透明度標準》中標準既非質量標準,亦非強制標準,也不符合數據標準的要求的質疑,我國《標準化法》第27條的標準自我聲明公開制度便能回應這一質疑。其次,相較于法律所依賴的國家強制力,標準的運用更為靈活且易于執行。因此,我們可以把標準看作是詮釋法律法規的方式之一,比如:像微軟、亞馬遜和阿里這樣的國際企業,它們并沒有直接依據GDPR來構建自己的云基礎架構,而是實施了I S O針對GDPR所制定的ISO/ IEC 27701等標準。因此,我們需要將這兩者相互聯系并整合在一起,頂層設計法律保障,以標準為落實方式,使得算法透明實現具有可操作性。

3.2 完善本土化算法備案制度解決法律困境

2022年3月1日,《算法推薦規定》正式生效,提出了“算法備案”的新方案。與英國的《算法透明度標準》相比,算法備案制度也是一項有中國特色的算法透明度治理的新舉措。

《算法推薦規定》對算法備案制度的義務主體、應備案的算法技術、算法備案的內容、算法備案的公示、算法動態備案都進行了明確的規定,同時,該規定還創新性地規定了違規備案的行政法責任。

當前階段,我國正處在《算法推薦規定》實行的第一步,尚未形成一致性的執行規范。因此,算法公開信息的詳細與否完全由算法推薦服務提供者來決定?;谒惴ㄍ扑]服務者履行算法備案公示義務的標準和監管尺度,有必要在后續發展中進一步完善。

針對算法備案的義務主體,未來應當進一步擴大,可以借鑒美國對私營產業領域和公共政府領域算法的區別規制。相較于英國在《算法透明度標準》中針對的對象是公權力主體,我國算法備案的主體則是商事主體?!端惴ㄍ该鞫葮藴省丰槍χ黧w范圍擴大是必然趨勢,算法備案制度也亦然。未來對政府使用算法同樣實施算法備案制度,以加強算法的透明性和公眾接受度。

3.3 以場景化算法解釋克服技術障礙

在克服算法黑箱的技術障礙的方法中,我們可以借鑒域外的解決方案,適用于GDPR要求的局部解釋。通過對可能的輸入進行抽樣,計算出一個更簡單的局部模型,并用于確定輸入和輸出之間的相關性,以及推導出原始決策過程的主要因素。其主要思想是,即使一個算法非常復雜,總體上難以解釋,也有可能提供可靠和可理解的局部解釋。

此外,“黑箱”方法下的另一種解決辦法涉及反事實的解釋。此方法評估特定因素的變化如何影響輸出。例如:它可以用來評估一項決定的公平性,其依據是某一特定投入中的因素對該決定產生的影響。以這種方式提供解釋是可能的,而不需完全披露內部邏輯算法。從這個意義上說,暴露敏感數據和侵犯權利的風險會小一些。密碼學工具可能允許證明算法決策過程的屬性,而不會泄露決策策略的細節。這可能是挑戰自動生成結果可靠性的算法使用者的權利與算法所有者的利益之間的公平妥協,這樣一來,算法所有者就不必披露源代碼。

此外,算法解釋程度的不同也可以作為化解法律困境的一種方法,有限性解釋、強制性披露和鼓勵自愿披露將有助于確保商業秘密所有者和公眾的利益得到很好的平衡,并且只有在必要和相稱的情況下才對商業秘密的保護進行限制。

4 結 語

算法在數字經濟時代下被大肆應用,在某種程度上貌似跳脫了傳統法律的可控范圍,尤其在實踐中算法已經可作為商業秘密被保護,為其可能產生的風險提供了逃避法律問責的理由。算法透明作為規制算法濫用、化解算法風險的重要手段,也不得不面對商業秘密的抗辯,從而面對限制與保護的僵局,難以得到進一步落實來規訓算法權力,維護個人利益和社會公共利益。

解決之道不僅在于調和算法透明與商業秘密保護之間的微妙平衡,更應有可供落實操作的規則方式。為此,可以在借鑒國外經驗基礎上,借助標準手段,在形式上應用算法透明公開的標準模板,披露“以目的信息和技術信息為主要內容”的信息以保障公眾知情權,引入算法影響評估機制,分析算法風險,以此作為公眾使用前提。對于我國本土化的算法備案制度還可以在操作落實上進一步細化,統一執行標準并且擴大備案主體范圍。此外,對算法解釋框架進行系統性重構,可以遵循分類分級的整體布局個案分析下場景化適用不同解釋手段,進而實現總體的解釋效率和個案的解釋正義。

標準化路徑巧妙地在算法透明落實與商業秘密保護之間找到了平衡,在今后算法透明落實操作的規則設計中也可借助標準手段展開。

參考文獻

[1]梁志文. 論算法排他權:破除算法偏見的路徑選擇[J]. 政治與法律, 2020(08):94-106.

[2]深圳市中級人民法院民事判決書(2021)粵03民初 3843號民事判決書[Z].

[3]彭飛榮. 論算法作為商業秘密的侵權認定[J]. 浙江社會科學, 2023(06):47-56+157.

[4]柳經緯. 標準的類型劃分及其私法效力[J]. 現代法學,2020,42(02):157-170.

[5]衣俊霖. 數字孿生時代的法律與問責——通過技術標準透視算法黑箱[J]. 東方法學, 2021(04):77-92.

[6]夏慶鋒. 網絡合同中偽契約條款的排除[J]. 經貿法律評論, 2020(02):102-119.

[7]張凌寒. 算法自動化決策中的女性勞動者權益保障[J].婦女研究論叢, 2022(01):52-61.

[8]丁曉東. 基于信任的自動化決策:算法解釋權的原理反思與制度重構[J]. 中國法學, 2022(01):99-118.

[9]靳雨露. 算法披露的域外經驗與啟示[J]. 情報雜志, 2022,41(07):91-99.

[10]田野. 平臺用工算法規制的勞動法進路[J]. 當代法學,2022,36(05):133-144.

[11]李安. 算法透明與商業秘密的沖突及協調[J]. 電子知識產權, 2021(04):26-39.

[12]李曉輝. 算法商業秘密與算法正義[J]. 比較法研究, 2021(03):105-121.

[13]蘇宇. 算法解釋制度的體系化構建[J]. 東方法學, 2024(01):81-95.

[14]宋偉,劉子荷. 論算法黑箱的規制——基于算法解釋視角[J]. 南海法學, 2023,7(04):114-124.

[15]張韜略. 軟件源代碼強制披露制度建構的中國方案[J].東方法學, 2023(03):176-187.

[16]張欣. 算法影響評估制度的構建機理與中國方案[J]. 法商研究, 2021,38(02):102-115.

[17]崔文波,張濤,馬海群,等. 歐盟數據與算法安全治理:特征與啟示[J]. 信息資源管理學報, 2023,13(02):30-41.

[18]Helen Nissenbaum. Privacy as contextual integrity[J].Washington Law Review, 2004,79(1): 119-158.

[19]彭飛榮. 論算法創作中涉數據的著作權侵權風險及其化解[J]. 法律適用, 2023(04):46-55.

猜你喜歡
標準
2022 年3 月實施的工程建設標準
忠誠的標準
標準匯編
美還是丑?
你可能還在被不靠譜的對比度標準忽悠
一家之言:新標準將解決快遞業“成長中的煩惱”
2015年9月新到標準清單
標準觀察
標準觀察
標準觀察
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合