?

論算法權力異化的法律規制

2023-01-10 12:33曲天明陳慧婷
關鍵詞:規制個人信息權力

○ 曲天明,陳慧婷

(青島科技大學 法學院,山東 青島 266061)

一、問題的提出

隨著大數據和人工智能技術的廣泛應用,算法正以一種悄然又迅速的方式滲透到人們的日常生活之中,甚至是無處不在。在商業領域里,企業可憑借其掌握的數據和算法技術優勢既可對消費者提供個性化服務及信息推送,也可借助大數據及算法及時調整經營戰略方式,在避免自身受到損失的同時促進市場經濟的良好發展。例如,新冠肺炎疫情防控期間,淘寶、京東、美團等平臺與超市合作,為用戶提供個人用品和蔬菜水果等上門送貨服務,解決了菜農的銷售困難和超市經營不善的問題,對我國經濟在此期間的發展有所助益。在公權力領域,算法通過對居民信息的合理收集使用,不但能夠為政府科學制定相關政策提供技術支持,還能夠在重大公共事件發生時利用算法助力公共秩序的維護。例如,政府在新冠肺炎疫情防控期間利用算法查詢患者的運行軌跡,從而確認傳染源和傳染范圍,為疫情防治提供了保障??梢?,無處不在的算法具有便利生活、提高效率、促進經濟發展、維護社會秩序的積極功能。

算法代表著影響和控制。從技術層面上看,算法被認為是中立、公正的,但隨著算法技術的不斷發展,越來越多的學者意識到,算法蘊含價值判斷和價值立場[1]。實際上,算法設計者和使用者會將其自身的價值理念和目的代入算法之中,使算法成為符合其要求的工具,進而通過算法加強對其他主體的影響和控制。從法學視角看,算法由此形成了 “算法權力” 一說。持此觀點的學者認為算法權力未脫離傳統權力的概念,代表的是一種社會關系,是某個主體憑借自身擁有的資源對他人形成一種強制性的控制力[2]。但學術界也有種觀點認為,算法不是權力,而是在社會運行中發揮作用的工具[3]。誠然,從技術層面看,算法不能產生 “權力” 。但在社會關系中,權力是通過支配受體實現主體意志而形成的,具有天然的 “支配力” ,而算法就是借助其技術優勢并在社會各個領域行使其支配力。正如有學者所言,算法 “在微觀層面上引導、支配著人的認知模式和行為方式,在宏觀層面上控制著社會運行方式?!盵4]因此,只要具備數據信息和算法技術優勢地位的主體都有可能成為算法權力的主體。算法權力主體可分為公權力主體和私權利主體。其中,公權力主體除了可以利用算法權力進行社會治理外,還可能會出現過度收集使用個人數據信息、侵犯公民隱私權以及借算法推卸自身責任等情形。同理,作為私權利主體的企業,在使算法便利消費者的同時,也會出現故意制造信息繭房、數據殺熟等現象,侵犯公民個人數據權力。因而,算法權力若被濫用會帶來一系列危害后果,算法權力需要被規制。目前我國尚不存在兼具針對性和可操作性的算法規制法律,企業也未形成算法行業自律,需要公權力對算法權力進行監管。對此,有學者提出個人數據賦權、算法公開等一系列規制措施[5],然而,這些措施存在規制層次單一的問題。因此,本文擬通過對算法權力的表現形式及其在應用中異化現象的分析和闡釋,探討我國算法規制的現狀和不足,以及算法權力規制的可能進路,希望在利用好 “算法紅利” 的同時,能夠防止算法權力異化帶來的風險,為引導并促進算法技術的有序發展提供參考。

二、算法權力應用中的異化

權力雖在政治學中被解釋為是一種關系,但卻是以一種單方行為而影響他人的一種能力。超級智能算法技術被深度嵌入社會的運行之中,并對個人產生影響,因而具有了權力的效果。算法權力同樣具備傳統權力的強制性、穩定性特征。兩者不同的是,傳統權力具有顯性特征,而算法權力具有隱蔽性特征。算法權力的隱蔽性是通過算法應用而表現出來的,具體為計算機代碼,另外就是企業基于營利目的對算法所進行的加密處理。由此衍生出算法權力還具有預測性和歧視性的特點。算法技術的目的就是通過大數據的分析,前瞻性地預判被動主體的選擇,且這種預測極其精準。而企業正是通過利用算法權力,反向對個人數據信息進行篩選而產生歧視性。因此,如果算法權力被異化,就會不同程度地損害公眾權益,違背公平、正義等法律原則。

(一)算法權力的隱蔽性侵害了公眾的知情權和自主選擇權

算法權力作為一種新型權力形態,具有復雜的技術性表象,此表象會使權力的強制性特征得以隱藏[6]。在私權利領域,算法權力逐漸成為企業自身商業秘密的一部分,誰擁有更先進和精準的算法技術,誰就能夠實現利益最大化,換言之,誰就具有了同業競爭的顯著優勢?;诖?,作為以營利為目的的企業,披露算法不但不利于其自身利益的實現,甚至會導致商業秘密的泄露而喪失競爭優勢,披露成本和所獲利益不成正比,因此披露算法不會成為企業的主動追求;即使企業出于某些原因披露算法,也會因披露方式的不正確以及相對人對算法知識儲備的不足,而致使相對人無法識別有損害自身權益的行為,算法黑洞便由此形成,并會成為企業規避法律責任的借口。因此,算法權力主體和相對人存在極大的信息不對稱,而企業也正是憑借這種信息不對稱的優勢損害了公眾的知情權和自主選擇權。例如,近些年出現的大數據 “殺熟” 現象,就是企業針對不同消費者采取不同定價,即通過表面上的明碼標價,但實際并非是真實價格的做法侵犯了消費者的知情權。在自主選擇權方面,即便人是決策的主體,但很多時候,算法本身也存在不為人所控制且無法解釋的邏輯黑洞。此時,機器往往會取代人成為決策的主體,潛在地侵犯人們的自主選擇權,從而強化算法相對人的弱勢地位,加劇算法控制者和相對方利益格局的失衡。

(二)算法權力的預測性妨礙了自由正義的實現

算法權力的預測性主要體現在以下三個方面:一是體現在社會公共領域。算法是以數據為依托而進行個體的喜好預測。當它用于用戶搜索時,會針對不同個體而采取不同的推送內容,雖美其名曰是進行個性化推薦,但實際上卻是將用戶限制在一個巨大的 “信息繭房” 中。因此,用戶所能搜索到的 “信息” ,不過是經過算法 “精心挑選” 后而呈現出來的。而不具有中立性、廣泛性和隨機性的信息,會使公眾接受的信息渠道變窄,長此下去,用戶會喪失獨立思考和反思自身的能力,個體自由也就難以得到真正的實現。具體到外賣行業,例如美團餓了么等企業會利用算法對外賣小哥的送餐時間進行預測調整,以提高送餐效率。但實際上,送餐人員為了縮短送餐時間可能會采取闖紅燈、逆行等錯誤方式,這就使得算法所收集到的路程時間變短,而算法就會默認此時間是充裕的,進而將送餐時間逐步壓縮。而根據外賣行業的行業規律,送餐人員往往會形成一種極力縮短送餐時間的不良競爭,無形中會加速形成一種惡性循環,嚴重威脅送餐人員的生命安全,從而違背社會保障人權的正義理念。二是體現在司法領域。算法權力的預測性同樣也存在違背正義價值的表現。如美國部分法院在司法審判過程中所采用的犯罪風險智能評估系統COMPAS,將黑人具有高犯罪風險的概率錯誤地評估為是白人的兩倍,因此在犯罪情節相似的情況下,黑人罪犯更有可能因系統的預測而被法官判處更重的刑罰[7],嚴重地違背法律的正義價值。三是在案件預測應用中發揮著重要作用。目前,我國各地法院開展 “類案類判” 的改革試點,就是依賴于算法權力來實現的。但是,算法權力只能機械地通過前期的 “要素” 提取后的 “認知” ,對已上網的裁判文書進行歸類,形成 “類案” 判決的相對一致。因為存在 “數字孤島” 或者 “數字鴻溝” ,有些 “類案” 中影響判決結果的關鍵要素被忽略,所以算法權力對案件的預測不可避免地出現缺乏公平的現象??梢娝惴嗔Φ念A測性在實際應用中因受到數據以及算法本身漏洞的影響,而使得預測結果并不具有科學性,甚至會妨礙自由正義的實現。

(三)算法權力的歧視性違背了平等和公平原則

有人認為,算法的技術特征使得算法始終處于中立地位,算法能夠最大限度地維護公正,但實際上,算法暗含偏見,甚至會放大偏見[8]。一方面,算法是由人設計的,設計者在算法設計時必然會將自身價值取向帶入。例如,商業算法的任務是最大限度地促進交易的達成以追求企業利益最大化,而不是為用戶提供更好的服務產品[9]。因此,在企業和消費者的天平上,企業算法必定是傾向企業一方而非保持中立,絕對的公平是無法實現的。但企業的某些做法實質上會違反平等和公平原則。例如,企業為了收集個人數據,向用戶提供用戶協議等格式合同,使得消費者被迫接受算法的規制而承擔不利后果,出現消費者被大數據 “殺熟” 的現象,而此現象就是算法權力歧視性的一種表現。算法歧視在除了商業領域外的其他領域均有體現,前文提到的COMPAS系統,是司法領域中歧視的表現,而某些企業設置的不符合《中華人民共和國勞動法》標準的錄用門檻,就是就業領域中算法權力歧視性的體現。

平等的內涵隨著時代的變遷而不斷變化?,F代社會的平等指的是一種全面的、綜合的平等,既強調基于民主權利的政治平等,也強調經濟資源和社會福利的平等,還包括機會平等和能力平等[10]。而算法權力則產生了一種新的基于知識獲取的不平等,即 “信息不對稱” ,進而導致了信息地位上的不平等,這不但會影響處于信息弱勢地位者的認知能力,使之判斷能力出現偏差或降低,而且會不斷加劇這種不平等,違背了平等公平等價值理念。因此,為使使算法技術服務于社會,規制算法權力勢在必行。

三、我國現行法律對算法權力的規制

(一)現存法律規制缺乏針對性和可操作性

我國目前涉及算法和數據規制問題的法律總結見表1。

表1 我國算法和數據信息法律規制現狀

由表1可以看出,我國針對個人信息保護問題作出了較大努力,對算法權力也起到了一定的規制作用,但還是存在針對性和操作性不強的問題。首先,原則性規定較多。例如在數據收集上,法律規定了合目的性、最小范圍等原則,但如何準確界定范圍和合目的性是實踐中需要面對的問題。其次,涵蓋的范圍極為廣泛。算法權力涉及個人信息收集、價格定價以及算法技術設計等眾多方面,目前我國雖針對個人信息以及價格定價設置了專門法律加以規制,但依舊存在法條表述模糊、適用性不強等問題。例如,《中華人民共和國價格法》看似可以針對大數據 “殺熟” 問題進行規制,但所描述的價格歧視行為對象為 “經營者” ,因此消費者是否可以納入保護對象不得而知;企業的算法權力可能涉及行業壟斷,但《中華人民共和國反壟斷法》規定壟斷行為成立的前提是企業具有市場支配地位,這在實務中的判定十分復雜,且某些小企業在不成立壟斷的前提下其行為依然會損害消費者的利益,無法用《中華人民共和國反壟斷法》進行規制??梢姮F存法律針對算法權力規制的可操作性不強。再次,針對算法的立法規制缺乏。我國雖然針對個人信息保護制定了較為完善的法律,但針對算法問題專門性的法律法規卻鮮有涉及,這會導致算法憑借其本身的技術性優勢逃避法律規制,無法起到正確引導算法行業發展的作用。而一部專門性的法律法規,不僅能夠為算法權力的規制提供法律依據,最重要的還能通過立法體現國家意志在此問題上的傾向性[11]。最后,相關立法涉及法律部門眾多。當發生算法權力主體利用算法侵害相對人權益的行為時,常常因為法律位階、監管主體混雜,而出現責任分工不明確,部門之間產生相互推諉的 “踢皮球” 現象。

(二)新方式規制層次單一

針對算法權力的規制問題,學者們提出了算法公開、個人數據賦權、反算法歧視等措施[12],雖能夠對算法權力起到一定程度的規制作用,但總體上存在規制層次單一的問題,即沒有將具體的情形進行區分,而是一概而論進行規制,從而導致算法優勢無法得到充分發揮。

首先,主張算法公開的學者認為,應當將算法的架構及運行機理向公眾公開,以防止 “算法黑箱” 的出現。但 “算法黑箱” 并非是人為因素導致,而是由算法的技術性特征所導致[13]。因為公開算法的源代碼或架構并不能起到規制作用,且算法技術具有極強的復雜性,專業人員對算法的邏輯運行尚存在不理解之處,普通人受制于專業知識水平的制約,更加無法對算法加以理解。所以,單純的算法公開對算法權力的規制無實際意義,而且不加區分的算法公開還會導致知識產權侵權和算法抄襲的問題而妨礙算法行業的健康發展。其次,持個人數據賦權、反算法歧視的研究者認為,應當禁止利用算法中的身份因素,以消除一切身份偏見。但實際上,禁止運用身份因素,不一定會實現身份平等,因為某些情況下歧視的發生不只是算法本身的原因,而是普遍隱含在社會規范之中。此外,很多帶有身份因素的 “歧視” 并不是真正意義上的歧視,而是一種信息的統計區分,是面對信息匱乏情況下的一種理性篩選。這種群體區分對市場正常運行與社會規范建構具有一定意義[14]。因此,帶有身份因素的數據作為一種篩選依據,不但能夠為相關決策者提供參考,還能提高決策的科學性和效率性,從而避免無依據篩選所帶來的不公。

由此可見,算法應用的不同領域、架構和場景需要不同層次的規制力度與個性化的制度設計[15],而不是將所有規制手段一概而論地適用所有場景。

四、算法權力規制的可能進路

(一)從個人信息保護角度規制算法權力

1.個人信息賦權區分場景和對象

個人信息的收集利用存在于不同領域之中,不同領域的個人信息收集有著不同的功能和弊端,因此對個人信息賦權的類型與強度要區分不同的場景與對象。具體來說,如果數據信息的收集利用有利于個體或者公共利益,那么就應當放松對相關數據收集者權力的限制;反之,如果數據的收集利用是單純用于對個體的支配,則應當對數據收集者的權力作出嚴格限制[14]。例如,新冠肺炎疫情期間政府部門根據所收集的民眾的行動軌跡和身體健康數據制定疫情防控措施,目的是維護公共利益。在國家扶貧實踐中,扶貧主體利用相關數據對真正貧困人群實施精準扶貧,同樣也是維護個體和公共利益。因此,此種情況就要放寬甚至免除信息收集者的權力限制。但如果是某些網絡平臺利用用戶信息向用戶推送低俗信息或者進行數據 “殺熟” 等行為,則應當最大限度賦予用戶信息權,限制數據收集者不合理利用數據的行為。這就要求相關部門加強對大數據 “殺熟” 行為的監管,使之與個人信息保護相協調。

2.信息保護和算法規制相結合

個人信息實際上是數據的來源,保障個人信息權力在一定程度上能夠控制對數據的收集利用。數據又是算法的一大支撐,因此,從規制數據作為規制算法的出發點不失為一種良策。我國近幾年對于個人信息保護問題關注密切,在2021年8月20日表決通過的《中華人民共和國個人信息保護法》將《中華人民共和國民法典》《中華人民共和國網絡安全法》《中華人民共和國刑法》等法律中關于個人信息保護的規定銜接起來,形成了民事、行政和刑事三個層次的法律責任配置,是我國在個人信息保護上邁出的具有重大意義的一步。筆者認為,在個人數據保護的基礎上要注重個人數據與算法權力規制相結合,因為單純的數據信息不會導致個人權利的侵害,只有數據結合算法才會產生相應的風險,所以不僅要針對數據收集進行規制,還要更加關注數據的利用,將規制方向朝數據利用偏移。具體來說,要加強算法在數據利用方面的限制,在總體上需遵循公平正義自由、維護公民基本權利的價值理念,并在此基礎上設置專門針對算法程序的法律法規,使數據的利用合法化、合理化和科學化。

3.完善數據退出機制

《中華人民共和國個人信息保護法》中規定了信息處理者必須在取得個人同意的前提下處理個人信息,個人有權限制或者拒絕他人對自己的信息進行處理。此條文對應了實踐中的 “知情同意” 原則。比如應用軟件使用前會和用戶簽訂服務協議,并向用戶征求各種應用的使用權限,若用戶同意,軟件可以正常使用,同時系統也會默認用戶知情并同意記錄搜集本人的相關數據信息;若用戶不同意,此軟件則無法使用。這實際上是企業利用算法權力對知情同意原則的一種架空,違背了自愿公平原則。因此,在算法權力如此盛行的今天,必須要對公民個人的信息權力和信息處理者的義務進行細化,要完善數據的退出機制。例如,個人有權決定選擇無數據服務,法律可以要求搜索引擎明確告知其用戶要受算法約束,并向用戶解釋算法如何過濾搜索結果,指定算法考慮的數據點及其意義,并通過設置數據使用和拒絕數據使用兩個模塊供用戶自我選擇,允許用戶可以隨時切換。其中,選擇和切換的行為就代表用戶的知情同意。同時,在搜索主頁和結果頁面上增加顯示搜索過濾選項[14]。

(二)從完善算法責任角度規制算法權力

1.嚴格限制算法應用場景和范圍

算法憑借其技術和邏輯的嚴密性,能夠對海量數據進行篩選提取,在保證效率的同時得到主體想要的數據或達到自身追求的價值目的。但實際上,算法在某些領域中的任意應用極易出現嚴重損害人權等無法挽回的后果。例如,在法律領域,若憑借算法對罪犯進行風險預測而決定對其量刑幅度,則無疑違背了罪刑法定原則。因此,算法應用的場景范圍需要進行嚴格限定,在法律以及其他關涉人身權益的重大領域中,必須保證人作為實質決策的主體和地位。雖然算法權力具有預測性,可以憑借已有的數據進行行為的預測,并制定規制方案,但此預測性算法決策需要被限制。因為預測性算法的決策過程只依賴數據與推斷結果之間的相關性,而這種相關性本身就是一種人為構建的認知模式,而且僅為認知方法中的一種,整個預測過程可能會忽略其他眾多社會、文化及偶然性的因素,從而會造成用實然推斷應然,以過去判斷未來的謬誤[16]。

2.堅持算法正當程序原則

算法需要正當程序加以規制,才能防止算法濫用。首先,正當程序的核心要求就是 “公開” ,因此堅持算法正當程序也就要求算法的公開,這也是增加算法透明度的要求。但公開必須是有意義和有特定指向的公開,即以信息主體為中心,盡可能采取普通人可以理解的方式,注重解釋算法的運行、改變,以及如何對信息主體產生影響、會產生怎樣的影響[17]。其次,要針對不同情形實施不同程度的算法公開要求,注重靈活性與科學性。例如,公權力機關利用算法實施的行為關涉公民以及社會重大利益,因此應當以公開為原則,不公開為例外。商業領域中企業的算法因牽扯到知識產權保護等問題,可以不采取主動公開原則,但相關部門應當加大對企業的算法監管審查,一旦出現濫用算法權力問題要及時進行懲處;當消費者發現企業實施數據 “殺熟” 行為時,也可要求企業進行算法公開以保護自身利益。此外, “算法黑箱” 可能會導致算法無法按照傳統正當程序公開的要求進行公開,此時,應采用結果倒推過程的辦法,若結果違反了大多數人的公平正義價值理念,則代表其程序是不正當的。因此在算法領域,應當將公平正義、人類尊嚴等基本價值理念作為檢驗算法權力是否正當的底線標準,不能讓 “算法黑箱” 成為危害社會的 “擋箭牌” 。

3.實施多元治理,注重算法問責

算法的應用涉及算法制定、實施、驗證修改以及監督等眾多領域。因此,要實現算法的可持續發展需要整合社會多方力量,以形成立體的協同合作體系來助力算法的演進[18]。具體來說,政府、專家、企業和社會公眾應當共同參與到算法權力治理中來,政府要起引領帶頭作用,創建研究算法相關的咨詢機構或處理人工智能問題的專業組織[8],設置專業監管部門,并通過專業力量打破技術不平衡現象,助力對算法權力的規制;專家學者可以從技術領域改進算法,增強算法邏輯嚴密性,減少 “算法黑洞” 的發生;企業應當堅守底線原則,杜絕利用算法侵犯消費者權益;社會公眾可通過多種途徑學習基本算法常識,當發現相關主體有濫用算法權力的行為時,及時向監管部門反映。另外,也可以通過行業協會制定相關倫理規則以及設置第三方獨立監管機構等方式加強對算法權力的監管。

算法權力具有強大的控制力和影響力,算法的權力應當與責任相匹配,權力大則責任重。因此,應通過針對算法規制的相關法律的制定,將算法責任的主體、問責標準以及責任承擔等問題通過法律的形式規定出來,為算法權力的規制提供科學、具體,又具備可操作性的依據。

猜你喜歡
規制個人信息權力
防范電信網絡詐騙要做好個人信息保護
個人信息保護進入“法時代”
主動退市規制的德國經驗與啟示
主題語境九:個人信息(1)
警惕個人信息泄露
不如叫《權力的兒戲》
共享經濟下網約車規制問題的思考
淺談虛假廣告的法律規制
權力的網絡
與權力走得太近,終走向不歸路
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合