?

個性化推薦算法的法律風險規制

2024-02-17 05:13謝永江楊永興
理論縱橫 2024年1期
關鍵詞:個性化原則用戶

謝永江 楊永興 劉 濤

(北京郵電大學 互聯網治理與法律研究中心,北京 100876)

隨著大數據、人工智能等互聯網技術的深入發展,個性化推薦算法被廣泛應用于電子商務、短視頻、新聞報道等各種互聯網信息服務交互場景中。所謂個性化推薦算法,是指一種基于用戶行為、興趣和偏好的推薦技術,用于向用戶推薦相關的產品或服務信息。簡而言之,就是根據用戶的興趣特點推薦其感興趣的對象或活動信息。早在1995 年美國的宇宙導航系統就應用了個性化推薦;2009 年,我國電子商務平臺開始引入個性化推薦算法[1]。個性化推薦算法的出現,不但解決了信息過載與長尾問題,而且促進了信息內容與網絡用戶需求的精準匹配,在滿足用戶個性化需求的同時,大大提升了互聯網信息服務的效率。然而個性化推薦算法并非有百利而無一害,它在應用過程中產生了侵犯用戶隱私、妨礙用戶意思自治、制造信息繭房和算法歧視等法律風險。本文擬從個性化推薦算法技術本身著手,分析其應用過程中產生的法律風險,并嘗試提出規制個性化推薦算法的對策建議。

一、個性化推薦算法的類型

在大數據時代,如何從井噴式的數據信息中實現精準檢索和推送,是互聯網信息服務業所面臨的主要挑戰。據亞馬遜公司調研,在其網站購物的客戶絕大多數具有不確定性的需求,而具有明確購買意向的用戶僅僅占比16%[2]。如果網站能夠將滿足用戶不確定需求的商品從海量的商品信息中精準地推送至用戶,則可能會極大地促進潛在用戶的消費,從而拉動平臺的消費增長。為了滿足用戶和平臺的上述需求,針對用戶特征的個性化推薦算法應運而生,并被廣泛應用于電子商務、新聞媒體和娛樂等領域。

根據個性化推薦算法技術路線的不同,可以將個性化推薦算法分為混合推薦(Hybird Recommendation)、基于社交網絡的推薦(Social networksbased Recommendation)、基于內容的推薦(Content-based Recommendation)和協同過濾的推薦算法(Collaborative Filtering based Recommendation)四種類型。

(一) 基于內容的推薦算法

基于內容的推薦算法是最為基礎的一種推薦技術,其運行模式為:首先,需要收集用戶在平臺的歷史信息,并采用分類算法對用戶的偏好信息進行分類,同時對用戶進行心理畫像。其次,利用算法對目標產品的特征進行提取。最后,比較分析用戶的偏好模型與產品特征,將其中相似度最高的產品推薦給用戶[3]。

(二) 協同過濾的推薦算法

協同過濾的推薦算法是個性化推薦算法中應用最廣泛、最成功的算法技術之一。該算法主要研究用戶與用戶之間的關系,其在程序中預設具有相似興趣愛好的用戶會偏好相似的物品,或者用戶對具有相似特征的物品表現出相似的喜好程度[4]。協同過濾推薦算法的運行邏輯為:首先,推薦系統收集平臺內多個用戶的數據信息,分析計算用戶的偏好,通過計算發現:A 用戶偏好產品甲、乙和??;B 用戶偏好產品丙;C 用戶偏好產品甲和乙。其次,推薦系統通過算法計算分析產品對于用戶的功能性價值,發現A 用戶與C 用戶的偏好相似值更接近,然后A 用戶喜愛的產品比C 用戶多出個產品丁,進而推薦系統估算C 用戶對產品丁的喜愛可能性更大,進而將產品丁推薦給C 用戶[5]。

(三) 基于社交網絡的推薦算法

隨著虛擬現實技術的快速發展,諸多線下活動出于成本等的考慮也逐漸轉移到線上開展,同時也促進了各種社交軟件的廣泛應用。不同地域、不同背景、不同行業的人們利用社交軟件形成強大的社交網絡,使得社交網絡成為個性化推薦算法領域的應用熱點?;谏缃痪W絡的推薦算法的運行邏輯為:首先,將社交軟件用戶的信息搜集起來,包括用戶的通訊錄、軟件里的用戶朋友圈等好友信息;進而分析計算用戶的興趣愛好;最后向用戶推薦產品,且所推薦的產品大多是自己好友所喜歡與關注的產品[6]??梢?,該算法的心理基礎是預設人們通常會根據好友的推薦來選購商品。

(四) 混合推薦算法

混合推薦算法主要對不同類型的推薦算法的結合使用。例如,有的平臺結合選用基于內容和基于社交網絡的推薦算法,而有的平臺會綜合應用協同過濾與基于內容的推薦算法等?;旌贤扑]算法由于可以將不同類型的推薦算法結合在一塊,彌補彼此之間的缺點,因而受到諸多平臺的喜愛。

綜上可見,個性化推薦算法主要是通過兩個步驟來完成推薦任務:第一步“挖掘行為”,即挖掘用戶信息并進行心理畫像;第二步 “推薦行為”,即根據用戶心理畫像所體現出的偏好,從而實施個性化推薦。但無論是“挖掘行為”還是“推薦行為”均可能被濫用,產生各類法律風險。

二、個性化推薦算法的法律風險

(一) 侵犯隱私權

個性化推薦算法需要大數據支持,特別是與特定個人偏好相關的數據,個人偏好數據往往與個人隱私息息相關,如果未經用戶同意進行搜集和使用,則可能侵犯個人隱私權。比如在“朱某訴百度隱私權糾紛案”中,原告朱某主張被告百度未經其明確同意,擅自搜集其在百度搜索引擎中的歷史信息,并向其推送相關廣告,謀取商業利益,屬于隱私侵權行為,進而主張損害賠償①參見江蘇省南京市中級人民法院(2014)寧民終5028 號判決書。該案一審判決認為百度的個性化推薦行為構成對原告隱私權的侵犯,而二審則推翻了一審判決,認定被告的推薦行為不構成隱私侵權。

在訴訟中,百度主張其所搜集的僅是網絡碎片化信息,根本不可能直接識別原告;其搜集的信息并未向任何人公開,且用戶主動登錄的網絡空間不屬于私人領域;百度提供了Cookies 選擇退出機制,并在“隱私權保護聲明”中作出說明,已經保障了原告的知情權和選擇權。

如果從個性化推薦的角度看,百度的上述理由恐難以成立。首先,個性化推薦服務是由一系列程序支持完成,而程序是由算法和數據構成[7],僅僅憑借Cookies 技術搜集用戶信息,離開算法的計算分析、用戶畫像,則根本不可能完成個性化推薦服務。其次,即便用戶允許平臺使用Cookies 技術搜集個人信息,但并不意味著用戶允許平臺利用算法搜集、分析、計算用戶信息。第三,盡管用戶選擇刪除Cookies 技術所存儲的瀏覽記錄,或者用戶改用不同瀏覽器訪問相同的網站,而被訪問網站的算法仍然可以繼續追蹤和收集用戶的個人信息[8]。第四,雖然百度搜集的是用戶的碎片化信息,但是平臺通過算法將諸多碎片化信息進行聚合形成用戶畫像,仍然可以識別到現實生活中的網絡用戶。最后,百度稱用戶主動登錄的網絡空間不屬于私人領域,但在網絡公共空間中同樣需要保護個人信息和個人隱私。用戶進入網絡空間并不意味著放棄個人信息權利和隱私權,仍然有隱私保護期待,這也是國家出臺《個人信息保護法》(以下簡稱《個保法》)的意義所在。

可見,傳統隱私權保護框架在算法時代面臨著巨大的挑戰。平臺利用個性化推薦算法大量搜集用戶的網絡歷史信息,而這些信息蘊含著當事人教育、家庭、職業、生活等諸多方面的豐富細節。例如,用戶在網絡平臺中搜索有關病例、藥品等信息,雖未直接暴露其私人健康、私人基因等私密信息,但是平臺利用算法全維度收集碎片化信息進行用戶畫像,則可以在很大程度上還原出用戶的真實情況。如果對平臺收集用戶信息的行為不加以限制,個性化推薦算法將為信息監控提供便利,甚至成為大規模遠程監控的工具[9],讓用戶深陷算法、數據、算力等數字力量構架的數字“圓形監獄”,個人隱私空間逐漸趨于透明[10],用戶對個人隱私的控制力被消解。

(二) 干擾用戶意思自治

個性化推薦算法正以潛移默化的方式影響用戶的選擇自由,干擾用戶意思自主的形成,妨礙用戶意思自治。積極強化和間接建議是影響個人或者群體行為和決策的有效方式。經濟學者泰勒與法學者桑斯坦基于助推理論提出“Nudge(輕推)”概念,意即不妨礙用戶自由選擇的前提下,引導用戶選擇特定的選項。例如,盡管青少年更喜歡甜品、漢堡等高熱量食物,但當學校食堂將蔬菜、水果等更健康的食物擺放在近前時,學生也更傾向于拿取健康食物[11]。在算法時代,算法使用人借助HTTP Cookie、Flash Cookie、Ever Cookie、Fingerprinting 等技術以及智能語音助手等設備,大規模地收集用戶的個人信息,并基于這些信息進行用戶心理畫像,通過算法計算分析出用戶的興趣愛好,進而有針對性地精準推送,誘導用戶做出選擇??梢?,個性化推薦算法在引誘用戶做出選擇方面與“輕推”相比,能獲得更好的效果,因而也被學者稱為“Hypernudge(超輕推)”[12]。實踐中,近期流行的微信小游戲“某羊”通過算法收集游戲玩家在微信上留存的信息,借此進行用戶畫像,當游戲玩家通關失敗需要復活時,便向用戶推送個性化的廣告誘導用戶進入其“金主”的領域內購買商品或服務,就是算法“助推”的典型應用。

助推理論揭示了一個真相,即可以通過塑造環境來影響個人選擇。由此可見,雖然平臺未直接迫使用戶做出選擇,但是個性化推薦算法已然干擾到用戶意思自主的形成。因為由算力、算法、數據構成的環境在網絡空間中具有很重要的規制作用,無論用戶是否意識到環境架構的存在,均能發生作用[10]51,致使用戶最終做出的選擇并非出自其內心的真實意思。

(三) 信息繭房

所謂信息繭房,是指人們只關注自己感興趣的或者令自己身心愉快的信息,長此以往將自己深陷信息孤島的現象[13]。個性化推薦算法是一種信息過濾與分發的工具。人們越是對某類觀點表示贊同、進行收藏、點擊喜歡,個性化推薦算法便愈發向其推送同質性的內容,而與用戶觀點相左的聲音已被過濾掉,故帕利瑟在一次演講中稱其為“過濾泡泡”[14]。顯然,推薦算法正消融傳統的信息分發方式,通過算法賦權重塑了平臺和用戶之間的權力話語體系[15],使得信息繭房問題變得愈發嚴重,讓用戶深陷令其愉悅的信息繭房中。當信息繭房一旦形成,便使用戶禁錮在閉環的信息視野里,極易造成認知偏差、刻板印象、群體極化[16]。

其實,用戶的行為邏輯并非是一勞永逸地以線性方式遵循過去的行為方式一直走下去,有時用戶還會因為手滑而對某種內容誤贊或收藏,而算法對此種并非用戶內心真實意思的表示行為無從知曉或故意忽略,一味地依據用戶過去的興趣愛好進行內容分發。推薦算法之所以如此設計,源于流量競爭和商業利益至上。然而,互聯網信息服務不應以一味取悅用戶為目標,其本身還應承載著啟發民智、保障公民知情權等價值期許。

公眾有權利知悉與其切身利益密切相關的信息,上到國家政務下到街口小道,但基于用戶興趣愛好的單一推薦算法使得用戶深陷自己感興趣的信息繭房中,而對其他領域中關涉其利益的信息缺乏必要的了解,使其誤認為現實世界的真相就是如此,從而間接地減損了其對外界事情的知情權[17]。因為在大多數情況下,用戶對于平臺何時、如何、怎樣收集其在網絡中留痕的個人信息處于一種“不知曉”的狀態。即便用戶知情允許平臺收集其個人信息,其對算法如何處理其個人信息,如何完成個性化推薦往往也是渾然不知?!八惴ê谙洹痹斐闪藝乐氐男畔⒉粚ΨQ,干擾用戶對真實世界的認知,不斷侵蝕用戶的知情權。

(四) 算法歧視

所謂歧視,意即沒有合理根據而實施區別對待,這意味著不平等和非正義。個性化推薦算法的邏輯會生成針對特殊個體的個性化規則,這種規則會突破一般的法律秩序,產生“馬太效應”,進而侵害個體的平等權,應當引起法學界的關注[18]。學者[19]研究了個性化推薦廣告與求職者性別之間的關系,發現谷歌推薦算法推薦給男性求職者高薪職位的次數遠遠高于女性。還有些商家通過算法搜集、匯總、分析用戶的個人信息并進行用戶畫像,從而得到消費者最大支付意愿信息,以千人千價的方式向不同的用戶推送相同的產品,形成了違反公平交易原則的價格歧視。

算法歧視的形成邏輯與傳統社會中的歧視具有高度同源性。任何一種社會均普遍存在歧視現象,歧視并非是算法技術應用所帶來的“特產”。雖然個性化推薦由算法完成,然而算法卻是由人這個主體所設計。不同主體對相同事物會形成不同的看法,基于人的主觀性因素,算法設計者不可避免地會自覺不自覺將自身的主觀偏見帶入到算法設計過程中,從而導致歧視性結果的發生。

如前所述,僅僅憑借算法而沒有數據的加持,平臺根本不可能完成個性化推薦。因為算法是機器學習的核心,而機器學習離不開對數據的收集、匯總與分析;如果將帶有歧視性的數據輸入算法模型中,那么同樣會導致“偏見進,偏見出”的現象。隨著人工智能神經網絡、機器深度學習等技術的發展,算法正朝著自主化、脫離人控制的趨勢運行。即便是算法模型的最初設計者,也很難預知算法會做出什么樣的決策。因此,機器學習很容易模仿人類偏見的生成邏輯,從而導致歧視的發生。算法歧視不僅侵害了公民平等權等基本權利,而且還導致不同群體間的信息資源分配不公,進一步擴大數字鴻溝,而深陷信息資源分配不公地帶的群體,在數字經濟時代正逐漸陷入“數字貧困”狀態,危及數字正義,故而亟需法律作出回應。

三、個性化推薦算法法律規制的原則

在技術中立的語境下,個性化推薦算法產生的風險極易被忽略。對個性化推薦算法進行規制也往往遭到“技術烏托邦”愛好者的反對。然而推薦算法帶來的個人信息濫用、信息繭房、算法歧視等風險,的確會給用戶造成了實質性的損害。筆者認為,應當以誠信原則、自主原則、公正原則、比例原則為指導,對個性化推薦算法帶來的法律風險進行規制,以平衡算法開發者、應用者、用戶等主體之間的利益關系。

(一) 誠信原則

所謂誠信原則,是指“一切法律關系,應各就其具體的情形,依正義衡平之理念,加以調整,而求其具體的社會妥當”[20]。換言之,誠信原則就是把雙方當事人對立的利益加以公平的較量而求其中道。分開來說,誠實是尊重相對人的利益,信用是尊重交易的安全。

個性化推薦算法的應用體現了公民的個體權利與企業的商業利益二者之間的相互博弈。企業希望不斷收集用戶的信息以提高自己的服務效率,攫取更多的商業利益,而用戶則不希望個人信息被過分收集以便維護個體權益[21]。個性化推薦算法應用之所以會產生前述種種風險,根本原因在于當事人之間法律關系的失衡。在二者博弈過程中,企業憑借技術的優勢操縱算法,使利益的天平逐漸朝著資本傾斜,人似乎漸漸不再是算法的主體,反而成為算法下可被預測和計算的“客體”,人類的主體性地位在算法社會下正變得岌岌可危。這種法律利益的失衡與主客體倒置現象,違背了公平正義,損害了用戶的個人信息權利和隱私權等正當權益,需要基于誠信原則予以矯正,對濫用個性化推薦算法的行為予以法律否定和制裁。

(二) 自主原則

自主原則是指個體按照自我意愿獨立做出決定并為自己負責的能力[22]。學界通說認為,自主原則源于康德的自由理論??档抡J為人是自主且理性的人,人作為具有理性能力的存在者,能做出符合理性的選擇,并對自己的行動負責,故應當給予人類足夠的空間和自由去選擇,把人當作目的而不是手段去尊重[23]。

信息多樣性被認為是實現個體自主的有利條件,然而個性化推薦算法導致的信息繭房將一些對個體重要但是其不感興趣的信息排除在外,嚴重地窄化了用戶的信息視野,進而阻礙用戶進行自主決策[24]。此外,隨著機器深度學習的縱向發展,算法只需借助初始模型而不需后期“投喂”,便可以自己學習進行推薦、做出決策,這無疑會增強算法的自主性而削弱人的主體性地位。因此,有必要在算法的發展應用過程中確立自主原則,充分尊重人的主體性地位,構建以人為本的算法框架,以便算法更好地服務于人類社會。2019 年G20 部長級會議通過《G20貿易和數字經濟聲明》,首創“G20 人工智能原則”,強調發展以人為本的人工智能,指出人工智能各參與方應采取措施保留人類自主決定的能力[25]。2021年我國國家新一代人工智能治理專業委員會發布了《新一代人工智能倫理規范》,列出了人工智能各類活動應當遵循的六種基本倫理規范,其中也包括“尊重與保障自主原則”,強調保障人類擁有充分自主決策權,確保人工智能始終處于人類控制之下。

(三) 公正原則

公正作為人們被平等對待、各得其所的道德期許,是社會共同體長久維系的原因所在。羅爾斯認為,社會公正是社會制度的首要價值,其在《正義論》中提出兩大正義原則:一為自由平等原則,即每個人對與所有人所擁有的最普遍的自由體系相容的類似自由體系都應有一種平等的權利;二為差別原則,即社會及經濟中的不平等應妥善安排以使得有利于最少受惠者的最大利益且職務放開[26]。

前文提及的商家利用算法分析用戶的支付意愿,進而以千人千價的方式向用戶推送產品的“殺熟”做法即違反了羅爾斯的第一正義原則。按照正義的第一原則,個性化推薦算法應當平等地對待每一個人,不因用戶的性別、種族、教育背景、財富狀況等因素的不同而實施歧視性待遇。根據正義的第二原則,公正原則是一種實質正義,其本身就蘊含著一定的正當性“偏見”,體現為使社會中處境最不利的成員獲得最大的利益,故公正原則并非絕對的平等,絕對地去“偏見化”,而是以實質正義為價值導向[27]。實踐中,有的大學利用算法收集學生在食堂的消費記錄,分析學生的消費能力,從而以此為憑借發放助學金。這種算法使處于不利處境的學生獲得了資助,又避免了傷害貧困學生的自尊心,可謂是符合正義第二原則的做法。因此,對個性化推薦算法的治理,既要規制算法以防不公現象的發生,又要利用算法的技術優勢,彌補社會裂痕,實現實質正義。

(四) 比例原則

比例原則起源于德國,最初是對限制公民權利之國家權力的限制,即“權利限制的限制”,后來作為目的理性的集中體現,貫穿于公法與私法之中,在私法中得到廣泛應用[28]。在公法上,如我國《行政處罰法》規定,實施行政處罰應當與違法行為的事實、行為、危害程度等相當。在私法上,如我國《民法典》規定,緊急避險采取措施不應超過必要的限度。此外,兼具公私法性質的《個保法》也明確信息處理者要依據比例原則處理個人信息。當個性化推薦算法導致公民個人權利與企業商業利益二者失衡時,為再平衡二者之間的關系,需引入比例原則。我國目前有關算法的規范以行政規范為主,引入比例原則顯得尤為重要。

比例原則由必要性、適當性和均衡性三個子原則構成。根據必要性原則,技術與經濟的發展是絕對不能以剝奪個體權利為代價,個性化推薦算法應當選取對用戶權益損害最小的方式完成推送。在能通過收集一般信息即可完成服務的情況下,就不能收集用戶的敏感信息。根據適當性原則,在對個性化推薦算法進行規制的同時,應當有助于積極推動人工智能的健康發展,促進人工智能產業商業價值的實現,主要體現在對公民個體權利的保護不能“畸形化”;人們在享受技術帶來的巨大紅利時,應當承認適當的風險存在。根據均衡性原則,個性化推薦算法消耗的成本與獲得的利益應合乎比例。具體而言,在保障用戶正當權益的前提下,可以運用推薦算法謀求數據財產價值的最大化,破除資本利用技術優勢所構建起的數據壟斷屏障。

四、個性化推薦算法法律風險規制的具體路徑

算法技術的應用在給人們帶來效益的同時,也亟需法律對算法風險進行必要的干預與規制,使其在法治的框架內運行。目前,推薦算法帶來的風險已引起世界各國的廣泛關注,一些國家和國際組織紛紛立法以引導算法的良性使用。例如,歐盟出臺《一般數據保護條例》(General Data Protection Regulation,GDPR),賦予公民個體數據權利束以對抗算法濫用。美國公布的《算法問責法》草案通過對算法使用者進行問責的方式以規制算法的應用。我國對個性化推薦算法的法律規制主要體現在個人信息保護、數據安全、廣告運營等規范中。2022 年3 月1 日正式實施的《互聯網信息服務算法推薦管理規定》(以下簡稱《算法推薦管理規定》)是我國首部以推薦算法服務為規制對象的規范性文件,但該規定的相關條款過于原則,缺乏可操作性。而其他法律文件中雖有涉及推薦算法的規定,但未觸碰到個性化推薦算法的核心。因此我國個性化推薦算法的治理有必要在借鑒域外經驗的基礎上,沿著更精細化的路徑前進。

(一) 基于開放的隱私觀強化網絡隱私保護

通常認為,隱私權以生活安寧和私人秘密為基本內容[29]。隨著信息通信技術的發展,將隱私限于秘密或者獨處權利的傳統隱私權觀念,已不能適應現實經濟社會的需要,無法面對算法時代的挑戰。于是有學者[30]提出隱私“控制論”,強調個體對自我隱私擁有絕對的控制力。此種觀點可謂是自由主義的自主原則的延伸,但這些觀點均是建立在私人領域與公共領域之間具有明顯界分的基礎之上。然而在由代碼、數據等組成的數字空間中,傳統的私人領域與公共領域的二元界限變得更加模糊不清。例如,許多門戶網站既包括公眾參與政治的公共領域,也存在用戶分享個人生活動態的私人領域。

在開放的網絡環境下,公開信息與隱私信息的界限也更加模糊。用戶在網絡平臺上分享自己的觀點和個人生活動態本屬于公開信息,但將用戶的觀點和個人生活動態等收集起來利用算法進行用戶畫像,則可能挖掘用戶隱私。某個人某日出現在飯館等公共場所不屬于私密信息,但攝像頭持續監控下的個人行蹤則可能涉及個人隱私。為此,筆者建議將傳統的地緣隱私觀代之以開放的隱私觀。按照開放的隱私觀,雖然網絡用戶公開的觀點和個人生活動態不屬于隱私,其網絡瀏覽記錄、電子商務消費記錄也難與隱私等同,但是平臺利用算法將個人信息收集起來進行畫像所形成的預測結論,如涉及用戶隱私,則應納入到隱私權的保護范圍。換言之,在開放網絡環境下,對于公開的個人信息,人們同樣有合理的隱私期待。這正是誠信原則所要求的對當事人利益的尊重和對交易安全的尊重。

(二) 強化算法告知義務與用戶拒絕權利

個性化推薦是一種個人信息處理活動,離不開算法與數據。平臺作為個人信息處理者,其與個人信息主體之間是一種信息不對稱、地位不對等的關系。為了平衡二者之間的利益關系,以實現信息處理過程中的實質正義,需要強化平臺的義務,賦予用戶相應的權利,以矯正雙方主體之間不對等的地位,保障用戶的自主選擇權。

首先,應強化平臺的告知義務。既然個性化推薦算法作為一種個人信息處理方式,那么平臺自然應當遵守《個保法》第十七條所確立的個人信息處理者的告知義務。此外,《算法推薦管理規定》第十六條也明確規定,算法推薦服務提供者應當履行告知用戶算法推薦服務的義務。但是,為了保障用戶的知情權,平臺的告知義務并非僅限于此。筆者認為,平臺還應當履行告知用戶個性化推薦算法處理其個人信息可能對其造成的影響的義務。例如,歐盟GDPR 規定,平臺應當告知利用算法處理數據對數據主體造成的預期后果。

其次,應便利用戶行使算法應用拒絕權。我國《個保法》第二十四條第二款規定了用戶的算法拒絕權。據此,當用戶不愿意算法干擾自主選擇時,應當允許用戶拒絕平臺的算法推薦;當用戶不愿意身陷令其身心愉悅的信息繭房時,也應當允許用戶行使算法拒絕權,從而確保信息來源的多樣性;甚至,應當允許用戶設定算法應用的時間段,如晚上10 點后自動關閉算法應用,以免刷屏上癮熬夜傷身??梢?,用戶的算法拒絕權是對平臺利用算法肆意地收集并濫用個人信息的限制,應當保障用戶能夠便捷地行使該權利。

(三) 完善算法解釋權

為了應對算法歧視問題,不少國家立法規定了算法解釋條款。歐盟GDPR 第十三條至十五條規定數據控制者有義務提供給公民個人算法決策詳細的解釋。法國《數字共和國法》規定行政機關利用算法作出行政決定時,相對人有權要求其對算法作出說明[31]。而我國《個保法》第二十四條與《算法推薦管理規定》第十二條也對算法解釋作出了規定。但是有關算法解釋權的構成要件、內容、方式等問題,無論是學術界還是實務界均存在較大爭議。

根據我國《個保法》第二十四條第三款的規定,算法解釋權的構成要件包括以下兩個方面:第一,通過自動化決策方式作出決定;第二,該決定對個體權益造成重大影響。此處的爭議有二:(1)是否只有僅憑算法作出決策時,用戶才能行使解釋權?(2)重大影響是否僅含不利影響?筆者對此均持否定態度,因為雖然算法技術不斷迭代升級,但信息分發也并非完全僅憑算法完成。例如,一些頭部互聯網公司設有信息審核員職位,崗位職責就是在算法提供參考決策的前提下,人為審核并干預信息的分發。因此,即便用戶最終看到的是經過人工干預的結果,但只要算法在最終的推薦決策中起到重要影響,就應當成為算法解釋權的適用對象。同時,如果嚴格要求只有算法決策對用戶權益造成不利影響時,用戶才能行使算法解釋權,這無疑將會給用戶增加負擔。以信息繭房為例,很多用戶深陷令其愉悅的信息繭房之中,很難感受到信息繭房對其造成的不利影響,即便能感知到,而由于平臺與用戶之間的“信息鴻溝”,讓其承擔遭受不利影響的證明責任恐怕也難以實現。

算法解釋權的目的在于保障用戶的知情權與救濟權。用戶行使算法解釋權,是為了搞清楚個性化推薦算法產生信息繭房、隱私、歧視等風險的原因,以尋求損害救濟,并無意于糾結算法技術的細枝末節。因此,筆者認為,《算法推薦管理規定》第十六條關于公示算法推薦的基本原理、運行機制等的規定不夠全面。公示算法的運行機制可能會侵犯算法提供者的商業秘密,同時易滋生競爭對手以行使算法解釋權之名而為不正當競爭之實的現象。對此,歐盟GDPR 基于誠信和公正原則,強調算法解釋權的行使不得侵害企業的知識產權與商業秘密。我國《最高人民法院關于審理侵犯商業秘密民事案件適用法律若干問題的規定》也將算法納入到商業秘密的保護范圍內。因此,在允許用戶行使算法解釋權的前提下,應當對算法解釋權進行一定的限制,允許平臺在面對用戶提出解釋算法核心代碼、主要運行機制等涉及企業核心商業秘密時,提出合理性抗辯。同時應基于比例原則,允許采取對平臺商業秘密損害較小的方式向算法相對人解釋算法決策的依據、可能對其造成的影響等,以使用戶在遭受歧視性對待時,獲得可救濟的機會。

(四) 構建算法審計制度

近年來隨著算法尤其是深度學習算法的廣泛應用,算法審計應運而生。所謂算法審計,是指審計主體對被審計者所使用的算法模型、數據、算法研發等技術活動的風險、合規進行審核、評估,以監督算法正當使用的活動。世界各國立法也多有提及算法審計,如美國紐約州立法明文規定雇主在招聘過程中使用算法時,必須進行年度算法歧視審計,否則不可在招聘過程中使用算法進行簡歷評估[32]。遺憾的是,目前尚未形成一套完備的、體系化的算法審計制度。結合審計學領域的審計實踐經驗,一套完備的算法審計制度應由算法審計主體、審計對象、審計方法、審計后果四個要素組成。

從算法審計的發展歷史來看,早期的算法審計主要關注算法模型、數據,重點衡量算法的效率與運行成本。伴隨著機器學習尤其是深度學習算法的發展,愈發趨近自主化的算法帶來了諸多不確定的風險,算法審計的關注點從早期的算法效能逐漸轉變至數據保護、數據信息來源多樣性、算法公平、算法可解釋性等內容[33]。

算法審計的目的就是為了審查算法應用的合法性與合理性,保持算法的可問責性。當算法審計主體檢測出個性化推薦算法存在導致或可能導致算法歧視、信息繭房等法律風險時,有權要求算法服務提供者對此進行陳述并進行修改,要求算法服務提供者將尊重用戶主體地位的“自主原則”目標嵌入到算法設計之中,如設計個性化推薦算法一鍵關閉裝置。同時可以要求算法應用者在算法設計之時,通過修改參數等方式貫徹“多樣性暴露原則”,確保用戶獲得的信息具有多樣來源性,從而戳破“過濾泡泡”。如果算法應用者拒不改正,則出具否定的審計意見,并將審計結論上報給網信、公安、市場監管等主管部門由其進行處理。

五、結語

個性化推薦算法技術的更新迭代,極大地便利了人類的社會生活,也為互聯網經濟的發展注入新的活力[34]。而技術的賦權,使得擁有算法核心技術的資本操縱著算法時代的話語權體系。人們在接受個性化推薦服務的同時,也被動地成為了被算法規制的“客體”。隱私的侵犯、知情權的減損、平等與非歧視的落空等種種風險,均體現了個性化推薦算法的兩面性。為了平衡算法服務提供者與用戶之間的利益關系,一種合乎邏輯的規制路徑是在誠信、自主、公正、比例原則的指引下,強化算法使用人的義務與用戶的權利,合理界定算法的權力邊界,防止個性化推薦算法被濫用,以便高效公正調配沖突各方利益,通過算法審計引導個性化推薦算法在法治的框架下被正確使用。

猜你喜歡
個性化原則用戶
堅持個性化的寫作
新聞的個性化寫作
堅守原則,逐浪前行
上汽大通:C2B個性化定制未來
關注用戶
關注用戶
關注用戶
無罪推定原則的理解與完善
如何獲取一億海外用戶
滿足群眾的個性化需求
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合