?

智媒時代算法推薦對用戶自主性的解構與重構*
——基于規則治理的視角

2023-04-09 02:10周麗娜
現代傳播-中國傳媒大學學報 2023年10期
關鍵詞:自主性權利決策

—周麗娜—

人工智能生成物(AIGC)的顛覆性代表ChatGPT 應聲出世之后,再次刷新了人類對人工智能邊界的認知,也再次加速了人類文明的進程。ChatGPT 不僅建立了一個大語言模型,而且其已經擁有一定的認知、理解和判斷能力,甚至擁有和人類類似的思維能力?!叭斯ぶ悄茉谕瓿蓪θ祟愅庠诠倌?視覺、聽覺等)的延伸后,進入到對人體延伸的最后階段——意識的技術模擬階段?!雹俣鴻C器意識的產生是否會對未來人類文明造成不可逆轉的危機和風險,還尚未可知。

一、問題的提出

(一)智媒傳播顛覆“以人為中心”的傳播模式

人工智能技術的迭代加速發展,徹底改變了“以內容為中心”的傳統大眾傳播模式和“以用戶為中心”的社交媒體傳播模式,迎來“以數據和算法驅動內容生產為中心”的智能傳播模式時代。如果說,社交傳播撼動了傳統大眾傳播確立的“把關人”及“議程設置”的專業內容生產和控制傳播模式,奠定了“去中心化”“人人都有麥克風”的用戶內容生產傳播模式,那么以語言生成模型和語義理解模型為基底的生成式人工智能,則直接解構了一個多世紀以來形成的“以人為中心”的傳播理論體系,“人”再也不是信息和內容理所當然的生產者和主導者。

智能傳媒的應用,使人的主體性逐漸消解,而機器主體性(或擬主體性)逐漸確立。經過一段時間的人工“喂養”和主動學習,人工智能機器就能夠模仿,甚至模擬人的意識,自主生產內容,進而傳播。此外,人工智能通過大數據和算法,根據主體的喜好、興趣、習慣等,對信息進行千人千面的個性化推送,甚至“人”還會受到機器自動決策的影響,在頻頻推送的“猜你喜歡”情境下,改變個體意志,迎合機器供給。如果說人們目前習慣使用“人機交互、人機協同、人機共生”等用語,暗示“人”在“機”前,“人”尚且掌握了一定的主動權和控制權,那么可以想象,“機人”時代的到來可能指日可待。

(二)智能傳播運算法使個體被量化、群體化,喪失自主性

根據算法推薦技術原理,其所依賴或存在的所有個性化指標終將轉化為“0”和“1”的二進制代碼,有關個體的一切終將以數據化的形式呈現。在算法世界,個體的人成為冰冷的數據,人完全被數據化和標簽化。個體的集合,僅是具有流通性的數據庫資源和商品,是“脫離情感、情緒、感知的數據化字符,是被數據‘量化的自我,也是市場化的自我’”②。

美國學者貝克(Baker)曾對量化自我提出四點質疑:量化自我究竟是讓人們更多、更好地了解自己,還是走向它的反面? 是一種更強的自我控制,抑或是一種更強的社會控制? 是讓人們變得更幸福,還是從來沒有讓他們得到真正的幸福? 是讓人們有了更多的選擇,還是侵犯了他們選擇的余地?③很多時候,結果都有可能是后者。

個體被量化后,還可能會引發個體被群化和馴化的風險。算法程序根據掌握的量化數據和變量,在數字空間,“跨越興趣、階層、地域的隔閡將全部的群體關系整合起來,形成群體內部、群體之間的互動,產生堪比大眾傳播覆蓋面的影響效果”④。在群體互動中,渴望展現或追求個性的主體,受群化的興趣、消費、反饋等多方面影響,最終很可能淹沒于群體,失去自我。如在某社交平臺,個體因被算法標簽為與他人有共同愛好,而被推送某款產品,不免受到他人或群體消費暗示影響,進而喪失個人判斷和決策,直至被群體完全馴化,喪失自主性。

理想的人類社會,應該是人的智力、情感、理性、德行等均能得到學習、發展和認可的社會。在算法社會,一段時間內,可以使人的智性得到單向度發展或提高,但過度的算法進化,終將使人喪失人性中更為寶貴和自然的組成部分,即以情感、內心、理性為基礎的心性和靈性。⑤

(三)智能傳播的規則控制尚不完善

算法與數據、算力被稱為人工智能技術發展的三大核心要素,其中算法推薦的廣泛應用,對智媒時代信息量過載問題提供了強有力的技術支持,一定程度上解決了信息無限性與用戶個體需求有限性之間的矛盾,滿足了用戶在快節奏時代以最少時間成本獲取個性化信息選擇的訴求,但也衍生了“信息繭房”“算法黑箱”“算法歧視”“虛假新聞”“用戶隱私侵犯”等現實問題。

同時,算法還對公眾的社會活動和個人活動進行規訓,并且在重構機器與人、技術與社會之間的關系過程中,算法正從一項單純的技術,發展為能夠“干涉甚至主導人類社會事務的‘算法權力’(algorithmic power)”⑥,算法不僅打造社會景象與文化意涵,甚至直接影響并控制著我們每個普通人的日常生活,甚至獲得了“真理地位”⑦。

盡管世界各國均已認識到算法風險,并普遍認為算法應當具備透明、公正和公平、非惡意、負責任和保護隱私等基本倫理規則,但在理論闡釋和實際應用中,仍存在實質性分歧。智媒時代,用戶對這種算法權力能否拒絕? 用戶對算法決策的使用能否自主決定? 對算法歧視、算法黑箱和信息繭房等負面作用是否有知情及投訴的權利? 人類在這場技術變革引發的社會變革下,需如何應對或自處?

二、現有規則對算法與用戶自主性的建構

面對智能媒體帶來的新技術形式和傳播實踐,重新審視和界定“人—機”二元關系,處理好以智能媒體為代表的非人類傳播主體與人始終作為傳播主體的共生關系,是防范智能技術可能引發社會危機和風險的重要議題。各國目前主要的治理邏輯和思路,是通過法律和倫理雙層面的規則建構,運用國家強制力的硬約束和道德倫理的軟保障,廓清算法“權力”邊界,試圖保障用戶的權利自治和主體意志自由。

(一)算法推薦技術及其規則建構

通常來說,算法推薦技術是人工智能技術的一種應用,“技術層面看,算法系統的體系結構由界面、信息和模型三個層次構成”⑧。界面層主要功能是對信息進行加工和處理,繼而構建出用戶畫像,這是算法推薦系統的基礎。在界面層,系統將收集到的用戶基本數據和行為數據轉化為事實標簽,然后傳遞至信息層與模型層進行建模和決策。在用戶畫像基礎上,系統根據用戶行為(如點擊、評論、轉發、點贊、收藏等)、訪問時長等設置相應權重,從中發現用戶的喜好、習慣和興趣,計算出用戶對某類信息的興趣標簽值,找出有相似行為的用戶集,從而進行信息分發。算法技術主要應用于信息層與模型層。

目前我國對算法推薦技術應用已經建立起一定的法律規則體系,涵蓋內容包括算法應用、審核、監督、溯源、備案、解釋、拒絕等諸多方面;同時,國家新一代人工治理專業委員會還發布了《新一代人工智能倫理規范》,提出了增進人類福祉、促進公平公正、保護隱私安全、確??煽乜尚?、強化責任擔當、提升倫理素養6 項基本倫理要求。但在實踐中,對算法控制的實際效力,以及倫理原則的解釋和應用,仍無法避免“算法歧視”產生“騎手困于算法”等現實風險和問題。

(二)用戶自主性及其規則建構

自主性(autonomy)即自我管理,是主體“構建自我目標和價值且自由地作出決定付諸行動的能力”⑨,主要體現主體的意志自由及決策自由。自主性原則源自康德(Immanuel Kant)的自由理論,認為每個個體都有決定自己命運的權利。

用戶自主性規則層面的建構,主要體現在保障用戶知情權、解釋權、選擇權、拒絕權等多項權利方面。

1.知情權、解釋權

廣義而言,知情權是公民知悉、獲取信息的自由和權利,本文僅討論公民的民事知情權,即個體對于自身信息了解、知悉的權利。

個人信息知情權指信息主體對其個人信息享有知情的權利,具體知情的內容包括誰收集的個人信息、收集這些信息用于何種目的、信息將以何種方式進行使用、信息將會被處理者存儲多長時間、信息傳遞給哪些第三方等?!痘ヂ摼W信息服務算法推薦管理辦法》規定,使用算法服務的用戶,算法服務提供者應以顯著方式告知用戶其提供算法推薦服務的情況,如應當公示它的基本原理是什么,它是如何運行的,它的應用場景有哪些,以及它有何使用目的。

算法解釋權是用戶個體(或稱數據主體)有權要求算法使用者或數據控制者對其使用的算法進行解釋,該解釋應當具體、清晰、明確、具有實質意義。從時間上看,算法解釋權屬于事后解釋,一般是個體在獲得算法決策結果后,要求控制者對該決策結果提供相應的解釋。

2.選擇權

信息選擇權是指用戶有權自主選擇信息,不受他人干涉。該權利表明用戶在獲取信息的過程中,能夠根據自己的想法和意志,自主地選擇和支配信息,也就是算法的使用不得干涉用戶信息選擇自由,用戶有權決定自己接收或者閱讀哪些信息、不接收或者閱讀哪些信息。用戶擁有選擇權,這實質上是對人自主權的尊重。

3.拒絕權

算法拒絕權指個人對算法應用或其結果享有抵制的權利。我國《個人信息保護法》第24 條即是對算法拒絕權的規定,包括可以拒絕商業營銷、個性化推送以及特定情況下的自動化決策。

如同在數字社會中個體有拒絕接入數字世界或選擇是否使用數字技術的權利,對算法技術而言,個體也有自主決定是否使用算法的權利,這也是生活方式的一種意愿和選擇。

三、現有規則下算法對用戶自主性的解構

盡管在現有法律和倫理規則框架下,算法似乎是“帶上了鐐銬”,但通過實踐檢視,算法正裹挾大數據,對人的感情、認知,甚至身體健康產生影響,借助“技術”的掩護,正逐漸剝奪人的自由意志,并最終剝奪自我意志自主控制的權利和能力。

(一)用戶個人信息的提供非完全自主性

如前所述,技術層面而言,算法推薦基礎是個人數據收集和用戶畫像,而這二者的前提是用戶知情同意的情況下對個人信息的自愿提供。雖然在法律上我國已經確立了知情同意的強制性規定,體現主體對個人信息具有決定權和自主性,但實際上,知情同意原則僅是形同虛設、徒有其表而已。

2022 年4 月,有記者在蘋果的應用市場中下載了免費“排行榜”前十的APP,在對其用戶協議以及隱私政策進行統計時發現,這十款APP 的用戶協議、用戶條款的文本總字數超過10 萬字,隱私協議則共計約12 萬字,二者合計約為22 萬多字,每款APP 需要用戶“同意并繼續”的文本內容平均為2.2 萬字,用戶讀完一款APP 的用戶協議與隱私政策,快則需要40 分鐘,慢則1 個小時。⑩2021 年8 月,《光明日報》與高校和研究所組成調研組,分別對1036 人進行問卷調查和深度訪談,并對15 類共150 款App 的隱私協議進行分析,發現在安裝App 時,有77.8%的用戶“很少或從未”閱讀過隱私協議。?很多網友自嘲道“撒過最多的謊就是‘我已閱讀并同意用戶協議’”,因此很難得出結論,用戶已經充分、清晰地知情算法推薦所需要的有關個體的信息數據的收集和處理狀況,更不用說個體有自我決定的能力和權利。

(二)算法推薦消解了用戶自主性的各項權利

算法表面上是優化公眾對信息的選擇,公眾可以在算法給定的范圍內快速做出選擇和決定,但這實則是算法對公眾自主性原則的消解。用戶每次基于算法而做出的決定,看似微乎其微、不足為道,但日積月累下來,用戶就習慣于依賴算法給出的推薦結果和范圍,而不再積極地、主動地去找尋可能的其他決策,久而久之,用戶自主性屈服于算法,算法逐漸從一項技術演變為一種權力。

1.用戶對算法推薦或不充分知情或一無所知

在算法推薦語境下,用戶知情權的消解,主要體現在兩個方面:一個是對涉及個人數據的用戶協議的不完全知情或完全不知情;一個是對算法推薦運行機制的不知情,即存在算法黑箱。

對涉及個人數據的完全不知情或不完全知情,前已論述,在于用戶對用戶協議或隱私協議無法進行實質性知情及控制,知情權在用戶知情同意的偽裝下,其內容并未實質性觸達到用戶,導致用戶對個人信息各階段的處理沒有完整的知情權。

對算法推薦運行機制的不知情,是對用戶知情權的另一種侵害。不論是在用戶協議中,還是隱私協議中,用戶都很難知情自己的數據是如何應用于算法的。例如,在京東網的隱私政策中,對商品和服務信息的展示,其條款是這樣描述的: “為了向您提供搜索歷史、瀏覽記錄、收藏的商品或店鋪、關注的店鋪、購物車或訂單商品或服務展示服務,我們會收集您的瀏覽信息、搜索記錄、收藏記錄、關注記錄、加購信息、訂單信息。我們會根據您的上述信息以及其他您已授權的信息,進行數據分析、預測您的偏好特征,在京東服務或者其他第三方應用中向您推送您可能感興趣的商品/服務、商業廣告、商業性短信及其他營銷信息?!?這樣的告知,于用戶而言,似乎說了什么,又似乎什么也沒說,用戶對網站如何使用這些數據進行推送或產生推薦列表,仍然是一頭霧水。2022 年,為應對算法黑箱問題,增加算法透明性和可解釋性,政府推出算法備案制度,要求使用算法的企業向公眾公示算法運行機制、使用的基本原理以及使用目的,但對用戶而言,此舉對用戶知情權并無改善。因為用戶對于算法知情的終極目的,不是要知道會收集哪些數據、采取的是哪種類別的算法,而是需要知道這種運算的算法對個體而言可能會產生怎樣的后果,對個人權益是否會產生負面的作用? 未來要如何更好地利用算法發揮正面作用、增加信息多元化,避免信息繭房? 個體在算法面前,能不能有主動性或者決定性? 但這些問題對用戶而言,都無法從所公示的信息中獲得答案。

另一方面,算法解釋或透明度原則雖然可能對算法黑箱予以適當糾偏,但過度依賴透明處理原則會陷入“透明陷阱”(transparency fallacy),即個體往往缺乏必要的專業知識來有意義地行使這些個人權利。?僅有當數據主體可以真正理解特定算法所依據的因素而做出決策時,算法解釋的邏輯才是有意義的。因此,算法透明的核心要義在于能夠在數據主體有疑問時提供有意義的、樸實的、普通用戶能夠明白的解釋,從而使用戶可以充分知悉算法作出決策的邏輯,繼而行使質疑和問責的權利。

2.用戶只能在算法推薦的范圍內進行有限的選擇

算法推薦技術在信息分發方面的優勢,使用戶可以擺脫傳統專業媒體設置的“議程”,一定程度上,可以實現“我的信息我做主”,自主選擇感興趣的信息?;蛟S有人認為用戶至此掌握了信息的選擇權,但實際上,這種選擇權是對算法推薦結果的一種有限選擇,而不是出于個體意志的自由選擇。算法推薦所運用的過濾機制,其邏輯過于注重用戶偏好,而忽視了諸如真實、客觀、理性等其他價值理念,實際上是損害了用戶的信息選擇權。

用戶能夠選擇的范圍不是看或者不看什么信息,而是在算法推薦的范圍內,接受還是拒絕算法推薦的信息。因此,用戶選擇的自主性是基于算法推薦的結果,而選擇的范圍也是基于算法推薦的結果。個體在算法環境下,根據機器計算結果,通過接受或拒絕模式,與機器進行對話和互動,再代入機器運算模型,繼續維持或調整算法推薦結果,再進一步測試是否符合用戶需求。在這樣“機器—人—機器”的循環測試中,算法推薦的應用,并沒有解決用戶信息過載的問題,反而使用戶更加依賴算法和機器。用戶的點擊、取消、拒絕、點贊、收藏等操作,其實是在和機器完成對話,進而不斷地接受機器的分析、畫像,甚至學習和模仿,從而給出看似最適合該個體的決策結果或推薦列表,但這一行為恰恰是沒有將用戶作為一個有自主意志的人對待,更像是一組代碼或數據,缺乏對個體人格的尊重,而這正是對自主性原則的違背。

若長期使用算法推薦獲取信息,則會對算法形成過度依賴,用戶將怠于主動作為,不去積極尋求多元或多樣化內容,而是習慣于在算法支配下的內容獲取和選擇,于是乎,用戶逐步成為算法可以預測,甚至操縱的被動接收者。盡管用戶可以與機器進行一些互動,例如點擊“不想看到類似信息”,但是這并不意味著用戶從此再也看不到類似信息。在商業利益驅動下,企業運用算法不斷進行個性化推送,用戶在技術包圍下很難沖破算法權力的控制邊界,所以個體主動性的發揮空間越來越被侵蝕和壓縮,用戶也從主動欣然接受算法到被動默認受算法驅動。

3.用戶無法事前拒絕算法的介入,陷入“拒絕困境”

算法拒絕權在我國《個人信息保護法》中已有規定,其本意是為個體配置積極的控制性權利,防止信息處理者與個人之間因信息不對稱而導致的地位不平等帶來負面影響。但該法所規定的拒絕權,嚴格意義上說,不是拒絕算法,而是拒絕算法推薦的結果,而且是僅能拒絕對個人有重大影響的算法的結果。這種拒絕,只能事后且手動拒絕。因此,“通過個體行使控制性權利進行算法規制的效果非常有限”?。

以下選取我國目前用戶過億的5 個應用程序的《隱私政策》部分內容作為示例(見表1),涉及社交媒體、視頻平臺、電子購物平臺,可以看到“允許”或者“同意”自動化決策都事先存在于《隱私政策》的“一攬子”規定之中,如果不同意該隱私政策,則不能使用該款軟件,如果想關閉算法推薦,需要手動操作,有的還需要發送短信才能取消,如淘寶。即便是選擇關閉,關閉的是基于個性化分析的算法結果,而不是算法推薦本身,如抖音。程序上看,與不同意就無法使用的“同意困境”類似,拒絕權的行使,也存在“拒絕困境”。算法推薦的“一攬子同意,事后拒絕”模式,使得個人“無法事前行使拒絕權”?,事后拒絕也因程序設置的復雜,難以完全實現。

表1 5 個應用程序《隱私政策》部分內容

四、用戶自主性的規則重構

智能媒體正在通過算法或代碼重建一個新的虛擬世界,人在虛擬世界按照程序和算法所設定的“軌道”運行,“代碼就是法律”(code is law)的論斷,預示著新型法律關系的產生,也清晰地表明代碼在虛擬社會的強制性和權力性。個體在算法指令的規劃和安排下,“人的自主創新和創造能力得到消弭,個體在不知不覺中成了米歇爾·???Michel Foucault)筆下所描述的‘馴順的肉體’”?。人如果完全淪為代碼對象,“人是機器”還是“機器是人”的話題可能不是僅停留在討論層面的問題,而會衍生成人類現實需要面對和解決的問題。面臨技術失控的危險,人類也將陷入前所未有的社會風險。

因此,智能媒體時代,守住或者重塑人的主體性成為當前不可回避的任務之一。算法權力,主要掌握在開發算法的技術公司和應用算法的網絡平臺手中,相對于以政府為代表的“公權力”對社會關系而開展的治理權而言,技術公司和網絡平臺正在以“算法/代碼”為基礎,形成能夠影響社會關系的“數字私權力”。作為對此“私權力”的規制回應,可以通過兩個途徑合力實現:一是完善以政府為代表的公權力的合理配置,對算法和企業進行監管或規制;二是對個人私權利予以賦權,使得個人有能力對不合理、不合法的數字化應用或其結果進行抵制。在政府、企業、用戶所蘊含的“公權力—私權力—私權利”的三元博弈中,平衡算法的功能優勢與尊重個體自主原則是算法未來發展的核心目標。

(一)自主性意識的構建

“自主意識有著強烈的表現自我、實現自我的欲望,這正是啟動創造、施展創造的最深刻的內在根源,也是創造千姿百態、殊相萬千世界的心態源頭?!?用戶自主性意識的構建和強化,不僅需要用戶本身自主意識的覺醒,還需要能夠控制或者影響用戶行為的計算機程序或命令,在執行中體現出對用戶自主性的尊重和認可,并給予實現這種自主性的空間和途徑。

人工智能的運行邏輯或算法決策需要人在環中(human in the loop),無論是自動駕駛,自動飛行,還是智能醫療?,完全的算法或人工智能存在巨大風險。正因如此,世界各方正在從倫理和法律方面制定治理框架,強調人作為主體的自主意識。2017 年,生命研究所在阿西洛馬會議中心召開人工智能倫理道德會議,提出阿西洛馬人工智能原則,提出應尊重人類價值(第11 條),包括“人的尊嚴、權利、自由和文化多樣性”?。2019 年4 月歐盟頒布高水平專家組撰寫的《可信任人工智能的倫理框架》,提出AI 的基本宗旨之一為“確保尊重人的自由和自治”?。2021 年11 月23 日,聯合國教科文組織193 個成員國一致通過《人工智能倫理問題建議書》,該建議書的目標之一即“在人工智能系統生命周期的各個階段保護、促進和尊重人權和基本自由、人的尊嚴和平等”?。

盡管現在人工智能技術整體水平仍處于無自主意識的弱人工智能階段,人尚且可以控制人工智能,但隨著類似ChatGPT 等技術發展和進步,可能很快就會進入技術比肩人類的強人工智能階段。為避免產生人與技術工具主客體顛倒的異化現象,以及規避個體徹底淪為被數據化客體的風險,人類更需要強化自主意識,尊重主體自主性。如果對人工智能不加限制地絕對相信,人終將走向鋪滿鮮花的地獄之門。

(二)自主性在算法功能設置上的具體體現

為避免人主體性的消解和自治性的喪失,需要賦予個體不同階段不受算法決策影響的權利,讓個體享有真正的意思自治,而不是成為數據化、客體化的對象和目標?,F代社會,尊重和保證“人”的自主性和完整性的最佳途徑,即是將算法權力限制在一定的制度規則之中。在功能設計上,可以考慮從事前、事中、事后三個階段對算法予以重新構建。

1.事前拒絕算法的權利

建議改變目前我國有關算法應用的“一攬子同意、事后拒絕”模式,將是否使用算法的決定權提前至程序應用之前,通過單獨的“知情同意”程序進行告知。雖然用戶的拒絕權在事前及事后都可以行使,但二者之間存在較大區別:事前拒絕意味著自始拒絕,從源頭上遏制算法對個人數據的收集,使機器無法啟動針對個人的算法程序。而事后拒絕,實質上是一種救濟手段,僅在產生特定的推薦結果之后,數據主體可以拒絕其結果影響。

源頭保護的事前權利的行使,較事后行使,更能有效阻斷算法技術的應用??梢詤⒄諝W盟《通用數據保護條例》(GDPR)的相關規定和做法,體現出主體對個人信息的自治性:第一,賦予數據主體事前拒絕算法決策的可能。如GDPR 第21 條規定,當數據集合的用戶畫像是基于直接的市場營銷目的,數據主體有權在任何時候反對相關的自動化決策。第二,知情同意規則需要“充分”且“明確”。GDPR 明令禁止默示同意(opt-out)的規則,要對進行算法決策作出自主的(freely given)、特定的(specific)、知情的(informed)、明確的(unambiguous)同意,且需以清晰肯定的行為作出(opt-in)。第三,對企業應用算法決策進行限制。增加了事前告知義務、停止自動化決策處理個人數據的義務,以及對算法決策的事前與事后評估責任等一系列相關法律責任。

2.事中行權精細化

事中階段,賦予用戶各項權利是有效阻止算法技術的必要途徑,借助刪除權、知情權等權利,對算法施加人為干預?!秱€人信息保護法》對個人分別賦予處理權、查閱權、更正權和刪除權??梢哉f一定程度上滿足了個人在事中階段對算法服務提供者行權的基礎。但相比GDPR,我國相關規定在設計數據權利時,還不夠精細化,可操作性不強。例如,《個人信息保護法》規定,對于自動化決策作出的決定,若對個人權益有重大影響,則個體有權對該決策結果要求予以說明,并且還有權拒絕未有人工干預的純自動化決策的決定。但是何為“重大影響”? 如何要求信息處理者“予以說明”? 如果“不予說明”應當如何救濟? 說明的語言應當達到何種清晰程度? 這些在我國的法律規定中均沒有詳細說明,因此條文規定本身的籠統性無法保障具體權利的落實和保障,時常讓人不知所措。

3.事后救濟途徑

事后階段的救濟途徑一般包括兩類: 一是拒絕算法推薦的約束,二是事后司法救濟。拒絕算法前文已述,目前我國法律并未表明個人享有完整的算法拒絕權,用戶僅在某些情況下享有拒絕算法結果的權利,而非拒絕算法的權利。因為屬于事后救濟,行為人怎樣行使拒絕權,行使拒絕權后是不是就能完全避免自動化決策作出決定,都具有不確定性。因此用戶希望不要等發生了算法決策的負面結果再去拒絕,而是可以從源頭上自始就拒絕使用算法進行決策。例如對于是否可以發放貸款的決定,用戶不希望銀行首先通過算法進行決策,做出不予貸款的決定之后,用戶再實施要求解釋或予以拒絕的權利,而是自始希望有人工參與決策,考慮更多不同的現實情況。因此對算法推薦的拒絕,應置于“事前階段”,且需以單獨、明示的告知方式,取得用戶同意。

在司法救濟方面,面對算法推薦的訴訟,結合已有部分訴訟案件,可以考慮適當提高平臺責任或更加合理地分配舉證責任。如在“算法推薦第一案”愛奇藝訴字節公司案,原告愛奇藝稱享有電視劇《延禧攻略》排他性信息網絡傳播權,在該劇播放期間,被告字節公司在其所運營的今日頭條APP 上,未經原告授權,即向公眾傳播《延禧攻略》一劇的各類短視頻,包括切條、二次創作等多種形式。被告公司利用算法推薦技術,使得這些短視頻被頻繁推薦。被告辯稱,今日頭條APP 僅是為用戶提供了信息存儲空間服務,所有涉案短視頻均系用戶自行上傳,被告并未上傳任何侵權視頻。另外,被告對用戶上傳的內容,均已盡到合理注意義務,主觀上并不存在過錯,侵權行為不成立。但法院認為,字節公司在本案中,提供的不僅是網絡空間信息存儲服務,被告利用技術優勢幫助用戶提高效率獲得更多信息的同時,也在為自身獲得更多商業利益和競爭優勢,因此理應對用戶的侵權行為負有更高的注意義務,故被告行為構成侵權。?在另一起關于算法歧視的“劉權訴美團外賣平臺案”中,法院沒有支持原告要求被告承擔侵權責任的訴請,因為法院認為原告僅能提供兩份訂單,試圖證明配送費的差距,是無法證明外賣平臺存在“大數據殺熟”行為的。而且,兩份訂單下單時間不同,公司根據平臺交易量對配送費進行動態調整,符合其自身經營行為,故原告敗訴。?

在《延禧攻略》案中,被告在運用算法推薦技術擴大傳播范圍、獲得更多優勢和利益的同時,也理應承擔其帶來的風險,應對用戶的侵權行為負有更高的注意義務,故法院判定其侵權成立。該案作為算法推薦司法第一案,為今后平臺使用算法推薦時應承擔的注意義務提供了范例。在第二起美團大數據殺熟案中,按照目前“誰主張、誰舉證”的證明責任,原告需要證明被告存在算法歧視明顯有困難,故建議考慮適當提高算法服務提供者舉證責任。原告提供初步侵權證據,例如有遇到價格不公的遭遇,以此證明侵權行為的存在,之后,應當由算法服務提供者證明其作出該決策的過程,以及由此產生的結果是符合相關法律規定,公平、公正且合理的,這樣可能更有利于用戶行使救濟權利。

總之,“人”的概念在技術權力的推動下不斷“滑坡”,科技不僅是人類進化的工具和媒介,也逐漸成為人的欲望和力量的體現?,成為深刻改變人與自然關系的權力力量,尤其在智媒時代,所有人和物都可以通過算法生成和控制,人類生命的意義也不再那么崇高和絕對,僅是數據系統的一個組成部分而已。

算法帶給社會的風險是隱秘的、擴散的、系統的,僅靠喚醒人的自主性及個體賦權,尚難以全面確保個體獲得逃離算法操控的基礎和能力。需要在具有共識的規則體系框架內,通過政府、企業、用戶的多元協同合作,客觀理性地認識算法風險,主動構建防御機制,增強個體權利效能,尊重“人”的自由意志,從而構建尊重個體尊嚴與權利,并利于技術發展的平衡、共生的“人—機”智媒傳播生態體系。

注釋:

① 單小曦、別君華:《人性化與自主性:媒介智能化進化的內在機制與雙重結構》,《中國新聞傳播研究》,2019 年第6 期,第51 頁。

② 彭蘭:《“數據化生存”:被量化、外化的人與人生》,《蘇州大學學報》(哲學社會科學版),2022 年第2 期,第160 頁。

③ Denise A Baker.Four Ironies of Self-Quantification:Wearable Technologies and the Quantified Self,Science and Engineering Ethics,https://doi.org/10.1007/s11948-020-00181-w,22 January 2020.

④ 隋巖:《群體傳播時代:信息生產方式的變革與影響》,《中國社會科學》,2018 年第11 期,第124 頁。

⑤ 於興中:《算法社會與人的秉性》,《中國法律評論》,2018 年第2 期,第57 頁。

⑥ 劉培、池忠軍:《算法的倫理問題及其解決進路》,《東北大學學報》(社會科學版),2019 年第2 期,第119 頁。

⑦ Neyland D,Mllers N.Algorithmic IF...THEN Rules and the Conditions and Consequences of Power.Information,Communication & Society,vol.20,no.1,2017.p.2.

⑧ 衣俊霖:《數字孿生時代的法律與問責——通過技術標準透視算法黑箱》,《東方法學》,2021 年第4 期,第79 頁。

⑨ Stahl BC,Timmermans J,Mittelstadt BD.The Ethics of Computing:A Survey of the Computing-Oriented Literature.Acm Computing Surveys(CSUR),vol.48,no.4,2016.p.27.

⑩ 趙樂瑄:《APP 用戶協議與隱私政策,你真的讀過嗎?》,https://mp.weixin.qq.com/s/cYBatGkuT3Oz6DW7DcZcKg,2022 年4 月29 日。

? 光明日報與武漢大學聯合調研組: 《保障安全的“權利書”,還是竊取信息的“任意門”——App 隱私協議現狀調查》,https://baijiahao.baidu.com/s? id=1708521630294149131 & wfr=spider & for=pc,2021 年8 月19 日。

? 京東隱私政策:https://about.jd.com/privacy/,2022 年10 月26 日。

? Lilian Edwards & Michael Veale.Slave to the Algorithm:Why a Right to an Explanation Is Probably Not the Remedy You Are Looking For,16 Duke Law & Technology Review,vol.16,no.1,2017.p.81.

? 謝琳、曾俊森:《個體賦權在算法決策治理中的定位》,《法治社會》,2022 年第1 期,第91 頁。

? 楊立新、趙鑫:《利用個人信息自動化決策的知情同意規則及保障——以個性化廣告為視角解讀〈個人信息保護法〉第24 條規定》,《法律適用》,2021 年第10 期,第27 頁。

? 盧衛紅、楊新福:《人工智能與人的主體性反思》,《重慶郵電大學學報》(社會科學版),2023 年第2 期,第87 頁。

? 車洪波:《自主意識的由來與必然走向》,《學習與探索》,1997 年第1 期,第60 頁。

? 自動駕駛事故指2018 年3 月18 日,uber 自動駕駛汽車在亞利桑那州發生的交通事故。自動飛行事故指2019 年3 月10 日,埃塞俄比亞航空波音737MAX8 飛機墜毀,事故由波音公司安裝的自動駕駛操作系統(MCAS)造成。智能醫療事故指2021 年6 月,世界衛生組織(WHO)發布“世界衛生組織健康領域人工智能倫理與治理指南”(WHO Guidance on the Ethics and Governance of Artificial Intelligence for Health),《指南》指出人工智能在某些情況下損害人類自主決策,動搖人類在知識生產中的中心地位,導致認知權威發生偏移。

? Nancy Owano.Asilomar AI Principles: A Framework for Human Value Alignment,https://techxplore.com/news/2017-02-asilomar-ai-principlesframework-human.pdf,6 February 2017.

? EU.Ethics Guidelines for Trustworthy AI,https://ec.europa.eu/futurium/en/ai-alliance-consultation.1.html,8 April 2019.

? UNESCO.Recommendation on the Ethics of Artificial Intelligence,https://unesdoc.unesco.org/ark:/48223/pf 0000381137,23 November 2021.

? 北京市海淀區人民法院一審民事判決書,(2018)京0108 民初49421 號。

? 湖南省長沙市芙蓉區人民法院一審民事判決書,(2018)湘0102 民初13515 號。

? 張旭:《技術時代的責任倫理學:論漢斯·約納斯》,《中國人民大學學報》,2003 年第2 期,第70 頁。

猜你喜歡
自主性權利決策
為可持續決策提供依據
我們的權利
決策為什么失誤了
論不存在做錯事的權利
英語學習的自主性及其教學應用
實用英語教材與藝術生自主性培養
發揮主體作用,加強高中數學復習的自主性
權利套裝
維護科學的自主性
愛一個人
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合