?

人工智能時代的算法規制:責任分層與義務合規

2020-04-10 07:00唐林垚
現代法學 2020年1期
關鍵詞:人工智能

摘 要:

通過云端搜集、???、分析海量大數據,獨立法律人格待定的智能機器人,透過算法活動,在多個行業替代自然人從事高精尖業務并重塑人們的社會評價、權利義務及法律責任。算法活動以“信義義務”為核心調整傳統受托人關系以及基于合同相對性進行損害賠償,傳統制度已不能完全囊括智能主體理應承擔的所有義務,導致算法操縱、信息尋租和監管套利的三重失控,凸顯人工智能產業布局中的法律規范缺位;算法妨害具有公共屬性,穿透技術黑箱對合同之外的普羅大眾造成“公共滋擾”,法律應當為不同潛在責任主體創設不同缺省合規義務,引導算法運營商、技術開發方內部化不合理社會成本,以構建人工智能責任體系的中國標準。

關鍵詞:人工智能;算法活動;信義義務;公共滋擾;責任體系

中圖分類號:DF52 ?文獻標志碼:A

DOI:10.3969/j.issn.1001-2397.2020.01.14 開放科學(資源服務)標識碼(OSID):

技術變革未必帶來社會福利的雨露均沾。過去的六十年,①人工智能技術并沒有因減少成本、提高效率而走上風險對沖、普惠大眾的正軌,反而因科技的過度加持令商業屢屢掙脫法律和監管的束縛,不斷陷入監管套利②的輪回。一方面,智能服務與算法決策具有跨平臺、無限鏈化等特殊表征,造成義務主體虛化,致使傳統監管手段難以發力;另一方面,當代科技公司多推崇扁平化管理,尚未建立健全的內控機制,也未形成有效的科層制約。國務院《新一代人工智能發展規劃》指出,適應人工智能發展的基礎設施、政策法規、標準體系亟待完善。

本質上,人工智能機器人通過算法活動映射傳統專業服務中的法律關系并替代自然人實現特定目的。算法活動既是新舊法律關系變更和消滅的直接近因,也是人工智能機器人得以“凌駕于自然人之上”的技術核心。對人工智能的規制,應著眼于對算法活動中公共利益和個人權利的協調與沖突防范。在大數據驅動算法語境下,法律責任與義務的內涵是否應當有所不同?如何穿透算法活動構建人工智能主體識別和責任分擔法律規范?以科技增進社會福祉為導向的法律法規重構,毋寧突破民商法傳統思維中人與物二元分立的理論局限,為智能機器人終將獲得獨立法律人格留有充分余地,并在減少算法操縱、信息尋租等機會主義行徑的同時,為科技發展提供堅實的制度保障。本論文以算法規制為主題,探討人工智能廣泛應用所面臨的最基本法律問題,即算法活動的責任歸屬、妨害救濟與外部性治理,以期為研發和治理趨同背景下人工智能法律法規、倫理規范和政策體系的完善提供理論支撐。

一、傳統體系失靈:算法社會的法權博弈與監管困局

尤瓦爾·赫拉利曾預言,算法主導的時代即將到來?!皺嗤膫€人轉向由算法構成的網絡。人類不會再認為自己是自主的個體,不再依據自己的期望度日,而是習慣把人類整體看作一種生化機制的集合體,由電子算法網絡實時監測和指揮?!泵绹鴮W者稱之為“算法社會”的,是指通過對數據和程序的究極利用,實現算法運營商對社會和生活的全面管理。如今,人工智能已經悄然滲透進市民生活的各個層面——搜索引擎框定知識邊界、出行軟件決定活動軌跡、社交媒體重塑電子身份、智能家居革新生活方式、電商平臺左右消費理念、智能金融拓展貨幣財富——大數據驅動算法打破既有權利結構并不斷改造社會關系,產生新的公平與不公、有權和無權、優先與劣后。無論算法和人工智能被運用于哪一個專業領域,新形勢下的制度、規章和法律,應當在原有基礎上進行補充。缺乏與之匹配的法律創新,監管套利就將人為地誘導多種形式的人工智能,過早地取代更負責任的機構和自然人。

(一)個人信息保護的式微與算法規制的公私合力

信息公平被定性為后工業時代防止社會割裂的制度理念,并以此作為構建市場資源均衡的規范性前提,引致試圖一視同仁的信息保護法律在制度設計之初,缺乏對精英集團與平民集團的不可逆分化以及垂直社會向水平社會轉型的周全考慮,最終造成信息貧富分化的馬太效應。從動態的、市場的視角看,信息本身是一種重要的戰略資源,這使得保密制度的靈活運用成為一種功利性的競爭工具。過去的十年,通過秘密技術獲得的市場優勢使“專利財產權”更具吸引力。在美國,以保護商業機密為導向的各州立商業“護犢”條款、《涉密案件程序法》《信息自由法》和《商業秘密保護法案》等,讓凌駕于普通人之上的技術寡頭和金融機構,無休止地以保護商業機密為幌子,免于公布算法代碼、免于接受公眾調查。與之相對的是,以保護個人隱私為導向的《公平信用報告法》和《保密法》等在實踐中被架空,導致強勢群體對弱勢群體的技術壟斷和信息剝削。法律積極地保護商業秘密,卻在涉及個人隱私時越來越沉默,為信息尋租留下隱患。誠然,并不存在完全公平的機會分配方式,但致力于迅速取得市場優勢的科技寡頭,甚至排斥使個人選擇更加公平的最基本努力。

利用保密協議、專利條款和封口規則,算法運營商將其經營活動模糊化、朦朧化,對普羅大眾的生活細節卻由于技術的多領域應用而越發公開。以“智能推送”和“個性化定制”為賣點,智能服務提供商誘使用戶同意算法引擎分析個人數據并挖掘生活細節。在“用戶至上”的偽裝背后,他們“習慣于在供應商、政府和用戶利益之間頻頻轉換立場,以構建最大化自身利潤的商業環境”。鑒于此,算法運營商可能因利益沖突而對其用戶個體造成非過失的故意妨害。即便用戶不主動提供數據,以“周全服務”和“互融互聯”為名,無處不在的匿名識別符系統、智能定位服務、高清攝像頭、多功能傳感器、手機應用插件和網站跟蹤代碼對個人行為軌跡的主動記錄,早已將個體私生活抽絲剝繭,令任何人都避無可避。信息采集可以來源于多個渠道,新舊數據可能在算法決策中四處傳播、頻繁疊加、隨意黏合,基于正當理由搜集的信息也可能被不懷好意地用于其他目的。前手平臺的廢棄數據,可能轉手就打包銷售給其他平臺。更重要的是,透過種種數據挖掘,信用評級機構、搜索引擎、主要銀行和商務平臺,利用算法將數據轉換成分數、排名、風險計算和具有極其重要后果的觀察列表,并借此構建出一個個運作神秘的規范系統和評價體系,重新塑造每個人的“成長繭房”。名譽傷害、機會限制和弱點顯化作為算法決策的外部性,對大眾群體造成公共層面的“傷害”。

算法妨害的公私混合性、積累性和不確定性等典型特征,不但是權利救濟難以發揮的特殊束縛,也是立法規制所面臨的理論障礙。鑒于算法活動的當下樣態及發展趨勢,以信息保護入手建立人工智能法律體系的嘗試必然收效甚微,且面臨社會割裂加劇的風險和合規成本陡增的弊病。問題的關鍵在于,如何定性算法活動不同于自然人活動的法律特征,并在此基礎上從于公于私兩個維度重構算法妨害的主體識別制度及責任分擔體系,真正實現人工智能技術利用從“隱私保護”向“社會責任”的躍遷。

(二)智能服務的法律特征與責任框架的內外有別

算法活動的本質是“溫故而知新”。無論是社會福利機構利用綜合系統識別補貼申請詐騙、銀行儲戶通過智能機器人投資顧問做投資計劃、還是商業銀行通過評分系統考察客戶資信,抑或是訴訟當事人操作案件分析軟件尋求辯護策略,完整的算法活動可以大體上歸納為三個典型步驟:1.硬件終端通過深入數據挖掘,獲取被服務(被監管)者及同類群體的原始數據,例如健康信息、金融數據、消費記錄、瀏覽歷史、行為言論、運動軌跡等。2.算法程序在云端將處理整齊的數據輸出為更整齊的概率、排名、風險、傾向、估值等評價和分值。3.應用終端生成具有明確指向性的決策或預測報告,例如,搜索引擎實現競價排名、自動駕駛系統規劃行程路徑、問診機器人輸出治療流程、出行幫手定制自駕游方案、電商平臺識別消費偏好并進行巧妙導購等。機器人的智能水平,與自然人在上述三個步驟中的參與程度成負相關。

從外觀上看,算法服務呈現出典型委托代理關系的法律特征,包含信息或能力弱勢方支付報酬以換取優勢方專業服務的契約。從依靠知識提供特定服務的專業人士,到主要依靠智能機器人的算法運營商,傳統專業服務的法律關系在三個層面發生了改變并由此產生三個相關問題。1.核心服務被前置化預設到算法程序中,智能機器人替代自然受托人接觸委托人并提供專業服務,這是算法服務關系和傳統專業服務關系的典型區別。當智能機器人成為委托代理關系中的受托人時,原先以自然人從業者作為規制對象的信義義務體系,面臨著適用困境。這就產生了如何將以自然人為規制對象的法律體系在算法社會向度中進行重構的問題。2.當算法失靈損害當事人利益時,算法運營商未必是唯一應當承擔責任的主體,在智能服務的法律關系中有多個潛在的責任方。智能機器人可能由算法運營商所有,但核心算法程序未必由其開發,第三方機構或技術開發公司(以下稱技術開發方)也應對自己在設計匹配顧客特征和市場結構算法時的可能過失負責。另外,智能機器人獲得獨立法律地位已經為期不遠。一旦獲得獨立法律地位,智能機器人就是傳統委托代理關系中的代理人,算法運營商和技術開發方則是傳統委托代理關系中的被代理人。這就產生了如何超越傳統委托代理關系、厘清并分配智能機器人、算法運營商和技術開發方的信義義務問題。3.當算法只是在專業服務的部分環節替代自然人,或算法服務的部分運營依賴自然人??贝a和監督輸出時,因系統原因和人為原因造成的不良后果應區別對待。這就產生了如何規制算法活動臺前幕后自然人與算法的相對關系問題。

基于算法服務衍生的受托方信義義務,以算法營運商直接服務的商業客戶和終端消費者為限,并不能夠延伸至普羅大眾。因違反信義義務而產生的侵權責任,在本質上是一種基于合同相對性的責任,無法保護合同之外的第三人。然而,算法活動完全有可能對合同關系之外的第三方造成妨害,例如,自動無人駕駛汽車(受托人)在送乘客(委托人)回家的路上,撞傷過馬路的行人(第三方);依靠數據分析公司(受托人)提供客戶信用報告的民間融資機構(委托人),對申請貸款的小微企業主(尚未與之形成合同關系的第三方)施以懲罰性利率;通過在線招聘網站(受托人)進行校園招聘的大型企業(委托人),排除被標簽化為“參與課外活動不積極”的申請者的面試機會(尚未與之形成合同關系的第三方)。在更多的情況下,算法運營商對公眾的危害可能更加隱秘,例如,哈佛大學喬納森·斯特蘭教授指出,臉書(Facebook)可能利用算法分析多國用戶數據并進行戰略性內容推送,以達到操縱終端用戶在自己國家大選中改變陣營的效果。如果該控訴屬實,受到傷害的是全體民眾。同理,利用算法進行高頻交易的證券投資公司可能引發市場崩潰,受影響的不僅僅是與之交易的對手,還是國民經濟的全體參與者,甚至是全世界。

基于合同相對性的傳統保護,對全新的商業樣態不再適用。在20世紀初,現代工業社會催生了規模經濟,隨著分工細化,大規模批量生產的商品不再直接銷售給消費者,而是透過中間商完成商品分配。1916年,美國聯邦法院在“MacPherson v. Buick Motor Co.案”中廢除了當事人原則(Privity Rule)的適用,并指出了批量制造商所具有的公共義務:制造商不僅應對與其具有直接合同關系的經銷商負責,還應當對任何因其產品缺陷受到傷害的消費者及其家庭成員和旁觀者負責。數字工業時代的智能算法規制,也需要這樣的判例:在對客戶的信義義務之外,算法運營商還應對普羅大眾承擔相應的公共義務。如何借用普通法智慧引導算法運營商履行社會責任,內部化不合理的外部性成本,這也是需要解決的問題。

(三)法律監管的時代挑戰與功利道義的相互增益

以算法為核心的人工智能技術迭代和應用拓展,造成多個方面的監管困境。第一,算法運營商創造出了簡化問題分析和弱化責任歸屬的技術黑箱,將錯綜復雜的倫理判斷和法律關系藏于其后。每個人都可以觀察到各項指標和數據的輸入和輸出,但作為局外人的普通公眾和監管者均難以完全理解算法背后近乎匪夷所思的原理和互動機制。如果監管者無法準確定性算法活動的法律特征和潛在風險,就會導致外部監管失靈。第二,當特定智能服務損害個體私人利益時,只有極少數情況可以依照雇主責任原則直接追溯至程序員和操作者的失誤——帶偏見的數據、不合理的假設、有漏洞的代碼。損害效應產生于算法構建以解決問題的框架,有時也隱藏在數據挖掘的方式中。算法運營商和技術開發方常常作出貌似可信的言論,堅稱其模型合理、數據可靠、結構夯實。但外人難以考證,即使是精通計算機的專業人士,對算法本身的評價也是仁者見仁、智者見智,更不用提基于機器學習的智能算法在自我迭代過程中,有可能寫出令其造物者都霧里看花的代碼天書。因此,以加害人過錯為前提的普通侵權責任,面臨適用困境,阻絕了受侵害方的正常私力救濟渠道。第三,商業巨頭和技術官僚披上“科學”的外衣,以此排斥程序正義的合理訴求。透過對過往數據的充分解讀,算法程序將用戶標簽化,在不知不覺間對個人貸款和就業的機會予以限制,對受眾接受的信息和內容予以控制,對用戶的心智模式進行操縱和重構。算法程序以上帝視角充當著“看不見的手”的角色,但整個過程毫無程序正義可言,致使受損害者權益保護的問題更加突出。第四,社會群體被暴露于算法活動的積累妨害之下,無法通過合同的方式得以避免,集體行動因“搭便車”問題嚴重而成本高昂。面對日益居于社會最佳活動水平之上的算法活動,當事人缺乏賴以保護自身的法律武器,規則制定長期滯后于技術發展,私力和公力救濟渠道都匱乏。

智能機器人與運營商之間是什么關系?是典型的委托代理關系嗎?即電子代理人在代理權限內,以被代理人(使用人)的名義實施的民事行為,后果由被代理人(使用人、營運商)承擔。顯然,這種文義復雜本身是低效而不必要的?;貧w到智能服務的委托代理關系本質,智能機器人和算法運營商應當被視為客戶的“共同代理人”,共同行使代理權、共同對被代理人負責。在當智能機器人法律人格尚不明晰、算法運營商和智能機器人長期存在著因高度“人格混同”和“財產混同”造成“責任混同”時,作為提供專業服務的智能機器人,與算法運營商代理人一樣,也是信義義務的責任主體,盡管二者都共同對被代理人(客戶)負責,在承擔責任的表現形式上,卻只是算法運營商全權為智能機器人給客戶造成的損害賠償買單。

(二)基于財產、人格的混同與分離的多元責任劃分

智能機器人作為投資顧問違反信義義務導致客戶蒙受損失,相關責任由誰承擔?美國的通行做法是由使用智能機器人投資顧問的咨詢公司承擔。這種責任分配方式,具有“運營商問責制”的外觀——作為“電子代理人”的機器人投資顧問不承擔責任,而是作為“電子代理人的使用人”的運營商承擔責任。各州登記在冊的是投資咨詢公司本身,尚不是一個個獨立的智能機器人,而對信義義務的追溯以登記為準。不過,美國證監會已經考慮要求將對足夠智能的機器人進行單獨注冊,智能機器人投資顧問在人格和財產上同投資咨詢公司分離已經指日可待。

面對天馬行空的代碼程序,利用算法提供服務的運營商和接受算法服務的消費者同為信息弱勢方。負責算法維護和更新的技術開發方本身,才是算法運營商的直接受托人,理應以運營商利益最大化謹慎行使職權——盡量減少算法失靈的潛在風險。如果算法運營商不是技術開發方,二者是分離的不同人格主體,因“責任混同”,算法運營商承擔了智能機器人作為事實受托主體理應承擔的賠償責任后,享有向技術開發方的追償權。

隨著計算能力和數據搜集能力呈指數級增長,深度神經網絡和深度學習在最近成為可能,全自動化智能機器人將是壓垮過度簡化責任歸屬的“運營商問責制”的最后一根稻草——距離智能機器人成為獨立承擔責任的民事主體,只有一步之遙。第一,

機器學習算法已經趨近具有自主思考和意識能力的階段。與程序員為每種可能的場景提供精確指令的經典代碼不同,機器學習圍繞著對算法的“規訓”——通過增加算法在未來分類時所參考的數據節點目錄,來實現算法的自我迭代,而不需要程序員來回重寫算法。如今,有可能每個人都不經意地參與了對算法的“培訓”。例如,特斯拉利用車載硬件強行搜集用戶駕駛數據,以改良自動駕駛技術;谷歌的響應驗證碼測試,要求互聯網用戶通過選擇某一特定類別的所有圖片來驗證自己不是機器人,從而增強機器識別能力。第二,智能機器人同運營商之間的“主體混同”和“財產混同”可以被人為破除。在智能機器人已經復雜和先進到人類監管者難以對潛在算法傷害進行預設規避時,運營商迫切希望主張對智能機器人的“所有權”和“使用權”分離,以獲得有限責任的實體保護。建立智能機器人補償基金或引入強制保險制度,以確保算法服務對象得到合理受償的法治趨勢已經成為各界共識,建立統一的人工智能登記平臺以構建明晰的責任追溯體系勢在必行。

技術和制度的穩步推進將最終賦予智能機器人獨立人格、讓其擁有獨立財產,并獨立地成為客戶的代理人。歐盟法律事務委員會于2016年5月提交動議,要求歐盟委員會將最先進的自動化機器人視為具有特定權利和義務的“電子人”,并為其設立登記賬戶;2017年10月,沙特阿拉伯率先賦予機器人“索菲亞”公民身份。國內有權威學者提出:“應盡快賦予聯結主義設計理念下的人工智能原則上自身承擔法律后果的法律主體地位?!?/p>

機器人責任同運營商責任的分離,并不意味著運營商責任的完全免除。智能機器人完全獨立,應視實際情況區分為相對完全獨立和絕對完全獨立。

在智能機器人相對完全獨立的智能服務中,算法運營商一般負責大數據的采集和勘校,然后交付智能機器人利用算法程序生成可供決策的評價和預測報告;此時,運營商和機器人應當被視作客戶的共同代理人。不過,此時的共同代理關系不同于智能機器人同算法運營商人格混同時的“共同代理關系”?;诙唛g涇渭分明的分工協作,該種關系是被代理人就委托事務的各個部分分別向各代理人授權,各代理人在獨立代理權限內單獨行使職權,且在獨立代理權限內承擔相應責任的共同代理關系。雖然,當算法服務致使客戶權益受到損害時,很難直接將算法傷害歸因于單獨的數據偏見或程序失靈,往往是“二者兼有”使然;但是,以可讀報告形式擺在消費者面前的算法決策,才是造成損失的直接近因??紤]到智能機器人的算法和程序在數次自我迭代中,可能已經完全偏離原編程者的意志,相較于永遠受到傳統隱私法、數據安全法規制的數據搜集環節,智能機器人在算法決策環節的行為相對更不可控,理應承擔更大的責任??傊?,在智能機器人相對完全獨立時,算法運營商就數據搜集和隱私保護環節負責,智能機器人則應獨自承擔算法決策和內容生產環節的潛在責任。當智能機器人以自己的補償基金無法彌補因算法決策失誤造成的巨大損失時、無法承擔相應的責任部分,由技術開發方承擔補充賠償責任。

在智能機器人絕對完全獨立的服務關系中,算法運營商通常只負責以自己的名義招攬客戶,智能機器人則在云端完成自主數據挖掘,并利用不斷完善的算法模型即時輸出具有明確指向性的結果并為客戶提供服務。此時,運營商和機器人之間的關系類似于“商號出借”的法律關系。多數國家法律承認商號出借的合法性,商號出借現象在現實生活中也屢見不鮮(諸如掛靠、連鎖經營、特許經營等)。我國法律尚未對商號出借及其法律效力和法律責任做出明確的規定,但依照發達國家的相關規定,一般由出借方與借出方承擔連帶責任。我國《侵權責任法》第34條規定了“用人者責任”,因工作人員執行工作任務造成他人損害的,用人單位承擔侵權責任。我國消費者權益保護法第42條規定,“使用他人營業執照的違法經營者提供商品或者服務,損害消費者合法權益的,消費者可以向其要求賠償,也可以向營業執照的持有人要求賠償?!北日丈烫柍鼋?、用人單位責任、營業執照借用等法理,當智能機器人絕對獨立、因算法決策致使客戶蒙受損失時,算法運營商、技術開發方和智能機器人對外應當承擔連帶責任;連帶責任的內部份額則根據各自責任大小確定。相較于智能機器人相對完全獨立的情形,要求算法運營商對智能機器人絕對獨立時的“失靈”承擔可能更多的潛在責任,是對算法運營商因利用完全獨立智能機器人減少自身工作量而獲得更高利潤的替代性追償。運營商使用人無過錯而承擔連帶責任,會使任何人或組織在釋放完全獨立的人工智能猛獸時三思而后行。

(三)數據受托關系的特殊性與信息信義義務

以算法服務前置為特征的電子智能服務是對傳統委托代理關系的映射與創新。服務內容的數碼化與受托主體的智能化,決定了在電子智能服務所映射的傳統委托代理關系之外,還存在著一層與之并行的“信息委托代理關系”。

算法運營商搜集、???、分析并使用用戶數據,這些數據本身可能對用戶造成損害。由于諸多數字化業務同生活、工作結合緊密且逐漸變得不可替代,用戶不得不提供自身數據、甚至將弱點暴露給平臺,以換取相應服務來維持其在數字時代的“正常人”身份。在這些活動中,用戶同智能服務提供商之間的信息和知識極不對稱;對數據和算法的內部處理方式受專利和所有權保護,以“防止競爭者商業盜竊”;而用戶除了接受使用協議并選擇相信互聯網平臺“尊重用戶隱私”的空頭承諾外別無他法。很顯然,作為信息受托方的運營商或智能機器人,在傳統信義義務之外,還應承擔同其信息優勢地位相稱的“信息信義義務”,以保證其經營和決策行為不會對居于弱勢的客戶造成損害。

數字化信息受托人本身是一種兼具“特別目的”和“特殊形態”的信息受托人,需要承擔的信義義務不能一概而論,必須考察其服務的本質。但是,有一個基本原則是作為信息優勢方的受托人不可突破的底線:不能利用委托人信息對其利益造成損害。易言之,“信息信義義務”的主要內涵不在于保護用戶隱私,而在于不利用用戶隱私損害用戶利益。算法運營商和智能機器人不得宣稱保護用戶隱私,卻同時利用用戶數據脅迫、操縱、歧視其接受服務的用戶。

信息信義義務與傳統信義義務有諸多不同。第一,在傳統的委托代理關系中,委托人對受托人抱有較高期待:除了不傷害自己,還應該為自身福利的提升謹慎行事;互聯網用戶往往無法對智能服務提供商、搜索引擎和社交網站抱有這般綜合期待。因此,信息信義義務具有較低的注意義務內涵。第二,通過各種途徑變現用戶數據,是很多網絡服務提供商的核心收入來源,因為只有這樣,他們才能繼續“免費”為客戶提供具有競爭力的服務。因此,利用用戶信息獲得補償或適當牟利,并不構成對信息信義義務的違反。即便如此,網絡服務提供商不得在任何情況下將用戶數據打包出售或分配給其他公司和平臺。第三,媒體網站依賴其用戶生產更多內容以帶來源源不斷的流量,搜索引擎期待更多數據和頁面以實現更精準索引和分析,他們都具有誘導客戶在網絡公共空間暴露更多內容并從中獲利的現實激勵。這種誘導不同于操縱,并不構成對信息信義義務的違反。

總之,算法運營商和智能機器人對與其形成直接合同關系的客戶負有因傳統委托代理關系而引發的普通信義義務,還對普通用戶負有因服務數字化而引發的信息信義義務;二者共同構成算法運營商和智能機器人內部法定義務的輪廓。

三、外部監管重構:智能時代的企業責任與利益衡平

有效監管是技術普惠的前提。然而,在內部信義義務所賦予的用戶保護外衣無法掩蓋算法活動外部性擴散的公共領域,卻長期面臨“基本法適用缺位”的問題。人們的生活細節和私密信息可能在算法程序面前一絲不掛,自愿或不自愿地臣服于算法決策。當人工智能通過算法決策獲得了本該由政府或公共機構掌握的權力時,對這種權力的約束,就顯得尤為重要。畢竟,以技術賦能而取得的具有公共屬性的權力,并不具備“自由人們的自由同意”的正當性。正是在這個意義上,算法權力濫用的防范與治理需要實現私法責任和公法責任的無縫銜接,揭開技術面紗,構建以人為本、公平至上的道德法律框架。

(一)以公共滋擾定性算法妨害的正當性基礎

外國侵權法學者已經關注到私人領域經濟行為的外部化效應,視“增強公共義務”為根本解決方案。弗蘭克·帕斯夸勒觀察到商業活動對公眾利益的侵蝕,并提出運營商和搜索引擎適用的商業倫理規范。耶魯大學杰克·巴爾金教授將算法活動對第三方和公眾可能造成的妨害比作美國侵權責任法中的公共滋擾(Public Nuisance),建議政府通過建立類似于消費者保護或環境保護的法律體制來應對算法妨害。美國法上的公共滋擾泛指影響公共財產或公共權益的侵權行為,該概念最早來自英國法中所定義的“在實質上影響女王臣民生活舒適和便利”的不法行為。例如,駁船的不當系泊堵塞運河公共航道、劇院門口的長隊影響附近茶館生意、抱著帶天花的小孩在路邊行走驚擾路人、流行音樂會滋擾社區生活、合法示威干擾居民正常上班,甚至因高爾夫球被擊至高速公路造成交通隱患也構成公共滋擾。在“Attorney-General v. PYA Quarries Ltd案”中,英國法院確立了公共滋擾不同于私人滋擾(Private Nuisance)的判定標準——公共滋擾妨害必須是:足夠廣;無差別性地;對群體造成傷害;且不指望任何個人可以獨自負責解決;必須由社區整體共同承擔。美國聯邦法院在“Attorney General v. Hastings Corporation案”中沿襲了英國法院對“群體”標準的劃分,規定在公共滋擾中受到損害的必須至少是“一類人”。

將算法妨害比作公共滋擾有其合理性,這是因為:

首先,算法妨害具有明顯的公共特性,并且會隨著公共和私營部門的決策積累,對公眾產生交叉傷害。政府或公司捕風捉影公眾數字化的身份、軌跡和數據,利用程序進行分析、歸類,得出能夠影響公眾機會(求職、信用、金融等)或對個體進行區別對待(監督、操縱、排除等)的算法決策。數據處理和算法決策又將產生新的指向用戶特性、軌跡、交集的評價和分值,這些評價和分值可能在數據挖掘的過程中被別的平臺采納,重復構建用戶數字表征并強化甚至顯化用戶的弱點。隨著個體數字身份因算法決策的“過度消費”而每況愈下,整個公共數據體系都面臨嚴重污染的現狀。鑒于此,算法妨害是對公眾諸多實體權利的“累積侵蝕”,符合公共滋擾特性。

其次,算法妨害無法因個人訴訟而得以完全解決。算法妨害是不受控制的算力拓展引發外部性擴散的必然結果,因其傷害隱蔽但傷害面廣,對于每個獨立的個體而言,算法妨害并不是非此即彼的二分法——要么受到妨害、要么沒有受到妨害——就能簡單概括的?,F實的情況要微妙得多,算法主體在制定和設計算法要解決的特定問題時,面臨不可避免的權衡取舍。通過法律很難為算法操作劃定妨害底線,也不可能將負面效應隔離于單一因緣。問題的實質在于,是否因為算法活動外部性的擴散對無辜的大眾群體造成了不合理的社會成本。個人民事訴訟無法對算法妨害的群體外部性給予補償,必須依賴于集體訴訟甚至公權力介入。

再次,公共滋擾的歸責原則,適用算法妨害的無過錯責任歸責原則。公共滋擾的定性和量刑,完全取決于滋擾后果的嚴重程度,而不論當事人的主觀意愿。算法妨害的特性在于,難以認定算法運營商、技術開發方和操作員是否具有主觀過失或重大惡意;對于具有自我意識的智能機器人更是如此。算法本身不具有意圖、欲望和惡意,算法程序也不是其創造者、使用者內心偏見和歧視的簡單投射。實際上,算法妨害來源于對人們數字身份數據勘校、分析和擬合的積累效應。有學者指出,“算法系統中常見的‘數據驅動中介建立在‘信息和行為而不是‘意圖和活動的基礎上?!甭毷侵?,算法妨害的責任同公共滋擾的責任類似,是一種無過錯侵權責任,不以加害人主觀故意為構成要件,因為其意圖和目的無從考證。算法活動中的當事人應該聚焦于特定算法的使用所造成的特定社會效應,以及從整體的角度出發這些效應是否合理、正當。

(二)算法經濟功能重校與通用治理規則再造

公共滋擾本質上是一種違法行為。根據其侵害群體利益后果的嚴重程度,由代表全體民眾的公訴人提起刑事訴訟或由代表特定群體利益的律師提起民事訴訟。

1. 鼓勵個人或集體訴訟的市場化監督體制

《美國侵權責任法》規定,公職人員必須對公共滋擾提起訴訟從21世紀開始,美國各州的公訴人通過訴訟不斷擴展公共滋擾的適用,為大規模侵權行為、公共衛生問題和環境污染尋求補救辦法;康涅狄格州甚至起訴電力公司排放過多的二氧化碳。不過,自然人只要能夠證明自己在滋擾中“承受了特別傷害”,就享有公共滋擾中的訴權,法院對自然人的公共滋擾訴權亦予以認可。

隨著智能機器人對各個領域和行業的滲透,算法妨害具有全面而分散的特點:少數受害者能被輕易識辨出來,多數則不能。在這種情況下,可以適當鼓勵民事律師積極介入并代表特定算法活動的受害方提起損害賠償的集體訴訟。中國學界已經意識到,集體訴訟是解決群體性小額爭議、節約司法資源、保護消費者權益的靈丹妙藥,是市場化的監督體制?!睹绹摪蠲袷略V訟程序規則》和判例法規定,只要原告團體滿足了眾多性(Numerosity)、共同性(Commonality)、典型性(Typicality)的特征且具有充分代理關系,就可以提起集體訴訟;該訴訟標準同我國《民事訴訟法》的規定在字面上有一定相似性,但受制于律師行業的整體發展狀況和長期司法實踐的制度慣性,集體訴訟在我國并不常見。面對人工智能的異軍突起,未來立法者需要及時轉變對集體訴訟的態度并輔之以必要法律基礎設施。對于個人因受到特別傷害而提起的民事訴訟,法院也應當鼓勵。美國聯邦法院在“Tate and Lyle v. GLC 案”中裁定,即便與妨害方無任何法律關系,只要在公共滋擾中受到損失,就可以單獨提起訴訟或加入集體訴訟。因此,即便不是算法運營商的客戶或終端用戶,也可以因受到特定滋擾而起訴。

2. 加強以預期效果為導向的信息披露

然而,無論是集體還是個人,針對算法妨害提起訴訟,都會面臨舉證困難的特殊難處。算法活動技術壁壘的存在,原告方難以自證看似中立的算法活動與自身權益受損之間的直接關聯。對來自公眾的懷疑和質詢,算法運營商可以很方便地搪塞以難以捉摸的空話和故弄玄虛的解釋。

鑒于此,算法活動中的信息優勢方有必要就技術黑箱的運作方式和裁判機制做出詳細且外行人也能理解的信息披露。信息披露的核心在于算法決策的運算、邏輯和分析過程而不在于源代碼本身。算法決策的正當性需要智能機器人運算和分析過程中的程序透明和因果透明得以支持,并能經得起從結果向數據輸入的倒推。算法運營商應當主動解釋清楚智能機器人的硬件、軟件和外部環境之間的相互作用,如何導致其當下的行為模式,并清晰、直觀地就以下事項(包括但不限于)作出完整信息披露:信息挖掘的數據來源、典型特征和分類方式;算法程序的運作原理、代碼邏輯和預期效果;可能存在的系統偏差、運行故障和矯正機制。對于算法代碼(人為或自動的)重大修改和刪減,算法運營商也應當補充必要的信息披露。

3. 確保責任主體鏈條的追蹤識別

針對算法妨害提起訴訟,還會面臨確定被告的特殊難處。在算法妨害背后,有著盤根錯節的法律關系以及由此產生的多個潛在責任方,原告方要準確確定被告非常困難。隨著深度學習技術的不斷完善以及智能平臺的相互開源,很多智能機器人和算法程序已經自我改良到完全偏離其造物者預設,只是缺少人類的自主思考、意識能力且尚未獲得獨立法律地位的地步,這進一步加大在損害賠償訴訟中確定責任主體的難度。

當人工智能尚不能被視為獨立的責任主體時,技術開發方對算法妨害負有主要責任,該責任僅當其證明公共滋擾是由于算法運營商的不當使用或拙劣修改而造成時才能得以免除。因自我迭代而“脫韁”的智能機器人造成的公共滋擾,可比照因“產品缺陷”而導致的無過錯侵權責任:受害人既可以向生產者(技術開發方)要求賠償,也可以向銷售者(算法運營商)要求賠償?!懊擁\”原因主要由哪一方造成,另一方有權向其追償。在智能機器人尚未獲得明確法律地位之前,確保其算法程序能夠被追蹤至自然人責任主體,比提升算法運營商和技術開發方的透明度要求更加重要。

注冊登記制度,是確保責任追蹤識別的良方妙藥。例如,2016年,美國聯邦法律要求,所有模型機以外的小型無人機都必須實名登記,有效減少了無人機利用的不當行為。當然,在人工智能領域,穿透技術黑箱的責任追蹤識別必然更加困難,但在技術上也并非完全不可行。美國證監會和美國商品期貨交易委員會共同要求,所有人工智能投資顧問的底層算法,必須嵌入“法律識別標識符”,防止算法運營商在算法中預置有損投資者利益的代碼。對于集成了多個算法程序的智能機器人,每個算法程序都應當自帶“法律識別標識符”,算法之間必須遵循特定的業務關聯協議,且應在主程序中寫入硬核編碼的審計日志,為未來可能的責任劃分留下充分記錄。

4. 保障個體受眾的主動退出機制

消除妨害是公共滋擾訴訟中最常適用的救濟手段。在人工智能語境下,受侵害方可以通過訴訟,請求算法侵害方利用技術手段消除影響、恢復名譽。

2012年1月,歐盟議會著手改革數據保護法規,2018年5月,開始強制推行“全球最嚴”歐盟《通用數據保護條例》(General Data Protection Regulation,下簡稱GDPR)。作為當前波及面最廣、懲罰措施最嚴厲的全球性立法,GDPR賦予歐盟公民隨時訪問、刪除、更正、索取個人數據的權利,并對與歐盟客戶有任何形式業務往來的企業設置合規門檻,被稱為人工智能時代的“人權宣言”。我國可以借鑒歐盟以及西方主要發達國家的立法實踐,賦予受侵害方不受限制的擦除權和遺忘權,以脫離算法妨害。

(三)算法妨害訴訟中的法益衡量標準

1. 提高算法侵害的免責門檻

面對公共滋擾的起訴,被告方常用“自尋滋擾”作為辯護理由,宣稱原告明知存在潛在危害卻仍然靠近,借此免除損害賠償責任。在人工智能時代,算法運營商對個人信息的采集采取了“自覺自愿”的誘導進路,其對消費公眾的吸引力在于“免費”提供更“個性化”的服務。用戶同意網絡服務平臺和算法程序搜集、利用甚至分享個人數據已經成為獲取各類基礎服務的必要前提,而算法運營商對信息搜集的終極用途三緘其口。通過用戶知情同意書、服務協議和各類免責條款,當危害產生時,算法運營商可以輕易證明受害人“自尋滋擾”。即使對于與之沒有直接關系的第三方,被告也可以辯稱其服務和影響力是如此廣泛,已經構成潛在的“公共知識”,進而批判原告沒有盡到適當的注意義務。的確,在已經深入滲透市民生活方方面面的算法面前,潛在的被侵害人難以脫離侵害的最終發生,脫離侵害就意味著完全喪失找工作、租房、醫療保險或參與任何日常生活中司空見慣的正?;顒拥幕緳嗬?。

考慮到算法應用給個體公民帶來的潛在脅迫,在以公共滋擾對算法妨害提起的民事訴訟中,被告不得以“自尋滋擾”為由得以免責。

2. 引入利益衡平機制

免責門檻的提升,并不是法律對算法運營商過度苛責。算法妨害的實質,是算法外部性擴散引發的社會成本向普羅大眾和弱勢群體的不合理轉嫁。算法規制的終極目的,是在盡可能不犧牲社會總體福祉的基礎上,利用規則引導讓算法運營商、技術開發方自行消化算法外部性擴散導致的社會成本。因此,法律應兼顧“卡爾多-??怂沟男в米非蟆迸c“社會總體帕累托最優”,合理促進算法與社會的深度融合。

1970年,美國聯邦法院在“Boomer v. Atlantic Cement案”中首次引入成本收益分析模型,考察造成公共滋擾經濟活動的社會效用以確定最終的賠償金額與方式。該案中的原告,代表全體土地所有人對水泥廠造成環境惡化提起訴訟;法院裁定水泥廠的工業污染構成公共滋擾且承擔相應責任。在該案的基礎上,法院在“Estancias Dallas Corporation v. Schultz案”中,發展出了用于比較訴訟雙方權益訴求的多重衡平測試:某商業公寓的中央空調系統的噪音構成對周圍居民的公共滋擾,居民們遂向法院申請禁令。法院對證據進行審核后,考慮到不安裝中央空調,商業公寓根本無法對外租賃產生經濟收益,但安裝靜音空調系統的開銷明顯大于周圍居民所受的可推算損失,法院因此駁回了居民群體申請禁令的請求,但判決商業公寓的管理人在安裝靜音空調系統前,每年對受滋擾居民持續支付總計1萬美元的賠償金。

法院的成本收益分析并不總將區域經濟效益置于個人合法權益之上。1982年的“Prah v. Maretti案”,法院禁止被告在自己土地上建造高層公寓,因為過高的建筑將妨礙周圍居民樓的采光。法院裁定:被告對陽光的阻擋將妨礙周圍居民樓頂太陽能集熱器的正常使用,會對打算使用新能源設備的“一類人”,構成公共滋擾。由此可見,在公共滋擾案件的審判實踐中,美國聯邦法院并非單一地在區域經濟效益和個人合法權益之間作權衡取舍,也同時兼顧當多個潛在個人合法權益受損時,整體社會效益的變化。當公共滋擾對社會整體效益造成威脅時,不因個案中區域經濟效益遠甚于個人合法權益,就放任公共滋擾橫行;這是算法社會所需要的法律底線,也是人工智能時代必須遵循的基本原則。

當經濟實體更加依賴新技術以獲得市場競爭優勢時,利用算法作出決策,會使公共部門、商業公司能夠更有力且更廉價地影響更大規模的受眾群體,反過來進一步拓展以算法為核心的智能機器人在分組、歸類和決策上的速度、深度和廣度,進而造成算法外部性擴散升級。這些副作用就好比工廠活動的提升導致污染水平的提升,是商業繁榮和算法拓展互為因果造成的整體環境惡化。鑒于此,法律應當在技術發展與個體保護之間謹慎衡平,避免局部經濟利益的雪球效應顛覆社會整體效益。應當明確,內部治理、消化算法自身的“污染”,是所有利用算法實現特定經濟目的的公司和企業的基本社會責任。

四、結語

在大數據驅動算法語境下加強責任穿透,與國務院《新一代人工智能發展規劃》相一致。人工智能具有顯著溢出效應,合理運用能推動經濟社會各領域從數字化、網絡化向智能化加速躍升并實現對社會、經濟和生活的全面治理。先進的法律制度可以為確保算法活動不至于具有脅迫性而建立防火墻,本質上,這是一種對“治理的治理”。

在世界范圍內,至今尚不存在一套完整的規范人工智能法律制度。鑒于此,本論文從內外兩個方面,就人工智能時代的責任歸宿的基本框架以及法益衡量提出了通用標準。從合同相對性出發,算法社會的責任主體識別,宜遵循信息優勢方承當更大責任的基本原則。具體而言,算法運營商和算法開發商相較于算法受眾具有更大信息優勢,在智能機器人不具有獨立法律地位之前,由算法運營商和算法技術開發商對智能機器人提供的算法服務造成的妨害全盤承擔民事責任;一旦智能機器人具有獨立法律地位,則可認定智能機器人有優于運營商和技術開發方的信息地位,由智能機器人與運營商、技術開發方共同承擔連帶責任。人工智能時代的責任和義務框架是以變應變的。從合同外部關系出發,算法活動除可能對合同直接當事人造成“故意妨害”外,也可能對合同關系之外的普羅大眾造成“公共滋擾”。侵害個人權益的算法行為如果具有更高價值的法益,則應當被適當允許,以促進區域經濟效益、鼓勵科技進步;對個體權益的技術侵害因時間或范圍的疊加可能上升為對整體社會效益的累積侵蝕,那么,即使該算法活動具有較高的區域經濟價值,也必須及時制止以防范系統性風險。

Algorithm Regulation in the AI Era: Liability and Compliance

TANG Linyao

(Institute of Law, Chinese Academy of Social Sciences, Beijing 100009, China)Abstract:

With cloud data mining providing the fuel for algorithm activity, artificial intelligence robots are vividly becoming human agents in sophisticated commercial activities, reshaping the credit system of the society. Traditional fiduciary system is now facing critical challenges due to the lack of public legal infrastructure against regulatory arbitrage and big data rentseeking. In essence, algorithm nuisance is a special kind of public nuisance. In order to internalize unreasonable social costs associated with AI products, compliance obligations shall apply to all entities involved in AI production and utilization.

Key Words: ?artificial intelligence; algorithm activity; fiduciary duty; public nuisance; liability framework

本文責任編輯:李曉鋒

收稿日期:2019-11-02

基金項目:中國博士后科學基金資助項目(2019M650947);中國社會科學院博士后創新資助計劃成果

作者簡介:

唐林垚(1990),男,四川省成都人,中國社會科學院法學研究所助理研究員研究人員,法學博士。

① 1959年,馬文·明斯基(Marvin Minsky)在麻省理工學院建立第一個人工智能實驗室,距今正好60年。

② 本文中“監管套利”指人工智能運用產生機器人取代自然人的新情況,導致制度、規章和法律缺失,算法營運商借機獲取超額利潤、轉嫁成本。

猜你喜歡
人工智能
人工智能AI
人工智能
人工智能之父
2019:人工智能
人工智能
人工智能與就業
China’s Artificial Intelligence Revolution
數讀人工智能
人工智能時代,就業何去何從
下一幕,人工智能!
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合