?

人工智能時代公司社會責任的軟法規制

2020-02-04 07:54梁偉亮
科技與法律 2020年5期
關鍵詞:人工智能

摘要:在人工智能時代,數據和算法的運用使公司社會責任規制面臨著新挑戰。在此情形下,基于傳統硬法對于公司社會責任規制的乏力現實,為與當前時代的發展契合,以軟法為主導的規制手段將成為公司社會責任規制的新路徑。從法學和經濟學視角審視都更具有合理性,其不僅能夠促進主體間實現實質正義,也更符合成本—收益的價值考量。為推進這種規制手段的實施,首先應將數字正義和政府適度干預確立為公司社會責任軟法規制的基本理念,并在該理念的指引下,使公司運營與社會責任的實施形成互動,并賦予用戶算法解釋權,促使公司內生激勵和外部約束共同發力,最后形成以軟法規制為主導,軟硬法協同的公司社會責任規制格局。

關鍵詞:人工智能;公司社會責任;軟法;數字正義;適度干預

中圖分類號:D 912.29文獻標識碼:A文章編號:1003-9945(2020)05-0084-11

基金項目:國家社科基金項目“創新社會治理背景下社會企業法律規制研究”(18AFX018);2018年重慶市人文社科規劃項目“關聯企業破產法律問題研究”(2018BS116)

一、問題的緣起

近百年來,學界對公司社會責任(Corporate So? cial Responsibility)理論探討的熱情一直未有退減之勢,相反,幾乎是每隔20年就要輪回一次[1]。究其原因,有其理論自身的發展邏輯,更有社會經濟發展現實的影響。進入數字時代,海量的數據似浪潮般涌來,日益深刻地影響和改變著人們的生活。在這場無聲的巨變之中,公司作為市場經濟的主要力量,在經濟理性的驅使下,也致力于數字經濟和人工智能的發展,從而大量地產生和使用數據。與此同時,在2018年中國發展高層論壇上,作為BAT之一的互聯網獨角獸公司百度,其董事長李彥宏表示:“中國用戶對于數據隱私問題不怎么敏感在很多情況下愿意用隱私數據交換便捷性和效率?!笨梢?,數據環籠之下的廣大消費者,對于數據的敏感,并未隨著數字經濟的發展而漸趨敏銳。另一方面,基于海量數據的人工智能技術的運用,為公司洞悉用戶意圖提供了巨大便利。在百度競價排名、“魏則西事件”、大數據“殺熟”等事件引起社會熱議的同時,由此引發的公司社會責任的問題,再次激起社會討論的熱情。因此,在制度體系闕如的背景下,百度等數據型巨頭公司是否中立、正當地使用數據,對數據的分析是否遵循倫理道德,并將這些嵌入公司社會責任的踐履之中,成為人們熱議的焦點。在此,不難預測,在當前時代下,對公司踐履社會責任的規制探究,必將涌起公司社會責任理論探討的新一輪浪潮。綜觀現有文獻,對公司社會責任規制的研究,可謂汗牛充棟,但將該問題置于人工智能時代的視閾之下,且探討基于軟法的規制路徑,進行系統性論述且卓有成效之理論著述寥寥。理論研究的不足使得對該問題的解決難以找到足夠的支撐。難以達到引導企業建立向善的經營模式,促使數字技術可持續發展并實現經濟繁榮局面;也無法引導提高廣大數據用戶和消費者的數據保護意識,維護其數據權利的目的。為此,本文擬在人工智能語境之下,以數字正義和適度干預理念為指引,探究基于軟法的公司社會責任規制路徑,希冀促成以上目標的實現。

二、人工智能時代公司社會責任規制的現實挑戰

公司社會責任并非新詞,相反,濫觴于上世紀20年代美國大工業發展時期的公司社會責任,在歷經近百年的論爭和發展之后,已經逐漸被學界和企業界所接受。大家普遍認為,公司社會責任是公司法不斷完善的產物,也是公司法的發展方向,其是對以追求利潤最大化為唯一目標的傳統公司經營理念的修正[2]。通過公司社會責任的實施,可以化解公司在正常經營過程中的負外部性,實現公司內部利潤和外部利益的均衡和穩定[3]。并且,以義務為本位的公司社會責任可以破解公司單一追求經濟效益而可能誘致的市場失靈,是經濟法社會本位理念的突出表現[4]。進入人工智能時代,在大數據、云計算、深度算法學習等的催化下,人類正在從持續千百年的物理實體社會跨入由虛擬數字構造的新興社會[5],包括公司在內的社會主體的活動空間在虛擬與現實的時空交織中得以延伸。與此同時,公司社會責任也被嵌入“數字基因”,具有了更加豐富的內涵。由此導致對其的規制也面臨著新挑戰,這種挑戰主要表現為引導公司對掌握的數據和算法的規制。

(一)數據和算法:人工智能時代公司社會責任規制面臨的新特征

誠如前述,公司通過踐行社會責任,可以化解正常經營過程中的負外部性,即將外部性內部化。隨著“萬物互聯,事事算法”的人工智能時代的到來,公司踐行社會責任的外部環境發生了巨大變化。這些變化一來為公司踐行社會責任提供了有力工具,二來也為破解公司追求利潤最大化與服務社會的二元悖論提供了新路徑。人工智能的基礎是數據,本質是算法[6]。為此,人工智能時代的公司要關切利益相關者的倫理和法治訴求,需協助解決因海量數據獲取、分析和使用引致的倫理和善治等問題。本部分分析圍繞公司社會責任規制而出現的數據量化和算法統治問題,從數據用戶和消費者權益保護的維度展開。

1.數據量化

隨著信息技術的不斷發展和普及,產生了大量半結構化甚至非結構化數據,并呈指數級暴增。這些數據集中于企業、政府、高校、醫院等機構,但客觀來講,相比于前三者對數據的使用,企業因商業利潤的驅動,更易對掌握的數據過度分析和使用,甚至是非法利用,對數據主體和消費者的權益造成侵害。有了海量數據的“喂養”,人工智能變得更加智能,處理數據的能力進而也越強,其對用戶和消費者數據獲取越多,就更能實現對后者的精準“畫像”。當你和家人朋友聊到某個商品時,此時打開淘寶等電商購物平臺,你剛聊到的商品很大概率會出現在搜索欄里,這是對消費者某個時點消費需求的滿足。當然,通過對一時間段內消費者行為的串聯和分析,人工智能的“畫像識別”功能還可以判斷出消費者的消費習性,并在算法的輔助下,向你精準地推銷商品或服務。比如,你在使用自動駕駛汽車外出時,通過汽車自載的導航功能搜索的目的地信息、經過哪家超市并購買了什么商品、經過加油站并用哪種付款方式加了油,這些信息都可以串聯起來,整合并加以分析[7]。類似操作絕大多數都是在你未知的情形下完成的,潛藏著風險,這就是典型的數據量化。遺憾的是當前法律規范對此并無系統的規制安排,由此,對企業的數據治理是數據治理活動的重點領域。根據國際數據治理研究所、IBM數據治理委員會等權威機構的定義,企業數據治理即對企業的數據管理和利用進行評估、監督和指導,通過不斷創新數據服務,為企業創造價值[8]。由于公司社會責任的實施與公司自身的經營活動密切相關,因而,對企業的數據治理,成為人工智能時代公司社會責任規制面臨的新特征。

2.算法統治

在數據量化的基礎上,算法的運用隨處可見?!叭f物皆可數據化,一切皆可被算法處理,算法深刻地影響著我們的生活,影響著公司商業模式的運行”[9]。在公司經營中,為了不斷地擴大影響力,鞏固自身市場以進一步獲取利益,公司將投入充足的人力、物力和財力,將計算科學與認知科學相融通,不斷開發、調試和完善算法。如此,一方面將客觀促進社會技術的進步,滿足社會變遷的需求;另一方面,由于算法結果的不可預知和算法典型的商業秘密屬性,除因底層數據本身原因而導致的偏見和歧視外,還有可能在其輸出層和輸入層之間產生“黑箱”問題,歧視和不透明導致各相關利益主體之間“權-義-責”結構不對稱程度加劇,數據用戶和消費者的權益極其容易受到侵害。

除此之外,在精神實在層面,算法造成的“統治”局面也同樣使人擔憂。這主要體現在對人自由發展的束縛。在馬克思的經典論述中,人自身的發展可以分為三個階段:第一階段是“人的依賴關系階段”。這個階段生產力水平整體較低,人和人之間的依存度較高,個體如果獨立于群體便無法生存。第二個階段是“以物的依賴性為基礎的人的獨立性”階段。在這個階段,人身依附關系的解除使個人獲得了對他人的獨立性,并且形成了普遍的社會物質交換、廣泛的社會關系、多方面的需求以及全面的能力體系。但在這個階段,由于人對物的依賴關系的存在,致使個體的這種獨立性是“初級的”“外表上的”,人的全面自由發展還遠沒有實現。第三階段是“自由個性”階段。在這一階段,人擺脫了對物和對人的依賴關系,完全控制了自己的生存條件,形成了“自由人的聯合體”,并且,每個人的自由發展是一切人自由發展的條件。顯然,算法統治將沖擊原有資源的分配體系,導致人對物依賴性的不斷增強,物理阻隔人自身歷史發展的進程。立于人工智能發展前沿的量化數據掌握者的能力得以明顯強化,而另一部分人甚至連自身隱私和自由發展權利都越來越難得以保障。強弱懸殊越變越大,“強者為所能為,弱者受所必受”,少部分人享有越來越大的自由,越來越多的人受到越來越強的必然性束縛。

由此,對公司掌握的算法進行規制具有正當性和緊迫性。在眾多的規制手段中,相對于其他方式的較高成本和不顯著效果,公司社會責任的實施可以進行較好地適配,達到引導、約束算法發展和倫理遵循的目的。

(二)傳統硬法不足以規制人工智能時代的公司社會責任

經過多年的探討和論爭,學界普遍認為,“硬法”即指由國家強制力保障實施的法律規范[10]。公司社會責任是在經濟責任、法律責任之外,以道義準則為核心的倡導性義務①。在硬法規制的語境下,公司社會責任的承擔只能是最基本義務的倡導,更高層次的要求則屬于企業自主選擇的范疇,這種倡導性義務以不侵犯企業私權為界限??梢?,以硬法規制并不能涵蓋公司社會責任各層次的內容要求,也無法將其可能存在的變動適當地納入到調整范圍,形成良性的互動機制則更是惘談。為此,單純依靠硬法顯然無法滿足公司踐行社會責任的制度需求[11]。具體言之,(1)傳統硬法對公司社會責任規制的調整范圍有限。將道義準則作為法律化的義務,如過度要求則極其可能使道德調控方式的“自律”轉變為“他律”,在價值多元的道德自由社會,將自覺主動的社會行為變為需他人約束的行為,一來將導致公權過度介入社會生活,二來導致社會責任行為者心理接受的困難。(2)硬法對公司社會責任的規制缺乏靈活性和合理性。由于社會整體利益的價值導向,硬法的規范效力具有普遍性和全局性,為此難以兼顧不同主體在部分時空條件下追求的公平正義。由于不同公司在地域、行業、技術條件等方面的差異,致使其承擔社會責任的內容也具有差異性。并且,隨著經濟的發展,社會對公司的期待也在變化,使公司社會責任內容兼具時代性。顯然,硬法的規制不能滿足公司社會責任發展所要求的即時性和多元性。(3)硬法的規制主體較為單一,缺乏社會參與。硬法主要由公權機關采取命令式的實施機制,與社會權力缺乏互動和對話,這與當前公共治理中強調的共治理念相悖。當前,公司社會責任的內容具有時代性、多層次性和多元性等特征,利益關系較為復雜,需多方主體協同共治,才能取得最佳的治理效果。單純依靠硬法顯然無法滿足這種需求。

人工智能時代,公司社會責任實施中面臨的海量數據和算法等新特征,為其規制帶來了新的挑戰。除前述所言的問題之外,在數據和算法等為新特征的數字時代,公司踐行社會責任面臨著新的問題。如果僅由硬法進行規制,效果明顯是要大打折扣的。(1)人工智能時代,對公司社會責任的規制,硬法本身是不完備的,這種不完備主要體現在與公司社會責任相關的法律規范較為分散且效力有限,系統性不足②。(2)硬法實施機制單一且缺乏靈活性,當前時代,該缺弊將被極大程度地放大,進一步影響規制的效果。(3)硬法規制帶給企業實質的不平等。技術在變革著傳統企業經營模式和競爭樣態的同時,使一些大企業在數字時代發展初期即占盡優勢,前期制度的不完備及執行的缺位使其迅速成為受益者,不僅獲取了較多利潤,且在法律規范制定中占據了主導地位,相比之下,其他企業則必然處于劣勢地位。同時,在數字技術主導下,也使一些企業因為差異化產品的提供、性價比提高和服務模式的優化,快速獲取了用戶并實現較大利潤,具有了較高估值。具有普遍規范性的硬法如果對這些企業均采取統一的規制手段,必然造成企業之間的實質不平等。

綜上,基于硬法對當前時代公司社會責任規制的乏力現狀,我們在探討公司社會責任規制的新路徑之時,將目光轉向與硬法相對應的軟法便成了不二選擇。

三、軟法:基于公司治理的公司社會責任規制新思路

軟法并非新概念,其在全球范圍內的公共治理中已被普遍接受[12]。濫觴于20世紀中后期的軟法治理,雖歷經近半個世紀的發展,但仍有爭議,學界對其的研究,還處于不斷的推進之中。在概念上,國內外學者多采用法國學者Francis Snyder的界定,即認為:軟法是“原則上沒有法律約束力但有實際效力的行為規則”[13]。通過這些行為規則實現的公司社會責任的規制效力,兼具法學和經濟學的邏輯基礎。

(一)公司社會責任軟法規制的法學和經濟學分析

1.促進各主體間權利的實質公平

對于公司而言,由于不同公司在先天資源稟賦、技術研發能力和政策優待等方面的差異,其在社會責任的承受能力上也必有不同。并且隨著人工智能等技術的發展與迭代,這種差異性會更加明顯。如用硬法普遍規范的形式對其不加區分的對待,將導致實質上的不公平,這種未包含“某種補償性安排的制度也是不健全和不可持續的”[14]。通過軟法差異化的規制,有層次的區分不同公司社會責任的承受能力,使公司社會責任的實施不流于形式,也更符合該制度設計的初衷。這種“差別原則”是經濟法實質公平理念在社會責任實施中的體現。

對于消費者和用戶而言,由于硬法規范本身的不完備,以及實施機制的單一和形式化。如果僅由硬法對公司社會責任進行規制,公司在大多數時候可以滿足最低形式的法律責任要求,在形式上達到正義的要求,但在實質上,會因沒有選擇“善治”的規范而功敗垂成。因此,通過軟法規制,可以克服硬法規制公司社會責任的不足,一來保護用戶和消費者數據信息的安全性,免于非法竊取和不合理使用;二來規制公司在“法無禁止即自由”的“免責金牌”之下過度收集和分析用戶數據,使大數據“殺熟”等現象得到遏制;三來在軟法的主導之下構建起“柔性”的多元糾紛解決機制,包括建立多元的在線糾紛解決機制和優化糾紛處置程序和反饋機制。以使用戶和消費者在權益受到侵害時能夠及時、有效和妥當地解決糾紛。通過選擇這種“善治”規范,使消費者和用戶獲取實質意義上的公平。

2.成本—收益分析和主體博弈的考量

首先,軟法促成成本—收益分析結構的優化。在公司社會責任的實施中,硬法規制主要通過公權介入的方式進行,這意味著或多或少將影響公司的自主經營權。根據法經濟學的成本效益理論,效益并非僅僅局限于經濟主體的經濟效益,還包括與之相關的政治效益、社會效益等。就成本而言,公權介入的管制包括管制立法、執法、法規的修改與調整等環節,每個環節,都會產生相當成本[15]。從效益來看,在管制經濟學看來,政府管制的收益由壟斷者收益減少而消費者收益增加衡量[15]。公權過多地介入會出現政府以“敦促”公司實施社會責任為由,無端介入公司自主經營,為“政府攤派企業”尋找正當性基礎。這種介入也容易使公司社會責任規制陷入數據和量化的窠臼。在印度推出“不低于最近三個財政年度平均凈利潤百分之二”的“強制支出模式”③后,有一項針對該法案實施效果的調查顯示:被強制實施社會責任企業的價值平均減少了2.6%~3.3%,遠超法案規定的2%[16]。而這些成本,都需先由公司承擔,并最終落在使用公司產品的消費者身上。為此,政府管制應遵循適度原則,嚴格控制在一定限度之內。相比而言,通過軟法規制公司社會責任的實施,可以降低規制過程中直接由社會負擔的成本,且避免了“企業辦社會”現象的發生。軟法主張通過公司的內生機制,使公司自覺承擔起其可承受范圍內的社會責任,即在建立充分的信息披露制度和聲譽約束機制的基礎上,以用戶的自由選擇來促使公司基于“成本—收益”的考量而自主承擔社會責任。

其次,軟法是有關共同體充分對話和博弈的結果。雖然公權介入也涉及市場主體之間的交流和談判,但是隨著數字技術的發展,網絡公域急劇擴張,硬法規制的滯后性已不能滿足社會責任規制的需要。具體來看,立法在程序上的嚴格,時間、物質上的高成本,與數字技術的高速發展形成潛在的矛盾。軟法規范具有多元性和靈活性等特征,其法源除了一般的法律文件和政府規定,還可以是行業協會等組織制定的規章制度,甚至可以是公司內部的章程或手冊,這些規范均由更加具體的利益主體參與制定,規范內容更具針對性。軟法規范更像是合作博弈的結果,對博弈方來說更接近帕累托最佳,這意味著參與直接互動關系的消費者和企業在一定程度達到了能體現各自利益的一致意見[17]。進言之,這些經過內部參與成員充分民主協商、對話而制定的規范,是共同體內部成員利益博弈的結果,更充分地體現博弈主體的利益訴求,由此減少規則實施的阻力。

(二)公司治理:公司社會責任軟法規制與人工智能的契合空間

在著名的“公司社會責任金字塔理論”④中,公司社會責任除經濟責任、法律責任等最低限度的責任外,還有相當部分是社會對其除營利之外的期待,即較之法律責任更高層次的道德倫理義務。這種道德倫理義務的踐行,直接由公權規制實施明顯是不合理的。通過內嵌于公司內部治理和行業協會等組織的價值認同實現的軟法規制,由于不具有硬法規制的強制性和普遍性,符合特定利益群體的要求和愿望,可以引導公司自覺承擔其可實現的最大限度的社會責任,滿足了社會的期待。我國雖然在2006年《公司法》修訂中才將“社會責任”的表述作為一般條款入法,但其實早在2002年《上市公司治理準則》中,就采納了國際公認的標準規范,單獨設立了“利益相關者”一章,對上市公司實施社會責任作出了要求。在2018年修訂的《上市公司治理準則》中,更是對公司社會責任的主要內容、在公司治理中的原則定位和信息披露框架等作了具體規定,這些共同構成了社會責任嵌入上市公司治理的制度框架。在該準則中,并未明確上市公司社會責任信息披露等是否采用強制性的規則框架,顯然這些都留待軟法規范予以解決,如由交易所、相關行業協會等制定操作細則和規范。

人工智能的發展與公司社會責任規制的結合,必然顯現在與公司治理的矛盾關系之中,這從公司治理的理論和實踐發展即可看出。早在上世紀30年代,伯利和米恩斯在經典著作《現代公司與私有財產》中,就表達了公司治理會走向技術統治的觀點。他們以美國當時的公共公司為樣本,論證了公司股東與經營者之間的緊張關系。而這甚至使他們對公司制度產生擔憂,“如果公司要繼續存在下去的話,對大公司的控制則必然發展成純粹中立的技術統治,以公共政策而非個人利益為基礎,以平衡不同群體的利益?!雹蓐P于“中立的技術統治”的選擇,在“世界首個機器人公司董事”VITAL出現,并作為香港風投公司Deep Knowledge Ventures“投資委員”的時候⑥,答卷已徐徐展開。在當前技術水平階段,人工智能已在介入公司治理之中并發揮作用,不難想象,在人工智能技術發展到強人工智能甚至超人工智能階段⑦,由其擔當“中立的技術統治”角色,完全可能。但可預見,公權介入也必然隨著對人工智能的管制滲透到公司治理之中[18],通過公司治理實現的公司社會責任規制又將重回公權和硬法規制的窠臼。為制約公權介入,保障公司的自治空間,可通過軟法規范進行緩沖。

軟法規范的多元性和靈活性,能夠在更大程度實現共商、共治理念,將不同時空語境下的不同類型公司均納入參與主體的范疇之內。由于個體的參與感提高,為紛繁復雜的社會責任踐行提供了更廣泛的基礎。這種共商、共治理念在涉及道德倫理性的社會責任的踐行中,讓企業參與到規則的制定和實施中,充分體現了對企業意愿的尊重。使軟法規制手段本身與公司社會責任的實施形成了良好的互動關系。

軟法規制公司社會責任中所踐行的共商、共治理念,正契合了“共建共享共治”的新的社會治理理念,由單一的國家制度輸出優化為國家、社會、個體共同參與的制度構建。這與以數據、算法為新特征的人工智能具有不謀而合之處,不論是構建由數據和算法架構的網絡公域,還是對這一網絡領域進行治理,共商、共治理念都是行動指針,前者指向發展,后者著眼于安全和穩定,雖導向不同,但也因此構成了人工智能發展的整體。當前,對公司踐行社會責任的規制,即引導和規范公司踐行數字倫理的要求,發展向善的數字經濟模式,合理、中立的使用數據,以此推動社會責任的實施。

四、人工智能時代公司社會責任軟法規制的具體進路

人工智能時代,對公司踐行社會責任進行規制面臨著新的挑戰,表現為公司運用數據和算法等底層技術邏輯,而硬法不足于對其進行規制。在軟法規制成為不二選擇的前提下,探索其規制的具體進路,首先便需明確軟法規制應遵循的基本理念。

(一)數字正義與適度干預:公司社會責任軟法規制的基本理念

作為哲學的重要范疇,理念指的是“一種理想的、精神的、永恒的普遍范疇”。在黑格爾看來,理念屬于哲學的研究對象,而法學作為哲學的一部分,其研究應該以理念為出發點的。人工智能時代,確立公司社會責任軟法規制的基本理念,應該從兩個主體著手:一是掌握和控制人工智能技術的公司,二是以政府為代表的介入人工智能技術治理的公權機關。通過以下兩個維度確立的基本理念,一來構建倫理為先導的社會規范調控體系,二來制約政府的管制行為,保障公司的自治空間。

1.公司運營維度

從公司運營維度來看,即引導公司確立數字正義理念。對于“正義”概念,在經典的《正義論》中,羅爾斯對其有深邃的論述?!罢x”與“真理”一道,作為人類活動的首要價值,是“絕不妥協的”。在人工智能時代,這種正義價值觀具有了更豐富的內涵,特別是因數據量化和算法的廣泛應用而導致的數據正義觀、算法正義觀的粉墨登場,為現代性正義價值輸入了新鮮血液[19]。這種現代性的正義價值內容,嵌入正義理論的闡釋中,可以得出如下闡釋框架:所謂數字正義:(1)對于在網絡空間活動的每個人,都擁有一種基于正義的不可侵犯性的權利;(2)這種正義的觀念,最終是為推動網絡空間全員利益服務的;(3)這種正義觀,必須在網絡空間充分公開并受到廣泛認可;(4)由這種正義觀指導而設計的用于規范網絡空間利益沖突的準則需在各利益主體之間進行恰當的平衡⑧。

為使這種理念落實到公司社會責任具體實施中,第一,應將這種理念深植公司的日常中,不僅體現在公司的運營中,引導公司建立向善的商業模式,還應踐行于公司使用數據和算法的具體商業操作上,遵循基本的安全、透明、非歧視和責任原則。這和2018年10月第40屆數據保護與隱私專員國際大會通過的《人工智能倫理與數據保護宣言》所確立的人權保護六項原則具有異曲同工之處⑨。2020年4月,歐盟有關方面和微軟、IBM等科技巨頭簽署了《人工智能倫理羅馬宣言》,再次申明了人工智能發展中應遵循的相關倫理原則[20]。這代表人工智能發展中人權保護和發展的趨勢。第二,公司主導加強數字倫理的討論與研究,推進自然科學、社會科學領域專家間的溝通與對話,圍繞數字技術的開發和使用共同商定和形成具有普遍約束力的倫理指導原則,指導公司社會責任的實施。如在美國,由數據公司開發,并廣泛用于各地法院的犯罪風險評估算法COMPAS,后被證明對黑人造成了系統性歧視,此事轟動全美,一時使美國司法權威大受質疑。這表明,發展機器倫理不僅需要自然科學領域專家,還需要社會學家、法學家等社科領域專家的參與,為數字技術的研發和應用提供道德準則。第三,在數據的分析、使用和算法的運用中,要加強論證和試驗,廣泛征求意見,切莫采用數據獨裁和霸權手段,通過自身技術優勢實施欺凌行徑。因為從長遠看,這是不符合公司發展利益和有損于公司技術進步的。

2.政府管制維度

在政府管制維度,確立適度干預理念,為軟法規范的生成和實施創造制度環境,也同時為公司治理保留自治空間。在人工智能的發展上,國務院于2017年頒行《新一代人工智能發展規劃》(國發〔2017〕35號),該規劃希冀人工智能技術能夠在新興技術領域有所作為,并促進社會經濟的發展。同時,規劃也明確提出了人工智能在推進社會治理工作中的價值。在此前的2016年10月,美國國家科學與技術委員會發布《國家人工智能發展與研究戰略計劃》,提出七個關鍵性的人工智能領域戰略方向,為人工智能發展統籌規劃和布局??梢?,為促進人工智能發展,各國大多采取國家規劃的形式,從國家戰略的層面制定發展路線圖,和其他產業相比,更多地體現了政府意志,這是居于人工智能產業發展和技術安全的考量。同樣由于安全因素,政府管制對算法的介入甚至控制在一些領域司空見慣[21]。誠如前述,當人工智能作為具體的技術工具介入公司的治理之中,一方面滿足了公司治理發展對“中立的技術統治”的需要,另一方面,客觀將政府管制引致公司治理中,這將“直接限制市場主體私權,改變市場主體的利益結構”[22]。如果公權通過算法進而控制人工智能,不僅公司社會責任等事項的決議,甚至公司整體也存在被控制的可能性。此時,必要將政府的管制框定在適度的區域之內。

為落實適度干預理念,(1)應確立公權規制的界限,加強對人工智能安全標準的研究,在國家標準之外,還應設定行業安全標準,并盡量細化,如此為各方行為設定邊界;(2)除居于人工智能行業發展、安全因素考量,政府應秉持適度的干預原則,在決策中遵循程序的法定化、科學化和明確化原則,并盡量適用軟法規范,不應越界;(3)確立使用人工智能的公司的重大事項報備的常態化機制,公司應組成人工智能、安全、法律等領域專家所組成的委員會,對重要事項適時決策;(4)確立一套分別適用于監管機構和公司、公司經營者的權、責和激勵機制,促進該理念的實施。當然,該問題較為復雜,還需進一步研究闡釋。

(二)經營利益與社會利益平衡:公司運營與社會責任實施的良性互動

有觀點認為,公司管理者應當將股東權益放在最高的地位,認為“公司社會責任學是一種偽裝”⑩。雖然此觀點在20世紀以來接踵而至的公害事件沖擊下逐漸失去支撐,但是作為以道德責任為核心的公司社會責任,其實施的前提是公司獲得利潤,也即公司社會責任的實施與公司利潤的獲取并非背道而馳。相反,如果公司社會責任與股東利益相一致將產生相乘效應,二者應同時存在于對公司的廣義認知中。換言之,只有公司在經營中獲得利潤,才能更好地踐行社會責任,否則將在激烈的市場競爭中被淘汰,承擔服務社會的功能更是惘談。為此,為探索公司踐行社會責任的長效機制,應著力尋求公司經濟目的與道德責任的平衡,使公司運營與社會責任實施形成良性互動,這是公司社會責任實現的股東共益權路徑。此處之平衡,從根本上來說,即在公司自身與利益相關者之間,處理和平衡好和義利問題、功利追求與道義的踐行問題。這種平衡在當前時代具有新的內涵。

人工智能時代,公司社會責任被嵌入“數字基因”,這對社會責任的規制提出了新要求。當前,公司通常通過提供免費服務的方式吸引用戶,用戶則以同意公司獲取數據的方式享受相應的便利,此情形下,“數據產出者”和“數據使用者”都為同一主體,此模式導致公司在使用數據時缺乏自我約束激勵。由此,在收集數據時公司必然存在“數據越多越好”的傾向。這種傾向存在因過度索取數據而侵犯個人數據權益的可能性,亟需進行限制。在傳統硬法規制不完備情形下,通過軟法對公司社會責任進行治理成了最優選擇。與此同時,為形成社會責任實施的長效機制,應實現公司社會責任與其數據權益的平衡,即鼓勵和促成公司實行積極的數據政策,以達到一方面推動公司數字技術長遠發展,另一方面呼應數字正義倫理要求。公司通過遵循數字正義的倫理要求和誠信原則的商業實踐,從而贏得用戶的信任,增強對公司產品或服務的粘度。具體而言,(1)應建立自由競爭、公開透明的市場機制,市場主體之間的充分競爭能夠促使公司遵循商業倫理,自覺維護用戶的數據權益。相反,不主動承擔社會責任的公司,在此機制之下將最終被市場淘汰。(2)健全公司社會責任信息披露制度,以信息披露基礎上的數據用戶的自主選擇來促使公司基于成本—收益核算的考量而自主承擔社會責任[23]。除此之外,企業和數據監管部門還可以建立針對公司的用戶數據使用的光榮榜和黑名單制度,以此引導公司社會聲譽建設。(3)將公司自覺遵循數字正義倫理的商業實踐要求嵌入公司的治理之中,完善公司高管信義責任體系,一方面引導公司高管在行使職權過程中遵循數字正義的倫理要求,對其行為的正當性進行公正評判;另一方面抑制高管唯經濟利益論的不恰當理念和管理行為,糾正其不適當迎合投資人意志的行為。

(三)公司與用戶間權利的平衡:公司算法權力與用戶算法解釋權的賦予

通過軟法規制公司社會責任的實施,除平衡公司運營與實施社會責任間的關系,還需通過權利賦予的方式矯正業已嚴重失衡的權利格局。由于新技術的發展,公司掌握數據及算法的運用,其決策很難被審查和質詢,這使用戶和消費者常處于一種“未知的支配和恐懼之中”。實質而言,這種具有強大支配力的算法正日益演變為一種“準公權力”。致使具有算法決策力的公司所掌握的權力與用戶個人的權利之間出現了嚴重的失衡。對這種權利失衡格局的矯正,不能采取削弱“算法權力”的方式了之,以抑制科技創新為代價。只能通過補強用戶或消費者權利的方式,即賦予其算法解釋的請求權,使掌握“算法權力”的公司承擔相應的技術責任。

一般認為,算法解釋權是指當數據用戶認為算法決策得出的結果與自己的預期不相符合時,有提出異議并要求對算法的設計及運行作出解釋的權利。類似于在一般考試中,如考生拿到考卷時發現成績與自己預期存在明顯出入,有要求進行復核的權利。作為新型的救濟性權利,算法解釋權中的“算法解釋”應區別于法律解釋中要求的對法律文本意思的理解和說明,其是對特定結果的原因和理由的解釋,而并非對整個決策的過程予以描述。算法解釋權主要包括解釋算法和披露算法信息兩個方面,以提升算法的透明度。相對于硬法規制路徑,算法解釋權基于平衡算法相關主體間權利關系,作為軟法規制手段,能夠直面算法設計,助于算法黑箱的破解。在美國計算機協會于2017年發布的關于算法透明度和可審查性的七項基本原則中,就有關于算法解釋的相關原則規定,該原則鼓勵使用算法決策的系統及機構,無論算法邏輯架構在多么復雜的情況下,都應作出正常人能夠理解的說明。在2018年5月正式頒行的歐盟《通用數據保護條例》的序言中,也有關于算法解釋權的相關規定,對算法解釋權實施進行實踐指導。在我國金融業實踐中,也有關于提升算法透明性的規定,雖然這是一種由公權力發起和實施的監管手段,但對于當前金融機構社會責任的實施,也具有較大的實踐指導意義。

在公司社會責任軟法規制中,賦予用戶算法解釋權,對公司課以技術責任,以平衡用戶個人與公司之間的權利關系。首先,應在充分披露算法信息基礎上,為用戶配置算法解釋請求權,以保護其數據處理的知情權利,以及增強其對算法優劣的評判力。其次,增強數據用戶的數據意識,更多體現在如算法決策與其預期存在較大出入時,有要求作為算法使用者的公司對算法進行解釋的意識。與此同時,公司也應在數據倫理指引下,保證使用的算法是中立的,確保算法是可解釋和說明的。最后,作為一項救濟型權利,司法機關是算法解釋權實現的最后保護傘。如果用戶的算法解釋權不能在雙方協商的基礎上實現,用戶則有權向司法機關提起訴訟,請求裁決公司履行解釋算法的義務。在2017年美國的一起訴訟中,法院即判決二手房銷售網站Zillow公司對算法進行解釋,并強調算法決策的過程是可以被有效解釋的。此案充分體現了算法解釋權作為救濟型權利的特點。

(四)從問題導向到目標導向:公司社會責任規制的軟硬法協同

誠如前述,本文所言之軟法規制,并非僅僅基于當前現實問題,而是立基于規制的目標,以軟法為主導,兼具硬法的規制手段。為達到本文開篇希冀促成的目標,應在數字正義、適度干預理念的指導下,實施以軟法為主導的軟硬法協同規制手段。因為,以往的實踐證明,雖然軟法在規制社會責任實踐中,較之硬法具有先天的優勢,但軟法也并非盡善盡美的,其也存在著缺陷:首先,由于缺乏自由傳統和自治精神,軟法規制手段的培育在我國并未形成良好的氛圍。原因在于,制度的孕育需要長期的過程,而我國市民社會還處在成長之中,國家中心主義還具有鮮明的印記。在公共治理悄然興起,日益成為一種全球性的普遍治理模式時,我國還大體保持著權力中心化的制度安排,這種長期自上而下的制度變遷模式,并不符合公共治理所要求的治理需求,由此導致整個社會公共理性的缺失。其次,軟法在實施中面臨著客觀方面的障礙。市場本身缺乏數據的交流和共享機制,數據孤島就是典型,并且軟法實施中的政府監管規定仍處于空白。最后,還存在主觀層面的障礙。作為軟法實施中堅力量的行業組織,行政色彩過濃,成為政府主管部門的附庸,多數則因疏于內部建設而“徒有虛名”,行業號召力明顯不足。并且,由于實施中強制力欠缺,導致軟法在解決糾紛時效力有限[24]。這些都是我們運用軟法規制公司社會責任時需要直面的問題。

為解決以上問題,達到軟法規制的既定效果,需從以下二方面入手:(1)從克服軟法既有缺陷入手,一來通過政府扶持和規范的方式,促進行業組織的發展,廣泛吸納公司會員,使其承擔起社會治理的職責;二來在軟法解決糾紛時,加強與仲裁、訴訟等救濟方式的銜接,彌補軟法在解決糾紛時效力的局限;三來加強政府與企業間的數據共享,破解數據孤島難題,以此推進軟法的實施。(2)加強公司社會責任規制中軟法和硬法之間的銜接,一來確立“底線思維”,明確“硬法是最低的行為準則,軟法在制定時不能與之相抵觸”的原則;二來根據不同行業領域、不同公司類型,確立相對標準化的軟法制定和實施準則,并在充分信息披露的基礎上加強各類監管;三來暢通軟、硬法間雙向溝通機制,以此促成軟法和硬法實現最大程度的銜接。

綜上,雖然筆者主張通過軟法規制公司社會責任,但并不意味著因此主張政府干預的全部離場。市場經濟的發展已經證明,政府對市場經濟并非干預越少越好。并且,軟法的研究重在系統性,其不僅在于自身理論體系的宏觀搭建和規則共性的提煉,還在于對被列入軟法的公共政策、自律章程等制度內容進行正當性衡量,以及對軟硬法的銜接問題進行細化研究,以使各種公共制度在特定的時空之內進行最優的排列組合,達到最佳的社會治理效果。

結語

公司自創設以來,即兼具“經濟人”和“社會人”的雙重角色,引領著社會變化,影響著民眾生活。人工智能時代,公司引領和推動著數字技術的發展,一方面促進了社會的進步,另一方面利用其掌握的數據和算法,影響著用戶和消費者的數據權益?;诖?,在公司社會責任規制中,應肯定數字技術發展帶來的進步意義,不能因噎廢食,抑制技術的發展。本文認為,兩全的選擇即倡導“社會責任導向”的數字技術發展觀,尋求契合當前時代發展需要的公司社會責任實施路徑。通過軟法為主導的規制手段,在數字正義和政府適度干預理念的指導下,探尋能夠與公司運營形成良性互動的長效機制,并且賦予用戶和消費者算法解釋權,以平衡與公司之間權利失衡格局。最后,形成以軟法規制為主導,軟硬法協同的公司社會責任治理格局,以實現本文開篇所希冀促成的良好局面。

參考文獻:

[1]施天濤.《公司法》第5條的理想與現實:公司社會責任何以實施?[J].清華法學,2019(5):57-79.

[2]蔣建湘.企業社會責任的法律化[J].中國法學,2010(5):123-132.

[3]王懷勇,劉帆.數字時代企業社會責任的理論拓補與實現路徑[J].西北工業大學學報:社會科學版,2018(4):76-83.

[4]程信和.經濟法視野下的企業社會責任[J].甘肅社會科學,2011(2):126-131.

[5]吳霽虹·桑德森.眾創時代——互聯網+、物聯網時代企業創新完整解決方案[M].北京:中信出版集團,2015:1.

[6]鄭志峰.人工智能時代的隱私保護[J].法律科學:西北政法大學學報,2019(2):51-60.

[7] John Frank Weaver. Robots Are People Too:How Siri,Google Car,and Artificial Intelligence Will Force Us to Change Our Laws[M].Praeger,2014:72-73.

[8]張紹華,潘蓉.大數據治理與服務[M].上海:上??茖W技術出版社,2016:13.

[9]鄭戈.算法的法律與法律的算法[J].中國法律評論,2018(2):66-85.

[10]羅豪才,宋功德.認真對待軟法——公域軟法的一般理論及其中國實踐[J].中國法學,2006(2):3-24.

[11]鐘穎,向超.論企業社會責任的軟法規制路徑[J].現代經濟探討,2015(9):83-87.

[12]翟小波.軟法概念與公共治理,載羅豪才.軟法與公共治理[M].北京:北京大學出版社,2006:144.

[13] Francis Snyder.Soft Law and a Institutional Practice in the European Community,in S.Martin(ed.),The Construc? tion of Europe,Kluwer Academic Publishers,1994.

[14]廖申白.《正義論》對古典自由主義的修正[J].中國社會科學,2003(5):126-137.

[15]王俊豪.政府管制經濟學導論[M].北京:商務印書館,2017:23-28.

[16] D. Dharmapala,V.S. Khanna.The Impact of Mandated Corporate Social Responsibility: Evidence from Indias Companies Act of 2013[C]. Coase-Sandor Institute for Law and Economics Working Paper,2016:783.

[17] [美]丹尼爾·F·史普博.管制與市場[M]//余暉,何帆等譯,上海:格致出版社、上海三聯書店、上海人民出版社,2017:85.

[18]林少偉.人工智能對公司法的影響:挑戰與應對[J].華東政法大學學報,2018(3):61-71.

[19]馬長山.智能互聯網時代的法律變革[J].法學研究,2018(4):20-38.

[20]姜奇平.歐盟發力數字經濟監管[N].人民日報,2020-4-14(18).

[21] J.Kroll,J.Huey,S.Barocas,E.Felten,J.Reidenberg,D.Robin? son&H.Yu.Accountable Algorithms[J].University of Penn? sylvania Law Review,2017,163(3):633.

[22]李昌麒.經濟法理念研究[M].北京:法律出版社,2009:198-199.

[23]沈貴明,王長華.論企業社會責任的實現路徑--以市場制約機制為視角[J].學習與探索,2014(10):61-66.

[24]石佑啟,陳可翔.論互聯網公共領域的軟法治理[J].行政法學研究,2018(4):51-60.

Soft Law Regulation on Corporate Social Responsibility in the Era of Artificial Intelligence

LIANG Wei-liang(Civil, Commercial and Economic Law School, China University of Political Science and Law, Beijing 100088, China)

Abstract: In the era of artificial intelligence, the use of data and algorithms makes corporate social responsibility regu? lation face new challenges. In this case, based on the weak reality of the traditional hard law, and in accordance with the development of the current era, the soft law as the main regulation means has become a new path of corporate social responsibility regulation. This is more rational from the perspective of law and economics, which can not only promote the realization of substantial justice among subjects, but also accord with the value consideration of cost-benefit. In or? der to promote the implementation of this kind of regulation means, first of all, digital justice and moderate government intervention should be established as the basic concept of corporate social responsibility soft law regulation, and under the guidance of this concept, the company operation and the implementation of social responsibility are interactive, and users are endowed with the right to explain the algorithm, thus the companys endogenous incentive and external con? straints are promoted to work together. Finally, a corporate social responsibility regulatory pattern dominated by soft laws and regulations and coordinated by soft and hard laws is formed.

Key words: artificial intelligence; corporate social responsibility; soft law; digital justice

①如在《公司法》第五條、《民法總則》第八十六條,均有相關的倡導條款。

②在這些法律規范中,大多僅有一個或兩個條文直接使用“社會責任”一詞,如《公司法》第五條、《合伙企業法》第七條、《民法總則》第八十六條、《網絡安全法》第九條等?!懂a品質量法》《勞動法》《環境保護法》等部門法對企業社會責任的具體內容進行了細化,但其僅可對相關領域產生積極作用。此外,大量行政法規、司法文件、部委規章、地方性法規和其他規范性文件均有淺層次地提及企業社會責任,在系統性方面較為欠缺。參見王懷勇,劉帆:《數字時代企業社會責任的理論拓補與實現路徑》,《西北工業大學學報(社會科學版)》2018年第4期,第76-83頁。

③印度《公司法草案》第135條規定:“第(1)款中所涉企業的董事會應當保證每一個財政年度企業支出不低于最近三個財政年度平均凈利潤的百分之二的資金,用于完成企業社會責任計劃。企業應當優先將企業社會責任活動資金用于其經營場所地的所在地或周邊地區。若企業未達到社會責任資金支出標準,董事會應根據134條第(3)第(0)項制定的報告中就該問題進行解釋?!眳⒁奣he Indian Companies Act, 2013, section 135。

④該理論由卡羅爾提出,其將公司社會責任分為經濟責任、法律責任、倫理責任和自愿責任。

⑤見[美]阿道夫·A·伯利,加德納·C·米恩斯:《現代公司與私有財產》,甘華鳴等譯,商務印書館2005年版,第142-163頁。轉引自徐曉松:《公司治理:“結構”抑或“問題”》,《政法論壇》2013年第6期,第61-68頁。

⑥關于“世界首個機器人公司董事”的報道,See E. Zolfagharifard,“Would You Take Orders from a Robot? An Artificial Intelli‐gence Becomes the Worlds First Company Director”, Daily Mail, May 19, 2014。

⑦根據人工智能的實力來劃分,有學者將人工智能分為三大類:弱人工智能、強人智能和超人工智能。See Tim Urban,“The AI Revolution: The Road toSuperintelligence”,https://waitbutwhy.com/2017/04/neuralink.html, accessed January 22, 2015。

⑧筆者在其他論著中也提出過相同的論斷。見梁偉亮:《金融征信數據共享:現實困境與未來圖景》,《征信》2019年第6期,第14-19頁。

⑨見光明網:《應用風險加劇將AI關進籠子還需政策發力》,http://kepu.gmw.cn/2019-09/10/content_33148452.htm,最后訪問時間:2020年5月1日。

⑩弗里德曼在其代表作《資本主義與自由》中表達了對公司社會責任批判的觀點。見吳知峰:《企業社會責任思想的起源、發展與動因》,《企業經濟》2008年第11期,第18-22頁。

對于算法解釋權,有眾多學者作出過概念界定,但大多大同小異。具體見姜野,李擁軍:《破解算法黑箱:算法解釋權的功能證成與適用路徑》,《福建師范大學學報(哲學社會科學版)》2019年第4期,第84-92頁;張凌寒:《風險防范下算法的監管路徑研究》,《交大法學》2018年第4期,第49-62頁。

2018年4月,中國人民銀行等多家機構聯合發布《關于規范金融機構資產管理業務的指導意見》,其中第23條規定:金融機構應當向金融監督管理部門報備人工智能模型的主要參數以及資產配置的主要邏輯。因算法同質化、編程設計錯誤、對數據利用深度不夠等人工智能算法模型缺陷或者系統異常,金融機構應當及時采取人工干預措施。

Patel v. Zillow,Inc.,915 F. 3d 446 (7th Cir. 2019)。

猜你喜歡
人工智能
人工智能AI
人工智能
人工智能之父
2019:人工智能
人工智能
人工智能與就業
China’s Artificial Intelligence Revolution
數讀人工智能
人工智能時代,就業何去何從
下一幕,人工智能!
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合