?

人工智能時代 隱私權保護的困境與策略

2021-09-13 11:09王庭琪
長春市委黨校學報 2021年4期
關鍵詞:個人信息保護隱私權人工智能

摘要:人工智能時代個人隱私權保護問題重重,備受社會關注。一方面,人工智能技術依托數據收集和算法,廣泛而深入地掌握著海量數據,存在著泄露和不當利用的極大風險;另一方面,人工智能數據管控、開發、應用、監管面臨諸多法律困境。目前,應當重新定義隱私權范圍、加強隱私權保護執法、加強技術監管、構建行業自律機制、提高公民隱私權保護意識,來應對人工智能時代隱私權保護面臨的問題。

關鍵詞:人工智能;隱私權;個人信息保護

中圖分類號:D913

DOI:10.13784/j.cnki.22-1299/d.2021.04.007

一、人工智能時代隱私權的界定

隱私權已被國際社會普遍接受并確立為人的基本權利之一。隨著互聯網技術和人工智能應用于社會生活的方方面面,隱私權的內涵和外延也極大地得到了完善與發展。王利明教授將隱私權定義為“自然人享有的對其個人的、與公共利益無關的個人信息、私人活動和私有領域進行支配的一種人格權”。[1]《民法典》第1032條將隱私定義為“自然人的私人生活安寧和不愿為他人知曉的私密空間、私密活動、私密信息?!彪S著互聯網時代的到來,隱私權的保護面臨極大的挑戰,隱私權不可避免地從原有的私人空間獨處及私人領域的自決范疇,向個人信息權利的范疇拓展。在當前人工智能時代背景下,海量的數據產生并被廣泛地搜集、分析、利用,原有的隱私權的內涵已無法涵蓋個人隱私保護的需求。人工智能時代隱私權不再僅僅是原有的“私人空間自治的權利”,以及“自決不受他人干預的權利”。人工智能時代隱私的內涵突破了原有“隱私性”“自決性”范疇,具有了一定的“社會性”和“公共性”,特別是人作為具有社會屬性的高級生命,在社會生活中必然存在與外界的廣泛接觸,而由此產生的過程信息具有個人特殊性質,成為個人隱私的一部分是有正當性。當前,人工智能技術廣泛地應用于社會生活之中,對個人隱私造成侵害的形式多種多樣,侵權后果也較之傳統的侵權形式更加嚴重,如浙江寧波慈溪“女主睡在我家床”案。正如馬克思所言:“權利永遠不能超出社會的經濟結構以及由經濟結構所制約的社會文化發展”,[2]隱私權的保護與人工智能的發展亦是如此。

二、人工智能時代隱私權保護的法律困境

雖然《民法典》中有專門關于隱私的定義,但人工智能時代下隱私權保護問題的法律困境仍然存在。我國人工智能技術的發展起步較晚于歐美國家,由于政府重視程度高,因此發展速度較快,在很多方面實現了彎道超車,但受制于資金不足、技術創新不夠、人才短缺等因素,我國人工智能的發展仍然處于弱人工智能時代。[3]由于我國隱私權確立也處于初步階段,缺少可操作性強的司法解釋,加之復雜的人工智能侵權形式,因此目前只有部分顯而易見的隱私侵權得以規制。一方面,為了使智能設備更加貼近用戶的需求,人工智能需要依托數據與算法對用戶數據進行處理,以提升用戶的使用體驗。另一方面,大量的個人信息被智能設備存儲與分析,存在被非法利用和泄露的可能。法哲學家博登海默認為: “法律的主要作用之一就是調整及調和各種相互沖突的利益,無論是個人的利益還是社會的利益。這在某種程度上必須通過頒布一些評價各種利益的重要性和提供調整這種利益沖突標準的一般性規則方能實現?!盵4]面對這種困境,必須探尋有效的策略,在人工智能發展與隱私權保護之間實現利益均衡。

首先,隱私權內涵的局限制約了對隱私的保護?!睹穹ǖ洹冯m明確列舉了“私人生活安寧”“不愿為他人知曉的私密空間、私密活動、私密信息”等隱私權保護范圍,但在人工智能時代,隱私的范圍已不再局限于“私密性”,隱私的內涵會不斷擴張。為促進人工智能的發展,數據信息會被大量存儲、處理、分析、共享,使原本屬于個人隱私的信息數據成為數據掌控者的生產要素。同時,我國目前尚處于弱人工智能發展階段,人工智能的數據處理能力、學習能力還較弱,當人工智能發展到較強階段時,人工智能具備了自我學習能力、對數據信息進行自動加工的能力,以及依據所掌握的數據信息對個人進行全面分析的能力,顯然現行法律關于隱私界定的局限會導致個人隱私權保護的不足。

其次,隱私權侵權救濟方式不完善導致追責困難。在現實世界中,對隱私侵權主體的認定、證據的收集、損害后果的確認都相對容易,而在人工智能環境下,隱私權侵權更加隱蔽不易被察覺,其侵權方式主要是通過收集用戶在使用智能設備或參與智能服務過程中主動或被動提供的個人信息數據,并對這些數據進行存儲、分析、整合的過程中發生的。個人信息數據在留存之后被共享、利用,被侵權人很難確定侵權主體、侵權行為的實施過程,予以追責會非常困難。一方面,隱私權受到侵害無法得到有效救濟,另一方面一旦侵權事實發生,侵權后果更具有危害性,現行侵權責任的形式是針對傳統隱私侵權進行設置的,無法適用于人工智能下的隱私侵權。

再次,行業自律不規范誘發隱私侵權事件發生。目前我國人工智能行業尚沒有形成隱私權保護自律監督機制。在尚沒有法定的職能部門及時有效地監管的情況下,相關行業為了自身的發展,利用人工智能技術對用戶個人信息進行加工利用,導致個人隱私權被侵犯,而此時用戶大多無法察覺且不清楚通過何種渠道進行權利救濟。我國人工智能相關行業發展不規范,為隱私權侵權埋下了隱患。

三、人工智能時代隱私權保護法律困境的原因探析

一是傳統隱私權保護觀念的影響。傳統理論上隱私權被定性為私權屬性,而在人工智能時代,傳統隱私權的概念無法涵蓋所有可能涉及個人信息被侵犯的情形?!睹穹ǖ洹分须m已經將個人信息保護與隱私權進行了區分,但社會生活中個人的私密信息與法律所保護的私密信息還是有所不同,如何甄別這類私密信息是另一個新問題。另外,由于傳統隱私權的私權屬性,現行法律對隱私權的保護更多地采用事后救濟方式,即在現實中出現了侵權行為后再進行法律責任的追究。傳統隱私權的救濟方式與人工智能環境下隱私權被侵犯的現實沖突已經顯而易見。

二是人工智能技術本身的不可控。人工智能技術依賴于數據和算法的支持,而隨著人工智能由弱到強的發展,其可能具備自我學習能力,存在一定程度的不可控制性。另外,針對人工智能的立法需求迫在眉睫,但相關的立法研究還比較薄弱,要建構行之有效的監管措施也存在較大困難。

三是政府監管事后救濟缺乏預警機制。人工智能時代隱私權不再局限于傳統隱私權的私權性質,而具有了公共性。一方面,面對強大的第三方智能應用供應商,個人的力量顯得尤其弱小,無法依靠個人的自治來維護自身權利。另一方面,政府在提供公共服務過程中也大量收集了涉及個人隱私的相關數據,隱私權保護也自然與政府有關。傳統的觀點認為隱私權屬于個人自治范疇,因而政府對隱私權的保護也傾向于消極干預的事后救濟,但在人工智能時代個人的隱私權已完全超出了個人自力救濟的范疇,政府對隱私權監管的理念也需要更新,有必要在原有事后救濟的前提下,形成事前預警機制,做好事中的監督,建構起全過程隱私權法律保護模式。

四、人工智能時代隱私權保護應對策略

一是適當拓寬隱私權的內涵?!睹穹ǖ洹穼㈦[私權和個人信息均納入了保護范圍,明確將隱私權與個人信息權利作出了區分,但這并不意味著所有的個人隱私信息都得到了法律的保護?!霸诖髷祿r代,除表征功能外,個人信息人格利益仍應歸入隱私范疇”,[5]而在人工智能時代,個人信息隱私權與個人信息權的邊界不僅局限于私密性,而是具備了一定的公共性。一方面,大量個人信息數據被動的被存儲和收集,如個人消費數據、行動軌跡、購物偏好等,這類信息一旦形成和提交,個人無法對這類信息數據進行控制和支配。另一方面,政府為了實現社會管理的需要,也大量收集個人數據信息,雖然已經有了個人信息隱私部分的保護規定,但如何界定個人信息中哪些是隱私部分,如何使得條文的規定更具可操作性,這又是另一個問題,需要進行專門的司法解釋。因此,適當進一步拓展隱私權的內涵,增加隱私權保護的范圍,才可以實現隱私權保護的目的。

二是完善侵權救濟方式?!睹穹ǖ洹番F有的侵權救濟方式在應對人工智能時代的隱私侵權時存在救濟不足問題,因此,可引入懲罰性賠償制度,加強對侵犯隱私權行為的懲罰力度,同時也可考慮對被侵權人予以精神損害賠償,以及吸取國外的立法經驗,在立法方面增加更多的保護內容,加強數據控制的強勢者的責任。

三是加強隱私權保護的法律監督。提高針對侵權行為的技術監管,面對人工智能技術的迭代更新,在執法技術上應與之相匹配。一方面,加強執法技術水平,充分利用現有人工智能技術,實現動態的實時監控。另一方面,在法律授權的范圍內,執法機構可以利用在監管過程中掌握的信息數據和可能的侵權案件類型,形成技術監管規范,在監管中運用技術措施建構事前監督預警機制,及時針對人工智能相關行業作出預警,定期發布侵權預警信息,形成動態的隱私權信息使用監管制度,降低侵權發生概率,促進相關行業良性發展。加強執法監督隊伍建設。我國目前沒有專門的隱私權保護執法隊伍,在人工智能時代隱私權保護面臨嚴重危機的情勢下,應整合現有執法監督隊伍,集中現有優勢的執法力量,吸收人工智能行業的技術骨干,充分利用人工智能技術加強違法行為的甄別,形成針對特定行業的隱私信息動態的評估監管,建立技術合格、業務素質過硬、學習能力強的隱私權保護執法隊伍。

四是引導構建行業自律機制。在人工智能時代,法律的滯后性決定了通過構建完善的法律實現隱私權的全面保護是不現實的。人工智能的廣泛應用帶來的諸如智能決策輔助、智能應用引發事故、智能隱私數據泄露等問題,對現有立法帶來巨大挑戰,在理論研究和司法實踐均不充分的情況下,單純依靠立法和執法來實現隱私權保護是不現實的,行業自律勢在必行。如科大訊飛發布的《人工智能深圳宣言》引發關于人工智能治理的討論,并形成了相應的行業規則。企業的發展不能單純從企業的利益角度出發,還要承擔社會責任,科大訊飛的號召值得政府鼓勵支持,以引導企業形成行業自律,進而形成行業自律標準和規范。

五是制訂人工智能技術發展標準。當前我們還處于弱人工智能時代,行業的發展還沒有形成統一的標準。因此,以建構人工智能技術發展標準為引線來實現隱私權保護模式的完善,可達到事半功倍的效果。首先,針對人工智能企業的設立,確立人工智能企業資質評估審核機制,提高準入門檻,促進人工智能企業規范化、專業化發展,從源頭上控制風險。其次,在企業運營過程中針對不同的產品形成不同的安全標準,如智能決策輔助、智能應用集中的無人駕駛汽車,應設立嚴格的預警機制,將該類預警定位最高級。而智能設備隱私權數據泄露,可設置為第二等級預警機制。對于一些公開的個人數據信息的收集利用造成的隱私權侵權,應設置為最頂級的預警機制。

六是提高公眾的隱私權保護意識。受傳統的隱私權保護觀念影響,我國公眾對隱私權的保護并不積極,而人工智能時代僅依靠構建完善的法律體系、加強法律監管、形成行業自律、制訂技術發展標準等這些外部手段來保護公民的隱私權,是有明顯局限的。因此,應采取措施引導公民轉變隱私權保護意識,重新認識新時代背景下的隱私權定位,積極地參與到隱私維權的過程中來。首先,政府為履行行政管理職能可以通過合法的途徑收集個人隱私信息,但也應明確加以限制。其次,充分利用公眾輿論的影響,針對維權成功的典型案例進行宣傳,營造出公民積極參與、公眾輿論廣泛宣傳的氛圍,形成政府的權力監督、公民積極參與、公眾輿論監督的內外合力的隱私權保護范式。

參考文獻

[1]王利明.人格權法新論[M].長春:吉林人民出版社,1994:487.

[2]馬克思恩格斯全集(第19卷)[M].北京:人民出版社,2004:20.

[3]柴天佑.我國還處于“弱人工智能”時代[EB/OL].http://wb.qdqss.cn/html/qdrb/20190304/qdrb368854.html,2021-3-15.

[4]博登海默.法理學:法律哲學與法律方法[M]. 北京:中國政法大學出版社,1999:20.

[5]房紹坤,曹相見.論個人信息人格利益的隱私本質[J].法制與社會發展,2019,(4).

作者簡介

王庭琪,江西農業大學南昌商學院講師,研究方向:法理學、民商法學。

責任編輯 李冬梅

猜你喜歡
個人信息保護隱私權人工智能
2019:人工智能
人工智能與就業
數讀人工智能
我國大數據時代個人信息保護研究綜述
下一幕,人工智能!
國內外隱私權的發展與保護
移動互聯環境中個人信息保護的調查與分析—以大學生為例
大數據時代個人信息管理與保護
隱私權若干法律問題初探
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合