?

人工智能對國際法的挑戰及其應對

2020-12-20 05:35李婉貞
關鍵詞:國際法船舶人工智能

趙 駿 李婉貞

(浙江大學 光華法學院, 浙江 杭州 310008)

從電子計算開始,賦予計算機人工智能一直是計算機專家的夢想。早在1950年,艾倫·圖靈(Alan Turing)在其《計算機器與智能》一文中就提出過“機器能否進行思考”的問題[1]5。人工智能是一套旨在使機器更接近人類或動物在某些方面的認知的技術[2]404。機器學習是人工智能的一個方面,它探索如何讓計算機根據經驗改善其性能(1)Russell S., ″Q & A: The Future of Artificial Intelligence,″ http://people.eecs.berkeley.edu/~russell/temp//q-and-a.html, 2020-01-31.。多年來,人工智能將自動化或復制智能行為作為研究目標[1]7。根據智能水平的不同,人工智能表現為強人工智能與弱人工智能兩種類型[3]59。強人工智能可以匹敵甚至超過人類智能,目前仍屬于純粹科幻式事物;弱人工智能能夠通過計算機再現人類智能的某些方面,已經被應用到社會的諸多領域,例如谷歌搜索引擎、全球定位系統、電子游戲等[4]4。當前,在弱人工智能的基礎上產生了一批“進階版弱人工智能”,能夠通過與人類交互再現某些方面的弱人工智能[4]8,例如蘋果智能語音助手、自動駕駛汽車、機器人保姆、人工智能產業工人、無人船舶、人工智能偵察機與軍用無人機等。

經過長時間的發展,人類已在信息社會的基礎上開始了智能社會的建設[5]95-96。人工智能的應用帶來了生產力的巨大變革,法律作為上層建筑,不可避免地受到人工智能技術發展的影響。在智能社會,法律既面臨人工智能帶來的各種挑戰,也遇到了難得的發展機遇。由于現有法律系統都是圍繞“只有人才能做出決定”這一基本假定展開的,人工智能作為一項新興科技,同樣具有類似于自然人的自主決策能力,這將從根本上顛覆現有法律體系的基礎[4]5。人工智能的自主決策能力、交互能力使其有別于一般的物,并接近于作為法律主體的自然人。整體上,與人工智能相關的法律問題可以分為兩類:一類是人工智能應用于各個領域而產生的法律問題,例如人機交互、機器與機器交互下產生的責任、知識產權等問題;另一類是對人工智能自身發展的價值衡量與相應規制。同時,在應對此類新問題及變革法律的過程中,還存在幾個宏觀且關鍵的問題:一是如何把握好創新與既有的關系;二是如何促進國際與國內的良性互動;三是正確對待他山之石與前車之鑒,要充分考察其他領域和其他國家的立法過程與內容。

國際法同樣深受人工智能的影響。就像其他法律一樣,國際法也假定所有的決定都是由人做出的,即使是代表國家利益的決定[4]208,人工智能的自主決策能力將會徹底改變以往只有自然人或法人才能代表一國的傳統。當前,所有關于國際法下人工智能的觀點,都是基于各國預期的習慣用途以及對現有國際法規定的變通解釋得出來的,但人工智能很快將會在影響國際法的各個領域中應用起來[4]234-235。由于國際法同樣沒有直接對由人工智能或者非人類做出決定的法律后果進行規定,諸如人工智能國籍、人工智能侵害他國的行為能否歸于一國、無人轟炸機等自主武器系統是否違反國際人道法、無人船舶是否能無害通過一國領海等問題,在現有國際法體系內尚無法解決,需要作為國際社會共通規則的國際法積極做出回應。本文主要圍繞人工智能給國際法帶來的兩個層面的挑戰展開分析,一是針對國際法的基本原則,二是針對國際法的具體領域,并給出國際法應對這些挑戰的可行路徑。

一、 人工智能對國際法基本原則的挑戰

國際法基本原則代表著一套基本的行為標準,在整個國際法體系中處于統領性位置,構成了最高的法律標準,可以視為國際共同體的最高原則[6]64-65。國際法基本原則具有一些重要特征:第一,國際公認;第二,具有全局性和普遍意義,超越國際法各個領域;第三,適用于國際法的一切效力范圍;第四,是國際法的基礎[7]34。國際法基本原則的內容一直處于動態發展中,其重要發展是在第二次世界大戰以后,集中體現在《聯合國憲章》第2條以及1970年《國際法原則宣言》中[7]37-41。例如國家主權原則(2)在近代國際法產生之后,就提出了一些國際法基本原則,例如國家主權平等原則、不干涉內政原則等。參見王鐵崖主編《國際法》,(北京)法律出版社1995年版,第37-41頁。、民族自決原則、國家責任原則(3)國家責任屬于國際法基本原則的范疇,在施瓦曾伯格爾提出的7項國際法基本原則中,國家責任是其中一項,參見王鐵崖主編《國際法》,(北京)法律出版社1995年版,第41頁。伊恩·布朗利認為國家責任是國際法的一般原則,參見Crawford J., Brownlie’s Principles of Public International Law (8th Edition), Oxford: Oxford University Press, 2012, p.540;Shaw也認為國家責任是國際法的基本原則,參見Shaw M.N., International Law (7th Edition), Cambridge: Cambridge University Press, 2014, p.1120。等。在人工智能時代,人工智能的自主決策能力將對其提出新的挑戰,例如人工智能霸權對國家主權原則的挑戰、人工智能行為的國家責任問題等。

(一) 人工智能對國家主權原則的挑戰

人工智能時代的到來,可能會造成嚴重的算法壟斷與數據壟斷問題,甚至形成人工智能霸權(4)霸權體系可以分為兩種,一種是權勢霸權,一種是制度霸權。兩者的區分標準是霸權的維持機制,前者主要依靠霸權國的實力,尤其是軍事實力,核心是強制性治理;后者主要依靠體系中的制度。參見秦亞青《權勢霸權、制度霸權與美國的地位》,載《現代國際關系》2004年第3期,第6頁。,嚴重威脅一國的國家主權。因而,有必要提出“人工智能主權”概念。根據《聯合國憲章》第2條第1項、第78條以及《國際法原則宣言》的規定,各國一律享有主權(5)United Nations General Assembly, ″Declaration on Principles of International Law Concerning Friendly Relations and Co-operation among States in Accordance with the Charter of the United Nations,″ http://www.un-documents.net/a25r2625.htm, 2020-01-31.。主權是指包括國家領土之上立法權限在內的管轄權,表示出依賴習慣法和獨立于他國特別同意的權利和特權的特征[8]448,并存在于國家與其他國家或國際組織之間的關系之中,可以從兩個視角進行界定:一是對內與對外視角,即對內最高權與對外獨立權;二是橫向與縱向視角,即橫向地理范圍與縱向事項范圍。隨著社會的發展,主權概念一直處于動態發展之中。在縱向的發展上,主權概念在反對霸權的進程中向縱深方向不斷掘進,例如,伴隨政治霸權、經濟霸權、文化霸權與信息霸權出現的政治主權、經濟主權、文化主權與信息主權概念[9]519。

當前,人工智能已經廣泛應用于生產、服務、武器、司法、經濟與政治決策等諸多社會領域,但是,各國掌握的人工智能技術存在較大差距。人工智能技術水平較低的國家在部分領域的主權控制力將在不同程度上被削弱,面臨其他國家的控制和威脅。對內層面,一國可以利用人工智能跨境搜集并傳播對另一國政府不利的信息,或者深入另一國的生產和服務領域,影響該國產業發展與就業。由于市場總是趨利避害的,如果人工智能技術的運用能夠使市場參與者獲得更大的利益,理性經濟人顯然會選擇以人工智能技術替代原有的生產或服務模式。這有可能會促使已經存在的算法與數據壟斷問題進一步演化為人工智能技術霸權問題,給國家主權帶來嚴峻挑戰。對外層面,人工智能技術在戰略決策、軍事領域與社會生產方面的應用會進一步拉大國際法主體間的力量差距,改變全球社會經濟生產模式與權力結構,影響原本穩定的國際關系,最終會對國際體系產生重大影響[10]128-129。

對此,有必要提出人工智能主權概念,以防人工智能技術霸權對國家主權的侵害。其必要性主要體現在三個方面:第一,維護本國信息安全。人工智能需要數據作為營養。人工智能發揮作用的前提是搜集和分析大量的信息數據,這些數據涵蓋一國的各個領域以及不同的個人。是否促進數據的跨境流通以及具體的流通方式應當屬于一國的主權管轄范圍。第二,規制人工智能的必要性。人工智能具有深度學習功能和超強的復制性,這些特征使其可以對社會各領域發揮極大的推動作用。但是,如果人工智能被懷有惡意的人利用,也會對一國的政治、經濟、文化以及國防安全構成嚴重威脅。第三,保護本國人工智能產業。人工智能已經應用于社會的各個領域,國家有權在防止其他國家人工智能產業威脅本國產業的基礎上,保障本國人工智能產業的自由發展。人工智能領域存在主權,但這個主權只能屬于國家,而非人工智能本身。人工智能技術的目的是服務人類,而非控制人類。同時,由于人工智能的可規制性,國家擁有人工智能主權也具有可行性。人工智能技術與實體都真實存在于一定的地理區域內,國家需要解決人工智能研發、使用與跨境過程中涉及的研發者標準、可以使用的數據標準、應用標準、具體應用領域的范圍以及跨境監管等諸多問題。

人工智能主權的實現與政治、經濟、文化、信息主權的實現相互影響并相互促進,但是在內涵上具有不同的側重點。伊恩·布朗利認為國家主權與平等所帶來的必然結果主要有:對領土及永久居住其上的人口的初步排他管轄權,其他國家在此排他管轄權區域內的不干涉義務,以及最終取決于是否同意由習慣法或條約產生的義務[8]447。路易斯·亨金也認為國際法試圖促進的是國家的獨立、平等、自治、不可干涉性以及致力于實現自己所認同的國家利益[11]146-148。因此,人工智能主權的內涵也應該包括對內與對外兩個層面:一是對內層面,國家具有對人工智能技術與實體的立法、司法與行政管轄權。國家應當制定規范人工智能的具體法律和制度,指引人工智能向服務于人類命運共同體構建的方向不斷發展。二是對外層面,國家享有保護本國人工智能產業發展的權利,以及自主制定關于人工智能發展的規劃與自主決定人工智能研發進程的權利,其他國家不能干擾、阻礙或控制該國人工智能的發展。在當前缺少國際法明文規定的情況下,各國應當遵守現有國際法基本原則、習慣國際法以及國際強行法的一般規定,例如不得侵犯他國的主權、保護人權等。

(二) 人工智能對國家責任原則的挑戰

國家必須履行包括已加入的條約法義務和強行法義務在內的國際義務,承擔因其國家行為違背國際義務所產生的國家責任[12]97。根據《國家對國際不法行為的責任條款草案》(以下簡稱《草案》)第2條的規定,國家承擔國際責任的前提條件是發生國際不法行為,包含主觀可歸因性與客觀違法性兩方面的要素[13]72。前者強調存在可歸因于一國的行為,后者強調該行為的違法性認定不要求國家存在主觀過錯?!恫莅浮吩诘?—6條以及第8—11條中有限列舉了七類可歸因于一國的行為(6)這七類行為分別為:國家機關的行為、經國家授權的行為、支配機關的行為、國家指揮或控制下的行為、正式當局不存在或缺席時實施的行為、叛亂運動或其他運動的行為以及經國家確認的行為。。同時,第7條強調越權與違背指示的行為仍可歸因于一國。

從目前來看,除第11條規定的“經國家確認的行為”外,《草案》第4—6條以及第8—10條規定國家不法行為的實施者應是個人或由個人組成的實體。但是,人工智能已經具備信息收集、分析、決策,甚至執行能力,從人工智能的自主程度來看,人工智能既可以充當代表國家行為的個人或實體的工具,也可以直接經國家授權或者自主決策而實施某項行為,例如實施違背指示的行為。在后一種情況下,當人工智能的行為違反一國承擔的國際義務時,該行為無法直接歸因于一國,而是必須先行證明這些行為能夠歸于個人或實體。但是,當這一行為是由全自動機器實施時,這是一項艱難甚至不可能完成的任務[14]9。由此導致的結果是,國家可以利用人工智能的完全自主行為免除國家責任。因而,《草案》下一步的修改可以考慮在第4—6條以及第8—10條中增加行為主體可以為具有自主決策能力的人工智能的相關規定,從而將人工智能的行為直接歸因于國家。

關于國家責任形式,傳統責任類型依然適用于人工智能,例如賠償、保證不再重犯等。保證不再重犯主要針對嚴重的國際不法行為,受害國通常要求行為國保證不法行為不再發生,并附帶要求行為國采取某項特定措施或某種特定行為加以預防,例如擔保、新的立法[7]108-114。具體到人工智能領域,考慮到其潛在威脅與特殊性,保證不再重犯還需要行為國做出更多的努力,例如改編人工智能,甚至銷毀人工智能等特定行為類型。改編人工智能適用于通過改編算法就可以避免不法行為再次發生的情形。銷毀人工智能不僅僅是銷毀人工智能應用的實體,而且應當對該項算法進行永久封存,避免其再次被使用,但這一行為的適用應當限于無法通過改編算法避免不法行為再次發生的情形。

二、 人工智能對國際法具體領域的挑戰

人工智能對國際法的影響是多方面、有差異的,除了影響具有全局性的國際法基本原則外,也給國際法的具體領域帶來新的挑戰,突出體現在國際法居民制度、國際人道法、國際刑法、國際知識產權法、國際人權法以及國際海洋法和國際海事法等領域。

(一) 人工智能對國際法居民制度的挑戰

國際法居民制度包括國籍、外國人法律地位、引渡、庇護等制度[7]121-139。這些制度存在一定共性,規制的對象都是法律上的“人”,包括自然人和法人,而非國家或國際組織。國際法居民制度是否適用于人工智能取決于其是否屬于法律上的“人”。但是,具備深度學習功能的人工智能屬于新興事物,其法律地位仍處于模糊狀態。對此,學界的觀點也不統一。有的學者承認人工智能的法律人格地位[15]95;有的學者則從自然人與法人的特征出發,否定人工智能的法律人格地位[16]131。

法律上的“人”享有權利能力,具有法律人格。從術語的起源來看,“人格”與“權利能力”都是確認法律主體身份的工具(7)人格在字義上源于拉丁語的persona。persona原指戲臺上演員所戴的面具,在法律上系指一定的階級身份。在古羅馬法早期,只有同時具備自由人、家父和市民三個身份,才能獲得人格,成為民事主體。后來,在德國民法中,為了賦予團體以人格,創造了“權利能力”的概念。參見王澤鑒《人格權法:法釋義學、比較法、案例研究》,(北京)北京大學出版社2013年版,第41頁;周枏《羅馬法原論》(上冊),(北京)商務印書館1994年版,第106-107頁;付翠英《人格·權利能力·民事主體辨思》,載《法學》2006年第8期,第74-76頁。。人是權利的主體,分為自然人與法人[17]37。人工智能不是生物學意義上的人,不具備人類的理性思維和倫理觀[18]5-8,難以成為自然人。因而,有學者認為在符合法人設立的標準時,人工智能可以成為國家法律管轄的法人[15]95。也有學者認為將人工智能確認為法人實體是非?,F實和有希望的,可以為其提供“電子身份”(“電子實體”)的法律地位[19]139。從更長遠的角度看,人工智能的智能化程度將不斷提高。在超級人工智能階段,人工智能將遠遠超出人類智能(8)參見Russell S., ″Q & A: The Future of Artificial Intelligence,″ http://people.eecs.berkeley.edu/~russell/temp//q-and-a.html, 2020-01-31。。為了統治的需要,古羅馬設定“人格”制度以劃分人與人之間的等級,德國設定“權利能力”以區分不同的團體。由于人工智能可以像人類一樣做出決定,在特定情形中將人工智能作為法律主體對待并賦予其權利義務是合理的[4]288。這里的特定情形應當限于具有自主決策能力的人工智能,而且目標應當在于促進人類更好地發展。

在獲得法律人格的同時,人工智能將享有法律賦予的權利能力和行為能力,并在其能力范圍內承擔法律責任,進而也會成為國際法上的居民。國際法居民制度必須考慮如何適用于人工智能。例如國籍制度,本質是人的身份問題[20]66,特指個人具有某國的國民或公民法律資格[7]121。通常將人(包括公司)和財產歸于一個國家,需要采用國籍概念,特別是為了外交保護目的[8]527。自然人一般通過出生或加入兩種方式取得國籍;法人在符合法律規定設立時可以依據注冊登記地、住所地等取得一國國籍[21]93-94。人工智能取得國籍的標準和依據不能完全遵照自然人和法人取得國籍的方法。在取得國籍的標準方面,人工智能必須達到一定的智能程度。在依據方面,考慮到人工智能的非自然人特征,可以參照船舶、航空器等物體國籍的確定標準。例如,《聯合國海洋法公約》第91條、《國際民用航空公約》第17—21條以及《外空公約》第8條都分別確定了登記國對船舶、航空器和空間物體具有管轄權的一般標準。為了更好地確認管轄權,人工智能也應當采取登記地作為國籍。各國有權自主規定人工智能獲得登記的條件,并允許符合條件的人工智能在其領土內登記、給予標示該國旗幟的權利并頒發相關證明文件。

(二) 人工智能對國際人道法的挑戰

近年來,人工智能被大量應用于武器系統,促使武器系統的自主程度不斷提高,并逐漸脫離人類控制。盡管許多國家都宣稱,人類仍然在使用致命武器方面具有決定權,但聯合國的一份報告顯示,自動化殺傷性機器人武器系統正在到來,目標的自動化處理在戰場上也只是時間問題,例如以色列正在實施一項閉環邊界防御系統,由人工智能炮塔監視邊界,無須任何人類干預,就能瞄準目標并攻擊它們[22]14-15。此類自主武器系統(autonomous weapons systems,簡稱AWS)沒有士兵或飛行員按下發射器,而是由人工智能系統自己決定攻擊的時間與對象。因而,AWS已經不再僅僅是傳統合法武器的升級,而是嚴重沖擊著國際人道法(9)國際人道法是從人道主義的原則出發給予戰爭受難者以必要保護的國際法律規范,主要包括1949年《日內瓦公約》和1977年該公約的兩個附加議定書。關于禁止使用濫傷性武器、比例原則等的相關規定。

美國國防部在其2013年的指令3000.09中將AWS定義為:“一旦啟動,就可以在沒有人類進一步干預的情況下選擇和打擊目標?!卑ㄈ祟惐O督式自主武器系統,即人類保持對AWS干預和終止打擊的能力,以及半自主武器系統,即武器系統一旦被激活,僅用于瞄準單個目標或由操作人員選定的特定目標群體[23]19。紅十字國際委員會從關鍵功能出發,認為自主武器系統是指任何具有自主關鍵功能的武器系統,可以在不需要人為干預下選擇(搜索、檢測、識別、跟蹤)和攻擊(使用武力對抗、中和或破壞)目標[24]5??梢?,AWS的最大特征依然是自主決策能力。

根據《1949年8月12日日內瓦四公約關于保護國際性武裝沖突受難者的附加議定書》(以下簡稱《第一議定書》)第51條第4款的規定,濫傷性武器是指不能區分平民和軍事目標的武器。在當前進階版弱人工智能水平下,AWS的辨別能力顯然低于受過長期訓練的軍人,因而難以準確識別現實中平民與軍事目標等復雜情況。同時,根據國際人道法的相關規定,指揮官或操作者在使用武器系統方面應當遵循比例原則(10)比例原則的完整表述在1977年《日內瓦四公約關于保護國際性武裝沖突受難者的附加議定書(第一議定書)》第51條第5款b項中,指“可能附帶使平民生命受損失、平民受傷害、平民物體受損害或三種情形均有而且與預期的具體和直接軍事利益相比損害過分的攻擊”。與攻擊預防規則(11)攻擊預防規則完整表述在1977年《日內瓦四公約關于保護國際性武裝沖突受難者的附加議定書(第一議定書)》第57條和58條關于攻擊時的預防措施和防止攻擊影響的預防措施的規定中。,尋求軍事需要與平民保護兩種價值之間的平衡,防止平民與民用物體的損失。關于比例原則,更是要求綜合各種因素定性評估(12)參見Wanger M., ″Taking Humans Out of the Loop: Implications for International Humanitarian Law,″ Journal of Law Information and Science, Vol.21, No.2 (2012), p.165。。AWS的自主決策能力顯然無法滿足比例原則與攻擊預防原則的基本要求。

鑒于此,國際社會禁止使用致命性自主武器系統(lethal autonomous weapons systems,簡稱LAWS)的呼聲不斷。根據停止殺手機器人運動組織(The Campaign to Stop Killer Robots)的報告,自2013年3月30日巴基斯坦呼吁禁止LAWS至2016年12月13日,已有19個國家發出同樣禁止的呼聲(13)The Campaign to Stop Killer Robots, ″Country Views on Killer Robots,″ https://www.stopkillerrobots.org/wp-content/uploads/2013/03/KRC_CountryViews_May2017.pdf, 2020-01-31.。2014年5月,聯合國《特定常規武器公約》締約國通過非正式專家會議的形式討論是否有理由禁止LAWS(14)United Nations, ″Report of the 2014 Informal Meeting of Experts on Lethal Autonomous Weapons Systems (LAWS),″ https://documents-dds-ny.un.org/doc/UNDOC/GEN/G14/048/96/PDF/G1404896.pdf?OpenElement, 2020-01-31.,吸引了各國、聯合國組織、紅十字國際委員會和非政府組織的廣泛參與(15)UN Meeting Targets ″Killer Robots″, https://news.un.org/en/story/2014/05/468302-un-meeting-targets-killer-robots, 2020-01-31.。

但是,已經發展AWS的國家不會希望以任何方式限制其軍事使用。因而,需要國際關注和改變現有法律以應對這些挑戰,而不是預先強加一套新的禁止規則或暫停發展AWS[25]411?,F階段可以通過修改國際人道法使其能夠適用于AWS,以解決軍事行動期間人工智能的強制性行為,并為各國在國際法下確立何時能夠授權AWS進行操作和攻擊提供一個標準[4]240。

(三) 人工智能對國際刑法的挑戰

當人工智能代表個人做出《國際刑事法院規約》(以下簡稱《羅馬規約》)禁止的行為時,會產生責任主體認定、歸因方式與責任類型等新的問題。根據《羅馬規約》第1條、第5條的規定,國際刑事法院對個人所犯的滅絕種族罪、危害人類罪、戰爭罪及侵略罪行使管轄權。這里的“個人”僅指自然人,非自然人的法人、國家、國際組織皆不能承擔國際刑事責任。當具有自主決策能力的人工智能實體做出滅絕種族、危害人類、違反戰爭法或侵略的行為時,首先產生的問題是由人工智能自身承擔責任,還是由人工智能背后的控制人或他人承擔責任。根據《羅馬規約》的規定,人工智能實體并不具有承擔個人刑事責任的資格。未來人工智能即使被賦予法律人格,其最終承擔的刑事責任類型也很有限,往往難以與其造成的行為后果相匹配,不符合刑法“罪刑相適應”的原則。因而,為了維護人類的生存利益,防止個人利用人工智能逃避責任,個人仍應當是唯一的國際刑事責任承擔者。

當人工智能介入時,產生的主要問題是誰應當對人工智能的行為承擔刑事責任,以及如何將人工智能的行為歸因于個人。在責任主體方面,是程序員、控制人工智能機器的上司、采用這種戰爭方法的軍事指揮官,還是命令軍事指揮官采取任何有效戰爭方法的政治領導人[14]8-9?在此,不能將人工智能實體簡單地類比為指揮官。因為人工智能缺少理性和倫理判斷的能力,完全遵從算法的指令。因而,在責任主體制度的構建上,仍需系統考慮人工智能實體的特殊性與智能化程度。在歸因方式上,宜采取過錯歸因原則,只有負有監督職責的人,或者與其交互的人存在過錯,才需承擔由人工智能行為產生的法律責任。

同時,個人承擔的刑事責任還須附加一項特殊的刑罰類型,即對其控制的人工智能實體進行改造以符合法律規定,或者直接毀滅。在刑事責任的類型上,鑒于人工智能感受不到痛苦,需要選擇其他的懲罰方式,例如失能與修復等方式[26]71。當前,《羅馬規約》中尚無任何關于人工智能的規定,亟須對相關的責任主體、歸因方式與責任類型做出一般規定。

(四) 人工智能對國際知識產權法的挑戰

人工智能的生成之物一般通過兩種方式產生:一是人工智能被人類用作工具,受到人類的直接控制;二是人工智能自主生成。在第一種方式下,人工智能生成之物的知識產權應當屬于人類;在第二種方式下,由于具體創作過程缺少人類的參與,人工智能生成之物是否符合發明、作品或商標的標準以及歸屬權等問題仍存在一定爭議。有學者認為在缺少人類干預時,人工智能生成的內容具有隨機性,缺乏個性特征,并不符合獨創性的要求[27]154-155。但是,創造型人工智能已經出現,并且在過去幾十年里悄然發展起來[4]257。人工智能生成的具有價值與創新性的發明、作品或商標應當受到法律的保護,以鼓勵創新,促進經濟、文化的發展。在具體方式上,當人工智能在沒有任何有意義的人類交互干預下自主創造新的知識產權時,人工智能本身應當被視為作者或發明者,但在其進入公共領域之前,人工智能的創造者應當對此享有10年的版權或專利權。由此,既可鼓勵編程者開發具有自主創新能力的新程序,也能加快該產品進入公共領域的進度[4]291。

在人工智能生成之物在國內逐漸獲得知識產權的同時,各國關于人工智能生成之物的保護標準也將不可避免地產生矛盾,尤其是在部分國家承認人工智能自主生成之物的知識產權而某些國家不承認的情況下,當未保護國的國民侵犯該知識產權時,權利人僅能在受保護國主張權利,這顯然不利于知識產權的保護,因而需要國際知識產權法(16)主要指《保護文學和藝術作品伯爾尼公約》《保護工業產權巴黎公約》以及《與貿易有關的知識產權協定》。積極進行協調。但是,當前國際知識產權法對人工智能生成之物尚無任何規定。隨著科技的發展,國際社會一直在努力推動知識產權法的更新,知識產權保護的范圍也在不斷擴大,例如計算機程式與數據。為了使人工智能自主生成之物受到應有的保護,國際社會應當設定最低的保護標準,在諸如人工智能生成之物的歸屬、保護期限等方面,各國應當具有一致性。

(五) 人工智能對國際人權法的挑戰

傳統上,國際人權法面臨的挑戰往往來自恐怖主義、戰爭、貧困與環境惡化等方面。在智能時代,國際人權法還面臨人工智能的嚴峻挑戰。一方面,人工智能將會沖擊國際人權法的部分規定,例如人權的主體、人權的內容;另一方面,人工智能的不當利用會導致嚴重侵害人權的行為,例如人類利用自主武器系統做出違反國際人道法與國際刑法的行為,將會嚴重危害其他人的生命、財產、自由、發展、可獲得的食物水源等。

國際人權法的發展經歷了漫長的過程,真正意義上的國際人權保護文件出現在二戰以后?!堵摵蠂鴳椪隆分杏嘘P人權的條款為保護人權奠定了基礎,1966年通過的兩個人權公約(《經濟、社會和文化權利國際公約》《公民權利和政治權利國際公約》)及一個議定書進一步細化了人權的基本內容[8]634-638。人權既包括個人權利,也包括集體權利(17)集體權利包括民族自決權、發展權、環境權、和平權等,參見白桂梅《論新一代人權》,載《法學研究》1991年第5期,第3-4頁。。根據國際人權保護文件的規定,人類是人權的唯一主體(18)例如《聯合國憲章》第1條,《公民權利和政治權利國際公約》與《經濟、社會、文化權利國際公約》的序言部分都強調了人權的主體是人類。。但是,人權的主體具有擴大的趨勢。先有關于集體權利的主體是個人還是集體的爭議[28]4-5,后有人權主體從生命主體到人格主體的擴展[29]55-57。例如,法人在諸多國內法律和國際條約中已經獲得部分人權(19)1950年《歐洲人權公約第一補充議定書》第10條規定:“每個自然人或法人有權和平享有其財產?!眳⒁娦祜@明、曲相霏《人權主體界說》,載《中國法學》2001年第2期,第55-57頁。,突破了建立在人類尊嚴基礎上人權主體的唯一性(20)有學者認為人的尊嚴是人權的基礎,參見[美]艾倫·格沃斯《作為權利基礎的人的尊嚴》,鐘夏露、孫雨菲編譯,載《中國人權評論》2015年第2期,第153頁。。

當前,人工智能已經應用于人類生活、學習和工作的各個領域,并在逐步取代人類的工作。未來,人工智能的水平會不斷提高,甚至可能超越人類,成為人類生存的主要工具。為了維護人類的利益,法人被逐步賦予部分人權。人工智能在成為人類利益的主要創造者和維護者的時候,也可能被賦予人權的部分內容,例如財產權、勞動權。但是,人工智能擁有人權的目的限于保護人類的利益。例如,賦予部分“情感陪護型機器人”以人權,目的是保護被陪護人的權益。因而,當人工智能涉及人的情感、利益以及人獲得陪伴、幫助的權利時,人工智能會因此獲得一些“邊際人權”。但是,當前《聯合國憲章》第1條以及《世界人權宣言》、兩個人權公約的序言部分規定的人權主體仍僅限于人類,未來,國際人權法需要對此做出特別規定。

(六) 人工智能對國際海洋法、國際海事法的挑戰

在海上航行方面,與無人駕駛汽車和無人機類似的是,人工智能技術的應用使無人船舶成為現實。由于當前人工智能在國際海洋法、國際海事法領域中帶來的挑戰都是由無人船舶引起的,因而本文將這兩部分放在一起討論。無人船舶最終的發展方向是船上沒有人員的完全自動航行[30]60。和人類駕駛型船舶相比,無人船舶在節約成本、降低風險等方面具有獨特優勢。雖然當前關于無人船舶的嘗試大多都是學術性質的,但有一些組織正在尋求將該技術商業化[31]198。未來,無人船舶也將會被用于貨物托運、乘客運送等諸多工作中。但是,當前國際航運規范、海洋法和國際海事法的前提是人的存在和控制船舶(21)Chircop A., ″Testing International Legal Regimes: The Advent of Automated Commercial Vessels,″ German Yearbook of International Law, Vol.60 (2017), p.109.,因而需要重新審視相關國際法規范以確定哪些可以適用于無人船舶,哪些不能適用于無人船舶。在不能適用時,應當做出怎樣的改變。

關于“船舶”一詞,不同國際條約的規定并不相同,有的甚至沒有做出規定(22)《聯合國海洋法公約》未對船舶一詞做出具體規定,而《國際防止船舶造成污染公約》第2條規定,船舶包括在海洋環境中運行的任何類型的船舶。,其實,無人船舶除了缺少船員外,與傳統船舶并無區別,暫且假定無人船舶屬于船舶的一種。作為船舶,無人船舶的航行也需要考慮適航標準、航行規則、海上合同、海事賠償責任等諸多問題,涉及復雜的國際規則。尤其是依據不同的標準,無人船舶可以被分為不同的類型(23)例如,根據是否載人載物,無人船舶可分為載人無人船舶、載物無人船舶以及空船無人船舶三類。根據人類控制程度的不同,無人船舶可分為遙控船舶、自動化船舶與自主船舶三類,自動化船舶又可進一步分類為人為控制、人工授權控制和人為監控控制三類。根據是否在水面航行,無人船舶可分為無人水面艦艇和無人潛艇兩類?!翱沾痹谧獯瑯I務中通常指配備了船員卻沒有載貨或者載客的船舶,將“空船”與“無人”結合指代沒有載貨和載客且沒有船員的船舶。參見Chwedczuk M., ″Analysis of the Legal Status of Unmanned Commercial Vessels in U.S. Admiralty and Maritime Law,″ Journal of Maritime Law and Commerce, Vol.47, No.2 (2016), pp.128-130; Schmitt M.N. & Goddard D.S., ″International Law and the Military Use of Unmanned Maritime Systems,″ International Review of the Red Cross, Vol.98, No.2 (2016), p.571。,不同類型的無人船舶所適用的規則存在一定差異,由此也進一步加劇了國際規則的復雜程度。

例如,在無人船舶的航行規則方面,根據《聯合國海洋法公約》(United Nations Convention on the Law of the Sea,簡稱UNCLOS)第17條和第58條的規定,船舶在他國領海享有無害通過權、在專屬經濟區享有航行自由等航行權利。雖然UNCLOS在制定之初沒有考慮無人船舶,而且在第94條要求船旗國采取保證船舶海上航行安全的必要措施,其中就包括船員的資格和人數要求,但是鑒于UNCLOS中的大部分內容已經成為習慣國際法,無人船舶也應當享有類似的權利并履行同等的義務。同時,考慮到無人船舶的特殊性質和潛在危險性,沿海國對無人船舶也應當享有特殊的管轄權。例如,UNCLOS第22條規定沿海國指定或規定海道和分道通航制,可以適用于無人船舶。為了方便沿海國的管轄,無人船舶本身應當具有特殊的足以被辨別的標記,或者由船舶所有者主動向沿海國做特別報告。

值得注意的是,在UNCLOS中軍艦享有特殊的權利,例如主權豁免權、扣押實施海盜行為的船舶、登臨權、緊追權,并參與旨在保護海洋環境的執法行動(24)參見《聯合國海洋法公約》第32條,第107條,第110條,第111條,第224條。。由于軍艦需要軍官指揮并配備服從正規武裝部隊紀律的船員(25)參見《聯合國海洋法公約》第29條。,無人船舶往往難以滿足軍艦的要求。但是,為政府服務的其他船舶也具有同樣的權利(26)參見《聯合國海洋法公約》第32條,第107條,第110條第5款,第111條第5款,第224條。。除此之外,UNCLOS并沒有施加更多的標準。這意味著只要無人船舶具有相應的標記并有資格成為船舶,則沒有其他原因可以阻礙無人船舶由政府授權行使軍艦享有的特殊權利[32]579。

此外,在海事賠償責任方面,對于受遠程控制和監督的無人船舶,控制人、監督者和船舶所有者應當對事故承擔責任。但是,完全自主的船舶在造成海洋污染或發生船舶碰撞事故時,應當由誰承擔責任?是所有者、設計者、建造人,還是船旗國?同時,在追責過程中還面臨主觀注意義務如何確定的困境。例如《國際海上避免碰撞規則》第7條要求船舶判斷是否存在碰撞危險,第8條規定了避免碰撞的行動。由于無人船舶難以做出理性人的分析,在涉及無人船舶的事故中進行疏忽分析往往存在困難[33]421。因而,法律要求的注意義務目前只能由無人船舶的所有者或設計者在過錯原則的基礎上承擔。

三、 國際法應對人工智能挑戰的途徑

大數據時代,直覺的判斷被迫讓位于精準的數據分析[34]21,人類的衣、食、住、行都被迫與人工智能密切聯系。在強人工智能時代,人工智能表現出明顯的智能行為,至少在整個認知任務中,與人類一樣先進[1]7。艾薩克·阿西莫夫曾在短篇科幻小說《環舞》中首次提出機器人學的三大法則(27)第一法則,“機器人不得傷害人,或者坐視人類受到傷害而袖手旁觀”;第二法則,“除非違背第一法則,否則機器人必須服從人類命令”;第三法則,“在不違背第一及第二法則的前提下,機器人必須盡可能地保護自己”。。雖然這些法則針對的對象不包括其他類型的人工智能實體與研發者,但是也對今天如火如荼開展的人工智能研發提出了頗有價值的建議。人工智能的應用在促進社會發展的同時,也會產生嚴峻的安全問題,不排除人工智能的研發被用于實現非法目的,甚至走到人類難以控制的地步?;诖?,正確處理人工智能技術發展與國際法的關系顯得尤為重要。為此,國際社會必須確立以人工智能安全使用為價值的目標,始終以其對人類社會的影響為指導,積極引導人工智能健康發展,在防范風險的同時為人工智能技術的發展留有必要的制度空間。

(一) 制定國際軟法

國際軟法是沒有作為條約或習慣國際法的地位的形式性國際文書,亦是在形成過程中的未成熟規范的總稱[35]2。在變革過程中的法領域,由于新規則的形成存在困難,往往首先用“軟法”形式的文件抽象性地確認這些規則,然后通過國家慣常的積累,將成熟的“軟法”凝固、結晶化為“硬法”[35]2。在國際軟法中,存在一種超級軟法,其制定主體是相關利益方、專業團體、社會和自然科學家、公司以及民間社會組織形成的無政府無領導的立法機構[15]106。在其制定普遍適用的標準時,沒有任何傳統的國際法制定者參與其中,例如主權國家、國際組織等[15]106。從軟法發展的歷史來看,其產生的原因主要是新事物的出現和硬法制定的滯后。為了有效治理新事物,不得不率先制定軟法。

人工智能屬于新興領域,許多國家的人工智能技術尚處于起步或前期發展階段。雖然主權國家自身會出臺相關指導性規則、行業調整規則等,但是在短期內,各國難以締結具有約束力的國際規范。而人工智能的安全問題不容忽視,其發展需要得到有效規范。因此,人工智能的相關利益方、研發者、公司以及民間社會組織可以率先組織起來,盡快制定關于人工智能安全和倫理的技術標準。與網絡領域的代碼類似,這些標準將用于解決人工智能的安全和倫理問題。我國阿里巴巴、科大訊飛等科技公司的部分人工智能技術已經處于世界前列,應當抓住這種領先優勢,主動制定或牽頭制定相關超級軟法,從而掌握人工智能技術標準的話語權。同時,相關國際組織也應當積極制定規范人工智能的軟法規則。

值得注意的是,國際軟法都缺少法律約束力。網絡領域隨著互聯網技術的發展逐漸制定了硬法,形成了“軟硬結合”的治理方式。在人工智能領域制定國際軟法雖然能夠解決技術問題和一定的倫理問題,但其不具有約束力,而且難以應對層出不窮的新型社會問題和倫理問題。此外,網絡域名和地址分配規則與人工智能標準存在明顯不同。前者屬于靜態技術,由于網絡的交互性和普遍性特征,各國需要遵循統一的標準;而后者仍處在動態發展過程中,任何國家、團體或個人在掌握技術的情況下皆可創造人工智能實體,缺少遵循統一標準的動力。未來人工智能發展的高度可能超出人類所能控制的范疇,引發更深層次的倫理問題,因而需要相關的國內法以及國際法予以指導、規制和保護。

(二) 修改和出臺多邊條約

解決各國之間有關人工智能的爭議、潛在問題以及沖突的最好的辦法就是通過多邊條約的形式[4]235。經過長期發展,部分軟法硬法化是必須進行的立法工作。軟法不具有強制力,其作用更多體現為指導性和宣示性。而人工智能仍處于發展之中,在必須設置強義務責任領域內仍然需要硬法進行規制。另一方面,軟法由于在解釋上具有更大的隨意性,也難以在司法程序范圍內發展適用甚至改進,給國際法治建設帶來不穩定因素。因此,將來有必要將部分人工智能軟法硬法化,促成相關多邊條約的出臺。同時,通過修改多邊國際規則,例如國家責任原則中的具體內容,實現對人工智能的有效規范,避免出現法律漏洞的情況,及時解決人工智能對這些規則提出的挑戰,形成全球性的風險防控機制。

當前,尚無任何國家或人權組織去關注弱人工智能演化為進階版人工智能甚至強人工智能的后果。這本是一個應該早在科學家、計算機工程師和程序員成功創建單個或多個超智能機器人或能控制地球的機器之前,就需要解決的可能對人類產生重大影響的問題[14]10-11。在現實生活中,人類在從事一定行業時往往需要一定的培訓并取得資格證書和職業證書,人工智能在具體應用到某一領域時也應達到相應的標準[2]419。對此,國際社會宜設定人工智能的使用標準[4]240-241,以便監督管理。

在人工智能武器系統領域,非政府組織Article 36提出了“有意義的人類控制”(Meaningful Human Control)這一新興概念,作為解決AWS所帶來的挑戰的一種可能方案[36]1,并得到聯合國《特定常規武器公約》締約國的廣泛認同(28)Article 36, ″Article 36 Reviews and Addressing Lethal Autonomous Weapons Systems,″ http://www.article36.org/wp-content/uploads/2016/04/LAWS-and-A36.pdf, 2020-01-31.。該組織將滿足人類控制的關鍵要素總結為四點:第一,技術是可預測的、可靠的和透明的;第二,使用者必須擁有正確的信息;第三,及時的人類判斷、行動和介入;第四,一定標準下的負責制[37]3-4。其實,無論是AWS,還是其他類型的人工智能實體,人類都應當始終對人工智能的發展和行為負責,以避免人工智能本身對人以及人類的權益造成損害。因而,任何人工智能實體都應當嚴格遵守“有意義的人類控制標準”。該標準應當以法律規范的形式固定下來,并貫穿于人工智能實體研發、制造和使用的全過程。

然而,修改與制定國際規則不是一蹴而就的事情,國家之間的利益分歧往往阻礙新規則的產生和發展。從國內規則與國際規則的互動規律來看,國內規則與國際規則之間總是相互影響、相互促進的(29)參見趙駿《全球治理視野下的國際法治與國內法治》,載《中國社會科學》2014年第10期,第79-99頁;孔慶江、王藝琳《國際法與國內法的關系:國際組織法律文件的視角》,載《武大國際法評論》2018年第1期,第50-76頁。。國內規則在得到他國認同的情況下可能會逐漸上升為國際規則,同時國際規則也會在主權國家承擔國際義務的范圍內轉化為國內規則。在人工智能領域,雖然尚未締結任何有約束力的國際規則,但是相關的國內政策和規則已經出現。在制定與修改國際規則的路徑上,部分主權國家可以選擇在分歧較小又亟須實現有效規范的技術標準領域率先締結雙邊或區域性條約,將國內法的共識部分上升為國際條約。隨著人工智能的不斷發展,相關國際條約的加入國會不斷增加,反過來也會影響國內規則的制定??傮w上,多邊條約將會與相關行業規則、國家立法、國際示范法等相互影響、相互促進。

(三) 設立專門性國際機構

為了應對人工智能在全球范圍內帶來的機遇與挑戰,引導人工智能更好地服務于人類命運共同體的建設,宜在國際層面設立人工智能的專門性國際機構??紤]到各國之間的利益分歧,人工智能專門性國際機構并不限于政府間國際組織。在職責方面,人工智能專門性國際機構應當至少履行以下五個方面的職責:(1)關注并制定人工智能行業標準、技術與倫理規范;(2)人工智能研發的合規、國家規則協調及監管;(3)人工智能技術與知識產權保護;(4)人工智能爭端與沖突解決;(5)人工智能與現有國際法體系的“融合”等等。

以人工智能的監管為例,由于任何一國的強人工智能都可能變成對全人類的威脅,因而迫切需要實現全球性的監管合作。根據《第一議定書》第36條的規定,一個國家具有自主審查新武器、作戰手段或方法的義務,以確定是否符合國際規定。然而,由于超智能機器以廣泛共享的人類理想為動力,可以對人類控制新興技術的危險方面更為有益,從而能夠提高國家的政治、經濟和國防優勢。沒有一個國家或公司會放棄研究人工智能,因為研究可以獲得某些好處并制衡競爭對手[19]139。因而,主權國家一般缺少足夠的動力去執行自主審查任務,需要獨立的第三方來履行監督人工智能技術發展的責任。

作為尖端科技,人工智能技術在各國和私人機構的研發和應用一般處于保密狀態。但是,如果任由資本和利益驅動的人工智能技術發展,可能會對公平、正義造成毀滅性打擊。在監管方式上,各國和私人研發機構應當定期向專門機構報告研發進程,同時在出現重大技術創新時也必須及時報告。在監管對象上,應當局限于一定水平基礎上的人工智能核心程序或算法。雖然人工智能可以被應用于各個領域,但是專門機構的監管范圍并不包括所有與人工智能相關的領域,而應當被限定在與人類安全息息相關的領域,例如武器系統等。

由于對人工智能技術的有效管理需要機構擁有專業技術知識,因而監管部門以及監管過程的各個階段都需要高級專家的參與。對此,一方面,可以采取新型的人事分配和交換模式,即臨時性人事分配模式,讓專家在監管機構、大學、研發中心以及其他符合條件的組織之間定期流動。另一方面,可以建設技術合作機制,由國際監管機構委托獨立技術機構檢查、測試部分算法。同時,各國應當加大與人工智能有關的教育投入,培養一批專業的隊伍。

四、 結 語

人工智能的發展已經成為不可阻擋的潮流和趨勢,也再次突顯了科技與法律的矛盾關系。追溯遠古,如果將工具的使用看作科學創造、把規則的創制視為發明,那么科技與法律都是人類為了更好地生存和生活而進行的文明構建。人工智能的發展對社會各方面都產生了重大影響。在國際法領域,人工智能不僅極大地挑戰了國際法基本原則,而且深刻影響了國際法的具體領域。面對這些共同的挑戰和風險,亟須實現全球治理。盡管國際社會無法在短期內達成較為一致的意見,從而制定國際法規予以管制,但是技術層面的自我規制可率先行動。通過民間力量形成較為可行的技術標準,首先保障人工智能不越界,這也完全符合法的歷史軌跡——從共識到習慣再到規則。同時,國際法律工作者應主動參與人工智能相關軟法的制定,并適時促成相關多邊條約的出臺,設定“有意義的人類控制標準”,同時設立國際監管機構,實現對人工智能技術的有效引導、約束和規范,使人工智能的發展在法治的軌道上不斷推進。

猜你喜歡
國際法船舶人工智能
《船舶》2022 年度征訂啟事
非國家行為體網絡行動的國際法責任認定研究
論作為國際法淵源的一般法律原則
國際法和比較法中的法律方法 柔性國際法的疆界及其界定方法
作為國際法淵源的條約
BOG壓縮機在小型LNG船舶上的應用
2019:人工智能
人工智能與就業
船舶 揚帆奮起
數讀人工智能
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合