?

論人工智能語境下科技法律倫理的現代流變

2024-05-09 21:50羅亞海
臨沂大學學報 2024年1期
關鍵詞:倫理規則道德

羅亞海

(臨沂大學 法學院,山東 臨沂 276000)

一、問題提出

自進入21 世紀以來,科學技術前所未有地深刻影響著國家前途命運和人民生活福祉,也深刻改變著經濟社會發展軌跡、全球治理體系、人類文明進程。[1]人工智能等現代科技的發展改變了時代法律的場景[2],這必然引起對現代科技法律倫理的新思索。強人工智能的自主意識和自我學習能力讓傳統的法律倫理觀受到挑戰,科技法律倫理已經不能再以傳統的制度和理念予以審視,在現代語境下,科技法律倫理觀需要進行現代化的重構?,F代科技法律倫理的流變需要深入思考人工智能背景下社會關系所發生的性質和表征變化、文化變遷等問題。 新興技術對社會的增益容易讓人們低估科技風險,也必然會導致科技風險和倫理道德之間出現現實張力。人工智能可能引發的社會變革及其理念變遷讓科技法律倫理成為社會治理的熱門話題,科技法律倫理觀需要借助道德和價值元素來實現對科技活動和科技發展的道德約束和價值認同。 人身安全和生存安全是人類的兩大需求,科技倫理認知的發展依托特定時期的社會背景而形成不同的認知,科技法律倫理觀將從傳統科技倫理觀中孕育并獨立發展。 對于人工智能法律性質和語境的理解,我們不能滿足于強調這個問題是什么以及該如何回答這個層面,而是要嘗試去弄清楚這些問題本身的意蘊。因此,對科技倫理的現代性回答不能局限于一個或者另一個法律概念, 而是要探求這種多樣性是如何形成的。 因此,科技法律倫理史觀的梳理尤為必要。 科技法律倫理史的研究目的在于尋求自覺、事實性質及其社會背景的某種程度的透徹理解。 客觀上講,作為數字時代具有廣泛滲透性的基礎技術,人工智能具備顛覆性重構人類社會的潛能。[3]在人工智能背景下,科技法律倫理史的研究不僅要理解科技法律倫理研究的方法論, 更需要探求性質界定中的重要性原因,這些問題需要在特定語境下提出,問題的回答也要依賴特定語境。[4]科技法律倫理的發展是隨著科學技術發展而不斷進步的,而這種進步以科學技術如何適應社會生活所產生的效應為前提。 科技進步必然會引發新的倫理思考,并得出新的結論。

人工智能背景下的科技法律倫理史觀的凝練需要通過歷史梳理,探尋科技倫理變遷中的根本性轉變。這不僅需要滿足社會實踐對理論的需求,更需要法律思維方法的轉變。在人工智能時代的整體語境下,這種轉變不僅僅是對社會面向的一種具體制度修正或者細節改變,而是需要我們對在倫理規則抽象中所依賴的社會基礎和基本規則進行創造性轉換。 從歷史來看,自然界曾經對人類產生了深遠的影響。 “在哲學中,人與自然的關系和制度的文化批判、社會公平、正義問題,是最具有人類共通性的問題?!盵5]8基因編輯嬰兒、宜興胚胎案、機器人索菲亞的公民身份、阿爾法狗機器人等事件,讓人們在傳統的科技倫理和科技發展規則中的思索陷入混沌,當然也引發了社會對超人工智能等現象的思索,法律不能再以“回應型”調整和糾偏式方式來應對科技風險,立法的終極價值目標是為了人類社會更美好的未來。[6]人工智能發展引發了我們對科技倫理的新思索,這些思索不僅包括是否可以賦予人工智能主體資格或者部分的主體資格、 人工智能對智慧的承載該如何界定等簡單的問題,更應該包括對傳統科技倫理關系在法律上的現代性重構,并需有效甄別傳統的科技理念需要哪些根本性的轉變。 對人工智能而言,人工智能規則構建的前提需要承認實然的科技法律倫理規范品格,并在梳理科技法律倫理規則的變遷中,深入思索現代背景下法律制度背景的深刻轉變,以探尋現代法律科技倫理觀的現代性流變。

二、科技法律倫理的歷史演變及其思考

(一)古典科技法律倫理思想孕育在科技倫理觀中

古典的科技倫理思想最早可見于原始社會末期,但那時并沒有形成明確的制度關聯意識。 蘇格拉底的“美德即知識”將科技與道德關系引向深處。[7]1智識的探索可以追溯到超自然時代,朦朧的科技倫理思想隱含在當時的神話中。古希臘、古羅馬的科學家和哲學家們已經意識到了科技對社會的影響。 初期的科技倫理更注重科學家的個人道德自律和自我克制,泰勒斯的思想中就體現了淡泊名利和對金錢的輕視;畢達哥拉斯將科技發現視為人生的幸福;蘇格拉底將具體科學知識和道德的關系抽象為一般性命題,強調“知識就是美德”;柏拉圖認為科學知識,特別是數學是達成善的理念的必要條件和必要環節;亞里士多德則更推進一步指出: 一切技術和研究都要以善為目標[7]13,“如若在所有行為中存在著某一目的,他就是實踐所要達到的善,如若有多種目的,那么這個善也就是它們的總和”[8]。 初民的簡單勞動包含著科學技術, 他們將科學技術和道德的關系蘊含于某種神化的人格主體,如希臘神話中的普羅米修斯,中國傳統科技神話中的“神農氏”等,借助這些人格主體傳達科技造福人類的倫理精神。但同時,通過普羅米修斯的故事也傳達了這樣一個信息:潘多拉的盒子并不都是美好的,“知識科技造福人類,也可以用它危害人類、扼殺文明”[7]21。 神學意識中的智識思想和倫理理念也蘊含了科技倫理思想,培根的批判和文藝復興運動讓科學擺脫了宗教而獲得了獨立。

以早期資產階級的兩次科技革命和技術革命為背景,康德、拉普拉斯和達爾文等科學家抽象出了科學家品德、科學倫理學等概念。由此,人類借助哲學將神秘主義轉換為可以描述的現實存在。在科學和道德領域,“演進”“演化”等概念得到確認。達爾文和斯賓塞將進化論觀點植入了科技與道德問題的研究,馬克思和恩格斯以辯證唯物主義和歷史唯物主義的立場研究了科技道德現象,為科技倫理學奠定了學科基礎。[7]3-4在這個時期的科技倫理體系中,鮮見國家角色的影子。 這種現象形成的重要原因在于科學技術的發展并沒有對人的基本價值造成實際影響,科學技術和人類之間缺乏切實需要價值判斷的社會基礎。 可以這樣總結,先機器時代的科技倫理觀念多數體現在科學家及先賢們的個人思想中,將科技倫理作為一種法律制度的必要性和現實性基礎并不明顯,科技倫理更多地體現為個人行為和個體觀念,整體因素和國家制度要素并沒有得到有效彰顯。

(二)人與人之間、人與國家之間的關系成為機器時代科技倫理中的主導要素

機器的運用是科技倫理史的第一次轉型,因為先于機器的工具是人的工具,它的使用受到人的器官的限制、受到人的能力的限制。 而在機器時代,工具不再是人的工具,而是一個機構的工具,因而不再受人的器官的限制。[5]122科技的工具面向時代,科技倫理所呈現的是人與自然之間的關系,并不觸及人與國家、人與人之間的關系。 在機器時代,生產力對機器產生了依賴,人力也對機器產生了依賴,機器時代的科技倫理具有了探討價值。 當然,科學技術的應用就有了肯定和否定的價值判斷。 從肯定意義上講,科學技術改變了自然的性質,改變了人與自然的關系,具備了人與自然之間價值關系形成的基礎,這在中世紀和文藝復興以來的新興資產者思想家階層的思想中得到反映。 如培根就認為科學有道德的價值,科學的進步會給人類帶來利益,“利人的品德我認為就是善……這是人類一切精神和道德品格中最偉大的一種”[9]。笛卡爾也認為科學研究要造福人類社會,通過科學技術,讓人類成為“自然的主人和統治者”[7]234。 盧梭雖然被解讀為科技是破壞道德觀點的代表者,但是他也沒有否認科學的社會價值。 圣西門在科技和道德論述中涉及了制度要素,他認為實業是建立在大工業生產的基礎之上的,“道德實際上是隨著實業的完善而發展的”[10]。 德薩米認識到科技發展對道德的危害,他認為“惡化的氣候,糟蹋森林的事情到處可見”,這在公有制下才可以得到解決。[11]這些論述涉及了國家制度面向層面。

科技道德受到經濟、政治、軍事和文化的制約,這必然會依賴國家對待科技的態度。 早期科技的發展服務于資本,因此,科技的功利性不可回避,功利性和公利性的博弈,容易讓科技發生脫離解放人類、發展人類智力的需要,從而,具有了讓人類從屬于資本發展需要的風險。在機器時代,科技獨立于經驗,科技的使命是創造財富,技術雖然和直接勞動相分離,但是沒有發展成獨立改變科技倫理價值的根本性因素?!皣摇痹谂c內部和外部世界的博弈中正在向非傳統型國家加速演變,政治國家中心主義思潮的衰退是必然的了。[2]現代科技法律倫理的關注點轉移到國家的權威上,任何現象都可能存在多維的解釋,科技發展會自然地帶動國家科技道德認同的發展,早期的國家科技觀是國家單一面向階段,這時候科技的發展表現為科技對國家政治的滿足度。人工智能背景下的“人”開始出現成為科技客體的可能,科技既服務于人類,但同時也通過開發自動化武器、生化武器等來傷害人類,科技倫理需要上升到法律制度并實現科技發展的價值引領,人與人、人與社會的關系進入了科技倫理,并需要通過法律制度來保障科技目標的實現。

(三)強人工智能時代人類價值守護是科技法律倫理的核心問題

近代以來,相對論、量子力學、分子生物學等的發展,讓人類社會經歷了第三次科技革命和技術革命。近代科技革命,特別是在兩次世界大戰中帶來的社會傷害,對道德生活產生了重大影響,這引發了社會對科學社會道德和道德義務的重視。 科技倫理的演變歷史共形成了知識和道德等同論、科學與道德排斥論、科技與道德無關論、科學決定論和道德決定論幾種觀點,這些觀點的核心理論都是建立在前三次科技革命的基礎上。人工智能發展,特別是超人工智能,提供了不同的理論語境和社會背景,傳統的倫理規則受到挑戰,導致了根本性的現代流變。人工智能時代,科技法律倫理觀需要進行顛覆性的重構,生命價值與政治價值、公權力和人權等的關系是這個時代的核心問題。 公民和國家雙面向時代需要思索的問題是國家在科技立法上的價值選擇和人類根本價值的保護。從馬克思對人類發展規律的認知來看,國家一定階段的經濟發展規律是社會的基礎,這個基礎以滿足人類發展的基本生存條件為前提。 恩格斯在《神圣家族》中提出,人是歷史的主體,“歷史不是把人類當作達到自己目的的工具利用的某種特殊人格, 歷史不過是追求自身目的的人的活動而已”[12]。 因此,在人工智能時代,科技法律倫理規則構建應該從人的活動中來探索規律,要注重科技史和人類歷史的區分,在保持兩者的獨立性前提下進行探討。

人工智能時代引發了諸多新的思索,如主體和客體關系變得模糊,責任主體虛位化,機器對人類的反向歧視,承載智慧不再是人類的“專利”,自我創造和自我發展具有了非生物特征,等等。制度設計不能喪失對進步和正義可能性的信仰,需要構思在后現代主義和多樣化條件下建立連貫的敘事模式。 這就引發出人們對科技倫理的共識守護和秩序謀求的思索?!把虺匀恕笔菣C器時代機器對人類的第一次驅趕,但是這時候的科技仍然是人與人之間、主體與客體之間關系的呈現,因此,社會現實和法律制度雖受到影響,但仍能容納于傳統理論框架中。 人工智能時代,特別是超人工智能的發展,讓人工智能具有了“人擬”的智慧,并具有了智能產品間的學習和自我創造可能,具有了反向歧視和反向控制的風險,人與人、主體與客體之間的關系受到沖擊和挑戰,這需要對新時代進行反思與重構。

三、人工智能時代科技法律倫理的共識守護和秩序基礎

(一)人工智能時代法律倫理必須堅守人的主體性價值

隨著人工智能、物聯網、生物技術等新興技術的發展,通過“腦機結合”讓智能機器有意識、會思考,進而實現“人機交往”“人機共生”,甚至硅基生命體的出現并不是沒有可能。[13]這對傳統的法哲學中的“人”的概念帶來了挑戰,在科技上的“善和惡”討論中,堅守人的主體價值成為一個突出的問題,這需要系列的倫理規則予以支撐和體現。 一切價值都是質料的性質,它們彼此相對有一個“高”和“低”方面的特定性質,這不依賴它們的存在形式。[14]人的主體性價值由兩個方面組成:個體主義的人和整體主義的人,在人工智能背景下人的主體價值的探討,主要應該體現人的整體性價值,法律倫理應該關注人類的整體發展需要什么樣的科學技術以及科學技術如何有效地服務于這個時代人類的整體利益?,F代科技的發展不僅僅影響了法律倫理學的方法論,而且更體現在社會生活的實際領域,科技發展推動了經濟和社會生活的長足發展,但是科技發展帶來的消極后果加深了人自身的異化。 人格價值的物化和客體化,反映出人在內在化創造的同時又被物質世界外在化。[15]科技發展滋生的社會否定性結果摧毀了人傳統的價值理想,道德價值觀發生紊亂。 法倫理學的主題是“人”,它以人為出發點和歸宿為最高目的的存在。[16]在這個價值堅守中,人工智能等科技發展的實踐讓法哲學在對法律和科技倫理關系的審視中強化了科技視角,科技法律目標的實踐需要道德對法律制度的填充方能實現。

在人工智能時代,法律倫理問題的分析需要通過敘述事實的真相獲得可靠的知識并利用這些知識構建社會正義。這種分析不能犧牲對法律事業的整體性理解和缺乏社會功效的社會意識。 社會正義構建需要思考這樣的問題:我們在人工智能制度設計上該如何看待我們的制度目的和制度內容,如何看待我們對道德、決策和政治決策的公共性約束,這需要對傳統制度價值及制度倫理作出新的解釋。 社會生活至少包括兩個方面:物理方面和存在方面,在傳統的解釋方法中,物理方面和存在方面具有嚴苛的獨立性,這是源于科技對傳統生物學倫理的遵守,作為倫理關系主體的人被抽象成“存在”的獨立承載者,并且在主體確認規則上設立了獨立的價值堅守,智慧承載是主體作為主體的核心標志。在人工智能時代,智慧承載規則客觀上已經發生了變化,生物學規則面臨挑戰,在人的主體價值評判上,需要建立新的規則體系。 法律主體資格經歷了有限自然人人格到全面人格的發展過程,在人工智能發展中,在目的論意義上,認為人工智能具備成為主體的可能性和合目的性。[17]科技的發展需要服務于人的主體價值所堅守的基本理念,科技的發展不論多么絢麗多彩,但是仍然要服務于這個目標。

(二)人工智能背景下科技倫理需要從“不作惡”到“科技向善”轉變

對人工智能系統進行倫理設計的根本目標,就是使其能夠按照人類認為正確的方式進行道德推理與行動,這是人工智能倫理研究中最為重要也最為困難的內容。[18]亞里士多德認為所有人類的每一種作為,在他們看來,都是在謀求某一種善果,所以他認為“一個城邦的目的是在存進善德”[19]。 科技和科技的價值經歷了混沌統一到各自發展的轉變,在政治訴求和經濟發展制約下,兩者的“血緣關系”和同一性遭到破壞。在20 世紀科技浪潮的推動以及經濟、政治和軍事因素的影響下,科學技術與道德的關系及其在法律制度中的體現成為科技倫理學發展的中心問題,科技和倫理的關系得到普遍的認可。杜威認為,哲學的中心問題是:由自然科學所產生的關于事物本身的信仰和我們關于價值的信仰之間存在著什么關系。[7]417科技倫理規則是人的規則,而絕不是機器的規則,是以約束人為目的的規則,而永遠不可能是其他尺度。 科學技術的應用和科技倫理應該是一致的。 科技文明可能的困境并非科技后果,而在于人們是否堅守了科學精神,科技法律倫理需要為未來科技發展提供防御性框架,讓個體生命、人類自身和人類發展的目標相一致。這個目標的實現需要借助法律特別是憲法制度來應對科技的變化訴求。承認科學發展過程中文化積淀的重要性這一社會學觀點,是對當前廣泛流行的關于發明之本質觀念的可貴轉變。[20]

在人工智能時代,法律倫理規則的使命不僅僅要讓人工智能時代科技發展帶來的道德規則紊亂能夠有效復位,更要避免更加紊亂的情形發生,這在科技倫理的現代流變中能夠有效地實現文化、理念的沉淀。 這個時期的科技倫理思想更多呈現的是對人內在存在的挑戰,而非科技的外力侵害,是對科技倫理具有更高層次的要求和內在約束,從法律倫理視角而言,法律特別是憲法需要設立科技的邊界,通過具體制度來體現科技倫理規則,以保障實現“科技向善”的目標。

(三)人工智能時代科技法律倫理要秉承國家干預、個體參與和社會交往的制度機制

人工智能時代的科技法律倫理需要摒棄單向的國家干預,需要在建立個體參與和社會交往的基礎上,形成國家和公民的溝通機制,將人工智能的正當性邏輯基礎延伸到價值多元時代意識統一性、精神凝聚性和現實對人工智能的濡化當中。 18 世紀,啟蒙者曾經高歌人類智慧,為人類灌輸“科技就是進步”的理念,但是卻沒有意識到科技造福人類時也給人類帶來風險??萍际峭ㄟ^其他社會規則而影響和改變社會的,在人工智能時代,主體與客體關系、生物規則、智慧發展與承載規則等都是科技改變社會的通道,需要超越傳統的社會規則基礎進行思索。 在新的社會實踐中建立文化共識,避免科技發展導致人的工具化和功利化,這也是科技法律倫理觀變遷中的新內容??萍紓惱硪獔猿蛛p面向的制度創新,科技越來越高的自主性卻有可能摧毀人類社會秩序。

道德嵌入是人工智能發展中應該遵守的最基本規則。因此,雙面向中的國家制度創新,既要反思是否繼續堅持人在人工智能發展中的功能定位和基本價值堅守,還要反思是否要賦予人工智能全部和部分人格權利的可能性和空間,以及更要反思國家在人工智能發展中是堅持科技發展的價值中立還是傾向性價值導向。維護社會秩序有兩套法則:道德和法律。憲法路徑是經由憲法倫理規則轉化的憲法價值體系及由其指引構建規則體系,并將共識精神凝聚到憲法秩序中,為價值正義創造公共商討空間。 人工智能等科技發展引發的沖突已經演變為憲法沖突,科技活動及科技成果的運用滲透著道德因素,因此要處理好科技上“能夠的”和倫理上“應該的”之間的關系,科技法律倫理的發展方向對整個社會法律倫理的構建具有重要意義。 科技管理到科技治理的轉換需要憲法的定位和價值鎖定,需要有人類命運共同體意識,需要有全球意識,并將其凝練為法律制度,讓法律的前瞻性消弭制度落后于科技發展造成的制度尷尬。

四、人工智能時代科技法律倫理的現代性質和表征

(一) 人工智能時代的科技法律倫理規則要在私人生活守護共識和秩序的基礎上衍生出符合現代理解的變體

根據一種廣為傳播的想法,如今存在的風險問題在種類和規模上都是新的。[21]147符號主義到聯結主義的發展, 人工智能的無意識歧視等問題都需要現代背景下的思考與探索,需要將新的法律關系構造規則嵌入人工智能法律倫理規則體系中,以全新的認知與規則去思索人和財產的關系,去探求傳統的物理界限與人的關系的新變化、新特征?,F代性流變不僅僅需要法律制度體系上的構建,更需要塑造公民普遍人格的教養,形成具有普遍認同的精神追求與價值判斷。但是,價值相對主義的確又容易在具體情境中引起價值沖突,要確保價值相對主義的理性基礎,就必須對價值之間的關系作出新的思考。[22]

人的創造和發展的前提就是確證人在這個世界上的地位和價值,以及生存和發展的根本依據。[23]人的存在是永遠超越生物體自身的存在,這種價值在超人工智能時代仍然需要堅守,在此基礎上,需要對公民、社會和國家的關系作出新的反思并通過法律規則讓其成為一種制度和一致的行為。事實上,任何人從知道倫理原則,到在實際的技術研發行為中得到正確理解與合理應用,需要一個較長的反思與實踐過程。[18]習近平總書記強調:“圍繞人工智能、基因編輯、醫療診斷、自動駕駛、無人機、服務機器人等領域,加快推進相關立法工作。 ”[24]現實需要深入審查人工智能背景下社會關系的性質和表征發生了哪些切實的變化,人文的文化背景發生了何種的變遷,然后重新凝練科技法律倫理的規則,并達成憲法秩序的遵守。 科技法律倫理的現代性流變需要有合法性基礎,這就意味著需要在價值合理的基礎上建立人工智能發展的策略和價值。

(二)人工智能時代的科技倫理觀需要重新構造物理和人的界限關系

人改造社會制度的行為,正如改造自然的行為一樣,都是一種使對象“為我化”的過程。[25]科學技術是否獨立于人的精神世界是一個值得反思的問題。 從地球誕生起,包含人類在內的所有碳基生物的繁衍都是遵從自然選擇的進化規律。[13]科技具有嚴格的物理形態,科技和精神世界的關系是一個不需要思考的問題,人的界定亦堅守“碳基”的生物學規則。 而人工智能時代,人工智能和生物技術具有了高度融合的可能,精神世界似乎不再單純是人類的“專利”,人工智能產品具有了意識形態基礎,而且人工智能增長的速度已經超過人類智能增長的速度,人工智能時代科技倫理問題的抽象需要突破傳統生物規則的限制,物質和作為主體的個人之間的關系需要重新構造,但是這種關系不能脫離法律基本價值,需要建立在基本價值秩序和制度基礎之上。

傳統的科技立法倫理實際上受一些倫理規則的約束,法律不可能以這種方式對自然佯裝不知。[26]6因此,人工智能時代的科技法律倫理規則構建,要實現對傳統法學理念的創造性轉變。 對于人工智能制度的地位以及責任承擔方式等的界定,需要突破傳統的理論背景進行討論。機器人是機器還是人,在法理上涉及主客體二分法的基本問題。[27]無論從民法還是憲法的角度,二分法都認為人之外的生物均歸屬于物,主客體之間具有不可逾越的鴻溝,但是在人工智能背景下,二分法受到挑戰。[28]因此,在界定人與物的關系上,需要謀求新的理論支撐和方法論。人工智能產品主體資格與人的關系,需要做有區別于自然人的設計,并據此進行風險防范的制度體系構建。

(三)人工智能倫理規則的構建要實現公民自主、社會濡化和國家價值選擇的耦合

科學技術的現實化要建立在一個社會的、溝通上可用的現實結構上,社會系統與技術現實之間的結構性耦合變得習以為常[21]148,這要求在人工智能發展中嵌入透明原則和公眾參與原則。 構建基于人類價值維護的科技誠信制度,能夠避免可能引發對科技成果受試者或者消費者的利益風險,體現人工智能發展的倫理之治和法律治理。但是,社會與科學技術的耦合中部分還會彼此沖突,這需要降低社會對技術的依賴性,省去那些過度的恐懼和騷亂,避免因為這些情緒引發已經可以預防的不幸[21]150-151,去構建人工智能發展中可能違背重大倫理、科技發展規律的監督機制和成果準入的倫理審核機制。

人工智能需要構建符合科學共識和倫理規范的公眾參與機制, 在人工智能發展中,既需要公眾的理解和信任,也需要科學共同體的科學共識和社會共識,要“整合多學科力量,加強人工智能相關法律、倫理、社會問題研究,建立健全保障人工智能健康發展的法律法規、制度體系、倫理道德”[29]。 在人工智能倫理上,需要在尊重多元格局和理論共識的前提下,實現具有制度內聚力和包容性的倫理規則體系。在這個耦合結構中,法律倫理需要實現對政府在人工智能發展中的價值引領,以確保國家在這個過程中能夠有效地保證“價值中立”面向。

(四)人工智能時代的科技法律倫理規則體系進化

人工智能時代科技倫理規則的新抽象要體現三個方面:第一,回答好什么是人的問題;第二,在理論上回應人工智能發展中人的變化;第三,如何通過規則實現人工智能和人的關系問題。在人工智能情境下,仿生人存在是否可以被看作是人類的爭議,足以引起我們對于什么是人的思考,并需要斟酌后人類時代主體、心靈、權利、義務等概念界定中是否需要嵌入新的要素?!疤幚砗萌斯ぶ悄茉诜?、安全、就業、道德倫理和政府治理等方面提出的新課題。 ”[30]生物規則在主體界定上的決定意義引起了反思,法律制度在主體和客體關系的界定上是否可以突破對生物規則的依賴也需要重新進行斟酌。 隨著人工智能技術的快速發展,機器人擁有越來越強大的智能,機器人與人類的差別有可能逐漸縮小。[27]人工智能讓“存在”和物理的界限變得模糊,智慧承載具有新的事實基礎,因此,人工智能制度的敘事規則可能會發生改變,這對傳統社會的生活規則帶來了挑戰。目前,我們對于人工智能最活躍的反思主要是對超級人工智能的擔憂,特別害怕它會毀滅人類。[31]從生物規則上來講,人工智能同樣具有了生物體所具有的智慧承載能力,且人工智能的壽命遠超人類的壽命,其生存條件比人類生存對條件的要求低得多,在智慧傳承中必然會引發主體地位的思考。 人工智能知識承載能力為生物體的人類所不能比擬, 這就有可能引發人工智能對人類的反向歧視。

究竟是人工智能更符合人類現有標準才能獲得道德地位,還是需要我們修改現有標準去適應人工智能。[32]這個問題的回答要對人工智能道德地位和各種道德權利進行反思,并需要在反思基礎上實現制度再造。構建人工智能背景下的科技倫理規則要對智慧承載規則進行重構,需要反思在什么程度上容納智慧承載規則制度要素。 科技立法的發展需要某種規則認知和規則體系作為制度支撐,例如,關于親屬關系的認定是基于生物規則的認知和遵從,在科技立法中的人的主體地位的維護是基于關于人作為“主體”的內在價值遵守。 傳統的科技具有“技術中立性”,它可以獨立地按照技術自身的發展去改造世界,但客觀的事實卻是“技術的目的必然為人的理性活動而服務,它不可能脫離社會而單獨存在,都是人的精神活動的產物”[33]。 人工智能特別是超人工智能的發展,在面對諸如是否要賦予人工智能主體資格或者部分主體資格等問題的認知和思索中,在堅守固有的規則基礎上,引入新的規則,這需要創造性的改變和對科技發展現實基礎的審慎思索,需要謀求足以支撐理論成立的新的價值原則和社會基礎。

結語

科技具有影響政治行為的內在特征,但是具體何種特征在任何既定制度或者政策背景中處于主導地位是一個需要研究的問題,且不得隨意假設。[34]科技法律倫理的演變具有明顯的三個階段:機器革命之前的法律倫理觀、三次工業革命時期的倫理觀和人工智能時代的法律倫理觀。 天地之間的至善至美,莫過于人與自然之和諧融合,以法律而言,雖然中國法律和西方法律存在傳統文化差異,但畢竟都是人類的法律,必然有共同的人性內涵。[26]12以未來定位的科技法律倫理的核心問題是法律倫理規則的構建,因此,在科技法律倫理的構建上,要有必要的價值基礎和共識凝練,并需在此基礎之上,對人工智能語境下科技法律倫理規則的現代流變進行精準定位,從物與人的界限、國家、社會和公民的關系以及法律制度構建的規則基礎等方面進行理念再造,以彰顯人工智能時代法律倫理規則的表征、屬性和文化變遷。

猜你喜歡
倫理規則道德
《心之死》的趣味與倫理焦慮
撐竿跳規則的制定
頭上的星空與心中的道德律
數獨的規則和演變
護生眼中的倫理修養
跟蹤導練(五)(2)
道德是否必需?——《海狼》對道德虛無主義的思考
讓規則不規則
TPP反腐敗規則對我國的啟示
用道德驅散“新聞霧霾”
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合