?

人工智能技術的倫理問題
——一種基于現象學倫理學視角的審視

2018-04-11 12:36偉,
關鍵詞:現象學倫理學自主性

孟   偉, 楊 之 林

(大連理工大學 哲學系, 遼寧 大連 116024)

一、兩種AI與兩種AI倫理

與農業和工業等領域中的大多數技術及其倫理問題的討論不同,近年來學術界關于人工智能及其倫理問題的討論,很大程度上源于并著眼于人工智能技術自身的特殊性,即人工智能可能在未來發展出具有自主性智能體(autonomous agent)的技術成果。因此,人工智能技術的倫理討論不僅涉及到一般性的技術倫理問題,而且涉及到可能具有自主意識和行為能力的人工智能體所產生的特殊倫理問題。

從人工智能技術自身的發展以及相關討論來看,人工智能一般可分為弱人工智能(weak AI)研究和強人工智能(strong AI)研究。前者設計的“‘機器能夠智能地行動’(或者也許更確切地,其行動看起來如同它們是有智能的)”,而“‘能夠如此行事的機器確實是在思考’(與模擬思考相對)的斷言則被稱為強人工智能假設”[2]。弱人工智能著眼于類似人類智能的設計,因此也可稱為非自主性智能體的AI研究,而強人工智能著眼于真實人類智能的設計,因此,這種研究也可稱為自主性智能體的AI研究。按照部分學者和大多數工程師的看法,當前的人工智能研究主要是非自主性智能體的研究或者說屬于弱人工智能研究。從研究成果來看,弱人工智能是指問題求解、專家系統等各種模擬人類智能的技術,而“強人工智能是指有自我意識、自主學習、自主決策能力的人工智能,也是人工智能發展的終極目標”,強人工智能的實現還有很長的路要走,因為還面臨著諸如意識問題等棘手難題的解決[3]。也就是說,目前頗為興盛的人工智能研究成果基本上體現了弱人工智能研究,而強人工智能研究還基本停留在設想以及有待于成為現實的階段。

立足兩種人工智能技術,人工智能的相關倫理討論也可以分為兩種,即弱人工智能倫理與強人工智能倫理?;蛘哒f,人工智能倫理可以在兩個層面上討論:一是作為一般性技術倫理問題的人工智能倫理,這一層面同時適用于弱人工智能和強人工智能研究;二是作為特殊性技術倫理問題的人工智能倫理,這一層面更適用于強人工智能,或者說更適用于自主性智能體倫理問題的研究。如果從機器人技術這一特定領域來審視人工智能倫理研究,那么非自主性智能體和自主性智能體的技術倫理,大致對應于機器人倫理學(roboethics)和機器倫理學(machine ethics)研究[4]。機器人倫理學的任務是對設計機器人的人類主體進行規范性約束,而機器倫理學則是研究如何使人類所設計的人工智能系統在行為上具有倫理性[5]。機器人倫理強調的是在機器人研究中的外在倫理規范問題,而機器倫理則強調“在機器中嵌入符合倫理原則的相關程序,使其能夠為使用者提供倫理幫助或者使機器自身做出倫理決策,這是一種內在于機器的倫理”[6]。機器人倫理更多是將機器人研究作為一般性技術進行倫理審視,而機器倫理則涉及到機器如何成為具有自主能力的倫理智能體。當然,兩種倫理研究之間并不是割裂的,機器人倫理的研究制約著機器倫理的研究,或者說,作為一般性技術的AI倫理可能制約著作為特殊性技術的強AI倫理研究。更具體地說,弱AI與強AI在一般性技術倫理與社會影響等方面可能面臨著同樣的問題,而與弱AI相比,以自主性智能體為目標的強AI可能還面臨著更為特殊的倫理和社會問題。

二、AI的一般性技術倫理問題

幾乎所有的技術都面臨著技術設計和使用等層面上的一般性倫理問題,因此,不管是自主性還是非自主性智能體的AI研究都需要思考一般性的技術倫理問題。

與其他技術領域相同,人工智能技術也需要考慮技術設計者、制造者和使用者的責任倫理問題,尤其是需要明確技術主體遵循一種針對道德主體的內在倫理規范要求。學界普遍意識到,“現階段探討人工智能倫理,主要是指加強人工智能設計倫理,旨在保證優先發展造福人類的人工智能,避免設計者和制造出不符合人類價值和利益的人工智能”[7],即當前的AI倫理主要討論技術設計者和使用者等道德主體的道德責任問題。事實上,當前眾多人工智能技術的應用都涉及道德主體的道德責任問題。例如,Facebook與劍橋分析政治數據公司的合作所導致的大規模侵犯用戶隱私的問題,就表明AI技術的使用者在諸如信息數據的使用上不應輕易受到經濟和政治利益的左右,而應當承擔相應的道德責任。在AI植入倫理規范的問題上,算法設計者們也應當承擔公正和客觀的道德責任,從而盡可能保證將既有法律或道德準則原封不動地編寫進程序[7]。

按照羅爾斯的理論,內在道德責任感源于作為社會正義的外在倫理規范,因此AI的責任倫理可能需要依賴于完善的倫理規范,這些倫理規范最終可以內化為人工智能技術從業者的道德主體責任。例如,人工智能醫學診斷領域就有必要制定相關倫理規范來界定專家系統診斷失誤導致的過失責任等問題,這些規范能夠反過來強化內科醫生的道德責任感。例如,在美國部分州法庭看來,專家系統類似于醫學教科書,醫生有責任理解決策背后的推理以及自己判斷是否接受系統建議;而在自動駕駛技術方面,程序一般不被當作“司機”,雖然沒有法律來制裁自動駕駛超速行為,但是一旦出現事故,車輛控制機構的設計者應當承擔責任[2]740。這些法律規范的形成能夠有效地影響道德主體道德責任的養成與界定。

除了AI技術倫理中的責任倫理和倫理規范問題外,人工智能與其他技術一樣面臨著可能引發相關社會問題的樂觀或悲觀看法。例如,悲觀者擔心AI技術可能會帶來嚴重的失業問題,樂觀者則認為人工智能技術創造的工作機會遠高于帶來的失業??傊?,AI技術倫理也需要從更大社會系統層面來討論技術本身所帶來影響,需要在過分擔憂和過分樂觀之間尋找一種倫理平衡。

三、AI的特殊性技術倫理問題

與其他技術不同,人工智能技術的發展可能制造出與人相同甚至超出人類自身智能的自主性智能體。因此,與一般性技術倫理不同,人工智能技術的倫理問題也變得更為特殊和復雜?!霸阱e誤的手中,幾乎任何技術都有造成傷害的潛在可能,但是對于人工智能和機器人技術來說,我們的新問題在于:錯誤的手也許正好屬于技術本身”[2]740。這表明,技術設計和應用等傳統問題可能不再是倫理考量的關鍵,智能體的倫理自主性可能成為AI倫理的聚焦之所。

能否實現強人工智能是討論自主性智能體AI技術倫理學的前提。一方面人們認為自主智能體的研究可能在未來成為現實,因此有必要未雨綢繆討論自主智能體的倫理問題。另一方面人們也深度懷疑自主智能體的實現。例如,20世紀中期杰弗森(Geoffrey Jefferson)質疑圖靈,“直到一臺機器能夠出于思想或者感受到的情感,而不是由于符號的偶然飄落,寫出一首十四行詩或譜寫一首協奏曲,我們才能同意機器等同于大腦——也就是說,不只是寫了,而且要理解它所寫的”[2]733。當代從事人工智能研究的大多數專家也主張,“擬人化地看待人工智能,甚至擔憂其作為一個新物種毀滅人類,有些杞人憂天了。人工智能在單一領域可能比人類強很多,比如下棋、運算,但要讓人工智能像人類一樣能思考、有意識,短期內不太可能實現”[7]。阿西洛馬人工智能原則中也以“能力警惕”的概念提到這一倫理爭論,“我們應該避免關于未來人工智能能力上限的過高假設,但這一點還沒有達成共識”[8]??梢?,能否制造出具有人類智能的自主智能體,這是討論自主智能體AI倫理研究的前提。

對于強人工智能倫理學的討論當然假定了這種自主性智能體的目標是可能實現的。如果科學家相信強人工智能可以實現,并且努力去實現這一目標,那么,自主性智能體的設計與制造就將會產生特殊的倫理規范要求。阿西莫夫科幻作品中提出的“機器人三定律”正是在滿足這一前提下產生并且被視為未來自主性智能體的倫理規范要求。這些規范意味著,如果遵循“機器人三定律”進行強AI研究,那么就能夠實現自主性機器人服務人類利益、與人類的友好相處的目標。與此相同,當代阿西洛馬人工智能原則中也提到,“高度自主的人工智能系統的設計,應該確保它們的目標和行為在整個運行中與人類的價值觀相一致”[8]。

如果強AI滿足上述規范要求,那么強AI技術倫理可能還需要回答自主性智能體如何具有道德意識的問題,以及應當具有何種道德意識的問題。具有何種道德意識依賴于強AI的道德規范,因此更關鍵的問題在于如何具有道德意識,即如何在設計和制造過程中為自主智能體植入倫理規范乃至道德意識的問題。就目前來看,人工智能的設計存在著“自上而下”(與人類智能進化相反,從知識到符號組織再到信號處理,從而完成機器行為設計)和“自下而上”(立足人類智能進化,從信號處理行為等低級智能為符號加工活動等高級智能奠基)兩種設計思路[9]4-5。與之相應,道德規范和道德意識的植入和生成也相應存在兩種路徑。一種是體現“自上而下”理念的、算法承載道德規范的設計思路[7];另一種可能是基于身體圖式的道德認知基礎并以此實施的“自下而上”的道德規范設計[5]。

自主智能體在未來成為現實可能還會帶來特殊的倫理、法律等社會問題。例如,正如Sophia成為世界上第一個獲得公民身份的機器人所引起的爭論,人們需要回答,如果自主智能體與人具有同等的智能,那么它是否具有與人同等的身份和權利地位;如果自主智能體與人具有同等的智能,那么人類自身的獨特性是否會喪失,其與人類的關系又當如何界定;如果自主智能體與人具有同等甚至超出人類的智能,那么這種“超人類主義”或超級人工智能是否如霍金所言會帶來人類種族毀滅的風險。對此,有的人認為,一旦人類創造出超人智能,那么人類時代將走向終結;而諸如莫拉維克(Has Moravec)等人則認為,“它們將相當迅速地取代我們的存在。我并不因為這后一種可能性而像許多人一樣驚慌失措,因為我認為這些未來的機器就是我們的后裔,是依照我們的想象和喜好建造的‘精神子孫’,是更強有力形態的我們自己,如同目前世代的生物形態子孫一樣,它們將承載著人類對長遠未來的最美好希望”[2]741。

四、作為規范和描述倫理學的現象學倫理學

“哲學之所以要成為一門嚴格的科學,只是因為我們必須過一種倫理意義上的嚴肅生活?!盵10]35自現象學奠基人胡塞爾開始,倫理學被視為現象學哲學的應有之義。而現象學倫理學與其他倫理學思想的一個重要區別,則是現象學倫理學區分了描述倫理學與規范倫理學,并且將描述倫理學視為規范倫理學的基礎。

道德現象的復雜性伴隨著道德規范的多樣性,但是源于人與動物區分的西方哲學總體上主張將人類自身幸福作為倫理學思考的首要規范。例如,亞里士多德將人類生活得好(live well)作為倫理學的終極目的,而“中世紀的亞里士多德”之托馬斯·阿奎納則指出,倫理學“關乎人的整個生命和人類生命的終極目的”[11]653?,F象學的規范倫理學接續了西方倫理學的發展傳統,包含著“關于應然的學說和關于規范的學說”的胡塞爾現象學,也希望“通過某種倫理關懷完成人性改造,實施人類升華和人類拯救”。這種著眼于改造人類生活的規范倫理學也被稱為“改造倫理學”[12]。

胡塞爾的“改造倫理學”明確了提升人類幸福的規范目標,另外,現象學倫理學又明確指出了這種規范倫理學應當建立在一種描述倫理學基礎上,即“建立在關于實然的學說和關于本體的學說的基礎上,即建立在對自然、心靈、精神在意識之中的構成分析的基礎上”[12]。這表明現象學倫理學與現象學哲學具有相同的理路,“如果胡塞爾提出的‘現象學’代表了一種人類哲學思考的基本方式,那么胡塞爾意義上的‘現象學的倫理學’就應當是指通過這種思維方式對倫理現象所作的觀察以及對其本質結構和本質發生的把握,并在此基礎上進一步提出并論證各種倫理要求,說明和制定各種倫理規則”[12]。進而,如同現象學哲學被視為一種描述的心理學,現象學倫理學根本上更應是一種描述倫理學,“嚴格意義上的‘現象學的倫理學’是一種反思的和描述的倫理學,也可以被稱作直觀的倫理學,即它首先由對‘我如何以及為何意識到好/善’的直接描述分析所組成。而后它才是規范的倫理學,即它最終會在直觀的基礎上提出‘我應當……’和‘你應當……’的基本準則”[12]。

作為描述倫理學的現象學倫理學實質上是一種道德意識的發生學。按照倪梁康先生的看法,這種道德意識的發生學即“是在現象學反思中進行的對道德意識的有意無意的本質直觀”,是胡塞爾所說的“在現象學上得到論證的純粹倫理學”,這種描述的現象學倫理學與其說是一種價值倫理學,不如說是一種道德心理學,或道德意識現象學[12]。由于現象學哲學首先是一種意向性的哲學,因此描述的倫理學也就是一種道德意向性學說。在胡塞爾看來,意向感受行為的分析構成了胡塞爾倫理學思考的基礎。因為,如果人們離開感受,那么就不能談論“善”和“惡”;客體通過它們的價值調動起我們的情感或欲求,而價值則源始地是以感受-價值的方式給予我們的[13]。

另一位重要的現象學倫理學家舍勒同樣認可首先作為一種意向性倫理學的現象學倫理學思想。舍勒首先認可現象學倫理學基于現象學意向性哲學,如現象學家黑爾德所指出,“雖然現象學的倫理學——首先通過馬克斯·舍勒——乃是以一種價值論、而非以一種意向性倫理學而聞名于世。然而,只要一種價值理論不是從現象學方法的基本原則出發、不是從顯現者與顯現的相互關系原則出發而被建造起來,它便是沒有根基的空中樓閣:無論人遭遇到什么,這些遭遇到的東西都是在相應的特殊的進行活動中獲取其規定性,它們在這些進行活動中被給予人”[14]。舍勒進一步明確了一種情感的意向性關系的基礎性,主張“任何一種對某一對象的智性的如在(Sosein)把握,都以有關此對象的情感的價值體驗為前提”[13]。例如,“喜歡”已經可以構成一個單獨的感受行為,它原初地指向它自己的對象——某種價值。這個感受行為與對“一段聲音”的表象行為可以說是相互獨立的兩個行為。倪梁康先生由此判斷,“我們甚至可以說,舍勒的倫理學就是一種價值感受的現象學”[15]14。

五、人工智能的現象學倫理學

現象學倫理學意味著從道德意識的發生學和由此產生的規范層面將會對AI技術倫理的思考產生雙重啟示??傮w上,當前關于AI技術的討論主要集中于規范倫理學范圍,即對于AI技術來說,如何以不損害人類的利益為前提在技術主體與客體等方面制定合理的道德規范。

按照現象學倫理學關于規范倫理和道德意識發生的描述倫理的區分, AI倫理的討論需要首先區分作為一般性技術倫理和作為特殊技術倫理的問題。此外,作為特殊技術的AI關注的是具有自主性道德意識的智能體,而現象學描述倫理學由于涉及道德意識的發生問題,因此就有可能為特殊技術的AI倫理學思考提供參照?,F象學的規范倫理學可以適用于AI的一般技術倫理思考。胡塞爾的“改造倫理學”、海德格爾對技術的反思乃至對詩意生活的向往,這些都表明人類生活得更好可以作為AI技術的最高道德規范。這意味著,不管是著眼非自主智能體還是自主智能體的AI技術,它們都需要一種人本主義的現象學規范倫理學。

現象學的描述倫理學實質是從現象學的意向性認識關系出發,通過現象學直觀來呈現道德意識關系的發生??梢?,描述的倫理學揭示的是作為一個道德主體是如何具有道德意識的。從道德意識的發生學來看,強人工智能倫理學需要討論自主性的機器人如何能夠具有道德意識,從而顯示出相應的道德行為。

現象學的描述倫理學不僅表明自主性智能體的AI倫理學需要考慮道德意識的生成,而且為技術層面AI如何具有和顯現道德意識提供了有益啟示。強人工智能著眼于真實人類智能的研究,這意味著著眼于自主性智能體的強AI技術將涉及到如何使AI具有道德意識的問題。如果像梅洛-龐蒂基于身體體驗的知覺現象學等道德意識的描述現象學所主張的,道德意識的產生是“自下而上”的,那么自主智能體的道德意識的生成也可能是“自下而上”的,或者說,“自下而上”的道德規范植入就將比“自上而下”的道德規范植入更為有效、更符合自主智能體的需要。

六、結 語

現象學倫理學既是面向人本主義的規范倫理學,又是注重道德意識生成的描述倫理學。同樣,人工智能技術既有面向人本主義的規范倫理要求,也有如何生成和植入道德意識的智能技術要求。在結合現象學倫理學思考人工智能倫理時,還應當謹慎地注意到,盡管現象學更為重視描述倫理學對道德意識發生的研究,但是這并不意味著人們在AI技術倫理實踐上就應當無條件地遵循。第一,AI倫理的思考應基于AI技術本身的現實發展,如果AI技術在實現自主智能體的研究上依然存在嚴重的爭議,那么,AI倫理更應當將對技術設計、使用等問題的規范倫理思考置于優先地位。也就是說,就AI技術本身的發展現狀來看,規范倫理學可以優先于描述倫理學的思考。第二,如果認可AI技術可能存在著由非自主智能體向自主智能體的技術進化,那么基于AI技術的特殊性,應當在實踐中堅持倫理優先于技術的原則,即如同克隆技術的社會倫理問題始終優先于克隆的技術問題,對于AI技術的倫理思考也應當優先于技術的發展,諸如AI技術的開發者“應該始終把人工智能對社會負責的要求放在技術進步的沖動之上”[16]。第三,在非自主向自主智能體的技術過渡進程中,尤其是在逐步開發強人工智能的過程中,人類不僅應時刻警醒以倫理要求來抑制這種技術沖動,而且在社會層面上還應當立足倫理來加強和改進監管,從而盡可能地適應新技術的快速演變,防范AI技術失控造成的不可逆風險。

猜你喜歡
現象學倫理學自主性
開拓·前沿·創新與學科建設——簡評《中醫生命倫理學》
“紀念中國倫理學會成立40周年暨2020中國倫理學大會”在無錫召開
國家自主性與文在寅政府的對朝政策
倫理批評與文學倫理學
對“如是我聞”的現象學詮釋
英語學習的自主性及其教學應用
實用英語教材與藝術生自主性培養
論現象學時空的實踐本性
發揮主體作用,加強高中數學復習的自主性
“蟻族現象”的倫理學思考
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合