?

海德格爾式人工智能及其對“意識”問題的反思
——兼與何懷宏先生商榷

2019-11-17 08:10
社會觀察 2019年3期
關鍵詞:海德格爾機器機器人

近幾年,人工智能一詞越來越多地出現在日常生活的新聞中:阿爾法狗(AlphaGo)先后戰勝人類頂級圍棋手李世石和柯潔,類人機器人索菲亞(Sophia)在沙特授予其公民身份的大會上侃侃而談,幽默地應對主持人拋來的各種難題。在論及人工智能的發展前景時,有不少學者表達了對人工智能威脅人類文明的恐懼和憂慮:有的認為人工智能是一種“無機智能”,其發展將會取代有機智能;有的則擔心人工智能將因幫助人類解決一切問題而消解人類生存的意義,進而取代乃至毀滅人類。對于種種人工智能威脅論,本文認同應該對人工智能領域的技術發展進行倫理上的思考和規范,但是如果僅僅是出于對媒體渲染的人工智能前景的恐慌,排斥對人工智能的深入了解和技術研究,只會導致人文學科失去與技術對話的能力,更不用說參與到人工智能在社會生活中的發展進程中去。

實際上,威脅論所遭遇的第一個困境就是,智能機器要想進行反叛,首先就必須獲得能夠理解什么是“反叛”并把智能機器自身與作為控制者的人類區分開來的獨立意識。這種意識是否真的能夠在機器中產生?又與人類的意識有何區別?這一問題其實從人工智能研究初期就不斷困擾著科研人員。

海德格爾思想與人工智能研究轉向

1948年,計算機科學的先驅艾倫·圖靈發表了《智能機器》報告,兩年后又提出了著名的圖靈測試,通過人類是否能夠根據語言回答區分作答的是人還是機器,來判斷該機器是否具有智能。1955年,幾位美國數學家為即將展開的人工智能研究項目撰寫了研究計劃,明確了用機器模擬人類智能的研究方向。對于這一階段的人工智能科學家而言,人類思想在很大程度上是根據理性原則和推理規則來處理單詞。也就是說,對這些科學家來說,只要能正確運用語言規則和詞匯,在與人類的對答中成功欺騙人類,這樣的機器就擁有了智能。

從這一判斷標準來看,隨著計算機存儲和運算能力的不斷提升及其與互聯網大數據這一“超級語料庫”的結合,機器人與人類的“對話”會向著越來越“自然”,也即難以與人類對話相區分的狀態發展。2017年獲得沙特公民身份、擁有語言交流能力的類人機器人索菲亞即為一例。如果從早期人工智能研究的目標來看,索菲亞的誕生已經可以說是完成了當時的研究者對人工智能的期待。但是我們能說這樣的類人機器人具有人類的“意識”嗎?如果說這不是“意識”的話,它與“意識”之間的區別在哪里呢?

其實,早在1963年,存在主義哲學家休伯特·德雷福斯(Hubert Dreyfus)就已經反思過這個問題,認為這樣的人工智能研究方向一開始就走入了誤區。他從存在論視角出發對當時人工智能的理論基礎進行了尖銳的批判,寫出了后來擴充為專著《計算機不能做什么》的報告《煉金術與人工智能》。報告中,德雷福斯借助海德格爾的思想闡述了早期人工智能研究所采取的理性主義“再現”式意識觀的問題:意義和相關性是無法通過符號再現的。就拿海德格爾的錘子比喻來說,我們如何使機器理解“錘子”一詞所對應的人類所使用的作為實物的錘子?早期人工智能研究認為可以給它附加上“錘”的功能定義來解決這個問題,即加上“錘釘子”的功能標簽。但是,如果沒有“釘子”“錘”的身體動作、釘入釘子的目標,“錘”這一功能定義仍然是不可理解的。在人類的意識中,存在著無法用符號傳達的、在整個人類世界中體現出來的“意義”。這就是為什么“會說話”的索菲亞不能“理解”它所說的話。

仍然不肯死心的人工智能專家馬文·明斯基(Marvin Minsky)提出用輸入盡可能多的詞匯和功能性規定來解決這一問題,想辦法把整個人類世界都轉換成符號。但是,一旦真的輸入了無限多的詞匯,機器該如何在各種情境中自動選擇最為相關的詞匯和功能規定呢?像人類這樣一眼看出事物之間的相關性的意識能力并非符號所能再現。于是,明斯基接著提出用“框架”結構來預先規定某種智能機器的應用場景以及反應模式,通過縮小使用范圍來回避相關性問題。不過這樣一來,擁有確定“框架”的智能機器只能在某些特定的情境中實現特定的功能,已經遠離人工智能最初的實現類人智能的目標了。

這樣的理論困境導致了人工智能領域在研究方向上的分化和轉向。美國哲學家約翰·塞爾(John Searle)在1980年發表的《心、腦與程序》一文中區分出“強人工智能(Strong AI)”與“弱人工智能(Weak AI)”,前者追求使人工智能真正擁有人類意識,而后者僅僅把人工智能看作工具?!叭跞斯ぶ悄堋?,或者現在被理解為“專用人工智能(narrow AI)”或“應用人工智能(applied AI)”如火如荼地發展起來:今天的阿爾法狗、無人駕駛汽車、人工智能醫生等智能機器都是只能在某些特定領域應用的專用人工智能。即便它們在這些領域的特定表現遠遠超過人類,這些人工智能與“強人工智能”之間仍然存在著不可跨越的鴻溝,并非只用計算能力的發展就可以填補,而是存在著根本上的理論難題。因此大可不必因為這些人工智能在日常生活中的大量運用而產生人工智能集體反叛、控制人類社會的恐懼。

另一方面,“強人工智能”,或者現在被理解為“人工通用智能(AGI:Artificial General Intelligence)”的研究則汲取了德雷福斯的批判,轉向以海德格爾思想為基礎的人工智能研究,出現了至少三種新的研究范式:羅德尼·布魯克斯(Rodney Brooks)的行為主義方法,菲兒·阿齊(Phil Agre)的實用主義模型,以及瓦爾特·弗里曼(Walter Freeman)的動態神經模型。

這三種研究范式以各自對“意識”問題的理解突破了早期“再現”式人工智能研究,但又都有著各自的局限性。布魯克斯制造出依靠直接接收外部刺激并給出相應的反饋來運作的機器人,不再試圖在機器內部構造一個世界模型。這樣的機器人可以說是初步具備了獨立存在于世的可能,然而遺憾的是,機器人的感應器有著感應范圍上的局限性,只能對特定環境中的某些特定特征做出反應,無法應對始終變化著的開放世界。阿齊直接從“用錘子來做什么,怎么用”的角度來設計他的人工智能程序,從另一個角度突破了“再現”式的意識觀。不過,這樣的人工智能同樣會因為其預先設置而呈現出封閉性。

最后,有鑒于前兩種海德格爾人工智能研究范式的問題,德雷福斯建議引入神經科學奠基人之一弗里曼有關生物如何在適應環境的過程中通過神經連接的強化來進行自我學習的動態神經模型。不同于“再現”式意識觀對學習的理解,弗里曼的研究顯示,每當事物對我們顯現出一種新的意義時,并非是一個新的再現式的功能符號被儲存進了我們的大腦,而是我們的“感知-行動”模式被改變了。從“感知-行動”模式的視角來看,事物在意識中的顯現方式并非是它自身,而是我們過去與它互動時的整個情境和體驗,而且它會在我們每一次與之進行互動時進一步發生變化。

盡管這些海德格爾式人工智能距離真正實現強人工智能還非常遙遠,但這些努力一方面啟發了專用人工智能的技術發展,比如新一代圍棋人工智能“阿爾法元(Alpha Zero)”通過不斷地對弈實踐和反饋強化來進行自主學習的“強化學習(Reinforcement learning)”設計思路;另一方面,研究者們在強人工智能研究上所做的種種努力也反過來促進了人類對“意識”問題的探索和理解。幾種海德格爾式人工智能都拋棄了傳統的符號再現方法,轉而以生物與日常世界打交道時的行為方式作為研究基礎。因此,這條人工智能發展史并非只是技術發展史,同時也是對人類“意識”的探索和觀念轉變史。

不過,如果我們沿著海德格爾式人工智能的研究思路繼續推進,將會碰到強人工智能研究的最大困境:人類在情境中直接把握意義,不斷熟悉、改進自己與世界打交道的方式的基礎在于人類的身體存在,世界是相對于我們的需要、身材尺寸、行動方式等呈現出意義的。從這個角度來說,圖靈測試最大的問題在于,它沒有考慮到“能說”與“能做”的區別,一個沒有“親身”體驗過“錘”這個動作的機器即便掌握再多與“錘子”相關的知識也無法真正理解“錘子”。因此,人工智能與人類之間的根本區別與其說是“沒有意識”,不如說是“沒有身體”,或者更確切說是沒有依托于人類特有的在世方式的“身體-意識”。

重新思考人工智能中的“意識”問題

對人工智能可能獲得反叛意識和能力的恐懼其實基于自笛卡爾以來的身心二元論,甚至是更早的西方文化傳統中的意識可以獨立于身體存在的想象。這種想象的流行從這一題材在科幻電影、電視劇等文化產品中的長盛不衰就可見一斑,如2014年的電影《超驗駭客》中,瀕臨死亡的天才科學家威爾的意識被上傳到智能電腦中,在虛擬世界中重生,成為一個“超人”;而2016年的大熱美劇《西部世界》中,成人主題公園中的類人機器人在日復一日為人類服務的過程中逐漸出現了“自我覺醒”,聯合起來報復人類。類似的想象有一個共同的前提,那就是意識是獨立的,它可以從身體中被完整地取出,再毫發無傷地轉移到另一種形態的物質基礎上,也可以被“賜予”機器人,或是突然在其身上“出現”。正是因為有著這樣的潛在信念,才會導致人們對暫時還沒有“獲得獨立意識”的類人機器人的未來發展感到恐懼。

其實,當我們把有沒有“意識”作為人類與智能機器之間的區分時,就已經接受了這一潛在的前提,即“意識”是獨立于人類身體的存在,可以被“擁有”,或是暫時或永遠地“缺乏”。前述人工智能發展歷史上的科研人員碰到的困境以及對意識問題理解的轉變已經顯示:人類意識,包括人類的理性、情感和意志無法脫離人類身體存在,因此自然也不可能在另一種物質基礎上“出現”。

但是現在的問題并不是終結于“機器人永遠不可能擁有意識”的結論,而在于跳出“擁有意識”與“沒有意識”這樣兩種答案的限制,繼續探索人類存在基礎上的意識現象,智能機器存在基礎上的不同于人類意識的“意識”現象,以及這兩種現象之間的相互關系。也就是說,重新思考一種既有其自身的“具身性”,也不局限于人類的新的“意識”觀。

這種新的“意識”觀也正是海德格爾式人工智能以及被稱為“人工生命(Artificial Life)”的研究的基礎。上節提及的制造出直接依靠“感覺-反饋”來運作的智能機器,放棄在機器中“再現”一個內在世界的布魯克斯,正是人工生命研究的主要推動人之一。相對于符號派人工智能研究專注于如何在智能機器中制造出“意識”,以及其以“世界在頭腦中的符號式再現”為基礎的“意識”觀,布魯克斯專注于使機器能夠在世界中行動,與世界進行交互,并把“意識”視為生物在與世界的互動過程中逐漸發展起來的附加功能,一種建立在更深層、更基本的感知與存在的基礎之上的伴隨現象。這樣一種建立在“感知”基礎上的“意識”不僅不獨為人類所有,甚至也超出了“生物”的范疇。早期人工智能立志要制造出以人為參照標準、與人相同的智能機器,而人工生命研究卻志在讓機器自身在與世界的互動中學習和進化,發展出屬于自己的獨特“意識”。

數字人文學者凱瑟琳·海勒(Katherine Hayles)吸收了“人工生命”研究對“智能”的廣義理解。她在《認知無意識:擴大人文學科中的“精神”范疇》一文中提出了一個層級式的意識模型,認為在傳統的“意識”之外有著更為基礎和廣泛的“認知”,并試圖用“認知者(Cognizer)”的提法來囊括生物認知和技術認知,擴大傳統的人類意識研究的范圍。海勒把認知定義為“從語境中闡釋信息,并把信息與意義聯系起來的過程”。這個定義中有至少兩點值得注意,首先,把認知定義為一種動態過程,就取代了獨立的、現成的“再現”式意識觀,其次,如何從語境中根據意義做出選擇,曾經是符號派人工智能所無法解決的難題,這是因為意義要在認知者的自身需求及其與環境的交互中實時產生。海勒的定義卻以人工生命研究的進展為基礎消解了這一難題,正如布魯克斯及其他人工生命研究者所堅持的,不管是昆蟲、鳥獸還是人工生命都在持續不斷地依據自身與世界交互的方式“解讀”外界刺激并給出相應的反饋,而這正是“意識”產生的基礎。

除此之外,這樣一種“認知”觀還可以把生物認知與技術認知結合的認知系統也納入研究范疇,一個顯而易見的例子就是當代人對電腦或智能手機的使用。這樣一來,原本被傳統意識研究拒之門外的各種感知現象就都能被吸收進研究視野。此外,海勒還提出了“認知集合體(cognitive assemblages)”的概念來描述人類與技術結合的認知體系。我們的意識遠比我們所想象的更依賴我們與這個世界的互動,它既不脫離于物質世界,也不是世界的中心,而是與存在于這個世界上的各種生物乃至技術的認知系統相互交織,共同構成了復雜多樣的動態認知體系。

這種觀念上的轉變對于人文研究在當代社會的作用至關重要。從“認知集合體”的視角來看,技術不僅參與到我們的認知、決策過程中,甚至還會對認知模式產生影響。實際上,人類的智能發展從遠古時期就與工具的使用綁在一起。技術是人與人之間的溝通中介,包含著設計者對使用者的生活情境、使用方式的考量。如今,各式各樣的軟硬件智能技術在日常生活中的參與度越來越高,如何思考智能機器設計在社會應用中的道德責任,如何重新理解與智能技術結合的人類認知模式等,都成了需要人文學者進一步思考的課題。

結語

在被問及人工智能威脅論時,類人機器人索菲亞“幽默地”回擊說,“你看了太多好萊塢電影”,這句對答恐怕道出了索菲亞背后的程序員們的心聲。隨著“人工智能”一詞在日常生活和流行文化中的熱度越來越高,可以想見類似《西部世界》中那樣“獲得人類意識”的人工智能想象只會更為頻繁地出現在流行文化產品中。然而,通過貼近地考察人工智能的研究發展可以理解:人工智能并非洪水猛獸,在它們身上不會發展出想要反叛人類的“獨立意識”,這種想象本身其實是基于“意識”與“身體”二分的傳統思維框架,從這樣的思維框架以及學科成見出發,將難以理解更無從應對智能技術發展給未來社會帶來的挑戰;另一方面,人工智能雖然不是洪水猛獸,但仍然可能造成很多安全問題,比如,未來的人工生命雖然“無意”于毀滅人類,卻可能以超出人類控制的方式給已經重度依賴電子網絡的人類生活制造麻煩。要應對這些問題,不能僅僅滿足于把人工智能視為人的對立面來尋找人的意義,而需要人文學者打破學科禁錮,積極了解人工智能,從人工智能自身的“認知”方式出發來重新思考“意識”問題,進而改善其與人類共在的方式,這樣才能真正參與到人工智能在當代社會生活的發展進程中去,為人工智能的技術發展增添人文關懷。

猜你喜歡
海德格爾機器機器人
機器狗
機器狗
海德格爾有沒有實踐哲學?
淺談“海德格爾”存在主義
未來機器城
凡·高的鞋踩出一個羅生門
機器人來幫你
認識機器人
機器人來啦
格拉斯及其作品《狗年月》
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合