?

人工智能可能性的“雙重參照”

2022-02-11 06:24王世鵬
江漢論壇 2022年2期
關鍵詞:可能性人工智能

摘要:人工智能可能性問題是關于人工智能的所有哲學研究的核心和樞紐。追問人工智能可能性的一個前提是追問“人工智能”這個概念的可能性?!叭斯ぶ悄堋备拍詈衅渥陨頍o法擺脫的范疇錯誤(category mistake),并不斷有各種在用法上相互矛盾的新的意義被賦予到這個概念當中。人工智能概念范疇錯誤的根源在于對人工智能可能性的追問中隱含著一個“雙重參照”:一方面,人永遠以自身為參照來追問人工智能的可能性;另一方面,人以永遠處于可能狀態中的人工智能為參照來追問人自身。作為哲學問題的人工智能可能性,有其獨特的提問方式,它與心靈觀問題、心身關系問題和人的同一性問題交織在一起,顯示出人與人工智能的一致性和差異性。人工智能可以看作是人自身的一個鏡像,把人的樣子投射于其中,而且將處在人工智能可能性限度之外的意義、體驗和錯誤這三種獨屬于人的能力呈現出來。

關鍵詞:人工智能;可能性;“雙重參照”

基金項目:國家社會科學基金一般項目“人格同一性理論最新發展研究”(18BZX113);湖北省社會科學基金前期資助項目“馬克思主義視域中心靈哲學比較研究”(19ZD088);華中師范大學中央高?;究蒲袠I務費專項資金項目(CCNU20TD005)

中圖分類號:B84? ? 文獻標識碼:A? ? 文章編號:1003-854X(2022)02-0024-08

有三類密切相關的問題支撐起當前人工智能哲學研究的整個問題領域。一是人工智能的可能性問題,其常見的提問方式為“機器能思考嗎”?二是人工智能的能動性問題,其提問方式通常為“機器能做X嗎”?三是人工智能的控制性問題,其提問方式為“人能控制自己制造的機器嗎”?在此三類問題中,人工智能的可能性問題是當之無愧的核心和樞紐,因為它既為后兩類問題的探討奠定了理論基礎,在根本上為后兩類問題的追問賦予意義,又不斷以其自身提問方式的變化促使后兩類問題的提問和解答方式發生變化。在此意義上,人工智能的可能性問題可以被看作是關于人工智能的全部哲學追問的具體呈現。但是,這是否意味著人工智能可能性問題的重要性就因此而得以呈現呢?事實并非如此。如果不僅僅把人工智能可能性問題的研究視野局限于人工智能哲學、心靈哲學和意識哲學等幾個專門的哲學門類,而是將之置于整個哲學的研究領域中進行審視的話,就會發現這個問題的重要性仍然被嚴重低估了。低估的根本原因在于,關于人工智能可能性的追問中隱含著一個至今尚未獲得清晰闡述和應有重視的“雙重參照”:一方面,人永遠以自身為參照來追問人工智能的可能性,此為第一重參照;另一方面,人又以永遠處于可能狀態中的人工智能為參照來完成對人自身的追問,此為第二重參照。在此“雙重參照”中,與其說人工智能在人的世界中的圖景獲得描述和呈現,毋寧說人找到了一種前所未有的、新的方式來理解和關照自身。

一、“人工智能”的概念可能性與參照缺失

過去幾十年,人工智能在理論研究和技術應用上都取得巨大的進展,但是這些進展非但沒有治愈人工智能研究的一些先天“頑疾”,反而將其“癥狀”越發明顯地呈現出來。這些“癥狀”主要表現為圍繞“人工智能”這個概念本身的理解而大量存在的范疇錯誤和觀念誤解,而其“病根”則在于“雙重參照”的缺失。離開了這個“雙重參照”,我們就難以理解人們用“人工智能”這個詞究竟想要表達什么,這個詞的創造和使用究竟隱含了人的什么意圖,以及為什么這個詞的使用充滿了混淆、誤解和矛盾。因此,在探討人工智能的可能性問題之前,我們首先要討論“人工智能”這個概念的可能性:這個概念是否能夠勝任它在理論研究中所扮演的角色?質言之,“人工智能”可能嗎?

當前研究中經常用來稱呼或者替代人工智能的概念有數十種之多,常見的有計算智能(computational intelligence)、電子智能(electronic intelligence)、有意識的機器(conscious machine)、心靈機器(mind machine)、無心的媒介(mindless medium)、符號理性(symbol reasoning)、情感機器(emotion machine)、機器理性(machine reasoning)等。這些稱呼各有其用法上的側重。其中,有些稱呼是為了強調對人工智能的實現具有關鍵作用的因素,比如“計算智能”的稱呼側重于強調計算在智能行為中的核心地位。而“符號理性”的稱呼,是為了在強調理性的同時,進一步將人工智能的理性與人類理性相區別。正如西蒙所強調的,人工智能是符號理性,因此有必要區別人類自主體的理性和人工智能的理性。① 再比如,把人工智能稱作電子智能,是為了將之區別于包括人類智能在內的生物智能(biological intelligence),側重于強調人工智能是由人工的方式如計算機編程來實現的。把人工智能的這些各有側重的稱呼放在一起進行對照,不難發現,“人工智能”不是意思一致的一個單一概念,而更像是對一類或者一組具有某種相關性的概念的統稱。

更為嚴重的問題是,如果用“人工智能”這個概念來統攝它以不同稱呼所表達的種種用法,就會發現其中存在著明顯的范疇錯誤。其范疇錯誤的表現有二。一是把不可能并存的兩種對立的屬性同時歸屬于“人工智能”。比如,一方面通過稱呼上的側重來強調人工智能是“有意識的”“心靈的”“情感的”,即具有心理屬性的;另一方面又通過其他的稱呼來宣稱人工智能不具有這樣的心理屬性,是“無心的”“電子的”“計算的”“機器的”。但是,對于世界上的任何存在物而言,或者是有心的或者是無心的,兩種屬性不可能同時具有,否則就是范疇錯誤。二是“人工智能”概念存在著因主體缺位而導致的用法混亂?!叭斯ぶ悄堋苯洺1挥脕砗汀叭说闹悄堋毕鄬?,而且兩者看起來也具有形式上的一致性,但是“人的智能”這個概念標明了人作為智能的主體,而“人工智能”概念卻沒有指向任何主體。所以,人工智能如果真的能夠作為一種智能存在的話,那么這個智能的主體是誰?在關于人工智能的各種稱呼中,能夠作為智能的主體而存在的,究竟是機器還是這些機器中的理性呢?比如,當前關于人工智能之可能性的爭論,焦點之一在于計算機編程是否有可能產生真正的思維這一問題。如果肯定人工智能的可能性,并假定在適當的環境中以適當的方式對計算機進行編程能夠產生真正的思維的話,那么,計算機思維無疑要有一個主體。正如奧爾森(Eric Olson)在批評人工智能的同一性問題時所指出的,有思維存在,則必有思維的存在者存在,計算機編程所要產生的這個有思維的存在者究竟具有怎樣的身份地位呢?人工智能需要有一個人工思維者這樣的主體存在。② 但是,人工智能概念的各種稱呼都無法提供這樣一個主體。沒有主體,便無以承載屬性,因為屬性總要有其所依附的主體。人工智能與人的智能這兩個概念在形式上的一致性,掩蓋了人工智能的主體缺失,其結果是導致人工智能概念存在著一個主體空洞。正是由于這個主體空洞的存在,各種相互沖突的屬性都能夠被給予人工智能概念,這表現為由各種不同稱呼所表述的東西都被填充到人工智能的概念當中,造成了用法的混亂。

從源頭來看,“人工智能”是一個先天不足的概念,這種不足源自于“智能”概念本身的不足。從時間上看,“人工智能”這個詞是由美國哲學家德雷弗斯(Hubert Dreyfus)于1965年發表《煉金術與人工智能》(這篇文章隨后變成了著名的《計算機不能干什么》一書)一文之后才開始獲得研究者的廣泛認可的,這比人工智能研究的發端晚了大約10年。這種時間上的滯后,至少能部分地表明人工智能概念所面臨的困難。人工智能研究最初的奠基者們并不能闡明“智能”這個詞的意思,但是卻往往把智能的某些特征歸屬于人工智能。比如,被稱作“人工智能之父”的阿蘭·圖靈對“智能”一詞的考察主要就是從行為角度指出智能的兩個特征:(1)智能是達成目標的能力,比如通過某種行為來完成特定任務;(2)智能是能被量度的一種技能,比如根據行為表現來進行測量。圖靈強調,無論天生之物還是人造之物,是否擁有智能至少部分地是由我們對其行為做出的反應決定的。以這種方式,圖靈把智能在行為上的特征歸屬于人工智能。質言之,人工智能概念依附智能概念,人工智能概念總是通過繼承智能概念的某些概念特征而獲得其規定性。按照心靈哲學的理解,“智能”是一個充滿歧義的民間心理學詞匯,它所表述的是包括信念、欲望、情緒等與思維和意識相關的一大類心理現象。智能和人工智能這種概念上的繼承性,導致人工智能概念往往傳遞出這樣的意思:通過計算機編程產生一部分或者全部的心理現象。這也是弱人工智能的主張,即認為人工智能主要就是通過計算機編程來模擬心理現象。

除了從人的心理現象中獲得規定性之外,人工智能概念還從人的行為現象中獲得規定性。這是因為,智能可以不被看作是一種心理現象,而被單純看作是一種行為現象。說人有智能,就是說人能夠在特定條件下表現出如此這般的一系列行為。對智能的這種理解,可以通過“如果……,那么……”這樣的概念表達式來呈現。比如,如果情人節到了,那么你要送花給她;如果她身體不舒服,那么你要提醒她多喝開水。凡是能夠在這種特定情境下表現出這種行為的人,我們就說他有智能。與這種智能理解相適應,“人工智能”指的就是計算機的智能行為,它強調的是計算機能夠完成人類需要通過能力訓練才能勝任的工作,比如開車、下棋、識別垃圾郵件。但是,智能的這種帶有行為主義特征的概念規定性,同樣存在問題,比如我們并不清楚究竟要表現出何種行為才算是有智能。提醒她多喝開水的行為,在她看來可能并不是一種智能行為。塞爾通過著名的中文屋論證(Chinese Room Argument)對圖靈測試的批評也說明了這一點:圖靈測試是對智能的純行為測試,但是能夠通過圖靈測試并不意味著就有智能。③ 所以,人工智能概念無論以人的心理現象還是行為現象作為參照,都難以擺脫范疇錯誤的困擾,因為這種錯誤與人工智能概念本身的規定性聯系在一起,是其從人自身的概念中繼承而來的先天錯誤。換言之,我們對人自身的概念圖式的理解并不完備,所以,以人的概念如人的心靈和行為概念為參照的人工智能概念就必然在用法上表現出種種問題。

除此之外,在人工智能概念的規定性中還具有更深層次的意味:那就是通過對人工智能概念的限制和規定,反過來將人工智能概念的規定性作為參照,使之能夠反哺于人認識自己的心靈和行為的需要。這種需要的產生,根源于人類自身的復雜性和人類認識自身的手段的局限性。比如,要認識人的心靈,離不開對大腦的研究,因為心靈是由大腦所實現的。通過研究大腦來理解心靈的這條思路,在工程學上被稱為逆向工程(reverse engineering)。比如,當市場上出現一種新的技術產品,產品的競爭者會通過拆解這種產品來弄清這種產品的技術原理,這就是逆向工程。但是,對大腦而言,逆向工程遇到了嚴峻挑戰。因為大腦是世界上最復雜的結構,神經科學、腦科學等對大腦的研究完全不足以讓我們理解心靈。甚至如查莫斯所言,即使我們弄清了大腦的全部結構和過程,仍然不足以理解心靈,因為心靈可能是與其所依賴的腦加工過程相分離的某個額外的東西。④ 逆向工程不適用于大腦研究的需要,因而我們轉而訴諸人工智能工程,即通過參照機器來研究大腦,進而理解心靈。

在對人工智能的這種參照中,人以理解自身為導向來設置人工智能的規定性。這主要表現在兩個方面。其一,人工智能被規定為一個絕對概念,而智能本身則是一個相對概念。智能的產生和發展與自然進化有關,其發展程度是由智能主體的需要決定的,不同層次的需要使智能呈現出程度的差異性。比如,與自然界的動物相比,人需要更高程度的智能才能生存下去。因而,自然智能是一個相對性概念。但是對人工智能而言,它不但沒有進化的自然環境,而且其發展在根本上是由人自身的需要決定的。人是人工智能唯一的參照。根據人的需要而獲得規定性的人工智能概念是一個絕對概念。達成人設定的目標就是人工智能,否則就不是人工智能。人工智能概念的這種規定性使其成為一個絕對概念。在這一點上,人工智能概念與懷孕的概念相似,或者有或者沒有,不存在什么程度的差異性。其二,人工智能被規定為對人的模擬必須超越一定的界限。智能本身并不需要超越一定的界限,但人工智能則不同。因為人對人工智能的概念規定中隱含著自我認知的需要,而這種需要的滿足要求人工智能的智能水平必須達到一定程度,否則就不足以滿足人的需要。德雷斯基在討論智能和人工智能概念的關系時,曾分析了智能的界限問題。他認為,實際上存在著對智能的兩種不同理解,這兩種理解的混淆是人工智能可能性問題爭論不休的原因。這兩種理解的區別在于,智能是否必須達到一定的數量界限。對智能的這兩種理解,一種相當于把智能比喻為錢,另一種相當于把智能比作財富。如果有智能就像是有錢一樣,那么無論錢多錢少都可以稱作是有智能。但如果有智能就像是有財富,那么錢少就不算智能,因為只有錢的數量達到一定的程度才能說是有財富。⑤ 人工智能在概念規定上僅僅與對智能的后一種理解相應,即把智能看作是財富而不是錢。所以,人工智能概念的興趣不在于在最低限度上建立智能機器,比如,智能不論多低,只要大于零就算有智能。這樣具有最低限度智能的智能機器并不能作為人類自我認知的參照。因為人的這種將人工智能作為參照的需要始終存在,所以,人工智能的概念規定性中總會被設定一個界限,而且這個界限會不斷被超越,永遠高于人工智能研究的實際進展。其結果是,人工智能因其概念規定性而永遠處于可能狀態之中。

人工智能概念在用法上存在范疇錯誤,但是我們應該因此而否定這個概念本身的可能性嗎?或者說,我們還能夠在嚴肅的科學和哲學研究中使用人工智能這個概念嗎?之所以會有這樣的問題被提出來,根本的原因就在于對人工智能概念的考察中存在著“雙重參照”的缺失。在“雙重參照”下考察人工智能的概念可能性,正確的提問方式表現為:為什么人們甘冒范疇錯誤的風險將兩種對立的屬性同時歸屬于人工智能概念?一方面,人以人自身的智能和行為為參照使人工智能概念獲得其規定性。另一方面,人又以人工智能的概念規定性為參照來認識自身的智能和行為。在這種“雙重參照”下,人工智能概念獲得一種獨特的規定性,它既無法擺脫范疇錯誤,在用法上充滿矛盾,但又因人將之作為參照的關系而不斷獲取新的內涵。

二、人工智能可能性問題及其提問方式

人工智能概念獨特的規定性賦予人工智能可能性問題一種獨特的提問方式。一般而言,追問人工智能的可能性,似乎就是要問出類似于“人工智能是否可能”這樣的問題。但是,實際上只有外行才會以這樣的方式去發問。因為,這種單一而籠統的“……是否可能”式的提問方式,或者就像是在追問與人本身沒有關系的自然對象一樣,比如問“明天下雨是否可能”,或者就像是在追問觀念中構造的非存在對象一樣,比如問“永動機是否可能”。人工智能不同于自然對象,也不同于非存在對象,甚至不同于已有的任何存在和非存在的對象,因為它的獨特之處就在于,它是人試圖創造出的唯一一類以人自身為藍本的對象。換言之,人工智能比這個世界上任何其他對象都離人“更近”。離開了人無以談論人工智能,人工智能完全離不開對人的參照,這要求對人工智能可能性的任何追問都應當有人自身的“痕跡”體現于其中。

在這一點上,哲學家擺脫外行身份的關鍵就在于以正確方式提出關于人工智能的可能性問題,比如根據對人自身屬性、構成、行為、能力等的認識來追問人工智能在不同研究路徑中的可能性。質言之,人以何種方式理解自身,就進而會以何種方式追問人工智能。人工智能的可能性及其提問方式,與其說是由技術決定的問題,倒不如說是與人的自我認識關聯在一起的哲學問題。作為哲學問題的人工智能的可能性,可以從心靈觀問題、心身關系問題和人的同一性問題這三個具有內在相關性的問題出發進行考察。

首先,心靈觀問題與人工智能可能性問題產生交集的原因在于這樣的研究思路:要考察人工智能的可能性,就必須考察心理現象的本質屬性。因為如果假定人工智能可以實現的話,那么我們的任務就是要考察生物有機體的心理現象,以弄清楚這些心理現象究竟有什么本質屬性能夠讓其在計算機中同樣產生出來。但是這項工作離不開對心靈觀的研究。因為人有眾多不同的心理現象,如意識、思維、情緒、理性等。這些現象中的哪一個或哪幾個應該成為人工智能試圖模擬的對象?這些現象有何特點?它們是何種關系,相互對立還是相互促進?比如,在過去幾十年,情緒與理性一波三折的關系變化,是人工智能研究與心靈觀研究產生交集的一個集中體現。情緒和理性被認為是人類認知中緊密交織在一起的兩個重要的維度。人工智能應該側重模擬人的情緒還是理性?這個問題的解答無疑取決于人們如何看待理性和情緒關系。

在人的所有心理現象中,理性最受人工智能研究者的偏愛,其表現就是產生了所謂的機器理性問題。機器理性問題,即理性思維如何在機器中成為可能的問題,至今仍是人工智能可能性問題的主要表現形式之一。在歷史上,這一問題在阿蘭·圖靈的研究中初現端倪,經由福多(J. Fodor)的論述而成為一個真正受到關注的哲學問題。福多認為,正是由于圖靈的貢獻,我們才開始對理性在機器中何以可能有所了解。⑥ 在經典的符號主義人工智能的研究綱領中,機器理性被認為是依據合乎規則的計算過程對符號(即具有非語義屬性的形式)的操作。安迪·克拉克曾在其《人工智能與理性的多面性》一文中對機器理性問題的各種解答方案做了較為細致的梳理。在他看來,所有解答方案有一個共同的核心觀念,那就是形式有時可以當成意義使用。把形式當成意義使用,實質上就是要完成從非語義屬性到語義屬性的轉換,凡是能完成這種轉換的系統就會在適當的環境中表現出所謂的“語義良好行為”(semantic good behavior)?!罢Z義良好行為”這個術語涵蓋了演繹推理、做出猜測、根據刺激做出反應等多種行為能力。由理性支配的行為是語義良好行為的一個特殊的子集。⑦ 質言之,對人工智能負責的只是理性。而理性與情緒的關系,就像句法與語義的關系一樣,對于前者而言,只用管理性,不用理會情緒,對后者而言,只用管句法,語義自己管自己。⑧

但是,當前新的心靈觀研究成果卻認為,情緒并不是理性的敵人,反倒是應該被看作理性自身機制的一部分,而且情緒幾乎每時每刻都能夠對理性產生幫助。因此,情緒不能被棄之不顧。公正地對待情緒與理性的關系已經成為下一代人工智能模型所要面對的主要任務之一。明斯基在著名的《情感機器》一書中曾指出情緒與理性的一致性。他說:“因此,盡管本書名為‘情感機器’,但我們仍然認為情感狀態與人們所認為的‘思考’過程并無大異,相反,情感是人們用以增強智能的思維方式?!雹?達馬西奧則嘗試分析著名的菲尼亞斯·蓋奇(Phineas Gage)的案例來闡述情緒與理性的復雜關系。他說:“似乎可以直接得出這個結論,即人類理性最好不被看成是一個無情緒的邏輯引擎——它有時與情緒爆發的戰斗交織在一起——的操作。相反,真正的合理行為(人類身上)是一系列復雜而疊加的相互作用的結果,在這些相互作用中,審慎的理性和(經常是非常無意識的)帶有情感的巧妙反應共同引導著行動和選擇?!雹?由理性與情緒關系的認知變化所導致的人工智能重心轉變,是心靈觀研究對人工智能可能性產生影響的一個縮影。通過心靈觀研究,弄清人類心靈的地理學、地形學、動力學和結構論,是解答人工智能的可能性問題的必要條件。

其次,心靈觀問題在哲學研究中可以被看作是心身關系問題的子問題,兩者密不可分,在人工智能研究中同樣如此。人工智能研究中具有重要影響的“結構和功能”之爭,在本質上是一場圍繞心身關系問題的爭論。關于“結構和功能”的路線之爭,始于1956年召開的達特茅斯會議,這次會議被認為是人工智能研究的起源,影響了此后幾十年間人工智能研究的基本走向。主持此次會議的皮茨被認為是神經網絡的鼻祖,他在總結這次會議時曾這樣表述“結構和功能”的爭論:“(一派人)企圖模擬神經系統,而紐厄爾則企圖模仿心靈(mind)……但殊途同歸?!眥11} 模擬神經系統就意味著把人的身體(大腦的神經結構)作為人工智能模擬的對象,而模擬心靈則意味著讓人工智能擁有和心靈一樣的功能作用。人工智能可能性問題在這里就具體表現為:身體(神經系統)和心靈究竟哪一個才是人工智能應該模擬的對象?對不同模擬對象的選擇,不僅代表著對智能實現方式的不同理解,更意味著對心身關系的不同理解,比如心和身究竟誰在兩者的關系中占據主導地位。

每個人都由身體和心靈構成,這是自笛卡爾以來所形成的關于人自身構成的所謂“官方學說”的基本主張。但是,這個“官方學說”卻面臨巨大的理論難題,它既無法解釋身體和心靈的相互作用,又無法說清對人自身的智能負責的究竟是身體還是心靈。結果是“官方學說”所面臨的理論難題導致了人工智能的路線之爭,并以人工智能可能性問題的形式呈現出來。所以,這里真正的問題是:對人的智能負責并進而對人工智能的模擬負責的,究竟是心靈還是身體?圍繞心身關系所形成主要理論,如二元論、行為主義、同一論、功能主義和取消論都出現在關于人工智能可能性的探討之中。其中,除了二元論把心靈看作是非物理過程并因而否定人工智能的可能性之外,其他理論大都肯定人工智能的可能性。當然這些理論也都面臨各自的理論困難。在當前,心身關系問題解答遭遇的最大困難是查莫斯所謂的“意識困難問題”,即像大腦這樣一個純粹的物理對象何以能夠擁有體驗(experience)的問題。一些研究者把意識困難問題看成是人類智能和人工智能共同面對的問題,并試圖利用在人工智能研究中占主導地位的一些理論范式,如計算理論,為意識困難問題找到解答方案。{12} 在與人工智能的參照中探索心身關系問題的解答路徑,正在成為一種新的研究范式。

最后,心靈觀問題和心身關系問題并不能窮盡人工智能可能性的所有問題,原因在于:人和人工智能都面臨一個同一性問題。對人來說,身體和心靈都是人的構成性要素,但兩者合在一起卻并不等于人的全部,因為人總會以一種獨特的方式將自己呈現在自己面前。比如,我們都能夠理解卡夫卡的小說《變形記》里面的主人公格力高·薩姆撒所遭遇的狀況。他的物理狀態徹底改變了,但他仍然執著地認為自己還是之前那個有著不同身體的人,盡管在第三人稱的觀察者看來這難以接受。換句話說,格力高·薩姆撒的身上,除了心靈和身體之外可能還有一種能讓他保持自身同一性的東西,這種東西的存在使他能夠在身體狀態和心理狀態發生變化的情況下,仍將自己認作是之前的那個人。所以,心身與人的關系就以這樣一種問題的形式呈現出來:心身之外是否還有人?

人的同一性研究源遠流長,但人工智能的同一性研究卻是一個新近產生的問題。人工智能同一性問題的產生與人的同一性問題的產生遵循著相似的邏輯:就像人的思維要有一個主體,比如可稱之為“人”一樣,人工思維也一定有一個主體,比如可稱為“人工思維者”。因為,如果計算機中能夠有思維發生而無主體的話,同樣的道理,人身上也會出現無主體的思維。但是,如果有思維而無思維的主體(即思維者),那么結果就會是,一方面有現象存在,但另一方面卻沒有任何存在者使現象得以向其顯現。探討人工智能的可能性,除了要關注人工思維的問題之外,還要關注人工思維者的問題,即是否有什么東西能夠成為人工思維者。奧爾森曾對當前人工智能同一性問題的研究現狀做過較為系統的評價。他認為,要評估人工智能的可能性,不但要了解思維和意識的本質,而且要了解思維和意識存在者(being)的本質。但是當前幾乎所有關于人工智能可能性的討論都是圍繞人工思維問題進行的,而對人工思維者問題的研究則幾乎是一片空白。其表現有二。其一表現在哲學家關于人工智能可能性的提問方式上。哲學家常常追問“計算機會做什么才能被算作是思維”,而從來不問“計算機是怎樣的存在者,或者是否人工思維者完全就是計算機或者計算機程序”。{13} 質言之,人工思維者一直沒有被作為一個重要的問題提出來。其二表現在關于人工智能的討論中經常使用如“系統”這樣意思模糊的術語。而“系統”這樣的詞就像“媒介”“基質”一樣幾乎可以用來指示任何東西。問一個系統是否會在某種條件下具有智能,不過是在問某種無法理解的對象是否具有智能,而且完全回避了這個對象到底是什么這樣的問題。

那么,人工思維者究竟是什么?這個問題有兩種解答方案。一種方案把人工思維者看作一個虛擬的主體。比如有人模仿計算機科學中的虛擬機(virtual machines)概念,提出了虛擬人(virtual person)的概念。{14} 但這種方案難以合理地說明虛擬人的存在地位,并且影響力有限。當前占主導地位的方案,是所謂的“計算機硬件觀”(the computer-hardware view),它主張既然人工思維是由計算機的狀態和活動構成的,那么計算機本身就是人工智能的主體。具體來說,通過計算機編程而變成智能的東西就是計算機的硬件這樣一個物理對象。這表現為,它把人工智能的可能性問題,等同于計算機是否能夠思維的問題。從整體上看,計算機硬件觀仍然是對自然智能主體觀的類比,是后者在計算機中的投影。根據這種觀點,人的智能是自然智能的代表,而作為這個智能的主體的“我們”,以動物的方式存在,即我們是動物。與此類似,人工智能的主體以計算機的方式存在,即人工智能就是計算機。

人工智能的可能性問題,從問題提出到解答的整個過程都與人對自身問題的思考緊密相關。心靈觀問題、心身關系問題和人的同一性問題既是人在對自身的探索和認知中形成的問題,又是在對人工智能可能性的解答中不容回避的問題。這些問題的提問和解答方式交織在一起,相互影響,相互制約,逐漸形成一種良性互動的參照關系。通過這種參照,人與人工智能之間的一致性和差異性顯現出來。

三、人工智能可能性的限度與人的參照

我們對心靈觀、心身關系和人的同一性問題的全部思考,在根本上無非就是要一步步描述出人的樣子。而人工智能可能性問題同樣有這種作用。人工智能可以看作是人自身的一個鏡像,人可以把自己的樣子投射到這種鏡像之中。因此,我們有必要追問這樣的問題:人工智能可能性的限度究竟有多大?人工智能可能性的限度是理解人自身的一個全新參照。人工智能可以在多大程度上實現自身的可能性,就意味著人自身的屬性在多大程度上獲得表達。在此意義上,考察人工智能的可能性,就是要把人工智能的限度作為一把標尺,用來對人進行衡量和比照,以弄清人的哪些屬性可以通過機器實現,哪些屬性是人相對于機器所獨有的。這種操作遵循著一個簡單的邏輯,凡是能被人和人工智能共有的東西,必不能獨屬于人,而獨屬于人的東西當中必然含有人身上本質的東西。

人工智能是以設計為基礎的智能,它的地位始終受到設計的目的、過程和結果的制約,但這并不意味著人工智能不能在個別的方面超越人的智能。比如人工智能在個別的計算能力上速度更快,水平更高,就單純的數字計算和數據儲存而言,人類智能望塵莫及。甚至如果僅僅把智能理解為一種達成目標的能力和可量度的技能的話,人工智能反倒是比人類智能更符合智能的特征。所以,人工智能不只是對人類智能的簡單模仿,它可以在某些方面完成比人類智能更多的任務。人工智能在這些方面對于人類智能的優勢,一方面說明,人工智能可以是擁有其獨特智能屬性和存在地位的一類智能;另一方面說明,人工智能可以作為對人類智能的某些方面的放大和理想化。換句話說,人工智能在這些方面的可能性,表征著人能夠將自身屬性在機器中實現的最高限度。

從范圍來看,人工智能可能性的限度表現為一個區間。這個區間的下限要保證人能夠實現自我認知的需要,而不是像自然智能的下限那樣大于零即可。它的上限則是由人工智能自身的智能屬性和人類智能屬性的契合程度決定的,兩者的契合程度越高,人工智能的可能限度就越高。人工智能的優勢在于它在符號操作上的優勢,比如它擅長在句法上進行計算。計算是與解碼(decoding)有關的一個過程,解碼能夠把物理狀態變為計算狀態。在這一點上,人工智能和人的智能具有一致性,它們都能被看作是計算狀態。但是,盡管在所有的計算狀態當中都有符號操作的存在,卻只有其中一部分符號操作有意義。人工智能所進行的符號操作沒有意義,因為人工智能是純粹的句法機器。正如塞爾在論述人類心靈和計算機程序的區別時所強調的,任何僅僅操作符號的物理系統最多只是意識的空心模型,它不可能產生真正的語義。這也是以計算機為模型來說明心靈最大的難題:人如果不為符號賦義,符號是否能夠意指某種東西?{15}

人的心理過程雖然同樣有符號操作的部分,但卻不只會進行句法的計算,還會進行語義的計算。人的智能既是句法機,又是語義機。麥金在分析人的心理過程和計算機的符號操作算法的區別時指出,心靈能加工意義而句法不能。人既能夠操作語義也能夠操作句法,但是計算機在完成任務時并不需要理解它所操作的符號的語義?!斑\行程序只是模擬理解意義;它不構成意義的理解?!眥16} 是否能夠在符號操作中產生意義,正是計算機和人的主要差異之一。人能夠通過符號操作自發地獲得意義,而計算機的符號操作只能由人來為其賦義。通??磥?,計算機不過是人們用來做計算的物理系統,這個系統的輸入和輸出都有賴于人的解釋,離開了人的解釋,計算機和汽車、恒溫器之類的機械系統并無差異。計算機本身并不對其處理的符號的意思做出解釋,所有的解釋都來自于人類這樣的外部系統。用心靈哲學的術語來說,計算機只有派生的意向性,人類才具有本源的意向性。人的這種本源的意向性使人的心靈成為意義的發源地。

除了意義之外,人的心靈中還有兩種人工智能的符號操作無法例示的東西,一是體驗,二是錯誤。體驗是人的所有心理現象中最難解釋的現象之一,也是人本身的專有能力之一。體驗能力不同于辨別刺激、報告信息或者控制行為的能力,因為后者有可能通過技術進步來解決,而體驗能力是人工智能的符號操作不可能模擬的東西。從體驗與符號在自然智能中的起源來看,體驗在動物進化史上出現的時間要早于符號化,因此體驗的產生不需要以符號操作作為其條件。人工智能不但不具有自然智能的進化環境,而且它的一切能力都依靠符號操作來實現。從體驗自身的規定性來看,它是和主體的第一人稱感受緊密綁定在一起的一種現象學特性。{17}每個人都只能以自己的第一人稱視角來感受這種體驗是怎樣的,比如巧克力的味道是怎樣的,你只能通過自身的感受獲得,而不能通過第三人稱的方法比如依靠別人的描述獲得。而人工智能的主體,無論是虛擬主體還是計算機,都不可能通過第一人稱視角去獲得體驗。所以,符號操作既不具有也不實現感覺體驗。相比之下,人不但能夠體驗,而且每一個個體的人都有能力獲得關于世界的獨一無二的體驗。

錯誤的產生與人們對自己觀點的表達和陳述密切關聯在一起。任何人只要心中有了自己的觀點,就有犯錯的可能。但是,人工智能的符號操作對錯誤是免疫的。無論是簡單的圖靈機,還是符號主義和聯結主義的人工智能,甚至是“反表征主義”的機器人學中都隱含著一種對一切東西都進行邏輯學分析的企圖,這種企圖所依賴的一個核心觀念是:把形式當成意義來使用。但是,在邏輯學中,對真值有保障的是形式而非意義,所以只要依據符號的形式規則,機器就不可能從正確的前提中推出錯誤的結論,至于前提和結論的“意思”是什么并不重要。從生態學的角度來看,人犯錯誤具有生態上的合理性,因為人的生存環境是開放的,面對大量復雜多變的環境信息,人類大腦選擇使用盡可能簡單的“捷徑策略”來獲取盡可能好的結果。{18} 比如,當你不能判斷面前出現的是牛還是虎的時候,大腦不需要你冒險走上前去更近距離地觀察然后再做出準確判斷,而是會“走捷徑”,即給出一個可能不準確的判斷,以此來減少你走上去被老虎吃掉的風險。人類智能對環境變化是開放的,這些變化會對人的概念形成、決策制定和價值判斷都產生影響。而人工智能則不呈現這種意義上的變化。人類智能的開放性使它不限制于固定框架和特定目標,如人類智能并不局限在與數據、信息和知識有關的認知領域,還與行動和價值有關,比如哪些事情沒有必要去做,那些事情冒險也要去做。人工智能則是一種操作性智能,以認知上所給定的目標為導向進行操作,沒有行動和價值上的關涉。比如人類能夠對環境中不可能存在的東西如“方的圓”、“獨角獸”提出問題。而計算機只能提出其內存中已經存在的問題。計算機系統是閉合的,它只能按照自己的目標導向被動地從環境中接收信息,而沒有能力進行與目標無關的表征。所以,計算機沒有犯錯的能力,它的邏輯方法和數學語言不允許它輸出錯誤。人有犯錯誤的能力,對這種能力進行解釋是心靈哲學的研究重點之一。比如,意向內容理論的目標就在于能夠容許意向內容對世界進行錯誤表征:即使現實世界并非如此這般,意向內容也可以把這世界表征為如此這般。所以,與不會犯錯的機器相比,人是會犯錯的動物。

意義、體驗和錯誤無法被人工智能模擬,處在人工智能的可能性限度之外。換句話說,它們是在人工智能參照下,人身上呈現出的獨屬于人的能力。人不但有能力自己創造意義,使自己區別于無意義的機器,而且能夠賦予意義,成為無意義的賦義者。體驗作為與第一人稱相關的能力,使世界成為每個人“感覺起來所是的樣子”,因而為世界賦予了多樣性。錯誤是人不能濫用的能力,但它的存在也提醒我們要容許人犯錯。與人工智能相比,人還呈現出其他的能力,比如意志力,價值評判能力,對美的感受力等,但是意義、體驗和錯誤卻是人的所有能力中最基礎的能力,在根本上標志著人與人工智能的差異。

四、結語

人對自身的探索和認識是一場永無止境的思想征程,但這場思想征程若離了參照便無以為繼。在歷史上,超自然對象、動物、機器、社會和符號等都曾作為重要參照推動和深化了人對自身的認識。在此意義上,人認識自身的過程,就是參照的不斷發現和變革過程。當前,人工智能成為人認識自身的新參照,這個新參照不但有助于我們預見未來社會人和人工智能的關系和地位,而且使我們能夠在一個新的視角下重新反思以往我們對人的本質的認識和規定。

注釋:

① H. A. Simon, Reason in Human Affairs, Stanford: Stanford University Press, 1983, p.33.

②{13} Eric Olson, The Metaphysics of Artificial Intelligence, in Mihretu Guta(ed.), Consciousness and the Ontology of Properties, New York: Routledge, 2019, p.80, p.72.

③ Paul Churchland and Patricia Churchland, Could a Machine Think? Scientific American, 1990, 262(1), p.32.

④ David Chalmers, The Puzzle of Conscious Experience, Scientific American, 1995, 273(6), p.86.

⑤ Fred Dresket, Can Intelligence Be Artificial? Philosophical Studies, 1993, 71, p.202.

⑥ Jerry Fodor, In Critical Condition: Polemical Essays on Cognitive Science and the Philosophy of Mind, Cambridge, MA: MIT Press, 1998, p.204.

⑦⑩ 安迪·克拉克:《人工智能與理性的多面性》,斯蒂芬·斯蒂克、特德·沃菲爾德主編:《心靈哲學》,高新民、劉占峰等譯,中國人民大學出版社2014年版,第348、356頁。

⑧ J. Haugeland, Semantic Engines: An Introduction to Mind Design, in Haugeland (ed.), Mind Design: Philosophy, Psychology, Artificial Intelligence, Cambridge, MA:MIT Press, 1981, p.23.

⑨ 馬文·明斯基:《情感機器》,王文革、程玉婷等譯,浙江人民出版社2016年版,第5頁。

{11} 尼克:《人工智能簡史》,人民郵電出版社2017年版,第3頁。

{12} Drew McDermott, Mind and Mechanism, Cambridge, MA: MIT Press, 2001, p.168.

{14} David Cole, Artificial Intelligence and Personal Identity, Synthese, 1991, 88(3), p.400

{15} 高新民:《“BDI模型”與人工智能建模的心靈哲學》,《上海師范大學學報》(哲學社會科學版)2019年第9期。

{16} C·麥金:《神秘的火焰:物理世界中有意識的心靈》,劉明海譯,商務印書館2015年版,第184頁。

{17} 王世鵬:《自我研究的“現象學轉向”與自我悖論新解》,《學術月刊》2020年第2期。

{18} A. Urquhart, Complexity, in L. Floridi (ed.), The Blackwell Guide to the Philosophy of Computing and Information, 2004, Oxford: Blackwell, p.20.

作者簡介:王世鵬,華中師范大學馬克思主義學院哲學系教授、博士生導師,湖北武漢,430079。

? ? (責任編輯? 胡? 靜)

猜你喜歡
可能性人工智能
人工智能之父
2019:人工智能
人工智能與就業
數讀人工智能
供應鏈風險發生大小、發生與持續時間的估計:一個動態貝葉斯的推理網絡研究范式
海南省熱帶花卉文化研究
觀念可能性與現實可能性
小學數學《可能性》智慧教育案例設計
下一幕,人工智能!
下一幕,人工智能!
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合