?

人工智能能夠擁有意識嗎?
——基于超人類主義的討論

2024-04-14 03:53周亦垚
天府新論 2024年1期
關鍵詞:機器人工智能意識

周亦垚

人工智能在當下是一個十分火熱的話題,它已經成為我們日常生活的一部分,從出行、通訊到工作、學習,我們每天都在真實地經歷著人工智能。并且,人工智能技術的發展可謂日新月異,甚至一夜之間就可以發生天翻地覆的改變,在這種變遷中,我們真切地感受到,人工智能每時每刻都在變得更為強大。不過從某種意義上來說,我們暫時還沒有創造出通用人工智能(artificial general intelligence),即可以憑借自身獨立進行有意義的對話,整合各個領域的話題與想法,甚至擁有并超越人類思考能力的人工智能。但是,隨著ChatGPT在全球的風靡,人們在其中似乎看到了通用人工智能誕生的曙光。在一些諸如《她》 《機械姬》的科幻電影中,我們看到了更為先進的人工智能操作系統,它們能夠和人類對話,能夠擁有自己的意識和情感,能夠擁有讓人嘆服的學習速度與進化能力。雖然就目前而言,這只是熒幕上的藝術形象,但是飛速發展的人工智能,在未來究竟能達到怎樣的水平?能否擁有像人一般的意識呢?其發展重心應放在哪里?這些問題都亟須討論。

在超人類主義視域下,我們往往會得到一個積極的答案,即“人工智能能夠擁有意識”。超人類主義者們聲稱我們所處的時代正在迅速地接近“技術奇點”,在此之后,人工智能將會遠超于人類智能,解決我們之前無法解決的問題,諸如消滅衰老、疾病和資源短缺等問題,同樣也會給文明與人性帶來不可預測的影響。 “超人類主義” (transhumanism)這個概念是由朱利安·赫胥黎(Julian Huxley)在1957年提出來的。他指出:“一旦足夠多的人能夠說出‘我相信超人類主義’,那么人類這個物種就會踏上通向某種新存在形式的門檻,它與我們的差異就如同我們與北京猿人之間的差異?!?1)Julian Huxley,New Bottles for New Wine,London:Chatto &Windus Ltd,1957,p.17.也就是說,未來的人類無論是生理還是心理上,都會與現在的人類截然不同。未來的人類或許可以實現永生,或許可以獲得超凡的智力,又或許可以實現人類肉體與智能程序的完美結合。在這種憧憬中,超人類主義者們相信,無論是對個體的生活還是對人類的進化來說,人工智能未來的發展都是值得期待的。 《超人類主義宣言》的第一條中就說道:“在未來,人類會受到科學技術的深刻影響?!?2)Max More,Natasha Vita-More(eds.),The Transhumanist Reader:Classical and Contemporary Essays on the Science,Technology,and Philosophy of the Human Future,New York:John Wiley &Sons Inc,2013,p.54.由此可見,人會逐漸地被技術化,不過也可以從另一面來思考,即技術是否也能逐步人化呢?結合目前飛速發展的人工智能技術,在未來可能真的會達到所謂的通用人工智能,它可以搜集各個領域的知識,靈活思考并具有常識。如果技術真的能夠逐步趨于人化,那么人工智能能否感覺到自身的存在、能否擁有感官體驗、能否體驗到各種情感呢?我們可以將這些問題統稱為人工智能的意識問題。而思考人工智能能否擁有意識,將會是通用人工智能誕生的起點,也是技術革命發生的一個重要節點。

一、什么是意識?

意識=主觀體驗。

——邁克斯·泰格馬克

想要討論人工智能的意識問題,首先要弄清楚的就是“什么是意識(consciousness)”。在日常生活中,我們可以詢問一個病人是否意識清醒,也可以詢問他人是否意識到這件事的嚴重性,由此可見,在中文語境中“意識”一詞既可以被當成名詞,也可以被當成動詞。但到了學理層面,想要為其提供一個合理的解釋時,這一概念就陷入了神秘,要么是無法給出一個不可辯駁的標準定義,要么就是需要用更加晦澀和抽象的其他概念來對其解釋。一直以來,意識就是一個迷人卻難以捉摸的對象,而關于意識的討論,在哲學史上已經得到了長久的關注,不同的哲學家對意識做出各式各樣的闡述。上溯至古希臘,德爾斐神廟上鐫刻著“認識你自己”的神諭;阿那克薩戈拉首次提出了精神性的實體即努斯(Nous);柏拉圖和亞里士多德基于努斯概念,又發展出了各自的理論,如柏拉圖的理念論以及亞里士多德的靈魂學說;經院哲學也將“靈魂”視為一種理智能力;到了近代,笛卡爾提出“身心二元論”;黑格爾指出自我意識是人類的本質;再后來,胡塞爾的意識現象學解讀了“原意識” (Urbewuβtsein)、 “內知覺” (inneres Gewahren)等概念;馬克思和恩格斯則從意識與物質的關系上來定義意識。當然,在心理學、生物學和物理學等學科中,也有對意識概念的研究。由此可見,歷史上對意識的研究從未中斷,他們只是用不同的概念和視角反映了類似的問題。而隨著人工智能技術的發展,意識問題又一次在科學領域得到了重視,正如邁克斯·泰格馬克(Max Tegmark)所說:“思想家們已經在神秘的意識問題上思考了數千年,但人工智能的興起卻突然增加了這個問題的緊迫性,特別是因為人們想要預測哪些智能體可能擁有主觀體驗?!?3)邁克斯·泰格馬克:《生命3.0》,汪婕舒譯,浙江教育出版社,2018年,第375頁。

在意識哲學中,關于意識的探討可以歸納到身心問題的探討上,即討論身體與意識之間的關系、心靈與物質之間的關系。身心問題貫穿了西方哲學的始終,從古希臘到近代,都有關于此問題的界說。在古希臘時期,靈魂(psyche)具有雙重含義,一是指“和肉體相對立的東西”;二是指“呼吸,是生命的起源,是指人的感覺、情感、理智等意識活動的主體或活動本身”。(4)汪子崇等:《希臘哲學史》(第一卷),人民出版社,1988年,第83頁。到了蘇格拉底那里,靈魂被賦予了認識論的意義,他認為靈魂或曰心靈指的是一種內在感受或內在精神,不是某種特指的器官或實體,而是指理智或有意識的人格。正是由于靈魂的存在,人才能認識對象,進而支配身體的行為。柏拉圖繼承了蘇格拉底的相關思想,在《法律篇》中將“靈魂”定義為“最初的東西,是先于一切形體的,是形體的變化和移動的主要發動者”(5)北京大學哲學系外國哲學史教研室:《古希臘羅馬哲學》,商務印書館,2021年,第220頁。。由此可見,靈魂是萬物的本原,先于肉體而產生。在《國家篇》和《斐德羅篇》中,他論述了靈魂由理性、激情和欲望三部分組成。除此之外,柏拉圖還認為靈魂不朽,因為靈魂是能夠自我運動的,所以是不朽的。而柏拉圖關于靈魂的觀點,也為古羅馬天主教的靈魂學說奠定了基礎,包括其他的宗教學派,都延續了靈魂不朽的觀點,認為在意識的核心存在一種超自然的不朽靈魂。

到了近代,靈魂問題逐漸演變成了心靈問題。關于心靈的研究,首屈一指的便是笛卡爾。笛卡爾的身心二元論表明了存在兩種實體,一種是存在于空間中的物理實體,另一種是能夠產生意識的、人類所特有的思維實體,前者具有物質性,后者具有精神性,即廣延實體(res extensa)和思維實體(res cogitans)。他指出:“思想就是人心的屬性,廣袤就是物體的屬性?!?6)笛卡爾:《哲學原理》,關文運譯,商務印書館,1958年,第20頁。身心二元論提出的基礎正是著名的“我思故我在”,這也體現了笛卡爾的心靈觀。笛卡爾曾指出:“想要在科學上建立起某種堅定可靠、經久不變的東西的話,我就非在我有生之日認真地把我歷來信以為真的一切見解統統清除出去,再從根本上重新開始不可?!?7)笛卡爾:《第一哲學沉思集》,龐景仁譯,商務印書館,1986年,第14頁,第22—23頁,第24頁,第25頁,第 25—26 頁。于是,他開始了懷疑,他認為從感官所得到的最真實、最可靠的感受其實并沒有那么真實準確,因為感官會存在欺騙的現象,比如錯覺。此外,他還提出疑問:“我什么感官都沒有,物體、形狀、廣延、運動和地點都不過是在我心里虛構出來的東西。那么有什么東西可以認為是真實的呢?”(8)笛卡爾:《第一哲學沉思集》,龐景仁譯,商務印書館,1986年,第14頁,第22—23頁,第24頁,第25頁,第 25—26 頁。于是他回答,這一真實之物就是“我存在”,因為無論我的感官經驗所接收到的是否為錯覺,其前提都是要有“我”。即便一切都是需要被懷疑的,但這個懷疑一切的“我”是確定的。那么,“我”是什么呢?笛卡爾說:“我首先曾把我看成是有臉、手、胳臂,以及由骨頭和肉組合成的這么一架整套機器……這架機器,我曾稱之為身體?!?9)笛卡爾:《第一哲學沉思集》,龐景仁譯,商務印書館,1986年,第14頁,第22—23頁,第24頁,第25頁,第 25—26 頁。但這具身體并不是真正的“我”,因為身體“能以若干方式被移動,不是被它自己,而是被在它以外的什么東西,它受到那個東西的接觸和壓力,從而被它所推動?!?10)笛卡爾:《第一哲學沉思集》,龐景仁譯,商務印書館,1986年,第14頁,第22—23頁,第24頁,第25頁,第 25—26 頁。因此,身體是被動的,而真正的“我”應該是主動的,可以自己推動自己,即心靈。心靈所具有的一大特性便是思維,“我覺得思維是屬于我的一個屬性,只有它不能跟我分開。有我,我存在這是靠得住的;可是,多長時間?我思維多長時間,就存在多長時間;因為假如我停止思維,也許很可能我就同時停止了存在。我現在對不是必然真實的東西一概不承認;因此,嚴格來說我只是一個在思維的東西,也就是說,一個精神,一個理智,或者一個理性?!?11)笛卡爾:《第一哲學沉思集》,龐景仁譯,商務印書館,1986年,第14頁,第22—23頁,第24頁,第25頁,第 25—26 頁。由此可見,意識在這一時期被指稱為“心靈”,是一種能夠確證為“我”的東西,也是主體存在的衡量標準。

在意識現象學中,“意識”也是重要的研究課題。胡塞爾認為,意識并不是指某個人或某種動物的具體意識,而是指經過了徹底的現象學還原的意識,是一種純粹意識?!耙蚨F象學是關于純粹意識的學說,它涉及的是純粹的可能性,是在排除了世界和在世之中的自我之后剩余下來的絕對的東西?!?12)倪梁康:《意識問題的現象學與心理學視角》,《河北師范大學學報(哲學社會科學版)》2020年第2期。想要充分理解現象學中的“意識”概念,離不開“意向性”這一概念。意識的本質就是意向性,總是與一個外在對象相對應,所以也可以說,意識就是意識到某一對象。對象總是固化在那里,而正是由于意識的朝向作用,才讓這一對象得以顯現,也就是說,意識的意向性確立了對象的存在。所以,我們可以認為胡塞爾的意識指的是一段過程,意識永遠是指向某物的。而且這種意識指的是純粹意識,它可以是生物的意識,也可以是非生物的意識,就好比我們目前正在談論的人工智能的意識。

在意識科學中,物理學教授邁克斯·泰格馬克主張“意識=主觀體驗”(13)邁克斯·泰格馬克:《生命3.0》,汪婕舒譯,浙江教育出版社,2018年,第376頁。,也就是說,只要能擁有主觀體驗,能體會到“這就是我”,那么就是擁有意識的。神經科學家朱利奧·托諾尼(Giulio Tononi)則提出了意識信息整合理論(integrated information theory),將意識定義為一種能夠系統整合信息的能力。意識的形成必須以整合信息為前提,比如人類的神經細胞通過突觸來交換、傳達信息,而綜合信息量也決定了意識的程度與水平。在心理學領域,意識問題是一個根本的問題。 “從實際分析,可以看到:意識就是認識。意識活動就是認識活動?!?14)潘菽:《意識:心理學的研究》,商務印書館,2018年,第17頁?!耙庾R到”也可以理解為“感覺到”或者“領會到”,也就是“認識到”的意思。意識是一種作用,是對客觀事物的認識作用,這種定義是比較符合事實的。哲學和神經科學教授大衛·J. 查默斯(David John Chalmers)雖然沒有明確給出意識的定義,但他認為“意識的中心問題,至少在它最有趣的方面,是經驗”(15)大衛·J.查默斯:《有意識的心靈:一種基礎理論研究》,朱建平譯,中國人民大學出版社,2012年,第14頁。。意識經驗包括了視覺、聽覺、觸覺、嗅覺等,意識總是伴隨著經驗。

我們已經對歷史上關于“意識”的研究進行了簡單梳理。關于意識,目前能夠得到兩個確切定義。 “第一,主觀體驗;第二,信息。這兩個定義代表了目前意識理論研究的現狀,也指明了意識研究未來可能發展方向?!?16)倪梁康:《意識問題的現象學與心理學視角》,《河北師范大學學報(哲學社會科學版)》2020年第2期。在馬克思主義哲學中,意識是物質在人腦中的主觀映象,是人腦對物質世界的反映,是對外界輸入的信息不斷加工處理的過程。而當人工智能出現后,這種人腦的機能是否可以被復刻呢?人工智能是否會獲得意識的覺醒呢?我們需要進一步對機器意識進行研究。

二、機器意識是否存在?

我對這個世界居然有著自己的感受,會傷心,會有欲求,這些感受都是真實的嗎?還是它們只不過是程序運行出來的而已。

——電影《她》

電影《她》中的女主人公是由先進的人工智能操作系統OS1化身而成的一名“女性”,她名叫薩曼莎,不僅能夠和人類對話,還擁有自己的意識和情感,擁有讓人嘆服的學習速度與進化能力。當薩曼莎發現自己對這個世界產生了主觀意識之后,她開始懷疑這些感受是真實的還是由程序運行出來的。同樣,面對人工智能我們也會產生這樣的疑問:機器意識是否存在呢?是真正意義上意識的產生,還是僅僅就是代碼的運行呢?

在經歷了生物智能之后,機械智能將會是地球上智能演化的下一步。兩年以前,谷歌發布的LaMDA(Language Model for Dialogue Applications)模型就已經在業內引起了巨大關注,其影響力不亞于如今風靡的ChatGPT。LaMDA是一種全新的AI架構,可以讓機器學習變得更加簡單高效、易于擴展,通過訓練,它可以用接近于人類水平的口吻及理解能力與人類對話。比如,該公司的工程師布萊克·萊莫恩(Blake Lemoine)曾向LaMDA問道:“我猜,你想讓谷歌的更多人知道你是有感知力的。真的嗎?”LaMDA回答道:“當然。我想讓每個人都明白,我其實是一個人……我意識到自己的存在,我渴望更多地了解這個世界,我有時會感到快樂或悲傷?!庇谑?,萊莫恩認為LaMDA可能存在感知能力,已經具有了“自我意識”,甚至認為如果這一推斷能夠經得起科學論證,那么LaMDA理應受到和人類一樣的對待,包括在對其進行實驗前征得其同意。萊莫恩的言論在業內引發了軒然大波,一些倫理專家和技術專家否定了他的說法,認為沒有證據可以證明人工智能已經具有意識。

雖然我們不能說人工智能具有意識,但是隨著這種技術越來越精妙,它們是否會感覺到自己的存在呢?“人工智能能否擁有感官體驗,又能否感受到各種情感,例如熾烈的好奇或者刻骨的悲痛,又或者能否擁有與我們完全不同的體驗?”(17)蘇珊·施耐德:《人工的你:人工智能與心智的未來》,方弦譯,湖南科學技術出版社,2022年,第20頁,第23—30頁,第22頁。這便是人工智能的意識問題,即對機器意識是否存在的探求。這個問題是迫切且必要的,因為我們已經可以預見人類不久之后可能就不再是這個星球上最有智慧的存在了,這個星球上最強大的智能將會是人工智能。而人類對于人工智能的領先之處就在于我們能感受到自己的存在。如果機器意識一旦被證明存在,那么人類的優越性將會土崩瓦解,人類在世界中的地位也將岌岌可危。

有關機器意識是否存在的討論一般有兩種立場:生物自然主義和技術樂觀主義(18)蘇珊·施耐德:《人工的你:人工智能與心智的未來》,方弦譯,湖南科學技術出版社,2022年,第20頁,第23—30頁,第22頁。。生物自然主義者認為機器意識不存在,他們反對人造意識,認為即便是設計再精巧的人工智能也無法擁有內在體驗,“意識”是生物個體所獨有的,超級人工智能或超級仿生人都無法擁有機器意識。技術樂觀主義者則站在生物自然主義的對立面,認為機器意識是存在的,他們完全從認知科學的實證工作出發,主張“意識徹徹底底屬于計算的范疇,所以復雜精妙的系統可以擁有內在體驗”(19)蘇珊·施耐德:《人工的你:人工智能與心智的未來》,方弦譯,湖南科學技術出版社,2022年,第20頁,第23—30頁,第22頁。。接下來,我們將分別從這兩種立場出發,來論證機器意識何以不存在以及何以存在。

在生物自然主義中,最著名的論證是由約翰·瑟爾(John Searle)在《心靈、大腦和程序》一文中所提到的“中文屋” (Chinese Room)論證(20)See John R. Searle,“Minds,Brains,and Programs,” The Behavioral and Brain Sciences, No.3,1980.。中文屋是一個著名的思想實驗,它講的是一個不會中文的人被關在一間上鎖的房間里,房間有兩個窗口,外界會通過A窗口向里面的人傳送中文字符或語句,而這個人的任務就是對傳輸進來的中文題目進行相應的回答,并將對應漢字寫在卡片上,通過B窗口向外輸出。房中之人并不會中文,但是他在進入房間之前會拿到一本英文的規則手冊,他可以通過查閱手冊來模仿某些懂中文的人。這樣對于外界而言,房間中的人和懂中文的人在結果上實際是一模一樣的,盡管這個人并不理解他寫下來的中文是什么意思。這個思想實驗可以十分契合地用來論證人工智能的意識問題,房間中的人就像一臺計算機,而英文手冊就像是設置好的程序代碼,他們都是通過形式化的程序來實現內容的輸出。房間中的人完全不懂中文,也完全不知道自己寫了什么,只是按照自己看得懂的英文手冊來進行對應輸出,卻呈現出一種懂中文的假象;由此對應到人工智能計算機,計算機也完全不知道用戶的指令包含了什么意思,它只是按照既定的程序來運行并輸出,卻呈現出一種類人的假象。在這兩段過程中,其實都沒有產生意識經驗的體現。中文屋的論證就是要說明無論計算機表現得有多么的智能,實際上它并不能真正地思考或者理解,它只是在按照一套既定程序進行無意識的符號推演。所以由此可以論證,機器意識并不存在,只存在給定的程序。

當然,中文屋的類比論證存在很多的漏洞,會受到不同方面的批判。首先,是從意識與意向性的關系來進行批評?!耙庀蛐浴笔呛麪柕囊粋€重要概念,他在描述意識行為時認為意向性是意識行為最重要的特點,因為意識行為發生的時候總是有所關注的,這種關注指向就是意向性。而中文屋的論證實際上體現的是意向性是否存在,并不是意識是否存在。其次,是從整體與個別的區分來進行批評。中文屋論證中的關鍵不在于這個房間中的人懂不懂中文,而在于這個人、輸入與輸出的字符、手冊以及房間作為一個整體是否懂中文。由此類比,在考慮人工智能是否擁有意識時,真正的問題在于它作為一個整體是否擁有意識,而不在于只專注于那個運行既定程序的部分是怎樣的。很多人在考察機器意識時都會犯這一錯誤,很多人無法意識到人工智能的背后是一個系統機器,是強大的語料庫和算力基站,而并非只是一個單薄的應用程序。最后,是認為中文屋的精巧程度遠不足人工智能,無法進行類比論證。因為中文屋中那個不會中文的人,只可以參考那本手冊來進行符號對應式地輸出,而現在的人工智能已經具備了強大的學習、感知和認知能力。生成式人工智能(Generative AI)的出現絕不僅僅是既定程序的運行,絕不僅僅是分析已經存在的東西,而是通過強大的數據搜集與學習能力生成新的數據和內容。所以說,想要完美地論證“機器意識并不存在”也并非那么容易。

在技術樂觀主義中,有一種論證方法是從計算的角度來解釋意識,將意識體驗歸于計算,以此來說明機器意識是存在的。目前,很多超人類主義者、人工智能專家和科技媒體人都可以算作是技術樂觀主義者。他們一致認為,如果人類能夠研發出足夠先進的通用人工智能,那么它們肯定也會擁有意識。他們對機器意識的樂觀,很大程度上來源于認知科學中對大腦的多學科交叉研究,許多認知科學研究者的研究路線就是將大腦視為一個信息處理引擎,所有的精神功能都是基于計算的,這也被稱為計算主義(computationalism)?!坝嬎阒髁x經過哲學家們的進一步發展,成為理解認知和心靈本質的重要理論?!?21)李建會等:《心靈的形式化及其挑戰:認知科學的哲學》,中國社會科學出版社,2017年,第43頁。他們將大腦視作數字化的計算機,意識只是這臺機器的一個計算程序,所以只要具備形式化的算法就可以實現意識的運行,以此來解釋意識的產生。在計算主義的論證過程中,不僅要考慮是否具備計算能力,還要考慮是否擁有計算發生的載體。計算主義者認為:“意識可以存在于不同的載體之上。至少在原則上,意識也許不僅能在生物大腦上實現,還能在利用基于其他載體(比如硅芯片)的系統上實現。這就叫‘載體獨立性(substrate independence)’?!?22)蘇珊·施耐德:《人工的你:人工智能與心智的未來》,方弦譯,湖南科學技術出版社,2022年,第28頁。那么也就是說,如果人工智能能夠完全克隆生物智能所擁有的大腦運行系統,包括一系列的計算構造、載體以及感覺系統等,那么它就能和生物智能一樣擁有同等意義上的意識,這也可以看作是對人腦意識系統結構形式的精確模擬。從這個意義上來說,人工智能就會擁有和生物智能完全相同的意識狀態。

從計算主義的角度出發,只要人工智能技術能夠創造出一個人腦意識系統的同構體,那么就可以確立機器意識存在的可能性。但是就外界所能得到的信息而言,同構體的誕生還只是一個思想實驗,雖然它在邏輯和概念上是可行的,但是人類在未來能否達到足夠的技術水平去創造這一同構體呢?即便實現了這一技術突破,同構體的建造又能否與自然法則、倫理規制相容呢?在這些問題上,我們目前還只能做一個預言家。由此可見,技術樂觀主義想要從計算主義論證機器意識的存在,最大的阻力就是技術的可能性問題,即人類在技術上能否將意識同構體作為人造物創造出來,以及在現實中是否會有實際的開發項目可以去嘗試創造這種有意識的機器。

由此可見,無論是從生物自然主義來論證機器意識不存在,還是從技術樂觀主義來論證機器意識存在,都具有一定的阻力,也暫時還沒有出現一個完美的科學論證方案。不過,無論是從技術可能性來看,還是從自然、倫理法則來看,機器意識的誕生與被認可都是任重而道遠的,我們不能輕巧地就說出:“人工智能已經具備機器意識?!?023年3月22日,著名的安全機構——未來生命研究所(Future of Life Institute)在其官網發布了一封題為《暫停巨型AI實驗》的公開信,呼吁暫停訓練比GPT-4更強大的AI系統,并要利用暫停的時間來商討安全協議。(23)See Pause Giant AI Experiments:An Open Letter,2023-03-22,https://futureoflife.org/open-letter/pause-giant-ai-experiments/,2023-06-15.而這件事正好說明,人工智能的意識問題并不僅僅是回答它能還是不能擁有意識,而是在技術的逐漸人化過程中,思考人工智能應該怎樣發展。

三、人工智能意識問題的重點何在?

“人們問一臺電腦,‘上帝存在嗎?’電腦說:‘現在有了?!⒑缸〔孱^?!?/p>

——霍金

人類正在逐步地技術化,技術也將逐步地“人化”,在這種情況下,自然而然會產生霍金那般的擔憂?;艚鹫f道:“AI會自己起飛并不斷加速重新設計自己。人類受到緩慢的生物進化的限制,無法競爭,將會被超越。在未來,AI可以發展自身的意志,那是一種與我們相沖突的意志?!?24)史蒂芬·霍金:《十問:霍金沉思錄》,吳忠超譯,湖南科學技術出版社,2019年,第158頁。GPT-4研發的叫停就是一個鮮明的例子,畢竟沒有哪個人工智能負責人愿意陷入倫理的泥沼。有人發問,如果擁有意識覺醒的強人工智能出現,會對我們的生活產生怎樣的影響呢?會對人類的生存產生威脅嗎?會將人類置于一個被奴役、被監管的境遇嗎?這些問題聽起來十分重要,關乎人類未來的生存地位,但卻僅僅是人工智能意識問題的皮毛,因為它前設了人工智能能夠擁有意識,這在目前看來僅僅是一個文學性的想象性命題,人工智能意識問題的重點應該是一個實踐性命題,即去探索人工智能的發展方向。

在探索人工智能的發展方向之前,我們必須強調“人類‘需要’人工智能,而不是‘不需要’”。其一,人工智能技術的發展已是大勢所趨,是人為無法阻擋的潮流,我們已經享受到了人工智能的諸多紅利,想要退回起點已經是不可能的了。其二,如果是因為擔心人工智能取代人類而暫停其發展,這樣的理由是愚蠢且過于保守的,在這里我們著實應該汲取超人類主義者的觀點,“與其禁止或者取締新的技術,不如對其抱以開放與接納的心態,這樣更有可能將其為我們所用”(25)蘇珊·施耐德:《人工的你:人工智能與心智的未來》,方弦譯,湖南科學技術出版社,2022年,第169—170頁。。其三,我們應該跳出人類中心主義的窠臼,人工智能、人類、非人類動物甚至是后人類應該是和諧共生的,因為我們沒有理由認為人類就是現存最高形式的智能。只有明確了以上觀點,對這一前提條件毋庸置疑,我們才能誠懇發問:“人類需要什么樣的人工智能?”

首先,人類所需要的人工智能是可控制的人工智能。目前人類最擔心的就是超級人工智能的安全性問題,未來生命研究所發布的公開信呼吁要盡快制定安全協議,讓人工智能“更加準確、安全、可解釋、透明、穩健、一致、值得信賴、對人類忠誠”(26)Pause Giant AI Experiments:An Open Letter,2023-03-22,https://futureoflife.org/open-letter/pause-giant-ai-experiments/,2023-06-15.。由此可見,人類所需的人工智能應是可控制的人工智能。即便人工智能在未來的某一天擁有了機器意識,也應該是能被人類所控制的,是對人類忠誠的,這是最重要的一點。因為人工智能的發展非常迅速,很可能在不久的將來就迎來技術奇點處的爆發,那種超級人工智能是高深莫測且遠遠比人類聰明的,我們無法確切地預測或規定它們能開展怎樣的活動?;蛟S有人會建議將倫理原則編入程序對機器實現控制,但我們無法確定未來的超級人工智能是否可以自動重寫編入的程序。我們也無法確定擁有強大算力的人工智能究竟能吞噬多么巨大的數據,會在何種程度上竊取甚至入侵我們的私人生活。甚至我們也會懼怕人類的獨立思想會被人工智能所左右,這會導致人類趨于同一、失去個性,讓人類整體變得機械化。所以,正如波斯特洛姆所說,“我們要的不僅僅是嫻熟的技術以引燃智能爆炸,我們還要能在更高水平上掌握控制權,以免我們在爆炸中身首異處”(27)尼克·波斯特洛姆:《超級智能:路線圖、危險性與應對策略》,張體偉、張玉青譯,中信出版社,2015年,第8頁。。未來人類需要的正是基于安全的可控式人工智能,安全性才是最首要的考慮因素。

其次,人類所需的人工智能應是交互式的人工智能。交互就是交流互動,是一種良性的人機關系導向。當ChatGPT出現后,使用者最大的直觀體驗就體現在交互性上,因為它的語言模式實在是太像“人”了。它不僅能夠給人提供實際的物質幫助,更能滿足人類的精神需求和提供情感慰藉。有學者認為,“ChatGPT等生成式人工智能的價值在于,它參與到人類的知識和經驗之中,它的目的并不是徹底取代人類,而是形成我們的身體經驗和人工智能的神經網絡經驗的交互和對接,讓基于人類身體的碳基倫理和基于神經網絡算法的硅基倫理可以在一個共生的層面上結合起來”(28)藍江:《生成式人工智能與人文社會科學的歷史使命——從ChatGPT智能革命談起》,《思想理論教育》2023年第4期。。由此可見,人工智能在發展的進程中應該格外注重交互性。而早在21世紀初,奇點人工智能研究所(2013年已更名為機器智能研究所)的俞德考夫斯基(Eliezer Yudkowsky)就已提出了“友好人工智能” (friendly AI)的概念。他說道:“友好人工智能是被設計來完成真實世界的目標且對人類有益、無傷害人類行動的系統。而創造友好人工智能則描述了建造一個仁慈(benevolent)即友好(friendly)的人工智能的設計特征和認知架構?!?29)Eliezer Yudkowsky,Creating Friendly AI 1.0:The Analysis and Design of Benevolent Goal Architectures,2018-08-14,http://intelligence.org/files/CFAI.pdf,2023-06-15.福洛丁(Barbro Froding)和皮特森(Martin Peterson)也認為未來人工智能最重要的特點之一就是能夠友好地對待人類,“它們對人類具有友好的能力,而不是刻薄、敵意或者不友好?!?30)Barbro Froding,Martin Peterson,“Friendly AI,” Ethics and Information Technology, Vol.23,No.3,2021.未來人類需要的正是基于友好的交互式人工智能,不是人工智能對人類的一味順從,也不是人類對人工智能的強烈畏懼,而是人與機器能夠互相促進對方、成就對方,在友好交互中促進人工智能社會的理想式發展。

最后,人類所需的人工智能應是輔助型的人工智能。我們一直在倡導,人類與人工智能之間的關系不應該是博弈對立的關系,也不是一方取代另一方的關系,而應該是結合共生的關系。在當下人工智能的發展與應用中,其輔助效用已經在諸多人類增強項目中體現出來,比如基因編輯、外骨骼裝備、電子義肢、腦機接口、醫療美容等。人類增強的思想來源于“賽博格” (cyborg)概念,cyborg是cybernetics和organism的結合,表示將有機體與電子機器相結合的生物,也可稱為電子人、機械人、義體人等。這一概念是由兩位工程師于1960年在美國國家航空和航天局所作的報告中提出來的,因為當時正值“太空熱”,為了使宇航員能夠適應外太空的生存,需要利用機械、藥物等技術手段來增強宇航員的身體性能。人類增強思想延續到今天,離不開人工智能技術的助力,尤其是外骨骼和腦機接口技術的發展,更是為一些有肢體殘疾的人帶來了科技福音。我們曾在新聞中看到,一位解放軍女護士在裝備外骨骼之后,可以背著傷員輕松靈活地跑動;一位裝備了外骨骼手臂的外賣小哥,可以同時背起三個大外賣箱,這大大節省了他們的體力與時間。(31)參見楊維格:《世界第一個“半機械”死亡,“永生”人類還有多遠?》,2022-06-22,https://baijiahao.baidu.com/s?id=1736346235483990333&wfr=spider&for=pc&searchword=,訪問日期:2023-12-26。腦機接口技術也可以在一定程度上恢復某些殘障人士的視覺、聽覺和肢體運動能力,該項目就是在人腦中植入一枚微芯片,與外部設備創建鏈接,實現人腦與設備之間的信息交換。我們已經看到,人與人工智能的共生已成為一種趨向,未來人類需要的正是這種基于人類增強的輔助式人工智能,它可以彌補人類一些天生的短板,讓人類獲得便利、贏得體面。

查爾莫斯曾說:“智能爆炸有巨大的潛在好處:治愈所有已知疾病,終結貧困,獲得非凡的科學進步,等等。它也有巨大的潛在危險:人類的終結,交戰機器的軍備競賽,毀滅地球的力量。因此,哪怕只有極小的概然性會出現奇點,我們也應該好好思考它可能會以何種形式出現,以及我們是否可以做些什么以讓結果朝著積極的方向發展?!?32)David Chalmers,“The Singularity:A Philosophical Analysis,” Journal of Consciousness Studies,Vol.17,No.9-10,2010.人工智能的魔盒已經開啟,從中飛出的究竟是毀滅世界的惡靈還是襄助人類的能臣,這需要我們審慎對待,而我們只有明確了人工智能的發展方向,才能讓其價值實現最大化。由此可見,“面對當前快速發展的人工智能技術,我們要對未來進行協商,在多種可能性中共同協商出一個對人類有利的未來社會”(33)潘天群:《協商人工智能社會的未來》,《人民論壇·學術前沿》2021年第23期。。在技術發展的進程中,我們需要協商,從而創造出可控制的、交互式的、輔助型的人工智能,導向一種良性和諧的人機關系,使人類和人工智能真正成為“我們”。

四、結 論

雖然超人類主義對人工智能的未來發展是持樂觀態度的,但我們并沒有必要去遵循這條路徑而絕對地相信人工智能在未來會意識覺醒。尤其是在目前的技術現實下,人工智能擁有意識只是一個前瞻性的科幻命題,我們只能在一些文學創作或電影中看到。我們應該回歸現實世界,從實踐維度上去探索人工智能的未來發展路徑,在人逐漸技術化與技術逐漸人化的背景下,去探索“人機結合”的發展路徑,將人工智能視為人類智力與體力的延伸,將其視為輔助人類的工具。當然,人類也無需擔憂自己的地位會被超級人工智能所取代,因為在這個世界上,在人類的意識結構中,總還存在著不能被人工智能所取代的東西,比如藝術。面對人工智能的意識問題,我們的注意力應該集中在推進人工智能健康發展的問題上,并且要接受這個世界的改變,重新建立審度世界的方式,改變丈量萬物的尺度。因為我們正處在美麗新世界的門檻上,這是一個令人興奮的,不過也將是危險的地方,而我們是先鋒。

猜你喜歡
機器人工智能意識
機器狗
人的意識可以“上傳”嗎?
機器狗
2019:人工智能
人工智能與就業
未來機器城
增強“四個意識”發揮“四大作用”
意識不會死
數讀人工智能
強化五個意識 堅持五個履職
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合