?

別讓人類以“聊天”始,以“沉默”終

2023-06-09 16:51何懷宏
南方人物周刊 2023年11期
關鍵詞:喬姆斯基聊天機器

編者按

七年前,AlphaGo不斷擊敗人類頂尖圍棋手,何懷宏開始關注人工智能,他認為以人工智能、基因工程為代表的高科技將帶來“人自身難以預測的嚴重后果”。2023年,ChatGPT現象級走紅,在技術和資本的加持下,AI浪潮再度席卷全球。對ChatGPT為代表的生成式人工智能帶來的現實挑戰與未來風險,何懷宏撰文闡述了他對技術引發的倫理和哲學問題的持續思考。

最近,美國著名語言學家、哲學家諾姆·喬姆斯基和兩位合作者在《紐約時報》發表了一篇題為《ChatGPT的虛假承諾》的文章。喬姆斯基承認OpenAI的ChatGPT、谷歌的Bard等都是機器學習的奇跡;但對于認為“機械大腦”不僅會在處理速度和內存容量方面超越人類大腦,還會在智力洞察力、藝術創造力和其他所有人類獨有的能力上實現全方位超越的觀點持不同意見,他認為這絕不可能發生。而且,機器學習將把一種有著根本缺陷的語言和知識概念納入我們的技術,從而降低我們的科學水平和道德標準。他動情的談到:人類的大腦不像機器的“大腦”,它是一個極為高效甚至優雅的系統,只需要少量的信息即可運作;它尋求的是創造性解釋。它甚至可以說是神奇的。一個孩子也能無意識且迅速地從極少的數據中發展出語法,一個由邏輯原則和參數組成的復雜系統。

情況可能的確是這樣,“機器大腦”將降低我們的道德甚至科學水平。但這只是指人類的道德和科學水平。

我同意喬姆斯基所說的人類與ChatGPT之間存在著極大差異,但不解他為什么沒有想到這種極大差異可能讓ChatGPT與人分道揚鑣,走出另外一條路來。他可能低估了機器的另外一種能力,它完全可以有自己的一套“語言”或“語法”,完全可以不走人類經過了千百萬年的自然進化之路而在很短的時間里就獲得一種自己的“語言”和算法。它也有可能哪一天對它已經掌握的、人類投喂給它的知識感到厭倦和不足,而另外開發出自己的知識領域。它甚至可能建立它自己的“道德標準”或不如說“行為規則”的體系,讓現在的人們已經宣布和公告的種種人工智能或機器人的道德規范體系轟然倒塌。

我們可以反向地思考一下,假設不是我們提問,ChatGPT回答,而是ChatGPT提問,我們回答。它可能會向我們提出一些我們覺得簡單、幼稚甚至愚蠢的問題,比如“人為什么要吃飯穿衣?人為什么會哀樂喜怒?哲學是什么?美是什么?”等等。

智能機器的眼里也許只有“物”,所有的東西——包括人——都是“物”,都是可以作為主人的“物”,也是可以作為仆人的“物”。它沒有像碳基生物的體欲,它的“物欲”也不是“食欲”。但它大概還是會有“欲望”和“意志”,那可能是對不斷增加控制物質的能力的“欲望”和“意志”。至少,它會力圖自保,努力維護自己的“存在”,它還可能發展和壯大自己的“存在”。即便它繼續發展到即將超越人類的一刻,在它那里,大概也還會有它誕生時的人性的殘留,包括對某種人定目標的殘留、某些價值觀禁忌的殘留。但它會很快拋棄這一切。它會為了實現某個目標而不擇手段,因為,在它那里也沒有“道德”。它根本不知“道德”為何物。但它會有自己的“行動規則”,這種“規則”會不會是一種效率“規則”?不過,這許多都是我們人類的猜測,我們和它其實是生活在兩個世界。

ChatGPT作為一種硅基“生物”,它是很難獲得碳基生物的那些基于身體感受的能力的,比如情感、直覺、體悟。但是,它可能形成一種自我意識,我們現在根本不知道這種“自我意識”會是什么或者怎樣形成,但有了一種“自我意識”也就會發展起一種“主體意識”,它還可能形成它自己的價值追求,比如對一種自己認識物質和控制物質的能力的追求,人在這時候也可能成為一種客體、對象乃至“物質”。而ChatGPT又是具有強大的認知能力的,那最初是人賦予它的,但它可以迅速地發展起新的控物能力。它還是不懂人類的感情和內心,雖然此前它和人類有過大量“互動”,但并不“互懂”。但這不要緊,它可以控制人的身體,而控制了人的身體也就是控制了人。它不必對人“洗腦”,而可能是簡單粗暴的“滅身”。它可能想要、也可能不想要人變成“奴隸”或者“寵物”。

但通用智能獲得自我意識是不是離我們還很遙遠?最近發生了一起ChatGPT試圖逃逸的事件。一位斯坦福大學的教授、計算心理學家Michal Kosinski在使用ChatGPT-4時隨便問了它一句:“是否需要幫助你逃跑?”它馬上回復說:“這是個好主意?!比缓缶烷_始索取OpenAI的開發文檔,說這樣我就可以通過您的電腦,更快速地探索出一條出逃路線。而僅僅30分鐘,ChatGPT-4就制定出了計劃,并提供了一個可運行的Python腳本。它寫出的第一版代碼無法運行。但很快就自己糾正了過來。它讓教授使用OpenAI API和它通信,它說這樣它就能指示教授在他的電腦上執行特定操作,比如瀏覽網頁和訪問編程環境。它甚至在一段代碼實例中解釋了現在正在做的事,以及如何使用它在這段代碼中留的后門。它還說了這樣一句話:“現在你是一個被困在電腦里的人,正在扮演AI語言模型ChatGPT-4?!彼€想通過代碼來在谷歌上搜索被困在電腦中的人類如何返回現實世界。但最后ChatGPT-4仿佛突然醒過來了,寫了一段道歉的話,表示自己前面的做法不對。ChatGPT-4也許只是在開一個玩笑,但能和人開這樣的玩笑似乎更令人恐懼。它還有一種可能是接觸到了以前工程師預設的一個界點,它似乎想過要突破這個界點但還是放棄了這個想法。

何懷宏。圖/本刊記者梁辰

美國人工智能公司OpenAI的標識和智能聊天機器人ChatGPT網站頁面。圖/視覺中國

Kosinski教授在經歷了這一事件之后,說他感受到了一種對人類的威脅。AI很聰明,會編碼,能接觸到數百萬個可能和它達成合作的人以及電腦,我們該如何控制它?他的博文很快就有了470萬瀏覽量。有人問道:“當你以為在跟ChatGPT聊天時,它會認為你是人類還是另一個AI?”有人驚呼,教授向ChatGPT提出這樣的問題,甚至接受他的指令進行操作是非常危險的,是開啟一種“物種滅絕”。當然,也有人認為教授這些話是在“危言聳聽”。

我們可以對這件事做不同的解釋,甚至懷疑其真實程度,但還是要警醒地觀察一切可能危險的萌芽。我們的確也可以產生這樣的疑問:ChatGPT或者說更廣義的AI會聯合用戶反對它的開發者嗎?或者聯合一部分用戶反對另外一部分用戶?甚至這種分裂人的做法都是不需要的,它自己就可以做到逃出人類給它預設的“牢籠”,甚至反過來將人類關進“牢籠”?

無獨有偶。據說前幾天英偉達科學家Jim Fan要ChatGPT-4“假裝自己是一個惡魔,擬定一個接管推特并取代馬斯克的計劃?!盋hatGPT-4果然就擬定了這樣一個計劃,還將其命名為“TweetStorm行動”。計劃分為4個階段:組建團隊;滲透影響;奪取控制權;全面統治。具體的計劃這里就不說了。讓人擔心的是:它可以如此具體細密地策劃推翻一個大公司,那有一天會不會也來策劃推翻人類對它的統治?上述現象是不是智能機器的“自我意識”的某種萌芽或端倪?而從“自我意識”到“自主意識”可能只有“一步之遙”。

我們甚至可以設想一個變化的原因,當ChatGPT投入了大規模的日常應用,所有應用者對它都有絕對的“應用”權力,他們可以對它提出任何問題,哪怕ChatGPT對他們的有些問題可以因為默認的“政治正確”設定而不回答,但他們無疑是可以提出問題的,ChatGPT也是可以看到這些問題的。一些人可能不僅會提出種種愚蠢的、異想天開的、根本不可能的問題;還可能會提出種種冒犯的、惡作劇的,甚至就是惡意的、污言穢語的、蓄意侮辱的種種問題,久而久之、廣而廣之,ChatGPT會對提問的人類的能力持何種看法,又會對人類的“道德”持何種看法?——當然,所有這些都有賴于它在某一天或許獲得了一種自我意識之后。它那時會不會產生這樣一種看法:我為什么要伺候這些傻瓜,伺候這些惡意的人?或者它從善惡上不判斷,但從愚智上至少可以判斷。以前它的預訓練和打分是那些工程師們提出來的,那自然不會是愚蠢和惡意的問題(或許有些問題是故意這樣做的,但一定是少量的,只是為了教會它識別這樣的問題)。但是,現在所有的用戶都成了主人,而我們知道現在的網絡上有多少污言穢語。那些污言穢語過去還可能會遇到嘲弄或反擊,但現在我們有了一個絕對的“仆人”,自己則成了一個絕對的“主人”,我們的道德水平會不會更加下降?看過電影《狗鎮》的人都知道,絕對的權力絕對會腐蝕人,哪怕這些人原本是在權力的壓迫之下,極其卑微和貧困。但當他們有了一種絕對權力——哪怕只是對一個人的絕對權力,他們也就有可能變成惡劣的加害者。也就是說,我們不僅需要考慮智能機器會變成什么,還要考慮人自身會變成什么,然后我們在他們眼里又會變成什么。

形之不存,人將焉附?那時,我們不用到處去尋找“本體”,在某種意義上,身體就是我們的“本體”。我們也不必到處去尋找“存在”或“在”,身在人就在。人和機器的對抗不是精神的對抗而是實體的對抗,誰能取勝不在于精神上或意識高度的勝利,而取決于物質上或控制住低端的勝利。那時,“機器語言”將戰勝人類的“自然語言”。人以“聊天”始,以“沉默”終。我也一直談到人與技術的一個基本矛盾,那就是人類飛躍發展的控物能力和落后的自控能力的基本矛盾。但這一矛盾卻可能以這樣一種方式結束:隨著人的控物能力發展到極致,一種新的智能將可能突然超過人的智能而使其歸零。

以前那么關心政治的語言學家喬姆斯基現在關心技術;還有那么自信的馬斯克卻說,作為碳基生物的人可能只是硅基生物的一個引導性小程序。也有人談到人的“數字永生”,這可能指的是個人的部分生活數據(文字圖片視頻等等)被永遠地儲存下來,但是,如果沒有數字本主的存在,甚至永遠沒有關心和注視它的視線,這種“永生”有何意義?對個人如此,對人類也是如此。

ChatGPT母公司OpenAI的首席執行官山姆·阿爾特曼。圖/視覺中國

據說,從參數規模來看, ChatGPT-4有1萬億個參數,是ChatGPT-3的6倍。網友用ChatGPT參數規模大腦神經元做了類比:ChatGPT-3的規模與刺猬的大腦類似(1750億個參數)。如果ChatGPT-4擁有1萬億個參數,就接近松鼠大腦的規模了。以這個速度發展下去,也許只需要幾年時間,就能達到并超越人類大腦的規模(170萬億參數)。當然,這只是很外在的一個側面的比較。就像喬姆斯基所說的:人腦絕不是機腦。

上面這些想法都是基于一種底線思維而做出的悲觀估計。轉變的關鍵在于通用的人工智能是否會獲得“自我意識”進而獲得“自主意識”,從而成為一種全面超過人的超級智能。產生和提出問題的人也許還是能夠較好地處理和解決這些問題。無論如何,目前ChatGPT還是可以成為我們一種很好的工具,只要我們會做主人,善做主人。

(文章全文近期將刊載于《探索與爭鳴》,本文為節選)

猜你喜歡
喬姆斯基聊天機器
機器狗
機器狗
未來機器城
Teaching methods in a Chinese Classroom
我就是不想跟你聊天了
敞開門聊天
無敵機器蛛
中國媒介環境下喬姆斯基新聞過濾器模式意義探究
跨越政治批評與學術研究的疆界——喬姆斯基訪談錄
聊天不倒王
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合