?

生存或者毀滅:超級人工智能將給人類帶來什么?

2019-10-10 17:50讓-保爾·德拉埃
南方周末 2019-10-10
關鍵詞:博格里斯主義者

讓-保爾·德拉埃

當人工智能在越來越多的領域超越人類時,我們不得不思考它到底會發展成什么樣,又會對人類社會產生哪些影響。

讓-保爾·德拉埃

(Jean-Paul Delahaye)

人工智能領域的科學家已經取得了一項驚人的成就。戴維·希爾弗(David Silver)是DeepMind團隊的負責人,他和團隊共同研發的AlphaZero從掌握初步規則開始,通過自己與自己對戰,獨立學會了國際象棋、圍棋和將棋(日本棋類游戲)。對于這三種棋類游戲,AlphaZero已經超過了最好的人類棋手。

這一進步非常了不起。1997年,計算機深藍(Deep Blue)打敗了國際象棋世界冠軍加里·卡斯帕羅夫(Gary Kasparov),它結合了優秀的算法與對棋局的出色理解。最好的人類棋手也貢獻了關于開局、殘局和局面評估的專業知識,從某種意義上來說,是人類將這些知識“教”給了程序。

而AlphaZero不同,不需要由人類專家向它傳授自己掌握的知識。對于這樣的棋類游戲,AI可以獨立學習,快速達到人類需要幾個世紀才能累積的高度。AlphaZero的研發人員表示:“無論對于國際象棋、將棋還是圍棋, AlphaZero使用的都是同樣的算法,同樣的網絡結構。結果表明,通用強化學習算法(即能夠勝出的決策將被算法優先選擇)能夠從一塊白板出發,學會任何事物。它不需要依靠知識,也不需要來自人類的特定經驗?!?/p>

隨著人工智能快速發展,這個領域也開始面臨越來越迫切的問題。研究人員、哲學家還有技術預言家紛紛開始辯論,設想未來可能出現的種種矛盾。無論是感到期待還是恐慌,沒有人會懷疑人工智能將主導我們的未來。這種主導作用也許是通過互聯網,也許是與人類融合。

許多思想家都曾經深入思考過超級人工智能(以及它對人類的態度),試圖以此預測未來的趨勢。我們將探討尼克·博斯特羅姆(Nick Bostrom)、雷·庫茲韋爾(Ray Kurzweil)、本(Ben)和泰德·戈爾澤爾父子(Ted Goertzel)、漢斯·莫拉維克(Hans Moravec)、弗朗西斯·海利根(Francis Heylighen)、雨果·德·加里斯(Hugode Garis)和克萊蒙·維達爾(Clement Vidal)的思考。

評論的風口浪尖

當我們還不了解一件事物時,往往會作出夸張的設想,討論它的性質時也會出現兩極分化的觀點。但是,正如劇作家拉辛(Racine)借他筆下人物所說,AI無法承擔我們過分施加的榮耀,也不至于因為它引發的憂慮而遭受羞辱。

盡管我們對AI取得的成就感到震驚,也意識到它可能會造成巨大的影響,但不能被狂熱沖昏頭腦。AI在許多高度專業化的任務中都取得了驚人的成績,但它仍然難以勝任所有需要常識的任務,例如翻譯文學作品。自動駕駛也被寄予厚望,但是專家仍然保持謹慎,認為我們至少需要50年的時間,才可能制造出完全自主駕駛的汽車,讓乘客能夠安心在后排看書。

在我撰寫的專欄中,曾經提到過一些能夠欺騙圖片識別軟件(基于深度神經網絡的算法)的方法。比如,所有人都能一眼看出這是一門大炮的照片,算法卻把它識別成了鴕鳥。

雖然人工智能已經在越來越多的專業任務中取得了令人矚目的成就,但它卻面臨兩方面的障礙。首先,對于同樣的任務,AI獲得結果的方式與人類的方式完全不同,它借助技術設備和計算,不需要人類介入。例如,部分自動駕駛汽車上裝配的雷達和激光,它們計算和存儲海量信息的能力遠遠超過人腦;另一方面,盡管取得了這樣的成就,AI仍然無法將多種專業能力結合起來,形成一個自洽的、具備常識的系統。我們無法合理地推測它們是否具備自我意識,擁有感知能力、幽默感,甚至是完備而穩定的“人格”。

總是失誤的預測

1958年,赫伯特·西蒙(Herbert Simon,1978年諾貝爾經濟學獎得主)宣稱,在未來10年中,計算機將在國際象棋中打敗人類冠軍。他正確預言了我們將取得的成就,卻弄錯了等待的時間——他的預言過了40年才實現。

1966年,英國著名統計學家歐文·古德(Irving Good)為斯坦利·庫布里克(Stanley Kubrick)的電影《2001太空漫游》擔任顧問,他設想在2000年將出現一個強大的人工智能,達到甚至超越人類的智力水平?,F在的人工智能還沒有達到這個水平,期待強大人工智能的人們只好推遲這個期限。谷歌工程技術總監庫茲韋爾和奇點大學(位于美國加州的一所私立學校)聯合創始人及董事長彼得·戴曼迪斯(Peter Diamandis)認為這個期限是2030年,而AI研究者泰德·戈爾澤爾和本·戈爾澤爾則認為要等到2040年,甚至2100年。

這很可能會像國際象棋AI的發展一樣:我們實現了目標,只是晚得多。因為這個問題非常困難,我們只有經過年復一年的努力才會實現這一點。如今,最合理的預測也許是不要作出任何預測!

對于必將到來的超級人工智能,人們提出了一個叫做“奇點”的概念,盡管誰也無法真正了解它究竟是什么。也許是某個日期,到時候地球上人工智能的能力曲線將以接近垂直的方式增長?也許是某個事件,機器毀滅人類,奪取了權力?也許是某一時刻,由于超越人類的人工智能帶來了翻天覆地的變化,人類再也無法理解這個世界?

即便考慮著名的“摩爾定律”(計算設備的能力每18個月到2年就會翻倍,過去50年的發展基本符合這一定律),“奇點”理論也不會很快成為嚴重的威脅。一方面,摩爾定律預測的增長是一個指數函數,它不會趨于直線;另一方面,在我們的物理世界中,所有的指數增長都會很快遇到阻礙,進而停滯不前。沒有人認為摩爾定律會無限延續下去(它已經遇到了困難)。最后,盡管計算和存儲能力持續增長,也無法確保我們始終知道如何使用這些能力,創造出足以和我們對抗的通用型人工智能。

對于谷歌、蘋果、臉書、亞馬遜和微軟在這方面發出的宣言,我們應該審慎地看待。和這些技術公司的發言人相比,一些研究人員的態度要謹慎和清醒得多,例如法國國家科學研究中心(CNRS)倫理委員會主席、人工智能專家讓-加布里埃尓·加納西亞(Jean-Gabriel Ganascia)。加納西亞認為,那些人想要發起一個由企業主導、超越國界的大型項目,可能只是出于無盡的貪欲。奇點的概念被用來轉移注意力、制造恐慌,但實際上這主要是為了勸阻其他人,并掩飾自己想要占據統治地位的野心。

盡管無法確切地知道超級人工智能出現時是什么情形,但也無法阻止我們深入探討、投下賭注。我們可以想象多個不同的場景,不設定具體期限,甚至考慮任何猜想都不正確。

尼克·博斯特羅姆在他的書中定義了超級人工智能,并設定這種智能在任何一個方面都大大超過人類的認知能力。他還提出了兩個截然不同的假設。

(a)基于硅的機器(包括量子計算機)進入實用領域并不斷發展,最終這些人造設備在一切可能的智力活動中達到甚至超過人類水平,就像AlphaZero一樣。而我們與它們的功能沒有發生直接聯系,也沒有在肢體上與人工智能設備融合或相連接。

(b)基于生物性元素(人類或其他的)與信息技術設備結合的產物。簡單地說,就是人類發明的高級技術與生物體有機地結合在了一起,他們之間是相互融合的。這種形式也有可能發展出超級人工智能。

勢力分化?

研究人工智能的加里斯則將滿足假設(a)的智慧生物稱為“人工大腦”,并設想了一種基于這類技術的未來,我們將在下一部分討論這種場景。

而長久以來,科幻作品都采用了假設(b),并將這類結合了生物和信息技術,具備超級智能的混合體稱為賽博格(cyborgs,或改造人)。例如,假設為了彌補記憶局限,我們給自己插入容量高達到數太字節(TB)的芯片,從而能夠直接在大腦中讀取整部維基百科的信息。與此同時,借助一種能夠通過可以瞬間讀取的數學計算模塊,我們能立刻回答“720等于幾”或“sin(cos(x))的五階導數是什么”之類的問題。我們的智力將大幅提升。

有時也會提到第三個假設:一臺全球化的大腦,各地的機器通過網絡交換信息,構成了某種去中心化、具有思想的存在。我們稍后再回到這個假設。

悲觀的加里斯

加里斯認為:“社會將會分成三個哲學派別,派別之間將發生激烈的斗爭。第一個派別由宇宙主義者構成,他們支持建造人工大腦;第二派別由地球主義者構成,他們反對建造人工大腦;而第三派別則支持賽博格,他們希望對大腦進行改造,從而把自己變成賽博格?!?/p>

加里斯的著作《人工大腦之戰》(The Artilect War)介于科幻小說和嚴肅的未來學著作之間。在這部作品中,他認為三個派別之間的戰爭不可避免,并且在他看來,這場戰爭將比地球上發生過的任何戰爭都更慘烈,將在21世紀造成超過十億人死亡。地球主義者在這場戰爭中獲勝的希望非常渺茫,如果他們要取得勝利,就必須趕在另外兩個可能結盟的派別察覺到威脅之前采取行動。在接受探索頻道的訪談時,加里斯就曾表達過他的憂慮:“我很高興能活在這個時代,我很有可能會平靜地躺在自己的床上死去。但是我為我的孫輩感到擔憂,他們可能被卷入人工大腦的戰爭,并且很可能因此喪命?!?/p>

有趣的是,盡管超人類主義者在法國不受待見,加里斯也在書中對他們表達了譴責或嘲笑,但他們卻非常樂觀地捍衛自己的主張。超人類主義者認為應當毫無保留地發展增強技術,對人類進行改造——不能止步于眼鏡、助聽器和心臟起搏器,而是要采用一切可能的技術延長壽命、提升智力和強化身體機能。簡而言之,他們支持賽博格的思想,屬于賽博格主義者的陣營。他們將和宇宙主義者結盟,避免被地球主義者消滅。

至于賽博格主義者和宇宙主義者之間會發生什么,超人類主義者和加里斯發生了分歧。大多數超人類主義者認為,人類賽博格將與具備超級智能的機械設備共存,不會發生生物學上的結合;而超人類主義者相信,將生物性元素(特指他們自己)和電子技術元素深度結合能夠增強人類獲得長生不死的能力,這才是人類未來的關鍵。

加里斯的設想恰好相反:和人工大腦可能取得的成就相比,超人類主義簡直無足輕重。在他看來,將生命體和未來的信息技術相融合只是一種幻想:人工大腦將對改造人這樣的怪物不屑一顧,它只會毀滅改造人。

而作為世界超人類主義者協會(World Transhumanist Association)聯合創始人,博斯特羅姆也不認為人工大腦會對人類(人工大腦的創造者,最終會成為賽博格)采取和平友善的態度。他催促人們審視未來的智能產物,將它們視為一種威脅。博斯特羅姆的作品得到了埃隆·馬斯克(Elon Musk)、比爾·蓋茨(Bill Gates)和李彥宏的推崇,這種看法似乎打動了他們,使他們開始傳播恐慌信息(也就是所謂的人工智能威脅論)。

在加里斯看來,人工大腦(具備意識的人工智能,或極其智能的機器)不會友好地容忍人類甚至賽博格的存在,他說:“這個想法就像是尾巴搖狗一樣,顯然很荒謬。狗可比它的尾巴大得多,尾巴根本無法搖動狗。但超人類主義者認為人工大腦會和人類保持友好,這就犯了同樣的邏輯錯誤……我認為這種觀念是狂妄而天真的。它假設人類足夠智能,即便面對一個能力超出人類幾十億倍的個體,也能正確判斷它的動機?!?/p>

?下轉第21版

?上接第19版

其他可能

加里斯忽略了另一種思潮:世界上所有的個體并不一定要互相競爭,而是相互連接,成為一種全球尺度的超級有機體。這種觀點直接排除了“終結者之戰”的可能。

這種全球大融合的觀點常常被認為是宗教性的。它存在于佛教的哲學中,也出現在天主教耶穌會哲學家德日進(Pierre Teilhard de Chardin,1881-1955)的思想中。德日進提出了“智慧圈”,這種“一體性的思想由人類的交流形成,覆蓋了地球表面”。

比利時哲學家弗朗西斯·海利根堅定地認為:超級人工智能將通過互聯網傳播,形成一個類似超級大腦的存在。他指出:“這個全球化的大腦將克服全球性超級有機體可能遭遇的挑戰。它的能力將遠遠超過我們現有的水平,將具備某些神性的特質:無所不知(知道我們的一切問題的答案)、無處不在(存在于任何時間和地點)、無所不能(能夠以最高效的方式生產任何物品或服務)、博愛眾生(致力于為最多的人帶來最大的幸福)?!?/p>

比利時布魯塞爾自由大學的哲學家克萊蒙·維達爾研究宇宙主義,他引用了威廉·斯塔福德(William Stafford)的詩句“所有的戰爭都有兩個失敗者”,指出暴力往往是非理性的。而斯蒂芬·平克(Steven Pinker)詳細論述了世界會越來越和平,盡管我們覺得這個過程過于漫長,但它仍然是可被測量和解釋的。一方面,無論我們是否愿意,所有人對所有人的相互依賴都使我們彼此產生聯系。博弈論和對囚徒困境模型計算模擬的結果都支持這樣的分析。這表明,合作才是多個社會和政治團體理性的選擇。

殊途同歸

“復雜性的倫理”是最后一個論據,可以證明“地球上不同動機的群體最終會結成一個利益共同體”的想法并不荒謬。如果按照這個倫理的預測,所有的智慧生物都會選擇為一個普世價值共同體服務,將向著共同的目標行動,不再有發動戰爭的動機。

盡管不同的討論顯示可能存在某種共同的方向,但這并不能保證當超級人工智能出現時(如果它們會出現的話),將與我們這些或多或少變成賽博格的人類和平結盟,并且在這個過程中沒有任何一方試圖消滅其他群體。在我看來,我們或許可以堅持一種極其簡單的信念:并不是地球上生物性的軀體才具有人性,他們生產和制造的一切事物也應該有,甚至讓這些事物得以存在的一切也有。地球在未來演化出的超級集合體會更加智能,內部之間的聯系也越來越團結和緊密,尤其是在地球上剛剛出現的幾個不同派別之間。這種討論會永久避免加里斯設想的內部戰爭,因為戰爭變成了某種形式的自殘甚至自殺行為。

到這里我們已經超出了科幻小說的范疇。目前看來,我們要小心避免抨擊任何對這個問題的思考,不要斷言它們是愚蠢和不成熟的。AlphaZero已經證明,我們能夠借助機器取得不可思議的成就:人工智能再也不是一個遙遠的夢。另一方面,物聯網的快速發展將把全世界所有的參與者聯系起來,構成一個致密的繭。毫無疑問,它將形成一個全新的結構,所有的事物都依賴于所有的因素。而我們就像我們的人工智能一樣,不過是其中的組成部分。

(Scientific American中文版環球科學授權南方周末發表,戚譯引翻譯)

猜你喜歡
博格里斯主義者
老爸的智慧
博格巴 完美救贖
博格巴:秀出真我本色
假如有一天,編輯把外星人“綁架”了
別號光陰馬格西·博格斯
柏拉圖主義者與亞里士多德主義者
你是柏拉圖主義者還是亞里士多德主義者?
愛情“哲學”
更正
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合