?

AlphaGo勝利后,人工智能朝哪走

2016-04-01 22:27李名清
財經 2016年9期
關鍵詞:李世石棋手人工神經網絡

李名清

不論這是一場程序測試賽,還是一場營銷宣傳秀,由谷歌掀起的人工智能熱潮或許會在公眾視野中消退,但在產業界與科技界,這股大潮才剛剛開始

AlphaGo與李世石“人機大戰”現場

隨著李世石投子認輸,谷歌的阿爾法圍棋(AlphaGo)被韓國棋院破例授予圍棋名譽職業九段。至2016年3月15日,這場“人機大賽”第五局落幕,AlphaGo以4∶1戰勝雄霸棋壇十多年的韓國職業九段李世石。

AlphaGo在前三局取得連勝,至第四局被人類棋手的“神奇一手”打亂陣腳,輸掉一局。第五局種,AlphaGo執白,雙方都耗盡各自兩小時常規時間,李世石用掉兩次讀秒。直到比賽收官階段,雙方一直處于膠著狀態,評論員認為他們旗鼓相當、交替領先。AlphaGo開局形勢并不占優,但之后逐漸減小差距,最終險勝。

AlphaGo代表人工智能(Artificial Intelligence,AI)贏下人類頂尖棋手,讓普遍看好李世石5∶0橫掃機器的圍棋界,從失落中看到AI超越人類的學習與計算能力,開始考慮是否重新審視延續千年的圍棋理論;而希望AI五番棋全勝的科技界,則看到了能獨自對弈的機器,在人類的圍追堵截下也會程序“短路”,下出俗手。

通過人機對戰,谷歌第一次讓全球的視野聚焦于人工智能。僅在比賽期間,國內就有多家公司相繼推出或宣布研發人工智能圍棋程序,科技界也在為人工智能配備更好的軟、硬件尋求解決方案,讓裝載上千個CPU的AlphaGo們變得便宜易得,進入尋常百姓家??墒?,要實現人工神經網絡學習能力的遷移,科學界還有很長的路要走。

技術集合出新高度

3月12日,韓國棋手李世石與谷歌圍棋系統AlphaGo對戰第三盤。

中國圍棋職業九段羅洗河在北京的家中,通過網絡直播觀看“人機大戰”。不同于其他圍棋高手,羅洗河會留意AlphaGo程序上的失誤。他曾寫過多年的圍棋電腦程序,但仍對AlphaGo決策系統與學習能力感到震驚。

在羅洗河看來,AlphaGo與人類棋手對弈時,雙方下的是不同的兩盤棋。棋手下的圍棋是在構思、構圖,在進攻或者防守;但對于電腦來說,它只有一種勢力范圍的概念,在具體的接觸戰中,是靠有限窮舉來決定步法。

AlphaGo的開發者,谷歌旗下的DeepMind公司CEO戴密斯在賽前發布會上稱,AlphaGo的決策系統依賴于自身的價值網絡與策略網絡:前者評估棋盤位置,后者選擇下棋步法。

AlphaGo在練習時是自己和自己下棋,它的神經網絡通過一種新的方法訓練,會結合與人類比賽中學到的技藝。

在學習中,AlphaGo“吸收”了超過3000萬種來自圍棋專家的步法,又通過自我對弈,逐漸學會了如何識別圍棋的格局陣法,找出提高奪冠機會的移動步法。

戴密斯接受《財經》記者采訪時表示,AlphaGo前后共有18個不同的系統版本,而與李世石對戰的系統是第18版本?!拔覀円恢弊屟b載了不同版本的AlphaGo進行對戰,場面很有意思,你絕對不會看到一個重復的動作?!?/p>

除了《自然》雜志1月底刊發的封面文章,與賽前發布會上的程序介紹,DeepMind沒有透露更多有關AlphaGo的技術細節。

Facebook人工智能組研究員田淵棟在“知乎”上發文分析,AlphaGo的兩個網絡是13層的人工神經網絡,其結構與谷歌圖片搜索引擎識別圖片的結構相似?!斑@些層能夠做分類和邏輯推理,經過過濾,13個連接的神經網絡層產生對它們看到的局面進行判斷?!?/p>

在中國科學院自動化研究所復雜系統管理與控制國家重點實驗室主任王飛躍看來,AlphaGo采用的分布式計算、深度學習、人工神經網絡、蒙特卡羅樹搜索技術,都是已有的技術,谷歌將其組合起來達到了驚人效果,“從論文中就能看到,其實并沒有新‘發明”。

王飛躍賽前預測不管誰輸誰贏,五番棋都將是5∶0,最終4∶1的結果讓他對AlphaGo“刮目相看”,“19年前超級電腦‘深藍戰勝國際象棋世界冠軍卡斯帕羅夫,更像是應用數學贏了,而這次,實實在在是人工智能贏了?!?/p>

同樣是人工打造的“深藍”,由開發者從國際象棋大師那里獲得信息、提煉出特定的規則,本質上是由人教會這個機器去下棋,這更像是一種死記硬背的填鴨式的學習方式。王飛躍分析,放在圍棋中,“深藍”的常規計算方法就不會奏效了。DeepMind已經找到了發展人工智能的最佳路徑,谷歌研發團隊應該能很快從技術上找到進一步優化AlphaGo的解決方案。

模仿人腦不容易

“誕生”于1956年的人工智能,已走過一個甲子,經歷過多次高潮和低谷。這次讓其火遍全球,接近應用的是深度學習。

上世紀五六十年代,人工智能剛提出時比現在還火,可是人類始終找不到有效訓練它的方法?!吧疃葘W習出來之后成了燎原之勢,人工智能借此取得各種各樣的進展?!敝锌圃河嬎慵夹g研究所研究員史忠植說。

2006年,加拿大多倫多大學教授、機器學習領域的泰斗Geoffrey Hinton,在《科學》雜志發表文章論證了兩個觀點:多隱層的神經網絡具有優異的特征學習能力,學習得到的特征對數據有更本質的刻畫,從而有利于可視化或分類;深度神經網絡在訓練上的難度,可以通過“逐層初始化”來有效克服。

這就是訓練機器的思路,被稱為深度學習,即借鑒生物的多層神經網絡處理模式所發展起來的智能處理技術,是最接近人類大腦的智能學習方法。

2013年,《麻省理工技術評論》把“深度學習”列入年度十大技術突破之一。

深度學習,顯然是更好的算法,能夠處理未標記的數據,其抽象特征的能力與大腦的學習過程相似。今天,機器學習算法的改進,至少可以分析更多種類的數據,包括結構化、半結構化與非結構化數據。

在深度學習技術出現之前,過去采取的方法是程序員耗費巨大的精力編寫程序,輸入機器然后執行預定的功能,而現在有了深度學習技術以后,人類只需要編寫讓機器深度學習的程序,機器就能夠實現在龐大的數據積累過程中通過學習來實現智能化操作,并且其水平可以在數據增加的過程中不斷得到提升。

深度學習在維基百科中被定義為“一組針對具有多層輸入結構模型而設計的機器學習算法”。其中,具有多層輸入結構的模型主要指深層神經網絡,即包含多個隱藏層的人工神經網絡。

可見機器的深度學習,主要依賴于模仿人類大腦的人工神經網絡,該網絡用硅結合計算機模擬人類大腦的神經網絡,核心元器件是CPU(中央處理器)與GPU(圖形處理器)。與擁有6層的人腦神經網絡相比,用于深度學習的人工神經網絡常常把層數做的非常多。AlphaGo的神經網絡有13層,微軟研發的一款人工智能更是擁有152層之多的神經網絡。

人腦中有上千億的神經細胞,這些神經細胞的形狀就像變壓器和它外部的電線,是由細胞體以及其外部纖維組成的。它們通過纖維互相連接,傳遞信息,而連接神經細胞的突觸數量不計其數。

中科院計算技術研究所研究員陳云霽接受《財經》記者采訪時分析,目前人工神經網絡中神經元的數量最大也只能達到千萬級別,“與人腦相比,AlphaGo的‘腦只相當于人腦的一小塊而已”。

對于計算機,別說上千億的神經細胞,即便是相當于千萬級規模神經細胞的網絡,一般的機器也處理不過來。谷歌公司研發了谷歌大腦,為了訓練它識別一個貓臉,用1.6萬個CPU核跑了7天才得以實現。

陳云霽表示,如果要用通用CPU去做出一個人腦規模的神經網絡來,需要約1600萬個CPU核,“你會發現每分鐘都有一個壞掉,就算你雇傭工人壞一個換一個,也換不過來”。

谷歌公布的數據顯示,與李世石對戰的單機版AlphaGo,配備有176個GPU和1202個CPU,占用一個機房并配備大功率的空調,還有一群專家進行系統維護。

盡管如此,愛學習、不會疲勞、不看對手臉色的AlphaGo,也“馬失前蹄”了。第四盤比賽中,李世石在第78手的“神奇一挖”,讓機器“慌了神”,連續下出近20手讓職業棋手匪夷所思的棋。

中科院計算技術研究所副研究員陳天石分析,AlphaGo的失誤與處理器有正相關的關系?!坝嬎銠C的運算能力有限,當運算碰到瓶頸時,機器就會采用比較弱的決策機制來下棋,導致一連串失誤發生。如果底層處理器更強大一些,硬件能力翻倍,就可以避免上述問題?!?/p>

他將人工神經網絡中的硬件與軟件比作碗與水,“只有碗夠大才能裝足夠多的水”,如果人工智能的硬件夠強大,就能執行更為復雜的運算,有更強的深度學習能力。

未來的人工智能要實現突破,就需要配備更加高級的人工神經網絡,這就要求軟件不斷升級。同時CPU與GPU處理速度要加快上百倍、上千倍,體積要更小、易用性要更高。

2014年,陳云霽、陳天石課題組在國際上提出了首個深度學習處理器架構——寒武紀,并研發出寒武紀的指令集DianNaoYu。DianNaoYu指令直接面對大規模神經細胞和突觸的處理,一條指令即可完成一組神經細胞的處理,并對神經細胞和突觸數據在芯片上的傳輸提供了一系列專門的支持。模擬實驗表明,采用DianNaoYu指令集的深度學習處理器相對于x86指令集的CPU有兩個數量級的性能提升。

“如果AlphaGo換成寒武紀架構的芯片,芯片數量可以大幅減少,體積也可以變得更小,易用性更高?!标愒旗V判斷,目前來看,人工神經網絡在硬件方面的突破可能會來得快一點?,F在的GPU和CPU不是為了智能處理設計出來的,它們本質上是做加減乘除,而人腦是大自然鬼斧神工幾億年進化而來,要把人工神經網絡真正做到“類腦”,還有很長的路要走。

通用AI這條路很長

AlphaGo一定程度上征服了圍棋,可谷歌有更大的野心,“我們研究的是面向所有問題的元解決方案,未來的通用人工智能技術,其中一個用途就是將非結構化的數據轉化為可用信息?!?/p>

目前的人工智能技術,在計算機視覺、語音識別、自然語言處理、音頻識別與生物信息學等領域都有應用。戴密斯在接受《財經》記者采訪時稱,AlphaGo代表的人工智能技術未來將應用于醫療服務、谷歌電視盒子與手機之中。谷歌公司已與英國國家醫療服務體系(NHS)展開合作,谷歌將為其提供可視化、統計基礎信息的軟件,隨后將更成熟的機器學習技術運用其中。

然而,以上人工智能系統還只是面對一個特定問題進行設計,所能學習的也只是單一的行為。AlphaGo向世人展現了強大的學習能力與計算能力,可其本身只是一個圍棋對弈程序。

實際上,人工智能從誕生第一天起就面臨一個問題:理解常識性的知識,并根據常識知識解決不確定的問題?!澳壳斑€看不到通用人工智能的任何希望,但是針對特定問題,AlphaGo已經給出特定的路徑?!蓖躏w躍說。

國內職業棋手通過AlphaGo與李世石的對弈發現,人類棋手要想建立起良好的局面、最終贏得比賽,必須要有勢力范圍的概念,讓棋盤上勢力范圍的構成更加復雜。棋局形勢的復雜化,能夠迫使AlphaGo需要搜索的空間急劇加大,其短時間內的計算精度就會大打折扣。這是看似無所不能的人工智能暴露出的短板。

臺灣大學醫學工程學研究所人腦實驗室教授林發暄對《財經》記者分析,“人類受到生物性質的限制,無法進行快速的訓練,但人類的學習可以從不同的層面來補強,例如,由抽象的規則與狀態的描述來增加學習的效率。這點人工智能目前尚無直接對應的能力?!?/p>

人作為一個生物個體如何在充斥各種刺激、目標與狀態下,能穩定地從事“學習”來調整這些連結關系,如何產生“意識”,目前科學界尚不能回答,人工智能在可預計的未來也無法做到。

“AlphaGo說明了對于清楚定義單一價值的工作,計算機可以勝任。但我們生活的世界并不是凡事都有清楚且明確價值的世界。這點我想人工智能還要花很長的一段時間才有機會和我們在其他的生活層次產生對話?!绷职l暄表示。

科學家們也認同,要實現人工神經網絡學習能力的遷移,最終使其應用通用化,科學界還有很長的路要走。

本刊記者左璇,實習生閔敏、侯力嘉對本文亦有貢獻

猜你喜歡
李世石棋手人工神經網絡
利用人工神經網絡快速計算木星系磁坐標
2019年下半年男子棋手等級分
人工神經網絡實現簡單字母的識別
人機大戰
李世石不代表人類
90后棋手走在路上
基于聲發射和人工神經網絡的混凝土損傷程度識別
波信號的解調和人工神經網絡的損傷識別算法
李世石“天才”繼承人
業余棋手錯覺
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合