?

人工智能的適應性知識表征與推理

2019-01-22 06:18魏屹東
關鍵詞:缺省知識庫范疇

魏屹東

關于表征,一般來說,是指信息在人腦中儲存和呈現的方式,這就是通常所說的心理表征。心理表征的外化往往是通過符號,如自然語言、形式語言、圖形等方式呈現的。以命題形式(陳述句)呈現的知識通常被稱為陳述性知識。相比而言,以純符號如邏輯和數學方程呈現的知識被稱為程序性知識。在人工智能中,表征知識的方式通常是抽象的、形式化的或邏輯式的,一階邏輯是最常用的表征工具。然而問題是,人工智能主體是如何通過邏輯推理表征這個真實世界的最重要方面,如行動、空間、時間、思想以及購物的呢?也就是通過何種途徑表征和推理關于這個世界的事實,表征與推理是否是適應性的?這就是人工智能的適應性知識表征與推理問題。關于這個主題,21世紀以來國際上曾經召開過兩次會議(2005年,[注]International and interdisciplinary conference on adaptive knowledge representation and reasoning, http://research.ics.aalto.fi/events/AKRR05/index.html。關于適應性知識表征與推理(AKRR)的國際和跨學科會議于2005年6月首次在芬蘭的埃斯波召開,會議提出知識表征和推理是人工智能的傳統領域,在現代社會中它們不僅是各種信息系統和網絡中的底層結構單元,也是認知科學和認識論的核心主題。由于傳統模式是基于謂詞邏輯、語義網絡和其他符號表征的,因此該會議涉及的相關問題包括我們如何知道我們所知道的,我們如何能夠使用有效推理,我們如何在知識表征與推理的模型和應用中使用計算機。該會議的目的是探討統計潛在變量模型、向量空間表征、統計機器學習、人工神經網絡和動態系統等替代表征和算法。這些挑戰對于生命科學也非常有意義,因為在生命科學中,疾病機制的復雜性和新藥的開發過程需要新的方法。此次會議探討了認知和社會系統中知識的產生、復雜性和自組織問題:知識是如何在人類和計算機中介網絡中創造和建立的,以及語言作為知識建構的適應媒介的作用。2008年[注]International and interdisciplinary conference on adaptive knowledge representation and reasoning, http://research.ics.aalto.fi/events/AKRR08/。第二屆適應性知識表征與推理(AKRR)國際和跨學科會議于2008年9月在芬蘭的波爾沃召開,它雖然在主題上延續了2005年的,但其目的是將研究經驗科學中復雜現象的科學家和開發處理復雜性的計算方法的科學家聚集在一起。經驗科學方面包括認知科學、社會學、教育心理學、經濟學、醫學等方面的研究人員,方法科學方面涉及發展統計機器學習、動力系統理論和適應系統的研究人員。會議還旨在與那些遇到復雜現象的從業人員密切聯系,因為他們正在尋找應對管理和戰略決策方面的挑戰的新方法。關于這個主題的第三次會議至今還沒有召開,原因不詳。),有力地推動了該問題的研究,本文試圖從認知哲學視角探討知識表征與推理在人工智能中的適應性問題。

一、表征抽象概念的本體論框架

我們知道,做任何復雜的事情,如網上購物,在擁堵的路上開車,都需要更普遍和靈活的表征。對于人來說,這并不是什么難事,但對于人工主體(相對于人類主體)這類智能體而言就不那么簡單了。即使是人工主體,它對復雜活動的表征也會涉及一些普遍概念,如事件、時間、物理客體和信念等,這些概念會出現在許多不同的領域中。在人工智能中,對這些抽象概念的表征有時被稱為本體論工程(ontological engineering),概念的通用框架被稱為上層本體論(upper ontology),也就是一個概念關系的整體框架。例如,自然世界的上層本體論框架用樹結構可表征為(圖1):[注]Stuart J.Russell,Peter Norvig,Artificial Intelligence: A Modern Approach,清華大學出版社2011年版,p.438。

圖1 自然世界的上層本體論框架

這種一般或通用本體論有什么作用呢?在筆者看來,它不僅提供了一個總概念框架,也提供了范疇、客體、事件、測量、時間等之間的內在關系。這種通用本體論一般有兩個特征:其一,它或多或少可應用于任何專用域,這意味著,在這個通用本體論覆蓋網下,沒有什么表征問題不能夠被巧妙地處理;其二,在任何完全充分的高要求域,知識的不同領域必須是統一的,因為推理和問題解決能夠同時包括幾個領域,例如,一個機器人的電路維修系統,不僅需要根據電路的連接和物理分布推出電路故障的原因,還要推出時間,包括電路定時分析和評估勞動成本。因此,描述時間的語句必須能夠結合那些描述空間分布的語句,必須能夠在納秒和分、埃和米長度之間同樣有效地運作。

當然,能夠應用于所有領域的通用本體論是不存在的,也不存在一個所有人工主體都能夠使用的共同本體論,因為社會、文化、政治等因素使得通用本體論變得異常困難,正如一個特定文化圈的人很難同時接納不同異域文化傳統和習俗一樣(如儒家文化圈的人不易接受或適應其他文化傳統和習俗)。人工智能一般使用專用或特定知識工程,它創造專用本體論通常有四個路徑:(1)訓練有素的本體論者或邏輯學家創造本體論并寫出公理,如CYC系統;[注]CYC源于encyclopedia(百科全書)。Cycorp是由Douglas Lenat成立并領導的、致力于實現人工智能的公司。CycL是Cyc的基于一階邏輯的專有知識表征語言。1986年Lenat就預測過,若想要完成CYC這樣龐大的常識知識系統,至少會涉及25萬條規則,并將要花費350個人1年才能完成。CYC知識庫中一般采取三段論推理形式的知識,推出正確結論。該知識庫中大約有320萬條人類定義的語句,涉及30萬個概念,15000個謂詞。這些資源都采CycL語言和謂詞代數描述,語法上與Lisp程序設計語言類似。(2)從一個或幾個現存的數據庫,輸入范疇、屬性和賦值,如從維基百科網絡輸入結構化事實建立的DBpedia系統;[注]DBpedia是一個特殊的語義網應用系統,能夠從維基百科詞條里提取結構化的資料,以強化維基百科的搜尋功能。它是世界上最大的多領域知識本體論之一,是Linked Data的一部分。(3)從數據庫剖析文本文件,提取信息,如通過大量閱讀網頁建立的TEXTRUNNER系統;(4)鼓勵無技能的業余愛好者進入常識知識領域,如用英語提出事實的志愿者建立的OPENMIND系統。

總之,在通用本體論結構中,范疇、客體(包括心理的)、事件(包括心理的)及其推理系統,在其中起到十分重要的適應性表征作用。

二、客體范疇化與事件運算的適應性表征與推理

范疇化是指將概念化的客體歸入某個類,如將虎、獅、豹歸入貓科。在人工智能中,將客體組合到范疇是知識表征的一個重要部分。一方面,盡管我們與世界的相互作用發生在個體客體的層次,但是大量推理發生在范疇層次,比如,我想買水果,但不是某類具體的蘋果,蘋果屬于水果范疇。另一方面,一旦客體被分類的話,范疇也提供對客體做出的預測。你可以從可感知的輸入推出某客體的在場,從所感知的客體的屬性推出范疇身份,然后使用范疇信息做出關于客體的預測。例如,從一個客體有綠、黃色相間的皮,20厘米大小的直徑,雞蛋的形狀,紅瓤兒、黑子,擺放在水果攤上,你能夠推知那個客體是一個西瓜,可食用,還能夠推知它可用于做沙拉。

若用一階邏輯來表征范疇,我們有兩個選擇:謂詞和客體。具體說,我們可以使用謂詞fruit(f),或者將這個范疇具體化為一個客體,fruit(水果)。于是,我們能夠得出成員member(f, fruit),可縮寫為f∈fruit,即,f是fruit范疇的一個成員;亞集subset(apple, fruit),可縮寫為apple∈fruit,即,蘋果是水果的一個亞范疇。范疇也可以通過為其成員提供充要條件來定義,比如“a bachelor is an unmarried adult male”(單身漢是沒有結婚的成年男人),用一階邏輯表達就是:

x∈bachelor≡unmarried(x)∧x∈adult∧x∈male

當然,一個范疇能夠通過繼承組織結構來簡化知識庫。例如,“食物”這個范疇的所有實例是可食用的。如果說“水果”是食物的一個亞類,“蘋果”是水果的一個亞類,那么我們可以推出,每個蘋果都是可食用的,個體蘋果繼承了可食用性的屬性,因此“蘋果”可歸入“食物”的范疇。

概言之,一個客體,無論是自然類還是人造物,其有些屬性是內在的,即屬于那個客體本身的材料(質料),而不是那個客體作為整體的屬性(事物)。這意味著一個客體有兩個方面:事物“things”與質料(stuffs),如蘋果和蘋果的組成成分。如果將一個質料一分為二,兩個部分仍然是同一種質料,即保持內在屬性,如密度、沸點、色彩、味道等,而它們的外在屬性,如重量、長度、形狀等,已發生改變。諸客體的一個范疇,包括在其定義內的內在屬性,是一個物質或質量名詞;一個類,在其定義內包括任何外在屬性,是一個可數名詞?!百|料”這個范疇是最普遍的物質范疇,具體說明不存在任何內在屬性?!笆挛铩边@個范疇是最普遍的離散客體范疇,詳細說明不存在任何外在屬性。因此,在人工智能中,客體的范疇化是其內在屬性與外在屬性的統一,其表征是基于情境的形式主義描述。

對客體的范疇化過程實質上就是認知事件的過程,由于事件是行動過程,事件也可以通過運算來表征行動及其結果,這就是事件運算(event calculus)。事件運算是指一種基于一維動態性的時間而非情境的形式主義,其目標是具體化流動和事件。例如流動(張三,上海)是一個客體,它指張三在上海的事實,但它本身沒有說明這件事是否是真實的。要斷定一個流動在某時某地是否的確是真實的,我們可以使用謂詞T,如T(at(張三,上海),t)。事件(系列行動)被描述為事件范疇的實例。張三從北京飛往上海這個事件E1,被描述為:

E1∈飛行∧飛行(E1,張三)∧起點(E1,北京)∧終點(E1,上海)

這個表征也可簡化為:E1∈飛行(張三,北京,上海)

如果用發生Happens(E1,i)表示事件E1在時間間隔i發生,用函數形式表示就是程度Extent(E1)=i,用時間對(start, end)(開始,結束)表征時間間隔,即i=(t1,t2),其中t1是開始,t2是結束,那么事件E1的運算的完全謂詞集的一個版本是:[注]Stuart J.Russell,Peter Norvig,Artificial Intelligence: A Modern Approach,p.446.

(真實)T(f,t) 流動f在時間t是真實的

(發生)Happens(e,i) 事件e發生在時間間隔i

(開始)Initiates(e,f,t) 事件e引起流動f在時間t開始

(結束)Terminates(e,f,t) 事件e引起流動f在時間t結束

(修整)Clipped(f,i) 流動f在時間間隔i在某點不是真實的

(恢復)Restored(f,i) 流動f在時間間隔i有時成為真實的

需要注意的是,這里假定了一個重要事件Start,它描述了初始狀態通過說明哪個流動在開始時間被啟動或者停止。如果一個流動在過去某時刻由一個事件啟動,并由一個介入事件使其不為假,則可以通過說明該流動及時在一個點的持續來定義T。如果一個流動由一個事件終止且由另一個事件使其為假,則它不再持續下去。在一個物理客體是一個時空塊的意義上,物理客體可以被看作普遍的事件。比如“美國總統”這個術語,若指代一個實際客體,它在不同時段指代一個不同的客體(人物),也即,它是一個流動的客體。美國第一任總統華盛頓任期是1789—1797年,說他1790年任總統可以寫為:T(Equals(President(USA),George Washington), AD1790)

之所以使用函數符號Equals(等價)而不是標準邏輯謂詞=,是因為我們不能有一個謂詞作為T的一個論證,也因為這個詮釋不是GeorgeWashington和President(USA)邏輯地同一于1790,邏輯同一不是一直變化的某種東西。同一性是由1790時間定義的每個客體之間的亞事件的關系。

三、命題態度與范疇推理的適應性表征與推理

盡管人工智能目前建構的人工主體(智能體)擁有信念并能夠推出新信念,但還沒有人工主體擁有任何關于信念的知識,或關于演繹的知識,以及關于其他主體的知識。這意味著關于主體自己知識的知識及推理過程,以及關于其他主體知識的知識,對于控制推理是非常有用的。因此,我們需要一個居于人心中的心理客體的模型,需要一個操作那些心理客體的心理過程的模型。這種心理模型不必是詳細的,因為我們不必有能力預測一個具體主體做演繹所需的精確時間。這關涉命題態度問題,命題態度能夠表征關于心理事件與心理客體的知識。

所謂命題態度就是對一個陳述的立場,通常由知道、相信、想要、意圖等表達,比如“我們知道那是一朵花”。命題態度表明,一個主體能夠指向一個心理客體,如心中的一朵花。命題態度表征的困難在于,它們不表現為“常態”謂詞。例如,我們試圖斷言“張三知道超人會飛”,可表達為:知道(張三,會飛(超人))。問題是,我們一般將會飛(超人)看作一個語句(超人會飛),但在這里似乎是一個術語。這個問題能夠通過具體化會飛(超人)而得到修正,讓它變得流暢。然而,一個更重要的問題是,若“超人是孫悟空”這個陳述是真的(事實上為假),那么張三知道孫悟空會飛,這個表達可表述為:

(超人=孫悟空)∧知道(張三,會飛(超人))

╞知道(張三,會飛(孫悟空))

這是等價推理介入邏輯這個事實的一個推論。如果人工主體知道2+2=4,和4﹤5,那么我們自然要求人工主體知道2+2﹤5。這種屬性被稱為指示透明性(referential transparency)。這種屬性表明,一種邏輯使用什么術語指示一個客體并不重要,重要的是這個術語所命名的客體本身。然而,對于像“相信”和“知道”這些命題態度來說,我們愿意擁有指示不透明性,這些術語的確重要,因為不是所有的主體都知道哪種術語是聯合指示的(合取的或析取的)。

這個問題可以使用模態邏輯來闡明。我們知道,普通邏輯關注單一形式,即真理的形式,允許我們表達“P是真的”。模態邏輯包括特殊的模態算子,它們將語句而不是術語作為論據。例如,“A知道P”被表征為KAP,其中K是表示知識的模態算子,A表示主體,P表示命題。這個原子表達式有兩個論據,一個主體和一個語句。除語句也能夠用模態算子形成外,模態邏輯的句法與一階邏輯完全相同。在一階邏輯中,一個模型包含一組客體和一個解釋項,這個解釋項將每個名稱與適當的客體、關系或函數相匹配。在模態邏輯中,我們要能夠考慮各種可能性,這就需要一個更復雜的模型——它是由可能世界的組合構成的,而不是僅僅由真實世界構成的??赡苁澜缰g可通過可達性關系連接起來,這種可達關系是每個模態算子所必須的,它們聯合構成一幅曲線圖。比如,通過模態算子KA我們可以從世界w0通達w1,如果w1中的每個事物與A在世界w0中所知道的相一致的話,可以寫為:Acc(KA,w0,w1),其中Acc表示可以通達。也就是說,一個知識原子KAP在世界w中是真實的,當且僅當P在每個世界中可以通達w。更復雜語句的真,都源于這個規則和一階邏輯規則的遞歸應用。這意味著,模態邏輯能夠被用來推理網狀知識的語句,即一個主體能夠知道關于另一個主體的知識。

范疇的推理系統就是通過語義網和描述邏輯來表征的。根據前述的本體論框架,范疇是大規模知識表征計劃的基本建筑模塊。運用范疇進行組織和推理涉及兩個相關的系統,一個是語義網,另一個是描述邏輯。前者為形成可見知識庫提供圖形支持,為指明一個客體的屬性在其范疇基礎上提供有效算法;后者為建構和結合范疇定義提供形式語言,為決定范疇之間的子集和父集關系提供有效算法。

語義網有許多形式,它們都能夠表征個體客體、客體的范疇以及客體之間的關系。人工智能中一種典型的圖標記法是在橢圓形或方框中顯示客體或范疇的名稱,然后用箭頭線連接起來形成語義網,例如哺乳動物與人類之間的語義網(圖2)。

圖2 哺乳動物與人類之間的語義網

這個語義網有四個客體(約翰,瑪麗,1,2),四個范疇(哺乳動物,人類,男人,女人)。它們之間的關系由箭頭線連接:瑪麗和女人、約翰與男人之間是一種Memberof(隸屬)關系,相應的邏輯表述是:瑪麗∈女人;同樣,瑪麗和約翰之間的兄妹關系相應的邏輯表述是:Sisterof(瑪麗,約翰)。四個范疇之間的關系可以使用Subsetof(亞集)連接,比如任何人都有母親,可以使用HasMother(有母親)連接人類與男人和女人。這樣,我們可以使用這種標記的語義網表征推理系統。當然也可以用一階邏輯與這種標記法的混合來表征,例如前述系統:

?x x∈人類 →[?yHasMother(x,y)→y∈女人]

這種標記法對于執行繼承推理是非常方便的。例如瑪麗和約翰是人類,所以有兩條腿,即?x x∈人類→腿(x,2)。與邏輯原理證明相比,這種推理機制的簡單性和有效性一直是人工智能語義網的主要魅力之一。

如果說一階邏輯語法使描述客體變得容易,那么描述邏輯使描述定義和范疇的屬性更容易。描述邏輯的主要推理任務是包含(subsumption)和分類(classification)。包含就是通過比較它們的定義檢驗一個范疇是否是另一個范疇的子集;分類就是檢驗一個客體是否屬于一個范疇。經典邏輯是一個典型的描述邏輯。比如“單身漢是沒有結婚的成年男性”可以寫作:單身漢=And(未婚,成年,男性),用一階邏輯表示就是:單身漢(x)≡未婚(x)∧成年(x)∧男性(x)。原則上,任何經典邏輯的描述都可以轉換成一個等價的一階邏輯句,但有些描述使用經典邏輯描述更直截了當。需注意的是,描述邏輯有一個關于謂詞的操作代數,這是用一階邏輯不能夠描述的。

描述邏輯的最重要特征或許是它強調推理的易處理性。如果一個問題能夠通過描述而得到解決,那么就看它是否被歸入幾個可能的解決范疇之中。在標準一階邏輯系統中,一方面,預測解決時間通常是不可能的事情,這個問題往往留給使用者設計表征來繞過一組語句,這組語句似乎引起這個系統花費幾周時間來解決問題。另一方面,描述邏輯中的推力就是保證包含—檢驗(subsumption-testing)能夠在描述的范圍中以時間多項式形式得到解決。

四、缺省信息的適應性表征與推理

在語義網的繼承推理系統中,存在缺省狀態,比如人有兩條腿,這個論斷可以通過更具體的信息如某人有一條腿被推翻。這類似于波普的證偽主義,所有烏鴉都是黑的,但發現有一只非黑的烏鴉就證偽了這個命題。缺省信息推理可以充實完善語義網表征。這似乎表明,人往往會草率地得出結論。比如我們看到一輛小車停在路旁,往往就自然地相信它有四個輪子,即使我們只看到三個或者兩個。盡管概率理論能夠提供一個結論說,第四個輪子的存在有極高的概率,然而,對于大多數人而言,那輛小車有四個輪子的可能性并沒有提高,除非有新的證據出現。

在科學中,這種情形較為普遍,比如人們往往認為重的物體比輕的物體下落速度快,因為人們實際看到的情形也是如此。這樣一來,情形似乎是,在缺乏任何理由懷疑這個論斷前,人們通過缺省斷定小車有四個輪子。如果獲得新的證據,比如看到司機搬一個輪子,注意到小車被千斤頂頂起,此時這個結論才能被取消。這種推理被認為是展示了非單調性,因為當新證據出現時信念集合沒有隨著時間單調地增長。為了捕獲這種行為,非單調邏輯已經通過修正的真理和推演概念被發明出來,這就是約束(circumscription)與缺省邏輯(default logic),它們的表征是適應性的。

我們首先考察約束表征。約束可以被看作是封閉世界假設的一個更有力和更精確的版本。這種觀點是詳細說明被假設的客體是盡可能假的特殊謂詞,即,對于每個客體,假(false)是除那些被知曉為真以外的東西。例如,假設我們要斷言鳥會飛這個缺省規則,可以引入一個謂詞(反常)Abnormal1(x),寫作:鳥(x)∧Abnormal1(x)→飛(x)。如果Abnormal1(x)要被限制的話,一個約束推理者有條件假設Abnormal1(x),除非Abnormal1(x)被知道是真的,如鴕鳥不會飛。這意味著,結論飛(鳴叫)是從前提鳥(鳴叫)得出的,但是這個結論不再堅持Abnormal1(鳴叫)是否可以被斷定。

約束也被看作是模型優先邏輯的一個例子。在這種邏輯中,一個語句,若在所有知識庫的優先模型中是真的,就可以用缺省狀態推演出來,這與經典邏輯中所有模型中的真的必要條件相反。對于約束來說,一個模型優先于另一個,如果它有更少的反??腕w的話。而對一個封閉世界假設,一個模型優先于另一個,如果它有更少的真實原子,即,優先模型是最小的模型。在語義網的多繼承語境中,模型優先邏輯是如何起作用的?這里用一個被稱為“尼克松鉆石”的標準例子來說明。[注]Stuart J.Russell,Peter Norvig,Artificial Intelligence: A Modern Approach,p.459.美國前總統尼克松,既是一個教友會信徒,也是一個共和黨黨員,因此,根據缺省概念,他既是一個和平主義者,也是一個非和平主義者,這似乎是矛盾的。我們可以將這種情形寫作:

共和黨黨員(尼克松)∧教友會信徒(尼克松)

共和黨黨員(x)∧Abnormal2(x)→和平主義者(x)

教友會信徒(x)∧Abnormal3(x)→和平主義者(x)

假設約束Abnormal2(x)和Abnormal3(x),則有兩個有效模型:一個堅持Abnormal2(尼克松)與和平主義者(尼克松)的模型,一個堅持Abnormal3(尼克松)與非和平主義者(尼克松)的模型。這樣一來,對于尼克松是否是一個和平主義者,約束推理者仍然是絕對的不可知論者。若我們能斷定宗教信仰優先于政治信仰,則我們能夠使用一個被稱為優先處理約束的形式主義使模型優先,在這種模型里,Abnormal3是最少化的。

接下來我們考察缺省邏輯表征。缺省邏輯是一種形式主義,其中的缺省規則能夠被寫出來產生依情況而定的、非單調的結論。根據“鳥飛”這個缺省例子,缺省規則可以寫作:鳥(x):飛(x)/飛(x)。這個規則的意思是,如果鳥(x)是真的,并且飛(x)與知識庫一致,那么飛(x)可能由缺省得出。一般來說,缺省規則的形式表達是:P:J1,…,Jn/C。其中P被稱為先決條件,C是結論,Ji是確證的證據。如果任何一個證據被證明為假,那么結論就不能被得出。出現在Ji或C中的任何變量,也必須出現在P中。例如“尼克松鉆石”的例子在缺省邏輯中用一個事實和兩個缺省規則表征就是:

共和黨黨員(尼克松)∧教友會信徒(尼克松)

共和黨黨員(x):和平主義者(x)/和平主義者(x)

教友會信徒(x):和平主義者(x)/和平主義者(x)

要解釋缺省規則意味著什么,我們需要一個概念——延展(extension)。一個延展S由最初知道的事實和源于缺省規則的一組結論構成,這樣就沒有任何附加結論能夠從S得出,而且S中的每個缺省結論的確證與S一致。對于“尼克松鉆石”的例子來說,它有兩個可能的延展:一個延展是他是一個和平主義者;另一個延展是他是一個非和平主義者。這表明優先處理計劃是存在的,其中某些缺省規則比其他規則優先,這使得某些模糊性得到解決。

需要注意的是,雖然非單調邏輯在理解其數學屬性方面已經取得了極大進步,但是仍然有許多問題沒有解決,比如,如果“小車有四個輪子”是假的,在其知識庫中解決這個問題意味著什么?什么是一組好的缺省規則?對每個獨立的規則,如果不能決定它是否屬于我們的知識庫,那么我們就會遇到一個嚴重的非模塊性問題,有缺省狀態的信念如何能夠被用于做決定?這或許是缺省推理最棘手的問題。決定通常還包括權衡,人們因此需要在不同的行動結果中比較信念的力量,權衡做出錯誤決定的代價。這些問題導致人們探討如何將缺省推理嵌入概率或效用理論。

五、真理保持系統的適應性表征與推理

在人工智能表征系統中,許多由知識表征系統得出的推論只有缺省狀態,而不是絕對確定的。這不可避免地使某些推斷的事實被證明是錯誤的,因而在面對新信息時會被撤銷或證偽。這個過程就是信念修正(belief revision)。當知識庫(knowledge base,KB)被修正以反映世界中的變化而不是關于一個固定世界的新信息時,信念修正就會發生了。假定一個知識庫KB包含一個語句或命題P,而且我們要執行告知Tell(KB,P),為了避免產生矛盾,我們首先必須執行撤銷RETRACT(KB,P)。然而,如果任何附加語句是從P推出的,且在這個KB中得到斷定,那么問題就產生了。比如蘊含P→Q可能一直被用于增加Q。這個明顯的答案(撤銷所有由P推出的語句)是失敗的,因為這個語句除了P可能還有其他正當理由(justification)。比如,如果R和R→Q也在KB之中,那么Q不必被撤銷。因此,真理保持系統(Truth maintenance system, TMS)需要不斷適應變化的世界來表征知識。

為了解決這個問題,真理保持系統被設計出來精確處理這些混亂。目前,人工智能處理TMS的方法主要有三種:

第一是記錄通過從P1標記到Pn而將語句告知知識庫的秩序方法。當發出RETRACT(KB,Pi)的指令時,系統就恢復到Pi剛剛被添加前的狀態,因此撤銷Pi和任何從Pi推出的推論,語句Pi+1通過Pn能夠再次被添加。這在真理保持系統的操作中是很簡單的方法。這種方法保證知識庫是一致的,但是撤銷Pi需要撤銷和再斷定n-i語句,以及撤銷和改寫從那些語句推出的所有推論。而對于不斷被添加許多事實的系統,如大型商業數據庫、人口普查數據庫,這是不切實際的。

第二是基于正當理由的真理保持系統(JTMS)方法,它比第一種方法更有效。在這種系統中,知識庫中的每個語句都由一個正當理由注釋,而那個正當理由則推出它的語句組成。比如,如果知識庫已經包含P→Q,那么Tell(P)會引起Q由正當理由{P,P→Q}所添加。一般來說,一個語句能夠擁有任何數目的正當理由。正當理由使得撤銷行動有效。給出指令RETRACT(P),JTMS會精確刪除對于P是正當理由的一個成員的那些語句。因此,如果一個語句Q有單一的正當理由{P,P→Q},它就會被撤銷。如果它有附加的正當理由{P,P∨R→Q},它仍然會被撤銷。然而,如果它也有正當理由{R,P∨R→Q},那么它會被省掉。這樣一來,自從P進入知識庫后,撤銷P所需要的時間僅僅依賴于從P推出的語句的數量,而不是依賴于被增加的其他語句的數量。JTMS方法假設,已考慮的語句可能被再次考慮,所以當一個語句失去所有正當理由時我們不是完全從知識庫刪除它,而只是將這個語句標記在知識庫之外。如果一個后續的斷言恢復了其中一個正當理由,我們將它標記為倒進入。這樣的話,JTMS保留了它使用的所有推論鏈,而且當一個正當理由再次成為有效時,不需要再導入語句。這意味著JTMS是依賴已經設置的語境的(即語義庫)。

第三是基于假設的真理保持系統(ATMS)方法。ATMS使得這類假設世界之間的語境轉化特別地有效。在一個ATMS中,保持正當理由允許我們通過做出幾個撤銷和斷言,迅速地從一個狀態移動到另一個,但是在每個時刻只有一個狀態被表征。一個ATMS能夠表征所有同時已經被考慮的狀態。當語句進入或被排出知識庫時,一個JTMS簡單地標記每個語句,而一個ATMS與每個語句保持聯系,其中假設語句是真實的。換句話說,每個語句有一個標記,該標記由一組假設集合構成。不過,這個語句只有在假設集合之一中的所有假設都保持的情形下才能保持。

總之,真理保持系統方法提供了做出解釋的一種機制。具體來說,一個命題P的一種解釋是一組語句E,以至于E推演出P。如果E中的一個語句已知是真實的,那么E對于證明P也一定真實提供了充分的基礎。但是,解釋也包括假設,即未知的語句是真實的,這足以證明P,如果假設是真實的話。在大多數情形中,我們會喜歡那種最小的解釋,意思是,不存在絕對的E的亞集,它也能夠是一種解釋。

六、基于知識的主體在環境中的適應性表征與推理

基于知識的主體(knowledge-based agent)是一種邏輯主體(即邏輯智能體),它能夠形成一個復雜世界的表征,使用推理過程導出關于世界的新表征,并使用這些新表征推出要做什么。這種智能主體不是通過人的純粹生物反射機制獲得智能,而是通過在知識的內在表征上操作推理過程獲得智能。因此,基于知識的主體與其環境的相互作用是產生智能的關鍵,與構成主體的質料(生物的還是物理的)沒有關系。這也進一步說明,智能行為不僅僅是有意識的生物特有的,無生命、無意識、無心靈的機器也能夠產生智能,或者說,有意識不是智能行為產生的必備前提。

基于知識的主體的核心成分是它的知識庫。一個知識庫是一組語句,[注]這里的語句是一個技術術語,類似于但不同于英語、漢語等自然語言,是自然語言與形式語言的混用形式。每個語句由一種被稱為“知識表征語言”(knowledge representation language)來表達,表征這個世界的某些斷言。當這種語句不是從其他語句給出時,有時也被稱為公理。給知識庫添加新語句的方法叫做TELL(告知),詢問知道什么的方法叫做ASK(詢問)。這兩個操作程序包括推理,即從語句導出新語句。推理必須服從這樣的規則:當問知識庫一個問題時,答案應該從先前所告知的知識庫的語句中推出。例如一個類基于知識的主體,給定一個感知對象,主體將這個感知對象添加到它的知識庫,向知識庫要求最佳行動,并告訴知識庫它已經采取了哪個行動。

同我們的其他主體一樣,這種基于知識的主體包括一個知識庫作為背景知識,將感知作為輸入,并返回一個行動。每當主體程序被喚起時,主體會做三件事:第一,告訴知識庫它感知了什么;第二,問知識庫它應該執行什么行動。在回答詢問的過程中,關于世界的當下狀態、可能行動序列的結果等,可能由外延推理執行;第三,主體程序告訴知識庫選擇了哪個行動,主體就執行哪個行動。表征語言的細節被隱藏在三個函數中,這些函數在界面是在一側實現感知器與促動器之間的連接,在另一側執行核心表征和推理系統?!爱a生感知語句”(MAKE-PERCEPT-SENTENCE)程序建構一個語句說明,人工主體在給定時間感知到給定的對象?!爱a生行動詢問”(MAKE-ACTION-QUERY)程序建構一個語句,該語句詢問在當下時間什么行動應該被執行。若“產生行動語句”(MAKE-ACTION-SENTENCE)程序建構一個語句斷言,則選擇的行動就被執行。推理機制的細節隱藏在TELL和ASK中。

因此,一個基于知識的主體能夠通過告訴它需要知道什么來建構,從一個空知識庫開始,主體的設計者能夠告訴一個接一個的語句,直到主體知道如何在其環境中操作,這被稱為系統建構的陳述性方法。與之相比,程序性方法直接將所期望的行為編碼為程序代碼。一個成功的主體通常將兩種方法結合在它的設計中,陳述性知識能夠被編制為更有效的程序性代碼。

基于知識的主體在什么樣的環境中才能發揮作用呢?這種環境就是所謂的游戲中的“魔獸世界”(the wumpus world),[注]一個典型的魔獸世界由16個方格構成,其標記方式與坐標系相同,即縱向是從下到上1—4,橫向從左到右1—4,用數字標記分別是[1,1][1,2][1,3][1,4][2,1][2,2][2,3][2,4][3,1]3,2[3,3][3,4][4,1][4,2][4,3][4,4],主體位于[1,1]中,魔獸位于[1,3]中,金子在[2,3]中,有坑的房間分別是[3,1][3,3][4,4]。一種由通道連接起來的房間組成的洞穴。在洞穴的某個地方潛伏著可怕的魔獸,凡是進入它房間的人都會被吃掉。主體能夠射殺魔獸,但是主體只有一支箭。有些房間有無底的坑,它會困住進入這些房間的任何人,但是魔獸例外,因為它太大不會掉進去。這個暗淡的環境的唯一特征是發現一堆金子的可能性?,F代計算機游戲普遍采取“魔獸世界”作為標準,這種“魔獸世界”事實上闡明了智能的某些重要特點,用PEAS[注]由性能(Performance)、環境(Environment)、促動器(Actuator)和感知器(Sensor)組合成的方法,這四個指標是設置人工智能環境常用的標準。方法可描述如下:

(1)性能指標:+1000表示帶著金子爬出了洞穴,-1000表示掉進洞穴或被魔獸吃掉,-1表示每個采取的行動,-10表示用光了箭。主體死亡或爬出洞穴,游戲結束。

(2)環境:一個4×4的16個格子房間。主體總是面向右從標記[1,1]的方格開始。金子和魔獸的位置是隨機選擇的,均勻分布,但不在開始的方格;除開始方格外其他方格可能有坑,概率是0.2。

(3)促動器:主體可以向前、左轉90°或右轉90°。如主體進入有坑或有活的魔獸的方格,就會悲慘地死掉;如魔獸是死的,則主體是安全的。如果主體試圖向前撞到墻,它就停止移動;行動Grab(搶奪)在同一個方格中若作為主體可被用于拿到金子;行動Shoot(射擊)可被用于在主體面對的方向直線射箭。箭要么擊中魔獸,要么擊中墻。主體只有一支箭,所以第一次射擊格外重要。最后,行動Climb(爬)可被用于爬出洞穴,但只能從方格[1,1]爬出。

(4)感知器:主體有5個感知器,每個都有唯一的信息:(a)在有魔獸的方格和直接相鄰(非對角線相鄰)的方格,主體會嗅到臭氣(stench);(b)在與坑直接相鄰的方格,主體會感受到微風(breeze);(c)在有金子的方格,主體會感知到閃爍(glitter);(d)當主體撞到墻時,會感知到碰撞(bump);(e)當魔獸被殺死時,它發出尖叫(scream),主體在洞穴的任何地方都能感知到。

這些感知對象以5個符號形式寫入主體程序,比如,在魔獸世界中有臭氣、微風,但沒有閃爍、碰撞或尖叫,主體程序就是[stench,breeze,none,none,none]。其他主體程序也能夠以這種方式描述。

顯然,這個“魔獸世界”是一個離散的、靜態的、單一主體的世界。它是有序的,因為補償是在許多行動被采取后才產生的。它也是一個部分可觀察的環境,因為狀態的某些方面不是直接可以感知的,如主體的位置、魔獸的健康狀況,一支箭的可用性等。至于坑和魔獸的位置,可以看作狀態的不可觀察部分,在這種情形下,環境的轉換模型完全是可知的?;蛘哒f,轉換模型本身是不知道的,因為主體不知道哪個向前的行動是致命的,在這種情形下,發現坑和魔獸的位置能夠完善主體的轉換模型的知識。

對于一個環境中的主體來說,主要的挑戰來自它對環境構架的忽視??朔@種缺陷似乎需要邏輯推理?;谥R的主體在“魔獸世界”這個環境中是通過一階邏輯、命題邏輯、語義學和推理程序表征實際世界的。這是人工智能已經闡明的問題。

七、兩個典型的適應性知識表征與推理:AlphaGo和Master

從適應性表征的觀點看,智能機的發展表明它是不斷適應人類智力而進步的。AlphaGo與韓國圍棋高手李世石的對弈是一個典型的例子。2016年3月9—15日在韓國首爾四季酒店舉行的AlphaGo與李世石的“人機大戰”成為人工智能史上的一個里程碑,舉世關注。據說AlphaGo能夠像人類一樣進行自主學習,它依賴的是所謂的“深度學習”(Deep Learning)和“增強學習”(Reinforcement Learning),統合起來就是深度增強學習(Deep Reinforcement Learning)。[注]https://zhuanlan.zhihu.com/intelligentunit這是目前人工智能最前沿的研究方向。作為智能機代表的AlphaGo是否戰勝了人類智能?[注]關于這個問題,我的看法是,目前機器智能沒有超過人類智能。這就看我們如何定義“智能”概念了。在我看來,智能應該包括計算力、感知力、預測力、直覺力、洞見力、情感力、意向力(自我意識)和自語境化力(能夠自動融入語境),這些能力統稱為人類的綜合能力。智能機顯然還沒有達到這種綜合能力,雖然它具有計算力和預測力,而且這兩種能力可能還遠遠超過人類(計算機的計算能力遠超過人)。目前的智能機顯然沒有情感和自我意識,更不能隨著語境的變化而自動融入新的語境,因為智能機畢竟還是機器,它是不依賴語境的,盡管設計者可以在一個給定范圍給它設置語境,如一個特定的語義網構成一個語義域。就人機對弈而言,雖然人輸給了智能機,但這不意味著它超越了人類的智能,理由是:(1)智能機背后是設計它的一群人,這等于是一群人借助機器與一個人對弈,一個人當然敵不過一群人,“三個臭皮匠勝過一個諸葛亮”;(2)以單一能力超強評價是“以偏概全”,狗的嗅覺比人好,鷹的視力比人好,難道我們能夠說狗和鷹超過了人的智能?同樣,計算機無疑比人的計算力強,我們不能因此說計算機超過了人的智能;(3)一個人的智能(李世石)并不能代表整個人類的智能,集體意識或者智能不是一個人能夠表現出來的;(4)機器可以連續工作,而人則不能,所以在“累”的意義上,人類就不如智能機,累會使人體力下降,專注力下降,因而會影響智力的發揮;(5)在靈活性、應變性、綜合性方面,正如前述所說,智能機遠不如人類,更不用說情感和自我意識了。它是如何模擬或適應性表征人類智能的?讓我們來分析后面這個問題。

根據目前的人工智能研究,神經網絡技術發展出一種稱為“深度神經網絡”組件,它構成AlphaGo的模擬程序(類似于人的大腦)。該程序由四部分組成:(1)快速掃描策略(Rollout Policy),用于快速掃描(相當于人的感知)棋盤,以獲取較優的對弈步驟;(2)深度模仿策略網絡(SL Policy Network),它能夠通過模擬人類棋手來學習;(3)自我學習策略網絡(RL Policy Network),它能夠基于深度模仿網絡來訓練提高對弈水平;(4)全局評估網絡(Value Network),它利用自學成長網絡對全局形勢進行判斷。如果將“網絡”比作人類的大腦(神經元網),那么AlphaGo的“大腦”實際上由四個腦區構成,每個腦區的功能都不同,每個的功能都不能與人類相比擬,但組合起來相當于人類大腦不同區域的整體功能。[注]據說,與人類棋手相比,快速掃描策略的正確判斷率只有24.2%,深度模仿策略的正確判斷率只有57.0%,網絡自我學習策略的正確判斷率則高達80%,全局評估網絡的誤差很低,均方差在0.22—0.23之間。這就是AlphaGo對人類大腦的實際模擬,通過模擬不斷提升它適應新的學習環境的能力。這與人類學習對弈的過程是一樣的。

當代腦科學研究揭示,人的大腦有1011個神經元,它們相互連接成功能強大的人腦。假如有一天智能機比如AlphaGo的深度學習網絡的組元(類神經元)達到這個數量級,其智能水平會怎樣呢?我們不得而知,也不敢去設想。假如它超過了人類智能,則會產生一系列的社會和倫理問題,比如高智能的機器人可以代替人做許多工作,甚至取代人類,這勢必對社會結構、經濟規模、人類隱私,甚至人類的存亡產生不可估量的影響。

由于AlphaGo也能夠像人類那樣擁有強大的神經網絡(人工),能夠自主學習,所以它對弈時采用蒙特卡洛樹搜索方法(多次模擬未來的棋局,選擇模擬中次數最多的走法)獲取最佳的落子點。具體思路是:(1)基于深度模仿策略網絡預測下一步走法,直到多步;(2)使用全局評估網絡進行評估,判斷棋勢,再使用快速掃描策略做進一步的預測,直到獲得模擬結果;(3)綜合前述兩者對預測未來L步走法進行評估,將評估結果作為棋局的下一步走法的估值;(4)結合下一步走法的估值和深度模仿策略網絡進行再次模擬,若出現同樣的走法,則對走法的估值取平均值,反復循環以上步驟直到n次,然后選擇次數最多的走法作為下一步。這一過程體現了AlphaGo的自主學習過程。AlphaGo是通過處理神經網絡中數量龐大的參數來學習的。

2017年1月4日結束的Master(AlphaGo的升級版)與人類60位圍棋頂級高手的較量中,以全勝戰績贏得勝利,人類棋手似乎不堪一擊。雖然Master在30秒快棋領域擊敗了人類智能,若是在慢棋領域,Master是否還有優勢?不可否認,智能機的計算速度比人快得多,若給人類棋手足夠的思考時間,結果可能不同或者相反。這還有待進一步的人機較量的驗證。

總之,人機大戰給我們提出的問題是:神經網絡的參數為什么能夠表現出智能?智能到底是什么?無人操控的智能機是否能自動產生智能行為?這些問題還有待人工智能專家、認知科學家、認知哲學家做進一步的探討。給筆者個人的啟示是:既然人類能夠按照自己的形象創造自己并未見過的上帝,那么人類自己也能夠按照自己大腦的運作方式創造出自己以外的智能(盡管大腦對我們自己仍然是個黑箱,盡管是不自覺的),甚至能夠讓智能機有意識,即實現人工意識的可能性。正如庫茲韋爾所說,“人類和機器智能之間的界線越發顯得模糊,因為機器智能越來越多地源于其人類設計者的智能,而人類智能也因為機器智能得到了更大提高”。[注]雷·庫茲韋爾:《機器之心》,胡曉嬌、張溫卓瑪、吳純潔譯,中信出版集團2016年版,第289頁。一句話,人類的思維正融入自己創造的機器智能領域,人機合體的實現恐怕為期不會太遠。

猜你喜歡
缺省知識庫范疇
批評話語分析的論辯范疇研究
正合范疇中的復形、余撓對及粘合
基于“缺省模式”設計平臺的控制系統研發模式重塑
Clean-正合和Clean-導出范疇
基于TRIZ與知識庫的創新模型構建及在注塑機設計中的應用
高速公路信息系統維護知識庫的建立和應用
基于條件隨機場的評價對象缺省項識別
基于Drupal發布學者知識庫關聯數據的研究
觀點句中評價對象/屬性的缺省項識別方法研究
位置與方向測試題
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合