?

何去何從?通用人工智能視域下未來的教師與教師的未來

2018-10-08 11:31劉備備王偉軍
關鍵詞:奇點機器經驗

劉 凱 隆 舟 劉備備 王偉軍 王 培

(1.華中師范大學 心理學院,湖北 武漢 430079;2.渤海大學 教育與體育學院,遼寧 錦州 121000;3.天普大學 計算機與信息科學系,賓夕法尼亞州 費城 19122 美國)

與法律、金融、醫療、物流等行業一樣,教育如今也處于人工智能的變革潮頭。政府支持政策相繼出臺,技術圈厲兵秣馬加大研發投入,企業也爭相推出智能化產品。一時間,人工智能成為社會關注的焦點話題。教育界一方面對人工智能抱持極大期許,希望借助技術進一步突破教育改革的堅冰,在更大程度上促進教育公平、提高教育質量[1],同時找準人工智能教育的落腳點,滿足未來社會對技術人才的需求[2];另一方面,也對人工智能教育應用的未來存在疑慮:一旦人工智能可以完成教師的工作,教師將何去何從[3]?

在已有討論中,人工智能對教育的影響更多是圍繞學習者展開,對教師的專論雖不多見,但從角色[4]、教學模型[5]、師生關系[6]等方面進行了有價值的初步探索。不過,教育界對人工智能影響下的教師未來預期可以區分出兩種截然相反的觀點:第一種是“悲觀派”,認為人工智能的能力將全面超越人類,人類的大部分工作都將被人工智能所取代,教育領域不僅在所難免甚至可能首當其沖[7];第二種是“樂觀派”,認為人工智能只是一種技術,并不具有真正意義上的智能,所以不會對人類教育工作者的職業產生實質影響[8]。

從字面意義來看,“悲觀派”和“樂觀派”貌似“水火不容”:“悲觀派”本質上抵制人工智能的教育應用,“樂觀派”則積極吸納人工智能技術的應用。但實際上,二者皆以“奇點”論為話題預設,在推論時亦如此,因此二者本質上卻是殊途同歸。因此,人工智能對教師影響之討論,看似是一個較為具體的小問題,實際卻隱藏著一個以“奇點”為核心的較為復雜的背景。本文從問題的背景切入,采用一明一暗兩條線索展開分析:其一,遵從“先破后立”的邏輯框架。首先,對相關概念進行界定和解釋,然后指出“悲觀派”和“樂觀派”在“奇點”支持下的基本邏輯并分析其問題之所在,是為“破”;繼而,對“奇點”引申出的四類重要的教育問題進行深層反思;最后,回歸問題本身,基于通用人工智能理論,對教師及教師的未來予以回應,是為“立”。其二,以人工智能技術的教育滲透為契機,期望能夠在教育的本質層面,對當前存在的主要問題進行深入的思索。

一、人工智能與“奇點”論

核心概念的清晰和明確是科學討論的前提。在“悲觀派”和“樂觀派”的討論中,人工智能和“奇點”兩個概念處于中心地位。然而,人工智能包含三種不同所指且容易混淆的分類,“奇點”背后則蘊含了一系列前提。因此,澄清并正確理解概念,才能為后續深入分析提供堅實的支撐。

(一)人工智能

由于對人工智能(Artificial Intelligence,簡稱AI)討論的前提不同,導致對人工智能的認識各異。近期,在教育類學術刊物中,關于人工智能存在以下三種理解:第一種,認為人工智能包括計算智能、感知智能和認知智能[9];第二種,認為人工智能分為弱人工智能和強人工智能[10],而強人工智能也正是通用人工智能;第三種,認為人工智能分為專用人工智能和通用人工智能[11]。

第一種分類常見于行業演講和報告中,既缺乏理論依據,又具有誤導性:邏輯上貌似完整無缺,又與“奇點”不謀而合。其中,計算智能(又稱運算智能)指的是快速計算和記憶存儲能力,感知智能指的是視覺、聽覺、觸覺等感知能力,認知智能則是指抽象理解能力。對于計算系統而言,計算智能對應于計算水平,感知智能對應于感知水平,認知智能則對應于認知水平,三者由低至高逐級更加“智能”?,F在計算智能和感知智能業已成熟,那么隨著技術的發展,在給定這一框架的前提下,認知智能也應該可以實現,畢竟前兩者已經實現了。然而,無關乎最后的認知智能是否最終必然實現,關鍵在于框架的前提存在問題。事實上,計算能力和感知能力只是實現智能的必要條件,而不是智能本身,所以將計算智能和感知智能也劃入智能的分解不過是一個玩弄邏輯概念的把戲,在不能真正解決任何實質性問題的同時卻極大地提升了“認知智能必定能夠實現”的信念和預期。因此,如果不能詳實檢視這個前提,那么由此得到的后續結論便經不起推敲。

第二種分類多見于哲學論述中,最早由約翰·賽爾(Searle J)提出[12]。他認為,弱人工智能的計算機其價值主要是為心智探索提供有效的工具,而強人工智能則意味著某種程序化系統的運行本身就處于心智狀態中,能夠真正理解事物并具有自己的認知狀態[13]。對此,徐英瑾專門撰文寫道:大眾理解的“強—弱”之分在于智能的寬與窄之分,而約翰·賽爾心中“強—弱”之分卻是真假之分。然而,這種區分并不是沒有意義的,起碼說明了“人工智能在各個領域內的量的積累,未必會導致真正意義上的智能的涌現”[14]。于是,在賽爾看來,即使一個計算機系統的外在表現完全像人,那也只是個“弱人工智能”,而“強人工智能”必須真正擁有自我意識。這是很多通用人工智能研究者不認可的,因為在此分類下人工智能系統的“強弱”之別就沒有任何外部標準來衡量了[15]??梢钥闯?,“強人工智能”并不是智力能夠全面接近乃至超越人類智能的機器智能,而“弱人工智能”也不是指對人類智能的某些方面的模仿。所以,從原始學科向學科的概念“轉移”中,其內涵和外延已經發生了變化,正如“奇點”一樣。

第三種分類出自人工智能技術領域,即認為人工智能包括專用人工智能(Special-purpose Artificial Intelligence,簡稱SAI)和通用人工智能(Artificial General Intelligence,簡稱AGI)兩個不同的子領域。對于“智能”理解的根本差異,使人工智能分化為專用和通用兩個不同分支。專用人工智能采取先做后思的路徑,即一開始并不深究智能也不對智能進行清晰的定義,而是通過技術迭代漸進式地提升智能化的程度。通用人工智能認為智能的存在代表著可以被認知的理性原則,采取的是先思后做的路徑[16]。與人工智能早期工作時所使用“AI”非常相似,“AGI”的表述在2005年前后被核心研究群體認可和采用,希望將他們的目標與當前“AI”(即SAI)區分開來。隨后,AGI學會的年會及其學報于2008年及2009年相繼啟動。由于AGI項目的做法往往與主流AI社區有重大差別,所以盡管近年來“AGI”一詞大熱,但相關研究成果卻鮮為人知。

因此,上述三種分類既有關聯又有不同:“計算智能+感知智能”既不能簡單等同于“弱人工智能”,也不能簡單等同于“專用人工智能”。同樣地,“認知智能”既不能簡單等同于“強人工智能”,也不能簡單等同于“通用人工智能”。事實上,只有第三種分類適用于當前語境下的學術討論,因此本文也將以第三種分類──“專用人工智能”和“通用人工智能”為討論前提。

(二)“奇點”論

“奇點”(Singularity),也被稱為“技術奇點”,是從數學和物理學科中泊來的一個概念。盡管常見于影視文學作品而為公眾所熟知,但它卻并不是一個真正意義上的計算機科學或技術術語。歷史上,1982年美國人工智能協會年會上弗諾·文奇(Vernor Vinge)首次提出“技術奇點”,并于1993年再次論述了這個觀點,并認為技術奇點有可能在未來50年左右就會出現[17]。2005年,在雷·庫茲韋爾(Ray Kurzweil)《奇點臨近》(TheSingularityisNear:WhenHumansTranscendBiology)一書的推動下,“奇點”的翻版——“庫茲韋爾定理”(Kurzweil’s Law of Accelerated Return)被廣泛宣傳。該定理指出,人類出現以來所有技術發展之初都是緩步前行的,但隨后以指數的形式快速增長,并最終以指數的指數形式增長。因此,“超級智能”(Super Intelligence)必將出現并威脅人類自身[18]。

針對人工智能,“奇點”論基于如下前提:

Ⅰ 系統的智能水平可以表征為一個數值;

Ⅱ 經由學習或迭代改進,人工智能主體能夠不斷提升自己的智能水平;

Ⅲ 當人工智能超越人類智能水平之時,它的整個未來將被視作一個單點,因為那以后的發展已經超出了人們的理解力。

第一句話看似有理,畢竟一個“智能”或“智慧”的系統應該可以解決許多問題,而人們也總是利用各種測驗和檢測來評估效果,比如人類自己便使用“智商”(IQ)來衡量智力水平。然而,智商的準確性和科學性一直存在相當大的爭議[19]。即便存在,它也無法體現智能的變化因素。通常情況下,提及智能一般與“后天習得的解決問題能力”相關,而非“先天預置的問題解決能力”。于是,在某一給定時刻t,系統的智能應該用該時刻能力的增速來衡量,即可用S(t)表示“問題解決的能力”,而用其導數S′(t)表示“學習的能力”。

如圖1所示,依據系統所能解決問題的數量S與時間t的關系大致可區分出四類不同系統[20]:①藍線對應于一個完全沒有學習能力的系統。系統技能全部由先天給定,即S′(t)=0。所有傳統的計算系統都屬于此類,其中一些被視為“AI”;②紫線對應于一個學習能力有限的系統,絕大多數的機器學習算法都屬于該類。盡管S′(t)>0,但最終將收斂到0;③綠線對應于一個學習能力基本固定的系統,許多AGI項目都屬于這種類型。此時,S′(t)是一個正常數;④紅線對應于一個學習能力本身無限增長的系統,其S(t)和S′(t)均呈指數遞增。雖然我們認為這樣的系統并不可能真實存在,但為了討論方便而將其作為一種可能概念列出。

圖1 時間t與總分S的四種不同關系

取決于諸函數中所包含的常量和測量的時刻,在某時刻這四種類型中的任意一種都可能成為當時問題解決能力的最強者。但它們的學習能力卻各不相同,由弱至強可排序為:藍線族<紫線族<綠線族<紅線族。所以,“能夠解決多少問題”與“能夠學到多少東西”其實并不一般相關。

盡管學習往往與問題解決被置于同一層面,但“學習是智能核心”的見解卻早已有之。我們也認為,各類問題的具體解決能力處于對象層次,而學習能力則是處于元層次。對“綠線族”或“紅線族”而言,S(t)雖能夠提升至任意層次,甚至“比人類聰明”,但受傳感器、動作器及經驗所限,并不意味著每個問題都能比人解決得更好。在這一問題上,“綠線族”和“紅線族”之間存在根本差別:由于“綠線族”內部的元層次知識由其設計者指定,所以即使S(t)值遠高于人類水平,但人們仍然能夠理解它的運行原理及基本工作過程。而相反,若真的存在某個“紅線族”,它將在某個節點之后讓人連它是如何工作都變得無法理解。

雖然“奇點”的支持者經常用“指數增長”現象進行佐證,但指數增長根本不會在某個自我改進的孤立系統中持續進行下去,而通常體現在種群之中??v然“智能”只是一個程度的問題,但沒有證據表明“智能水平”在“人類水平”之上依舊可以無限提升。對應于“低于人類水平的智能”,“超級智能”作為一種邏輯類推,卻包含對象層次及元層次的雙重提高之意。S(t)值顯然可以通過知識、技能或計算資源任意一點或多點的增長而提高,但“超級智能”和S(t)值并不相同。在元層次上,“超過人類”的智能將是一種徹底不同的“上帝”思維機制,不論在何種情況下都能找到全局最優解。當然,盡管不否認這種可能性,但至今并沒有其存在的任何確鑿的支撐證據。

二、“悲觀派”與“樂觀派”的邏輯及錯誤

在理清人工智能“奇點”論的基礎上,需要進一步剖析“悲觀論”和“樂觀論”產生的基本邏輯,并從前提、支撐理論和證據選擇等方面說明該邏輯的紕謬及原因。

(一)基本邏輯

一般情況下,人工智能對人類職業影響的程度如圖2所示,即“三線四層”框架:“四層”即Level-1~ Level-4,分別代表人工智能技術發展的不同程度,“三線”則是安全線、警戒線和危險線。具體而言,Level-1與Level-2之間為安全線,安全線是“無風險、無危機”的界限,安全線之上既無風險也無危機,安全線之下雖無危機但風險開始顯現;Level-2與Level-3之間為警戒線,警戒線是“有風險、無危機”的界限,警戒線上下雖然都有風險,但風險程度不同;Level-3與Level-4之間為危險線,危險線是“有風險、有危機”的界限,危險線上下皆有風險和危機,但危機卻由潛在上升為顯在。

出于人類中心主義的考慮,人工智能不比人類聰明是最理想的狀態(Level-1),此時人工智能根本不會對人類教師產生絲毫威脅,這也是被人們樂于接受而不言自明的內在期望。

圖2 人工智能對人類職業影響的內在邏輯框架

然而,隨著近年來Wason、AlpahGo、Boston Dynamics、Siri、高考機器人等人工智能產品被媒體廣泛報道,人們意識到人工智能確實能夠在某些方面做得比人類好(Level-2),特別是教育領域中遠程教學、MOOC、電子白板、增強現實、AutoTutor等技術的應用,教師在享受技術便利的同時,其傳統的工作內容(如準備教案、板書、點名、作業批改乃至教學過程等)部分地被技術替代。在這種情況下,雖然暫時不會出現機器教師(既可以是軟件系統也可以是實體機器人)取代人類教師,但風險卻已攀升。不過,技術發展的腳步不會停歇,即便人工智能并未全面超越人類,但其只要能夠在主要教學方面超越人類,那么人類教師便會在通訊和計算能力更為強大的未來與不知疲倦、不發脾氣、效率更高的機器教師進行肉搏式的慘烈競爭(Level-3),教師的職業面臨前所未有的危機。不過,人類教師與機器教師如果可以相互理解和交流的話,那么二者還能取長補短。然而,按照“奇點”論所言,機器教師不僅終將全面優于人類教師,而且其為何教得好也已經超出人類理解范圍了(Level-4),人類教師就算向其求教也無法學會。

至此,總結一下基本邏輯過程:如果機器教師永遠不如人類教師,從人類自身來看這是最好的情況,人類掌握絕對話語權和導向力。但實際上,人們發現機器教師現在已經在某些方面做得比人類教師更好。那么隨著技術的發展,機器教師將會與人類教師戰成平手或相互幫助,此時人類還可以跟人工智能“商量著來”。然而,未來機器教師將人類教師遠遠甩在身后,人類已經與之“商量不通”,此時人工智能完全掌握話語權和導向力,人類只得跟從機器做教育,人類教師職業被推上絕跡之崖。最可怕的是,我們承認不如機器,但我們卻連向其溝通和學習的機會都沒有,因為根本無法理解!

說到底,人工智能對教師的影響本質上是一個以“奇點”為理論預設、以人類中心主義為立場的控制權持有問題?!氨^派”和“樂觀派”并沒有實質差異,二者都未能跳出“奇點”這一隱含的前提假設和基本邏輯框架,區別僅僅是具體層級信念的不同而已:“樂觀派”對Level-2信念的信心較高而對Level-3、Level-4信念的信心較低,“悲觀派”則對Level-2、Level-3以及Level-4信念的信心都較高。當然,該問題的本質特征也絕非教師職業獨有,律師、醫生、司機、公務員、技術工人等職業同樣如此。

(二)錯誤解析

上文闡述了人工智能對人類職業影響的內在邏輯框架,Level-1到Level-4看上去既通順又符合常理。然而,正是由于前提混淆、理論倒錯和證據偏向等問題不易察覺,才使得“奇點”的邏輯錯誤被巧妙地遮掩起來。

1.前提混淆

我們認為,智能實際上是主體在知識和資源相對不足條件下的適應能力。在不同的開放環境中,智能主體能夠逐漸通過學習獲得在該領域解決問題的能力[16]。也就是說,智能不是“解決具體問題的能力”,而是“獲得解決具體問題能力的能力”,是一種具有通用性的“元能力”(Meta-Ability)。

事實上,“能力”可以被分解成“技能”和“智能”兩個方面?!凹寄堋敝傅氖墙鉀Q某類問題的能力,“智能”則是獲得和提高各種技能的能力。系統在某一時刻的技能等于其先天技能(“本能”)及習得技能(得自智能)之和。不過,人和計算機完全不同:人類個體之間本能差異微小,所以可以利用同齡人的技能差別近似反映智能差別,這也正是“智商”的依據。相反,計算機系統的技能既可以大部分來自本能,也可以來自智能。當一個計算機系統完全靠人編寫的程序解決問題,而不根據自己的經驗對其行為進行任何調整時,它仍可能擁有很高的技能,卻完全沒有智能,比如AlphaZero之類的棋類程序或領域性的專家系統;而另一方面,一個高智能系統如果不依賴于預先編好的應用程序,開始運行時并沒有多高的技能,卻可以在后天的教育過程中不斷地“成長”,比如目前研發中的通用人工智能系統。

因此,一般意義下的智能水平與目前測量的智商并不等同,特別是在沒有考慮人機差異的前提下,將機器全面“擬人化”的理解和決斷必然不科學。Level-1到Level-4邏輯的前提出現了重大偏差,錯用人類的智商對應于機器的智能,從而產生“因為機器智商更高,所以機器教師必將超越人類教師”的悲觀傾向,或者“因為機器根本不可能具有智能,所以機器教師永遠無法替代人類教師”的樂觀傾向。說到底,二者都是極端和片面的。

2.理論倒錯

如前所述,“悲觀派”和“樂觀派”表面看上去觀點相反,但實際上二者背后存在共有的邏輯,即“奇點”論。上文已經對“奇點”論進行了批駁,但仍需指出:盡管“奇點”在人工智能領域中并不正確,但產生如此之大的影響卻在情理之中。一方面,公眾和學界視野內缺少更合適的理論支持,亦沒有適當的優質競爭理論;另一方面,其所接觸到的人工智能證據來源更多是影視或文學作品[6],而它們的前提也正是“奇點”。于是,從證據到理論、從理論再到證據選擇,兩者相互支撐形成了正向閉環。請注意,“奇點”影響下的影視文學作品的共同特點,都是以Level-3和Level-4的人工智能技術“能夠”實現作為前提條件,卻對“如何”從Level-2到Level-3取得實質突破避而不談,或是用超級網絡或計算能力一筆略過。所以,人們當前的感受都來自Level-1和Level-2的專用人工智能,而其擔憂卻來自Level-3和Level-4的通用人工智能,但二者理論基礎完全不一樣,甚至可以說是涇渭分明。于是,在人工智能對教師潛在影響的問題上,在概念混淆(專用人工智能與通用人工智能)、內容框架混亂(智能與智商)之外,還存在理論倒錯的情況。

本文的部分理論依據來自通用人工智能理論中基于經驗的語義學(Experience-Grounded Semantics)[21],并得到認知哲學[22]和認知計算研究的關注[23]以及認知語言學研究的支持[24]。最簡意義上,對一個語詞或符號而言,傳統而常用的方法是用指稱和定義來刻畫意義。前者將其視為語言之外事物的名稱,后者將其作為語言之內的結構的名稱,二者常被組合使用而構成復雜語詞和語句。盡管這種確定意義的辦法直觀和自然,但它仍不能完全滿足人工智能和認知科學的要求。

基于通用人工智能的非公理化推演系統(Non-AxiomaticReasoningSystem,簡稱NARS)智能框架及其系統實現,其概念的意義或理解產生并形成于經驗中形成的概括關系[21]。其中,某一概念與概念的關系體現在外延(它所概括的那些項)和內涵(那些概括它的項)之上,而其總和就構成概念在此刻對主體的意義和理解。盡管不排除系統可具有“先天”植入的概念或信念,但概念的實質性意義仍主要來源于經驗。舉例而言,如果一個系統對“壞人”毫無經驗,這個孤立概念就完全沒有意義。在得知“壞人會傷害自己”這類與已有概念建立聯結或得到“某些人總是搶奪自己東西”的經驗后,“壞人”這一概念才獲得真實的意義,因此,語義是通過直接經驗和間接經驗而內生性建構的。由于通用人工智能系統中智能本質的適應性限制,真正的智能系統總是工作在知識和資源相對不足的情況下,因此NARS運用一個概念去解決當前問題時,受時間和資源約束,通常不會使用概念的全部意義(除非概念本身極其簡單),而只能選擇小部分參與加工,這也正是某概念“當前意義”和“一般意義”不同的原因(人腦可能也是如此進行意義加工)。前者通常僅是后者的很小部分,而其內容選擇受很多因素影響,包括有關信念確定程度、簡單程度、有用程度、與情景相關度,等等。這些因素一直在不斷變化,不同時刻下同一個概念在系統中便有不同的即時意義。經驗豐富后,有些概念中會形成相對穩定的“基本意義”或“本質”,而在其他一些概念中可能就找不到這種“內核”,以至于不能為系統提供太大效用。由此可見,不同的概念對系統的價值是不一樣的。

目前,許多學者依然將計算機視為一個“物理符號系統”,以為其中的符號只能通過指稱外部世界事物來獲得意義。NARS中的經驗也可以被叫作 “符號”,但它對系統的意義不依賴于某個外在的指稱或解釋,而是體現于它和其他符號在系統內部的聯系,這種聯系是對系統經驗(包括但不限于感知運動經驗)的選擇性總結。系統對這種符號的處理不僅是基于其形式的,同時也是基于其意義的。這樣的系統不僅可以理解符號的意義,而且可以改變和創造符號的意義。因此,通用人工智能系統也能夠具有創造性。

3.證據偏向

1)技術的“指數發展”與局限

人們自覺正處于一個快速發展的時代,并感受到“技術似乎呈現指數發展”,一個重要原因在于我們一般更加關注現實體驗。特別是在中國,改革開放后的高速發展讓國人的生活和工作環境在極短的時間內實現了從機械化到電氣化再到網絡化的大變革。盡管綜合科技水平還未超越先進的發達國家,但技術的“指數發展”卻更符合個人體驗,“奇點”論在中國更有市場。

“奇點”的指數發展基于代際之間的迭代進化而實現,在物種進化的尺度上,人類智能的確由低智能動物發展而來,但這不意味著智能可以無限制發展下去。實際上,在任何領域中,按某個量已有增長趨勢而推之未來的預測都不可靠。具體到人工智能領域,在硬件方面,“奇點”論認為智能機器通過制造出比自身智能水平更高的機器而實現“奇點”,然而至今也沒有任何一臺機器可以獨立創造出另一臺機器,更別說具備一定智能水平;在軟件方面,人們期待人工智能通過“給自己編制程序”來進化,此乃缺乏計算機知識所導致的誤解。不僅允許自我修改的程序設計語言早已存在多年(如Lisp和Prolog),而且至今也未曾在計算機病毒程序中發現智能的產生跡象,盡管它們已經自我復制并繁衍了多年。對計算機系統而言,“程序”和“數據”的區分具有相對性,只要這種修改是基于系統過去經驗的,那么這種“自我編程”和通過修改知識來改變系統行為并無本質區別,而且未必是個更好的設計。

2)人類中心主義的種群偏見

智能是生物界普遍存在的現象,并非人類獨有。不僅高等動物擁有較強的個體智能,個體智能較低的動物也可以具有較高的群體智能。例如,黑猩猩、烏鴉等許多動物都具有較高的個體智能,黑猩猩除了具有使用工具的能力外,也具有理解目標及意圖的能力。它們不僅能夠對人正在做的事有所反應,還能參與其中,甚至知道人的感受與知識[25]。又如螞蟻一類的群體動物,雖然個體智能根本無法與人類等高等動物相提并論,但卻擁有非常卓越的群體智能,切葉蟻可以用樹葉作為肥料培育自己喜歡吃的真菌,有些螞蟻會把同伴的尸體集中埋葬以避免疾病傳播,還有其覓食時的高效分工協作以及建造精致巢穴,等等[26],都印證了即使是低等動物,也同樣具有令人驚嘆的群體智能。與此形成鮮明對比的是,個體智能極強的人類所組成群體卻時常表現出更低的整體智能及問題解決能力,所謂“烏合之眾”或“一盤散沙”便是如此。因此,并不是人類由于擁有智能而成為人類,智能是人類、動物乃至通用人工智能系統等具有對開放環境適應能力的主體皆具有的能力。人類本位主義的思考模式時常令我們的思考囿于“人”的范疇,而忽視更廣泛和更普遍的情況。

3)“明星”事件的選擇性報道

1997年,IBM超級計算機“深藍”擊敗了國際象棋冠軍卡斯帕羅夫,成為人工智能領域中機器戰勝人類的里程碑式事件而被廣為報道,這為人工智能“入侵”人類職業埋下了伏筆。然而,更多的細節卻很少被提及:“深藍”1996年就已經與卡斯帕羅夫進行了6局比賽并以2∶4告負[27]。之后工程師將“深藍”的運算速度提高一倍,次年深藍再次挑戰卡斯帕羅夫。在前五局2.5∶2.5打平的情況下,卡斯帕羅夫決勝局敗給了深藍,最終“深藍”以3.5∶2.5獲勝。事實上,賽前“深藍”已備好針對卡斯帕羅夫行棋的大量信息,比賽過程中IBM工程師又不斷利用卡斯帕羅夫的下棋特點對“深藍”作啟發式調整。特別是復賽中,IBM程序員被組委會明令禁止在雙方比賽過程中人工修改機器參數。后來,“深藍”的更強版本Deep Frintz既沒能在2002年擊敗新晉冠軍克拉姆尼克,也未能在來年擊敗卡斯帕羅夫本人[28]。然而,其后卻沒有人對“機器已經戰勝世界冠軍”產生一絲質疑。當然,這并不意味著AlphaGo和AlphaZero以及“絕藝”之類的人機對戰也都存在水分,只是借以說明受媒體偏向性報道影響,大眾對人工智能技術對人類影響的預期判斷總是大幅提前。因此,在掌握易得證據的基礎上,更要盡力了解事件背后那些鮮為人知的“真相”,避免以偏概全。

三、“奇點”論對教育的潛在影響

說明“悲觀論”和“樂觀論”的謬誤反映的僅是“奇點”論普遍性的負面影響。然而,教育領域有其特殊性,只有繼續順著“奇點”這條關鍵藤蔓,才能更為具體地發現并檢視“奇點”論對教育帶來的特殊影響。

(一)微觀層面:教育的經驗問題

在物理還原論傾向的支撐下,“奇點”論背后潛藏著一個對教育的破壞力極大的推論──數字永生,即:科技進步使得有朝一日能夠將人腦內的神經結構及神經活動復刻到計算機系統中,或從計算機系統中將“資料”下載到人腦里。在這種情況下,人機的界限變得模糊,而知識和技能習得將變得極為容易,人們無需通過教師指導也可以脫離系統性學習,只需購買特定的功能軟件包就能立刻學會并掌握相應知識和技能。于是,人們不僅會變得更加聰明,也可以得到永恒的生命。

實際上,數字永生是“復制人”問題的一個新的變體:生理結構完全一致的被復制的“我”是否也與原生的“我”具有相同的思維活動?在通用人工智能理論視角下,數字永生就是一個被技術包裝的騙局。事實上,對經驗的解釋是一個人圍繞其人格長期形成的,兩個完全相同的腦結構并不能擁有相同的意識。即使這些經驗的神經存儲進行了復刻,在另一個復刻腦中依舊面臨兩個無法解決的根本性問題:① 意識啟動。復刻技術只能保證備份大腦的生理一致,卻無法保證另一個大腦不會變成植物人的大腦。如何喚醒復制腦并令其在自我意識指導下進行工作是第一個難題,而實際上這是無法實現的,因為意識活動本身的主體性正是個體經驗積累的動態體現,而不是某種抽離于經驗的靜止存在。如果缺失動態的建構過程,便無法直接點燃“意識”之火,只剩一具“標本”軀殼。② 經驗解釋。退一萬步講,即使成功實現意識啟動,復制腦也未必能將當前存儲的經驗依照本源的方式進行解讀。智能主體(包括人腦和通用人工智能系統)的特定經驗片段,既可以解讀成不同的字符,也可以是一幅圖片,或是一段音符等。于是,即使復制腦也有意識,復制的身體也一如本人,復制人對經驗的解讀也不會完全相同。主觀精神世界的本質特征使得智能主體對自我經驗的解讀具有唯一性和排他性,因此經驗的解讀是私有和封閉的。不論復刻到另一個大腦,還是復刻到計算機系統中,另一個“我”也不再是我。人的死亡實際上并不意味著經驗存儲的必然喪失,而是對經驗的解讀方式不再延續。

于是,不論是人類還是智能機器,所有開放適應性系統的成長過程都是經驗的習得和塑造過程,絕不存在一勞永逸的可能,不學習、不接受教育就可以迅速成長的所有念想都是不切實際的空想。

(二)中觀層面:教育的常識問題

2013年,斯坦福大學研究人員訓練機器人乘坐電梯來完成到樓上買咖啡的任務。但奇怪的是,裝備了各種先進傳感器的機器人每次打開電梯門后便停了下來,隨后反復打開電梯門卻就是不肯進入,研究人員對此大惑不解。后來終于發現并非軟件漏洞,而是由于機器人把電梯墻面反射的“自己”當成了“別人”,看到自己前行時對方也在前行,避障控制系統隨即啟動,機器人在電梯門口停下來,然后又發現對方也停了下來,于是陷入行動僵局的循環[28]。

當人們驚嘆于人工智能技術取得的進步之時,人工智能系統卻在“羨慕”人類所掌握的常識。經過長期的研究和討論,學界已達成共識:“人類之難恰是機器之易,人類之易卻是機器之難”[29]。與直覺相反,智能主體(人類或通用人工智能系統)的高級推理并不需要多大的計算量,反倒是低級的感覺運動技能卻消耗著龐大的計算資源。不過,與常識問題比較,計算問題就是小巫見大巫了,因為常識問題至今依然無解。

目前,人類已經建立了成熟的學科和知識體系,其規模之巨令人驚嘆。然而,由于沒有常識,盡管可以輕松地存儲和檢索從而“知道”這些內容,計算機的理解能力卻與三歲兒童都相距甚遠?!捌纥c”論的支持者天真地認為,讓機器學習人類的嬰幼兒教材就可以得到常識。然而,在專用人工智能和通用人工智能系統中的相關嘗試皆表明,輸入嬰幼兒教材與輸入學科知識的效果并無二致。本團隊也在NARS系統上用簡單且極易理解的兒童寓言故事進行了實證研究(具體內容將在后續發表),盡管在機器教育問題上取得了可喜進展,卻依舊未能解決常識問題?;诋斍熬€索和已有證據,我們傾向于認為世界上并不存在作為“常識”的最小公約知識子集,亦即常識在深度和廣度、數量和質量上都不存在絕對性。因此,從某種程度上說,“常識”是個偽命題。當然,也要看到借助某種途徑和手段,人類嬰兒或NARS系統確實可以獲得某些必要知識從而與環境雙向交互成長。因此,有效的“常識”也許和具體經驗內容無關,而與經驗動態建構的方式有關。在未來,動態建構學習者經驗的能力將成為教師的核心競爭力之一。

(三)宏觀層面

1. 外向范疇:教育研究的導向問題

當問及第二次世界大戰爆發的原因時,以下四個選項該如何選擇?

B. 瞬間形成高溫高壓氣體以極高功率對外界作功,使周圍介質受到強烈的沖擊、壓縮而變形或碎裂;

C. 1939年9月1日德國對波蘭的“白色計劃”行動;

D. 經濟危機激化兩大政治軍事集團的矛盾。

上述四個選項中,A是火藥燃燒的化學反應方程式,B為子彈射擊的物理原理,C是真實發生的入侵行為,D是形而上的戰爭背景分析。事實上,對于二戰的起因上述四者皆在一定程度上有所貢獻。然而,人們并不會將A和B考慮在內,只是在C和D中尋找答案,并最終傾向于D,因為似乎只有D才能“真正說明問題”。

教師既是教育活動的引導者,也是教育研究的參與者。因此,教育研究的導向對教師具有重要影響。與上述例子一樣,對教育和學習而言,神經科學從基因、分子和激素水平出發尋求解釋,腦科學從大腦功能原理上進行解析,心理學和專用人工智能從行為層面予以分析,而只有通用人工智能是在思維層面的經驗探索。正如不能認為二戰爆發是因為火藥發生爆炸推動子彈運動一樣,同樣不能認為學生做對題目便是其神經活動符合了某種要求和標準,或“胸懷理想、報效祖國”就是某個特定規模的神經聯結。人類行為向下還原的代價便是意義的喪失,教育行為的神經和腦機制還原亦是如此。不同的學習者,相同的學習活動可能對應于不同的神經活動,而相同的神經活動,也可能對應于不同的學習活動;同一個學習者,前后兩次相同的學習活動,可能對應于不同的神經活動,而相同的神經活動,也可能對應于不同的學習行為。正所謂,“人不能兩次踏進同一條河流”。當然,也不能走向另一個極端,認為神經科學、腦科學的研究成果對教育領域毫無借鑒。因此,教育界同仁們應從學科崇拜中警醒過來,樹立屬于自身的學科自信,將教育研究的導向重新回到“經驗”這一傳統優勢上來。

2. 內向范疇:教育政策的取向問題

媒體鼓噪下的人工智能對當前諸多行業的“侵蝕”而令人類勞力面臨失業潮,“奇點”論的支持者們深以為然,但事實并非如此。電氣化和自動化對智能化的最大挑戰,不是技術而是環境。開發一個在發達國家駕駛公交車的機器人絕非難事,而開發一個在不發達國家乘坐公交車的機器人則難上加難。具體對于我國而言,高速鐵路的無人駕駛很容易實現,但普通公路的無人駕駛卻難以實現。環境的結構化程度越高,制造在其中運行的機器就越容易。因此,如今成功的專用人工智能案例背后的重要隱含條件不是技術水平,而是規則明晰的結構化應用環境。鍛造一輛在封閉道路上單向行駛到終點的“智能座駕”技術早已成熟,前提是路邊圍好了攔網,鋪裝路面都做好了標記,既不會遇到穿越的行人和動物,也不會碰見對向行駛而來的新手司機,更不會因為誤認了跌落的樹枝或樹葉被風吹就的造型而沖出道路。但是,人們所處的真實環境都是開放的,我們永遠無法窮盡路面的所有可能而研發出全時全路況毫無瑕疵的自動駕駛車輛。

所以,在專用人工智能發展道路上,被“規則化”的不是技術而是我們自己。對專用人工智能系統而言,機器學習或大數據分析過程中,樣本的噪聲、干擾和異常對結果具有不良甚至致命的影響。而通用人工智能恰恰相反,認為開放環境中的擾動對于智能主體的適應性成長至關重要。在合適的條件下,噪聲、干擾乃至異常反而有助于系統更高層次能力的提升。于是,從某種意義上說,“無序意味著發展,秩序代表著停滯”。

人類正努力開發像人類一樣思考的機器,這并不可怕,真正讓人擔心的是,人類已經被機器同化得像機器一樣思考。自從大工業時代之后,各國教育系統的培育體系正在變得越來越規范,評價標準變得越來越精確。在“標準”的教育政策引導下,所有教育活動都在預先計劃好的時間和地點按照預先計劃好的方式按部就班地進行,學生們接觸到的都是基本相同的經驗,從而同時使得教師之間、學習者之間的差異性越來越弱,育化和受育的多樣性變得越來越低。

四、未來的教師與教師的未來

教育的核心問題是經驗,經驗如同常識一樣,不在于特異性的知識,而在于如何被有意義及多樣化地塑造。在前述討論的基礎上,本節回歸到“未來的教師”和“教師的未來”的問題上來。實際上,前者本質上是一個教育的職業問題,而后者則是教育的職業內涵和價值取向問題。不同于專用人工智能對數據搜集和分析,通用人工智能強調對個體經驗的建構。教師的職業內容及其職業發展不僅離不開經驗,而且是緊緊圍繞著經驗而開展的。在這樣的背景下,“悲觀論”和“樂觀論”都是片面和偏激的,智能的發展離不開后天經驗的塑造,因此,教師將在未來社會中扮演舉足輕重的角色。

(一)未來的教師

在不同的理論視角下,未來教師將具有不同的主體形式。依據專用人工智能的相關理論,未來教師的主體由人類構成,因為機器將永遠無法產生真正的智能,既無情感也無價值觀。故而,盡管許多操作性和重復性的教學事務可由機器完成,但人工智能終究無法替代人類而只能扮演各種輔助性的教學助手的角色?;蛘吒M一步說,即便教學過程全面實現自動化和網絡化,優秀課程的開發與設計仍然依賴于人類教師的實踐經驗,人類教學經驗的傳承中有更多無法言之的內隱知識屬于感受性的具身知識,而這些知識永遠無法被機器理解。因此,該視角反映的是“樂觀派”對未來教師的預期?!氨^派”則以“奇點”為依據,認為未來的教師必定以機器為主體,因為人類智能是相當有限的,具有理性和邏輯思維的同時也表現出非理性和非邏輯的特點。但是,超級智能卻沒有這樣的憂慮,它能以人類所不能理解的方式深刻洞察自然界和人類社會,更別說人類的情感和意識了。擁有超級智能的機器教師具有極強的教學能力,直接向學生提供毫無冗余的個性化教育方案,使學生在學習道路上走最短的“捷徑”從而成效斐然。然而,不論教師、學生還是家長,亦或是教育研究者或人工智能專家,卻沒有人知道超級智能為何能夠得到如此高效的教學效果,人們只是知道“相信并聽從,照做就是”。于是,在超級智能的機器教師碾壓下,人類教師毫無優勢可言,教師這一職業也將不復存在——超級智能終將發現教授人類的必要性越來越小,與其讓經常犯錯的人類做事不如教授給超級智能體來做更有意義——人類最終淪落為機器的寵物,這也是2017年10月23日《紐約客》雜志封面的寓意。

實際上,以上兩種對未來教師主體的分析都是錯誤的,不是囿于技術局限,就是脫離科學理論的遐想。在通用人工智能視角下,人類智能的背后存在著一般意義下的智能理論,而該理論也可以在諸如NARS這樣的計算機系統中實現。此類系統具有與人類智能相仿的認知特征,卻沒有生物學特性。因此,這樣的智能系統(或智能機器人)既不是一個完美的復制品,也不是人類智能的廉價替代品,而是與人“平行的”另一種智能形態。另一方面,由于智能主體中經驗感受性的建構特性,智能系統(或智能機器人)即便裝備了與人類功能相同的傳感器,也無法真正擁有與人類完全一致的感覺。反之,人類也無法體驗到智能系統(或智能機器人)的所有感受細節。因此,即使面對相同的客觀物理環境,二者的經驗也不會相同,而且人類群體與人工智能群體的社會性經驗差異就更大了。然而,在差異背后也要注意到二者經驗的共同點:人與智能機器具有相同的智能原理和相似的認知過程,決定了二者具有大致相同的經驗加工機制。與此同時,共同的物理世界和相近的社群內生規約又構成人類與智能機器經驗內容中一致性的部分,故而,人與機器之間并非不能溝通,在絕大多數情況下,二者是可以相互交流和理解的。所以,未來教師的主體由人類教師和機器教師共同構成,由于二者之間在功能上具有交集,因此存在一定程度上的競爭關系。未來,人類教師可以教授人類學生,機器教師可以教授機器學生,人類學生也可以向機器教師求教(如圍棋界研究AlphaGo的新棋路),機器學生也可以向人類教師求教。人類教師將與機器教師共同承擔教學任務,教師這個職業非但不會消亡還將變得“炙手可熱”。也就是說,優秀的人才和“好用的”機器都是教出來的。

(二)教師的未來

除了技術手段日新月異以外,教師未來的工作內容與當前并無本質差別。教師在未來所面臨的最大挑戰,不是經驗的傳授,而是經驗的建構。

首先,經驗內容的審視。人類的經驗世界不等同于生理組織,大腦內部經驗活動的內容無法使用設備直接探測。因此,人類的行為數據在分析和洞察學習者方面依舊具有無可撼動的地位。作為學習者經驗的重要載體,“大”數據仍舊備受歡迎,但是其重心卻與當前“大數據”恰好相反。實際上,大數據之“大”有橫向和縱向兩個不同的維度。在學校教育范疇內,橫向的大數據為接近全體學生樣本的數據集合,其覆蓋性突出地表現為對不同個體的涵蓋;縱向的大數據為特定學生樣本的數據集,其覆蓋性突出地表現為對該學生歷時性、情境性數據的涵蓋。也就是說,在實踐層面上,技術對教育的影響有且只有通過個體水平的改變才能表現為群體水平的提升,而不是相反。所以,“廣積糧”是當前大數據的特點,不僅數據價值密度低,還面臨隱私侵犯的風險;“深挖洞”則是未來大數據的特點,表現為數據來源的選擇性和典型性以及數據維度的豐富性和追蹤的長期性。由于學習者的經驗內容彼此均不完全相同甚至差異極大,對未來的教師而言,對學習者的真正理解和有效教導將在個體層次上深入開展,朝向真正的“個性化”教育,也就是說,對個體學習者A經驗的考察,重點并非A與他人分數、能力的比較,而是從A的經驗建構過程進行分析和解讀。換一個角度講,教師在未來比拼的不是學生的分數,而是發現和了解學生的能力。與此同時,機器教師盡管可以完成某些常規教學活動,但對人類學生的體察永遠不能做到“感同身受”,所以對人類學生的關鍵指導只能由人類教師完成。然而,類似的是,人類教師對機器學生也存在同樣的局限性,所以機器教師與人類教師今后將相互配合但各有側重,盡管在某些例行性教學事務上人類教師面臨來自機器教師的競爭和替代,但在各自擅長的特定教學情境中卻能夠發揮自身優勢而形成互補。

其次,經驗建構的原理。在通用人工智能理論視角下,可以從微觀層面、中觀層面和宏觀層面來闡述。①在微觀層面,不論是人腦還是通用人工智能系統的記憶中,既不存在絕對保真的知識,也沒有一成不變的真理,有的只是在開放環境下隨時接受挑戰的經驗。事實上,智能主體經驗空間的可塑性,決定了主體接受教育的必然性和必要性。在細節上,經驗具有陳述和主觀判斷兩個維度。其中,知識描述可以成為經驗的陳述,主觀判斷(又稱真值)由證據累積的“正確率”和“可信度”共同表征。盡管可信度通常隨支撐該信念的正面證據的增加而提升(如對于某知識點,學生做過的題目越多,正確率越高其信心也越高),但是也有對少數證據進行泛化強化導致正確率不高但可信度極高的“似懂非懂”的情況(如學生聲稱“知識點已經掌握”但“仍舊做不對題目”)。在微觀層面上,教師未來需要借助知識空間、內隱測量、無意識測驗等技術探查學生經驗背后的真實主觀判斷。②在中觀層面,主體經驗通過意義的相互聯結形成網狀結構(即經驗空間),不是一盤散沙而是有機交融。經驗空間并非分布均勻,而是密度各異。如果按照密度由緊密到稀疏的分布排序,可以將經驗空間由圖結構轉化為樹結構,成為經驗樹。越靠近葉節點,經驗的陳述越具體,陳述的證據總量越小,可信度越低。反之,越靠近根節點,經驗的陳述越抽象,陳述的證據總量越大,可信度越高。經驗系統具有層級結構,樹根正是抽象自我,抽象自我的高可信度對應于“自我存在的合理性和必要性”這種天然心理傾向的表達。樹根向枝葉延伸對應于從人格、社會角色等高度抽象的心理概念到認知風格、語言、學科知識、生活經驗等更為具體的陳述。經驗系統層級結構的重要特征是上層信念(元認知)對下層信念具有更大的影響力:信念越抽象,正確率和可信度越高,對下層信念的影響力就越大。然而,葉節點并不必然與合適的上層信念相連接,也未必一定能夠形成更為適合或合理的新的抽象信念。所以,在中觀層面,教師未來工作的重點不是給學生布置海量的習題,而是通過精講精練有目的、有針對性地引入新經驗,同時注重上層經驗的生成與鞏固,讓學生掌握學會學習和正確對待自己及他人的能力。③宏觀層面,教育不只是經驗樹葉節點知識的生長,而是對經驗樹整體的捏合、塑造甚至再生,是面向人性的有趣的教育、幸福的教育和生態的教育。然而,不論是高層的“社會主義核心價值觀”或“愛國主義”,還是中層的“核心素養”,社會抽象經驗(德行知識)既非某種具體知識,也非諸如身體自我之類的內在指向。社會抽象經驗不會簡單地由于知道而被直接接受,而是在與所有相關經驗的互動中被強化、被抽象和被建構。因此,作為教育價值的根本性體現,對觀念的樹立不只是知識講解、課程設計、考核評價,而是依賴于學校內外、家庭內外、線上線下的全方位引導。在宏觀層面,教師未來工作的重大轉向正是把對學習者的關注從成績轉移到個性塑造上來,鼓勵學生獲得更多的生活體驗、激勵學生探尋更多的發展潛能、啟發學生對高層經驗更多的深層加工。一言以蔽之,便是培養人格完善的“觀察員和思考者”,而非裝載知識的“移動硬盤”,亦不是熟練操作的“技能機器”。

五、總結

人工智能技術必將對人類社會產生意義深遠的影響?,F如今,計算機的存儲量越來越大,但穩定性卻越來越差,其計算能力越來越強,但價格越來越低廉。在這樣的背景下,專用人工智能依附“奇點”論,產生了“悲觀派”和“樂觀派”兩種極端思潮。通用人工智能為問題的探究開啟了另一扇窗:人類教師是否會被機器教師替代,并不存在簡單的回答;人類教師如何與機器教師協同工作,也不存在簡單的回答。認為機器教師無法擁有情感所以不能取代人類教師的想法是錯誤的,實際上,機器教師是可以替代人類教師的,特別是那些遵循固有模式“講教材”的人類教師會遭到機器教師的挑戰,使得會“教”而不會“育”的人類教師將被無情淘汰,畢竟機器教師在了解學生知識結構方面具有更大的優勢。實際上,警鐘已鳴響:未來對人類教師的要求非但不會降低,反而變得更高。

與其他職業不同,教育作為一種“元職業”,未來非但不會萎縮和消亡,反而會更加興盛和蓬勃。同時,教師也并不會由于人工智能技術的存在和滲透而數量銳減。恰恰相反,未來教師崗位需求增多的同時也對教師綜合能力的要求大幅提高。專用人工智能將教師從繁冗的事務性教學工作中抽離出來,通用人工智能則不僅要求教師回歸教育本源而專注于學生個體化的經驗建構,還要掌握機器教育的基本理論和技能,學校教育的主要目標必將從知識傳承轉向經驗生長。因此,不論人類還是智能機器,教師作為靈魂的塑造者,永遠不會缺席或“被”缺席。

猜你喜歡
奇點機器經驗
機器狗
機器狗
2021年第20期“最值得推廣的經驗”評選
校中有笑
校中有笑
校中有笑
奇點迷光(上)
經驗
2018年第20期“最值得推廣的經驗”評選
未來機器城
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合