?

人機融合智能的若干問題探討

2023-08-06 16:00劉偉
人民論壇·學術前沿 2023年13期
關鍵詞:人機交互人工智能智能

【摘要】“非存在的有”和智能之間沒有直接關系,但智能可以被用來探索“非存在的有”?!胺谴嬖诘挠小焙腿藱C功能分配之間也沒有直接關系,但人機功能分配可能會受到“非存在的有”的影響。情感與人機功能分配關系緊密,人機功能分配需要考慮情感因素。在探索“非存在的有”方面,人類和人工智能都可以發揮作用。情感在人機交互中扮演著重要角色。為了適應更加復雜的任務和環境,需要通過創新和發展來擴展機器人的能力。

【關鍵詞】非存在的有? 智能? 人工智能? 情感? 人機交互? 人機功能分配

【中圖分類號】H0-05/TP18? ? ? ? ? ? ? ? ? 【文獻標識碼】A

【DOI】10.16619/j.cnki.rmltxsqy.2023.14.006

引言

“非存在的有”是一種哲學概念,通常被用于對應“存在”的概念。它指的是那些不存在于我們所熟知的現實中,但卻具有某些潛在的存在性的事物或概念。這些“非存在的有”可能是抽象的、理論的、想象的、虛構的,等等。例如,數學中的虛數是一種“非存在的有”,因為它們不存在于實際的物質世界中,但在數學上卻是有用的,可以用來解決某些問題。同樣地,幻想中的形象,如孫悟空、圣誕老人、獨角獸、龍等,也是“非存在的有”,它們并不存在于我們的現實世界中,但卻在文學、藝術和文化中有一定的存在。簡而言之,“非存在的有”不存在于我們所知道的現實中,但是可能存在于其他維度,例如,我們的想象之中。

智能是指一種能力或者能夠表現出某種智能的實體或系統?!胺谴嬖诘挠小焙椭悄苤g沒有直接的關系,然而智能可以被用來探索“非存在的有”。人類的智能可以用來推理、創造、想象和研究一些不存在于我們現實世界中,但卻具有潛在存在性的事物或概念。例如,科學家們利用智能推理和創造力來研究黑洞、暗物質、多元宇宙等一些“非存在的有”。

人工智能也可以被用來研究“非存在的有”。例如,通過虛擬現實技術,人工智能可以創造出一些虛擬的世界和生命形式,來探索和研究那些不存在于我們現實世界中,但卻具有潛在存在性的事物或概念。

人機功能分配是指將任務和功能分配給人類與機器人的過程?!胺谴嬖诘挠小焙腿藱C功能分配之間沒有直接的關系,然而人機功能分配可能會受到“非存在的有”的影響。例如,在某些任務中,機器人可能需要具備一些超出我們現實世界已經存在的能力,這些能力屬于“非存在的有”。在這種情況下,我們需要通過創新和發展來擴展機器人的能力,從而使其能夠適應更加復雜的任務和環境。

情感與人機

情感的本質是人類感知和體驗世界的一種基本方式,是一種主觀、內在的體驗和反應。情感涉及人類的情感體驗、情緒反應、情感表達和情感調節等方面。情感的本質是由生理機制、個體生命經歷、文化和社會背景等多種因素決定的。情感可以是積極的,如喜悅、興奮、愛、幸福等,也可以是消極的,如憤怒、恐懼、憂慮、悲傷等。情感可以對人的行為產生影響,影響人的選擇、決策等。情感也是人類交往和社會關系的重要因素,情感的表達和理解是人類溝通和交流的基礎??偟膩碚f,情感是人類生命和文化的重要組成部分,對人類的生存和發展具有重要意義,對人機功能有效分配也具有不可忽視的作用。

情感與人機功能分配關系緊密。情感是人類與環境交互的重要組成部分,包括情緒、態度、信念等方面。在人機交互中,情感的存在對于用戶體驗和使用效果有著重要影響。因此,人機功能分配需要考慮情感因素,以便更好地滿足用戶需求和期望。例如,情感識別和情感生成技術可以幫助計算機更好地理解和回應人類的情感需求,從而提高用戶體驗。同時,在人機交互中,人類和計算機的功能分配也需要考慮情感因素,以便更好地滿足人類的情感需求。因此,情感與人機功能分配是相互影響、相互促進的。

情感可以影響人類理性的判斷和決策,主要表現在以下幾個方面。其一,信息選擇偏差。情感會使人們更傾向于選擇與自己情感偏好相符的信息,而忽略其他信息。例如,一個人對某個品牌有好感,就容易忽略該品牌的缺點,且對同類競品的優勢視而不見。其二,認知偏見。情感會影響人們對信息的認知和理解,使其產生認知偏見。例如,一個人對某個人有情感偏見,就容易將該人的行為解釋為支持自己觀點的證據,而忽略其他解釋。其三,決策偏差。情感會影響人們的決策偏好和風險承受能力。例如,一個人對某項投資有情感偏好,就容易將該投資看作低風險、高回報的選擇,忽略其潛在的風險和不確定性。其四,行為反應。情感會影響人們的行為反應,使其作出不合理的行為。例如,一個人因情感上癮,就可能不顧后果地追求某種行為或物質,而忽略自己的健康和生活質量。因此,情感與人類理性之間的關系需要相互協調和平衡,才能使人作出更明智的判斷和決策,從而使情感對人機功能分配起正向調節作用。

道德物化與人機

道德物化的本質是將道德概念或價值視為實體化、有形化的實際物體或物品,為其賦予實物的屬性和價值。這種物化過程可能導致人們將道德價值看作是一種可以交易、買賣、占有或控制的商品或資源,從而削弱或扭曲了道德本身的意義和價值。道德物化可能會導致人們在道德決策和行為中更多地考慮利益和權力的因素,而忽視道德的本質和目的,從而導致不良后果。道德物化的本質是一種對道德概念和價值的誤解和扭曲,需要通過教育和宣傳等途徑加以糾正和避免。

若將人道德物化,看作物品或工具,則忽視了人作為個體的尊嚴和價值。人機功能分配是將人和機器分別賦予不同的任務和功能,以實現更高效的生產和服務。道德物化與人機功能分配的關系在于,當人機功能分配不當或不合理時,就可能導致道德物化的問題。例如,將人僅僅看作機器的一部分來完成某項任務,忽視了其作為有感情、有思維、有尊嚴的人的本質。因此,正確的人機功能分配應該考慮人的尊嚴和價值,避免道德物化的問題。

人機的主客觀混合輸入過程

實現客觀事實與主觀價值的混合輸入,需要采用一些特定的技術和方法。其一,自然語言處理技術。自然語言處理技術可以幫助機器理解人類語言的含義和語境,識別其中的實體、情感和觀點等,并將其轉換成結構化的數據形式。其二,機器學習和深度學習技術。機器學習和深度學習技術可以通過訓練模型來識別和理解人類語言中的含義和情感。其三,人機交互界面設計。在人機交互界面設計中,可以采用一些交互式的方式,如問答、評分、評論等,讓用戶輸入他們的主觀評價和觀點。其四,數據可視化技術。通過數據可視化技術,可以將客觀事實和主觀價值以可視化的方式呈現出來,讓用戶更容易理解和分析數據。例如,使用圖表、熱力圖等方式來展示數據等。

客觀事實與主觀價值的混合輸入,需要結合自然語言處理技術、機器學習和深度學習技術、人機交互界面設計和數據可視化技術等多種技術和方法。在人機功能分配過程中若處理不好主客觀混合輸入,則極易產生數據來源不可靠、數據處理不當、數據缺乏背景信息、數據過于龐大或數據分析不到位等現象,進而可能造成“數據豐富,信息貧乏”的不足與缺陷。

人機的主客觀混合處理過程

實現基于公理的處理與基于非公理的處理融合,同樣需要采用一些特定的技術和方法。其一,邏輯推理技術。邏輯推理技術可以用于實現基于公理的處理,通過推理得到新的結論,并在此基礎上進行決策。邏輯推理技術可以利用公理化語言描述問題,并通過邏輯規則進行推理,從而實現基于公理的處理。其二,機器學習和深度學習技術。機器學習和深度學習技術可以用于實現基于非公理的處理,通過學習數據和模式識別來進行決策。機器學習和深度學習技術可以利用數據驅動的方式進行推理,從而實現基于非公理的處理。其三,規則庫管理。規則庫管理可以用于管理基于公理的處理的規則庫。規則庫包含一組規則,用于對問題進行描述和解決。規則庫管理可以對規則庫進行維護、更新和擴展,以適應不同的問題和應用場景。其四,集成算法。集成算法可以將基于公理的處理和基于非公理的處理融合起來,利用不同的算法進行集成,從而得到更準確的結果。集成算法可以利用不同的處理方法來解決問題,從而提高處理的準確性和效率。

恰如其分地實現基于公理與基于非公理的處理融合,需要結合非邏輯/邏輯推理技術、機器學習和深度學習技術、規則庫管理、集成算法、人類有效的“算計”(謀算)等多種技術和方法。這樣可以充分利用不同的處理方法來解決問題,從而得到更準確的結果。

人機的主客觀混合輸出過程

實現人機融合的輸出,需要考慮人類與機器之間的交互和決策融合?;谶壿嫷臎Q策通常是基于規則的,例如,機器學習模型的預測結果。相對應,基于直覺的決策則更多是基于個人經驗和感覺的,例如,醫生根據病人的癥狀和體征作出的診斷。針對這兩種不同的決策方式,可以采用以下方法實現人機融合的輸出。

其一,將邏輯決策和直覺決策進行分離,分別由機器和人類進行處理和決策,然后將結果進行融合。這種方法需要一個可靠的決策融合算法,以確保最終的輸出結果是準確和可信的。其二,將邏輯決策和直覺決策進行融合,讓人類和機器一起進行決策。這種方法需要一個可以協同工作的系統,以便人類和機器可以共同分析和決策。例如,可以使用機器學習算法來分析數據,然后將結果呈現給人類,讓后者作出最終的決策。其三,將邏輯決策和直覺決策進行交替使用,讓人類和機器輪流進行決策。這種方法可以提高決策的多樣性和靈活性,以適應不同的情況和環境。例如,可以讓機器先進行分析和決策,然后將結果呈現給人類,讓后者進行進一步的分析和決策。

總的來說,基于邏輯的決策和基于直覺的決策都有優點,也存在局限性。將它們融合起來,可以充分利用人類和機器的優勢,提高決策的準確性和效率。

人機的主客觀混合反思/反饋過程

在人機混合智能中,人和機器的反思與反饋可以通過多種方式融合,從而實現更加智能化和高效化的決策與行為。人的反思和機器的反饋可以通過以下方式融合。

數據分析。機器可以通過分析大量數據,提供反饋和建議;人可以通過分析這些反饋和建議來反思自己的決策與行為,從而不斷優化自己的決策和行為。

交互式學習。人和機器可以通過交互式學習來相互補充和提高,機器可以通過學習人的反思和決策,提供更準確和有效的反饋與建議,人可以通過學習機器的反饋和建議,不斷提升自己的決策和行為能力。

反饋循環。人和機器可以建立反饋循環,通過不斷的反饋和調整,實現最優化的決策和行為。人可以通過反思機器的反饋和建議,作出相應的調整和改進;機器也可以通過分析人的反饋和行為,提供更加精準和有效的反饋與建議。

人機與深度態勢感知

人類的態勢感知能力是通過大腦感知、處理和解釋來自外界的各種信息形成的。這些信息包括視覺、聽覺、觸覺、嗅覺、味覺等感官信息以及周圍環境的溫度、濕度、氣壓等物理信息。大腦的神經元通過對這些信息的處理與組合,形成了對周圍環境和自身狀態的認知與理解,從而使人類具備了對不同情境的適應能力和決策能力。這種能力與人類的生存和社會交往密切相關,因此在人類的進化過程中逐漸發展和完善。

機器的態勢感知能力是通過傳感器、計算機視覺、語音識別、自然語言處理等技術來實現的。傳感器可以收集外部環境的物理量,如溫度、濕度、氣壓、光線等,同時也可以收集機器自身狀態的信息,如速度、位置、姿態等。計算機視覺可以通過圖像處理技術對圖像和視頻進行分析,從而識別物體、人物、場景等信息。語音識別和自然語言處理可以將語音與文本轉化為可處理的數據,從而實現對語音和文本的理解和分析。通過這些技術的組合,機器可以對周圍環境和自身狀態進行感知、判斷和分析,從而實現對各種情境的適應。這種能力在自動駕駛、智能家居、智慧城市等領域中有廣泛的應用。

人機融合中的態、勢、感、知四個過程是相互關聯的,它們之間是不斷轉換的。其轉換過程如下。

態 → 勢:態是指人的狀態、狀況,勢是指實現這個態的動作趨勢或操作取向。在人機交互中,用戶的態被轉換成了對軟件或設備的操作勢,比如,用戶想要打開一個應用程序,這個態就被轉換成了對鼠標或鍵盤的操作勢。

勢 → 感:勢可以產生反饋,這個反饋就是感。用戶的操作勢會產生與之對應的感,比如,在點擊鼠標時,會感覺到鼠標下面的按鈕被按下了。

感 → 知:感是指感覺和感知,知是指理解和認知。用戶的感覺和感知會被轉換成對軟件或設備的理解與認知,比如,用戶通過觸摸屏幕感知到了應用程序的界面,然后對這個界面進行理解和認知。

知 → 態:知是指對事物的認知和理解,態是指人的意圖或目的。用戶對軟件或設備的認知和理解會影響他們的意圖和目的,從而形成新的態。比如,用戶在對應用程序進行認知和理解后,可能形成了新的意圖和目的在應用程序中添加一些新的功能。

概而言之,人機融合中的態、勢、感、知四個過程是相互關聯的,通過不斷的轉換和交互,用戶可以與軟件或設備進行有效的交互和溝通。

綜上所述,“非存在的有”指的是想象中的不存在于物理世界的事物。對于人機融合智能來說,這個概念的出現和想象可能會促進人類對科技和自身的思考與探究;可能會激發人類對機器智能和人類智能的探討和對比,從而促進科技創新和發展。此外,人們對于人機融合智能的想象也可能會影響人們對于未來的展望和期待,進而可能會產生各種不同的社會和文化影響。雖然“非存在的有”本身并沒有直接的影響,但是它可能會激發人們的想象和創造力,推動科技的發展和人類的進步。

人機與倫理困境

人機混合智能中,AI的潛在危害包括以下方面:首先,由于AI系統的復雜性,一旦出現故障或錯誤,可能導致系統失控,甚至產生災難性后果;其次,AI技術的發展可能導致許多工作被機器人或軟件程序替代,從而導致失業率上升和社會不穩定因素;再次,AI技術可能會收集和分析大量個人數據,存在侵犯個人隱私的風險,并可能導致數據泄露和網絡攻擊;又次,人工智能武器可能會導致無法預測的后果,從而對人類和環境造成損害和破壞;最后,AI系統可能會受到人為因素的影響,例如,偏見和歧視,從而導致不公平和不平等。具體到當前以ChatGPT為代表的人機混合智能,有三個方面的倫理問題需要特別予以關注。

一是,人工智能可從大量數據中學到意想不到的行為。這主要是通過機器學習算法來實現的。機器學習算法可以從大量數據中提取出規律和模式,然后根據這些規律和模式來預測、分類、聚類等。在這個過程中,如果數據集足夠大并且具有代表性,那么AI就可以從中學習到新的、以前沒有預料到的行為或模式。這種能力被稱為“數據驅動的創新”,可以讓AI在處理數據時自主發現新的知識和洞見,并且可以將其應用到更廣泛的領域中。

二是,人工智能生成技術的不斷突破,可能導致普通人難以辨別信息真偽。人工智能生成技術可能使得虛假的照片、視頻和文字充斥世界,從而帶來嚴重的后果和影響,如虛假信息會讓人們對社會和政府的信任降低,從而導致社會信任危機;虛假信息可能會被用來操縱選民的思想和行為,從而影響政治選舉的結果;虛假信息可能會讓消費者作出錯誤的決策,從而影響企業和市場的運作;虛假信息可能會被用來實施詐騙,從而導致個人隱私泄露和財產損失。因此,我們需要采取措施來防止虛假信息的傳播,比如,開發更加高效的辨別虛假信息的技術,建立更加嚴格的信息監管機制,等等。

三是,許多技術大廠將因為競爭被迫加入一場無法停止的技術爭斗。技術競爭既有積極的推動作用,也可能產生一些負面的影響,可能會導致以下局面:其一,不斷擴大投資:為了保持競爭優勢,技術公司需要持續地投資于研發和創新,不斷推出新產品和服務。這將導致公司不斷增加投資,財務風險亦隨之增加。其二,技術附庸風雅:某些技術公司可能會過度關注競爭對手的動向,而忽視了自身的技術優勢和發展方向。其三,技術標準化:競爭激烈的技術市場可能會導致技術標準的分裂,從而引發產品之間的兼容性問題。其四,用戶體驗下降:某些技術公司為了贏得競爭,不斷推出不成熟的產品和服務,從而導致用戶體驗下降。

ChatGPT:一個人機智能的初級產品

從人機環境系統智能的角度看,ChatGPT就是一個還沒有開始“上道”的系統?!耙魂幰魂栔^道”。ChatGPT的“陰”(默會隱性的部分)尚無體現,而“陽”(顯性描述的部分)也還停留在人類與大數據交互的淺層部分。簡而言之,ChatGPT基本無“道”可言。暗知識、類比、隱喻等這些看似不嚴謹、無邏輯的東西絕非僅憑理性思維推理就可以得到,而這些非邏輯、超邏輯(至少當前邏輯很難定義)的東西恰恰是構成人類智能的重要組成部分?;蛟S,這也不僅是ChatGPT的缺點,整個人工智能領域又何嘗不是如此呢?

粗略地說,人工智能技術就是人類使用數學計算模擬自身及其他智能的技術,最初是使用基于符號規則的數學模型建立起的機器智能(如專家系統),其后是借助基于統計概率的數據連接處理實現機器學習及分類,下一步則是試圖借助有/無監督學習、樣本預訓練、微調對齊、人機校準等遷移方法實現上下文感知行為智能系統。這三類人工智能技術的發展趨勢延續了從人到機再到人機、人機環境系統的研究路徑(符號-聯結-行為融合主義路徑),其中最困難的部分(也是ChatGPT的瓶頸)是智能最底層的一個“神秘之物”——指稱的破解問題,這不僅是自然語言與數學語言的問題,更是涉及思維(如直覺、認知)與群體等“語言”之外的問題。

智能領域研究中最困難的不是如山一般堆積的各種數學公式,而是最基礎最原始的概念剖析和理解,這與黎曼、戴德金、高斯強調“以思想代替計算”的數學原則,即數學理論不應該以公式和計算為基礎,而應該總是以表述清楚的一般概念為基礎,并把解析表達式和計算的工具推給理論的進一步發展,有著異曲同工之妙。鑒于此,分析ChatGPT也不例外,下面將從數據、推理(算法)、指稱的交互等方面分別闡述。

從數據的角度看,ChatGPT不具備智能的本質特征。小樣本小數據解決大問題,才是智能的本質。在許多場景中,交互雙方的意圖往往是在具有不確定性的非完備的動態小數據中以小概率出現并逐步演化而成的,充分利用這些小數據,從不同維度、不同角度和不同顆粒度猜測對手的意圖,從而實現“知己(看到兆頭苗頭)、趣時(抓住時機)、變通(隨機應變)”的真實智能,這完全不同于機器智能所擅長的對于大數據可重復、可驗證規律的提取。人類智能還擅長使用統計概率之外的奇異性數據,并能夠從有價值的小數據中全面提取可能的需要意向,尤其是能夠打破常規、實現跨域聯結的事實或反事實、價值或反價值的猜測。ChatGPT中的GPT代表生成式(G)-預訓練(P)-變換模型(T),就是一種大數據+機器學習+微調變換+人機對齊的程序模式,該智能體行為的依據是數據的事實性泛化,但其實完全忽視了泛化形成的行動價值,而這種泛化形成的行為結果常常是錯誤的、乃至危險的,例如,在對話中出現各種無厘頭“胡說”現象,而想要準確翻譯相聲、莎士比亞的笑話,甚至指桑罵槐、意在言外就更不可能做到了。

從推理邏輯的角度看,ChatGPT不具備智能的本質特征。把智能看成計算,把智能看成邏輯,這兩個錯誤是制約智能發展的瓶頸和誤區。事實上,真實的智能不但包括理性邏輯部分,也包括非/超邏輯的感性部分,而構成人工智能基礎的數學工具只是基于公理的邏輯體系部分。ChatGPT的核心就是計算智能、數據智能,其所謂的感知、認知“能力”(準確地說應該是“功能”)是預訓練文本(以后或許還有音頻、視頻、圖像等形式)的按需匹配組合,既不涉及知識來源的產權,也不需要考慮結果的風險責任,雖然ChatGPT算法中被設置了倫理道德的門檻約束,但其可能帶來的專業誤導危害依然不容小覷,尤其是在對未知知識的多源因果解釋、非因果相關性說明方面。

ChatGPT系統的“自主”與人類的“自主”不同。一般而言,ChatGPT的自主智能是在文本符號時空里進行大數據或規則或統計推理過程,這種推理是基于數學計算算法“我”(個體性)的順序過程;而人類的自主智能則是在物理/認知/信息(符號)/社會混合時空里基于小數據或無數據進行因果互激蕩推導或推論過程,這種因果互激蕩是基于“我們”(群體性)的過程。西方的還原思想基礎是因果關系,東方的整體思想基礎是共在關系(共時空、共情)。進一步而言,ChatGPT的計算是因果還原論,其知識是等同的顯性事實知識;算計是共在系統論,其知識是等價的隱性價值知識。這里的推導/推論包含推理,等價包含等同,價值包含事實、但大于事實。

智能的關鍵不在于計算能力,而在于帶有反思的算計能力。算計比計算強大,在于其反事實、反價值能力,如人類自主中常常就包含有反思(事實反饋+價值反饋)能力。事實性的計算僅僅是使用時空(邏輯),而價值性的算計是產生(新的)時空(邏輯);計算是用符號域、物理域時空中的名和道實施精準過程,而算計則是用認知域、信息域、物理域、社會域等混合時空中的非常名與非常道進行定向。

從指稱的角度看,ChatGPT不具備智能的本質特征。ChatGPT這類生成式AI不同于以往大多數的人工智能,此前大多數AI只能分析現有數據,但是生成式AI可以創作出全新的內容,例如,文本、圖片,甚至是視頻或者音樂。但與人類相比,ChatGPT的局限性包括:有限的常識和因果推理(偏向知識而非智力)、有限的自然語言和邏輯推理、缺乏在現實世界中的基礎(沒有視覺輸入或物理交互)、性能不可靠且無法預測,等等,其中最主要的一個缺點就是不能實現人類的“指稱”。

維特根斯坦在其第一部著作《邏輯哲學論》中對世界和語言進行了分層描述和映射,即世界的結構是:對象-事態-事實-世界,而人類語言的結構是:名稱-基本命題-命題-語言,其中對象與名稱、事態與基本命題、事實與命題、世界與語言是相互對應的。比如,一個茶杯,在世界中是一個對象,在語言中就是一個名稱;“一個茶杯放在桌子上”,在世界中是一個事態,反映茶杯與桌子兩個對象的關系,在語言中就是一個基本命題,該基本命題是現實茶杯與桌子的圖象;“一個茶杯放在桌子上,桌子在房間里面”,在世界中是一個事實,反映茶杯與桌子、桌子與房間兩組對象的關系,在語言中就是一個命題,該命題是現實茶杯與桌子、桌子與房間的圖像。世界就是由眾多的事實構成的,語言是由命題構成的,這樣世界的結構就與語言的結構完美地對應起來了。但是后來,維特根斯坦發現這個思想有問題,即僅僅有世界與語言的對應結構是很難反映出真實性的。于是在他去世后發表的另一本著作《哲學研究》中又提出了三個概念,即語言游戲、生活現象、非家族相似性,這三個概念提出了在邏輯之外的“指稱”問題,也就是他所謂的“不可言說的”、“應保持沉默”之物。實際上,他發現了人類思維中存在著“世界”、“語言”之外物:言外之意、弦外之音。這與愛因斯坦描述邏輯與想象差異的名言——“Logic will get you from A to B. Imagination will take you everywhere”(邏輯會把你從A帶到B。想象力會把你帶到任何地方)一語極其相似。同時,從人機環境系統的角度來看,這也印證了極具東方智慧的一句名言:“人算不如天算”,也即:人只有智能的一部分,而不是全部。

對于人類智能的不足,維特根斯坦雖然意識到了,但沒有提出恰當的解決辦法——他的學生和朋友圖靈卻想到了一個辦法,若把人類的理性邏輯與感性指稱進行剝離,那么就可以通過數學的形式化系統對人類的智能進行模擬。當然這種模擬會丟失很多東西,比如,感性、直覺,等等,但為了實現初步的人工智能體系,也只好忍痛割愛了。這樣一來,在有規則、復合邏輯的領域(如圍棋對弈、文本淺層處理等),人工智能與機器就可以代替人類。

從意識的角度看,ChatGPT不具備智能的本質特征。ChatGPT在詞語的打標基礎上實現了篇章上下文的打標、不少邏輯的打標、人機共同的打標,其核心在于依賴自注意力機制來計算其輸入和輸出的表示的Transformer轉換模型,實現了更快、更強的計算,但它依然沒有觸及人類大腦最深奧的問題:如何產生意識?或許,某種意義上說,意識就是“交互”,無論內在的交互,還是外在的交互,都是人機環境系統的態勢感知事實與價值的算計,而不僅僅是簡單的事實打標計算。事實常常是一階的,而價值往往是二階或高階的;一階對的,在二階或高階里面卻不一定對,比如,“地震了就跑”這個事實是對的,但如果具體到老師,那么“地震了要先組織學生跑”才是正確的,只顧自己跑就是不對的。世界上所有的知識都是有范圍和背景的,離開這些范圍和背景,知識的內涵外延會發生很大的變化,甚至可以相反。我們不但需要在已知中發現未知,有時候還需要在未知中發現已知,在這些方面ChatGPT基本上還無能為力,更進一步講,數字人(如電影《流浪地球2》中的Moss)能夠通過攝像頭對客觀事實環境進行感知、識別、反應是可能的,但能否產生主觀價值是以目前科技和數學工具水平還遠遠解決不了的難題。能否實現以有限反映無限、以應然反映必然、以客觀反映主觀應是檢驗一個系統智能高低的標志之一,ChatGPT也不例外。

智能中的“意識”不是一個物理概念,不是一個數理概念,也不是一個單純社會學概念,而是一個依靠客觀事實與主觀價值共同建構起來的思想層面的文化交互概念產物。我們在物理上生活在同一個空間里,在社會學意義上生活在相互交往的網絡中,但并不意味著我們生活在同一個文化意義體系中。從西方二元對立的形而上學哲學轉向二元互動的形而中學思想,從而將世界真理的基點從絕對上帝或存在(being,客觀的“是”)轉向生成變化、生生不息的道體(should,主觀的“義”),這無疑將成為中國學術界為“地球村”探索智能基礎的新開端??傊?,智能不是人工智能,也不僅僅是西方科技計算能夠實現的,需要加入東方智慧中的算計,才能形成具有深度態勢感知的人機環境系統智能體系——屬于人類的文明財富。

只有把情感注入某個事情中,才能看到靈魂,對于人如此,對于智能體而言,也很類似。畢竟文明不但需要科學技術的進步,還需要人文藝術的滋養。目前來看,ChatGPT中顯露出的情感成分還僅是與之交互者在特定對話環境下自發內生出來的情感因素。

再識人機智能,倡導“智能向善”

2023年以來,ChatGPT再次掀起了人工智能的研究熱潮。但在現有數學體系和軟硬件的設計模式基礎之上,人工智能在智能水平和能力范圍上與人類智能相比仍存在極大差距。究其原因,人類智能和機器智能之間還存在無法跨越的界限:人工智能是邏輯的,人類智能卻未必是邏輯的。依賴于“符號指向對象”的機器只能在封閉環境進行形式化計算,人類卻可以實現開放環境中的意向性算計。在這種背景下,實現人機優勢互補、倡導“智能向善”顯得尤為重要。

哲學家休謨認為:“一切科學都與人性有關,對人性的研究應是一切科學的基礎?!比魏慰茖W都或多或少與人性有些關系,無論學科看似與人性相隔多遠,它們最終都會以某種途徑再次回歸到人性中。從這個角度來看,人工智能“合乎倫理的設計”很可能是黃粱一夢。倫理對人而言都還是一個很難遵守的復雜體系,對機器而言就更加難以理解。在人工智能領域,“合乎倫理設計”或許是科幻成分多于科學成分、想象成分多于真實成分。

當前的人工智能及未來的智能科學研究存在兩個致命的缺點,即把“數學等同于邏輯”和“把符號與對象混淆”。人機混合的難點和瓶頸也因此在于(符號)表征的非符號性(可變性)、(邏輯)推理的非邏輯性(非真實性)和(客觀)決策的非客觀性(主觀性)。

智能領域真正的瓶頸和難點之一是人機環境系統失調問題,具體體現在跨域協同中的“跨”與“協”如何有效實現的問題,這不僅關系到解決各種輔助決策系統中“有態無勢”(甚至是“無態無勢”)的不足,還涉及許多輔助決策體系“低效失能”的溯源。也許需要嘗試把認知域、物理域、信息域構成的基礎理論域與陸??仗祀娋W構成的技術域有機地結合起來,才能為真實有效地實現跨域協同打下基礎。

智能不是人腦(或類腦)的產物,也不是人自身的產物,而是人、物、環境系統相互作用的產物。正如馬克思所言:“人的本質不是單個人所固有的抽象物,在其現實性上,它是一切社會關系的總和?!笔聦嵣?,真實的智能同樣也包含著人、物、環境這三種成分,而隨著科技的快速發展,其中的“物”逐漸被人造物——“機”所取代,簡稱為人機環境系統。平心而論,人工智能要超越人類智能,在現有數學體系和軟硬件的設計模式基礎之上,基本上不太可能,但在人機一體化或人機環境系統中卻是有可能的。人工智能是邏輯的,智能則不一定是邏輯的。智能是一個非常遼闊的空間,可以隨時打開異質的集合,把客觀的邏輯與主觀的超邏輯結合起來。

未來數字世界中,人與機器如何分工?人與機器的邊界又將如何劃分呢?實際上,當前人機關系主要是功能分配,人把握主要方向,機處理精細過程,而未來的人機關系可能是某種能力的分工,機也可以把握某些不關鍵的方向,人也可以處理某些縝密的過程。

人機混合智能是人工智能發展的必經之路,其中既需要新的理論方法,也需要對人、機、環境之間的關系進行新的探索。隨著人工智能的熱度不斷加大,越來越多的產品走進人們的生活之中,但是,強人工智能依然沒有實現。如何將人的算計智能遷移到機器中去,這是一個必然要解決的問題。我們已經從認知角度構建認知模型或者從意識的角度構建計算-算計模型,這都是對人的認知思維的嘗試性理解和模擬,期望實現人的算計能力。計算-算計模型的研究不僅需要考慮機器技術的飛速發展,還要考慮交互主體即人的思維和認知方式,讓機器與人各司其職、混合促進,這才是人機混合智能的前景和趨勢。

科技向善對西方而言是個有問題的提法,科技是物質世界的客觀存在,向善則是倫理道德的必然要求,從客觀存在能否推出必然要求,這是目前西方仍在爭議的話題。

科技本身沒有對錯善惡之分,能利人利己,也能害人害己;而設計、開發、使用、管理、維護、運行的人會有對錯善惡之分??萍枷蛏票举|是指“人”的向善。故在監管上需要堅持倫理先行的理念,建立并完善人工智能倫理問責機制,明確人工智能主體的責任和權利邊界;在研發上需要確保先進科技手段始終處于負責可靠的人類控制之下,預防數據算法偏見產生,使研發流程可控、可監督、可信賴;在使用上需要確保個人隱私和數據安全,預先設立應急機制和兜底措施,對使用人員進行必要培訓,等等。

黨的二十大報告指出,中國積極參與全球治理體系改革和建設,踐行共商共建共享的全球治理觀,堅持真正的多邊主義,推進國際關系民主化,推動全球治理朝著更加公正合理的方向發展。作為人工智能領域的先驅者之一,中國正在用實際行動為人工智能全球治理體系注入東方智慧,展現了大國形象和擔當。2021年9月,中國國家新一代人工智能治理專業委員會發布了《新一代人工智能倫理規范》,強調應將倫理融入人工智能全生命周期,并針對人工智能管理、研發、供應、使用等活動提出了六項基本倫理要求和四方面特定倫理規范。2022年3月,中共中央辦公廳、國務院辦公廳印發《關于加強科技倫理治理的意見》,提出應加快完善科技倫理體系,提升科技倫理治理能力,有效防控科技倫理風險,不斷推動科技向善、造福人類,實現高水平科技自立自強。2022年11月,中國裁軍大使李松向聯合國提交《中國關于加強人工智能倫理治理的立場文件》,從構建人類命運共同體的高度,系統梳理了近年來中國在人工智能倫理治理方面的政策實踐,積極倡導以人為本、智能向善理念,為各國破解人工智能發展難題提供了具體解決思路,值得國際社會高度重視與深入研究。

參考文獻

金觀濤,2019,《系統的哲學》,廈門:鷺江出版社。

劉偉,2023,《ChatGPT:一個人機環境系統交互的初級產品》,《中國社會科學報》,3月7日。

劉偉,2021,《人機融合——超越人工智能》,北京:清華大學出版社。

劉偉,2019,《追問人工智能:從劍橋到北京》,北京:科學出版社。

B. Manuel; B. Lenore, 2020, "A Theoretical Computer Science Perspective on Consciousness," Journal of Artificial Intelligence and Consciousness, 18.

D. Lee, 2020, Birth of Intelligence: From RNA to Artificial Intelligence, UK: Oxford University Press.

L. Segal, 2001, The Dream of Reality: Heinz VonFoerster's Constructivism, Berlin: Springer Science & Business Media.

M. A. Boden, 2016, AI: Its Nature and Future, UK: Oxford University Press.

R. Collobert; J. Weston; L. Bottou; M. Karlen; K. Kavukcuoglu; P. Kuksa, 2011, "Natural Language Processing (almost) from Scratch," Journal of Machine Learning Research, 12.

S. Wintermute, 2010, Abstraction, Imagery, and Control in Cognitive Architecture, Michigan: University of Michigan.

責 編∕桂 琰

劉偉,北京郵電大學人機交互與認知工程實驗室主任、博導,媒體融合生產技術與系統國家重點實驗室特聘研究員。研究方向為人機混合智能、人機交互、認知工程、用戶體驗、人機環境系統工程、分析哲學、未來態勢感知模式與行為分析/預測技術。主要著作有《人機融合——超越人工智能》《追問人工智能:從劍橋到北京》等。

猜你喜歡
人機交互人工智能智能
人工智能與就業
人機交互課程創新實驗
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合