?

意識、心靈與人類生活
——有關ChatGPT 的一次訪談

2023-03-22 17:14◆劉
長江文藝評論 2023年6期
關鍵詞:生命體理由自動

◆劉 暢

話題一:ChatGPT 與意識之謎

Q1:ChatGPT 引發了對人工智能心智問題的廣泛討論,一些人認為現今如ChatGPT 這樣的人工智能已經具有意識。您如何看待這個問題?您覺得我們判斷意識存在的標志應當是什么?

劉暢:在我看來,有一條基本原則,可以稱它“自主性原則”:只有具備自主行為能力的生命體,才能有意義地談論它是有意識的還是沒有意識的。

怎么理解這里說的“自主”?我們可以在自主的反應和自動的反應之間做一個區分。生命體同環境的互動中,有大量反應都不是自主的,而是自動的。比如我們已經知道,人類擁有一套相當復雜精妙的免疫系統,功能之強大,遠超人們之前的想象。但整個免疫系統都是在意識之下的層次,以自動而非自主的方式運行的。我們意識不到免疫系統的反應,也不能控制——至少不能直接地控制——免疫系統怎樣來做出反應。呼吸,多數情況下也是一種自動反應。有所不同的是,我們能意識到我們的呼吸。從而,我們也能自主地、有意識地調整呼吸,比如平衡呼吸的節奏,比如屏住呼吸??梢哉f,意識為我們提供了一個自主控制、自主選擇的反應空間。沒有意識活動之前,這個空間是不存在的。

可能有一種誤解,以為意識活動存在的意義,就在于更好地趨利避害——比如疼痛會讓我們對傷害做出即時反應,保留創傷的印象,免得“好了傷疤忘了疼”。不過,沒有意識不等于沒有反應。遇到強光,瞳孔會自動收縮,避免強光傷害眼底,哪怕這時的我們處在無意識的狀態。人類的免疫系統能夠準確高效地識別有害的抗原信息,保留長達數十年的“免疫記憶”。說溜了嘴,我們可能也說免疫系統會“意識”到、“覺察”到抗原信息,但這其實只是說:免疫系統會對抗原信息做出一系列的“反應”。這類自動的、非自主的反應,普遍存在于一切生命體中。細菌、草履蟲這樣的簡單生物,也一樣能通過自動反應趨利避害,而我們不必據此認定,它們就對刺激具有意識。陳嘉映先生有個說法,我覺得很有啟發,他說我們之所以意識到疼痛,與其說在于讓我們更有效地規避傷害,不如說在于讓我們有機會在規避傷害和忍痛前行之間,做一個自由的選擇。

不錯,一個人若是由于疾病或其他原因喪失了疼痛感,他就不能基于疼痛感做出準確即時的反應,但這只是因為我們人類已經活在這個有意識的層次了??偛荒苷f,人之所以長出手指,就是因為不長手指就刷不了手機……認定沒有疼痛感我們就不能對傷害做出反應,也是犯了類似的錯誤。

一種反應是自主的,意味著它不只可以在原因的意義上問為什么,也可以在理由的意義上問為什么。你問我為什么遇到強光就要收縮瞳孔?如果你問的是原因,這個問題有個答案,哪怕我自己并不知道。如果你問的是理由,這個問題就沒有答案,因為這本不是一個有意義的問題。收縮瞳孔不是我自主的、有意識的反應,我說不上是出于什么理由才去收縮瞳孔的。瞳孔自顧自地做出了反應,而不是我在有意識地收縮瞳孔。也可以說,是瞳孔在反應,而不是我在反應。相反,你問我為什么忍著疼也要走下去,我就有可能給出一個理由——比如規避更大的風險,比如榮譽和尊嚴,等等。不論哪一種理由,都不能完全還原為推動身體做出如此反應的致動因。在這一點上,ChatGPT 和我們區別了開來。它沒有自主性的反應。它做出的所有操作,如果說得上有個為什么的話,只有因果機制意義上的為什么。如果貌似有個理由,這個理由最終也會坍縮為原因。所以要我來看,ChatGPT 還談不上有意識,這個事實還挺清楚的。

Q2:您剛剛提到自主性與自動性的區分,但有可能特定的功能疊加起來后,就形成了意識。而且自主性也可能并非超越自動性,二者可能是處于同一范疇的概念,都只是一些基礎認知功能疊加起來后表現出的形式,關于這種觀點,您怎么看?

劉暢:你提到的幾點我都挺贊同的。我也愿意強調,不論自主的反應,還是自動的反應,都可能是從足夠復雜的功能系統中涌現出來的。如果我們相信達爾文,那么我們的這套復雜精妙的免疫系統,應該就是從億萬年的演化進程中涌現出來的。我們也知道,ChatGPT 在語義、邏輯方面表現的出色能力,同樣是“大力出奇跡”的結果,而不是軟件工程師一開始就設定好的。僅著眼于“涌現”,并不足以把自主和自動區別開來。

我也同意,自動反應和自主反應在某種意義上可以相互轉化,二者并非處處都有一道清晰的界線。像前面提到的,呼吸一般是自動反應,但一定程度上,也可以得到自主地控制。我們的自主反應也可能轉化為自動反應:聽到熟悉的指令,我們就下意識地做出條件反射式的動作。不論自主的或自動的反應,也都可以細分為若干不同的層級。機械鐘的自動報時和生物鐘對睡眠的自動調節,顯然不是同一層次的自動反應。

我同樣不愿意說,人類心智與人工智能的差別,就在于自主的反應總比自動的反應在功能上更為強大。實際上,我一直覺得人工智能的討論中有一個誤區,好像只有人工智能全面地、徹底地戰勝人類智能之后,它才配在真正意義上具有意識。這類“以成敗論意識”的邏輯顯然在哪里出了問題。照此來講,不只現有的AI 不配有意識,現有的人類個體恐怕也沒有哪個配有意識。我們中有誰敢說在所有智力領域都勝過了其他所有人呢?哪怕你擊敗了跳棋冠軍、象棋冠軍,你還沒擊敗圍棋冠軍呢!哪怕你高分通過了律師考試,你還創作不出《蒙娜麗莎》呢!……但我們要問的是人類和AI 有的是不是兩種不同類型的智能,而不是評選哪個才是“最強大腦”。

這里的關鍵點在于,“自動”是一個功能性概念,“自主”卻不是。自動和自主,都有“自行其事”的特征,卻是在不同層次上的。從我的語感上講,一個人具有自主行為的能力,說的顯然不是他具有自主行為的“功能”。功能總是某種達成目的的手段。一個功能系統是自動的,表現在它會自行完成達成目標的操作。比如,一臺裝有防抱死系統的汽車可以根據速度傳感器的信號,自動調節制動模式。機器的自動化、智能化,都是在純功能的意義上講的。

自主卻體現在對目標的自由選擇上。人工智能不具備自主性,不在于它不具備自主的功能,而在于它不具備自主的資格。我們不容許它在目標制訂的層面取代我們。注意,這說的并不是在技術層面,我們總能確保對AI 的精準控制,不容其“越雷池一步”。假定,AI 代替我完成了購物操作。如果這是它因為我預先的指令而完成的自動操作(我的指令也可能極籠統),這步操作就應當被認可——它訂的東西就應當算作我訂的東西,哪怕我會改變主意,就像我自己購物時也會發生的那樣。而如果是AI 自己在“擅作主張”,且不管導致這一故障的起因是什么,這步操作原則上就是不會被認可的。它的決定不可能替代我的決定。這種“不可能”,來自規范的限制,而不是功能的限制。實際上,只要我足夠任性,我完全可以給AI 做出“隨機購物”的設定。技術上這是極易實現的。但這當然不意味著AI 就因此“涌現”出了自由意志。

Q3:回到一開始的討論,您談到意識的自主性原則時,說只有生命體才可能具有意識。掃地機器人沒電的時候也能自己跑去充電,這和生命體的覓食活動很類似。我們也可以認為AI 是一個生命體嗎?或者,因為ChatGPT 不具有物理形體,所以不具有意識?

劉暢:我更愿意從目的、手段的區分來理解AI 和生命體的差別。所有生命體都有一個內稟的目的,即生命自身的延續。這是生命科學對各種各樣的生命現象做出解釋的基點。而AI 屬于廣義的工具。工具沒有內稟的目的。它作為達成目的的手段存在,它要達成的目的是我們為它設定的。智能掃地機器人帶有自動充電的功能,這個功能的存在當然是為我們服務的。構成生命現象的種種自動反應也具有這樣那樣的功能,但這些功能服務于生命的目的自身。

往大里說,這在于工具和生命體的存在論地位不同。就像海德格爾舉的例子:當我們起勁地用一把錘頭捶打東西的時候,它才特別地“是”一把錘頭。如果它被報廢了,不再作為捶打工具存在了,它就不再作為錘頭存在了。我們也可以借助生命體的某些機能,間接服務于我們的目的。我們可以生產雙歧桿菌,服用雙歧桿菌,幫助我們消化。但就算不被應用于這樣的目的,雙歧桿菌還是雙歧桿菌。

胃腸的蠕動、消化液的分泌在無意識的層面服務于我們,生產、服用益生菌在有意識的層面服務于我們,這二者的區別前面已經說了不少了。但換個角度看,生命體的自動反應其實跟生命體的自主反應更相似,而與AI 的自動反應有質的不同。理由很簡單:AI 根本上是為了我們的目的而存在的,所以它壓根不可能具有真正的自主性。不論它有或沒有一個物理的形體,都是如此。

話題二:哲學與心靈哲學

Q1:您用自主來解釋意識,但我覺得,自主和意識在您那兒似乎是一對相互解釋的概念,不論哪一個,似乎都還沒有得到清楚的定義。您所做的是不是一種循環定義呢?

劉暢:好問題。我個人的想法是這樣的:在人工智能或是其他話題上,哲學能夠貢獻的其實是一種反思。哲學與其說是要教會我們去理解那些我們還不理解的東西,不如說是要和我們一道去理解那些我們向來已經理解的東西。所以,我更愿意把哲學的工作叫做一種“元理解”——對我們已經理解的概念的一種再理解;而不是,比方說,去發明一堆我們自己都還不理解的概念。

人工智能是個交叉領域,不同學科各顯其能。但哲學與其他學科的一個重要區別在于,像計算機科學、腦科學或其他涉及工程技術的學科,所要做的是為我們提供嶄新類型的知識,而這勢必就要涉及新概念的引入和定義;哲學所要做的卻是在這個新語境下,重新思考困惑了我們幾百上千年的老話題,比如什么是心靈?什么是意識?這個意義上,正因為像“自主”“自動”“原因”“理由”“目的”“手段”等等是我們本來就在使用、就已理解的概念,是不需要格外加以引入和定義的,對這些概念的考察才成其為哲學家的任務。并且,也是哲學家責無旁貸的任務。

如果你把對這些概念的考察叫做“循環解釋”“循環定義”,聽上去可能就挺負面的。我們不妨用個更中性的提法,就把這叫做解釋性的工作。我們用我們已經理解了的概念,去解釋我們對另一些概念的理解。而這在形式上的確就有可能出現我們一會用概念A 來解釋概念B,一會又用概念B 來解釋概念A 的情況。這不見得就是多么要不得的做法。因為如果概念A 和概念B 在我們這兒本來就是有其用法的,它們的用法本來就是相互交織的,那么我們所做的,實質上就是結合概念A 的用法,來演示概念B 的用法,或者反過來,結合概念B 的用法來演示概念A 的用法。反正,這不是單拿一個字眼去跟另一個字眼對應,而是通過概念的實際應用,來展現概念的實際涵義。這其中不存在什么惡性循環。

當然,這類在概念層面上展開的反思,就像我們在其他地方從事的反思一樣,從來都不只是照抄、重復,而是要換一個視角,對那些既有的、很可能似是而非的觀念做出調節、整頓、糾正。這個過程中,我們可能會調用五花八門的知識,設想概念得到應用的多重可能情形,但從原則上講,我們的目的并不是要創造乃至捏造新的概念,而只是要讓我們既有的觀念系統更有序一些,更健康一些。

Q2:您提到原因和理由不能相互覆蓋,但怎樣界定這兩個概念,似乎還是比較模糊的。在有關意識的問題上,怎樣理解它們不能相互覆蓋的關系呢?

劉暢:是的,原因和理由的確是個更大的話題。我僅就個人的理解再作兩點局部的澄清吧。首先,我們關于理由的知識是一類自我知識,這與關于原因的知識有本質的不同。受到這樣的刺激,我的腦神經系統為什么就會做出這樣的反應?這問的是原因。問題的答案是什么,由腦科學家說了算,而不由我說了算。感受到了疼痛,我為什么還要繼續走下去?這問的是理由。答案是什么,原則上由我說了算。我給出的理由是對我所思所感所作所為的一種組織,而所有這些都是我既已意識到的。理由總是存在于意識場中的一種關聯。當然,心理分析學家也可能挖掘出我自己仍未意識到的一種深層關聯,引導我發現這樣做的“真正理由”是什么。但在這個問題上,弗洛伊德本人的一點提示我認為是極其關鍵的———他說,不論心理分析的結論是什么,最終都必須獲得被分析者本人的認同。就我的理解看,這不只關乎心理分析的成敗,而且根本上關乎心理分析的真假。涉及有意識的、自主的反應,如果說得上有個“真正的理由”,那么這必定是對既有理解的再理解,是我原則上經由反思可以通達的,哪怕由于某種心理防御機制,這個理由向我本人掩藏了起來。

第二,理由是一種合規范的關聯,而這不能等同為合規律的關聯。遇到這樣的刺激,我的大腦為什么要這么反應,這與我怎樣理解、是否理解這類腦神經現象無關。我理解也好,不理解也好,大腦該怎么反應還怎么反應。這是自然規律使然。我之所以這樣行動的理由是什么,卻不可能與我的理解無關。所以,理由總是個人性的——不見得你這樣理解,或大家都這樣理解,我就非這樣理解不可。適用于你的理由,不見得就是適用于我的理由。另一方面,理由又是公共性的。理由不是封鎖在“盒子里的甲蟲”。合乎道理的理由才成其為理由。而道理不只是我的道理。我也可能被道理說服,從而放棄之前的理由。這兩點當然并不矛盾。實際上,這恰恰構成了規范區別于規律的兩點重要的特征。規范從來是公共的規范,是你我都要遵從的,但這不同于與你我理解無關的那種普遍規律;同一件事情上,也可能你有你的理解,我有我的理解,而我們的理解各有各的道理,各有各的理由。我愿意說,人類的那些自主的、有意識的反應,恰恰就活動在這片公共性與個人性兼備、規范與自由并存的理性空間。這是你我的自主意識得以生長的空間。

Q3:從您剛剛的觀點中,我能感受到您對物理主義的反對。但在某種意義上,您給出的“理由和原因不能相互代替”的立場,似乎不能回避掉最根本的對心理因果性(mental causation)的追問。我們可以接受理由與原因不相互還原,但似乎只要承認處于最基礎的本體論位置的因果性的存在,我們看到的圖景就依然是物理主義的。您認為您給出的方案如何能處理mental causation的問題?

劉暢:確如你所言,有關物理主義的爭論中,mental causation 是個不容回避的問題。不過可能跟許多哲學家的立場不太一樣,我會傾向于認為這個問題從一開頭就被提錯了。

什么是所謂“心理因果性”難題呢?假定,我經過權衡,決定忍著疼走下去。物理主義者愿意說,我之所以繼續走下去,是由物理層次的原因充分決定的。如果我們認同這一點,就會陷入一種兩難:要么,我們否認心理層次的原因存在,但這樣的話,似乎也就否認了我的權衡、我的決定會對我的行動產生因果效力,從而從根本上否認了人類的主體性;要么,我們承認心理原因的存在,但這樣的話,似乎又要在物理原因之外憑空假定另一類子虛烏有的原因——因為既然物理原因已經充分決定了我會做什么,又為什么要多此一舉假定有其他的原因呢?金在權這樣的物理主義者認為,破解這個兩難困境的唯一辦法,就是要承認心理上的東西終究不過是物理上的東西,二者根本上是一碼事。我的權衡、決定依然可以被說成導致了我的行動,但歸根到底,它們是訴諸一系列底層的、物理的原因來具有因果效力的——于是,謎題得解。

怎樣回應物理主義還原論的這套解法呢?頭一點,我想問的是:“物理層次的原因充分決定了我的行動”這話是什么意思?如果還原論本來就是我們所要抗拒的,如果我們所反對的恰恰就是把有意識的行動還原為純粹的物理過程呢?維特根斯坦舉過一個例子:朋友落水了,我跳下水救他。但如果事情被描述成另一幅樣子——我因為一連串的物理刺激,從視網膜到大腦,再從大腦到肌肉,一環扣一環,最終導致我無可轉圜地跳到水里——這是不是就從根本上扭曲了事情的性質呢?仿佛我是個被程序操控的傀儡,身不由己地做著這個那個。我之所以跳下水,的確有充分的理由:朋友落水了,我得去救他。但充分的理由不等于充分的原因。并不是說,只要這個理由擺在那里,我就會被它推動,不得不跳進水里。物理主義者把“心理原因所導致的行動”當成主體性的標志,可以說從一開頭就搞錯了原因和理由的這一差別。

一個行動是我自主地做出的,體現了我的主體性,并不在于在物理致動因之外或之上,又多了一種由“我”或我的心靈發出的致動因。理由和基于理由做出的自主行動之間,有的不是功能層面的推動關系,而是規范層面的推論關系。理由解釋了我之所以這樣行動的道理,而并非以某種神乎其神的方式,觸發了另一類非物理的因果過程。

有些哲學家更愿意強調:我們的物理宇宙在基礎層次(比如量子力學的層次)就是非決定論式的——不論前一刻發生了什么,都不足以決定我們的大腦下一刻會做出什么樣的反應。對于這類思路,我現在只想強調一點:隨機的反應不等于自主的反應。屬于人的自主與自由,不存在于哪個足夠微觀的物理層次上,而是存在于另一種迥異于物理式的、功能式的理解面相上。不論神經元層次發生的事情是不是隨機的,那都不是我自主的反應。我們需要換一個角度,從另一種意義上去問“為什么”,我們所要理解的自主、意識、主體才可能在這個面相中浮現出來。

話題三:ChatGPT 與人類生活

Q1:我也同意,現在的人工智能還不具有自主性的意識。但我覺得不能排除這樣一種可能性:將來有一天,人工智能也許會像人一樣做出自主的決策,就像《流浪地球》中的MOSS 那樣,雖然我們還是希望它的自主性是受我們控制的。您怎樣看待這樣一種可能性?

劉暢:這個問題我想從兩方面來回答。一方面,我會反對把主體層面的自主反應還原為功能層面的自動反應。再舉一個維特根斯坦的例子:你要我出去,隨后我也出去了。但有兩種可能:一種是“我出去了,因為你要我出去”,一種是“我出去了,卻不是因為你要我出去”。如果我一聽到這話就自動出去了,我的反應多半是下意識的,你的命令直接導致了我的行動。如果我是權衡了一番,自主地決定出去的,我就有我自己的理由。不過,不論我走出房門的動作是不是自主的,在腦神經層次,都會有一系列生理性的、功能性的過程發生。所有這些腦神經反應都是自動的——因為我不可能自主地控制腦神經元怎樣來反應,除非,你一上來就把我的思考、選擇等同為了這些神經活動。

未來AI 技術的發展,很可能會在功能層面逼近乃至大大超越人類的大腦。不過原則上講,這仍是一些足夠精致的自動反應而已。就像談不上我怎樣來控制我的大腦反應,也一樣談不上AI怎樣來控制它的程序反應。它只是在按部就班地完成一步步的操作,不管其中的步數有多復雜。的確,我們無法預先排除人工智能未來脫離人類控制的可能性,雖然這是我們不愿看到的。不過即便這樣的事情發生了,也只意味著我們多了一部有待修理的機器,而不意味著它就自行生長出了自主意識。在這個純粹功能性的層面,并沒有為自主性留出一個位置。

我們原本又是怎樣判定一個人的行為舉止是自主地做出的呢?這首先取決于我們是否已經把這個人認作了一個主體,而不是一部依照因果規律運作的生物機器。我們并沒有把他簡單當作“會說話的工具”。就此而言,人機對話和人人對話存在性質上的差別。人機對話是我操控它、使用它的手段,人人對話卻不是我操控你、使用你的手段。由是可以想見,我跟MOSS 之間,可能會展開與我們現在的對話非常類似的一種對話活動,但存在于你我之間的這種平等、互認的關系,在我和MOSS 之間是不存在的。

這就來到了我想談的另一個側面。我也樂于承認,我們無法從根本上預測人工智能在未來的發展,而這其中的重要一環就在于,我們無法預先決定未來世界的人類會以怎樣的方式與AI 共處。人類與AI 之間,是否會發展出一種“我與你”、而非“我與它”的關系?未來的我們會把AI接納為人類社會的一員嗎?……我并不是要鼓勵對未來作過于浪漫的設想,而只是想強調,人工智能能否具有真正的自主意識,不只取決于AI,而且取決于我們,或者說,取決于我們將怎樣理解“我們”。不過,這將是有待在社會歷史層面展開的一個話題了。

Q2:人工智能算法確實為我們提供了便利,但我們也常常會受算法的影響。例如,我們會對它推送的信息產生依賴性,而影響我們做出真正自主的選擇。這好像會導致一個結果,即人最終似乎會成為被算法馴化的物體。您怎么看待這個問題?

劉暢:我再引用一次陳嘉映老師的話吧!他說我們問AI 會不會有一天具有人類的智能,所想的往往是:AI 會不會越來越像今天的人類,但情況也可能反過來:人類不斷向AI 趨近,人變得越來越像AI。于是,人類和AI 同時向著彼此靠近,還說不準就在未來的某刻重合了。

我的設想或許更樂觀些。技術的發展也可能把我們真正屬于人的創造力激發出來。比如我們知道,現代藝術的發生,一個重要的促動因是照相術。照相術出現前,寫實曾是一項具有很高價值的工作。但由于照相術的出現,寫實的藝術或者說技術馬上貶值了。這反過來激發藝術家去做一些相機沒有辦法做的工作。由此,傳統的畫匠、技師漸漸成為了今天意義上的藝術家。某種意義上,也可以說這帶來了現代藝術的自我意識的覺醒。

類似的情況也正在人工智能領域發生。GPT們正在飛速替代那些不怎么需要創造力、思考力的工作——廣義上都可以叫做“搬磚”的工作。但也僅限于此。跟ChatGPT 聊天,總讓我有一種莫名的熟悉感。我品了一下,應該就是彌漫在學術界的、法蘭克福叫做“bullshit”的說話方式。法蘭克福有一本小書,書名叫“On Bullshit”,中文譯作“論扯淡”。他自述寫這本書的起因,就是他在當今美國大學感受到的無所不在的“扯淡”。他強調說,真相最大的敵人其實不是謊言,而是bullshit——扯淡,或者南方人常說的“搗漿糊”。因為說謊者那里,至少還有一個真假的分別在,說謊者知道什么是真話,所以才說假話。扯淡者卻根本不在乎什么是真話,什么是假話。不管給他一個什么話題,他都能用“話滾話”的方式,振振有詞地胡謅上一番。

我感覺,ChatGPT 是這類話術的一個典型。實際上,就像它的名字所提示的,它本身就是一部巨大的、高效的transformer,一個話語轉換器。大家常提到ChatGPT 會“一本正經地胡說八道”,即所謂“AI 幻覺”:它會言之鑿鑿地向你提供明顯是虛假的信息。但我覺得,這一點很容易掩蓋GPT的另一類更加嚴重的問題?!癆I 幻覺”更像一個人在說謊——我們一旦掌握了正確信息,就很容易識破這類謊言。但GPT 輸出的,更多卻是一類因為“言之無物”而“言之無誤”的空話、套話(而不是錯話、假話):它模糊一團,又因為模糊一團顯得中規中矩;它好像說了點什么,而且說了不少,但仔細分辨,又好像什么都沒說,至少什么都沒說清楚。這恐怕不是通過技術升級就能夠解決的問題。因為作為一個話語轉換器,GPT 本來就不是要在真正意義上表達些什么,而只是在運用算法從一個詞連到另一個詞,從一堆話堆出更多的話。

轉頭看今天的學院教育,一個巨大的副作用恐怕是類似的“肉身話語轉換器”的批量生產。不過換個角度想,ChatGPT 的出現反倒是一件幸事。因為既然這類低分辨率—低質量的、既“言之無誤”又“言之無物”的話語已經足夠由GPT 提供給我們了,恰恰可以想見,作為“肉身話語轉換器”存在的“磚家”們就會立即貶值。這為我們敞開了一片可能的空間。就像攝影術并沒有終結繪畫,而是刺激了繪畫藝術的獨立發展,GPT 同樣可能倒逼著我們去追求那些有觀點、有創見、哪怕“言之有誤”也要“言之有物”的表達。只有這些表達才是不可能被GPT 替代的。如果我們不想明天被GPT 取代,不妨從今天起,學習自主思考,學習好好說話。

(2023 年4 月12 日筆者受邀與中國人民大學哲學院學生會的學生圍繞ChatGPT 進行了一次訪談,本文基于訪談錄音稿整理而成。)

猜你喜歡
生命體理由自動
自動捕盜機
絕對理由
我們有理由不愛她嗎?
基于STM32的自動喂養機控制系統
遲到的理由
奇異的生命體
更 進 一 步
遲到理由
關于自動駕駛
生命科學(三)
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合