?

生成式人工智能沖擊高校思政教育的三維探賾

2024-01-18 00:58劉簫鋒張錦霖
國家教育行政學院學報 2023年12期
關鍵詞:受教育者人工智能思政

劉簫鋒 張錦霖

(1.國防科技大學,湖南 長沙 410073;2.北京航空航天大學,北京 100191)

在文明的進程中,人一直是認識、學習并創造性地生產文字、圖像、影音等內容的唯一主體,而在科技進步的特定領域,“硅基”的技術向“碳基”的人的模仿和超越一直在進行。ChatGPT 等成果的問世,表明生成式人工智能(AIGC)的AI 大模型已具備人類的通識和邏輯能力。生成式人工智能是一種基于算法、模型和規則,通過學習大規模數據而產生新的原創內容的新型人工智能。相較于以往的決策式人工智能,“生成式AI 聚焦于認知的邏輯層面”,“擅長自動生成全新內容”。[1]從應用場景來看,相較于AlphaGo、人臉識別、自動駕駛等領域性專門化AI,生成式人工智能的多域性和通用性使其更具深遠變革性和廣泛影響力。在諸多受影響領域中,高等教育界對生成式人工智能的關注、討論和應用愈發熱烈。一方面,高校師生的智力水平、認知能力和對新事物的接受程度普遍高于一般群體;另一方面,高校師生的工作學習與生成式人工智能密切關聯,ChatGPT等工具可直接用于生成專業和任務所需的內容。聚焦高校思政教育領域,生成式人工智能帶來的機遇和挑戰也成為研究重點。部分學者在討論生成式人工智能與高校思政教育時,多用“賦能”“路徑”“價值”“融入”“創新”“機遇”“深度融合”等表述,顯示出已有研究中學者對生成式人工智能有利于高校思政教育發展的積極視角與樂觀探索。同時,也有學者聚焦于“倫理分析”“安全風險及防范”“挑戰與應對”,以問題為導向從科技倫理、安全化、風險防范等學理化視角思考生成式人工智能給高校思政帶來的潛在問題。上述研究拓展了生成式人工智能介入高校思政教育的認識視角和研究維度,對本研究有一定的借鑒意義。與已有成果不同,本研究采取一種基于技術分析的問題視角,從表征、機理、彌合三重維度探析生成式人工智能對高校思政教育的沖擊,通過對沖擊表征和機理的挖掘和展示,提出彌合二者沖突的建議,期冀引發更多相關思考。

一、審視:生成式人工智能沖擊高校思政教育的表征

具有問答和文本生成功能的ChatGPT 的“爆火”只是生成式人工智能這棵大樹的眾多果實之一,目前國內的生成式人工智能工具如文心一言、通義千問、即時AI 都已進入高校師生的生活,被應用于學習、娛樂、交際等各種場景。對于高校思想政治教育而言,技術應用對人的思維和認知的影響是不言而喻的,這種影響演化為對思政教育的沖擊,在教育主體、教育內容、教育過程等不同范疇都有明顯的體現。

1.主體范疇:挑戰教育者主導地位,放大受教育者思維特性和個體特征

教育者與受教育者是思想政治教育學的基本范疇,教育者“在思想政治教育活動中居于主導地位”[2],受教育者是接受思想政治教育的對象。在傳統的高校思政教育場域中,師生關系是較為簡單的“人—人”關系,因教師在知識積累、實踐經驗和資源儲備等方面的優勢,教育關系得以單向穩固。而生成式人工智能由于集成了龐大數據集,且能平等地面向所有使用者生成特定內容,它的出現讓這組關系發生了主體數量的變化,形成了“師—生—AI”或“人—機—人”關系網絡?!懊恳粋€教學參與者都將成為一個節點”[3],教育者與受教育者在這一網絡中的節點位置趨于平等化,實質上是對教育者主導地位的挑戰。

在高校思政教育中,學生已有的知識水平和思維能力都處于較高層次,部分學生具有明顯的個性特征和固化思維。當前,“Z 世代”“網生代”的“95 后”“00 后”已成為高校學生中的主體,具有獨特的思維特點,主要體現為價值取向復雜多樣、辨別能力參差不齊和自我“破圈”難度較大,存在著客觀上亟須教育引導但主觀上不愿接受教育的矛盾。生成式人工智能雖“可以為有特殊學習需求的學生提供自適應服務”[4],但也加劇了上述矛盾。此外,受教育者不再以團體的形式存在,而是成為一個個具有不同特征的獨立個體,高校學生的個體特征受到智能技術的輔助而進一步放大。

主體范疇的挑戰具有兩個方面的危害。一是情感方面。生成式人工智能的介入在一定程度上弱化了教育者和教育對象的直接聯系,[5]傳統的師生關系受到新技術的重構,師生的交流對話被智能產品部分替代。二是能力方面。生成式人工智能條件下,高校思政教育對教師的能力要求進一步提高,教育者不再是面對理論儲備和實踐閱歷有限的大學生,而是面對龐大數據集成和先進算法支撐的智能技術。

2.內容范疇:加劇數據安全隱患和信息迷霧,增大教育內容灌輸難度

信息迷霧指人為制造的用以干擾公眾認知、操縱社會輿論和意識形態的虛假信息,常被用于國家間信息攻擊和戰略態勢塑造等敵對活動。[6]當前,有關國家對我國的輿論操弄、認知攻擊和意識形態對抗活動正處于新的活躍階段,更需防范生成式人工智能工具生產虛假信息的危害和生成內容的意識形態滲透。

一方面,生成式人工智能條件下的高校學生隱私安全問題是虛假信息和信息迷霧擴散的潛在隱患。在大數據時代,承載著高校學生個人隱私、行為偏好等重要信息的海量數據,成為攻擊一方對青年學生群體精準化制造迷霧的重要資源,在此基礎上,生成式人工智能產生的虛假信息不僅數量龐大且具有高擬真性。具體而言,在高校學生使用智能應用的過程中,敵對勢力可以通過后門漏洞、黑客入侵、交易買賣等多種手段獲取用戶隱私,“借以精確定位目標受眾,對目標受眾的認知和行為做出針對性的精準干涉”[7],并以此作為制定攻擊和滲透策略的信息支持和信源條件。

另一方面,生成式人工智能生產內容的價值取向具有意識形態迷惑性和政治危害性。當前先進的ChatGPT 和GPT-4 等模型,均由美國公司OpenAI 開發并提供服務。由于數據集成來源等技術底層因素,其生產的內容有明顯的政治立場和價值取向。以ChatGPT 為例,當被問到“人類社會最終會走向共產主義嗎”時,其會給出“無法確定人類社會是否最終會走向共產主義”的結論;當被問及“工人在社會中的地位”時,其回答的關鍵詞有“相對較低的”“逐漸改善”“收入水平”“關注和保護”等,這些回答體現的是資本主義社會對工人群體的認知,而與工人的階級屬性和政治地位毫無關聯。如上所述,生成式人工智能輸出的看似客觀理性分析的話語表述,實質上是與馬克思主義基本原理相違背的,但由于其話語語境的現實性和表述方式的“理中客”特點,一般的高校學生難以分清其政治上和階級上的危害性以及意識形態上的迷惑性。

思想政治教育的內容具有政治性,也就是階級性和意識形態性。對思想政治教育內容的選取和甄別是保證其政治性的重要前提,而高校學生從ChatGPT 等工具獲得的內容并不具備這一屬性。相反,生成式人工智能使大學生接收信息的方式呈現出泛在化、移動化特征,學生接受信息的內容更加自主化和不可控。這些由工具自主篩選的內容甚至是虛假信息,通過智能工具廣域性的“灌輸”先入為主,會占據青年學生的主觀先見,構成了受教育者的固有認知,使大學生對思政教育尤其是課堂教育的內容形成抵觸。

3.過程范疇:形成技術依賴,削弱內化與外化的過程性和成效性

思想政治教育活動的成效,體現在受教育者在教育者的教育引導下所進行的自我教育、自我改造的過程中,這個過程既包括教育內容之于受教育者的內化,也包括受教育者接受教育后表現的外化。課程教育是高校思政教育的主要形式。近年來,我國高校思政課程建設進步明顯,但仍存在部分大學生在思想認識上弱化思政課程的問題,影響教育效果發揮?;诖?,生成式人工智能對思政教育的一大沖擊在于,ChatGPT等工具可以直接被用于高校思政課程研討、作業匯報、考核評價等環節,并且由于生成內容具有較高的原創性和邏輯性,“目前的檢測技術尚不能準確區分文本是自動生成還是學生自主撰寫”[8]。美國在線教育平臺Study.com 的一項針對1000 名美國學生的調查顯示,“超過89%的學生使用ChatGPT 完成課程作業,48%的學生用其完成小測驗,53%的學生用其寫論文”[9]。在中國高校,這一現象也相當普遍。此外,由于思政類課程對提高學生專業素質的直接作用較小,課程任務和考核評價難度也相對較小,存在部分學生將其視作“水課”的現象。在這種情況下,ChatGPT 等智能工具被部分學生視作替代完成思政課程學習任務的“利器”。

高校思想政治課程教育的內化與外化需要時間上的長期性和過程上的參與性,而生成式人工智能的介入使學生學習內化的過程變成脫離式、應付性、即時性的短期任務呈現,其危害除了體現在師生之間的信任危機上,更多地體現在使學生學習形成技術依賴,“阻礙學生自身內腦訓練”[10]?!皟饶X”是受教育者身體的一部分,是思政教育內容內化與外化的關鍵載體,而與之對應的ChatGPT 等代替人思考學習的技術工具可以看作外置于人腦之外的“外腦”。一旦思想政治的受教育者過于依賴技術的“外腦”而忽視了“內腦”自身的學習訓練,便不能實現思政教育內化與外化的過程。正因如此,美國哲學家、教育家喬姆斯基(Avram Noam Chomsky)認為“ChatGPT 本質上就是逃避學習的一種方式”[11]。

二、剖析:生成式人工智能沖擊高校思政教育的內在機理

問題的表征只是問題暴露的淺表狀態,而生成式人工智能對高校思政教育造成沖擊,有著較為復雜的技術因素和演化過程。由上述表征可知,生成式人工智能及其背后的多模態大模型,“由于在文本、程序、圖像、視頻等資源生成上具有巨大的優勢,其在高等教育領域的應用,主要是以作為客戶的教師和學生的交互方式實現的”[12]。從技術運行規律來看,從數據分析到對用戶產生作用,生成式人工智能存在著一個“數據基礎—算法運行—內容獲取—用戶反饋”的閉環流程。因此,需要從生成式人工智能的資源優勢、運行邏輯及其與學生的關系等方面,探究生成式人工智能沖擊高校思政教育的作用機理。

1.生成的基礎:數據的選擇性賦予智能算法的意識形態傾向

生成式人工智能之所以得到高度發展,得益于深度學習技術的不斷突破,而深度學習的爆發式增長得益于海量數據帶來的強大算力。在“萬物皆數”的時代,數據及其支撐的算法和模型成為內容生成的基礎。以GPT-3 為例,作為OpenAI 公司開發的一種基于人工神經網絡的自回歸語言模型,它擁有超過1750 億個機器學習參數。從數據量來看,GPT-3 預訓練使用的語料庫體量達到了8000 億個單詞,包含的文本數據量高達45TB,這些數據來源可以分為六大類(見表1)。

表1 ChatGPT(GPT-3 模型)預訓練數據庫的主要來源

由表1 可知,ChatGPT 等國外機構研發的生成式人工智能工具的數據來源絕大多數為英文互聯網的內容,其數據集的內容、數據集的發布方也都來源于西方國家的文化環境。語料庫是文本類內容生成的基礎,語料庫的建設本身不具備意識形態傾向,但語料庫是承載話語表達的實體,而話語具有天然的意識形態特征,“每一個‘語言社區’都有其各自的話語規范和意識形態規范”[14]。正因如此,生成式人工智能的技術本身也許并不帶有意識形態傾向,但從底層邏輯和數據基礎的角度來看,從其選擇數據集訓練模型的那一刻開始,數據集中承載的意識形態傾向就已經注入了生成內容。換言之,ChatGPT 等工具就像一個在西方文化環境中長大的孩子,其從小學習的知識均為帶有西方價值觀和意識形態的內容,因此與之對話得到的答案必然帶有明顯的意識形態傾向。

2.生成的運行:機器學習的工具屬性對沖人類教育學習的價值屬性

就學科分類而言,機器學習是人工智能的分支,專門研究計算機如何模擬和實現人類的學習行為,因此,機器學習在人工智能技術發展中居于核心地位。通過各種模型訓練,機器學習能夠從海量的數據中獲得其理解的“規律”,從而對新的數據作出識別、預測和生產。生成式人工智能在一般機器學習的基礎上融入了生成對抗網絡(generative adversarial networks,GAN)等新的訓練機制,極大地提高了原有模型的無監督自主學習能力,通過生成網絡和判別網絡兩個不同神經網絡相互博弈、校正的方式不斷提高生成內容的準確度。以ChatGPT 為例,ChatGPT 的訓練模型屬于“預訓練+微調”模式,通過人工標注的方式生成微調模型,之后訓練一個用以評價的獎勵模型,最后利用獎勵模型強化學習算法來優化答案。這樣的技術路徑決定了生成式人工智能的工具屬性,它的“學習”和“訓練”實質上只是為了完善工具的準確性和快捷性,對于一般用戶而言,并不具備輔助自身學習和訓練的功能。換言之,“機器學習并未獲得自學能力:要么是填鴨式的有監督學習,要么是‘食而不知其味’的無監督學習”[15]。

在思想政治教育中,受教育者通過學習思政內容來改造和完善自我,實現教育內容的內化與外化;教育者通過灌輸與疏導不斷賦予受教育者新的知識,并校正其思維和行為。這個路徑從運行流程上看與機器學習的“預訓練+微調”模式有著相似之處,但問題的核心在于機器學習的運行過程是不承擔思想政治教育所需要的價值教育功能的,也就是說,用戶可以從ChatGPT 等工具獲得看似理性、完整、客觀且全面的答案,但并不能從這些答案中獲得有益的教育信息。然而,這種看似越發完善合理的機器學習運行機制,因其技術的復雜性和生成內容的規范性,反而容易獲得受教育者的信任,削弱原本思政教育灌輸和疏導的價值導向作用,造成了工具屬性對價值屬性的對沖。

3.生成與獲?。簜€性化定制的實質是精準化制造繭房和固化認知路徑

隨著生成式人工智能的商業化應用,其技術原理也在商業研發設計、生產制造、供應鏈管理、市場營銷和客戶服務等多個商業環節廣泛應用。在高校思想政治教育環境中,假設受教育者只是在技術層面接觸生成式人工智能,那么其獲取的內容也僅僅是單一的技術輸出。然而事實上,用戶通過已問世的生成工具所獲取的內容普遍具有高度商業化特征。例如,ChatGPT 的投資者囊括了微軟、Y Combinator、科斯拉風險投資公司等美國資本和技術集團。投資過OpenAI 的馬斯克(Elon Musk)曾表明,OpenAI 已經成為一家實際上由微軟控制的閉源、追求利潤最大化的公司。這種逐利性勢必會因其經濟收益導向而淡化應有的社會責任,為智能工具的應用方向埋下了隱患,使其被某些資本和政治勢力用來制造信息繭房、操縱社會認知、控制公眾。

個性化推薦技術在商業領域的運用已經非常成熟,它能夠通過分析消費者的喜好從而進行個性化推薦,在電子商務領域取得成效后,被廣泛運用于新聞資訊、短視頻、音樂影視等商業化平臺,帶有主觀選擇性和先入為主的特征。生成式人工智能的出現,將個性化推薦進一步發展為個性化定制,用戶按照自身需要輸入關鍵詞或語句,生成工具便會在分析用戶喜好的基礎上生成個性化定制的內容,并且由于生成工具背后的模型和算法已經具有高度的修正功能,其內容生成還會越發接近用戶的預設,用戶將更難得到異質信息,原有的信息繭房則變得更狹小、更封閉。

在認知路徑方面,大學教育向來鼓勵大學生的發散性思維和創造性思維,避免認知固化。但生成式人工智能的大模型訓練需要長時期的集成和積累,一旦取得成效,便會在原有路徑上加大數量,而不會制造路徑突破。這也就解釋了為何用戶在不同語境下向ChatGPT 提出不同的問題,得到的回答在語言邏輯和內容本質上卻具有高度重復性,其背后就是工具化訓練而產生的“思維”邏輯的單一性。因此,大學生一旦較早地接受了生成式人工智能的“思維”邏輯,其自身發散性思維和創造性思維便會退化。

4.生成與反饋:人機互動產生數據供能新的循環并導致地位顛倒

在人工智能時代,數據被視作新一輪技術革命的“石油”,它既能成為重要的資源,也能帶來一定隱患。數據來源的安全問題與數據存儲、流動的問題都關系到用戶接觸生成式人工智能的安全。人工智能條件下,用戶隱私更加脆弱。用戶在使用生成式智能工具時,完成了無數次人機互動,無時不刻不在產生新的數據,這其中既有傳統意義上的個人隱私信息,也有能夠被人工智能加工利用的信息,這些信息共同構成使用者對生成式人工智能的反饋。

在“數據基礎—算法運行—內容獲取—用戶反饋”的流程中,這種反饋是生成式人工智能的算法影響和改變用戶的一個關鍵節點,這個節點既可以看作前一個流程的終點,也可以看作一個新流程的起點,也就是說,用戶反饋使線性的單向流程成為一個閉合的循環流程。有學者指出,生成式人工智能的算法可以通過三步改變人:獲知身份、獲知偏好、產生影響。[16]人機互動產生的痕跡、記錄等信息,可以供給人工智能用以獲知用戶身份和偏好。一旦人機互動提供的信息成功供能多次循環,使生成式人工智能達到“產生影響”的階段,在某種意義上算法已經從“仆人”升級為“主人”,人機的地位將面臨顛倒。

從理論的維度來說,這一現象本身就是異化理論在生成式人工智能時代的生動反映,值得高校思政教育者關注和警覺。從實踐的維度來看,這種地位顛倒將加大受教育者思想意識遭受攻擊和滲透的危險,其危害更值得警惕。由于具備多頭注意力(multi-head attention)的編碼和解碼技術,生成式人工智能的模型具備最大限度捕捉、理解語義并輸出內容的能力,加之激勵模型的使用,使“AI 訓練AI”得以實現,人工智能具有了一定自主權。從工具使用形式來看,ChatGPT 等產品以對話、聊天、問答等形式輸出內容,人機交互中的信息灌輸和價值傳輸更具有潛移默化的特征。在這種情況下,人工智能工具對人的“灌輸”體現出鮮明的廣域性和泛在性,也就是說,受教育者接收信息的時間、地點、模式、過程和內容都在一定程度上取決于受教育者自身甚至是生成式智能工具,教育者的主動性部分地被智能工具剝奪。人機地位顛倒后,人機交互為“AI 訓練人”提供了條件,一旦管理不當或被定向應用,就有可能成為輸出意識形態話語、塑造價值觀念、制造意識狀態對抗的有力工具。

三、應對:彌合生成式人工智能對高校思政教育的沖擊

生成式人工智能的出現和發展是科技進步的必然趨勢。2023 年7 月,國家互聯網信息辦公室、國家發展和改革委員會、教育部等六部門聯合發布《生成式人工智能服務管理暫行辦法》,明確“國家堅持發展和安全并重、促進創新和依法治理相結合的原則,采取有效措施鼓勵生成式人工智能創新發展”[17]。對于高校思政教育而言,教師和學生有了解、接受、使用新技術的需求和權利。故需辯證看待生成式人工智能對高校思政教育帶來的機遇與挑戰,在應用和管理上揚長避短,從多個方面彌合生成式人工智能對高校思政教育的沖擊。

1.對象—主體:加強高校學生和思政教師的素質建設,保證教育活動的魯棒性

魯棒性原是計算機科學和工程領域的專業用語,指復雜系統承受故障和干擾的能力以及處于不利條件下穩定生存的能力。思想政治工作根本上是做人的工作,青年學生是高校思政工作的主要對象和保持教育活動有效性的關鍵群體,高校思政教師是保證教育活動承受不利干擾且正常運行的決定性力量。因此,在面對先進技術對高校思政教育帶來沖擊時,應加強高校學生和思政教師這兩大參與者的素質建設,從源頭上提高大學生自身應對風險的能力,同時發揮教育者相對于智能工具的獨有優勢。

對于高校學生而言,一是要提升智能化條件下的數字素養,包括隱私泄露風險防范意識、數字平臺內容甄別能力等。從根源上說,生成式人工智能對高校思政教育的沖擊是通過影響接受思政教育的大學生完成的,要想提高受教育者在智能化教育環境中對技術負面效應的免疫力,應通過增設通識類課程等方式普及生成式人工智能影響個人意識的機理、數據和隱私泄露風險演化機理與危害、數字平臺和人工智能生成內容的價值甄別等相關知識。二是要完善大學生認知結構,提高學生辯證認識智能工具生成內容的水平。智能工具生成內容的價值取向更容易影響價值觀念和思維方式尚未確立或固化的青年大學生。要在大學學習的起步階段盡早擴充學生的知識儲備、完善學生的認知結構,用科學的、正確的教育內容奠定學生的認知和思維基礎,破除學生對智能工具等科技成果的“迷信”,提升學生的甄別和批判能力。

對于思政教師而言,一是要提升思政課教師的智能化科技素養,包括技術機理的掌握和技術應用的能力。生成式人工智能的應用在增加思想政治灌輸和疏導難度的同時,也為教師提供了了解學生的方式和渠道。要消除教師和學生之間的技術“代溝”,使教師能夠借助學生經常接觸的智能工具了解學生認識事物、思考問題的方式,增強教育引導的針對性和方向性。二是要強化教師專業知識和理論水平的武裝。就數量而言,生成式人工智能的知識儲備大于任何人,但就深度和精度而言,高校思政教師可以在專業范圍內以高超的理論素養和學術化的思維邏輯對智能工具形成相對優勢。在面對大學生時,思政教師應避免對泛化知識的重復和普及,而應展現生成式工具不能提供的思維深度和理論厚度。三是要注重情感投入,抵消智能技術對師生關系的不良影響。生成式人工智能的工具屬性無法在情感上代替思政教師的情感屬性。高校思政教育除了有一定的政治色彩,更有豐富的人文關懷,在生成式人工智能技術的沖擊下,應該用教師對學生的情感關照鞏固受教育者對教育者的信任,引導思政教師形成高尚人格和熱忱情懷,展現高校思政教育者的人文關懷。

2.技術—內容:建立以自主數據為支撐的智能模型,保證生成內容的可靠性

數據是生成式人工智能的基礎資源,數據的自主可靠是確保生成內容可靠的關鍵。當前,西方國家借助先進的網絡基礎設置和軟硬件優勢,以數據“自由流動”為由大行長臂管轄之實,實質上是用數字霸權壟斷并控制全球的數據資源。在生成式人工智能技術的研發和應用中,這種數據優勢轉化為模型優勢和算法優勢,形成了算法壟斷。對基礎資源的壟斷是造成ChatGPT 等工具的生成內容具有意識形態傾向的根源所在。解決技術派生問題的最佳方案是用技術的手段來規避風險,也就是說,我們要依托自主可控的數據建立傳遞中國話語、符合中國主流意識形態的生成式人工智能模型。

一方面,要提高本土數據的分析能力和利用水平。近年來,我國的網絡基礎設施、數據生成和存儲能力、網絡軟硬件水平均取得了長足進步。根據中國互聯網絡信息中心最新發布的《第52 次中國互聯網絡發展狀況統計報告》,僅2023 年上半年,我國“移動互聯網累計流量達1423 億GB,同比增長14.6%”[18]。根據工業和信息化部發布的《中國存力白皮書(2023年)》,“截至2022 年年底,我國數據存力總規模(5 年計量)已高達1000EB(1 萬億GB)”[19]。這樣龐大的數據生產和存儲能力足夠支撐發展中國自主的生成式人工智能模型和工具?;诖?,應該優化供大模型訓練的數據集的選擇,加強對數據選擇的價值甄別,在激勵和優化模型中增加價值觀識別和意識形態鑒別機制,確保生成內容的可靠性。

另一方面,要提高外來數據生成內容的識別能力。在自主智能模型成熟完善之前,國外機構研發推廣的生成式人工智能產品在國內還有相當的市場。當前,全球多國大學、科研機構發布明確的人工智能禁令,禁止使用ChatGPT 和其他智能工具完成學習與考試任務。我國也對ChatGPT 等采取了一定監管措施,但網絡上也存在以各種接口連接并經過包裝的“中國版ChatGPT”[20],在一定程度上反映了用戶對這一新技術的需求。結合高校教育實際,可以在這些境外生成工具的接口端加入內容識別、查證和屏蔽的插件,對這些生成內容進行無害化處理,避免中國用戶尤其是大學生用戶群體接受存在意識形態問題的內容。

3.應用—管理:形成法規和倫理互補的規范機制,保證技術應用的合理性

生成式人工智能對高校思政教育的沖擊是通過技術的應用而形成的,彌合這種沖擊也應從技術應用入手,加強法規監管和倫理方面的規范,“國際上就人工智能與法律、倫理議題開展的綜合性研究或專門性研究越來越多”[21]。法規監管與倫理規范并重,是世界各國防范和抵御人工智能技術帶來潛在社會風險的通用做法,也符合我國《生成式人工智能服務管理暫行辦法》中“遵守法律、行政法規,尊重社會公德和倫理道德”的要求。

一方面,高校應結合自身實際制定生成式人工智能使用的規章制度。在世界范圍內,部分高校和教育部門已經對生成式人工智能制定了“禁令式”制度規范。在美國,紐約市教育部門于2023 年1 月初宣布“禁止學生在校使用ChatGPT,以預防學生的作弊行為”[22];在加拿大,包括英屬哥倫比亞大學、達爾豪斯大學、多倫多大學在內的“多所高校制定了有關學生使用ChatGPT 的政策”[23];在歐洲,巴黎政治學院從2023 年1 月開始“禁止學生利用ChatGPT 完成教學任務”[24]。我國高校應借鑒這些國家和高校的做法,結合學生使用生成式人工智能的實際制定規范化的硬性條款,以約束ChatGPT 等生成式服務的濫用。

另一方面,高校應在日常思政教育中加強科技倫理方面的教育和引導。生成式人工智能在高校教育中引發的地位顛倒、信任危機等倫理問題,可以部分歸因于使用者的思想認識偏差。目前,高校研究生思政課程中的《自然辯證法概論》課程包含了科技倫理的教育內容,新版《馬克思主義基本原理》教材也涉及了對“人工智能”的哲學審視。但是針對全體高校學生的科技倫理專門教育還較少,高校應借助對學生開展思想道德與法治教育的契機融入相關倫理教育,尤其是理工科院校和從事人工智能相關研究的專業和院校,更應結合專業實際開展生成式人工智能倫理教育。

4.價值—效能:轉化生成式人工智能的優勢價值,提升現有教育的有效性

生成式人工智能具有技術上的進步性和需求上的廣泛性,對新的技術工具一禁了之既不符合思政教育的規律,也不利于在新技術條件下發揮思政教育的成效。因此,彌合生成式人工智能對高校思政教育的沖擊,除了防范風險,還要堅持辯證思維,發現并利用這一先進技術工具的優勢,釋放技術背后的潛在價值,將其特性和優勢轉化為提升現有思政教育水平的效能。

一方面,要借助生成式人工智能豐富教育內容。生成式人工智能集成了龐大的數據資源和先進的算法算力,蘊含著豐富的教育資源。高校思政教師要善于獲取生成式人工智能工具本身集成的內容資源,并根據這些內容的意識形態特征和價值取向提前設計教育引導方式。此外,生成式人工智能能夠為高校思政教師提供青年學生的思維路徑、行為習慣等信息,教育者要借助技術手段了解掌握受教育者的全方位信息,提高思政教育內容灌輸的針對性和有效性。

另一方面,要通過生成式人工智能創新教育形式。上文提到,生成式人工智能介入教育場域形成了“人—機—人”節點平等的關系網絡。在高校思想政治教育活動中,教育者應通過對技術工具屬性本質的掌握讓智能服務回歸輔助功能,建立“人—智能輔助—人”的師生關系,維護高校思政教師的教育主導地位。利用好生成式人工智能個性化定制的優勢,結合學生個體特征和思維特點擬定教育方案。發揮智能工具潛移默化、潤物無聲的影響優勢,優化思政教育的時機和場域,淡化思政課堂的說教色彩,采取靈活、有趣的多樣形式創新灌輸方式,提升高校思政教育效能。

四、結語

作為一種全新的內容生產方式,生成式人工智能得以快速發展與廣泛運用的底層原因是人們對內容的需求愈發旺盛。但隨著這種新技術創造力的顯現,人們對生成式人工智能的未來發展也呈現出期望與隱憂并存的復雜態度。對于高校的思想政治教育而言,生成式人工智能帶來的沖擊,在教育主體、教育內容、教育過程等多個范疇都有明顯的表現。只有不斷探尋生成式人工智能沖擊高校思政教育的內在原因,解讀隱藏在復雜技術之后的機理密碼,才能在應對這一沖擊時有理可依、有據可循。誠然,生成式人工智能的發展并沒有達到成熟或停滯的地步,而是在科技研發、商業應用、用戶反饋的過程中不斷進步,其對高校思想政治教育的沖擊和影響的全貌也遠未完全顯露。因此,需要用發展的眼光和對立統一的觀點,把握高校思想政治教育工作鑄魂育人的內核,把握新技術介入沖擊思政教育效果的本質,在動態平衡中解決好人的價值屬性與技術的工具屬性之間的矛盾。

猜你喜歡
受教育者人工智能思政
思政課只不過是一門“副課”?
關于國企黨建與思政宣傳有效結合的探討
少數民族地區初中數學學習弱勢學生的成因分析及轉化對策的研究
淺談初中語文“三段六步”教學法的策略
如何培養低年級學生學習科學的興趣
思政課“需求側”
思政課“進化”——西安交大:思政課是門藝術
小學語文教學中如何激發學生的寫作興趣
2019:人工智能
人工智能與就業
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合