?

生成式人工智能賦能網絡意識形態治理現代化的邏輯進路

2024-04-10 00:53盛思琦
南方論刊 2024年2期
關鍵詞:人工智能算法

盛思琦

(西南大學 重慶 400715)

習近平總書記強調:“在互聯網這個戰場上,我們能否頂得住、打得贏,直接關系我國意識形態安全和政權安全?!盵1]意識形態是社會穩定和國家長治久安的根基。當今世界正處于新科技革命和產業變革的交匯點,大型語言模型標志著人工智能的進步,特別是“類人”的生成式人工智能發展,給人們生活提供便利的同時也給網絡意識形態治理現代化帶來了風險挑戰。為此,必須要敏銳察覺暗藏生成式人工智能機遇下網絡意識形態治理的危機,有針對性地采取對策,進而提高網絡意識形態治理的現代化水平。

一、認知之維:生成式人工智能與網絡意識形態治理現代化

作為新一輪科技革命的“領頭雁”,生成式人工智能呈現井噴式發展。生成式人工智能為網絡意識形態治理現代化提供了重要驅動力。

(一)生成式人工智能的基本概念——以ChatGPT為例

生成式人工智能(Generative Artificial Intelligence)是通過各種機器學習方法從數據中學習對象的特征,進而生成全新的、完全原創的內容(如文字、圖片、視頻)的人工智能[2]。

2022 年11 月,由美國人工智能研究實驗室OpenAI研發的一款模仿自然語言應用程序ChatGPT 正式上線。作為生成式人工智能的最新成果ChatGPT(Chat Generative Pre-trained Transformer),其全稱是生成式預訓轉換機器人。ChatGPT 的運行邏輯是當用戶向ChatGPT 發出指令后,大型語言模型將指令轉碼為數字序列,分析其中的含義和意圖,基于既有文本語料,生成數字序列形式的內容,繼而將之轉化為文本并輸出[3]。簡單來說,就是ChatGPT可以理解人類輸入語言,并以其所掌握的知識庫和數據集為基礎,給出相應的回答或解釋,從而實現人機對話的交互能力。同時,ChatGPT 具有保障連續性對話、發出主動性追問、實現“人化”式表達、具備“記憶力”的鮮明特征。

(二)網絡意識形態治理與網絡意識形態治理現代化

網絡意識形態是指在網絡時代,通過互聯網傳播的各種思想、觀點和價值取向的集合。它是由網絡上的各種信息、觀點、價值觀等因素影響而形成的。它不同于傳統的意識形態,它具有廣泛性、開放性、多元性等特點。網絡意識形態治理現代化,主要是指通過運用先進的科技手段和治理方法,使網絡空間中的意識形態表達和傳播更加規范、有序、公正、安全、自由、開放,其旨在應對互聯網時代的挑戰和問題,構建一個更加安全、健康、有序的網絡空間,要求政府、互聯網企業、社會組織和公眾共同參與,形成多方合作和共治的局面,以推動網絡意識形態治理朝著更加科技化、開放化、民主化的方向發展。同時,網絡意識形態治理現代化也呈現出治理主體多元化、治理能力現代化、治理方式信息化等新的特征。

(三)生成式人工智能賦能網絡意識形態治理現代化

習近平總書記指出,要“更加重視運用人工智能、互聯網、大數據等現代信息技術手段提升治理能力和治理現代化水平”[4]。從理論上看,生成式人工智能并非客觀中立的產品,具有一定的意識形態屬性。生成式人工智能的意識形態性主要體現在如下幾方面:語料庫和數據庫的意識形態性、算法的意識形態性、應用場景的意識形態性。從實踐上看,生成式人工智能與網絡意識形態治理現代化相互關聯。生成式人工智能技術支持網絡意識形態治理現代化,網絡意識形態治理現代化保障生成式人工智能健康發展。

二、暗藏“?!睓C:生成式人工智能機遇下網絡意識形態治理現代化的現實困境

新一輪科技革命的到來,生成式人工智能的爆發式發展為網絡意識形態治理面臨著巨大的新挑戰。因此,面對以ChatGPT 為代表的生成式人工智能帶來的風險挑戰時,我們要樹立明確的網絡意識形態治理現代化目標,既要全面釋放生成式人工智能帶來的技術紅利和價值,又要精準防范并應對其可能帶來的風險。

(一)排斥風險:算法程序潛藏歧視阻礙了治理深度

算法貌似客觀而中立,但有時卻充滿著歧視,嚴重地阻礙著網絡意識形態的有效治理,也給社會的發展帶來消極影響。一是性別歧視?!凹夹g中立論”認為,技術的目的存在于服務使用者,它作為工具是不存在價值屬性的,技術在價值、制度和政治等層面都是中立的,因此在資本主義社會中行之有效的技術將在社會主義社會同樣有效[5]。實踐結果卻恰恰相反,以“技術中立”自居的算法在輔助或替代人類決策時屢現“性別歧視”的問題,在信息資源、物質資源和機會分配中不恰當地偏向男性,強化性別刻板印象,女性的數字生存面臨著廣泛而系統的算法性別歧視風險[6]。二是種族歧視。算法種族歧視的基因被高度智能化的生成式人工智能所繼承,它可以充分提醒我們數據領域反種族歧視規制的緊迫性與必要性。三是政治偏見。聊天機器人的設計者通常內置一些旨在避免回答問題的過濾器,根據其構造,這些問題旨在引發政治偏見的回應。盡管其名義上希望避免涉及政治、不發表政治言論,但稍加使用就會發現,AI 機器人是有傾向的,或者更加確切地說,即便希望避免政治傾向,恐怕也很難避免。

(二)“喂養”風險:資本操縱存在黑箱擴大了治理難度

生成式人工智能的喂養數據質量基本依靠研發公司所制定的規則和工程師個人來把關,因此,生成式人工智能不可避免地會帶有意識形態屬性。一是資本喂養數據“黑箱”侵擾意識形態防線。一方面,輸入語料具有意識形態導向。生成式人工智能輸入具有明顯意識形態問題的語料,帶著自身價值立場的用戶與其互動,當對話時,不可避免地會受到意識形態的影響。另一方面,輸出內容含有意識形態成分。因其學習和訓練的語料主要以英語等西方語言文化為基礎,喂養數據“黑箱”問題,在進行語義輸出的過程中,也存在傳輸不當內容的風險。所以,不可避免地含有意識形態的成分。二是資本喂養誤導性數據危害價值觀塑造??萍紵o國界,但科技中的意識形態有顯著的國家邊界。生成式人工智能依靠大量數據喂養生成,其中不乏存在誤導性數據的雜糅。三是資本喂養虛假性數據影響社會穩定。生成式人工智能可能被用于制造虛假性的信息,影響公眾輿論和社會穩定。ChatGPT 可以根據不同的目標和意圖,生成各種虛假性的信息,例如新聞、評論、論文、廣告、推文等。這些虛假性的信息很難被公眾辨別和驗證,因為ChatGPT 生成的文本內容往往具有很高的專業性和邏輯性,能夠模仿人類的知識結構和思維方式,甚至能夠引用或偽造各種數據和證據。這就使得公眾很容易被ChatGPT 所欺騙和誤導,從而影響公眾對于真相和事實的認知和判斷。

(三)解構風險:技術權力弱化主體消解了治理效度

生成式人工智能技術的高速發展,模糊了主客間界線,僭越了人類中心,弱化了人的主體性。一是生產顛覆主體和客體關系的話語。生成式人工智能顛覆性之處體現在它并非是主客體關系的雙向與多元轉換,它直接遮蔽主客體之間的邊界。由于科技的遮蔽性使得主體不知道答案的出處,一旦主體接受這些答案,便使得自身成為實際上的客體,這時主體的話語創造行為便在某種程度上成為客體話語的復制。二是消解主體情感稀釋獨立思考能力。生成式人工智能是當代深度學習能力和神經網絡技術強勢發展的產物,這種算法的語言和思維會不斷靠近智能發展的“奇點”,甚至有可能具有哥德爾反思能力,從而迫近人類,對人類的主體性地位構成挑戰[7]。生成式人工智能可能會將人類由獨立型形式的思考變為依賴型形式的思考,由此誘發獨立思考能力逐步被稀釋。三是技術過度依賴助長人的異化程度。由于人工智能技術具有空前的自主性,智能物與智能機器人空前地貼近人智,因此它失控的危險,促成異化的程度及對人類主體性的威脅與影響也會空前強烈。在這個不論活動形式和思維方式逐步受工具理性支配的社會里,人們突出主體性的活動等價值理性漸趨匱乏甚至喪失,使人類淪落為技術化非人。

(四)“越獄”風險:安全漏洞挑戰法律限制了治理廣度

生成式人工智能的發展帶來一系列安全漏洞,然而相關技術對策和法律出臺的滯后性對網絡意識形態治理的廣度產生了限制。一是泄露隱私風險。生成式人工智能能夠對海量數據進行采集與處理,若對其處理不當就有可能造成隱私泄露。非法分子面對利益孤注一擲,鉆系統漏洞,網絡釣魚等手段肆意盜用和買賣個人數據。人工智能時代個人隱私保護面臨困境,人類意識主體性受到損害,對當下意識形態安全造成了極大隱患。二是滋生法律風險。法律往往對于新的事物缺乏治理能力,它需要時間進行調整。AIGC 行業的迅速崛起勢必會給各國法律帶來一定的挑戰,這在一定程度上導致生成式人工智能處于法治真空區。三是攻擊破壞網絡。與網絡相關的各種軟件、硬件、協議、服務等通常具有一定的安全性和穩定性,以保證網絡的正常運行和服務。然而,生成式人工智能的文本內容可能會利用其他網絡系統或設備的漏洞或缺陷,繞過或破解認證或授權機制,從而影響或干擾網絡的功能和性能。

三、化“智”為“治”:生成式人工智能賦能網絡意識形態治理現代化的對策探析

面對全球數字化變革的國際環境,應對生成式人工智能發展過程中暗藏的危機,網絡意識形態治理現代化需要采取相應的對策措施。

(一)強化算法優化:以智能平權破解算法歧視,維護網絡智能正義生態環境

事實上,“算法的社會本質就是一種權力”[8]。只有進行智能平權對算法進行有效優化,生成式人工智能技術才會內嵌于網絡意識形態治理體系建設中,繼而推動網絡意識形態治理向現代化方向發展。

1.提升“主體效能”,樹立正確的算法技術發展觀

生成式人工智能賦能網絡意識形態治理現代化的前提和基礎是強化人才培養。首先要重視研發團隊中學科背景多元化的成員構成,以創建交叉學科、開展人工智能教育為主線,注重加強生成式人工智能研發人員的技術倫理建設和正確引導其價值觀,將正向的價值規范和主流意識形態轉化為技術語言,并將其融入生成式人工智能開發設計中,以增強生成式人工智能對主流價值的辨別能力,并積極推動馬克思主義理論、網絡媒介素養和人工智能技術等領域的融合發展,旨在培養綜合型人才。

2.重視算法問責,在算法中注入主流價值

數據正義是實現算法正義的前提,算法正義是實現智能正義的關鍵。算法是大型語言模型成功的重要條件之一。大型語言模型算法具有“不可解釋”“算法黑箱”等特點,易引發算法偏見和歧視、數據投毒等問題。一方面,要及時對大型語言模型中的算法歧視、算法偏見、算法黑箱等進行算法糾偏,消除算法安全隱患;另一方面,促使主流價值與智能算法深度融合,在算法開發和部署過程中考慮安全性。在算法設計初衷、數據選擇、結果呈現等環節植入主流價值的基因,在算法優先級中提高主流價值權值的比重,促進“可靠、健壯和值得信賴”的大型語言模型發展。

3.以一元主導破除“算法中立”,加強馬克思主義意識形態指導

算法本質上是一種認知工具,它不可避免地預設某種意識形態立場,對此,要加強馬克思主義意識形態的一元指導,破除“算法中立”。生成式人工智能技術開發人員基于不同文明、不同社會制度,甚至有時會導致生成式人工智能表達一些錯誤思潮,對于我國網絡意識形態安全來說面臨新挑戰。因此,要以價值理性來糾正算法工具理性上的不足,堅持以人為本原則發展生成式人工智能,用馬克思主義理論來引導算法內容的配置。

(二)完善資本規制:以群己共律駕馭資本力量,推動網絡主流意識形態傳播

生成式人工智能時代,多元主體的交互作用中會生成意識形態操縱風險。因此,我們應從不同主體入手,通過完善資本規制,應對生成式人工智能時代意識形態操縱風險。

1.管控資本價值導向,堅持政府主導企業驅動原則

人工智能是全球科技競爭未來的重點。政府要加大對生成式人工智能技術研發投入,相關企業加強驅動發展。首先,政府要致力于促進政府內部數據共享,建設政府主導型大數據體系。其次,政府要加大對大型語言模型的研發投入,擴大數據集的規模和覆蓋范圍,提高數據集的質量和多樣性,進而提高國產大型語言模型的性能和質量。最后政府要加大算法問責力度,促使企業增強算法透明度,探索算法全過程監督模式。

2.嚴防資本主義滲透,強化社會主義意識形態陣地建設

面對西方國家的網絡意識形態滲透,要在社會主義意識形態陣地上站穩腳跟,堅守我國網絡意識形態安全防線。首先,要嚴防西方網絡意識形態滲透。西方輸出自身價值觀念中存在的謬誤,要科學批判進而揭示其本質與危害。其次,要加強主流意識形態引領。堅守馬克思主義意識形態的思想理論陣地,堅持社會主義核心價值觀,以喜聞樂見的方式開展工作激發人們思想情感共鳴。

3.加強資本向善建設,積極引導資本服務網絡公共社會

面對資本“喂養”數據背后所存在的黑箱,我們要加強資本向善建設,積極引導資本服務網絡公共社會。生成式人工智能在數據收集和資源開發方面具有技術優勢,要建立龐大的數據模型和資源庫,以便深入挖掘和收集網絡主流意識形態話語資源。要加強對各類用戶的調查研究,掌握受眾群體的基本情況及需求特征,并以此作為制定宣傳策略和開展工作的依據。要構建網絡主流意識形態資源數據庫,其中包含理想信念教育、愛國主義教育、社會主義核心價值觀教育等內容,以數字化、大眾化、符號化的數據信息形式呈現網絡主流意識形態。

(三)引導技術向善:以價值理性匡正工具理性,堅持網絡主體以人為本原則

科技進步是決定未來的戰略制高點。然而在大型語言模型開發方面,我國與世界相比還存在差距。因此,我們要堅持以人為本原則,以價值理性匡正工具理性,同時要加大核心技術攻關,搶占技術高地,堅決維護國家科技安全,增強網絡主流意識形態風險防范能力。

1.加大核心技術攻關,增強網絡主流意識形態風險防范能力

人工智能技術能否安全可靠應用,是決定其能否維護國家安全的關鍵因素。面對意識形態、境外網絡攻擊的安全風險,建立本土化專用模型將是當前各行業自然語言處理的主要選擇。加快語言生成模型國產化,才能既保證國內社會享有人工智能產業帶來的技術升級,又能規避被人卡脖子以及無法管理等問題。面對技術差距背后隱含的意識形態話語霸權,需要站好自身意識形態立場,用自己的話語、語料庫、應用場景來抵御其帶來的意識形態沖擊和風險。

2.以人本邏輯馴化“工具崇拜”,提升公眾網絡意識形態安全素養

生成式人工智能的發展給人們的工作學習生活帶來了極大的便利,這種技術的進步使人們過分推崇依賴它,但是人工智能并非無所不能的,我們應堅持以人為本原則,以價值理性來駕馭工具理性,推動人自由而全面發展。通過多樣化的教育活動,堅持馬克思主義意識形態主導,筑牢主流價值觀念,傳播人工智能相關安全知識、政策與法律法規,使人們正確認識和使用生成式人工智能,堅持以人為本和以物為用統一,提升公眾網絡意識形態安全的素養。

3.以倫理規則約束“技術主義”,加強網絡空間監督和管理

大型語言模型技術帶來的問題復雜多元,可能引發潛在的法律倫理風險,需要引起高度重視。例如,ChatGPT 沒有道德倫理原則,在回答問題的過程中可能傳播錯誤信息,形成回聲室效應,引發社會和監管問題。倫理規則的制定和遵守將對確保技術和社會的健康發展發揮關鍵作用。同時,要注重加強監督和管理。通過制定準則公約等措施,增強企業責任意識和技術倫理意識,規范使用生成式人工智能技術。在技術賦能方面,通過建立智能信息預警機制,構建智能輿情應急機制,以及構建立體化的網絡輿情監管機制來抑制虛假信息的擴散。

(四)筑牢法治防線:以良法善治維護網絡秩序,加強網絡意識形態治理保障

習近平總書記強調,“國無常強,無常弱。奉法者強則國強,奉法者弱則國弱”[9]。伴隨著生成式人工智能在生活中參與度越來越高,越需要健全生成式人工智能相關法律法規,守住生成式人工智能開發與應用的底線,防止其造成危害。

1.堅持立法先行

“良法是善治的前提”[10]。首先,生成式人工智能領域立法是大勢所趨。生成式人工智能技術空前發展,當前相關法律法規會呈現滯后性。因此,生成式人工智能立法的制定和頒布,應注重結合當前的《中華人民共和國網絡安全法》《中華人民共和國數據安全法》等相關法律規范,我國也最新發布了《生成式人工智能服務管理暫行辦法》。其次,先行制定相應的管理辦法。為預防生成式人工智能大規模應用內帶來的法律風險,應盡快出臺專門性的管理辦法,以及通過對現有法律規范進行解釋,以維護法律的穩定性、連續性和價值規范性。

2.堅持嚴格執法

制度的生命力在于執行。首先,培養具備網絡執法技能的專業隊伍。加強對網絡執法人員進行思想政治教育和職業道德教育,提高他們在新時代下依法履行社會責任的自覺性、主動性,確保其成為維護國家信息安全的主力軍。隨著互聯網技術和大數據應用的發展,“網絡安全+政務”將是大勢所趨,需要建設更多具有強大功能、先進水平和國際競爭力的新型網絡安全產品。其次,對網絡執法設備進行升級。加強網絡法治建設,必須提高網絡執法技術裝備水平。若缺乏核心技術的硬件支撐,執法設備的安全性和可控性將難以得到保障。我們需要不斷升級網絡科技手段,攻克網絡執法的核心技術難題,為網絡執法注入新的活力。

3.凝聚法治共識

只有凝聚法治共識、培育法治意識、提升法治素養,才能使得網絡空間清朗。首先要創新普法形式,增強網民法律意識和法制觀念。隨著時代的發展,人們的生活節奏日益加快,越來越傾向于在碎片化的時間中獲取信息。生成式人工智能時代的到來,為我們開展法治宣傳提供了新載體,也帶來了前所未有的挑戰。普法宣講應當順應網民的思維模式和語言習慣,以其喜聞樂見的方式激發網民對法治思想的熱情,營造人們自覺知法懂法用法的法治氛圍。其次要在法治框架下深入了解生成式人工智能。當前,隨著人工智能技術發展速度不斷加快,出現了諸如“人工智能+法律”“人工智能+司法”等多種智能應用場景,對傳統法律體系產生巨大沖擊。隨著生成式人工智能逐漸深入人們的日常生活,給人們的生活帶來便利,但面對其誘惑需要了解生成式人工智能的使用權限,在法治框架下合理使用智能化的生成式人工智能。

猜你喜歡
人工智能算法
我校新增“人工智能”本科專業
基于MapReduce的改進Eclat算法
Travellng thg World Full—time for Rree
2019:人工智能
進位加法的兩種算法
人工智能與就業
算法初步兩點追蹤
數讀人工智能
基于增強隨機搜索的OECI-ELM算法
下一幕,人工智能!
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合