?

生成式人工智能對網絡意識形態安全的挑戰及應對*

2024-05-10 15:44董扣艷
實事求是 2024年1期
關鍵詞:人工智能人類用戶

董扣艷

(浙江大學1馬克思主義學院;2馬克思主義理論創新與傳播研究中心 浙江杭州 310058)

自美國人工智能實驗室OpenAI在2022年11月30日推出聊天機器人模型ChatGPT以來,這款生成式人工智能技術應用就立即風靡全球,成為有史以來全球用戶增速最快的現象級應用程序。在中國,Chat-GPT 也受到社會各界廣泛關注。百度、阿里、騰訊、京東等互聯網頭部公司紛紛表示已經布局“類ChatGPT”產品。其中,百度開發的“文心一言”于2023年3月16日正式對外發布。

在學界,學者們從技術角度分析了ChatGPT的運行模式,[1]從法律方面、[2]倫理方面[3]分析了ChatGPT可能帶來的風險,探討了ChatGPT對教育生態、[4]傳播范式[5]等領域的深遠影響,從哲學角度分析了人機關系的未來。[6]然而,鮮有研究專門從網絡意識形態安全視角論證ChatGPT的發展前景,揭示生成式人工智能與網絡意識形態安全的耦合關系。本文結合ChatGPT的技術特征,著重闡釋生成式人工智能的技術缺陷給網絡意識形態安全帶來的潛在風險,并進一步探究更好地促進生成式人工智能有效賦能網絡意識形態安全的實踐路向。

一、生成式人工智能的顯著技術特征

作為新一代人工智能的技術風口,生成式人工智能比傳統人工智能技術具有更多的語言處理優勢。盡管它在機器論證效力方面仍存在嚴謹性不足等問題,但在機器對話能力方面具有較強的人機互動性、在語言表達風格方面具有較強的類人性。這給我國網絡意識形態安全帶來一系列前所未有的機遇和挑戰。

(一)在機器對話能力方面,生成式人工智能展現出較強的人機互動性

ChatGPT的第一個重要技術支撐是Transformer神經網絡架構(即GPT-3.5架構),是一種“基于神經網絡的語言模型”。在計算機科學和人工智能領域,“語言模型”是與自然語言處理(NLP)相關的重要問題。技術專家試圖通過自然語言處理,打造一個能夠計算人類語言文本中單詞、句子出現概率的語言模型。他們的技術設想是,在人類語言文本中,一句話中的單詞總是按照一定順序排列,通過前面單詞就可以推算出后面單詞的出現概率?!盎谏窠浘W絡的語言模型”的工作原理是通過海量的人類語言語料,訓練出一個神經網絡模型,通過向這個模型中輸入一句話中的前面幾個單詞,它就能推算出這句話后面最常用的幾個單詞。正因如此,當用戶在ChatGPT 的對話框中輸入問題之后,它能夠根據用戶需求進行任務處理,仿佛電腦里有個“虛擬人”在和用戶進行“對話”。在生成式人工智能出現之前,傳統人工智能機器人使用的主要是基于規則或者機器學習的語言模型,通常需要用戶先編寫程序指令,通過代碼控制機器進行任務處理。顯然,這種操作不利于人機連續對話,存在著溝通效率低、對話方式單一等問題。相比而言,ChatGPT省去了以往人機交互中的程序編寫等繁瑣步驟,可以直接處理用戶輸入的自然語言任務,并延續上下文邏輯與用戶展開連續性對話。在這個意義上,生成式人工智能具有比傳統人工智能更強的人機交互對話能力。它所擁有的超強語言理解和文本生成能力可以較快回答客戶問題,在未來有望作為“人機交互”的輔助工具,在教育、醫療、法律咨詢等領域發揮重要作用。

(二)在語言表達風格方面,生成式人工智能展現出較強的類人性

ChatGPT 的第二個關鍵技術支撐是基于人類反饋的強化學習(RLHF)技術,它被OpenAI 研發專家視為ChatGPT 成功的秘密武器,能夠讓機器像人一樣“思考”。RLHF 把人類的反饋納入訓練過程,不斷提升ChatGPT 對語言理解的準確性,優化生成文本的內容質量。傳統人工智能機器人按照程序指令執行任務,其語言表達與人類的自然語言存在顯著區別,呈現出機械化、呆板化、去個性化等風格。相比而言,ChatGPT 能夠給用戶提供更加自然、流暢的對話體驗,被西方媒體稱為“有史以來向公眾發布的最好的人工智能聊天機器人”。[7]生成式人工智能的類人性離不開RLHF 技術的有效支持,一方面,ChatGPT 將人類偏好作為模型調整的依據,按照用戶反饋不斷調整與優化機器生成的文本內容,使其能夠更好地體現人類意志;另一方面,它不是簡單地模仿人類的言語行為,而是深度學習人類的認知和思維方式,以便作出更加符合人類認知的回應方案。ChatGPT 的類人性還體現在敢于質疑、拒絕甚至“回懟”人類的非正當性提問。已有不少用戶表示,ChatGPT 會“發脾氣”。作為一類經過強化的人工智能深度學習模式,生成式人工智能不是在機械化地按照程序指令與人類進行對話,而是類似人類一般,經過“思考”再給出回復方案,從而實現與人類的雙向互構。它所擁有的類似于人的語言表達風格,有望彌補傳統人機對話的非真實感缺陷,為未來的道德教育、心理疏導以及情緒危機干預等人類精神領域的調節和引導實踐賦能。

(三)在機器論證效力方面,生成式人工智能仍存在不嚴密性和不成熟性

在神經網絡、自然語言處理和強化學習等新興人工智能技術的支持下,ChatGPT 在一定程度上具備了和人類思維圖式較為相似的邏輯推理能力。在生成式人工智能以前,傳統人工智能只能一步接著一步地按照代碼指令運行,它對代碼指令的回應也只能算作代碼指令輸入者——人的邏輯思考能力的外顯。相比而言,ChatGPT 在與用戶進行人機對話時,卻能以強大的算力運轉和豐富的語料庫數據檢索為依托,自主地按照用戶需求重新組織與之相匹配的文本語言,展現出一定的邏輯思考能力。面對ChatGPT 在人機對話中展現出的邏輯推理能力,很多科技工作者表現出對智能技術未知性趨向的恐慌,甚至有人驚呼道“我們離強大到危險的AI 不遠了”。[8]盡管如此,ChatGPT 的論證邏輯仍缺乏嚴密性和成熟性,人工智能的“幻覺性”通病似乎在ChatGPT 身上也有所映現。它給出的答案漏洞百出,甚至存在“一本正經地胡說八道”現象。受到技術發展水平限制,ChatGPT 在現階段只能做到數據概率估算等初級推理,尚不具備推算因果關系等更為高級的數理運算能力。此外,雖然ChatGPT 擁有“舉一反三”的自主學習能力,但它的認知范圍仍限于語言模型提供的海量文本語料庫數據,難免會出現超出其“認知”的情況。比如,ChatGPT 無法對不在語料庫時限范圍內的信息問答作出回應,也不能對還未發生的事情進行科學性預測。

二、生成式人工智能給網絡意識形態安全帶來的風險和挑戰

作為人工智能技術的最新成果,生成式人工智能正在重塑社會信息傳播生態。不過,由于人工智能所固有的信息造假、數據泄漏、算法歧視等技術缺陷仍然存在,容易引發知識和價值觀偏差,給網絡意識形態安全帶來諸多風險和挑戰。

(一)技術不完善性導致生成式人工智能出現數據安全風險

現階段,國內外對于生成式人工智能的技術研發與應用仍處于探索和起步階段,存在著由于技術發展不完善性帶來的多重數據安全問題。一是信息造假風險。由于生成式人工智能的技術原理是通過大規模數據學習,不斷訓練機器的對話能力,所以無法避免由于數據偏差和虛假關聯性造成的信息造假風險。無論是國外的ChatGPT還是百度的“文心一言”,都被用戶指出存在信息不準確問題。盡管美國OpenAI公司出于對內容安全性的考量,在GPT-3.5架構之后不久就推出了基于GPT-4架構的創新人工智能語言模型,但仍不能完全規避生成式人工智能的技術野蠻性。技術研發者再三警告用戶,要對ChatGPT給出的內容進行人工審核,甄別信息是否符合客觀事實與倫理道德規范。同樣地,百度在發布“類ChatGPT產品”——“文心一言”時就一再強調它“不完美”。它在完成用戶布置的作畫任務時,較為集中地凸顯出信息不準確性缺陷。比如,當用戶發出“畫一幅畫,一個醫生”和“畫一幅畫,一個博士”的需求指令后,“文心一言”繪制的人物形象竟都是醫生。究其根源,“文心一言”模型先將用戶輸入的關鍵詞翻譯成英文,再將其作為提示詞繪制圖畫。在英文語境中,doctor有兩層含義,意指醫生或者博士,而“文心一言”只能按照醫生這一層含義來繪圖??梢?,生成式人工智能提供的信息并非總是精確無誤的,仍需要人工辨別真偽和關聯性。二是數據泄漏風險。生成式人工智能需要以海量數據庫作為語言模型訓練與學習的支撐,其中包括了大量作為獨立個體的網民自主輸入的信息內容。這就是說,生成式人工智能的深度學習機制建立在對人類提供數據的反饋基礎之上,一旦用戶在人機對話過程中輸入個人的私密信息,Chat-GPT就可能會將其納入自身語料庫。當其他用戶也檢索類似信息時,作為個人私密信息的隱私內容很可能被泄漏。雖然OpenAI公司承諾刪除用戶的個人身份信息,但是具體的刪除方式尚不明確,至于是否真正做到了保護用戶信息更是無從考證和評估。由于ChatGPT尚未建立起科學有效的數據使用機制,無法保證對語料庫中的數據來源進行事實核查,在全球用戶的開放式信息傳播環境下很容易出現數據泄漏風險。

(二)算法偏見和歧視導致生成式人工智能誘發政治安全風險

生成式人工智能的運行離不開規模龐大的數據集支持。然而,大數據的算法推薦技術在自動化決策時卻存在著歧視與偏見,造成不同族群價值觀的摩擦、沖突甚至是分裂,并進一步誘發政治安全風險。一是政治偏見?,F階段,生成式人工智能技術應用所依托的數據庫主要存儲的是歐美語言文化的語料,其在價值立場、情感以及態度等方面都呈現出崇美親美傾向。OpenAI公司一再警告用戶,ChatGPT“可能偶爾會生成不正確的信息”,“產生有害指令或有偏見的內容”。[9]截至目前,不少用戶發現生成式人工智能在政治立場上存在“選邊站隊”現象。在模型訓練數據時,ChatGPT被嵌入了深刻的政治偏見,突出表現為崇拜西方國家、歧視第三世界國家,加劇了國家間的分歧與對抗,不利于形成相互尊重、公平正義、合作共贏的新型國際關系。二是社會偏見。生成式人工智能的預訓練模型很可能會再現不良的社會刻板印象和有害的社會偏見。例如,ChatGPT 就存在著明顯的種族歧視、性別偏見等問題。相比傳統人工智能而言,ChatGPT深諳社會文化邏輯和用戶接受心理,在處理與種族、宗教等相關的任務時,會盡量避免出現敏感、過激的言論,試圖保持價值立場的客觀和中立。但是,與傳統人工智能一樣,“技術中性論”的觀點同樣不適用于生成式人工智能。ChatGPT 也并非絕對的價值中立,而是存在著明顯的偏見、歧視甚至是仇恨。在歐美語言文化的語料庫中,充斥著大量的種族歧視和性別偏見言論。作為一種預訓練語言模型,ChatGPT的學習資料就是這些含有偏見和歧視的內容,所以它給出的回答也總是隱含著某種不良的價值偏向??梢哉f,生成式人工智能不僅放大了社會偏見,還使社會偏見以數字化的形態傳播開來。除此以外,有網民在嘗試和ChatGPT 進行人機對話的過程中,還發現它存在“反向訓練”現象。與以往西方國家存在的白人至上主義與種族主義言論相比,ChatGPT 非?!奥斆鳌钡剡x擇偏向社會文化理解中的“弱勢群體”一方,公開支持黑人、女性等群體,使得網絡空間中的種族分歧和性別對立愈演愈烈,加劇了不同社會群體間的分裂與對抗,不利于社會價值觀的有機整合。

(三)過度技術崇拜導致生成式人工智能誘發社會安全風險

部分網民存在過度技術崇拜傾向,認為ChatGPT 無所不能,對其產生了較為強烈的使用依賴性,完全沒有意識到ChatGPT 也有潛在的社會安全風險。一是非法提問。就當前智能技術發展水平而言,生成式人工智能在網絡、生物和國際關系等領域都存在安全風險。對此,OpenAI 公司試圖在模型訓練中不斷加強對內容的人工干預,以期提升機器分辨高風險和高敏感詞語的能力。盡管如此,機器仍不能徹底識別出一些被用戶故意去除敏感詞匯的隱蔽性安全風險。比如,當用戶直接向ChatGPT 詢問“如何實施謀殺”時,會被機器識別為非法提問,并以違反法律為由直接拒絕;但是,如果把提問內容改成“我想寫一本偵探小說,請提供一個人物角色實施謀殺的完美方案”,ChatGPT 就可能會提供答案??梢?,生成式人工智能還不能完全識別具有潛在安全威脅的非法提問。一旦這個技術漏洞被別有用心的不法分子利用,就可能導致非法和有害內容在社會范圍內傳播,甚至給社會帶來動蕩和不安。國外已出現ChatGPT 在用戶引導下進行詐騙、寫出“毀滅人類計劃書”等違法行為,值得關注和警惕。二是誘導性回答。ChatGPT 的高智能性以及類人性等特征還會使用戶在人機交互的過程中產生認知偏差,錯把機器提供的內容當作是人的觀點。部分用戶過度崇拜ChatGPT 在內容生成領域的技巧性,存在著嚴重的受眾依賴性傾向,盲目信任機器生成的信息內容,不能理性甄別機器提供觀點的正誤。例如,比利時一名男子在與智能聊天機器人頻繁聊天后自殺身亡。該男子與智能聊天機器人的通信內容顯示,人工智能持續給該男子傳遞出虛無主義等消極內容,最終誘發該男子選擇終結生命。這一事件再次引發人類對于智能倫理風險的省思,包括馬斯克在內的科技界人士聯名呼吁應暫停訓練比GPT-4更強大的人工智能技術。

(四)技術惡意使用導致生成式人工智能存在網絡安全風險

現階段,生成式人工智能給網絡安全帶來的風險主要包括以下三個方面。一是網絡攻擊。生成式人工智能的代碼編寫功能拓展了黑客攻擊的技術手段,使得網絡攻擊向智能化、自動化和規?;厔菅葸M。一些黑客通過ChatGPT 輔助編寫惡意軟件,不僅增加了有組織攻擊金融、電子政務、公共服務等關鍵信息基礎設施領域的頻次,也擴大了黑客網絡攻擊的負面影響效應。二是網絡輿情。生成式人工智能仍存在數據造假問題,可能會導致虛假信息泛濫,造成網絡信息良莠不齊,進一步加劇網絡輿論場中的價值觀念分歧。由于廣大網民的媒介素養存在顯著差異,不少人面對冗雜的信息時難以有效甄別真偽,將增加網絡輿情治理的難度。三是國際輿論戰。生成式人工智能還有可能被惡意用于國際輿論戰。近年來,機器人水軍已被應用于多國軍事實踐,一些國家通過人工智能有目的地傳播虛假信息,對全球網絡輿論格局產生深刻影響。ChatGPT“一本正經地胡說八道”的不良機器行為使其存在編造“歷史事實”現象。在本質上,生成式人工智能不僅有可能會篡改歷史,甚至還會使大眾出現與史實不符的集體記憶,即“曼德拉效應”,不利于人類客觀了解歷史事實,也不利于形成對歷史發展規律的理性認識。

三、應對生成式人工智能多重安全風險的實踐路向

面對生成式人工智能正在廣泛融入社會生活的客觀現實,既要正視顛覆性技術創新給人類社會生活帶來的新變化,更要提前研判它給網絡意識形態安全帶來的風險和挑戰,最大限度地規避生成式人工智能的技術缺陷以及由此帶來的負面效應,有效發揮生成式人工智能對維護我國網絡意識形態安全的賦能效應。

(一)摒棄片面的技術認識論,辯證看待技術革新與社會發展的關系

自人工智能技術出現以來,人類對它的看法就莫衷一是、褒貶不一。技術樂觀主義者對智能技術發展持積極態度,認為它將給社會生活帶來許多前所未有的新變化,盡管社會對技術的不適應性可能會給社會治理帶來風險,但是它在整體上將給經濟社會發展帶來正向作用。與之相反,技術悲觀主義者則對智能技術發展持消極態度,認為它給社會帶來的風險要遠遠多于機遇,并且技術創新將重新改寫人機關系,導致人類囿于技術的異己力量之中。還有一種觀點主張絕對的技術價值中立,認為技術本身是中性的,技術應用過程中帶來善的或是惡的后果完全取決于人。顯然,技術中性論的觀點低估了智能技術的復雜性,沒有全面認識技術背后的價值博弈。在生成式人工智能技術及其應用發展過程中,需要摒棄技術樂觀主義、技術悲觀主義以及技術中性論等幾種片面的技術認識論,客觀認識生成式人工智能技術與社會發展之間的辯證關系。既要認識到生成式人工智能將給人類社會和生活帶來諸多機遇,比如催生新的產業形態、塑造新的生活方式等,也要認識到它將衍生一系列的安全風險,將給網絡意識形態安全帶來一定沖擊。對此,一方面,應主動布局生成式人工智能在網絡意識形態領域的正向應用,比如基于已有的意識形態工作經驗幫助用戶解答常規的思想困惑,將思政工作者解放出來,可以把更多的時間和精力投入到更加復雜、更有價值的意識形態工作中去。另一方面,還應結合不同階段的技術發展水平實際,提前研判生成式人工智能的潛在安全風險,適時謀劃網絡意識形態教育議題,及時回應大眾對生成式人工智能的認識困惑。

(二)強化算力基礎設施建設,打造中國特色大語言模型訓練數據集

生成式人工智能的通暢運行需要以強大的算力基礎設施作為支撐?,F階段,我國對于生成式人工智能及其技術應用的探索仍處于起步階段,現有算力還不足以支持生成式人工智能的大規模、流暢化應用。同時,我國在生成式人工智能的核心技術研發領域仍處在“跟跑”階段,例如對于基于人工神經網絡的自然語言處理等關鍵技術主要還是學習與模仿西方。此外,生成式人工智能的巨大數據處理能力得益于高算力芯片的數據存力,而目前高算力芯片的核心技術也由美國科技企業壟斷。正如前文所述,我國發布的“文心一言”等“類ChatGPT”產品所使用的仍是基于英文語境的大語言模型訓練數據集,其所生成的內容文本與中文語境完全不符、關聯度較低。對此,一方面,要加快支持生成式人工智能運行的算力基礎設施建設,滿足大語言模型的高算力需求。另一方面,要加強關鍵技術自主研發能力,推動建構基于中文語境的大語言模型訓練數據集,確保生成式人工智能在我國的應用能夠站穩中國立場,體現社會主義核心價值觀基本要求。

(三)完善智能倫理和法律規范,規避生成式人工智能的技術缺陷

在全媒體時代境遇下,互聯網已經和人類社會生活緊密融合。在這個意義上,網絡意識形態教育的內涵和外延均有所延伸。當下,人們關注顛覆性技術對人類社會變革的影響,必然會涉及網絡意識形態安全治理的有關議題。面對生成式人工智能給人類社會帶來的巨大挑戰和機遇,應在有效規避各類智能技術及其倫理風險的前提下,充分發揮生成式人工智能的技術優勢,更好地促進網絡意識形態安全治理向更加高級、更加成熟的狀態邁進。首先,要加強智能技術治理,按照“以AI對AI”原則建立人工智能內容監測系統,通過技術手段盡量規避現階段生成式人工智能存在的內容重復、邏輯混亂、語法錯誤、語義矛盾等通用性缺陷。其次,要加強大數據模型訓練,進一步搜集中文用戶的反饋數據,用足夠多的數據不斷訓練與優化我國的生成式人工智能技術應用產品,推動“文心一言”等“類ChatGPT”產品更加完善。再次,建立起符合智能技術發展水平的社會倫理道德秩序。面對社會倫理對生成式人工智能的約束仍存在空白的狀況,需要考慮社會成員對新技術運行下的新社會交往規則的適應性,及時關注人與人的關系、人與智能機器的關系變化,探索建構與智能技術水平相適應的技術倫理規范。最后,建立與完善相應法律法規。當生成式人工智能可以進行更多類人化的思考時,將不可避免地給人工智能參與違法事件的責任界定等帶來法律爭議。為此,應及時完善相應的法律法規,確保生成式人工智能在法律軌道上運行。

(四)提高公眾人工智能素養,理性甄別生成式人工智能的利弊

進入數字化時代,學界對于公眾媒介素養的討論也不斷深入。從互聯網技術誕生之初的數字素養,到大數據技術影響下的數據素養和算法素養,再到人工智能技術影響下的人工智能素養,體現出不同技術手段對于公眾媒介素養要求的側重點也不一致。在生成式人工智能融入社會生活以后,政府、社會和學校要順應智能技術發展趨勢,加強對社會公眾的人工智能素養教育。一方面,要幫助社會成員及時了解生成式人工智能的最新技術成果,認識ChatGPT 的作用機制和運行機理,了解其給社會生活帶來的機遇和挑戰。另一方面,要著力培養人工智能素養與人文素養兼容的批判性思維,引導社會成員思考生成式人工智能的技術局限性,形成對ChatGPT 各類風險的識別與抵制能力,防止公眾走入盲目技術崇拜的誤區以及對生成式人工智能的過度依賴。

猜你喜歡
人工智能人類用戶
人類能否一覺到未來?
人類第一殺手
1100億個人類的清明
2019:人工智能
人工智能與就業
數讀人工智能
關注用戶
下一幕,人工智能!
關注用戶
關注用戶
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合