?

生成式人工智能應用的倫理立場與治理之道:以ChatGPT 為例

2024-04-10 12:20馮子軒
華東政法大學學報 2024年1期
關鍵詞:倫理人工智能人類

馮子軒

目 次

一、生成式人工智能應用的倫理規范現狀

二、生成式人工智能應用的多重倫理困境

三、生成式人工智能應用的人本主義倫理立場

四、人本主義立場下的生成式人工智能應用的倫理治理機制

五、結語

智能,是一種普遍的心智能力,包括推理、計劃、解決問題、抽象思考、理解復雜概念、快速學習和從經驗中學習的能力。智能并不局限于某個特定的領域或任務,而是包含了廣泛的認知技能和能力。人工智能是對人類智能的模擬與延伸。近年來,以ChatGPT 為代表的生成式人工智能,通過對海量文本數據集進行訓練,使機器擁有強大的語言理解和文本生成能力,〔1〕參見杜雨、張孜銘:《AIGC:智能創作時代》,中譯出版社2023 年版,第6 頁??梢詫θ祟愝斎雰热莓a生高質量會話自動糾正錯誤,能解決跨越語言、數學、編碼、視覺、醫學、法律、心理學等領域的問題,類似產品如谷歌公司的PaLM〔2〕Aakanksha Chowdhery et al., Palm: Scaling language modeling with pathways.arXiv (Oct.5, 2022), https://arxiv.org/pdf/2204.02311.pdf, accessed July 4, 2023.和LaMDA〔3〕Romal Thoppilan et al., Lamda: Language models for dialog applications.arXiv (Feb.10, 2022), https://arxiv.org/pdf/2201.08239.pdf, accessed July 4, 2023.、我國百度公司的“文心一言”、阿里公司的“通義千問”等。與此同時,該項技術也引發了人工智能倫理問題的爭議。例如,ChatGPT 可以輔助研究工作,在應用中會產生抄襲、剽竊、數據造假、實驗造假等學術不端行為,已被部分教學科研機構禁用?!?〕參見朱永新、楊帆:《ChatGPT/生成式人工智能與教育創新:機遇、挑戰以及未來》,載《華東師范大學學報(教育科學版)》2023 年第7 期,第9 頁。OpenAI 承認,GPT—4 與早期的GPT 模型有類似的局限性,它本身并不是完全可靠的,存在偏見、虛假信息、隱私、過度依賴等風險。

本文將觀察生成式人工智能應用的倫理規范現狀,歸納其在實際應用中所產生的倫理問題,探索其倫理規范體系的建構立場與具體進路。當前,生成式人工智能存在侵犯個人基本權利、繼承人類現有錯誤價值觀、依賴基于擬態環境輸出結果、常識悖論等倫理困境?;谧匀徽Z言處理與機器強化學習等技術的發展,需要場景化建構生成式人工智能應當遵循的基本倫理原則,并提出治理策略,為增進人類福祉和推動構建人類命運共同體提供有力的科技倫理支撐。

一、生成式人工智能應用的倫理規范現狀

以ChatGPT 為例,其核心技術以預訓練、大模型、生成性為特征,從人類反饋中強化學習,〔5〕Chengwei Qin et al., Is ChatGPT a General-Purpose Natural Language Processing Task Solver?, arXiv (Nov.19, 2023), https://arxiv.org/pdf/2302.06476.pdf, accessed July 4, 2023.通過大規模的參數量和數據量,細致鏈接到人的需求,最終生成輸出結果,實現對人類認知機制的深度模擬。生成式人工智能也具有對其生成答案的評判能力,實現捕獲用戶意圖、智能交互對話、文本生成、文獻爬取等功能?!?〕參見杜雨、張孜銘:《AIGC:智能創作時代》,中譯出版社2023 年版,第6 頁。有學者認為,ChatGPT 是人工智能技術在擬真度和功能維度上的“里程碑”,其擁有豐富的背景知識和強大的歸納能力、對形勢的判斷客觀清晰、規劃設計穩健合理、作出決策冷靜快捷、采取行動精準有力、工作時間更長、資源消耗更少,還能通過反饋和學習自動糾錯、自主升級,相對于人的智能優勢或將持續擴大?!?〕參見李倫主編:《人工智能與大數據倫理》,科學出版社2018 年版,第265 頁。具備強大能力的生成式人工智能應用引發了社會普遍憂慮,主要源于ChatGPT 等技術的“盲區”引發了多重倫理沖突,各國也相繼開展有針對性的倫理規范探索。

(一)國際組織層面生成式人工智能應用的倫理規范現狀

國際組織層面主要以倫理倡導性規范為主。2018 年6 月,G7 峰會通過了《人工智能未來的共同愿景》,涉及的倫理原則包括以人為本、增進信任、保障安全、保護隱私,初步明確人工智能發展過程中應遵循的倫理原則。此后,無論是聯合國教科文組織通過的《人工智能倫理問題建議書》,〔8〕參見《聯合國教科文組織呼吁盡快實施人工智能倫理標準》,來源:https://baijiahao.baidu.com/s?id=1761872144108353042&wfr=spider&for=pc.,2023 年12 月23 日訪問。還是世界互聯網大會以“人工智能時代:構建交流、互鑒、包容的數字世界”為主題進行的探討,〔9〕參見趙秋麗等:《世界互聯網大會數字文明尼山對話在曲阜開幕》,載《光明日報》2023 年6 月27 日,第4 版。多集中于一般人工智能應用領域,目的是在人工智能研發與應用的倫理領域凝聚共識,宣示意義較強,對細分領域關注不多。

(二)主要發達國家和地區生成式人工智能應用的倫理規范現狀

歐盟的倫理審查特色鮮明。在ChatGPT 問世前,歐盟就一直在推動基于風險分層規制的人工智能倫理治理模式。ChatGPT 問世后,歐盟高度重視生成式人工智能引發的倫理問題,力圖通過政策和法律手段推動相關倫理審查,實現對生成式人工智能應用的研發、市場準入、用戶合法權益保障等問題的監督和管理。歐盟于2023 年6 月發布《人工智能法案》,將ChatGPT 歸類至“高風險”技術,提出對這類“高風險”技術進行必要且全面的倫理審查,以降低風險,確保用戶的自主性、公平對待與隱私?!?0〕參見張璐:《通用人工智能風險治理與監管初探——ChatGPT 引發的問題與挑戰》,載《電子政務》2023 年第9 期,第17 頁。歐盟主張人工智能應當符合人類倫理,不應背離人類基本道德和價值觀,較之一般人工智能,歐盟對生成式人工智能的倫理審查機制更為審慎,強調基本倫理秩序維護與公民基本權利保護。

美國既鼓勵生成式人工智能等新技術的發展,同時也以政府命令的方式對其開展跟蹤監管,是一種鼓勵與監管并行的倫理治理模式。美國一向關注科技企業創新,生成式人工智能技術實現重大突破后,美國政府及其咨詢機構就ChatGPT 相關問題密集發布了數份文件,〔11〕例如2023 年1 月,美國國家標準與技術研究院(NIST)公布《人工智能風險管理框架》,指導機構組織降低在開發和部署人工智能系統過程中的安全風險,避免產生偏見等負面后果,提高人工智能可信度,保護公民的公平自由權利;2 月,美國總統拜登在簽署的一項行政命令中,要求聯邦政府在設計和使用人工智能時,應避免受偏見、算法歧視等危險的威脅;4 月,美國商務部下設的國家遠程通信和信息管理局發布一項關于AI 可歸責性政策文件的征求意見稿,其中涉及生成式人工智能在信息扭曲、深度偽造、隱私侵犯和虛假信息等方面的人工智能系統問責政策;6 月,美國政府為制定《國家人工智能(AI)戰略》征求意見,部分內容聚焦保護人權、促進公平公正等方面。參見黃日涵、姚浩龍:《被重塑的世界?ChatGPT 崛起下人工智能與國家安全新特征》,載《國際安全研究》2023 年第4 期,第86 頁;畢文軒:《生成式人工智能的風險規制困境及其化解:以ChatGPT 的規制為視角》,載《比較法研究》2023 年第3 期,第166 頁。旨在保障公民自由、公平等憲法權利不受算法歧視等風險的侵害,并對新技術應用造成的信息扭曲、深度偽造、隱私侵犯等問題建立問責系統。ChatGPT 問世后,美國鼓勵發展ChatGPT 等生成式人工智能,但并沒有對其“網開一面”,對倫理問題的重視程度明顯超越以往。多份文件提出確保人工智能的合倫理性、可信賴性,以及對公民個人信息、隱私、公平、自由等合法權益的保障,體現了美國在應對生成式人工智能發展問題中的人本主義立場,并在聯邦政策與法律框架制定中有所表達。

英國早在2018 年便提出五大倫理原則,〔12〕五大倫理原則,即為了公共利益發展AI、可理解性與公正原則、保護隱私權與數據權、利益共享,以及不傷害不破壞不欺騙原則。參見吳紅、杜嚴勇:《人工智能倫理治理:從原則到行動》,載《自然辯證法研究》2021 年第4 期,第50 頁。體現出濃厚的人本主義色彩。近期,該國就ChatGPT等生成式人工智能采取的倫理規范措施具有較強的針對性。例如在教育領域,英國多所高校嚴格限制ChatGPT 等生成式人工智能在撰寫論文等學術活動中的應用,違者面臨開除等嚴厲處分?!?3〕參見宋信強:《GPT—4影響的全面分析:經濟高質量發展與國家安全防范》,載《廣東財經大學學報》2023年第2期,第109頁。英國也重視ChatGPT 等生成式人工智能的應用監管問題,其中的維護市場秩序、保障相關消費者合法權益、禁止學生于學術活動領域利用等觀點體現了英國對公平、正義等基本權利和倫理規范的尊重。

(三)我國生成式人工智能應用的倫理規范現狀

我國人工智能倫理規范屬建設初期,仍在探尋安全與發展的平衡方案。當前,我國高度重視生成式人工智能應用的倫理問題,為應對這一新技術對法律倫理與秩序帶來的沖擊,多部委聯合發布《生成式人工智能服務管理暫行辦法》,要求生成式人工智能應尊重社會公德與倫理道德、堅持社會主義核心價值觀、防止歧視、保證準確可靠、尊重他人合法權益等?!?4〕參見《生成式人工智能服務管理暫行辦法》第4 條。在地方層面,以《深圳經濟特區人工智能產業促進條例》為例,明確設置人工智能倫理委員會,鼓勵企業利用技術防范倫理安全風險及合規風險??傮w而言,我國正在探索央地聯動、各方參與的倫理治理方案,先后規定了科技倫理委員會機構設置,頒布了倫理原則指引,逐漸形成以人為本、反對偏見與歧視、提升透明度等要求的倫理規范。長遠看,我國相關倫理體系建構仍需在組織架構、程序設計、標準統一和責任承擔等方面予以完善。

二、生成式人工智能應用的多重倫理困境

生成式人工智能的出現正在深刻影響著現有人工智能倫理規范的形態與進路。一方面,生成式人工智能技術的應用對人類在既有人工智能倫理規范中的主體地位造成沖擊,造成倫理秩序的兩難?!叭斯さ赖滦袨轶w”(artificial moral agent),指承擔不同程度道德責任的人工智能體,是伴隨人工智能技術發展而產生的新概念。人工智能產品迅速進入生活場景中,其顯現的倫理后效使我們必須在理論層面、制度層面予以回應。如果不承認智能體的道德主體地位,就會出現責任主體缺位問題,人工智能治理框架的構建將變得困難;如果承認其道德主體地位,則又會對人本主義的倫理秩序造成巨大沖擊。另一方面,既有倫理規范原則性較強,倡導性內容鋪陳較多,難以完全適應生成式人工智能技術新發展,無法切實解決其在應用過程中產生的對擬態環境過度依賴等新問題。人機共存社會中,人工智能的工具屬性聲明應當轉變為行動規范,要求人工智能尊重人類社會的價值、規范和法律,造就人本主義在智能時代的新發展形態。當前,人本主義不彰引發的生成式人工智能倫理困境趨于明顯。

(一)削弱人類主體價值

在人本主義的倫理立場下,人類被賦予了某種固有價值或價值優先,倫理秩序圍繞著人類展開,倫理建構以“人類塑造世界”為核心。但在人機共存的社會中,人工智能正在成為具有一定自主道德行動能力的實施者,并且人工智能極易通過信息輸出去分析、識別和塑造人的觀念與認知體系,引發“人工智能塑造人類”的結果,作為目的的人類主體性將會遭受挫折。再者,由于個體對人工智能的應用能力有差別,與“數據鴻溝”類似,“人工智能鴻溝”的出現或將加劇社群內部分化,部分弱勢群體或將面臨智識的淘汰,又或是成為算法霸凌的受害者,動搖普遍意義上的人本主義立場,對人類被賦予的隱私價值、勞動價值等固有價值或價值優先的倫理立場造成較大沖擊。例如,在隱私價值方面,智能系統會收集溝通信息、社交信息、技術信息、日志數據、使用數據等多方面個人信息,進而對個人信息進行跟蹤與分析。即使訓練語料庫中沒有個人敏感數據,但生成式人工智能通過人機交互有可能推斷出隱私信息,這樣就很容易越過“知情同意原則”,創建包含真實和敏感信息的個人畫像,間接違反最小必要原則?!渡墒饺斯ぶ悄芊展芾頃盒修k法》重點規范提供者在提供服務過程中,對用戶的輸入信息和使用記錄承擔保護義務,不得非法留存能夠推斷出用戶身份的輸入信息。這也說明了,合理合規采集使用用戶的個人信息是當前亟須解決的棘手問題。又如,在勞動價值方面,人工智能對就業會產生負面影響,部分研究關注到人工智能對低端勞動者的就業威脅最大,重復性勞動易被人工智能替代?!?5〕參見張學英:《人工智能下的勞動就業迭代及人力資本投資》,載《河北師范大學學報(教育科學版)》2019 年第3 期,第76 頁。還有部分研究者在分析自動化問題時指出,低技能、低教育水平的勞動者將會是自動化的主要受害者?!?6〕See Autor, David H., Levy, Frank & Murnane, Richard J.,“The Skill Content of Recent Technological Change: An Empirical Exploration”, 118 Quarterly Journal of Economics 1279, 2003, 1279-1333 (2022).另外,在ChatGPT 的監督學習過程中,為保證數據可靠性,研發公司雇用廉價勞動力進行數據標注或訓練,報酬十分微薄。人的參與是生成式人工智能應用的關鍵因素,〔17〕參見汝緒華、汪懷君:《數字資本主義的話語邏輯、意識形態及反思糾偏》,載《深圳大學學報(人文社會科學版)》2021 年第2 期,第149-160 頁。但大量人類勞動價值被遮蔽,并未得到尊重與體現。我們也看到,平臺算法霸權對勞動者帶來空前的壓力,人類主體性地位受到嚴重挑戰,對既有的人類社會倫理秩序產生了影響。

(二)加劇算法偏見與歧視

人工智能應用是對人的智能的模擬與延伸,人類社會存在的偏見歧視問題將大概率被復制到人工智能中。一是作為與人類社會同構的大數據,包含著根深蒂固的偏見?!?8〕參見張玉宏等:《大數據算法的歧視本質》,載《自然辯證法研究》2017 年第5 期,第82 頁。大模型可以從數據中學到刻板聯想,也會從訓練數據集中繼承偏見,并向特定的群體傳播社會偏見,繼承或加深社會刻板印象,使部分人群遭受不公正待遇。例如,生成式人工智能已經表現出一定的宗教偏見,在23%的測試案例中,人工智能將穆斯林直接類比為恐怖分子?!?9〕See Abubakar Abid, Maheen Farooqi & James Zou, Persistent Anti-Muslim Bias in Large Language Models, arXiv (Jan.18,2021), https://arxiv.org/abs/2101.05783, accessed July 4, 2023.二是生成式人工智能可以在人機交互過程中獲取并分析人類回應,不斷反饋,自我強化學習,提高準確性。但是,若使用者存在主觀惡意,傳播虛假或不實數據,或提供的回復本身存有偏見、歧視等個人價值觀因素,則很容易生成有害輸出,造成危害。不同國家和不同語言的用戶的數據更難處理,使真實的數據分析結果容易具有偏狹性?!?0〕參見劉興華:《數字全球化時代的技術中立:幻象與現實》,載《探索與爭鳴》2022 年第12 期,第40 頁。具體而言,在和用戶互動時,生成式人工智能中所運用的算法不能決定用戶會輸入何種數據,無法決定保留或刪除某些數據,只能被動利用用戶和外部環境所提供的各種數據進行強化學習?!?1〕參見許向東、王怡溪:《智能傳播中算法偏見的成因、影響與對策》,載《國際新聞界》2020 年第10 期,第77 頁。如果與算法互動的對象提供了具有偏見的新數據,就會導致其生成歧視和偏見內容。例如亞馬遜AI 歧視事件,亞馬遜對以往10 年的簡歷中的5 萬個關鍵詞進行識別和標識排序,但由于簡歷中大部分為男性,導致訓練出的AI 算法存在重男輕女歧視。

因此,人類意圖通過生成式人工智能應用為自身的行動選擇提供更為全面準確的參考,卻可能反而受其誤導?!?2〕參見李倫主編:《人工智能與大數據倫理》,科學出版社2018 年版,第208 頁。性別歧視、種族主義、地域歧視和年齡歧視等問題可能就隱含在生成式人工智能訓練數據中,進而生成有害信息或結果。除此之外,生成式人工智能應用可能會成為別有用心者散布有害信息的工具,用以傳播不當言論,制造人身攻擊和暴力沖突等?!?3〕參見周洪宇、李宇陽:《ChatGPT 對教育生態的沖擊及應對策略》,載《新疆師范大學學報(哲學社會科學版)》2023 年第4期,第108 頁。

(三)過度依賴擬態環境輸出結果

人類決策將會越來越多地依賴人工智能,這也意味著人工智能將會改變人類行為以及生產生活方式?!?4〕See M.Taddeo & L.Floridi, “How AI can be a Force for Good”, 361 Science 751, 751-752 (2018); C.Beans, “Inner Workings:Can Robots Make Good Teammates?”, 115 Proceedings of the National Academy of Sciences 11106, 11106-11108(2018); K.Ayoub & K.Payne,“Strategy in the Age of Artificial Intelligence”, 39 Journal of Strategic Studies 793, 793-819 (2016).美國著名傳播學學者沃爾特·李普曼(Walter Lippmann)曾就智媒體運作程序提出,“擬態環境是楔入在人和環境之間的一種界面式存在”?!?5〕參見[美]沃爾特·李普曼:《公眾輿論》,閆克文、江紅譯,上海人民出版社2006 年版,第11-12 頁。生成式人工智能的應用同樣囿于擬態環境所生成的“繭房”。人工智能的迅捷發展使人們開始習慣依賴其輸出結果來認識周圍事物,并對其結果產生信任,而并非通過與世界的直接接觸獲取信息或結果。這時,傳來經驗代替實踐經驗,擬態環境成了人與世界之間的一種中介性存在?!?6〕參見陳小平主編:《人工智能倫理導引》,中國科學技術大學出版社2021 年版,第161 頁。因此,機器通過對諸多信息數據的選擇、加工與組合,最終向大眾呈現的并非全然是真實世界中的客觀事實,其存有產生“象征性現實”這一擬態情況的可能。應用者接收到其輸出的擬態事實并經由大眾傳播渠道輸出后,便會變成普遍的現實存在,成為人類行動的標準和認識世界的依據?!?7〕參見郭慶光:《傳播學教程》,中國人民大學出版社1999 年版,第113 頁。

生成式人工智能的應用與發展更為“人化”,其為人類的工作、學習和生活提供諸多便利的同時,也使人對其輸出結果產生高度依賴性?!?8〕參見王佑鎂等:《“阿拉丁神燈”還是“潘多拉魔盒”:ChatGPT 教育應用的潛能與風險》,載《現代遠程教育研究》2023 年第2 期,第52 頁。生成式人工智能投射的是可感事物的影像,因而會造成應用者的認知假象與心理焦慮?!?9〕參見彭蘭:《算法對共同體的強化與促成》,載《青年記者》2021 年第9 期,第4 頁。一方面,在當前生成式人工智能構建的數字環境中,大眾心理所生成的邏輯會受到這一新型數字形態的干擾,形成“排斥—疑惑—信任”的心理邏輯,陷入其所營造的算法舒適圈,消磨使用者的主體性與獨立性。另一方面,當使用者在與生成式人工智能進行對話時,其談話過程與“人類交互”高度相似,會令使用者陷入“認知舒適圈”,使應用者獲得精神認知的舒適性,造成對現實事物的誤判,從而導致認知狹隘化。以搜索文獻為例,使用ChatGPT 能夠迅速找到相關文獻并生成文獻綜述,但過度依賴令使用者失去了相關學術訓練甚至喪失能力。這時,擬態環境已形成,即使生成式人工智能所提供的回復或推斷是錯誤的,使用者也難以分辨。

(四)人機協作雙向價值對齊困難

當生成式人工智能支持不道德的觀點或行為時,可能會引導用戶執行有害于人類價值的行為?!?0〕Weidinger et al., Taxonomy of Risks posed by Language Models, ACM (Jun.22, 2022), https://dl.acm.org/doi/10.1145/3531146.3533088, accessed July 4, 2023.如亞馬遜的語音助手Alexa 在2019 年底被爆出“勸人自殺”事件。某護理人員就一些心臟健康問題咨詢Alexa,它給出的建議為:人活著會加速自然資源枯竭,造成人口過剩,這對地球有害,所以心跳不好的話,請把刀子捅進你的心臟。亞馬遜方面稱,這是Alexa 程序存在漏洞所致。我國《互聯網信息服務深度合成管理規定》第10 條明確,深度合成服務提供者應當加強深度合成內容管理,采取技術或者人工方式對深度合成服務使用者的輸入數據和合成結果進行審核,使其對齊。而《生成式人工智能服務管理暫行辦法》也對生成內容提出了要求。但如何在生成式人工智能快速迭代的同時填補立法漏洞,還需要充分發揮科技倫理的先導作用。

另外,生成式人工智能在面對多種設定目標沖突時,可能會作出錯誤取舍。如果人工智能不能理解人類的意圖,在為其設定多種目標時,人工智能可能會作出錯誤的選擇,輸出結果可能不符合人類意圖。如果人機雙向價值無法對齊,機器可能會選擇執行人類不需要的目標,在機器看來,這是可以最大限度達到人類給定目標的代價最小的捷徑。通用人工智能誕生后或許會全面超越人類,如果不能堅守人的價值立場,我們可能會失去對它的控制,使機器應用最終凌駕于人類之上?!巴ㄓ萌斯ぶ悄芸赡軐е碌淖畲箫L險便在于,它是否會通過自我學習和自主創新,突破設計者預先設計的臨界點而走向失控,反過來控制和統治人類?!薄?1〕李倫主編:《人工智能與大數據倫理》,科學出版社2018 年版,第265 頁。如果人工智能產生了高度的自主性,其所造就的結果,將會對傳統的以人為中心的倫理秩序造成沖擊。

三、生成式人工智能應用的人本主義倫理立場

倫理是關于道德的研究和規范,涉及個人、社會和文化中的行為準則和價值觀。倫理作為一種人的行為準則,原本是指人與人之間、人與社會之間的義務,也是每個人源于道德的社會責任?!?2〕參見辭海編輯委員會:《辭?!罚ㄔ鲅a本),上海辭書出版社1979 年版,第221 頁。它探討人們應該如何行事,如何判斷行為的正當性、公正性和道德性,以及如何在不同情境下作出正確的道德決策。當倫理應用于人工智能領域,探討的便是人工智能應如何作出正確的行為。

隨著人工智能的應用場景日益豐富,其涉及的倫理學問題日益引發學界的關注,已經催生了“機器倫理學”(Machine Ethics)、“計算道德”(Computational Morality)、“機器人倫理學”(Roboethics)等倫理學分支,并隨之產生了新概念——人工道德行為體?!?3〕參見徐英瑾:《人工智能必須考慮風土性因素——以“電車難題”為母題》,載《哲學研究》2023 年第2 期,第96 頁。有學者提出,人工智能并非完全意義上的工具,其具備一定的意識和情感,可以成為“有限的道德行為體”承擔道德責任?!?4〕參見簡小烜:《人工智能體作為有限道德代理者的道德責任》,載《倫理學研究》2022 年第6 期,第131 頁?!叭斯さ赖滦袨轶w”處于社會網絡中,在一定程度上進行道德實踐、承擔道德責任,具有低自主性、無明確自我目的、依賴社會系統分配責任等近似人類的現代性境遇?!?5〕參見張正清、黃曉偉:《作為“他者”而承擔道德責任的智能機器——一種人工智能成為道德能動者的可能性》,載《道德與文明》2018 年第4 期,第32 頁。其出現正在動搖傳統道德秩序根基?!?6〕參見趙鵬:《科技治理“倫理化”的法律意涵》,載《中外法學》2022 年第5 期,第1201 頁。但是,從物質構成出發,人工智能與人類等碳基生物之間存在本質區別,仍未出現生命特征,實踐中仍然且只能處于輔助地位?!?7〕參見徐英瑾:《人工智能可能具有想象力嗎?——以三木清哲學為出發點》,載《學習與探索》2023 年第4 期,第26 頁。因此,人類——而非人工智能抑或其他技術——是社會實踐的主體,“關心人的本身,應當始終成為一切技術上奮斗的主要目標”〔38〕許良英、趙中立、張宣三編譯:《愛因斯坦文集》(第三卷),商務印書館2009 年版,第89 頁。?!耙匀藶楸尽睉斒巧墒饺斯ぶ悄軕玫膫惱砹龅某霭l點,倫理治理規則應當從該立場出發、解釋并生成。

聚焦于人機共存關系,我們亟須秉持人本主義立場來定位二者在社會譜系中的相對位置。第一,明確人類較之機器所具有的優先地位,把人類放在第一位,兼顧人機交互的優勢。第二,明確機器的從屬性和次要性,要求在人機共存的關系中始終把人工智能視為實現人類目標的工具,其任務是協助而非取代人類,更不能操縱和支配人類,使人類異化為工具?!?9〕參見趙瑜、周江偉:《人工智能治理原則的倫理基礎:價值立場、價值目標和正義原則》,載《浙江社會科學》2023 年第1 期,第110 頁。第三,無論是傳統工具,還是生成式人工智能,都是人類創造的有價值的社會實踐物,都要遵循“人是目的”的倫理立場,不能改變其“屬人性”的特征。當前學者對人本主義倫理立場的內涵和外延爭議較多,我們認為,其主要包括福祉、尊嚴和責任原則。福祉原則是以人為本的根本目標,尊嚴原則是實現以人為本的前提和必然要求,責任原則是實現以人為本的重要保障。上述原則旨在確保人工智能發展和應用為人類社會帶來正面倫理影響。

(一)福祉原則

生成式人工智能應用的出現,對人本主義立場提出了挑戰,人的主體性地位受損,部分弱勢群體被物化、貶損的風險加劇。在這種情況下,應當就生成式人工智能的設計、研發、應用全生命周期中考慮人類福祉并開展新的解釋和適用。在人類集體福祉層面,生成式人工智能應用于促進人類共同確認的社會目標的實現,如創造良好的社會環境、提升經濟效益、推動社會進步、滿足人們精神需求等。在個體福祉層面,生成式人工智能應促進或者補充人類能力,如在主觀上增強人的認知能力、提升人類快速獲取信息的能力、準確處理與評估信息、作出正確合理的決策等。對弱勢群體,除考慮成本效益外,還應關注公平可及。

(二)尊重原則

人類研發和使用的各種工具,包括人工智能產品,都應服務于人,以維護人的尊嚴與基本權利為出發點。在生成式人工智能發展中,已經引發了理性、自主性是不是人類特有的爭論,人類價值逐漸被機器價值屏蔽,對人類主體性和尊嚴提出了挑戰。世界科學知識和技術倫理委員會在其發布的《機器人倫理報告》中明確,理性是人類獨有的天性,而機器人只是人類創造的產物,即使可能擁有超越人類個體的認知能力和學習能力,但不具有自身設定目的的能力。應當如何理解生成式人工智能對“尊重人類”的理解?下面將從人的自主決策與選擇、隱私保護、平等對待等方面進行簡述。

其一,自主選擇與自主決策要求生成式人工智能在應用過程中,不得使人類受到欺詐、脅迫或者控制,要提供充分的信息與知識,作出合理回答;要使用戶保持相對的獨立性,不對人工智能系統產生過度依賴;要明確其人工智能系統的工具屬性,防止人與人工智能系統關系的異化,不得針對個體作出具有歧視和有害性的言論。而當前生成式人工智能卻容易被誘導輸出歧視性與虛假言論,應引起高度重視。其二,隱私保護是指研發與應用生成式人工智能時,應防范個人信息泄露,如要考慮其對聊天數據安全處理和自我學習問題,以及給予用戶充分隱私保護的選擇權。其三,生成式人工智能要公正平等對待人,避免歧視。如ChatGPT 表露出種族主義和歧視時,要提升其內容審核能力,對數據本身開展精準篩選,提升優質數據規模。

(三)責任原則

責任原則,指利用任何方式基于人工智能作出的決定與行動,即使不能完全明晰導致損害的因果關系,也可秉持“得利之人需要承擔相應不利后果”的原則,〔40〕See Santoro Matteo, Marino Dante & Tamburrini Guglielmo, “Learning Robots Interacting with Humans: From Epistemic Risk to Responsibility”, 22 AI & Society 301, 301-314 (2008).其倫理責任和義務最終應由人工智能的研發者、提供者和使用者等來承擔。此外,還應建立監督、審計和調查機制實施問責,做到可追溯、可追責?!?1〕參見王佑鎂等:《從科技向善到人的向善:教育人工智能倫理規范核心原則》,載《開放教育研究》2022 年第5 期,第75 頁。目前,人工智能應用所依據的數據和算法都是由人主導,故設計、控制和應用ChatGPT 的人應是倫理問題的責任人。而對于在ChatGPT 應用過程中人為干擾產生的倫理問題,應將責任歸咎于攻擊者,但不排除提供者的責任。這里主要強調了對研發者的前瞻性道德責任,主要考慮生成式人工智能應用可能產生的深刻影響。為了減少在評估中的偏見與歧視,需要科以提供者更多的責任,要求其在開展生成式人工智能設計前就進行必要反應與評估,對技術應具備相當程度的控制能力。

四、人本主義立場下的生成式人工智能應用的倫理治理機制

法律具有滯后性,科技創新要考慮倫理先行,倫理治理是社會穩定運行的基礎,倫理規范應成為規制社會安全風險的重要準則。我國需考慮,在人工智能未來風險不可完全認知、風險評估及成本效益分析等規制手段不完全有效的情況下,堅持人本主義立場,秉持人工智能系統與人類的協作與互補關系,保持人機共存社會中的人類主導地位,防控科技倫理風險,保障人的基本權利,探尋符合中國語境、面向中國問題的科技向善的實現之道?!?2〕參見賈璐萌:《技術倫理實現的內在路徑研究》,東北大學2018 年博士學位論文,第96 頁。具體而言,一是從組織機構出發,以專門的人工智能倫理治理機構主導相關領域的倫理治理與監督工作;二是從規范出發,通過制度內容來應對重點倫理問題,以政策、法規引領人工智能技術,使其符合以人為本的倫理要求。

(一)建構人本面向的人工智能倫理治理組織機構

人類應當把握好人工智能倫理問題的終極決策權力。設置由相關專業人員組成的倫理組織機構,對生成式人工智能應用進行審查與監督,本屬人本主義立場的題中之義。在《科技倫理審查辦法(試行)》和《生成式人工智能服務管理暫行辦法》等規章發布前,已有地方對人工智能倫理審查問題開展探索。2022 年,我國首部人工智能專項地方立法《深圳經濟特區人工智能產業促進條例》設置了倫理委員會,明確了人工智能應受到倫理監督。倫理治理組織機構涉及成員構成、職責分工和運行機理,對人工智能風險規避和用戶合法權益保障具有積極作用,對構建“關口前移,防患于未然”的人工智能風險倫理規范體系具有重要意義。

未來,我國人工智能治理組織機構應當立足人本主義立場,重視常態化、場景化評估生成式人工智能引發的倫理風險與影響,制定倫理安全標準、技術規范、風險防控與應對策略。各層面倫理委員會應協同發揮作用,政府和企業的倫理規范職責需要相互協調、信息互通、分工明確,搭建倫理監督的協同治理組織框架。另外,政府部門應秉持預防原則,對生成式人工智能的倫理風險及時干預,對其發展方向、發展戰略作出規劃,制定安全標準與規范,提升管理風險的能力?!?3〕參見杜嚴勇:《人工智能倫理引論》,上海交通大學出版社2020 年版,第187-188 頁。再有,保障公民基本權利是堅持人本主義立場的必然要求和題中之義,倫理委員會也應當關注公民基本權利如何得到有效保護。例如,在勞動權保障方面,聯動勞動人事行政部門,對人工智能替代性崗位產生的失業者提供就業指導,開辟新的就業崗位,做好針對失業者的生活和再就業保障工作。

(二)完善人本面向的人工智能倫理規范機制

1.明晰技術應用的公平機制

公平不僅是現代法治國家法的基本價值,更是人類所共同追求的崇高理想。堅持生成式人工智能應用的人本主義立場,要求公平原則貫穿生成式人工智能應用的全生命周期。國家新一代人工智能治理專業委員會發布《新一代人工智能倫理規范》,提出“堅持普惠性和包容性,促進社會公平正義和機會均等”,應關注生成式人工智能應用中所產生的歧視、偏見、刻板印象等,完善公平保障機制。

第一,在生成式人工智能應用的系統設計過程中,將人類負責等價值觀內嵌于系統中?!?4〕Friedman B & Kahn H P, New Directions: A Value-Sensitive Design Approach to Augmented Reality, ACM (Apr.1, 2000),https://dl.acm.org/doi/10.1145/354666.354694, accessed July 4, 2023.在生成式人工智能的早期技術設計階段就應嵌入價值設定,如隱私、信任等,來解決設計道德問題?!?5〕See Jeroen van der Hoven & Noemi Manders-Huits, “Value-sensitive Design”, in Jan Kyrre Berg Olsen, Vincent F.Hendricks& Stig Andur Pedersen eds., A Companion to the Philosophy of Technology, Wiley-Blackwell, 2009.具體而言,可以在生成式人工智能應用之前,設置“系統應用前倫理傾向測試”。一方面,擴大技術系統質量評價標準的范圍,將倫理價值作為考量因素;另一方面,提前設定符合應用者價值傾向的算法,并設置錯誤價值觀矯正機制,推動生成式人工智能對應用者的正向反饋,必要時可將“以人為本”“服務人類”等人類價值理念融入算法,對生成式人工智能實現潛移默化的修正價值觀的效果。

第二,人類介入并對相關數據進行標注,促成輸入結果的真實性,并形成生成式人工智能應用真實性的規范和制度。正如《生成式人工智能服務管理辦法》第8 條規定:“在生成式人工智能技術研發過程中進行數據標注的,提供者應當制定符合本辦法要求的清晰、具體、可操作的標注規則;開展數據標注質量評估,抽樣核驗標注內容的準確性;對標注人員進行必要培訓,提升尊法守法意識,監督指導標注人員規范開展標注工作?!蓖ㄟ^數據標注能夠保障生成式人工智能的真實性與可靠性?!?6〕Weidinger et al., Taxonomy of Risks posed by Language Models, ACM (Jun.22, 2022), https://dl.acm.org/doi/10.1145/3531146.3533088,accessed July 4, 2023.創建和改進有關倫理原則,結合典型案例,基于對生成式人工智能倫理困境的創造,從訓練倫理案例中抽象出一般性原則,并將其不斷投入新案例訓練中,測試檢驗原則的準確性,循環往復,對生成式人工智能所遵循的原則進行反復修正?!?7〕參見莫宏偉、徐立芳編著:《人工智能倫理導論》,西安電子科技大學出版社2022 年版,第177 頁。

第三,打破算法黑箱,推動算法透明,促成生成式人工智能應用過程可解釋性實現。既然生成式人工智能可能引發倫理問題,其應用過程就應當受到人類監督;而確保生成式人工智能應用過程中監督有效性的落實,理應推動算法的透明化、可解釋化。要利用自動推理技術,確保倫理決策系統的真實可靠。同時,要設定科學合理的推斷規則,其中因果推斷是決策規則的最佳選擇,它具備可解釋性,需要保證整個推理過程對人類和機器來說是可檢查、可交流的?!?8〕參見于江生:《人工智能倫理》,清華大學出版社2022 年版,第445 頁。

2.完善倫理風險的預警機制

生成式人工智能的出現,對人的生產方式、生活方式、思維方式、價值觀念和學術研究等產生重要影響,而由于ChatGPT 模型生成文本的不周延性以及缺乏嚴謹性,可能存在傳播誤導性內容、虛假信息及偏見歧視等倫理隱患,甚至對人的基本權利產生消極影響。因此,為加強人工智能技術安全保障,相關研發機構與管理機構可與相關行政部門和企業合作,建立倫理風險智能監測、預警及管控機制,提升生成式人工智能的安全透明度,細化ChatGPT 倫理風險類型,并利用類似ChatGPT 的生成式人工智能對安全風險點進行識別與分析,建立人工智能倫理治理的風險預警閾值。同時,針對不同的倫理風險制定相應預案,開發風險預警系統進行監測?!?9〕參見張夏恒:《類ChatGPT 人工智能技術嵌入數字政府治理:價值、風險及其防控》,載《電子政務》2023 年第4 期,第55 頁。一旦發現潛在風險,及時向執法部門、應用企業、用戶等發送預警信息,以便及時應對。另外,研發機構與管理機構要提升訓練數據的質量,促進生成式人工智能的更新迭代,強化人工智能數據訓練中的深度學習能力與各種語言文化識別能力,減少偏見歧視發生,增強生成式人工智能的倫理判斷能力。

不論采取哪種進路,都要求算法設計者有足夠的“道德想象力”?!?0〕所謂“道德想象力”,是指超越自我和情境的限制,擁有更加寬廣的倫理視角和道德感受能力。參見[美]佩德羅·多明戈斯:《終極算法:機器學習和人工智能如何重塑世界》,黃芳萍譯,中信出版社2017 年版,第432 頁。通過情感投射,試圖窮盡所有可能,“設身處地”地為情境所牽涉的每個人的處境著想,并盡可能地洞察輸入目標可能會采取的各種行為方式或傾向,以達到預示目的,在陷入道德困境時,仍能繼續尋求行為選擇的可能性?!?1〕See Johnson M, Moral Imagination: Implications of Cognitive Science for Ethics, University of Chicago Press, 1993, p.98.

3.補足倫理審查的追責機制

生成式人工智能由人研發,亦為人所用。倘若生成式人工智能應用過程中引發了倫理危機,應當依照有關規定追究相關主體的倫理責任,維護生成式人工智能應用的人本主義立場。首先,在人工智能跨境使用過程中,各國的人工智能倫理治理組織機構應當根據本國法與國際法,在本管轄區內承擔人工智能倫理治理責任。ChatGPT 等生成式人工智能作出的問答或給出的信息,其倫理責任最終應指向人工智能應用各環節承擔實際角色的主體。生成式人工智能仍然是一種“非人化”擬合工具,基于對參數與數據的分析,其本身不具有人類意義的主體自覺和情感,嚴格來講不具有倫理意識與責任?!渡墒饺斯ぶ悄芊展芾頃盒修k法》第9 條規定了提供者需承擔生成內容生產者的責任,履行個人信息保護義務。但目前需要明確,提供者責任是否就是生產者責任,還有沒有其他責任義務,以及提供者的責任能否涵蓋全部責任主體。故就人工智能技術發展現階段來說,仍應當基于人本主義立場,明確提供者、使用者、設計者等各方主體的倫理責任,落實倫理責任承擔機制,完善責任體系?!?2〕See Jeroen van der Hoven & Noemi Manders-Huits, “Value-sensitive Design”, in Jan Kyrre Berg Olsen, Vincent F.Hendricks& Stig Andur Pedersen eds., A Companion to the Philosophy of Technology, Wiley-Blackwell, 2009.不應賦予本質上不屬于生物、不具有人格的生成式人工智能所謂“主體地位”,更不能以此要求其承擔法律上規定的自然人、法人、其他組織等主體應當承擔的倫理責任。

另外,責任追究機制的落實也需要有問責制度的保障,應建立監測生成式人工智能系統全生命周期的機制,針對算法、數據與系統的運行流程進行監測與審計,強調對生成式人工智能應用的可追溯性和可審計性,從審查制度、管理流程、審查規范標準等方面構建監管體系,比如建立倫理影響評估機制、審計機制和保護舉報人制度等?!?3〕參見苗逢春:《教育人工智能倫理的解析與治理——〈人工智能倫理問題建議書〉的教育解讀》,載《中國電化教育》2022年第6 期,第34 頁。

五、結語

綜上,倫理問題關乎人工智能未來的技術走向、規則制定、接受程度等一系列問題,是生成式人工智能發展過程中需要解決的首要問題。目前,許多機構已開展針對生成式人工智能的倫理影響的研究或制度設計,并商討其治理方法,但現階段的治理舉措仍顯割裂和零散,難以實現倫理與治理的融合。由于欠缺系統性的考慮和理論性、規范性的指導,相關應對措施存在局限性。在人工智能快速發展的當下,需明確,即使生成式人工智能應用具備較強的學習和理解能力,但仍屬吸納虛擬世界中的數字代碼集成,距離與客觀世界真實交互還有遙遠的距離,遑論被賦予主體地位和替代人類思考。因此,應當警惕生成式人工智能應用對人類主體地位的撼動,堅持問題導向和以人為本的理念,聚焦包括ChatGPT 在內的生成式人工智能系統的倫理困境,以人本主義立場建構相關原則、規則,為人機共存社會尋求妥善的倫理解決方案。

猜你喜歡
倫理人工智能人類
《心之死》的趣味與倫理焦慮
人類能否一覺到未來?
人類第一殺手
護生眼中的倫理修養
1100億個人類的清明
2019:人工智能
人工智能與就業
數讀人工智能
下一幕,人工智能!
人類正在消滅自然
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合