?

超越“共識”:教育人工智能倫理原則構建的發展方向

2023-06-21 16:19白鈞溢于偉
中國電化教育 2023年6期
關鍵詞:發展方向共識

白鈞溢 于偉

摘要:受各國人工智能發展規劃影響,教育人工智能倫理原則研究起步晚于其他領域,塑造了其參照已有原則“共識”的構建取向。目前,對“共識”的反思及對教育領域個性要素的探尋逐漸受到研究者關注,超越“共識”成為教育人工智能倫理原則構建的發展趨勢?!肮沧R”暗含的“非共識”要素是制約教育人工智能倫理原則實踐效果的根本原因,包括國別間的歷史與文化差異,領域間的結構與指向差異,應用間的內容與對象差異,自身間的概念與關系差異。超越“共識”實際上便是在已有研究的基礎上彌合“非共識”要素。更直接的說,就是承認教育人工智能倫理原則的有限性,即價值匹配的有限性、領域作用的有限性、指導時效的有限性,從而在構建教育人工智能倫理原則時堅持本土立場,明確目的導向,保持持續開放。

關鍵詞:教育人工智能;倫理原則;超越共識;發展方向

中圖分類號:G434 文獻標識碼:A

本文系2022吉林省社會科學基金項目“中國‘Z世代亞文化圈層語言的區隔性研究”(項目編號:2022C78)、2022東北師范大學教師教育“揭榜領題”一般項目“教師‘社會與情感能力的國際框架與本土轉化研究”(項目編號:JSJY20220302)研究成果。

人類社會與人工智能技術的協作目前仍處于試錯、糾錯的探索階段[1]。隨著人工智能技術在教育領域的廣泛應用,算法歧視、學生發展同質化、隱私和安全隱患等倫理問題不斷顯現,消解倫理風險,實現技術向善已成為全球教育領域面臨的共同挑戰?!叭斯ぶ悄軅惱怼北徽J為是尋求可信賴人工智能的重要組成部分[2]。近年來,政府、國際組織與學界不斷開展教育人工智能倫理研究,提出諸多倫理原則框架①,以期明晰教育領域人工智能應用的合理邊界與正確做法。然而,現有的教育人工智能倫理原則框架大多來自對其他領域人工智能倫理原則“共識”的梳理與提取,這在當前面臨著廣泛而尖銳的批評。越來越多的學者與研究指出,教育人工智能的倫理原則必須指向教育的個性要素,基于“共識”的倫理框架既不能明晰教育人工智能的應用邊界,更無法影響教育人工智能的應用實踐。在這一背景下,明晰基于“共識”的教育人工智能倫理原則研究樣態,揭示“共識”隱含的“非共識”要素,探討超越“共識”的優化路徑對于教育人工智能倫理原則的未來構建十分必要。

一、基于“共識”的教育人工智能倫理原則研究樣態

教育人工智能倫理原則研究對“共識”的偏好有其特殊的形成背景。受各國人工智能發展規劃影響,教育人工智能倫理原則構建起步晚于其他領域,塑造了其參照“共識”的構建取向,表現為以已有倫理原則為依據、側重宏觀原則構建、所構建的原則與其他領域高度相似。但隨著人工智能教育應用及其倫理研究的不斷深入,對“共識”的反思與超越開始得到教育研究者的關注,成為倫理原則構建的發展趨勢。

(一)面臨“共識”的后發背景

國家人工智能發展規劃是人工智能倫理原則構建的直接推動力。2016年起,隨著人工智能技術的社會變革引領作用愈發突出,很多國家都發布了國家層面的人工智能發展規劃且絕大多數規劃文件都明確強調要重視對人工智能倫理風險的防范與治理[3]。國家層面的治理需要對人工智能倫理原則構建的推動力體現在三個方面。一是促成如歐盟委員會人工智能高級專家組、新加坡人工智能和數據的道德使用咨詢委員會及英國上議院人工智能專責委員會等特設專家委員會建立;二是獲得如電氣與電子工程師協會(IEEE)、美國計算機協會(ACM)及聯合國教科文組織(UNESCO)等專業協會與非盈利組織響應;三是得到如思愛普、谷歌等產業界關注。從結果上看,自2014年來,人工智能倫理相關的出版物與之前相比增加了五倍,其中近七成文獻發表于發展規劃集中出臺的2017—2019年[4]。

然而,國家人工智能發展規劃卻“意外地”制約了教育領域人工智能倫理原則的探索。不同于其他領域人工智能倫理原則研究在2017—2019年的快速發展,直至2019年,與教育人工智能倫理相關的原則、政策、法規研究幾乎處于空白[5]。人工智能發展規劃對教育的“工具性定位”是造成這一情況的直接原因。雖然絕大多數國家在發展規劃中為教育設置了專門章節或給予極大關注,但由于教育人工智能具有“雙重角色”①身份,加之各發展規劃遵循的是促進社會經濟轉型與增長、提高國際競爭力的發展邏輯,人工智能的教育應用主題極少受到關注,取而代之的是,規劃制定者將教育視為一種戰略性工具,旨在通過教育實現培養人工智能專家、培訓人工智能相關產業勞動力、提升公民人工智能素養等社會發展目標。這種對教育價值的片面強調限制了通過人工智能技術促進教育變革的想象力,進而影響了對其倫理問題的關注與前瞻。

與此同時,先發的諸領域人工智能倫理原則框架雖然在學科與影響力上存在差異,但在原則的選擇方面已走向趨同[6]。人工智能倫理原則的趨同樣態可見于與之相關的元分析統計。當前影響力較大的人工智能倫理原則元分析分為兩類,一類側重梳理權威機構發布的倫理框架,如哈佛大學伯克曼·克萊因互聯網與社會研究中心的《有原則的人工智能:在基于倫理與權利下達成共識》[7]、南里奧格蘭德天主教大學人工智能機器人倫理學會的《全球人工智能倫理:治理指南和建議回顧》[8]。另一類側重對倫理框架進行跨學科、跨主體的系統分析,如蘇黎世聯邦理工學院倫理與政策實驗室的《人工智能:道德準則的全球格局》[9]及奧盧大學可汗(Khan)等人的《人工智能倫理:原則和挑戰的系統綜述》[10]。由上述四份元分析(如表1所示)可知,隱私、責任與問責制、安全、透明度與可解釋性、公平、以人為本、可持續性原則出現在絕大多數框架中,它們已成為不同時期、不同領域、不同級別人工智能倫理框架的“共識性”原則。國家人工智能發展規劃與其他領域倫理原則的研究現狀塑造了教育領域面臨“共識”的后發背景,這一情況深深影響了教育人工智能倫理原則的構建。

(一)國別間“非共識”:歷史與文化差異

當前人工智能倫理研究再現了全球經濟與政治的權力分布,以北美與西歐為代表的發達國家主導了人工智能倫理原則的構建[18]。因而,所形成的“共識”更多反映的是發達國家群體的集體意志。如果原則、指南或實踐不包括來自亞洲、非洲或拉丁美洲的任何倫理觀點、社區參與或社會和歷史背景,它們就無法作為“全球性共識”廣泛指導人工智能倫理實踐[19]。但問題是,廣泛認可的共識背后必然掩蓋了國家間歷史與文化的差異,使得所構建的原則清單只能流于美好但無法落實的宏觀層面。

任何人工智能倫理框架都是個性化的框架,因為其提出植根于特定的歷史與文化背景。例如,歐盟的人工智能倫理框架很大程度上是基于《歐盟基本權利憲章》(Charter of Fundamental Rights of the European Union)乃至《歐洲人權公約》(European Convention on Human Rights),它們影響了對歐洲政府與其公民之間關系的定義,并將“可解釋性”作為與人工智能相關的新元素[20]。然而,這類人權宣言和公約的內容選擇與提出有其特殊的歷史背景,它們植根于二戰的經歷,其中的諸多規定與言論可以理解為戰后對不應再發生的事情的聲明,這使得其及受其影響下的人工智能倫理原則框架帶有對種族、性別、宗教、族裔血統以及性取向等特定歷史文化主題的關注,較難推廣至有著不同歷史及文化的地區①。此外,由于這些宣言主要強調政府與公民間的關系,使得據此所構建的人工智能倫理原則既帶有較強的價值傾向②,也未能涵蓋所有重要的倫理議題。

即使忽略歐盟人工智能倫理框架關注主題與涉及范圍的本土性,直接將其借鑒或套用到教育領域是也有問題的?!稓W盟基本權利憲章》與《歐洲人權公約》對參與國具有法律約束力,它們表達了共同的價值觀,但在其影響下,道德問題很容易變成遵守現有法律的問題[21]。一個突出的例子是歐洲通用數據保護條例(GDPR),該條例在法律和實踐方面定義了隱私和身份在歐洲地區的含義。而這種影響同樣體現在人工智能倫理框架中,進而存在道德泛法律化風險。誠然,在教育領域,法律固然重要,但教師、學生和其他教育人工智能利益相關者之間是復雜的人際關系,法律僅能提供一般性約束,這也是為什么需要超越現有規則和條例以尋求倫理性指導。

(二)領域間“非共識”:結構與指向差異

從發展歷程來看,不同領域的人工智能倫理研究似乎在走向趨同:提出類似的倫理原則,識別類似的倫理問題,得出類似的解決方案[22]。這在某種意義上構成了參照其他領域“共識”的可行性支撐。但是,參照“共識”構建教育人工智能倫理原則的一個方法論挑戰是,對“共識”的提煉基于的是各原則名稱或其表述句法的相似性,而同一原則在不同領域很可能有著不同的側重、關聯與內涵[23]。這意味著通過比較與歸納構建的教育人工智能倫理原則可能忽略了教育自身的核心目標、邏輯結構與研究旨趣。

首先,不同領域關注的倫理原則有所側重。例如,“善意”與“非惡意”在醫學領域被不成比例地提及,而在法律領域,關注最多的則是“正義”與“問責制”?!半[私”在法律和醫學領域被視作一項重要的倫理原則,但在科學、工程和商業領域卻鮮有提及?!巴该鞫取敝饕獮樯婕八惴ㄅc設計的科學與工程領域所強調,其他學科則較少關注重這一點。同時,如牛津大學杰西卡·莫莉(Jessica Morley)等人所言,即使某一領域包含了較為全面的倫理原則,這些原則也并非同等重要,如在國家安全系統中,非惡意遠比可解釋性重要的多[24]。

其次,同一原則在不同領域中存在特定的關聯。例如,在法律領域,“正義”通常居于核心位置,與其它原則廣泛關聯(稱之為“正義關聯”,Justice Relevance),但醫學、商業和營銷領域則僅將其與“自治”結合使用。在醫學領域,“可解釋性”被視為醫學人工智能倫理區別于傳統醫學倫理的關鍵原則,并主張應將“可解釋性”廣泛融入自主、仁慈、非惡意和正義這一醫學倫理學經典四原則中[25]。在科學與工程領域,“公平”“問責制”與“透明度”往往同時出現,但在其他領域則并非如此。

最后,同一原則在不同的領域及倫理框架中存在指向差異。例如,“透明度”在《可信賴的人工智能倫理準則》中關注“數據、系統及商業模式”,而在聯合國教科文組織關于人工智能倫理的建議初稿中,強調的則是“清晰的責任與問責措施”[26]?!耙匀藶楸尽钡摹叭恕痹凇敦撠熑蔚臄祿ǖ?卷)》中指代“人類”,而在《人工智能的日常倫理》中則將范圍縮小至“用戶”[27]?!皢栘熤啤痹诓煌目蚣苤写嬖趯υO計(人工智能部署前)、監控(人工智能部署期間)及補救(傷害發生后)等特定階段的關注偏向[28]。

(三)應用間“非共識”:內容與對象差異

即使是在同一領域,人工智能倫理原則的構建與應用也存在著極大的差異。如在教育領域,當前的一個共識是,“教育人工智能開發和使用引發的倫理風險是往往是特定于環境的”[29]。這意味著雖然教育人工智能倫理原則旨在應對、規避人工智能技術在教育領域應用造成的倫理風險,但由于涉及用途不同、目標群體各異,這一愿景很難通過一套共識性倫理原則框架實現。

共識性倫理框架難以實現一方面是由于人工智能在教育中的應用具有多樣性。就底層模型而言,教育人工智能大體分為數據驅動的人工智能、基于知識或符號的人工智能、混合人工智能三類,但如果就應用而言,對其的劃分則要復雜的多。目前影響力較大的教育人工智能分類法由倫敦大學學院韋恩·霍姆斯(Wayne Holmes)于2019年提出[30]并在2022年進行改進[31]。該分類從學生、教師、機構三個維度出發對現有教育人工智能應用進行歸類并從構思(*)、研究(**)、可商用(***)三個層次評估了各應用的發展水平(如表2所示)。由分類表可見,雖然它們都屬于教育領域,但發展前景、目的和運作方式卻大不相同:它們并非都具有相同水平的(經過驗證的)有效性;它們并非都收集相同數量或類型的數據,它們對學生或教師的生活的侵入程度也不盡相同,并且并非所有的教育人工智能應用都會引起特別的倫理問題[32]。更為重要的是,使用不同類別的人工智能應用通常意味著不同的哲學和教育觀念[33],這反過來又會強化各應用環境的特殊性。

共識性倫理框架難以實現另一方面是由于人工智能應用所影響的教育群體具有多樣性。教育人工智能的倫理研究是一個貫穿開發、使用、評估、改進的連續過程,涉及教育技術產品開發者、教師、學生、教育技術專家、管理領導者等多個利益相關者。他們有著不同的分工與特征,不能在倫理方面劃為一談。另外,即使是同一類利益相關者,在不同的背景下也有著不同的特征。例如,學生間存在不同的性別、年齡及家庭環境,在構建教育人工智能倫理原則時,需要將學段、文化背景等方面納入考量,不能簡單地歸為“學生”進行理解。

(四)自身間“非共識”:概念與關系差異

即使拋開各人工智能倫理原則框架的國別、領域、應用差異不論,僅在單個框架內,原則之間乃至原則自身也存在著明顯的緊張關系,表現為原則概念與原則關系的差異。其中,概念的差異直接制約了人工智能倫理原則的可操作性,關系的差異則對倫理目標的整體實現提出了挑戰。

人工智能倫理原則的概念差異表現為原則自身的模棱兩可。當前人工智能倫理研究大多塑造了“模糊的、高層次的原則和價值陳述,這些原則和價值陳述試圖指導行動,但在實踐中幾乎沒有提供具體的建議,也未能解決嵌入關鍵概念中的基本規范”[34]。正義、福祉、非惡意、自主和可解釋性等“共識原則”為人工智能實踐勾勒了宏大且美好的理想圖景。但當追問它們的具體含義時,困難便出現了。例如,人工智能倫理中的“正義”原則通常并沒有說明什么是正義或不正義,而是讓行為人自己決定[35]。又如,“福祉”在教育框架中被頻繁提及,它們均認為“人工智能要在教育中發揮作用,其設計始終要以和諧友好與共建人類命運共同體為核心”。但這一界定同樣缺少了對“福祉”的明確解讀。福祉包含哪些方面,需要考慮哪些群體的福祉,不同群體的福祉是否存在沖突?從某種意義上說,當前的“福祉”可以用來指代所需要的任何意思。原則中心術語的模棱兩可掩蓋了概念的復雜性和不同人群的解釋差異與道德分歧,必然會使其成為一個無法實現的空談。

人工智能倫理原則的關系差異表現為原則之間的互相矛盾。共識性倫理框架的原則設置乍一看似乎很合理,因為它們各自對應了人工智能特定的問題領域。然而,當前研究很少討論的一個話題是,這些框架中的許多原則間相互緊張甚至相互矛盾:公平必然以個性化與準確性為代價,隱私會限制服務質量與效率,透明度會威脅安全與隱私等[36]。一個更為具體的例子是,英國上議院人工智能委員會(Artificial Intelligence Committee)在《英國人工智能發展的計劃、能力與志向》報告中指出,“部署任何可能對個人生活造成潛在影響的人工智能系統是不可接受的,除非它能對自己將要作出的決定提供充分且令人滿意的解釋”。這一表述固然重要,但它制造了“福祉”與“可解釋性”的緊張關系,限制了人工智能變革社會的積極作用①。實際上,“可解釋性”應服務于“福祉”并保持一定的靈活性,在某些情況下,只要使用算法的好處足夠大,準確性足夠可靠,其便是值得使用的,即使可能無法對其決策作出全面解釋[37]。

三、超越“共識”的教育人工智能倫理原則構建旨歸

倫理原則國別間、領域間、應用間、自身間“非共識”的存在使得基于“共識”構建出的教育人工智能倫理原則無論是在自身可靠性方面,還是在實踐指導力方面,都面臨著極大的挑戰。超越“共識”實際上便是在已有研究的基礎上彌合“非共識”要素。更直接的說,就是承認教育人工智能倫理原則的有限性,即價值匹配的有限性、領域作用的有限性、指導時效的有限性,進而構建符合國情、目標明確、立足當下、面向未來的教育人工智能倫理原則。

(一)價值匹配的有限性:堅持原則構建的本土立場

堅持本土立場是構建教育人工智能倫理原則的根本方向?!蛾P于加強科技倫理治理的意見》強調,“必須立足我國科技發展的歷史階段及社會文化特點,遵循科技創新規律,建立健全符合我國國情的科技倫理體系”[38]。在構建教育人工智能倫理原則中體現本土立場,必須正確認識技術、倫理以及二者之間的關系。

首先,要正確認識教育人工智能技術的本土性。任何技術都具有價值偏向性,“它承載著一定的價值內涵并因此構成我們難以擺脫和改變的社會環境和生活方式”[39]。也就是說,技術產品同時也是政治產品,因為它反映了特定的文化、社會和政治動態。其中,技術的每一個設計選擇都是由具有自己文化背景的設計者做出的決定,并伴隨他們有意識或無意識的偏見[40]。即使是最簡單的教育人工智能應用,因為其依靠算法、編程、訓練,所以也會包含價值導向。因此,教育人工智能倫理原則的構建應打破工具理論思維,警惕算法殖民主義,并揭示技術部署背后的權力關系,將價值審視延伸至教育人工智能設計、運轉、應用、評價的全過程。

其次,要正確認識教育人工智能倫理的本土性。教育人工智能應用的“價值有涉”必然意味著其倫理原則同樣具有特定的文化與價值特征。在對技術倫理的分析中考慮文化價值的必要性早已得到認可??缥幕夹g倫理學的研究已經證明了技術、文化和倫理價值之間的相互作用[41]。它們證實了在評估信息技術的倫理這一問題上存在著來自不同文化的截然不同但同樣合理的價值體系[42]。正如哈貝馬斯(Habermas)在話語倫理學中所論證的那樣,辯護不必基于普遍認同的價值陳述,而在于采用價值的連貫性[43]。因此,教育人工智能倫理原則構建必須依照我國的文化背景與價值觀,在把握國際研究進展的同時進行本土轉化,做到原則選擇回應我國的教育問題、內涵話語體現我國的教育立場。

最后,要正確認識倫理與技術的關系。教育人工智能倫理原則構建的本土化是全原則、全內涵的本土化,要警惕倫理問題的技術解決傾向。當前國際人工智能倫理原則研究在一定程度上出現了技術優化代替價值判斷的傾向,可解釋性、隱私、安全、公平相較于其他原則得到了更多的討論,因為這些原則似乎能夠得到“技術解決”。例如,可解釋性可以通過簡化模型(Simplified Model)實現[44];隱私可以通過差別隱私(Differential Privacy)保障[45];安全可以通過紅隊測試練習(Red Teaming Exercises)加強[46]。但教育人工智能倫理原則的構建不能僅尋求數據或算法這種技術層面的解決,因為雖然技術參考的量化指標可以使用具有明確目標狀態和理想化的條件來量化倫理原則,但指標本身是“被選擇的”①,選擇一種價值就是對其他價值的否定,因此所有的價值選擇都需要理由。教育人工智能的各項倫理原則均應與我國的教育價值取向相契合。

(二)領域作用的有限性:明確原則構建的目的導向

明確目的導向是構建教育人工智能倫理原則的前提要求。教育人工智能在借鑒“共識”時面臨的諸多“非共識”沖突,如前文提到的結構與指向差異、內容與對象差異、概念與關系差異,很大程度上是由于原則構建目的不明導致的。當前研究對原則構建具有的意義強調頗多,但對原則構建指向的目的探討甚少?!耙幈軅惱盹L險,實現技術向善”這一目標固然重要,但還遠遠不夠。未來,需要進一步明確教育人工智能倫理原則構建的目的與教育人工智能應用的目的。

表層來看,需要明確教育人工智能倫理原則的構建目的,即框架目的。一是要明確原則旨在影響的對象與應用。教育人工智能應用涉及技術開發人員和提供者、教育研究人員、教育工作者、管理人員、學生,以及政策制定者、家長和公眾等多種利益相關者。這種應用及其利益相關者的多樣性必然會推動對共同價值觀和規范的追求向高抽象層次發展,導致原則內容成為難以實現的空談。未來教育人工智能倫理原則構建可能有兩種取向,一種是構建應用與利益相關者指向明確的針對性框架。另一種是內容能夠調整的整體性框架,當它面對不同的教育人工智能應用場景時,能夠通過對自身內涵的調整而變得繼續適用;二是要明確原則旨在發揮作用的程度。當前教育人工智能倫理原則就其性質而言是普遍且宏大的,它們的價值在于它們表明了適用于教育領域的重要道德主題與愿景。這意味著它們可以作為在教育場景中需要考慮的一組事項清單。然而,原則的普遍與宏大也限制了它們指導實際行動的能力,甚至會由于各原則要求過高導致原則間互相沖突。如果不承認這些沖突,原則標準可能會被設定的不切實際的高,或者旨在踐行一種原則的行為可能會在無意中損害其他重要目標。這意味著各倫理原則的實用價值是有限的,因此每一項倫理原則都應是“有限原則”,對其內涵的說明或追求都是和其他原則不斷妥協的結果,只有范圍更窄、更具體的原則才可能在實踐中發揮作用。

深層來看,需要審視教育人工智能技術的應用目的,即教育目的。如果沒有明確清晰的教育目的,在教育中尋找“人工智能倫理”將是徒勞的。重要的倫理原則,例如“福祉”,需要對什么是“利益”或“進步”有明確的理解。在教育人工智能倫理原則的構建中,只有我們清楚地了解教育的目的時,才能解釋這些術語及術語組成的框架結構與指向。當前對教育人工智能應用目的的認識可能是不足的。目前,諸多教育人工智能系統以布魯姆(Bloom)“精通學習”教學策略為起點或受其影響,它支撐了人們普遍認為人工智能在個性化教學中具有巨大潛力的信念[47]。精通學習教學策略在數學與科學領域特別有影響力,許多領先的教育人工智能系統已廣泛建立了特定領域的知識模型、學習材料與知識掌握測試[48]。但是,將知識掌握視作教育人工智能的應用目的可能是有局限的。比斯塔(Biesta)認為,教育的目的不能被學習的目的(尤其是知識學習的目的)取代,教育的目的至少包括資質(Qualification)、社會化(Socialization)、主體化(Subjectification)三個方面②[49]。也就是說,教育不僅僅是為了測試或積累知識而進行教學,教育人工智能傳統上對認知能力的關注對于指導倫理原則構建來說可能過于狹窄乃至影響對問題識別、原則選擇、內涵闡發的把握。

(三)指導時效的有限性:保持原則構建的持續開放

保持持續開放是構建教育人工智能倫理原則的應有追尋。如果說領域作用的有限性強調的是教育人工智能倫理原則如何面對當下,那么指導時效的有限性討論的則是教育人工智能倫理原則如何面對未來。關于技術的社會和歷史研究指出,技術的未來用途與可能后果很難精準預測。教育人工智能倫理原則的構建需要關注未來,通過持續開放回應教育人工智能領域的“科林里奇困境”(The Colling Ridges Dilemma)與“步調問題”(The Pacing Problem)。

首先是原則內涵的持續開放,即如何回應科林里奇困境??屏掷锲胬Ь呈侵讣夹g的邏輯可塑性導致其在與社會的融合過程中充滿不確定性,這意味著對教育人工智能的倫理評估與控制總是有限的、被動的,必須保持對個性化、復雜性倫理問題的關注與分析。正如布倫特(Brent)所言,“倫理原則構建的真正風險在于復雜、困難的倫理辯論被過度簡化,以使手頭的概念能夠以簡單但淺薄的方式進行計算和實施”[50]。因此,倫理原則的內涵需要保持一定的開放性,即能夠對已有原則優化重構或增加新的原則,以適應教育人工智能實踐的不斷發展及在發展過程中可能出現的新的風險。這意味著原則構建應當成為一個過程,而不只是提出一套以內容為導向的倫理清單。

其次是原則預測的持續開放,即如何回應步調問題。步調問題是指當前教育人工智能技術的創新速度遠遠超過了法律、倫理規范和管理條例的更新速度,塑造了科學技術發展與道德規范發展之間的差距。如上所述,盡管當前教育人工智能倫理原則研究存在諸多爭議,但在原則構建的目的上已基本達成一致,即“教育人工智能倫理原則旨在應對、規避人工智能技術中教育領域應用的倫理風險,實現技術向善”。這一構建目的暗含兩個前提假設:一是倫理原則是能夠“確定”的;二是倫理原則能夠逐一對應教育實踐產生的倫理風險。但正如步調問題所表明的那樣,人類倫理常常是滯后先于前瞻,“事后諸葛亮”式的教訓遠多于“未卜先知”式的智慧,對倫理問題的預見必定存在疏漏。因此,教育人工智能倫理原則的構建需要堅持滯后與前瞻的統一,在指向現實問題的同時,也要把握教育人工智能技術的發展趨勢,提供預見性倫理原則。

四、結語

教育人工智能倫理原則構建是一個正在生成的領域,目前,其逐漸從參照各領域倫理原則共識向關注教育領域的個性要素轉變,這可稱之為“超越共識”的研究轉向。超越“共識”首先需要明確“共識”中的“非共識”,雖然現有研究已經提出了許多針對教育領域的個性化人工智能倫理原則框架,但總體來看,它們對“非共識”的認識仍然是不足的。實際上,共識性人工智能倫理原則不僅存在國別與領域差異,在教育領域的不同應用甚至同一框架內部,亦存在著明顯不同。這意味著似乎難以形成一套具有普適性作用的教育人工智能倫理原則,未來相關原則的構建很可能是個性且多樣的。從這一意義上講,對構建原則討論的重要性超過對原則構建的討論。堅持本土立場、明確目的導向、保持持續開放是構建教育人工智能倫理原則時的必要遵循,但可能還不夠。未來,還需要對構建原則進行更為全面、深入的研究??傊?,構建能夠切實影響教育實踐的人工智能倫理原則是一個必要但極其困難的研究議題,用路易斯維爾大學教授兼人工智能研究員羅曼·揚波爾斯基(Roman Yampolskiy)的話來說:“那些說人工智能倫理很復雜的人過于樂觀了”。

參考文獻:

[1] 苗逢春.教育人工智能倫理的解析與治理——《人工智能倫理問題建議書》的教育解讀[J].中國電化教育,2022,(6):22-36.

[2] Hagendorff,T.AI ethics and its pitfalls: not living up to its own standards [J].AI and Ethics,2023,3(3):329-336.

[3] Schiff D,Borenstein J,et al.AI ethics in the public,private,and NGO sectors:A review of a global document collection [J].IEEE Transactions on Technology and Society,2021,2(1):31-42.

[4] Corrêa N K,Galv o C,et al.Worldwide AI Ethics:a review of 200 guidelines and recommendations for AI governance [EB/OL].https:// arxiv.org/abs/2206.11922,2023-02-28.

[5] Holmes,W.Ethics in AIED:Who cares [C].Lausanne,Switzerland:Springer, 2019.424-425.

[6][8] Jobin A,Ienca M,et al.The global landscape of AI ethics guidelines [J].Nature Machine Intelligence,2019,1(9):389-399.

[7] Fjeld J,Achten N,et al.Principled Artificial Intelligence:Mapping Consensus in Ethical and Rights-Based Approaches to Principles for AI [J].Social Science Electronic Publishing,2019,22(3):20-38.

[9] Hagerty A,Rubinov I.Global AI ethics:a review of the social impacts and ethical implications of artificial intelligence [EB/OL].https://arxiv. org/abs/1907.07892,2019-07-18.

[10] Khan A A,Badshah S,et al.Ethics of AI:A systematic literature review of principles and challenges [C].New York:ACM,2022.383-392.

[11] Agarwal B,Urlings C,et al.Ethical FRAPPE–an adapted draft framework for ethical AIED [C].Toulouse:CEUR-WS.org,2022.46-54.

[12] Armstrong,M.,Dopp,C.,et al.Design-Based Research,The Students Guide to Learning Design and Research [EB/OL].https://edtechbooks. org/studentguide/design-based_research,2022-07-21.

[13] Adams C,Pente P,et al.Artificial Intelligence ethics guidelines for K-12 education:A review of the global landscape [C]. Cham:Springer,2021.24-28.

[14] Hong Y,Nguyen A,et al.Data Ethics Framework for Artificial Intelligence in Education (AIED) [C].New York:IEEE,2022.297-301.

[15] Madaio M,Blodgett S L,et al.The Ethics of Artificial Intelligence in Education [M].New York:Routledge,2022.203-239.

[16] Chaudhry M A,Cukurova M,et al.A transparency index framework for AI in education [C].Cham:Springer,2022.195-198.

[17] Holstein K,McLaren B M,et al.Designing for complementarity:Teacher and student needs for orchestration support in AI-enhanced classrooms [C].Cham:Springer,2019.157-171.

[18] Murphy K,Di Ruggiero E,et al.Artificial intelligence for good health:a scoping review of the ethics literature [J].BMC medical ethics,2021,22(1):1-17.

[19] Hickok M.Lessons learned from AI ethics principles for future actions [J].AI and Ethics,2021,1(1):41-47.

[20][21][23][48] Tuomi I.A framework for socio-developmental ethics in educational AI [C].Hawaii:University of Hawaii,2023.6208-6217.

[22] Bakiner O.What do academics say about artificial intelligence ethics An overview of the scholarship [J].AI and Ethics,2022,1(1):1-13.

[24] Morley J,Floridi L,et al.From what to how:an initial review of publicly available AI ethics tools,methods and research to translate principles into practices [J].Science and engineering ethics,2020,26(4):2141-2168.

[25] Kempt H,Freyer N,et al.Justice and the Normative Standards of Explainability in Healthcare [J].Philosophy & Technology,2022,35(4):100.

[26] Nguyen A,Ngo H N,et al.Ethical principles for artificial intelligence in education [J].Education and Information Technologies,2022,5(2):1-21.[27] IBM Corporation.Everyday ethics for artificial intelligence [EB/OL]. https://www.ibm.com/watson/advantage-reports/everyday-ethics-forai/,2019-05-07.

[28] Berkman Klein Center for Internet & Society.Principled artificial intelligence:mapping consensus in ethical and rights-based approaches to principles for AI [EB/OL].https://dash.harvard.edu/ handle/1/42160420,2020-01-05.

[29][32] Holmes W,Porayska-Pomsta K.The Ethics of Artificial Intelligence in Education:Practices,Challenges,and Debates [M]. London:Taylor & Francis,2022.

[30] [美]韋恩·霍姆斯,瑪雅·比利亞克等.馮建超,舒越譯.教育中的人工智能:前景與啟示[M].上海:華東師范大學出版社,2021.

[31] Holmes W,Tuomi I.State of the art and practice in AI in education [J]. European Journal of Education,2022,57(4):542-570.

[33] Hwang G J,Xie H,et al.Vision,challenges,roles and research issues of Artificial Intelligence in Education [J].Computers and Education:Artificial Intelligence,2020,1(1):1-5.

[34][50] Mittelstadt B.Principles alone cannot guarantee ethical AI [J]. Nature Machine Intelligence,2019,1(11):501-507.

[35][36][40] Whittlestone J,Nyrup R,et al.The role and limits of principles in AI ethics:towards a focus on tensions [C].New York:ACM,2019.195-200.

[37] Herzog C.On the risk of confusing interpretability with explicability [J]. AI and Ethics,2022,2(1):219-225.

[38] 中共中央辦公廳 國務院辦公廳.關于加強科技倫理治理的意見[EB/OL].http://www.gov.cn/zhengce/2022-03/20/content_5680105. htm,2022-08-04.

[39] 劉同舫.技術的當代哲學視野[M].北京:人民出版社,2017.44.

[41] Capurro R.Privacy.An intercultural perspective [J].Ethics and information technology,2005,1(7):37-47.

[42] Ess C.Ethical pluralism and global information ethics [J].Ethics and Information Technology,2006,1(8):215-226.

[43] Habermas J.Moral consciousness and communicative action [M]. Cambridge:MIT press,1990.

[44] Arrieta A B,Díaz-Rodríguez N,et al.Explainable Artificial Intelligence (XAI):Concepts,taxonomies,opportunities and challenges toward responsible AI [J].Information fusion,2020,58(1):82-115.

[45] Dwork C.Differential privacy:A survey of results [C].Berlin:Springer,2008. 1-19.

[46] Falco G,Shneiderman B,et al.Governing AI safety through independent audits [J].Nature Machine Intelligence,2021,3(7):566-571.

[47] Blikstein P,Zheng Y,et al.Ceci nest pas une éc ole:Discourses of artificial intelligence in education through the lens of semiotic analytics [J].European Journal of Education,2022,57(4):571-583.

[49] Biesta G J J.Good education in an age of measurement:Ethics,politics, democracy [M].London:Routledge,2015.76.

作者簡介:

白鈞溢:在讀博士,研究方向為教育哲學。

于偉:教授,博士生導師,東北師范大學附屬小學校長,研究方向為教育哲學。

Beyond Consensus: Development Directions for Constructing Ethical Principles of AI in Education

Bai Junyi, Yu Wei

(Faculty of Education, Northeast Normal University, Changchun 130024, Jilin)

Abstract: Influenced by the development plans of various countries on artificial intelligence, research on ethical principles of AI education started later than other areas and shaped its construction orientation with reference to existing “consensus” principles. Currently, researchers are gradually paying attention to reflecting on the “consensus” and exploring the individual elements of the education field, surpassing the “consensus” becoming the development trend for constructing ethical principles in AI education. The fundamental reason that limits the practical effect of ethical principles in AI education is the “non-consensus” element implied by the “consensus”, including historical and cultural differences between countries, structural and directional differences between fields, content and object differences between applications, and conceptual and relational differences within themselves. To surpass the “consensus” means bridging the “non-consensus” elements based on existing research. More directly, it is acknowledging the limitations of ethical principles in AI education, including the limitations in value matching,domain applicability, and guidance timeliness, thus adhering to a local stance, clarifying purpose orientation, and maintaining continuous openness when constructing ethical principles in AI education.

Keywords: AI education; ethical principles; beyond consensus; direction of development

責任編輯:李雅瑄

① 教育人工智能倫理原則在政策文件與學術研究中通常不會以單個原則的形式出現,而是一個包含了多個倫理原則的框架,并冠以“指導方針”“責任”“指南”“行為準則”等名稱。

① 教育人工智能(AIED)的雙重角色是指既可以通過人工智能技術促進教育發展,也可以通過教育促進人工智能技術及其相關領域的發展,亦即“AI for Education”與“Education for AI”。

① 即使是達成共識的倫理原則,不同群體對其的價值排序也有所不同。例如,“隱私”在崇尚個人主義的地區的重視優先級可能高于崇尚集體主義的地區。

② 歐洲人工智能倫理的語料庫包含一套價值觀和原則體系,將規范應用于具體案例并轉化為符合倫理的行動,即一種將道德理想融入公民和社會現實的機制。參見Dubber M D,Pasquale F,et al.The Oxford Handbook of Ethics of AI[M].Oxford:Oxford University Press,2020.649-666。

① 例如,目前人工智能可能比醫生更能準確的診斷醫療狀況,但不一定能夠提供令人滿意的解釋。

① 例如,當前對于公平的算法定義至少有21種,且沒有一種公平性算法能夠同時滿足不同的公平性條件。參見Mitchell S,Potash E,et al.Algorithmic fairness:Choices,assumptions,and definitions [J].Annual Review of Statistics and Its Application,2021,8(1):141-163.及Kleinberg J,Mullainathan S,et al.Inherent trade-offs in the fair determination of risk scores [EB/OL].https://arxiv.org/abs/1609.05807,2016-11-17.

② 即教育的目的是為了知識構建、社會化還是自我實現。

猜你喜歡
發展方向共識
共識 共進 共情 共學:讓“溝通之花”綻放
商量出共識
薪酬改革共識難達
淺析第五代移動通信技術的發展
探討企業工商管理現狀及發展方向
分析醫藥市場營銷的策略與發展方向
融媒體業態將決定報業未來
“慢養孩子”應成社會普遍共識
別讓“PX共識”在爆炸中瓦解
價值觀共識與天下精神
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合