?

國際組織基礎教育人工智能倫理政策透視

2024-02-28 01:57尹雅麗
比較教育研究 2024年2期
關鍵詞:決策者層面指南

尹雅麗

(1.贛南師范大學外國語學院,江西贛州 341000;2.國家教材建設重點研究基地華南師范大學港澳臺教材綜合研究基地,廣東廣州 510631)

基礎教育人工智能倫理直接關乎兒童和青少年的發展大計。當前,已有多個國際組織和政府發布相關政策,關注人工智能應用于基礎教育領域的倫理邊界和法律標準。世界經濟論壇(World Economic Forum)是較早關注基礎教育人工智能倫理問題的國際組織,于2019年頒布《人工智能一代:為兒童和人工智能建立全球標準》(Generation AI Establishing Global Standards for Children and AI,下文簡稱《人工智能一代》),提出制定人工智能兒童標準,加強風險識別與防范。[1]2021年,聯合國教科文組織(UNESCO)頒布具有里程碑意義的《人工智能與教育:決策者指南》(AI and Education:A Guidance for Policymakers,下文簡稱《決策者指南》),這是首份系統闡釋教育領域人工智能倫理的政策文件。[2]教育人工智能倫理研究所(The Institute for Ethical AI in Education)于2021 年制定的《教育人工智能倫理框架》(The Ethical Framework for AI in Education,下文簡稱 《倫理框架》),以及聯合國兒童基金會(UNICEF)在同年出臺的《兒童人工智能政策指南2.0》(Policy Guidance on AI for Children Version 2.0,下文簡稱《政策指南2.0》),進一步從倫理規范和監管角度完善了基礎教育人工智能的相關政策。為了厘清國際組織推進基礎教育人工智能倫理政策建設的發展,本研究對比四大國際組織于近5年發布的基礎教育人工智能倫理政策,以目標導向和治理方案為重點,兼顧實施措施,以此剖析政策發展新動向,明晰其如何通過“數字保護”實現“規范技術”,進而“保護兒童”,賦能基礎教育數字化發展與適應人工智能變革。

一、研究設計

(一)理論分析框架

國際上針對人工智能的“倫理”討論,普遍使用“倫理”(ethics)一詞,延伸出“公平性”(fairness)、“問責制”(accountability)、“透明度”(transparency)、“可解釋性”(explainability)等相關概念。這些概念與“倫理”一詞往往同時出現在政策文本中,雖然含義不盡相同,但是都強調人工智能系統應具備可理解、可預測和符合道德規范的特點,可以視為人工智能倫理的核心原則。[3]

關于以上概念的含混性和指向性,以及彼此間的區別和聯系,可以在布朗芬布倫納(Bronfenbrenner)的生態系統理論中找到合理闡釋。生態系統理論認為,個體發展是在復雜環境系統中完成的。[4]作為環境系統的組成部分,倫理規范和道德準則會影響個體的倫理判斷力和道德行為。具體到人工智能倫理領域,“公平性”“問責制”“透明度”等原則構成人工智能系統應遵循的倫理環境,并通過教育系統傳遞給學生。因此,需要關注各系統層面倫理環境的構建:在個體層面,須探討教育者、學生和家長在人工智能應用中的角色、權益和參與度;在教育系統層面,須分析人工智能對教育制度、教學模式和學校管理的影響,以及倫理問題的產生和解決;在社會文化背景層面,須考察人工智能應用源自社會、文化和價值觀的倫理挑戰和影響。

公共政策理論認為,政策分析是評估和解釋政策問題、目標和解決方案的過程。[5]基于此,基礎教育人工智能倫理的政策分析包含四個層面:政策目標層面,識別數據安全、隱私保護和算法公平等倫理問題;政策措施層面,規劃監管機制、實踐指南和技術標準等邊界問題;政策實施層面,關注政策執行過程中的角色分工和監管方式;政策評估層面,開展政策效果分析和監測。與一般政策分析不同,基礎教育人工智能倫理政策分析強調“倫理性”。為融入倫理內涵,本研究整合生態系統理論與公共政策理論,形成更具體的維度面向,遵循“目標-方案-實施”三維度的政策與實踐演進邏輯,涵蓋目標闡釋、倫理方案、實施框架三個層面?;谝陨嫌^點,本研究構建了基礎教育人工智能倫理政策的綜合性理論分析框架,并對各維度面向的意涵進行描述性闡釋(見表1)。

表1 基礎教育人工智能倫理政策理論分析框架

(二)政策文本來源

基礎教育人工智能倫理政策是由多個政策文本綜合而成的政策群,有的以單列主題政策形式,有的以綜合性主題政策形式出現。當前,雖然全球范圍內基礎教育人工智能倫理相關政策數量有限,與其他教育政策相比,總量并不充足,但是已引發國際組織高度重視,逐步形成完整的政策體系。本研究選取的4個國際組織基礎教育人工智能倫理政策文本(見表2),從不同角度和層面關注基礎教育人工智能倫理的重要問題,涵蓋了兒童權益保護、全球標準制定、倫理框架指導和決策者行動指南等方面,代表了近5年來全球范圍內基礎教育人工智能倫理政策發展的最新動向和趨勢,對基礎教育領域人工智能倫理政策的發展和實踐具有重要指導意義。[6]

表2 國際組織基礎教育人工智能倫理4項政策列表

二、導向與策略:國際組織基礎教育人工智能倫理政策的目標闡釋

(一)目標指向:從應用領域、施策對象和實施主體層面進行定位

政策目標是引導政策實施實現價值和效果的前置因素?;A教育人工智能倫理政策目標需要定位人工智能技術創新,并識別應用領域,同時促成多方履行職責,共同關注學生權益保護。[7]

首先,在應用領域層面,《人工智能一代》和《倫理框架》聚焦教育數據應用,圍繞保障兒童權益,將數據隱私和信息安全作為人工智能技術應用的底線原則?!稕Q策者指南》在課程設置和教學評估等教育實踐領域,提出“將倫理教育融入教師培訓,使倫理規范內化于具體的教學活動”[8]。

其次,在施策對象層面,《人工智能一代》關注兒童主體地位,不僅尊重兒童權利,而且鼓勵兒童參與人工智能設計和評估等全過程?!秱惱砜蚣堋窂娬{需求導向,提高兒童認知,以規避技術風險?!稕Q策者指南》重視公平參與,為兒童提供實踐指導和法律保障,幫助其理解和應用人工智能?!墩咧改?.0》出于尊重兒童主體性,提出“充分考慮兒童意見并與家長意見結合,確保兒童獲得參與決策權”[9]。

最后,在實施主體層面,《人工智能一代》從產品“使用者”和“服務者”出發,通過開發政策指南和企業治理憲章,為不同主體提供倫理指導?!稕Q策者指南》主要面向決策者,要求其承擔人工智能政策和標準的“制定者”和“執行者”角色,同時規范多方主體責任?!秱惱砜蚣堋窂娬{教育決策者和管理者須“根據倫理標準,保障學習者權益”[10]?!墩咧改?.0》要求政府加強兒童“個人隱私”“數據安全”以及“風險管理”等政策標準。

(二)價值導向:關注倫理性和交互性,倡導人才培育須人文與技能相結合

人工智能價值的實現需要技術創新和倫理規范的雙向引領,強調兩者協調統一。為了兼容人工智能的倫理性和交互性,基礎教育人工智能政策在規范界定、人機合作和人才素養等方面進行了價值探索,顯示出人文關懷與技能培養的雙向邏輯。

首先,強化人工智能倫理規范?!秱惱砜蚣堋愤M行了原則性闡釋,即重視學生倫理素養的培養,加大數據隱私保護?!稕Q策者指南》進一步強調“公平性”“可持續性”“人權導向”等核心價值原則,倡導“合理、規范地使用技術”[11]?!墩咧改?.0》提出保護兒童隱私,強調促進人工智能應用的“包容性”和“公正性”,彰顯以人為本的價值追求。

其次,培養人與人工智能系統合作和交互的必要技能?!秱惱砜蚣堋烽_宗明義,提出掌握原理和算法技能,重視倫理選擇判斷力,使學生理解人工智能可能產生的倫理后果?!稕Q策者指南》提出培養學生“批判性思維”“溝通能力”“協作能力”和“創造力”,學會識別人工智能系統中的倫理困境,進一步明確培養目標?!墩咧改?.0》強調,通過“將人工智能技能納入學校課程”,落實人才培養舉措,幫助“學生在模擬情境中體驗道德決策過程”[12]。

最后,實現人才培養的倫理性和創新性。一方面,強化觀念引領?!度斯ぶ悄芤淮诽岢?,“尊重權益”和“社會公正”是人工智能人才培養的基石,需要加強倫理規范以規避人才培育偏離軌道?!秱惱砜蚣堋犯鶕逃顒右幝商岢鰝惱硪?,確保人工智能技術與教育價值觀契合。另一方面,關注創新實踐?!稕Q策者指南》提出“倫理意識”“社會責任感”“創造力”和“批判性思維”等創新素質,對不同領域人才知識結構提出要求?!墩咧改?.0》強調制定多領域合作的倫理框架,通過加強教育及培訓促進創新思維與技能培養的統一。

(三)操作程度:厘清限定標準和核心議題,利用多元問責強化效果

雖然政策明確了標準和規范,但是若缺乏可操作性、約束性與問責機制,則難以轉化為實際行動而流于抽象的原則和愿景。為此,各項政策凸顯實踐策略的重要性,從標準設定、議題設置、主體問責三個層面著手,確保各方主體在履行職責和義務時有章可循。

第一,從實踐準則出發,對人工智能系統進行標準設定?!度斯ぶ悄芤淮坊谏虡I倫理,提出“制定供應鏈模型”,強調“產品分配的規范性”[13]?!稕Q策者指南》重視教育管理者行為規范,關注管理者是否遵循道德決策準則?!墩咧改?.0》則偏重于工具性使用,運用設置算法標準,開發“智慧數據”(Data Smart)和“數據社區”(Data Community DC)等第三方工具包,提出“數據評估標準”和“風險管理標準”,為人工智能系統的規范應用提供支持。

第二,以兒童權益保護為核心議題,定義和識別兒童在數字環境中的參與度和互動性?!度斯ぶ悄芤淮穼ⅰ皟和色@得性標準”(child accessibility standard)作為政策核心,強調兒童故事和案例研究的重要性,反映出兒童主體地位和技術發展的關系?!墩咧改?.0》建議企業設計兒童人工智能產品,將兒童權益保障納入核心戰略?!秱惱砜蚣堋窂娬{在政策制定中加強兒童權益保護。

第三,敦促各方主體制定問責措施,確保人工智能技術和應用的合規性和安全性。各項政策主要推進了以下兩方面要求。一方面,加強制度建設?!稕Q策者指南》提出責任評估是確保決策透明度的關鍵,提倡跨部門協作制定相關措施,避免監管漏洞?!秱惱砜蚣堋饭膭罱⒇熑螜C制和監督平臺,納入多方主體“增益問責”(beneficence accountability)。另一方面,明確行為約束?!度斯ぶ悄芤淮芬笙嚓P機構承擔保護責任,實現維護兒童權益和安全目標?!墩咧改?.0》規定了從業人員資質,對不同違規行為制定了處罰標準。[14]

三、問題與解決:國際組織基礎教育人工智能倫理政策的倫理方案

(一)倫理原則:塑造人工智能技術和應用的多維道德倫理標準

基礎教育人工智能倫理原則關乎“兒童權益保障”這一核心問題。鑒于算法歧視和數據泄露等多方面風險,強化基礎教育人工智能倫理原則的內涵指導意義重大,國際組織這4項政策明確彰顯尊重權利、公平公正、問責明確等倫理理念和標準,以回應兒童發展需求。

一是“公平性”“透明度”和“可解釋性”原則,旨在營造公正可信、可理解的人工智能教育環境。[15]《人工智能一代》提出在“算法設計”(algorithm design)方面增強透明度?!秱惱砜蚣堋诽岢霾捎谩翱山忉屝运惴ā?,通過提供用戶反饋機制確保透明度?!稕Q策者指南》要求向利益相關者提供決策行為的“可解釋性”,確保教育人工智能系統公平性,不得偏袒任何學習者?!墩咧改?.0》強調提升政策透明度,以確保人工智能應用的“公平性”與“安全性”。

二是“數據隱私”和“數據安全”原則,注重保護學生數據的隱私性與安全性。[16]《人工智能一代》提出采用新型隱私保護方法,加強數據認知?!秱惱砜蚣堋诽岢鲈黾幽涿幚碇贫?,強調限制收集是預防數據泄露的關鍵。與《倫理框架》和《決策者指南》側重數據處理約束不同,《政策指南2.0》重視組織層面保障,提出構建專門的兒童數據安全機構。

三是“算法公正”原則,目的在于杜絕算法設計和應用中產生的偏見或歧視。[17]在認知層面,《倫理框架》要求避免算法歧視和不平等,《決策者指南》提出預防算法偏見風險。在對策層面,《人工智能一代》提出權衡利益和追究責任,《決策者指南》強調考慮算法偏見表現,《政策指南2.0》要求審查和更新算法。在監管層面,《政策指南2.0》提出制定算法監管框架,強調完善相關制度?!稕Q策者指南》則聚焦隱患防范,強調關注數據倫理風險。

(二)倫理問題:引發權益保護、技術偏見和系統可解釋性的挑戰

基礎教育人工智能倫理問題因素雜糅,引發“兒童權益”隱私和歧視問題,以及“公信力”及“監管”等諸多方面爭議,需要平衡多方利益訴求。為此,基礎教育人工智能倫理政策高度強調“包容性”,尋求技術手段和法律規范保護“用戶權益”,探尋人工智能技術“透明性”和“可解釋性”的內在規律。

一是“權益保護”問題,內嵌“技術應用”和“制度規范”兩種邏輯?!凹夹g應用”利用技術手段預防風險,側重于具體措施。如《人工智能一代》提出程序和平臺的應用安全問題,《倫理框架》強調采用加密和驗證技術?!爸贫纫幏丁敝С至⒎ê捅O管,體現系統性。如《政策指南2.0》提出針對不同使用者制定具體規范和監管機制,《決策者指南》強調將兒童權益作為立法目標,提出考慮使用者人權倫理問題。

二是“技術偏見”問題,包括“算法歧視”“性別平等”“數據泄露”等?!度斯ぶ悄芤淮诽岢霰苊夥N族、性別等偏見,將避免偏見定位為實現技術公平、用戶權益與社會發展的和諧統一?!稕Q策者指南》關注算法偏見和性別不平等,重視數據管理機構與個人數據泄露問題?!墩咧改?.0》提出“兒童群體偏見”(child group bias)問題,提倡使用適齡語言講授人工智能技術。

三是“可解釋性”問題,可以從人工智能系統的解釋內容、解釋方式、解釋程度和用戶需求方面進行任務分解。如《人工智能一代》闡明解釋內容包括基本原理、數字循證、數據和算法流程等?!秱惱砜蚣堋分匾暡捎谩耙桌斫夥绞健?,如自然語言描述或可視化展示等?!稕Q策者指南》強調詳盡滿足用戶疑問?!墩咧改?.0》提出用戶需求視角推進算法解釋,實現兒童及其看護者達到充分理解交互的目的。

(三)解決方法:基于風險管理的人工智能創新實踐

基礎教育人工智能涉及的倫理和道德問題具有復雜性和不可預見性,引發人們對“技術進步”和“社會公平”兩者關系的反思,亟須重新審視如何實現人工智能的“可持續發展”?;A教育人工智能倫理政策須直面以上問題帶來的風險后果,采取防范與化解的積極導向,促進人工智能創新與倫理規范的協調統一。

首先,加大社會影響評估和風險管理。在價值層面,《倫理框架》強調“共享倫理”(shared ethics)愿景,規避技術風險。在技術層面,《人工智能一代》提出通過開發數據集,消解偏見,支持弱勢兒童。在方法層面,《政策指南2.0》提出風險識別方法,如關注隱私侵犯、就業問題、社會不平等問題,強調進行風險評估預判。在實施層面,《決策者指南》針對管理者推出風險應對措施。

其次,平衡技術創新和人權保護關系?!度斯ぶ悄芤淮穼ⅰ皺嘁姹Wo”定位為“技術創新”基石,提出在學校開設相關課程,通過培訓方案加強公眾權利保護意識,更好地實現技術創新。為厘清人工智能創新邊界,《倫理框架》提出人工智能開發和應用必須遵守人權法和倫理原則?!稕Q策者指南》強調制定法律框架和監管機制,確保在尊重人權前提下創新應用?!墩咧改?.0》強調人權保護是技術創新的基本前提。

最后,構建有效投訴機制和獨立監管機構。主要涵蓋以下兩方面要求:一方面,突出監管重點?!度斯ぶ悄芤淮诽岢鼋⑼对V和監管機構,鼓勵公眾揭發違規行為?!墩咧改?.0》強調兒童包容性,提出優先出臺針對兒童公平和非歧視的投訴和監管措施。另一方面,明確監管方式?!秱惱砜蚣堋方ㄗh采用設計隱私方法,在群體層面進行兒童保護,并鼓勵兒童投訴?!稕Q策者指南》規定“跨部門協作義務范疇”,強調“治理機構承擔相應責任,并執行監管權”[18]。

四、功能與措施:國際組織基礎教育人工智能倫理政策的實施框架

(一)參與者角色:實現各方主體在政策全流程中的共享共建

在“目標-方案”的政策邏輯基礎之上,基礎教育人工智能倫理政策進入實施層面,從多元主體功能的視角出發,確保兒童“隱私保護”“公平性”“安全性”等方面的權益。

首先,決策者承擔政策制定和實施的主導者角色。一方面,決策者具有政策決策權,是統籌規劃的主導者?!度斯ぶ悄芤淮穼ⅰ皟和影踩弊鳛槭滓繕?,要求決策者參與制定?!墩咧改?.0》要求決策者切實履行角色,制定相關政策法規。另一方面,決策者應秉持開放和包容,與多元主體形成政策執行合力?!秱惱砜蚣堋窂娬{決策者應與利益相關者合作,共同推動倫理準則落實?!稕Q策者指南》強調“決策者和多元主體協商共建”[19]。

其次,軟件團隊扮演整合兒童權利和需求的設計者角色。一是強調適應兒童需求?!度斯ぶ悄芤淮逢P注兒童權益“最大化”,強調軟件團隊在開發、應用和維護過程中應符合倫理標準?!秱惱砜蚣堋芬筌浖F隊深入了解兒童發展需求。二是強調發揮專業作用,參與政策決策過程?!稕Q策者指南》提出軟件團隊應與決策者合作,為政策制定提供專業建議。三是強調保護數據隱私安全?!墩咧改?.0》提出軟件團隊在兒童隱私保護、信息安全和數據使用等方面承擔“首要角色”。

最后,公眾擔當推動政策落地的協商者角色。為拓展公眾參與,這4項政策圍繞以下兩方面推進了相關舉措。一是完善制度供給?!秱惱砜蚣堋泛汀稕Q策者指南》提出建立專家咨詢組織。如,《決策者指南》強調建立協作平臺,吸納多元意見?!墩咧改?.0》則強調發揮公眾專長,提出“制定路線圖”“開發工具畫布”等措施加大制度供給。二是明確參與內容?!度斯ぶ悄芤淮芬蠊姵袚咧贫ǖ热蝿?,包括“提供反饋、參與研討會和聽證會”[20]等。

(二)監督與管理:在教師培訓、法律框架和學習者權益方面加強倫理規范

雖然政策確立了多元主體及其功能,但是若缺乏監督約束,那么將難以落實。從實踐角度來說,針對教師培訓、法律框架和學習者權益三個層面采取監管措施,督促各方履行職責,是保障政策落地的“防護墻”,可以有效遏制潛在倫理風險和不平等現象。

首先,升級培訓手段,加強教師倫理素養規范。從專業發展來看,《人工智能一代》提出為教師提供專業能力發展機會,能夠識別人工智能倫理挑戰。從資源建設來看,《政策指南2.0》和《倫理框架》針對“支持教師使用工具和資源”提供培訓和指導,推動教師遵循倫理規范。從管理實踐來看,《決策者指南》提出開發教師能力建設計劃,探索教師倫理規范管理機制。

其次,構建法律框架,加大倫理制度規范。一是在決策者層面,《人工智能一代》提出圍繞數據保護和教育培訓等議題,敦促政府制定相關法律法規框架?!稕Q策者指南》要求管理者為教師和學生提供法律保護。二是在制度準則層面,《倫理框架》視法律約束為基本遵循,其倫理框架涵蓋“反歧視”“知識產權”“數據隱私”等多個范疇的指導要求。三是在制度保障層面,《政策指南2.0》提出規范建設制度框架,以保障兒童數據隱私和安全。

最后,保障學習者權益,強化倫理權利規范。以學習者需求為視角,標識“透明度”屬性,兼顧多方權益加強監管。一是保障知情權?!度斯ぶ悄芤淮泛汀秱惱砜蚣堋窂娬{須告知使用風險,以建立學生家長信任。二是確保獲取權?!稕Q策者指南》和《人工智能一代》強調提供適應性教育資源,以構建可信賴的人工智能教育環境。

(三)資源保障:構建“公平、應變、個性化”的資源體系

如果基礎教育人工智能技術和應用缺乏倫理規范,那么將導致資源浪費和不公平利用,而這直接關乎兒童能否獲得良好和公平的教育機會。因此,構建“公平”的資源分配機制,“應變”地防范外部影響,“個性化”地滿足兒童發展需求,實現資源供給與價值引領統一是應有之義。

一是強化資源的合理利用和公平分配。首先,設立行動標準?!度斯ぶ悄芤淮窂娬{采用信息共享和數據安全保護等技術手段?!秱惱砜蚣堋芬蟆百Y源采購應具有道德規范性”[21]。其次,加強監管評估?!稕Q策者指南》提出建立透明、公正、負責任的數據資源管理機制?!稕Q策者指南》推出資源監管和評估措施。再次,突出應用導向?!墩咧改?.0》聚焦教學板塊,提出最大化利用課程資源。最后,推進具體措施?!秱惱砜蚣堋诽岢越虒W導向進行資源設計,同時注意避免操縱用戶行為、歧視學習者群體。

二是應對環境、社會和經濟等外部影響。一方面,利用技術手段提高資源利用率?!度斯ぶ悄芤淮诽岢鰳嫿夹g生態系統,提高資源利用效率?!稕Q策者指南》提出建立收集、存儲、處理和共享全流程的數據安全措施。另一方面,根據社會需求調整資源配置。[22]《政策指南2.0》提出關注制定者、管理人員、開發人員資源需求,確定資源優先等級和配額分配?!秱惱砜蚣堋诽岢霰苊馍鐣?、經濟、文化因素導致的資源不均,強調將環境變化納入資源供給。

三是圍繞兒童“個性化”發展,加強資源建設?!度斯ぶ悄芤淮吩诳紤]兒童不同需求前提下,強調確保資源配置的合理性和公平性?!墩咧改?.0》強調為兒童提供個性化發展機會,培養其數字素養和科技創造力?!秱惱砜蚣堋窂娬{數據設計要因材施教,針對不同背景的學習者調整優化?!稕Q策者指南》以滿足兒童個性化教育為宗旨,強調建立透明、公正、負責任的教育資源管理機制。

五、結語

縱深推進基礎教育人工智能倫理政策建設是國際社會回應技術變革的必然選擇。當前,相關政策的推出既反映了各國在基礎教育人工智能協同共處中遭遇的數字隱私、信息繭房、道德失范和價值沖擊等倫理風險挑戰,也呈現出執政者努力為學習者謀福利的積極應變。[23]本研究分別從目標闡釋、倫理方案和實施框架三個層面剖析國際組織基礎教育人工智能倫理政策的新動向、新內涵。一是目標闡釋層面。確立應用領域、兒童本位和主體責任的“三維象限”,定位“倫理性”引領人文價值取向,標識“交互性”把握技能培養方位,同時提出可操作的標準與機制,推進政策落地生效。二是倫理方案層面。通過明確“規范框架”構建人工智能倫理原則體系,“主動辨識”倫理風險,采取“管控措施”進行風險管理。三是實施框架層面。構建“三位一體”的制度運行機制,推動多元主體“協同參與”,建立監管體系,實現“規范運轉”,為優化資源配置“提供動力”。在目標導向方面,國際組織相關政策秉持“公平與安全”理念,將保護學生權益、預防技術風險的價值追求轉化為行動落實;在問題識別方面,相關政策推崇從“事后管控”被動應對到“事前評估”主動預防的轉變,以“開放”態度防范技術潛在問題。在資源保障方面,相關政策強調“自治”引領下的創新發展,尊重地區差異,鼓勵伙伴合作,共同推進監管體系建設。

綜合來看,國際組織基礎教育人工智能倫理政策以橫縱交織方式推進。橫向上,謀求多元主體支持協調;縱向上,強調決策者宏觀調控,跨部門協同聯動??梢灶A見的是,構建基礎教育人工智能倫理政策體系是一個循序漸進的過程。一方面,各國政策在時間跨度上將呈現新的發展動向。國際組織在全球層面繪制了基礎教育人工智能倫理發展的遠景藍圖,各國政府、研究機構、企業等主體還須根據本地實際需求開展創新實踐;另一方面,政策監管協同性和資源供給針對性仍須持續優化。有關業界標準、政策法規細則、制度體系建設等還將持續地對政策提出新要求。[24]雖然共建基礎教育人工智能倫理生態環境終將是歷史的必然選擇,但是其發展道路還需要持續探索。

猜你喜歡
決策者層面指南
江陰市三個層面構建一體化治理重大事故隱患機制
熱浪滾滾:新興市場決策者竭力應對通脹升溫 精讀
“最關鍵”的施工力量——決策者、執行者與實施者
指南數讀
健康到底是什么層面的問題
高三化學復習的四個“層面”
論碰撞的混搭指南
策略探討:有效音樂聆聽的三層面教學研究(二)
決策者聲望尋求行為、團隊努力與團隊績效
充耳不聞與從諫如流:建議采擇研究述評
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合