?

生成式人工智能賦能行政裁量研究:構造、風險與策略

2023-04-17 16:24劉光宇
南海法學 2023年6期
關鍵詞:裁量行政人工智能

劉光宇

(山東司法警官職業學院,山東 濟南 250299)

引言

2022 年底以來,美國OpenAI 公司發布的智能機器ChatGPT 在全世界廣受熱議,這款用戶交互式的智能應用程序已成為歷史上用戶增長速度最快的消費級應用,其代表的生成式人工智能被認為將給人類的生產生活方式帶來重要變革。比爾·蓋茨(Bill Gates)認為ChatGPT是“1980年以來最具革命性的科技進步”。探索新型人工智能的應用場景,既是擁抱創新的價值取向體現,更是落實國家戰略的要求。習近平總書記指出:“中國高度重視創新發展,把新一代人工智能作為推動科技跨越發展、產業優化升級、生產力整體躍升的驅動力量,努力實現高質量發展?!敝泄仓醒?、國務院印發的《法治政府建設實施綱要(2021—2025年)》指出,要堅持運用人工智能等技術手段促進依法行政……大力提升法治政府建設數字化水平。從行政法學角度看,人工智能賦能政府行政活動被稱為“自動化行政”,是指行政程序中特定環節或所有環節由人工智能代為處理,而無須人工的個別介入,從而實現部分或全部無人化的行政活動。①“交通違法自動抓拍”“健康碼”等技術的應用已令世人初見自動化行政的端倪,而以“無人干預自動審批”為代表的應用場景的出現更使得人們得以窺見人工智能驅動行政行為的應用潛力。囿于技術發展水平,實現“有裁量能力的完全自動化行政”只能停留在理論層面。以ChatGPT 為代表的生成式人工智能具有更強大的學習能力和更準確的輸出結果,這為其賦能行政裁量這一“行政法上最基本、最難以把握,也是最富有魅力的概念之一”①王貴松:《行政裁量的內在構造》,《法學家》2009年第2期,第31頁。提供了巨大前景誘惑和遐想空間。

然而,ChatGPT 可能給現行法律秩序帶來的風險與隱憂也一直為業界和學術界所熱議。2023年7月13日,國家互聯網信息辦公室等7部門正式公布《生成式人工智能服務管理暫行辦法》②國家互聯網信息辦公室:《生成式人工智能服務管理暫行辦法》,載中央網信辦官網:http://www.cac.gov.cn/2023-07/13/c_1690898327029107.htm,最后訪問時間:2023年7月19日。,對生成式人工智能的應用作出了初步規制。包括埃隆·馬斯克(Elon Musk)在內的1800 多位首席執行官和1500 多位教授聯署發表公開信,呼吁所有實驗室“立即停止訓練比ChatGPT4.0 還要強大的AI系統至少6個月,從而讓實驗室和獨立專家在此期間能夠共同開發和實施一套共享的安全協議”③Futureoflifeinsistute,PauseGiantAIExperiments《AnOpenLetter》,https://futureoflife.org/open-letter/pause-gi-ant-aiexperiments,最后訪問時間:2023年7月9日。;“算法黑箱”“算法歧視”等應用風險對公民基本權利產生的負面影響亦長久以來為行政法學界所擔憂。由此,本文將從規范角度討論生成式人工智能實現全自動行政裁量的可行性,并在此基礎上探析生成式人工智能對現行法律秩序產生的風險與隱憂,并試論可以采取的解決策略,以期從行政法學角度為生成式人工智能賦能行政裁量提供理論回應。

一、生成式人工智能賦能行政裁量可行性的算法和規范解構

根據《生成式人工智能服務管理暫行辦法》的定義,生成式人工智能技術,是指具有文本、圖片、音頻、視頻等內容生成能力的模型及相關技術,ChatGPT 即為這一技術的典型代表。行政裁量則是行政法的核心問題?!靶姓ǖ木柙谟诓昧??!雹軛罱槪骸缎姓幹婆c權利保障》,中國人民大學出版社,2007,第1頁。人工智能賦能政府行政活動被稱為“自動化行政”,指行政程序中特定環節或所有環節由人工智能代為處理,而無須人工的個別介入,從而實現部分或全部無人化的行政活動。⑤馬顏昕:《自動化行政的分級與法律控制變革》,《行政法學研究》2019年第1期,第82頁?;诤M鈱W者將行政活動解構為“觀測、分析和行動”的觀點,國內學者將自動化行政進一步細化為自動化輔助行政、部分自動化行政、無裁量能力的完全自動化行政、有裁量能力的完全自動化行政。⑥馬顏昕:《自動化行政的分級與法律控制變革》,《行政法學研究》2019年第1期,第83頁。在現實應用場景中,深圳上線的應屆生落戶“秒批”系統已初具裁量特征。在該系統中,相對人自行提交申請信息,系統自動核查材料并比對信息,如材料完整、信息正確,即可自動作出行政審批,這種審批是羈束性的,并無裁量空間,因而屬于無裁量能力的完全自動化行政。有學者認為,行政裁量完全自動化在理論上無從證立,應定位于輔助功能。⑦查云飛:《行政裁量自動化的學理基礎與功能定位》,《行政法學研究》2021年第3期,第114頁。ChatGPT 及其代表的人工智能技術為突破這一技術和理論藩籬提供了可能,下文將從技術和規范兩個維度解構其可行性。

(一)技術維度

ChatGPT是以大型語言模型(Large Language Model)為支撐,綜合運用人工智能算法、大數據處理技術、云計算技術和自動化運維技術等形成的自然語言處理機器學習系統,其可以通過對數據的學習來提煉信息、預測趨勢,進而生成不同于學習樣本的新內容。在模型上,ChatGPT 使用人類反饋強化學習(Reward Learningfor Human Feedback)方式進行訓練,通過人類提問機器回答、機器提問人類回答并不斷迭代的方式,讓模型逐漸具有對生成答案的評判能力①OpenAI:“Introducing ChatGPT”,載OpenAI網https://openai.com/blog/chatgpt/,最后訪問時間:2023年7月26日。,具體訓練方法可以大致分為三步:首先,使用監督微調方式(Supervised Fine-tuning)訓練初始模型,即“預訓練語言模型”,由人類AI訓練員扮演用戶和AI雙方進行對話,并將這個新的對話數據集與InstructGPT數據集混合,使得ChatGPT 的預訓練語言模型成為對話格式;其次,使用初始模型產生的數據訓練打分模型(Reward Model),其目標是評估模型的輸出是否符合人類的要求。通過隨機選擇一條初始模型的輸入信息和幾個生成結果,讓人類AI訓練員根據人類的滿意程度對它們從好到壞進行排名,從而實現對打分模型的訓練;最后,在使用打分模型的基礎上,使用近端策略優化這一強化學習算法(Proximal Policy Optimization)來微調模型。在多次迭代后形成ChatGPT 的最終模型。通過迭代式地更新打分模型和策略模型,讓打分模型對模型輸出質量的評估愈加精確,策略模型的輸出不斷與初始模型拉開差距,使輸出文本愈符合人類的需求和認知。②朱光輝、王喜文:《ChatGPT 的運行模式、關鍵技術及未來圖景》,《新疆師范大學學報(哲學社會科學版)》2023年第4期,第117頁。由此,通過“模型+算法”,生成式人工智能在技術上實現了人類偏好的自主強化訓練和語言結果的界面友好輸出,為最終實現可達成法律目的的裁量功能提供了技術鋪墊。

(二)規范維度

一般認為,行政裁量是指行政主體在適用法律作出決定和采取行動時所享有的自由判斷的空間。③王貴松:《行政裁量的內在構造》,《法學家》2009年第2期,第31頁。從法律規范的邏輯構成上來看,行政裁量的法律規范可以描述為:如果存在T1的情形,行政機關可采取措施R1、R2。情形T1 屬于法律要件,措施R1、R2 屬于法律效果。簡單地說,要件裁量是指行政主體在認定有待適用的法律要件時享有判斷的空間;效果裁量是指行政主體認定法律要件之后在選擇行為的效果上享有裁量的自由,兩者同時存在。行政主體適用法律規范的基本順序為認定案件事實、解釋法律要件、將案件事實帶入法律要件,這一過程又被稱為“涵攝”,至此,法律要件的判斷結束。行政主體可以根據前述判斷的結果,作出是否采取措施的決定。如果決定采取措施,則進一步需要確定采取何種措施、何時采取、采用哪種方式和程序,以上判斷構成效果裁量。

一條完整的法律規范可以拆分為若干T1和S1、S2,將其作為對話的兩端輸入預訓練語言模型,生成的結果數據即可用于訓練打分模型。在打分模型訓練中,通過對法律規范中可以采取的措施,如處罰的措施、數額、幅度等進行人類偏好排序,可初步篩選出裁量結果。隨著涵攝的不斷進行,不確定概念、特殊因素等T1 會不斷疊加,打分模型可以不斷訓練排列符合法律規范目的的處理結果,借助強化學習進行語言學習優化,實現對法律規范和裁量空間的自我訓練和裁量基準的自我學習,最終實現對S1、S2的精準篩選、輸出結果。

綜上所述,在以大型語言模型為基底的生成式人工智能技術支持下,行政裁量空間中普遍存在的不確定概念和特殊因素得以被納入訓練。強大算力的支撐將讓每一次涵攝過程成為不斷趨近人類偏好的訓練過程,從而最終實現裁量結果的準確生成,讓實現法律意義上的“有裁量能力的完全自動化行政”成為可能。

二、生成式人工智能賦能行政裁量的風險和隱憂

ChatGPT 的輸出結果本質上是基于對語料的學習而生成的“易于看懂”的數據,表現出的結果正確和情感傾向是人類單方面的設定。換句話說,生成式人工智能本身并不知道輸出結果的意義和價值所在,自然缺乏自主意識和人類情感。使用“無情”的工具進行“溫情”的裁量,后果直接作用于相對人,本身就是一項大膽的嘗試。因此,在探索技術可行性的同時,理應對其保持足夠的慎重和戒備。與現有自動化行政應用場景相比,生成式人工智能賦能行政裁量會給現行行政法秩序帶來特有的沖突與風險,在算法、數據和結果上尤為突出和緊迫。

(一)算法自身應用風險與公民基本權利的沖突

由于算法可能作為商業秘密受保護而不公開,即便公開,算法模型原理也不易被公眾所了解,對其運作機理、技術路徑、裁量依據的理解和觀察需要極高的知識門檻,再加上數據輸入和輸出的環節中存在的數據收集由于公共利益豁免知情同意規則而不透明、數據分析結果與決策之間的轉換不公布等問題,①張凌寒:《算法自動化決策與行政正當程序制度的沖突與調和》,《東方法學》2020年第6期,第9頁。算法面臨無法透明化的難題,即“算法黑箱”。生成式人工智能憑借“黑箱”中的算法做出行政裁量,對公眾實體權利產生影響,這與“公開、透明、公眾參與”的行政公開原則背道而馳,導致公民監督權的缺位,進而可能引發行政權力的濫用,損害相對人合法權利。除此之外,“算法歧視”的存在也會與公民平等權發生沖突。算法歧視往往是無意識的,但產生的后果可能會導致基于種族、性別、年齡等特征的不公正。實踐中,算法歧視主要表現為偏見代理的算法歧視、特征選擇的算法歧視和大數據殺熟三種基本形態。②鄭智航、徐昭曦:《大數據時代算法歧視的法律規制與司法審查——以美國法律實踐為例》,《比較法研究》2019年第4期,第112—113頁。在第一種形態的算法歧視中,輸入端的訓練數據本身并無歧視性,但輸出結果存在歧視性,如在貸款違約預測算法中,在輸入端排除種族因素后,輸出結果依然存在基于種族區別之外因素的貸款違約率。③Gillis,T.B.and Spiess,J.L.,“Bigdata and discrimination”,The University of Chicago Law Review,NO.2(2019):459-488.第二種形態中的原始數據本身并不是中立的,歷史、文化、社會結構等方面的相關信息在數據采集和處理過程中不經意地被植入到訓練數據集之中④陳潭、劉璇:《智能政務ChatGPT化的前景與隱憂》,《電子政務》2023年第4期,第40頁。,即“偏見進,偏見出”?!叭绻覀儗⒑谌吮劝兹烁菀妆淮蹲鳛槌跏紨祿眍A測逮捕率,那么預測結果將是逮捕更頻繁地發生在黑人身上而不是白人身上?!雹軲ayson,S.G.,“2019.Biasin,biasout”,The Yale Law Journal,NO.2(2019):2218-2300.第三種形態則是針對新老用戶采取差異對待,多體現在價格區別對待和特定推送中。將具有歧視性特征的算法應用于行政裁量,將導致裁量結果的歧視性,造成特定人群因種族、膚色、國籍、宗教、性別、殘疾等受到不平等對待,損害公民平等權利。平等對待、不歧視相對人是公民在“法律面前一律平等”的憲法原則在行政法領域的具體體現?!八惴ㄆ缫暋钡拇嬖?,將使得自動化行政裁量違背行政公平這一基本原則。

(二)海量數據需求與公民個人信息安全的沖突

生成式人工智能的訓練和運行需要海量數據,將引發數據安全與公民隱私權保護的隱憂。據公開資料,ChatGPT 使用了約45TB 的互聯網公開數據和數字書籍文檔以訓練其語言模型。①陳潭、劉璇:《智能政務ChatGPT化的前景與隱憂》,《電子政務》2023年第4期,第37頁。其采用的預訓練模型無須人工介入、監督,這使得其得以自動爬取互聯網上的數據資源,可能會獲取來源為非法的數據信息,侵犯他人的隱私。②鄧建鵬、朱懌成:《ChatGPT 模型的法律風險及應對之策》,《新疆師范大學學報(哲學社會科學版)》2023 年第5期,第94頁。龐大的數據規模自然面臨著合法性和安全性的擔憂和審視。以ChatGPT 為代表的生成式人工智能賦能行政裁量,需要海量個案和裁量基準進行涵攝預訓練,在生成式人工智投入使用后的行政許可、行政處罰等具體裁量場景中,每一次裁量都會將行政相對人的個人隱私數據納入生成式人工智語料數據庫,由此產生的公民個人信息安全隱憂將更為嚴重。數據一旦被泄露和濫用,將會對公民個人信息權益、隱私權造成難以估量的損害,甚至損傷政府公信力,引發社會動蕩??傊?,生成式人工智能本身面臨的數據安全風險,在生成式人工智能介入行政裁量后將被無限放大,產生的后果將更加嚴重和難以消除。

(三)裁量結果的即時生成與公民程序性權利的沖突

生成式人工智能賦能的自動化行政具有即時性,將大大壓縮公民程序性權利信息的加工處理時間,活動在系統內部瞬間完成,活動的程序、步驟和方式無法分離,所有信息與內容糅雜進既定的算法之中得出結果。③張凌寒:《算法自動化決策與行政正當程序制度的沖突與調和》,《東方法學》2020年第6期,第9頁。瞬間生成的自動化行政裁量結果直接作用于行政相對人,將會損害行政相對人陳述、申辯以及說明理由等程序性權利,實質上免除了行政機關解釋說明的義務,將相對人置于“孤立無援”的境地,在沒有補充程序或人工干預的情況下,相對人對于裁量結果只能接受或不接受。即時性同時意味著在相同時長內做出的裁量行為將會更多,如發生大規模系統錯誤,波及范圍會更廣,導致信息數據收集、處理的錯誤風險擴大化。由于先前的行政裁量活動往往是后續行政行為的基礎,前一階段自動化行政錯誤的存在將連帶后續過程發生錯誤,對行政相對人的正當權利造成延遲性破壞,極端不利于相對人的信賴利益保護。加之自動化行政裁量的糾錯機制尚不明確,裁量行為做出后救濟渠道不暢、責任尚未厘清,行政活動的程序正義會受到較大損害。

三、生成式人工智能賦能行政裁量風險的防范路徑探索

如前所述,生成式人工智能賦能行政裁量在算法、數據和結果三個維度上會給現有行政法秩序帶來隱患。厘定生成式人工智能賦能下的行政裁量在政府行政活動中的地位和立場,是一切風險防范路徑選擇的思考起點。有學者對完全自動化裁量持批判態度,認為自動化裁量只能定位于為行政機關提供決策或行動方面的輔助,而非代替人類自行決斷。④查云飛:《行政裁量自動化的學理基礎與功能定位》,《行政法學研究》2021年第3期,第114頁。亦有學者在接受算法獨立裁量可行性的基礎上認為由于算法“仍無法將同理心、道德感、意志等人類獨有的特征進行編碼轉換至算法決策中,因此,占據主體地位的只能是具有上述人類獨有特征的行政機關(行政主體)”⑤陳飏、裴亞楠:《論自動化行政中算法決策應用風險及其防范路徑》,《西南民族大學學報》(人文社會科學版)2021年第1期,第79頁。。由此可見,鮮明地確立“人”,即行政機關和行政相對人的主體地位,是包括生成式人工智能在內的自動化技術得以進入行政法空間的通道,這也意味著被以行政法角度觀察的技術只能具有工具屬性,居于從屬地位。明確這一立場,才能確立人對生成式人工智能賦能下的行政裁量后果具有接管、變更、補救的權限,從而對具體風險進行拆解與補漏。

(一)算法維度上的風險防范路徑

提高算法透明度和公開度是消解“算法黑箱”影響、保障公民知情權的最直接途徑?!肮_”包含兩個層面的含義:一是確保相對人知曉對其作出行政裁量的是生成式人工智能,同時保障其應用選擇權,二是提升算法透明度。前者要求行政機關在使用生成式人工智能進行行政裁量時要明確告知相對人,并且保留相對人拒絕使用的權利和進行人工裁量的通道。只有相對人在明確同意使用生成式人工智能進行裁量的情況下,方可進行全自動行政裁量?!跋鄬θ嗣髦彝狻睉斪鳛槿詣踊姓昧康那疤嵋?,這既是行政程序“參與”原則基本要求,更是以人為中心的“人工智能—行政裁量”關系基本立場的題中應有之義。出于對裁量系統安全、商業秘密保護與民眾可接受度的考量,若要提升算法的透明度不應當簡單地披露運行代碼與運算過程,而是提升其可解釋性。對于提高可解釋性,學界普遍認為許可機關應在允許范圍內,以適當方式公示自動化許可算法的基本原理、目的意圖和主要運行機制,解釋自動化算法的目的、邏輯、公式、考量因素及比重、被代碼化的法律和數據等。①唐曼:《自動化行政許可審查的法律控制》,《現代法學》2022年第6期,第100頁。行政主體應當最大限度地就算法本身向公眾作出說明,最大限度幫助公眾了解算法運作原理,確保公眾便捷獲取相關技術解釋。有學者另辟蹊徑,跳出算法解釋本身,從提升民眾認可度的角度考量破解“算法黑箱”的路徑。②王賓:《自動化行政中算法的法律控制》,《財經法學》2023第1期,第72頁。醫藥衛生領域知識的高度專業性令民眾難以得知疾病治療的原理和操作規程,具有“黑箱”性質,但仍普遍獲得民眾信任。受此啟發,在算法上,還可以通過開發普遍認可的專業考核和認證機制等衡量技術水準的證明形式,使得公眾即便無法獲知技術信息,也能對其建立信任,也能夠嚴格保護行政相對人利益,建立完備的救濟及損害歸責機制以及負擔風險的方式,在解釋算法本身之外,提高民眾信任度,雙管齊下,最大限度消弭“算法黑箱”的負面效應。

對于算法運行存在的歧視可能,要做好系統預審與事后救濟。在具體的行政許可、處罰等裁量應用場景中,要明確系統上線前應做好預先調試與審查。審查內容既包括輸入端數據的非歧視性,又包含輸出結果的歧視可能性。對審查發現的歧視性輸入端數據要及時清理,對歧視性輸出結果要及時進行干預訓練,盡可能在系統投入使用前排除歧視可能。對系統在具體應用場景中作出的歧視性裁量,要建立專門規定保障相對人權利的事后救濟渠道,如提供陳述申辯的行政、司法制度安排等。

(二)數據維度上的風險防范路徑

生成式人工智能預訓練需要大量數據,行政裁量同樣需要獲取大量公民個人數據,這將使得數據安全成為其賦能行政裁量的核心風險點。為最大限度避免與公民隱私權的沖突,在微觀上,數據的收集和使用要嚴格遵從比例原則;在具體應用場景中,生成式人工智能使用的應當是用于涵攝的關鍵語句片段,如行為、裁量基準、相關因素等,而非姓名、住址、身份證號碼等隱私性身份信息。因此,在輸入端要做好信息的篩選與過濾,確保生成式人工智能運算和存儲的數據不構成識別性個人信息。在宏觀上,行政法律規范要對生成式人工智能賦能下的行政裁量數據安全保護作出特別回應,明確政府監管、企業落實、個人守法的三方數據安全責任,完善數據泄露的責任追究及問責機制,如明確生成式人工智能行政裁量系統數據庫信息泄露的黨紀政紀責任,技術承包商及個人的民事、刑事責任等。暢通隱私權救濟的行政、司法救濟途徑,確保數據存儲安全有保障、泄露風險可控制、損害后果可救濟。

(三)結果維度上的風險防范路徑

一般來看,生成式人工智能作出的裁量結果生成即生效,但將大大限制相對人的陳述、申辯及救濟權利。保障相對人的程序性權利,就要增大裁量結果生成與生效之間的回旋余地。因此,將通知與申辯環節作為結果生效的必經環節甚為必要。裁量結果作出后,應及時通知行政相對人,并告知其救濟途徑,必要時應設置專門的聽證程序,以保證行政相對人能夠充分表達自己的合理訴求。為保證權威性和有效性,申辯與救濟程序應由人工完成,并且保有變更裁量結果的最高權限,司法的終局性介入空間也應當明確。值得注意的是,全自動行政裁量不會主動履行解釋說明義務,而是由相對人在尋求申辯或救濟時依申請作出,即當行政相對人對由機器作出的處罰決定不信任時,行政機關要向行政相對人進行解釋說明,并保證個案公正。①馬顏昕:《自動化行政方式下的行政處罰:挑戰與回應》,《政治與法律》2020年第4期,第144頁。這既是全自動行政裁量追求行政效率的價值目的所在,也是相對人在前置性選擇自動化行政裁量時應當被明確告知和自愿接受的結果。為避免裁量即時性可能引發的錯誤導致更嚴重的后果,要有針對性地建立大數據監測預警機制,對同一時段超過安全閾值的投訴申辯作出及時反映,以便行政機關及時作出調整。同時行政機關扛起能動性責任,不得過度依賴自動化裁量,造成行政懈怠。

除程序性權利保障外,全自動行政裁量結果的責任承擔機制尚不健全。為保障行政相對人的合法權益,應當明確行政機關的第一責任人責任。對于行政裁量相對人來說,其不應關心到底哪些主體介入了裁量過程,只需要明確裁量結果歸因于行政機關,裁量產生的一切法律后果只作用于行政機關和行政相對人。至于處罰(裁量)錯誤到底歸因于行政機關還是外部技術主體、行政機關如果承擔了責任是否可以向技術主體追責的問題,其實并不屬于行政處罰(裁量)關系中需要解決的問題。這一問題涉及的是技術主體與行政主體之間的技術法律服務,技術主體與行政主體之間有一種行政協議關系。②馬顏昕:《自動化行政方式下的行政處罰:挑戰與回應》,《政治與法律》2020年第4期,第147頁。此種責任分擔機制可以歸納為“政府對外承擔責任、對內分配責任”。

結語

國務院《新一代人工智能發展規劃》指出,要圍繞行政管理等熱點難點問題,促進人工智能技術應用的發展,推動社會治理現代化。人工智能賦能政務服務等社會治理場景將有利于提高行政效能、助力依法行政、推動效率與公平的兼顧統一。與人工智能在行政活動中只能發揮輔助性作用的主流觀點不同,本文認為,以ChatGPT 為代表的生成式人工智能將在行政許可、行政處罰等核心裁量場景中發揮基石性作用,其大型預訓練語言模型與法律規范、裁量基準以及裁量個案發生的語句結合將為真正實現有裁量能力的全自動行政提供技術可能。然而,與其他人工智能技術類似,生成式人工智能對具體行政行為場景的介入將在算法、數據、結果上對現有法律秩序造成沖擊,對公民基本權利造成損害。應當在堅定重申人工智能的工具屬性立場、明確行政機關與相對人的主體地位的基礎之上,提升算法的透明度,嚴格進行系統預審,從而避免裁量的歧視性后果;嚴格限制公民數據采集與使用范圍,聚集政府、企業、公民三方合力保證數據安全;明確裁量結果的救濟途徑和責任分擔,保障公民的程序性權利,避免行政主體陷入技術發展導致的技術依賴和行政惰怠,最終實現技術與效率、公平與正義的良性互動。

猜你喜歡
裁量行政人工智能
行政學人
論行政自由裁量的“解釋性控權”
Mesenchymal stromal cells as potential immunomodulatory players in severe acute respiratory distress syndrome induced by SARS-CoV-2 infection
行政調解的實踐與探索
2019:人工智能
人工智能與就業
應如何確定行政處罰裁量基準
數讀人工智能
下一幕,人工智能!
行政為先 GMC SAVANA
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合