?

算法行政:文獻述評與研究展望

2024-03-05 11:32鄭躍平曹夢冰
公共行政評論 2024年1期
關鍵詞:公共部門決策行政

劉 特 鄭躍平 曹夢冰

一、引言

過去二十年間,各級政府部門廣泛利用數字技術來改善組織運行,提高服務供給質量及治理效能,數字治理能力不斷提升。近兩年來,基于人工智能的算法決策系統逐漸應用于公共治理領域。例如,警務、刑事司法等使用算法進行風險評估,降低犯罪率(Carlson,2017;Hamilton,2019;Nishi,2019;Vogl et al.,2020;Grimmelikhuijsen &Meijer,2022)。人工智能算法對公共部門決策的影響及其機理開始受到學者們的關注(Nagtegaal,2021;Keppeler,2023)。一些學者認為,算法技術的應用有助于改善韋伯式的機械官僚主義,提高行政效率,降低決策成本,改善決策質量,同時維護公共部門的核心價值,如公平、公正等(Cordella &Tempini,2015;Janssen &Kuk,2016;Vogl et al.,2020)。

與此同時,公共部門的算法應用面臨一系列挑戰。一方面,應用過程與效果受到政府內外部多方面因素的影響和制約。例如,算法不透明性與技術不確定性、行政人員算法知識與能力、制度環境、公共精神等因素影響著算法在公共部門中的使用(Danaher et al.,2017;Andrews,2019;Vogl et al.,2020;Wanckel,2022;Fest et al.,2023)。同時,公眾對政府的信任度以及對算法透明度的感知等,影響其對應用算法的智能政務服務的使用及評價(Wenzelburger et al.,2022;Gaozhao et al.,2023;Horvath et al.,2023;Wang et al.,2023)。另一方面,算法應用的逐步深入帶來了多種潛在風險,對現有制度體系、組織流程、組織理念等形成一定沖擊。一些研究發現,算法系統的不透明性、缺乏可解釋性和可理解性,以及公共部門對算法技術不斷增強的依賴性,會對公共部門的專業知識、決策能力、自主性等形成挑戰,進而引發問責制、合法性、信任以及倫理等方面的問題(Coglianese &Lehr,2017;Berman,2018;Andrews,2019;Busuioc,2021)。此外,算法系統的應用可能會對依法行政、公開公平、程序正當、基本權利保護等公共行政的基本原則產生負面影響(Yeung,2018;Faúndez-Ugalde et al.,2020;Suksi,2021;Yalcin et al.,2023)。

為更好地理解算法對公共部門的行政理念、組織運行、行政行為等帶來的系統性變化與影響,以及算法與組織間的互動關系,了解現有算法行政的研究全貌進而推動該領域的研究進程,本文旨在系統梳理算法行政既有研究成果的基礎上,嘗試回答以下幾個問題:算法行政的研究現狀如何?算法行政的緣起與內涵是什么?算法行政的組織形態、效果評價、影響因素、風險類型與規制等是怎樣的?文章內容安排如下:首先,從文獻來源與計量分析層面,對算法行政現有研究進展概況進行梳理;接著,對這些研究的主要議題和內容進行系統性討論;最后,進行總結并提出未來研究建議。

二、算法行政的研究進展概況

(一)文獻來源

本文通過Web of Science(WOS)數據庫進行算法行政相關文獻的檢索和篩選。步驟如下:第一步,選取WOS核心合集中的SSCI期刊;第二步,選取“administration by algorithm”“algorithm &public administration”“algorithm &government/ public sector”“algorithm &governance/management”和“algocracy”(“&”表示檢索邏輯為“and”,“/”表示檢索邏輯為“or”)等作為檢索主題詞;第三步,將文獻發表年份限定在2013年至2023年,研究領域設定為“public administration”(公共管理)、“political science”(政治科學)和“law”(法學)。第四步,補充檢索電子政務領域的權威期刊GovernmentInformationQuarterly上的相關文獻。共檢索出193篇文獻(檢索日期為2023年12月12日)。

對初步檢索的結果進行合并去重后,逐一閱讀文獻標題、摘要和正文,做進一步人工核對,從以下三個方面進行篩選:(1)在研究對象上,剔除關注私人部門算法應用或未明確指明算法應用于公共部門的文獻;(2)在研究內容上,剔除僅關注算法的技術或法律后果而非公共部門行政效果及影響的文獻;(3)在文章類型上,剔除書評、綜述類文獻等。最終得到58篇英文文獻作為本文的分析對象。

(二)文獻計量分析

從文獻數量來看,當前算法行政相關研究尚處于起步階段,總量不多,但呈現快速上升趨勢(如圖1虛線所示)。超過六成的相關文獻(37篇)于近三年發表,平均每年12.3篇。隨著算法及相關技術在公共部門被進一步應用,算法行政逐漸成為公共管理領域的重要議題。

圖1 2013—2023年的發文數量

從發文期刊來看,如表1所示,算法行政相關論文主要發表在GovernmentInformationQuarterly,ArtificialIntelligenceandLaw,PublicAdministrationReview和PublicManagementReview等電子政務、公共管理和人工智能法學領域的核心期刊上,反映了國際期刊對算法行政這一議題的廣泛關注。

表1 主要發文期刊及發文數量

關鍵詞是文獻內容的重要體現,本研究對58篇英文文獻的關鍵詞進行了統計,共得到33個高頻關鍵詞(頻次≥2)。如表2所示,高頻關鍵詞可大致分為四類。第一類是與算法相關的技術性術語,如“artificial intelligence/AI”“algorithm(s)”“big data”“machine learning”等;第二類強調算法應用和影響的行政場域,如“governance”“decision-making”“accountability”“policy”“service(s)”“bureaucrat/bureaucracy”“discretion”等;第三類涉及算法特征及其功能,包括“automated/automation/automatic”“smart/intelligent”“predictive/prediction”和“computational”等;第四類則反映公眾對算法應用的感知與評價,例如“justice”“transparency”“trust”“discrimination/discriminatory”和“fairness”等。

表2 高頻關鍵詞

此外,本研究對58篇英文文獻的研究方法進行了梳理。除19篇文獻側重于理論分析與規范性探討(占比33%)外,有39篇文獻是有明確研究方法的實證研究,其中定性研究居多(24篇,占比41%),定量研究數量略少(15篇,占比26%)。結合發表年份來看,2013—2019年的算法行政相關研究多以理論性探討為主,近4年發表的34篇論文多為實證研究。具體而言,定性研究以單案例和比較案例研究為主,借助訪談法、觀察法等收集資料,通過文本編碼和分析來探討算法嵌入公共行政的現狀、影響及挑戰,研究場景涉及稅務審計、刑事司法、移民管理、就業與社會福利等;定量研究除二手數據分析外,廣泛使用了調查實驗(survey experiment)、現場實驗(field experiment)等前沿方法,探究公眾對公共部門算法應用的看法、評價以及偏好,尤其關注公眾對人類官僚和算法官僚在信任度、公平性、接受度等維度上的感知差異。

三、算法行政的緣起與內涵

(一)緣起

關于算法行政興起的探討多從技術-社會視角展開,強調政府收集和管理數據的悠久歷史,尤其是隨著機器學習相關技術的快速發展,大數據與開放數據的興起,推動了算法支持下新型官僚組織的出現(Janssen &Kuk,2016;Vogl et al.,2020;Levy et al.,2021)。從農業社會、工業社會到信息社會,技術的更新迭代推動著政府組織變革,也促進了政府治理理念、模式、機制等的創新。在此背景下,行政制度的內涵及特征也隨著社會發展不斷演變。

傳統官僚主義將程序公平和效率的理念嵌入到依照規程辦事的政府運作機制中(Vogl et al.,2020)。然而,20世紀中期以來,學者們開始質疑傳統官僚機構應對日益復雜的現代化發展的能力,認為其繁瑣和不靈活。作為回應,20世紀80年代的新公共管理(NPM)強調引入市場機制以克服現代化發展過程中公共管理面對的一系列挑戰。與此同時,信息技術不斷發展,公共部門基礎設施逐步電子化和信息化(Margetts,1999)。20世紀90年代,計算機在公共部門日益普及,加速了信息交流與互動(Meijer et al.,2021)。公共部門依托計算機實時傳輸和處理信息,以可預測的方式處理復雜性問題,化解傳統信息處理的局限性(Vogl et al.,2019)。伴隨著這些變化,學者們強調以重新整合、基于需求的整體主義、數字化變革為特征的數字時代的新公共行政范式正在出現(Dunleavy et al.,2006;Margetts &Dunleavy,2013;Vogl et al.,2019)。

近年來,因算法在預測性、精準性等方面的優勢,公共部門逐步引入人工智能、機器學習等來構建算法系統,輔助決策制定和公共治理,這進一步推動了公共部門的組織變革(Bullock,2019;Coglianese &Lehr,2019;Vogl et al.,2020;Alon-Barkat &Busuioc,2023)。算法系統根植于政府數據收集、分析,并隨著技術進步,在政策制定、公共服務提供等方面發揮著重要作用(Levy et al.,2021)。一些研究開始關注強調數據采集和計算的算法如何讓數據在公共部門中產生新的價值(Allard et al.,2018;Mergel et al.,2016)。相較于傳統數字技術,算法深度嵌入政府工作流程,實現了大規模數據的采集和整合,也在一定程度上減少了官僚主義作風,改善了政府決策(Janssen &Kuk,2016)。因此,從組織與技術變革視角來看,算法創造了新的組織環境,公共部門的管理者使用算法來提升自主性和行政能力,以應對制度和政策的復雜性(Meijer et al.,2021)。換言之,算法不僅改進著政府決策分析能力,提升辦公自動化水平,也在通過信息、機構與制度等來影響科層組織結構,進而改變公共行政的范式(Vogl et al.,2020)。

事實上,公共部門使用算法來重新安排其行為和決策程序,推動了組織的算法化進程(Meijer et al.,2021)。在此過程中,基于算法系統作出的決策和安排代表著一種技術理性,關注效率和有效性,且這種技術理性可以幫助克服倫理和合法性問題(Grimmelikhuijsen &Meijer,2022;Bracci,2023)。同時,算法的引入也在推動著一種獨立于傳統科層體系并強調共治、自治的治理模式的出現(Gritsenko &Wood,2022),即算法行政模式。作為一種新的官僚行政模式,將算法與管理制度、文化環境相結合,發展人、算法和機器可讀的電子文件,從而發揮技術理性來處理復雜性問題,克服傳統官僚主義的局限性,提升公共部門的履職能力和公共服務質量,維護公共部門的核心價值(Vogl et al.,2019,2020;Bracci,2023)。算法行政也逐漸進入公共管理的研究視野,成為重要的研究議題。

(二)概念界定

算法的興起,推動了新型技術官僚的出現,傳統的行政流程部分地被基于算法的流程所取代(Janssen &Kuk,2016)。針對這一現象,Rouvroy(2013)提出算法治理(algorithmic governmentality)的概念,其本質強調的是算法行政,關注算法對政府行為、運行模式等方面帶來的變革。從治理邏輯視角來看,算法行政代表了政府使用算法實現從“治理他人”到“治理自我”的轉變;同時,公眾生產數據并接受政府對數據的管理,也被動地參與到算法當中(Janssen &Kuk,2016)。該視角關注算法的應用對于政府治理、公眾參與等方面產生的影響。相關實證研究多聚焦算法在監管領域的應用,強調利用算法構建新的監管體系,改善政府監管能力,提升政府規制水平(Yeung,2018;Andrews,2019;Meijer et al.,2021;Guo &Kennedy,2023)。

從技術邏輯視角來看,技術的快速發展讓算法逐步參與到公共決策過程中(Wang et al.,2023),推動著公共關系的轉變。算法改善了決策效率與準確度,算法行政是在此基礎上發展的新型官僚行政模式。政府將行政人員與算法技術相結合,克服傳統官僚主義作風,改善公共部門稅收、監管和福利管理等,提升了決策能力和質量(Janssen &Kuk,2016;Coglianese &Lehr,2019;Vogl et al.,2020)。Williamson(2014)基于人機關系視角發現,算法在政府組織中的部署與應用推動形成了基于人機交互和機器學習技術的治理模式,改變著政府與公眾之間的關系,公眾也作為個性化服務的共同生產者與算法進行交互。Hermstrüwer和 Langenbach(2023)進一步結合機器學習算法的嵌入程度,探討不同類型的人機交互如何影響用戶的公平感知和程序偏好。

從政治邏輯視角來看,隨著算法相關工具的日益成熟,政府對算法在輔助決策制定、風險評估等方面的依賴程度也不斷增加,正悄然推動公共部門出現一種新型官僚主義。這種官僚主義越來越多地通過算法來實現權力運作(Pasquale,2015),引起了學者們從政治層面對算法在公共部門中的應用及其影響的思考。Danaher(2016)提出算法統治(algocracy)的概念,用以描述在計算機編程算法基礎上組織和構建的特殊治理體系。算法統治以算法和算力為依托,存在算法系統不透明、未經授權收集分析數據等風險(Danaher,2016;Bracci,2023),會對民主產生消極影響(Alnemr,2023)?;趯λ惴ê侠硇院驼涡缘姆治?,Hermstrüwer和Langenbach(2023)將數據分析師和決策者之間的互動描述為“算法政治”(politics of algorithms)。在此互動過程中,數據分析師借助大數據向決策者提供信息的同時追求個人利益來影響決策(Hermstrüwer &Langenbach,2023)。

多元視角下的算法行政具有不同的理解側重點和面向。治理邏輯視角下的算法行政概念著重突出治理理念、主體和體制的轉變,技術邏輯視角則關注算法技術工具創新所帶來的公共關系轉變,政治邏輯視角更側重算法技術帶來的公共行政權力形態的重構。整體來看,從不同視角展開的算法行政探討都關注了技術嵌入對組織結構的影響,為此有必要對傳統行政與算法行政進行比較分析。Vogl等(2020)從組織、服務提供、知識、工具、價值等五個維度對傳統官僚制與算法官僚制進行比較,認為算法在公共部門的應用并非全盤取代了傳統組織機制,而是改變了行政人員和治理工具之間的社會技術關系以及工作方式(如表3所示)。正如技術執行理論強調,技術在政府部門的應用會推動組織結構、服務流程等的變革(Fountain,2004)。算法在公共部門的應用,推動了等級森嚴的組織架構轉向部門協作化,服務呈現從強調程序性規則轉向關注用戶需求,部門信息封閉化轉向開放共享,數據信息紙質存儲轉向數字化存儲,價值導向也由關注程序平等轉向結果平等,進而體系化地改變了傳統的組織運行方式(Vogl et al.,2020)。算法官僚制認為,復雜的社會問題可以被解構為定義清晰、結構合理、范圍明確的問題,并借助算法予以解決(Janssen &Kuk,2016)??傮w而言,技術的應用旨在賦能政府改善治理能力。在數字時代,算法官僚制可被視為傳統官僚制發展到一定階段的新的組織形態。

表3 傳統官僚制與算法官僚制

與算法行政關聯緊密的另外一個概念是算法治理,兩者相關但差異明顯。一些研究認為,算法行政聚焦政府主體,關注算法應用對行政模式、官僚行為、服務提供、公眾感知等帶來的影響以及由其產生的風險(Williamson,2014;Janssen &Kuk,2016);算法治理則是在政府運行、企業管理、社會發展等多個領域被廣泛使用的概念,關注對人工智能技術本身的治理,以確保算法公正透明,避免算法歧視,維護社會公平(Danaher et al.,2017;Andrews,2019)。從該角度看,算法治理概念邊界更加廣泛化,使用主體更加多元化,算法行政則進一步將主體聚焦于公共部門,關注算法在公共部門應用后帶來的一系列變革。也有一些研究并未對兩者進行嚴格區分,強調隨著算法技術日益嵌入傳統治理體系,社會中的知識結構、權力機制和主體狀態發生改變,催生出由政府主導的算法治理新模式(Rouvroy,2013;Janssen &Kuk,2016)。在這一視角下,算法行政被視為基于算法的治理方式,算法扮演著重要的工具性角色。算法的引入給傳統治理模式的核心特征帶來潛在和變革性的改變(Gritsenko &Wood,2022),進而推動算法治理模式的出現。

基于上述討論,本文認為“算法行政”是在算法與公共行政融合背景下,傳統官僚制發展到一定階段的一種新型行政管理模式。算法行政模式著眼于技術-社會層面人工智能對公共行政的影響,強調算法技術在政府政策制定、服務提供、組織管理等方面的應用以及由其導致的行政模式變革,目的在于提升行政效率,優化資源配置,改善服務能力,促進公共價值創造。

四、算法行政的組織形態效果評價及影響因素

(一)組織形態

隨著公共部門逐步使用算法來改善組織運行能力、服務水平與決策質量等,一些傳統的行政流程逐漸被嵌入算法的新流程所取代。受到算法特性、算法-人的互動方式以及算法應用場景差異化的影響,算法行政的組織形態也呈現出多樣化。

基于算法本身的特性,Janssen和Kuk(2016)結合算法的自動化與復雜性程度,將用于決策制定和治理的算法化組織形態劃分為四種類型:低自動化-低復雜性算法系統(如海關檢查)、高自動化-低復雜性算法系統(如社會福利)、低自動化-高復雜性算法系統(如移民入境)、高自動化-高復雜性算法系統(如結合數據庫與個體特征精準鎖定危害公共安全人員)。Danaher等(2017)則基于算法系統的社會和規范屬性提出“自上而下”(系統運作受限于技術人員定義算法規制的詳細程度)和“自下而上”(系統引入機器學習算法,并基于大量數據訓練實現預測和決策)兩種類別。Meijer等(2021)、Li等(2023)根據算法系統的作用,通過案例研究將官僚組織算法化的形態劃分為“算法籠子”和“算法同事”,前者強調算法促進了組織工作流程標準化和決策集中化,增強了組織內部控制;而后者認為算法強化了現有專業判斷,特別是擴大了信息專家的自由裁量權;兩種模式的形成并非由算法系統的技術特征所決定,而是取決于社會規范和組織對算法系統功能的解釋。

Danaher等(2017)關注算法行政中人的參與,認為其是一個治理的循環系統,包括從信息獲取到處理、使用、反饋和學習的反復循環過程。根據算法和管理者的互動方式不同,Nagtegaal(2021)強調算法行政過程中包含系統級、屏幕級和街道級等三種類型的官僚主義。其中,系統級指的是當算法完全自動化時,算法可以取代管理者的角色;屏幕級指的是當技術為決策者提供信息時,仍然需要決策者進行判斷;街頭級則強調,決策制定更多依賴傳統工作流程,而非技術工具(Nagtegaal,2021)。從屏幕級轉變為系統級官僚主義時,與公眾互動的不再是行政人員,而是由算法和機器學習驅動的應用程序(Considine et al.,2022)。此外,Hermstrüwer和Langenbach(2023)基于人機交互的視角,通過實驗研究的方法,將算法行政劃分為完全人類自由裁量權、高度人類參與-基于算法預測、低度人類參與-基于算法預測、完全基于算法決策等四種形式。

隨著預測性算法被逐步應用于政府監管以及風險評估當中,Yeung(2018)則將算法系統劃分為兩種類型:響應式算法系統和先發制人算法系統。前者基于歷史數據的算法分析觸發自動響應,而后者則基于對歷史數據的算法評估來預測未來行為并采取行動。O’Donnell(2019)關注了算法在警務領域的應用,通過預測性算法識別未來容易發生犯罪活動的區域和存在高風險的個人。一些刑事司法領域的研究則指出,隨著預測性技術的發展與應用,部分地方政府已通過立法鼓勵或要求法官將累犯風險評估算法納入保釋、假釋和量刑決定中(Carlson,2017;Hamilton,2019;Nishi,2019)。

算法在公共決策中的應用也吸引了學者們的關注。van der Voort等(2019)認為,依靠算法技術處理數據并進行決策主要遵循信息和決策兩種邏輯,信息邏輯強調信息源的多樣性是信息質量的重要基礎,決策邏輯則更加重視信息處理結果是否有效且合法。Coglianese和Lehr(2019)則關注機器學習算法對決策結果的影響程度,基于算法輸出與政府最終采取行動對應的程度,強調存在兩類情形,一類是由算法直接作出決策,另一類則僅將算法輸出結果作為政府決策參考,而后者是當前的主要形式。

綜上所述,現有研究從算法特性、算法-人的互動方式以及算法應用場景等對算法在公共部門中的應用形態進行分類與探討。事實上,算法在應用于公共部門的過程中,會重新排列并嵌入組織流程,進而促進組織重組(Meijer et al.,2021),形成多元的算法應用形態。這些研究為我們理解不同情境下算法行政的實際組織模式和特點提供了重要參考。

(二)效果評價

Levy等(2021)強調,算法工具逐漸成為官僚機構基礎設施的重要組成部分,需要對其進行評估和維護以確保算法系統的正常運作。同時,公眾對算法工具的認知與態度,是決定算法系統能否在實踐中得到廣泛采用的關鍵因素(Simmler et al.,2023)。為此,有必要從政府和公眾兩個維度進行算法系統應用的效果評價,以準確理解其對政府運行的系統性影響。

從政府側來看,Hartmann和Wenzelburger(2021)通過案例研究分析了地方司法部門使用預測性算法系統的主要動力,發現一方面算法預測性風險評分可以將決策的不確定性轉變為統計學上的風險,另一方面使用算法分析為決策者提供了避責的可能性。換而言之,公共部門可以將責任轉嫁到技術軟件上,在一定程度上為風險規避提供了新的策略。Wang等(2022)對社區工作人員開展調查實驗后發現,盡管人工智能算法對基層工作人員的自由裁量權構成潛在威脅,但他們仍對人工智能算法持開放和歡迎態度。從算法在公共部門的運用效果來看,Meijer等(2021)結合算法系統的組織模式指出,“算法籠子”模式強化了現有的官僚控制;而“算法同事”模式則通過算法系統強化了信息專家的專業判斷,進而增強其自由裁量權。

從公眾側來看,一項關于美國公眾對算法系統態度的調查顯示,公眾對高風險的自動化決策是否有效、公平或可接受,以及在對自動化系統的監管職責劃分上存在分歧(Levy et al.,2021)?;谟脩艚邮芏鹊囊暯呛吐摵蠈嶒灥姆椒?,一些研究比較了人類決策和人工智能決策在公眾偏好和感知方面的差異,發現公眾傾向于選擇傳統人類決策而非通過人工智能作出政府決策(Gaozhao et al.,2023;Horvath et al.,2023)。從感知公平視角出發,Hermstrüwer和Langenbach(2023)開展實驗研究并基于不同類型的人機交互模型,探討了公眾對算法程序公平的評價,發現當人類高度參與算法輔助公共部門決策過程時,程序被認為是最公平的。Yalcin等(2023)則基于公眾信任視角,通過實驗研究表明,個人對算法法官和人類法官的信任程度取決于案件的性質。也有研究關注算法行政背后的公共價值,通過調查實驗比較了規則驅動算法和數據驅動算法決策對公眾公平感和接受度的影響,發現公眾認為規則驅動的算法決策普遍比數據驅動的算法決策更公平、更可接受(Wang et al.,2023)。

此外,一些研究基于民主理論,從決策者和公眾的角度出發,按照積極和消極兩種情境探討人工智能算法在政治決策過程的應用效果。K?nig和Wenzelburger(2020)強調,在政治系統輸入維度,算法為公眾提供了工具來獲取政治信息,但公眾意志的形成也受到了算法個性化信息的干擾,進而影響其真實判斷;在處理能力維度,算法可以為政治行動者和公眾提供有關決策過程的相關信息,但對算法依賴的增加可能會形成一種更偏技術官僚的治理模式;在輸出維度,算法的應用會讓公共服務反應更加敏捷高效,與此同時也會加劇公共行政問責。一些社會組織則通過參與地方政府工作,為其提供咨詢服務并發揮監督作用,或者從外部向地方政府施加壓力,來影響公共部門算法應用的實施(Levy et al.,2021)。

整體而言,政府行政人員對于算法在公共部門中的應用持開放包容態度,但也意識到不同算法運作模式可能會對自由裁量權產生一定沖擊。公眾對于算法系統的接受度、信任度也存在爭議,對傳統決策模式的依賴度依然較高。因此,有必要進一步分析公共部門中算法應用以及政府、公眾對其效果評價的影響因素及其機理。

(三)影響因素

算法作為社會技術系統的一部分,嵌入在特定的社會背景中并具有帶來社會影響的巨大潛力(Solow-Niederman,2020;Wenzelburger et al.,2022)。在公共部門的應用過程中,算法的不透明性與技術不確定性、政治家和公共部門工作人員的能力與認知、技術專家的能力及態度、制度的復雜性等諸多因素都會對算法應用以及算法行政產生影響(Danaher et al.,2017)。從公共價值理論視角出發,Andrews(2019)分析了公共目標(是否明確)、授權環境(如政治支持、專家認可)、治理能力(如交付、監管、協調和分析)等如何影響算法決策制定以及公共價值創造。

從政府側來看,數字素養、制度環境、價值理念等影響著公共部門算法行政的態度及評價。Vogl等(2020)結合案例研究、調查問卷和訪談,分析公共部門從街頭級官僚到系統級官僚的轉變,發現預測分析工具依賴工作人員的背景知識來實現集體智慧,并在數據收集、處理和呈現等方面產生積極的反饋循環。Wanckel(2022)關注大數據算法系統能力建設的初始階段,從新制度理論視角出發,通過案例分析發現,政府政策制定中大數據算法系統的應用取決于相應的制度環境,系統、組織和個人能力建設會受到組織機構框架影響。此外,公共部門引入算法推動了數據專業人員這一新型官僚的出現,他們在決策過程中行使自由裁量權,對于公共價值的感知尚未成為約束其行為的重要因素(Fest et al.,2023)。換言之,數據專業人員公共精神的匱乏可能會影響算法系統公共價值目標的實現。

就公眾側而言,信任是影響公眾接受和評價公共部門算法應用的重要因素。Wenzelburger等(2022)開展的一項調查研究表明,公眾對算法的接受度很大程度上取決于對其于部署算法組織的信任、算法應用的領域、算法要解決的問題與自身相關度等。一些聯合實驗也證實,公眾傾向于選擇官僚作出的決策而非算法決策,主要受到不同行政部門的信任差異以及政策領域差異性等因素的影響(Gaozhao et al.,2023;Horvath et al.,2023)。與此同時,算法透明度也是影響公眾接受與使用的重要維度,其不僅影響公眾對算法技術本身的信任,也會部分影響公眾對決策者的信任(Grimmelikhuijsen,2023)。此外,Wang等(2023)發現,公眾對算法決策系統的公平性感知和接受度很大程度上取決于他們對決策環境的熟悉程度。

綜上所述,算法在公共部門中的應用受到技術、制度、能力等多重復雜因素的影響。同時,對于政府而言,算法素養、制度環境、價值理念等會影響其使用和評價;對于公眾而言,對信任、算法透明度、決策環境等方面的考量則會影響他們對算法系統的態度。從實踐來看,政府決策中使用先進的算法技術并不一定能改善公眾評價,相反,協調穩定的人工智能系統似乎是更安全的選擇(Gaozhao et al.,2023)。

五、算法行政的風險識別與規制

(一)風險識別

算法在公共行政領域應用的不斷深入帶來了一系列潛在的風險,有必要對其類型和成因進行分析,以探尋有效的應對方式與路徑?,F有算法行政風險的相關研究主要圍繞不透明的“黑箱”、技術依賴、民主問責、偏見與歧視和制度適應性等方面展開。

算法系統的不透明性是算法行政研究關注的首要風險。Pasquale(2015)在其著作《黑箱社會:控制金錢和信息的數據法則》中提出,算法將人類置于一個充斥著“神秘技術”的黑箱社會中,對算法黑箱充滿了擔憂。不透明或“黑箱”特質被視為算法的固有屬性之一。由于算法本質上是一系列指令和代碼,難以轉化為通俗易懂的語言(Beer,2017),因此只能被少數掌握計算機科學和數學知識的人訪問并理解。同時,算法發展呈現出日益自動化和復雜化的趨勢,一個龐大的算法系統涉及復雜、動態的代碼設計和人員安排,這使得理解算法及其影響變得更為困難(Janssen &Kuk,2016;Andrews,2019)。此外,政府往往不具備獨立開發算法系統的技術能力,更無法理解算法運行過程的關鍵細節(Coglianese &Lehr,2017),需要向私人部門購買算法系統并提供長期技術支持。在算法系統開發私有化的趨勢下,私人部門以保護商業秘密為由逃避算法公開披露的責任,將進一步加劇算法行政的透明度風險(Carlson,2017)。

技術依賴對官僚主體性地位的沖擊則是算法行政研究關注的第二類風險。其根源在于,隨著算法在公共行政過程中發揮日益重要的作用,街頭官僚的決策能力受到嚴重挑戰(Snellen,2002)。Lipsky(1980)街頭官僚理論中自由裁量權和組織權威的相對自主性正在被削弱?,F有研究從兩個方面表達了對技術依賴的擔憂。一方面,高度依賴算法模型的輸出結果可能會使法治政府(government of laws)淪為機器政府(government of machines)(Berman,2018),形成一種更偏向技術官僚的治理模式(K?nig &Wenzelburge,2020);另一方面,私人部門在算法系統開發方面的主導和領先地位預示著私人治理時代的到來(Solow-Niederman,2020),政府對私有化算法系統的依賴導致私人行動者在公共行政中發揮了過大的作用,公私治理界限逐漸模糊(Nishi,2019;Nitzberg &Zysman,2022)。由于缺乏專業知識,行政官僚往往難以應對復雜的治理挑戰,在一定程度上喪失了理解、審查和實施有意義的控制的能力。因此,過度依賴算法系統可能會掏空街頭官僚的專業知識與判斷力,陷入“專業能力遞減”的惡性循環。Busuioc(2021)進一步指出,算法行政同時削弱了官僚合法性的兩大根基——官僚專業知識與民主問責。

算法行政對民主價值的損害和所帶來的問責困境是相關研究關注的第三類風險。有學者指出,以算法替代人類進行政府決策會加深技術官僚與民主參與之間的鴻溝,塑造不負責任的、計算機化的政府形象(Coglianese &Lehr,2017;Ziaja,2021)。其原因在于算法決策是在沒有民主審議、審查的情況下做出的,這意味著算法行政缺乏公眾參與(Solow-Niederman,2020;Okidegbe,2023)。Alnemr(2023)稱之為“走捷徑”的民主自治,社會理解和參與的不足反過來會影響治理的合法性和有效性(Guo &Kennedy,2023)。在問責方面,算法系統的不透明性、復雜性、自學習特性和質疑算法的困難,使得對算法系統本身進行審計和監管極具挑戰(Danaher et al.,2017;K?nig &Wenzelburge,2020;Busuioc,2021)。同時,算法在公共部門的引入改變了傳統的責任鏈條(Bracci,2023),公共管理人員、算法設計者和公民之間的責任關系和方向愈發不明確,責任主體的模糊化進一步加劇了問責挑戰。

在算法行政造成的影響方面,算法系統中植入的偏見與歧視一直備受關注。在決策中,偏見(bias)表現為重復性表達特定的偏好、信仰或價值,當決策輸出結果對某些群體產生不公平的影響時,偏見就會發展成歧視(discrimination)?,F有研究指出,算法系統從來不是中立、客觀的,而是必然包含著影響公平的偏見和價值觀(Ziaja,2021)。在實踐中,預測警務、信貸申請等領域的算法應用被證實具有種族歧視、性別歧視之嫌(Hamilton,2019;O’Donnell,2019;Nitzberg &Zysman,2022),進一步擴大了社會和經濟不平等。算法偏見的產生有兩方面原因。從微觀視角來看,算法會重現隱藏在訓練數據中的偏見(Busuioc,2021;Saldanha et al.,2022;Grimmelikhuijsen,2023)。當用以訓練的歷史數據或模型參數是有偏見甚至有歧視性的,算法系統就會繼承有缺陷的數據,輸出損害社會公平公正的預測結果;程序員的價值觀也會有意或無意地嵌入代碼(Janssen &Kuk,2016)。從宏觀視角來看,算法偏見可能源于系統和數據環境的變化,是更廣泛的組織或文化價值觀的反映(Janssen &Kuk,2016)。

對政府官員而言,有研究表明,當算法預測結果與人類決策者的刻板印象相符時,決策者會傾向于選擇性遵循(selective adherence),從而加劇歧視(Alon-Barkat &Busuioc,2023)。更糟糕的是,隱藏在算法中的偏見和歧視往往難以被發現和質疑,大多數人并未意識到算法可能會造成傷害,想當然地認為算法結果是中立的(K?nig &Wenzelburge,2020)。即使對算法產生了質疑,也會因評估所需的時間、資金成本以及尋找歧視意圖證據的困難而放棄(O’Donnell,2019;Rachovitsa &Johann,2022)。自此,算法陷入了難以被發現、擺脫算法結果錯誤和自我糾正的負反饋循環(negative feedback loops)(Busuioc,2021),在隨后的迭代中更加依賴錯誤的聯系,導致制度化偏見與系統性歧視的生成(O’Donnell,2019;Fountain,2022)。

制度適應性風險是算法行政研究關注的另一個重要議題。近年來,從法律層面關注憲法、行政法等能否應對算法嵌入公共行政挑戰的研究逐漸增多。究其原因,算法系統的嵌入在一定程度上撼動了依法行政、正當程序(due process)、基本權利保護等行政法基本原則(Coglianese &Lehr,2017;Yeung,2018;Faúndez-Ugalde et al.,2020;Suksi,2021;Yalcin et al.,2023)。在這一議題下,隱私與數據保護成為探討的熱點話題。算法應用程序對大量個人細顆粒度的行為數據進行個性化處理(K?nig &Wenzelburge,2020),往往在數據所有者不知情和/或不同意的情況下收集、分析數據(Danaher et al.,2017;Bracci,2023),造成了對個人隱私的侵犯。然而,從全球范圍來看,現行法律法規對隱私保護仍然不足,算法系統與監管立法框架之間、私人利益與公共利益之間存在難以調和的矛盾。

綜上所述,基于算法的行政過程仍是一個無法打開的“黑箱”,技術依賴對官僚主體性地位的影響、民主價值與問責機制的缺失、算法對偏見歧視的固化以及制度適應性風險等構成了算法行政面臨的一系列風險挑戰。然而,風險不止于此,決策結果的不確定性(Casagran et al.,2021;Hartmann &Wenzelburger,2021)、定性價值判斷定量化、共情能力匱乏(Coglianese &Lehr,2017)、政府權威減弱(Stern et al.,2021)、數字鴻溝(Considine et al.,2022)等問題也逐漸受到關注。

(二)風險規制

算法的應用不僅影響著公共行政的組織運行、管理方式、服務效能等,也關系著公共價值的構建。為實現善政與善治,透明、民主、問責、公平、合法等公共性原則急需回歸。因此,如何有效規避算法嵌入所帶來的各種風險挑戰成為算法行政研究的重要議題。算法行政本質上是工具理性邏輯的產物,其引發的一系列風險挑戰涉及公共管理、技術、法律等多個方面,現有研究從價值、技術、監管、制度和協同等視角展開風險規制的探討。

從價值視角來看,為使公共行政不斷適應算法技術的快速變化,需將公共價值注入技術創新過程,在最大程度發揮算法潛力的同時保護公共福祉(Solow-Niederman,2020;Bunnell,2021)。要求在將算法應用于公共部門的過程中,確保算法是實現政策目標的有效手段,同時在程序上保持公平、公開和公正,而非簡單地依賴機械式的程序和規則(Danaher et al.,2017;Berman,2018)。然而,這并不全是公共部門的責任,以算法透明度為例,有學者指出,當私人部門從提供的公共服務中獲益時,就應當遵循與公共部門相同的透明度要求,即使是專有預測算法也應公開信息(Carlson,2017)。

與此同時,用算法對抗算法來實現風險規制是技術視角探討的重要方向,目的在于通過不斷地優化調整算法的程序性設計,應對算法所帶來的風險挑戰,從而更好地發揮算法的積極作用。在算法行政體系中,對算法應用產生的制度化偏見、系統性歧視等風險進行提前規避,有助于降低決策結果的不確定性(O’Donnell,2019;K?nig &Wenzelburge,2020;Hartmann &Wenzelburger,2021;Fountain,2022)。為改善算法系統的開放水平,除開放源代碼和訪問共享知識、資源外(Casagran et al.,2021),Danaher等(2017)學者建議公開程序員實時編程和開發算法,如通過直播視頻流服務跟蹤編碼過程。

一些學者從監管視角提出應對算法風險的思路,強調監管工作是確保周到和有效使用算法工具的關鍵,認為第三方評估、獨立的監管機構等能發揮重要作用。不少學者主張開發如算法透明度指數等評估工具和輔助工具(Coglianese &Lehr,2017;Danaher et al.,2017;Casagran et al.,2021;Ziaja,2021),聘請中立的統計專家、機構等對算法模型開展持續、獨立的第三方評估,從而促進其發展過程中的實質性和程序性公平。算法的社會影響在實踐中常常被低估,因此,要在公共部門部署算法應用前開展影響評估,不得在未經驗證的情況下使用黑箱算法(Busuioc,2021;Fountain,2022;Simmler et al.,2023)。由于算法監管需要靈活性、敏捷性和專業知識,有學者建議在中央層面設立獨立機構,如專門負責監管和公開公共部門算法應用的算法透明度委員會(Bunnell,2021)。一方面,中央機構有權發布和執行強有力的披露和公平要求;另一方面,獨立機構能夠確保算法的問責制和公平性落到實處。

從制度視角來看,針對算法應用建立完善的制度規范體系是規制算法行政風險的重要手段?,F行制度法規是在人治基礎上建立發展起來的,公共職能的行使是在國家與官員之間而非國家與機器之間(Faúndez-Ugalde et al.,2020)。作為新興技術的算法目前仍是一個缺乏制度規范的領域(Andrews,2019),許多國家對算法應用的管理存在立法空白(Suksi,2021)。因此,算法的制度化、法律化規制成為人工智能時代各國重要的風險防控議題。在將算法應用于公共部門之前,立法者和其他行業的專家們需要圍繞人權保護、數據保護和算法問責等議題建立全新的制度規范框架(Rachovitsa &Johann,2022)。為避免算法在公共部門的應用脫離法治范圍,避免公共行政決策變成算法規則,學者們強調要針對算法設計、研發及應用的全過程,從事前采用、信息披露、隱私保護、事后問責等環節細化法律規范體系(Coglianese &Lehr,2017;Alnemr,2023)。

此外,現有研究從協同視角提出,建立多元合作機制,充分融合不同學科領域的智慧并匯聚不同利益群體的力量,來應對算法行政面臨的風險挑戰。以提升算法透明度為例,不僅需要系統設計者努力解釋模型,計算機科學家開發可理解和可解釋的模型,還需要公共部門購買者的持續監管,推動系統設計者與領域專家的持續性合作(Busuioc,2021)。為使算法行政更符合民主參與進程,需廣泛吸納多樣化的行為主體和利益相關者參與算法在公共部門中的發展與應用,例如政府部門、民間社會組織、跨學科研究人員和技術專家等,進而為有效治理提供全面的數據和見解(Casagran et al.,2021;Ziaja,2021)。有學者提倡讓公民成為算法治理過程的一部分,引導公民“與技術對話”(Janssen &Kuk,2016;Alnemr,2023),通過讓受眾與算法廣泛接觸和互動,實現算法技術與包容性民主相一致(Okidegbe,2023)。

綜上所述,現有研究從價值、技術、監管、制度和協同等不同視角探討算法行政的風險規制與應對。值得一提的是,上述視角并非單獨奏效,需將上述視角相融合,凝聚算法開發者、各領域專家、社會公眾與組織等的力量,才能促使算法更好地融入公共行政實踐中。正如Bruijn等(2022)所言,比單純設計算法更重要的是各方利益相關者達成共識的協商算法(negotiated algorithms)。

六、討論與結論

人工智能算法在公共部門的應用推動了以算法為技術基礎的新型官僚主義的出現,即“算法行政”。這創新了公共部門的運行方式、治理工具,改變了技術與組織間關系,提升了公共部門應對復雜性問題的能力。但與此同時,也面臨算法透明度低、技術依賴、民主問責、偏見與歧視等一系列風險與挑戰。為更好地理解算法行政的理論研究現狀進而為未來研究提出針對性建議,本研究基于WOS數據庫篩選的58篇英文文獻,圍繞算法行政的緣起與內涵、組織形態、效果評價、影響因素、風險類型與規制等議題進行了系統性梳理與分析。

算法行政的相關理論探討從技術-社會視角展開,強調算法行政是一種新的組織模式,其出現和應用與技術發展、社會進步等密切相關。與傳統行政模式相比,算法行政創新了組織架構、服務提供、信息流動、數據儲存、價值導向等,與傳統組織機制之間是賦能而非替代關系(Vogl et al.,2020)。本文認為,“算法行政”是算法技術與公共行政融合背景下傳統官僚制發展演變形成的一種新型組織模式。其在實踐中呈現多樣化的形態與方式,推動了現有研究從算法特性、算法-人的互動方式出發對算法行政進行類型劃分,并探討算法在政府監管、政策制定等領域的應用和影響。在算法行政的效果評價方面,現有研究表明,公共部門人員對算法應用多持開放包容態度,但也意識到算法在輔助決策制定、優化服務流程等的同時,會對自由裁量權產生沖擊;公眾則更傾向于傳統決策方式,對算法應用的接受度、信任度有待進一步檢驗。究其原因,現有研究表明,算法在公共部門中的應用受到技術環境、制度環境、組織能力、公共價值等多重因素影響,這也為公共部門推進算法等數字化技術的應用提供思考。

與此同時,伴隨著算法嵌入組織程度的不斷加深,其帶來的風險也引起了學者們的關注。就算法本身而言,技術的復雜性、不透明性,使得基于算法的行政過程存在一系列黑箱問題;就公共部門而言,其對算法的依賴程度不斷增強,逐漸削弱了自由裁量權和組織權威的相對自主性,進而引發合法性、問責制、算法偏見、算法歧視等問題。此外,從制度層面來看,算法嵌入對傳統行政的基本原則產生沖擊,形成制度適應性風險,以及由此引發的政府權威減弱、數字鴻溝等問題?;诖?,如何應對這些風險也成為算法行政研究的重要議題。在目標使命層面,算法不僅是政府的治理工具,也需要與組織深度融合,共同推進公共價值創造;在實踐層面,政府既需要從技術上依托算法優化來實現風險規制的程序化牽制,也需要從制度上建立健全法律法規體系,明確監管主體權責,建立多元協同機制,共同應對算法行政的風險。

整體而言,算法行政的相關研究尚處于探索起步階段。早期研究多側重于理論分析與規范性探討,近兩年實證研究逐漸豐富,研究方法上多采用案例研究、調查實驗、現場實驗等,研究場景多集中在警務、司法等領域,未來需要豐富多元方法的使用和場景選擇,為相關議題的深入探討提供新的工具和手段,并探索在中國制度情境下的算法行政模式。此外,一些重要議題需要進一步被關注和討論。例如,在概念界定方面,需要進一步拓展不同情境下的算法行政研究,科學界定其邊界、維度及內涵特征;在運行機理方面,需要關注并比較分析多樣化算法行政組織形態的具體運作邏輯及影響因素;在公共價值方面,算法透明度關乎到政府透明度、公眾信任、公眾參與等重要價值創造(Grimmelikhuijsen,2023),需要優化算法透明的測量,結合實證研究探討算法系統的透明公開及其影響和價值;在政企關系方面,需要關注技術企業參與公共部門人工智能算法項目運營與管理的過程,結合案例分析政企互動、自動化決策結果的責任劃分等;在公眾參與方面,公眾不僅是算法自動化決策中的被動接受者,也是算法治理過程中的重要參與者,需要探討其在公共部門算法設計與運作過程中的角色與作用發揮。此外,未來研究需要引入法學、政治學、圖書情報學、計算機等學科的相關理論與視角,更好地探討算法行政的現狀與不足,豐富并推動算法行政研究向縱深發展。

猜你喜歡
公共部門決策行政
行政學人
公共部門人力資源管理激勵機制研究
為可持續決策提供依據
決策為什么失誤了
行政調解的實踐與探索
公共部門人力資源激勵機制的構建探析
《國際公共部門會計準則前言》發布
對公共部門預算編制中討價還價行為的解釋
行政為先 GMC SAVANA
加快行政審批體制改革
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合