?

人工智能賦能權力監督:圖景、障礙與進路

2023-05-30 07:53段光鵬
湖湘論壇 2023年1期
關鍵詞:數據紀檢監察人工智能

摘要:隨著人工智能時代的到來,權力監督從側重經驗推斷到依賴數據計算,從因果關系歸責到相關關系預判,從監督方式外顯到技術賦能監督,人工智能在權力監督中的工具理性愈加受到重視。人工智能在為權力監督帶來便利的同時,也帶來了責任認知模糊、基礎工程闕如、安全隱憂凸顯、倫理規范缺位等諸多新問題。因此,必須樹立智能化的權力監督理念、創設制度化的權力監督場景、共建標準化的權力監督體系、破除壟斷化的權力監督隱患、構筑共治化的權力監督范式、培養專業化的權力監督人才,努力實現主動監督、精準監督和全覆蓋監督,構建人機協調有序發展的權力監督模式,確保權力監督更加透明、公開、有力和有效。

關鍵詞:人工智能;權力監督;數據;紀檢監察

中圖分類號:D262 ? 文獻標識碼:A ? ?文章編碼:1004-3160(2023)01-0108-10

一、問題的提出

伴隨著人類知識創新水平的逐步提升和科技創新能力的突飛猛進,以數據化、精準化和智能化為核心的新一輪科技革命正在全球范圍內發酵,人工智能時代悄然而至。習近平總書記指出:“人工智能是引領新一輪科技革命和產業變革的重要驅動力,正深刻改變著人們的生產、生活、學習方式,推動人類社會迎來人機協同、跨界融合、共創分享的智能時代?!盵1]人工智能(Artificial Intelligence)術語起源于20世紀50年代的達特茅斯會議,泛指讓機器實現智能行為的一系列技術,人工智能本質上是對人類思維信息過程的模擬。作為一項深刻影響人類社會發展的顛覆性技術,人工智能逐漸擴散至人類社會各個領域,顯示出推動人類文明進步、重塑人類發展方式的強大能力。在大數據、云計算、物聯網等信息技術的加持之下,政治行為大多以數字形式即時呈現且精準表達。而“幾乎在亞里士多德之后不久,權力問題就成了決定性的政治問題”[2],對權力運行的制約和監督在人工智能時代的數字化圖景中表現得更加淋漓盡致,這使得紀檢監察機關的治理手段革新成為必然。

黨的二十大報告指出:“健全黨統一領導、全面覆蓋、權威高效的監督體系,完善權力監督制約機制,以黨內監督為主導,促進各類監督貫通協調,讓權力在陽光下運行?!盵3]強化對權力運行的制約和監督,是黨和國家頂層設計中的重點內容。人工智能賦能權力監督的本質,是紀檢監察機關基于黨內法規及國家監察法律法規概括性賦予的權力,運用人工智能技術對公權力行使主體的行為進行監督。在實踐中,紀檢監察機關把人工智能技術嵌入權力監督過程,進行實時監控和有效預警,在原始吸納、模式變革、自我重塑方面展現出了新的發展圖景。人工智能的技術優勢和新的思維方式蘊藏著強大的理性價值,其既不會瞻前顧后,也不會循私舞弊,更不會貪贓枉法,從而清除了權力尋租可能和操縱空間,使權力監督更加公正、規范、敏銳與精準。弄清人工智能賦能權力監督在運行過程中是否存在障礙以及如何解決障礙,實現權力監督模式的優化和權力監督效能的提升,是值得探討的重要課題。

二、人工智能賦能權力監督的現實圖景

人工智能的功能、應用價值與權力監督作用發揮的條件相契合,可以把相關的法律、法規、章程、規定、原則編制成程序和算法,借助無限逼近事實真相的數據資源來監控權力運行背后的廉情變化。人工智能的工具理性在當下愈益受到重視,成為權力運行評估和監督的重要載體,使權力監督在原始吸納、模式變革、自我重塑方面展現出新的發展圖景,在完善權力監督方式、提升權力監督效能方面發揮著重要作用。

(一)原始吸納:從側重經驗推斷到依賴數據計算

從信息技術的角度來看,權力監督的具體內容從本質上而言都是數據。在人工智能時代,“浩瀚的數據海洋就如同工業社會的石油資源”[4],是最為重要的財富和資本。數據是人工智能的基石。[5]人工智能得以有效運轉,正是源自對數據的采集、處理、分析,運用復雜的算法從海量數據中篩選出有效信息。相比原先的權力監督在很大程度上依據經驗進行推斷,人工智能賦能權力監督是以數據為“獲得新的認知、創造新的價值的源泉”[6],依賴于數據的完整性、真實性和及時性。因為經驗推斷的最大困境是過于依賴特定的個人,人為影響因素作用過于明顯,概率統計方法難以發揮效用,所以存在著諸多難以克服的局限性。人工智能通過利用諸如音頻識別系統、智能搜索引擎等技術,從智能化跟蹤采集海量數據到進行數據挖掘、比對、分析,再到數據畫像,使得海量數據在人工智能算法的框架內開始變得富有生命力,在統計更科學、分析更精準的情況下將諸多看似毫不相干的數據信息交相聯系,進一步生產出新的具有實際意義的相關信息。與經驗推斷相比,人工智能通過數據驅動而形成數據計算,使得大量人腦無法完成的任務變得輕而易舉,同時擺脫了對具體的有經驗的個人的依賴。依靠事先設計好的算法和程序,人工智能賦能權力監督在很大程度上克服了因個人偏好等原因而產生的主觀性問題,減少了因人為隱匿、造假權力運行數據帶來的僥幸心理,降低了因人工核實過程中的漏洞導致的漏報、謊報以及瞞報個人隱性事項等情況發生的機率。

(二)模式變革:從因果關系歸責到相關關系預判

在現有的追責問責體系中,對違紀違法行為的追懲往往遵循因果關系法則。因果關系是對因素相互作用過程與其效應之間聯系的描述,具有解釋事物或預測變化的功用,是人類理性行為與活動的基本依據,在歷史實踐中長期經受應用與檢驗而不斷完善。人工智能賦能權力監督在因果關系歸責的基礎上實現了數理邏輯的加持,向著相關關系預判的模式轉變。相關關系作為因素之間、結果之間以及因素和結果之間的關系,具有或然性而非因果關系的必然性。相關關系預判是以代碼為基礎語言的人工智能通過統計模式而形成的算法,是運用遵循特定序列結構的算法進行數據運算而得出的結果。此結果實際上是一種概率上的可能性,目的是發現權力運行背后隱藏的廉情變化,描繪一幅來路清晰、去向明確的“權力流程圖”,為防范違紀違法行為的生成提供預警。人工智能正是因為能獲得具有連續、直接、完整邏輯性的輸出結果,一旦發現個人事項相關數據的異常變化,即可借助數據的相關關系分析方法與流程,及時挖掘數據,從中發現關聯物并找到相關關系,從而降低時間成本,提升信息獲取效率。在獲取相關關系的基礎上,智能識別實際權力運行軌跡與系統擬合路徑的非重合地帶,對可能出現的權力運行風險進行預警,其最終目的是解釋個人有關事項異常變化的背后所蘊含的權力腐敗真相。任何試圖隱匿、轉移個人和家庭財產的手段在人工智能賦能權力監督面前都難以奏效。[7]因此,人工智能應用于權力監督的核心價值在于相關關系預判,從偶然數據中發掘蘊含具體人、具體事的必然章法和趨勢,將數據按照模型算法進行歸類匯總、賦分加權,對可能發生權力腐敗行為的區域或個體發出廉情預警。

(三)自我重塑:從監督方式外顯到技術賦能監督

人工智能的介入改變了談話函詢、專項檢查、巡視巡察、專題調研等監督方式外顯的運行邏輯。作為一種技術賦能,人工智能在紀檢監察機關監督過程中被加以廣泛、深入應用,智能監控、機器感知、人臉識別等算法決策和代碼規制便形成了監督技術化的態勢。技術賦能是通過應用新興技術形成一種新的方法、路徑或可能性,其本質是加強信息控制,[8]通過信息供給、交互與應用的革新,有機整合科層組織內各部門間的碎片化數據,由網絡內各節點主體共享、共同監督,促進信息流系統的開放、透明、共享,為追溯數據來源、數據運行流程、相關責任主體提供必要基礎。由此,相關公職人員在工作和生活中的任何行為都可以被智能系統平臺捕獲和跟蹤,既可以從銀行系統、稅務機關、證券機構、公安部門獲取其資金流水、理財投資及出境入境等相關事項信息,又可以通過微博、微信等網絡平臺獲取海量個人信息??此颇幌嚓P、雜亂無序的消費數據、財產信息,通過人工智能建立的各類監督平臺進行分離、清洗、去噪、聚合、修正,打造出完整的數據信息鏈條,能夠形成關于個人事項變動的軌跡和規律的路徑圖。換言之,人工智能可以及時跟蹤個人相關事項的動態變化,對權力運行各個節點的微觀數據信息進行匯總、歸類、篩選、整合,進而形成關于個人行為的預測以及針對預測應采取何種措施的預判。當人工智能介入時,無論是否服從與配合,算法早已預設,數據正在獲取,個人行為及其軌跡均可一覽無遺地進入權力監督的范圍之內??梢哉f,人工智能為追蹤真實權力行為提供了技術保障,為傳統監督方式引入了新的制度理性。

三、人工智能賦能權力監督的多重障礙

馬克思指出:“在我們這個時代,每一種事物好像都包含有自己的反面?!盵9]盡管價值中立的技術手段在推動整個人類文明前進過程中發揮著積極作用,但漫長的技術發展史早已證明,技術同樣具有向其反面位移的可能。在人類理性與技術理性、人類決策與機器判斷的交互作用之下,人工智能的技術進路會導致權力監督過程中的多重障礙,使權力監督的技術化與實效化之間產生矛盾和沖突。

(一)人工智能賦能權力監督的責任認知模糊

以自動化、智能化特性取代部分人力工作,延伸人類在數字信息世界的生活空間,是人工智能的顯著優勢。作為變革后工業社會的決定性力量,人工智能在本質上是對人的模仿。其實,模仿不是人類所要深憂的,人類要深憂的問題是“類人”的社會化可能產生的系列風險。[10]智能機器既“改造著政府、公民、政黨等政治行為主體的行為模式及其關系”[11],同時也在不斷地自主學習。人機主體地位的模糊性致使人工智能賦能權力監督在實際運行過程中存在著責任主體漂移和責任形式不明確的問題。依靠人工智能,從面部識別登錄執紀執法全流程智能管理平臺,到跨地區、跨部門的數據共享、流程再造和業務聯動,權力監督過程均可以被清晰記錄,為數據追蹤提供了原始材料。然而,倘若在權力監督過程中運用人工智能,卻因機器和算法出現偏差而造成數據泄露或其他破壞性后果,那么究竟歸因為設計者的責任還是使用者的責任,或是能否認為人工智能擁有道德主體地位,可作為責任主體而存在,進而陷入無法確定責任主體的尷尬境地。簡言之,人工智能驅動權力監督是多重合力作用之下的結果,難以歸責于某一明確主體。同時,人工智能運用于權力監督發生數據泄露進而出現安全問題,缺乏明確的法律規定界定責任主體??梢?,人工智賦能動權力監督在應對技術模糊性帶來的責任認知與劃分時往往顯得無能為力。

(二)人工智能賦能權力監督的技術風險凸顯

人工智能相關技術的本質是基于數據的算法。雖然人工智能的應用場景突出了該技術令人難以置信的計算能力,但是實際有效的應用程序始于數據。數據是現實世界的數字化反映,是使得人工智能如此強大的基本要素。然而,數據可被收集卻不能被創新,而具備可行性、有窮性、確定性和涌現性等特征的算法則可以推動智能革命的進程。算法是一系列解決問題的清晰指令,是用機器語言刻繪現實世界,模擬或實現人類的學習行為,以獲取新的知識或技能。人工智能功能的發揮依賴于算法的開發與運行。然而,人工智能賦能權力監督在算法的設計、運算與執行等方面存在一定的技術風險。

其一,算法設計難以覆蓋復雜的監督情境。人工智能的基本邏輯是將所有問題轉化為可計算的問題來處理。[12]算法設計遵循精簡高效的原則,為了讓監督過程便于量化分析,算法模型必然會去除各種無法處理的復雜因素,從而導致關鍵證據難以被精準度量,尤其是在監督過程中還有很多隱性內容無法評價或衡量,更無法嵌入算法之中。其二,算法監管存在黑箱風險。人工智能算法運行過程涉及數據輸入、數據轉換、數據輸出三種過程,但披著科學外衣的算法在實際的開發與運行中主要依靠開發者的價值觀驅動,人工智能的算法技術人員擁有制造算法黑箱的特權,[13]數據轉換過程之中甚至存在非法篡改算法參數風險。如果此類黑箱風險沒有排除,待其嵌入權力監督時將帶來諸多隱患。黑箱風險容易導致理性原則失敗,由此引發算法決策偏差與偏見,造成的后果與理想的原則背道而馳。其三,算法運用的實效性有限。目前,人工智能賦能權力監督仍缺乏統一的使用標準,技術運用呈現出分散化和碎片化的特點,甚至存在著形式大于內容的問題。因為技術理性往往與官僚主義具有天然的親和性,為確保權力監督的數字化和智能化,往往強調“留痕管理”,注重信息化“顯成績”,在實際工作中卻輕于建設、疏于管理,最終導致有框架、缺內容或功能不全的“僵尸端”。

(三)人工智能賦能權力監督的安全隱憂難消

安德魯·芬伯格指出馬克思在對現代性生產過程的批判中,“不是將技術看作是無辜的,而是認為工業工具是危險的永恒來源”[14]。在人工智能時代,具備自主學習能力和預測能力的智能算法開始由虛擬空間向現實空間延伸,使個人數據無所遁形、無處掩藏,使人變成沒有隱私和尊嚴的“透明人”。智能算法容易侵犯個人自由和隱私權利,而且侵犯方式變得智能且隱蔽,獲取的隱私內容多元且內隱,隱私侵權的追責難度加大。人工智能的發展不能以犧牲個人隱私權為代價。[15]收集要授權,使用有界限,存儲應保護,這些是人工智能時代兼顧高度智能化與個人隱私安全的重要原則。紀檢監察機關在監督過程中,利用以數據為基礎的人工智能來維護秩序、分析數據、預測行為,能夠獲取海量個人身份信息,并且能夠高效識別海量數據以清除權力尋租空間。然而,個人信息被“常態性”數據化致使其隱私性逐漸消散。由于存在算法安全漏洞、敏感信息采集違規、數據存儲泄露、應用安全評估乏力、缺少強力人工智能監管機制以及追責機制等問題,使得數據的不確定性極易誤導智能機器,進而作出錯誤判斷,導致個人權益遭到侵犯,個人隱私被披露。從某種意義上說,人工智能賦能權力監督的“全景式”監督,會因多重局限而導致數據泄露、存儲混亂、個人隱私侵犯,這些安全隱憂難以消除。

(四)人工智能賦能權力監督的倫理規范缺位

人工智能正在深刻改變著人類認知,現實中的諸多領域運用人工智能實現了跨越式、顛覆性發展。然而,人們在廣泛吸納智能技術嵌入權力監督時,卻忽略了技術具有兩面性,過度依賴技術會反噬治理價值和初衷。人工智能賦能權力監督背后隱藏著技術至上理念,容易滑入冷冰冰的技術窠臼。人工智能的應用過程貫穿的是技術理性,缺乏人類所固有的人文關懷與情感參與,其決策制定依據算法模型和數據輸入,難以適應人性的復雜性和多變性,其結果不一定蘊含人性的考量,“只有反饋功能而無反思功能”[16],從而影響決策和預測的準確性。相比而言,人類作出的決定不一定是最完美但卻是具有人性光輝的。盡管機器可以智能感知、控制、理解和執行,但是對技術的盲目崇拜和過度依賴會造成權力監督日益仰賴人工智能的維持,人的作用顯著下降,從而陷入只有依賴技術方能監督的怪圈。倘若人工智能突然中止,不能再向技術求助,紀檢監察機關將迷失方向,甚至手足無措。同時,無處不在、互聯互通的人工智能監控設施可能讓人的擔當自覺、責任意識、理性思維消失于無形,讓人無視人工智能的短板,跳不出因循思維的窠臼,權力監督過程成為人工智能擠壓出來的副產品,而不是人基于理性自控并實施法治的過程??傊?,如果人工智能賦能權力監督過程忽視人文關懷與情感參與,容易陷入“技治主義”。被人工智能完全鎖定必將導致人類的災難,因此要綜合施策“以避免技術反客為主、人類反而成為技術的奴隸的異?,F象”[17]。

四、人工智能賦能權力監督的發展進路

歷史不能倒退,人類不能拒絕人工智能及其使用。人工智能為權力監督建立了一套動態的、有效的且具有操作性和可行性的風險評估機制和預警機制。與此同時,不能回避人工智能賦能權力監督帶來的挑戰,要更好地發揮人工智能的工具理性,努力實現主動監督、精準監督和全覆蓋監督,切實以監督實效維護監督權威,真正“讓權力在陽光下運行,把權力關進制度的籠子”[18]52-53。

(一)革新智能化的權力監督理念

人類應理性認識作為物質形態的技術使用效度,不能放棄自我成為技術決定論的服從者。對技術運用的反思不是反對技術和放棄技術,而是要進一步規范技術發展,在技術發展中多多關注人的價值理性,努力實現工具主義技術性質和以人民為中心治理思想的兼容、互動,達成技術的工具理性和價值理性的統一,確保技術與人性的平衡。人工智能賦能權力監督實現了變人為監督為數據監督、事后監督為過程監督、個體監督為整體監督的轉變,節省了權力監督的精力成本、時間成本、規模成本,使得紀檢監察機關能夠集中精力對腐敗問題進行防范和處理。同時,面對技術工具壓制人性本質而導致監督缺乏人性溫情的問題,應理性分析技術治理限度,阻斷價值悖論集聚與擴散的外部條件,克服對人工智能著魔而造成的價值損害。在人工智能賦能權力監督過程中,要將人視為重要的、有權利的并且有價值的個體,體現技術關懷和以人為本的理念。[19]只有堅持以人民為中心去考慮問題,把所有黨員干部及所有行使公權力的公職人員置于黨組織和人民群眾監督之下,著力消除對公權力行使的監督空白和盲區,主動走進群眾搜集問題線索,利用人工智能手段隨時隨地接受群眾舉報,綜合施策以解決群眾反映強烈的突出問題,扭轉損害群眾利益的不正之風,以整改實際成效持續回應群眾關切,才能確保權力監督更加透明、公開、有力和有效。

(二)創設制度化的權力監督場景

權力監督是一項系統工程,要不斷完善并循序推進相關的配套制度和措施以達到監督實效,任何一個環節出現問題都無法取得預期效果?!爸贫扰c技術是實現權力運行有效監督的兩個重要要素,二者之間相互依存,互相補充?!盵20]人工智能在權力監督中的廣泛運用,需要考慮進行框架內具體的技術規范制度設計與填充。為避免權力監督滑向“技術利維坦”的潛在風險,即人工智能的賦權與其異化所帶來的技術失控風險,要建立相應的智能技術監管體系、技術漏洞監測披露制度、侵害后果的報告制度、相關責任追究制度等,逐步健全公平、公正、公開、透明的“陽光”運行機制,實現對智能技術智能化與復雜化的兼容,實現制度他律的最強效應,徹底將“技術利維坦”關進制度牢籠之中。

一是要完善金融實名制配套制度,確保金融賬戶的真實性,減少金融隱蔽賬戶的存在,同時構建實時可查的網絡金融追溯系統,使得違紀違法行為在透明的金融交易中難以遁形,使權力運行的每一個環節都能夠植入有效的監督因子。二是要“依法加強對大數據的管理”[21],建立健全完備的數據管理機制,建立公職人員有關事項的電子會計檔案,使得紀檢監察機關能夠找到可操作、可預測的信用信息載體,避免信息形式主義,有效減少暗箱操作。三是要建立健全安全的數據運用機制,最大限度提供安全、可靠、高效的數據信息,保障信息不被竊取、破壞和濫用,同時建立和落實懲處機制,強化篡改數據信息行為的違規懲戒,避免制度空轉失靈,防止監督失位、錯位、缺位。

(三)共建標準化的權力監督體系

目前,許多地方對人工智能賦能權力監督模式進行了積極探索。例如,雄安新區已經啟用無人機“天眼”查處公職人員“隱蔽吃喝”問題。然而,地方多樣化的探索缺乏整體性規劃和標準化設計,面臨著業務規劃不精準、事項標準不統一、數據資源難共享等問題,導致權力監督的成本過高、簡單重復和難以對接。共建標準化的權力監督體系,有利于實現人工智能賦能權力監督的整體性、協同性和規范性,在進行統一規劃和系統設計的基礎上深化權力監督模式變革。

第一,信息采集的標準化設計。對信息采集的方式、渠道和邊界進行規范,解決編碼缺乏統一標準、指標體系零散交叉問題,是推動人工智能良性利用、監督功能充分釋放的一大要務。信息采集的標準化要依靠扎實的技術手段作為后盾,更需要充分調動各種因素,把技術、制度的作用放大,明確信息采集、應用、共享的界限所在,從而在合規范圍內使用各類信息。

第二,監督平臺的標準化設計。通過人工智能將監督嵌入權力運行之中進行有機融合,優化、細化、固化權力運行流程和辦理環節,對權力運行進行實時、全程、自動監控,形成權威、全面、統一的電子政務黨務系統數據,擺脫物理空間的限制,使權力監督以電子信號的速度移動,[22]實現權力運行監督的動態提示、動態預警、動態監管、動態分析,從而充分提高權力監督效能。

第三,指標體系的標準化設計。在人工智能時代,要整合監督資源,探索智慧分析,結合線上線下,建立預測分析標準化指標體系、運行狀況標準化指標體系、監督效能標準化指標體系等,同時要圍繞紀檢監察指標、巡視巡察指標、網絡信訪指標等建立量化分析標準化指標體系,圍繞實地調研、臺賬檢查、情況匯報等情況建立定性分析標準化指標體系,推動紀檢監察工作高質量發展。

(四)破除壟斷化的權力監督隱患

借助于以增強人的諸方面能力為基本取向的人工智能,權力監督的智能化圖景正快速展開,權力脫軌或腐敗滋生的問題將得到精準防止和糾正。然而,算法推薦的技術黑箱、互不相屬的信息壁壘同樣將諸多不確定性風險帶入了權力監督過程之中。當公權力運用、推崇甚至依賴各種人工智能平臺、終端、系統和機器時,人工智能憑借其所壟斷的數據和算法造成數字獨裁、信息霸權等諸多負面影響。破除壟斷化的權力監督隱患,要靠技術的發展完善來解決。

一方面要全面評估人工智能賦能權力監督的潛在風險,“全面提升技術治網能力和水平,規范數據資源利用,防范大數據等新技術帶來的風險”[18]319,禁止使用一些具有潛在風險的智能技術,控制人工智能預置過程以避免出現技術偏差,從而堵住人工智能在權力監督過程中運用的風險漏洞,確保權力在監督的制約之下有效運行。另一方面要建立相關安全保密規則和制度,健全信息安全協同治理體系,確定擁有查詢、管理權限的執行主體不濫用職權危及個人信息安全,同時成立專門的數據管理部門,注重提高個人信息安全保障能力,以“私匙”封裝和加密與合法隱私有關的個人信息,圍繞數據泄露的風險評級、數據調閱的人員級別、數據核查授權級別等建立嚴格的制度規范,不能讓人工智能成為濫用監督權力的工具,不能因缺乏監管而使人工智能削弱現有的個人信息保護機制,進而異化為侵犯個人隱私的工具,從而有效保障信息安全和個人隱私。[23]

(五)構筑共治化的權力監督范式

進入人工智能時代,智能技術以其顛覆性、革命性特點在人類發展中展現出強大主導性,避免了人類思維中的雜亂、碎片與無序。然而,面對日新月異的智能技術,與之共生與進化的權力監督范式凸顯出慌亂與不適,甚至陷入固化或緩慢革新的境地,人工智能賦能權力監督過程自然面臨著慣性束縛和價值損害。著眼于此,要革新現有的權力監督范式,摒棄經驗主義,消除監督盲區,打破信息孤島,拓寬監督渠道,保證信息共享,努力構筑共治化的權力監督范式,最大限度地調動黨和國家監督體系中的積極因素有效解決權力監督難題。

一是要實現監督主體多元化。相比于傳統技術,人工智能的運用拓寬了多元主體參與權力監督的渠道,依靠監督資源的全面整合和有序協同,權力監督實現了從單中心向多中心的演化,彌補了單打獨斗的短板,使得所有公權力均能受到有效監督。二是要保障監督主體聯動化。人工智能作為整合所有具有紀檢監察職能的機關和部門的整體設計和協作平臺,能夠實現在權力監督的問題線索、情況通報等方面平等交換信息、協同治理腐敗,進一步延伸信息觸角,形成全方位的監督信息網絡,避免出現監督主體各自為陣、力量分散的現象。三是要確保對公權力展開全方位監督。人工智能可以在掌握權力責任清單的基礎上,將所有公權力包括紀檢監察機關的權力運行納入監督范圍,消除權力監督的真空地帶,同時對權力“偏軌”行為進行法理分析,對相關權力責任人進行精準問責,做到及時打掃庭院、清理門戶,完成對權力運行全生命周期的監督。

(六)培養專業化的權力監督人才

人工智能是人的附屬品,是人賦予機器以智能,是人的大腦之延伸。人工智能的程序設計與應用,包括其系統軟件、程序代碼、作用對象、目標指向、數據養料,歸根結底來源于人、應用于人,服務人的目的,聽從人的指令。面對陌生而又令人憧憬的智能技術,“我們要樹立強烈的人才意識,尋覓人才求賢若渴,發現人才如獲至寶,舉薦人才不拘一格,使用人才各盡其能?!盵24]努力培養專業化的權力監督人才,提高權力監督人才的風險識別能力和批判性思維,使其掌握必要的人工智能技術和理性推理能力,包括人工智能中的機器學習和知識獲取、知識處理系統和自然語言學習等技術,努力適應智能技術帶來的強大沖擊力。

一方面要拓寬人才選拔渠道,完善紀檢監察機關人才錄用機制,注重進行心理測試、行為觀察、道德評估、價值評估、人生經歷評估、人生背景評估,吸納德才兼備的優秀人才加入到紀檢監察隊伍之中。另一方面要做好紀檢監察隊伍的培訓工作,開展跨學科人工智能綜合型人才培養,培育智能技術型人才和應用創新型人才,不斷提升監督業務能力。同時,注重進行科學的人員配置,靈活進行人員調動,鼓勵數學、計算機科學、信息技術等領域的人才進入紀檢監察隊伍。

五、結語

人工智能賦能權力監督是信息技術與監督制度的聯結,可以實現權力運行流暢公開、可視可控,及時發現權力“出軌”的痕跡,從而以權力留痕常態化、多元監督透明化來不斷提升權力監督效能。近年來,人工智能在權力監督領域得到了廣泛應用和快速發展,青島市“電子監察”、貴陽市“數據鐵籠”等實踐為權力監督注入了技術理性,為彌補制度執行中的漏洞提供了現實的可能性。盡管人工智能具有諸多顯著優勢,但同樣不可忽視該技術因源發性、促發性及現實性等原因而導致的安全、責任與公正問題。人工智能賦能權力監督需要以一種漸進調適、持之以恒的方式加以推進,逐步構建人機協調有序發展的權力監督模式,為識別違紀違法行為提供有效的認識工具。

參考文獻:

[1]習近平向國際人工智能與教育大會致賀信[N].人民日報,2019-05-17(1).

[2]漢娜·阿倫特.馬克思主義與西方政治思想傳統[M].孫傳釗,譯.南京:江蘇人民出版社,2012:38.

[3]習近平.高舉中國特色社會主義偉大旗幟 為全面建設社會主義現代化國家而團結奮斗——在中國共產黨第二十次全國代表大會上的報告[M].北京:人民出版社,2022:66.

[4]中共中央文獻研究室.習近平關于科技創新論述摘編[M].北京:中央文獻出版社,2016:76.

[5]龐金友.人工智能與未來政治的可能樣態[J].探索,2020(6):84-96.

[6]維克托·邁爾-舍恩伯格,肯尼思·庫克耶.大數據時代:生活、工作與思維的大變革[M].盛楊燕,周濤,譯.杭州:浙江人民出版社,2013:9.

[7]廖金萍,廖曉明.基于大數據技術應用的公權力監督——以領導干部個人有關事項報告為例[J].江西社會科學,2021(4):226-235.

[8]王冠,任建明.新時代紀檢監察業務工作改革觀察——形勢任務、機構改革與績效表現[J].社會主義研究,2021(3):79-90.

[9]馬克思恩格斯文集:第二卷[M].北京:人民出版社,2009:580.

[10]謝新水.人工智能發展:規劃賦能、技術自主性疊加與監管復雜性審視[J].浙江學刊,2020(2):78-87.

[11]孟天廣,郭鳳林.大數據政治學:新信息時代的政治現象及其探析路徑[J].國外理論動態,2015(1):46-56.

[12]柳亦博.人工智能陰影下:政府大數據治理中的倫理困境[J].行政論壇,2018(3):97-103.

[13]鄭容坤,汪偉全.人工智能政治風險的意蘊與生成[J].江西社會科學,2020(5):217-225.

[14]安德魯·芬伯格.技術批判理論[M].韓連慶,曹觀法,譯.北京:北京大學出版社,2005:54.

[15]劉云江.人工智能對隱私權的影響與法律應對[J].人民論壇,2020(26):110-111.

[16]王向明,段光鵬.數字賦能監督:權力監督模式的智能化轉型[J].求實,2022(1):17-26+109.

[17]徐彬,陳潔瓊.云監督:智能革命時代權力監督的一種新路徑[J].福建師范大學學報(哲學社會科學版),2020(4):56-64.

[18]習近平談治國理政:第三卷[M].北京:外文出版社,2020.

[19]張愛軍,李圓.人工智能時代的算法權力:邏輯、風險及規制[J].河海大學學報(哲學社會科學版),2019(6):18-24+109.

[20]黃其松.權力監督的類型分析——基于“制度—技術”的分析框架[J].中國行政管理,2018(12):108-113.

[21]習近平.在網絡安全和信息化工作座談會上的講話[M].北京:人民出版社,2016:22.

[22]曾智洪,王梓安.數字監督:大數據時代權力監督體系的一種新形態[J].電子政務,2021(12):59-68.

[23]過勇,楊小葵.基于大數據的領導干部廉政監督機制研究[J].國家行政學院學報,2016(6):22-27+125.

[24]習近平談治國理政[M].北京:外文出版社,2014:419-420.

責任編輯:楊葉紅

收稿日期:2022-11-07

基金項目:教育部人文社會科學規劃基金項目“中國共產黨自我革命的百年歷程與基本經驗研究”(項目編號:21YJA710030);山東大學馬克思主義學院基本科研業務費專項資金資助項目“新時代健全黨和國家監督體系研究”(項目編號:11120062330005)

作者簡介:段光鵬,男,山東新泰人,山東大學馬克思主義學院副研究員,法學博士,主要研究方向:智能革命與治理現代化。

猜你喜歡
數據紀檢監察人工智能
紀檢監察機構如何一體推進不敢腐、不能腐、不想腐
紀檢監察干部要爭做勇于擔當的排頭兵
2019:人工智能
人工智能與就業
數讀人工智能
紀檢監察
公路工程試驗檢測存在的問題及措施
一種借助數據處理構建的智能食堂管理系統
淺談計量自動化系統實現預購電管理應用
下一幕,人工智能!
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合