?

XAI架構探索與實踐

2024-02-13 15:11夏正勛唐劍飛楊一帆羅圣美張燕譚鋒鐳譚圣儒
大數據 2024年1期
關鍵詞:歸因模組組件

夏正勛,唐劍飛,楊一帆,羅圣美,張燕,譚鋒鐳,譚圣儒

1. 星環信息科技(上海)股份有限公司,上海 200233;2. 中孚信息股份有限公司,江蘇 南京 211899

0 引言

近年來,人工智能(artificial intelligence,AI)在量化金融、機器人、智慧交通、生命科學、智能醫療等領域得到了廣泛應用[1-4]。AI模型廣泛使用的機器學習模型涵蓋了統計、深度學習、神經網絡等多類型模型,但這些模型大多存在類似“射手假說”的謬誤[5],有被誤用、濫用的風險。從數據分析假定(如以回歸為代表的統計模型),到數據輔助模型驅動(如支撐向量機的傳統機器學習模型),再到數據驅動(如卷積神經網絡、蒙特卡洛數等深度學習和強化學習模型),AI模型的參數數量、復雜程度增長迅速,比如近幾年大型語言模型的參數規模以年均10倍的速度增長。李國杰院士指出,可解釋性是高級人工智能的重要組成部分。然而,在AI新“摩爾定律”的影響下,AI逐漸超出了人類的理解范疇。AI對使用者而言就是一個黑盒,無法保證AI判斷的邏輯依據與人類相同,無法對AI的行為結果進行解釋。XAI是未來人工智能研究的主攻方向[6],是可信AI技術體系的重要組成部分[7],在一定程度上可以解決上述問題。

當前學術界對XA I的研究主要圍繞3個問題展開。一是探究AI系統的行為依據和決策原因,該方向致力于解釋AI模型的工作原理,對影響AI結果的因子重要性進行度量,協助發現AI應用過程中的新知識。例如,Ribeiro等人[8]提出了LIME方法來解釋模型對單個示例的預測結果;Zhou等人[9]提出了CAM方法,以類別熱力圖可視化方式展示原圖對預測輸出的貢獻分布。二是XAI如何為AI應用提供安全性保障,該方向致力于分析AI系統的工作過程,尋找影響AI結果的因素,通過反事實推理等技術手段預防AI應用過程中的各種意外。例如,Akula等人[10]基于反事實原理提出了CoCoX模型,對CNN模型進行解釋;Hsieh等人[11]提出了DiCE4EL算法,基于事件日志生成反事實的解釋,主動管理潛在的異常結果[12]。三是XAI如何為AI應用提供社會性保障,該方向致力于使AI滿足公平、合規等要求,增加AI應用的社會認可度。例如,Jafta等人[13]使用XAI技術對ML系統的公平性進行了評估;Pradhan等人[14]提出了Gopher系統,通過識別訓練數據的一致性子集,解釋偏差或意外的模型行為,從而定位偏差的來源并減少偏差。圍繞XAI的3個問題,業界進行了深入探索,并取得了多方面的技術成果。這些技術成果有多種劃分方式。2020年Du等人[15]根據獲得可解釋性的時間不同,將其分為內在可解釋性方法和事后可解釋性方法,根據解釋范圍的不同將事后可解釋性方法分為全局可解釋性方法、局部可解釋性方法。2020年KDD大會從模型類型角度,將其分為深度學習模型XAI方法、貝葉斯模型XAI方法、強化學習模型XAI方法。2021年曾春艷等人[16]從解釋的屬性出發,將XAI模型分為自解釋模型、特定模型解釋、不可知模型解釋、因果可解釋性4個類型。2022年KDD大會將XAI的應用場景分為多智能體系統(multi-agent system,MAS)、機器學習(machine learning)、計算機視覺(computer vision)、規劃(planning)、知識表示與推理(knowledge representation and reasoning,KRR)、人工智能不確定性(uncertaintyin AI,UAI)、搜索(search)、博弈論(game theory)、自然語言處理(natural language processing,NLP)和機器人技術(robotics),分別在這些場景中對XAI技術進行了闡述。

XAI雖然取得了很多技術成果,但在技術架構、落地實施方案及未來發展的技術路線等方面尚缺乏系統性研究。為此,“如何實現可信可靠可解釋人工智能技術路線和方案?”入選中國科協2022年重大前沿科學問題。當前XAI存在的問題包含以下幾個方面。

一是XAI研究起步晚、成果少。從應用角度出發,XAI是一個跨學科的復雜問題[17]。Miller[18]提出XAI需要引入哲學、心理學和認知科學中用于定義解釋、產生解釋、選擇解釋、評價解釋的方法,以此提供更好的解釋。Kulesza等人[19]提出了一種以人為本的解釋方法,通過用戶與解釋系統的交互,提升解釋的準確性。Hsiao等人[20]從認知狀態和認知過程的角度提出了XAI系統的評估指標。上述研究尚處于摸索階段,未形成系統性的技術解決方案。

二是XAI 缺乏對落地實施方案的研究。當前XAI 研究偏重于基礎理論研究,鮮有對XAI技術落地的研究。例如,Szczepański等人[21]指出同一個事件可能有多種解釋,如何解決多個解釋中的“羅生門”問題,是XAI技術落地的一個難點。系統運營者關心如何向用戶提供一個更易接受的解釋結果,為解決這一問題還需要建立一套適用于XAI的評價指標。此外,從AI系統演進的角度,XAI使傳統的AI系統轉變為交互式AI系統。2020年,Spinner等人[22]將XAI與8個全局監控指標相結合,構建了一個交互式的機器學習系統,但該系統沒有對XAI交互能力進行多層次、多維度的分析,也沒有對可交互性XAI業務能力進行抽象。因此,學術界與產業界需要一個完善、可支撐工程落地的架構設計來填補上述的技術空白,幫助XAI跨越技術與真實應用場景之間的鴻溝,全方位滿足技術落地的需求。

三是缺乏通用XAI 業務方法論的研究。當前XAI通常只局限于某一領域的應用,缺少將現有AI系統快速升級為XAI系統的工具鏈及平臺。2019年,Kwon等人[23]實現了一個名為RetainVis的醫療領域可解釋RNN模型;2021年,Ohana等人[24]實現了一種對股市危機進行特征歸因的局部解釋模型;2022年,Park等人[25]實現了一種能夠預測經濟增長率和經濟危機的可解釋模型。上述XAI技術方案的實施需要根據項目實際情況進行調整,缺乏通用性。因此,需要歸納XAI的能力并進行業務級的封裝,提供通用的XAI業務開發組件,靈活支持各種AI應用場景。此外,基于XAI業務組件可進一步設計完整的XAI業務開發工具鏈,控制系統改造的影響,在不改變現有AI系統業務流程的前提下,以最小代價將現有系統升級為具備可解釋能力的AI系統,有效應對碎片化和多樣化的需求,并大幅縮減研發、定制、部署等工程化過程中的人力、時間、費用等成本。

基于對上述問題的思考,結合XAI的工程實踐,本文提出了一種通用的XAI架構,其中基礎能力層與核心能力層為前兩個問題的解決提供了多維度的原子解釋模組、合規性歸因模組、一致性模組等技術能力模組,業務組件層為第三個問題的解決提供了XAI表征模組、XAI展示模組、Pipeline嵌入模組等業務組件模組。作為一種通用的XAI架構設計,本文提出的XAI架構并不局限于解決上述3類問題,通過各層的分工協作為應用場景提供全流程的XAI技術支持,降低應用門檻,為XAI商用化提供高質、高效的保障。

1 XAI架構實現

從理論研究到工程化落地,XAI需要在理想化的原子解釋基礎上考慮特定的工程化問題,例如,如何使解釋符合AI各相關方的需求,如何與現有AI系統進行有機融合,如何對XAI應用進行有效管理,如何將解釋結果有效地展現給終端用戶?;谝陨纤伎?,本文提出了一種通用的XAI架構,該架構分為4層,如圖1所示。

圖1 通用XAI 框架

● XAI基礎能力層為XAI應用提供基礎解釋能力,包含原理性可解釋、數據可解釋、過程可解釋、模型可解釋與結果可解釋等功能,可以滿足AI不同應用場景對XAI的不同需求,為XAI的工程化提供了解釋基礎。

● XAI核心能力層提供XAI工程化落地的核心能力,包含知識庫、合規性歸因、認知歸因、一致性模組、內部評估、反事實歸因等模組,保證最終解釋結果滿足用戶的實際解釋需求。

● XAI業務組件層為XAI工程化落地提供業務能力支持,包括XAI表征、XAI展示、Pipeline嵌入等模組,降低了XAI業務的開發難度,提升了XAI業務的開發效率。

● XAI應用層包含XAI技術在行業落地的典型應用案例。業務型應用包括可解釋推薦系統、可解釋溯因系統、異常事件追溯系統、AI決策風險控制系統、AI合規監管系統;平臺型應用包括可解釋圖計算系統、可信AI算法管理平臺、可信可解釋AI學習平臺。

XAI技術架構為XAI工程化落地提供全流程支持,基于不同層級能力組件的協作,可以保證XAI解決方案實施的效率與質量,輸出有理有據、通俗易懂的解釋結果,滿足不同角色的可解釋性需求。

1.1 XAI基礎能力層

XAI基礎能力層對原子解釋能力進行集中管理,為上層提供原子解釋。XAI基礎能力層輸出的原子解釋是最終解釋的“原料”,是XAI工程化落地的基礎。XAI基礎能力層如圖2所示,包含原理性可解釋模組、數據可解釋模組、過程可解釋模組、模型可解釋模組與結果可解釋模組,每個模組由多個模塊組成。

圖2 XAI 基礎能力層

1.1.1 原理性可解釋模組

原理性可解釋模組從人工智能的定義、過程及影響的角度對AI的結果或行為進行解釋,幫助相關方從內部視角理解AI的核心實現方式及過程,屬于概念性解釋,通常以圖文、公式等方式顯性表示。原理性可解釋模組主要由原理解釋庫模塊組成,具體介紹如下。

原理解釋庫模塊要使AI具有可解釋性,不僅需要保證算法透明,更需要保證AI全流程是可解釋的。原理解釋庫模塊包含AI全流程涉及的原理性知識,可以為AI全流程的可解釋性提供知識基礎。原理解釋庫模塊由樣本管理原理、樣本增強原理、特征工程原理、模型設計原理、算法選擇原理與校驗原理組件組成。樣本管理原理組件提供與樣本管理相關的知識,例如,如何對數據集進行版本管理,如何合理劃分訓練集、測試集與驗證集,如何進行K-fold劃分等。樣本增強原理組件提供樣本增強相關的知識,如何選擇合適的樣本增強方法,樣本增強方法的原理等。特征工程原理組件提供與特征工程相關的知識,例如,如何選擇合適的特征工程算法、特征工程算法原理等。模型設計原理組件提供機理模型[26]或數據模型關于“如何解決問題”的設計細節,包含理論假設、設計模式、工作機制、流程設計、預期輸出等。算法選擇原理組件提供與算法相關的知識,例如,對每個算法的假設條件、適用范圍和建模思路,算法間的擇優方法,算法的調優方法等。校驗原理組件提供算法的各種檢驗指標的說明,如準確率、精度、召回率、PR曲線、F1值、ROC曲線、AUC值等。

1.1.2 數據可解釋模組

從數據的視角來看,數據可解釋模組基于對數據集的觀測與干預對AI推理或決策進行歸因,產生對AI結果或行為的解釋。從數據集視角來看,解釋分為因果性解釋和相關性解釋,通常用因果圖或特征重要性的形式來展現,具體組成如下。

(1)因果性解釋模塊

該模塊采用因果分析算法對觀察數據進行分析,可以找出數據中隱含的因果關系。該模塊由基于對照的因果發現方法、基于約束的因果發現方法、針對因果函數模型的因果發現方法、針對模糊變量的因果發現方法、因果網絡學習方法等組件組成?;趯φ盏囊蚬l現方法組件通過不同組之間的對照,比較得出平均干預效應來完成因果學習。該類方法包括實驗性方法及觀測性方法兩大類,其中實驗性方法包括隨機對照試驗方法、A/B測試方法等,觀測性方法包括分層、匹配、重賦權等?;诩s束的因果發現方法組件采用先確定因果關系結構再確定結構中的方向的方法來完成因果學習,這一類方法包括IC算法、FCI算法等。針對因果函數模型的因果發現方法組件利用因果數據生成機制引起數據分布不對稱從而分析變量之間的因果關系,這一類方法包括ANM算法、LiNGAM算法等。針對模糊變量的因果發現方法組件可以對包含隱變量影響的數據進行因果分析,通常采用Cornfield不等式、工具變量法、陰性對照法等。因果網絡學習模塊利用構建因果網絡來表示數據特征及標簽之間的完整因果關系,因果網絡學習方法包括局部學習、主動學習與分解學習3種:局部學習方法通常會給定一個目標變量來尋找原因與結果,得到局部的因果網絡,并以此為基礎構建出完整的因果網絡;主動學習方法通過干預某變量的方法,將變量之間的相關關系轉變為因果關系,從而得到因果網絡;分解學習方法通過將大網絡的學習分解為小網絡的學習來構建整體網絡。

(2)相關性解釋模塊

該模塊采用相關性算法,分析觀察數據,找到數據中隱含的相關關系,由頻率方法與貝葉斯方法兩個模塊組成。頻率方法模塊基于頻率學派的思想來計算特征之間的相關程度,模塊中有PCC、KCCA、CMI等算法,PCC算法(皮爾遜相關系數)可以檢測兩個變量之間的線性相關關系;KCCA算法組件可以把低維的數據映射到高維的核函數特征空間,然后在核函數空間分析變量間的關聯關系;CMI算法組件利用信息論中的條件互信息來衡量隨機變量之間的相關性;貝葉斯方法組件基于貝葉斯學派思想計算特征之間的相關度,例如概率圖模型生成特征之間的貝葉斯網絡來表示特征與標簽之間的因果關系。

1.1.3 過程可解釋模組

過程可解釋模組可以將AI運行的黑盒打開,提供AI系統的計算邏輯、算子處理及中間結果的可視化解釋,幫助用戶理解模型的運行機理,從而達到解釋計算邏輯的目的。過程可解釋模組的具體組成如下。

(1)計算邏輯可視化模塊

該模塊通過可視化模型的計算邏輯為相關方提供模型工作過程的直觀解釋。計算邏輯可視化模塊由計算圖可視化組件與模型結構可視化組件組成,計算圖可視化組件采用有向無環圖(directedacyclic graph,DAG)或控制流圖(control flow graph,CFG)來表示模型計算過程中數據的流轉與計算方以及模型內各種計算之間的相互依賴關系;模型結構可視化組件以圖文的形式展示模型的靜態結構,直觀解釋了模型的組成。

(2)算子可視化模塊

該模塊通過對模型計算過程中卷積層、激活層等組成算子的效果進行可視化展示,幫助相關方理解模型中各算子的效果。算子可視化模塊由激活層可視化與卷積層可視化組件組成,可以對激活層與卷積層在計算過程中的輸出進行可視化。

(3)中間數據可視化模塊

該模塊通過對模型計算過程中的中間數據進行可視化展示,幫助相關方理解模型訓練或推理過程中的數據變化。中間數據可視化模塊由梯度可視化、數據血緣展示和計算過程可視化組件組成。梯度可視化組件可以對模型產生的梯度進行可視化,在一定程度上解釋了模型對樣本的決策依據;數據血緣組件可以對AI應用中使用的數據進行血緣展示,幫助AI應用相關方了解數據的來龍去脈;計算過程可視化組件對AI應用過程中數據的變化進行可視化展示,幫助AI應用相關方更好地了解數據的變化過程。

1.1.4 模型可解釋模組

模型可解釋模組可以對模型的決策邏輯進行解釋,通過生成輸入的顯著圖、效應分析及提供參數的意義說明等方式,幫助相關方理解模型做出最終決策的邏輯。另外,通過對多模型的編排邏輯進行說明,幫助相關方理解當前多模型編排的理由。該模組由顯著性解釋、效應分析可解釋、參數可解釋與多模型可解釋模塊組成,具體組成如下。

(1)顯著性解釋模塊

該模塊通過可視化影響預測的重要輸入像素來解釋模型做出決策的原因,側重于輸入,但忽略了對模型如何做出決策的解釋。該模塊由基于映射的顯著性方法組件與基于反向傳播的顯著性方法組件組成,基于映射的顯著性方法有CAM與GradCAM等。CAM組件通過對特征圖進行線性加權來獲得類別熱力圖,與原圖疊加來可視化對預測輸出的貢獻分布。GradCAM[27]組件利用模型輸出對激活映射(特征層)的梯度信息計算權重,生成顯著性映射;基于反向傳播的顯著性方法組件由LRP、DeepLIFT、Guided BP等方法組成。LRP[28]和DeepLIFT[29]組件利用分層相關傳播思想,利用自上而下的相關傳播規則,生成視覺解釋;Guided BP[30]組件通過ReLU非線性反向傳播時操縱梯度的視覺解釋,反向傳播時保留了梯度與激活值均為正的部分,生成顯著圖。

(2)效應分析解釋模塊

該模塊由PDP、ICE與ALE等組件組成。PDP算法組件可以顯示特征對機器學習模型的預測結果的邊際效應,顯示結果與特征之間的復雜關系;ICE算法組件可以顯示特征更改時實例的預測如何改變;ALE算法組件可以顯示特征平均對機器學習模型預測的影響。

(3)參數可解釋模塊

該模塊通過對模型中參數的解讀來幫助用戶更好地理解模型,由模型參數解釋組件與超參解釋組件組成。模型參數解釋組件會對參數意義進行說明,并對模型調參依據的原因進行解釋,例如,在決策樹模型中,對決策樹中每一個節點的劃分邏輯進行說明,解釋決策路徑的形成邏輯;超參解釋組件會說明超參數的意義和超參調整的邏輯要求。比如,再隨機森林算法需要對n_estimators超參進行解釋,該參數代表決策樹數量,在一定范圍內,提高樹的數量有助于提升模型性能,但達到一定數量后,性能會保持穩定,提升的空間程度較小,同時增加該參數會增加模型的計算量。

1.1.5 結果可解釋模組

結果可解釋模組可以對模型的決策結果進行解釋。一方面,可以對模型做的具體決策進行解釋;另一方面,可以對模型決策的有效性進行說明,幫助相關方了解模型具體決策的可信程度。需要注意的是,在使用結果可解釋模組時要注意數據分布外(out of distribution,OOD)問題,即當分析的目標樣本與模型使用的訓練數據存在偏倚時,結果可解釋模組的結果不再是可信任的。因此,在使用結果可解釋模組之前,需要對模型樣本及待分析樣本做分布分層分析。結果可解釋模組由基于樣本擾動的特征歸因解釋模塊與基于檢驗結果有效性解釋模塊組成,具體組成如下。

(1)基于樣本擾動的特征歸因解釋模塊

該模塊通過觀察對輸入進行擾動后模型預測的變化,對模型對該樣本的決策進行特征歸因。該模組由LIME[8]、SHAP[31]等算法組件組成。LIME組件基于想要解釋的預測值及其附近的樣本構建局部的線性模型或其他代理模型。SHAP是基于博弈論思想的一種黑盒模型事后歸因解釋方法,通過將模型的預測解釋分解為每個特征的貢獻,計算每個特征的夏普利值(Shapely value),從而了解每個特征對最終決策的貢獻度。

(2)基于檢驗結果有效性解釋模塊

該模塊評估估計值與總體參數的合理誤差,以概率的形式量化結果的有效性。常用的衡量方法包括P值方法、F檢驗、T檢驗以及卡方分析等。

通過原理性解釋模組、結果可解釋模組、數據可解釋模組、過程可解釋模組、模型可解釋模組的協作,框架具備了原子解釋能力,這些原子解釋將作為后續環節的輸入,為XAI的工程化落地提供解釋基礎。

1.2 XAI核心能力層

XAI核心能力層在基礎能力層之上對原子解釋進行進一步的處理,提供XAI工程化落地的核心能力?;A能力層的原子解釋通常存在主客觀評價不一致問題、解釋缺乏客觀性問題[32]、解釋的合規程度問題、對同一事件產生多個“真實”解釋的羅生門問題[21]等。這些問題導致了原子解釋的“有效性”與“可用性”存在著先天不足,這也是XAI難以商用落地的主因之一。

XAI核心能力層的目標是解決上述問題,提供“有效”且“可用”的解釋?!坝行А敝傅氖菍ν粏栴}的不同視角的解釋能夠保持一致,“可用”指的是解釋能夠適應AI應用場景需要,滿足場景中不同角色的解釋需求。如圖3所示,XAI核心能力層由知識圖譜(knowledge graph,KG)庫、合規性歸因模組、認知性歸因模組、一致性模組、反事實歸因模組與實驗性歸因模組組成。KG庫為原子解釋提供了世界知識的支撐,世界知識指的是世界上發生的一些真實事件,包含主客觀知識,通常分為事實型知識及常識性知識。合規性歸因保證歸因的結果合乎法律規定,認知性歸因確保歸因的結果與用戶的客觀評價保持一致。一致性模組針對羅生門問題,可以保持對同一事件產生的多個解釋的一致性。反事實歸因保證歸因的結果經得起假設場景的驗證。

圖3 XAI 核心能力層

1.2.1 KG庫

KG庫是結構化的語義知識庫,在XAI領域用來存儲并提供定律、法規、案例、評價、專家知識等方面的現有知識。其中定律知識泛指當前公認或受到廣泛認同的客觀定律,如物理定律、化學公式等;法規知識庫指從現行的法律法規中抽取出來的知識,不同應用領域的法規知識庫各不相同,且具有很強的時效性;案例知識是從具體案例中抽取出來的知識,是對法規庫的有力補充,也需要跟隨法規庫的變動進行更新;評論庫包含從各種交互渠道中提取出來的知識,比如用戶評價、評分表等,這些包含人們對客觀事物的感受、理解以及思考的評價結果,有一定的認知合理性,可以作為重要依據輔助優化XAI的解釋結果。這些知識以三元組等形式存儲在KG庫中,便于XAI核心能力層的其他組件使用。KG庫模組由定律庫、法規庫、案例庫與評論庫等模塊組成,具體介紹如下。

(1)定律庫

定律庫提供各領域的客觀知識,而客觀知識的融合可以使XAI解釋結果更加可靠。定律庫中的知識來源于不同的領域,可根據應用場景、用戶行為等上下文信息選擇合適的領域知識,從而提供多維度、有邏輯的解釋。以基于神經網絡的嵌入向量(embedding)構建的個性化推薦系統的可解釋性為例,引入商品知識來尋找推薦的可解釋路徑。例如,引入類似WordNet[33]中的物品層級來解釋給客戶推薦薩摩耶犬的原因,客戶瀏覽過哈士奇與阿拉斯加的相關信息,因此給客戶推薦了同為工作犬的薩摩耶犬。引入定律庫使解釋更加符合客觀定律及通用常識。

(2)法規庫

該模塊可以從各領域內的法律規范條文中提取相關知識,例如,從法律文本中提取出類似于(人員甲,提供辯護,人員乙)、(檢察院,起訴,人員丙)的三元組,供合規性解釋生成、合規性檢驗等模塊使用。合規性的要求在強監管領域更重要。法規庫的難點在于實時更新,需要投入人力構建自動化流程,監控領域內的法規變化,自動抽取最新的法規知識并結合人工監督形成確實可用的法規庫。

(3)案例庫

該模塊是對法規庫的補充,法規庫提供的法規知識通常缺乏細節,在生成細粒度的解釋時,需要使用案例庫中的知識進行細節補充。案例庫的難點有兩個:一是時效性,需要與法規庫保持一致;二是解讀方式,不同的解讀方式會提取出不同的領域知識,需要借助領域專家的經驗提取出正確的案例知識。

(4)評論庫

該模塊在提供者與接收者之間形成交流閉環,保證最終生成的解釋與用戶的需求一致。解釋接收者來源廣泛,可以為解釋提供多視角、多模態的評價。解釋接收者的滿意度也是XAI的重要目標,可以從客戶的評價中抽取知識作為解釋的一個優化標準。

1.2.2 合規性歸因模組

合規性歸因模組的作用是保證解釋符合倫理法規要求。具體來說,該模組可以將KG庫中的合規性知識(如法規庫知識、案例庫知識)作用在原子解釋上,有兩種作用方式:一是在解釋的生成階段引入合規性知識,生成原生性的合規解釋;二是在解釋生成后,基于合規性知識對解釋進行篩選,挑選出最優的合規解釋。合規性歸因模組由合規性解釋生成模塊與解釋合規性檢驗模塊組成,具體介紹如下。

(1)合規性解釋生成模塊

該模塊在解釋的生成階段引入合規性知識,通過在解釋生成之前或過程中注入合規性知識,保證生成的解釋能夠符合法律法規的要求。例如,在信貸審批業務中,存在“年齡小于18,則不能貸款”這一合規性規則,在遇到未成年申請貸款時,優先基于該規則給出拒絕放款的解釋。

(2)解釋合規性檢驗模塊

該模塊在解釋結果已經生成的情況下,使用KG庫中的合規性知識對解釋結果進行進一步的篩選,去除不合規范的解釋,挑選符合場景需要的合規解釋。例如,在解釋推薦貸款產品的原因時,“因為用戶為女性,所以推薦了該信用貸產品”這一原子解釋與“男女平等”的合規知識相沖突,因此該原子解釋被去除。

1.2.3 認知性歸因模組

認知性歸因模組可以讓用戶參與解釋的生成過程[34],使解釋盡可能滿足人們的可解釋性需求[35]。認知性歸因模組使用的知識來源于KG庫中的評論庫,可以通過語義解析、關系提取、主體匹配等技術,從評論庫提取出認知性知識,進一步構建認知性的歸因解釋。同時,認知歸因模組可以基于認知性知識對原子解釋進行評估,預測解釋接收者對該解釋的認可程度。此外,認知歸因模組還可以基于用戶畫像生成該用戶最易接受的解釋內容。認知歸因模組由認知性知識解析模塊、認知性歸因解釋生成模塊、認知性解釋選擇模塊、個性化解釋生成模塊組成,具體介紹如下。

(1)認知性知識解析模塊

該模塊由語義解析、關系提取、實體匹配3個組件組成。語義解析組件對評論庫中的評論進行分析,得到評論的邏輯表示;關系提取組件從文本中抽取兩個或多個實體之間的語義關系;實體匹配組件從文本提取的所有實體中找出所有相同實體。通過3個組件的協同工作,該模塊提取出評論中包含的知識,構建并更新評論知識圖譜,是該模組中的其他模塊的認知性知識基礎。

(2)認知性歸因解釋生成模塊

該模塊基于與用戶的交互信息生成解釋,保證生成的解釋符合用戶的解釋要求。用戶對歷史解釋的評價保存在評價庫中,通過認知性知識解析模塊抽取用戶評價,形成當前領域的評價知識圖譜。由于知識圖譜本身具有一定的可解釋性,可以結合評價知識圖譜中的路徑來解釋模型的決策,這樣生成的認知性歸因解釋不會偏離用戶的解釋要求。

(3)認知性解釋選擇模塊

該模塊可以過濾不符合用戶解釋要求的解釋結果,可以應用于認知性歸因解釋生成模塊生成的解釋,也可以應用于其他模塊生成的普通解釋。通過分析評論庫中的歷史交互信息,該模塊可以統計出用戶解釋要求中的重要因素,然后過濾掉缺乏這些因素的解釋,得到符合用戶解釋要求的解釋。

(4)個性化解釋生成模塊

該模塊對認知性解釋選擇組件進行了增強,由于最終用戶的背景、偏好不同,最終用戶對同樣的解釋的滿意度也不盡相同。該模塊通過對最終用戶歷史評價信息的分析,統計該用戶對解釋的偏好,在篩選生成后的解釋時,優先選擇符合該用戶偏好的解釋,這樣能有效提升用戶對解釋的滿意度。

1.2.4 一致性模組

一致性模組主要是解決XAI解釋結果的羅生門問題的模組。該模組除了包含集成方法、交互式解釋和基于變量的模型選擇策略等傳統羅生門問題的解決方法,還加入了自動回路、多模輔助、在線對比學習等新方法,這些新方法彌補了傳統方法適用范圍不廣泛、解決問題不徹底等缺陷,可以更好地解決羅生門問題。具體介紹如下。

(1)集成方法模塊

該模塊使用Bagging算法讓羅生門集合中的所有模型共同表決測試樣例的輸出[36]。以Bagging方式聚合羅生門集合中的大量競爭模型,或者說對羅生門集合中的差異性進行平均,可以在一定程度上提高穩定性和準確性,減少非唯一性。雖然集成方法可以在一定程度上緩解羅生門問題,但并沒有從根本上解決羅生門問題。

(2)交互式方法模塊

現有的交互式模型選擇方法包含全自動、半自動和人工選擇等方式。交互式方法結合了降維、線性加權與用戶的連續反饋,從羅生門集中選擇出備擇的最優解釋。通過用戶的連續反饋,可以在不斷變化的環境中持續改進模型預測[37],在復雜多變的羅生門問題中不斷精進最佳選擇。交互式方法通過引入用戶反饋提高了效率以及用戶對XAI決策的信任度,但該方法也存在一定的局限性,比如使用范圍較為局限,大部分現有的交互式模型選擇方法的搜索空間為整個假設空間,而非羅生門集合。

(3)基于變量的模型選擇策略模塊

該模塊可以得到不同變量對不同方案的重要程度以及不同變量之間的依賴程度和影響,因此,可以根據實際情況選擇最合適的解決方案?;谧兞康哪P瓦x擇策略可以進一步提高模型的可解釋性,在一定程度上揭示了變量與模型的關系以及變量之間的關系,幫助用戶做出決策。但是該方法的使用范圍也具有一定的局限性,對某些對變量要求不高的模型分辨能力較差。

(4)自動回路方法模塊

該模塊將XAI目標的求解過程轉化為基于假設及檢驗的探索實證處理過程,使得解釋結果的準確性、適用性更高,同時增加了用戶對解釋結果的信任程度。具體來說,該模塊將人類的理性認知作為原始解釋結果的一種類型,自動化地從數據、經驗、模型和認知評價4個方向對原始解釋進行擴增處理,得到更全面的解空間。然后,通過圖結構校驗方法對不確定解釋結果進行結構化,使其符合正常的推理邏輯。接著,對結構圖中的不可直接觀測的變量進行自動化指代替換,從而對解釋中的因果關系進行代理驗證。最后,對解釋結果進行進一步的解析,并通過自動化的方式對待檢驗的“因果對”進行實證檢驗,引入了人類對解釋結果的理性評判,輸出具有置信度、推理結構、實證支撐的解釋性結果,使結果更準確、可靠、可信。

(5)多模輔助方法模塊

該模塊通過數據、經驗常識、人類認知等多維度輔助信息來解決XAI的羅生門問題。在XAI模型學習的過程中,能夠同時支持數據面、經驗知識面、人類認知面的多維度數據輸入,并根據輔助學習的優化需求,在模型學習過程中提取數據統計面、經驗知識面、人類認知面的解釋結果的共因,使XAI解釋結果既符合人類決策優化的常理,又兼備邏輯完備性,實現內在的一致性。

(6)在線對比學習方法模塊

該模塊針對XAI技術落地實施過程中出現的不一致性問題,根據實際情況選擇不同類型的在線學習方法,然后以孿生學習的形式對多個比對結果的一致性進行考察,經過多輪在線學習對XAI模型進行優化,實現所有比對結果的最終一致性。

1.2.5 反事實歸因模組

反事實歸因模組通過反事實方法提升解釋的泛化能力。反事實就是對實驗組中的研究對象實施不同的干預,從而得到不同干預對應的潛在反事實結果,在潛在結果比較的基礎之上,可對因子的影響進行分析,對已有的結果進行歸因性解釋。反事實解釋通常具有很強的因果性,因此基于解釋結果還可以進一步執行反事實推理。該模組由反事實生成、反事實推理與反事實解釋組件組成,具體組成如下。

(1)反事實生成模塊

該模塊可以基于干預方式生成反事實結果(潛在結果),還可以通過反事實樣本生成消除數據集的偏差,幫助提升模型泛化能力,消除模型中的偏見[38]。

(2)反事實推理模塊

反事實推理是一種特殊的因果推理方法[39],通過未發生的條件來推理可能的結果??梢蕴鎿Q不真實的條件或可能性并進行因果推理,反事實推理組件可以輔助打開模型黑盒,對AI模型進行更深入的探索[40]。

(3)反事實解釋模塊

該模塊可以回答“如果輸入的特征發生了某種特定變化之后,輸出的結果將如何變化”這一問題,并在特征和預測結果之間建立因果關系,幫助確定對模型的決策具有因果關系的特征,解釋模型的決策過程。

1.2.6 實驗性歸因模組

實驗性歸因模組通過對照實驗給出解釋結果,可以在客觀狀態下以及在排除其他自變量干擾的條件下,操控一個或多個假定有關的自變量,并觀測其對某些因變量的效應差。具體介紹如下。

對照試驗模塊進行隨機對照實驗的增強型測試,可以同步進行多組堆疊性測試,實施形式可以為A/B測試[41]、藍綠部署[42]、冠軍/挑戰者試驗[43]等。測試在不同干預情況下某一個變量產生的效應差異,基于效應差異分析造成不同結果的原因。例如,A/B測試通過對比只有一個變量不同的兩個版本的表現來研究該變量的作用以及影響,其中版本A可能是當前正在使用的版本,而版本B是改進版,通過比較版本A、B的使用效果差異來確定測試變量的改進方向。

X A I核心能力層是X A I 工程化落地核心能力的提供者,是XAI工程化落地的最重要環節。XAI核心能力層使解釋主客觀一致、合規合理,與XAI業務中各角色的核心要求保持一致,符合用戶解釋要求等。

1.3 XAI業務組件層

X A I 業務組件層是連接X A I核心技術能力與X A I應用實施落地的紐帶,提供了XAI應用開發必需的業務能力組件。XAI 業務組件層主要解決了XAI應用落地的表達、展示和與AI Pipeline結合3個問題。

如圖4所示,XAI業務組件層由XAI表征模組、XAI展示模組、Pipeline嵌入模組組成。其中,XAI表征模組負責解決XAI解釋結果表達的問題;XAI展示模組負責解決XAI解釋結果如何在具體應用中展示的問題;Pipeline嵌入模組負責將XAI能力嵌入AI應用的Pipeline中,為傳統AI應用賦予可解釋能力,增強AI應用的可信可理解程度。3個組件相互協作,完成XAI技術的業務流程。

圖4 XAI 業務組件層

雖然AI應用開發者設計了算法模型,但通常不了解某個參數的權重以及產生某個結果的原因。AI應用開發者、XAI系統使用者、XAI最終用戶、監管者等不同角色的知識背景、對可解釋的要求并不相同,因此,需要使用不同的表征方式來呈現XAI解釋結果。開發者需要借助可解釋性技術來充分理解AI系統,及時發現、分析、修正缺陷;XAI的最終用戶需要理解AI系統的內在決策過程,從而提高對AI系統的信任程度;監管者更看重XAI技術對AI應用監管效率的提升。由于這些不同角色的需求各不相同,知識背景也參差不齊,需要使用不同的表征方式來呈現XAI解釋結果。

1.3.1 XAI表征模組

XAI表征模組由歸因式表達、溯因式表達、規則式表達、反事實表達與過程式表達模塊組成,可以為各角色提供最合適的解釋表征形式,具體介紹如下。

(1)歸因式表達模塊

該模塊負責將AI模型的輸出結果歸因到模型輸入的具體特征或特征組合,同時采用特征權重來解釋特征或特征組合對模型決策結果的影響。根據歸因方式的不同,歸因式表達模塊可分為統計歸因子模塊、認知歸因子模塊與因果歸因子模塊,其中統計歸因通過統計變量與推理結果之間的相關關系來完成相關性歸因;認知歸因將模型的推理結果與人類的認知習慣相結合,計算來源于主觀評價或知識庫的認知因素與推理結果之間的相關關系,從而完成認知性歸因;因果歸因采用因果分析方法,分析特征與推理結果之間的因果關系,從而完成因果性歸因。

(2)溯因式表達模塊

該模塊用來對溯因式解釋進行表達,溯因式解釋從結果出發,推測出事件發生的原因,通常是基于特征之間的因果關系,生成特征的影響鏈,可以通過對故障或決策的溯因,找到故障或決策的根本原因。通常來說,可以使用DAG圖來完成溯因式表達。

(3)規則式表達模塊

該模塊可以將解釋結果表達為類似于“if … then …”形式的規則。規則類知識符合人類認知規律,是人類容易理解的知識形式之一。規則類知識主要來源于專家知識積累,也可以使用DeepRED等算法從模型中抽取,最終得到的規則類知識存儲在KG庫中。

(4)反事實表達模塊

該模塊通過反事實的形式來表達解釋,通過潛在結果模型,研究特定干預下模型的潛在結果,在特征和預測結果之間建立因果關系,從而幫助XAI用戶更好地理解模型。

(5)過程式表達模塊

該模塊通過展示全流程的過程狀態來解釋AI應用,幫助最終用戶理解模型的決策原因,這種解釋方法的理解具有一定的知識門檻,更適合具有一定專業背景的專業人士。

1.3.2 XAI展示模組

XAI展示模組由展示能力與交互模擬組成,負責展示XAI解釋結果,具體介紹如下。

(1)展示能力模塊

該模塊提供各種解釋的展示能力,可以選擇靜態展示、動態展示等展示模式,也可以選擇圖文或模板式等展示方式。靜態展示組件可以對原理展示模塊中的知識進行靜態展示,也可以借助Matplotlib等繪圖模塊對數據集、模型、模型結果進行圖表展示,如數據特征與標簽的因果圖展示等;動態展示組件使用預錄制好的視頻資料、動態頁面等方式,為用戶提供算法原理的動態演示,例如邏輯回歸算法原理演示視頻、圖形化的GRS檢驗物理意義展示等。在展示方式上,可以使用圖像或文字的方式對解釋結果進行展示,更進一步地,還可以使用模板式展示方式,將可解釋輸出嵌入事先準備好的可解釋模板。使用模版生成的解釋可以復用過去的經驗,減少了生成難度,同時,模版化的解釋可以與業務相結合,便于最終用戶的理解。

(2)交互模擬模塊

該模塊由原理模擬器與算法探索組件組成,為用戶提供一種模擬驗證、交互探索的方式。交互可以讓解釋易于理解,讓最終用戶理解原理時感覺更加方便、容易,更高效地完成原理學習,達成預期目標。原理模擬器子模塊向用戶提供算法的模擬數據、模擬邏輯和交互接口等,在交互過程中向用戶提供算法的原理性解釋。例如,使用者通過主動操作、知識問答等方式與XGBoost等算法運行原理的示例進行互動,從而加深對算法原理的理解;算法探索組件借助架構提供的交互式算法模板,組件中的各類數據探索方法可以在交互過程中幫助用戶完成數據分布、異常值等探索,多模塊組合探索功能可以幫助用戶完成對算法中各模塊組合效率的探索,幫助用戶設計出最合適的算法流程。例如,通過模塊中的引導步驟,引導用戶探索不同的特征工程對模型結果的影響,輔助用戶完成算法構建過程中的各種探索。

1.3.3 Pipeline嵌入模組

Pipeline嵌入模組由特征可解釋模塊、設計可解釋模塊、模型學習可解釋模塊、模型推理可解釋模塊、XAI評價模塊、合規監管可解釋模塊組成,覆蓋了AI應用的整個生命周期,其目標是將XAI與現有AI Pipeline進行融合。傳統AI應用已經形成了比較成熟完善的AI應用流程,XAI的工程化落地應該在不影響原有AI應用的前提下,盡可能提供更高的附加價值,將傳統AI應用升級為可信可解釋AI應用。具體介紹如下。

(1)特征可解釋模塊

該模塊將特征相關的XAI基礎能力層與核心層中的模塊嵌入AI流程中。以研發過程中數據探索過程為例,該模塊將XAI基礎能力層中的數據可解釋模組嵌入當前的流程中。當研發人員在平臺上進行特征工程時,數據可解釋模組不但不會影響原有的特征層工程流程,還可以通過因果性解釋模塊幫助研發人員發現數據中的因果關系,更好地完成特征工程工作。

(2)設計可解釋模塊

該模塊應用于AI Pipeline的算法設計、模型工程設計階段,一方面,XAI可以應用于單個算法的設計,例如基于XAI基礎能力層中的模型可解釋模組,輔助開發人員更科學地設計出有理論依據的模型;另一方面,在模型編排設計過程中,同步提供模型編排設計的原理性解釋,幫助設計者完成更合理的多模型系統性設計。此模塊可以幫助開發者、用戶以及管理者從設計原理層面更科學地開展研發、使用、監管等相關工作。

(3)模型學習可解釋模塊

該模塊將XAI應用嵌入模型訓練階段以提升模型的質量與效率。借助該模塊,可以在模型訓練過程中嵌入過程可解釋模塊,通過計算圖可視化、卷積層可視化、梯度可視化等組件了解模型訓練的狀態;也可以在模型訓練中嵌入模型可解釋模組,借助參數可解釋模塊解釋參數、完成參數的選擇,借助顯著性解釋與效應分析解釋模塊對模型進行可解釋性分析,判斷得到的模型是否可靠、可信;也可以在模型訓練過程中加入反事實歸因模組,提高模型的魯棒性。

(4)模型推理可解釋模塊

該模塊在模型推理階段對XAI技術進行編排。在模型推理階段,除了借助LIME、SHAP等樣本擾動方式對樣本推理結果進行解釋之外,還需要注意引入XAI核心能力層中的一致性模組、KG庫等模組,解決解釋的羅生門問題、主客觀不一致問題等。以推薦系統的推薦結果解釋為例,該模塊可以將結果可解釋模塊嵌入推薦結果生成的流程中,生成解釋結果,與推薦結果一起提供給最終用戶,還需要在流程中嵌入認知性歸因模組與KG庫,提取用戶對推薦解釋的評價中的知識,并存儲在KG庫中。

(5)XAI評價模塊

該模塊負責對生成的解釋進行評價,AI應用中各角色的需求并不相同,對XAI評價也各有側重,因此,需要多種評價方法對解釋的好壞進行評估。該模塊由技術級評估、用戶級評估與系統級評估3個組件組成。

技術級評估組件由效率指標、質量指標、交互性指標、性能指標與效能指標子組件組成。效率指標評估系統給出解釋的速度。質量指標關注評價的質量,考量不同的解釋形式表達的充分性,如可視化程度、文字描述的可讀性、復雜性等,在解釋的內容部分會考量解釋的透明度和完備性等。交互性指標考察解釋是否滿足之前的問題解決建議、是否具有可修正性等。性能指標考量解釋的準確性、穩定性、可比較性等。效能指標考察解釋對問題解決的幫助程度、人工干預程度和異常事件發現能力等。

用戶級評估組件由解釋滿意度、解釋優良性與信任評估子組件組成。解釋滿意度指的是解釋的接收方對解釋的滿意程度,需要在生成解釋后,收集解釋的接收者對解釋的滿意程度,并根據結果對解釋結果進行調整,提高最終生成的解釋的質量。解釋優良性是指框架內部對生成的解釋的評價,需要在內部形成解釋優良性的評價標準,該標準需要考慮到客戶滿意度、資源消耗、生成效率、專業度等多種客觀指標,并通過權重調整來完成對不同場景的適配。信任評估指的是給出解釋后,解釋接收者對該解釋結果的信任程度,需要在收集的最終用戶對解釋結果的信任程度的基礎上形成一個評估預測系統,對解釋結果進行過濾,只保留信任評估得分較高的解釋。

系統級評估由整體公平性與整體合規性兩個子組件組成。整體公平性子組件負責判斷系統行為是否違反公平性標準,針對具體的AI應用,設計出專用的公平算法,例如使用機會均等的公平標準,判斷系統最近有無針對老年人的歧視行為發生等。整體合規性子組件負責提供判斷系統行為是否違反相關法律法規的標準,需要對AI應用可能涉及的法律法規及倫理問題進行事前、事中及事后結果的監管。

(6)合規監管可解釋模塊

該模塊從模型、事件、系統3個層面對AI系統進行合規監管,引入XAI技術,實現AI決策可解釋、事件可追溯、責任可定位,行為符合法律法規的監管要求。模型級合規監管追蹤模型內部的決策過程,并對決策結果進行解釋;事件級合規監管在異常事件發生后對該事件的全流程進行回溯,通過將問題的原因定位到具體的子流程來對異常事件的追溯進行細化;系統級的合規監管需要對AI系統的整體行為進行實時監控及周期性復盤,通過XAI等技術對違規行為進行預警與處理。該模塊的目標是通過這3個層面的合規監管的協作,建立合法合規、公平公正、行為可解釋、結果可追溯的可靠、可控、可信的AI系統。

XAI業務組件層為XAI業務應用開發提供技術支撐,關注XAI的表征、展示以及與傳統AI業務的融合,以Pipeline無縫嵌入的方式為XAI的實施落地提供便利,提高了XAI工程化落地的效率。

1.4 XAI應用層

基于XAI能力組件及業務組件,可以實現豐富新穎的可信AI應用。如圖5所示,XAI應用層包括可解釋圖計算系統、可信可解釋AI學習平臺、可信AI算法管理平臺、可解釋推薦系統、可解釋溯因系統、異常事件追溯系統、AI合規監管系統、AI決策風險控制系統等。

圖5 XAI 應用層

XAI應用層中的不同組件可以滿足各相關方的不同需求,如可信可解釋AI學習平臺可以幫助平臺開發者對研發過程中的模型進行解釋,提升模型研發的效率;異常事件追溯系統可以幫助業務運營者追溯業務運行過程中的異常,快速定位業務問題,異常事件追溯系統和AI合規監管系統可以幫助監管者判斷AI平臺在可解釋過程中的行為是否合規,并對違規的行為進行溯源定責;可解釋推薦系統可以幫助最終用戶獲取AI系統生成推薦的具體原因,提升用戶滿意度。

可解釋圖計算系統引入KG庫等外部知識來輔助解釋圖計算系統的決策行為??尚臕I算法管理平臺通過XAI實現算法透明性、公平性、安全性的評估及管理,進一步打造雙向透明可信的算法或模型交易市場??尚趴山忉孉I學習平臺是對傳統AI訓練平臺的增強,實現了AI模型學習全流程的透明可信,做到數據集管理、算法設計、模型學習、模型優化、模型測試全流程的可解釋。

可解釋推薦系統在提供推薦結果的同時,提供推薦的依據及原因,可以提升推薦系統的透明度,提升用戶對推薦系統的信任度、接受度及滿意度??山忉屗菀蛳到y的作用是提供模型、系統、事件級的溯因分析,實現AI行為可解釋、事件可追溯。異常事件追溯系統可以提供針對異常事件的檢測、發現、診斷、溯因等應用能力。類似地,基于XAI對AI系統過程及決策結果的解釋能力,AI決策風險控制系統可以對OOD、對抗樣本等問題進行主動管理,AI合規監管系統可以判斷AI系統是否存在違反倫理道德、法律法規的行為。這些場景僅僅是XAI應用的一小部分,相信隨著XAI技術的發展及深入應用,XAI會在更多的領域開花結果。

2 應用案例

Transwarp Sophon-XAI是星環信息科技(上海)股份有限公司打造的可信可解釋AI套件,在Sophon人工智能平臺中的位置如圖6所示。

圖6 Sophon 架構

Sophon是一款集數據處理、模型加工、線上監控以及數據分析為一體的人工智能基礎平臺,可以幫助用戶快速構建最適應場景的解決方案,完成從特征工程、模型訓練到模型上線和維護的機器學習全生命周期。SophonXAI遵循本文提出的通用XAI架構,完全滿足XAI工程落地的實際需要,已率先在業界進行實施推廣。

以Sophon XAI在某銀行信貸風控項目的實施為例。在引入SophonXAI前,該銀行經常收到貸款用戶投訴,客戶滿意度在82%左右,投訴主要針對系統給出的信用等級評分解釋。調研后發現,由于現有的黑盒客戶信用評分模型缺乏透明性,通常采用原始的相關性分析方法給出一個籠統的解釋,當用戶需要進一步的詳細解釋時,需要人工審查才能給出用戶較為滿意的解答,整個過程大約需要1~2小時。整體來說,現有系統解釋的質量較低,給出解釋的效率較低,需要引入新方法解決此問題。

為了解決上述問題,在原項目中引入SophonXAI組件,最終形成了如圖7所示的系統架構。首先,在算法庫中引入結果可解釋模塊,并采用KernelShap方法進行客戶授信評分分析,從而得到初始的原子解釋。其次,引入XAI核心能力層對原子解釋進行增強,引入合規性歸因模塊保證解釋結果的合規,并通過存儲經驗知識的KG庫、認知歸因模塊對解釋進行迭代增強,保證解釋結果與最終用戶的要求相一致。然后,借助XAI表征模塊中的豐富解釋表征形式,幫助客戶更好地接受解釋結果,最終有效提升了解釋的質量,大大減少了用戶的投訴。最后,在管理層中引入Pipeline嵌入組件,將XAI嵌入原AI業務中,形成自動化流程,降低了人工干預的必要性。通過這些嘗試,客戶滿意度提高到94%,解釋生成的時間也縮短到2 min之內。SophonXAI的引入解決了原有項目中解釋質量差、生成效率低的問題,該案例可以為XAI在行業應用提供一定的參考。

圖7 改造后系統架構

3 結束語

人工智能已進入社會生活的各個領域,但其不透明性阻礙了AI技術在敏感領域的推廣及應用,XAI技術滿足了AI產業生態不同角色打開模型黑盒的期望,為建設可信AI生態提供了有力的實現路徑。本文率先提出了一種通用的XAI架構,并在產業界進行了實踐與落地,這是筆者對如何打造一個端到端的、可實施的XAI架構的思考、探索與實踐。XAI的發展任重而道遠,由于知識水平的局限,本文尚存在一些考慮不周的地方,比如從復雜系統理論[44]審視XAI、數據分布或上下文背景差異對XAI的影響等,但隨著XAI研究的不斷深入、新方法新技術的提出,XAI架構也會越來越完善,為打造下一代AI系統的建設貢獻力量。

猜你喜歡
歸因模組組件
錯解歸因 尋根溯源
無人機智能巡檢在光伏電站組件診斷中的應用
新型碎邊剪刀盤組件
U盾外殼組件注塑模具設計
光學薄膜技術及在背光模組中的應用研究
淺談石墨烯材料在LED路燈模組中的應用及該模組的設計
積極歸因方式:當船漏水了
初中數學學習中教師歸因與學生自我歸因的比較研究
關于超薄LED背光模組設計探討
風起新一代光伏組件膜層:SSG納米自清潔膜層
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合