?

聯邦學習的公平性研究綜述

2024-02-13 15:11朱智韜司世景王健宗程寧孔令煒黃章成肖京
大數據 2024年1期
關鍵詞:公平性聯邦貢獻

朱智韜,司世景,王健宗,程寧,孔令煒,黃章成,肖京

1. 平安科技(深圳)有限公司,廣東 深圳 518063;2. 中國科學技術大學,安徽 合肥 230026

0 引言

由于現實世界中諸多政府法規及行業公約的限制,許多數據集本質上是分散的,傳統的機器學習方法難以突破數據實體間的重重阻隔將數據樣本聚集到一個中央存儲庫中,因此學習能力通常受到單一數據持有方的限制。作為一種新興的分布式機器學習框架,聯邦學習(federated learning,FL)允許多個用戶協作訓練一個共享的全局模型,而無須將數據從本地設備集中至中心化存儲器,保證了數據的隱私性與安全性[1]。

聯邦學習以全局模型的精度或收斂速度為優化考量,這一原則有利于那些能夠快速響應或有助于提高最終模型性能的客戶,但是使弱勢用戶無法得到契合本地數據的全局模型,損害了全局模型的泛化性能。這類由訓練過程中的偏倚引起的問題,被稱為公平性問題,不公平的聯邦學習導致了全局模型對部分數據實體的實質性歧視,使得參與者無法平等享受到聯邦學習帶來的好處;不合理地分配了協同訓練的全局收益,嚴重損害了數據持有者的參與積極性;同時引入了對特定群體的偏見,會產生惡劣的社會影響。

現有文獻中關于聯邦學習公平性的綜述或偏向某一方面,如文獻[2-3]側重于對公平激勵機制的總結,文獻[4]側重于介紹實現公平性的技術手段;或僅機械套用傳統機器學習的公平性,未見有對聯邦學習公平性從產生原因到干涉環節再到方法分析的全面綜述。因此本文針對聯邦學習范式下可能產生的公平性問題進行分析,著重針對客戶端表現均衡、客戶端貢獻衡量、全局模型公平這3個方面的公平定義進行詳細說明,并有針對性地總結了相關研究的進展,旨在幫助有志于研究相關問題的學者快速了解當前研究現狀與富有發展可能的研究方向,以期對減輕聯邦學習中的不公平現象、促進聯邦學習進一步發展與普及提供一定的幫助。

1 聯邦學習公平性定義與分類方法

機器學習的公平性已經積累了相當多的研究[5-6],不同的公平性概念之間往往不具有可比性,因為它們服務于不同的設計目的或特定利益相關者群體?;仡櫣铰摪顚W習系統提出的背景動機:①聯邦學習生態系統的可持續發展要求不打擊參與者的積極性;②聯邦學習的許多參與者是自利的,要求獲得激勵;③社會倫理要求部署的模型要求不歧視某些個人或群體。

從上述不同的公平性動機出發,本文依據公平性的優化目標將現有的聯邦學習中的公平性概念在表1中總結為3類,通過闡述它們的動機與利益相關者來說明它們各自如何服務于不同的聯邦學習改善方向。其中,對于前兩個動機,初始的聯邦學習設置遵循的是過程公平:各方根據數據量、計算力、網絡質量等條件獲得相應的參與機會與聚合權重,最終獲得同一全局模型[7]。但現實中各方客戶端出于自身利益考慮,往往更看重結果公平:弱勢客戶端要求全局模型在該方取得的效用不得顯著低于其他方,強勢客戶端則傾向于獲得與自己付出相匹配的模型效用或其他激勵。前者要求模型在客戶端之間表現均衡、不偏向某一數據方,筆者將相關公平指標總結為表現均衡公平性,并在后文具體闡述相關公平指標;后者則允許模型有表現差異的存在,但追求對各方貢獻的準確評估并用來指導后續利益分配,筆者將相關公平指標總結為貢獻評估公平性。針對第三個動機的實現則更加困難,需要跨越客戶端間阻隔,保證模型對分散于所有客戶端上的特定屬性樣本群體都沒有歧視,筆者將其總結為模型公平性。

表1 聯邦學習中的公平性目標分類及實現

2 表現均衡公平性

雖然聯邦學習已經證明了對保護用戶數據隱私的效力[74],但數據上的隔絕帶來的一個挑戰是統計異質性[57,75]——客戶端之間的數據分布可能表現出顯著差異,這種異質性決定了全局模型很難獲得所有客戶端上的最優性能,而只能趨近于集中訓練模型的最優性能[76]。因此,現實中的訓練結果往往受到數據強勢方的主導,訓練出的最終模型在數據強勢方表現良好,在少部分數據提供者處則表現不佳,這種對少部分數據提供方的歧視促使了業界提出基于客戶端間模型表現均衡的公平性。這種公平概念旨在通過測量模型在聯邦學習客戶端設備上的測試損失一致性程度來實現一致的模型效用,常用的衡量指標有測試損失(實際應用中可使用準確率、召回率等多種指標)的標準差與方差、基尼系數、Jain公平指數等。

(1)表現均衡公平性評價標準1——標準差

對于任意兩個模型w1與w2,比較二者在N個客戶端上的測試損失的標準差,若有,則可認為模型1w比2w更公平。

(2)表現均衡公平性評價標準2——基尼系數

對于任意兩個模型w1與w2,比較二者在N個客戶端上的測試損失的基尼系數,若有,則可認為模型1w比2w更公平,其中,。

(3)表現均衡公平性評價標準3——Jain公平指數

若將聯邦學習中的全局模型作為一種資源,其在N個參與者本地數據集上的準確率分布組成向量x,則其Jain公平指數(Jain’s Index)可由計算得到。

在明晰了評價標準之后,針對模型表現均衡公平性定義,如圖1所示,已經有一些工作分別從聯邦學習的3個環節入手加以解決:考慮客戶端選擇機制,關注掉隊的客戶端代表不足或從未代表的問題;考慮聚合更新環節,依照公平約束分配更新權重;考慮本地更新環節,訓練個性化本地模型以提升全體客戶端模型表現。本文在圖1中根據時間關系與演進情況對相關工作進行了整理,并在表2中從公平指標、優勢、局限性等因素逐個進行比較。

圖1 基于客戶端間表現均衡的公平性實現方法

表2 客戶端表現均衡方法的比較

2.1 基于客戶端選擇機制的表現均衡公平性

在聯邦學習的4個主要環節中,客戶端抽樣環節決定了客戶端在訓練中的參與度,從而決定了最終模型對不同數據的偏向程度?,F有的客戶端選取過程優化方法通常使用基于閾值的方法來過濾掉不合格的客戶端,例如針對傳輸速度、帶寬、本地精度等做出限制[8]。但這些方法有些是為了保證總收益的最大化(例如提高全局模型準確性),而忽略了部分FL客戶端的利益;有些是以最小化總交換時間為優化目標(如加快收斂速度),因此具有高計算能力和良好信道的設備有較高的優先級被選擇[77],這就導致條件較差的客戶端被剝奪了參與協作訓練的機會,也導致數據的多樣性與模型的泛化性無法得到保證。此外,我們希望選取出的客戶端能夠最大化地代表整體數據分布,但實際的客戶端選取過程中存在著3種不公平現象:過度代表;代表不足;忽略數據[4]。

為了減輕對計算能力較低或數據集較小的FL客戶端的偏見,Yang等人[9]研究了采樣約束的設計,以解決公平的客戶端選擇問題。他們將參與頻率考慮在內,允許不經常被選擇的客戶更頻繁地參與培訓。這種方法通過讓代表不足或從未代表過的客戶參與FL來促進公平。其具體做法考慮了利用-探索(exploit-explore,EE)問題,將聯邦學習的客戶端選擇問題描述為一個組合多臂老虎機(combinatorial multi-armed bandit,CMAB)問題,每只臂代表一個客戶,超級臂代表所有FL客戶的集合。超級臂的獎勵是參與的單臂獎勵的非線性組合。雖然經常被選中的客戶被認為更值得信任,并獲得更高的回報,但該方案也為不經常參與的客戶提供了加入FL的機會,以探索他們對FL模型訓練的貢獻。而在文獻[10]中,作者提出的RBCS-F算法引入了一個長期的公平約束來實現公平的FL客戶端選擇,即每個客戶端被選中的概率長期來看不能低于一個閾值。由于聯邦學習的客戶端選擇階段可以同時做多個選擇,并且每次選擇的報酬非固定而是服從線性的隨機公式,所以可以將客戶端選擇問題抽象為一個上下文組合多臂老虎機問題(contextual combinational multiarm bandit,C2MAB)。由于時間耦合的調度問題基本不可能線下求解,作者提出了一個基于Lyapunov理論的優化框架,將原來的離線長期優化問題轉化為在線優化問題,通過排隊動力學方法優化FL客戶的參與率。研究結果表明,由于更多的約束條件和更公平的FL客戶選擇策略使得更多客戶端有機會參與訓練,整體而言使用到的數據更多樣,可以提高最終的準確性,但會導致訓練效率上的犧牲。此外,針對聯邦多臂老虎機中客戶端抽樣與臂抽樣的區別,文獻[11]提出了一個通用的聯邦多臂老虎機框架,闡述了客戶端抽樣過程的不確定性。

盡管以上3項工作都考慮了優化參與頻率以促進FL客戶選擇的公平性,但許多其他重要因素(例如數據質量、培訓質量、等待時間等)并未被考慮在內。FedCS[8]考慮到了聯邦學習的設備異質性問題[79],認為一部分客戶端可能擁有更多數據但處于嚴重不良的通信條件下,簡單的設置等待時間閾值會導致網絡帶寬使用效率低下,并降低部分客戶端的代表性。因此FedCS在初始客戶端選擇階段要求隨機數量的客戶端告知運營商其資源信息(如無線信道狀態、是否有可用CPU和GPU、與任務相關的數據大小等),而后運營商確定哪些客戶端在一定期限內可以完成后續步驟(模型分發、更新及聚合),以估計分發與上傳更新步驟所需的時間。在此基礎上以接受盡可能多的客戶端更新為客戶端選擇的目標,達到綜合考慮客戶端機會公平和結果公平的目的。此外,考慮到網速較慢的客戶頻繁重傳可能會導致FL模型訓練的額外延遲,使得來自通信渠道較差的客戶的模型更新不太可能被聚合到最終的模型中,從而導致模型偏差,文獻[12]提出了一個可容損的FL框架——ThrowRightAway (TRA)。其主要思想是,網絡限制的挑戰在某些情況下可能被夸大了,丟包并不總是有害的[13]?;谶@個假設,TRA通過有意忽略一些數據包丟失來接納低帶寬設備的數據上傳,加速FL訓練。在選擇開始時,每個客戶端報告自身的網絡狀況,服務器根據報告將候選客戶分為充足組和不足組,然后不考慮所屬組地隨機選擇一些客戶端,并發送全局模型等待它們的更新。服務器檢測到丟包時,如果客戶端屬于充足組,則發送重傳通知,否則直接將丟失的數據設置為零,其余過程皆遵循經典的聯邦學習流程??蛻舳松蟼魍瓿珊?,TRA會根據丟包記錄重新計算聚合。結果表明,通過適當地與其他算法集成,TRA可以保證面對一定比例(10%~30%)的丟包時的個性化和公平性能。不過上述兩種方法的有效性在很大程度上依賴于客戶端的資源類型劃分情況,其使用到的兩種隱性假設(①FL客戶端能夠準確地評估自己的資源狀況;②客戶端總是誠實的)在實踐中可能無法滿足。

避免欠采樣客戶端代表不足的另一個思路是本地補償。Wang等人[14]提出了一種帶本地補償的新方法PRLC(pulling reduction with local compensate),它基于聯邦學習達成端到端的通信,主要思想是在每輪迭代中只有部分設備參與全局模型更新,不參與更新的設備通過PRLC在本地更新以減少與全局模型之間的差距。PRLC的收斂率被證明與強凸性和非凸性情況下的非壓縮方法一樣,并且有更好的拓展性。Hao等人[15]則對代表性不足的數據采用零樣本數據增強來減輕統計異質性。

2.2 基于客戶端間權重分配的表現均衡公平性

傳統的聯邦學習聚合更新環節根據服務器數據量來分配權重,這導致了模型偏倚對數據量偏倚產生繼承關系?;诖?,部分研究者探索了調整不同代表性客戶端的聚合權重來改進公平性的多種依據。文獻[16]通過關注性能最差的設備提出基于min-max損失函數的AFL方法,防止模型對任何特定客戶的過度擬合而犧牲其他客戶的利益來實現公平概念。作者認為,在標準橫向聯邦學習中采用的客戶分布,可能與每個客戶的目標分布不一致。因此,AFL算法著眼于訓練出一個權重分布,使得全局模型針對由各個客戶端分布聚合而成的任一目標分布進行優化,以最小化在所有可能的數據-標簽聯合分布中造成的最大期望損失。只要不增加性能最差客戶端的損失,就不會對其他客戶端的模型性能產生負面影響。但由于僅針對最差客戶的性能進行優化,AFL僅適用于小規模的客戶且缺乏靈活性。文獻[17]同樣關注性能最差的設備,但為了兼顧公平性和魯棒性,提出了FedMGDA+方法,將多目標優化推廣到聯邦學習場景下,通過修改參與者梯度合并的權重來改進聯邦模型公平性。FedMGDA+方法相比于聯邦平均更關注聯邦模型在全局損失的結果,因此會犧牲某個參與者的表現來提升全局結果,多目標優化更關心當前模型中所有參與者的結果,它使用帕累托穩定(Pareto-stationary)解決方案,為所有選定的客戶找到一個共同的下降方向(意味著任何參與用戶的目標函數都只能下降),以避免犧牲任何客戶的性能。此外,FedMGDA+還引入了兩種技術——梯度歸一化和受AFL中Chebyshev方法啟發的內置魯棒性方法,以增強對膨脹損失攻擊(inflated loss attack)的魯棒性。然而,如何準確識別惡意客戶端仍然是一個有待解決的問題。隨后Cui等人[18]提出了改進的多目標優化(multi-objective optimization)框架FCFL。FCFL使用了一個考慮所有客戶端優化目標的平滑代理最大值函數,而非僅考慮最差客戶端,由此使客戶端之間的性能更加一致。Li等人[19]同樣對AFL的公平性表現進行了改進,提出了q-FFL方法來賦予損失較高的客戶端數據更大的權重,實現了更均勻的精度分布。它將目標函數的加權平均更改為目標函數q+1次方項的加權平均,引入了一個新的參數q來重新衡量總損失,通過放大損失來增加損失高的客戶端的懲罰。與AFL相比,q-FFL更靈活,其可以通過調優q來調整公平程度。當q-FFL將q設置為一個較大的值時,其性能與AFL類似。但該方法無法提前確定最佳的參數q值來達到公平性和有效性的平衡,這個q值在不同數據集之間的差距巨大,且算法在本地數據異構較強時較難收斂。

針對q-FFL無法提前確定最佳參數的問題,田家會等人[20]提出了α-FedAvg算法,引入Jain’s指數和α-公平概念來研究FL模型公平性和有效性的平衡。該算法可以在保持FL模型整體性能不損失的情況下,有效減小各參與方準確率分布的方差,使準確率分布更均衡。與q-FFL相比,他們的方法更簡單,并且可通過算法在訓練之前確定參數α的取值,而不需要使用多個參數值訓練獲得全局模型后,驗證模型性能再從中選擇表現較好的參數值。Zhao等人[21]提出將q-FFL中的損失放大機制替換為簡單的權重再分配機制,通過為損失高的客戶端分配更大的權重來增加對這些客戶端的懲罰,減小了q值的調整難度。Sun等人[22]則提出PG-FFL方法,基于基尼系數定義了一種具有規模不變性特點的客戶端粒度公平概念,并引入一個基于強化學習算法的公平性調整插件,可以自適應學習客戶端聚合權重。與q-FFL相比,該方法的公平性插件可以用于各種算法,更具有普適性,但是由于強化學習優化較慢,訓練成本很高,文獻[23]則是通過經驗風險最小化調整設備的權重,以實現靈活的公平性/準確性權衡。

上述的AFL及其改進方法都假設參與者是誠實的,對于來自客戶端側膨脹損失攻擊的防御能力都不強,例如,如果客戶端惡意夸大其損失,可能會導致全局模型的性能下降[4]。對于這一問題,Rehman等人[24]提出將區塊鏈作為訓練網絡中分散的訓練實體,提出一個完全去中心化的跨設備FL系統TrustFed,使用以太坊區塊鏈和智能合約技術來實現去中心化,并維護諸多客戶端與服務器的信譽分數,將異常的設備剔除出模型聚合更新階段,防止惡意客戶端通過發起對抗性攻擊來串通和污染某些設備上的訓練模型,導致不公平地訓練出低質量的FL模型。文獻[25]同樣利用了區塊鏈的去中心化、難以篡改性以及智能合約的特點,利用區塊鏈的共識機制選擇信用值最高的區塊進行模型聚合,降低參數在傳輸過程中面臨的安全風險。

2.3 基于個性化本地模型的表現均衡公平性

導致FL中模型性能不均勻的根本原因是數據的異質性,因此在客戶端級別訓練個性化模型優于訓練全局模型[78]。Li等人[26]提出的FedProx允許每個客戶端根據其可用資源執行部分訓練。盡管這有助于減少系統異質性的負面影響,但大量的本地更新可能導致模型發散問題的產生,因此FedProx引入了一個由本地模型與全局模型之間距離平方項構成的約束項,通過鼓勵局部更新趨向于全局模型來獲取更高質量的局部更新,提高訓練的穩定性。

另外,針對較復雜的模型在以較大的梯度進行本地訓練時容易引發難以約束的發散的情況,可以嘗試通過減少子模型復雜度來緩解。文獻[27]提出了聯邦暫退(federated dropout,FD)方法,根據每個FL客戶端本地計算資源量的不同來設計不同的簡化版子模型(對于全連接層,通常會放棄許多激活節點;對于卷積層,通常會放棄固定比例的濾波器,并且會進一步使用有損壓縮來降低通信量),客戶端更新的模型由FL服務器重新構建并聚合形成全局模型。更小的子模型減少了計算和通信成本,使能力較低的客戶也可以通過訓練一個自定義修剪的子模型來加入FL,在機會公平層面實現對異構客戶的公平對待。該方法的實現難點在于確定合適的聯邦暫退率過程中會產生額外的成本。為解決這一問題,文獻[28]提出了自適應聯邦暫退(adaptive federated dropout,AFD)法,它記錄并維護一個激活分數圖,用于選擇一組重要的激活節點來生成最適合每個客戶端的子模型,從而加快收斂速度并減少準確性損失[4]。

與FedDropout隨機放棄激活節點以構建較小子模型不同,文獻[29]提出了如圖2所示的自適應消息傳遞框架FedAMP,根據相似度為每個模型定制更新,訓練過程基于增量優化方法。

圖2 FedAMP 的消息傳遞機制

同樣為了防止模型聚合發散,Li等人[78]提出的Ditto則采用了多任務學習的思想,在以FedAvg方法訓練的全局模型之外,每輪每個被選中的客戶端都會使用本地數據,并且使用與FedProx類似的本地模型與全局模型的距離平方作為近端正則項來額外訓練一套本地模型,在保證了模型不發散的同時,能夠獲得較具代表性的個性化模型。由于可以附加在FedAvg方法上,Ditto可以較為方便地應用于現有模型的改造。并且由于直接使用本地模型進行推理,Ditto能夠有效抵御惡意客戶端對全局模型造成的污染問題,增強了方法的魯棒性,其弊端是同時更新全局與眾多本地模型帶來了計算開銷上的增加。

Ditto的本地模型更新方法在梯度層面上可以視作為本地模型附加一個指向全局模型上一輪狀態的輔助更新梯度,與基于目標函數的方法相比,基于梯度的方法仍處于發展的早期階段。Wang等人[30]提出的FedFV從另一個角度實現了FL中的公平性。作者認為,全局模型可以犧牲一些客戶的模型準確性,以提高那些梯度差異很大的客戶的性能(這種情況往往導致FL訓練中的不公平)。FedFV的梯度投影聚合機制如圖3所示,FedFV使用了梯度投影的方法在進行梯度平均之前減輕各客戶端梯度之間的潛在沖突。首先使用余弦相似度來檢測梯度沖突,然后修改梯度的方向和大小來迭代地消除這種沖突。實驗證明,FedFV能有效地緩解梯度沖突問題并收斂到Pareto平穩解。然而,FedFV基于歷史梯度的梯度估計方法過于簡單,在梯度變化較劇烈的時候可能會導致模型發散。Zhu等人[31]提出的Cali3F聯邦推薦模型使用指向全局模型參數的、大小正比于本地更新大小的校正梯度,能夠自適應地調整校正力度,在降低客戶端間推薦性能標準差的同時防止個性化模型發散,并利用了基于聚類的參數更新共享方法實現快速收斂。

圖3 FedFV 的梯度投影聚合機制

3 貢獻評估公平性

前文所述的表現均衡公平性更多地注重結果公平——要求最終模型在不同客戶端上的表現盡可能相近,而不考慮搭便車問題[49]——不同貢獻客戶端收到相同的FL模型,這會引起高貢獻客戶端的不滿,影響聯邦學習的可持續性經營。要想解決這一問題,就需要在無法獲取客戶端本地數據的前提下,公平地衡量每個客戶端對全局模型的貢獻程度,形成多方認可的激勵分配機制。

近年來已經提出了許多FL的激勵機制[3,41],但并非所有方法都專注于提高公平性,本節重點介紹考慮公平性的FL激勵機制設計。本節對現有的FL貢獻公平評估方法從圖4所示的3個維度加以總結,分別為衡量依據、技術方案和分配機制。此外對于實現相關公平目標過程中采用的技術以及在客戶端之間分配的對象亦有歸類,并且指明了各方法對誠實客戶端的限制以及對膨脹損失攻擊的魯棒性,具體對比見表3。

圖4 貢獻評估公平性工作分類依據

表3 貢獻衡量方法的比較

3.1 基于客戶端資源條件的貢獻評估公平性

對于聯邦學習而言,如何吸引更多參與方持續地參與到聯邦學習的進程中,是長期成功的關鍵。在新的客戶端加入聯邦學習時,其為最終全局模型帶來的真實增益無法立即得到,在這種情況下,客戶的貢獻值可以根據其資源條件信息進行預先評估,例如本地數據集的數量、質量和收集成本,以及聯邦學習過程中約定付出的算力與流量份額。在文獻[32]中,作者運用熵權法定義用戶數據質量計算方法,結合用戶數據的質量和數量計算綜合得分作為用戶的貢獻值,并賦予相應的聚合權重。

為了向不同資源條件的客戶端提供差異化的聯邦模型,Zhang等人[33]提出了分層公平聯邦學習(HFFL)框架,通過為貢獻較多的客戶端提供更高質量的數據和更高質量的模型更新來確??蛻舳酥g的公平性。HFFL首先根據客戶端自我報告的數據特征將客戶端分為不同的級別,隨后為每個級別訓練一個FL模型。在訓練一個較低級別的模型時,較高級別的客戶端只提供與較低級別的客戶端相同數量的數據;在協作訓練更高級別的FL模型時,則要求較低級別的客戶端提供其所有本地數據。因此,更高級別的客戶端會收到性能更好的FL模型。然而,HFFL也存在一些缺點。首先,因為在劃分級別時不僅考慮數據的數量,對于質量與成本也需要做出考量,所以同一級別的客戶端可能擁有不同數量的數據;其次,客戶端的數據特征是通過它們自我報告的信息獲得的,這導致該方法容易受到虛假報告的影響[49]。

不同于為每個級別訓練一個模型的HFFL,文獻[34]提出了一種分散的公平和隱私保護深度學習(FPPDL)框架,其中每個參與者都會基于自己的貢獻收到最終全局模型的不同等級變體模型。FPPDL通過任意兩個參與者之間的相互評估來維護本地的信譽體系,參與者可以使用它們的交易點從其他參與者那里下載梯度。如此,每個參與者在沒有協作的情況下都可以獲得與它們的獨立模型相比改進的本地模型,并且每個參與者獲得的改進與其相應的貢獻成正比。

在文獻[35]中,作者基于契約理論[81]構建了客戶端貢獻衡量方案。服務器設計契約項目并將其廣播給數據所有者,每個項目都包含獎勵和有關客戶端本地數據的信息,每個客戶端選擇最需要的項目作為參與FL的承諾。在文獻[36]中,作者提出了一種基于Stackelberg博弈的FL貢獻衡量方案。在這種博弈論設置下,客戶的最佳策略是如實向FL任務發布者報告他們對一個CPU功率單位的期望價格。自我報告的信息也用于基于拍賣的FL激勵機制設計,因為這種機制允許數據所有者經常報告他們的成本。如圖5所示,在文獻[37]中,作者基于拍賣理論對客戶端資源條件做出評估并給出相應激勵,首先以服務器作為購買方發起并廣播一個FL任務,當每個移動用戶收到任務信息時,各自決定參與模型訓練所需的資源量并向服務器提交一個投標,其中包括所需的資源量、本地精度和相應的能源成本。之后由服務器使用投標信息來衡量每個客戶的潛在貢獻,確定獲勝者參與本輪更新,并為獲勝的移動用戶進行結算。

圖5 拍賣理論[37]

Deng等人[38]提出了一種質量感知拍賣方案,將獲勝者選擇問題描述為一個NP難的學習質量最大化問題,并基于邁爾森定理設計了一個貪婪算法來執行實時任務分配和報酬分配。Zeng等人[39]進一步擴展了多維采購拍賣理論,提出了基于每個客戶端的出價和資源質量的評分函數,在激勵更多高質量數據所有者加入FL的同時最大限度地降低總成本。在投標階段,客戶端資源的質量向量(即本地數據、計算能力、帶寬、CPU周期等)經過本地差分隱私保護[82],并且通過應用相同的評分規則,客戶端可以確定他們是否受到公平對待,這可以保證客戶端的參與積極性。

除了準確評估每個客戶的貢獻之外,公平的激勵機制還需要確保每個客戶根據其對FL模型的貢獻得到公平的報酬。Cong等人[40]提出了基于VCG機制的Fair-VCG(FVCG)。FVCG激勵數據所有者如實報告他們的成本和數據質量。然后,服務器通過為所有數據所有者設置相同的數據質量單價,將獎勵分配給所有數據所有者。

需要注意的是,前述的貢獻評估方法均假設客戶有能力并值得信賴,因此他們可以可靠地評估自己的情況并如實報告信息。然而在實踐中,這種假設可能不成立,在存在行為不端的FL參與者時,模型訓練性能會下降。此外,在發送資源條件信息階段需要在客戶端與服務器之間使用安全多方計算等手段進行加密計算,加強隱私保護,避免泄露敏感信息。

3.2 基于對全局模型效用影響的貢獻評估公平性

基于客戶端資源條件直接估計貢獻雖然計算簡單,可操作性強,但可能無法準確反映來自不同客戶端的數據對全局模型的真實影響,因為某客戶端的資源條件與該客戶端對最終全局模型的效用不一定都是成正比的。

為了更精準地探知這種影響,一部分學者提出了基于效用博弈的FL貢獻評估方法,此類方法與利潤分享計劃密切相關[80],即將參與者產生的效用映射到相應獎勵的規則。FL中最常用的利潤分享方案是邊際損失方案:參與者的收益等于參與者離開團隊時損失的效用。Wang等人[41]采用邊際損失法來衡量HFL中各方的貢獻,通過每次刪除某一方提供的實例,重新訓練模型,計算新模型與原始模型之間預測結果的差異,并使用這個差異措施來決定該方的貢獻。作者提出了近似算法來高效測量單個客戶端數據損失對于全局模型效用的影響。Nishio等人[42]同樣采用邊際損失方案來評估每個客戶端在單個FL訓練過程中的貢獻,以減少通信和計算開銷。簡單的邊際損失方案適用于公平地評估給定客戶在協作訓練FL模型的一組給定客戶中的貢獻,但這是一個相對評估(即取決于其他參與的客戶貢獻了多少),并不反映客戶本地數據的實際價值,因此夏普利值已被用來解決這個缺點。

近年來,基于夏普利值(Shapley value,SV)的FL貢獻評估方法引起了廣泛的研究和關注。SV是一種基于邊際貢獻的方案,于1953年作為合作博弈論中的解決方案概念引入??紤]具有數據集D1,D2,…,Dn的n個客戶端,機器學習算法A和標準測試集T,DS是一個多重集(multi-set),其中。通過算法A在Ds上訓練得到的模型記為Ms,模型M在標準測試集T上的評估表現記為U(M,T),則用于計算客戶端i的貢獻的夏普利值表示為:

通過對不包含i的所有D子集的邊際貢獻的總和進行平均,SV反映了i對FL模型的貢獻,因為它僅是其本地數據的結果,而不管其加入聯邦的順序如何,SV可以產生更公平的客戶貢獻評估。然而,計算SV的計算復雜度是指數級的O(2n),隨著參與者的數量或特征數量的增加,相關方法的計算成本急劇增加[83]。為了提高SV計算的效率,傳統的機器學習中已經提出了許多啟發式方法,如截斷的TMC-Shapley(Monte Carlo Shapley)方法和Gradient Shapley方法。受這些方法的啟發,基于SV的FL客戶貢獻評估方法正在興起。

S o n g 等人[43]提出了兩種基于梯度的SV方法:單輪重建(OR)和多輪重建(MR)。這兩種方法都從FL客戶端收集梯度更新以重建FL模型,而不是使用不同的客戶端子集進行重新訓練。OR收集所有訓練輪次的所有梯度更新,然后為最后一輪中的所有子集重建模型。OR在最后一輪使用重建的模型只計算一次SV。相比之下,MR在每一輪訓練中計算一組SV,然后將它們聚合以計算最終基于SV的貢獻值。Wei等人[44]擴展了MR以提出截斷多輪方法(TMR)。TMR在兩個方面改進了MR。首先,它為具有更高準確度值的訓練輪分配更高的權重。其次,TMR消除了不必要的模型重建以提高效率。通過利用這些基于梯度的SV估計方法,可以顯著提高評估FL客戶端貢獻的效率,但是,我們仍然需要在每一輪訓練中評估不同客戶子集的子模型。為了進一步降低計算成本,受文獻[46]的啟發,Wang等人[45]提出了兩種有效的近似方法:基于置換采樣的近似;基于組測試的近似。這些方法旨在提高每輪SV計算的效率。文獻[47]則采用了比例因子近似方法獲得了計算效率上的提升,但它沒有解決在不需要額外代價的前提下向多個聯邦貢獻同一數據集的問題。

縱向聯邦學習(VFL)[84]參與者的數據集在特征空間中幾乎沒有重疊,但在樣本空間中有很大的重疊,這對貢獻評估提出了新的挑戰。在文獻[41]中,作者利用了Shapley值來計算VFL中的特征重要性。由于直接使用SV來評估每個預測可以揭示潛在的敏感特征,因此作者建議對特征組執行SV計算,而不是對每個單獨的特征進行計算。然而,這種方法在計算上仍然成本很高,因為計算成本隨著訓練數據的增加呈指數增長。

3.3 基于少部分數據上驗證精度的貢獻評估公平性

夏普利值等基于全體數據的反事實貢獻評價手段存在計算成本高、估計精度不高等缺點,限制了其可擴展性。因此,基于少部分數據驗證精度的貢獻評估方法已經被用于替代反事實方法。

文獻[48]提出了FedCCEA,它通過構造一個帶有采樣數據大小的準確性近似模型(accuracy approximation model,AAM)來學習每個客戶端的數據質量。該方法通過使用采樣數據的大小,穩健而有效地逼近客戶的貢獻,并通過設置用于FL模型訓練的期望的本地數據大小,允許客戶的部分參與。FedCCEA由一個模擬器和一個評估器組成。模擬器通過運行單歷元FL分類任務獲得AAM的輸入(即采樣數據大?。┖湍繕耍慈蚓龋?。然后,評估器利用存儲的輸入和目標,對AAM中的權重向量進行優化。模型收斂后,提取第一層的共享權值,學習數據大小對每個客戶端的重要性。然而,由于AAM是建立在一個非常簡單的神經網絡架構之上的,所以FedCCEA目前僅限于簡單的FL任務,這使得它不太適合實際應用。

上述FL激勵機制隱含的假設激勵預算已經預先確定。在FL模型訓練時,存在激勵預算不可用的情況。相反,參與者希望在以后可以獲得FL模型產生的收入獎勵[57]。為了解釋這種情況,Yu等人[49]定義了除了貢獻公平之外對FL的長期可持續運行很重要的兩個公平標準概念:期望損失分配公平和期望公平。期望損失分配的公平性要求基于客戶獲得獎勵的等待時間來公平對待客戶。由于FL模型的訓練和商業化需要時間,服務器可能沒有足夠的收入來補償早期的參與者。這導致客戶的貢獻與他們迄今為止獲得的獎勵之間出現暫時的不匹配。為了克服這個問題,作者提出了一種動態收益共享方案聯邦學習激勵器FLI——通過最大化集體效用和最小化數據所有者的期望損失和等待時間之間的不平等,動態地將獎勵分配給客戶。它確保提供更多高質量數據并等待更長時間獲得全額回報的客戶將在后續輪次中獲得更多收入。在客戶獎勵的逐步支付過程中,期望公平的概念用于確??蛻舻钠谕麚p失值盡可能公平地減少,以代替他們的貢獻。

若是引入信譽機制來反映參與者的可靠性與貢獻,則可以通過采樣選出一個準確且平衡的驗證數據集,基于客戶端在特定任務上的表現來衡量客戶的貢獻。文獻[50]在集中式FL設置下引入信譽機制,根據每個客戶端在公共驗證數據集上的準確度更新客戶端的信譽分數。而后文獻[51]與[52]將其擴展到了分布式FL設置下,并結合區塊鏈技術防止惡意方篡改信譽分數。在信譽分數的計算規則方面,前者根據參與者貢獻的數據量與惡意行為來衡量信譽分數,后者則根據客戶端在每一輪訓練中的本地模型更新梯度來衡量。

采樣測試方法經常采用兩個假設:①可信服務器/客戶端;②擁有與其他參與者(或全局模型)更相似的本地模型的客戶端被認為貢獻更多。它們在實踐中可能并不總是成立的[4],聯邦學習的參與方可能不誠實或具有惡意,其數據分布也存在異質性,且不同數據對于全局模型性能提高的價值不同。如果處理不當,這些因素會對貢獻評估的公平性產生負面影響。

4 模型公平性

4.1 模型公平性和不公平性含義

不同于以客戶端為利益主體的前兩種公平性,全局模型公平性強調全局模型對分散于全部客戶端上的某類用戶的公平性。如果具有相似特征的實例從同一模型接收到不同模式的結果,那么這違反了個人公平的標準[85];如果某些敏感群體(特定種族、性別等)收到不同模式的結果,如不同的假陰性率,這可能會違反群體公平標準[86],關于模型公平性的更詳細的相關定義可參見文獻[85,87]。由于無法跨越客戶端之間的阻隔統計特定類別用戶收到的模型推理結果,聯邦學習對模型公平性研究提出了新的嚴峻挑戰,但同時也提供了許多機會。

4.2 模型不公平性來源

統計異質性導致的準確性損失不僅可能在客戶端之間造成不平等,還可能跨越客戶端導致某類用戶遭受到不公平對待。具有較不常見類別樣本數據的客戶端往往會收到更差的模型性能,這可能是由于災難性遺忘導致的,來自亞群之外的客戶端傾向于忘記在他們自己的數據中找不到的特征,并且在聚合過程中,當模型權重被平均時,代表性不足的客戶端學習到的特征可能會被淹沒[15]。在現實世界中,這些特征可能代表性別[53]、年齡[54]、種族[55]、使用語言[56]、外貌特征、患病情況等。無法應對統計異質性導致了潛在的不公平算法。由于聯邦學習的設計要求數據的私有性與本地存儲,隔絕了客戶端之間的數據交換,客戶端無法訪問未在己方數據中得到較好表示的群體的數據,導致用戶群體在客戶端上的不均衡分布演變為用戶群體間的不公平。此外,聯邦學習中使用的數據訪問過程可能引入的數據集移位和非獨立性,也存在引入偏差的風險[57]。

數據生成過程中的偏差也會導致從這些數據中學習到的模型不公平[58-59],如何識別或減輕數據生成過程中的偏差是聯邦學習研究和更廣泛的ML研究的關鍵問題。先前的有限研究已經提出了在聯邦環境中識別和糾正已收集數據中的偏見的方法(例如文獻[60]中的對抗性方法),但需要在該領域進行進一步研究。將事后公平校正應用于從可能有偏差的訓練數據中學習的模型的方法也是未來工作中一個有價值的方向[57],例如通過存儲一小部分均衡樣本作為緩沖區以供模型微調,防止災難性遺忘。

在集中式訓練公平模型方面已經涌現了大量工作[86,88],但這些方法中的大多數假設有一個統一的可用訓練數據集,這侵犯了數據隱私,因此在現實場景中常常陷入不可用的境地。利益相關者可能由于隱私保護法規而無法與其他方共享其原始數據。例如出于保護患者隱私的目的,各個醫療機構只被允許使用自己的電子健康記錄或臨床圖像,而不是跨機構匯集數據和模型[61-62],而訓練數據缺乏代表性和多樣性已被證明會導致模型性能不佳[57],如遺傳疾病模型[63]和圖像分類模型[64]。通過有效的分散訓練協議、模型結果的隱私和不可識別性保證,聯邦學習提供了一個通過分布式訓練利用多樣化數據集的機會。更重要的是,聯邦學習可以通過跨孤島聯合可能與敏感屬性相關的數據來提高全局模型的公平性。

4.3 減少模型不公平性典型方法

因為聯邦學習最有可能部署在需要隱私和公平性的敏感數據環境中,所以檢視FL如何能夠解決現有的關于機器學習公平性的擔憂,以及FL是否會帶來新的公平性問題非常重要[57]。聯邦學習的模型公平性研究面臨著如下困難[89]。

● 準確評估模型的公平性需要訪問各方的數據,但聯邦學習禁止訪問各方的私人數據。

● 由于缺乏每個參與方的數據,在本地衡量模型公平性是不準確的,且在每個客戶端本地應用公平約束可能引發沖突,導致較差的公平性能或無效的解決方案。

● 為訓練找到合適的公平約束是困難的。部分約束需要訪問所有數據;部分公平約束非平滑、不可微分,不適用于訓練;部分公平約束以近似誤差為代價轉換為平滑可微。

現有的公平模型訓練方法由于侵犯數據隱私而無法直接擴展,因此現有的聯邦學習訓練方法大多數不考慮訓練公平模型,一部分工作進行了嘗試但無法同時實現數據隱私與公平[16],例如針對未知的測試數據分布情況,文獻[65]提出了AgnosticFair來為每個數據樣本分配一個單獨的權值,并包含一個不可知論的公平約束,以實現人口均等的公平概念。在數據遷移的情況下,該算法可以實現良好的準確性和公平性。然而,該方法需要先驗知識來確定評估函數。這限制了它在系統環境不斷變化的動態系統中的應用,有侵犯隱私的風險。

在不違反隱私政策的情況下,從分散的數據中學習公平模型的一種簡單的方法是訓練本地公平模型并集成得到最終結果,這比任何數據共享方案或聯邦學習方法都更加私密,因為只有經過充分訓練的模型進行了一次共享。但是如果數據是高度異構的,那么即使組合模型在本地是公平的,本地訓練模型的集成模型也不會是公平的。Zeng等人[66]證明了簡單地將聯邦平均方法與公平模型訓練方法共同使用,通過中央服務器定期計算本地訓練模型參數的加權平均值,可能會通過頻繁的通信找到一個全局更公平的模型,但這種方法是以犧牲隱私為代價的,并且會導致性能有較大的下降?;诖?,他們修改了現有的聯邦平均算法,使其能夠有效地模仿集中式公平學習,并提出了基于去中心化數據的私有公平學習算法FedFB,適用于多種定義下的模型公平性。

同期工作中,文獻[18]旨在訓練一個同時滿足多個定義于客戶端本地數據之上的公平性的聯邦公平模型,但不能保證全局級別的群體公平性;文獻[65,67-68]通過非常頻繁地為每次本地更新而非每輪本地訓練交換信息來模仿集中式公平學習設置,后兩者僅適用于人口均等定義下的模型公平性;文獻[69]將聯邦平均算法與重加權相結合,使聯邦公平模型的性能得到了一定程度的改善,但仍低于FedFB。此外,最近的證據表明,個性化學習可能會對敏感的子群體產生不同的影響[70-72],緩解隱私和公平之間緊張關系的潛在解決方案可能是應用個性化和混合差分隱私——部分用戶貢獻的數據要求較少的隱私保證[58]。

5 未來研究方向

(1)數據分級工作

基本的聯邦學習方法往往簡單地假設客戶端將現有數據全部貢獻出來,這點在前期協商階段會帶來顧慮:在無法預知己方數據與其他參與方數據的質量差異之前,數據實體往往傾向于做出保守決策。因此亟待發展數據質量評估方法,對持有數據進行分級,督促參與者付出與等級相符的數據。之后可嘗試結合課程學習[90](curriculum learning)或持續學習(continual learning)技術,構建循序漸進的聯邦學習策略,允許參與方在訓練過程中根據當前收益情況決定是否繼續參與聯邦訓練以及是否分階段追加投入數據。

(2)針對惡意客戶端的反制措施

出于隱私保護的要求,當前諸多公平性措施的衡量對象出于客戶端的自我報告數據。特別是許多方法都隱性地包含了誠實客戶端或者誠實可信第三方假設,極易受到膨脹損失攻擊或串謀攻擊,使惡意客戶端獲得與其數據質量及成本不匹配的模型收益或金錢收益。通過將區塊鏈、零知識證明等技術應用于貢獻衡量機制中,可實現在不刺探客戶端隱私信息前提下的報告信息真實性保證。

(3)聯邦遺忘學習

當聯邦學習公平性難以實現或力度無法達到參與者要求時,需要合理的退出機制保證聯邦學習客戶端的“反悔權”,即在不重新訓練的前提下保證某參與方數據的完全退出,從當前模型中剔除該方用戶的隱知識。當前已經涌現了一些保證小部分數據安全退出的遺忘學習方法[91],但大批量的數據退出機制仍然值得積極探索。

(4)服務器之間的市場化競爭

現有公平性方法絕大多數僅考慮多個客戶端之間的合作與競爭,但在市場化經濟的背景下,可能出現多個聚合服務提供商(即聯邦學習中心服務器),這會給各方成本帶來變化,如服務器與客戶端間的不同通信條件可能導致客戶端訓練成本的逆轉。因此,可以嘗試探索多個服務器場景下的競價機制。

(5)對模型公平性的更好實現

現有的模型公平性實現方法大多假設有一個統一的可用訓練數據集,這侵犯了數據隱私,因此在聯邦學習框架中不可用。并且由于準確評估模型的公平性需要訪問各方的數據,但聯邦學習保護數據隱私,禁止訪問各方的私人數據。因此如何在不侵犯數據隱私的前提下,實現諸多公平模型訓練方法的聯邦化,以及如何在聯邦學習環境下評價模型公平性仍是亟待攻克的難題。

6 結束語

本文首先對近年來聯邦學習中的公平性問題及現存解決方案做了系統整理,并按照3種公平目標進行了詳細的分類介紹,從聯邦學習公平性的本質出發,介紹相關技術的應用現狀,最后依據當前聯邦學習落地過程中的難點與熱點提出了相應的研究建議。聯邦學習是一個非常有前景的研究領域,目前已經吸引了眾多學者進行相關領域的研究,也取得了一系列重要研究成果。但聯邦學習技術的發展還處于初級階段,與公平機器學習方法的結合仍然有許多問題尚待解決。在未來工作中,需要繼續研究聯邦學習領域的公平性問題,加快研究和發展相關安全與隱私保護技術,促進聯邦學習的進一步發展。

猜你喜歡
公平性聯邦貢獻
中國共產黨百年偉大貢獻
一“炮”而紅 音聯邦SVSound 2000 Pro品鑒會完滿舉行
為加快“三個努力建成”作出人大新貢獻
303A深圳市音聯邦電氣有限公司
一種提高TCP與UDP數據流公平性的擁塞控制機制
貢獻榜
海洋貢獻2500億
公平性問題例談
關于公平性的思考
面向多路徑并行傳輸的擁塞控制及公平性
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合