?

面向非獨立同分布數據的聯邦學習研究進展

2023-11-10 15:11郭桂娟皮慧娟賈維嘉彭紹亮
小型微型計算機系統 2023年11期
關鍵詞:聯邦客戶端服務器

郭桂娟,田 暉,皮慧娟,賈維嘉,彭紹亮,王 田

1(華僑大學 計算機科學與技術學院,福建 廈門 361021)

2(北京師范大學 人工智能與未來網絡研究院,廣東 珠海 519000)

3(北京師范大學-香港浸會大學聯合國際學院 人工智能與多模態數據處理廣東省重點實驗室,廣東 珠海 519000)

4(湖南大學 信息科學與工程學院,長沙 410000)

5(湖南大學 國家超級計算長沙中心,長沙 410000)

1 引 言

近年來,隨著云計算、邊緣計算、聯邦學習的快速發展,大數據在保證數據隱私保護的前提下得到了很好的利用.由于聯邦學習具有很好的保護用戶數據隱私的特性,聯邦學習在近幾年迅速崛起,得到了很多行業的青睞[1].聯邦學習不僅在電信領域、醫療、金融風控等方面發揮著重要作用,并且還在人工智能、5G、聯合數據分析中也有著舉足輕重的地位.此外,聯邦學習也因其自身的特點在邊緣計算場景中得到廣泛的應用,如邊緣聚合、邊緣緩存以及計算卸載等[2].

對于聯邦學習來說,雖然最主要的數據部分放在本地上進行訓練,很大程度上保證了數據的安全性和隱私性.但是由于non-IID數據的存在,聯邦學習的效率、準確性和通信成本等都受到了很大的限制.其中,Zhao等人發現,由于并非所有的客戶端數據都是獨立同分布的,當客戶端數據存在高度傾斜的non-IID數據時,聯邦學習的訓練精確度明顯降低,最高可以達到約55%[3].此外,Zhu等人對聯邦學習中的數據異構性做了詳細的總結,并分析了數據異構性對參數模型、非參數模型在水平聯邦學習和垂直聯邦學習的影響[4].盡管聯邦學習在數據獨立分布的情況下有著良好的準確性和通信成本,然而Zhong等人通過實驗證明了在存在non-IID數據的某些類型僅靠學習單個聯邦模型往往不是最優的[5].

針對聯邦學習中的non-IID數據所引起的一系列問題,很多學者都在這上面進行了大量的研究.如文獻[6]針對聯邦學習中non-IID數據所帶來的偏差問題,提出一種趨于經驗控制的框架來智能的選擇客戶端設備參與到每輪的聯邦學習中去,從而平衡由non-IID數據引起的偏差問題并加速收斂速度.文獻[7]更是提出稀疏三值壓縮(STC)來最優化上下行通信,從而提高聯邦學習中non-IID數據的魯棒性.由于non-IID數據和IID數據分布特性并不相同,因而在non-IID數據下進行訓練時可能會導致聯邦學習無法描述甚至無法收斂的情況.因此對non-IID數據的研究顯得十分困難.雖然non-IID數據會導致訓練的模型有所偏差,但是擁有大量數據的客戶群體之間的數據可能存在這個某種相關性.文獻[8]從客戶端之間的集群化出發并結合圖卷積神經網絡提出集群驅動的圖聯邦學習策略來解決統計異構性問題.聯邦學習相對于傳統的機器學習具有更好的數據隱私保護性,然而,沒有哪種技術是完全安全的.針對聯邦學習隱私保護的研究也比比皆是,但目前大多數學者都是針對IID數據來對聯邦學習的隱私保護進行的研究,如文獻[9]對聯邦學習安全性和隱私性做了全面探討.為此,文獻[10]針對聯邦學習non-IID數據中有關隱私保護進行了創新性的探索.

綜上所述,雖然國內外專家和學者對聯邦學習中的non-IID數據進行了一定的研究,但是對這方面缺乏系統的梳理和總結.本文系統地介紹了聯邦學習中non-IID數據的相關研究,從幾個方面對non-IID數據帶來的影響及其目前的研究方案進行了闡述.最后詳細的介紹了目前non-IID數據未來的研究方向,對聯邦學習中non-IID數據未來的研究具有重要意義.

2 聯邦學習與non-IID數據

本節詳細介紹了聯邦學習中non-IID數據的相關概念,并指出了衡量non-IID數據程度的評價方法及對non-IID數據的場景分類.

2.1 聯邦學習

隨著數字信息化時代的到來,許多行業都擁有大量的私有數據.但是由于行業競爭、隱私安全等問題,這些數據常常以孤島的形式存在.針對數據孤島和數據隱私等巨大難題,2017年谷歌公司提出了聯邦學習算法框架[11].聯邦學習打破了數據孤島問題并極大保證了用戶數據的隱私安全,終端設備僅僅需要上傳本地模型即可共同訓練一個目標模型.

根據聯邦學習中數據集的貢獻方式可以將聯邦學習分為3類:橫向聯邦學習(Horizontal Federated Learning,HFL)、縱向聯邦學習(Vertical Federated Learning,VFL)和聯邦遷移學習(Federated Transfer Learning,FTL)[12].在圖1~圖3中,矩形的長度代表樣本特征維度,寬度代表樣本維度.

圖1 橫向聯邦學習Fig.1 Horizontal federated learning

圖2 縱向聯邦學習Fig.2 Vertical federated learning

圖3 聯邦遷移學習Fig.3 Federated transfer learning

1)橫向聯邦學習HFL[13]指的是不同的參與方有較多的數據樣本特征(橫向)重疊而數據樣本(縱向)重疊較少,即HFL適用于各數據持有方的用戶特征維度重疊多而用戶維度重疊少的情況.

2)縱向聯邦學習VFL[14]指的是不同參與方有較多的數據樣本重疊而數據樣本特征重疊較少,即VFL適用于用戶重疊較多而用戶特征維度重疊較少的情況.

3)聯邦遷移學習FTL[15]是對橫向聯邦學習和縱向聯邦學習的補充,指的是不同參與方的數據樣本以及數據樣本特征的重疊都較少的情況,即FTL使用于用戶及用戶特征維度重疊較少的情況.

2.2 聯邦學習中的non-IID數據

在概率論與統計學中,獨立同分布(Independent and Identically Distributed,IID)是指一組隨機變量中每個變量的概率分布相同并且每個變量之間相互獨立.而非獨立同分布(non-Independent and Identically Distributed,non-IID)是指隨機變量之間非獨立或者非同分布.在聯邦學習中,non-IID是指數據獨立但不同分布的情況,因為數據的分布一定是獨立的,但是數據的采集不一定服從同一采樣方法.比如全數據集中有上百類圖片,某些設備中都是風景類圖片,另一些設備中都是人物類圖片,那么前者是一種數據分布,后者是另一種數據分布.反之,如果某個設備中的圖片種類齊全即既有風景類也有人物類圖片,并且其他設備中的圖片也齊全,那么它們就是同分布的[11].

2.3 聯邦學習中衡量non-IID數據程度的評價方法

(1)

如果數據遵循IID分布或者non-IID數據程度很小,則每個設備中的分布則近似一樣,那么本地目標函數最小值加權和等于全局目標函數最小值,即上述式子趨于零.如果數據遵循non-IID分布,那么上述式子值的大小則反映了數據分布的異構性程度.

2.4 聯邦學習場景中對non-IID的分類

在實際的聯邦學習環境中,參與者之間的數據具有高度異構性和數據量差距較大等特點[19].因此,在不同的環境下的參與者之間的數據有可能是完全不同,即是non-IID數據.假設數據樣本為(x,y),其中x為輸入屬性或特征,y為標簽.對于non-IID數據而言,假設終端設備k的本地數據分布為pk(x,y),即該設備的pk(x,y)與其他終端設備的不同.文獻[16]根據數據偏離同分布的常見方式將non-IID數據分為以下5種類型:

1)特征分布傾斜(Feature distribution skew—covariate shift):同一特征,不同客戶端表現形式不同.如相同的數字,不同的人寫法不同(如筆畫的寬度和傾斜度不同).

2)標簽分布傾斜(Label distribution skew—prior probability shift):同一標簽,其分布因客戶端而定.如袋鼠只在澳大利亞或動物園;某些表情符號只被某一群人使用等等.

3)標簽相同但特征不同(Same label,different features—concept drift):對于不同的客戶端,相同的標簽有不同的特征.如不同的地域,建筑物存在很大的差別;同樣的衣服品牌在不同的時間會有很大的不同等等.

4)特征相同但標簽不同(Same features,different label—concept shift):由于個人喜好,訓練數據中相同的特征向量可以有不同的標簽.如反映情緒或預測下一個詞的標簽因個人和地區不同而有所差異.

5)數據傾斜:不同的客戶端可以保存大量不同的數據.

以上5類non-IID數據是該文獻根據真實世界中聯邦學習數據集可能涉及的偏離同分布的各個情景進行劃分的結果.

3 聯邦學習系統模式

在不同的應用場景中,聯邦學習系統所對應的模式也有所不同.在不同的聯邦學習系統模式中,處理non-IID數據所涉及的方式也不盡相同.根據應用場景的不同可將聯邦學習系統模式分為客戶-服務器模式和端對端對等模式.

3.1 客戶-服務器(C/S)模式

在客戶-服務器(Client/Server ,C/S)模式[20]中,中央服務器是一個可信的聚合服務器.如圖4所示,在聯邦學習過程中,中央服務器負責對全局模型參數的“發放”以及對局部模型參數的“聚合”.參與方只需要將自己訓練好的本地模型發送給中央服務器即可,即參與方的原始數據始終保留在本地上.在C/S模式中,參與者需要借助第三方進行通信,因此第三方必須是可信的服務器.

前面第1章所述的方法都是基于中心化聯邦學習的,也就是依賴于一個中心服務器,這需要所有的客戶端均信任該中心服務器,并將本地模型上傳到中心服務器來訓練目標模型.在C/S模式中,可以結合一些前沿技術尋找解決non-IID數據的最佳方法,如數據增強技術.文獻[21]提出一種新穎的聯邦學習框架XorMixFL,該框架的核心思想是收集其他設備上僅能被該設備數據樣本進行解碼的編碼數據樣本,解碼過程提供合成但又真實的數據樣本,直至引導出IID數據集以用于模型訓練.實驗表明,該框架在MNIST數據集中的non-IID數據集下,XorMixFL Vanilla FL提高了17.6%的精確度.此外,為了緩解統計異質性,通過對未充分表示的數據采用零機會數據增強;并鼓勵聯邦網絡中的客戶端提高測試精確度和更加公平,文獻[22]提出并研究了在客戶機上使用零機會數據增強的聯邦學習Fed-ZDAC以及在服務器上使用零機會數據增強的聯邦學習Fed-ZDAS兩種變體,并通過實驗證明該方案的公平性和準確度.

3.2 端對端對等(P2P)模式

當中心服務器不可信或者沒有中心服務器時,聯邦學習通常采用是端對端對等(Peer to Peer ,P2P)模式也即去中心化.如圖5所示,P2P模式由持有數據的終端設備組成,這種模式不需要第三方服務器,模型參數直接在參與方進行傳送.參與訓練的終端設備A直接將訓練的本地模型參數發送給下一個(或多個)終端設備B,終端設備B接收到一個(或多個)模型參數后繼續訓練,直至收斂或達到閾值條件為止.雖然P2P模式下,各個參與方無需借助第三方中心設備便可直接通信,提高了系統的安全性,但是由于P2P模式需要對信息內容進行加密和解密等操作,這會導致額外的計算開銷.

圖5 端對端對等模式Fig 5 Peer to Peer

對于P2P這種前沿技術,有的專家和學者開始嘗試利用聯邦學習與P2P結合來尋求解決客戶端中的non-IID問題.為解決物聯網網絡中的不平衡和non-IID數據問題,文獻[23]考慮到端對端模式不需要中心服務器,并就此提出一種新型的點對點算法P2PK-SMOTE來訓練non-IID場景下的有監督異常檢測機器學習模型,通過自適應地應用于點對點聯邦學習的數據再平衡方法,用于異常檢測.通過實驗結果證明在P2PK-SMOTE方法下查全率和查準率為100%,假陰性和假陽性率幾乎為0%.文獻[24]考慮到實際場景中客戶端之間的數據分布通常是異構的,提出一種基于性能的鄰近選擇方法PENS來學本地數據分布的模型.當前P2P模式除了用來尋求解決non-IID數據問題外,還可用于聯邦學習下的單向信任問題、模型保護問題等等[25].目前聯邦學習與去中心化等技術結合的研究仍然處于起步階段,也正逐漸成為研究熱點,如何將技術融合助力共同發展,仍然值得不斷探索.

4 聯邦學習中non-IID數據涉及的各方面研究現狀

4.1 性能優化

當客戶端數據存在高度傾斜的non-IID數據時,聯邦學習的性能(如:模型精確度、學習效率等)明顯降低.針對由non-IID數據導致的效率下降問題,很多國內外專家和學者做出了不懈努力.

Li等人提出了一種聯邦學習框架FedProx來解決聯邦學習中的數據異構性問題.該方案認為客戶端的參數更新雖然很微小但是對實驗有很重要的影響,同時考慮到終端設備間數據的異構性,提出在每個本地目標函數中添加一個近端項,使算法對本地客戶端之間的異構性更具魯棒性.實驗表明,提出的FedProx算法提高了聯邦學習的性能[26].Karimireddy等人證明了當數據異構時會產生客戶端漂移現象即更新偏移,導致不穩定性并減緩收斂速度.對此,文章中提出了一種算法SCAFFOLD來解決上述問題.該算法通過使用控制變量(方差減少)來糾正本地更新中的客戶端漂移現象[27].此外,還有很多專家和學者進行了大量的研究和探討.比如Huang等人提出一種方法FedAMP來促進具有相似數據的客戶端之間成對協作[28].Ruan等人提出一種新型的聯邦學習聚合方法,能允許更靈活的設備參與收斂[29].而Zhang等人也提出一種算法CSFedAvg來選擇頻率較高的模型以緩解因non-IID數據導致的精確度下降問題[30].

聯邦學習的訓練效率在很大程度上都和non-IID數據有關,如果從non-IID數據著手研究將對聯邦學習效率的提升有很大的幫助.

4.2 算法優化

聯邦平均算法FedAvg是聯邦學習中使用最為廣泛的算法之一.然而聯邦平均算法通過采用權重更新來更新全局模型,即只考慮到客戶端數據量的大小,并未考慮到客戶端數據質量對整體模型的影響.因此提出一個能夠適用于不同數據質量的算法是一個非常有意義且值得探索的方向.

針對獨立同分布數據集,Wang等人通過觀察局部更新的數目變化時收斂速度和誤差下限間的關系提出一種自適應性通信策略,即在開始階段先設計一個較大的τ,在模型接近收斂時逐漸減小τ.通過這種自適應性策略能夠實現快速收斂和低錯誤下限[31].McMahan等人提出根據客戶端本地數據集的大小對本地模型進行加權平均進行訓練[32],但是僅僅針對數據集大小對模型進行加權平均會忽略了數據質量這一因素的影響.

雖然國內外專家和學者已經考慮到從算法上來處理數據的異構性問題,但是目前從這個方面著手的研究相對而言還是比較少.如何設計一個能考慮到異構性并能真實反映終端設備數據情況的算法仍然亟待解決.

4.3 模型優化

現有的關于non-IID數據的研究主要涉及性能優化、通信成本、隱私保護等方面,需要解決的不僅僅只有數據問題和算法問題,還包括模型優化問題.在聯邦學習中,由于參數模型和非參數模型的訓練方式不一致,因此non-IID數據對聯邦學習的訓練性能也存在較大影響.此外,由于聯邦學習參與者的數量十分龐大,聯邦服務器的通信成本和通信鏈路資源十分有限.因此,如何高效訓練模型并保證模型的健壯性就顯得非常重要了.

在現有的研究中,對于大量模型的一般解決方法就是將模型壓縮(稀疏化).Shi等人從隨機稀疏角度出發,將訓練算法與本地計算、梯度稀疏結合起來提出一種柔性稀疏法,即對參與者提供誤差補償,允許參與方只上傳小部分具顯著特征的梯度,從而減少每一輪的通信負荷[33].此外,針對移動終端設備上數據分布的不平衡性,Duan等人提出一種自平衡框架Astraea,在該方案中,通過自適應數據擴增和下采樣來緩解全局不平衡,同時根據客戶端數據分布的相對熵(Kullback-Leibler Divergence,KLD)創建邊緣層來重新安排客戶訓練以緩解因數據不平衡而導致的模型偏差[1].自2015年Hinton等人提出知識蒸餾法后,聯邦蒸餾(Federated Disillation)也被提了出來,聯邦蒸餾只是交換局部模型輸出而非交換傳統聯邦學習采用的模型參數,因為這些輸出的尺寸通常比模型尺寸小,因此可以減少通信消耗.如文獻[34]提出的一種通信效率高且保護隱私的分布式深度強化學習框架——聯邦強化蒸餾(Federated Reinforcement Distillation,FRD).

由于在聯邦學習中,客戶端的數量是龐大的,聯邦學習環境可能由數百萬參與者組成.因此如何高效訓練模型并保證模型的健壯性顯得十分重要.但是,顯然目前已有的FedAvg不是最優的綜合方案,目前許多研究就針對現有的模型更新和模型聚合做了改進,如何通過non-IID數據來提高模型的健壯性和有效性也是目前研究聯邦學習的一大熱點.對比現有的方法中比較優秀的有 Experimental Study[6],但是目前的研究是遠遠不夠的,如是否能根據文獻[35]提供的從模型的清洗、過濾角度著手,然后根據non-IID數據對模型的差異進行篩選,如過濾掉由IID數據和non-IID數據聯合訓練出來的性能比較差的模型[36];又或者通過激勵方式來獲取性能比較好的模型呢?

4.4 通信成本

聯邦學習的通信問題主要是由客戶端和中央服務器之間的網絡連接和數據傳輸(模型、參數)所造成的.由于大量的用戶設備都將本地模型、更新發送到服務器,而移動設備的數據通常有限,并且到中央服務器的網絡連接速度很慢,因此減少通信開銷至關重要[37].對于通信開銷問題,很多國內外學者從以犧牲模型精確度為代價、在聯邦學習的整體框架中只訓練占用通信空間較小的低容量模型.在這個角度上,有Rothchild等人提出使用Count Sketch對客戶端模型更新進行壓縮的處理方法FedSGD[38]以及Reisizadeh等人提出的周期平均和量化的處理方法FedPAQ[39]等等,但是他們都很少注意到non-IID數據對通信成本的影響.對此,有的國內外學者從non-IID方面著手進行通信成本的縮減.其中影響因子比較大的方案有Sattler等人提出的稀疏三元壓縮(Spare Ternary Compression,STC)[7].STC對聯邦學習的設置采用文獻[40]中描述的方法,并以tok-k稀疏化算法為起點來構建一個通過稀疏化、互化、糾錯來壓縮上行和下行通信的高效通信協議,主要解決3個方面問題:對權重更新的量化和無損編碼進一步提高通信效率;設計下載的壓縮通信;實現一個緩存機制,使得在客戶端部分參與的情況下保持客戶端同步.

Itahara等人提出了一種基于蒸餾的半監督聯邦學習算法(DS-FL).在這種方法里,通信成本僅取決于模型的輸出維度而不是根據模型的大小進行擴展.實驗結果表明,DS-FL相對于FL基準降低了高達99%的通信成本[41].Chai等人提出一種基于non-IID數據的異步分層聯邦學習方法FedAT,FedAT協同結合了同步層內訓練和異步跨層訓練.通過分層橋接同步和異步訓練,最大限度地減少了掉隊效應,提高了收斂速度和測試精度,同時使用一種基于折線編碼的高效壓縮算法來壓縮上下鏈路通信,從而最大限度地降低通信成本.實驗結果表明,與目前最新的FL方法相比,該方法預測性能提高了21.09%,通信成本降低了8.5倍[42].

綜上,在通信成本方面,目前最多的是從模型角度出發,但是也有從維度出發來縮減成本.學者們提出的從non-IID著手縮減通信成本的方案均有很高的效果.

4.5 隱私保護

從傳統的云計算、邊緣計算發展到今天的聯邦學習,聯邦學習展現了強大的優勢和發展潛力.盡管聯邦學習很大程度上保證了終端設備的數據隱私問題.然而有學者發現在聯邦學習環境中,就算終端設備只共享模型參數也會泄露隱私信息.當前對于聯邦學習隱私保護的研究很少有人從non-IID數據方面著手,但是存在少量學者想以此為突破點而進行了相關研究.

Yang等人為了保證數據的隱私性、解決不同設備間數據不平衡、non-IID數據等問題,提出了一種全局模型聚合的聯邦平均算法.該算法通過計算每個選定設備上局部模型的加權平均來實現[43].針對特征偏移non-IID問題,Li等人提出在平均模型之前使用局部批處理歸一化來緩解特征偏移[44].Xiong等人從non-IID數據方面出發對聯邦學習的隱私保護做了創新性的探索.首先,作者對FL中的隱私泄露問題進行深入分析,證明了隱私推理攻擊的性能上界,并在此基礎上設計了2DP-FL算法.該算法通過在訓練局部模型和全局模型時加入噪聲來實現差分隱私[10].

4.6 個性化聯邦學習

在聯邦學習中,由于客戶端存在non-IID數據,統計異質性通常會導致各個用戶端對模型性能的需求可能不一樣.對于一些客戶來說,僅僅基于私有數據進行訓練的本地模型可能比全局模型效果更好,因此僅單個全局模型很難滿足所有參與者的需求,此時可以采用個性化的研究方法使訓練好的全局模型針對不同的用戶進行優化.因此個性化聯邦學習也是解決non-IID數據的一種研究方法.目前關于這方面進行全面調研的有文獻[45].文獻[46]提出一個可擴展的聯邦多任務學習框架Ditto.Ditto可視為一個標準全局FL的輕量級個性化附加組件,通過以交替的方式求解全局模型和個性化模型以提供內在的公平性和魯棒性.文獻[47]強調了聯邦學習個性化的必要性并對聯邦學習個性化的最新研究做了相關總結.個性化全局模型的常見方法包括增加用戶上下文、聯邦遷移學習[48]、聯邦多任務學習、聯邦元學習、聯邦知識蒸餾[49]、混合全局模型和局部模型等等.但是由于數據異構性,聯邦學習很難訓練出適合所有客戶端的單一模型,通過個性化方法必然會增加額外的開銷,因此,如何在聯邦學習環境中為客戶端建立個性化聯邦學習和減少額外開銷之間做出平衡,這仍然是十分有前景的研究方向,學者可以根據國內外學者現有的研究方案繼續深入研究.

聯邦學習中關于non-IID數據各方面的研究現狀,表1做了詳細的總結.通過調研分析可以看到,聯邦學習中關于non-IID數據在各方面的研究現狀中,性能優化、算法優化、模型優化等方面的研究比較集中.目前不少專家和學者注意到個性化聯邦學習的優勢,并開始從這個方面探索尋找一個適合不同參與者的個性化模型.個性化聯邦學習是目前解決聯邦學習中non-IID數據異構的一個重要方向.目前對于聯邦學習個性化的研究方案也比較少,但是確實是值得深入研究的一個方向.

表1 non-IID數據在各方面的研究方案對比Table 1 Comparison of non-IID data on various aspects

5 未來研究方向

本節提出了聯邦學習有關non-IID數據的幾個重要研究方面.討論了在不同研究方面中關于non-IID數據研究的可行性,探討了聯邦學習中關于non-IID數據的未來研究方向.

5.1 信任與激勵機制

盡管聯邦學習為不同機構、不同部門之間的數據聯合提供了一個很好的平臺,但數據融合仍然需要大量的用戶參與到訓練中去,如果沒有高度的信任以及高效的激勵機制便很難吸引到足夠的數據量或者擁有良好數據的客戶端參與其中,目標模型的質量也無法得到保證.針對上述問題,很多專家和學者開始探索如何制定信任機制以及如何設定激勵機制來吸引優質客戶端參與到聯邦學習中.文獻[53]總結了大量研究,指出聯邦學習通過集成區塊鏈保證模型的可信任性.同時基于區塊鏈的激勵機制作為一種經濟回報能夠根據構建模型時客戶端的貢獻給予相應的獎勵,能夠激勵用戶積極參與到數據訓練當中去.

當前,移動邊緣計算(Mobile Edge Computing,MEC)將移動終端的計算任務卸載到邊緣服務器中,彌補了終端設備在資源存儲、計算性能方面的不足.同時,要在保護數據隱私的前提下操作大數據,聯邦學習發揮了巨大作用,因此,聯邦學習和MEC的結合被認為是最有前景的研究之一.文獻[54]認為在MEC中,邊緣節點不愿意主動參與學習,并且在提供的資源方面也存在差異,這些都會影響到聯邦學習的性能.因此文獻提出一種具有K名中標者的多維拍賣聯邦學習激勵機制FMore.FMore通過采用K位贏家的多維采購拍賣方式來鼓勵更多高質量、低成本的邊緣節點參與聯邦學習,從而提高聯邦學習性能.實驗表明,FMore算法可以將LSTM模型的訓練次數減少近51.3%,準確率提高28%;在Linux HPC集群中,訓練時間減少了38.4%,模型精度提高了44.9%.

在對聯邦學習激勵機制的研究過程中引入博弈論是一大研究熱點.博弈論又稱為對策論,主要考慮到在游戲過程中個體的預測行為和實際行為來研究其優化策略.考慮到多任務的邊緣聯邦學習激勵機制問題尚未解決,文獻[55]提出一種融合契約論和匹配博弈的激勵機制.首先服務提供商利用契約論為多任務聯邦學習制定多份合約,然后提出一個多對多匹配算法來匹配多份合約和多個終端設備.最后通過仿真實驗證明了該激勵機制的有效性.

雖然目前尚未有專家和學者在設計信任與激勵機制時未考慮到non-IID數據相關問題,但是擁有non-IID數據的相關客戶端與其他客戶端相比較,其訓練的模型與其他模型之間的異構性是比較明顯的[1].當服務器端不可信時,用反演法反演異構數據也是比較容易的.因此是否可以從non-IID數據的角度設立可值得用戶端信任的機制,并設定可信的激勵機制鼓勵大量優質客戶參與到訓練中去.此外,對于擁有異構數據,如果能在可靠的信任機制下用激勵機制吸引客戶端共享非私密數據以達到集成訓練的效果也不失為一個辦法,只是該信任機制如何值得客戶端信任以及給予何種報酬才能吸引到用戶貢獻自己的數據,這是一個值得探索的問題.

5.2 用戶關聯模型

在聯邦學習環境中,由于不同地區、不同環境下用戶的數據分布情況并非是獨立同分布的,因此用戶的模型也是有差異的,如果直接視為同一類進行上傳聚合,生成的模型與目標模型必定存在偏差.然而某些地區內的用戶他們的數據是有一定的相關性的.文獻[56]為了解決non-IID數據對聯邦學習的影響,通過客戶端之間的任務相關性來實現異構數據的有效聚合.在一輪聚合中,服務器為客戶端提供一個可訓練的編碼器,將他們的數據壓縮成潛在的表達形式,并將它們的數據簽名傳回服務器.然后,服務器通過流形學習來獲取客戶端之間的任務相關性,并執行聯邦平均算法.當沒有明確的客戶端集群時,該方案可以靈活地處理通用客戶端相關度圖,并有效地將其分解為(不相交的)集群以進行集群聯合學習.

通過用戶之間的相關性來處理non-IID數據是一個較為新穎的方法.借助聯邦學習對有關聯的non-IID數據統一處理既可提高訓練效率又不會忽略掉non-IID數據特性.然而,目前對于用戶關聯模型的研究仍然十分匱乏,值得繼續探索.

5.3 感知情景

由于參與聯邦學習的客戶端來自不同的地區、部門以及客戶端的上下文環境也不一樣,如果直接將所有的局部模型不加區別統一進行訓練,必然導致生成的模型有所偏差.而且以往對于數據的劃分以及場景模擬十分刻板,為了模擬真實的non-IID場景,Li等人提出一種全面的數據劃分策略來替代典型的non-IID數據策略,將真實數據集劃分為多個較小的子集來合成分布式non-IID數據集,并通過數據分布不同(如標簽分布偏差、特征分布偏差等等)分區策略不同來模擬不同的場景[57],該數據劃分方法給其他研究提供了一個很好的思路,但是該方法基于分布式數據庫上的機器學習的,不能始終優于其他方法.除了在對數據的劃分進行探索之外,有的專家和學者開始從參與者的上下文感知方面考慮如何確保用戶隱私的前提下提高模型訓練的準確率以及計算卸載方案.文獻[58]考慮到上下文信息對卸載策略有著重大影響,因此在所有卸載過程中使用自治管理循環收集上下文信息,提出一種基于聯邦學習的卸載方法.實驗結果表明,該方法在不考慮上下文感知算法的情況下,在能量消耗、執行成本、網絡延遲和公平性等方面優于本地計算、卸載和FL算法.

盡管目前尚未有專家和學者在上下文場景中考慮到non-IID數據,然而上下文場景是一個值得探索的方向.或許在處理non-IID數據問題上可加入上下文場景,有針對性的為客戶端進行推薦模型,對于擁有non-IID數據的客戶端給其推薦互補的訓練模型,對于其他用戶則推薦一般目標模型進行訓練即可.當然,該方法需要大量的研究及探索才能驗證.

6 結束語

隨著大數據時代的到來,用戶對于隱私安全的保護意識越來越強烈,傳統的機器學習已經不能滿足人們對隱私安全保護的需求.聯邦學習的出現打破了數據孤島問題并極大程度地確保了隱私安全,因而得到了廣泛的應用.然而Non-IID數據的存在不僅導致聯邦學習效率降低、精確度下降等問題同時還給聯邦學習的隱私保護帶來了新的挑戰,因此對于non-IID數據的研究仍是一個熱點話題.本文將上述方案歸納整理,并系統的分析了相關研究.針對現有研究方案的不足,本文從信任與激勵機制、用戶關聯模型和感知情景等方面提出了聯邦學習未來的研究方向,為聯邦學習中non-IID問題的進一步研究提供參考,從而為相關領域的研究人員提供考察和幫助.

猜你喜歡
聯邦客戶端服務器
一“炮”而紅 音聯邦SVSound 2000 Pro品鑒會完滿舉行
通信控制服務器(CCS)維護終端的設計與實現
303A深圳市音聯邦電氣有限公司
縣級臺在突發事件報道中如何應用手機客戶端
孵化垂直頻道:新聞客戶端新策略
基于Vanconnect的智能家居瘦客戶端的設計與實現
中國服務器市場份額出爐
得形忘意的服務器標準
計算機網絡安全服務器入侵與防御
20年后捷克與斯洛伐克各界對聯邦解體的反思
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合