?

面向運動想象腦電信號識別的多層判別字典對學習方法

2024-03-05 19:47商俊燕丁輝胡學龍
計算機應用研究 2024年2期

商俊燕 丁輝 胡學龍

收稿日期:2023-06-14;修回日期:2023-07-31? 基金項目:國家自然科學基金資助項目(61802336);江蘇省“六大人才高峰”第七批高層次人才資助項目(2010-DZXX-149)

作者簡介:商俊燕(1978—),女,江蘇常州人,副教授,碩士,主要研究方向為大數據技術、人工智能研究;丁輝(1969—),女,江蘇大豐人,教授,碩士,主要研究方向為計算機應用技術研究;胡學龍(1960—),男(通信作者),江蘇揚州人,教授,碩士,主要研究方向為圖像處理技術研究(shangjycz001@126.com).

摘? 要:面向運動想象的腦機接口(brain computer interface,BCI)能夠利用自主想象的特定動作觸發腦電信號直接實時控制外部電子設備。運動想象腦電信號(motor imagery electroencephalogram,MI-EEG)存在信噪比低、類內差異大、類間差異小等特點,導致MI-EEG的識別率較低且不穩定。針對該問題,提出了多層判別字典對學習(multilayer discriminant dictionary pair learning,MDDPL)方法。與基于字典學習的MI-EEG識別方法不同,MDDPL將字典對學習融入多層學習模型,通過一系列非線性方法將數據投影到更具判別力的子空間。在綜合字典和分析字典的共同作用下,前一層的編碼向量作為當前層的輸入,同時在每一層模型上構建基于分析字典的多分類項,以保證稀疏編碼的分類誤差最小化,增強模型的類別區分能力。另外,對最后一層的稀疏編碼施加低秩約束,以保證同類編碼的緊湊性和相似性。在目標式求解中,使用交替更新策略得到每個參數的解析解,使得參數同時得到最優解。在國際BCI競賽數據集上的實驗結果表明,MDDPL方法在所有對比算法中取得了最佳的分類性能。

關鍵詞:運動想象;腦電信號;多層學習模型;字典對學習

中圖分類號:TP391??? 文獻標志碼:A

文章編號:1001-3695(2024)02-027-0501-06

doi:10.19734/j.issn.1001-3695.2023.06.0238

Multilayer discriminant dictionary pair learning algorithm for motor imagery electroencephalogram recognition

Shang Junyan1,2,Ding Hui1,Hu Xuelong2

(1.Dept.of Information Engineering,Changzhou Vocational Institute of Industry Technology,Changzhou Jiangsu 213164,China;2.College of Information Engineering,Yangzhou University,Yangzhou Jiangsu 225127,China)

Abstract:BCI for motion imagination can directly control external electronic devices in real-time using electroencephalogram signals triggered by specific actions of autonomous imagination.MI-EEG signals have characteristics such as low signal-to-noise ratio,large intra-class differences,and small inter-class differences,resulting in low and unstable recognition performance in MI-EEG.This paper proposed a multi-layer discriminant dictionary pair learning(MDDPL) algorithm to address the issue.Different from current dictionary based MI-EEG recognition algorithm,MDDPL incorporated the dictionary pair learning into the multi-layer learning model and projects data into the discriminant subspaces through a series of nonlinear projections.With the joint learning of synthesis dictionary and analysis dictionary,MDDPL used the encoding vector of the previous layer as the input of the current layer.At the same time,MDDPL constructed the multi-classification item based on the analysis dictionary on each layer of the model,so as to ensure the minimum classification error of sparse encoding and enhance the models class differentiation ability.In addition,MDDPL applied low rank constraints on the sparse encoding matrix of the last layer to ensure its compactness and similarity.In solving the objective function,MDDPL adopted an alternating update strategy to obtain analytical solutions for each parameter,ensuring that all parameters were simultaneously optimal.The experimental results on the international BCI competition datasets show that the MDDPL algorithm achieves the best classification performance among all comparison algorithms.

Key words:motor imagery;electroencephalogram;multi-layer learning model;dictionary pair learning

0? 引言

隨著腦機接口(BCI)技術的發展,基于BCI的人機交互在許多應用領域獲得了廣泛關注,例如,基于生理信號的情感識別、腦電控制輪椅運動、計算機操作中的光標運動等[1,2]。在眾多BCI信號中,運動想象腦電(MI-EEG)是最常用的腦信號,它具有高時間分辨率、高自由度和采集方便等優點。與常見的基于穩態視覺誘發電位和事件相關電位的BCI相比,基于MI-EEG的BCI可以更好地提供與控制命令之間的直觀映射[3]?,F有基于MI-EEG的BCI系統常利用EEG特征提取技術和基于機器學習的分類方法,如邏輯回歸和線性判別分析方法等[4]。近年來,稀疏表示和字典學習算法在BCI領域的理論和實踐上均取得了成功的應用。例如,付榮榮等人[5]使用稀疏思想和貪婪搜索聯合學習方法對共空間模式特征進行選擇,能有效去除特征模式重復的情況。Sreeja等人[6]從減少模型訓練時間出發,使用基于距離加權的策略來構建緊湊的字典,能夠有效縮短MI-EEG稀疏表示的計算時間。Sharghian等人[7]提出一種基于相關性的在線字典學習方法,可以獲得動態MI-EEG的稀疏表示。

盡管BCI相關領域的研究不斷有新的突破,然而構建一個高效的基于MI-EEG的BCI應用系統仍然是一項具有挑戰性的任務。一方面,MI-EEG維度高且非平穩,容易受到許多干擾因素的影響,如情緒和藥物狀態,不僅會給分類任務帶來干擾,還會因為高維特性使得字典學習的效率受到影響;而且MI-EEG包含復雜的時域和頻域信息,往往呈現出類間相似、類內差異的特點[8]。另一方面,字典學習方法在進行字典空間映射時往往和分類器的學習是分階段獨立運行,即先學習得到稀疏編碼,再進行樣本的分類。例如,徐淳瑤[9]對時域和頻域的MI-EEG先進行特征提取,再利用聚類方法得到多種特征的共有稀疏基矩陣,最后使用字典學習方法建立聯合編碼模型。Sreeja等人[10]從分割的MI-EEG數據中計算小波能量并構造字典,然后使用字典中的稀疏表示對測試數據進行分類。這些字典學習方法很難從分類器的角度對MI-EEG數據進行識別。

為解決上述問題,本文提出了一種面向運動想象腦電信號識別的多層判別字典對學習(multilayer discriminant dictionary pair learning algorithm,MDDPL)方法。MDDPL使用字典對學習模型作為基線算法學習綜合字典和分析字典,習得的綜合字典具有信號的重構功能,分析字典則用于線性投影計算稀疏編碼。受多層學習模型的啟發,MDDPL將字典對學習拓展至多層學習模式,使用一系列非線性方法逐步將數據投影到更具判別力的子空間。為了提高模型類間區別能力,MDDPL在每層模型上都加入基于分析字典的多分類項,它考慮每類稀疏編碼的分類誤差最小化,同時要求分類器判別不同類別樣本近似為空。為了提高編碼矩陣的判別能力,MDDPL在最后一層的編碼矩陣施加低秩約束,可以保證中間層的編碼矩陣也具有低秩性,以促使同類編碼矩陣具有強的相似性和緊致性。MDDPL方法的參數優化使用交替迭代優化策略,且參數都具有解析解。在多個MI-EEG數據集的實驗結果表明,MDDPL方法在運動想象識別領域是有效的。MDDPL方法的優點在于:a)MDDPL在連續非線性轉換中學習稀疏編碼矩陣,將它們連續投影到一系列新的特征空間。隨著模型層數的增多,多層字典學習到的字典和稀疏編碼較單層字典學習模型有更好的重構能力。b)MDDPL利用樣本的監督信息,將多層字典學習與分類器聯合在一個學習模型,并結合稀疏編碼的低秩約束,增強綜合字典的重構能力,以及分析字典和分類器的類別區別能力,達到提升模型整體判別能力的作用。

1? 相關工作

給定訓練集Y=[y1,…,yN]∈Euclid Math TwoRApd×N,其中d表示數據維數,N表示樣本個數。字典對學習期望得到一對具有重構和判別能力的綜合字典D∈Euclid Math TwoRApd×Q和分析字典P∈Euclid Math TwoRApQ×d,字典的原子維數為Q。字典對學習(dictionary pair learning,DPL)[11]的目標函數為

minP,D∑ci=1(‖Yi-DiPiYi‖2F+τ‖Pii‖2F)

s.t.‖di‖22≤1,i(1)

其中:Di∈Euclid Math TwoRApd×Qi和Pi∈Euclid Math TwoRApQi×d分別表示第i類(1≤i≤c)樣本對應的綜合子字典和分析子字典;子字典原子數為Qi,∑ci=1Qi=Q,c表示樣本的類別數;τ是正則化參數。目標函數的第1項∑ci=1‖Yi-DiPiYi‖2F要求在每一類樣本上的重構誤差最小。目標函數的第2項‖Pii‖2F要求每個分析子字典投影其他類樣本到一個近似的零空間,使得PY矩陣近似為塊對角矩陣。

近年來,多層字典學習的有效性在眾多學習模型中得到了驗證[12,13]。多層字典學習能夠對單層字典學習得到的字典或稀疏編碼重新迭代利用,能夠挖掘不同層次樣本的潛在信息。在傳統的多層綜合字典學習模型中,設D(k)和A(k)是第k層訓練得到的綜合字典和稀疏編碼,g()是多層模型的激活函數。第k-1層訓練得到的稀疏編碼A(k-1)作為第k層學習模型的輸入,得到第k層學習模型的稀疏編碼A(k)。多層綜合字典學習的模型表示為

minD(1),…,D(K),A(K)‖Y-D(1)g(…g(D(K)A(K)))‖2F+λ‖A(K)‖1

s.t.? A(k-1)=g(D(k)A(k)),k=1,2,…,K(2)

其中:λ是正則化參數。

2? 多層判別字典對學習方法

MDDPL方法將傳統的DPL模型擴展到多層非線性模型,以逐步將數據投影到更具判別力的子空間,使得MDDPL方法具有更高的能力來處理復雜的MI-EEG識別問題。MDDPL方法的目標函數由多層字典對學習項、基于編碼矩陣的低秩項和基于分析字典的多分類項三部分構成。

2.1? 多層字典對學習項

因為式(1)是一個非凸模型,引入編碼矩陣A∈Euclid Math TwoRApQ×N,將式(1)松弛表示為

minPi,Di? ∑ci=1(‖Yi-DiAi‖2F+τ(‖PiYi-Ai‖2F+‖Pii‖2F))

s.t.‖di‖22≤1,i(3)

MDDPL方法將式(3)拓展至多層字典對學習模型,每一層模型本質上都實現了一個字典對學習。第一層模型的字典對學習項表示為

minP(1)i,D(1)i∑ci=1(‖Y(1)i-D(1)iA(1)i‖2F+

τ(‖P(1)iY(1)i-A(1)i‖2F+‖P(1)i(1)i‖2F))

s.t.‖di‖22≤1,i(4)

第一層輸入數據表示為原始訓練集Y(1)=[Y1,Y2,…,Yc]。輸入數據Y(1)經第一層字典對學習和非線性變化g(),表示為特征矩陣Y(2)=g(P(1)Y(1)),并作為第二層字典對學習的輸入數據。經過多層字典對學習,第K層的訓練數據表示為特征矩陣Y(K)=g(P(K-1)Y(K-1))。本文使用絕對值擴展函數g()實現非線性變換。

g(y)=[max(yT,0),|min(yT,0)|]T(5)

設第k層第i類的字典對表示為{D(k)i,P(k)i},第k層的字典對學習項表示為

minP(k)i,D(k)i∑ci=1(‖Y(k)i-D(k)iA(k)i‖2F+

τ(‖P(k)iY(k)i-A(k)i‖2F+‖P(k)i(k)i‖2F))

s.t.‖di‖22≤1,i(6)

其中:Y(k)=g(P(k-1)Y(k-1))=[Y(k)1,…,Y(k)c]。

2.2? 基于分析字典的多分類項

設H=[H1,…,Hc]∈Euclid Math TwoRApc×N表示訓練集Y的類別標簽,Hi表示第i類樣本的類別標簽,hi=[0,…,1,…,0]T∈Euclid Math TwoRApc表示第i個樣本的類別標簽,元素值為1的位置表示該樣本的類別。為保證分類結果的最優,在第k層的字典學習過程中,MDDPL要求每類稀疏編碼的分類誤差最小化,同時要求屬于類別k的分類器判別它類樣本的類別標簽近似為空。假設第k層模型的多分類分類器為W(k)=[W(k)1,…,W(k)c]∈Euclid Math TwoRApc×K(k),第k層模型的基于分析字典的多分類項表示為

minW(k)i,P(k)i∑ci=1(‖Hi-W(k)iP(k)iY(k)i‖2F+‖W(k)iP(k)i(k)i‖2F)(7)

2.3? 基于編碼矩陣的低秩項

為了挖掘多層連續投影過程中編碼矩陣的隱藏特征,MDDPL對最后一層模型的編碼矩陣實施低秩約束,使得樣本能夠被少量字典原子線性表示。另外,低秩約束有助于保持編碼矩陣緊湊性和同類編碼的相似性[14]。MDDPL的最后一層模型基于每個類別編碼矩陣的低秩項表示為

∑ci=1rank(A(K)i)(8)

下面證明如果最后一層模型的編碼矩陣A(K)i具有低秩性,那么在各中間層模型的編碼矩陣A(k)i也具有低秩性。由字典對學習可得A(k-1)i=D(k)iA(k)i,因此rank(A(k-1)i)=rank(D(k)iA(k)i)。由低秩特性,rank(D(k)iA(k)i)≤min(rank(D(k)i),rank(A(k)i)),可得rank(A(k-1)i)≤rank(A(k)i),可以推導得到rank(A(1)i)≤rank(A(2)i)≤…≤rank(A(K)i)。因此,MDDPL方法對最后一層模型上的A(K)i實施低秩約束將保留對前每一層的稀疏編碼的低秩特性。通過這種方式,每一層中的稀疏編碼將揭示數據投影過程中的全局結構,也可以使得稀疏編碼保持緊致和類內相似性。

2.4? 目標函數及優化過程

MDDPL方法的目標函數由多層字典對學習項、基于分析字典的多分類項和基于編碼矩陣的低秩項三部分組成。聯合這三部分,MDDPL方法的目標函數定義為

minP,D,A,Wα∑ci=1rank(A(K)i)+∑Kk=1∑ci=1(‖Y(k)i-D(k)iA(k)i‖2F+

τ(‖P(k)iY(k)i-A(k)i‖2F+‖P(k)i(k)i‖2F)+

λ(‖Hi-W(k)iP(k)iY(k)i‖2F+‖W(k)iP(k)i(k)i‖2F))

s.t.‖di‖22≤1,i(9)

其中:α和λ是正則化參數。

目標函數中存在四個待求解的變量{P,D,A,W},這四個變量相互影響,不能直接求解。本文采用交替迭代的方式求解,具體分為以下幾個步驟。

1)固定變量{P(k)i,D(k)i,W(k)i}求解A(k)i

a)對于第1~(K-1)層學習模型,目標函數可以表示為

minA∑Kk=1? ∑ci=1(‖Y(k)i-D(k)iA(k)i‖2F+τ(‖P(k)iY(k)i-A(k)i‖2F+

‖P(k)i(k)i‖2F)+λ(‖Hi-W(k)iP(k)iY(k)i‖2F+‖W(k)iP(k)i(k)i‖2F))

s.t.‖di‖22≤1,i(10)

得到關于A(k)i的目標式:

minA∑Kk=1? ∑ci=1(‖Y(k)i-D(k)iA(k)i‖2F+τ‖P(k)iY(k)i-A(k)i‖2F)(11)

對A(k)i求偏導并令導數為0,可得A(k)i的封閉解。

A(k)i=((D(k)i)TD(k)i+τI)-1(τP(k)iY(k)i+(D(k)i)TY(k)i)(12)

b)對于第K層學習模型,關于A(K)i的目標函數可以表示為

minAα∑ci=1rank(A(K)i)+∑Kk=1? ∑ci=1(‖Y(k)i-D(k)iA(k)i‖2F+τ‖P(k)iY(k)i-A(k)i‖2F)(13)

參照文獻[15],為了計算rank(A(K)i),假設A(K)i近似為兩個矩陣的乘積,即A(K)i≈BiCi,其中Bi∈RKi×s,Ci∈Rs×Ki,其中s是子空間的維度?!芻i=1rank(A(K)i)可以寫成

∑ci=1rank(A(K)i)=∑ci=1‖A(K)i-BiCi‖2F(14)

因此,式(13)可以改寫成

minA(K)i,BiCi? ∑ci=1(α‖A(K)i-BiCi‖2F+

‖Y(K)i-D(K)iA(K)i‖2F+τ‖P(K)iY(K)i-A(K)i‖2F)(15)

對A(K)i求偏導并令導數為0,可得A(K)i的封閉解。

A(K)i=((D(K)i)TD(K)i+(τ+α)I)-1(τP(K)iY(K)i+(D(K)i)TY(K)i+αBiCi)(16)

對Bi求偏導并令導數為0,可得Bi的封閉解。

Bi=A(K)iCTi(CiCTi)+(17)

對Ci求偏導并令導數為0,可得Ci的封閉解。

Ci=(BiBTi)+BTiA(K)i(18)

其中:+表示Moore-Penrose偽逆運算。

2)固定變量{P(k)i,A(k)i,W(k)i}求解D(k)i

得到關于D(k)i的目標式:

minP,D,A,W? ∑Kk=1? ∑ci=1‖Y(k)i-D(k)iA(k)i‖2F

s.t.‖di‖22≤1,i(19)

對D(k)i求偏導并令導數為0,可得D(k)i的封閉解:

D(k)i=Y(k)i(A(k)i)T(A(k)i(A(k)i)T+δI)-1(20)

其中:δI保證矩陣逆運算一定有解。

3)固定變量{D(k)i,A(k)i,W(k)i}求解P(k)i

得到關于P(k)i的目標式:

minP,D,A,W? ∑Kk=1? ∑ci=1(τ(‖P(k)iY(k)i-A(k)i‖2F+‖P(k)i(k)i‖2F)+

λ(‖Hi-W(k)iP(k)iY(k)i‖2F+‖W(k)iP(k)i(k)i‖2F))(21)

對P(k)i求偏導并令導數為0,可得P(k)i的封閉解:

P(k)i=(λ(W(k)i)TW(k)i+τI)-1(τA(k)i(Y(k)i)T+

λ(W(k)i)THi(Y(k)i)T)(Y(k)i(Y(k)i)T+(k)i((k)i)T)-1(22)

4)固定變量{D(k)i,A(k)i,P(k)i}求解W(k)i

得到關于W(k)i的目標式:

minW∑Kk=1∑ci=1(‖Hi-W(k)iP(k)iY(k)i‖2F+‖W(k)iP(k)i(k)i‖2F)(23)

對W(k)i求偏導并令導數為0,可得W(k)i的封閉解。

W(k)i=Hi(Y(k)i)T(P(k)i)T((P(k)i)T(Y(k)i(Y(k)i)T(P(k)i)T+

(P(k)i)T(k)i((k)i)T(P(k)i)T)-1(24)

2.5? 測試

MDDPL方法訓練結束后,得到每一層學習模型的最優參數{P(k),D(k),W(k)}。對于任意的測試樣本ytest,計算得到其在最后一層編碼表示,即

y(K)test=g(P(K-1)y(K-1)test)(25)

ytest的類別可由式(26)計算得到

label(ytest)=arg maxiW(K)iP(K)iytest(K)i? i=1,…,c(26)

值得注意的是,傳統字典學習在測試階段需要根據最小化經驗損失求解ytest的稀疏編碼。

minatest‖ytest-Datest‖22+λ‖atest‖p(27)

其中:‖·‖p常采用0或1范數的約束。

顯然,式(27)比式(25)的時間復雜度高。MDDPL方法繼承了字典對學習的優點,在測試階段具有效率優勢?;谏鲜鏊惴ǚ治?,MDDPL方法的訓練過程如下:

輸入:帶類別標簽的訓練集Y。

輸出:字典對{P(k),D(k)}和分類器W(k),1≤k≤K。

使用DPL[10]方法初始化字典對{P(1),D(1)},W{1}初始化為單位矩陣;

repeat

for k=1 to K do

for i=1 to c do

計算Y(k)使用Y(k)=g(P(k-1)Y(k-1))(1≤k-1≤K-1);

固定變量{P(k)i,D(k)i,W(k)i},使用式(12)更新A(k)i(1≤k≤K-1),使用式(16)更新A(K)i;

固定變量{P(k)i,A(k)i,W(k)i},使用式(20)更新D(k)i;

固定變量{D(k)i,A(k)i,W(k)i},使用式(22)更新P(k)i;

固定變量{D(k)i,P(k)i,A(k)i},使用式(24)更新W(k)i;

until目標式(9)收斂或者達到最大迭代次數

返回字典對{P(k),D(k)}和分類器W(k)(1≤k≤K)。

3? 實驗

3.1? 實驗數據及實驗設置

本文實驗數據取自于國際BCI競賽BCI Competition Ⅲ,Ⅳa[16]和BCI Competition Ⅳ,Ⅱa[17]公開數據集。BCI Competition Ⅲ,Ⅳ a數據集包含aa、al、av、aw、ay受試者的MI-EEG信號,每位受試者執行右手和右腳的兩類運動想象任務。每次實驗采集118個通道的MI-EEG數據,共獲得每個受試者的280組實驗數據。BCI Competition Ⅳ,Ⅱ a數據集包含A1~A9受試者,每位受試者分別執行左手、右手、足和舌頭四類想象任務,每次實驗采集22個通道的MI-EEG數據,共獲得576組數據。實驗中電極的放置位置如圖1所示。實驗開始時,被試者正對外部背景為白色十字交叉圖案,2 s后,屏幕出現上、下、左、右箭頭中的一種,分別代表不同的運算想象任務。箭頭1.5 s后消失并由十字圖形替代,并按照箭頭方向執行代表的運動想象任務,直到t=6 s時停止。實驗范式如圖2所示。

實驗選取0.5~2 s的時間窗對MI-EEG信號進行數據提取,使用一個5階巴特沃斯濾波器進行8~30 Hz的帶通濾波操作。特征提取環節則采用基于時頻域分析方法的小波能量(wavelet energy,WE)特征[18],特征的維度=類別數×通道數。WE特征通過小波變換將時頻圖中較高能量區域進行分解,得到顯著性強的局部特征信息。實驗對比方法主要包括兩類:a)對比算法是傳統的字典學習方法,包括K-SVD[19]和PDL[11]方法;b)對比算法是多層學習算法,包括MLDL[20]、TSMDL[21]、IMLP[22]、IML-ELM[23]和DDLCN[24]。K-SVD和PDL方法是單層字典學習,字典的原子數等于訓練集樣本數。多層學習模型中MLDL和TSMDL是多層字典學習方法,IMLP是多層感知器方法,IML-ELM是多層極限學習機方法。所有的多層學習模型的層數均設為3層。各方法的參數基本設置遵循原始文獻的設置,正則化參數的搜索范圍均設為{10-3,5×10-2,…,1},IML-ELM方法中節點數量為{10、15、20、25、30、40、50、100},且每層中的節點數相等。IMLP方法中使用修正線性單元(rectified linear unit,ReLU) 激活函數和均方誤差損失函數。DDLCN是深度字典學習方法,模型第一層是特征提取層,接著是n層字典學習層,然后是傳統CNN網絡(包括池化層、全連接層),最后是輸出層。輸出層使用支持向量機作為分類器。對比算法的其他參數設置均參照相關文獻的默認設置。MDDPL、MLDL、TSMDL和DDLCN方法中,字典學習的模型設置為3層結構,每類子字典的維數分別設置為40→30→20。MDDPL的正則化參數的搜索范圍均為{10-3,5×10-2,…,1}。實驗中隨機選取80%的MI-EEG數據用于模型訓練,剩余的20%MI-EEG數據用于模型測試,實驗重復10次。

3.2? 實驗結果分析

實驗在BCI Competition Ⅲ,Ⅳa和BCI Competition Ⅳ,Ⅱa數據集上比較了MDDPL方法與六種對比方法的性能。實驗比較了各個方法的分類精度、G-means值和F-measure的平均值。實驗結果如表1~6所示。

a)從平均分類精度這一評價指標看,多層學習模型的平均分類精度都高于傳統的單層字典學習方法K-SVD和PDL。MDDPL方法較K-SVD方法在兩個數據集上的平均分類精度分別提高5.24%和6.63%,比PDL方法在兩個數據集上的平均分類精度分別提高4.64%和5.97%。實驗結果表明多層次結構模型能更深度地挖掘MI-EEG數據的特征信息,也表明本文提出的多層判別字典對學習方法是適用于MI-EEG識別的。對比實驗中的多層學習模型,MDDPL方法也具有明顯的優勢。其中DDLCN方法分類精度較優,但MDDPL方法較DDLCN在兩個數據集上的平均分類精度分別提高1.00%和1.17%。IMLP著重于在多層感知器中優化確定輸入和輸出數據之間的權重和偏差,以降低損失函數的值,在面向類間相似性高的MI-EEG數據識別問題不具有優勢。IML-ELM將多層極限學習機與基準動態系統結合在一起,通過調整每個基準系統相關訓練程序來優化多層學習模型,但其在面向高度非平穩的MI-EEG信號也不具有優勢。DDLCN方法將字典學習和卷積神經網絡結合,但其字典學習部分是傳統的綜合字典學習,且在多層學習過程中沒有考慮分類器的嵌入和系數矩陣的低秩性,因此在處理BCI的MI-EEG識別問題時分類精度也低于MDDPL方法。

b)從G-means這一評價指標看,G-means計算了每個分類器在不同類別上分類準確率的幾何均值,只有當每個類別的分類均值較接近時,G-means有較高的值。BCI Competition Ⅲ,Ⅱa是一個2分類數據集,BCI Competition Ⅳ,Ⅱ a是一個4分類數據集。從表2、4結果可以看出,本文MDDPL方法依然取得了最佳的分類結果。從F-measure這一評價指標看, MDDPL方法在兩個數據集上均取得了最高值。說明所提方法優于對比的其他字典學習和多層學習模型,MDDPL方法的良好性能主要得益于字典對學習和分層模型的結合,通過一系列非線性投影將數據映射到更具判別力的子空間,在分析字典上引入多分類項,在編碼矩陣施加低秩約束,這些策略都能提高模型在MI-EEG領域的分類效果。

3.3? 消融性實驗

首先,驗證多層次學習模型的作用,設置模型層次數K=1。此時,MDDPL方法相當于字典對算法上加上了基于分析字典的多分類項和基于編碼矩陣的低秩項。實驗結果如表7所示??梢?,在層次數K設為1的情況下,MDDPL方法的平均分類精度明顯下降,在BCI Competition Ⅲ,Ⅳa和BCI Competition Ⅳ,Ⅱa數據集上的分類精度分別下降3.92%和4.30%。實驗結果表明,多層次學習模式確實有助于挖掘MI-EEG的深層特征信息,能構建更有識別性的學習模型。

其次,驗證MDDPL方法中基于分析字典的多分類項的作用,設置τ=0。實驗結果如表7所示?;诜治鲎值涞亩喾诸愴椑糜柧殬颖镜谋O督信息構建具有類間分離性的多分類器,顯然能對模型的分類性能起到決定性的作用。正如實驗結果所示,不考慮這項時,MDDPL方法在BCI Competition Ⅲ,Ⅳa和BCI Competition Ⅳ,Ⅱa數據集上的分類精度分別下降1.06%和2.24%。

然后,驗證MDDPL方法中基于稀疏矩陣低秩項的作用,設置參數α=0?!芻i=1rank(A(K)i)的目的是保證學習到的編碼矩陣具有類內緊致性,與基于分析字典的多分類項一起來提高模型的分類性能,實驗結果如表7所示??梢钥闯?,基于編碼矩陣的低秩項能直接影響模型最終的分類精度,在不考慮這項時,MDDPL方法在BCI Competition Ⅲ,Ⅳ a和BCI Competition Ⅳ,Ⅱ a數據集上的分類精度分別下降0.83%和0.98%??梢?,增強編碼矩陣的緊致性和類內相似性對提高模型的分類精度起到了重要作用。

3.4? 參數敏感性分析

首先,考察每個正則化參數的作用。MDDPL方法中正則化參數包括α、τ和λ。三個參數的搜索范圍均為{10-3,5×10-2,…,1},實驗中采用網格搜索法來確定其最優值,參數尋優中固定另外兩個參數。實驗結果分別如圖3(a)~(c)所示。α是基于稀疏矩陣的低秩項的正則化參數;τ是字典對學習中‖P(k)i(k)i‖2F的正則化參數,λ是基于分析字典的多分類項的正則化參數。從實驗結果看出,針對不同的α,MDDPL方法的分類精度變化也較溫和,只在小幅范圍內起伏變化。結合表5的實驗結果表明,基于稀疏矩陣的低秩項在MDDPL方法中是必須的,實際BCI運動想象MI-EEG識別問題中也可使用固定的α值。針對不同的τ,MDDPL方法的分類精度變化較溫和,不同的τ對應的分類精度變化不大。說明‖P(k)i(k)i‖2F對于整個模型較為重要。在面向BCI系統運動想象MI-EEG識別問題中,可以采用固定的τ值。對不同的λ,MDDPL方法分類精度是較敏感的,不同的λ值導致分類性能差異較大。因此,對λ采用網格搜索法是有效的。

其次,考察模型層數的作用。模型層數K的搜索范圍均為{2,3,…,6}。實驗結果分別如圖3(d)所示。MDDPL方法使用多層非線性模型來挖掘在多層連續投影過程中編碼矩陣的隱藏特征。K的值對應不同的投影變化。從實驗結果看出,在BCI Competition Ⅲ,Ⅳa和BCI Competition Ⅳ,Ⅱa數據集上,當K=3時,模型的分類精度可以達到穩定。因此,實驗中可以設置K為固定值3。

3.5? 矩陣可視化

實驗顯示了稀疏編碼矩陣A的可視化,實現結果如圖4所示。矩陣A具有類分離和稀疏的特性,同時,由于MDDPL方法在模型最后一層的每個類別的矩陣A(K)i上施加低秩約束,矩陣A具有塊對角結構,只需被少量字典原子線性表示。所以,MDDPL方法能夠充分挖掘多層連續投影過程中編碼矩陣的隱藏特征,模型具有較強的類區別能力。以促使同類編碼矩陣具有強的相似性和緊致性。

4? 結束語

運動想象BCI能結合人腦的想象思維和實際的控制應用,不依賴于外部視覺或聽覺刺激,是目前被廣泛研究的BCI技術。本文提出了一種適用于面向MI-EEG信號識別的多層判別字典對學習方法。該方法在字典對學習的基礎上,通過非線性函數將數據投影到一系列更具分辨性的子空間。為了增強模型的類間區分性和類內緊致性,引入基于分析字典的多分類項和基于編碼矩陣的低秩約束項,同時要求分類器判別不同類別樣本近似為空。實驗結果表明該方法在BCI Competition Ⅲ,Ⅳa和BCI Competition Ⅳ,Ⅱa數據集上取得了較好的分類性能。后續的研究工作包括:a)MDDPL方法對MI-EGG信號進行離線分析,訓練集和測試集都是事先準備好的。但在實際操作中測試集的獲取需要實時獲取,將MDDPL方法擴展至在線學習模式,根據測試樣本的批量輸入實時更新模型;b)訓練集樣本的標記信息獲取需要專業知識和時間成本,將MDDPL方法擴展至半監督學習模式,利用大量無標記樣本來輔助少量的標記樣本訓練模型。參考文獻:

[1]Chu Xiaolei,Song Xizi,Li Yuru,et al.An ultrasound-guided percutaneous electrical nerve stimulation regimen devised using finite element modeling promotes functional recovery after median nerve transection[J].Neural Regeneration Research,2023,18(3):683-688.

[2]Cui Zhengzhe,Li Yongqiang,Huang Sisi,et al.BCI system with lower-limb robot improves rehabilitation in spinal cord injury patients through short-term training:a pilot study[J].Cognitive Neurodynamics,2022,16(4):1283-1301.

[3]Dhiman R.Electroencephalogram channel selection based on Pearson correlation coefficient for motor imagery-brain-computer interface[J].Measurement:Sensors,2022,25(2):article ID 100616.

[4]張力新,常美榕,王仲朋,等.SSSEP提升下肢MI-BCI系統性能及其多維腦電特征分析[J].中國生物醫學工程學報,2021,40(4):429-437.(Zhang Lixin,Chang Meirong,Wang Zhongpeng,et al.Improve the performance of lower limb MI-BCI system based on SSSEP and its multi-dimensional EEG feature analysis[J].Chinese Journal of Biomedical Engineering,2021,40(4):429-437.)

[5]付榮榮,田永勝,鮑甜恬.基于稀疏共空間模式和Fisher判別的單次運動想象腦電信號識別方法[J].生物醫學工程學雜志,2019,36(6):911-915.(Fu Rongrong,Tian Yongsheng,Bao Tiantian.Recognition method of single trial motor imagery electroencephalogram signal based on sparse common spatial pattern and Fisher discriminant analysis[J].Journal of Biomedical Engineering,2019,36(6):911-915.)

[6]Sreeja S R,Samanta H D.Distance-based weighted sparse representation to classify motor imagery EEG signals for BCI applications[J].Multimedia Tools and Applications,2020,79(5):13775-13793.

[7]Sharghian V,Rezaii T Y,Farzamnia A,et al.Online dictionary lear-ning for sparse representation-based classification of motor imagery EEG[C]//Proc of the 27th Iranian Conference on Electrical Engineering.Piscataway,NJ:IEEE Press,2019:1793-1797.

[8]Meng Ming,Yin Xu,She Qingshan,et al.Sparse representation-based classification with two-dimensional dictionary optimization for motor imagery EEG pattern recognition[J].Journal of Neuroscience Methods,2021,361(9):article ID 109274.

[9]徐淳瑤.基于稀疏表示的運動想象腦電信號分類研究[D].秦皇島:燕山大學,2021.(Xu Chunyao.Classification of motor imagery EEG signals based on sparse representation[D].Qinhuangdao:Yanshan University,2021.)

[10]Sreeja S R,Samanta D.Classification of multiclass motor imagery EEG signal using sparsity approach[J].Neurocomputing,2019,27(11):133-145.

[11]Gu Shuhang,Zhang Lei,Zuo Wangmeng,et al.Projective dictionary pair learning for pattern classification[C]//Proc of the 27th International Conference on Neural Information Processing Systems.Cambridge,MA:MIT Press,2014:793-801.

[12]Gu Xiaoqing,Ni Tongguang,Zhang Cong.A hierarchical discriminative sparse representation classifier for EEG signal detection[J].IEEE/ACM Trans on Computational Biology and Bioinforma-tics,2021,18(5):1679-1687.

[13]Tim S,Rombaut M,Pellerin D,et al.Descriptor extraction based on a multilayer dictionary architecture for classification of natural images[J].Computer Vision and Image Understanding,2020,191(2):article ID 102708.

[14]Jiang Heng,Xu Chen,Liu Liu.Joint spatial structural sparsity constraint and spectral low-rank approximation for snapshot compressive spectral imaging reconstruction[J].Optics and Lasers in Enginee-ring,2023,162(3):article ID 107413.

[15]Ding Zhengming,Fu Yun.Deep low-rank coding for transfer learning[J].IEEE Trans on Neural Networks and Learning Systems,2019,30(6):1768-1779.

[16]Kübler A,Kotchoubey B,Kaiser J,et al.Brain-computer communication:unlocking the locked in[J].Psychological Bulletin,2001,127(3):358-375.

[17]Blankertz B,Muller K R,Curio G,et al.The BCI competition 2003:progress and perspectives in detection and discrimination of EEG single trials[J].IEEE Trans on Biomedical Engineering,2004,51(6):1044-1051.

[18]Phadikar S,Sinha N,Ghosh R.Unsupervised feature extraction with autoencoders for EEG based multiclass motor imagery BCI[J].Expert Systems with Applications,2023,213(3):article ID 118901.

[19]Jiang Zhuolin,Lin Zhe,Davis L S.Label consistent K-SVD:learning a discriminative dictionary for recognition[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2013,35(11):2651-2664.

[20]Tim S,Rombaut M,Pellerin D.Multi-layer dictionary learning for image classification[M]//Blanc-Talon J,Distante C,Philips W,et al.Advanced Concepts for Intelligent Vision Systems.Cham:Springer,2016:522-533.

[21]Gu Yi,Li Kang.A transfer model based on supervised multiple dictionary learning for brain tumor MRI image recognition[J].Frontiers in Neuroscience,2021,15(5):article ID 687496.

[22]Lee E.Runoff prediction of urban stream based on the discharge of pump stations using improved multi-layer perceptron applying new optimizers combined with a harmony search[J].Journal of Hydrology,2022,615(12):article ID 128708.

[23]Kale G,Karakuzu C.Multilayer extreme learning machines and their modeling performance on dynamical systems[J].Applied Soft Computing,2022,122(6):article ID 108861.

[24]Tang Hao,Liu Hong,Xiao Wei,et al.When dictionary learning meets deep learning:deep dictionary learning and coding network for image recognition with limited data[J].IEEE Trans on Neural Networks and Learning Systems,2021,32(5):2129-2141.

91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合