?

稀疏條件下的兩層分類算法

2015-02-11 03:22仝伯兵王士同梅向東
智能系統學報 2015年1期
關鍵詞:錯誤率貝葉斯煙霧

仝伯兵,王士同,梅向東

(1. 江南大學 數字媒體學院,江蘇 無錫 214122; 2. 贊奇科技發展有限公司,江蘇 常州 213000)

?

稀疏條件下的兩層分類算法

仝伯兵1,王士同1,梅向東2

(1. 江南大學 數字媒體學院,江蘇 無錫 214122; 2. 贊奇科技發展有限公司,江蘇 常州 213000)

在有限樣本下距離量的選擇對最近鄰算法(K-nearest neighbor,KNN)算法有重要影響。針對以前距離量學習泛化性不強以及時間效率不高的問題,提出了一種稀疏條件下的兩層分類算法(sparsity-inspired two-level classification algorithm,STLCA)。該算法分為高低2層,在低層使用歐氏距離確定一個未標記的樣本局部子空間;在高層,用稀疏貝葉斯在子空間進行信息提取。由于其稀疏性,在噪聲情況下有很好的穩定性,可泛化性強,且時間效率高。通過在噪聲數據以及在視頻煙霧檢測中的應用表明,STLCA算法能取得更好的效果。

稀疏貝葉斯;兩層分類;距離學習;視頻煙霧檢測;最近鄰算法;有限樣本;泛化性;時間效率

在分類問題中,最近鄰算法(K-nearest neighbor, KNN)是一種古老而又精確的確定決策邊界的非線性分類算法。給定一組訓練數據,KNN通過k個臨近的樣本中大多數標簽集對未知樣本進行預測。研究表明[1],最近鄰規則的漸近錯誤率最多是貝葉斯分類錯誤率的2倍,而且跟所使用的距離量無關。

當訓練集有無限數量的樣本時,類條件概率在無窮小的未標記測試樣本域中是常量而與所采用距離量的形式無關。由于歐氏距離在輸入空間中具有均勻的各向同性的性質,因此,歐氏距離作為距離度量來確定最近鄰樣本是自然的選擇。在缺乏先驗知識的情況下,大多數基于KNN的方法使用簡單的歐氏距離衡量樣本間的相似性。然而,在現實情況下,無限數量的訓練樣本是不存在的。因此,在有限樣本下,假設局部的類條件概率為常量是不成立的,這樣歐氏距離在訓練數據中不能充分利用統計規律。因而,選擇一個合適的距離量來提高最近鄰分類的性能變得至關重要。

在統計分類和信息檢索中,距離度量的學習起到了很大的作用。例如,先前研究表明[2],適當的距離度量可以明顯提升KNN算法的分類精度。大多數的距離度量學習可以分為以下兩大類:1)基于判別分析的度量學習如Domeniconi 和 Gunopulos[3]提出一種利用支持向量機作為指導來定義一個局部靈活度量(local flexible metric classification based on SVMs , LFM-SVM)的方法。然而,利用核函數方式使轉換數據從輸入空間轉換到高維特征空間時,數據不變性難以維持;2)基于統計分析的度量學習如Zhang 等[4]提出了一種通過知識嵌入從訓練數據集中學習距離度量的算法。由于它們位置接近而且局部特征具有相似性,使用新的距離度量可以確定輸入空間中的未標記的測試樣本近鄰。Gao等[5]提出了一種基于自適應距離度量的兩層最近鄰分類算法(two-level nearest neighbor , TLNN),該算法在低層以歐氏距離定義一個局部子空間,然后在高層用AdaBoost算法進行信息提取,算法框架如圖1所示。AdaBoost算法是由Freund和Schipare[6-8]提出的一種高效的分類方法,然而AdaBoost在有噪聲的情況下容易產生過度擬合導致泛化性差,而且由于AdaBoost進行弱分類器訓練時需要對訓練數據進行多次遍歷,進而導致時間效率較低。

文中提出了一種在稀疏條件下的兩層分類算法(sparsity-inspired two-level classification algorithm, STLCA)。在STLCA算法低層,先用歐氏距離定義一個未標記的樣本局部子空間限制高層分類器過度延伸,然后在分類器的高層,用稀疏貝葉斯方法在未標記樣本局部子空間進行信息提取,算法模型框架如圖2所示。

圖1 TLNN算法模型

圖2 STLCA算法模型

先構建核函數分類器,在求解權值過程中引入EM方法,根據稀疏貝葉斯理論使大部分權值趨于零,其對應的核函數樣本組成相關向量,保證分類器稀疏性。由于其稀疏性,在噪聲影響下也有很好的穩定性,且由于分類器不必多次遍歷訓練樣本使得時間效率較高。將得到的權值與核分類器組建概率模型,利用最小絕對誤差原則進行距離度量學習,將新距離量應用到最近鄰算法中,構成一種新的強分類器STLCA算法。通過對比實驗可知,STLCA算法在噪聲數據和視頻煙霧檢測應用中有很好的效果。

1 方法模型

1.1 用最小絕對誤差進行距離度量學習

設x是要預測的類標簽未知的樣本點,x′是x的最鄰近點。對于一般的最近鄰算法,未知樣本x被錯分的概率如式(1)[9]:

PN(e|x)=P(w1|x)P(w2|x′)+P(w2|x)P(w1|x′)=P(w1|x)[1-P(w1|x′)]+P(w2|x)P(w1|x′)=2P(w1|x)P(w2|x)+[P(w1|x)-P(w2|x)]·

式中:N表示訓練樣本的數量,w1,w2表示類標簽,為了簡便起見此處只考慮二分類,對于多分類問題通常轉換成多級二分類問題來處理。當訓練樣本的數量N→時,漸近條件錯誤率為

這樣,式(1)和式(2)都表示最近鄰法的條件錯誤率,只不過式(1)針對有限樣本,而式(2)是對無限樣本而言,如果考慮兩者之間的誤差,式(3):

PN(e|x)-P(e|x)=[P(w1|x)-P(w2|x)]·

在有限樣本或無限樣本訓練樣本下的平均絕對誤差的誤差率為式(4):

定義式(5)為

那么式(5)中σ(x,x′)和P(w1|x)-P(w1|x′)之間的對應關系如圖3所示。

圖 3 σ(x,x′)線性關系圖

由于[P(w1|x)-P(w2|x)]在式(3)中是一個常數項,那么最小化|PN(e|x)-P(e|x)|相當于最小化σ(x,x′)。通??梢酝ㄟ^增加訓練樣本的數量最小化σ(x,x′),或者定義一個等價距離量如文獻[5]中所采用的方法。然而在這里所論述的,是想通過另外的方式求解。

在2類問題y∈{1,-1}中(此時規定標簽w1=1,w2=-1),對于給定的x可以通過廣義線性模型[10]確定屬于某一類的概率:

式中:h(x)為分類器,γ為分類器權重向量。而此處Φ(z)為高斯累計分布函數(也被稱為鏈接函數),其形式為式(7):

將概率模型的輸入特征進行非線性轉換可以應用到非線性函數中,對于權值向量γ其基本形式包括以下3種形式[10-11]:

1)線性分類器:h(x)=[1 x1… xd],此時γ是一個d+1維的向量;

2)非線性分類器:h(x)=[1 φ1(x) ... φk(x)]T,此處φ(·)是非線性函數,γ為k+1維向量;

3)核函數分類器:h(x)=[1 K(x,x(1)) … K(x,x(n))]T,此處K(·,·)為核函數,γ為n+1維向量。

如果能夠得到γ值,那么就可以對變量x的標簽做出預測。對于普遍使用的參數估計方法如最大似然函數法有式(8)的表現形式:

或拉普拉斯條件概率分布,如式(10):

式中:α是假設參數向量。由于不能從公式中直接獲得參數γ,本文采用EM迭代方法獲取參數γ。對于參數γ按式(10)的拉普拉斯條件概率分布,可采用下面EM迭代步驟進行求解(算法1):

1)對于給定的訓練數據集計算矩陣H;此處采用核函數對矩陣進行運算,其中h(x)=[1 K(x,x(1)) … K(x,x(n))]T,

H=[hT(x1) hT(x2) … hT(xn)]T

2)計算γ的初始值,可以通過如下公式對γ 進行初始化:

式中:ε為初始參數,I為單位矩陣。

稀疏貝葉斯方法與給似然函數加上懲罰函數等方法的不同之處在于:稀疏貝葉斯方法在迭代優化的過程中能使大部分權值γi趨于零,其相應的核函數和訓練樣本被剔除,只保留少數的權值γi不為零,這樣可以保證分類器的稀疏性,其對應的保留下來的訓練樣本稱為相關向量(relevance vector, RV)。在概率模型中,一個重要的特性是該模型包含一個隱含變量即式(15)所示:

式中:η為均值為零單位方差的高斯變量。對于二分類問題,假設分類器定義為y=1如果z(x,γ)≥0,且y=-1當z(x,γ)<0。那么概率模型可以表示為式(16):

h(x)|0,1)=

P(γTh(x)+η≥0)

(16)

則式(5)可以表示為式(17):

σ(x,x′)=|P(1|x)-P(1|x′)|=

|Φ(γTh(x)|0,1)-Φ(γTh(x′)|0,1)|=

|P(γTh(x)+η≥0)-P(γTh(x′)+η≥0)|

(7)

則新的距離量可以改寫為式(18):

D′(x,x′)=|P(γTh(x)+η≥0)-P(γTh(x′)+η≥0)|∝|sign(γTh(x)+η≥0)-sign(γTh(x′)+η≥0)|=

此時已經定義了一個新的距離量,下面將給出算法步驟。

1.2 稀疏條件下的兩層分類算法

文中提出的稀疏條件下的兩層分類算法。先用最近鄰算法建立一個局部子空間,即在低層使用歐氏距離為每個測試數據選定k個近鄰樣本組成子空間,這樣可以限制稀疏貝葉斯信息提取時過度延伸;然后在STLCA分類器的高層,用上文中的新距離量從子空間選定近鄰來確定測試數據標簽。稀疏貝葉斯算法通過EM迭代優化的方法對權值γ進行求解,使大部分權值趨于零,保證了分類器的稀疏性,在噪聲情況下也有很好的穩定性。由于在求解過程中直接進行矩陣運算而不同于AdaBoost對訓練集多次遍歷評估弱分類器性能,因此時間效率較好。

綜上所述,STLCA算法描述如下(算法2):

1)利用上文中的算法一對權值向量γ值進行參數估計;

4)對于給定的觀測值x判定其標簽y:y=sign(avex′∈R′(x)y′)。

2 實驗與分析

本次試驗均在MATLAB7.10.0平臺下完成,實驗環境為CPU Intel Core(TM) i3-3240 3.40 GHz,內存4 GB。通過UCI數據集和視頻煙霧2種數據對算法有效性進行對比驗證。

2.1 UCI標準數據集

在本節中,使用真實數據集對幾種算法進行比較以驗證文中提出的算法和其他算法的分類效果及抗噪能力。從UCI數據庫中挑選二分類數據集進行測試,數據類別標記為+1和-1,刪除屬性值缺失的實例,數據的基本信息如表1所示。

表1 UCI數據集的基本信息Table 1 Description of UCI dada sets

實驗中所有訓練數據特征先進行歸一化到零均值和單位方差,測試數據使用相應的均值和方差進行歸一化。將每個數據集隨機分成2個大小相等的子集,使用其中一個子集作為訓練集,另一個作為測試集,然后再將2個子集交換。將過程重復10次(10×2交叉驗證),取平均值作為結果。在TLNN和STLCA算法中,近鄰數量關系設置為k1=2·k2+1,此處設置k2=3。在AdaBoost與TLNN算法中,以單特征值訓練泛化型AdaBoost的弱分類器,最大訓練迭代次數T=30。在稀疏貝葉斯和STLCA算法求解向量γ值時,設置ε=10-6和δ=10-3,在計算矩陣H時,核寬值如表2所示。

2.2 STLCA算法比較與分析

將STLCA與AdaBoost、TLNN、KNN和稀疏貝葉斯進行對比,各算法分類錯誤率如表3所示。

表2 UCI數據集核寬值Table 2 Kernel width of UCI data sets

表3 UCI數據集分類錯誤率

Table 3 Classification error rate of UCI data sets%

注:表中數值為錯誤率+標準差形式。

表3中顯示了不同算法數據分類的錯誤率,文中將錯誤率最低的數據加黑。從實驗結果看,在16組數據中,AdaBoost和TLNN算法各有2組數據取得最低錯誤率,KNN算法和稀疏貝葉斯算法分別有1組和3組數據取得最低錯誤率,而STLCA算法在8組數據中取得最優結果。在STLCA算法未取得最優結果的8組數據中仍有3組數據的實驗結果優于稀疏貝葉斯方法,可見STLCA算法在分類精度上整體要優于TLNN和稀疏貝葉斯等方法。

任何現實的算法模型在樣本學習中必須處理噪聲問題,因此,有必要測試在噪聲數據的影響下STLCA算法的性能。本文通過對表1中16組數據引入標簽噪聲來比較5種算法的抗噪性能。在訓練集中隨機挑選部分數據,然后調換它們的標簽,而其他樣本保持不變。這樣構造5%、10%、15%、20%的隨機噪聲數據集。表4~7給出了4種不同噪聲下5種算法分類錯誤率結果。

表4 5%噪聲數據分類錯誤率

Table 4 Classification error rate with 5% noise%

注:表中數值為錯誤率+標準差形式。

表5 10%噪聲數據分類錯誤率Table 5 Classification error rate with 10% noise%

表6 15%噪聲數據分類錯誤率

Table 6 Classification error rate with 15% noise%

注:表中數值為錯誤率+標準差形式。

表7 20%噪聲數據分類錯誤率

Table 7 Classification error rate with 20% noise%

注:表中數值為錯誤率+標準差形式。

將表4~7給出的 5種算法在標簽噪聲分布數據錯誤率最低的數據加黑。從實驗結果可以看出,AdaBoost算法在5%、10%、15%、20%的隨機噪聲數據集中分別有2組、1組、2組、2組數據中取得最優,然而除contraceptive數據集外,其他最優結果數據集并不一致,可見AdaBoost算法有一定波動性,容易受噪聲影響。TLNN算法分別在1組、1組、0組、0組數據集中取得最優,表明TLNN算法在噪聲條件下性能出現一定退化。稀疏貝葉斯和KNN算法未出現明顯波動,性能較為穩定。而STLCA在標簽噪聲為5%、10%、15%和20%的結果中分別有8組、9組、9組和11組數據取得最優,隨著噪聲數據增加分類結果變優,表明STLCA算法在噪聲情況下有很好的穩定性,泛化能力強。

2.3 視頻煙霧檢測

火災嚴重威脅人類的生命和財產安全,因此及時檢測和預防火災具有重要意義, 在火災監控中,煙霧檢測對于實現早期火災預警[15-17]具有重要作用。

文中將STLCA算法應用到視頻煙霧檢測中,以驗證算法的檢測效果。實驗中的煙霧視頻來源于土耳其Bilkent大學機器視覺研究室(http://signal.ee.bilkent.edu.tr/VisiFire/)視頻資源庫(http://imagelab.ing.unimore.it/visor/video_categories.asp)。圖4所示為4組實驗視頻截取第60幀圖像的場景,從左至右、從上至下依次為Video1~Video4。

圖4 實驗視頻場景

視頻分辨率為240×320,實驗中將每一幀圖像分為60像素×60像素的小塊,因此圖像被分為3×4塊。實驗中每組圖像數據為從相應視頻中每6幀取一幀圖像組成數據集,然后將每個數據集隨機分成2個大小相等的子集,其中一個為訓練集,另一個為測試集,數據集詳細信息如表8所示。

表8 煙霧檢測實驗數據信息Table 8 Description of smoke detection

將STLCA算法與文獻[20]中采用的AdaBoost算法以及文獻[5]中的TLNN算法進行煙霧檢測,并采用離散余弦變換和離散小波變換2種特征提取方式進行對比試驗。在STLCA算法與TLNN算法中近鄰數量關系設置為k1=2·k2+1,設置k2=3。在AdaBoost與TLNN算法中,以單特征值訓練泛化型AdaBoost的弱分類器,最大訓練迭代次數T=30。在STLCA算法求解向量γ值時,設置ε=10-6和δ=10-2,在計算矩陣H時核寬值選擇如表9所示。

表9 煙霧檢測核寬值Table 9 Kernel width of smoke detection

實驗通過分類準確率和算法運行時間(訓練時間+測試時間)2個方面對算法的效率進行評估,算法運行結果如表10和表11所示。

表10 煙霧檢測精度

Table 10 Accuracy of smoke detection %

算法Video1Video2Video3Video4AdaBoost+DCT93.5990.5696.1289.97TLNN+DCT93.4390.0096.2693.70STLCA+DCT95.9193.7896.5696.79AdaBoost+DWT92.7988.1196.9891.56TLNN+DWT93.7588.2296.7793.53STLCA+DWT94.3491.5696.7795.59

表11 煙霧檢測運行時間

Table 11 Time-consumed of smoke detection s

算法Video1Video2Video3Video4AdaBoost+DCT40.5981.39178.66330.70TLNN+DCT41.4983.78182.57337.61STLCA+DCT15.0138.92140.20229.92AdaBoost+DWT37.3084.11162.66292.66TLNN+DWT47.2376.89163.37301.21STLCA+DWT13.3627.2196.45199.19

表10和表11分別為AdaBoost、TLNN和STLCA算法并結合離散余弦變換和離散小波變換2種方式進行實驗,從檢測精度和運行時間2個方面得到的實驗結果。從實驗結果看,4組視頻中采用離散余弦變換進行特征提取檢測煙霧時, STLCA在4組數據中都取得了最優的結果,在采用離散小波變換進行特征提取進行煙霧檢測時,除Video3外在其余3組視頻中取得最優結果。從整體實驗結果看,STLCA算法在Video1、Video2和Video4等3組視頻數據中取得最優結果,在Video3數據中,雖然未取得最優結果,但STLCA算法結合離散小波變換方式檢測結果與最優結果非常接近。在時間效率方面,由于AdaBoost與TLNN算法在弱分類器訓練時需要多次對訓練集進行遍歷,時間效率較低。采用STLCA算法進行視頻煙霧檢測,由于以稀疏貝葉斯方式為基礎,使訓練時間大幅減小,無論采用離散余弦變換或者離散小波變換,STLCA算法的時間效率都明顯優于其他2種算法。因此STLCA算法有明顯的優勢。

3 結束語

文中提出了一種新的在稀疏條件下的2層分類算法(STLCA),先用最近鄰算法建立一個局部子空間,這樣可以限制稀疏貝葉斯信息提取時過度延伸,然后在STLCA分類器的高層,用稀疏貝葉斯在未標記樣本子空間進行信息提取。該方法使用少量核就可以達到很高的分類精度,由于其稀疏性在噪聲影響下仍有很好的穩定性,且時間效率高。STLCA算法性能通過在噪聲數據以及在視頻煙霧檢測中的應用得到驗證。然而該算法由于需要對矩陣進行運算,在對大量數據組成的矩陣求逆時需要大量內存空間,這也成為制約該算法性能的瓶頸,所以如何提取有效特征對數據矩陣進行壓縮,提高運算效率是未來研究的方向。

[1] COVER T M, HART P E. Nearest neighbor pattern classification[J]. IEEE Transactions on Information Theory, 1967, 13(1): 21-27.

[2]GOLDBERGER J, ROWEIS S, HINTON G, et al. Neighborhood components analysis[J]. Advances in Neural Networks, 2005, 16(4): 899-909.

[3]DOMENICONI C, GUNOPULOS D. Adaptive nearest classification using support vector machines[C]// Advances in Neural Information Processing Systems. Boston: MIT Press, 2002: 655-672.

[4]ZHANG Yungang, ZHANG Changshui, ZHANG D. Distance metric learning by knowledge[J].Pattern Recognition, 2004, 37(1): 161-163.

[5]GAO Yunlong, PAN Jinyan, JI Guoli, et al. A novel two-level nearest classification algorithm using an adaptive distance metric[J]. Knowledge Based Systems, 2012, 26: 103-110.

[6]FREUND Y, SCHAPIRE R. A Decision-theoretic generalization of on-line learning and application to boosting[J].Journal of Computer and System Sciences,1997,55(1),119-139.

[7]FREUND Y, SCHAPIRE R. Experiments with a new boosting algorithm[C] //Proc of the 13th International Conference on Machine Learning. Bari, Italy,1996: 14 8-156.

[8]SCHAPIRE R, SINGER Y. Improved boosting algorithms using confidence-rated predictions[J]. Machine Learning, 1999, 37(3): 297-336.

[9]張學工,邊肇祺.模式識別:2版[M].北京:清華大學出版社, 2000: 156-158.

[10]FIGUEIREDO M A T. Adaptive sparseness for supervised learning [J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2003, 25(9): 1150-1159.

[11]KRISHNAPURAM B, HARTEMINK A J, CARIN L, et al. A Bayesian approach to joint feature select and classifier design[J]. IEEE Trans on Pattern Analysis and Machine Intelligence, 2004, 26(9): 1105-1111.

[12]FIGUEIREDO M A T, JAIN A K. Bayesian learning of sparse classifiers[C]// Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition. [s.l.], 2001: 35-41.

[13]張旭東,陳鋒,高雋,等.稀疏貝葉斯及其在時間序列預測中的應用[J].控制與決策, 2006, 26(5): 585-588. ZHANG Xudong, CHEN Feng, GAO Jun, et al. Sparse Bayesian and its application to time series forecasting[J]. Control and Decision, 2006, 26(5): 585-588.

[14]TIPPING M E. Sparse Bayesian learning and the relevance vector machine[J]. Journal of Machine Learning Research, 2001(1): 211-244.

[15]CHEN Juan, HE Yaping, WANG Jian. Multi-feature fusion based fast video flame detection[J]. Building and Environment, 2010, 45(5):1113-1122.

[16]KO B C, KWAK J, NAM J. Wildfire smoke detection using temporal-spatial features and random forest classifiers[J]. Optical Engineering, 2012, 51(1): 1-10.

[17]羅勝,JIANG Yuzheng.視頻檢測煙霧的研究現狀[J].中國圖象圖形學報,2013,18(10):1225-1236. LUO Sheng, JIANG Yuzheng. State-of-art of video based smoke detection algorithms[J].Journal of Image and Graphics, 2013, 18(10): 1225-1236.

[18]GUBBI J, MARUSIC S, PALANISWAMI M. Smoke detection in video using wavelets and support vector machines

[J]. Fire Safety Journal, 2009, 44(8): 1110-1115.

[19]盛家川.基于小波變換的國畫特征提取及分類[J].計算機科學, 2014, 41(2): 317-319. SHENG Jiachuan. Automatic categorization of traditional Chinese paintings based on wavelet transform[J]. Computer Science, 2014, 41(2): 317-319.

[20]WANG Zhijie, BEN Salah , ZHANG Hong. Discrete wavelet transform based steam detection with Adaboost[C] // International Conference on Information and Automation. Shenyang, China, 2012: 542-547.

仝伯兵,男,1989生,碩士研究生,主要研究方向為人工智能與模式識別、數字圖像處理。

王士同,男,1964生,教授,博士生導師,主要研究方向為人工智能、模式識別和生物信息。

梅向東,男,1966生,高級工程師,主要研究方向為多媒體及計算機應用。

Sparsity-inspired two-level classification algorithm

TONG Bobing1, WANG Shitong1, MEI Xiangdong2

(1. School of Digital Media, Jiangnan University, Wuxi 214122, China; 2. Zanqi Science Technology Development Co.,Ltd, Changzhou 213000, China)

The selection of distance greatly affects KNN algorithm as it relates to finite samples due to weak generalization and low time efficiency in the previous learning of distance. In this paper, a new sparsity-inspired two-level classification algorithm (STLCA) is proposed. This proposed algorithm is divided into two levels: high and low. It uses Euclidean distance at the low-level to determine an unlabeled sample local subspace and at the high level it uses sparse Bayesian to extract information from subspace. Due to the sparsity in noise conditions, STLCA can have good stability, strong generalization and high time efficiency. The results showed that the STLCA algorithm can achieve better results through the application in noise data and video smoke detection.

parse Bayesian; two-level classification; distance learning; video smoke detection; KNN; finite samples; generalization; time efficiency

2014-07-14.

日期:2015-01-13.

國家自然科學基金資助項目(61170122,61272210);江蘇省自然科學基金資助項目(BK2011417);江蘇省“333”工程基金資助項目(BRA2011142).

仝伯兵. E-mail:tongbobing@163.com.

10.3969/j.issn.1673-4785.201407019

http://www.cnki.net/kcms/detail/23.1538.TP.20150113.1130.004.html

TP391.4

A

1673-4785(2015)01-0027-10

仝伯兵,王士同,梅向東. 稀疏條件下的兩層分類算法[J]. 智能系統學報, 2015, 10(1): 27-36.

英文引用格式:TONG Bobing,WANG Shitong,MEI Xiangdong. Sparsity-inspired two-level classification algorithm[J]. CAAI Transactions on Intelligent Systems, 2015, 10(1):27-36.

猜你喜歡
錯誤率貝葉斯煙霧
薄如蟬翼輕若煙霧
基于貝葉斯解釋回應被告人講述的故事
影視劇“煙霧繚繞”就該取消評優
基于動態貝葉斯估計的疲勞駕駛識別研究
小學生分數計算高錯誤率成因及對策
咸陽鎖緊煙霧與塵土
正視錯誤,尋求策略
解析小學高段學生英語單詞抄寫作業錯誤原因
基于互信息的貝葉斯網絡結構學習
會下沉的煙霧
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合