?

集上

  • 卷積神經網絡與人工水母搜索的圖特征選擇方法
    法,但在實際數據集上進行特征選擇的效果不好,結果較差.Peng et al[4]提出一種基于蟻群優化的改進特征選擇算法,雖然大幅提升了貝葉斯過濾器的性能,但整體提升效果較差.Xue et al[5]通過生成非主導解(特征子集)的帕累托前沿解將非支配排序的思想引入粒子群算法來解決特征選擇問題,但其收斂效果還有待提升.人工水母搜索(Artificial Jellyfish Search,AJS)算法是2020 年Ezzeldin et al[6]提出的一種新型

    南京大學學報(自然科學版) 2023年5期2023-10-29

  • 融入句法結構信息的句子級情感分析算法*
    ebank)數據集上學習文本的句法結構信息,該網絡編碼句子成分結構樹的過程如圖2 所示,具體計算公式如下:圖2 Tree-LSTM網絡的訓練和預測其中ij,fjk,oj,uj,cj,?j同LSTM深度神經網絡里一樣,分別為輸入門、遺忘門、輸出門、輸入表示、單元狀態和輸出的隱層狀態,W,U,b均為可學習參數,N是指父節點所包含子節點數,對于成分句法樹來講N=2,即每個父節點只有左、右兩個子節點。接下來使用Stanford Parser[14]將目標領域訓練集

    計算機與數字工程 2023年6期2023-09-29

  • 基于深度學習的核電設備缺陷檢測算法的實現與應用
    ,在訓練集、驗證集上的試驗結果分別如圖2、圖3 所示,模型在訓練集上的損失不斷下降,模型在驗證集上的損失不斷增加。在驗證集上的召回率如圖4 所示,訓練達到一定輪次后,召回率在22%左右波動。在驗證集上的精確率如圖5 所示,精確率升至50%后不斷下降。模型在訓練集上的損失正常下降,說明模型在不斷收斂,在驗證集上的精確率卻在下降,說明模型的泛化能力弱。圖2 訓練集上的損失值圖3 驗證集上的損失值圖4 驗證集上的召回率指標圖5 驗證集上的精確率指標初步訓練后,該

    中國新技術新產品 2023年8期2023-07-17

  • 迭代修正魯棒極限學習機
    數據集和真實數據集上進行了數值實驗。通過10 次交叉驗證和網格搜索方法選擇實驗參數。所有上述算法選擇的參數的范圍如下:參數kmax:{10i,i=2,3,4},停止閾值p:{10i,i=-5,-4,…,1,2},正則化參數C1、C2:{10i,i=-5,-4,…,4,5}。所有的實驗都在3.40 GHz 的機器上使用Pycharm 2019 進行。比較算法是極限學習機(ELM)和一些魯棒極限學習機,包括加權極限學習機(WELM)、迭代重加權極限學習機(IR

    計算機應用 2023年5期2023-05-24

  • 基于標記權重和mRMR的多標記特征選擇
    給出了在3個數據集上5種算法在5個評價指標上的最佳實驗結果。由圖1可知,在AP指標下,在Yeast數據集上,當N = 10時,MFSLM算法略差于WFSAM算法,優于其他3種算法,但在其余情況下均為最優;在Enron數據集上,當N = 100時,MF?SLM算法差于MFS-KA算法,優于其他3種算法,當N = 300時略差于WFSAM算法,但在其余情況下均為最優;在Reference數據集上,當50 ≤ N ≤ 200時,MFSLM算法差于WFSAM、MU

    山西大學學報(自然科學版) 2023年1期2023-04-06

  • 實數集到時標上的概念推廣的若干原則
    起來,只需將實數集上的概念推廣到時標上,建立時標上相應的理論,當時標退化為實數集和整數集時,所得到的理論就分別是微分方程和差分方程中的理論.因此,將實數集上的概念推廣到時標上是有意義的.2 遵循的原則如果將定義在實數集上的某類函數推廣到了時標上,但在時標上卻找不到這種函數的例子,那該定義的推廣就是毫無意義的,所以,從實數集到時標上的概念推廣,第一個應該遵循的原則是—推廣后的概念是良定義.2.1 良定義在筆者的以前的論文中[4]已經將加權偽概周期函數的概念推

    大學數學 2022年6期2023-01-14

  • 基于遷移學習的垃圾圖像分類模型的比較研究
    ashNet數據集上獲得87.2%的準確率;Aral等〔6〕又微調了DenseNet、Inception-v4、Xception以及MobileNet網絡,在TrashNet數據集上進行訓練及測試,得出使用微調后的DenseNet網絡時效果最好,達到95%的準確率。TrashNet數據集具有背景簡單、特征突出等特點,因此現有基于TrashNet數據集的方法往往都取得較高的準確率。當前的深度學習模型包括傳統的深度卷積神經網絡和基于注意力機制的深度神經網絡?,F

    大理大學學報 2022年12期2022-12-21

  • 噪聲魯棒的高光譜圖像波段選擇方法
    linas 數據集上的可視化矩陣。圖1(a)和圖1(c)分別展示了歐氏距離在Indian Pines 數據集與Salinas 數據集上的可視化矩陣。根據右側圖例,越靠近深藍色區域歐氏距離越小,代表波段間的光譜差異越??;越靠近深紅色區域歐氏距離越大,代表波段間的光譜差異越大;可以看出,噪聲波段與其他正常波段間的歐氏距離較大,但噪聲波段間的歐氏距離較小,例如Indian Pines 數據集中103—112 波段和148—165 波段,Salinas數據集中10

    遙感學報 2022年11期2022-12-15

  • 基于標記相關性和ReliefF的多標記特征選擇
    在7個多標記數據集上的分類結果。從表2中可以看出,在AP指標上,MI-LW算法在Emotions、Education、Social、Yeast、Flags和Arts這6個數據集上均取得最優;在Health數據集上,MI-LW算法為次優,與ReliefF+I-Cor持平,比ReliefF高了0.063 3。在CV指標上,MI-LW算法在Emotions、Health、Yeast和Flags這4個數據集上均取得最優;在Education數據集上,MI-LW算法

    西北大學學報(自然科學版) 2022年5期2022-11-13

  • 基于雙空間模糊鄰域相似關系的多標記特征選擇
    角度將多標記數據集上的特征進行分類,又從模糊相似關系的角度計算每個樣本之間特征值的相似度.雖然基于FNRS的特征選擇方法已在單標記數據集上廣泛應用,然而少有針對多標記數據集的研究.因此,開發基于FNRS的多標記特征選擇方法是有必要的.現有的基于模糊鄰域粗糙集的多標記特征選擇算法多從特征或標記的單一角度刻畫特征對標記的重要程度,未綜合考慮特征空間和標記空間對樣本相似度的影響,并且大部分基于鄰域關系的特征選擇方法是借鑒專家的經驗選取鄰域參數值,具有一定的主觀性

    模式識別與人工智能 2022年9期2022-10-17

  • 用于單音音樂音高估計的密集擴張卷積殘差網絡
    [28]3個數據集上進行訓練.iKala數據集包含252個歌曲片段,每一條音樂的長度都是30 s,采樣頻率為44 100 Hz.音樂伴奏和歌唱聲音分別在左右聲道錄制.MDB-stem-synth是來自MedleyDB的230個單音音頻片段的集合,它使用分析/合成方法[27]生成合成音頻,并提供完美的F0注釋,以保持原始音頻的音色和動態跟蹤.該數據集包含230個曲目,25個樂器,總時長為15.56 h.MIR-1K數據集是中文流行歌曲數據集,包含1 000首

    東北師大學報(自然科學版) 2022年3期2022-09-28

  • 基于AP聚類和互信息的弱標記特征選擇方法
    在6個多標記數據集上的實驗結果. 最優結果為粗體表示.表2 0%缺失標記下4個指標的實驗結果對比Table 2 Comparison results of four metrics under 0% missing labels表3 20%缺失標記下4個指標的實驗結果對比Table 3 Comparison results of four metrics under 20% missing labels表4 40%缺失標記下4個指標的實驗結果對比Table

    南京師大學報(自然科學版) 2022年3期2022-09-17

  • 單雙點平滑結合的流形正則化半監督分類學習框架
    最后在UCI數據集上的實證結果顯示,SDS_MR與MR相比具有一定的競爭力。為了更好地預測效果,近期有研究表明[9]對MR的改進,獲得或多或少的改進效果。事實上,本文提出的SDS_MR框架也可以引入到這些改進中,有望進一步提高預測的有效性。1 相關工作1.1 流形正則化半監督分類框架(MR)流形假設是半監督學習中最常用的數據分布假設之一,它假設流形結構上的相似實例應該共享相似的分類輸出。MR是一種半監督分類框架,它就是運用了流形假設進行深入研究的,近年來應

    計算機應用與軟件 2022年5期2022-07-07

  • 基于自適應采樣的不平衡分類方法
    后得到在原先訓練集上的一個采樣子集,并將該子集投入網絡進行訓練,同時將訓練的結果視為獎勵反饋給智能體進行訓練,從而更新采樣策略。Kim等[9]提出一種利用多數類樣本生成少數類樣本的上采樣方法M2m,其首先在原始的不平衡分布數據集上訓練得到一個預訓練網絡,然后利用該預訓練網絡輔助挑選多數類樣本并生成少數類樣本。針對數據層面的重采樣方法大多使用固定的采樣策略,在訓練過程中無法根據分類模型的具體表現調整采樣策略。Peng等[8]提出的基于強化學習的下采樣方法雖然

    華南理工大學學報(自然科學版) 2022年4期2022-06-17

  • 基于隨機擾動的過擬合抑制算法
    些模型在大型數據集上獲得了較為優異的預測性能。但是當這樣的大型網絡模型在小數據集上進行訓練時,由于可能存在很多冗余的特征,容易產生過擬合,從而導致模型預測性能不理想。當前針對模型的過擬合問題,主要是在模型的訓練過程中對提取的樣本特征采用一些正則化方法,例如:Dropout, 歸一化[1-4]等,或是直接使用預訓練權重進行初始化,然后在新的數據集上進行微調。其中,Dropout和歸一化方法主要針對樣本的特征進行操作,除此之外,在2019年和2020年,Yan

    計算機仿真 2022年5期2022-06-14

  • 基于Hellinger距離的不平衡漂移數據流Boosting分類算法*
    l 2種類型數據集上運行,實驗結果使用G-mean指標展示,如表4和表5所示。表4給出了在突變型數據集上不同塊大小算法的G-mean性能。整體看初始隨著塊大小的增長G-mean值也在不斷增長,當d=1 000時除了Spiral數據集外其余7個數據集上的G-mean都開始下降,說明隨著塊大小的增大,不平衡比率也都在不斷變化,使得分類器適應它的能力變差。但是,在d=1 750時,G-mean開始緩慢增長,Drifting Gaussian和Hyper Plan

    計算機工程與科學 2022年5期2022-05-27

  • 基于注意力和標簽自適應的跨域行人重識別①
    型在兩個不同數據集上性能的巨大落差。為增強行人重識別模型在跨域任務中的性能,文獻[7]提出了源域相機到目標域相機的圖像轉換方法。該方法不直接在源域和目標域之間進行圖像樣式轉換,而是將每一個相機看成是一個獨立的子域,利用StarGAN[8]的多域圖像到圖像的轉換方法,生成帶有源域身份關聯的目標相機域樣式的圖像,通過在生成的帶有身份關聯的圖像上學習目標域行人身份特征表示。但這種方法生成的圖像并不能完全替代真實的圖像,可能導致生成的圖像細節不利于行人重識別任務。

    高技術通訊 2022年2期2022-04-08

  • 結合流形學習與邏輯回歸的多標簽特征選擇
    等5 個經典數據集上的收斂性結果。圖1 FSML 算法在不同數據集上的收斂性結果Fig.1 Convergence results of FSML algorithm on different datasets3 實驗與結果分析采用5 個經典數據集進行FSML 算法有效性驗證,并將其與SCLS[21]、MDMR[22]、PMU[23]、FIMF[24]、CMLS[25]算法以及Baseline(選擇所有特征)進行性能比較,同時選擇ML-KNN[26]算法作

    計算機工程 2022年3期2022-03-12

  • 基于自適應鯨魚優化算法和容錯鄰域粗糙集的特征選擇算法
    6個高維基因數據集上的實驗表明,本文算法可有效選擇特征個數較少且分類精度較高的特征子集.1 基礎知識1.1 鯨魚優化算法鯨魚優化算法(WOA)是模擬座頭鯨捕食行為而提出的一種尋優算法,主要包括包圍獵物、氣泡網攻擊和隨機搜索3種行為[20].下面簡要介紹3種行為的位置更新模型.1)包圍獵物.由于目標位置或最優個體位置未知,WOA需要假設目標位置.一般選擇初始適應度值最大的個體位置為目標位置,鯨魚群體就會游向目標位置,位置更新公式如下:S(j+1)=S*(j)

    模式識別與人工智能 2022年2期2022-03-11

  • 融合多權重因素的低秩概率矩陣分解推薦模型
    ,其中在北京數據集上共有15384名用戶,相互信任關系141556條,產生的有效評分70146條,評分信息的稀疏度為98.32%,用戶社交關系的稀疏度為99.88%。Ciao是著名的歐洲消費點評網站,網站用戶不僅可以瀏覽其他用戶的評論還可以對其參與的商品進行評價。本文所采用的實驗數據來自Tang等人[15]獲取的1999年~2011年間的項目評分和社交數據。其中共有7357名用戶,評分記錄278483條,相互信任關系111781條,評分信息的稀疏度為99.

    電子與信息學報 2022年2期2022-03-09

  • 關于短文本匹配的泛化性和遷移性的研究分析
    我們首先在源數據集上進行訓練,然后在目標數據集上直接測試性能(泛化),為了規避模型對泛化能力的影響,我們在所有實驗中都使用了2個深度學習模型進行對照,一個是傳統的深度學習模型ESIM[12],另外一個是預訓練語言模型BERT[8].然后通過力導向圖算法可視化數據集之間的關系.對于問題2,我們首先在源數據集上進行預訓練,然后在目標數據集上微調再測試性能(遷移),同時對數據集之間的遷移關系進行了定量的分析,即給定不同的源數據集的數據量,觀察遷移帶來的性能提升效

    計算機研究與發展 2022年1期2022-01-19

  • GCD封閉集上的冪矩陣行列式間的整除性
    朱光艷, 李 懋, 譚千蓉(1. 湖北民族大學教育學院, 恩施 445000;2.西南大學數學與統計學院, 重慶 400715;3.攀枝花學院數學與計算機學院, 攀枝花 617000)1 IntroductionThroughout this paper, we denote by (x,y) (resp. [x,y]) the greatest common divisor (resp. least common multiple ) of intege

    四川大學學報(自然科學版) 2021年6期2021-12-27

  • 融合分類信息的隨機森林特征選擇算法及應用
    集,且在該特征子集上所構建的分類或回歸模型達到與特征選擇前近似甚至更好的預測精度。特征選擇不僅可以提高應用算法的空間和時間效率,避免“維數災難”[2],還可以在一定程度上避免算法的過擬合問題。根據特征評價策略,特征選擇方法大致分為兩種:過濾式(Filter)和封裝式(Wrapper)[3-4]。過濾式方法在數據預處理步驟中對特征排序,設定閾值選擇最優特征子集,這種方法獨立于后續采取的機器學習算法。過濾式方法中經典的排序準則有Pearson相關系數[5]、互

    計算機工程與應用 2021年17期2021-09-07

  • 一種改進的ELM-SAMME算法及應用研究?
    個UCI公共數據集上進行實驗,其中不平衡率為少數類樣本與多數類樣本數量的比值。將本文方法首先和極限學習機(ELM)算法、以SVM為 弱 分 類 器 的AdaBoost算 法[11]、標 準 的ELM-SAMME算法的進行結果進行比較,本文算法為IELM-SAMME。各方法的參數設置如下:ELM中,激活函數設置為sigmoid函數,隱層節點數L設置為 nl(n為輸入節點數,l為輸出節點數);SVM-AdaBoost方法中迭代次數設置為10。ELM-SAMME

    計算機與數字工程 2021年6期2021-06-29

  • 基于LSTM神經網絡的股票價格預測研究
    經網絡模型在訓練集上訓練模型并在測試集上進行測試,對比不同的神經網絡模型在不同的參數設置下的模型性能。本文選取模型評價指標中的平均絕對誤差(MAE)、均方誤差(MSE)、平均絕對百分比誤差(MAPE)以及預測數據和真實數據之間的相關系數(ρ)作為模型性能的評價指標。平均絕對誤差為(12)均方誤差為(13)平均百分比誤差為(14)相關系數為(15)2.3 實驗結果及分析使用訓練集訓練不同的神經網絡模型,然后在測試集上測試模型的性能,各模型在測試集上的預測結果

    北京信息科技大學學報(自然科學版) 2021年1期2021-04-09

  • 基于修剪樹的優化聚類中心算法
    法,并在實際數據集上取得較好的應用效果,但該算法的聚類精度受SVNs距離測度的影響較大.2014年,徐晨凱和高茂庭[11]提出改進的最小生成樹自適應分層聚類算法,根據近鄰關系為每個聚類簇設定獨立的閾值,適應分布密度相差較大的情況,實驗結果表明,在分布密度不均時算法可獲得較好的聚類效果.2016年,賈瑞玉和李振[12]將初始樣本構造成最小生成樹,利用層次分裂思想將樹劃分成多個簇,通過k?means算法迭代操作得到每次操作的評價函數值來判斷是否進行簇合并,該算

    南京大學學報(自然科學版) 2021年2期2021-03-25

  • 基于遷移學習和批歸一化的菜肴圖像識別方法
    果直接在相關數據集上進行訓練可能會帶來嚴重的過擬合現象。對此,引入了遷移學習從而一定程度上緩解過擬合。Yanai等[10]從ILSVRC 1000 ImageNet數據集[11]和ImageNet 21000數據集中抽取出1 000種食物相關的圖像,將其合并組成預訓練數據集。將在該預訓練集上訓練成熟的AlexNet模型[12]應用到UEC-Food100數據集和UEC-Food256數據集上,并再次取得了當時最好的分類結果。Szegedy等[13]提出的G

    計算機應用與軟件 2021年3期2021-03-16

  • 采場覆巖光纖監測數據LSSVM填補方法
    的有效性,在Ci集上通過隨機函數確定需要挖去的數據,形成MCAR類和MAR類、NMAR類特征的缺失數據。3)將以上2步處理好的Ci劃分為S_train和S_test樣本。4)設置σ2,γ參數初始值。根據經驗在實驗過程中設置γ,σ2這2個參數的初始值分別為10和0.1。參數γ是權衡模型復雜度與誤差之間的關系,σ為函數的寬度參數,控制了函數的徑向作用范圍,對系統的泛化能力具有一定影響。5)對S_train樣本進行LSSVM模型訓練,輸入為位置信息和覆巖層屬性組

    西安科技大學學報 2021年1期2021-03-02

  • 基于互信息的多級特征選擇算法
    不同分類器和數據集上的優劣,本文使用Win/Draw/Loss 來統計并分析算法兩兩之間的差異。Win 表示算法A 優于B,Draw 表示算法A 等于B,Loss 表示算法A差于B[17]。表2的數據表示6種算法在不同數據集上,采用10折交叉驗證法[22]在SVM 分類器得到的平均分類準確率結果。從表2可以看出,MI_MLFS 在15 個數據集上的分類準確率均比ReliefF算法高,并且MI_MLFS在這15個數據集上的平均準確率(AVG)相較Relief

    計算機應用 2020年12期2020-12-31

  • 一種改進多尺度三維殘差網絡的高光譜圖像分類方法
    ersity數據集上未使用與使用三維卷積塊時模型參數量、訓練時間及總體分類精度情況??梢钥闯?在Indian Pines數據集上使用三維卷積塊后,參數量下降約7 100 000個,訓練時間和測試時間分別減少445.30 s和1.33 s,OA值提高0.25個百分點。在Pavia University數據集上使用三維卷積濾波器塊后,參數量、訓練時間及測試時間均有所下降,且OA值無明顯提高,這是因為Pavia University數據集比Indian Pine

    計算機工程 2020年12期2020-12-16

  • 基于Corr-LDA-ITD模型同時做圖像分類和標注
    法,并在真實數據集上對模型的分類和標注性能進行了驗證。1 Corr-LDA-ITD-P模型同時做圖像分類和標注1.1 Corr-LDA-ITD-P模型概率圖Corr-LDA-ITD-P模型的概率如圖1所示。1.2 Corr-LDA-ITD-P模型參數求解注利用變分EM算法求解參數[5],在E步驟中算得后驗Dirichlet參數γ,參數φ,參數ρ分別為:(1)(2)(3)經過E步驟之后然后在M步驟中計算模型參數π,β,α,μ分別為:(4)(5)本文沒有對α進

    無線互聯科技 2020年16期2020-12-04

  • PDEs對四種圖像降噪降維方法的影響
    -print數據集上進行了大量的比較實驗.1 預備知識本節簡要回顧文中要用到的SVM和OVO-MSVM,以及一些基本概念.1.1 二類支持向量機線性SVM是通過構建下面的二次規劃模型(1)來尋找分類決策函數f(x)=w,x+b,其中w∈Rd和b∈R分別是決策函數的法向量和閾值,C>0是模型參數,是松弛變量,‖·‖和·,·分別表示向量的歐氏范數和內積.通過求解模型(1)的Wolfe對偶模型(2)算法1(SVM)步5 構造分類決策函數f(x)=w*,x+b*.

    聊城大學學報(自然科學版) 2020年4期2020-05-19

  • 可能性聚類假設的半監督分類方法
    )最后在實際數據集上做了大量的實驗,證明了該方法的魯棒有效性和分類可靠性。2 SSPCA2.1 問題描述當前,在實際分類應用中基于半監督的聚類方法存在一些實例難以將其明確分配給單一類,例如那些邊界實例,由于傳統的硬聚類假設隱含地約束每個實例具有清晰的標簽分配,不能充分反映實際數據的分布情況,還有可能違反這些邊界實例的分布。因此,該假設應用于半監督分類時,對那些邊界實例的預測效果會比較差,尤其是當一些帶標簽的實例位于邊界附近時,將會進一步“誤導”分類。Wan

    計算機工程與應用 2020年9期2020-05-15

  • 基于聯合損失函數的小規模數據人臉識別
    在大規模公開數據集上訓練、測試. 針對現實生活中小規模人臉數據集,此類方法存在以下3個問題:① 公開的大規模人臉數據集多數為名人明星的照片或截取的視頻幀,且歐美人居多,多變性較差. 在實際應用中,由于人種、光照、年齡、遮擋、姿勢等問題,使得人臉識別更具有挑戰性. ② 現有方法均在深度神經網絡上進行訓練,模型參數較多. 然而,直接在模型上訓練小規模人臉數據集容易陷入過擬合,泛化能力較差. ③ 現有的方法均在公開數據集上測試,其在小規模數據集上是否有效尚未可知

    北京理工大學學報 2020年2期2020-04-07

  • 循環神經網絡在端到端語音識別中的應用*
    更好的性能。開發集上的學習曲線不穩定,意味著隨著訓練周期的增加,訓練的網絡模型在開發集上并沒有取得越來越好的性能。相對來說,BLSTM在開發集上的PER的整體趨勢是下降的。表1總結了不同網絡結構在訓練集和測試集上最終的PER。雙向網絡即BLSTM和BRNN在訓練集上的識別結果較好,然而比起單向網絡,雙向網絡在測試集上的識別性能遠遠不如在訓練集上的識別性能。這意味著雙向網絡存在過擬合問題。與RNN相比,LSTM更容易過擬合。對于BLSTM,僅20個訓練周期后

    通信技術 2019年11期2019-12-04

  • 一種針對異常點的自適應回歸特征選擇方法
    集和4個標準數據集上進行實驗,并與LASSO和LAD-LASSO進行對比.Table 1 Artificial Datasets表1 構造數據集Table 2 Benchmark Datasets表2 標準數據集Fig. 1 Feature selection results on D1圖1 在D1數據集上的特征選擇結果實驗中AWLASSO方法的參數γ=0.4,μ=1.2,k初始值為2.5,終止值為0.000 1.在構造數據集上,實驗重復進行100次,取平

    計算機研究與發展 2019年8期2019-07-30

  • R語言在統計學教學中的運用
    agging訓練集上的NMSE為:", mean((wsamp3$MEDV-as.numeric(baggingtrain))^2)/mean((mean(wsamp3$MEDV)- wsamp3$MEDV)^2)," ")#Bagging訓練集上的NMSE為: 0.132 848 2cat("Bagging測試集上的NMSE為:", mean((wtsamp3$MEDV-as.numeric(baggingpre))^2)/mean((mean(wtsa

    唐山師范學院學報 2018年6期2018-12-25

  • 關于正測度集上無界發散的Fourier級數
    情形,探索正測度集上幾乎處處無界的Fourier級數存在性,豐富Fourier級數收斂性的相關研究.在后續討論中,用L(E)表示E上的Lebesgue可積函數空間,U(x,δ)表示以x為心、δ為半徑的開區間,表示集合E的閉包,m(E)表示集合E的Lebesgue測度,O(α)表示與α的同階無窮大,其中α→∞.引理[1](Riemann-Lebesgue)設 f(x)∈L[a,b],則:定理 設E是有界閉集,且mE>0,則存在函數f∈L(E),使得f的Fou

    韶關學院學報 2018年9期2018-10-31

  • BN-cluster:基于批歸一化的集成算法實例分析
    在LFW人臉數據集上得到97%的識別率。然而在卷積神經網絡訓練過程中,每層輸入數據的分布隨上一層的參數變化而發生變化,每次調整網絡時要使每一層去適應輸入的分布變化。這會導致神經網絡很難訓練得到一組性能最優的參數。在網絡初始化時仔細地調整參數和降低訓練過程中使用的學習率可以在一定程度上降低這種由分布變化帶來的影響,但同時也會降低網絡的訓練速度。在傳統的深度網絡中,學習率太高可能會導致梯度爆炸或消失,以及陷入局部最小值的問題。通過歸一化整個網絡中的激活,可以防

    沈陽航空航天大學學報 2018年3期2018-07-30

  • 復雜高維數據中異常點挖掘算法研究*
    性算法在8個數據集上進行測試比較,這些算法包括基于統計的方法GUMM[29]、k近鄰相關算法(kNN,kNNW,ODIN,LOF,FASTABOD,LoOP)、基于子空間的方法(COP,SOD)和基于集成的算法(HiCS).本實驗采用的數據集來源于UCI數據集,異常點的預處理采用文獻[30]的方法.表1列出了實驗中使用的數據集,每個數據集包括數據集名稱、數據大小、異常點的個數、屬性值及異常點的類別.例如,SpamBase數據集中包含4 601個數據,其中異

    浙江師范大學學報(自然科學版) 2018年2期2018-06-01

  • 有限偏序集上的強濾子及其應用
    000)有限偏序集上的強濾子及其應用劉志禹, 姜廣浩, 唐照勇(淮北師范大學數學科學學院,安徽淮北 235000)本文在偏序集上引入強濾子的概念,并在有限偏序集上探討強濾子與(非)連通偏序集之間的關系.強集; 強濾子; 不交并偏序集; (非)連通偏序集1 引言與預備知識唐照勇等在文獻[5]中給出了另一種等價的數學語言來刻畫有限偏序集的連通性,進而將有限偏序集分為連通和非連通兩種類型, 并在有限偏序集上探討了強理想與(非)連通偏序集之間的關系. 受此啟發,

    洛陽師范學院學報 2017年11期2017-12-22

  • 基于MWST+T-K2結構學習算法的貝葉斯分類器
    類器在24個數據集上的分類水平進行整體與兩兩比較時,MWST+T- K2分類器的分類水平均最優;在小數據集上比較時,MWST+T- K2分類器的分類水平取得全局最優,未取得局部最優;在大數據集上比較時,未取得全局或局部最優,低于TANC的分類水平.所以,MWST+T- K2結構學習算法是一種適合構建小數據集貝葉斯分類器的方法.貝葉斯網絡; 貝葉斯分類器; MWST+T- K2算法; 分類檢驗將貝葉斯網絡(Bayesian network)[1]中代表類別的

    復旦學報(自然科學版) 2017年1期2017-10-13

  • 偏序集上的局部極大濾子
    35000)偏序集上的局部極大濾子王逸芬,盧濤 (淮北師范大學 數學科學學院,安徽 淮北 235000)在偏序集上引入局部極大濾子的概念,討論局部極大濾子在格、分配格、Heyting代數、Boole代數中的相關性質,得到一些等價條件,進一步地豐富偏序集的內容.偏序集;極大濾子;局部極大濾子0 引言濾子作為偏序集上的一個特殊的集合,同時也具有很多好的性質,對濾子的研究也一直沒有間斷過.本文受文獻[1-2]啟發,引入偏序集上的局部極大濾子的概念,并在格、分配格

    淮北師范大學學報(自然科學版) 2017年2期2017-06-05

  • 區間集上非交換剩余格的廣義模糊布爾濾子
    概念,給出了區間集上非交換剩余格廣義模糊布爾濾子的等價性刻畫及其特征性質。1 預備知識定義 1[18]設<I(2U),∪,∩,?,?,→,μ,?>是一個(2,2,2,2,2,0,0)型代數,若滿足以下條件:1)<I(2U)∪,∩,μ,?>是一個有界格;2) <I(2U)?,μ,?>是 μ 以為單位元的半群;3) ?X,Y,Z∈I(2U),X?Y?Z 當且僅當 X?Y?Z當且僅當Y?X→Z,則稱I(2U)為區間集上非交換剩余格。性質1[18]設I(2U)是一

    商洛學院學報 2017年6期2017-05-11

  • 基于多樣化top-k shapelets轉換的時間序列分類方法
    在所有15個數據集上均有計算效率的提升,最少加速了1.09倍,最高可達到287.8倍。時間序列分類;shapelets;多樣化top-k0 引言Shapelets 是描述時間序列局部特征的子序列,是時間序列中一種微小的局部模式,具有高度的辨識性[1]?;趕hapelets的時間序列分類方法,能夠發現時間序列之間具有微小區別的局部特征,不僅分類精度高,對分類的結果也有很好的解釋能力,已經成為時間序列領域一個重要的研究主題,受到了越來越多的關注[2-5],并

    計算機應用 2017年2期2017-04-20

  • Cantor四分集上的變換及其遍歷測度
    Cantor四分集上的變換及其遍歷測度王 芬1*, 張曉艷2(1.湖北第二師范學院 數學與經濟學院, 武漢 430205; 2.華中師范大學 數學與統計學學院, 武漢 430079)該文給出了Tα(x)=αx(mod 1)(α∈R+)是Cantor四分集T(4,{0,2})上的變換的充要條件:Tα為T(4,{0,2})上的變換當且僅當α=4n(n∈Z).并且研究了Tα的遍歷測度的存在性.Cantor四分集; 不變測度; 遍歷測度1研究背景Cantor集是數

    華中師范大學學報(自然科學版) 2017年2期2017-02-24

  • 不平衡類分類問題的邏輯判別式算法
    進而在平衡的數據集上學習模型,如過抽樣、欠抽樣以及SMOTE等[5-6].這些技術經常應用于處理不平衡類分類問題中,但是數據分布總是千差萬別,很難確定數據的實際分布情況.后者通過調整算法或目標函數使得學習到的模型更傾向于正確分類少數類實例,如兩階段規則學習方法[7]、代價敏感方法[8-9]、one-class方法[10]等.與以上所提方法不同,本文將邏輯判別式應用于不平衡類問題.與傳統邏輯判別式不同,本文同時使用似然函數和召回率構建新的目標函數LERM(L

    信陽師范學院學報(自然科學版) 2016年2期2016-08-09

  • 區間集上R0-代數的表示形式及其性質*
    造性地給出了區間集上R0-代數的表示形式,同時證明了區間集上R0-代數定義表示形式的可行性與合理性,最后討論了其有趣的基本性質.1 基本概念定義1[9-12]設A=[Al,Au]是一個區間集,其中Al,Au是任意經典集合且Al?Au.區間集是用上、下界集合對來表示,且其定義如下:設U為論域,2U是U的冪集,那么區間集上2U的子集形式為A=[Al,Au]={A∈2U|Al?A?Au},稱其為一個閉區間集.閉區間上的所有區間集的集合記為 I(2U)={[Al,

    重慶工商大學學報(自然科學版) 2014年9期2014-11-02

  • 一種基于置換的組合分類器剪枝方法
    算法在相應的實例集上準確率最高。為了清晰,表2省略了算法在相應實例集上的標準差。作為參照,表2給出了bagging(分類器庫)的準確率。表1 24個實例集的具體信息描述由表2可知:(1)EPR-CG可以大幅度降低組合分類器的規模,并能有效地提高原組合分類器性能(本實驗有20個實例集顯著提高了組合分類器的準確率);(2)相比于其他指標,CG更適合監督EPR剪枝的過程。具體地,EPR-CG在絕大部分實例集上較高的準確率數為14個,其他依次是EPR-IC 5個、

    中原工學院學報 2014年4期2014-04-01

  • 一種增量發現條件函數依賴的算法*
    賴。例如,當數據集上增加一個新數據時,已有的方法必須將新增數據集與原始數據集進行合并,再對合并后的整個數據集重新執行發現過程,才能更新CFDs,但這將導致大部分時間都浪費在對已處理數據集的重復計算上。針對條件函數依賴的更新問題,本文借鑒增量更新思想提出一種增量更新條件函數依賴的方法,并在條件函數依賴的發現方法[11](簡稱CFINDER算法)的基礎上實現了條件函數依賴增量更新算法CFUP。當數據集上增加一批新的數據時,CFUP算法通過掃描新增數據集,來判定

    計算機工程與科學 2013年8期2013-09-05

  • 排序學習中數據噪音敏感度分析
    等算法在一些數據集上具有較好抗噪性,隨著噪音水平的增加性能下降不大,而在另外一些數據集上即使噪音水平很小性能也有很大程度的下降。從數據角度出發,這種現象可以理解為數據具有不同的噪音敏感度。本文從Pairwise方法和Listwise方法的兩個具體的學習場景出發,重點研究導致數據具有不同的噪音敏感度的潛在原因,并希望能夠依據實驗得到的結論,指導訓練集的構建。2 相關工作現有關于排序學習的工作大部分關注新算法的提出。由于訓練集中噪音是不可避免的,因此對于算法抗

    中文信息學報 2012年5期2012-06-29

91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合