?

基于機器視覺和機器學習技術的浙貝母外觀品質等級區分

2023-12-29 08:43董成燁李東方馮槐區龍思放奚特周芩安王俊
關鍵詞:浙貝母空洞卷積

董成燁,李東方,馮槐區,龍思放,奚特,周芩安,王俊

(浙江大學生物系統工程與食品科學學院,浙江 杭州 310058)

浙貝母(Fritillaria thunbergii)是一種百合科(Liliaceae)貝母屬(Fritillaria)草本植物,是傳統中藥材之一,主要藥用成分為生物堿類、皂苷類,具有鎮咳、祛痰、抗炎、抑菌、抗腫瘤等功效。據統計,2017—2018 年中國浙貝母總產量已超4 000 t,種植產值約為60 億元[1]。根據T/CACM 1021.24—2018《中藥材商品規格等級 浙貝母》,浙貝母在滿足無霉變、無蟲蛀、無破碎的情況下,按直徑分為特級、一級、二級[2],而霉變、蟲蛀、破碎的浙貝母不能入藥,需剔除。然而,目前對浙貝母的分級通常利用篩網、圓柱輥等實現[3-6],由于浙貝母形狀不規則,分級效果往往不理想,此外,篩分過程易對浙貝母造成機械損傷,也無法篩分出霉變、蟲蛀、破碎的浙貝母。因此,開發精準檢測浙貝母外觀品質及直徑的算法,并研制一種快速、無損的分級生產線十分必要。

目前,針對農產品的無損檢測主要依靠聲學、光學、電磁、電子鼻和機器視覺等技術[7]。機器視覺是利用攝像機和電腦代替人眼對目標進行識別、跟蹤和測量的技術,具備準確、快速、經濟等特點,因此,浙貝母的外觀品質及直徑的檢測與分級可通過機器視覺技術實現。機器學習是處理機器視覺任務的重要工具[8],包括統計學習與深度學習。統計學習是利用研究人員的先驗知識對數據進行硬編碼,以更簡單的方式來表示數據,從而分析、挖掘數據內部潛在的規律,但是其特征需要手動提取且數量有限,因此很難快速、高效地利用原有數據,并且操作過程復雜、耗時[9]。

深度學習是一種以人工神經網絡為架構,對數據進行高層抽象的算法。深度學習與統計學習的關鍵區別在于前者可以從數據中自動學習更為深層的特征,所以深度學習更易建模,且能高效利用數據。目前,基于深度學習的目標檢測算法分為一階段(one stage)型和兩階段(two stage)型,前者以YOLO(you only look once)系列算法(YOLO、YOLO-V2、YOLO-V3、YOLO-V4、YOLO-V5、YOLO-X)為代表[10-14],后者以R-CNN(region-based convolutional neural network)系列算法(R-CNN、Fast R-CNN、Faster R-CNN)為代表[15-17]。上述目標檢測算法已應用于農產品檢測領域,在田間或生產線上蘋果[18-19]、冬青果[20]、茶芽[21]、番茄[22-23]、小麥[24-25]、青椒[26]等的檢測任務中均取得了較好的效果。然而,不同于其他物料對象,浙貝母等級較多,且特級、一級和二級的外觀特征相近,因此實現對浙貝母的精準檢測具有一定難度。目前,還鮮有研究將目標檢測算法應用于浙貝母的外觀品質及直徑的檢測與分級中。

本研究將機器學習應用于浙貝母的無損檢測中,創建浙貝母數據集,并在該數據集上訓練、測試若干統計學習算法和基于深度學習的目標檢測算法。為改善檢測效果,本研究根據浙貝母數據集的特點,在YOLO-X主干特征提取網絡的末端添加空洞卷積(dilated convolution)結構,并通過可視化中間激活的方式,從直觀的角度對比、分析改進前后模型學習特征的差異,以實現浙貝母的無損檢測,也為后續在線檢測平臺的搭建提供科學依據。

1 材料與方法

1.1 試驗樣品

本研究所用浙貝母產自浙江省金華市磐安縣(28°57′05″—29°01′58″ N,120°28′05″—120°33′40″ E;海拔319 m)。浙貝母表面呈類白色或淡黃色,形狀呈扁圓形,其穩定的擺放姿態有2 種,分別為正面(鱗葉開合一端)朝上和背面(鱗葉帶梗一端)朝上(圖1A1~A6)。特級、一級、二級浙貝母在形狀、顏色、紋理等特征方面差異較小,主要以直徑劃分,直徑越大,等級越高(圖1A1~A3);霉變、蟲蛀的浙貝母形狀與正常浙貝母類似,但前者因微生物在其內部或表面大量繁殖,導致其外觀呈深灰褐色(圖1A4),后者表面有多個蟲孔且常伴隨絮狀物,其外觀顏色偏淡黃色(圖1A5);破碎的浙貝母形狀不規則、特征多變,很難利用固定的模型或閾值來進行表征(圖1A6)。

圖1 數據集部分圖像(A1~A6)及圖像采集設備(B)Fig.1 Partial images of data sets (A1-A6) and image acquisition equipments (B)

1.2 圖像采集

為模擬浙貝母實時在線檢測場景,本研究采用DigiEye System-700mm Cube 數字電子眼系統(英國VeriVide 公司)作為圖像采集設備,其硬件由D7000 單反相機(日本Nikon 公司)、帶有反光涂層的黑箱、條形光源和盛放樣本的底板組成(圖1B)。為使圖像最大程度地還原浙貝母真實的顏色、形狀以及紋理等特征,減少物料表面由光源所造成的高光區域,經反復試驗,本試驗光源采用漫反射光照模式,拍攝距離為45 cm?;谏鲜鰲l件,對2 種擺放姿態下的6 類浙貝母各拍攝200 張圖像,共計拍攝2 400 張單目標圖像,部分圖像如圖1A1~A6所示。為豐富數據集種類,提高目標檢測模型的泛化能力,本研究還拍攝了400 張多目標圖像。為平衡不同級別浙貝母的數量,多目標圖像中各類不同擺放姿態的浙貝母數量相同,且呈單列化分布。

1.3 研究方法

本研究總體思路如圖2所示。首先準備浙貝母數據集,用于訓練和測試不同的統計學習算法和目標檢測算法;然后在檢測效果最好的預選算法的基礎上,針對浙貝母數據集的特點對算法進行相應的改進與優化,以改善模型的檢測效果。

1.3.1 數據集制作

目標檢測算法有固定的輸入尺寸,一般為32的倍數,當輸入圖片不滿足要求時,會調整其大小,以滿足尺寸要求。為適應神經網絡的輸入,將圖像從4 928×3 264剪裁成3 200×3 200,以便目標檢測算法對其進行等比放縮,避免對圖像中的感興趣區(region of interest, ROI)造成拉伸、扭曲,從而使圖像保留原來的形狀、尺寸等特征。利用Labelimg軟件對圖像進行標注,并將帶注釋的標簽文件以擴展名為xml 的格式保存。圖像數據集共包含“superfine”“level one”“level two”“moth-eaten”“mildewed”和“broken”6類標簽,分別對應特級、一級、二級、蟲蛀、霉變、破碎浙貝母,每類浙貝母均有800 個標簽,因此浙貝母圖像數據集共有4 800個標簽。該數據集的ROI占比較大,但圖像數量較少(共2 800個),因此訓練集、驗證集、測試集按6∶2∶2 的比例劃分,即訓練集1 680個,驗證集560個,測試集560個。

基于浙貝母圖像,本研究提取了浙貝母形態(M)、顏色(C)和紋理(T)特征,建立了浙貝母特征數據集F=[M,C,T]=[M1,M2,M3,M4,M5,M6,M7,M8,M9,C1,C2,C3,C4,C5,C6,C7,C8,C9,C10,C11,C12,C13,C14,C15,C16,C17,C18,T1,T2,T3,T4,T5,T6,T7],其中:M1~M9代表形態特征,包括周長、面積、長軸、短軸、直徑、矩形度、圓形度、緊湊度和細長度;C1~C18代表顏色特征,包括圖像在RGB(紅、綠、藍)、HSV(色調、飽和度、亮度)顏色空間下各通道的一、二、三階矩;T1~T7代表紋理特征,包括基于灰度共生矩陣提取的能量、對比度、相關度、熵、同質性、均值和標準差。因此,特征數據集F 的屬性空間為34 維,樣本量為2 400個。由于樣本較為稀疏,本研究使用Origin 9.1軟件對浙貝母特征數據集進行降維處理。降維后的屬性空間為9維,信息保有量為原來的96.56%。

1.3.2 預選算法

本研究利用決策樹(decision tree, DT)和支持向量機(support vector machine, SVM)對降維后的浙貝母特征數據集進行建模。DT是一種監督學習方式的分類和回歸模型,利用數據特征對數據進行一系列條件判定(if or else)與劃分,以提高劃分后數據子集的信息純度。DT通過訓練集確定劃分屬性及其在決策樹中的位置,從而產生一棵處理未見示例能力強的決策樹。SVM 是一種監督學習方式的分類模型,在樣本空間中尋找一個超平面wTx+b=0,使其最近的正負樣本(支持向量)到該超平面的距離(間隔)最大,從而區分不同類別的樣本。其中:x為樣本特征向量,w=(w1,w2,...,wd)為超平面法向量,T為矩陣轉置,b為位移項。

本研究利用浙貝母圖像數據集訓練和測試了YOLO 系列(YOLO-V3、YOLO-V4、YOLO-V5 和YOLO-X)和Faster R-CNN 目標檢測算法。其中,Faster R-CNN會在圖像中生成大量可能包含待檢測物體的建議區域(region proposal, RP),然后通過分類器判別每個RP內是否包含待檢測物體,并對物體及其位置進行分類和回歸,從而得到待檢測物體的邊界框(bounding box),再過濾掉置信度不高或重疊的建議區域,進而得到檢測結果。YOLO 系列為實現更快的檢測速度,采用預定義建議區域的方法,將生成候選區和檢測目標合二為一,直接在輸出層回歸建議區域的位置和所屬類別,并通過將建議區域劃分成不同尺寸網格的方式,檢測不同尺度的目標。YOLO 系列含有主干特征提取網絡(backbone)、特征金字塔網絡(feature pyramid network, FPN)、預測結構(YOLO-head)3 個模塊。表1 為本試驗所選YOLO系列主干特征提取網絡的特點總結。利用主干特征提取網絡提取圖片特征,并在特定的位置將其輸入到FPN 中,以進行進一步的特征提取與融合,其輸出張量的通道數(D)按照公式(1)計算:

表1 YOLO系列的主干特征提取網絡特點Table 1 Characteristics of backbone feature extraction network of YOLO series

D=s×n×(p+xoffset+yoffset+h+w+1).(1)

式中:s為建議區域被劃分成網格的數量;n為每個網格中存在的邊界框數量;p為屬于某一類標簽的置信度;xoffset、yoffset為網格中心點調整參數;h、w分別為網格高和寬的調整參數。將FPN 的輸出結果輸入YOLO-head 模塊,以整合特征并調整通道數,最終獲得預測結果。

1.3.3 訓練設備及策略

試驗采用相同配置的計算機來訓練上述預選算法。計算機的操作系統為Windows 2019;中央處理器(central processing unit, CPU)型號為英特爾9900k;圖形處理器(graphics processing unit, GPU)型號為NVIDIA Tesla V100-SXM2(32 GB DDR4 RAM);通用統一計算設備架構(compute unified device architecture, CUDA)的版本為11.2,CUDA 深層神經網絡庫(CUDA deep neural network library,cuDNN)的版本是8.1.1;編程語言采用Python 3.7;深度學習框架采用PyTorch 1.7。

DT 主要有信息增益、信息增益率和基尼指數3種選擇最優劃分屬性的方法,其代表算法分別為迭代二叉樹3 代(iterative dichotomiser 3, ID3)、C4.5 和分類回歸樹(classification and regression tree, CART),CART可處理分類和回歸任務。由于浙貝母特征數據集的屬性取值為連續型數值,因此本研究采用CART決策樹方法進行試驗,并使用基尼指數來選擇劃分屬性,使其生成葉子節點較小的樹。為避免過擬合,本研究對決策樹進行剪枝。經前期試驗發現,當決策樹的深度增加時,過擬合現象就會更嚴重,其深度為5 時擬合狀態最佳。利用SPSS PRO 軟件進行模型訓練。核函數的選擇是SVM性能的關鍵,本研究基于浙貝母特征數據集,訓練并測試了不同核函數以及不同多分類融合策略的模型。

深度學習采取微調訓練策略,即將視覺目標分類(visual object class, VOC)數據集或上下文中常見對象(common objects in context, COCO)數據集中預訓練好的模型權重作為預選算法的初始權重,并在浙貝母訓練集上進行遷移訓練。理想的模型是其訓練損失曲線不再有大幅波動或剛好介于欠擬合與過擬合之間,為找到該界限,經多次試驗發現,當訓練總輪次達到200 時,模型的訓練損失曲線不再有大幅波動,趨向平緩,說明此時模型接近收斂或已收斂。為優化訓練策略,經多次試驗發現,將凍結訓練輪次設為50,解凍訓練輪次設為150,學習率設為0.001,凍結批大小設為8,非凍結批大小設為4 時,訓練損失曲線的下降速度最快。為找出訓練所得的最優模型,本試驗保存了每輪次訓練所得模型的權重文件,待訓練輪次滿200后,從中挑選出訓練損失函數值最小的模型作為對應算法的最終訓練所得模型。

1.3.4 基于YOLO-X 的改進算法

前期預試驗發現,目標檢測模型對特級、一級、二級浙貝母的檢測能力較弱,推測圖像集中的ROI較大,導致目標檢測模型對浙貝母的尺度特征不敏感。

目標檢測模型對尺度特征的敏感度與感受野的大小有關,通??赏ㄟ^調整網絡深度來控制。一般而言,網絡層數越深,感受野越大,目標檢測模型的特征提取能力越強,檢測效果就越好。但網絡層數達到一定限度后,隨著網絡層數的增加,模型的錯誤率也會增加,信息丟失會更加嚴重;同時,網絡層數加深可能會導致梯度消失和色散問題,從而影響模型的檢測精度。此外,在訓練過程中,當模型對特征圖進行下采樣時,也會丟失一些小目標特征信息,導致檢測精度下降??斩淳矸e是針對圖像語義分割問題中因下采樣導致圖像分辨率降低、信息丟失而提出的一種卷積方法,能夠在不增加卷積核數量或大小的條件下,提供更大的感受野,使之輸出更大范圍的信息(long-ranged information),也可避免因進行池化(pooling)而導致小目標信息丟失的情況。感受野大小按照公式(2)~(3)計算,帶填充的空洞卷積輸出圖片的高和寬按照公式(4)~(5)計算。

式中:F1為正??斩淳矸e的感受野大??;F2為帶填充的空洞卷積的感受野大??;r為空洞率,其值越大,表示模型的感受野越大;k為卷積核大??;p為邊緣填充值;Hin(Hout)和Win(Wout)分別為輸入(輸出)圖片的高和寬;s為步距。

預選算法中YOLO-X的檢測效果較好,因此本研究選擇在YOLO-X主干特征提取網絡的末端(主干特征提取網絡輸出層Dark5 處)添加一層空洞卷積結構(圖3A)。為使所添加的空洞卷積結構與原模型相應位置的輸入、輸出張量尺寸相匹配,本研究選擇帶填充的空洞卷積作為嵌入結構。如圖3B 所示,原Dark5 模塊處輸出張量尺寸為20×20×1 024,在經過空洞卷積處理后,根據公式(1)、(3)~(5)計算,其張量尺寸仍為20×20×1 024,與FPN對應接收端的張量尺寸保持一致,以便后續特征融合與重用。為探究最佳空洞率,本研究測試了空洞率為2、3、4、5、6時的空洞卷積結構。改進后的主干特征提取網絡命名為CSPDarkNet53-DC,對應的目標檢測算法命名為YOLOX-DC(圖3)。

圖3 YOLOX--DC結構(A)及其主干特征提取網絡推斷流程(B)示意圖Fig.3 Schematic diagrams of YOLOX-DC structure (A) and its backbone feature extraction network inference process (B)

1.3.5 測試結果評價指標

對于統計學習模型,采用精確率(precision,P)、召回率(recall,R)、F1和準確率(accuracy,A)作為評價指標;對于目標檢測模型,采用平均精確率(average precision, AP)、平均精確率均值(mean average precision, mAP)、F1和 每 秒 傳 輸 幀 數(frames per second, FPS)作為評價指標[27]。試驗根據預測結果對正負例(正負樣本)劃分的正確性將所有樣本劃分為4 種類型,分別為真正例(true positive,TP)、真負例(true negative, TN)、假正例(false positive, FP)、假負例(false negative,FN)。其中,TP代表被正確分類的正樣本,即某類浙貝母被正確分類的數量;TN代表被正確分類的負樣本,即其余類別浙貝母被正確分類的數量;FN代表被錯誤分類的正樣本,即某類浙貝母被錯誤分類的數量;FP代表被錯誤分類的負樣本,即其余類別浙貝母被錯誤分類的數量。

利用上述4類數據對P、R、A進行定義。P的具體含義為在預測結果是正樣本的所有樣本中,模型預測正確的比例。R的具體含義為在真實結果是正樣本的所有樣本中,模型預測正確的比例。A的具體含義為在總樣本中,模型預測正確的比例。P、R、A分別按照公式(6)~(8)計算。

F1為P和R的加權調和平均數,綜合考慮R和P,F1按照公式(9)計算。

將所有樣本按其分類的置信度進行排序,并計算每個樣本所對應的置信度作為正、負樣本劃分閾值中的P和R,對不同置信度下的P和R作圖,得到精確率-召回率(precision-recall,P-R)曲線,P-R曲線與坐標軸所圍的面積為AP,且AP 按照公式(10)計算。

mAP 為所有類別AP 的平均值,且mAP 按照公式(11)計算。

式中,c、C為樣本類別數量。

FPS 用來反映模型處理圖像的速度,且FPS 按照公式(12)計算。

式中,N和Tn分別表示模型在一段時間內處理圖像的數量以及處理該幀數圖像所用的時間。

2 結果與討論

2.1 預選算法測試結果

試驗拍攝了2 800張浙貝母圖像作為原始數據集,并基于該數據集訓練并測試DT、SVM、YOLOV3、YOLO-V4、YOLO-V5、YOLO-X 和Faster RCNN算法。以P、R、F1、A、AP、mAP和FPS作為模型的評價指標。

DT 和SVM 對破碎浙貝母的分類能力普遍較弱,但對其余類別浙貝母的分類更為準確。推測是由于破碎的浙貝母形狀不規則、特征多變,因此很難利用固定的特征或閾值對其進行表征。此結果也驗證了傳統機器學習的局限性,即當原有數據的規律不明顯以及研究人員無法充分提取有效特征時,數據便無法被有效利用,最終導致模型分類效果不佳。

對于目標檢測算法,訓練過程中特級、一級和二級浙貝母的訓練收斂速度慢于蟲蛀、霉變、破碎浙貝母,且所得模型對僅直徑不同的特級、一級、二級浙貝母的檢測能力普遍較弱,其AP 和F1均低于蟲蛀、破碎、霉變浙貝母的對應指標(表2)。其中,YOLO-X對特級、一級、二級浙貝母的整體檢測效果優于其他算法,其AP分別為98.39%、72.22%、96.59%,F1分別為0.90、0.63、0.84,但仍不及該模型對蟲蛀、破碎、霉變浙貝母的檢測效果。推測是因為蟲蛀、破碎、霉變浙貝母顏色、形狀和紋理等特征的差異可被目標檢測算法有效識別,從而進行區分,而特級、一級、二級浙貝母在上述特征方面相似,所以只能以直徑尺度為特征進行區分。此外,本研究的圖像數據集中的ROI占比較大,模型的感受野相對較小,導致其對直徑尺度特征不敏感,并且一級浙貝母的直徑剛好介于特級浙貝母和二級浙貝母之間,所以模型容易將一級浙貝母誤判為特級浙貝母或二級浙貝母,最終導致對一級浙貝母的檢測效果不佳。這也說明在農產品檢測領域,此類算法可能更適合檢測以形狀、顏色、紋理等為差異特征的產品。在檢測速度方面,各目標檢測算法的FPS 均能滿足實際檢測要求。

表2 預選算法訓練所得模型在浙貝母測試集上的測試結果Table 2 Test results of models trained by preselective algorithms on the test set of F. thunbergii

2.2 YOLOX-DC 測試結果

根據預選算法的測試結果推測,如果要改善統計學習模型對破碎浙貝母的檢測效果,就需要人為提取更多形態、顏色和紋理方面的特征;如果要改善目標檢測模型對特級、一級、二級浙貝母的檢測效果,則需要加強算法對尺度特征的敏感度。由于預選算法中YOLO-X所得模型的效果最佳,因此后續研究以YOLO-X為基礎進行改進(改進后的算法命名為YOLOX-DC)。

目標檢測模型對尺度特征的敏感度與感受野的大小有關,而空洞卷積可在不增加卷積核數量或大小的情況下提供更大的感受野,使之輸出更大范圍的信息,因此,本研究在YOLO-X 主干特征提取網絡的末端分別添加了一層空洞率為2、3、4、5、6的帶有填充的空洞卷積結構。結果(表3)表明:空洞率為4時,模型的檢測效果最佳,其mAP達到98.95%,特級、一級、二級浙貝母的AP分別為99.97%、98.33%、98.47%,F1分別為0.99、0.92、0.94。與原模型相比,空洞率為4的改進后模型(以下簡稱“改進后模型”)的mAP 提高了4.95 個百分點,一級浙貝母的AP 提高了26.11個百分點,F1提高了0.29。原模型與改進后模型的檢測效果如圖4~5所示:前者對圖像的誤檢或漏檢多發生在特級、一級、二級浙貝母上;后者對各類別浙貝母的判別均正確,且置信度較高,預測框與浙貝母緊密貼合,呈現外接矩形狀態,說明模型對其位置的回歸也相對更為準確。

表3 不同空洞率的YOLOX-DC訓練所得模型在浙貝母測試集上的測試結果Table 3 Test results of models trained by YOLOX-DC with different dilated rates on the test set

圖4 YOLO-X的預測效果Fig.4 Prediction results by YOLO-X

圖5 YOLOX-DC(空洞率為4)的預測效果Fig.5 Prediction results by YOLOX-DC (dilated rate=4)

2.3 可視化中間激活

相較于手動提取特征的統計學習,深度學習可以自動提取更為抽象的特征。為分析原模型與改進后模型所學特征的差異,本研究通過可視化中間激活的方式加以探究。所謂可視化中間激活,即將網絡中各卷積層和池化層等輸出的特征圖進行可視化展示。由于特征圖數量龐大,本試驗基于浙貝母單目標和多目標圖像,將YOLO-X 與YOLOX-DC 模型每層輸出的特征圖間隔5 張進行可視化,并選擇2 個模型的有效主干特征提取網絡(Dark3、Dark4、Dark5)對應位置處的中間激活進行對比。

如圖6~7所示:隨著神經網絡層數的加深以及對輸入圖片的重復下采樣,其中間激活的像素值越來越小,圖像愈發模糊、抽象,但YOLOX-DC 模型的中間激活較YOLO-X 更加清晰,尤其在深度為Dark5 時,YOLO-X 輸出的中間激活基本失真,而YOLOX-DC 輸出的中間激活仍保有其外形輪廓。此外,對于單目標圖像,YOLOX-DC 中間激活的ROI 普遍比YOLO-X 大(圖6);對于多目標圖像,YOLOX-DC 中間激活的ROI 外層普遍有一圈清晰可見的包絡線(圖7),說明改進后模型在對圖像進行前向推斷的過程中,與浙貝母之間保持著較強的聯系,即改進后模型將多目標看作單一整體,避免了“盲人摸象”的情況,這也是感受野擴大的直觀體現。以上可視化中間激活的結果直觀地證明,向模型的主干特征提取網絡嵌入空洞卷積的方式可以提高其對尺度特征的敏感度。受此啟發,對于其他數據集而言,YOLOX-DC 也可根據其ROI 的不同設置不同的空洞率,以調整感受野大小,從而適應該數據集的尺度特征,進而更好地實現對主要以尺度為特征產品的檢測。

圖6 YOLO-X和YOLOX-DC基于浙貝母單目標圖像對應位置的中間激活Fig.6 Intermediate activation based on the corresponding positions of single object images of F. thunbergii by YOLO-X and YOLOX-DC

3 結論

本研究將機器視覺和機器學習技術應用于浙貝母外觀品質及直徑的檢測與區分中。首先對比了統計學習和深度學習算法對浙貝母分級的效果,結果顯示YOLO-X所得模型的檢測效果較好;其次針對浙貝母的特點,向YOLO-X主干特征提取網絡的末端嵌入一層空洞率為4的帶填充的空洞卷積結構,在不增加參數量、計算量或對原模型進行大規模改動的情況下,促進了改進位點處的特征融合與重用,擴大了模型的感受野,提高了模型對尺度特征的敏感度,從而更好地適應試驗創建的浙貝母數據集。與其他目標檢測算法相比,改進后算法所得模型(空洞率為4)針對浙貝母圖像數據集的檢測效果更佳,其特級、一級、二級、蟲蛀、霉變、破碎浙貝母的AP分別為99.97%、98.33%、98.47%、98.71%、99.73%、98.85%,F1分別為0.99、0.92、0.94、0.97、0.99、0.97,mAP 為99.01%,FPS 為29.13。本研究還通過可視化中間激活的方式,直觀地對比了改進前后模型所學特征的差異,從而對所作改進加以解釋與分析。本研究為浙貝母無損檢測平臺的搭建提供了科學依據,有望推動浙貝母市場的發展。同時,本研究提出的方法還可為其他同類產品的無損檢測提供思路。

猜你喜歡
浙貝母空洞卷積
基于3D-Winograd的快速卷積算法設計及FPGA實現
從濾波器理解卷積
浙貝母花總生物堿微波提取工藝的優化
基于傅里葉域卷積表示的目標跟蹤算法
浙貝母花與寧海白枇杷花配伍的抗炎及抗菌作用
浙貝母花配伍寧海白枇杷花的止咳化痰作用
浙貝母超微粉、粗粉和飲片中3 種生物堿體外溶出度的比較
空洞的眼神
用事實說話勝過空洞的說教——以教育類報道為例
一種基于卷積神經網絡的性別識別方法
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合