?

基于改進YOLOv7-tiny的茶葉嫩芽分級識別方法

2024-04-19 17:10洪孔林吳明暉高博馮業寧
茶葉科學 2024年1期
關鍵詞:注意力機制

洪孔林 吳明暉 高博 馮業寧

收稿日期:2023-09-24 ????????????修訂日期:2023-11-13

基金項目:上海市自然科學基金(21ZR1425900)

作者簡介:洪孔林,男,碩士研究生,主要從事圖像處理與目標檢測方面的研究。*通信作者:wuminghui@sues.edu.cn

摘要:實現自然生長環境的茶葉嫩芽分級識別是名優茶智能化采摘的基礎,針對光照、遮擋、密集等復雜環境造成的茶葉嫩芽識別精度較低、魯棒性較差等問題,提出了一種基于YOLOv7-tiny的改進模型。首先在YOLOv7-tiny模型的小目標檢測層添加卷積注意力模塊,提高模型對小目標特征的關注能力,減少復雜環境對茶葉嫩芽識別的干擾;調整空間金字塔池化結構,降低模型運算成本,提高檢測速度;使用交并比(Intersection over Union,IoU)和歸一化Wasserstein距離(Normalized gaussian wasserstein distance,NWD)結合的損失函數,改善IoU機制對位置偏差敏感的問題,進一步提高模型對小目標檢測的魯棒性。結果表明,該模型的檢測準確率為91.15%,召回率為88.54%,均值平均精度為92.66%,模型大小為12.4 MB,與原始模型相比,準確率、召回率、均值平均精度分別提高2.83、2.00、1.47個百分點,模型大小增加0.1 MB。與不同模型的對比試驗表明,該模型在多個場景下的嫩芽分級檢測中漏檢和誤檢較少,置信度分數較高。改進后的模型可應用于名優茶采摘機器人的嫩芽分級識別。

關鍵詞:YOLOv7-tiny;茶葉嫩芽;分級識別;注意力機制;NWD損失函數

中圖分類號:S571.1;TP391.41? ? ? ? ? ? ? 文獻標識碼:A? ? ? ? ? ? ? 文章編號:1000-369X(2024)01-062-13

A Grading Identification Method for Tea Buds Based on Improved YOLOv7-tiny

HONG Konglin, WU Minghui*, GAO Bo, FENG Yening

School of Mechanical and Automotive Engineering, Shanghai University of Engineering Science, Shanghai 201620, China

Abstract: The intelligent grading and recognition of tea buds in a natural environment are fundamental for the automation of premium tea harvesting. To address the problems of low recognition accuracy and limited robustness caused by complex environmental factors like lighting, obstruction, and dense foliage, we propose an enhanced model based on YOLOv7-tiny. Firstly, a CBAM module was added into the small object detection layer of the YOLOv7-tiny model to enhance the model's ability to focus on small object features and reduce the interference of complex environments on tea bud recognition. We adjusted the spatial pyramid pooling structure to lower computational costs and improve detection speed. Additionally, we utilized a loss function combining IoU and NWD to further enhance the model's robustness in small object detection by addressing the sensitivity of the IoU mechanism to position deviations. Experimental results demonstrate that the proposed model achieves a detection accuracy of 91.15%, a recall rate of 88.54%, and a mean average precision of 92.66%. The model's size is 12.4 MB. Compared to the original model, this represents an improvement of 2.83%, 2.00%, and 1.47% in accuracy, recall rate, and mean average precision, respectively, with a significant increase of 0.1 MB in model size. Comparative experiments with different models show that our model exhibits fewer false negatives and false positives in multiple scenarios, along with higher confidence scores. The improved model can be applied to the bud grading and recognition process of premium tea harvesting robots.

Keywords: YOLOv7-tiny, tea bud, grading identification, attention mechanisms, NWD loss

中國是世界上最大的茶葉生產與消費國,其中名優茶在內銷市場長期保持較大貢獻[1]。名優茶制作比一般大宗商品茶要求更為嚴格,根據芽葉形態不同,嫩芽的采摘級別可以分為4級:單芽、一芽一葉、一芽二葉和一芽三葉[2]。目前名優茶采摘主要依靠人工,采摘成本在生產成本中占比較高?,F有采茶機械大都采用無差別剪切統收技術,雖然工作效率較高,但無法精確區分嫩芽與老葉,且茶葉破損率為25%~40%[3],僅適合采收要求不高的大宗茶。因此,采用機器人代替人工實現自動化采摘,是提高名優茶采摘效率,降低茶葉生產成本的必然趨勢。國內已有多個研究機構開展了采茶機器人研究[4-5],而茶葉嫩芽分級識別是實現名優茶智能分級采摘的基礎。

目前茶葉嫩芽識別方法主要包括傳統圖像處理、機器學習和深度學習等方法。傳統圖像處理方法主要是根據茶葉嫩芽和老葉間的顏色、紋理、形狀等特征對茶葉嫩芽進行分割。吳雪梅等[6]利用改進的最大方差自動取閾法計算G和G-B分量的分割閾值,實現了對茶葉嫩芽的分割。龍樟等[7]通過提取茶叢圖像的超綠特征,并采用大津法對圖像進行閾值分割,然后經過閉運算去除噪聲,得到嫩芽分割圖像。機器學習方法主要是基于茶葉嫩芽的顏色、紋理、形狀等特征建立識別模型,實現對茶葉嫩芽的識別。張金炎等[8]以藍色背景下的茶葉嫩芽為研究對象,提取茶葉嫩芽的形態、紋理和HOG特征參數,分別建立了支持向量機、隨機森林和K-最近鄰模型對采摘后綠茶進行分級識別,發現隨機森林模型效果最好,準確率為97.06%。劉自強等[9]通過灰度共生矩陣提取白色背景下茶葉嫩芽的顏色和形狀特征,在6種分類器中訓練,發現SVMKM和隨機森林模型的識別效果最好,準確率達到89.5%。上述方法雖然能夠識別茶葉嫩芽,但其檢測精度受特征提取影響較大,對于前景與背景相近情況檢測效果較差,且受光照影響較大,算法魯棒性較差。

近年來,隨著深度學習目標檢測技術的發展,其在農業產品檢測和識別領域的應用越來越廣泛。王子鈺等[10]通過對比傳統顏色分割和基于SSD的茶葉嫩芽檢測發現,SSD算法具有更加出色的檢測識別效果。Yang等[11]利用殘差結構和新的卷積運算改進YOLOv3模型對茶葉嫩芽進行識別,平均檢測精度達到90%,但其研究對象僅限單芽,并且背景相對簡單。方夢瑞等[12]通過添加淺層特征層、引入注意力機制和雙向特征金字塔結構對YOLOv4-tiny模型進行改進,改進后的模型對整株嫩芽識別的召回率提高了23.14個百分點。呂丹瑜等[13]使用原始YOLOv5模型對白色背景下茶葉嫩芽進行分級識別,發現YOLOv5模型具有較高的識別精度。尹川等[14]以YOLOv5s為基準模型,通過引入膨脹卷積網絡、改進特征融合網絡和SimOTA算法對基準模型進行改進,實現對采摘后茶葉嫩芽的品質分級,有效提升不同品質茶葉的識別能力?;谏疃葘W習的茶葉嫩芽檢測在實時性和準確性上優于傳統圖像處理和機器學習方法,能夠自動提取嫩芽多維特征,算法具有較高的準確性和魯棒性。

綜上所述,名優茶根據品質不同,采摘決策不同,需對4類不同等級茶葉嫩芽進行識別。目前,自然環境下的茶葉嫩芽識別研究對象多為單芽或整株嫩芽,采摘后仍需對茶葉嫩芽品質進行分級;部分研究雖已實現對采摘后名優茶的品質分級,但先采摘再分級的方式過于繁瑣。針對上述問題,本研究提出了一種基于改進YOLOv7-tiny的茶葉嫩芽分級識別方法。首先,在小目標檢測層加入卷積注意力模塊(Convolutional block attention module,CBAM),以保留小尺度目標信息,提高對小目標的檢測效果。同時,將原本并行的空間金字塔池化結構(Spatial pyramid pooling,SPP)改為串行傳遞,在保證嫩芽特征提取的同時,降低一定的運算成本,提高運算速度。最后,采用NWDIoU損失函數替換CIoU損失函數來提高模型對小目標檢測的魯棒性,以期實現自然環境下,茶葉嫩芽的快速分級定位,為自然環境下名優茶智能化分級采摘提供一定的技術支持。

1 試驗數據

1.1 圖像采集

本研究所用數據集拍攝于上海市滬楓茶葉種植基地,使用Iphone 13采集自然條件下的龍井43和大紅袍茶葉嫩芽圖像,圖像分辨率為3 024像素×3 024像素,以.jpg格式保存。數據集拍攝于2022年9月上旬和2023年4月上旬,拍攝時間為8:00—18:00,拍攝角度為30°~60°,拍攝距離為10~50 cm。為提高模型泛化能力,避免過擬合,共采集原始數據2 000張,包括不同光照、不同遮擋程度、不同季節和單張圖中目標多少等數據。如圖1所示,太陽的位置變化以及拍攝角度不同會導致茶葉嫩芽亮度不同,茶葉嫩芽與老葉難以區分且存在相互遮擋的情況。

1.2 茶葉嫩芽數據集制作

本文按照單芽(1)、一芽一葉(1-1)、一芽二葉(1-2)、一芽三葉(1-3)對樣本進行分類,茶葉嫩芽分級標準如圖2所示,利用Labelimg標注軟件對茶葉嫩芽數據集進行人工標注,以便獲得圖像中目標嫩芽的類別和位置信息。標注完的信息以.txt文件形式保存。將數據集按照8∶1∶1的比例隨機劃分為訓練集(1 600幅)、驗證集(200幅)和測試集(200幅)進行模型訓練和測試。

2 研究方法

2.1 YOLOv7目標檢測模型

YOLOv7目標檢測算法由Wang等[15]于2022年7月提出,在速度與精度之間取得了較好的平衡,是目前較為優秀的單階段目標檢測算法,其中YOLOv7-tiny模型的參數量和計算量較小,且能保持較高的精度,適合部署在邊緣移動端GPU設備,因此本研究選擇YOLOv7-tiny作為基礎模型。

2.2 改進的YOLOv7-tiny模型

本研究中YOLOv7-tiny網絡由輸入端(Input)、主干網絡(Backbone)和檢測頭(Head)3個部分組成,如圖3所示。輸入端使用Mosaic數據增強方法,將4張圖片隨機進行縮放、剪裁、拼接,以此豐富數據集,降低模型過擬合風險;主干網絡又被稱為特征提取層,由大量CBS模塊、MP模塊和ELAN

模塊組成,CBS模塊是由Conv層、BN層和SiLU激活函數組成標準卷積塊。MP模塊有兩個分支,其作用為下采樣,第一個分支由最大池化層和CBS模塊組成,第二個分支由兩個CBS模塊組成,兩個分支經特征合并連接。ELAN模塊有兩個分支組成,通過大量的卷積操作學習更多特征,增強網絡的學習能力。檢測頭主要是融合主干網絡輸出的特征生成目標最小邊界框并預測目標類別,主要由快速空間金字塔池化結構(Spatial pyramid pooling-fast,SPPF)、大量CBS模塊、ELAN模塊和上采樣模塊組成,分別輸出3個大小為20×20、40×40、80×80像素的特征圖,其中輸出特征圖為80×80像素的檢測層感受野較小,適合檢測小目標,為小目標檢測層。同理,輸出特征圖為40×40像素的檢測層為中目標檢測層,輸出特征圖為20×20像素的為大目標檢測層。最后利用特征圖對不同尺寸的目標進行預測。

2.2.1 空間金字塔池化結構

SPP最早由He等[16]提出,目的是為了解決卷積神經網絡輸入圖像大小必須固定的問題,有效避免了對輸入圖片進行裁剪、拉伸等操作導致的圖像失真問題。YOLOv3借鑒了SPP的思想,通過SPP模塊實現局部特征與全局特征融合,有效提高了模型的感受野,豐富了特征圖的表達能力,較好地解決了多目標、遮擋較多時,茶葉嫩芽遠近不同、大小不同的問題,提高了模型對待測圖像中不同大小目標的檢測能力[17]。YOLOv5在SPP模塊的基礎上將原本并行的最大池化(MaxPool)改為串行,構成了新的SPPF結構,能夠在保證效果不變的情況下提高了模型速度。本研究借鑒SPPF[18]模塊的思想,將原SPP采用的并行不同尺度的最大池化改為串行相同尺度的最大池化(圖4),使每個最大池化的輸出得到充分利用,保證模型在保持原有效果的情況下提升檢測效率。

2.2.2 卷積注意力機制模塊

注意力機制是一種模仿人類視覺和認知系統的數據處理方法,其本質上是對網絡自主學習得出的權重系數進行加權再輸出,給予目標區域更大的權重。通過引入注意力機制,模型能夠自主學習并選擇性地重點關注目標區域,抑制無關的背景區域。目前主流注意力機制主要分為通道注意力機制、空間注意力機制、混合注意力機制和自注意力機制。通道注意力機制通過網絡學習獲取每個通道的重要程度,再為各通道賦予不同的權重系數,使模型更關注重要的通道信息,但對復雜環境下的茶葉嫩芽檢測效果不佳??臻g注意力機制通過對每個位置生成權重掩膜并加權輸出,增強目標區域同時弱化背景區域,當目標區域受到遮擋時會對空間注意力機制產生不良影響,不適宜在茶園復雜環境下使用。自注意力機制需要

對輸入特征進行一系列的復雜運算,可以減少模型對外部信息的依賴,但對設備算力要求較高,不適宜在茶葉嫩芽模型所需的移動端部署?;旌献⒁饬C制是通過將空間注意力機制和通道注意力機制串聯或并聯形成的一種更加綜合的特征注意力機制,對設備算力要求明顯低于自注意力機制,適合復雜環境下的茶葉嫩芽識別,因此本研究在YOLOv7-tiny網絡增加CBAM[19]卷積注意力機制。

CBAM模塊由通道注意力模塊(CAM)和空間注意力模塊(SAM)串聯而成,引入兩個分析維度,實現從通道到空間的注意力結構,如圖5所示。對于輸入特征圖F,CAM模塊首先對輸入特征圖進行空間維度上的全局最大池化和全局平均池化,然后輸入到多層感知機(Shared MLP)中進行計算,并對輸出的兩個特征向量進行逐元相加,最后通過Sigmoid激活函數得到通道注意力特征FC。SAM模塊的輸入特征圖F'由F和FC逐元素相乘得到。SAM模塊首先對F'在通道維度上進行全局最大池化和全局平均池化,并按照通道拼接,然后進行7×7的卷積操作,最后通過Sigmoid激活函數得到通道注意力特征FS。FS與F'進行逐元素相乘后最終得到CBAM模塊的輸出特征圖Fcbam。

2.2.3 損失函數

YOLOv7-tiny算法中,預測框回歸損失使用交并比(Intersection over Union,IoU)進行衡量,以檢測算法的準確性。通過將預測框與真實框的交集除以它們的并集面積計算IoU,當該數值大于設定閾值時可認為正確預測了目標,但是基于IoU的衡量指標對小尺度目標位置偏差極為敏感,對于本研究中單芽的檢測十分不利(圖6)。

歸一化Wasserstein距離(Normalized gaussian wasserstein distance,NWD)[20]是一種基于Wasserstein距離的評價指標,Wasserstein距離本質是衡量一種概率分布變換到另一種概率分布的最小代價。該方法首先將邊界框框建模為二維高斯分布,通過計算兩個高斯分布之間的Wasserstein距離來衡量它們的相似度。Wasserstein距離的計算公式為:

········································(1)

式中,Na代表預測框A的二維高斯分布Na(μ,∑),服從,,(cxa, cya)代表預測框A的中心點坐標,wa和ha分別代表邊界框A的寬度和高度。

由于w2 2(Na,Nb)是一個距離,因此需要對其進行歸一化處理,將其變為0到1之間的數值,最終得到NWD:

········································(2)

式中,C是與數據集有關的常數,由模型訓練得到。由于NWD(Na,Nb)表示預測框A和真實框B之間的歸一化Wasserstein距離,因此損失函數可設為:

·········(3)

NWD對目標尺度不敏感,更適合測量小目標之間的相似度,而茶園中小目標單芽和較大目標一芽三葉同時存在,兩者大小差距大,且直接使用NWD替換IoU會顯著降低模型的收斂速度,因此本研究在對YOLOv7-tiny損失函數的改進中結合實際使用場景分析,將IoU和NWD結合,按照一定比例進行加權得到最終的損失函數,以彌補IoU損失對小目標檢測的缺點,損失函數計算公式為:

·······································(4)

式中,α為權重系數,本研究α取0.5,通過調整權重系數可以得到不同損失函數計算方式,適應不同的任務需求。

2.3 網絡模型的訓練

2.3.1 試驗環境與超參數設置

本研究所用操作系統為Ubantu 20.04,處理器為Intel? Xeon? Platinum 8358P CPU @ 2.60 GHz,GPU型號為RTX A5000,顯存24 G,內存32 G,試驗環境為Python 3.8、Pytorch 2.0.0、Cuda 11.8。

試驗訓練參數:輸入圖片分辨率為640×

640像素,Batchsize大小為16,迭代次數Epoch為300,使用隨機梯度下降(Stochastic gradient descent,SGD)優化器進行優化并設置初始學習率為0.01,訓練未使用預訓練權重。

2.3.2 評價指標

為有效評估模型性能,使用模型識別目標的準確率(Precision,P)、召回率(Recall,R)、平均精度(Average precision,AP)、平均精度均值(Mean average precision,mAP)、F1分數(F1 score)、檢測速度(Frames per second,FPS)、模型大小等指標對模型進行評價。

················(5)

················(6)

···················(7)

式中,NTP為實際正類預測為正類的數量,NFP為實際負類預測為正類的數量,NFN為實

際正類預測為負類的數量。

3 結果與分析

3.1 CBAM模塊應用不同位置效果分析

為分析CBAM模塊添加至不同位置的性能表現,分別將CBAM模塊添加至YOLOv7-tiny檢測頭的大、中、小3個檢測層,分別記為YOLOv7-tiny-L、YOLOv7-tiny-M、YOLOv7-tiny-S,在多層添加多個CBAM模塊改進名稱以此類推,如圖3所示,圖中CBAM所處位置為CBAM模塊添加的具體位置。8種模型的性能指標如表1所示。

由表1可知,與原始YOLOv7-tiny模型相比,除YOLOv7-tiny-ML和YOLOv7-tiny-SML模型的召回率有所下降外,其余模型檢測性能均有提升,其中只將CBAM模塊添加至小目標檢測層的YOLOv7-tiny-S模型性能提升最明顯,精確率、召回率和mAP分別提高1.42、1.92、1.15個百分點,且模型大小僅增加0.01 MB。這是由于在多層添加多個CBAM模塊引入了更多噪聲,難以從數據中準確地學習目標關鍵特征,而單一CBAM模塊更容易捕捉到目標關鍵特征。小目標檢測層主要提取的是主干網絡的淺層特征,此時特征圖尺寸較大、局部信息比較豐富,單個像素的感受野比較小,可以捕捉更多的小目標信息,所以只添加CBAM模塊到小目標檢測層可以更好地提取小目標嫩芽的關鍵特征。

3.2 不同損失函數應用于YOLOv7-tiny的性能比較

為分析不同損失函數的性能,將YOLOv7-tiny中的原始損失函數CIoU分別替換為DIoU[21]、GIoU[22]、Alpha IoU[22]、MPDIoU[23]和NWDIoU,上述6種損失函數的性能表現如表2所示,訓練模型時的損失曲線如圖7所示。由損失曲線圖可以看出,6種損失函數收斂速度接近,Alpha IoU損失值最高,NWDIoU損失值最低,其余4種損失函數的損失值接近。

對6種損失函數性能進行分析發現,使用CIoU、Alpha IoU、DIoU的模型各項性能參數均低于使用NWDIoU的模型;與GIoU相比,

使用NWDIoU的模型的召回率和mAP分別提高1.45和0.67個百分點,準確率下降0.09個百分點;與MPDIoU相比,使用NWDIoU的模型的召回率和mAP分別提高3.16和0.80個百分點,準確率下降1.76個百分點。雖然使用NWDIoU的模型準確率低于使用GIoU和MPDIoU的模型,但相較原始損失函數仍提高1.31個百分點,同時其召回率和mAP明顯高于使用GIoU和MPDIoU的模型。以上結果表明,使用NWDIoU損失函數進行模型訓練的綜合優勢明顯,檢測效果最好。

3.3 消融實驗

為驗證本研究所提出的改進算法的有效性,通過消融實驗分析改進后模型的性能,其

中將CBAM模塊添加至小目標檢測層記為YOLOv7-tiny-C,使用優化后的SPPF記為YOLOv7-tiny-S,更換NWDIoU損失函數記為YOLOv7-tiny-N,組合改進名稱以此類推。由表3數據可知,本研究在進行的單個改進上各項試驗指標較原有算法均有提升。在2個組合的改進中,各項指標較原有算法稍有提升,較單個改進則有小幅度的上升或下降,2處改進疊加效果一般。3處改進的疊加效果較好,各項指標均高于其他7種模型,YOLOv7-tiny-

CNS模型的準確率、召回率、mAP和F1分數較原模型分別提高2.83、2.00、1.47、2.40個百分點。

3.4 檢測效果分析

為更直接對比改進前后算法的檢測效果,利用改進前后的模型對茶葉嫩芽驗證集進行測試,檢測效果如圖8所示。所使用樣本包含少目標、多目標、目標遮擋、背景復雜、光照不均等情況,由于光照影響、相互遮擋,原YOLOv7-tiny模型對于較小目標和遮擋目標存在一定情況的漏檢和誤檢,改進的YOLOv7-tiny模型的漏檢和誤檢情況有明顯改善,且置信度有明顯提升。

3.5 不同目標檢測模型性能對比

為評價改進的YOLOv7-tiny網絡模型對茶葉嫩芽的檢測效果,使用SSD[25]、Faster R-CNN[26]、YOLOv5s[27]、YOLOv7-tiny及改進后的YOLOv7-tiny網絡模型對茶葉嫩芽數據集進行訓練和測試。5種模型對各等級茶葉嫩芽的識別平均精度如表4所示,模型的性能指標如表5所示。

由表4可知,與其他4種模型相比,改進后的YOLOv7-tiny對各等級茶葉嫩芽的平均精度最高,改進后的單芽、一芽一葉、一芽二葉、一芽三葉的識別平均精度分別為86.96%、92.47%、96.34%、94.88%;與原YOLOv7-tiny相比,單芽、一芽一葉、一芽二葉、一芽三葉的識別平均精度分別提高2.44、1.88、0.98、0.60個百分點,單芽的平均精度提升最明顯。由表5可知,改進后的YOLOv7-tiny與其他4種模型相比,準確率、召回率、平均精度均值最高,與YOLOv7-tiny相比,準確率、召回率、平均精度均值分別提高2.83、2.00、1.47百分點。對YOLOv7-tiny模型的改進,提高

了模型對嫩芽特征的提取能力,尤其是對單芽特征的提取能力,同時減小了預測框位置偏差對單芽檢測的影響,但也增加了模型的復雜度和計算量,導致模型大小增加0.1 MB,檢測速度慢18.4幀·s-1,但仍優于SSD、Faster R-CNN、YOLOv5s。以上結果表明,改進的YOLOv7-tiny綜合表現最好,可以實現自然環境下的茶葉嫩芽快速識別分級。

4 結論

為實現自然環境下茶葉嫩芽目標的快速識別分級,本研究改進YOLOv7-tiny模型,通過改進金字塔池化結構、在小目標檢測層添加CBAM模塊、修改損失函數提升茶葉嫩芽識別分級的準確性,并與其他典型算法模型進行對比,主要結論如下:

(1)在本研究數據集上,改進后的YOLOv7-tiny模型其F1分數為89.82%,mAP為92.26%。與原始YOLOv7-tiny模型相比,準確率提高2.83個百分點,召回率提高2.00個百分點,mAP提高1.47個百分點,F1分數

提高2.40個百分點。同時,在驗證集測試中,無論是目標遮擋還是多目標等復雜情況,改進的YOLOv7-tiny均具有一定的優勢。

(2)與常用目標檢測模型SSD、Faster R-CNN和YOLOv5s相比,改進后的模型各項指標均有提升,mAP分別提高12.16、11.15、4.55個百分點。結果表明,針對茶葉嫩芽目標較小、相互遮擋、光照不均等復雜情況時,改進后的YOLOv7-tiny具有較高的魯棒性。

(3)改進后的YOLOv7-tiny模型復雜度提高,檢測速度為120.5幀·s-1,較原始YOLOv7-tiny稍有下降,但仍優于SSD、Faster R-CNN和YOLOv5s,可以滿足實時檢測的要求。

本研究提出的方法可以有效改善模型在茶園復雜環境下的茶葉嫩芽的檢測效果,能夠完成實際采摘場景下茶葉嫩芽的分級識別工作,尤其是對單芽的識別效果提升明顯,具有較高的檢測精度和良好的魯棒性,可以為其他作物在真實采摘場景下的識別提供借鑒。

參考文獻

[1]梅宇, 梁曉. 2021年中國茶葉生產與內銷形勢分析[J]. 中國茶葉, 2022, 44(4): 17-22.

Mei Y,Liang X. Analysis of China's tea production and domestic sales in 2021 [J]. China Tea, 2022, 44(4): 17-22.

[2]代云中, 蔣天宸, 楊威, 等. 基于YOLOv5算法的名優茶采摘機器人[J]. 南方農機, 2023, 54(12): 24-27.

Dai Y Z, Jiang T C, Yang W, et al. A premium tea picking robot based on the YOLOv5 algorithm [J]. China Southern Agricultural Machinery, 2023, 54(12): 24-27.

[3]黃海濤, 毛宇驍, 李紅莉, 等. 茶鮮葉機械化采收裝備與技術研究進展[J]. 中國茶葉, 2023, 45(8): 18-23, 31.

Huang H T, Mao X Y, Li H L, et al. Research progress on mechanized harvesting equipment and technology for fresh tea leaves [J]. Chinese Tea, 2023, 45(8): 18-23, 31.

[4]吳敏, 郇曉龍, 陳建能, 等. 融合2D激光雷達與航向姿態參考系統的采茶機仿形方法研究與試驗[J]. 茶葉科學, 2023, 43(1): 135-145.

Wu M, Huan X L, Chen J N, et al. Research and experiment on profiling method of tea picker based on fusion of 2D-LiDAR and attitude and heading reference system [J]. Journal of Tea Science, 2023, 43(1): 135-145.

[5]王先偉, 吳明暉, 周俊, 等. 名優茶采摘機器人機械手結構參數優化與仿真[J]. 中國農機化學報, 2018, 39(7): 84-89.

Wang X W, Wu M H, Zhou J, et al. Optimization and simulation of structural parameters of manipulators for high-quality tea picking robots [J]. Journal of Chinese Agricultural Mechanization, 2018, 39(7): 84-89.

[6]吳雪梅, 張富貴, 呂敬堂. 基于圖像顏色信息的茶葉嫩葉識別方法研究[J]. 茶葉科學, 2013, 33(6): 584-589.

Wu X M, Zhang F G, Lü J T. Research on the recognition method of tea leaves based on image color information [J]. Journal of Tea Science, 2013, 33(6): 584-589.

[7]龍樟, 姜倩, 王健, 等. 茶葉嫩芽視覺識別與采摘點定位方法研究[J]. 傳感器與微系統, 2022, 41(2): 39-41, 45.

Long Z, Jiang Q, Wang J, et al. Research on method of tea flushes vision recognition and picking point localization [J]. Transducer and Microsystem Technologies, 2022, 41(2): 39-41, 45.

[8]張金炎, 曹成茂, 李文寶, 等. 基于多特征融合的茶葉鮮葉等級識別的方法研究[J]. 安徽農業大學學報, 2021, 48(3): 480-487.

Zhang J Y, Cao C M, Li W B, et al. Study on the method of recognition of fresh leaf grade of tea based on multi-feature fusion [J]. Journal of Anhui Agricultural University, 2021, 48(3): 480-487.

[9]劉自強, 周鐵軍, 傅冬和, 等. 基于顏色和形狀的鮮茶葉圖像特征提取及在茶樹品種識別中的應用[J]. 江蘇農業科學, 2021, 49(12): 168-172.

Liu Z Q, Zhou T J, Fu D H, et al. Application of image feature extraction based on color and shape in tea tree variety identification [J]. Jiangsu Agricultural Sciences, 2021, 49(12): 168-172.

[10]王子鈺, 趙怡巍, 劉振宇. 基于SSD算法的茶葉嫩芽檢測研究[J]. 微處理機, 2020, 41(4): 42-48.

Wang Z Y, Zhao Y W, Liu Z Y. Research on tea buds detection based on SSD algorithm [J]. Microprocessors, 2020, 41(4): 42-48.

[11]Yang H L, Chen L, Chen M T, et al. Tender tea shoots recognition and positioning for picking robot using improved YOLO-v3 model [J]. IEEE Access, 2019: 180998-181011.

[12]方夢瑞, 呂軍, 阮建云, 等. 基于改進YOLOv4-tiny的茶葉嫩芽檢測模型[J]. 茶葉科學, 2022, 42(4): 549-560.

Fang M R, Lü J, Ruan J Y, et al. Tea buds detection model using improved YOLOv4-tiny [J]. Journal of Tea Science, 2022, 42(4): 549-560.

[13]呂丹瑜, 金子晶, 陸璐, 等. 基于圖像處理技術的茶樹新梢識別和葉面積計算的探索研究[J]. 茶葉科學, 2023, 43(5): 691-702.

Lü D Y, Jin Z J, Lu L, et al. Exploratory study on the image processing technology-based tea shoot identification and leaf area calculation [J]. Journal of Tea Science, 2023, 43(5): 691-702.

[14]尹川, 蘇議輝, 潘勉, 等. 基于改進YOLOv5s的名優綠茶品質檢測[J]. 農業工程學報, 2023, 39(8): 179-187.

Yin C, Su Y H, Pan M, et al. Detection of the quality of famous green tea based on improved YOLOv5s [J]. Transactions of the Chinese Society of Agricultural Engineering, 2023, 39(8): 179-187.

猜你喜歡
注意力機制
基于注意力機制的行人軌跡預測生成模型
基于注意力機制和BGRU網絡的文本情感分析方法研究
多特征融合的中文實體關系抽取研究
基于序列到序列模型的文本到信息框生成的研究
基于深度學習的手分割算法研究
從餐館評論中提取方面術語
面向短文本的網絡輿情話題
基于自注意力與動態路由的文本建模方法
基于深度學習的問題回答技術研究
基于LSTM?Attention神經網絡的文本特征提取方法
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合