?

基于NGG-YOLOv5的空對地UXO目標檢測方法

2024-03-20 08:44劉子玉李連鵬
電光與控制 2024年3期
關鍵詞:注意力像素準確率

劉子玉, 趙 旭,2, 李連鵬, 代 牮

(1.北京信息科技大學高動態導航技術北京市重點實驗室,北京 100000;2.北京宏大和創防務技術研究院有限公司,北京 100000)

0 引言

通常,未爆彈(UXO)位于地表下或遺留于地面,如受外界因素影響并滿足其爆炸條件就自行爆炸,位置隱蔽且殺傷力極大,對國家安全和公民安全造成極大威脅,未爆彈藥的探測、定位和排除是各國重點研究的問題[1]。一般戰后在各處都會留有大量未爆彈,現代戰爭期間會使用大量彈藥,也必有未爆彈遺留。隨著現代武器的發展,炮彈等武器可輕易完成大面積打擊場高效布設[2]。以投彈為例,目前投彈方式有拋撒布彈、機載投彈等,可以實現在復雜環境下的大面積、快速布彈,提高了彈藥投放的數量和隨機性,所遺留未爆彈數量顯著增加、危險程度大為提升[3]。因無人機具備雷達探測、光學探測等多重遠距離、大視場探測手段,可完成目標搜索、數據采集等多種任務,可代替傳統手段,降低人員工作風險[4-7]。

在實際勘探中,因未爆彈目標多數存在遮擋、偽裝等特點,依靠傳統的識別方法難以得到較高的識別效率,不能滿足實際工程需要。所以研究人員運用卷積神經網絡(CNN)省去提取圖像底層等工作,利用深度卷積網絡學習圖像中目標的不同特征信息,根據該特征對圖像中的目標進行描述,然后采用目標分類和邊框回歸的方法對目標進行檢測,取得較好的檢測效果[8-9]。

YOLO系列算法被廣泛應用于科研及工程等領域。尤其是2020年GLENN等提出的YOLOv5系列算法,繼承前任算法優勢的同時在模型方面進行優化,不僅準確率較高并且檢測速度較快[10]。多名研究人員優化過YOLOv5系列算法,如邱天衡等[11]提出改進的YOLO-G;陳旭等[12]提出運用于無人機圖像目標檢測的YOLO-sm;李嬌等[13]進行昏暗小目標算法研究;龍賽等[14-19]改進了YOLOv5s用于航拍圖像車輛檢測等。但以上算法所識別目標基本無遮擋、與背景環境差異較大,不適用于本文復雜環境未爆彈目標的識別。

因此,本文提出一種基于YOLOv5s算法的空對地未爆彈目標檢測方法,并在自制無人機未爆彈數據集上進行檢測,取得較好檢測效果。

1 相關工作

1.1 自制數據集

本實驗采用無人機于20 m左右高空進行數據采集,分為平原、稀疏草地等場景;目標物分為無遮擋、輕度、中度、重度4種情況進行采集。數據集1示例見圖1,數據集按4個場景(Scene1~Scene4),分為各100張[20]。

1.2 YOLOv5網絡

YOLOv5網絡模型為4個模塊:輸入端(Input)、主干網絡(Backbone)、Neck網絡和預測端(Prediction),如圖2所示。

1) 輸入端包括Mosaic數據增強、圖片自適應縮放、自適應錨框計算3部分,將受訓圖片進行豐富、處理成統一尺寸,然后對錨框進行學習;

2) 主干網絡包括Focus處理、CBL層、CSP結構、空間金字塔池化(SPP)[21],將訓練集進行卷積形成特征圖,隨后進行歸一化,進入CBL層學習,最后在SPP將輸出與輸入保持一致[22-23];

3) Neck網絡采用FPN與PAN相結合的結構,將提取到的特征進行混合組合,傳遞至預測層,加強網絡特征融合能力[24];

4) 預測端用CIoU_Loss為損失函數,使用非極大值抑制(NMS)加權篩選目標框[25]。CIoU_Loss示意圖如圖3所示。

圖3 CIoU_Loss示意圖

圖3中A為目標真實框,B為預測框,用M表示兩個框之間的交集,N表示兩個框之間的并集,A和B的最小外接矩形為C,則CIoU_Loss表示為

(1)

式中:D2表示真實框A的中心點和預測框B的中心點之間的距離;DC表示真實框A和預測框B的最小外接矩形框C的對角線距離;ν表示為

(2)

式中:wgt,hgt分別表示目標真實框的寬和高;wP,hP分別表示預測框的寬和高。

2 NGG-YOLOv5目標檢測算法

本文在YOLOv5網絡的Backbone中添加注意力機制提高模型的特征提取能力和檢測效率;改進預測端中的損失函數和預測框篩選方法,提高檢測準確率。圖4所示為算法流程及改進的檢測詳情圖。

圖4 檢測詳情

2.1 改進注意力機制NAM-Attention

算法添加了NAM注意力機制模塊,對CBAM注意力機制的通道注意力和空間注意力子模塊重新設計,在每個網絡最后嵌入一個NAM模塊;通道注意力子模塊使用Batch-Normalization(BN)縮放因子,表示為

(3)

空間、通道子模塊分別如圖5、圖6所示。

圖5 空間注意力子模塊

圖6 通道注意力子模塊

2.2 改進的損失函數GIoU_Loss

GIoU_Loss示例見圖7。

圖7 GIoU示意圖

IIoU=I/U=I/(AP+Ag-I)

(4)

GIoU的算式為

GGIoU=IIoU-(AC-U)/AC

(5)

且-1≤GGIoU<1。GIoU_Loss的算式為

fGIoU_Loss=1-GGIoU

(6)

且0

2.3 改進的預測框篩選方式GIoU_NMS

本文采用GIoU_NMS非極大值抑制,抑制準則為GIoU,用最小外接矩形將框BBoxA,B(Bounding Box,BBox)包含在內,不以IoU將重疊區域為唯一判斷因素,結果更合理。并采用Mosaic-9數據增強,隨機挑選9張圖片裁剪、排列等,合成1張圖片,增加樣本數據量,引入隨機噪聲,增強模型對小目標樣本區分力,提升模型泛化力,相較于原網絡的Mosaic增強使用4張圖片擴充,進一步提升了樣本豐富性。

3 實驗與分析

3.1 數據集準備

訓練集圖像采用Labelimg工具標注,共使用400張無人機拍攝數據進行實驗,包括地面、草地等多種復雜背景,將訓練集、驗證集、測試集按比例分為7∶2∶1,數量分別為280、80、40。為驗證算法有效性,所用數據集為4000像素×3000像素,未爆彈目標為60像素×80像素,防步兵雷為30像素×30像素,防坦克雷為70像素×70像素。

3.2 訓練環境及參數配置

實驗使用Pytorch深度學習框架,系統為Windows 11,NVIDIA GeForce RTX 3060、CUDA 11.6、Pytorch、YOLOv5s模型,訓練批次(batch size)為4,訓練輪次(epoch)為200。

3.3 評估指標與實驗結果分析

本文評價指標采用準確率P、召回率R和平均精度均值(mAP)評估算法性能。準確率為預測數據集中正樣本個數除以被預測為正樣本的個數;召回率為預測數據集中預測正確的正樣本個數除以實際正樣本的個數;平均精度代表在IoU閾值為0.5時的平均精度(AP)。上述衡量指標分別表示為

P=TTP/(TTP+FFP)

(7)

R=TTP/(TTP+FFN)

(8)

(9)

(10)

式中:TTP(True Positive)是真實目標檢測為真實目標;FFP(False Positive)是虛假目標檢測為虛假目標;FFN(False Negative)是真實目標檢測為虛假目標;P表示檢出的未爆彈目標中是真實目標的概率,反映了模型的準確性;R表示未爆彈目標被正確檢出的概率,反映目標齊全度;精度均值AAP為以準確率P和召回率R所圍成的曲線面積值;mAP為學習的所有類別精度均值的平均值,式中n為2。mAP值越大,表示算法效果越好,識別精度越高。

本實驗環境如3.1節、3.2節所述,所得結果中準確率P、召回率R、mAP、損失函數GIoU_Loss如圖8所示,卷積網絡特征圖如圖9(以Scene2為例)所示,檢測結果如圖10所示。

圖8 指標測試結果

圖9 卷積網絡特征圖

圖10 測試集檢測結果

由圖8可知,算法在訓練約135個epoch后,準確率P趨于92%;召回率R和mAP均值分別穩定在50%,55%,驗證了模型的準確性;GIoU_Loss在150個epoch之后達0.05以下。以上曲線均在150個epoch后逐漸收斂,證明了算法的收斂性和收斂的快速性。

為檢驗算法性能,進行消融實驗的同時采用SSD、Faster R-CNN、YOLOv5、YOLOv8算法作為比較,均用同一數據集、選用基礎算法、采用同等輕量級網絡、運行200個epoch,統一采用mAP、檢測幀率(FPS)為評價指標。

消融實驗結果見表1,可見加入NAM注意力模塊后模型準確率及mAP值有顯著提升。算法對比結果見表2,可知,本文YOLOv5算法的mAP值達56.54%,較SSD、Faster R-CNN、YOLOv5、YOLOv8算法分別提高34.39、39.54、6.34和17.94個百分點。模型檢測幀率NGG-YOLOv5算法最高,因此NGG-YOLOv5算法速度最快。綜上,NGG-YOLOv5算法兼顧了模型檢測精度和檢測速度。

表1 NGG-YOLOv5消融實驗

表2 模型結果對比

從圖10可以看出:SSD和Faster R-CNN在測試集中無法檢出目標;原YOLOv5算法可實現目標探測,但所得結果mAP值不高,易認為是誤檢目標;YOLOv8算法可檢測出部分目標,但目標mAP值較低,并存在漏檢現象,在Scene4中完全丟失了目標;改進的YOLOv5算法相較于原算法的mAP值有所提升。

本文改進的YOLOv5算法通過在Backbone主干網絡中添加NAM注意力機制模塊,對不同目標的特征進行不同比例縮放,準確提取目標特征;對模型輕量化,提高準確率和檢測速度;改進的損失函數減少了漏警情況;改進的預測框篩選方式排除無關目標干擾,避免因為探測區域重疊導致對目標的誤判;Mosaic-9數據增強提高了模型的準確率。

4 結束語

針對無人機復雜環境下未爆彈目標識別概率低的問題,本文提出了一種NGG-YOLOv5的空對地復雜環境下未爆彈目標檢測方法,通過改進注意力機制、數據增強方法、損失函數、預選框篩選機制對原算法進行優化,并對所生成的目標檢測模型經過驗證,相較于原生算法在檢測準確率、檢測速度上均有較大優化。針對不同場景下的空對地未爆彈目標數據均有較好效果,平均精度值達到55%,檢測準確率達到90%以上,驗證了方法和模型的準確性和適用性。

猜你喜歡
注意力像素準確率
趙運哲作品
像素前線之“幻影”2000
讓注意力“飛”回來
乳腺超聲檢查診斷乳腺腫瘤的特異度及準確率分析
不同序列磁共振成像診斷脊柱損傷的臨床準確率比較探討
2015—2017 年寧夏各天氣預報參考產品質量檢驗分析
“像素”仙人掌
高速公路車牌識別標識站準確率驗證法
“揚眼”APP:讓注意力“變現”
A Beautiful Way Of Looking At Things
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合