?

復雜對抗場景下的對空目標混合智能抗干擾研究

2022-03-04 08:27張良李少毅楊曦田曉倩
航空兵器 2022年1期
關鍵詞:目標識別特征提取深度學習

張良 李少毅 楊曦 田曉倩

摘 要:目標識別與抗干擾技術已經成為決定精確制導武器性能優劣的關鍵技術。 本文針對復雜對抗場景下紅外空空導彈作戰特點,分析了其目標識別與抗干擾發展需求,提出了融合傳統算法與深度學習的混合智能抗干擾算法。 該算法充分利用傳統算法在確定場景下的高可靠性優勢與深度學習算法在復雜場景下的高維特征提取能力,最大化挖掘了導彈探測的場景信息,對于提高系統抗干擾能力具有重要意義。 在此基礎上,構造了算法測試訓練的空戰數據集,覆蓋了典型的空戰作戰場景。 實驗結果表明,相同特征融合條件下,典型場景混合智能抗干擾算法的全程抗干擾概率達到了71.56%,比傳統算法提高了15.77%,驗證了算法的有效性。

關鍵詞:紅外空空導彈;智能抗干擾;空戰數據集;特征提取;目標識別;深度學習

中圖分類號:TJ760.2; V271.4 文獻標識碼:?? A 文章編號:1673-5048(2022)01-0022-07[SQ0]

0 引? 言

現代戰爭中,沒有人工干擾的凈空作戰條件已經不復存在,新型干擾不斷出現、戰場環境瞬息萬變,使傳統基于人工定義特征和邏輯的算法難以應對。 近年來在導彈型號研制和部隊訓練中頻繁暴露出的問題表明,空空導彈的抗干擾能力已經成為能否達成其作戰意圖的首要性能。 圖1所示為國外軍機拋射紅外誘餌彈示意圖。

導引頭抗自然背景和人工誘餌干擾能力的提升主要依賴于目標檢測識別算法的性能[1]。 目前,導彈抗干擾方法主要通過強化空中目標和誘餌紅外特性認識,充分挖掘熱成像視覺特征,基于特征相似性匹配實現自動目標識別。 傳統基于邏輯規則的算法由于閾值設置缺乏靈活性、規則表達存在局限性,難以應對瞬息萬變的戰場環境[2-3]。 人工智能技術的推理、學習等能力恰恰能豐富和完善抗干擾過程中的目標與場景定義、特征提取等功能,不僅能提高對目標的檢測識別能力,而且能通過對環境及攻防對抗態勢的融合分析生成最佳博弈策略,對于提高導彈在復雜環境下的作戰能力具有重要意義。

自2006年以來,深度學習方面的文獻層出不窮[4-6]。 深度學習技術帶來的進步主要體現在能夠從數據中學習提取出目標特征,這些特征無論從數量上,還是維度或復雜度上,都遠超設計人員手工設計的特征。 但深度學習存在不可解釋的特點,這對于復雜對抗、真實數據缺乏的空戰場景應用帶來了較大的不確定性[7-8]。

針對該問題,本文充分利用傳統算法在確定場景下的高可靠性優勢與深度學習算法在復雜場景下的高維特征提取能力,提出一種復雜對抗場景下的對空目標混合智能抗干擾算法,最大化挖掘導引頭圖像蘊含信息,極大提高紅外空空導彈在復雜場景下的感知對抗能力。

1 混合智能抗干擾算法

混合智能抗干擾算法是在傳統抗干擾算法框架基礎上,將深度學習算法和傳統特征融合算法在彈道階段、特征維度、功能層面結合的一種智能算法,既保證算法的高準確率,同時一定程度上提升了算法的可解釋性。

傳統多特征融合算法以統計模式識別算法中的最小距離分類法為核心,使用輸入特征矢量與特征空間中模板的點之間的距離作為分類的準則。 利用最高灰度、灰度均值、能量、長寬比、周長、面積等特征作為分類的依據。

設m類中有m個參考向量R1,R2,…,Rm,分別屬于ω1,ω2,…,ωm。 若輸入特征矢量X與參考向量Ri的距離最小,則認為X∈ωi。 X與Ri的距離為

Di(X, Ri)=X-Ri=(X-Ri)T(X-Ri)(1)

式中:當Di(X, Ri)<Dj(X, Rj) (j=1, 2, …, m, j≠i)時,X∈ωi。

目前,空空導彈紅外成像導引頭的目標探測識別與抗干擾策略主要是借助專家知識進行設計[9-11],其典型流程是:(1)圖像預處理,提升信雜比;(2)分割,區分前景與背景;(3)提取前景區塊的特征,通常包括灰度、面積、周長等;(4)根據特征確定目標。 每個步驟都有多種實現方法,根據多個條件判斷在不同方法之間進行切換,實現多種目標檢測與抗干擾措施之間有規律的轉換。 雖然對特定類型的場景具有較好的檢測識別和抗干擾性能,但很難靈活地適應實戰環境下瞬息萬變的戰場態勢。

如圖2所示,不同于傳統算法設計的核心思想是將人的認識轉化為導彈能夠執行的邏輯與規則集合,融合深度學習的混合智能抗干擾算法在此基礎上能夠自動從數據中學習難以直接利用規則描述的復雜特征,大大擴展可利用的信息維度。

混合智能抗干擾模型原理為

f(Xi)=h{T[Xi, R1i(Xi)], L[Xi, R2i(Xi)],

si(Xi)}(2)

式中:Xi為當前圖像;f(Xi)為當前算法的輸出結果;R1i(Xi)為傳統算法特征值;T[Xi, R1i(Xi)]為傳統算法的輸出結果;L[Xi, R2i(Xi)]為深度學習算法的輸出結果;R2i(Xi)為深度學習算法特征值; si(Xi)為當前場景分類的結果。

根據場景分類si(Xi)的結果,可以將式(2)變為以下兩種形式:

(1) 滿足特征融合要求的形式:

f(Xi)=T[Xi, R1i(Xi)+R2i(Xi)](3)

將傳統特征與深度學習特征融合,在傳統多特征融合算法的框架下進行目標識別。

(2) 滿足結果融合要求的形式:

f(Xi)=α·T[Xi, R1i(Xi)]+β·L[Xi, R2i(Xi)](4)

將傳統特征與深度學習結果融合,其中α, β是根據si(Xi)結果變化的系數,且α+β=1。

1.1 深度學習算法模塊設計

深度學習本質上是構建含有多隱層的神經網絡,通過大規模數據進行訓練,得到大量更具代表性的特征信息。 從而對樣本進行分類和預測,提高分類和預測的精度。 這個過程是通過深度學習模型的手段達到特征學習的目的。 深度學習模型和傳統淺層學習模型的區別在于:首先,深度學習模型結構含有更多的層次,包含隱層節點的層數通常在5層以上;其次,明確強調了特征學習對于深度模型的重要性,即通過逐層特征提取,將數據樣本在原空間的特征變換到一個新的特征空間來表示初始數據,使得分類或預測更加容易實現。

一些人類事先根本沒注意到的復雜特征,也能夠被卷積神經網絡提取出來。 利用卷積神經網絡進行目標檢測和識別,不僅大幅提高了圖像識別的精度,同時也避免了需要消耗大量時間進行人工特征提取的工作,使得運算效率大大提升。

圖3所示為當前主要的目標檢測算法。 目前主流的基于深度學習的目標檢測算法,大致可以分為兩大類別:(1)Two-Stage目標檢測算法。 這類檢測算法將檢測問題劃分為兩個階段,第一個階段產生候選區域(Region Proposals),包含目標大概的位置信息,第二階段對候選區域進行分類和位置精修。 這類算法的典型代表[12-14]有R-CNN,Fast? R-CNN, Faster? R-CNN等。? (2)One-

Stage目標檢測算法。 這類檢測算法不需要Region Proposal階段,可以通過一個Stage直接產生物體的類別概率和位置坐標值。 代表性的算法[15-16]有YOLO,SSD和CornerNet。

目標檢測模型的性能指標是檢測準確度和速度,其中準確度主要考慮物體的定位及分類精度。 一般情況下,Two-Stage算法在精度上有優勢,而One-Stage算法在速度上有優勢。 不過,隨著研究的發展,兩類算法都做了改進,均能在準確度以及速度上取得較好的結果。

由于彈載應用對算法實時性要求很高。 Two-Stage檢測算法中,經典的檢測方法生成候選區域都非常耗時,如R-CNN使用SS(Selective Search)方法生成檢測框,在Nvidia Titan X上只有0.02 fps的檢測速度。 即便宣稱極大地提升了檢測框生成速度的Faster R-CNN在同等條件下也只有7 fps的檢測速度。 而One-Stage類中的代表算法SSD300,在同等硬件條件下,能夠達到46 fps,且擁有和Faster R-CNN相當的檢測精度。 因此,考慮對空目標探測識別的高實時性要求,本文采用單階段檢測算法開展算法設計。

本文的應用場合需要考慮弱小目標檢測,選取一個弱小目標檢測能力強的目標分類器是十分必要的,因此,選取了YOLOV3目標檢測算法的尾部分類器[17]。 YOLOV3由華盛頓大學的Joseph Redmon和Ali Farhadi于2018年提出,旨在提升目標檢測的檢測效率,試圖使目標檢測達到實時檢測的程度。 特別在經過改進后,YOLOV3能在提升目標檢測效率的同時保持檢測精度,是雙贏的算法。

YOLOV3使用的是Darknet-53的網絡結構(含有53個卷積層),其借鑒了殘差網絡的做法,在一些層之間設置了快捷鏈路(shortcut connections),從而加深了網絡的深度,使網絡提取特征的能力更進一步加強,如圖4所示。

MobileNet是Google提出的一種輕量級網絡,體積小,計算量少,適用于移動設備,MobileNetV2[18]在一代基礎上提升了訓練速度并有效解決了梯度彌散的問題。 雖然MobileNetV2的精度(74.9%)略低于Darknet-53,但由于彈上資源有限,Darknet-53等其他大型網絡部署起來會有困難,權衡之下,選用MobileNetV2作為YOLOV3的特征提取器。 MobileNetV2網絡結構如表1所示。

1.2 混合智能抗干擾算法設計

從特征級和決策級兩個層面開展傳統目標識別算法與深度學習算法的融合設計。 決策級:一方面,利用深度學習算法輸出結果輔助傳統算法進行執行路徑選擇;另一方面,根據場景對深度學習算法和傳統算法的識別結果進行融合,在提高目標識別正確概率的同時保證跟蹤點的穩定性。 特征級:通過深度學習算法得到場景所有對象的態勢分布,將該分布態勢信息矢量化表示形成特征信息后與傳統算法成像特征進行融合。

1.2.1 場景分類

傳統算法在可定義確定場景下能夠取得較好的識別效果,且具有高可靠性的優勢。 由于場景類別的判斷本身具有一定的難度,而深度學習算法可以通過對場景中各對象類型的輸出,綜合得出場景類別[19-21],因此,將深度學習算法的場景分類結果輸出給傳統算法,傳統算法根據場景類別選擇規定好的執行路徑,提高算法對于復雜場景的適應能力。

根據訓練好的模型,識別該時刻場景所處的分類情況,進而選擇更適合的參數或算法對圖像進行處理,提升處理精度及效率。 如圖5所示,通過場景分類算法得出目前所處的階段及目標態勢,選擇目標態勢最適用的算法處理目標信息。 如遠距應選擇小目標檢測識別算法;目標若處于復雜機動條件下,應選擇對應的復雜機動條件下的識別和跟蹤方法,以確保處理不同場景所依賴的算法及參數處于最優狀態。

1.2.2 特征融合

目標識別主要基于紅外干擾與真實空中目標在紅外成像上的差異性,充分提取并利用相關成像特征,構建目標模型并進行識別判定,抗干擾過程中存在目標特征連續性被破壞、干擾與目標特征相似帶來的目標難以識別問題,而深度學習具有極強的特征表示能力,因此,可將卷積神經網絡提取的深度特征與傳統人工特征融合進行目標識別。

人工特征的提取主要依賴先驗知識,通過對圖像分割后的候選區域進行處理,最大程度找出能反映不同樣本間差異的特征變量,通常以能反映能量強度、外形輪廓等的物理量為主。 本文所選的特征有長寬比、周長、面積、能量、灰度均值、熵、傅里葉描述子。

深度學習網絡輸出的特征圖反映了像面的對象分布態勢,將該分布態勢信息矢量化表示形成特征信息后,可以與傳統算法提取的像面成像特征融合,得到更加完整和全面的特征表示。 如發生目標被新的誘餌遮擋情況,利用深度學習輸出的分布矢量特征,與傳統算法的成像特征融合,完成當前時刻目標與干擾相對位置矢量的觀測與估計。

圖6所示為目標與干擾的深度特征圖。 通過這些抽象程度不高的特征圖可以看出,目標與干擾的特征提取較為準確,其主要輪廓特征可以清晰分辨,特征差別較為明顯,特征描述較為準確。 不難推斷,高維深度特征也具有此類特性。 所以,對于目標與干擾深度卷積特征,可以用目標分類識別的一項約束,與傳統特征進行融合。

圖像經過多次卷積后得到的深度卷積特征維度一般高于傳統特征的維度,通常需將高維卷積特征降維至與傳統特征相同的維度進行融合:

Xn=f(Cd, i, j)(5)

式中:Cd, i, j為高維卷積特征;Xn為降維后特征,與傳統特征維度一致;f(x)為降維算法,如主成分分析法(PCA)、線性判別分析法(LDA)等。

1.2.3 識別結果融合

導彈作戰需要在識別出目標的同時,測量目標的跟蹤點用于制導系統閉合。 深度學習算法可極大提高系統對于目標的識別分類能力,但對于跟蹤點的提取并不穩定。 故將深度學習算法的分類識別結果與傳統算法的識別結果相結合,在傳統算法可定義的場景下以傳統算法的識別結果為主,輸出跟蹤點供制導系統閉合。

在傳統算法難以識別出目標的場景下,以深度學習算法的分類識別結果輔助傳統算法進行目標識別,并通過傳統算法輸出目標跟蹤點,在提高系統目標識別與抗干擾能力的同時,保證跟蹤點的穩定性:

xi, j=ti,j, di, j=0α·di, j+β·ti, j, di, j≠0且α+β=1 (6)

式中:xi, j為輸出的目標跟蹤點;di, j為深度學習算法結果;ti, j為傳統算法識別結果;α和β為權重系數。

同時,利用深度學習算法結果在目標與干擾粘連狀態下所表現出的對部分特征依然能精準鎖定的特性,結合傳統算法結果可判定目標與干擾的相對運動關系,利用得到的方向特征增強空間約束,提升跟蹤穩定性。

混合智能抗干擾算法具體流程如圖7所示。 首先對輸入的圖像進行預處理,對處理后的圖像進行場景分類識別,根據得到的不同階段選用不同的融合算法,最后得到跟蹤目標的位置,更新跟蹤框。

1.3 數據集構造與標注

本文采用仿真數據集中的復雜對抗場景是由導彈發射初始態勢、 載機機動策略、 誘餌對抗策略共同耦合生成的。 通過建立載機、點源誘餌的運動、幾何、紅外輻射

模型,導彈的運動、動力學、制導控制模型及導彈紅外導引頭模型,結合OSG+GPU實現紅外場景實時動態渲染,構成了導彈導引頭彈道數據仿真軟件,逼近實際空戰對抗環境的不同彈道數據。

構建樣本空間,首先進行戰場態勢想定,彈道中目標高度為6 km, 目標飛行馬赫數為0.8;導彈發射距離為7 km;干擾彈投射距離在2~7 km以500 m為間隔平均劃分為11種投射距離。 樣本集彈道態勢如表2所示。

根據表2,共仿真1 132條彈道,將彈道全過程輸出格式為256×256的單通道16位灰度圖序列。 提取導引頭圖像序列,分別進行目標和干擾區域標注,以此作為正、負樣本構造數據集,如圖8所示。

2 仿真分析

2.1 實驗條件

仿真測試數據集包括初始發射條件、目標機動、干擾投射策略3個維度的對抗條件參數,本實驗所用圖像數據集的對抗條件參數的量化共包含16個。

(1) 對抗態勢有7個參數:目標高度、載機高度、目標速度、載機速度、水平進入角、發射距離、綜合離軸角(可分解為水平離軸角、垂直離軸角);

(2) 目標機動有5種類型:無機動、左機動、右機動、躍升、俯沖;

(3) 紅外干擾投放策略有4個參數:總彈數、組數、彈間隔、組間隔。

本文設置的測試集彈道態勢如表3所示。 基于表3數據,使用紅外仿真平臺產生逼近實際空戰對抗環境的仿真圖像,共生成彈道2 416條。

2.2 實驗結果

用混合智能抗干擾算法對多種態勢下的飛機進行追蹤,部分結果如圖9所示。 將飛機用紅色矩形框標出,追蹤點用紅色十字表示。

表4為傳統特征融合算法與混合智能抗干擾融合算法部分詳細測試結果。 測試方式為相同初始條件下同一條彈道運行仿真10次的命中率對比,脫靶量為20 m。 表5為傳統特征融合算法與混合智能抗干擾融合算法概率指標測試結果。 實驗結果表明,在以上測試條件下,混合智能抗干擾算法具備良好的抗干擾能力,導彈的全程抗干擾概率達到71.56%,相比傳統算法提高15.77%,驗證了算法的有效性與正確性。

3 結? 論

本文提出了一種復雜對抗場景下的對空目標混合智能抗干擾算法, 通過復雜對抗場景構成要素分析構造了算法的訓練和測試的空戰場景數據集,并基于該數據集完成了算法的訓練和測試驗證。 實驗結果表明,典型數據集下混合智能抗干擾算法的全程抗干擾概率達到了71.56%,相比傳統算法提高了15.77%,驗證了算法的正確性和有效性,對于提高紅外空空導彈復雜對抗場景下的作戰能力具有重要意義。

參考文獻:

[1] 樊會濤, 張蓬蓬. 空空導彈面臨的挑戰[J]. 航空兵器, 2017(2): 3-7.

Fan Huitao, Zhang Pengpeng. The Challenges for Air-to-Air Missile[J]. Aero Weaponry, 2017(2): 3-7.(in Chinese)

[2] 樊會濤, 閆俊. 自主化: 機載導彈重要的發展方向[J]. 航空兵器, 2019, 26(1): 1-10.

Fan Huitao, Yan Jun. The Important Development Direction of Airborne Missile: Autonomization[J]. Aero Weaponry, 2019, 26(1): 1-10.(in Chinese)

[3] 范晉祥,劉嘉.? 精確制導自動目標識別智能化的挑戰與思考[J]. 航空兵器,2019,26(1): 30-38.

Fan Jinxiang,Liu Jia. Challenges and Thinking for the Precision Guidance ATR Intelligentization[J].? Aero Weaponry,2019,26(1): 30-38.(in Chinese)

[4] Krizhevsky A,? Sutskever I,? Hinton G E. ImageNet Classification with Deep Convolutional Neural Networks[J].Communications of the ACM,? 2017,? 60(6): 84-90.

[5] Goodfellow I J, Pouget-Abadie J, Mirza M, et al. Generative Adversarial Nets[C]∥Advances in Neural Information Processing Systems, 2014: 2672-2680.

[6] Simonyan K,? Zisserman A. Very Deep Convolutional Networks for Large-Scale Image Recognition[EB/OL].(2014-09-18)[2021-09-12].https:∥arxiv.org/pdf/1409.1556.pdf 2014.

[7] 周飛燕,? 金林鵬,? 董軍. 卷積神經網絡研究綜述[J]. 計算機學報,? 2017,? 40(6): 1229-1251.

Zhou Feiyan,? Jin Linpeng,? Dong Jun. Review of Convolutional Neural Network[J].Chinese Journal of Computers,? 2017,? 40(6): 1229-1251.(in Chinese)

[8] 盧曉,? 梁曉庚,? 賈曉洪. 紅外成像空空導彈智能化抗干擾研究[J]. 紅外與激光工程,? 2021,? 50(4): 29-37.

Lu Xiao,? Liang Xiaogeng,? Jia Xiaohong. Study on Intelligent Counter-Countermeasures of Infrared Imaging Air-to-Air Missiles[J].Infrared and Laser Engineering,? 2021,? 50(4): 29-37.(in Chinese)

[9] Marsiglia G,? Fortunato L,? Ondini A,? et al. Template Matching Techniques for Automatic IR Target Recognition in Real and Simulated Scenarios: Tests and Evaluations[C]∥Automatic Target Re-cognition XIII, 2003, 5094: 159-169.

[10] Berg A C,? Berg T L,? Malik J. Shape Matching and Object Recognition Using Low Distortion Correspondences[C]∥IEEE Compu-ter Society Conference on Computer Vision and Pattern Recognition,? 2005: 26-33.

[11] Ullman S. Object Recognition and Segmentation by a Fragment-Based Hierarchy[J].Trends in Cognitive Sciences,? 2007,? 11(2): 58-64.

[12] Girshick R,? Donahue J,? Darrell T,? et al. Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation[C]∥IEEE Conference on Computer Vision and Pattern Recognition, 2014: 580-587.

[13] Girshick R. Fast R-CNN[C]∥IEEE International Conference on Computer Vision, 2015: 1440-1448.

[14] Ren S Q,? He K M,? Girshick R,? et al. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,? 2017,? 39(6): 1137-1149.

[15] Redmon J,? Divvala S,? Girshick R,? et al. You Only Look Once: Unified,? Real-Time Object Detection[C]∥ IEEE Conference on Computer Vision and Pattern Recognition,? 2016: 779-788.

[16] Liu W,? Anguelov D,? Erhan D,? et al. SSD: Single Shot MultiBox Detector[M]. Cham: Springer International Publishing,? 2016: 21-37.

[17] Redmon J, Farhadi A.YOLOv3:An Incremental Improvement[EB/OL].(2018-04-08)[2021-09-12].https:∥arxiv.org/pdf/1804.02767.pdf.

[18] Sandler M,? Howard A,? Zhu M L,? et al. Inverted Residuals and Linear Bottlenecks: Mobile Networks for Classification,? Detection and Segmentation[EB/OL]. (2019-03-21)[2021-09-12].https:∥arxiv.org/pdf/1801.04381.pdf.

[19] 郭東恩,? 夏英,? 羅小波,? 等. 基于有監督對比學習的遙感圖像場景分類[J]. 光子學報,? 2021,? 50(7): 87-98.

Guo Dong’en,? Xia Ying,? Luo Xiaobo,? et al. Remote Sensing Image Scene Classification Based on Supervised Contrastive Learning[J]. Acta Photonica Sinica,? 2021,? 50(7): 87-98.(in Chinese)

[20] Mosella-Montoro A,? Ruiz-Hidalgo J. 2D-3D Geometric Fusion Network Using Multi-Neighbourhood Graph Convolution for RGB-D Indoor Scene Classification[J]. Information Fusion,? 2021,? 76: 46-54.

[21] Xu K J,? Huang H,? Deng P F,? et al. Deep Feature Aggregation Framework Driven by Graph Convolutional Network for Scene Classification in Remote Sensing[J]. IEEE Transactions on Neural Networks and Learning Systems,? 1369(99): 1-15.

Research on Hybrid Intelligent Anti-Interference against

Air

Targets in Complex Confrontation Scene

Zhang Liang1, 2,Li Shaoyi3*,Yang Xi3,Tian Xiaoqian3

(1. China Airborne Missile Academy,Luoyang 471009,China;

2. Aviation Key Laboratory of Science and Technology on Airborne Guided Weapons,Luoyang 471009,China;

3. School of Astronautics,? Northwestern Polytechnical University,? Xi’an 710072,? China)

Abstract: Target recognition and anti-interference technology have become key technologies that determine the performance of precision guided weapons. Aiming at the combat characteristics of infrared air-to-air missiles in complex confrontation scene,? this paper analyzes its target recognition and anti-interference development needs,? and proposes a hybrid intelligent anti-interference algorithm that combines traditional algorithms and deep learning. This algorithm makes full use of the high reliability advantages of traditional algorithms in certain scene and the high-dimensional feature extraction capabilities of deep learning algorithms in complex scene,? maximizing the mining of missile detection scene information,? which is of great significance for improving the system’s anti-interference capability. On this basis,? an air combat data set for algorithm testing and training is constructed,? covering typical air combat scene. The experimental results show that under the same feature fusion conditions,? the full anti-interference probability of the hybrid intelligent anti-jamming algorithm in typical scene reaches 71.56%,? which is 15.77% higher than? the traditional algorithm,? which verifies the effectiveness of the algorithm.

Key words:? infrared air-to-air missile; intelligent anti-interference; air combat data set; feature extraction; target recognition; deep learning

收稿日期: 2021-09-14

基金項目: 國家自然科學基金項目(61703337);航空科學基金項目(ASFC20191053002)

作者簡介:張良(1987-),男,河南洛陽人,高級工程師。

通訊作者:李少毅(1986-),男,陜西西安人,副研究員。

猜你喜歡
目標識別特征提取深度學習
同步定位與建圖特征提取和匹配算法研究
基于MED—MOMEDA的風電齒輪箱復合故障特征提取研究
基于曲率局部二值模式的深度圖像手勢特征提取
全自動模擬目標搜救系統的設計與實現
動態場景中的視覺目標識別方法分析
基于PC的視覺解決方案在 Delta機器人抓放中的應用
MOOC與翻轉課堂融合的深度學習場域建構
大數據技術在反恐怖主義中的應用展望
深度學習算法應用于巖石圖像處理的可行性研究
基于深度卷積網絡的人臉年齡分析算法與實現
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合