?

碎云環境下GF-4衛星對運動艦船的目標跟蹤

2021-11-11 02:08林迅姚力波孫煒瑋劉勇陳進簡濤
航天返回與遙感 2021年5期
關鍵詞:航跡艦船像素

林迅 姚力波 孫煒瑋 劉勇 陳進 簡濤

碎云環境下GF-4衛星對運動艦船的目標跟蹤

林迅1姚力波1孫煒瑋1劉勇2陳進3簡濤1

(1 海軍航空大學,煙臺 264000)(2 軍事科學院國防科技創新研究院,北京 100071)(3 北京遙感信息研究所,北京 100192)

針對“高分四號”(GF-4)衛星可進行連續觀測和圖像分辨率低的特點,文章提出了一種在碎云條件下用GF-4衛星對運動艦船目標進行檢測和跟蹤的算法。該算法基于區域候選的卷積神經網絡(R-CNN)模型構建思路,首先利用雙參數恒虛警率(CFAR)完成候選目標區域提取,以充分利用卷積神經網絡(CNN)中LeNet網絡在識別簡單弱小目標時識別速度快的優勢;然后對目標進行靜態特征提取和鑒別;最后利用地理航行中的中分緯度法與全局最近鄰(GNN)算法相結合進行目標關聯和跟蹤,形成了目標航跡并獲取目標運動信息。文章選取GF-4衛星序列圖像對所提算法進行試驗,并通過艦船自播報(AIS)信息進行驗證,結果顯示:該算法能在一定碎云條件下排除碎云目標的干擾,有效地進行運動艦船目標檢測與跟蹤,具備較強的工程應用價值。

運動艦船目標檢測 目標跟蹤 碎云條件 卷積神經網絡 “高分四號”衛星遙感圖像

0 引言

靜止軌道遙感衛星能夠進行一段時間的連續觀測,獲取一定區域內的連續變化圖像,已廣泛應用于水文氣象、同步監測等領域,對于各類應急突發任務,可提供快速的圖像數據支持。低軌遙感衛星傳感器分辨率高,能夠進行目標識別,對目標信息和特征進行深度挖掘。相對于低軌遙感衛星,靜止軌道遙感衛星分辨率低,但具有大幅寬、能夠在廣域范圍內搜索和發現目標的優勢,可與低軌對地監視衛星形成有效互補[1]。

目前,在視頻衛星跟蹤領域,大多采用相關濾波(CF)或者基于深度學習的方法進行跟蹤。David S. Bolme將相關濾波理論引入目標跟蹤領域,提出了誤差最小平方和(MOSSE)算法。后續學者們在MOSSE算法的基礎上進行了很多優化,例如:文獻[3]中核相關濾波(CSK)使用密集采樣并引入核函數;文 獻[4]將尺度變化這一特征引入,提出DSST算法。

近年來,利用神經網絡對目標進行檢測和跟蹤逐漸成為研究熱點。由于卷積神經網絡具有強大的特征提取能力,目標的深度特征被越來越多的挖掘出來。連續卷積算子視覺跟蹤(C-COT)[5]和高效卷積算子(ECO)[6]等方法均采用深度特征來提升目標跟蹤的速度和精度。利用公共數據集,通過區域建議網絡(RPN)適應跟蹤過程中目標尺度的多樣性,并將目標跟蹤轉化為單次的局部檢測任務[7-8]。

目前深度學習在視頻衛星目標跟蹤任務中使用頻繁,但僅局限于分辨率為米級和亞米級的低軌視頻衛星,低軌視頻衛星圖像中的艦船目標特征豐富,且網絡上存在大量數據集可以用于網絡的訓練。但在分辨率不高的情況下,并沒有比較好的數據集能夠用于網絡的預訓練,利用單幀檢測和幀間關聯的方法進行目標跟蹤能夠取得較好的效果。例如,使用背景建模法中的ViBe算法對序列圖像中的單幀圖像進行檢測,再利用濾波器進行幀間目標的關聯與跟蹤[9],能夠在干凈無云的場景下取得較好的目標檢測與跟蹤效果。然而,在可見光圖像中,云層經常成為一個阻礙目標檢測的重要因素,尤其是碎云[10-11]。

在“高分四號”(GF-4)衛星圖像中,其較低的圖像分辨率給目標檢測帶來了很大的挑戰。作為靜止軌道遙感衛星,艦船目標在圖像上顯得非常微小,成白色小點狀,如圖1(a)所示(由紅色箭頭標出)。這樣的小點一般占據的像素只有十幾甚至幾個像素,沒有明顯的尺寸、形狀等特征。圖1(b)和圖1(c)分別為GF-4衛星圖像中的艦船目標與對應的近景外形圖,該船船身長度為300m,可以看出在圖像中艦船目標的細節特征很少,一些礁石、云層等目標在形狀和外觀上與其非常相似[12-14],因此當檢測區域內出現碎云目標時,檢測虛警率便會大幅度提升。根據上述特點,本文利用GF-4衛星圖像序列的幀間信息差異,基于區域候選的CNN(R-CNN)網絡模型思路[15],提出了一種基于改進CNN的目標檢測與跟蹤算法模型,用于檢測和分析存在碎云時的海面艦船目標。

該方法首先對序列圖像使用歸一化水體指數(NDWI),從而排除大面積的云層和陸地對目標的檢測干擾,再根據直方圖分布進行灰度變換來增強目標;其次,通過雙參數恒虛警率(CFAR)檢測,提取候選目標區域;然后,利用訓練好的卷積神經網絡(CNN)LeNet對目標進行鑒別,區分出艦船目標和碎云目標,再通過仿射變換參數矩陣得到目標的經緯度坐標;最后,利用全局最近鄰(GNN)算法結合地理航跡來關聯和跟蹤幀間目標。

圖1 GF-4衛星部分區域圖像

1 算法原理

本文提出的碎云條件下運動艦船目標檢測和跟蹤流程如圖2所示,共分為預處理、數據集構建、預訓練、候選目標區域提取、目標鑒別、坐標轉換、目標關聯跟蹤和動態信息提取幾個部分。本文所提碎云,是指在GF-4衛星遙感圖像中大小和形狀均與艦船目標相近的云目標。

1.1 圖像預處理

艦船目標與碎云目標特征相似,先提取海洋區域作為預候選區域,剔除陸地上空的碎云目標,降低虛警率。利用GF-4衛星圖像有多波段的特點,選用NDWI提取海洋和較大面積的云層區域。

圖2 GF-4艦船目標檢測與跟蹤流程

該方法利用海洋等水體在綠光波段反射能力強,在近紅外波段反射能力弱,而陸地與大面積云層的反射能力不同的差異性,來設定閾值。由于艦船目標的反射能力也與水體不同,如果直接進行剔除,容易造成大量的目標丟失。采用區域化操作,將一景GF-4衛星圖像劃分成相同大小的若干個區域。利用艦船航行安全等限制,使一個區域內的艦船目標所占像素點數目不高于一定比例,采用贏者通吃的原則來判定每塊區域的性質,即該區域內水體像素點數占總像素點數的比例高于閾值,則判定所有像素值為1,反之為0。以二值圖像的形式提取出海洋區域這一感興趣區域(ROI)作為預候選區域。

單一波段的GF-4衛星遙感圖像中目標很難用人眼去識別,海雜波、海水深度不同導致太陽光在海面的不同反射強度形成的噪聲近乎淹沒目標,檢測時很容易出現虛假目標,導致過高的虛警率。從整個序列來看,這些雜波和反射形成的噪聲在序列圖像中也出現了運動和閃爍的現象,極易造成虛警和漏警。因此,在檢測之前,還需要對圖像進行預處理,以降低虛警和漏警。

因此,利用灰度變換,將整幅圖像的灰度均勻映射到整個區間內,以增加各類物體的對比度,增強目標。圖像的對比度增強,小白點狀目標也更加明顯,再利用先前完成的水體二值圖像分割陸地和大面積云層,從而完成對圖像的預處理。預處理方法剔除了陸地島嶼和大面積云層,增強了目標與背景的差異。

1.2 候選目標區域提取

對候選目標進行提取,再通過預候選區域進行篩選。本文采用的是基于雙參數CFAR的候選目標區域提取方法[16-17]。單參數CFAR采用局部最大值或者最小值等參數檢測目標,在具有海雜波的場景下無法達到很好的檢測效果;而雙參數CFAR是通過均值和方差這兩個參數表征恒虛警模板邊界的雜波,更加符合實際。雙參數CFAR基于雜波服從正態分布的假設,主要采用滑窗的方式進行,有三個正方形窗口,分別為目標窗、保護窗和背景窗,三個窗口滑動的步長相同。目標窗內的點被判定為目標的判別準則為

檢測結束后會在二值圖像上將目標位置標為1,運用膨脹和腐蝕對圖像進行處理,統計二值圖像中所有為1的區域,即候選目標。選取候選目標的質心作為候選區域中心,將候選目標區域裁剪成相同的尺寸,提取出來。

傳統的LeNet神經網絡廣泛用于手寫數字識別,其識別速度快,準確率高[18]。但識別的目標圖片樣本中只有一個目標,且圖片樣本區域小,無法進行較大范圍內的多目標檢測和識別,因此將GF-4圖像用雙參數CFAR提取候選目標區域,對極小區域的圖片樣本進行規范化,作為LeNet的目標樣本輸入,將目標檢測問題轉化為目標的二分類識別問題,實現在50m級分辨率下使用深度學習模型提高目標檢測水平的效果。

1.3 數據集構建

目前,遙感領域的數據集主要集中在目標檢測和建筑、道路語義分割兩個方向上。目標檢測數據集有DIOR、DOTA、NWPU VHR-10、TAS、SSDD、OpenSARShip等,包含光學和SAR數據集。其中光學數據集分辨率在米級和亞米級,SAR數據集有部分為25m級分辨率。在50m級的空間分辨率上,目前沒有較好的數據集進行網絡的預訓練。

利用GF-4衛星NIR波段圖像制作50m級空間分辨率下的目標識別數據集。首先,對GF-4原始圖像進行切片,選取海面上存在艦船和碎云目標的區域,利用目標與海面的區別快速提取艦船和碎云目標;然后,通過人工標注并結合AIS參考信息,對目標打上標簽并分類,再按照一定尺寸裁剪目標周圍區域作為目標樣本。

數據集共包含31 780個目標樣本,正樣本共5 078個,負樣本共26 702個。將GF-4原始圖像中的大型艦船目標(即在50m級分辨率下可檢測識別)提取出來,作為數據集的正樣本;將大小、形狀等特征與大型艦船目標相近的碎云目標提取出來,作為數據集的負樣本。

1.4 候選目標靜態特征提取和鑒別

候選目標的靜態特征由單幀的候選目標區域通過CNN進行特征的提取,并利用提取的靜態特征對目標進行鑒別,其網絡結構如圖3所示。該網絡結構基于LeNet網絡基本架構,共有3個卷積層,2個最大池化層,一個全連接層。每一層都利用了上一層局部區域產生的局部特征。

圖3 CNN鑒別網絡

每個候選目標區域共有5個波段,即5層,每層有28×28個像素。因此,輸入層為5×28×28。然后,通過8通道且卷積核大小為3像素×3像素的卷積層提取目標特征,并設置步長為1,全0填充。在卷積層后銜接批量歸一化層,利用小批量上的均值和方差,調整模型的輸出,使得模型在訓練時更加穩定。激活函數則選用ReLU函數,目的是為了讓訓練收斂速度加快。池化層采用2像素×2像素最大池化,通過該層后通道數不變,但每個通過的像素數在長和寬兩個維度上都進行減半。將卷積層和最大池化層交替連接,并且通過卷積層不斷加深通道數以保持卷積核不變。當特征圖變成32層,每層像素尺寸為3×3后,將特征圖以1個像素平鋪形成隱藏層,在隱藏層后面通過全連接的方式形成輸出層。根據獲取的特征對候選目標區域進行鑒別。

利用LeNet在目標識別數據集上的對特征較少的目標識別速度快、識別精度高的特點,對目標樣本進行識別,區分艦船和碎云目標。由于碎云目標在圖像中的大小與艦船目標相近,且具有一定的速度,后續軌跡關聯時無法剔除,利用CNN對小切片進行鑒別,不但速度快,還可在保證檢測率的前提下降低虛警率,達到更好的檢測效果。同時,降低了后續目標關聯和跟蹤的運算成本。

1.5 目標跟蹤與動態特征提取

目標的動態特征主要為目標的航向、航速信息,本文利用GNN算法,對鑒別后的多幀目標進行關聯,并利用關聯后的目標動態特征進行二次鑒別。GNN算法是基于最近鄰算法(NN)優化改進而來[19-20]。然而在雜波較大、目標較為密集的情況下,距離最近的量測并不一定是與該航跡關聯的正確目標量測,因此并不能很好的進行有效的關聯和跟蹤。GNN算法將時刻的所有個量測和個現存航跡進行統一分配,設計關聯代價函數,計算分配時的總關聯代價,將總關聯代價最小的量測與航跡分配作為這一時刻的航跡補充,形成航跡。

本文利用地理坐標信息,結合中分緯度航法對目標進行航跡關聯和跟蹤。傳統的GNN關聯和跟蹤在利用地理坐標信息時,將經緯度坐標看做是二維平面坐標系,并沒有考慮到艦船目標在地球表面航行時地球表面的曲率對坐標位置的影響。然而,衛星遙感圖像序列的幀間間隔較長,目標在投影平面的位置形變較大,影響目標的跟蹤效果。因此采用中分緯度航法進行狀態向量的更新,提高目標跟蹤的準確性。

計算關聯總代價并求出最小關聯代價。其中關聯總代價為

(6)

設艦船目標的運動狀態方程為

本文將中分緯度法用于1階EKF中。經緯度的中分緯度法恒向線模型為

2 實驗驗證與分析

GF-4衛星成像范圍極廣,幅寬達400km,兼具紅外、全色和多光譜等成像方式。表1為GF-4衛星的基本參數。其中,多光譜傳感器(PMS)共有5個波段,分別為全色、藍色、綠色、紅色和近紅外波段,其空間分辨率約為50m;紅外傳感器(IRS)為中紅外波段,其空間分辨率約為400m。GF-4衛星擁有較短的重訪周期,在同一區域下可得到一段連續時間的序列遙感圖像。

表1 GF-4衛星基本參數

Tab.1 Basic parameters of GF-4 satellite

GF-4衛星與其他高分系列衛星相比,其主要特點就是廣域成像的能力。比如GF-2衛星雖有著亞米級空間分辨率的成像能力,清晰的成像能力能夠更好地進行目標檢測,但是其成像幅寬只有45km,遠小于GF-4衛星的400km;另外,GF-2衛星的重訪周期為5天,與GF-4衛星相比也有很大差距。目前,GF-4衛星已經在軌運行5年多,為海洋監視、水文氣象、抗震減災和農林業等多個領域提供了大量遙感圖像數據。

為了驗證本文算法的有效性,本文選取了13幀GF-4衛星的NIR波段數據,成像區域位于渤海灣,成像時間自2020年10月17日10:09:59至2020年10月17日10:23:53,共834s,幀頻約為64s/幀。每幀的NIR數據共有5個波段,圖像大小為10 240像素×10 240像素,原圖像為L1A數據(未經過正射校正),分辨率均為50m。先對GF-4衛星圖像進行無控制點條件下的正射校正,有效校正了除去量測誤差之外的其他誤差。

2.1 艦船目標檢測實驗

本實驗選擇GF-4可見光圖像的波段3(綠光)和波段5(近紅外),利用NDWI提取預候選區域。場景1位于煙臺和大連中間靠近大連海域,場景2為靠近山東半島海域,覆蓋范圍均為50km×50km。圖4(a)、(b)為兩個場景利用NDWI指數計算得到的密度圖,圖4(c)、(d)為區域化操作之后的二值圖像。從圖4(a)、(b)中可以看出,利用NDWI能夠有效分割陸地島嶼和較大塊的云層,將區域化操作的區域大小設置為8像素×8像素,找到了艦船目標的預候選區域,見圖4(c)、(d)。在后續檢測完成后利用預候選區域進行陸地、島嶼和大型云層上虛警目標的剔除。

利用灰度直方圖對圖像進行增強,使目標更突出,提高目標檢測的精度。由圖5展示的是兩個場景灰度直方圖可以看出,圖像灰度集中在100附近區域并向兩側延伸,且右側拖尾比左側拖尾長。選取一定區域內的灰度進行線性變換,拉伸至[0,255],結果如圖6所示,其中圖6(a)、(b)為變換前圖像,整體呈灰白色,對比度低,目標被淹沒在雜波中并不明顯;圖6(c)、(d)為變換后的圖像,對比度明顯增加,能夠更好地區分背景和目標并進行檢測。

圖5 圖像灰度直方圖

圖6 灰度變換對比

圖7 檢測出的候選目標區域

選取候選目標的質心作為候選目標區域中心坐標,將候選目標區域裁剪成大小為28像素×28像素的相同尺寸,提取出來并保存成候選目標區域切片。利用已經訓練好的CNN網絡,對候選目標區域進行鑒別,得到鑒別結果??梢钥闯?,經過CNN網絡的鑒別,疑似艦船目標的候選目標區域下降到38個,顯著降低了虛警率。為了對比目標檢測效果,本文采用傳統雙參數CFAR、幀差法、比值法和雙參數CFAR+CNN鑒別四種算法進行比對。其中幀差法采用兩幀差分法,閾值設置為20,比值法閾值為0.01,圖8為兩個場景單幀實驗結果展示,第一行為場景1,第二行為場景2。

圖8 單幀實驗結果比對

從左往右,依次是傳統雙參數CFAR、幀差法、比值法和本文算法(雙參數CFAR+CNN鑒別)四種算法的單幀目標檢測實驗結果,可以看出比值法對弱小目標檢測的效果并不好。

本文選用一組長序列圖像進行對比實驗。這個序列的總成像時間約為14min,利用AIS數據作為該區域內的艦船目標參考真值,并結合人工判讀,確定目標數量。計算所有幀的檢測精度并取平均值,得到最終的檢測精度。同時,計算出檢測概率和虛警率。單幀目標檢測的準確率A、檢測概率d和虛警率f的計算公式如下:

其中,t表示檢測為艦船目標的艦船目標數;f表示檢測為艦船目標的非艦船目標數,即虛假目標數;0表示該區域內所有的艦船目標數,該數目由AIS數據加上人工判讀獲得,實驗總目標數為序列圖像中每幀存在的目標數之和。實驗結果如表2所示。

表2 四種算法的表現

Tab.2 Performance of four algorithms

從表2中可以看出,傳統雙參數CFAR和幀差法的檢測虛警率較高,且幀差法存在較大數量漏警。本文提出的算法在檢測準確率和虛警率上較其他算法均有較大改善,在檢測概率(為每幀檢測到的艦船目標數量與真實的艦船目標數量比值的平均值)上,傳統雙參數CFAR與本文算法比較相近,不存在太大差異,均顯著優于幀差法。由于GF-4衛星圖像中艦船目標過于弱小且存在較多的碎云干擾,比值法不能很好的進行目標檢測,其精度太低,故認為該算法不適合,也無法計算精度。

為使本文算法的應用場景更有針對性,表3是對本文所提算法檢測出的艦船目標的長度統計。從表3可以看出,本文所提算法對較大型艦船目標(長度≥100m)的檢測概率較高,長度在50m和100m之間的檢測概率較低。觀察實驗數據發現,在該海域的中型艦船(50m≤長度<100m)長度呈兩極分化狀,堆積在50m和100m的上下限,且長度在50m附近的中型艦船目標占據大多數。而GF-4衛星可見光圖像的成像分辨率為50m,這樣的中型艦船目標,在候選目標區域提取時會被剔除,因此檢測概率較低。

表3 本文算法檢測出的艦船目標長度統計

Tab.3 Length statistics of detected ship targets

2.2 艦船目標跟蹤實驗

選擇目標檢測實驗處理得到的目標位置,利用圖像中攜帶的地理坐標系信息,得到仿射變換參數矩陣。將目標的質心像素坐標經過地理仿射變換映射到經緯度坐標系中,獲得目標的地理坐標信息,這有利于后續進行目標關聯和跟蹤以及目標動態特征提取。

利用與中分緯度航法結合的GNN算法,將仿射變換后的候選目標進行多幀的關聯和跟蹤,得到的跟蹤結果見圖9。圖9中,“o”表示航跡起始點,“+”表示航跡終止點,紅色航跡為本文算法跟蹤得到的航跡,藍色航跡為目標參考航跡。

圖9 GF-4衛星跟蹤結果

可以看出,在無控條件下進行的正射校正存在一定的誤差,但是總體誤差比較接近參考坐標,統計得到位置誤差約為2km。目標跟蹤形成的總航跡數為22;跟蹤艦船目標形成的航跡數為19,AIS與人工鑒別反饋的結果為21,雖航跡數目大致相等,但是存在部分航跡遺漏和不完整航跡,以及存在一部分虛警目標。其中,航跡遺漏和不完整航跡存在的主要原因均是由于海面噪聲不穩定,且由于艦船在航行過程中有可能存在云層的遮擋,導致部分幀序列圖像并不能完全檢測出所有的艦船目標,在采用GNN關聯和跟蹤算法后由于航跡過短被剔除,或者是未被剔除但是形成的航跡不完整,不能覆蓋所有幀圖像。存在一部分虛警目標的原因是由于碎云的存在,雖然本文提出的算法能夠大幅度降低碎云的影響,但是受成像分辨率的影響,部分和艦船目標極其相似的碎云目標被當做艦船目標保留了下來,未被剔除。

本文算法能夠進一步提取目標的動態特征,包括艦船目標的航向、航速等信息。在跟蹤的前幾幀,目標航速存在較大波動,但是隨著時間的推移,目標的航速信息逐漸穩定,且與AIS提供的參考航速信息相差不大。圖10為艦船目標提取的動態信息與參考動態信息進行比對的結果,誤差點以每個目標的動態信息估計值為縱坐標,以動態信息參考值為橫坐標,若點位越接近中間的零誤差線則表示其誤差越小。其中圖10(a)為航速信息對比結果,經統計其平均航速誤差約為0.98kn(約0.5m/s);圖10(b)為航向信息對比結果,經統計,其平均航向誤差約為4.69°,基本滿足廣域艦船目標監視需要。

圖10 動態信息比對

3 結束語

本文提出了一種碎云條件下運動艦船目標的跟蹤方法。通過較長序列的多幀GF-4衛星圖像,驗證了本文所提算法的有效性,具有較高的目標檢測率和航跡轉化率,可以從較復雜的場景中有效檢測出艦船目標,生成目標航跡,提取目標的動態特征。而且,能夠滿足一定時間內對較大型艦船目標的持續監視需求,同時,本文算法結合了雙參數CFAR和LeNet網絡結構,將目標檢測轉化為二分類的目標識別,既發揮了LeNet識別速度快的優勢,又規避了目前日益龐大的深度學習網絡算力需求高的缺點,具有較高的工程實現價值和潛力,體現出GF-4衛星在海洋廣域監視方面的巨大應用潛力。本文算法可以進一步協同低軌視頻小衛星、電子偵察衛星等進行更細致的目標類型識別,為后續多源衛星信息的融合打下了基礎。另一方面,如何降低單幀檢測時碎云目標對目標檢測算法的影響需要進一步研究,如何改進輕量化CNN結構,降低目標檢測的虛警率是后續研究應考慮的重點。

[1] 田瑜基. 高分四號衛星應用研究探析[J]. 科技創新導報, 2020(17): 22-23.

TIAN Yuji. Analysis on the Application of GF-4 Satellite[J]. Science and Technology Innovation Herald, 2020(17): 22-23. (in Chinese)

[2] HENRIQUES J F, CASEIRO R, MARTINS P, et al. Exploiting the Circulant Structure of Tracking-by-Detection with Kernels[C]//Proceedings of the 12th European Conference on Computer Vision - Volume Part IV. Berlin, Heidelberg: Springer, 2012.

[3] BOLME D S, BEVERIDGE J R, DRAPER B A, et al. Visual Object Tracking Using Adaptive Correlation Filters[C]//The Twenty-Third IEEE Conference on Computer Vision and Pattern Recognition, CVPR 2010, June 13-18, 2010, San Francisco, CA, USA. IEEE, 2010.

[4] DANELLJAN M, H?GER G, KHAN F S, et al. Accurate Scale Estimation for Robust Visual Tracking[C]//British Machine Vision Conference, September 1-5, 2014, Nottingham, UK.

[5] DANELLJAN M, ROBINSON A, KHAN F S, et al. Beyond Correlation Filters: Learning Continuous Convolution Operators for Visual Tracking[EB/OL].[2021-05-30]. /https://www.researchgate.net/publication/306187161_Beyond_ Correlation_Filters_Learning_Continuous_Convolution_Operators_for_Visual_Tracking.

[6] DANELLJAN M, BHAT G, KHAN F S, et al. ECO: Efficient Convolution Operators for Tracking[C]//CVPR 2017, July 21-26, 2017, Honolulu, HI, USA.

[7] REN S, HE K, GIRSHICK R, et al. Faster R-CNN: Towards Real-time Object Detection with Region Proposal Networks[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2017, 39(6): 1137-1149.

[8] ZHU K, ZHANG X, CHEN G, et al. Single Object Tracking in Satellite Videos: Deep Siamese Network Incorporating an Interframe Difference Centroid Inertia Motion Model[J]. Remote Sensing, 2021, 13(7): 1298.

[9] BARNICH O, DROOGENBROECK M V. ViBE: A Powerful Random Technique to Estimate the Background in Video Sequences[C]// 2009 IEEE International Conference on Acoustics, Speech and Signal Processing, April 19-24, 2009, Taipei, China. IEEE, 2009.

[10] WANG Z, DU J, XIA J, et al. An Effective Method for Detecting Clouds in GaoFen-4 Images of Coastal Zones[J]. Remote Sensing, 2020, 12(18): 3003.

[11] LU M, LI F, ZHAN B, et al. An Improved Cloud Detection Method for GF-4 Imagery[J]. Remote Sensing, 2020, 12(9): 1525.

[12] XIAO F, YUAN F, CHENG E. Detection and Tracking Method of Maritime Moving Targets Based on Geosynchronous Orbit Satellite Optical Images[J]. Electronics, 2020, 9(7): 1092.

[13] LIU Y, YAO L B, XIONG W, et al. Ship Target Tracking Based on a Low-resolution Optical Satellite in Geostationary Orbit[J]. International Journal of Remote Sensing, 2018, 39(9): 2991-3009.

[14] 姚力波, 劉勇. 基于高分四號衛星的艦船目標跟蹤[C]//第四屆高分辨率對地觀測學術年會, 武漢, 2017. YAO Libo, LIU Yong. Ship Target Tracking Based on GF-4 Satellite[C]//China High Resolution Earth Observation Conference, Wuhan, 2017. (in Chinese)

[15] HOSANG J, BENENSON R, DOLLáR P, et al. What Makes for Effective Detection Proposals?[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2016, 38(4): 814-830.

[16] 劉伊麗, 張臨杰, 張晰, 等. 雙參數CFAR艦船檢測算法兩種實現方法之分析與比較[J]. 中國海洋大學學報(自然科學版), 2017, 47(Sl): 139-145.

LIU Yili, ZHANG Linjie, ZHANG Xi, et al. Comparison between Two Implementations of Two-parameters CFAR Ship Detection Method[J]. Periodical of Ocean University of China, 2017, 47(Sl): 136-142. (in Chinese)

[17] EL-DARYMLI K, MC-GUIRE P, POWER D, et al. Target Detection in Synthetic Aperture Radar Imagery: A State-of-the-art Survey[J]. Journal of Applied Remote Sensing, 2013, 7(1): 071598-071598.

[18] 趙志宏, 楊紹普, 馬增強. 基于卷積神經網絡LeNet-5的車牌字符識別研究[J]. 系統仿真學報, 2010, 22(3): 638-641.

ZHAO Zhihong, YANG Shaopu, MA Zengqiang. License Plate Character Recognition Based on Convolutional Neural Network LeNet-5[J]. Journal of System Simulation, 2010, 22(3): 638-641. (in Chinese)

[19] YAO L B, XIONG W, LIU Y, et al. GF-4 Satellite and Automatic Identification System Data Fusion for Ship Tracking[J]. IEEE Geoscience and Remote Sensing Letters, 2019, 16(2): 281-285.

[20] MAZZARELLA F, VESPE M, SANTAMARIA C. SAR Ship Detection and Self-reporting Data Fusion Based on Traffic Knowledge[J]. IEEE Geoscience & Remote Sensing Letters, 2015, 12(8): 1685-1689.

A Method for Moving Ship Target Tracking of GF-4 under the Condition of Broken Cloud

LIN Xun1YAO Libo1SUN Weiwei1LIU Yong2CHEN Jin3JIAN Tao1

(1 Naval Aviation University, Yantai 264000, China)(2 National Innovation Institute of Defense Technology, Academy of Military Science, Beijing 100071, China)(3 Beijing Institute of Remote Sensing Information, Beijing 100192, China)

Based on GF-4 satellites’ features of continuous observation and low image resolution characteristics, this paper presents a moving ship target detection and tracking algorithm for GF-4 satellite under the condition of broken cloud. This algorithm refers to the construction idea of convolution neural network (R-CNN) model based on region candidate, and uses double parameter constant false alarm rate (CFAR) to complete candidate target region extraction. In order to make full use of the advantage of LeNet network in convolution neural network (CNN) to identify simple and weak targets, static feature extraction and identification are carried out. Finally, the middle latitude method in geography is combined with the global nearest neighbor (GNN) algorithm to coordinate and track the target track and obtain the target motion information. This paper selects the GF-4 sequence image and the ship self-broadcast newspaper (AIS) information to carry on the experiment verification, proves that the algorithm could eliminate the interference of the broken cloud target under certain cloud condition, and effectively carry on the moving ship target detection and tracking. It has strong engineering application value.

moving ship target detection; target tracking; broken cloud condition; convolution neural network (CNN); GF-4 satellite remote sensing image

TP75

A

1009-8518(2021)05-0127-13

10.3969/j.issn.1009-8518.2021.05.014

林迅,男,1996年生,2019年獲海軍航空大學學士學位,現在海軍航空大學信息與通信工程專業讀碩士學位。主要研究方向為目標跟蹤、關聯。E-mail:919363290@qq.com。

2021-05-31

國家自然科學基金(91538201,61901504,61971432)

林迅, 姚力波, 孫煒瑋, 等. 碎云環境下GF-4衛星對運動艦船的目標跟蹤[J]. 航天返回與遙感, 2021, 42(5): 127-139.

LIN Xun, YAO Libo, SUN Weiwei, et al. A Method for Moving Ship Target Tracking of GF-4 under the Condition of Broken Cloud[J]. Spacecraft Recovery & Remote Sensing, 2021, 42(5): 127-139. (in Chinese)

(編輯:夏淑密)

猜你喜歡
航跡艦船像素
基于自適應視線法的無人機三維航跡跟蹤方法
支持向量機的艦船圖像識別與分類技術
大數據分析的船舶航跡擬合研究
風浪干擾條件下艦船航向保持非線性控制系統
基于數據挖掘的船舶航跡自動識別系統
像素前線之“幻影”2000
基于反距離權值的終端區航跡預測方法仿真
艦船測風傳感器安裝位置數值仿真
“像素”仙人掌
高像素不是全部
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合