?

基于生成對抗網絡的抗陰影樹木檢測方法

2021-09-02 12:31沈冰雁沈毓琦
農業工程學報 2021年10期
關鍵詞:樣地陰影卷積

葉 陽,沈冰雁,沈毓琦

·農業信息與電氣技術·

基于生成對抗網絡的抗陰影樹木檢測方法

葉 陽,沈冰雁,沈毓琦

(浙江工業大學計算機科學與技術學院,杭州 310023)

森林遙感影像數據在采集過程中會因為光照的影響產生陰影區域,為了解決這些陰影區域對單棵樹木檢測的干擾問題,該研究在快速區域卷積神經網絡(Faster Region Convolutional Neural Networks,Faster RCNN)目標檢測框架基礎上,提出基于生成對抗網絡的抗陰影樹木檢測方法(Generative Adversarial Based Faster Region Convolutional Neural Networks,GA-Faster RCNN),通過采用基于對抗生成策略的樹木生成器,提高分類網絡對樹木信息的敏感度,降低陰影的干擾。該研究對3塊樹木陰影與郁閉度各不相同的測試樣地高分遙感影像進行了樹木檢測試驗,并與現存的3種算法進行了對比。結果顯示,基于生成對抗網絡的抗陰影干擾樹木檢測方法在3塊樣地的綜合性能指標1值分別達到了78.4%、91.6%和81.7%,均高于另外3種算法,并且樹木識別準確率比現有方法有了明顯的提高,漏檢數和誤檢數也均明顯減少。此外,在采用不同特征提取網絡時該算法依然能保持其檢測的穩定性。研究結果表明通過對抗生成訓練策略學習表征樹木的最少特征信息可有效降低陰影對樹木檢測的干擾。

遙感;算法;樹木;檢測;影像;陰影干擾;深度學習

0 引 言

森林資源是國家建設可持續發展經濟和生態文明中不可缺少的重要物質資源。而中國森林資源數量較少,森林覆蓋率低[1],所以亟待采取科學高效的森林資源管理手段來有效平衡開發與保護森林資源。此外,隨著生態無人農場的興起,高分遙感技術也可以應用到農場中種植的果樹、苗木等經濟作物的檢測和管理中[2-4],有助于實現綠色生態農業生產的精準化種植和可視化管理。

近年來,國內外的研究人員提出了一些基于遙感影像的單棵樹木檢測方法。傳統樹木檢測算法[5-8]一般采用數字圖像處理方法,例如局部最大值結合區域生長法、分水嶺方法、模板匹配法等。Novotny等[9]基于區域生長方法,提出了采用可變窗口大小的局部最大值法提取種子點。郭昱杉等[10]利用面向對象的方法分類林地和非林地,并以林地為掩模提取樹冠的分布范圍,最后再基于標記控制分水嶺分割方法對不同疏密林區進行樹冠提取。Malek[11]等基于模板匹配方法,使用尺度不變特征變換(Scale Invariant Feature Transform,SIFT)算法提取棕櫚樹的關鍵點特征,并經過極限學習機(Extreme Learning Machine,ELM)學習分類達到檢測目的。

點云(Lidar)數據作為遙感數據的一種,不少研究也基于該數據提出了相應的樹木檢測算法[12-15]。這些算法一般不直接使用點云數據,而是在由點云數據轉換為柵格化圖像的基礎上實現樹木檢測。因為點云數據是通過使用激光直接獲得的,所以一般不會受到陰影干擾。

從2012年以來,深度學習中的卷積神經網絡在計算機視覺中的目標檢測領域被廣泛使用,且取得了巨大進步,也促使相關學者將卷積神經網絡應用到遙感影像的單棵樹木檢測中[16-20]。卷積神經網絡可以有效降低傳統樹木檢測方法中采用手動選取種子點,或者專家先驗知識指定參數等造成的魯棒性低的問題。卷積神經網絡不依賴手工選擇特征,而是通過海量影像數據,按照設定的標簽自動地學習相關特征,將圖像的低維紋理顏色特征抽象為高維語義特征,具有良好的分類性能。Li等[21]提出了基于卷積神經網絡的馬來西亞油棕櫚樹檢測算法,并正確識別出96%的樣本。Guirado等[22]基于卷積神經網絡,以Google Earth影像作為數據實現了灌木檢測。Culman等[23]基于卷積神經網絡,提出了從高分辨率RGB圖像中對單棵棕櫚樹進行定位和分類的檢測方法。

在通用目標檢測領域也有一些基于卷積神經網絡的算法,例如快速區域卷積神經網絡(Faster Region Convolutional Neural Networks,Faster RCNN)[24]和統一定位與分類的實時檢測器(You Only Look Once,YOLO)[25]等,但是這些方法的檢測結果經常會受到遙感影像中的光照、陰影等因素影響。例如在遙感圖像中,樹木或山脈等會遮擋住光線從而造成一些陰影區域,這些陰影區域不僅會讓樹木的圖像特征嚴重退化失真,還會產生大量的噪聲,使得現有的樹木檢測方法受陰影干擾難以獲得令人滿意的檢測效果。在面對有陰影干擾的高噪音影像時,這些方法需要在訓練階段大批量標定受到陰影干擾的樹木,并且在缺少優質標定數據的情況下非常容易出現誤識別和漏識別,進而造成檢測精度低的問題。

目前基于遙感影像的樹木檢測方法中沒有特別針對陰影進行處理的抗陰影檢測方法,常見的樹木檢測方法中處理陰影的方式都是先檢測出陰影,去除后再檢測樹木。而現有的陰影檢測算法[26-27]主要針對多通道的遙感影像進行處理,將其應用在三通道影像數據的樹木檢測中具有局限性,應用范圍有限。另外,這些處理算法通常存在大量需要手工調整的參數,自動化程度難以提高。

現有的數據集中存在的陰影樣本較少,從訓練角度難以提升樹木檢測器對陰影的抗干擾效果,本文借鑒Wang等[28]為解決數據集無法涵蓋所有的變形與遮擋情況,使用對抗生成網絡生成形變與遮擋的對抗樣本的思路,提出了一種基于生成對抗網絡的抗陰影樹木檢測方法(Generative Adversarial Based Faster Region Convolutional Neural Networks,GA-Faster RCNN)。該方法從待檢測樹木的局部特征出發,通過引入對抗生成策略構建樹木生成器,保留區域提議網絡(Region Proposal Network,RPN)提取特征圖中的樹木特征信息,削弱陰影等背景特征信息的干擾,強化網絡分類器對樹木特征的敏感度,最終達到提高樹木檢測精度的目標。

1 算法結構及訓練

基于生成對抗網絡的抗陰影樹木檢測方法首先引入一個樹木生成器,該生成器采取對抗生成訓練的策略來學習表征樹木的最少特征信息,然后利用這些特征信息來訓練分類網絡,增強網絡對樹木特征的敏感性,降低陰影干擾對網絡的影響,從而提升算法的檢測能力。

1.1 總體流程

基于生成對抗網絡的抗陰影樹木檢測方法總體流程如圖1所示,具體步驟包括數據采集與標記,樹木生成器訓練,網絡的端到端訓練和最后的樹木檢測。

1)數據的采集和標記:本文選取Google Earth上位于美國佛羅里達州和阿肯色州的30塊樣地作為訓練集以及9塊樣地作為測試集,這些樣地兼顧各種類型的樹木種類和陰影量。在30塊訓練樣地中標記4 000余棵參考樹,而在9塊測試樣地中,標記1 200余棵參考樹。其中30塊訓練樣地和9塊測試樣地被分為3類,即樹木樹冠清晰且樹木陰影干擾較少、樹木郁閉度中等且有部分樹木陰影干擾和樹木郁閉度較大且樹木陰影干擾嚴重。

2)樹木生成器訓練:生成器通過產生不同的黑色掩膜來模擬樹木在陽光下生成的陰影以及其他較高樹木對該樹木的遮擋,之后將這些生成的樹木影像交由判別器識別,直至產生一個最佳的樹木生成器。

3)網絡的端到端訓練:將訓練好的生成器加入到整個檢測網絡中,通過對整個網絡進行端到端的訓練,讓整體網絡的參數迭代優化,直至獲得一個最佳的抗陰影樹木檢測模型。

4)樹木檢測:將測試樣地的影像數據放入基于生成對抗網絡的抗陰影樹木檢測模型,返回樹木檢測信息。

1.2 網絡設計

基于生成對抗網絡的抗陰影樹木檢測網絡由一個Faster RCNN網絡和樹木生成器組成,其網絡結構設計如圖2所示。Faster RCNN網絡負責主要特征提取和檢測任務,但由于數據中存在陰影,所以在RPN網絡獲得的感興趣區域(Region of Interest,ROI)中陰影干擾嚴重,使得傳遞給檢測網絡的樹木特征表征不明顯,從而影響后續識別。

本文引入樹木生成器,它共享Faster RCNN的卷積層和ROI池化層,連接在Faster RCNN的RPN網絡之后,再連接兩個單獨的全連接層,然后連接一個分類網絡。樹木生成器能將ROI區域進行刪減修改,保留最少的表示樹木特征的信息,減少陰影干擾問題。該生成器需要先單獨訓練,通過訓練后,將訓練后的樹木生成器放入到Faster RCNN網絡中,鎖定其參數后再進行端到端訓練,進一步提高Faster RCNN網絡的樹木識別能力。

1.3 樹木生成器訓練

進行樹木生成器訓練前,首先要訓練一個具有識別能力的分類器。本文使用從30塊訓練樣地中采集的1 000棵參考樹正樣本和1 000個背景負樣本,共2 000個訓練樣本訓練該分類器。分類器的目標函數為

在訓練完分類器后,使用該分類器獲得一些用于樹木生成器訓練的正樣本。由于樹木生成器的目的是獲取最少表征樹木的特征信息,增強總體網絡對樹木的表征分辨能力,所以在訓練該樹木生成器時,需要確定表征樹木的最少特征是多少。在這里,本文將陰影作為樹木檢測過程中的遮擋問題進行處理,也就是樹木特征的流失。通過對樹木圖像添加掩模的方式,模擬因陰影等光照因素對樹木特征產生的干擾,即模擬一些樹木信息丟失的過程。具體的操作如圖3所示。

在確定目標函數后,本文首先訓練沒有樹木生成器的Faster RCNN檢測器進行10 000次迭代,再通過固定檢測器中的所有層來交替訓練生成器和判別器,直至將生成器的生成數據擬合到真實數據的概率分布上。樹木生成器訓練時的學習率為0.001,學習率的權重衰減為10-4,訓練60 000輪次。訓練結束后獲得的樹木生成器用于生成原檢測網絡難以檢測的對抗樣本,該生成器生成的信息在因陰影造成的信息丟失后仍能表征樹木特征。

1.4 端到端訓練

在樹木生成器訓練結束后,就可以將該網絡整合進基于生成對抗網絡的抗陰影樹木檢測網絡中進行端到端訓練。樹木生成器位于RPN網絡之后,可以直接接受RPN網絡返回的ROI數據,無需映射回原圖再做特征提取,大大減少了網絡訓練的計算量。

在選取由RPN網絡生成的ROI放入樹木生成器生成處理數據的步驟中,本文只選取與正樣本之間的交并比(Intersection over Union,IOU)超過50%的ROI中的1/4區域,這么做是因為樹木生成器生成的數據質量高低取決于傳入的數據包含真實樣本像素數量的多少。真實樣本的像素數量越高,生成的樣本質量也越高。而選取IOU超過50%的區域則意味著該ROI區域包含正樣本的像素數量比較多,其包含用以表征樹木信息的特征也比較完整,也就能在訓練中提高分類器的分類性能。此外,隨機選取25%的樣本,而不是將全部樣本進行處理,目的是為了減少網絡計算量;而所有樣本都經處理后,信息丟失過于嚴重,反而不利于提高分類器的分類性能。其執行過程如圖4所示。

在第一次樹木生成器訓練后,保存并鎖定該網絡的狀態參數,放入第二次訓練中,端到端訓練時的學習率為0.002,學習率的權重衰減為10-4,訓練輪次為60 000。完整訓練一次的時間在3 h左右。

本文提出的抗陰影樹木檢測算法在Pytorch框架上實現,運行的系統環境為AMD Ryzen R9 3900X CPU,圖形處理器(Graphic Processing Unit,GPU)為NVIDIA GeForce RTX 2080 Super。

2 案例分析

2.1 試驗區域

由于傳統遙感數據保密性強、獲取復雜且價格昂貴,本文使用了相對容易獲取的Google Earth影像數據。本文總共篩選了3個測試區域,它們位于美國佛羅里達州和阿肯色州。3塊試驗樣地都是自然環境下的森林場景,包含大量樹木的同時也有陰影的干擾。其中試驗樣地一中有大量樹木陰影,且樹木的郁閉度很高,單棵樹木檢測難度較高;試驗樣地二包含樹木陰影較少的同時樹木的郁閉度也不高,單棵樹木之間的分界較為清晰,因此單棵樹木檢測的難度相對較低;試驗樣地三中包含的樹木陰影和樹木的郁閉度介于樣地一和樣地二之間,樹木有緊密相連的,也有間距較大的;既有被少量陰影干擾的樹木,也有被大塊陰影干擾的樹木。添加該樣地作為測試樣地,有助于研究算法在各個場景下的性能表現。圖5顯示了3個試驗樣地及其陰影區域。

2.2 評價指標

本文試驗的數據均來自Google Earth,由于缺少實測參考數據,本文采用目視結果進行精度評價。很多文獻中都有使用目視解釋結果作為精度評價指標的方法。Gougeon等[29]通過多人多次目視解釋判斷遙感影像中的單棵樹木的位置信息,統計樹木的總數。Erikson[30-31]等也使用目視解釋方式獲取參考數據。本文根據識別框和目視解釋獲得的參考樹木標記框之間的重疊程度來判斷識別結果是否屬于分類正確(True Positive,TP)、分類錯誤(False Positive,FP;False Negative,FN)。分類結果及其依據如下所示:

1)準確識別結果:算法得到的單樹識別框與目視解釋獲得的標記框重疊的區域超過50%,記該單樹識別框為準確識別結果,計入TP。

2)錯誤識別結果:算法得到的單樹識別框與目視解釋獲得的標記框重疊的區域少于50%,記該單樹識別框為錯誤識別結果,計入FP。

3)遺漏識別結果:目視解釋獲得的標記框與任一單樹識別框都沒有超過50%的重疊,則該目視解釋的標記框為遺漏識別結果,計入FN。

本文采用用戶精度UA、生產者精度PA和1[32]這3個定量的評價指標作為樹木檢測的精度評價指標,其計算公式如下

1引入自統計學評價方法,是用以平衡PA和UA兩者的結果,其計算公式如下

為了探討掩模對樹木識別的影響,本文對陰影誤識別率進行分析。采用人工目視解釋統計算法結果FP中包含的陰影區域數量,并計算該值在所有檢出樹木中的百分比,陰影誤識別率SR計算公式可以表示為

2.3 與其他方法對比

為了驗證本文提出的算法能有效解決陰影干擾下的樹木檢測問題,與其他方法進行了對比。對比方法包括區域生長法(Region-Growing)[9]、遞進式級聯卷積神經網絡(Progressive Cascaded CNN)[33]和Faster RCNN[24]。

由于不同場景下樹木的形態大小不等,所以要對不同測試樣地設置不同的滑動窗口參數。對于3塊樣地,本文對區域生長方法和遞進式級聯卷積神經網絡設置了不同的滑動窗口參數。參考Dong等[33]對區域生長方法參數的設置,將區域生長方法在樣地一、樣地二和樣地三的滑動窗口參數分別設置為3、5和2;遞進式級聯卷積神經網絡通過尺寸為3,步長為2的滑動窗口生成不同尺寸的預設檢測框,在3塊樣地設置的預設檢測框尺寸分別為32、34和32。Faster RCNN則在3塊樣地都采用默認的預設檢測框。另外,Faster RCNN和遞進式級聯卷積神經網絡都使用了現有的模型,即加載了PyTorch上提供的官方模型權重,不需要再進行其他人為設定。

另外,本文還對試驗結果進行了顯著性分析排除試驗誤差等因素的干擾,以驗證提出的算法與其他方法具有統計學上的差異,從而更好地表明本文提出的方法具有更好的性能。在該研究中,樣本不是獨立的。因此,兩兩之間是否存在統計學意義上的差異可以通過McNemar檢驗證明[34]。這是一個基于2×2混淆矩陣的非參數測試。McNemar的測試基于標準化的正常測試統計

2.4 不同特征提取網絡對算法的影響

在基于深度學習的圖像算法中,不同特征提取網絡對于整體網絡的性能會產生較大的影響。為了驗證本文提出的抗陰影樹木檢測算法在使用不同的特征提取網絡的情況下,依然能有較好的穩定性和性能,通過修改算法結構中的特征提取網絡,將其分別替換為ResNet101、ResNet50和DenseNet來測試算法的結果。

3 結果與分析

圖6顯示了樣地一、二和三使用不同方法得到的樹木檢測結果。圖中藍色矩形框表示檢測成功的樹木;紅色框是樹木的誤識別結果,即將其他對象檢測為樹木;綠色框表示算法漏識別的樹木。

3.1 與其他方法對比結果與分析

結合圖6a和表1可以看到,在樣地一中,區域生長方法的漏檢和誤檢是最多的,識別準確率(生產者精度)也最低,主要原因是它無法有效規避大量陰影的干擾,選取了很多錯誤的種子點,導致識別準確率較低;遞進式級聯卷積神經網絡的漏檢和誤檢也很多,用戶精度和生產精度也不高,這是因為需要通過一個滑動窗口遍歷整個圖像獲得采樣樣本,經過特征提取后交由分類網絡分類識別。而在樣地一中,樹木郁閉度較高且有相當多的陰影干擾,在前期獲得的訓練樣本不足以覆蓋所有陰影干擾的樹木種類,所以導致很多樹木的特征提取結果與模型不符合;而Faster RCNN和GA-Faster RCNN中ROI區域由RPN網絡提出,對檢測樹木的特征感知能力更強,漏檢和誤檢相對前兩種方法明顯降低,并且由于GA-Faster RCNN采用了樹木生成器進行優化訓練,所以對樹木的分類能力更強,漏檢數量也最少,PA、UA和1值在四個方法中均為最高,分別達到了77.0%,79.8%和78.4%,比第二高的Faster RCNN分別高了2.2,8.4和5.7個百分點。

在樣地二中(圖6b,表2),可以看到4種方法的檢測結果都比在樣地一中的有了明顯提高,漏檢數和誤檢數也都明顯下降。這是因為在樣地二樹木的郁閉度較低,樹木樹冠紋理清晰,陰影干擾也不明顯。在該樣地中,由于遞進式級聯卷積神經網絡通個滑動窗口獲得要分類的樣本,但其大小無法覆蓋所有大小的樹木,因此對一些較大的樹木樣本檢測結果較差。對于Faster RCNN,因為缺少GA-Faster RCNN中對樹木特征的再提取過程,所以對于陰影干擾的排除不明顯,1值為83.9%,比GA-Faster RCNN 91.6%的1值低了7.7個百分點。綜合來看,在該樣地中各方法的1均比樣地一高,但是GA-Faster RCNN仍然是效果最好的。

在樣地三中(圖6c,表1),區域生長34.0%的1值是最低的,漏檢和誤檢問題十分嚴重,這表明區域生長方法受到陰影干擾等因素的影響較大,以至于檢測效果不佳。類似于樣地一,遞進式級聯卷積神經網絡在樹木郁閉度較高且有相當多的陰影干擾情況下,漏檢和誤檢數相當多,僅優于區域生長方法,PA和UA也不高,僅為55.8%和52.0%。在Faster RCNN中,因為缺少GA-Faster RCNN中對樹木特征的再提取過程,所以對于陰影干擾的排除仍不明顯,所以比GA-Faster RCNN方法81.7%的1值低了5.3個百分點。

3塊樣地的綜合檢測結果中(表1),GA-Faster RCNN的PA和UA都較高,分別為82.0%和87.6%,1值也達到了84.7%,比性能第二的Faster RCNN高了6.2個百分點,在不同數量的樹木陰影和不同樹木郁閉度的干擾下,都有良好的檢測效果,這對于樹木的自動檢測精度以及單棵樹木的樹冠信息等提取都有較好的促進作用。

表1 三塊樣地中采用不同方法的檢測結果

注:TP是準確識別數,FP是錯誤識別數,FN是漏識別數,PA是生產者精度,UA用戶精度,1是精確率和召回率的調和平均數。

Note: TP is True Positive, FP is False Positive, FN is False Negative, PA is Producer Accuracy, UA is User Accuracy, and1 is the harmonic average of precision and recall.

在顯著性分析試驗中,設定當<0.05時,兩種方法所得結果有顯著性差異。分別在3塊測試樣地,設GA-Faster RCNN所得到的結果和區域生長、遞進式級聯卷積神經網絡和Faster RCNN所獲得的結果在統計學上沒有顯著性差異,然后計算在該假設上的值,表2顯示了GA-Faster RCNN與其他方法在3塊樣地檢測結果上的顯著性檢驗結果,所得的值均小于0.05,故原假設不成立,即它們之間的差異具有統計學意義。而在這3塊樣地上,GA-Faster RCNN具有最高的1值,所以可以認為本文提出的方法比另外3種方法更好。

表2 三塊樣地中采用不同方法的McNemar校驗結果

為了探討掩模對樹木識別的影響,本文對GA-Faster RCNN的陰影誤識別率,即將陰影區域誤識別為樹木的數量占所有檢出樹木數量的百分比,進行了分析,并與上文分析中除GA-Faster RCNN外表現最好的Faster RCNN進行了對比。由于樣地一的光照影響嚴重,并且有大量的陰影區域干擾,對樹木檢測的影響較大,因此,本文選擇樣地一為試驗對象。從表3可知,GA-Faster RCNN的陰影誤識別率SR略高于Faster RCNN。這是由于GA-Faster RCNN將一些與樹木外形相似、具有獨立的形狀的陰影區域識別為樹木(圖7)。盡管如此,由于樹木生成器能夠獲取最少表征樹木的特征信息,GA-Faster RCNN的生產者精度(識別準確率)和漏識別數量等指標均優于Faster RCNN(表3)。因此,綜合來看,GA-Faster RCNN仍具有顯著的優越性。

表3 樣地一中采用不同方法的陰影誤識別率結果

注:num是將陰影區域誤識別為樹木的數量,SR是陰影誤識別率。

Note:numis the number of shadow areas misrecognized as trees, and SR is the misrecognition rate of shadows.

3.2 采用不同特征提取網絡的算法結果分析

表4和圖8是在樣地一、樣地二和樣地三中GA-Faster RCNN分別采用不同的特征提取網絡后得到的試驗結果。從表4中可以看出采用ResNet101、ResNet50和DenseNet的GA-Faster RCNN的PA、UA以及1三個評價指標數值差異不大,證明本文提出的方法在使用不同的特征提取網絡時依然能保持其檢測的穩定性。

表4 三塊樣地中采用不同特征提取網絡的檢測結果

4 結 論

1)針對現有單樹檢測算法在復雜陰影條件下檢測能力不足,無法很好應用到通用的樹木檢測場景中的問題,提出了基于生成對抗網絡的抗陰影樹木檢測算法(Generative Adversarial Based Faster Region Convolutional Neural Networks,GA-Faster RCNN)。該算法通過加入一個能最小表征樹木特征的樹木生成器,通過將區域提議網絡(Region Proposal Network,RPN)生成的感興趣區域(Region of Interest,ROI)進行特征優化,提高檢測器在樹木陰影干擾下對樹木的識別能力。

2)本文在Google Earth中選取了高分辨率遙感影像,通過標記訓練區域和測試區域,將其應用到網絡的訓練中,同時選擇了3塊包含不同程度的陰影干擾的測試樣地用以測試本文提出方法在不同陰影干擾下的性能。試驗結果表明基于生成對抗網絡的抗陰影樹木檢測算法在三塊測試樣地的1值均為最高,分別為78.4%、91.6%和81.7%,其平均1值為84.7%,比性能第二的Faster RCNN高了6.2個百分點,樹木識別率相比現有方法有了明顯的提高,另外,本文提出的方法在采用不同特征提取網絡時依然能夠保持樹木檢測的穩定性。

3)本文重點對GA-Faster RCNN中掩模對樹木檢測的影響進行了研究,結果表明雖然陰影區域被誤識別為樹木的數量占所有檢出樹木數量的百分比有所提升,但樹木的識別準確率仍比其他方法高,漏識別的樹木數量也遠低于其他方法。未來研究中,可對與樹木外形接近的陰影被誤識別為樹木的問題做進一步研究。

[1] 國家林業和草原局. 中國森林資源報告[M]. 北京:中國林業出版社,2019.

[2] 王維剛,史海濱,李仙岳,等. 遙感訂正作物種植結構數據對提高灌區SWAT模型精度的影響[J]. 農業工程學報,2020,36(17):158-166.

Wang Weigang, Shi Haibin, Li Xianyue, et al. Effects of correcting crop planting structure data to improve simulation accuracy of SWAT model in irrigation district based on remote sensing[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2020, 36(17): 158-166. (in Chinese with English abstract)

[3] 李宇宸,張軍,薛宇飛,等. 基于Google Earth Engine的中老緬交界區橡膠林分布遙感提取[J]. 農業工程學報,2020,36(8):174-181.

Li Yuchen, Zhang Jun, Xue Yufei, et al. Remote sensing image extraction for rubber forest distribution in the border regions of China, Laos and Myanmar based on google earth engine platform[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2020, 36(8): 174-181. (in Chinese with English abstract)

[4] 趙晉陵,金玉,葉回春,等. 基于無人機多光譜影像的檳榔黃化病遙感監測[J]. 農業工程學報,2020,36(8):54-61.

Zhao Jinling, Jin Yu, Ye Huichun, et al. Remote sensing monitoring of areca yellow leaf disease based on UAV multi-spectral images[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2020, 36(8): 54-61. (in Chinese with English abstract)

[5] Hellesen T, Matikainen L. An object-based approach for mapping shrub and tree cover on grassland habitats by use of LiDAR and CIR orthoimages[J]. Remote Sensing, 2013, 5(2): 558-583.

[6] Yang L, Wu X, Praun E, et al. Tree detection from aerial imagery[C]//Proceedings of the 17th ACM SIGSPATIAL International Conference on Advances in Geographic Information Systems, Seattle, USA, 2009: 131-137.

[7] Pollock R J. The Automatic Recognition of Individual Trees in Aerial Images of Forests Based on a Synthetic Tree Crown Image Model[D]. Vancouver: The University of British Colombia, 1996: 172.

[8] Larsen M, Rudemo M. Optimizing templates for finding trees in aerial photographs[J]. Pattern Recognition Let, 1998, 19(12): 1153-1162.

[9] Novotny J, Hanu? J, Luke? P, et al. Individual tree crowns delineation using local maxima approach and seeded region-growing technique[C]//Proceedings of Symposium GIS Ostrava, Ostrava, Czech Republic, 2011: 27-39.

[10] 郭昱杉,劉慶生,劉高煥,等. 基于標記控制分水嶺分割方法的高分辨率遙感影像單木樹冠提取[J]. 地球信息科學學報,2016,18(9):1259-1266.

Guo Yushan, Liu Qingsheng, Liu Gaohuan, et al. Individual tree crown extraction of high resolution image based on marker-controlled watershed segmentation method[J]. Journal of Geo-information Science, 2016, 18(9): 1259-1266. (in Chinese with English abstract)

[11] Malek S, Bazi Y, Alajlan N, et al. Efficient framework for palm tree detection in UAV images[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2014, 7(12): 4692-4703.

[12] Windrim L, Bryson M. Detection, segmentation, and model fitting of individual tree stems from airborne laser scanning of forests using deep learning[J]. Remote Sensing, 2020, 12(9): 1469.

[13] Dai W, Yang B, Dong Z, et al. A new method for 3D individual tree extraction using multispectral airborne LiDAR point clouds[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2018, 144: 400-411.

[14] Marinelli D, Paris C, Bruzzone L. An approach to tree detection based on the fusion of multitemporal LiDAR data[J]. IEEE Geoscience and Remote Sensing Letters, 2019, 16(11): 1771-1775.

[15] Marselis S M, Tang H, Armston J, et al. Exploring the relation between remotely sensed vertical canopy structure and tree species diversity in Gabon[J]. Environmental Research Letters, 2019, 14(9): 1748-9326.

[16] Sainath T N, Mohamed A, Kingsbury B, et al. Deep convolutional neural networks for LVCSR[C]//IEEE International Conference on Acoustics, Speech and Signal Processing, Vancouver, Canada, 2013: 8614-8618.

[17] Le Q V, Ranzato M A, Monga R, et al. Building high-level features using large scale unsupervised learning[C]//In Proceedings of the 2013 IEEE International Conference on Acoustics, Speech and Signal Processing, Vancouver, Canada, 2013: 8595–8598.

[18] Zhu X, Tuia D, Mou L, et al. Deep learning in remote sensing: a comprehensive review and list of resources[J]. IEEE Geoscience and Remote Sensing Magazine, 2017, 5(4): 8-36.

[19] Neupane B, Horanont T, Hung N D. Deep learning based banana plant detection and counting using high-resolution red-green-blue (RGB) images collected from unmanned aerial vehicle (UAV)[J]. PLoS ONE, 2019, 14(10): e0223906.

[20] Torres D L, Feitosa R Q, Happ P N, et al. Applying fully convolutional architectures for semantic segmentation of a single tree species in urban environment on high resolution UAV optical imagery[J]. Sensors, 2020, 20(2): 563.

[21] Li W, Fu H, Yu L, et al. Deep learning-based oil palm tree detection and counting for high-resolution remote sensing images[J]. Remote Sensing, 2016, 9(1): 22.

[22] Guirado E, Tabik S, Alcaraz-Segura D, et al. Deep-learning versus OBIA for scattered shrub detection with google earth imagery: ziziphus lotus as case study[J]. Remote Sensing, 2017, 9(12): 1220.

[23] Culman M, Delalieux S, Tricht K V. Individual palm tree detection using deep learning on RGB imagery to support tree inventory[J]. Remote Sensing, 2020, 12(21): 3476.

[24] Ren S, He K, Girshick R, et al. Faster RCNN: towards real-time object detection with region proposal networks[C]//Advances in Neural Information Processing System, Vancouver, BC, Canada, 2015: 91-99.

[25] Redmon J, Divvala S, Girshick R, et al. You only look once: unified, real-time object detection[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, USA, 2016: 779-788.

[26] Ding B, Long C, Zhang L, et al. ARGAN: Attentive recurrent generative adversarial network for shadow detection and removal[C]//International Conference on Computer Vision (ICCV), Venice, Italy, 2020: 10212-10221.

[27] Zheng Q, Qiao X, Cao Y, et al. Distraction-aware shadow detection[C]//Conference on Computer Vision and Pattern Recognition (CVPR), California, USA, 2019: 5162-5171.

[28] Wang X, Shrivastava A, Gupta A. A-Fast-RCNN: hard positive generation via adversary for object detection[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, Hawaii, 2017: 2606-2615.

[29] Gougeon F. A crown-following approach to the automatic delineation of individual tree crowns in high spatial resolution images[J]. Canadian Journal of Remote Sensing, 1995, 21(3): 274-288.

[30] Erikson M. Segmentation of individual tree crowns in colour aerial photographs using region growing supported by fuzzy rules[J]. Canadian Journal of Forest Research, 2003, 33(8): 1557-1563.

[31] Lamar W R, McGraw J B, Warner T A. Multi-temporal censuring of a population of eastern hemlock (. ) from remotely sensed imagery using an automated segmentation and reconciliation procedure[J]. Remote Sensing of Environment, 2005, 94(1): 133-143.

[32] Larsen M, Eriksson M, Descombes X, et al. Comparison of six individual tree crown detection algorithms evaluated under varying forest conditions[J]. International Journal of Remote Sensing, 2011, 32(20): 5827-5852.

[33] Dong T, Shen Y, Zhang J, et al. Progressive cascaded convolutional neural networks for single tree detection with google earth imagery[J]. Remote Sensing, 2019, 11(15): 1786.

[34] Foody G M. Thematic map comparison: Evaluating the statistical significance of differences in classification accuracy[J]. Remote Sensing, 2004, 70: 627–633.

Research on anti-shadow tree detection method based on generative adversarial network

Ye Yang, Shen Bingyan, Shen Yuqi

(,,310023,)

High-scoring remote sensing imaging has widely been applied in most management of agriculture and forestry, especially to monitor and evaluate crops and forest resources on a large scale. Nevertheless, there is a great challenge to the accuracy of single tree identification and detection during the image acquisition, due mainly to the fact that the shadow area is inevitably formed by the light. The shadow areas in the remote sensing images can be assumed as a kind of noise in the image sampling. As such, the degradation of high-resolution parameters can cause image distortion after post-processing. In this study, an anti-shadow tree detection method was proposed to detect the single tree with shadow interference using a generative adversarial network (GA-Faster RCNN). This framework consisted of a Faster RCNN network and a tree generator. The Faster RCNN network was mainly used for the tasks of feature extraction and detection. The tree generator was utilized to process the shadows in tree detection. The adversarial generation strategy was adopted by the tree generator to learn generating the minimum feature information characterizing trees. The generator was first trained separately and then put into the Faster RCNN network to finally lock its parameters. Two parts were then trained end-to-end to further improve the tree recognition ability of the network. The GA-Faster RCNN was also compared with 3 state-of-the-art methods, including region-growing, progressive cascaded convolutional neural network, and Faster RCNN on three test areas with shadows. Test area 1 presented a lot of shadows of trees, where the canopy density of trees was very high. Test area 2 showed fewer tree shadows and lower canopy closure, compared with test area 1. The shades of trees and the canopy density of trees in test area 3 were between those in test area 1 and 2. Results demonstrated that the GA-Faster RCNN achieved the highest harmonic average of precision and recall (1) on the test area 1, 2, and 3, which were 78.4%, 91.6%, and 81.7%, respectively. The average1 of three test areas was 84.7% for the GA-Faster RCNN, 6.2 percentage point higher than that of Faster RCNN. The user accuracy (UA) and producer accuracy (PA) of GA-Faster RCNN were also the highest among four methods, where UA was 79.8%, 95.0%, 85.3%, and PA was 77.0%, 88.5%, and 78.4% on test area 1, 2, 3, respectively. Moreover, a significance analysis, McNemar, was performed to eliminate the interference of experimental errors and other factors. It was found that there was a statistically significant difference between the three comparison methods and GA-Faster RCNN. The shadow misrecognition rate SR (proportion of the count of shadows misrecognized as trees to the count of total recognized trees) of GA-Faster RCNN was compared with that of Faster RCNN on test area 1, in order to clarify the effect of the mask on tree identification. Although the SR of GA-Faster RCNN was 13.8%, higher than that of Faster RCNN (8.6%), the UA and the number of missed tree identification were both better than those of Faster RCNN. Therefore, the GA-Faster RCNN behaved significant advantages over the other identification. In addition, the GA-Faster RCNN can still maintain the detection stability, when using different feature extraction networks, including ResNet101, ResNet50, and DenseNet. Consequently, the adversarial generative training strategy is highly suitable for learning the minimum feature information characterizing trees, while effectively reducing the interference of shadows, indicating the promising practical value for higher accuracy of tree detection.

remote sensing; algorithm; tree; detection; image; shadow interference; deep learning

10.11975/j.issn.1002-6819.2021.10.014

TP391

A

1002-6819(2021)-10-0118-09

葉陽,沈冰雁,沈毓琦. 基于生成對抗網絡的抗陰影樹木檢測方法[J]. 農業工程學報,2021,37(10):118-126.doi:10.11975/j.issn.1002-6819.2021.10.014 http://www.tcsae.org

Ye Yang, Shen Bingyan, Shen Yuqi. Research on anti-shadow tree detection method based on generative adversarial network[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2021, 37(10): 118-126. (in Chinese with English abstract) doi:10.11975/j.issn.1002-6819.2021.10.014 http://www.tcsae.org

2020-03-12

2021-04-13

國家自然科學基金資助項目(No. 61672464)

葉陽,實驗師,主要研究方向為圖像處理。Email:yeyang80@zjut.edu.cn

猜你喜歡
樣地陰影卷積
四川省林草濕調查監測工作進展
桉樹培育間伐技術與間伐效果分析
仁懷市二茬紅纓子高粱的生物量及載畜量調查
額爾古納市興安落葉松中齡林植被碳儲量研究
基于3D-Winograd的快速卷積算法設計及FPGA實現
一種并行不對稱空洞卷積模塊①
你來了,草就沒有了陰影
從濾波器理解卷積
基于傅里葉域卷積表示的目標跟蹤算法
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合