?

無人機遙感監測作物病蟲害脅迫方法與最新研究進展

2022-05-30 10:48楊國峰何勇馮旭萍李禧堯張金諾俞澤宇
智慧農業(中英文) 2022年1期
關鍵詞:無人機數據處理深度學習

楊國峰 何勇 馮旭萍 李禧堯 張金諾 俞澤宇

摘要:病蟲害是作物生產面臨的主要脅迫之一。近年來,隨著無人機產業的快速發展,無人機農業遙感因其圖像空間分辨率高、數據獲取時效性強和成本低等特點,在作物病蟲害脅迫監測應用中發揮了重要作用。本文首先介紹了利用無人機遙感監測作物病蟲害脅迫的相關背景;其次對目前無人機遙感監測作物病蟲害脅迫中的常用方法進行了概述,主要探討無人機遙感監測作物病蟲害脅迫的數據獲取方式和數據處理方法;之后從可見光成像遙感、多光譜成像遙感、高光譜成像遙感、熱紅外成像遙感、激光雷達成像遙感和多遙感融合與對比六個方面重點綜述了近期國內外無人機遙感監測作物病蟲害脅迫的研究進展。最后提出了無人機遙感監測作物病蟲害脅迫研究與應用中尚未解決的關鍵技術問題與未來的發展方向。本文為把握無人機遙感監測作物病蟲害脅迫研究熱點、應用瓶頸、發展趨勢提供借鑒和參考,以期助力中國無人機遙感監測作物病蟲害脅迫更加標準化、信息化、精準化和智能化。

關鍵詞:無人機;遙感監測;病蟲害脅迫;數據獲取;數據處理;深度學習;多遙感融合

中圖分類號:S-435???????????????? 文獻標志碼:A??????????????? 文章編號:SA202201008

引用格式:楊國峰, 何勇, 馮旭萍, 李禧堯, 張金諾, 俞澤宇.無人機遙感監測作物病蟲害脅迫方法與最新研究進展[J].智慧農業(中英文), 2022, 4(1):1-16.

YANG Guofeng, HE Yong, FENG Xuping, LI Xiyao, ZHANG Jinnuo, YU Zeyu. Methods and new research prog‐ress of remote sensing monitoring of crop disease and pest stress using unmanned aerial vehicle[J]. Smart Agricul‐ture, 2022, 4(1):1-16.(in Chinese with English abstract)

1 引言

病蟲害的爆發會影響農業生產,造成作物產量和質量的嚴重下降[1]。近年來,中國病蟲害的發生和傳播呈現增多態勢,各省份發生率都有所增加,導致病蟲害的防治更加困難[2]。目前,中國作物病蟲害監測主要依靠植保部門、植保站等人員實地調查取樣,不僅費時費力、準確性低、時效性差、區域覆蓋小,而且受人為因素影響,無法實現大范圍全覆蓋的作物病蟲害脅迫監測。

遙感技術基于其精準、快速、大面積、無破壞等特點,在作物病蟲害脅迫監測領域已經顯示出了獨特優勢。遙感技術是指運用不與探測目標接觸的遙感傳感器,收集記錄目標物輻射、反射、散射的電磁波信息,進而獲取目標物的特征、性質及其變化的綜合探測技術[3]。當前,遙感監測方式可大致分為天基、空基和地基三種方式。其中,天基監測如衛星遙感監測,容易受氣象條件影響、重訪周期較長且空間分辨率低;地基監測如固定監測站,監測范圍有限、成本很高且難以大面積設立[4]。而空基中的無人機( Un ‐ manned Aerial Vehicle ,UAV )遙感監測具備運行成本低、靈活度高、采集迅速、覆蓋面廣等特點,可獲得更高的空間、時間和光譜分辨率的影像,彌補了傳統病蟲害監測過程中存在的缺陷,被認為是遙感監測作物病蟲害脅迫的有效手段[5]。

近年來,隨著以無人機飛行平臺和數據獲取傳感器等為代表的硬件不斷成熟,以機器學習乃至深度學習等為代表的數據處理技術快速發展,基于無人機的遙感監測技術逐漸成為低空遙感領域的重要監測方式[6]。在作物病蟲害脅迫遙感監測領域,基于無人機的遙感監測技術已是一個重要且熱門的研究方向,并且基于感知、決策、執行的無人機技術也已成為智慧農業的關鍵核心技術。

本文圍繞無人機遙感監測作物病蟲害脅迫研究,首先在監測數據獲取和處理兩部分梳理了無人機作物病蟲害遙感監測方法;然后從可見光成像遙感、多光譜成像遙感、高光譜成像遙感、熱紅外成像遙感、激光雷達成像遙感和多遙感融合與對比方面分析了國內外無人機遙感監測作物病蟲害脅迫的研究方法與進展;最后提出了無人機遙感監測作物病蟲害脅迫中尚未解決的關鍵技術問題與未來的發展方向。

2 無人機遙感監測作物病蟲害脅迫方法

2.1概述

目前,基于無人機的遙感監測技術已在作物病蟲害脅迫領域被廣泛應用與研究。當作物受到病蟲害脅迫時通常在不同光譜波段上表現出吸收和反射特性的變化,即為作物病蟲害脅迫的光譜響應[7]。作物由于病蟲害脅迫受損會引起色素、形態、結構等改變,通??梢酝ㄟ^提取其光譜響應特征并加以分析處理,實現對病蟲害脅迫的精準、快速、無損監測[8]。

無人機遙感監測作物病蟲害脅迫是以無人機為遙感監測平臺,利用搭載的各種傳感器獲取目標作物的遙感影像、視頻、點云等數據,通過對數據的處理、挖掘和建模來獲取作物病蟲害脅迫信息。監測方法大致可分為兩類:(1) 單一遙感監測方法,主要通過無人機搭載相應傳感器進行作物病蟲害脅迫數據獲取、處理及分析;(2)綜合遙感監測方法,主要利用無人機遙感監測技術與地面人工調查取樣等方式綜合進行作物病蟲害脅迫數據獲取、處理及分析。根據實際監測情況的不同選擇單一或綜合無人機遙感監測作物病蟲害脅迫方法,以實現作物病蟲害信息的精準獲取和高效動態監測,為作物病蟲害科學防治提供支撐。其中,主要涉及到以無人機飛行平臺和機載傳感器為代表的無人機遙感監測硬件系統,以無人機測繪攝影測量等專業處理軟件和數據處理分析相關算法或模型為代表的無人機遙感監測軟件系統。

2.2監測數據獲取方式

2.2.1 無人機飛行平臺

無人機是利用無線電遙控設備和自備的程序控制裝置操縱的不載人飛行器[9]。大致可分為多旋翼、固定翼、單旋翼(直升機)和混合翼(垂直起降固定翼)幾種,如圖1所示。在使用無人機遙感監測作物病蟲害脅迫時,關注的重點是無人機載荷、續航時間、飛行高度、監測精度和空間分辨率等。如表1所示為不同的無人機飛行平臺。

由于遙感監測數據獲取過程中飛行平臺的選擇對獲取的數據質量有影響,因此選擇的飛行平臺應具備可操控性、高穩定性和飛行持久性等特點,以獲取質量較好的數據。目前,多旋翼無人機因具有航速姿態可調、飛行穩定、能夠定點懸停等優勢,適用于定點重復獲取多尺度、高分辨率的作物病蟲害脅迫數據,在遙感監測作物病蟲害脅迫研究與應用中最為廣泛。

2.2.2 機載傳感器

無人機遙感監測作物病蟲害脅迫研究中的機載傳感器類型主要包括多光譜相機、高光譜相機、數碼相機、熱紅外相機、激光雷達等[18],如圖2所示。無人機遙感監測作物病蟲害脅迫的機載傳感器通常為光學、光電學和熱力學傳感器,少部分機載傳感器屬于聲學等領域。常用機載傳感器及其測量指標、優勢和劣勢如表2所示。因此,利用無人機獲取病蟲害脅迫數據時,需要依據地域特征、病蟲害爆發程度和作物種類等情況選擇合適的傳感器。

2.2.3 數據獲取流程

無人機遙感監測作物病蟲害脅迫的數據獲取流程是保證每次飛行能正常操作且安全準確獲取監測數據的重要流程,無人機數據獲取的質量和數量對后續處理分析的結果有重要影響。對自主作業模式(全球定位系統模式,以實現精確懸停、指點飛行、規劃航線等操作)下無人機遙感監測作物病蟲害脅迫方法來說,主要有以下步驟:

(1) 飛行前期準備。確認飛行任務區域及申請空域;查詢地理、天氣環境信息;選擇并調試飛行與地面設備(無人機飛行平臺、機載傳感器、遙控器、導航等)以及檢查電量、是否能正常工作等;是否攜帶其他設備,如輻射定標板等。

(2) 正式飛行前準備?,F場組裝、調試、連接飛行與地面設備;根據任務區域地形、作物病蟲害、續航、載荷等情況,設計飛行任務方案,如起降點、航線、高度、架次、重疊率等[19,20]。

(3) 飛行作業執行。實時關注無人機飛行平臺的速度、位置、電量、電壓、任務時間等飛行情況,監督飛行時穩定、安全作業,必要時可以手動接管飛行。

(4) 飛行作業結束。自主返航或操控返航;返航完畢可關閉飛行與地面設備電源;回收飛行與地面設備,讀取儲存卡數據或在飛行作業時通過地面設備實時獲取遙感監測數據。

2.3監測數據處理方法

如何從無人機遙感監測作物病蟲害脅迫獲取的大量數據中高效提取表型特征十分重要,并且很大程度決定處理分析的結果。表型特征主要包括光譜特征、紋理特征、顏色特征、形狀特征和生理特征等。目前,對這些表型特征的分析處理是無人機遙感監測作物病蟲害脅迫研究的熱點[21,22]?,F階段主流的無人機遙感監測作物病蟲害脅迫數據處理的方法可以大致分為統計分析方法和機器學習方法兩類。

目前,監測數據處理方法的流程主要為:遙感影像的格式調整、清洗、預處理、拼接、校正、特征提取、特征選擇、設計方法模型、評價指標與調優等。對于遙感影像格式調整一般使用機載傳感器配套軟件處理,對于遙感影像拼接和校正等則使用無人機測繪攝影測量軟件,如Metashape軟件(Agisoft公司)、 PIX4Dmapper軟件 ( Pix4D 公司) 和Inpho軟件 ( Trimble 公司)等。

2.3.1 統計分析方法

在無人機遙感監測作物病蟲害脅迫相關研究中,常用描述統計、相關分析、回歸分析、判別分析、方差分析和聚類分析等統計分析方法。

通常,借助上述方法使用植被的光譜特征進行作物病蟲害脅迫遙感監測。通過對光譜曲線進行分析,可以發現不同作物病蟲害脅迫的光譜曲線變化特征。一般基于特定光譜波段、波段計算與組合以及植被指數(Vegetation Index ,VI )等方法進行光譜特征提取。因為不同病蟲害脅迫對作物生長造成的影響程度不一致,所以特定光譜波段更有利于對不同病蟲害脅迫進行監測。光譜波段經運算組合后可以得到反映植被生長狀況、植被覆蓋度等有相關意義的值,即 VI 。VI 已廣泛用來定性和定量評價植被覆蓋及其生長活力,常用于作物病蟲害脅迫監測的 VI 主要由2~3個波段構成[23]。利用 VI進行回歸或相關分析可以建立遙感監測數據與作物生長信息的反演模型,即經驗模型。由于經驗模型需要大量的實測數據為基礎,而實測數據的精度如何,很大程度取決于實測數據的測量精度;經驗模型存在區域適用性的限制,常常在實測數據采集的區域模型的適用性較高,在其他區域適用性較低;地表粗糙度的變化經驗模型無法考慮。目前,由于植被參數的遙感反演物理模型具有因果關系和數學物理基礎[24,25],因而正成為遙感反演作物病蟲害脅迫研究的主要方向,但主要集中在輻射傳輸模型[26,27],尚無幾何光學模型和混合模型等在作物病蟲害脅迫中研究與應用。

2.3.2 機器學習方法

當前,無人機遙感監測作物病蟲害脅迫的數據處理方法主要集中于機器學習方法。機器學習最基本的做法是使用算法來解析遙感監測數據,然后對真實世界中的病蟲害脅迫做出決策和預測。機器學習傳統的算法包括決策樹、聚類、貝葉斯分類、隨機森林( Random Forest ,RF )、支持向量機(Support Vector Machine , SVM )、 k-近鄰(k-Nearest Neighbor ,kNN )算法等。從學習方法上劃分,機器學習算法可以分為監督學習、無監督學習、半監督學習、集成學習、深度學習和強化學習等[28]。

在機器學習傳統的算法中,如何最大限度地在數據中提取有用的特征以供算法和模型使用至關重要。當作物受到一定程度病蟲害脅迫后,患病蟲害的作物外部形態(葉面積、株高、顏色等)與內部生理均會發生較為明顯的改變。因此,除了使用無人機遙感監測獲取作物病蟲害脅迫影像的光譜特征之外,顏色特征(如顏色直方圖、顏色熵、顏色矩、顏色聚合向量等)、紋理特征(如局部二值模式、灰度直方圖、灰度共生矩陣、小波變換等)和形狀特征(如傅立葉變換、形狀不變矩、小波輪廓描述符等)等也常被提取使用。此外,還可以結合實地調查取樣獲取作物病蟲害脅迫下的株高、葉綠素含量、生物量和含水量等各項指標。特別地,作物受病蟲害脅迫的環境(溫度、濕度、海拔、土壤含水量、養分等)也會對病蟲害脅迫有影響,也是需要重點關注與開展長期性、周期性的研究。

近年來,隨著數據的高速增長、算力的迅猛增強、算法的完善成熟,深度學習逐漸在無人機遙感監測作物病蟲害脅迫領域得以大量應用[29]。使用傳統的機器學習方法提取特征往往需要進行手工提取或特征工程,并且需要大量的時間優化,而深度學習減少人為設計特征的過程,將自動學習與任務相關的特征即特征學習融入建立模型的過程。不過,使用深度學習方法面臨需要大量訓練數據和性能較高的計算機硬件支持,以及更優的模型等主要限制[30]。盡管如此,相關研究表明使用深度學習方法比機器學習傳統的算法能獲得更好的分類、檢測、識別和分割性能,因此未來也需要不斷深入研究與改進。同時,隨著高光譜機載傳感器和深度學習技術的不斷發展,利用深度學習技術可以充分挖掘高光譜影像的潛在特征,實現更好地對各種作物病蟲害脅迫進行監測。

3 無人機遙感監測作物病蟲害脅迫最新研究進展

本節主要針對2019―2021年無人機遙感監測作物病蟲害脅迫相關研究,從可見光成像遙感、多光譜成像遙感、高光譜成像遙感、熱紅外成像遙感、激光雷達成像遙感和多遙感融合與對比方面進行綜述。

3.1可見光成像遙感

使用基于無人機搭載可見光傳感器,如數碼相機與 RGB ( Red Green Blue )傳感器,可以獲得可見光影像(紅、藍、綠波段)。目前,可見光成像遙感在作物病蟲害脅迫領域已被廣泛應用研究。

在利用統計分析方法方面,有研究提取紅綠藍波段的特征信息后,構建 VI 和分類模型識別病蟲害脅迫程度。Nazir等[31]為監測種植園生長的桉樹健康狀況,利用冠層葉片的可見光波段開發視覺大氣阻力指數(Visual Atmospheric Resis‐tance Index ,VARI ),并基于 VARI-green 將病蟲害脅迫程度分為四級,將 VARI-green 指數和與 NDVI 進行相關性分析,平均相關系數為0.73。該研究展示了利用無人機和 RGB 相機對大規模工業林場作業區域進行航空調查的實際應用。 Dutta等[32]使用植被指數和 Otsu閾值分割方法對十字花科作物進行早期病害檢測,利用在兩種不同的陽光條件下收集的 RGB 圖像,區分健康葉片、患病葉片和背景,研究表明需要根據作物類型調整植被指數,以便通過圖像處理方法準確識別作物的感染部位。

在使用機器學習方法方面,對于可見光成像遙感主要利用提取的可見光影像的顏色、紋理、光譜和形狀等特征開展如分類、識別、檢測等監測任務[33]。在利用機器學習方法提取特征方面,Calou等[34]使用五種傳統機器學習分類算法來識別和量化香蕉黃斑病, SVM 算法取得了最佳分類性能。類似地,Dang等[35]基于一系列顏色特征進行閾值檢測以對蘿卜枯萎病的嚴重程度進行分類,并使用 k-means聚類算法實現將蘿卜區域與田地的其他區域(例如土地和地膜)分割。為評估無人機遙感監測方法在小麥蠕孢葉枯病檢測方面的潛力,Huang 等[36]使用無人機進行可見光影像采集,同時進行地面調查,根據不同的病害脅迫程度建立了正常、輕度、中度和重度四種病害類別,構建了基于 LeNet-5的卷積神經網絡,準確區分了小麥蠕孢葉枯病的感染區和健康區。為量化非洲葉蟬對葡萄園的影響,并開發害蟲脅迫嚴重程度的專題圖,del-Campo-San等[37]使用 RGB 圖像構建基于人工神經網絡與幾何技術相結合的計算視覺算法,該算法與從 RGB 圖像生成的地理產品相結合,改進了受影響植被、健康植被和地面的圖像分割效果,并通過消除土壤的影響提高了檢測的效果。Tetila等[38]使用無人機拍攝的大豆害蟲圖像進行五種深度學習模型的評估,發現經過微調訓練的深度學習模型可以獲得更高的分類準確率93.82%。此外,也展示了深度學習模型的性能優于傳統的特征提取方法。

上述研究表明,采用較低成本的可見光成像遙感可以方便快捷地對作物病蟲害脅迫進行監測,并且也能取得不錯的識別效果。開發基于可見光成像的無人機遙感監測作物病蟲害脅迫系統能以更大經濟優勢進行推廣普及,從而助力農業高效生產。

3.2多光譜成像遙感

多光譜成像遙感是指用2個以上光譜通道傳感器進行地物同步成像,接收和記錄目標物反射輻射的電磁波信息被分成若干個窄波段的光束。在利用無人機搭載多光譜傳感器遙感監測作物病蟲害脅迫時,通常獲取不同時空、冠層等2~5個波段遙感影像開展相關研究。

在使用統計分析方法方面,國內外研究通常在提取光譜特征后,再篩選、組合與作物病蟲害脅迫遙感監測任務相關的 VI ,如歸一化植被指數 (Normalized? Difference? Vegetation? Index,NDVI )、增強型植被指數和垂直植被指數等常用VI或提出新的植被指數如 Excess Near-Infrared和Excess Red-Edge [39],同時結合地面調查的方式人工采集相關數據?;谏鲜?VI ,主要通過指數統計相關性、方差分析、線性回歸、二元邏輯回歸等統計分析方法識別敏感指數以及結合多時空變化進行小麥[40]、辣椒[41]、香蕉[42]、西瓜[43]、大豆[44] 和油棕[45]作物病蟲害的定量評估和分析。部分研究建立了不同的機器學習分類模型對梨[10]、檳榔[46,47]、柑橘[48,49]、花生[50]、檸檬[51]和馬鈴薯[52]等病蟲害發生情況進行了有效地監測,其中使用 SVM 和 RF 的方法占多數,還有使用徑向基函數 ( Radical Basis Function,RBF )和kNN等。部分研究測試不同的輸入波段組合,改進分割算法 U-net 進行小麥黃銹病檢測[53] 以及開發新的分割算法處理獲取的 RGB、CIR ( Color and Infrared )和 NDVI圖像,隨后使用線性判別分析對受木質部難養菌(Xylella Fas‐tidiosa)影響的橄欖樹進行分類[54]。一些研究將統計分析方法和機器學習方法相結合,如 Lan 等[11]先計算 VI ,然后使用主成分分析和 Auto ‐ Encoder 進行相關分析和特征壓縮以發現潛在特征,之后比較了幾種機器學習分類算法以實現對柑橘黃龍病的監測。Chivasa等[12]通過玉米品種對玉米條紋病毒的反應,使用基于無人機的多光譜遙感數據來提高作物表型分析效率,用 RF 評估無人機衍生的光譜和 VI ,再對無人機獲取的數據與人工玉米條紋病毒評分之間進行相關性分析。馬云強等[55]通過深度學習技術定量反演云南切梢小蠹脅迫情況,結果顯示 NDVI與蟲害的危害程度呈負相關。

在僅使用機器學習技術方面,研究者使用傳統方法包括 SVM 、RF 、kNN、樸素貝葉斯和集成學習等對油棕靈芝屬病害、馬鈴薯晚疫病進行分類[56,57],并且開發了新的針對棉花根腐病的無監督 Plant-by-Plant 分類算法[58]。此外,還有研究使用改進的 U-Net進行小麥黃銹病病害區域分割研究[59]。

大量研究表明,通過使用統計分析方法和機器學習方法可以較為準確地評估作物病蟲害脅迫的程度、類型和位置等。與可見光成像遙感相比,多光譜成像遙感能獲取更多的光譜信息。當使用這些更多的信息時會使得監測結果更為準確有效。

3.3高光譜成像遙感

當前,基于無人機搭載高光譜傳感器遙感監測病蟲害脅迫的作物主要集中于小麥、水稻、柑橘等。與無人機搭載多光譜傳感器遙感監測作物病蟲害脅迫的方法不同,高光譜影像分辨率高、數據量大,相鄰光譜波段相關性高,具有空間域和光譜域信息。

在使用統計分析方法方面,馬書英等[60]對板栗樹進行高光譜遙感監測,通過對冠層紅蜘蛛脅迫下的光譜特征與紅蜘蛛蟲害感染程度直接進行相關性分析;郭偉等[61]通過分析棉花的冠層光譜特征,再基于敏感波段的比值導數值開發了蚜害脅迫程度的預測模型。上述研究使用光譜特征、敏感波長進行統計分析以識別板栗樹紅蜘蛛蟲害與棉花蚜害的脅迫程度。相關研究在統計分析方法中還使用 VI ,與多光譜使用 VI類似,研究者基于多種 VI 、特征波長和冠層特征光譜參數等使用如 Fisher 判別分析法對毛竹剛竹毒蛾[62]、偏最小二乘回歸 (Partial Least SquaresRegression,PLSR )方法對小麥全蝕病[63]、線性回歸對玉米大斑病[64]、秩和檢驗對水稻稻曲病[65]進行了準確分類和識別,或構建由東亞飛蝗造成的蘆葦損失估計模型,用定量的方式評估和量化東亞飛蝗損害程度[66]。Liu 等[67] 和 Ma等[68]考慮到高光譜影像處理的特點,在使用光譜帶、VI 的基礎上融入了紋理特征,構建和改進了 BP神經網絡、SVM等機器學習來監測小麥枯萎病;而 Guo等[69]構建了基于 PLSR的不同感染時期的小麥黃銹病監測模型。此外,大量研究使用如 RF 、RBF 、kNN等機器學習方法將不同的光譜特征,如 VI 、光譜特征參數等作為輸入量對水稻[70]、柑橘[71,72]、南瓜[73]病蟲害脅迫等進行監測,其中有研究使用地面車輛和無人機兩種測量平臺對小麥黃銹病的發展階段和病害嚴重程度進行檢測和量化評估[74],也有研究通過逐步判別法識別和區分番茄病害程度的結果與 RBF和多層感知器的分類結果分別進行比較[75,76]。

在使用機器學習方法方面,鄧小玲等[77]對光譜進行預處理和特征工程后,采用連續投影算法提取對作物病蟲害脅迫程度或類別分類貢獻最大的特征波長組合,以基于全波段或特征波段建立多個機器學習分類模型。雖然傳統機器學習的方法希望提取具有代表性的光譜特征,但是對于高光譜影像的空間特征過去往往在處理的過程中被自動丟棄,從而不可避免地減少了信息量,并且限制了作物病蟲害脅迫相關任務的深入研究[78-80]。當前,已有研究構建了能同時利用光譜和空間信息的深度學習模型對小麥黃銹病進行遙感監測[81],以充分發揮高光譜影像的潛力。目前,有研究基于光譜和時間特征,利用 RF 構建水稻稻曲病監測模型,發現水稻稻曲病的侵染面積隨著時間的推移呈擴大趨勢,符合水稻稻曲病的自然發展規律[82]。也有研究獲取高光譜影像的敏感光譜特征和波段,以及通過灰度共生矩陣提取紋理特征,并將光譜和紋理特征融合以檢測小麥赤霉病[83]。

現有研究表明,與可見光成像遙感和多光譜成像遙感相比,高光譜成像遙感具有連續光譜、更多波段和數據量更大等特點,因此很多研究人員能實現更好的作物病蟲害脅迫遙感監測效果。此外,隨著數據處理方法的發展,基于深度學習的方法已能更好地利用高光譜圖像開展相關研究并取得相較于傳統機器學習方法更好的效果。但是,如何更好地挖掘并使用高光譜遙感圖像中病蟲害光譜變化特征,仍然是實現遙感監測大面積作物病蟲害脅迫的重點和難點。

3.4熱紅外成像遙感

作物病蟲害脅迫進行熱紅外( Thermal Infra‐ red ,TIR )成像遙感主要是針對溫度的差異進行分析。然而,由于遙感監測時易受風、云和雨等惡劣天氣因素的影響,當前 TIR成像遙感監測作物病蟲害脅迫面臨巨大的挑戰。目前,TIR成像遙感監測在作物病蟲害脅迫方面的研究相對較少。研究人員在利用 TIR傳感器遙感監測作物病蟲害脅迫時,通常主要監測作物冠層溫度的差異,從而對健康和受病蟲害脅迫的作物進行分類。

在使用統計分析方法方面,Francesconi等[84]將 TIR 、RGB影像和地面測量(穗的溫度、光合效率和赤霉病原體的分子鑒定)相結合,采用方差分析和主成分分析以及計算 VI 對小麥進行赤霉病監測,研究顯示了基于無人機的 TIR和 RGB 影像在小麥和其他谷類作物應對病蟲害脅迫時進行田間表型分析的潛力。陳欣欣等[85]將 TIR和無人機模擬平臺相結合,基于冠層和葉片兩個尺度,采用判別分析、單因素方差分析和相關性分析等方法可以對菌核病侵染油菜的過程進行監測。

從目前研究看,熱紅外成像遙感具備其獨特優勢,取得了較好的成果。但是,由于熱紅外成像遙感容易受到環境因素影響,未來需要研發適用性更強的熱紅外傳感器,以及設計相應的監測方法。值得一提的是,融合 TIR成像遙感數據和其他成像遙感數據能更好地提升遙感監測的效果。

3.5激光雷達成像遙感

激光雷達(Light Detection and Ranging ,Li‐DAR )成像遙感方法監測作物病蟲害脅迫,依據激光反射強度來分析作物的病蟲害程度,一般提取作物水平以及垂直結構的冠層信息,如株高、生物量等。此外,激光雷達還可以獲取蟲群飛行方向和運動軌跡。當前,適用于無人機的機載激光雷達價格較貴(通常需5萬~15萬人民幣),使用激光雷達獲取點云等數據的方法和處理算法與模型還有待改進。使用無人機搭載激光雷達在遙感監測病蟲害脅迫方面的研究大都應用在林業,且多與其他遙感影像數據融合進行病蟲害脅迫的監測。

在使用統計分析方法方面,在針對松樹常見的松針紅斑?。≧ed Band Needle Blight), Lin等[86]研究使用基于無人機的熱紅外成像檢測松針紅斑病引起的冠層溫度升高,并探討成像時間和天氣條件對檢測的影響,發現冠層溫度降低與病害水平之間存在統計學顯著相關性,這可能與病害引起的針頭損傷癥狀有關,即細胞完整性喪失、壞死和最終干燥;樹冠溫度的標準偏差表現出微弱但具有統計學意義的相關性;PLSR 中冠層溫度降低和冠溫標準差的組合進一步改善了觀察結果與估計病害程度的關系。

在使用機器學習方法方面,Briechle等[87]使用3D 深度神經網絡PointNet++和激光雷達數據與多光譜影像對多種樹種(松樹、樺樹、榿木)和帶有樹冠的枯立木進行了分類,驗證了3D 深度神經網絡對于多種樹種和枯立木的分類前景。松材線蟲病是對森林的全球破壞性威脅,在中國對森林造成了極大的破壞。Savian等[88]將松材線蟲病感染分為五個階段(綠色、早期、中期、重度和灰色),使用 RF 算法估計高光譜成像數據、LiDAR數據及其組合預測松材線蟲病的感染階段,發現高光譜數據在預測松材線蟲病感染階段的分類準確率高于 LiDAR ,并且它們的組合具有最佳精度,此外還證明 LiDAR 數據比高光譜數據具有更高的死樹識別能力。類似地,為準確評估早期監測松梢甲蟲的松林枝條損傷率,Yu 等[89] 同樣基于無人機的高光譜成像數據和激光雷達數據融合檢測害蟲,并通過類似的方法評估松梢甲蟲造成的損失。研究證實,如果結合高光譜數據和激光雷達數據,在單個樹級別準確預測枝條損傷率的可能性很高,并且三維輻射傳輸模型可以確定來自激光雷達的三維樹冠陰影。

目前的研究已經取得了一定的成果,但是相關算法、模型仍然具有局限性,有待進一步研究與應用。未來,需要重點研發更低成本的激光雷達與配套的算法、模型,并且能夠更好地在復雜場景下精確成像。

3.6多遙感融合與對比

將可見光、多光譜、高光譜、TIR 、雷達等遙感數據進行融合與對比研究已逐漸成為熱點,具有良好的研究前景。

在融合方面,研究人員使用上述多種傳感器同步或異步獲取作物病蟲害脅迫信息,采取統計學習或機器學習方法對其進行處理分析。對于使用機器學習方法的研究,Smigaj等[90] 使用 K-means 、Ward分層聚類等遙感方法成功預測獼猴桃藤衰退綜合征;Kerkech等[91,92]通過構建深度學習的分割模型檢測葡萄病害,與直接使用單一來源的遙感影像相比,融合多源遙感影像的方法能獲得更好的檢測結果。

在對比方面,Moriya 等[93] 比較不同遙感監測方法的效果,對于25波段傳感器獲取的影像和3波段傳感器獲取的影像,結果表明,使用25波段傳感器獲取的影像檢測柑橘樹脂病的性能更好,因為其具有更高的數據維度和更詳細的光譜信息從而可以更準確地檢測感染柑橘樹脂病的樹木。當比較可見光和多光譜對水稻紋枯病的檢測效果時,盡管多光譜傳感器的檢測結果更準確,但是可見光傳感器更加經濟且易使用[94]。Dang等[95]檢測蘿卜枯萎病時,對于可見光數據集,采用線性譜聚類超像素算法分割田塊圖像,然后通過新構建的RadRGB模型對不同蘿卜、土壤和地膜區域繼續分類,此外還從近紅外數據集構建NDVI圖高精度檢測不同階段蘿卜枯萎病。盡管與識別可見光數據集中蘿卜枯萎病的復雜算法相比近紅外方法更簡單,但它需要近紅外這種特殊類型的傳感器。

當前研究表明,相比于單一來源的監測數據,融合更多源的遙感監測數據將能實現優勢互補,為作物病蟲害脅迫監測提供更全面信息,從而實現更好的監測效果。未來,需要繼續深入探索數據融合在作物病蟲害脅迫中的研究與應用,構建通用性強、精度高的遙感監測算法和模型。

4 問題與展望

目前,利用無人機遙感監測病蟲害脅迫的相關研究與應用還處于初級階段,不僅在無人機飛行平臺和機載傳感器的研發、應用和管理方面存在問題,而且在遙感監測病蟲害脅迫數據的獲取、處理和應用方面也具有極大的提升空間。

4.1無人機性能亟待優化

目前針對遙感監測所使用的無人機飛行平臺主要存在穩定性不足、續航時間較短、易受外界干擾和載荷不足等問題[18]。未來需要進一步開發穩定性強、續航時間長和載荷大的無人機飛行平臺。對于無人機機載傳感器,為滿足不同的遙感監測任務需求,無人機可以搭載相應的傳感器。然而,現有的無人機機載傳感器無法完全適應復雜的外部環境[96],所獲取的作物病蟲害脅迫數據質量往往由于環境的不同而存在差異,并且由于無人機平臺載荷不足,往往搭載傳感器的重量和數量等有限[97]。因此,研發低成本、輕量化和模塊化以及適用性更強的機載傳感器具有重要意義。

在使用無人機遙感監測作物病蟲害脅迫時,為實現精準、經濟、普適等目的需要綜合考慮飛行的任務、環境、天氣等因素,從而選擇合適的無人機飛行平臺和搭載的傳感器。特別地,在提高遙感監測任務的無人機自身安全性的基礎上,還需進一步完善與遵循空中交通管理機制,施行無人機空域管理以實現統一規劃,合理、充分、有效利用[98]。同時,對于無人機操作人員需要具備安全飛行意識,遵守當地法律法規,選擇安全的飛行環境,預防無人機潛在危險等[99]。

4.2遙感監測數據獲取困難

無人機遙感監測作物病蟲害脅迫容易受大風、陰雨等惡劣天氣影響,同時采集數據時對太陽光照有較高的要求。大部分無人機飛行任務的操作較復雜且過度依賴于人工設置[100],制約了其在作物病蟲害脅迫遙感監測中的廣泛應用。當前研究已逐漸從單塊單次作物遙感監測變為多塊多次的連續監測,而這加大了遙感監測數據獲取的任務工作量,同時為監測數據獲取與處理帶來挑戰。

另外,在開展無人機遙感監測作物病蟲害脅迫研究時,實驗人員通常需要自行攜帶輻射校正板等校正設備以便后續校正操作后獲得反射率值等數據。此外,過去大部分研究使用單一來源的遙感監測數據,難以全面反應整體信息。隨著傳感器的輕型化和無人機載荷及續航時間的增加,已逐步實現多源數據同步遙感監測作物病蟲害脅迫信息[4,6, 18]。未來,如何獲取更多的遙感監測信息仍然需要深入研究,如獲取空間結構數據與光譜成像對應數據、光譜數據與相應的環境數據,以及空天地(衛星、無人機和地面)一體化立體監測數據等。值得一提的是,越來越多開源的更大型、更多源、覆蓋更廣的遙感監測數據庫、數據集和數據平臺等正在不斷涌現[101, 102],將為相關研究與應用提供數據基礎。

4.3遙感監測數據處理復雜

通常研究與應用人員需要設計開發相應算法或使用相關軟件才能實現對無人機遙感監測數據的拼接、解析和生成處方圖等操作,其中部分算法和特定軟件針對特定應用而開發[53,58,66,81]。隨著利用無人機遙感監測作物病蟲害脅迫時間增加,以及空間和光譜分辨率提高,需要解決無人機遙感監測獲取的海量數據的處理問題。滯后的遙感監測數據解譯將無法及時指導病蟲害的防治,導致無法實現病蟲害快速、精準、高效地防治。特別地,為實現時空實時感知、周期實時監測、要素實時評估,當前利用空天地一體化立體監測技術開展作物病蟲害脅迫監測的綜合研究與應用較少且具有巨大潛力[103]。

未來,須不斷完善數據處理方法,應設計開發出適用性更強、適用面更廣的數據處理算法或軟件以提高數據處理的準確性;利用更多源的監測數據提取更全面綜合的作物病蟲害脅迫特征;縮短數據處理時間,使用基于5G 通訊網絡和邊緣計算設備以解決數據傳輸與數據及時處理的問題[104-107],更加及時、精準地監測病蟲害發生和危害程度。

4.4遙感監測結果適用局限

由于存在作物的物候階段、種植區域與類型、生育期、病蟲害脅迫的監測時間、氣候變化等影響,目前大部分算法或模型僅適用于對應研究,而無法具備很好的穩定性、普適性和通用性,往往由于時間和空間的局限性而嚴重制約其大面積應用與推廣[10,56,61,90]。例如,在單次的無人機遙感監測病蟲害脅迫中實現很高的識別率,但并不能保證在其他時刻通過無人機獲取的遙感監測病蟲害脅迫數據能得到同樣的識別率。

因此,未來需要對作物病蟲害脅迫狀態進行持續監測,總結各種作物病蟲害脅迫的類型和數據特征,深化對無人機遙感監測作物病蟲害脅迫數據的認識。通過建立適用性更強的無人機遙感監測作物病蟲害脅迫算法或模型,從而構建無人機遙感監測作物病蟲害脅迫的方法庫以推動病蟲害遙感監測領域的發展。

參考文獻:

[1] CARVAJAL-YEPES M, CARDWELL K, NELSON A,et al. A global surveillance system for crop diseases[J]. Science, 2019, 364(6447):1237-1239.

[2] WANG C, WANG X, JIN Z, et al. Occurrence of croppests and diseases has largely increased in China since 1970[J]. Nature Food, 2021, 3:57-65.

[3] GOETZ A F H, VANE G, SOLOMON J E, et al. Imag‐ing spectrometry for earth remote sensing[J]. Science, 1985, 228(4704):1147-1153.

[4] WEISS M, JACOB F, DUVEILLER G. Remote sens‐ing for agricultural applications: A meta-review[J]. Re‐ mote Sensing of Environment, 2020, 236: ID 111402.

[5] RADOGLOU-GRAMMATIKIS? P,? SARIGIANNIDISP, LAGKAS T, et al. A compilation of UAV applica‐tions for precision agriculture[J]. Computer Networks, 2020, 172: ID 107148.

[6] SISHODIA R P, RAY R L, SINGH S K. Applicationsof remote sensing in precision agriculture: A review[J]. Remote Sensing, 2020, 12(19): ID 3136.

[7] PINTER JR P J, HATFIELD J L, SCHEPERS J S, etal. Remote? sensing? for? crop? management[J]. Photo‐grammetric Engineering & Remote Sensing, 2003, 69(6):647-664.

[8] WHITE J W, ANDRADE-SANCHEZ P, GORE M A,et? al. Field-based? phenomics? for? plant? genetics? re‐ search[J]. Field Crops Research, 2012, 133:101-112.

[9] WATTS A C, AMBROSIA V G, HINKLEY E A. Un‐manned aircraft systems in remote sensing and scientif‐ic research: Classification and considerations of use[J]. Remote Sensing, 2012, 4(6):1671-1692.

[10] BAGHERI? N. Application? of? aerial? remote? sensingtechnology? for? detection? of fire? blight? infected? pear trees[J]. Computers? and? Electronics? in? Agriculture, 2020, 168: ID 105147.

[11] LAN Y, HUANG Z, DENG X,? et? al. Comparison? ofmachine learning methods for citrus greening detection on UAV multispectral images[J]. Computers and Elec‐tronics in Agriculture, 2020, 171: ID 105234.

[12] CHIVASA? W,? MUTANGA? O,? BIRADAR? C. UAV-based multispectral phenotyping for disease resistanceto? accelerate? crop? improvement? under? changing? cli‐mate conditions[J]. Remote Sensing, 2020, 12(15): ID2445.

[13] CHIVASA W, MUTANGA O, BURGUENO? J. UAV-based high-throughput phenotyping to increase predic‐tion and selection accuracy in maize varieties under ar‐tificial MSV inoculation[J]. Computers and Electronicsin Agriculture, 2021, 184: ID 106128.

[14] SUGIURA R, NOGUCHI N, ISHII K. Remote-sensingtechnology? for? vegetation? monitoring? using? an? un‐manned? helicopter[J]. Biosystems? Engineering, 2005,90(4):369-379.

[15] BERNI J A J, ZARCO-TEJADA P J, SUAREZ L, et al.Thermal and narrowband multispectral remote sensingfor vegetation monitoring from an unmanned aerial ve‐hicle[J]. IEEE Transactions on Geoscience and RemoteSensing, 2009, 47(3):722-738.

[16] CORCOLES J I, ORTEGA J F, HERNANDEZ D, etal. Estimation of leaf area index in onion (Allium cepaL.) using? an? unmanned? aerial? vehicle[J]. BiosystemsEngineering, 2013, 115(1):31-42.

[17] WAHAB I, HALL O, JIRSTROM M. Remote sensingof yields: Application of UAV imagery-derived NDVIfor estimating maize vigor and yields in complex farm ‐ing systems in Sub-Saharan Africa[J]. Drones, 2018, 2(3): ID 28.

[18] YAO H,? QIN R,? CHEN X. Unmanned? aerial vehiclefor remote sensing applications—A review[J]. RemoteSensing, 2019, 11(12): ID 1443.

[19] SAARI? H,? PELLIKKA? I,? PESONEN? L,? et? al. Un‐manned Aerial Vehicle (UAV) operated? spectral cam ‐era system for forest and agriculture applications[C]//Remote Sensing for Agriculture, Ecosystems, and Hy‐drology XIII. International Society for Optics and Pho‐tonics, Prague, Czech Republic: SPIE, 2011, 8174: ID81740H.

[20] SADEQ? H? A. Accuracy? assessment? using? differentUAV image overlaps[J]. Journal of Unmanned VehicleSystems, 2019, 7(3):175-193.

[21] YANG G, LIU J, ZHAO C, et al. Unmanned aerial ve‐hicle remote sensing for field-based crop phenotyping:Current? status? and? perspectives[J]. Frontiers? in? PlantScience, 2017, 8: ID 1111.

[22] XIE C, YANG C. A review on plant high-throughputphenotyping traits using UAV-based? sensors[J]. Com ‐puters? and? Electronics? in Agriculture, 2020, 178: ID105731.

[23] XUE J, SU B. Significant remote sensing vegetation in‐dices: A review? of developments? and? applications[J].Journal of Sensors, 2017, 2017: ID 1353691.

[24] GITELSON A, ARKEBAUER T, VI?AA, et al. Evalu‐ating? plant? photosynthetic? traits? via? absorption? coef‐ficient? in? the? photosynthetically? active? radiation? re‐gion[J]. Remote? Sensing? of Environment, 2021, 258:ID 112401.

[25] HAUSER? L? T,? TIMMERMANS? J,? WINDT? NVANDER, et al. Explaining discrepancies between spectral and? in-situ? plant? diversity? in? multispectral? satellite earth observation[J]. Remote Sensing of Environment, 2021, 265: ID 112684.

[26] HORNERO?? A,?? HERN?NDEZ-CLEMENTE?? R,NORTH P R J, et al. Monitoring the incidence of Xylel‐ la fastidiosa infection in olive orchards using ground- based evaluations, airborne imaging spectroscopy and Sentinel-2 time? series? through 3-D? radiative? transfer modelling[J]. Remote? Sensing? of Environment, 2020, 236: ID 111480.

[27] PIGNATTI S, CASA R, LANEVE G, et al. Sino – EUearth? observation? data to? support the monitoring? and management of agricultural resources[J]. Remote Sens‐ing, 2021, 13(15): ID 2889.

[28] LEE J H,? SHIN J, REALFF M? J. Machine? learning:Overview of the recent progresses and implications for the process systems engineering field[J]. Computers & Chemical Engineering, 2018, 114:111-121.

[29] LIU J, XIANG J, JIN Y, et al. Boost precision agricul‐ture with unmanned aerial vehicle remote sensing and edge intelligence: A survey[J]. Remote Sensing, 2021, 13(21): ID 4387.

[30] VOULODIMOS A,? DOULAMIS N,? DOULAMIS A,et? al. Deep? learning? for? computer vision: A brief re‐ view[J]. Computational Intelligence and Neuroscience, 2018, 2018: ID 7068349.

[31] NAZIR M N M M, TERHEM R, NORHISHAM A R,et al. Early monitoring of health? status of plantation- grown eucalyptus pellita at large spatial scale via visi‐ble? spectrum? imaging? of? canopy? foliage? using? un‐ manned? aerial? vehicles[J]. Forests, 2021, 12(10): ID1393.

[32] DUTTA K, TALUKDAR D, BORA S S. Segmentationof unhealthy leaves in cruciferous crops for early dis‐ ease detection using vegetative indices and Otsu thresh‐olding? of aerial? images[J]. Measurement, 2022, 189:ID 110478.

[33] MAES W H, STEPPE K. Perspectives for remote sens‐ing with unmanned aerial vehicles in precision agricul‐ture[J]. Trends in Plant Science, 2019, 24(2):152-164.

[34] CALOU V B C, TEIXEIRA A D S, MOREIRA L C J,et al. The use of UAVs in monitoring yellow sigatoka in? banana[J]. Biosystems? Engineering, 2020, 193:115-125.

[35] DANG L M, HASSAN S I, SUHYEON I, et al. UAVbased? wilt? detection? system? via? convolutional? neuralnetworks[J]. Sustainable? Computing: Informatics? andSystems, 2020, 28: ID 100250.

[36] HUANG H, DENG J, LAN Y, et al. Detection of hel‐minthosporium leaf blotch disease based on UAV imag‐ery[J]. Applied Sciences, 2019, 9(3): ID 558.

[37] DEL-CAMPO-SANCHEZ? A,? BALLESTEROS? R,HERNANDEZ-LOPEZ D, et al. Quantifying the effectof Jacobiascalybica? pest? on? vineyards? with? UAVsby? combining? geometric? and? computer? vision? tech‐niques[J]. PLoS One, 2019, 14(4): ID e0215521.

[38] TETILA E? C, MACHADO B B, ASTOLFI? G,? et? al.Detection? and? classification? of? soybean? pests? usingdeep? learning? with? UAV? images[J]. Computers? andElectronics in Agriculture, 2020, 179: ID 105836.

[39] PADUA L, MARQUES P, MARTINS L, et al. Monitor‐ing of chestnut trees using machine learning techniquesapplied? to? UAV-based? multispectral? data[J]. RemoteSensing, 2020, 12(18): ID 3032.

[40] SU J, LIU C, HU X, et al. Spatio-temporal monitoringof wheat yellow? rust using? UAV multispectral? imag‐ery[J]. Computers and electronics in agriculture, 2019,167: ID 105035.

[41] ATSHAN L A, BROWN P, XU C, et al. Early? detec‐tion? of? disease? infection? in? chilli? crops? using? sen‐sors[C]// International? Horticultural? Congress,? Istan‐bul, Turkey: ISHS, 2018:263-270.

[42] YE H, HUANG W, HUANG S, et al. Recognition ofbanana fusarium wilt based on UAV remote sensing[J].Remote Sensing, 2020, 12(6): ID 938.

[43] KALISCHUK M, PARET M L, FREEMAN J H, et al.An improved crop scouting technique incorporating un‐manned aerial vehicle – assisted multispectral crop im‐aging? into? conventional? scouting practice? for? gummystem blight in watermelon[J]. Plant Disease, 2019, 103(7):1642-1650.

[44] MARSTON Z P D, CIRA T M, HODGSON E W, et al.Detection of stress induced by soybean aphid (Hemip‐tera: Aphididae) using multispectral imagery from un‐manned aerial vehicles[J]. Journal of Economic Ento‐mology, 2020, 113(2):779-786.

[45] VIERA-TORRES? M,? SINDE-GONZALEZ? I,? GIL-DOCAMPO? M,? et? al. Generating the baseline? in theearly detection of bud rot and red ring disease in oilpalms by geospatial technologies[J]. Remote? Sensing,2020, 12(19): ID 3229.

[46]趙晉陵, 金玉, 葉回春, 等.基于無人機多光譜影像的檳榔黃化病遙感監測[J].農業工程學報, 2020, 36(8):54-61.

ZHAO J, JIN Y, YE H, et al. Remote sensing monitor‐ing of areca yellow leaf disease based on UAV multi- spectral images[J]. Transactions of the CSAE, 2020, 36(8):54-61.

[47] LEI S, LUO J, TAO X, et al. Remote sensing detectingof yellow leaf disease of arecanut based on UAV multi‐ source? sensors[J]. Remote? Sensing, 2021, 13(22): ID4562.

[48] DADRASJAVAN F,? SAMADZADEGAN F, POURA ‐ZAR? S? H? S,? et? al. UAV-based multispectral? imagery for? fast? citrus? greening? detection[J]. Journal? of Plant Diseases and Protection, 2019, 126(4):307-318.

[49] CHANG A, YEOM J, JUNG J, et al. Comparison ofcanopy shape and vegetation indices of citrus trees de‐ rived from UAV multispectral images for characteriza‐tion? of? citrus? greening? disease[J]. Remote? Sensing, 2020, 12(24): ID 4122.

[50] CHEN T, YANG W, ZHANG H, et al. Early detectionof bacterial wilt in peanut plants through leaf-level hy‐perspectral and unmanned aerial vehicle data[J]. Com ‐puters? and? Electronics? in Agriculture, 2020, 177: ID105708.

[51] HEIM R H J, WRIGHT I J, SCARTH P, et al. Multi‐spectral, aerial disease detection for myrtle rust (Aus‐tropucciniapsidii) on? a? lemon? myrtle? plantation[J]. Drones, 2019, 3(1): ID 25.

[52] LE?N-RUEDA W A,? LE?N? C,? CARO? S? G,? et? al.Identification? of diseases? and? physiological? disorders in? potato? via? multispectral? drone? imagery? using? ma‐ chine learning tools[J]. Tropical Plant Pathology, 2021:1-16.

[53] SU J, YI D,? SU B,? et? al. Aerial visual perception insmart farming: Field study of wheat yellow rust moni‐toring[J]. IEEE Transactions on Industrial Informatics, 2020, 17(3):2242-2249.

[54] DI NISIO A, ADAMO F, ACCIANI G, et al. Fast de‐tection of olive trees affected by xylella fastidiosa from UAVs? using? multispectral? imaging[J]. Sensors, 2020, 20(17): ID 4915.

[55]馬云強, 李宇宸, 劉夢盈, 等.基于無人機多光譜影像的云南切梢小蠹危害監測反演研究[J].西南農業學報, 2021, 34(9):1878-1884.

MA Y, LI Y, LIU M, et al. Harm monitoring and inver‐sion? study? on? Tomicusyunnanensis? based? on? multi- spectral? image? of unmanned? aerial? vehicle[J]. South‐ west China Journal of Agricultural Sciences, 2021, 34(9):1878-1184.

[56] IZZUDDIN M A, HAMZAH A, NISFARIZA M N, etal. Analysis of multispectral imagery from unmannedaerial vehicle (UAV) using object-based image analy‐sis for detection of Ganoderma disease in oil palm[J].Journal of Oil Palm Research, 2020, 32(3):497-508.

[57] RODR?GUEZ J, LIZARAZO I, PRIETO F, et al. As‐sessment of potato late blight from UAV-based multi‐spectral imagery[J]. Computers and Electronics in Ag‐riculture, 2021, 184: ID 106061.

[58] WANG? T,? THOMASSON? J A,? ISAKEIT T,? et? al. Aplant-by-plant method to identify and treat cotton rootrot based on UAV remote sensing[J]. Remote Sensing,2020, 12(15): ID 2453.

[59] ZHANG T, XU Z, SU J, et al. Ir-UNet: Irregular seg‐mentation u-shape network for wheat yellow rust detec‐tion by UAV multispectral? imagery[J]. Remote? Sens‐ing, 2021, 13(19): ID 3892.

[60]馬書英, 郭增長, 王雙亭, 等.板栗樹紅蜘蛛蟲害無人機高光譜遙感監測研究[J].農業機械學報 , 2021, 52(4):171-180.

MA S, GUO Z, WANG S, et al. Hyperspectral remotesensing monitoring of Chinese chestnut red mite insectpests in UAV[J]. Transactions of the CSAM, 2021, 52(4):171-180.

[61]郭偉, 喬紅波, 趙恒謙, 等.基于比值導數法的棉花蚜害無人機成像光譜監測模型研究[J].光譜學與光譜分析, 2021, 41(5):1543-1550.

GUO W, QIAO H, ZHAO H, et al. Cotton aphid dam ‐age monitoring using UAV hyperspectral data based onderivative? of ratio? spectroscopy[J]. Spectroscopy? andSpectral Analysis, 2021, 41(5):1543-1550.

[62]鄭蓓君, 陳蕓芝, 李凱, 等.高光譜數據的剛竹毒蛾蟲害程度檢測[J].光譜學與光譜分析 , 2021, 41(10):3200-3207.

ZHENG P, CHEN Y, LI K, et al. Detection of pest de‐gree? of? phyllostachys? Chinese? with? hyperspectraldata[J]. Spectroscopy and Spectral Analysis, 2021, 41(10):3200-3207.

[63]郭偉, 朱耀輝, 王慧芳, 等.基于無人機高光譜影像的冬小麥全蝕病監測模型研究[J].農業機械學報 ,2019, 50(9):162-169.

GUO W, ZHU Y, WANG H, et al. Monitoring model ofwinter wheat take-all based on UAV hyperspectral im‐aging[J]. Transactions? of? the? CSAM, 2019, 50(9):162-169.

[64]梁輝, 何敬, 雷俊杰.無人機高光譜的玉米冠層大斑病監測[J].光譜學與光譜分析 , 2020, 40(6):1965-1972.

LIANG? H,? HE? J,? LEI? J. Monitoring? of corn? canopyblight disease based on UAV hyperspectral method[J].Spectroscopy and Spectral Analysis, 2020, 40(6):1965-1972.

[65]桑佳茂, 陳豐農.基于光譜特征點秩和檢驗的稻曲病發病程度檢測[J].光譜學與光譜分析 , 2021, 41(10):3214-3219.

SANG J, CHEN F. Detection of rice false smut grade degree based on the rank sum test of spectral feature points[J]. Spectroscopy and Spectral Analysis, 2021, 41(10):3214-3219.

[66] SONG P, ZHENG X, LI Y, et al. Estimating reed losscaused by Locusta migratoriamanilensis using UAV- based hyperspectral data[J]. Science of the Total Envi‐ronment, 2020, 719: ID 137519.

[67] LIU L, DONG Y, HUANG W, et al. Monitoring wheatFusarium? head? blight? using? unmanned? aerial? vehicle hyperspectral? imagery[J]. Remote? Sensing, 2020, 12(22): ID 3811.

[68] MA H, HUANG W, DONG Y, et al. Using UAV-basedhyperspectral imagery to detect winter wheat fusarium head blight[J]. Remote Sensing, 2021, 13(15): ID 3024.

[69] GUO A, HUANG W, DONG Y,? et? al. Wheat yellowrust detection using UAV-based hyperspectral technolo‐gy[J]. Remote Sensing, 2021, 13(1): ID 123.

[70]孔繁昌, 劉煥軍, 于滋洋, 等.高寒地區粳稻穗頸瘟的無人機高光譜遙感識別[J].農業工程學報 , 2020, 36(22):68-75.

KONG F, LIU H, YU Z, et al. Identification of japoni‐ ca rice panicle blast in alpine region by UAV hyper‐ spectral remote sensing[J]. Transactions of the CSAE, 2020, 36(22):68-75.

[71] DENG X, ZHU Z, YANG J, et al. Detection of citrusHuanglongbing? based? on? multi-input? neural? network model? of UAV? hyperspectral? remote? sensing[J]. Re‐ mote Sensing, 2020, 12(17): ID 2678.

[72] ABDULRIDHA? J,? BATUMAN? O,? AMPATZIDIS? Y.UAV-based? remote? sensing? technique? to? detect? citrus canker disease utilizing hyperspectral imaging and ma‐ chine? learning[J]. Remote? Sensing, 2019, 11(11): ID1373.

[73] ABDULRIDHA J, AMPATZIDIS Y,? ROBERTS? P,? etal. Detecting powdery mildew disease in squash at dif‐ferent? stages using UAV-based hyperspectral? imaging and? artificial? intelligence[J]. Biosystems? Engineering, 2020, 197:135-148.

[74] BOHNENKAMP D, BEHMANN J, MAHLEIN A K.In-field detection of yellow rust in wheat on the ground canopy? and UAV? scale[J]. Remote? Sensing, 2019, 11(21): ID 2495.

[75] ABDULRIDHA J, AMPATZIDIS Y, KAKARLA S C,et al. Detection of target spot and bacterial spot diseas‐ es in tomato using UAV-based and benchtop-based hy‐perspectral? imaging? techniques[J]. Precision? Agricul‐ture, 2020, 21(5):955-978.

[76] ABDULRIDHA J, AMPATZIDIS Y,? QURESHI? J,? etal. Laboratory and UAV-based identification and classi‐fication of tomato yellow leaf curl, bacterial spot, andtarget? spot? diseases? in? tomato? utilizing? hyperspectralimaging? and? machine? learning[J]. Remote? Sensing,2020, 12(17): ID 2732.

[77]鄧小玲, 曾國亮, 朱梓豪, 等.基于無人機高光譜遙感的柑橘患病植株分類與特征波段提取[J].華南農業大學學報, 2020, 41(6):100-108.

DENG X, ZENG G, ZHU Z, et al. Classification andfeature band extraction of diseased citrus plants basedon? UAV? hyperspectral? remote? sensing[J]. Journal? ofSouth? China? Agricultural? University, 2020, 41(6):100-108.

[78] MACDONALD S L, STAID M, STAID M, et al. Re‐mote hyperspectral imaging of grapevine leafroll-asso‐ciated virus 3 in cabernet sauvignon vineyards[J]. Com ‐puters? and? Electronics? in? Agriculture, 2016, 130:109-117.

[79] GARCIA-RUIZ F, SANKARAN S, MAJA J M, et al.Comparison of two aerial imaging platforms for identi‐fication? of? Huanglongbing-infected? citrus? trees[J].Computers? and? Electronics? in Agriculture, 2013, 91:106-115.

[80] MCCANN C, REPASKY K S, LAWRENCE R, et al.Multi-temporal mesoscale hyperspectral data of mixedagricultural and grassland regions? for anomaly detec‐tion[J]. ISPRS Journal of Photogrammetry and RemoteSensing, 2017, 131:121-133.

[81] ZHANG X, HAN L, DONG Y, et al. A deep? learning-based? approach? for? automated? yellow? rust? diseasedetection from high-resolution hyperspectral UAV im‐ages[J]. Remote Sensing, 2019, 11(13): ID 1554.

[82] AN G, XING M, HE B, et al. Extraction? of areas? ofrice false smut infection using UAV hyperspectral da‐ta[J]. Remote Sensing, 2021, 13(16): ID 3185.

[83] XIAO Y, DONG Y, HUANG W, et al. Wheat fusariumhead? blight? detection? using? UAV-based? spectral? andtexture? features? in? optimal? window? size[J]. RemoteSensing, 2021, 13(13): ID 2437.

[84] FRANCESCONI S, HARFOUCHE A, MAESANO M,et al. UAV-based thermal, RGB imaging and gene ex‐pression? analysis? allowed? detection? of fusarium? headblight and gave new insights into the physiological re‐sponses to the disease in durum wheat[J]. Frontiers inPlant Science, 2021, 12: ID 551.

[85]陳欣欣, 劉子毅, 呂美巧, 等.基于熱紅外成像技術的油菜菌核病早期檢測研究[J].光譜學與光譜分析 ,2019, 39(3):730-737.

CHEN X, LIU Z, LYU M, et al. Diagnosis and moni‐toring of sclerotinia stem rot of oilseed rape using ther‐ mal? infrared? imaging[J]. Spectroscopy? and? Spectral Analysis, 2019, 39(3):730-737.

[86] LIN Q, HUANG H, WANG J, et al. Detection of pineshoot beetle (PSB) stress on pine forests at individual tree level using UAV-based hyperspectral imagery and lidar[J]. Remote Sensing, 2019, 11(21): ID 2540.

[87] BRIECHLE S, KRZYSTEK P, VOSSELMAN G. Clas‐sification of tree species and standing dead trees by fus‐ing UAV-based lidar data and multispectral imagery in the 3D deep neural network PointNet++[J]. ISPRS An‐nals of the Photogrammetry, Remote Sensing and Spa‐tial Information Sciences, 2020, 2:203-210.

[88] SAVIAN F, MARTINI M, ERMACORA P, et al. Pre‐diction? of the kiwifruit? decline? syndrome? in? diseased orchards by remote sensing[J]. Remote Sensing, 2020, 12(14): ID 2194.

[89] YU R, LUO Y, ZHOU Q, et al. A machine learning al‐gorithm? to? detect pine wilt? disease using UAV-based hyperspectral? imagery? and? LiDAR? data? at? the? tree level[J]. International Journal of Applied Earth Obser‐vation and Geoinformation, 2021, 101: ID 102363.

[90] SMIGAJ M, GAULTON R, SUAREZ J C, et al. Cano‐py temperature from an unmanned aerial vehicle as an indicator of tree stress associated with red band needle blight? severity[J]. Forest? Ecology? and? Management, 2019, 433:699-708.

[91] KERKECH? M,? HAFIANE A,? CANALS? R. VddNet:Vine disease detection network based on multispectral images? and? depth map[J]. Remote? Sensing, 2020, 12(20): ID 3305.

[92] KERKECH M, HAFIANE A, CANALS R. Vine dis‐ease detection in UAV multispectral images using opti‐mized image registration and deep learning segmenta‐tion? approach[J]. Computers? and Electronics? in Agri‐ culture, 2020, 174: ID 105446.

[93] MORIYA ? A S, IMAI N N, TOMMASELLI A M G,et al. Detection and mapping of trees infected with cit‐rus gummosis using UAV hyperspectral data[J]. Com ‐puters? and? Electronics? in Agriculture, 2021, 188: ID106298.

[94]趙曉陽, 張建, 張東彥, 等.低空遙感平臺下可見光與多光譜傳感器在水稻紋枯病病害評估中的效果對比研究[J].光譜學與光譜分析, 2019, 39(4):1192-1198.

ZHAO X, ZHANG J, ZHANG D,? et al. Comparison between? the? effects? of visible? light? and? multispectral sensor based on low-altitude remote? sensing platform in the evaluation of rice sheath blight[J]. Spectroscopy and Spectral Analysis, 2019, 39(4):1192-1198.

[95] DANG L, WANG H, LI Y, et al. Fusarium wilt of rad‐ish detection using RGB and near infrared images fromunmanned aerial vehicles[J]. Remote Sensing, 2020, 12(17): ID 2863.

[96] AWAIS M, LI W, CHEEMA M J M, et al. Remotelysensed? identification? of? canopy? characteristics? usingUAV-based imagery under unstable environmental con‐ditions[J]. Environmental? Technology & Innovation,2021, 22: ID 101465.

[97] FENG L, CHEN S, ZHANG C, et al. A comprehensivereview on recent applications of unmanned aerial vehi‐cle? remote? sensing? with? various? sensors? for? high-throughput plant phenotyping[J]. Computers and Elec‐tronics in Agriculture, 2021, 182: ID 106033.

[98] RUBIO-HERVAS J, GUPTA A, ONG Y S. Data-drivenrisk assessment and multicriteria optimization of UAVoperations[J]. Aerospace? Science? and? Technology,2018, 77:510-523.

[99] HUSSEIN M, NOUACER R, CORRADI F, et al. Keytechnologies? for? safe? and? autonomous? drones[J]. Mi‐croprocessors and Microsystems, 2021, 87: ID 104348.

[100]MUKHERJEE A, MISRA S, RAGHUWANSHI N S. Asurvey of unmanned aerial sensing solutions in preci‐sion agriculture[J]. Journal of Network and ComputerApplications, 2019, 148: ID 102461.

[101]黃文江, 師越, 董瑩瑩, 等.作物病蟲害遙感監測研究進展與展望[J].智慧農業, 2019, 1(4):1-11.

HUANG W, SHI Y, DONG Y, et al. Progress and pros‐pects of crop diseases and pests monitoring by remotesensing[J]. Smart Agriculture, 2019, 1(4):1-11.

[102] MIGNONI? M? E,? HONORATO A,? KUNST? R,? et? al.Soybean images dataset for caterpillar and Diabroticaspeciosa? pest? detection? and? classification[J]. Data? inBrief, 2021: ID 107756.

[103]OUHAMI M, HAFIANE A, ES-SAADY Y, et al. Com ‐puter vision, IoT and data fusion for crop disease detec‐tion using machine learning: A survey and ongoing re‐search[J]. Remote Sensing, 2021, 13(13): ID 2486.

[104] LI F, LIU Z, SHEN W, et al. A remote sensing and air‐borne edge-computing based detection system for pinewilt disease[J]. IEEE Access, 2021, 9:66346-66360.

[105]蘭玉彬, 鄧小玲, 曾國亮.無人機農業遙感在農作物病蟲草害診斷應用研究進展[J].智慧農業 , 2019, 1(2):1-19.

LAN Y, DENG X, ZENG G. Advances in diagnosis ofcrop diseases, pests and weeds by UAV remote sens‐ing[J]. Smart Agriculture, 2019, 1(2):1-19.

[106] ELNABTY I A, FAHMY Y, KAFAFY M. A survey onUAV placement optimization for UAV-assisted commu‐nication in 5G and beyond networks[J]. Physical Com ‐munication, 2021: ID 101564.

[107] MISHRA D, NATALIZIO E. A survey on cellular-con‐nected UAVs: Design challenges, enabling 5G/B5G in‐novations, and experimental advancements[J]. Comput‐er Networks, 2020, 182: ID 107451.

Methods and New Research Progress of Remote Sensing Monitoring of Crop Disease and Pest Stress UsingUnmanned Aerial Vehicle

YANG Guofeng1,2,3 , HE Yong1,2,3* , FENG Xuping1,2,3 , LI Xiyao1,2,3 , ZHANG Jinnuo1,2,3 , YU Zeyu1,2,3

(1. Huanan Industrial Technology Research Institute of Zhejiang University, Guangzhou 510700, China;

2. College of Biosystems Engineering and Food Science, Zhejiang University, Hangzhou 310058, China;

3. The Key Laboratory of Spectroscopy Sensing, Ministry of Agriculture and Rural Affairs, Hangzhou 310058, China )

Abstract: Diseases and pests are main stresses to crop production. It is necessary to accurately and quickly monitor and control the stresses dynamically, so as to ensure the food security and the quality and safety of agricultural products, protect the ecologi‐cal environment, and promote the sustainable development of agriculture. In recent years, with the rapid development of the un‐ manned aerial vehicle (UAV) industry, UAV agricultural remote sensing has played an important role in the application of crop diseases and pests monitoring due to its high image spatial resolution, strong data acquisition timeliness and low cost. The rele‐vant background of UAV remote sensing monitoring of crop disease and pest stress was introduced, then the current methods commonly used in remote sensing monitoring of crop disease and pest stress by UAV was summarized. The data acquisition method and data processing method of UAV remote sensing monitoring of crop disease and pest stress were mainly discussed. Then, from the six aspects of visible light imaging remote sensing, multispectral imaging remote sensing, hyperspectral imaging remote sensing, thermal infrared imaging remote sensing, LiDAR imaging remote sensing and multiple remote sensing fusion and comparison, the research progress of remote sensing monitoring of crop diseases and pests by UAV worldwide was re‐ viewed. Finally, the unresolved key technical problems and future development directions in the research and application of UAV remote sensing monitoring of crop disease and pest stress were proposed. Such as, the performance of the UAV flight plat‐ form needs to be optimized and upgraded, as well as the development of low-cost, lightweight, modular, and more adaptable air‐ borne sensors. Convenient and automated remote sensing monitoring tasks need to be designed and implemented, and more re‐ mote sensing monitoring information can be obtained. Data processing algorithms or software should be designed and devel‐oped with greater applicability and wider applicability, and data processing time should be shortened by using 5G-based commu‐nication networks and edge computing devices. The applicability of the algorithm or model for UAV remote sensing monitoring of crop disease and pest stress needs to be stronger, so as to build a corresponding method library. We hope that this paper can help Chinese UAV remote sensing monitoring of crop diseases and pests to achieve more standardization, informatization, preci‐sion and intelligence.

Key words: unmanned aerial vehicle; remote sensing monitoring; diseases and pests stress; data acquisition; data processing; deep learning; multiple remote sensing fusion

猜你喜歡
無人機數據處理深度學習
認知診斷缺失數據處理方法的比較:零替換、多重插補與極大似然估計法*
ILWT-EEMD數據處理的ELM滾動軸承故障診斷
MOOC與翻轉課堂融合的深度學習場域建構
大數據技術在反恐怖主義中的應用展望
深度學習算法應用于巖石圖像處理的可行性研究
高職院校新開設無人機專業的探討
基于深度卷積網絡的人臉年齡分析算法與實現
一種適用于輸電線路跨線牽引無人機的飛行方案設計
基于希爾伯特- 黃變換的去噪法在外測數據處理中的應用
基于POS AV610與PPP的車輛導航數據處理
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合