?

無人機飛行高度對植被覆蓋度和植被指數估算結果的影響

2022-03-11 03:03杜曉月鄭力源朱姜蓬岑海燕許麗佳
農業工程學報 2022年24期
關鍵詞:飛行高度植被指數覆蓋度

何 勇,杜曉月,鄭力源,朱姜蓬,岑海燕,許麗佳

·農業航空工程·

無人機飛行高度對植被覆蓋度和植被指數估算結果的影響

何 勇1,2,杜曉月1,2,鄭力源1,2,朱姜蓬1,2,岑海燕1,2,許麗佳3

(1. 浙江大學生物系統工程與食品科學學院,杭州 310058;2. 農業農村部光譜檢測重點實驗室,杭州 310058;3. 四川農業大學機電學院,四川 625014)

將無人機與多種成像傳感設備相結合可實現田間作物表型信息的全面獲取。針對田間復雜環境下無人機搭載多種成像傳感設備在不同飛行高度處提取的作物信息具有差異性的問題,該研究著重探究了無人機搭載2種成像傳感設備獲取圖像時,不同飛行高度對估算植被覆蓋度以及植被指數結果的影響。首先為防止外界環境變化對獲取圖像質量造成干擾,通過最近鄰插值算法將無人機飛行高度為25 m處獲取的2個多光譜和可見光圖像數據集分別退化為10個不同地面分辨率的模糊圖像數據集,模擬無人機在不同飛行高度下獲取的作物圖像。然后獲取50 m高度處的無人機圖像數據集,通過皮爾遜相關性分析驗證模擬數據集的有效性。最后采用隨機森林模型估算不同數據集中的植被覆蓋度,分類精度大于91%。結果發現,當植被覆蓋度小于1/2時,隨著地面分辨率的降低該指標不斷被低估,反之則被高估。飛行高度50 m的真實圖像與模擬圖像估算植被覆蓋度結果的相關系數為0.992 8,兩者具有強相關性,模擬圖像估算得到的植被覆蓋度變化具備參考意義。植被指數估算結果中,首先對無人機圖像數據集進行輻射校正、閾值分割等圖像預處理,然后根據公式計算得到植被指數,最后通過假設性檢驗對10個圖像數據集計算得出的植被指數進行分析。結果發現,可見光植被指數在飛行高度61 m時均具備顯著性差異(<0.05),在飛行高度42 m時沒有差異(>0.1),多光譜植被指數在10個高度下均沒有顯著性差異,因此為保證無人機獲取數據的準確性與完整性,當無人機搭載該研究的兩種相機獲取作物信息時建議飛行高度為42 m。研究結果可為研究者利用無人機搭載多傳感設備獲取作物信息設定合適的飛行高度、減小作業成本提供參考。

無人機;植被指數;植被覆蓋度;飛行策略

0 引 言

無人機(Unmanned Aerial Vehicle,UAV)作為中小型飛行平臺具有不需要專用機場、起降靈活、成本低等優點,與以時效性高、不損害目標物體等特點著稱的遙感技術相結合可實現復雜農田環境下高效、無損的采集作物表型信息[1],通過圖譜處理技術可監測作物表型特征如植被覆蓋度[2],作物高度[3-5],氮素[6-7],葉綠素[8],生物量[9-10]等,在農業領域具有廣泛的應用。目前可用于無人機的機載成像傳感設備大致可分為高光譜成像設備、多光譜成像設備、可見光成像設備3種,采集到的光譜信息和空間信息各有不同,總體來看可見光成像設備可獲取高分辨率的作物三維信息但只可以提供R、G、B三通道的光譜信息,高光譜成像設備在光譜維可以捕捉更多的信息但受限于成像方式應用較少,多光譜成像設備由于其體積與成像方式受到研究學者的青睞[11],但只可獲取部分空間信息和光譜信息。

因此為了滿足不同的農情信息獲取需求,研究學者采用多種成像傳感設備相結合的方式采集作物信息[1,11-12]。但隨著無人機搭載成像傳感設備的多樣性逐漸增加,不同傳感設備分辨率、視場角各不相同,無人機飛行參數設定成為難題?,F有的飛行參數設定大多依賴經驗法則,尤其是飛行高度設定一般都是在保證飛行安全、無障礙物、獲取圖像清晰、無人機風場不擾動作物的情況下人為設定,往往無法最大化的提高傳感設備利用效率,使得實驗成本增加,耗費人力物力。因此研究不同飛行高度變化對獲取作物信息準確性的影響對優化飛行策略、提高飛行效率、降低作業成本具有重要意義。

由于植被覆蓋度(Fractional Vegetation Cover,FVC)是作物非常重要的生理指標,它作為一個定量化描述作物生長發育動態差異的表型參數[8,12],與冠層理化參數如葉面積指數[13]等具有非常密切的關系,還可用來評估作物的生理生化指標,如作物氮素[14]、早期活力[15]和衰老狀態[16]等。同時植被指數(Vegetation Indices,VIs)可用來反演葉綠素含量[8,17]、干物質含量[18]、植被覆蓋度[19]、產量[20]等,對生成處方圖、指導農田增產施肥噴藥至關重要。

因此本研究采用植被覆蓋度和植被指數作為探究無人機飛行高度設定的參考,主要工作為針對無人機飛行高度設定往往難以兼顧搭載的多種成像傳感設備性能各有不同的難題,以搭載兩種不同的成像傳感設備為例,研究了無人機不同飛行高度變化對估算作物植被覆蓋度和植被指數結果的影響,根據信息不變性最終確定無人機最優飛行高度,實現高效、無損獲取作物信息的同時提高飛行效率。

1 材料和方法

1.1 試驗田和圖像獲取

本研究中使用多旋翼UAV[1]搭載2種傳感設備(多光譜傳感設備和可見光傳感設備)在浙江大學西區油菜試驗田進行試驗(如圖1所示),試驗田內部小區為規則化分布,長2 m,寬1.2 m,油菜生長時期為抽薹早期。采用的UAV機身高約0.35 m,機翼圓周直徑約為1.1 m,為延長續航時間使用16 000 mAh的鋰電池提供動力,最長可飛行25 min,最高載質量8 kg傳感設備。UAV搭載的多光譜(Multispectral,MS)成像傳感設備為XIMEA的MQ022MG-CM工業相機(XIMEA,Munster,Germany),可采集400~1 000 nm范圍內不連續的25個波段光譜信息(波長分別為603、611、624、632、641、649、657、666、674、679、693、718、732、745、758、771、784、796、808、827、838、848、859、868和870 nm),感光元件尺寸為11.3 mm×6.0 mm,相機鏡頭采用Edmund 16 mm定焦鏡頭(Edmund,Barrington,USA),可獲取分辨率為409像素×216像素的圖像,相機質量約123 g,同時該平臺搭載了索尼NEX-7 (Sony,Tokyo,Japan)作為可見光(Red-Green-Blue,RGB)成像傳感設備采集高分辨率圖像,感光元件尺寸為23.5 mm×15.6 mm圖像分辨率為6 000像素×4 000像素,鏡頭為索尼SEL16F28(Sony,Tokyo,Japan),相機質量約285 g。

圖1 試驗地點和場地分布圖

多旋翼無人機分別搭載多光譜相機和可見光相機以定點采集的方式在25和50 m處采集油菜圖像,重疊度設定為航向75%、旁向60%。采集當天無云無風,手動設置兩個傳感設備的曝光時間等參數??偣搏@取飛行高度25 m時高精度多光譜(MS)和可見光(RGB)圖像各162張,飛行高度50 m時獲取MS和RGB圖像各88張。同一飛行架次的MS圖像經過輻射一致性校正后利用Agisoft Photoscan軟件通過特征點匹配、對齊圖像、生成網格、建立正射影圖等步驟進行圖像拼接得到正射影像圖,25 m高度處的正射影圖如圖2a所示。RGB圖像直接通過Agisoft Photoscan進行圖像拼接獲取正射影圖,25 m高度處的正射影圖如圖2b所示。利用Matlab可視化分別將多光譜和可見光正射影圖根據種植小區的物理坐標分布進行批量裁剪,通過圖像像素坐標與種植小區的感興趣區域(Region Of Interest,ROI)一一對應,最終獲得兩種真實高度下RGB和多光譜影像各315個樣本。

圖2 無人機正射影像圖

1.2 無人機圖像處理

地面分辨率大小在無人機圖像處理中至關重要,他定義了單位像素所描述的實際目標長度[21],數值越大說明地面分辨率越低,根據式(1)可知地面分辨率與飛行高度密切相關,計算式如下:

GR×FH/FL(1)

式中GR表示圖像的地面分辨率,表示相機傳感器的單像素尺寸,FH表示飛行高度,FL表示傳感器鏡頭焦距。當無人機飛行高度增加時,相機傳感器的單像素尺寸保持不變,傳感器鏡頭焦距保持不變,則單位像素中描述的實際目標長度變長,涵蓋的地物信息增多,使得圖像的混合像元效應加劇。因此地面分辨率越高意味著可以獲取更為細致的作物信息。

由式(1)可知,飛行高度與地面分辨率成線性關系(圖 3),因此為了控制單一變量僅探究飛行高度對植被覆蓋度和植被指數估算結果的影響,避免受外界環境和相機配置(如光照條件、曝光時間等)對獲取圖像質量造成干擾,采用最近鄰插值法將獲取的高分辨率多光譜圖像和可見光圖像(即飛行高度25 m)依次退化成為不同梯度的低地面分辨率的模糊圖像,以模擬無人機在不同飛行高度處獲取的圖像。該方法中新插值像素點的值的確定方式是先將新插值點映射至初始圖像中(圖4),假設坐標是(x,y),然后計算該點和周圍相鄰4個像素點(0,0)、(1,1)、(2,2)、(3,3)的距離,距離數值最小的相鄰像素點的值即為該點的值。

圖3 多光譜相機和RGB相機不同飛行高度與地面分辨率關系圖

注:x代表橫坐標,y代表縱坐標,0為原點;A,B,C,D分別代表需要求得點L的相鄰像素點,坐標值采用(xm, ym)(m=0,1,2,3)形式表示。xn代表求得像素點L的橫坐標,yn代表所求像素點L的縱坐標。

根據式(1)設定FH=25 m,則計算得出多光譜相機的GR=43 mm/pixel,再將每個小區圖像通過最近鄰插值法降級為不同地面分辨率(從43~430 mm/pixel不均等的10個水平,第一水平為真實獲取的圖像即參考圖像)的圖像。25 m高度時可見光相機的地面分辨率為6 mm/pixel,運用同樣方法降級為地面分辨率6~60 mm/pixel不等的10個水平的粗略圖像。

1.3 隨機森林估算植被覆蓋度

由于隨機森林[22]的像素分類模型無需大量的訓練樣本和動態設置閾值、在復雜光照條件(陰影和強光)下也能較好地對植被進行分割[23],因此本研究采用該算法來估算油菜的植被覆蓋度(Fractional Vegetation Cover,FVC)。根據前人研究[8,13]利用高清可見光圖像可計算真實的FVC,RGB圖像較MS圖像具備更高的空間分辨率,25 m高度時地面分辨率為6 mm/pixel,可作為真實FVC。對獲取的全部可見光圖像進行分類處理并計算植被覆蓋度,暫不討論多光譜圖像對其的計算結果。將兩種不同高度的可見光正射影圖通過Matlab圖像裁剪算法以不同種植小區為最小單位分別裁剪得到不同高度各315個樣本圖像,由于小區均勻分布當飛行高度25 m時獲得每個樣本大小為480像素×160像素,飛行高度50 m時樣本大小240像素×80像素。隨機森林分類模型的主要步驟包括構建訓練集、利用所構建的訓練集進行訓練生成分類模型、再對所有圖像像素進行分類。在不同地面分辨率的油菜小區圖像中分別建立分類模型,按照2∶1的比例隨機分為訓練集和測試集,在訓練圖像上選擇植被和背景類別的興趣區域,植被的興趣區域包含陰影葉和強光照射葉等植被,背景的興趣區域包括土壤和農田設施等非植被場景。每個興趣區域只能屬于植被或者背景類別之一,并進行類別標記(植被標簽為1,背景標簽為0)。利用每個訓練集數據的6個顏色特征(,,,,,)生成決策樹,應用構造的樹模型將像素分類為植被或背景類。然后去除背景,以植被像素除以圖像像素得到最終每個小區的FVC。

1.4 部分植被指數計算

由于油菜對不同波長光的響應不同,通常表現為在綠光、近紅外波段具有較強的反射效果,在藍光、紅光波段具有吸收效果,因此結合油菜不同波段的反射、吸收特性,研究者提出不同的植被指數用于增強植被信息、降低背景干擾,達到更好的對作物進行后續研究的目的[24-27]。具體實現方式是首先對獲取的無人機圖像數據集通過地面反射率校正板進行輻射一致性校正(式(2)),然后通過閾值分割去除背景得到不同光譜波段的作物光譜反射率曲線,通過不同光譜波段反射率進行組合運算最終得到作物的植被指數。

n=DNn×0×DN0-1(2)

式中DN0為地面反射率校正板的平均圖像灰度值,0為已知的地面反射率校正板的光譜反射率,并且地面反射率校正板光譜反射率均一,DNn為光譜圖像的各個像素的DN,n為求得的光譜圖像的各個像素的反射率。目前遙感領域中常用的植被指數根據使用波段的不同大致可分為近紅外植被指數和可見光植被指數,應用較為廣泛的近紅外波段范圍的有歸一化植被指數[28]、比值植被指數[29]和比值短波紅外指數[30]等。運用可見光波段計算的主要有過綠指數[31]、歸一化綠紅差異指數[32]、差異植被指數[33]、可見大氣阻力指數[34]及紅綠比值指數[35]等。本研究基于可見光相機對比了歸一化綠紅差異指數、差異植被指數和過綠指數,基于多光譜相機對比了歸一化植被指數和比值植被指數,分別分析了在不同地面分辨率下圖像對其的影響。植被指數計算如表1所示。

表1 基于多光譜和可見光相機的植被指數

注:=/(++),=/(++),=B/(++),、、分別為紅、綠、藍通道的灰度值;R代表600~1 000 nm波段范圍內的光譜反射率值。

Note:=/(++),=/(++),=/(++),,andare the DNs of Red, Blue and Green channels, respectively.Rrepresents the reflectance of a variable band in the spectral region of 600-1000 nm.

2 結果評價與飛行策略

本研究采用決定系數(2)和均方根誤差(Root Mean Square Error,RMSE)兩個常規指標作為估算結果的評價指標,針對不同地面分辨率圖像計算得到的植被指數采用假設性檢驗方式判別是否具有顯著性差異。將參考圖像分別與9個水平圖像進行假設性檢驗,假設2個樣本為獨立的隨機樣本并遵循正態分布,給定置信區間(1-)為0.95,顯著性水平()為0.05,計算得到值?!?.001為有極顯著差異,0.001≤≤0.01為顯著差異,0.01≤≤0.05為有差異,0.05<為沒有差異。

當出現FHm-1高度的假設性檢驗結果>0.05且FHm高度的假設性檢驗結果≤0.05時說明該高度(FHm)及以上高度獲取的作物信息與真實獲得作物信息具有統計學差異,因此無人機在搭載該設備進行圖像獲取時應該低于FHm飛行。為了提高飛行效率降低飛行成本并獲取正確的光譜圖像,最優的飛行高度應設定為FHm-1。值得注意的是為了得到更為精確的飛行高度可以進行更為精細的圖像退化處理研究。

3 結果與分析

3.1 模擬圖像估算植被覆蓋度變化

將無人機獲取的高精度(飛行高度25 m)可見光圖像通過最近鄰插值法依次得到9個水平的低地面分辨率圖像,由于不同高度獲取圖像特征不同,為每一個高度的可見光數據集分別建立RF分類模型,并按照2∶1隨機分為訓練集和測試集,測試集數據用來評估模型的分類準確性,在本研究中總體平均準確性>91%。不同地面分辨率圖像植被分割效果如圖5所示,可以看出,FVC準確度與地面分辨率高低息息相關,參照圖像上的植被部分能夠被準確地分割,隨著地面分辨率的降低,植被區域的細節逐漸模糊和丟失。將低地面分辨率圖像與參考圖像估算得到的FVC作線性回歸,如圖6所示,發現隨著地面分辨率降低,2不斷減小,RMSE呈上升趨勢,即隨著飛行高度的增加對FVC計算產生的影響越大。

注:單位: mm·pixel-1。

圖6 不同低地面分辨率圖像與參考圖像的植被覆蓋度關系

選取植被覆蓋度大于0.5的所有田塊做統計分析,發現隨著地面分辨率降低,FVC呈上升趨勢并趨近于1,而對于植被覆蓋度小于0.5的所有田塊發現隨著地面分辨率降低FVC呈下降趨勢并趨近于0,分別抽取了FVC>0.5和<0.5的3個樣本小區(如圖7)展示了各小區的植被覆蓋度隨地面分辨率的變化趨勢。由于沒有FVC=0.5的樣本小區,特別選取了FVC最接近于0.5(FVC=0.497)的樣本小區,如圖7b 中樣本編號3所示。Hu等[36]同樣驗證了此結論。綜上,隨著飛行高度的增加,估算植被覆蓋度的結果呈現規律性變化,當FVC大于0.5時估算FVC逐漸增大,當FVC小于0.5時估算FVC逐漸減小。

3.2 真實圖像估算植被覆蓋度變化

為了驗證利用最近鄰插值算法得出的不同高度圖像與真實飛行高度得到的圖像的差異性。采用飛行高度50 m(GR為12 mm/pixel)的真實圖像作相同處理,即首先將該高度下的正射影圖像首先通過Matlab根據樣本進行剪裁,然后運用隨機森林分類算法分割植被與背景,計算得到該高度下的不同樣本的植被覆蓋度,最后與模擬該高度圖像的植被覆蓋作皮爾遜相關性分析,結果顯示相關系數為0.992 8,具有強相關性,說明模擬圖像估算得到的植被覆蓋度具備參考意義。

由于外界擾動作用,飛行高度50 m(GR為12 mm/pixel)時獲取的原始圖像和25 m(GR為6 mm/pixel)時獲取的圖像存在時間、光照、作物形態的差異,使得參考圖像與模擬圖像對植被覆蓋度估算產生不同。但研究發現不同地面分辨率圖像估算植被覆蓋度變化的規律不變,對于真實獲取的2種不同地面分辨率圖像估算FVC的結果如表2所示。當FVC>0.5的樣本在飛行高度50 m處得到的植被覆蓋度估算結果中中位數和標準偏差均比25 m處的更高,即估算的植被覆蓋度數據較25 m處整體偏高且數據更離散。當FVC<0.5的樣本在飛行高度50 m處得到的植被覆蓋度各項指標均比25 m處得到的更低,這與模擬圖像估算植被覆蓋度結果的規律相同,驗證了模擬圖像估算FVC的可靠性。

圖7 不同樣本小區估算植被覆蓋度隨地面分辨率的變化

表2 不同地面分辨率圖像的植被覆蓋度估算結果

3.3 植被指數變化

3.3.1 可見光圖像

將可見光傳感設備(NEX-7)在飛行高度25 m時拍攝的圖像根據最近鄰插值法退化成10個不同水平地面分辨率(6.0、6.7、7.5、8.6、10.0、12.0、15.0、20.0、30.0和60.0 mm/pixel)圖像。研究發現隨著地面分辨率降低,圖像灰度值(Digital Number,DN)呈下降趨勢(圖8),且在大于30 mm/pixel地面分辨率時會出現一個平緩現象。將計算得到的歸一化綠紅差值指數NGRDI、可見光波段差異植被指數VDVI、過綠指數EXG分別作假設性檢驗,結果如圖9所示。

圖8 DN值隨地面分辨率的變化

圖9 不同地面分辨率RGB圖像獲取的植被指數假設性檢驗結果

當地面分辨率為10 mm/pixel時(即飛行高度約42 m)3種植被指數的值均大于0.05((NGRDI)=0.41,(VDVI)=0.24,(EXG)=0.12),即該飛行高度可見光相機獲取的作物信息與25 m飛行高度相比沒有差異。當地面分辨率為12 mm/pixel時(即飛行高度約50 m)(NGRDI)=0.09,(VDVI)=0.03,(EXG)=0.02,說明部分植被指數計算結果有差異(VDVI和EXG)。當地面分辨率為15 mm/pixel時(即飛行高度約61 m)3種植被指數的值均小于0.01((NGRDI)=0.008,(VDVI)=0.003,(EXG)=0.002),且后3個水平趨近于0,說明當飛行高度大于等于61 m時該可見光相機獲取的作物信息與25 m飛行高度相比具有顯著性差異。因此,當無人機搭載該可見光相機進行試驗時,為準確的獲取3種植被指數,建議飛行高度不高于61m,最佳飛行高度為42 m左右。若只需要獲取準確的NGRDI,則建議飛行高度為50 m左右。

3.3.2 多光譜圖像

無人機搭載的多光譜相機獲取的圖像波段范圍為600~875 nm,將飛行高度25 m時的多光譜圖像根據最近鄰插值法退化成10個不同水平地面分辨率(43、48、55、62、72、86、107、145、215和430 mm/pixel)圖像,根據光譜反射率計算式(2)計算得出整個小區的光譜反射率,取平均得到該小區的平均反射率光譜曲線,將不同地面分辨率水平下的得到的平均反射率光譜與參考圖像下的平均反射率光譜作一元線性回歸,結果發現決定系數以及均方根誤差受高度影響幾乎可以忽略不計(表 3)。這可能是由于多光譜相機的分辨率較可見光相機低很多,在飛行高度25 m時獲取的多光譜圖像可能已經出現了一定程度的作物和背景信息融合的現象,又由于實驗對象為大尺度的小區冠層的平均反射率光譜,所以在飛行高度的逐步增加的前期階段變化并不明顯,但是當飛行高度大于一定高度時(即地面分辨率為430 mm/pixel),由于圖像退化程度過高,圖像混元現象嚴重,會使得獲取的作物光譜信息發生明顯變化(圖10)。

表3 不同地面分辨率下的平均反射率光譜的線性擬合結果

圖10 單小區不同地面分辨率平均反射率光譜

將不同地面分辨率圖像根據公式分別計算歸一化植被指數NDVI和比值短波紅外指數RSI,并將低地面分辨率圖像與參考圖像獲取的兩種指數分別作假設性檢驗,結果如圖11所示,研究發現在本研究選擇的10個水平中值均大于0.5,即2個樣本不具備顯著性差異。由此可知,飛行高度在25 m及以上9個飛行高度時該多光譜相機獲取的平均反射率光譜與植被指數差異不大。因此在無人機飛行高度的選擇上可以根據搭載的可見光相機來確定最終參數,盡可能的提高作業效率降低作業成本。在前9個水平多光譜相機獲取的植被指數無明顯差異的原因可能是由于多光譜相機與可見光相機相比空間分辨率較低,且使用無人機搭載該相機需要減少風場對作物的擾動作用,需要保持一定的飛行高度而不能完全貼近作物,而25 m的飛行高度可能在一定程度上已超出多光譜相機獲取最精準信息的臨界值,有待后續研究驗證。

圖11 不同地面分辨率多光譜圖像獲取的植被指數假設性檢驗結果

3.4 飛行策略

基于本研究中無人機搭載的多光譜和可見光相機獲取的作物圖像,通過對作物表型參數中的重要指標植被覆蓋度和植被指數進行計算分析,結果發現植被覆蓋度估算結果會隨著飛行高度的增加會呈現趨勢性變化,當植被覆蓋度小于0.5時隨著飛行高度增加會不斷被低估,反之被高估。這是由于植被覆蓋度的估算精準度直接受到圖像地面分辨率的影響,無人機飛行高度越高,圖像地面分辨率越低,估算結果誤差越大。同時結果發現由光譜反射率計算得出的植被指數在一定飛行高度內不會產生顯著性差異,除非當飛行高度過高、圖像混元效應過于嚴重時才會出現顯著變化。因此,當無人機作業時,若提高飛行高度必將損失一定的植被覆蓋度估算精度,但可以保證一定程度的光譜信息的準確性,綜合考慮獲取的作物光譜、空間信息以及無人機作業效率和成本,研究者可以根據實驗目的選擇合適的飛行高度。本研究中搭載的兩款機載設備的試驗結果表明多光譜相機信息獲取的最優高度不可高于120 m,即地面分辨率為215 mm/pixel時,可見光相機信息獲取的最優高度為42 m,即地面分辨率為10 mm/pixel時。綜上,在42 m的高度下可以更好的發揮多光譜相機和可見光相機的數據采集優勢。

4 總結與展望

無人機遙感平臺通常用于在大田條件下的作物生長動態監控,同時也為作物隨生長季節產生的發育狀態提供一個實時的監測方法。利用無人機遙感平臺搭載多種傳感器獲取高分辨率田間作物圖像并結合數字圖像處理技術提取作物表型信息和表型數據分析方法,能夠為田間作物無損監測與表型評估提供有效的解決方案。進一步的,無人機作業平臺通過搭載不同的傳感器來實現田間作物全面生長信息監測,一般飛行高度為10~100 m不等。根據選擇不同的傳感設備類型獲取的地面分辨率1~100 mm/pixel不等,同一傳感設備獲取更高的地面分辨率的圖像則需要更低的飛行高度,更大的作業量和更高的作業成本。若同時搭載不同的傳感器,無人機飛行參數設置則需加入設備參數各有不同如何協同合作的考量。因此為平衡無人機飛行成本和獲取高地面分辨率圖像的同時充分發揮各傳感設備獲取作物信息的能力、優化飛行參數(高度)具有必要性和重要意義。

在本研究中,通過無人機平臺搭載不同的傳感器(多光譜相機,索尼NEX-7相機)獲取兩種飛行高度的油菜冠層圖像,分別為25 和50 m。利用可見光相機捕獲高分辨率圖像。再將在25 m處獲得的圖像作為參照圖像,依次將該圖像退化成-系列具有不同地面分辨率大小水平的圖像,以模擬基于UAV的平臺在不同飛行高度處采集的圖像。利用基于隨機森林算法對多類無人機遙感圖像進行分類,計算各圖像的植被覆蓋度。將可見光相機在25 m處捕獲的高分辨率圖像的植被覆蓋度作為參照植被覆蓋度,以評估無人機不同飛行高度對植被覆蓋度計算精度的影響。結果發現植被覆蓋度會隨著地面分辨率的變化而變化,且當參照植被覆蓋度高于0.5時,隨著飛行高度的增加FVC逐漸偏向于1,易被高估;當植被覆蓋度低于0.5時,隨著飛行高度的增加植被覆蓋度FVC逐漸偏向于0,易被低估。并將飛行高度50 m的真實圖像與模擬圖像得到的植被覆蓋度作皮爾遜相關性分析,相關系數為0.992 8,驗證了模擬圖像與真實圖像具有一致性。同時針對可見光相機分析了不同地面分辨率對于NGRDI、VDVI和EXG的影響,結果表明當飛行高度不低于61 m時可見光植被指數發生顯著性差異(<0.05),飛行高度42 m時沒有顯著性差異(>0.1)。針對多光譜植被指數分析了不同地面分辨率對于NDVI、RSI的影響,發現兩類指數在飛行高度42 和61 m時均沒有顯著性差異,因此當無人機搭載該兩種型號的成像設備高效全面的獲取作物農情信息時為保證信息的準確性可設定飛行高度為42 m。

綜上本研究無人機飛行高度參數設定在不要求極高植被覆蓋度的情況下可以根據可見光相機在植被指數中的表現選擇。本研究僅針對少類作物表型參數指標探究其與不同地面分辨率的變化關系,具有一定局限性。后期可以利用基于無人機近感的田間作物表型平臺在不同飛行高度上獲取實拍圖像,進一步探索飛行高度對作物表型參數的影響,為設置最優飛行高度提供參考。

[1] Wan L, Cen H, Zhu J, et al. Grain yield prediction of rice using multi-temporal UAV-based RGB and multispectral images and model transfer: A case study of small farmlands in the South of China[J]. Agriculture and Forest Meteorology, 2020, 291: 1-15.

[2] Ahmed O S, Shemrock A, Chabot D, et al. Hierarchical land cover and vegetation classification using multispectral data acquired from an unmanned aerial vehicle[J]. International Journal of Remote Sensing, 2017, 38(8/9/10): 2037-2052.

[3] Iersel W V, Straatsma M, Addink E, et al. Monitoring height and greenness of non-woody floodplain vegetation with UAV time series[J]. Remote Sensing, 2018, 141: 112-123.

[4] Hu P, Chapman S C, Wang X, et al. Estimation of plant height using a high throughput phenotyping platform based on unmanned aerial vehicle and self-calibration: Example for sorghum breeding[J]. European Journal of Agronomy, 2018, 95: 24-32.

[5] 宋磊,李嶸,焦義濤,等. 基于ResNeXt單目深度估計的幼苗植株高度測量方法[J]. 農業工程學報,2022,38(3):155-163.

Song Lei, Li Rong, Jiao Yitao, et al. Method for measuring seedling height based on ResNeXt monocular depth estimation[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2022, 38(3): 155-163. (in Chinese with English abstract)

[6] Wang Z, Skidmore A K, Darvishzadeh R, et al. Mapping forest canopy nitrogen content by inversion of coupled leaf-canopy radiative transfer models from airborne hyperspectral imagery[J]. Agricultural and Forest Meteorology, 2018, 253: 247-260.

[7] 王玉娜,李粉玲,王偉東,等. 基于無人機高光譜的冬小麥氮素營養監測[J]. 農業工程學報,2020,36(22):31-39.

Wang Yuna, Li Fenling, Wang Weidong, et al. Monitoring of winter wheat nitrogen nutrition based on UAV hyperspectral images[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2020, 36(22): 31-39. (in Chinese with English abstract)

[8] Jay S, Baret F, Dutartre D, et al. Exploiting the centimeter resolution of UAV multispectral imagery to improve remote-sensing estimates of canopy structure and biochemistry in sugar beet crops[J]. Remote Sensing of Environment, 2019, 231: 1-17.

[9] Cen H, Wan L, Zhu J, et al. Dynamic monitoring of biomass of rice under different nitrogen treatments using a lightweight UAV with dual image-frame snapshot cameras[J]. Plant Methods, 2019, 15: 1-16.

[10] 劉建剛,趙春江,楊貴軍,等. 無人機遙感解析田間作物表型信息研究進展[J]. 農業工程學報,2016,32(24):98-106.

Liu Jiangang, Zhao Chunjiang, Yang Guijun, et al. Review of field-based phenotyping by unmanned aerial vehicle remote sensing platform[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2016, 32(24): 98-106. (in Chinese with English abstract)

[11] Wan L, Li Y, Cen H, et al. Combining UAV-based vegetation indices and image classification to estimate flower number in oilseed rape[J]. Remote Sensing, 2018, 10: 1-18.

[12] Kefauver S C, Vicente R, Vergara-Díaz O, et al. Comparative UAV and field phenotyping to assess yield and nitrogen use efficiency in hybrid and conventional barley[J]. Frontiers in Plant Science, 2017, 8: 1-15.

[13] Jin X, Liu S, Baret F, et al. Estimates of plant density of wheat crops at emergence from very low altitude UAV imagery[J]. Remote Sensing of Environment, 2017, 198: 105-114.

[14] Hunt E R, Horneck D A, Spinelli C B, et al. Monitoring nitrogen status of potatoes using small unmanned aerial vehicles[J]. Precision Agriculture, 2018, 19: 314-333.

[15] Kipp S, Mistele B, Baresel P, et al. High-throughput phenotyping early plant vigour of winter wheat[J]. European Journal of Agronomy, 2014, 52(B): 271-278.

[16] Walter A, Liebisch F, Hund A. Plant phenotyping: from bean weighing to image analysis[J]. Plant Methods, 2015, 11: 1-11.

[17] Xie M, Wang Z, Huete A, et al. Estimating peanut leaf chlorophyll content with dorsiventral leaf adjusted indices: Minimizing the impact of spectral differences between adaxial and abaxial leaf surfaces[J]. Remote Sensing, 2019, 11: 1-15

[18] Yi Q, Wang F, Bao A, et al. Leaf and canopy water content estimation in cotton using hyperspectral indices and radiative transfer models[J]. International Journal of Applied Earth Observation and Geoinformation, 2014, 33: 67-75.

[19] Lin G A, Xwa B, Baj C, et al. Remote sensing algorithms for estimation of fractional vegetation cover using pure vegetation index values: A review[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2020, 159: 364-377.

[20] Zhou X, Zheng H B, Xu X Q, et al. Predicting grain yield in rice using multi-temporal vegetation indices from UAV-based multispectral and digital imagery[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2017, 130: 246-255.

[21] Yao H, Qin R, Chen X. Unmanned aerial vehicle for remote sensing applications-a review[J]. Remote Sensing, 2019, 11:1-22.

[22] Mariana B, Lucian D. Random forest in remote sensing: A review of applications and future directions[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2016, 114: 24-31.

[23] Wei G, Zheng B, Tao D, et al. EasyPCC: Benchmark datasets and tools for high-throughput measurement of the plant canopy coverage ratio under field conditions[J]. Sensors, 2017, 17(4): 1-13.

[24] Inoue Y, Guerif M, Baret F, et al. Simple and robust methods for remote sensing of canopy chlorophyll content: A comparative analysis of hyperspectral data for different types of vegetation[J]. Plant Cell and Environment, 2016, 39(12): 2609-2623.

[25] Huang S, Tang L, Hupy J P, et al. A commentary review on the use of normalized difference vegetation index (NDVI) in the era of popular remote sensing[J]. Journal of Forestry Research, 2021, 32: 1-6.

[26] 劉峻明,周舟,和曉彤,等. 頻率直方圖與植被指數結合的冬小麥遙感產量估測[J]. 農業工程學報,2021,37(23):145-152.

Liu Junming, Zhou Zhou, He Xiaotong, et al. Estimating winter wheat yield under frequency histogram and vegetation index using remote sensing[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2021, 37(23): 145-152. (in Chinese with English abstract)

[27] 于豐華,邢思敏,郭忠輝,等. 基于特征轉移植被指數的水稻葉片氮素含量定量估算[J]. 農業工程學報,2022,38(2):175-182.

Yu Fenghua, Xing Simin, Guo Zhonghui, et al. Remote sensing inversion of the nitrogen content in rice leaves using character transfer vegetation index[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2022, 38(2): 175-182. (in Chinese with English abstract)

[28] Rebetzke G J, Jimenez-Berni J A, Bovill W D, et al. High-throughput phenotyping technologies allow accurate selection of stay-green[J]. Journal of Experimental Botany, 2016, 67(17): 4919-4924.

[29] Gitelson A A. Wide dynamic range vegetation index for remote quantification of biophysical characteristics of vegetation[J]. Journal of Plant Physiology, 2004, 161(2): 165-173.

[30] Das B, Sahoo R N, Pargal S, et al. Quantitative monitoring of sucrose, reducing sugar and total sugar dynamics for phenotyping of water-deficit stress tolerance in rice through spectroscopy and chemometrics[J]. Spectrochimica Acta Part A Molecular and Biomolecular Spectroscopy, 2018, 192: 41-51.

[31] Varela S, Pederson T, Bernacchi C J, et al. Understanding growth dynamics and yield prediction of sorghum using high temporal resolution uav imagery time series and machine learning [J]. Remote Sensing, 2021, 13:1- 17.

[32] Zhang J, Qiu X, Wu Y, et al. Combining texture, color, and vegetation indices from fixed-wing UAS imagery to estimate wheat growth parameters using multivariate regression methods[J]. Computers and Electronics in Agriculture, 2021, 185: 106-138.

[33] Louhaichi M, Borman M M, Johnson D E. Spatially located platform and aerial photography for documentation of grazing impacts on wheat[J]. Geocarto International, 2001, 16: 65-70.

[34] Gitelson A A, Kaufman Y J, Stark R, et al. Novel algorithms for remote estimation of vegetation fraction[J]. Remote Sensing of Environment, 2002, 80: 76-87.

[35] Zhang L, Niu Y, Zhang H, et al. Maize canopy temperature extracted from UAV thermal and RGB imagery and its application in water stress monitoring[J]. Frontiers in Plant Science, 2019, 10: 1-18.

[36] Hu P C, Guo W, Scott C, et al. Pixel size of aerial imagery constrains the applications of unmanned aerial vehicle in crop breeding[J]. Journal of Photogrammetry and Remote Sensing, 2019, 154: 1-9.

Effects of UAV flight height on estimated fractional vegetation cover and vegetation index

He Yong1,2, Du Xiaoyue1,2, Zheng Liyuan1,2, Zhu Jiangpeng1,2, Cen Haiyan1,2, Xu Lijia3

(1.,,310058,; 2.,,310058,; 3.,,625014,)

Accurate acquisition of crop information is very important for the real-time monitoring of crop growth status in crop breeding and agricultural precision management. The ever-increasing remote sensing (RS) and Unmanned Aerial vehicles (UAV) have been widely used to collect the big phenotypic data (especially image data) of various plants in a large area. Specific sensing devices are often used to obtain accurate and comprehensive information on crop growth. However, the diversity of sensing devices can bring a great challenge to the cooperation between them on UAV. It is very urgent to establish UAV flight parameters suitable for the complex field environment. In this study, an effective approach was developed to explore the effects of UAV flight height on the estimated fractional vegetation cover (FVC) and vegetation index (VI). The UAV can ultimately be utilized to collect the phenotypic data within the effective range under the multi-sensor combinations based on suitable flight height. The multispectral and high-resolution RGB cameras were simultaneously mounted on the UAV to acquire the images at a speed of 2.5 m/s. Among them, the heading and the side overlaps were set as 75% and 60%, respectively, particularly for the possibility of successful image stitching. The initial flight heights were set as 25 and 50 m, in order to exclude the wind field generated by the high-speed rotation of the UAV's paddles from disturbing the crop. The high ground resolution (GR) images were collected by the UAV at the low flight height. These images were then degraded by image processing into a series of images with different GR. The simulation was finally carried out to predict the crop images obtained by the UAV at different flight heights. As such, the impact of environmental changes on image quality was reduced, such as the light intensity. The FVC of every sample plot was estimated using Random Forest (RF). The results show that the vegetation classification accuracy was greater than 91%. The regular FVC changes were found in the different GR, due to the image blending phenomenon. Once the FVC was less than half, the indicator was constantly underestimated with the decrease of the GR. Otherwise, the indicator was overestimated. Pearson correlation analysis was also performed on the real and simulated images at a flight height of 50 m, in order to verify the feasibility of simulated images for FVC estimation. The results show that the Pearson correlation coefficient was 0.992 8 between the real and simulated images at a flight height of 50 m, indicating a high correlation. Moreover, a similar regular variation was also found in the FVC that was estimated by the real images. Five VIs (the combination of spectral reflectance) were calculated to enhance vegetation information and weaken non-vegetation one. The hypothesis testing was used to verify whether the vegetation indices had significant differences. The results show that significant differences (<0.05) occurred in the RGB VIs at a ground resolution of 15 mm/pixel (i.e., the flight height of 61 m), whereas no difference (>0.1) was found at 10 mm/pixel (i.e., flight height of 42 m). Meanwhile, the multispectral VIs were not significantly different at both ground resolutions (>0.5). Fortunately, the flight height range within 42 m presented less impact on the acquisition of RGB spectral information. Consequently, a flight height of less than 42 m can be the optimal parameter to collect the crop information using the two devices at the same time. Anyway, the spectral and spatial information using other devices at higher flight heights can also be further investigated in the future. The finding can provide a strong reference for setting the suitable flight height to obtain the crop information, in order to reduce the operating costs using multi-sensor equipment carried by UAVs.

UAV; vegetation index; fractional vegetation cover; flight strategy

10.11975/j.issn.1002-6819.2022.24.007

S24

A

1002-6819(2022)-24-0063-10

何勇,杜曉月,鄭力源,等. 無人機飛行高度對植被覆蓋度和植被指數估算結果的影響[J]. 農業工程學報,2022,38(24):63-72.doi:10.11975/j.issn.1002-6819.2022.24.007 http://www.tcsae.org

He Yong, Du Xiaoyue, Zheng Liyuan, et al. Effects of UAV flight height on estimated fractional vegetation cover and vegetation index[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2022, 38(24): 63-72. (in Chinese with English abstract) doi:10.11975/j.issn.1002-6819.2022.24.007 http://www.tcsae.org

2022-09-05

2022-11-11

浙江省重點研發計劃項目(021C02023)

何勇,博士,教授,研究方向為事植物-土壤-環境信息感知技術與先進傳感器、精細農業與智能傳感技術及裝備、無人機低空遙感等。Email:yhe@zju.edu.cn

猜你喜歡
飛行高度植被指數覆蓋度
呼和浩特市和林格爾縣植被覆蓋度變化遙感監測
基于NDVI的晉州市植被覆蓋信息提取
飛行參數對六旋翼植保無人機霧滴在荔枝樹冠層沉積分布的影響
遼寧省地表蒸散發及其受植被覆蓋度影響研究
低覆蓋度CO分子在Ni(110)面的吸附研究
基于植被指數選擇算法和決策樹的生態系統識別
簡析二次雷達高度信息與飛機實際高度的關系
AMSR_2微波植被指數在黃河流域的適用性對比與分析
河南省冬小麥產量遙感監測精度比較研究
FAA頒新政使小型無人機飛行高度翻倍
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合