?

面向可見光—近紅外圖像融合的植被與天空概率模板生成

2022-12-21 03:23童璨應佳成沈會良
中國圖象圖形學報 2022年12期
關鍵詞:植被概率模板

童璨,應佳成,沈會良

浙江大學信息與電子工程學院,杭州 310027

0 引 言

可見光(visible,VIS/RGB)圖像通常色彩鮮艷、細節清晰,而近紅外(near-infrared,NIR)圖像雖然清晰度較可見光圖像低,但是在透霧和夜視等方面有著更為顯著的效果。正因兩者各自的優勢,RGB-NIR圖像聯合處理在識別(Singh等,2008)、檢測(Han和Bhanu,2007)和監控(Kumar等,2006)等諸多領域得以應用。以結合RGB和NIR圖像的優點為目的,圖像融合是一種常見而有效的處理方法。例如,Schaul等人(2009)通過多分辨率的圖像融合對帶霧圖像進行去霧;Awad等人(2020)通過圖像融合將NIR的細節信息加入RGB圖像,實現了細節增強;Süsstrunk等人(2010)通過圖像融合實現人臉皮膚的圖像質量提升,達到了美顏的效果。

考慮實際的圖像融合過程,可能需要根據不同目的對不同圖像區域進行差異化處理,以達到更好的效果。例如,在自然場景的圖像融合中,需要避免植被因融合而亮度過高,也要避免天空因融合而亮度過低,使圖像整體保持良好的自然度。因此,為實現基于區域的融合效果改進,本文提出一種快速魯棒的RGB-NIR聯合圖像植被與天空概率模板生成算法。

從研究現狀來看,植被檢測大多涉及衛星遙感領域,在圖像處理上的研究和應用較為欠缺。Fan等人(2016)提出一種適用于高分辨率多光譜衛星圖像的植被覆蓋檢測方法,該方法包括兩個階段,第1階段采用支持向量回歸技術,對每個斑塊進行評分,生成粗糙的斑塊級植被圖;第2階段進行無監督的像素級植被分類對不確定像素進行重新評分,得到更詳細的植被圖。在圖像處理領域,Li等人(2020)根據RGB-NIR圖像光譜差異,使用歸一化植被指數(normalized difference vegetation index, NDVI)(Kriegler等,1969)及其延伸計算用于圖像融合的權重矩陣,實現了效果良好的RGB-NIR圖像融合增強。然而,將NDVI直接用于植被檢測效果不佳,原因是NDVI生成結果的對比度不高,且使用單個通道與NIR圖像進行差異計算容易受極亮值或極暗值的影響。

天空檢測方面的研究則相對更多,一般而言其檢測結果可分為二值模板和概率模板。二值模板因其強邊界而要求檢測方法更加精確,而概率模板則保留圖像的大量紋理信息,應用更加靈活。Zafarifar和de With (2008)為了增強視頻,提出了一種基于顏色分布模型、局部亮度差異、局部梯度以及像素高度模型的天空檢測方法,該方法生成天空的概率模板,得到了較為準確的天空檢測結果,但是在邊緣過渡及圖像整體連續性等方面還有待提高。Salazar-Colores等人(2020)基于暗通道先驗(He等,2011)和局部香農熵檢測天空區域,生成天空的二值模板,然后用檢測到的天空改進大氣光圖與透射率圖,以緩解去霧過程中天空區域的過飽和現象,但是該方法的天空檢測容易受到云層的影響而產生雜亂的邊緣。

基于深度學習的圖像語義分割目前應用較為廣泛,且效果較好,分割出的植被、天空語義在一定程度上實現了植被與天空區域的檢測。例如張桂梅等人(2020)用生成對抗網絡與自適應的學習率進行對抗學習,分割結果包含植被和天空語義,可視為一種類二值模板的區域檢測結果。然而,語義分割著眼整體,在邊界、縫隙等細節處劃分較為粗糙,并且語義分割一般生成二值模板,難以保留圖像的紋理信息。

綜合考慮現有植被、天空檢測的研究,一方面,部分檢測算法準確率和召回率不是很高,而部分高精度的算法需要較為復雜的計算或模型訓練過程;另一方面,目前的植被、天空檢測大多基于單幅RGB圖像進行。因此,本文試圖提出一種更適用于RGB-NIR聯合圖像處理并且準確魯棒的檢測算法,以應用于圖像融合等具體場景。

RGB-NIR圖像融合發展迅速,主要有基于權重矩陣(Li 等,2020)、多尺度變換(Yu 等,2014)、稀疏表示(Wang 等,2014)和神經網絡(Xiang等,2015)等理論的實現方式。Awad等人(2020)利用RGB和NIR圖像局部對比度的相對差異估計融合圖,并從NIR圖像中提取非光譜空間細節對融合圖進行增強。Connah等人(2014)提出一種梯度域的融合算法,以輸入圖像的梯度和顏色為約束進行迭代優化,獲得了更好的融合結果。Vanmali和Gadre(2017)提出一種多尺度RGB-NIR圖像融合算法,采用基于Laplacian-Gaussian金字塔的多分辨率融合過程,以局部熵、局部對比度和可見度作為衡量融合結果的指標來生成權重圖。

盡管現有的圖像融合算法大多數情況下效果良好,但也存在一些不足。例如,部分算法的融合結果中,植被因受NIR圖像影響而亮度過高,天空則因受NIR圖像影響而較為昏暗。本文圖像融合主要針對現有算法進行基于區域的修正,以使植被、天空獲得更為自然和諧的視覺效果。

總體而言,本文著眼于RGB-NIR圖像融合,針對實際處理過程中圖像的不同區域可能需要進行差異化修正的需求,設計行之有效的檢測算法,并以檢測結果作為反饋,對圖像融合的植被和天空進行修正,達到改進的目的。在流程上,首先根據RGB與NIR圖像的光譜差異,以及RGB圖像各通道間的亮度差異,提出植被檢測的概率模板生成算法。然后引入圖像的局部熵特征,以透射率圖為引導,以像素高度為修正,提出天空檢測的概率模板生成算法。本文算法生成了像素級的概率模板,即預測了每一個像素屬于目標的概率。之后,將植被與天空的檢測結果應用于現有的圖像融合算法,以針對性地提升圖像特定區域的融合效果。最后,進行對比實驗,驗證了本文算法的有效性與魯棒性。

本文主要貢獻點在于:1)提出一種基于RGB圖像各通道比值和擴展歸一化植被指數(NDVI)的RGB-NIR聯合圖像植被概率模板生成算法;2)提出了一種基于透射率圖引導的局部熵特征和擴展NDVI的RGB-NIR聯合圖像天空概率模板生成算法;3)將植被和天空檢測結果(概率模板)引入圖像融合算法,改進了感興趣區域的圖像融合效果,驗證了本文提出的檢測算法及其結果可使圖像融合根據實際需求進行靈活調整,實現了融合效果的提升。

1 本文算法

本文算法整體框架如圖1所示。首先根據RGB與NIR圖像的特征,分別生成植被和天空的概率模板,然后將模板用于修正具體的圖像融合算法,以此提升植被與天空的圖像融合效果。

圖1 本文提出的植被與天空概率模板生成算法及其應用的整體框架Fig.1 Framework of the proposed algorithm for vegetation and sky probability maps generation and its application

1.1 植被檢測

本文提出的植被檢測算法中,使用了NDVI與比值兩種特征,二者分別基于以下先驗知識:1)植被區在NIR圖像中的亮度大于在RGB圖像中的亮度。因為植被對紅色通道與藍色通道吸收較強,對近紅外與綠色通道反射較強,采集NIR圖像時可以捕獲更多光,因此植被在NIR圖像中亮度更高。2)植被通常呈現綠色,所以其在RGB三通道的分布更多地集中在G通道,在R和B通道相對較少。

根據上述兩項先驗,設計了植被概率模板生成流程,如圖2所示。

首先,計算RGB圖像的灰度圖Ig,即

Ig=0.299IR+0.587IG+0.114IB

(1)

式中,IR、IG和IB分別表示RGB圖像各通道分量。

其次,根據RGB圖像的灰度圖和NIR圖像計算擴展NDVI。NDVI(Kriegler等,1969)反映RGB圖像的R分量與NIR之間的相對關系,主要用以衡量植被的健康狀況,計算為

(2)

式中,INIR表示原始NIR圖像。

受此啟發,本文將亮度關系延伸到可見光全部三通道與近紅外之間,用以避免單個通道的灰度為極亮或極暗情況下導致的檢測不準確,擴展NDVI定義為

(3)

式中,fn(·)為歸一化函數,fb(·)為非線性變換函數,作用是壓縮亮區,拉伸暗區,以提升對比度。

fn(·)和fb(·)定義為

(4)

(5)

本文參數取α=10,β=0.5,γ=0.22。擴展NDVI的最終結果如圖3(c)所示。

然后,根據上述先驗知識2),計算RGB圖像三通道比值的模板,具體為

(6)

式中,fd(·)為與fb(·)相關的非線性變換函數,作用是壓縮暗區、拉伸亮區。具體為

fd(x)=1-fb(1-x)

(7)

RGB三通道比值的模板如圖3(d)所示。觀察圖3(c)(d)可知,NDVI圖對比度較比值圖低,但是整體連續性好,有更豐富的細節,比值圖則相反。因此,使用NDVI圖為引導,對比值圖做導向濾波。即

(8)

式中,Fguid表示導向濾波,r為濾波窗口大小,ε為平滑參數,本文取r=32,ε=10-6。導向濾波結果如圖3(e)所示,濾波之后的比值模板在保持較高對比度的同時也能提升整體圖像的連續性。

最終,將擴展NDVI模板與比值模板進行融合,即

(9)

融合生成的植被概率模板如圖3(f)所示。

圖3 植被概率模板生成過程展示Fig.3 Illustration of the vegetation probability mask generation process ((a) RGB image; (b) NIR image; (c) extended NDVI image; (d) ratio image; (e) NDVI-guided ratio image; (f) vegetation probability mask)

1.2 天空檢測

本文提出的天空檢測算法中,使用了NDVI、局部熵和像素高度3種特征,分別基于以下先驗知識:1)天空區域在NIR圖像中的亮度小于RGB圖像中的亮度。因為天空對RGB三通道均呈較強的反射,使得最終采集的RGB圖像捕光更多,對比NIR圖像亮度更高。2)天空區域的局部熵為較小值。因為天空區域通常平坦而均勻,一定范圍內變化不大,因此具有較小的局部熵。3)一幅圖像天空有更大的概率出現在頂端,而出現在下部或底端的概率較小。

根據上述3項先驗,設計了天空概率模板生成流程,如圖4所示。

首先,根據式(1)計算RGB圖像的灰度圖Ig。

與植被檢測有所區別,在天空檢測中,因為天空更容易受到光照的影響,所以先對RGB和NIR圖像進行Retinex增強的預處理。Retinex算法原理是將一幅圖像I(x)分解為光照分量L(x)與反射分量R(x)的乘積,即

Ic(x)=Rc(x)Lc(x),c∈{R,G,B,NIR}

(10)

上述光照分量即自然的光線,反射分量則是物體真實的樣貌,光線在物體表面發生反射后,兩種分量相耦合。為了獲得圖像的反射分量,需要對光照分量進行估計,一般可以用原始RGB圖像的高斯濾波結果作為光照分量的近似,即

(11)

式中,FGauss表示高斯濾波器,本文采用頻域高斯濾波;σ表示標準差,取σ=80。

為減少計算量,在對數域計算圖像的反射分量,具體為

圖4 天空概率模板生成算法流程圖Fig.4 Flowchart of sky probability mask generation algorithm

log(Rc(x))=log(Ic(x))-log(Lc(x))

(12)

經過上述計算,獲得RGB圖像各通道及NIR圖像的反射分量,如圖5所示。

圖5 Retinex算法生成的反射分量Fig.5 Reflectance components produced by the Retinex algorithm ((a) RGB image; (b) NIR image; (c) reflectance component of the NIR image; (d) reflectance component of the red channel; (e) reflectance component of the green channel; (f) reflectance component of the blue channel)

與植被檢測類似,通過灰度圖與NIR圖像的亮度差異計算擴展NDVI模板。此處,灰度圖由RGB三通道反射分量加權獲得,即

Rg=0.299RR+0.587RG+0.114RB

(13)

(14)

生成的擴展NDVI模板如圖6(c)所示。

根據先驗知識2)計算天空檢測的局部梯度特征??紤]用邊緣來表征局部區域的均勻程度,天空通常具有較少的邊緣,因此先用Sobel算子獲取圖像的邊緣,即

(15)

式中,fx和fy分別代表水平和垂直方向的Sobel算子,*表示卷積操作。

因邊緣密集處局部熵較大,邊緣稀疏處局部熵較小,故在邊緣圖上計算局部熵,具體為

(16)

式中,L表示灰度級,本文取L=256,pi表示灰度值i出現在像素k處的窗口Ωk中的概率,本文窗口大小為7。局部熵模板如圖6(d)所示,因為天空區域變化小,因此在局部熵圖像中表現為趨向于0。

為了提升圖6(d)局部熵的效果,使用Kim等人(2020)提出的透射率圖ITM為引導,對局部熵圖像做引導濾波,且根據常識性認知,對圖像進行反處理,使天空為亮區,即

(17)

引導濾波后的局部熵圖像如圖6(e)所示。

根據先驗知識3),利用像素高度模板對天空檢測的結果進行修正,模板計算為

墻夼水庫總庫容 3.28億 m3,興利庫容0.85億 m3,死庫容 0.11億 m3,正常蓄水位98.50m。水庫工程防洪標準按百年一遇設計,萬年一遇校核。東、西庫設計洪水位分別為103.02m、103.16m,校核洪水位分別為106.50 m、106.57m。東西兩庫共設東庫溢洪閘1座,遭遇大洪水時,西庫水位高于東庫,洪水通過連通溝進入東庫,由東庫溢洪道泄出。

(18)

圖6 天空概率模板生成過程展示Fig.6 Illustration of the sky mask generation process ((a) RGB image; (b) NIR image; (c) extended NDVI map; (d) local entropy map; (e) transmission-map-guided local entropy map; (f) sky probability mask)

式中,r表示像素所在行數,h表示圖像總高度。

最終,融合擴展NDVI、局部熵和像素高度3種概率模板,具體為

(19)

融合生成的天空概率模板如圖6(f)所示。

1.3 融合算法質量提升

本文提出的植被、天空檢測算法在RGB-NIR圖像聯合處理方面有普適的應用價值,以一種具體的融合算法為例,加入植被、天空檢測的概率模板以實現融合效果的提升。

Vanmali和Gadre(2017)提出了一種基于Gaussian-Laplacian金字塔的圖像融合算法,但是該算法的融合結果在色彩自然度上存在不足。例如在圖7場景1的黃框中,云層出現一些原本不存在的顏色,而紅框中植被亮度過大,導致視覺上非常不自然。同樣在圖7場景2和3中,植被也存在亮度過大的問題。且在圖7場景3中,天空因受NIR圖像影響過大,導致融合結果中天空較為昏暗。

為了生成顏色更自然的植被與天空,同時保持圖像整體細節增強的效果,將本文提出的植被、天空檢測的概率模板用于Vanmali和Gadre (2017)提出的圖像融合算法。該算法采用加權融合方式,WV(x,y)和WNIR(x,y)分別表示RGB和NIR圖像的融合權重。

將本文提出的概率模板加入到NIR圖像的權重矩陣WNIR(x,y)中,以使目標區域的融合結果更偏向于RGB圖像的顏色,即

(20)

再將融合算法的NIR圖像權重替換為式(20)得到的結果,算法其余部分保持不變。

圖7 Vanmali和Gadre(2017)提出的圖像融合算法存在的不足Fig.7 Problems of Vanmali and Gadre’s(2017) algorithm ((a) RGB images; (b) NIR images; (c) fusion images)

2 實驗與分析

2.1 數據集

算法測試采用Brown和Süsstrunk(2011)采集的RGB-NIR場景數據集。該數據集由9類477組RGB和NIR圖像對組成。數據集中圖像的9類標簽分別是country、field、forest、indoor、mountain、old-building、street、urban和water,各類圖像數據示例如圖8所示。

2.2 植被檢測結果與對比

對于植被檢測,將本文算法與傳統NDVI各自表現的植被概率模板進行對比,實驗結果如圖9所示??梢钥闯?,受傳統NDVI指標的啟發,并考慮不足之處,通過改進并引入各通道比值提升了檢測效果。

圖8 數據集中9類場景圖像示例Fig.8 Nine kinds of scene in the dataset

傳統NDVI計算為

(21)

該NDVI在計算機視覺領域的植被檢測中存在兩個明顯缺點。一是植被相對于背景對比度不高,如圖9(c),植被不能有非常明顯的區分;二是存在R通道極亮或極暗的情況,如圖9(c)場景2,紅框中的天空區域在原RGB圖像中R通道值接近0,導致傳統NDVI模板中該區域的概率值接近0,與實際不符合。本文算法在上述兩個問題上有明顯改善,從誤檢測的角度考慮,本文將傳統的NDVI做了延伸,避免了單個通道為極亮或極暗的不利狀況,如圖9(e)場景2的紅框顯示該區域檢測結果正確。從對比度的角度考慮,在NDVI的基礎上引入RGB圖像三通道比值,有效提升了植被檢測的視覺效果,圖9(e)相對于圖9(c),在保證檢測正確的前提下,對比度有了明顯提升。

另外,深度學習在區域分割領域應用廣泛且效果較好,本文選取其中一種語義分割方法進行對比,具體為基于ResNet101 + UperNet模型(Xiao等,2018)的語義分割(Zhou等,2019),對比結果如圖9所示。分析圖9中本文與語義分割的檢測結果,本文方法在準確率和紋理細節保留上都占有較大優勢。在圖9(d)的場景1和場景2中,語義分割結果不能檢測出全部植被,場景1中圖像左側遠處的植被顯示不完整,場景2中地面上較小的植被檢測不到。相比而言,本文算法的植被檢測更為準確。在細節層面,圖9(e)的本文植被檢測相對于圖9(d)保留了更多的細節信息,特別是在樹葉等紋理較多的區域。

圖9 植被檢測結果對比Fig.9 Comparison of vegetation detection results ((a) RGB images; (b) NIR images; (c) traditional NDVI; (d) semantic segmentation (e) ours)

2.3 天空檢測結果與對比

現有天空檢測算法的表現形式包括二值模板和概率模板,本文與兩種形式的算法均進行對比。其中,Zafarifar和de With(2008)提出的天空檢測算法結果為概率模板,形式與本文一致,與其對比更能反映優劣。Salazar-Colores等人(2020)提出的天空檢測算法生成二值模板,因生成的天空模板用于優化后續天空區域的去霧,而本文則將模板用于后續圖像融合,兩者都是作為預處理手段,在目的上有共通之處,故進行天空檢測效果的對比。最后,將本文天空檢測與基于ResNet101+ UperNet模型(Xiao等,2018)的語義分割(Zhou等,2019)進行對比。

本文天空檢測算法與Zafarifar和de With(2008)提出的算法對比的圖像結果如圖10所示。觀察對比圖像,在圖10場景1中,結果差距主要體現在地平線處,本文算法在地平線處有更精確清晰的劃分,同時對遠處山脈的檢測結果也更加準確。在圖10場景2中,天空區域及邊緣結果相差不大,但是在非天空區域中,Zafarifar算法(Zafarifar和de With,2008)將白色墻體檢測為天空,而本文算法不存在這個問題。在圖10場景3中,本文算法在遠處山與天空交界處的邊緣更加清晰,并且在與天空顏色相近的水面等位置的檢測更為準確。

圖10 本文算法與Zafarifar算法的天空檢測結果對比Fig.10 Comparison of sky detection results by our algorithm and Zafarifar’s algorithm ((a) RGB images; (b) NIR images; (c) Zafarifar’s algorithm; (d) ours)

Salazar-Colores算法(Salazer-Colores等,2020)與基于ResNet101+UperNet模型(Xiao等,2018)的語義分割(Zhou等,2019)最終結果的表現形式都是二值模板,本文算法與這兩種算法的對比結果如圖11所示。

圖11 本文算法與Salazar-Colores算法及語義分割的天空檢測結果對比Fig.11 Comparison of sky detection results by our algorithm, Salazar-Colores’ algorithm and semantic segmentation((a) RGB images; (b) NIR images; (c) Salazar-Colores’ algorithm; (d) semantic segmentation; (e) ours)

分析圖11中各算法的結果,在通常情況下,本文算法與兩種對比算法的結果類似圖11場景1,即在邊界區分上效果相近,但是本文算法能夠保留更多紋理細節信息,一定程度上可以防止細節的減弱,因此實際使用更加靈活可靠。對于圖11場景2,Salazar-Colores算法(Salazar-Colores等,2020)與語義分割(Zhou等,2019)雖然能較為準確地檢測到天空,但是對紅框中植物間隙中的部分則不能細致地劃分,二值模板一個共通問題在于不能很好地處理細節。在圖11場景3中,當天空的云層較多時,Salazar-Colores算法易受云層影響,產生如紅框中雜亂的邊緣,使結果準確度下降,本文算法的結果則不存在這種問題。從圖11場景4可以看出,Salazar-Colores算法與語義分割(Zhou等,2019)對一些小目標不能正確檢測,原圖中紅框內的鳥在圖11(c) (d)中完全消失,而在本文算法圖11(e)中則較好地保留。

2.4 圖像融合結果與對比

作為植被、天空檢測的一個應用,本文將生成的概率模板應用于RGB-NIR圖像融合算法:Vanmali算法(Vanmali和Gadre,2017),以實現目標區域視覺效果的提升。圖12展示了引入概率模板前后融合效果的對比。

在圖12(c)的3個場景中,原始融合算法的植被均會出現顏色過飽和情況,導致植被在視覺上呈現不自然,引入植被概率模板后,在保持融合細節增強的同時,融合結果相對原RGB圖像色彩也有所增強,但是又不會出現失真狀況。對于天空區域,場景1中云層出現原本不存在的顏色,場景3中融合結果受NIR圖像影響過大導致天空顏色較為昏暗,在加入天空概率模板后,既保留了整體融合結果細節的增強,又確保了天空區域在視覺上真實自然。

圖12 圖像融合結果對比Fig.12 Comparison of image fusion results ((a) RGB images; (b) NIR images; (c) Vanmali’s algorithm; (d) our modified fusion results)

表1 使用概率模板前后融合算法的定量指標對比Table 1 Quantitative metrics of image fusion with and without probability mask

更進一步,為了比較概率模板與二值模板應用于圖像融合算法的差異,實驗將語義分割(Zhou等,2019)得到的二值模板同樣以式(20)來修正Vanmali圖像融合算法,對比結果如圖13所示。在場景1中,天空中的紋理信息幾乎都在NIR圖像中,原始算法融合后的細節(圖13(c))提升不多,且加入二值模板后的效果(圖13(d))幾乎不變。而使用本文算法生成的概率模板后的效果(圖13(e))則保留了NIR圖像中大部分的紋理信息,對于圖像融合效果的提升作用更大。在場景2中,兩種模板的差異體現在遠方的山,此處局部放大圖像如圖14所示??梢钥闯?,本文的概率模板在此處顏色鮮艷,細節清晰,具有更好的視覺效果。

圖13 不同模板修正的圖像融合效果對比Fig.13 Comparison of image fusion results with modification by different masks ((a) RGB images; (b) NIR images; (c) original fusion results; (d) modification by binary mask; (e) modification by probability mask)

圖14 圖13(d)場景2和圖13(e)場景2的局部放大圖Fig.14 Partial enlarged view of the scene 2 in Fig.13(d) and Fig.13(e) ((a) Fig.13(d); (b) Fig.13(e))

3 結 論

本文考慮RGB-NIR聯合圖像的不同區域成像特性各異,在實際圖像處理過程中可能需要差異化處理,因此以顯著性較明顯的植被和天空作為感興趣區域,提出了一種以擴展NDVI引導RGB圖像各通道比值的植被概率模板生成算法,以及一種以透射率圖引導局部熵圖,并與擴展NDVI和像素高度相結合的天空概率模板生成算法。

在RGB-NIR圖像數據集上測試,本文算法對植被和天空的檢測結果準確無誤,且細節清晰、過渡平滑。與現有算法對比,本文植被概率模板的優勢在于對比度較高,誤檢測情況少,并且保留更多的紋理細節信息。本文天空概率模板的優勢在于邊界更精準,在小物體與間隙等細節處有更好表現。最后與基于深度學習的語義分割相比,本文植被與天空概率模板生成算法更專注,因而劃分更準確,且不需要復雜的學習過程,應用更為方便靈活。

將本文的植被、天空的概率模板應用于圖像融合以修正融合的權重,與原圖相比,結果既保留了圖像細節增強的效果,又避免了融合導致的顏色失真,使融合的整體視覺效果得以提升,這種圖像質量的提升也通過互信息、邊緣情況、峰值信噪比等定量指標進一步得到驗證。

本文生成植被與天空概率模板的算法一般更適用于自然場景,應用于城市場景圖像有時會出現檢測結果錯誤的情況,例如大區域的白色墻體,圖像過曝等因素都可能導致準確率下降。對此,今后擬從兩方面開展進一步研究。1)進一步提升算法的魯棒性,使算法面對上述不利因素仍能保持很好的檢測效果;2)探索本文算法在RGB-NIR圖像聯合處理中更深入的發展與應用。

猜你喜歡
植被概率模板
鋁模板在高層建筑施工中的應用
基于植被復綠技術的孔植試驗及應用
鋁模板在高層建筑施工中的應用
第6講 “統計與概率”復習精講
第6講 “統計與概率”復習精講
概率與統計(一)
概率與統計(二)
與生命賽跑的“沙漠植被之王”——梭梭
綠色植被在溯溪旅游中的應用
鋁模板在高層建筑施工中的應用
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合