?

基于自適應截斷模擬曝光和無監督融合的低照度真彩色圖像增強算法

2023-10-08 06:38韓永成張聞文何偉基陳錢
光子學報 2023年9期
關鍵詞:暗部照度亮度

韓永成,張聞文,何偉基,陳錢

(南京理工大學 電子工程與光電技術學院, 南京 210094)

0 引言

在弱光環境下獲取的圖像往往會出現一定程度的退化,采集到的圖像會丟失大量信息,不利于后期分割、識別等高級圖像任務,圖像觀賞性也大打折扣。尤其在夜間環境和背光場景,甚至在不均勻光照等惡劣環境下,采集的低照度圖像與理想圖像相去甚遠。低照度圖像增強是圖像處理領域的研究熱點,國內外研究人員提出了很多方法,常用的增強算法可以分為基于直方圖均的增強、基于Retinex 理論的增強、基于圖像融合的增強和基于深度學習的增強。其中基于圖像融合的增強算法是在多幅圖像中提取高信息熵的區域,然后進行互補融合,將具有特征優勢的信息保留在最終增強結果中以此獲得內容豐富、色彩飽滿的增強結果。本文主要研究內容為基于曝光融合的低照度彩色圖像增強算法,目的是提升待增強圖像的亮度和對比度,恢復圖像細節的同時保留色彩信息,使得增強結果具有自然感。

FU Xueyang 等[1]提出了一種基于融合的弱光照圖像增強方法。該算法需要人為選擇現有的增強手段作為中間步驟,魯棒性不高。YING Zhenqiang 等[2]提出了用于微光圖像增強的仿生多曝光融合框架。該方法需要先驗的相機響應模型,只對缺失欠曝光的地方進行補光增強。LI Zhengguo 等[3]提出了細節增強的多尺度曝光融合,利用加權引導圖像濾波器對所有低動態范圍圖像的加權映射高斯金字塔進行平滑處理,實現不同曝光程度的低動態范圍圖像的融合。WANG Wencheng 等[4]提出了一種基于非線性泛函變換的低照度圖像校正方法,根據光照分量的分布特征自適應調整圖像增強函數參數,生成中間狀態增強圖像,利用多尺度融合策略測提取圖像特征信息,融合后得到高質量增強結果。REN Yurui 等[5]設計了類似仿生多曝光融合算法的基于相機響應性的模擬曝光融合方案,同樣取得不錯效果。XU Yadong 等[6]也提出了一種用于單幅低照度圖像增強的多尺度融合算法。該方法直接進行亮度重映射,模擬曝光圖像不自然且存在顏色失真問題。這些方法在某些程度上可以增強低照度圖像,但是很容易出現亮部區域過度增強的問題,增強結果容易色彩失真,出現不自然的觀感。本文提出的自適應模擬曝光方法和基于深度學習的融合方案可以有效避免過度增強現象,增強結果色彩更加真實自然。

1 理論

算法具備亮度抑制功能,首先設計了自適應截斷模擬曝光方法,然后使用無監督網絡模型融合曝光序列,實現靈活高效地融合固定尺寸的多張曝光圖像。我們希望模擬多曝光序列中的圖像各自包含不同的良好感知區域,通過融合多張圖像便可以獲得全局性的良好曝光圖像。

1.1 自適應截斷模擬曝光

經典的模擬曝光算法大都是直接對圖像進行線性映射,或者使用直方圖均衡化等現有的增強算法進行模擬。往往是人為確定模擬曝光次數,去追求盡可能多地涵蓋不同亮度等級的曝光序列,這就導致模擬曝光序列中存在大量冗余圖像,例如存在多個過亮區域。由于正常光照區域或亮部區域的圖像經過增強后容易呈現過亮現象,這些區域極易影響融合質量,導致觀感不佳。本算法首先將圖像轉到HSV 空間,對V 通道進行處理,這樣可以節省計算量,同時不會丟失色彩信息。然后對圖像進行高斯濾波減少噪聲的影響,使用Otsu 閾值法[7]即可獲得亮暗區域的子圖像塊Isubk。為了避免人工選擇模擬多曝光圖像,設計了亮度響應曲線G(x)來獲得子圖像塊Isubk的平均亮度響應f(k),其計算方式如式(1)和(2)所示。

在獲得亮部區域和暗部區域及其平均亮度響應后,進行自適應處理。相較于亮部區域,對暗部區域應該進行更大程度的增強;相較于暗部區域,對亮部區域進行增強的同時應該有所抑制,避免其產生過度增強現象。本文結合圖像子塊及其亮度響應得到增強序列Ienk,如式(3)所示。

式中,l表示輸入圖像Iinput中每個像素的強度值,lmax表示最大像素強度值,γk為局部自適應伽馬因子。為了在融合質量和速度之間取得平衡,對低照度圖像進行4 次模擬曝光,分別是針對暗部和亮部區域的一般性增強和亮度補償性增強。針對亮暗區域子塊的一般性伽馬因子如式(4)所示。

式中,pdf(?)為像素概率密度函數,pdfw(?)為加權概率密度函數,表示為

式中,fk與子圖像塊Isubk的平均亮度響應有關,max(·)表示取二者中的較大者。較大的指數因子意味著更大的加權概率密度函數pdfw(?),進而導致局部自適應伽馬因子γk更小,使得增強效果更加明顯。γ1,2如圖1(a)所示,其對應的色調映射曲線如圖1(b)所示,模擬曝光結果如圖2(b)和(c)所示。

圖1 帶有截斷因子的自適應伽馬校正曲線Fig. 1 Adaptive gamma correction curve with truncation factor

圖2 增強序列示意圖Fig. 2 Schematic diagram of enhancement sequence

為了避免過度增強,引入截斷因子,繼續生成兩種模擬曝光圖像,如圖2(d)、2(e)所示。其對應的局部自適應伽馬因子γ3,4如式(6)所示。

式中,f(Isub1)表示原始低照度圖像亮部子塊Isub1的平均亮度響應,f(Isub2)表示暗部子塊Isub2的平均亮度響應。例如,圖1(a)中γ3曲線右側像素強度值較大的亮部區域呈現相對原曲線較大的伽馬值,即亮部子塊的平均亮度響應f(Isub1),這意味著對亮部區域像素進行強度抑制,如圖1(b)中γ3'曲線所示。這些亮部區域像素的色調映射變化不大,只進行了小幅度的增強,該方法有效保留的亮部區域的圖像信息,如圖像2(d)所示。同理,圖1(a)中γ4曲線左側像素強度值較小的暗部區域呈現相對原曲線較小的伽馬值,即亮部子塊平均亮度響應f(Isub1)的負相關1-f(Isub1),一定程度上提高了對暗部區域像素增強的程度,如圖1(b)中γ4'曲線所示。這些暗部區域像素的色調映射變化比γ1'的映射幅度更大,該方法進一步增強了暗部區域的亮度水平,如圖像2(e)所示。值得注意的是,γ4對應曲線暗部區域的數值略大于γ3對應曲線亮部區域的數值,這是式(6)所導致的。若令γ4取值為數值更小的暗部子塊亮度響應f(Isub2),會對原始低照度圖像產生嚴重的過度增強,這種模擬的過度曝光會不可避免地引入大量噪聲,與實際情況不符合,不利于最終的融合,因此采取亮部子塊亮度響應的負相關1-f(Isub2)來代替。實際上,本方案可以選擇生成更多的模擬曝光序列,只需要更改不同的局部自適應伽馬因子,或者增加圖像子塊區域,同第三章中結構提取和分割類似。但是綜合考慮融合質量和速度,只模擬生成兩次亮度補償性曝光圖像。

上述步驟自適應生成了不同曝光程度的增強序列,但是和實際曝光圖像存在一定差異,這是由于低照度圖像暗部區域噪聲較大,甚至部分細節已經丟失?,F實中增加相機曝光時間可以有效降低噪聲,但是上述步驟僅僅提升了對比度和亮度,本文使用引導濾波進行去噪[8],分別對增強序列Ienk進行去噪,將去噪結果作為最終模擬曝光圖像Iexpk。

1.2 無監督網絡融合

目前針對單一低照度圖像增強的融合方法主要是傳統意義上的加權分層融合,計算量大,魯棒性低,容易產生光暈及接縫現象,而深度學習技術憑借數據驅動的特點,在各個領域的表現逐漸優于傳統算法。因此本文考慮使用數據驅動的方式融合模擬曝光圖像,實現靈活快速地重構出最終增強結果,可以高效融合任意固定尺寸和曝光數量的序列,達到令人滿意的融合和增強效果。

1.2.1 研究方法

基于深度學習的融合在本質上和經典圖像融合一樣,都是通過加權融合框架實現。我們希望通過卷積神經網絡獲得的權重圖更加平滑,即使針對邊緣銳利的區域,權值也可以很好的過渡到平坦區域。其次針對高對比度和良好曝光的區域,權重具有較高的響應值。最后,通過網絡獲得的權重圖可以更好地保留圖像整體結構信息。這種情況下,即使不在多尺度層面進行融合,最終處理結果也不會出現光暈和接縫現象。

此外,除了高質量的融合結果,我們還希望網絡具有靈活性,可以實現任意固定尺寸和數量的曝光序列的端到端融合。本文采用下采樣處理和上采樣恢復的方案。首先,將曝光序列的低分辨率版本輸入到一個全卷積網絡中,用于權重圖預測。然后,在網絡內部使用一個引導濾波器對權重圖進行上采樣,這樣可以有效減少信息的丟失。最后,對全分辨率圖像加權融合得到增強結果。融合具體過程如圖3 所示,首先對輸入的高分辨率序列Xhk進行下采樣得到低分辨率序列Xlk,然后通過上下文聚合網絡(Context Aggregation Network,CAN)獲得低分辨率權重圖Wlk,通過深度引導濾波(Deep Guided Filter,DGF)重構出高分辨率權重圖Whk,對權重圖歸一化處理后加權融合。算法中存在兩個關鍵步驟,一是使用空洞卷積對權重圖進行密集預測,可以在不犧牲分辨率的情況下擴大感受野,該類方法也常被用于分割任務中[9]。二是引入可微的深度引導濾波層,對低分辨權重圖進行聯合上采樣,實現端到端的圖像輸出[10]。

圖3 基于深度學習的多曝光融合過程圖Fig. 3 Multi-exposure fusion process diagram based on deep learning

1.2.2 網絡結構

本節融合算法網絡結構主要包括上下文聚合網絡CAN 和深度引導濾波DGF。

1) 上下文聚合模塊

CAN 的主要優點是在不犧牲空間分辨率的情況下具有較大的感受野,可以在更深層次上逐步聚合上下文信息,完成全局圖像統計的計算,從而更好地進行像素級融合。本文采用鋸齒狀循環結構進行3×3 卷積核擴張,這種設置下可以較好地兼顧大小分辨率物體,2 倍擴張卷積側重鄰域內近心區域的信息,5 倍擴張卷積側重于外圍區域特征信息,而增加一次循環設置可以更好的均衡二者關系。本文在卷積操作之后立即使用自適應歸一化,采用LeakyReLU 作為非線性單元,最后通過1×1 卷積輸出權重圖,無池化和非線性處理。自適應歸一化方法如式(7)所示。

式中,γ和β為仿射系數,是可學習的標量。x表示輸出的特征矩陣,xˉ是x的平均值,σ是其標準差,ε是一個較小值,為了避免分母為0。圖4 為本節算法網絡結構示意圖,表1 給出了網絡結構的具體配置,包含8 個卷積層,其輸出響應與輸入圖像具有相同的分辨率。

表1 上下文聚合網絡結構Table 1 Context aggregation network structure

圖4 上下文聚合網絡結構示意圖Fig. 4 Context aggregation network structure diagram

2) 深度引導濾波模塊

通過卷積網絡可以獲得低分辨率權重圖,簡單進行插值上采樣會使融合結果丟失信息。引導濾波是一種有效的邊緣保留算法,本文使用高分辨率曝光序列引導低分辨率權重圖Wlk生成高分辨率權重圖Whk,生成的Whk與Wlk具有相同的視覺特性,同時Whk會保留Xhk的邊緣特性,其關系如式(8)所示。

表2 深度引導濾波模塊算法步驟Table 2 Algorithm steps of depth guided filter module

圖5 引導濾波層Fig. 5 Guided filtering layer

為了保持網絡訓練時梯度穩定,對曝光序列中每一幅模擬曝光圖像Iexpk對應的權重圖Whk進行絕對值歸一化處理,這樣可以更大限度的保留真實權重信息,同時可以避免加權融合后像素溢出,如式(9)所示。加權融合后的最終結果為Y,如式(10)所示。

1.2.3 損失函數

網絡訓練所使用的數據為多曝光序列,不存在配對參考圖像,因此使用無參考質量評價函數MEFSSIM 進行融合質量評價[11]。在SSIM 的計算方式中,任何像素鄰域塊可以由對比度、結構和強度三個部分建模組成。與之類似,MEF-SSIM 也將模擬多曝光序列Xhk的像素鄰域塊xk分解為三個獨立部分,如式(11)所示。

式中,μxk表示結構塊xk的均值,=xk-μxk表示減去均值的結構塊,ck、sk和lk分別表示圖像內部結構塊的對比度、結構和平均強度。最終融合塊所期望的對比度分量?由源圖像塊的最高對比度決定,其表達式為

針對平均強度,局部塊的良好曝光情況和圖像平均強度密不可分,圖像過亮或圖像過暗都會導致信息的丟失,這種情況下其權重值應該較小。而當亮度適中時,圖像塊包含的信息較多,此時權重值應該較大,可以利用式(14)二維高斯函數反映該關系。

式中,μk和lk分別表示圖像Xk和局部圖像塊xk的均值,σg和σl代表標準差,μc和lc為常數。表示融合后的平均強度的分量l?為

類似于SSIM 的表達式,MEF-SSIM 的構造方式為

式中,σ2x?、σ2y表示給定局部塊的方差,σx?y表示局部塊的協方差,C是較小的常數。S(·)為小于1 的正數,越接近1 表明融合質量越高。因此損失函數設置為

式中,N是輸入模擬曝光序列的總數,p表示像素鄰域塊,M是鄰域塊的總數,xk和y分別表示輸入的一組曝光序列機器融合結果。對所有鄰域塊取平均可以更好地反映融合結果和單張圖像結構的相似性,而對所有輸入序列取平均則保證了融合結果和所有曝光序列整體結構的一致性。

1.3 評價指標

為了公平起見,選取了有參考圖像質量評價指標峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)、結構相似性(Structural Similarity,SSIM)和無參考圖像質量評價指標自然圖像質量評估器(Natural Image Quality Evaluator,NIQE)等經典的評價指標來驗證算法的有效性??紤]到圖像觀感很大程度上受到人們主觀因素的影響,本文還重點從視覺觀感的角度分析對比了各算法的增強結果,進一步驗證所提算法的優越性。

1.3.1 峰值信噪比PSNR

PSNR 表示圖像信號峰值與噪聲的比值,該指標基于對應像素點間的誤差,可以較好地反映圖像信號的重建質量,單位是dB,數值越大表示圖像信號失真越小,計算方式為

式中,MSE(x,y)表示均方誤差(Mean Square Error,MSE),M和N分別表示圖像長和寬,(i,j)表示像素位置,x和y分別表示輸入圖像和參考圖像。

1.3.2 結構相似性SSIM

SSIM 一般用來衡量對比圖像結構是否失真,通過圖像的亮度、對比度和結構特性進行綜合評價。SSIM 是感知模型,更符合人眼的直觀感受。結構相似性數值結果在區間[0,1]內,數值越大,表明兩幅圖越相似,當亮度、對比度和結構特性占比相同時,計算方式為

式中,μx和μy是像素值平均值,σ2x和σ2y是方差,σxy是協方差,C1和C2為常數,避免分母為零。

1.3.3 自然圖像質量評估器NIQE

NIQE 為常用的無參考圖像質量評價指標,該評估方法在圖像庫中提取自然統計特征,這些特征源于一個高度正則化的空域模型。將測試圖像中提取的自然統計特征的多元高斯模型與原始圖像庫中的多元高斯模型的距離作為NIQE 的分數,表示為[12]

式中,v1、v2、Σ1和Σ2分別是待測圖像和原始圖像庫多元高斯模型的均值向量和協方差矩陣,NIQE 得分數值越小表明待測圖像和標準庫圖像之間多元分布差異越小,即圖像質量越高。NIQE 不需要測試圖像的先驗信息,可以較為客觀地表現圖像質量。

2 實驗與分析

2.1 實驗環境

本文收集了大量的公開低照度圖像測試數據,這些數據是由通用消費級相機拍攝獲得,例如數碼相機和智能手機。涉及經典的DICM[13]、MEF[11]、NPE[14]、LIME[15]以及LOL[16]數據集,包括94 張RGB 格式不同程度的低照度圖像。為了進一步驗證算法的魯棒性,本文在公開數據集的基礎上又收集了使用科研相機拍攝的低照度圖像,相機傳感器為EMCCD(Electron-Multiplying Charge-Coupled Device),型號是Onsemi KAE-02150。為了驗證算法對色彩信息的有效保留,使用棱鏡式真彩色工業相機JAI AP-3200T-USB 采集標準比色卡的圖像進行對比驗證,相機傳感器型號為Sony IMX265。實驗所涉及的環境光照度由遠方PHOTO-2 000 m 弱光照度計測得,照度計量程為0.000 1 lx 至2 000 lx,測量5 次取均值作為結果。

2.2 測試集實驗結果與分析

本算法的訓練集選自SICE 數據集[17]中的229 組真實曝光序列,并對這些數據進行下采樣,將低分辨率序列加入訓練集。因此訓練數據共包括458 組曝光序列,每組曝光序列包含7 到9 張真實曝光圖像。選取其中18 組曝光序列作為驗證集。網絡的訓練環境為Intel i9-9900K@3.6 GHz 處理器和Nvidia RTX 2080Ti 11 GB 顯卡,測試環境為Intel i7-9750H@2.6 GHz 處理器和Nvidia GTX 1 650 4 GB 顯卡。對比算法的增強結果均使用原作者給出的程序獲得。

2.2.1 公開數據集

為了更清晰地對比各算法的效果,將測試數據分為三類,背光場景低照度圖像、局部光照下微光場景和極低光照下場景。從各種場景中選取一幅典型圖像進行對比,圖6 為背光環境低照度場景,圖7 為局部光照微光場景,圖8 為極低光照場景。對比算法包括基于光照估計的增強算法LIME[15]、基于相機響應模型的增強算法LECARM[5]、基于融合的低照度圖像增強算法FEM[1]、基于Retinex 理論的光照調節網絡KinD[18]、基于協作先驗結構搜索的RUAS 網絡[19]和基于零參考曲線估計Zero-DCE 網絡[20]。這些對比方法為現階段較好的低照度圖像增強算法,與之對比可以反映出本算法的優越性。

圖6 背光環境下增強效果對比圖Fig. 6 Comparison of enhancement effects in backlight environment

圖7 局部光照微光環境增強效果對比Fig. 7 Comparison of enhancement effects in local light level environment

圖8 極低光照環境增強效果對比Fig. 8 Comparison of enhancement effects in extremely low light environment

由圖6 至8 可以發現,LIME 算法很難恢復出暗部區域信息,尤其是背光場景暗部區域和極低光照環境場景。例如圖6(b)中書柜場景難以識別圖,8(b)中拖線板無法被清晰識別。LECARM 算法相較于LIME算法可以更好地恢復出暗部區域信息,增強后的圖像整體亮度有所提高,但是亮部區域極易出現過度增強現象,如圖6(c)窗戶外面的場景。此外,圖7(c)中宇航員和太空車飽和度過高,增強結果不自然。圖8(c)中增強結果存在明顯噪聲,拖線板位置增強效果不明顯。FEM 算法整體增強效果較好,與本文處理結果較為接近,但其增強后圖像色彩飽和度有所下降,尤其是背光場景中亮部區域和局部光照環境下的微光圖像,如圖6(d)中窗戶外的綠植色彩不鮮艷,圖7(d)中的宇航員和太空車的色彩飽和度均不高。KinD 算法增強結果對比度不高,如圖7(e)中宇航員和太空車。值得注意的是,如圖8(e)可以有效提高圖像的亮度和對比圖,增強結果色彩真實自然,這是由于該網絡使用的訓練集為LOL 數據集,而圖8(a)恰好取自該數據集,與其訓練集存在密切聯系,所以該算法增強效果較好,從側面體現出該算法魯棒性不高。RUAS 算法在對比中表現最不佳,明顯使得亮部區域過度增強,產生像素溢出,與此同時并未有效提高暗部區域亮度,如圖6(f)中窗戶外場景明顯被過度增強,而熱氣球和書柜均未被有效增強。圖7(f)中增強結果存在明顯色彩失真。在極低照度下,圖8(f)中圖像亮度并沒有顯著提高。Zero-DCE 算法在提高圖像整體亮度方面表現不錯,但是增強結果存在色彩失真,圖像飽和度較低,例如圖6(g)中窗外綠植,圖7(g)中的宇航員和太空車飽和度均較低,圖8(g)中書本和訂書機色彩均不夠鮮艷。

綜合對比發現,本文所提算法顯著提高了圖像亮度和對比度,在恢復圖像暗部區域信息的同時,有效抑制了過度增強現象,并適當提高了色彩飽和度,增強結果令人眼滿意。為了進一步表明算法的優越性,表3給出了各算法增強結果的NIQE 得分,測試圖像包含DICM 數據集[13]、MEF 數據集[11]、NPE 數據集[14]和LIME 數據集[15],共計79 張低照度圖像。從表中可以看出,本文所提算法在MEF 和LIME 數據集上的表現都是最好的,在DICM 數據集上得分弱于最優算法5.54%,在NPE 數據集上得分僅弱于最優算法0.53%。但是從所有圖像測試結果的均值來看,本文所提算法最佳,強于次優算法4.49%。結合圖6 至圖8 的主觀感受,可以有效反映出算法的優越性。

表3 不同算法下增強結果的NIQE 對比Table 3 NIQE comparison of enhancement results under different algorithms

2.2.2 實驗室環境數據集

為了進一步驗證算法的魯棒性,本節對使用科研相機和工業相機收集的測試數據進行實驗對比,部分場景低照度圖像和參考圖像如圖9 所示,其中第一行和第三行是原始低照度圖像,第二行和第四行是參考圖像。針對Onsemi 相機,在鏡頭前加透射率為10%中性濾光片得到的微光圖像,測試數據包括室內場景、建筑內自然光場景和室內白熾燈場景。部分實驗結果如圖10 和圖11 所示,圖中,數字1 表示場景1,數字2 表示場景2。

圖9 部分實驗室環境數據集Fig. 9 Sample images of laboratory environment testing images

圖11 不同算法增強效果對比Fig. 11 Comparison of enhancement effects of different algorithms

從圖10 和圖11 可以發現本文算法可以有效提高圖像的亮度和對比度,相較于其他主流算法,本算法更好地恢復出圖像暗部區域特征,同時避免了過度增強現象,而且可以很好的保留圖像色彩信息,增強結果具有合適的飽和度。圖10 和圖11 中目標場景的參考圖像見圖9 第一行??梢园l現,LIME 算法無法有效恢復圖像暗部區域信息,如圖10(b)中的綠植和圖11(b)中的沙發無法被人眼識別,且圖10(b)中的草地和圖11(b)中的玩偶飽和度過高。LECARM 算法結果圖像對比度不高,整體亮度不高,如圖10(c)、(c)和圖11(c),且圖11(c)中大衛鼻子處,玩偶頭部位置存在過度增強現象。從圖10 和圖11 第4 列可以發現RUAS 算法結果圖像亮度較低,存在明顯色差,無法有效增強原始圖像。Zero-DCE 算法增強結果較好,但是整體亮度仍低于本文所提算法,如圖10(e)中的綠植和圖11(e)中的沙發,且該算法增強結果對比度不高,如圖11(e)中的玩偶。綜合對比發現,本文所提算法增強效果明顯,可以有效提高圖像的亮度和對比度,同時不會產生過度增強現象,算法增強結果色彩真實自然,令人眼滿意。實驗室環境數據集共包括13 對圖片,其中9 對圖像分辨率為1 040×772,4 對圖像分辨率為1 280×1 024,由上述Onsemi 和JAI 兩種相機拍攝獲得,輸入低照度圖像和參考圖像如圖9 所示。對各算法增強結果進行了定量統計對比,結果如表4 所示??梢园l現本文算法評價指標取得優秀成績,其中PSNR 指標強于次優算法4.28%,SSIM 指標強于次優算法1.94%,NIQE 指標僅次于KinD 算法。

表4 不同算法下增強結果的圖像質量評價及所用時間對比Table 4 Image quality evaluation and time spent comparison of enhancement results under different algorithms

表4 還給出了各算法運行時間,其中LIME 算法涉及光照估計問題,需要根據優化條件進行大量計算,耗時最多。LECARM 和Zero-DCE 算法耗時最短,這是由于二者僅使用伽馬校正的方式,只需對圖像各個像素點的進行校正,雖然速度快但處理效果也較差。KinD 算法分為圖像分解、反射率恢復和光照調節三個模塊,運算時間也較慢。RUAS 算法引入先驗約束,以結構搜索為手段,是一種輕量級網絡,計算資源消耗少,用時較短但NIQE 的指標較差,這是由于該算法的照明估計模塊不適用于復雜光照場景。本算法耗時中等,主要是生成模擬曝光序列耗時較多,但是綜合各項圖像質量評價指標最優,后期將在模擬曝光和曝光融合協同部分進行改善,以提高運行速度。

為了進一步評價所提算法增強結果的色彩質量,在暗室環境中使用JAI 相機采集了約8.71×10-2lx(第一行)和1.02×10-2lx(第三行)兩種照度下X-Rite 標準比色卡的圖像,該相機為棱鏡式真彩色工業相機,傳感器型號為Sony IMX265,各算法的增強效果如圖12 所示。

圖12 不同照度比色卡圖像增強結果對比Fig. 12 Comparison of enhancement results of different illumination colorimetric cards

選取CIE LAB 色差對實驗結果進行比較,色差定義如式(22)所示。CIE LAB 坐標系中兩點的距離ΔE(x,y)可以較好地表征人眼感受到的色差,反映出待測圖像色彩與目標參考圖像的色彩匹配程度,數值越小表明二者色彩差異越小。

式中,L2、a2、b2和L1、a1、b1分別表示目標參考圖像和待測圖像的CIE LAB 顏色空間的明度分量L、從綠色到紅色的分量a和從藍色到黃色的分量b。選擇各個色塊中60×60 大小的區域進行計算,分別計算24 種顏色的色差,結果取平均。各算法對比結果如表5 所示,其中最優結果加粗顯示??梢园l現,本文所提算法增強結果最優,較好的保留了色彩信息,在8.71×10-2lx 下,色差優于第二名算法14.83%,在1.02×10-2lx 下,色差優于第二名算法3.05%。結合對圖12 的人眼觀察,本文所提算法表現最佳。

表5 不同照度下比色卡圖像增強結果色差對比Table 5 Color difference comparison of color card image enhancement results under different illuminance

3 結論

本文提出了一種基于自適應截斷模擬曝光和無監督融合的增強算法。首先介紹了模擬曝光生成方法,通過閾值分割技術得到亮暗區域,然后結合亮度響應和帶有截斷因子的自適應伽馬校正,以及引導濾波算法得到模擬曝光序列。然后介紹了基于上下文聚合網絡的融合方法,包括基于空洞卷積的權重學習模塊和深度引導濾波上采樣模塊,實現加權融合獲得增強結果。最后使用微光夜視相機和三通道真彩色相機收集了低照度圖像測試集,并對公開數據集和實驗室環境數據集進行實驗,將實驗結果和諸多優秀算法進行對比。實驗結果表明本算法性能優越,魯棒性較好。該算法可以有效提高圖像亮度和對比度,在恢復圖像暗部區域信息的同時有效抑制亮部區域過度增強現象,同時算法增強的圖像具有較好的色彩信息,結果令人滿意。

猜你喜歡
暗部照度亮度
素描暗部中的形式語言探析
恒照度智慧教室光環境
亮度調色多面手
電子投影機照度測量結果的不確定度評定
亮度一樣嗎?
基于斬波調制的LED亮度控制
人生的亮度
怎樣拍攝夜景照片
怎樣拍攝夜景照片
素描石膏的寫實技巧
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合