?

基于高動態范圍圖像中光暈分析的光照方向測算算法

2016-05-14 10:37李華王旭陽楊華民韓成
計算機應用 2016年5期
關鍵詞:增強現實

李華 王旭陽 楊華民 韓成

摘要:針對增強現實(AR)系統中復雜場景的光照一致性問題,運用高動態范圍(HDR)圖像處理技術對標識物圖像進行分析,提出一種基于HDR圖像中光暈分析的光照方向測算算法。為了提高虛擬物體的沉浸感和真實性,在研究和分析現有的光照恢復算法的基礎上,利用二次曲線對的投影不變性原理進行相機標定;為了獲得更加詳盡的光照信息,使用HDR技術對標識物圖像進行處理,提高了測算精確度;參照Lambert光照模型對圖像中的光照信息進行分析,將拍攝角度進行分類,實現了對傳統測算光源方向算法的改進,可測算出位于攝影球反射范圍外的部分光源的方向,擴大了測算范圍。設計了針對單一點光源的視角1和視角2測算驗證實驗,并進行了分析。實驗驗證表明,所提方法簡單易行,具有較強的魯棒性,能夠實現在標識物部分遮擋的情況下,測算出位于攝影球反射范圍外部分光源的方向。

關鍵詞:增強現實;沉浸感;光照恢復;相機標定;高動態范圍

中圖分類號:TP193.41 文獻標志碼:A

Abstract:Aiming at the illumination consistency of complex scenes in Augmented Reality (AR) system and analyzing the marker images by HighDynamic Range (HDR) technology, an improved measurement algorithm for illumination direction based on the analysis of halo in HDR images was proposed. In order to improve the immersion and reality of virtual objects, after researching and analyzing the existing illumination recovery algorithms, a camera calibration method was proposed by utilizing the projection invariance of the quadratic curve pair. In order to get detailed light information, HDR was used to process marker image to improve accuracy. Refering to Lambert illumination model, the light information of image was analyzed to classify the shooting angle, and the improvement of traditional light source direction measuring was realized, part of the directions of the light sources outside of the photography ball reflection range was measured. The shooting 1 and shooting 2 of the single point light source were tested and analyzed. The experimental results show that this method is simple, robust, and can measure the direction of partial illumination outside the mirror ball reflection range no matter whether the marker is partially shaded or not.

Key words:Augmented Reality (AR); immersion; illumination recovering; camera calibration; HighDynamic Range (HDR)

0 引言

特種電影《阿凡達》《變形金剛》等引起的轟動效應使得基于增強現實的特種影片攝制技術成為國內外學者的研究熱點。增強現實(Augmented Reality, AR)是虛擬現實研究領域的重要分支。然而,光照一致性問題[1]既是增強現實中實現虛實融合的一個難點也是重點。光照一致性需要根據光學物理的有關定律,結合坐標系的標定、幾何特征的提取、陰影遮擋的處理、光源方向和強度的檢測及恢復等來模擬自然界中光照的明暗。如何在增強現實系統中高效準確地確保光照一致性已成為近年來備受矚目的研究熱點。

光照一致性是解決虛實物體無縫融合的關鍵,是增強沉浸感的主要手段之一[2]。最早在1991年由Zheng等[3]首次提出光照算法,通過分析包含標識物的圖像,并利用圖像輪廓線的陰影信息,來推算真實環境中點光源的方位角。當前,關于光照一致性的研究正朝著多樣性的方向發展:可以從旋轉視頻中提取動態的光照信息[4],也可以使用魚眼鏡頭拍攝全景圖像[5],還可以利用點云數據對復雜場景中物體進行分類和分割[6],此外以立方體標識物[7]或者雙測光球[8]作為光照信息載體的光源恢復也具備較好的效果。從現有的光照一致性技術的分析和研究中可以看出,需要解決的問題主要集中于光源方向和光源強度的測算[9],其中光源的強度值往往是通過建立光照模型完成的[10],且僅能得到強度的相對值[11],在實際應用的后期處理中還會添加手動調整的過程;而光源方向的測算是光照恢復的基礎,由于光源的方向變化較頻繁,且對渲染效果影響較大,所以光源方向的恢復是光照一致性技術的重點和難點。

在測算光照方向時,利用標定板測光球模型是完成幾何光照注冊的有效方法之一。但在一些遮擋面積大、遮擋物多的復雜場景中,傳統的標定方法往往具有很大的局限性,甚至無法估計出結果,而且近光源于攝影球等標識物上所得信息往往不能近似為點,帶來較大誤差。例如,文獻[12]提出的標識物光源測算模型,需要進行人為手動協助才能完成,并且需要進行多次光照矯正;文獻[13]提出的三維光照測算模型,雖然能夠很好地測算出光照信息,但其受拍攝角度的影響較大,而且在復雜場景中被遮擋時,無法完成測算工作, 因此,本文針對復雜場景的光照一致性問題,在分析和研究了傳統攝影球模型算法的基礎上,運用高動態范圍(HighDynamic Range, HDR)圖像處理技術對標識物圖像進行分析,提出一種基于HDR圖像中光暈分析的光照方向測算算法,對傳統的攝影球模型算法進行了明顯改進,實現了在標識物部分遮擋的情況下,測算出位于攝影球反射范圍外的光源方向。

1 隨機點云標定

相機標定是2D圖像重建3D測度信息的關鍵步驟。計算機視覺中,隨著透視投影角度的變化,所視場景中的面積、長度、角度等元素會隨著透視角度的變化而變化,場景中特征點與圖像像素點的匹配計算[14-17]直接影響到標定算法效率。

對于本文所提測算算法,需要使用一種在標識物被部分遮擋的情況下進行相機姿態的標定方法,如圖1所示為傳統的棋盤格標定法中標識物被部分遮擋的情況。

經過實驗,傳統的棋盤格標定法在以上三種遮擋情況下均無法完成相機標定的功能,無法應用于本文所提測算算法。

1.1 二次曲線對透視不變性

目前,對于二維圖像已經提出了如不變矩[18]、傅里葉描繪子[19]、R描繪子[20]等方法,但僅限于空間平面與相機光軸垂直時。而本文采取的是二次曲線對的透視不變性原理[21-22],并且在此基礎上使用一種基于隨機點云標識物的標定方法。

1.2 隨機點云匹配算法

光源方向的測算實質上是對光源三維重建的一部分,三維重建中相機的標定過程是必不可少的,在已知匹配點時,利用張正友算法[23]可以直接完成相機標定工作,因此,拍攝圖像與標定模板的點匹配成為了相機標定的關鍵。

在測算光源方向時,本文選定相機坐標系作為全局坐標系。雖然全局坐標系選為世界坐標系時也可以用同樣的方法確定光源位置,但是這樣設置會引起2個問題:

1)其他標識的坐標值要經過2次轉換才能獲得全局坐標,增加了計算的復雜度和誤差;

2)識別標識物時可能產生誤差(在現有的基于定位標記的增強現實系統中這是一個無法避免的現象),多次坐標矩陣轉換之后這個誤差會被放大,影響檢測的準確性。

本文基于1.1節中驗證的二次曲線對透視不變性原理,使用了一種隨機點云標定算法。其中對應點的匹配算法可以簡述為如下步驟:

1)繪制由數個等大圓隨機分布構成的標定模板,在將其數字化后記錄每個圓的圓心坐標以及1.1節中涉及到的系數矩陣P;

2)將標定模板中的每個圓與其最近的4個圓分為一組,如圖2(a),視圓間的IP值為邊長,計算中心圓與最近4個圓成角的4個余弦值并作為每個中心圓的一組特征值;

3)分析相機所拍攝的場景圖像,提取出球面圓圖中可見的每個橢圓的圓心坐標以及系數矩陣;

4)同理于步驟2),將場景圖像中的每個橢圓與其最近的4個橢圓分為一組,如圖2(b),視橢圓間的IP為邊長,根據三角形余弦定理,計算中心橢圓與最近4個橢圓成角的4個余弦值并作為每個中心橢圓的一組特征值;

5)將場景圖像與標定模板按照步驟2)和步驟4)中計算得到的特征值進行匹配,從而得到相匹配的圓和橢圓的對應圓心。

得到匹配點的坐標后,即可根據相機的透視投影原理,應用張正友算法[24-26]求得單應性矩陣,從而計算出圖像坐標與世界坐標之間的轉換關系[27]。

2 多點光源恢復

所謂光照一致性,是指AR場景中的虛擬物體應具備與真實場景相同的光照效果,這意味著首先要恢復出真實場景的光照情況,即恢復出真實場景中有“貢獻”光源的位置和強度,然后計算真實場景光照對虛擬對象的影響[28]。

可根據是否需要借助特殊標定物將光照方向測算方法分為兩大類,即借助標定物測算方法和不需要借助標定物測算方法,其中不需要借助標定物測算方法又可分為立體視覺法和人工智能法,本文采取的是借助攝影球的測算方法。

2.1 攝影球測光原理

真實光源在AR系統中通常被模擬成三種光源模型:方向光源、錐形光源和點光源,如圖3所示。

通過該方法可以獲得分布在以攝影球球心為中心的球面上各個光源點的方向,由球面圓區域中與之對應的像素的位置確定。由此所得到的光源數據可用于AR場景的光照重構。

2.2 測算光源方向的改進算法

文獻[30-32]已提出多種借助攝影球等特殊標定物的光源測算方法。為了獲得更加詳盡的信息,本文利用HDR技術對場景圖像進行處理,并且通過運用Lambert模型對標定物圖像進行分析,提出一種改進的攝影球光源測算方法。本節以單點光源為例對改進算法進行敘述。

2.2.1 Lambert 模型

自然界中的大部分物體表面都是同時具有漫反射性質和鏡面反射性質,本文只考慮攝影球的漫反射性質,看作是理想化的Lambert模型。其方程形式為:

對于攝影球,點A、B是其“截圓面”上點光源入射光線與球的切點,則半徑OA、OB垂直于過切點的點光源的入射光線。此外,攝影球的整個球面被“截圓面”劃分成了兩個部分,將耀點Q所在的那一部分記為“陽面”,另一部分記為“陰面”。由式(7)可知,隨著攝影球面上的點距離光源越來越遠,式中的θ隨之增大時,反射光強I將一直減小,當θ增大至90°時,反射光強I將不會減小,即位于“陰面”的點只受環境光影響,如圖5(b)所示。

由于拍攝角度的原因,我們只能得到攝影球一部分圖像,因此“耀點”有可能不會出現在攝影球的圖像上。為了進一步對本算法進行分析和描述,將攝影球圖像分為三種視角進行討論:

1)視角1,相機拍攝到“耀點”的圖像,即“耀點”出現在球面圓的圖像中,如圖6(a)所示;

2)視角2,相機沒有拍攝到“耀點”的圖像,只拍攝到“陽面”和“陰面”的一部分,如圖6(b)所示;

3)視角3,由于“陽面”面積小于攝影球表面積的1/2,所以可能會出現沒有拍攝到“陽面”的情況,如圖6(c)所示,對于該種情況本文不作研究。

為了判斷拍攝的圖片屬于上述3種情況的哪一種,采取如下的方法進行判斷:

1)如果球面圓圖像中所有像素點的灰度值全部相等,則可判斷屬于視角3,即屬于圖6(c)所描述的情況;

2)如果球面圓圖像中灰度值最大的點位于球面圓的圓周上,則可判斷屬于視角2,即屬于圖6(b)所描述的情況;

3)如果球面圓圖像中灰度值最大的點個數唯一,且位于球面圓內部,則可判斷屬于視角1,即屬于圖6(a)所描述的情況。

2.2.3 點光源方向的計算

根據2.2.2節所述內容可知,拍攝視角可以分為3種,本節主要針對各種視角,討論點光源方向的計算方法。

1)視角1:耀點出現在球面圓內。

由于欲測點光源可能距離攝影球較近,從而于攝影球表面所成像的最亮部分無法近似為一個點,為此本文要對球面圓圖像進行再次處理:先通過設定閾值的方法將球面圓圖像進行二值化(具有最高灰度值的一些點設為1,其余點設為0),從而將最亮部分提取出來,并對有這些點構成的區域進行橢圓擬合得出圓心點坐標,最終根據式(6)即可計算出光源的方向。

2)視角2:耀點未出現在球面圓內。

球面上的點均滿足球面方程,在已知球半徑的前提下,可以得出A、B、C三點的三維坐標。根據空間解析幾何定理,給定圓周上的三點可以唯一確定一個圓心。由此,可以求出圓截面的圓心三維坐標,進而求出通過截面圓圓心、球心的直線與攝影球表面的交點,即為未出現在球面圓內的耀點坐標,接下來根據式(6)即可計算出光源的方向。

2.2.4 算法步驟

對于借助攝影球測光源方向的方法,往往需要滿足前提條件,即于拍攝角度處,光源映射到攝影球表面的光斑必須可見,而本文算法,利用HDR圖像技術,對攝影球圖像進行分析,擴大了光源的測算范圍,而且提高了近光源方向的測算精度。從攝影球圖像中測算光源方向的大致步驟如圖7所示。

3 實驗結果與分析

3.1 光照信息的采集與虛擬物體的生成

本文主要針對視角1和視角2進行實驗分析,主要針對單一點光源進行驗證。如圖8所示,使用高亮LED手電筒作為點光源,室內自然光作為環境光進行光源方向的測算實驗。如圖9所示,為本實驗所用的相機標定板。

如圖10為本文所使用的標定方法的3組實驗。表1中僅列舉了相機標定單應性矩陣的部分參數,R為外參中三維的旋轉矩陣, f為內參中的焦距。分析表1中的實驗數據,由實驗1~2可知在標定板被遮擋的情況下,相機的外參基本一致,而內參有所差別;由實驗1~4可知在標定板被遮擋的情況下,相機的外參對應一致,而內參誤差隨遮擋的面積增大;實驗5~6為對照實驗組,當視角發生改變時,該標定方法仍能夠實現功能。

1)視角1實驗。調整圖9中的高光LED手電筒的位置和角度,使其于攝影球上所呈光斑位置如2.2.2節中的視角1位置。本文算法中相機的姿態保持不變,其姿態計算過程如圖11所示。

對圖13中光斑處進行橢圓擬合,找出橢圓圓心坐標作為“耀點”的近似坐標,代入式(6)中即可算出光源方向。根據實物在MAYA中構建虛擬模型,并利用所測算到的光照信息數據生成虛擬光源,在該虛擬光源的照射下進行渲染,渲染效果如圖14所示。

圖13中上端的兩個高亮點為室內提供環境光照的兩盞照明用燈所致。圖15中的礦泉水瓶瓶蓋為真實物體,作為參照物。對比圖14(a)和圖14(b)可知,由于本文只對光源方向做研究未考慮到光源強度,產生的虛擬陰影較深。

2)視角2實驗。調整圖9中的高光LED手電筒的位置和角度,使其于攝影球上所呈光斑位置如2.2.2節中的視角2位置。其具體實驗步驟與實驗1類似,如圖15合成攝影球的高動態范圍圖像后,對圖15(f)進行輻射度分析,并按照2.2.3節所述算法取A、B兩點并計算出弧中點C,算出點光源的方向,如圖15所示。如圖16所示,為視角2下生成的攝影球輻射度圖像。

如圖17所示,為視角2下生成的虛擬物體。由于實驗條件的限制,在該視角下,標識物表面的鏡面反射成分無法忽略,標識物中某些點無法準確識別,導致相機標定結果的準確性下降。

3.2 實驗分析

為了驗證光照信息測算的準確性,本文根據實物在MAYA中構建模擬的虛擬模型,并利用所測算到的光照信息數據生成虛擬光源,在該虛擬光源的照射下進行渲染。

在實際操作中,攝影球表面會映射出室內物品或者下方標識物的投影,從而在攝影球的輻射度圖中會產生干擾點,如圖14中的右下方。由于使用了高動態范圍成像技術,攝影球圖像的更多細節會被保留下來,從而提高了測算的準確性。

無法避免的是,創建的虛擬物體模型無法與實際物體的幾何性質完全相同,所以在MAYA中生成的實驗效果會出現誤差,但從光照一致性角度看,本實驗結果已經基本達到預期效果,實現了光源方向的一致性。

4 結語

針對增強現實系統中復雜場景的光照一致性問題,本文提出了一種基HDR圖像中光暈分析的光照方向測算算法。該算法利用二次曲線對透視不變性原理對相機姿態進行測算,測算方法操作簡單、具有較強的魯棒性,能夠克服傳統意義上棋盤格標識物的遮擋問題;為了更加精確地獲得光照信息,結合高動態范圍成像技術,對攝影球圖像進行處理,還原出更加準確的測算參數;尤為重要的是,本文在對攝影球的HDR圖像進行輻射化后,通過分析光斑周圍的像素點,可以測算出位于攝影球直接反射范圍外的部分位置的點光源方向。由于本文所解決的重點在于測算光源的方向,僅用SEKONIC L308S測光表進行光源強度的大致測量。最后,本文通過在MAYA中進行模擬實驗,利用測算所得光照數據對虛擬物體進行渲染,所得效果較好,達到預期效果。

進一步研究將主要針對復雜場景中多光源的測算和恢復,目的在于更加有效地解決多光源間的相互影響等問題,從而,使得虛擬對象更具沉浸感,更加逼真。

參考文獻:

[1]葉東文,陳國棟. 混合場景中光照一致性研究[J]. 計算機應用研究, 2015, 32(9):2874-2876. (YE D W, CHEN G D. Research of illumination consistency in hybrid scene[J]. Application Research of Computers, 2015, 32(9):2874-2876.)

[2]李自力,朱光喜,朱耀庭.一種基于會聚雙目立體視覺的用戶化身模型[J]. 電子與信息學報,2003,25(6):763-770. (LI Z L, ZHU G X, ZHU Y T. A customization model based on convergent binocular stereo vision[J]. Journal of Electronics & Information Technology, 2003,25(6):763-770.)

[3]ZHENG Q, CHELLAPPA R. Estimation of illuminant direction, albedo, and shape from shading[C]// Proceedings of the 1991 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 1991:540-545.

[4]DONG Y, CHEN G, PEERS P, et al. Appearancefrommotion: recovering spatially varying surface reflectance under unknown lighting[J]. ACM Transactions on Graphics (TOG), 2014, 33(6): 193.

[5]MADSEN C, LAURSEN R. A scalable GPUbased approach to shading and shadowing for photorealistic realtime augmented reality[J]. International Conference on Computer Graphics Theory and Applications, 2007,1(4): 252-261.

[6]NAN L, XIE K, SHARF A. A searchclassify approach for cluttered indoor scene understanding[J]. ACM Transactions on Graphics (TOG), 2012, 31(6): 137.

[7]周雅,晏磊,趙虎. 增強現實系統光照模型建立研究[J]. 中國圖象圖形學報, 2004, 9(8):968-971. (ZHOU Y, YAN L, ZHAO H. Study on the lighting model of the real world in augmented reality[J]. Journal of Image and Graphics, 2004, 9(8):968-971.)

[8]豐艷. 增強現實系統虛實無縫融合相關問題研究[D]. 上海: 上海大學, 2007:106-138. (FENG Y. Research on seamless fusion of real and virtual scenes in augmented reality system[D]. Shanghai: Shanghai University, 2007:106-138.)

[9]王珂. 增強現實中虛實光照一致性研究綜述[J]. 光電技術應用, 2013,28(6):6-12. (WANG K. Research on virtualreal illumination consistency in augment reality scene[J]. ElectroOptic Technology Application, 2013,28(6):6-12.)

[10]沈沉,沈向洋,馬頌德. 基于圖像的光照模型研究綜述[J]. 計算機學報, 2000, 23(12):1261-1269. (SHEN C, SHEN X Y, MA S D. A survey of imagebased illumination model[J]. Chinese Journal of Computers, 2000, 23(12):1261-1269.)

[11]李粉莉,童小念. 基于增強現實的圖像光照一致性模型探討[J]. 電腦知識與技術, 2011,7(9):6195-6196. (LI F L, TONG X N. Image illumination coherence based on augment reality[J]. Computer Knowledge and Technology, 2011,7(9):6195-6196.)

[12]姚遠, 朱淼良. 增強現實場景光源的實時檢測方法和真實感渲染框架[J]. 計算機輔助設計與圖形學學報, 2006.18(8):1270-1275. (YAO Y,ZHU M L. A framework for lighting detection and scene rendering in AR environment[J]. Journal of Computeraided Design & Computer Graphics, 2006,18(8):1270-1275.)

[13]KANBARA M, YOKOYA N. Realtime estimation of light source environment for photorealistic augmented reality[C]// Proceedings of the 17th International Conference on Pattern Recognition. Washington, DC: IEEE Computer Society, 2004: 911-914.

[14]侯志強,黃安奇,余旺盛,等. 基于局部分塊和模型更新的視覺跟蹤算法[J].電子與信息學報,2015,37(6):1357-1364. (HOU Z Q, HUANG A Q, YU W S, et al. Visual object tracking method based on local patch model and model update[J]. Journal of Electronics & Information Technology,2015,37(6):1357-1364.)

[15]彭勃宇,王崴,周誠,等. 面向增強現實的SUSANSURF快速匹配算法[J]. 計算機應用研究,2015,32(8):538-2542. (PENG B Y, WANG W, ZHOU C, et al. SUSANSURF fast matching algorithm for augment reality[J]. Application Research of Computers,2015,32(8):2538-2542.)

[16]張勇,王志鋒,李丹陽. 一種改進的SIFT特征點匹配方法[J]. 廣東通信技術,2015,35(5):25-29. (ZHANG Y, WANG Z F, LI D Y. A modified SIFT feature points matching algorithm[J]. Guangdong Communication Technology, 2015,35(5):25-29.)

[17]黃偉國,胡大盟,楊劍宇, 等. 用于遮擋形狀匹配的弦角特征描述[J]. 光學精密工程,2015,23(6):1758-1767. (HUANG W G, HU D M, YANG J Y, et al. Chord angle representation for shape matching under occlusion[J]. Optics and Precision Engineering, 2015,23(6):1758-1767. )

[18]HU M K. Visual pattern recognition by moment invariants[J]. IRE Transactions on Information Theory, 1962,8(2):179-187.

[19]ZAHN C T, ROSKIES R Z. Fourier descriptors for plane closed curves[J]. IEEE Transactions on Computers, 1972,100(3):269-281.

[20]MA J, WU C K, LU X R. A fast shape descriptor[J]. Computer Vision, Graphics, and Image Processing, 1986,34(3):282-291.

[21]徐正偉,吳成柯. 二維形狀的透視不變性識別[J]. 自動化學報, 1995,23(4):431-439. (XU Z W, WU C K. Perspective invariance recognition of twodimensional shape[J]. Acta Automatica Ainica, 1995, 23(4):431-439.)

[22]韓笑,廖粵峰. 基于平面二次曲線的非單視點全景相機標定方法[J]. 計算機與現代化,2015,18(7):59-64. (HAN X, LIAO Y F. Calibration method for nonsingle viewpoint omnidirectional cameras based on planar curve[J]. Computer and Modernization,2015,18(7):9-64.)

[23]ZHANG Z. Flexible camera calibration by viewing a plane from unknown orientations[C]// Proceedings of the 7th IEEE International Conference on Computer Vision. Piscataway, NJ: IEEE, 1999, 1: 666-673.

[24]李莉. OpenCV耦合改進張正友算法的相機標定算法[J]. 輕工機械,2015,33(4):60-63.(LI L. Camera calibration algorithm based on OpenCV and improved Zhang Zhengyou algorithm[J]. Light Industry Machinery, 2015,33(4):60-63.)

[25]劉艷,李騰飛. 對張正友相機標定法的改進研究[J]. 光學技術,2014,19(6):565-570. (LIU Y, LI T F. Research of the improved of Zhangs camera calibration method[J]. Optical Technique, 2014,19(6):565-570.)

[26]王頒法,肖昭然,張斌. 基于Matlab的圖像預處理技術在相機標定中的應用研究[J]. 河南科技,2014(21):66,81. (WANG B F, XIAO Z R, ZHANG B. Application research based on image preprocessing technology in Matlab for camera calibration[J]. Journal of Henan Science and Technology, 2014(21):66,81.)

[27]VOGIATZIS G, HERNNDEZ C. WITHDRAWN: Videobased, realtime multiview stereo[J]. Image & Vision Computing, 2012,4(7) :434-441.

[28]譚茗. 基于視覺的增強現實系統中的光照一致性研究[D]. 長沙: 湖南大學, 2009:19-73. (TAN M. The study of consistent illumination in visualbased augmented reality[D]. Changsha: Hunan University,2009:19-73.)

[29]DEBEVEC P E, MALIK J. Recovering high dynamic range radiance maps from photographs[C]// Proceedings of the 24th Annual Conference on Computer Graphics and Interactive Techniques. New York: ACM, 2008: 31.

[30]ZHANG Y, YANG Y H. Multiple illuminant direction detection with application to image synthesis[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2001, 23(8): 915-920.

[31]BOUGANIS C, BROOKES M. Multiple light source detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2004,26(4):509-514.

[32]FENG Y. Estimation of light source environment for illumination consistency of augmented reality[C]// Proceedings of the 2008 Congress on Congress on Image and Signal Processing. Washington, DC: IEEE Computer Society, 2008, 3: 771-775.

猜你喜歡
增強現實
虛擬現實及觸覺交互技術:趨勢與瓶頸
虛擬現實技術對舞臺表演藝術觀演關系的影響
VR/AR在戲劇中的應用
照片建模與增強現實實驗在三維軟件基礎課程中的應用
增強現實技術在職業教育中的應用
虛擬現實技術和增強現實技術在建筑業的應用初探
虛擬現實技術和增強現實技術在建筑業的應用初探
淺談增強現實技術及其軍事應用
增強現實的系統結構與關鍵技術研究
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合