?

立體視差調整的快速估計方法

2013-06-01 12:30侯春萍
關鍵詞:對應點視差視點

岳 斌,侯春萍

(天津大學電子信息工程學院,天津 300072)

立體視差調整的快速估計方法

岳 斌,侯春萍

(天津大學電子信息工程學院,天津 300072)

立體圖像的視差調整多用于會聚調節和視差校正.為準確地計算出立體圖像視差調整量的取值范圍,建立了立體視差調整的快速估計方法.算法首先將人類立體視覺的Panum融合區應用于立體顯示空間,給出計算立體顯示屏幕Panum融合區的方法,然后推導出立體顯示屏幕Panum融合區對視差調整量的限定,最后通過對立體圖像深度線索的稀疏匹配快速估計出Panum融合區限定下視差調整量的適用范圍.經實驗驗證,本方法可以快速、準確地得到視差調整量的適用范圍,最大限度地避免立體圖像中出現雙眼復視的情況.

視差調整;Panum融合區;圖像分割;特征提??;特征點匹配

近年來隨著立體技術的持續火熱,立體顯示和立體編碼兩方面的研究已經取得了許多重大成果.立體顯示方面,目前市場上應用最多的視差式立體顯示設備可以提供較好的立體效果,讓人們能夠體驗近乎真實的立體影像.立體編碼方面,通過眾多視頻編碼專家的努力工作,已經建立起多視點視頻編碼(multiview video coding,MVC)標準[1].MVC標準可以使立體節目在較大壓縮比下仍保持良好的效果.在立體顯示技術和立體編碼技術快速發展并不斷取得進步的同時,立體節目的匱乏變成了影響立體產業快速發展的一塊短板,其質量的好壞對觀看舒適度有著較大的影響.

立體節目可以通過電腦繪制、2,D轉3,D、雙(多)相機拍攝和深度相機拍攝等多種方式獲?。P者僅討論由最基本的雙視點立體相機獲取的立體節目視差調整問題.雙視點攝像系統是模擬人類視覺系統用兩只眼睛從自然界真實三維景物中獲取信息的方式,通過使用在水平方向上相隔一定距離的兩部相機(與左、右眼相對應,分別稱為左視點相機和右視點相機),來實現對三維場景即拍攝空間信息的采集和記錄.根據兩部相機光軸交點位置不同,可將立體信息采集系統分為不同配置模式.如果光軸交于相機鏡頭前方,稱為會聚配置模式[2](convergence configuration);如果光軸夾角為零,即兩部相機的光軸平行,稱為平行配置模式(parallel configuration).

將會聚配置模式和平行配置模式進行比較,會聚配置模式拍攝的節目具有同時存在交叉視差和非交叉視差(即同時具有2個方向的深度)的優點,但也有深度平面彎曲失真[3]和梯形失真[4-5]的缺點;平行配置模式拍攝的節目雖然沒有上述2種失真,但是只存在單一方向的視差,即或者只有交叉視差(凸出屏幕方向的深度),或者只有非交叉視差(凹進屏幕方向的深度),深度表現范圍較會聚配置模式?。叫信渲媚J胶蜁叟渲媚J礁饔袃灹樱趯嶋H應用中,平行配置模式因其易于實現、調整簡單等優點而被廣泛采用.

立體視差調整可以改善平行配置模式拍攝的節目只存在一個方向深度的缺點,使經過調整的立體節目同時存在交叉視差和非交叉視差,形成等效會聚.立體視差調整需要限定范圍,不恰當的視差調整量可能會使立體節目在觀看時產生部分景物無法融合、出現重影等現象,因此在視差調整前必須計算好視差調整量的范圍.筆者提出了一種立體視差調整的快速估計算法,使用這種算法可以快速準確地算出視差調整量的范圍,經過算法調整的立體節目可以較舒適地融合,從而獲得較好的立體觀看效果.

1 平行配置模式立體視差調整的基本方法

平行配置模式立體視差調整主要有2種方法:一種是實時獲取的離軸平行法,主要用于視差的會聚調整;另一種是后處理的視差平移調整法,該方法既可用于視差的會聚調整,也可以用于視差的舒適量調整,即視差校正.

離軸平行法[6]采用一種特殊結構的立體相機系統,結構模型如圖1所示.這種系統的兩部相機的光軸相對(charge-coupled device,CCD)成像面中心在水平方向上有一定的偏移量.在拍攝時,兩部相機控制各自的CCD成像面中心,使相對應的相機光心的連線相交于一點,形成等效會聚.這種方法通過硬件來實現平行配置攝像系統的視差會聚調整,其主要缺點是對相機本身提出了特殊要求,操作復雜,價格昂貴,不具有普遍適用性.

視差平移調整法是對已獲取的立體圖像進行視差調整,利用圖像處理方法完成,本文所做的研究都是針對此方法.視差平移調整通常的做法是先確定視差調整量,再根據調整量對不同視點的圖像進行剪切、平移處理,達到視差會聚調整和視差校正的目的.圖2以兩視點立體圖像為例說明視差平移調整過程.首先確定視差調整量M,然后將左視點圖像左側寬度為M的一部分圖像剪切掉,同時將右視點圖像右側寬度也為M的一部分圖像剪切掉,最后將處理后的左、右視點圖像平移對齊,生成新的立體圖像對.Wl( ul, v)、Wr( ur, v)分別為左、右視點圖像中的一對對應點,在視差調整前以各自視點圖像中心O為原點的坐標系中橫坐標分別為ul和ur,水平視差為ul-ur.在視差調整后的新左、右視點圖像中以圖像中心O′為原點生成新坐標系,Wl和Wr的橫坐標分別變為ul-M/2和ur+M/2,水平視差變為ul-ur-M.通過視差平移調整法,左、右視點圖像對應點的視差減小M.

圖1 離軸平行相機模型Fig.1 Horizontal-moving stereoscopic camera model

圖2 視差平移調整法Fig.2 Disparity parallel moving adjustment metho d

盡管視差平移調整法使立體圖像在水平方向上損失了一部分信息,但損失的信息對立體圖像視場影響不大.因為首先如圖3所示,平行配置的雙視點相機存在同時可視區(圖3中陰影部分)和非同時可視區(圖3中非陰影部分),左視點圖像左側和右視點圖像右側各有一部分區域無法在另一視點圖像中找到對應.視差平移調整法剪切掉的區域包括對立體感沒有貢獻的非同時可視區;其次視差調整量M通常取值較小,剪切掉的部分相對整幅圖像的視場只占很小一部分.

圖3 平行配置雙視點相機視區Fig.3 Visual area of parallel configuration stereoscopic camera

2 Panum融合區界定的視差調整范圍

視差平移調整法如果沒有選取適當的視差調整量M,會使立體圖像中某些景物的視差過大,在觀看時無法融合成一個單一的像,形成雙眼復視.為了最大限度地避免這種現象,需要引入Panum融合區對視差調整量M進行限定.

一般而言,雙眼復視和雙眼單視與人類立體視覺基本機理[7]有關.視覺生理學指出,在雙眼注視點上的物體,其刺激作用到雙眼視網膜的對應點上,產生單一的像;注視點附近一定范圍的物體,盡管沒有刺激到雙眼視網膜的對應點上,也可以形成單像.但這時如果某物體與注視點的距離超出一定范圍則無法融合成單像,只會觀察到雙像.這一現象是Panum發現并提出的[8].如圖4所示,在注視點周圍可以形成單像的區域被稱為Panum融合區(Panum's fusional area).在Panum融合區內的物體均能形成雙眼單視,超出Panum融合區的物體則會形成雙眼復視.

圖4 Panum融合區Fig.4 Panum’s fusional area

當人們在觀看立體顯示屏幕上的節目時,雙眼的注視點在屏幕上.通常注視點不是固定在屏幕上一點,而是隨著節目中的景物在屏幕上移動,所以立體顯示屏幕上的Panum融合區不能定義為如圖4所示的馬鞍形區域,而應該定義成如圖5虛線所示的、以前后2條直線為界的區域,這樣定義立體顯示屏幕的Panum融合區,即使注視點在屏幕邊緣時仍然能保證Panum融合區的準確性.

文獻[9]測量出人眼Panum融合區的水平視差界,文中用視差角θ 來表示Panum融合區界.一般情況(短時間觀察獲得雙眼單視)穩定情況(長時間觀察獲得雙眼單視)因為觀看立體節目是一個長時間持續的活動,所以為了保證在觀看時間內都能形成雙眼單視,Panum融合區的水平視差界取θ=±42.

圖5 立體顯示屏幕的Panum融合區Fig.5 Panum’s fusional area of stereo screen

如圖5所示,可分別計算出人眼分別與立體顯示屏幕Panum融合區前界和后界的距離fz和bz,即

Panum融合區前界與屏幕之間的距離Pf和Panum融合區后界與屏幕之間的距離Pb的計算式分別為

由式(1)~式(4)可以看出,當觀看者與屏幕之間的距離不同時,Panum融合區的范圍也不同.假設觀看距離v=2 000 mm ,計算出立體顯示屏幕Panum融合區的前界距離屏幕Pf=547 mm,后界距離屏幕Pb=-1205 mm.因此由左、右視點圖像對應點視差引起的感知深度凸出屏幕不應超過547 mm,凹進屏幕不應超過1205 mm.

觀看者感知到的深度,與顯示在屏幕上左、右視點圖像的對應點視差有關,立體顯示屏幕Panum融合區前后界Pf=547 mm ,Pb=-1205 mm,由視差式立體顯示原理可以推導出Panum融合區對應點的視差范圍為[-24.44 mm,24.47 mm].在立體圖像處理和立體顯示時,為了更好地表述以及處理立體圖像,一般選用像素距離表示視差,根據立體顯示屏幕的像素密度(pixels per inch,PPI),可以將視差從歐氏距離轉換為像素距離.目前市場上常見的平板立體電視PPI的典型值為56,即相鄰像素點距離為0.45 mm,當觀看距離v=2 000 mm時,計算出雙視點立體電視上Panum融合區的視差像素范圍為[-54,54].

為了視差調整處理方便,本文之后的立體顯示屏幕Panum融合區表示由以Panum融合區前后界與屏幕的距離范圍[Pb, Pf]轉換為以Panum融合區在左、右視點圖像的視差范圍[Pmin,Pmax],其中Pmin為Panum區最小融合視差,Pmax為Panum區最大融合視差.

綜上所述,在進行視差平移調整前必須充分考慮Panum融合區對視差調整量M的限制,以保證在觀看立體圖像時不會出現雙眼復視.此外,需要注意針對不同像素密度的顯示器以及不同觀看距離,Panum融合區的視差范圍是不同的.

3 Panum融合區內視差調整量的計算

為了確定視差調整量M的取值范圍,除了需要計算立體顯示屏幕的Panum融合區范圍[Pmin,Pmax],還需要計算顯示的立體圖像左右視點最大視差Smax和最小視差Smin.通過視差平移調整后,立體圖像的視差范圍由[Smin,Smax]變為[Smin-M, Smax-M],在盡量保證調整后視差范圍在Panum融合區范圍內的前提下,可計算出視差調整量M的范圍為[Smax-Pmax,Smin-Pmin].

計算立體圖像最大和最小視差最容易想到的方法是將左、右視點圖像中每個點做匹配,然后逐一比較視差,最終確定整個圖像的最大視差和最小視差.這種稠密匹配并比較視差的方法,需要計算左、右視點圖像的全部對應點,計算量非常大;另外稠密立體匹配算法[10]在計算視差有跳躍的邊緣輪廓處的點,以及在平滑區域內特征不明顯的點時,容易出現誤匹配,得到錯誤的視差值.但是對于估計視差調整量的算法,最重要的需求是對應點匹配的準確性.

本文提出了一種快速計算立體圖像最大和最小視差的方法.該方法不用對左、右視點圖像進行逐點匹配,只需在左、右視點圖像中找出少量對應特征點,即可計算出圖像最大和最小視差,同時還顯著地降低對應點的誤匹配率.

3.1 最大和最小視差的快速計算方法

本文提出的立體圖像最大和最小視差快速計算方法是通過對立體圖像的分析,逐步縮小最大和最小視差點的搜索范圍,最大限度地剔除不可能出現最大和最小視差點的區域.因為不需要對剔除區域內的點進行匹配運算,所以可顯著減少計算量,降低時間復雜度.

在人類立體視覺中,物體表面的形狀輪廓、明顯紋理特征和光影等都是產生立體感的重要線索[11],利用這些信息可以對立體圖像進行分割.如圖6所示,立體圖像左、右視點圖像被分割成許多個對應的圖像塊.這樣就可以將在左、右視點圖像中逐一尋找對應點然后比較視差的問題轉化為:首先進行左、右視點圖像的分割,然后求左、右視點圖像中每個對應圖像塊的最大和最小視差,最后逐一比較圖像塊的最大和最小視差問題.

圖6 立體圖像的分割結果Fig.6 Result of stereo image segmentation

可以看出在分割后的每個圖像塊內部紋理都是平滑的.根據立體視覺原理,如果排除由經驗產生的心理暗示,紋理平滑表面對立體感的貢獻很少.在只有生理立體視覺作用的情況下,人類通常將紋理平滑表面感知成在一個平面上.因此可以將立體圖像中物體的表面表示成由許多個被分割出來的小平面圖像塊組成的.左、右視點圖像間對應的圖像塊,其最大視差和最小視差只會分布在圖像塊的邊緣,因此在搜索最大和最小視差時可以將對應圖像塊內部的點剔除,此時最大和最小視差點的搜索范圍縮小為左、右視點圖像分割出的對應圖像塊邊緣.

然而,經過分割的圖像塊對應邊緣仍然有數量眾多的點,全部尋找對應點,計算量也很大,同時匹配這些對應點時還存在一定的誤匹配率,因此有必要進一步縮小最大和最小視差的搜索范圍.

根據邊緣曲線可以按曲率變化用許多直線段近似描述,這樣就將分割出的邊緣用直線段近似描述,比較對應邊緣視差近似成比較對應直線段的視差.由直線段映射原理可知,當2條直線段非平行時最大和最小視差點分布在線段端點;2條線段平行時所有對應點視差相同.因此在搜索最大和最小視差時,可以進一步把對應邊緣直線上的非端點剔除,這樣就將最大和最小視差點的搜索范圍進一步縮小為立體圖像分割邊緣上的曲率變化劇烈的特征點.

綜上所述,立體圖像的最大和最小視差搜索范圍可最終縮小為根據立體視覺線索對立體圖像進行分割的邊緣上的特征點,在左、右視點圖像中逐一尋找對應點然后比較視差的方法可簡化為逐一尋找特征點的對應點然后比較視差的方法,將稠密立體匹配問題簡化成稀疏立體匹配問題.這個方法的優點是能快速準確地計算出立體圖像的最大和最小視差,大大減少了計算量,同時因所挑選的特征點具有較好的匹配特性,降低了誤匹配率.

3.2 算法實現

計算立體圖像最大和最小視差的步驟為:首先在立體圖像的右視點圖像中尋找特征點,然后在左視點圖像中對特征點進行匹配,最后比較各對對應點視差,找出最大和最小視差.

步驟1 使用CSS(curvature scale space)算法[12]在右視點圖像尋找特征點.CSS算法尋找到的點是在給定的邊緣上的曲率極大值點(即角點),CSS檢測的思想是首先在尺度空間粗糙尺度上檢測角點,然后向精細尺度跟蹤這個點,對它進行修正.在根據立體圖像中景物輪廓、紋理和光影特征提取的邊緣上使用CSS算法獲取的角點是最大和最小視差快速估計中需要搜索的特征點.

特征點提取的方法如下.

1) 檢測邊緣并提取T形角點

第1步:選取適當的參數,使用canny算子[13]對右視點圖像景物的輪廓、紋理和光影等特征進行邊緣提?。?/p>

第2步:填補提取邊緣的間隙,形成閉合曲線.

第3步:尋找并記錄下邊緣上的T形角點.

2) CSS角點檢測與跟蹤

第1步:在最高尺度上計算邊緣的曲率絕對值,并選擇局部極大值點作為角點候選點.候選點滿足:大于閾值t(去除圓形角和噪聲);至少2倍于兩側相鄰的某個曲率極小值點.

第2步:跟蹤候選點到最低(細)尺度以獲得更好的位置精度.對于在高尺度上檢測到的極大值點,在其低一級尺度的鄰域搜索極大值點.如此不斷向更低的尺度進行跟蹤,對候選點進行修正.

3) 去除重復標記的角點

將1)、2)中得到的T形角點與CSS角點作比較,如果兩者非常臨近則去掉該T形角點.最終得到的角點即為提取的特征點.由右視點圖像最終提取的特征點如圖7所示.

圖7 右視點圖像提取的特征點Fig.7 Feature points of right viewpoint image

步驟2 對右視點圖像中得到的特征點使用歸一化互相關法(NCC)[14-15]在左視點圖像中尋找匹配點.

歸一化互相關法首先在特征點圖I1中定義以特征點I1( x, y)為中心(2,n+1)(2,m+1)的區域,然后設定滑動距離d在搜索圖I2中定義以I2(x, y+d)為中心(2,n+1)(2,m+1)的區域,計算這2個區域的相關系數,即I1( x, y)與I2(x, y+d)的相關度,通過改變滑動距離d在I2中搜索與I1( x, y)相關度最高的點,此點即為1(,)I x y的對應點.

文獻[15]中提供了計算NCC(,,)x y d的公式,即

其中

特征點匹配時,本文對相關系數NCC(x, y, d)進行限定,相關系數必須高于一定閾值,否則認為此點匹配失敗,同時將這組對應點剔除,這樣做明顯降低了誤匹配率.匹配后的左、右視點圖像如圖8所示.

圖8 匹配后的立體圖像對Fig.8 Pair of stereo images after matching

步驟3 尋找最大和最小視差.

在匹配過程中,對每對匹配點的視差進行記錄并比較,最后尋找出立體圖像最大視差maxS和最小視差minS.

步驟4 確定視差調整量M的范圍.

為使立體圖像視差平移調整后的新視差范圍[Smin-M, Smax-M]盡量在立體顯示屏幕的Panum融合區[Pmin,Pmax]內,需要Smin-M≥Pmin,同時Smax-M≤Pmax,則M∈[Smax-Pmax,Smin-Pmin].

需要注意的是,對有些最大視差Smax和最小視差Smin相差過大的立體圖像(即在立體圖像中近景與遠景距離過大),存在Smax-Pmax>Smin-Pmin的情況,此時視差調整量M取Smax-Pmax.這樣取值保證了凸出屏幕的近景部分在立體顯示屏幕Panum融合區內,不會出現雙眼復視.在立體節目中,近景多為主要景物,背景多為次要景物,人們在觀看時會將注意力更多地集中在主要景物上,而忽視次要景物.所以當立體圖像中近景與遠景出現融像沖突時,首先需要保證近景在立體顯示屏幕的Panum融合區內.

4 實驗結果和分析

本文使用來自middlebury網站的標準圖庫中的tsukuba[16]作為測試圖,選取第1視點圖像和第5視點圖像分別作為左視點圖像和右視點圖像.所做實驗均是在Intel I3 2.4,GHz CPU、2,G內存的PC平臺上進行的.立體觀察平臺為分辨率800×600的雙視點立體顯示器,觀察距離2,000,mm.為了立體電視觀察方便,將圖像分辨率增大到800×600.

首先對本文提出的最大和最小視差快速計算算法進行實驗與分析,選用稠密立體匹配BVZ算法[17]作為對比,同時用middlebury網站提供的真實視差圖分析誤差.

圖9為使用BVZ算法計算出的視差圖.從圖中可以看出,亮度最高(即視差最大)區域為誤匹配區域,亮度最低(即視差最小)區域為圖像最左側非同時可見區,因此該算法得到的最大和最小視差并不是真實值.由此可見,誤匹配對視差平移量的估計有很大的影響.

圖9 BVZ算法視差圖Fig.9 Disparity map with BVZ algorithm

表1中誤差為計算得到視差與真實視差差距占真實視差百分比.實驗結果表明,本文提出的算法可以快速準確地計算出最大和最小視差;BVZ算法得到的最大和最小視差誤差較大,而且耗費大量計算時間.

表1 maxS和minS的計算結果Tab.1 Calculated results ofmaxS andminS

經本文最大和最小視差快速計算算法得到立體圖像tsukuba最大視差Smax為117像素,最小視差Smin為37像素.在2,000,mm的觀察距離,為獲得穩定的雙眼單視,需要將視差控制在Panum融合區[-54,54]像素范圍內.可以看到未經過視差平移調整前立體圖像的最大視差超過了Panum融合區,圖像中的臺燈、石膏像等近景會出現雙眼復視,嚴重影響觀看效果,因此必須要通過視差調整對原視差進行校正.

為保證經過調整的新圖像視差范圍[37-M, 117-M]在[-54,54]像素范圍內,得到視差調整量M∈[63,91].

現取視差調整量M為70像素,圖像tsukuba左、右視點調整結果如圖10所示.

由圖10可見,視差調整剪切掉原左、右視點圖像中對立體感無貢獻的非同時可見區域,同時立體圖像視場損失不大.由人眼主觀評價[18]調整后的立體圖像,沒有出現雙眼復視.

圖10 視差調整結果Fig.10 Results of disparity adjustment

5 結 論

(1) 根據Panum融合原理,計算了立體顯示屏幕Panum融合區的視差范圍,得出了Panum融合區界限與視差調整量之間的關系.提出了一種立體視差調整的快速估計算法,可以快速準確地計算視差調整范圍.經過實驗證明選用本方法得到的視差調整量調整的立體圖像消除了影響立體感的雙眼復視.

(2) 所提出的立體視差調整的快速估計方法還適用于多視點(視點數大于2)立體圖像的視差調整,不同的是多視點立體顯示器通常利用子像素建立立體感,因此像素距離需要變成子像素距離,同時需要考慮由Panum融合區界限計算得到的像素視差是相鄰視點還是間隔視點視差.

[1] Vetro A,Wiegand T,Sullivan G J. Overview of the stereo and multiview video coding extensions of the H. 264/MPEG-4 AVC standard[J]. Proceedings of the IEEE,2011,99(4):626-642.

[2] Son J Y,Yeom S,Lee D S,et al. A stereoscopic camera model of focal plane detector array[J]. Journal of Display Technology,2011,7(5):281-288.

[3] Woods A J,Docherty T,Koch R. Image distortions in stereoscopic video systems[C]//IS&T/SPIE’S Symposium on Electronic Imaging:Science and Technology,International Society for Optics and Photonics. San Jose,USA,1993:36-48.

[4] Lee S W,Kim N. A method for precise depth detection in stereoscopic display[J]. Journal of the Optical Societyof Korea,2006,10(1):37-41.

[5] Allison R S. The camera convergence problem revisited[C]//Electronic Imaging 2004,International Society for Optics and Photonics. San Jose,USA,2004:167-178.

[6] Kwon K C,Choi J K,Kim N,et al. Automatic control of horizontal-moving stereoscopic camera by disparity compensation[J]. Journal of the Optical Society of Korea,2002,6(4):150-155.

[7] 吳 夕,劉玉華,顏少明. 正常人雙眼視覺的Panum融合區[J]. 眼科新進展,1999,19(5):375-376 Wu Xi,Liu Yuhua,Yan Shaoming. Panum’s fusional area of normal human’s binocular vision[J]. Recent Advances in Ophthalmology,1999,19(5):375-376(in Chinese)

[8] Panum P L. Physiologische Untersuchungen über das Sehen mit zwei Augen[M]. Charleston,SC:Nabu Press,2010.

[9] Fender D,Julesz B. Extension of Panum's fusional area in binocularly stabilized vision[J]. Journal of the Optical Society of America,1967,57(6):819-826.

[10] Scharstein D,Szeliski R. A taxonomy and evaluation of dense two-frame stereo correspondence algorithms[J]. International Journal of Computer Vision,2002,47(1):7-42.

[11] 馬爾D. 視覺計算理論[M]. 姚國正,劉 磊,汪云九,譯. 北京:科學出版社,1988. Marr D. Vision:A Computational Investigation into the Human Representation and Processing of Visual Informaution [M]. Yao Guozheng,Liu Lei,Wang Yunjiu,Trans. Beijing:Science Press,1988(in Chinese).

[12] Mokhtarian F,Suomela R.Robust image corner detection trough curvature scale space[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,1998,20(12):1376-1381.

[13] Canny J. A computational approach to edge detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,1986,8(6):679-698.

[14] Lewis J P. Fast template matching[J]. Vision Interface,1995,95:120-123.

[15] Zhang Z,Deriche R,Faugeras O,et al. A robust technique for matching two uncalibrated images through the recovery of the unknown epipolar geometry[J]. Artificial Intelligence,1995,78(1):87-119.

[16] Scharstein D,Szeliski R. Middlebury Stereo Vision Research Page[EB/OL]. http://vision. middlebury. edu/stereo/data/scenes2001,2011-02-11.

[17] Boykov Y,Veksler O,Zabih R. Fast approximate energy minimization via graph cuts[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2001,23(11):1222-1239.

[18] 沈麗麗,侯春萍. 應用人類視覺特性的立體圖像質量評價方法[J]. 天津大學學報,2012,45(8):682-687. Shen Lili,Hou Chunping. Objective assessment of stereo images based on full human visual characteristics[J]. Journal of Tianjin University,2012,45(8):682-687(in Chinese).

A Rapid Stereo Disparity Adjustment Estimate Method

Yue Bin,Hou Chunping
(School of Electronic Information Engineering,Tianjin University,Tianjin 300072,China)

Disparity adjustment is usually used for convergence changing and disparity correcting. The rapid stereo disparity adjustment estimate method was proposed for accurately calculating the disparity adjustment range of the stereo image. The algorithm first applied the Panum’s fusional area of human vision to the modeling of threedimensional display space,calculated the Panum’s fusional area of stereo screen,then deduced the range of disparity adjustment of the Panum’s fusional area,and finally rapidly estimated the range of suitable disparity adjustment in the Panum’s fusional area using the sparse matching depth clue of stereo image. Experimental results indicate that the algorithm can calculate the range of disparity adjustment fast and accurately,and maximally reduce the binocular diplopia of stereo image.

disparity adjustment;Panum’s fusional area;image segmentation;feature extraction;feature points matching

TN919.81

A

0493-2137(2013)07-0571-08

DOI 10.11784/tdxb20130701

2012-12-17;

2013-02-21.

國家高技術研究發展計劃(863計劃)資助項目(2012AA03A301);國家自然科學基金重點資助項目(60932007,61201179);教育部博士點基金資助項目(20110032110029);天津市科技支撐計劃資助項目(11ZCKFGX02000).

岳 斌(1982— ),男,博士研究生,yuebin0615@hotmail.com.

侯春萍,hcp@tju.edu.cn.

猜你喜歡
對應點視差視點
三點定形找對應點
基于自適應窗的立體相機視差圖優化方法研究
以“點”為核 感悟本質
“一定一找”話旋轉
基于梯度域引導濾波的視差精煉迭代算法
比較大小有訣竅
基于分割樹的視差圖修復算法研究
環境視點
讓你每天一元錢,物超所值——《今日視點—2014精萃》序
兩會視點
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合