?

影像連接點均衡化高精度自動提取

2017-02-16 08:13張永生
測繪學報 2017年1期
關鍵詞:嵩山連接點格網

于 英,張永生,薛 武,李 磊

1. 信息工程大學地理空間信息學院,河南 鄭州 450001; 2. 地理信息工程國家重點實驗室,陜西 西安 710054

影像連接點均衡化高精度自動提取

于 英1,2,張永生1,薛 武1,2,李 磊1,2

1. 信息工程大學地理空間信息學院,河南 鄭州 450001; 2. 地理信息工程國家重點實驗室,陜西 西安 710054

針對空中三角測量影像連接點提取中存在的誤匹配、點位多而分布不均和點位定位精度低等問題,提出了一種影像連接點均衡化高精度自動提取方法。首先采用分塊SIFT技術進行特征的提取與匹配,并利用并查集數據結構進行特征點的高效多視追蹤;然后采用提出的物方分塊點位篩選算法對點位進行了相對均衡化的擇優挑選;最后采用最小二乘匹配技術對得到的SIFT連接點坐標位置進行精化。選取中國嵩山遙感定標場的有人機影像和沙漠地區無人機影像作為試驗數據,通過目視檢查、像方反投影誤差和檢查點精度等3個指標進行了分析,結果表明本文方法有效克服了弱紋理和重復紋理導致的連接點提取與匹配困難,并改善了連接點分布的均勻性和提高了連接點的定位精度。

連接點提取;SIFT;分塊;并查集;最小二乘匹配

空中三角測量是影響攝影測量成果精度的主要因素??罩腥菧y量主要包括連接點提取和光束法平差兩個環節[1-2]。由于不同影像之間存在尺度、色差和攝影角度等差別,這些差別使得影像連接點自動提取效果常常難以令人滿意[3]。

近年來,計算機視覺領域中影像不變特征提取與匹配技術的日益成熟推動了影像連接點提取技術的進步[4-5]。影像不變特征提取與匹配技術的一般過程為:首先采用不變特征檢測器進行特征提取,然后通過計算生成特征描述向量完成特征匹配。比較典型的不變特征檢測器有:具有仿射不變性的Harris-Affine算法、具有尺度不變性的SIFT算法、SURF算法、KAZE算法以及具有視角不變性的ASIFT算法。常用的特征描述符有SIFT描述符、DAISY描述符、二值描述符等[6-9]。在眾多影像局部特征描述符中,SIFT描述符應用最廣,它對尺度、旋轉、亮度以及一定大小的視角變化都具有不變性,因此本文選用SIFT不變特征提取算法進行連接點自動化提取的研究。雖然SIFT算法計算復雜度高,但其計算速度可通過GPU進行并行加速[10]。

采用不變特征進行影像空三連接點提取是目前連接點提取的主流技術方法。文獻[11]采用SIFT算法進行異源高分辨率光學衛星遙感影像匹配,并通過RANSAC算法和多項式擬合迭代法等多種策略剔除了誤匹配點。文獻[12]利用POS信息對傾斜影像糾正消除因大傾角引起的仿射變形,通過SIFT匹配和特征追蹤自動獲取多視連接點。盡管目前基于不變特征進行影像空三連接點提取技術取得了一些成果,但仍存在不少問題。本文從連接點提取的正確率、分布合理性以及定位精度等方面考慮,主要解決以下3個問題。

(1) 隨著航空傳感器成像分辨率的不斷提高,使得單幅影像上出現重復紋理的概率大幅增加。此外,沙漠、海島和雪地等特殊地區影像存在大量的弱紋理區域。影像中的重復紋理和弱紋理將嚴重降低SIFT匹配的正確率。

(2) 采用SIFT算法使得單幅影像上的連接點數量常常達到幾千甚至上萬的數量級。根據邊界效應理論,當連接點的數量達到一定數量后,隨著連接點數量的繼續飆升并不會提高光束法平差的精度,反而成為計算的負擔。簡單采用多視重疊度準則對點位進行篩選剔除的方法[13],極容易導致連接點分布不均進而影響光束法平差精度。

(3) SIFT算法本身主要是強調不變特征的識別性能而非定位精度。雖然SIFT算法在特征提取階段通過插值技術提供了亞像素的坐標位置,但由于特征點提取與匹配的相對獨立性,這使得匹配的同名點對不能實現位置上的精確對應[4-5]。

以上述3個問題為導向,基于SIFT特征構建了一種均衡化高精度影像連接點自動提取方法,選取中國嵩山遙感定標場有人機影像數據和西北沙漠地區無人機影像數據對本方法的效果進行了試驗分析,試驗結果證明了本方法的正確性和有效性。

1 方法原理

1.1 方法流程

本文連接點提取方法適用于有人機或無人機面陣影像數據。此外,本文影像之間的關系(大于設定的重疊度閾值)已經通過輔助數據(飛控數據、POS數據等)計算重疊度[12,14]得到或者通過低分辨率影像數據增量重建得到[15]。

如圖1所示,本文方法流程包括4個階段:①在對影像提取完SIFT特征后,為避免重復紋理的干擾,首先用低分辨率影像計算單應矩陣和基礎矩陣,然后進行單應矩陣和基礎矩陣雙重約束下的分塊匹配,最后根據子塊匹配結果計算精確的單應陣和基礎矩陣以實現對本塊匹配結果的粗差剔除;②采用并查集數據結構實現SIFT特征的多視追蹤,然后通過多片前方交會得到物方點坐標;③在物方空間構建均勻格網,計算每個物方點平均反投影誤差和多視重疊度的加權值,設定閾值并依據冒泡排序方法對點位進行篩選,保證連接點分布相對的均勻;④采用最小二乘匹配對篩選得到的SIFT連接點坐標位置進行精化。

1.2 SIFT特征分塊提取與匹配

對每張影像都進行兩次SIFT特征提取,第1次SIFT特征提取是在低分辨率影像上進行。第2次SIFT特征提取是在原始分辨率影像上進行,具體方法是:將原始分辨率影像劃分成若干影像塊,在特征提取時根據每個影像塊的信息熵設置不同的提取參數(DOG閾值、邊緣閾值、檢測金字塔層級等),這使得提取到的特征點分布相對均勻[4]。

從影像關系庫中任取出一對立體影像,采用比值法對兩張影像的低分辨率SIFT特征進行匹配,再通過RANSAC方法計算兩張影像之間的單應矩陣H。設原始分辨率立體影像上有同名像點對(x,y)和(x′,y′),根據單應矩陣的定義得到如式(1)所示的對應關系

(1)

式中,hi(i=1,2,…,8)是單應矩陣H的8個元素。

圖1 連接點提取流程Fig.1 Flowchart of tie points extraction

將右影像的4個角點坐標代入式(1)中計算出4個透視變換坐標,以這4個透視變換坐標為頂點的四邊形與左影像的交集即為左影像上這兩幅影像的重疊區域。同理,可求得右影像上這兩幅影像的重疊區域。將左影像重疊區域劃分成多個子塊,同樣依據式(1)將每一個子塊的4個角點坐標投影到右影像上,由于透視變換的原因,右影像上相應的4個角點構成的四邊形通常是一個不規則的四邊形,選取該不規則四邊形的外接矩形作為左影像子塊在右影像上的對應區域。

以影像子塊為單位對原始分辨率SIFT特征進行單應陣和基礎矩陣約束下的比值法匹配,再用子塊匹配結果計算兩影像對應子塊之間精確的單應矩陣和基礎矩陣,并利用這兩個矩陣對匹配結果進行粗差剔除,其原理如圖2所示。SIFT分塊匹配通過搜索空間的壓縮使得因重復紋理導致的奇異匹配點干擾大幅減少,故可一定程度上提高匹配的成功率。

圖2 雙矩陣約束與誤差剔除原理Fig.2 Principle of double matrix constraint and error elimination

1.3 特征多視追蹤

SIFT特征分塊提取與匹配實現了兩張影像特征點之間的對應,而攝影測量空三光束法平差需要多視連接點方能取得較好的平差精度。如圖3所示,通過將每一組兩兩匹配的結果進行查找和追蹤,即可實現特征的多視追蹤。

圖3 多視追蹤Fig.3 Multi-view tracks

本文采用并查集數據結構[16-17]高效地實現了特征的多視追蹤,具體過程如下。

(1) 創建并查集節點,節點數量等于所有影像的原始分辨率SIFT特征數量之和。

(2) 若像點a和像點b是同名像點,則對節點a和節點b執行并查集中的查找操作(Find)來判斷兩個節點的根節點是否相同。如果兩個節點的根節點相同則跳過,否則通過執行并查集中的合并操作(Join)將節點a的根節點修改為節點b。

(3) 將匹配鏈表上所有的同名像點進行步驟(2)處理,然后取出具有相同根節點的節點即實現了SIFT特征的多視追蹤。

1.4 基于物方分塊的點位篩選

(1) 統計物方點在平面上的分布范圍Xmin、Xmax、Ymin和Ymax,在平面上劃分平行于X軸和Y軸的二維格網,格網的尺寸一般設為單張影像地面覆蓋范圍的1/9或者1/12。設格網單元X方向和Y方向的尺寸分別為X_size和Y_size,則X和Y方向的格網數量X_num和Y_num為

(2)

(2) 循環計算每個物方點所在的格網編號,并統計每個格網中物方點的數量,若格網中物方點的數量大于指定的閾值κ,則轉到步驟(3)。

(3) 依據式(3)計算格網中每一個物方點的Valuei值,該值是點位反投影誤差和多視重疊度值Oi的加權計算值

(3)

采用冒泡法對格網中點的Valuei進行從大到小排序,取前κ個作為該格網有效物方點。

1.5 最小二乘匹配坐標位置精化

在物方點位篩選結束后,SIFT特征點的坐標精度可由最小二乘匹配進行優化提高[20]。SIFT特征點的信息由位置(p)、尺度(σ)和方向(θ)組成。設物方點P在影像I1、I2、…、In上成像的像點為m1(pm1,σm1,θm1)、m2(pm2,σm2,θm2)、…、mn(pmn,σmn,θmn),計算物方點P與I1、I2、…、In攝站中心之間的距離D1、D2、…、Dn。若D1是所有距離中的最小值,則選m1(pm1,σm1,θm1)為最小二乘匹配的基準點,然后讓m1分別與其他的同名像點進行最小二乘匹配。下面以同名像點對m1和m2為例進行最小二乘匹配說明。

設σm1>=σm2,s=(σm1/σm2),θ=(θm1-θm2)。以m1和m2為中心的兩個相關窗口分別為W1和W2,大小為(2w+1)×(2w+1)。記m2窗口鄰域坐標為p=[xy]T,Η·p表示對坐標p依據矩陣Η進行透視變換,則窗口W1和W2可表示為[21]

(4)

式中,Η中含義如下

(5)

式中,sx、sy分別為x、y方向的縮放因子,δ為窗口W1和W2之間的相對旋轉角度。由于m1和m2為同名像點,則有式(6)成立

h0+h1W1+n1=W2+n2

(6)

(7)

式中,h0、h1為窗口之間線性灰度畸變參數,n1、n2為與坐標有關的影像隨機噪聲。對式(6)進行線性化得到誤差方程式,通過最小二乘平差求解得到像點坐標精確值。在進行最小二乘平差求解之前先利用SIFT特征信息按式(7)對仿射相關參數sx、sy和δ的初始值進行設置[22],并以NCC最大為準則搜索確定k和dθ的最佳值[4-5]。

2 試驗與分析

2.1 試驗數據與評價方法

第1組試驗數據是在中國嵩山遙感定標場用“運5”飛機搭載飛思IXA180面陣CCD相機和Applanix POS AV510設備獲得了航空影像和位姿數據。該組影像數據對應區域的地物信息豐富且重復紋理較多,非常適合驗證本方法的匹配效果和點位篩選效果。此外,中國嵩山遙感定標場航空幾何定標場占地64 km2,分級布設了214個亞厘米級精度的永久性地面標志,可為本文連接點提取方法提供物方幾何精度驗證條件[23]。第2組試驗數據是用固定翼無人機在西北沙漠地區搭載Canon EOS 5DS獲取的沙漠無人機影像,沙漠無人機影像由于紋理貧乏使得連接點的自動提取異常困難。表1對兩組試驗數據的影像大小、地面分辨率(GSD)、重疊度等與本文試驗相關的具體參數信息進行了詳細的介紹。依據本文方法,基于Win7 64位系統、VC++2010、GDAL1.8 64位和CUDA5.5開發了影像三維建模軟IMAGE SURPASS的空三處理模塊,本文如下的試驗均采用該軟件模塊完成。試驗中的計算機配置為:英特爾酷睿i7、主頻3.2 GHz 8核,內存32 GB,顯卡為4 GB英偉達QuadroK2200。

采用如下3種指標方法對本文連接點提取效果進行評價。

(1) 通過目視檢查的方法,查看連接點提取的正確性與分布情況。

(2) 對提取出的連接點進行空三光束法平差,通過反投影誤差分析連接點提取的精度。反投影誤差的計算見式(8)

(8)

表1 試驗影像數據描述

(3) 設定一定數量的檢查點,在少量控制點參與下,對連接點進行光束法平差,通過比較檢查點的平差坐標與外業坐標來分析連接點提取的效果[20]。檢查點精度分析計算見式(9)

(9)

2.2 連接點提取效果

采用本文連接點提取方法(IMAGESURPASS的空三處理模塊)對787張嵩山影像和1209張沙漠影像分別進行了處理,成功提取出連接點的個數分別為1 253 100和330 359,數據處理時間分別為9.67h和10.54h。本文方法的數據處理時間包括特征提取、特征匹配、多視追蹤、點位篩選和點位優化等5個部分,其中特征提取和特征匹配已采用了GPU并行加速,其余3個部分暫未采用任何加速措施。部分圖像的提取效果如圖4和圖5所示,圖4和圖5中的小圓點用于標識連接點,紅色箭頭連線為人工加上去用于標識個別同名像點。從目視上看可得出如下幾點結論。

(1) 對嵩山影像和沙漠影像各隨機抽取了50個連接點進行同名像點目視檢查,檢查結果表明50個連接點均為正確的連接點(同名像點定位精度優于1像素)。連接點目視檢查全部正確是

本文方法中的多種技術共同作用的結果,具體為:首先,采用影像分塊變參數的提取策略,在紋理信息豐富的影像子塊特征提取時本文方法自動提高特征檢測的門檻閾值,這樣得到的特征點具有比較高的識別度,不容易出現匹配錯誤;其次,在影像匹配階段采用具有壓縮搜索空間特點的分塊匹配和帶約束的比值法匹配策略,這有利于提高匹配的正確率;最后,本文連接點提取方法在像方采用單應陣和基礎矩陣進行了粗差剔除,然后在物方又通過顧及反投影誤差和多視重疊度的點位篩選技術也在一定程度上剔除了部分粗差連接點。

(2) 沙漠影像數據紋理匱乏且重復,但本文方法依然提取了足夠量的連接點,這是因為本文方法采用分塊不變特征提取與匹配技術,每個影像塊根據各自信息熵采用不同的特征提取參數。當對紋理信息匱乏的影像子塊進行特征提取時,本文方法自動降低特征檢測的門檻閾值,這可增加檢測到的特征點數量。本文的影像分塊不變特征提取與匹配技術對影像紋理的變化具有較強適應能力,不僅實現了特征點提取數量的自適應,而且也提高了匹配的正確率。

2.3 定位精度分析

對嵩山影像和沙漠影像分別進行光束法平差[24],通過反投影誤差σr在和檢查點實際精度ΔXY與ΔZ等指標進行精度分析[25],平差結果如表2所示,表中本文方法指采用了本文整體連接點提取方法,表中本文方法變形A指采用本文方法但不使用基于物方分塊的點位篩選技術,表中本文方法變形B指采用本文方法但不使用最小二乘匹配坐標位置精化技術。在嵩山影像數據處理中,控制點個數為2表示對角布設控制,控制點個數為4表示4個角布設控制,控制點個數為5表示4個角和1個中心點布設控制。

圖4 嵩山影像連接點(Image i(i=1,2,3,4)為同一地物不同攝站的影像)Fig.4 Tie points of Songshan image(Image i(i=1,2,3,4) are from different stations for the same object)

分析表2可得出如下結論。

(1) 本文連接點提取方法取得了比較滿意的效果,嵩山數據平差后計算的平均反投影誤差為0.36像素,沙漠數據平差后計算的平均反投影誤差為0.52像素。此外,控制點的引入不影響光束法像方平差的平均反投影誤差精度,這是因為平均反投影誤差反映的是內符合精度。對于嵩山影像數據,當控制點的數量上升為4個時物方檢查點的精度已經比較高,分別是平面精度約為1個GSD,高程精度約為1.5個GSD。當控制點的數量增加到5個時,對精度提升不大,這說明4個控制點的控制方案已經有效消除了坐標系之間的絕對誤差,所以實際測量時可考慮只在測區的4個角各布設1個控制點,進而減少外業布設控制點的工作量。注:嵩山影像數據覆蓋范圍內有部分控制點風化損壞、難以辨識,另有部分點被植物等覆蓋,經人工甄別,共有18個點可以正常使用。

圖5 沙漠影像連接點(Image i(i=1,2,3,4)為同一地物不同攝站的影像)Fig.5 Tie points of desert image(Image i(i=1,2,3,4) are from different stations for the same object)

數據平差方法控制點個數檢查點個數連接點個數平均反投影誤差/像素實際精度/m平面高程嵩山數據本文方法本文方法變形A本文方法變形B21812531000.360.1140.16241612531000.360.1030.14251512531000.360.0970.13521818783260.450.1450.18241618783260.450.1080.14751518783260.450.1160.15321812531000.480.1580.18741612531000.480.1140.16151512531000.480.1260.167嵩山數據本文方法--3303590.52--本文方法變形A--3514680.56--本文方法變形B--3303590.72--

(2) 對于嵩山影像數據和沙漠影像數據,采用基于物方分塊的點位篩選技術時,物方格網大小分別設置為(258 m×258 m)和(326 m×290 m),單個格網內點數量閾值κ分別設置為150和100,則提取到的連接點數量比例分別減少了33%和6%,但像方精度反而分別提高了0.09像素和0.04像素。這是因為物方分塊的點位篩選技術不僅可以提升平差的幾何強度,還能剔除了一些粗差點,故提高了平差的精度。對于沙漠數據采用基于物方分塊的點位篩選技術對于精度提高的效果不甚明顯,其原因是沙漠數據紋理匱乏導致提取出來的連接點數量不夠多,所以使得物方分塊點位篩選技術的作用力不足。

(3) 對于嵩山影像數據和沙漠影像數據,采用 SIFT特征點采用最小二乘匹配技術像方精度分別提高了0.12像素和0.18像素。這是因為本文采用SIFT點位信息初始化最小二乘匹配的參數,對提高最小二乘匹配精度非常有效。本文結果同時表明SIFT特征的定位結果雖為亞像素級,但依然還有較大提高空間。

3 結 論

本文對影像連接點自動提取技術中存在的問題進行了梳理,進而有針對性地構建了一種均衡化高精度的影像連接點提取方法,選取嵩山影像數據和沙漠影像數據進行了試驗測試,結果證明本文方法在重復紋理、弱紋理處理、連接點篩選和連接點高精度定位等方面具有優勢。未來將對連接點數量、分布情況以及定位精度等因素與光束法平差精度之間更深層次的內在關系進行研究,使得連接點提取更加有的放矢,同時也將采用更多類型的影像數據對方法進行廣泛的測試。

[1] 于英. 無人機動態攝影測量若干關鍵技術研究[D]. 鄭州:信息工程大學, 2014. YU Ying. Research on Key Technologies of UAV Dynamic Photogrammetry[D]. Zhengzhou: Information Engineering University, 2014.

[2] 薛武. 無人機視頻地理信息定標與直播處理技術[D]. 鄭州:信息工程大學, 2014. XUE Wu. The Calibration of UAV Video Geo-information and Live Processing Technology[D]. Zhengzhou: Information Engineering University, 2014.

[3] SCHINDLER K, HARTMANN W, HAVLENA M. Recent Developments in Large-scale Tie-point Search[C]∥Proceedings of the 55th Photogrammetric Week. Stuttgart: ETH, 2015: 7-11.

[4] 楊化超, 張書畢, 張秋昭. 基于SIFT的寬基線立體影像最小二乘匹配方法[J]. 測繪學報, 2010, 39(2): 187-194. YANG Huachao, ZHANG Shubi, ZHANG Qiuzhao. Least Squares Matching Methods for Wide Base-line Stereo Images Based on SIFT Features[J]. Acta Geodaetica et Cartographica Sinica, 2010, 39(2): 187-194.

[5] 楊化超, 張磊, 姚國標, 等. 局部單應約束的高精度圖像自動配準方法[J]. 測繪學報, 2012, 41(3): 401-408. YANG Huachao, Zhang Lei, YAO Guobiao, et al. An Automated Image Registration Method with High Accuracy Based on Local Homography Constrain[J]. Acta Geodaetica et Cartographica Sinica, 2012, 41(3): 401-408.

[6] BAY H, TUYTELAARS T, VAN GOOL L. Surf: Speeded up Robust Features[C]∥Proceedings of the 9th European Conference on Computer Vision. Berlin Heidelberg: Springer, 2006: 404-417.

[7] YU Guoshen, MOREL J M. Asift: An Algorithm for Fully Affine Invariant Comparison[J]. Image Processing On Line, 2011(1):2105-2132.

[8] ALCANTARILLA P F, BARTOLI A, DAVISON A J. KAZE Features[C]∥Proceedings of the 12th European Conference on Computer Vision. Berlin Heidelberg: Springer, 2012: 214-227.

[9] 羅楠, 孫權森, 陳強, 等. 結合SURF特征點與DAISY描述符的圖像匹配算法[J]. 計算機科學, 2014, 41(11): 286-290, 300. LUO Nan, SUN Quansen, CHEN Qiang, et al. Image Matching Algorithm Combining SURF Feature Point and DAISY Descriptor[J]. Computer Science, 2014, 41(11): 286-290, 300.

[10] WU Changchang. SiftGPU: A GPU Implementation of Scale Invariant Feature Transform (SIFT)[EB/OL]. (2011-06-30).[2015-12-13]. http:∥cs.unc.edu/~ccwu/siftgpu.

[11] 戴激光, 宋偉東, 賈永紅, 等. 一種新的異源高分辨率光學衛星遙感影像自動匹配算法[J]. 測繪學報, 2013, 42(1): 80-86. DAI Jiguang, SONG Weidong, JIA Yonghong, et al. A New Automatically Matching Algorithm for Multi-source High Resolution Optical Satellite Images[J]. Acta Geodaetica et Cartographica Sinica, 2013, 42(1): 80-86.

[12] 閆利, 費亮, 葉志云, 等. 大范圍傾斜多視影像連接點自動提取的區域網平差法[J]. 測繪學報, 2016, 45(3): 310-317, 338. DOI: 10.11947/j.AGCS.2016.20140673. YAN Li, FEI Liang, YE Zhiyun, et al. Automatic Tie-points Extraction for Triangulation of Large-scale Oblique Multi-view Images[J]. Acta Geodaetica et Cartographica Sinica, 2016, 45(3): 310-317, 338. DOI: 10.11947/j.AGCS.2016.20140673.

[13] BARAZZETTI L, REMONDINO F, SCAIONI M. Extraction of Accurate Tie Points for Automated Pose Estimation of Close-range Blocks[C]∥ISPRS Technical Commission Ⅲ Symposium on Photogrammetric Computer Vision and Image Analysis. Saint-Mandé, France: ISPRS, 2010.

[14] 肖雄武, 郭丙軒, 李德仁, 等. 一種具有仿射不變性的傾斜影像快速匹配方法[J]. 測繪學報, 2015, 44(4): 414-421. DOI: 10.11947/j.AGCS.2015.20140048. XIAO Xiongwu, GUO Bingxuan, LI Deren, et al. A Quick and Affine Invariance Matching Method for Oblique Images[J]. Acta Geodaetica et Cartographica Sinica, 2015, 44(4): 414-421. DOI: 10.11947/j.AGCS.2015.20140048.

[15] 許志華, 吳立新, 劉軍, 等. 顧及影像拓撲的SfM算法改進及其在災場三維重建中的應用[J]. 武漢大學學報(信息科學版), 2015, 40(5): 599-606. XU Zhihua, WU Lixin, LIU Jun, et al. Modification of SfM Algorithm Referring to Image Topology and Its Application in 3-Dimension Reconstruction of Disaster Area[J]. Geomatics and Information Science of Wuhan University, 2015, 40(5): 599-606.

[16] CHEN Tianze, CHEN Limin. A Union Matching Method for SAR Images Based on SIFT and Edge Strength[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2014, 7(12): 4897-4906.

[17] ALSTRUP S, THORUP M, GRTZ I L, et al. Union-find with Constant Time Deletions[J]. ACM Transactions on Algorithms (TALG), 2014, 11(1): 6.

[18] EISENBEIβ H. UAV Photogrammetry[D]. Zürich: ETH, 2009.

[19] 崔紅霞, 林宗堅, 楊洪, 等. 無人飛艇低空數碼影像多視攝影測量[J]. 光電工程, 2008, 35(7): 73-78. CUI Hongxia, LIN Zongjian, YANG Hong, et al. Multiview Photogrammetry Using Low Altitude Digital Images from Unmanned Airship[J]. Opto-Electronic Engineering, 2008, 35(7): 73-78.

[20] 紀松. 多視匹配策略與優化方法研究[D]. 鄭州:信息工程大學, 2012. JI Song. Study on the Strategy and Improvement Method of Multi-view Matching Technology[D]. Zhengzhou: Information Engineering University, 2012.

[21] 姚國標, 鄧喀中, 張力, 等. 融合互補仿射不變特征的傾斜立體影像高精度自動配準方法[J]. 測繪學報, 2013, 42(6): 869-876. YAO Guobiao, DENG Kazhong, ZHANG Li, et al. An Automated Registration Method with High Accuracy for Oblique Stereo Images Based on Complementary Affine Invariant Features[J]. Acta Geodaetica et Cartographica Sinica, 2013, 42(6): 869-876.

[22] HUO Chunlei, PAN Chunhong, HUO Leigang, et al. Multilevel SIFT Matching for Large-size VHR Image Registration[J]. IEEE Geoscience and Remote Sensing Letters, 2012, 9(2): 171-175.

[23] 張永生. 高分辨率遙感測繪嵩山實驗場的設計與實現——兼論航空航天遙感定位精度與可靠性的基地化驗證方法[J]. 測繪科學技術學報, 2012, 29(2): 79-82. ZHANG Yongsheng. Design and Implementation of Songshan Test Field for High Resolution Remote Sensing and Mapping[J]. Journal of Geomatics Science and Technology, 2012, 29(2): 79-82.

[24] 袁修孝. POS輔助光束法區域網平差[J]. 測繪學報, 2008, 37(3): 342-348. YUAN Xiuxiao. POS-supported Bundle Block Adjustment[J]. Acta Geodaetica et Cartographica Sinica, 2008, 37(3): 342-348.

[25] 汪韜陽, 張過, 李德仁, 等. 資源三號測繪衛星影像平面和立體區域網平差比較[J]. 測繪學報, 2014, 43(4): 389-395. DOI: 10.13485/j.cnki.11-2089.2014.0058. WANG Taoyang, ZHANG Guo, LI Deren, et al. Comparison between Plane and Stereo Block Adjustment for ZY-3 Satellite Images[J]. Acta Geodaetica et Cartographica Sinica, 2014, 43(4): 389-395. DOI: 10.13485/j.cnki.11-2089.2014.0058.

(責任編輯:宋啟凡)

Automatic Tie Points Extraction with Uniform Distribution and High Precision

YU Ying1,2,ZHANG Yongsheng1,XUE Wu1,2,LI Lei1,2

1. Institute of Surveying and Mapping,Information Engineering University,Zhengzhou 450001,China; 2. State Key Laboratory of Geo-information Engineering,Xi’an 710054,China

To solve the problem of matching errors, redundant points with bad distribution,and low points position precision in photogrammetry aerial triangulation,an automatic tie points extraction with uniform distribution and high precision is presented. Firstly, Block SIFT technology is conducted on every image, then an unordered feature tracking method based on union-find set is adopted to detect the multi-view correspondences. Secondly, by using the proposed algorithm of points selection in object block space, the relatively balanced points are obtained. Finally, the precision of the image coordinates are improved by least square matching.In the experiment part,Songshan images and desert images are used to test the proposed method. Through the examination and analysis of three indicators, the visual inspection, back projection errors in image space,and the precision of check points, the results show that the proposed method can effectively overcome the difficulties in extracting and matching tie points caused by weak texture and repeated texture, enhance the uniformity of tie points distribution, and improve the position precision of tie points.

tie points extraction;SIFT;block;union-find set; least squares matching Foundation support: The National Natural Science Foundation of China(No. 41501482); State Key Laboratory of Geo-information Engineering(Nos.SKLGIE 2015-M-3-6;SKLGIE 2014-M-3-1)

YU Ying(1985—), male, PhD,majors in UAV photogrammetry.

于英,張永生,薛武,等.影像連接點均衡化高精度自動提取[J].測繪學報,2017,46(1):90-97.

10.11947/j.AGCS.2017.20160320. YU Ying,ZHANG Yongsheng,XUE Wu,et al.Automatic Tie Points Extraction with Uniform Distribution and High Precision [J]. Acta Geodaetica et Cartographica Sinica,2017,46(1):90-97. DOI:10.11947/j.AGCS.2017.20160320.

P231

A

1001-1595(2017)01-0090-08

國家自然科學基金(41501482);地理信息工程國家重點實驗室開放研究基金(SKLGIE 2015-M-3-6;SKLGIE 2014-M-3-1)

2016-06-24

于英(1985—),男,博士,研究方向為無人機攝影測量。

E-mail: yuying5559104@163.com

修回日期: 2016-09-25

猜你喜歡
嵩山連接點格網
遙感數據即得即用(Ready To Use,RTU)地理格網產品規范
基于A3航攝儀的小基高比影像連接點精提取技術研究
實時電離層格網數據精度評估
矢量點狀數據抽稀方法的研究與實現
我愛我家
基于文本閱讀的習作教學研究
2017年全國青少年戶外營地夏令營(河南站)在嵩山落幕
尹朝陽:嵩山高
創造沉浸學習的“連接點”
張耒的嵩山,張耒的網
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合