?

基于主動輪廓模型的自動導引車視覺導航

2017-03-02 10:46林桂潮鄒湘軍熊俊濤
農業機械學報 2017年2期
關鍵詞:實時性魯棒性能量

林桂潮 鄒湘軍 張 青 熊俊濤

(1.滁州學院機械與汽車工程學院, 滁州 239000;2.華南農業大學南方農業機械與裝備關鍵技術教育部重點實驗室, 廣州 510642)

基于主動輪廓模型的自動導引車視覺導航

林桂潮1鄒湘軍2張 青1熊俊濤2

(1.滁州學院機械與汽車工程學院, 滁州 239000;2.華南農業大學南方農業機械與裝備關鍵技術教育部重點實驗室, 廣州 510642)

為解決工廠或農業非線性光照環境下視覺導航算法魯棒性和實時性差的問題,提出基于主動輪廓模型的導航標識線檢測與跟蹤算法。首先用多項式曲線模型描述單向標識線,導航問題等價為計算多項式曲線參數;然后依據標識線顏色和邊緣等特征,給出關于多項式曲線的主動輪廓模型的內、外部能量函數;最后將能量函數簡化為非線性最小二乘問題,應用高斯牛頓法和Armijo-Goldstein不精確一維搜索方法求解曲線最優參數。采用自制視頻和自主小車測試算法,結果表明:該算法對非線性光照條件下直線和彎曲標識線的導航正確率為98.96%,運算時間為40.18 ms。試驗驗證了該算法的魯棒性和實時性。

自動導引車; 主動輪廓模型; 高斯牛頓法; 視覺導航

引言

自動導引車(Automatic guided vehicle, AGV)是廣泛應用于農業、汽車和家電等行業的物料輸送移動機器人[1-2],近年來視覺導航技術以其靈活性高、成本低、適用范圍廣等特點在AGV應用中逐漸引起關注[3-4]。視覺導航是用視覺算法來識別鋪設在底面上的特殊標識線,生成導航指令,其主要問題在于視覺算法實時性和魯棒性差,特別是工廠或農業的非線性光照因素制約了視覺導航效果[5]。

視覺導航方法大致分為兩類:基于顏色分割的方法和基于曲線模型的方法?;陬伾指畹姆椒ㄊ歉鶕俗R線與背景顏色特征的差異,使用聚類[6]或閾值分割,結合貝葉斯決策[7]、偽彩色空間[8]或小波分析[9]等方法來提取標識線感興趣區域。此類方法在不確定性環境下,如非線性光照污染,魯棒性將降低[5]。

基于曲線模型方法是在給定標識線曲線模型的前提下,利用少量標識線邊緣點來估計曲線參數[10-13]。主動輪廓模型是該方法中的一種魯棒算法[14-16],它通過圖像力迫使參數曲線向圖像顯著特征移動變形,其關鍵問題是需依據具體環境確定圖像外力,以及需提供合適初值避免陷入局部解[17],因此相關算法的應用還需改進。

為克服非線性光照污染條件下視覺導航存在的問題,本文提出基于主動輪廓模型的導航標識線檢測與跟蹤算法:提出使用多項式曲線來表示導航標識線模型;提出適用于導航標識線特點的主動輪廓模型的內、外部能量函數;將主動輪廓模型的能量函數抽象為非線性最小二乘問題,再用高斯牛頓法求解;通過試驗驗證算法在光照污染下的實時性和魯棒性。

1 算法原理

1.1 導航標識線模型

工業應用中,AGV一般采用由直線、圓弧或拋物線等簡單線段組成的結構化人工標識線。人工標識線寬度較小,通過檢測與跟蹤左邊緣(或右邊緣)即可實現導航,如圖1所示。在不考慮交叉十字路線的情況下,可用多項式曲線模型來描述左邊緣(或右邊緣),因此導航標識線檢測與跟蹤問題等價于求解多項式曲線參數。令第t幀圖像中的多項式曲線為

xt(y;θt)=at,1+at,2y+…+at,nyn-1(y∈[0,h))

(1)

其中

θt=(at,1,at,2,…,at,n)

式中n——曲線階數θt——曲線參數h——數字圖像高度

本文將xt(y;θt)簡化為xt。

圖1 AGV導航標識線Fig.1 Navigation lane of AGV

1.2 主動輪廓模型

主動輪廓模型是一種目標提取方法,它用1條能量曲線來表示目標輪廓,在曲線內力和圖像外力作用下,能量曲線不斷變形和移動,最終被吸附到鄰近的顯著特征上。主動輪廓模型能量函數為[17]

E(θt)=Eint(θt)+Eext(θt)

(2)

(3)

Eext(θt)=Ecolor+Eedge+Espeed

(4)

式中Eint——控制曲線彎曲程度的內部能量Eext——由圖像性質產生的外部能量x′t、x″t——曲線xt對y的1階導數和2階導數,對應著曲線斜率和曲率

α、β——控制曲線斜率和曲率權重因子

Ecolor、Eedge——關于圖像顏色和邊緣特征的能量項,吸引曲線到標識線邊緣上

Espeed——關于圖像運動速度的能量項,控制曲線移動速度

1.2.1 顏色能量Ecolor

導航標識線顏色均一,如本文所用標識線是黑色的,當主動輪廓模型捕獲到正確的標識線左邊緣(或右邊緣)時,則多項式曲線右側(或左側)的圖像顏色便與均一的標識線顏色相同,即正確的多項式曲線單位法向量方向(圖2)的圖像顏色與標識線顏色的歐氏距離應最小?;诖?,給出能量項

(5)

(6)

式中wC——權重因子It——第t幀灰度圖像w——標識線像素寬度u1——標識線灰度 (nx,ny)——曲線單位法向量

(nx,ny)按式(6)計算,檢測左邊緣時取上方符號,檢測右邊緣時取下方符號。

能量Ecolor使曲線不斷調整自身形狀、位置以尋找標識線,最終使曲線移動到標識線邊緣上或者感興趣區域中。

圖2 曲線的法向量Fig.2 Normal vector of curves

1.2.2 邊緣能量Eedge

圖像邊緣具有較大的梯度幅值,使用它作為外力可吸附曲線到標識線邊緣上,避免曲線落入標識線感興趣區域中。為此,定義能量項Eedge為關于梯度幅值的大于零的遞減函數[18]

(7)

(8)

式中Gt(x,y)——圖像梯度幅值u2——圖像梯度幅值最大值wE——權重因子Gσ——標準差為σ的高斯函數 *——圖像卷積運算p——大于等于1的實數

最小化Eedge將推動曲線到圖像梯度幅值的極大值處,起到邊緣檢測算子作用。此外,選擇合適的σ值可平滑圖像,增加Eedge的邊緣捕獲范圍。

1.2.3 速度能量Espeed

在AGV運動過程中,相鄰兩幀圖像采集時間間隔很小,圖像灰度變化微小,因此可認為圖像中標識線的位移量和梯度幅值變化量不大。據此給出能量項

(9)

式中wG、wP——權重因子

最小化Espeed限制了曲線移動速度,防止曲線出現劇烈振蕩而進入局部解的情況,并且利用前一幀圖像結果來引導曲線變化,起到路線跟蹤作用。

1.3 高斯牛頓法

連續的內、外部能量需進行離散化以滿足數字圖像的計算要求,給出能量函數式(2)的離散表達式

(10)

式(10)可簡化為

E(θt)≈f(θt)TDf(θt)

(11)

其中

式中S——常數,等于(w+5)hα、β、wE、wG、wP——主對角線元素為α、β、wE、wG、wP的h階對角矩陣

wC——主對角線元素為wC的h×w階對角矩陣

由式(11)可知,能量函數是關于參數θt的非線性最小二乘問題,可用高斯牛頓法來計算[19],其基本步驟為:

(5)令k=k+1,返回步驟(2)直到算法收斂。

在用高斯牛頓法計算曲線最優參數過程中,需注意以下內容:

(1)雅可比矩陣J中圖像It和梯度圖像G的偏導數可用有限差分算子來計算,如Sobel算子;亞像素位置的圖像灰度值需進行圖像插值計算,本文均使用雙線性插值法。

(2)經實驗發現,一維搜索方法對算法計算效率和正確率影響很大。使用Armijo-Goldstein不精確一維搜索方法[19],在確保每次迭代都有滿意下降量的條件下,能夠減少計算量。

(4)算法終止準則為:算法達到最大迭代次數kmax,或者|skh|小于給定閾值。

假設曲線參數數量為n,在不考慮一維搜索計算量的前提下,該優化方法每次迭代的總時間復雜度是O(n3+2nS2+n2S+nS+n2)。表1給出了每次迭代過程中的時間復雜度。

表1 每次迭代過程的時間復雜度Tab.1 Time complexity of each iteration

1.4 坐標轉換

圖3 坐標轉換原理Fig.3 Principle of coordinate transform

視覺導航所得曲線需根據攝像機位置、鏡頭參數進行空間轉換,得到世界坐標系下的軌跡圖,才能指導AGV運行。將世界坐標系放置在平面標定板上,標定板平放在地面上,如圖3所示。根據文獻[20]可得曲線任意(xt,y)在世界坐標系上的二維坐標點為

(12)

式中,h11、h12、h14、h21、h22、h24、h31、h32、h34為單應矩陣H的元素,H=K[RT],其中,[RT]是攝像機與標定板間的位姿矩陣,K是鏡頭內參數矩陣,均可通過標定得到[21]。

1.5 算法步驟

AGV運動過程中連續采集圖像形成視頻,本文給出針對視頻流的導航標識線檢測與跟蹤算法步驟:

(1)初始化主動輪廓模型的權重α、β、wC、wE、wG和wP,標識線像素寬度w和標識線灰度t1,給定變量t=1和多項式曲線階數n。

(2)打開攝像頭。

2 試驗與分析

2.1 算法精度、魯棒性和實時性試驗

2.1.1 試驗條件與參數

為考察本文算法在非線性光照污染環境下的檢測精度、魯棒性和實時性,并與IRANSAC算法[4](IRANSAC是一種基于曲線模型的方法,由2個步驟組成,首先提取路徑邊緣,再用IRANSAC算法檢測曲線)比較,選用易反光的瓷磚地面上鋪設單向黑色標識線,采用大恒公司分辨率為656像素×492像素,焦距為8 mm,幀速為120幀/s的MER-030-120UM型工業相機采集100幅圖像和1個視頻。應用Visual Studio 2008和opencv 2.3.1編寫算法,算法運行平臺為CPU頻率2.80 GHz,內存2 GB,運行Windows 7的計算機。算法參數設置為:多項式曲線階數n-1=3,內部能量函數權重α=1、β=500,外部能量函數權重wC=1、wE=0.1、wG=0.1和wP=0.1,標識線像素寬度w=10,標識線灰度t1=0,最大迭代次數kmax=30,|skh|<10-3(這些參數經多次試驗、反復調整確定)。

2.1.2 算法檢測精度試驗

為充分考察算法檢測精度,從100幅圖像中隨機選擇5幅圖像,對應著直線標識線、彎曲標識線、受光照污染的直線與彎曲標識線和軌跡缺陷等5種標識線。用本文算法(對于非視頻流中的圖像,能量項Espeed不起作用,需將它的權重wG和wP設置為0)和IRANSAC算法檢測5幅圖像,試驗結果如圖4所示,記錄5幅圖像的計算結果θ并與真實結果θ*比較,其中,真實參數θ*用人工選擇盡可能少且充分正確的標識線邊緣點,通過多項式插值求得[4],如表2所示。

由圖4和表2數據可知,相比IRANSAC算法,本文算法能夠正確檢測光照污染和軌跡缺陷條件下的標識線,檢測精度較高,能夠滿足工業或農業應用的導航精度要求。另外,由圖4可見,標識線在局部光照污染情況下,表現為軌跡部分缺陷,也就是說軌跡缺陷可視為局部光照污染下的特例。

圖4 2種算法檢測結果Fig.4 Results of two kinds of algorithms

不同標識線真實參數θ*本文算法IRANSAC算法計算參數θ誤差‖θ-θ*‖計算參數θ誤差‖θ-θ*‖直線(158.766,0.055,0.000,-0.000)(159.065,-0.000,0.001,-0.000)0.303(158.659,0.034,0.000,-0.000)0.109彎曲(322.580,-3.207,0.012,-0.000)(322.571,-3.207,0.012,-0.000)0.008(247.968,-2.222,0.010,-0.000)74.618光照污染直線(169.033,0.055,-0.001,0.000)(169.655,-0.013,0.000,-0.000)0.626(-2502.905,35.134,-0.002,-0.000)2672.2光照污染彎曲(121.351,0.867,-0.024,0.000)(121.836,0.841,-0.002,-0.000)0.486(-119.517,6.944,-0.073,0.000)240.947軌跡缺陷(-0.000,0.008,-1.623,246.157)(-0.000,0.008,-1.623,246.161)0.005(0.000,-0.018,0.767,298.209)52.107

2.1.3 算法魯棒性和實時性試驗

為驗證算法魯棒性和實時性,對采集視頻進行檢測與跟蹤,部分結果如圖5所示。

算法魯棒性用正確率來衡量,即標識線被正確檢測的數量與圖像總幀數的比例。視頻的檢測跟蹤結果見表3。由表3數據可知:本文算法對直線標識線、彎曲標識線、受非線性光照污染的直線、彎曲標識線等4種標識線的檢測跟蹤正確率分別為100%、100%、100%、92.58%,平均正確率為98.96%,均優于IRANSAC算法,表明本文算法具有較高的魯棒性。

算法實時性用每幀圖像的平均運算時間或迭代次數來衡量。對視頻的試驗結果進行統計可知:本文算法平均迭代3次收斂,平均運算時間為40.18 ms;IRANSAC算法平均運算時間為188 ms,表明本文算法更具實時性。

圖5 本文算法檢測與跟蹤標識線結果Fig.5 Results of lane detection and tracking using proposed algorithm

這里需要說明,本文算法在檢測與跟蹤的過程中,如果某1幀圖像中的標識線受到大面積遮擋,將使解算出來的曲線偏移真實的標識線邊緣,進而顯著降低整個視頻流的檢測跟蹤正確率,其主要原因是主動輪廓模型容易收斂于局部特征。1種有效的解決方法是,當主動輪廓模型失效時,人為地重新采集n+1個點作為當前幀的迭代初值,避免AGV迷路。

表3 視頻的檢測與跟蹤結果統計Tab.3 Statistics of video detection and tracking results

2.2 視覺導航AGV樣機試驗

搭建視覺導航自動導引車(圖6),由以下部件組成:1輛后輪驅動前輪轉向的小車、1臺2 G內存計算機、1塊單片機、1臺30幀/s CCD相機。其工作原理是:以計算機作為上位機運行導航算法,經串口通信將導航信息傳輸給單片機,再驅動數字舵機控制前輪轉向,實現小車沿標識線行走。為增加標識線與室外環境顏色對比度,提高算法魯棒性,采用白色標識線,標識線灰度u1需設為255。試驗過程如圖7所示,表明AGV能有效跟蹤直線和彎曲標識線,本文算法可滿足自動導引車的魯棒性和實時性導航要求。

圖6 視覺導航自動導引車Fig.6 AGV with vision navigation1.CCD相機 2.單片機 3.計算機 4.小車

在某些應用中可能會出現交叉路線,可參照文獻[22]在交叉位置貼上包含轉向信息的一維條形碼,當AGV掃描到一維條形碼時即可轉向,也就是說,本文提出的適用于單向標識線的導航算法可應用于交叉標識線。

3 結論

(1)針對非線性光照污染環境下視覺檢測與跟蹤算法魯棒性和實時性差的問題,通過分析標識線的顏色、圖像梯度和運動速度等特征,確定了適用于標識線識別的主動輪廓模型的內外部能量函數,并使用高斯牛頓法給出了能量函數的最優解。

(2)在不考慮交叉十字路線的情況下,本文算法對直線和彎曲標識線、受非線性光照污染的直線、彎曲標識線等4種標識線的檢測跟蹤正確率分別為100%、100%、100%、92.58%,平均正確率為98.96%,平均運算時間為40.18 ms,能夠滿足工業或農業非線性光照環境下AGV的導航魯棒性和實時性要求。

1 周俊, 陳欽, 梁泉. 基于強化學習的農業移動機器人視覺導航[J/OL]. 農業機械學報, 2014, 45(2):53-58. http:∥www.j-csam.org/jcsam/ch/reader/view_abstract.aspx?file_no=20140210&flag=1.DOI: 10.6041/j.issn.1000-1298.2014.02.010. ZHOU Jun, CHEN Qin, LIANG Quan. Vision navigation of agricultural mobile robot based on reinforcement learning[J/OL].Transactions of the Chinese Society for Agricultural Machinery,2014,45(2):53-58.(in Chinese)

2 武啟平, 金亞萍, 任平,等. 自動導引車(AGV)關鍵技術現狀及其發展趨勢[J]. 制造業自動化, 2013(10):106-109.

3 胡靜濤, 高雷, 白曉平,等. 農業機械自動導航技術研究進展[J]. 農業工程學報, 2015,31(10):1-10. HU Jingtao, GAO Lei, BAI Xiaoping, et al. Review of research on automatic guidance of agricultural vehicles[J]. Transactions of the CSAE, 2015,31(10):1-10. (in Chinese)

4 林桂潮, 鄒湘軍, 羅陸鋒,等. 改進隨機樣本一致性算法的彎曲果園道路檢測[J]. 農業工程學報, 2015,31(4):168-174. LIN Guichao, ZOU Xiangjun, LUO Lufeng, et al. Detection of winding orchard path through improving random sample consensus algorithm[J]. Transactions of the CSAE, 2015(4):168-174. (in Chinese)

5 蔡晉輝, 才輝, 張光新,等. 復雜環境下自動導引車路徑識別算法[J]. 農業機械學報, 2011, 42(10):20-24. CAI Jinhui, CAI Hui, ZHANG Guangxin, et al. Guidance line identification algorithm for AGV in complex environment[J]. Transactions of the Chinese Society for Agricultural Machinery, 2011, 42(10):20-24. (in Chinese)

6 高國琴,李明. 基于 K-means 算法的溫室移動機器人導航路徑識別[J]. 農業工程學報,2014,30(7):25-33. GAO Guoqing, LI Ming. Navigating path recognition for greenhouse mobile robot based on K-means algorithm[J]. Transactions of the CSAE,2014, 30(7):25-33. (in Chinese)

7 宋懷波,何東健,辛湘俊. 基于機器視覺的非結構化道路檢測與障礙物識別方法[J].農業工程學報,2011,27(6):225-230. SONG Huaibo, HE Dongjian, XIN Xiangjun. Unstructured road detection and obstacle recognition algorithm based on machine vision[J]. Transactions of the CSAE,2011,27(6):225-230. (in Chinese)

8 胡曉輝,孫苗強,蘇曉許. 偽彩色空間完全非結構化道路檢測方法[J]. 中國圖象圖形學報,2012,17(2):203-208. HU Xiaohui, SUN Miaoqiang, SU Xiaoxu. Completely unstructured road detection for pseudo-color space[J]. Journal of Image and Graphics,2012,17(2):203-208. (in Chinese)

9 杜明芳,王軍政,李靜,等. 自主移動機器人自適應室外道路檢測[J]. 中國圖象圖形學報,2014,19(7) : 1046-1053. DU Mingfang, WANG Junzheng, LI Jing, et al. Adaptive outdoor road detection for autonomous mobile robot[J]. Journal of Image and Graphics, 2014,19(7) : 1046-1053. (in Chinese)

10 許華榮,王曉棟,方遒. 基于B 樣條曲線模型的結構化道路檢測算法[J].自動化學報,2011,37(3):270-275. XU Huarong, WANG Xiaodong, FANG Qiu. Structure road detection algorithm based on B-spline curve model[J]. Acta Automatic Sinica, 2011,37(3):270-275. (in Chinese)

11 王新忠,韓旭,毛罕平,等. 基于最小二乘法的溫室番茄壟間視覺導航路徑檢測[J/OL]. 農業機械學報,2012,43(6):161-166. http:∥www.j-csam.org/jcsam/ch/reader/view_abstract.aspx?file_no=20120629&flag=1.DOI:10.6041/j.issn.1000-1298.2012.06.029. WANG Xinzhong, HAN Xu, MAO Hanping, et al. Navigation line detection of tomato ridges in greenhouse based on least square method[J/OL]. Transactions of the Chinese Society for Agricultural Machinery, 2012,43(6):161-166. (in Chinese)

12 李林, 魏新華, 朱文靜,等. 寬幅施藥機械機器視覺輔助導航系統研究[J/OL]. 農業機械學報, 2015, 46(9):28-33. http:∥www.j-csam.org/jcsam/ch/reader/view_abstract.aspx?file_no=20150904&flag=1.DOI: 10.6041/j.issn.1000-1298.2015.09.004. LI Lin, WEI Xinhua, ZHU Wenjing, et al. Research on auxiliary navigation system for wide spraying mechanism based on machine vision[J/OL]. Transactions of the Chinese Society for Agricultural Machinery, 2015, 46(9):28-33. (in Chinese)

13 馮娟,劉剛,司永勝,等. 果園視覺導航基準線生成算法[J/OL]. 農業機械學報,2012,43(7):185-189,184. http:∥www.j-csam.org/jcsam/ch/reader/view_abstract.aspx?file_no=20120734&flag=1.DOI:10.6041/j.issn.1000-1298.2012.07.034. FENG Juan, LIU Gang, SI Yongsheng, et al. Algorithm based on image processing technology to generate navigation directrix in orchard[J/OL]. Transactions of the Chinese Society for Agricultural Machinery, 2012,43(7):185-189,184. (in Chinese)

14 WANG Y, TEOH E K, SHEN D G. Lane detection and tracking using B-Snake[J]. Image and Vision Computing, 2004,22(4):269-280.

15 LU B, MIAO C, WANG H, et al. Lane mark detection with active contour for gradient domain[C]∥International Conference on Control and Automation and Systems Engineering, 2009: 591-594.

16 LI X, FANG X, WANG C, et al. Lane detection and tracking using a parallel-snake approach[J]. Journal of Intelligent & Robotic Systems, 2015, 77(3-4):597-609.

17 IVINS J, PORRILL J. Everything you always wanted to know about snakes (but were afraid to ask)[J]. AIVRU Technical Memo #86,1993.

18 CHAN T F, VESE L A. Active contours without edges[J]. IEEE Transactions on Image Processing, 2001, 10(2):266-277.

19 袁亞湘,孫文瑜. 最優化理論與方法[M].北京:科學出版社,2003.

20 STEGER C, ULRICH M, WIEDEMANN C. Machine vision algorithm and applications [M]. Hoboken, NJ: Wiley-VCH, 2007:193-196.

21 ZHANG Z. A flexible new technique for camera calibration[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2000, 22(11): 1330-1334.

22 TAHA Z, MAT-JIZAT J A, ISHAK I. Bar code detection using omnidirectional vision for automated guided vehicle navigation[C]∥International Conference on Automatic Control and Artificial Intelligence, 2012:589-592.

Visual Navigation for Automatic Guided Vehicles Based on Active Contour Model

LIN Guichao1ZOU Xiangjun2ZHANG Qing1XIONG Juntao2

(1.CollegeofMechanicalandAutomotiveEngineering,ChuzhouUniversity,Chuzhou239000,China2.KeyLaboratoryofKeyTechnologyonSouthAgriculturalMachineandEquipment,MinistryofEducation,SouthChinaAgriculturalUniversity,Guangzhou510642,China)

Lane detection and tracking algorithm based on active contour model was proposed to solve the poor robustness and real-time problem for vision navigation under factory or agricultural nonlinear illumination conditions. First of all, it was illustrated that navigation problem was equivalent to calculation of polynomial curve parameters, which could describe the navigation lanes. Secondly, the external energy function of active contour model was investigated, including three energy terms. The first energy term was about the Euclidean distance between lane colors and colors on one side of polynomial curve, by minimizing the first energy term could attract polynomial curve to navigation lanes. The second energy term was about the edge features, which could attract polynomial curve to lane edges. The third energy term was about the position difference of polynomial curve between adjacent frames, which could limit curve to change abruptly. Finally, the energy function was simplified to a nonlinear least squares problem, and the Gauss-Newton method as well as the Armijo-Goldstein inexact line search method were used to solve this problem. Home video and independent car were tested, the result showed that the algorithm achieved a navigation accuracy of 98.96% for both the straight lane and bending lane under nonlinear illumination, with average processing time of 40.18 ms, and the independent car could walk along the navigation lane successfully. Experiment result showed that the algorithm was robust and real-time.

automatic guided vehicles; active contour models; Gauss-Newton method; visual navigation

10.6041/j.issn.1000-1298.2017.02.003

2016-05-17

2016-07-01

國家自然科學基金項目(31571568)、廣州市科技計劃項目(201510010140)和廣東省工程中心項目(2014B090904056)

林桂潮(1989—),男,助教,主要從事視覺導航和視覺工業機器人研究,E-mail: guichaolin@126.com

鄒湘軍(1957—),女,教授,博士生導師,主要從事智能設計和系統仿真研究,E-mail: xjzou1@163.com

TP391.41

A

1000-1298(2017)02-0020-07

猜你喜歡
實時性魯棒性能量
武漢軌道交通重點車站識別及網絡魯棒性研究
荒漠綠洲區潛在生態網絡增邊優化魯棒性分析
能量之源
基于確定性指標的弦支結構魯棒性評價
詩無邪傳遞正能量
航空電子AFDX與AVB傳輸實時性抗干擾對比
計算機控制系統實時性的提高策略
一種基于三維小波變換的魯棒視頻水印方案
可編程控制器的實時處理器的研究
開年就要正能量
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合