?

基于機器視覺的玉米根莖導航基準線提取方法

2017-03-02 10:46劉永博朱德泉陳黎卿
農業機械學報 2017年2期
關鍵詞:定位點基準線根莖

宋 宇 劉永博 劉 路 朱德泉 焦 俊 陳黎卿

(1.安徽農業大學工學院, 合肥 230036; 2.中國科學技術大學工程科學學院, 合肥 230026)

基于機器視覺的玉米根莖導航基準線提取方法

宋 宇1劉永博1劉 路2朱德泉1焦 俊1陳黎卿1

(1.安徽農業大學工學院, 合肥 230036; 2.中國科學技術大學工程科學學院, 合肥 230026)

提出一種在大田環境下快速、精確提取中晚期玉米行中心線作為農業機器人導航基準線的新方法。改進了傳統的2G-R-B算法,實時地獲取植株綠色特征。根據玉米垂直投影圖生成根莖輪廓特點并采用峰值點檢測算法生成玉米根莖候補定位點,再對候補定位點進行二次判別,提取玉米根莖定位點。利用最小二乘法對已知特征點進行擬合,得到作物行線。求取左右行斜率后,計算出實際需要的導航基準線。實驗結果表明,與其它算法相比,處理一幅700像素×350像素的彩色圖像平均耗時小于185 ms,實時性好。在多種環境下生成的導航基準線準確率在90%以上,有較強的魯棒性,為農業自動導引車(Automated guided vehicle,AGV)在中后期玉米大田中的自主行走提供了一種可靠的導航方法。

農業自動導引車; 機器視覺; 導航基準線; 峰值點檢測; 玉米根莖

引言

隨著精準農業的迅速發展,農業機械自主導航在農田耕作、農藥噴灑、水稻插秧和作物收割等方面被廣泛應用。目前玉米中后期病蟲害防治主要依靠人工噴灑農藥,對人危害較大。如何能有效避免人工防治,實現自動作業受到越來越多的關注。農機自主導航早在20世紀20年代就被提出[1],直到80年代末和90年代初才將相關的視覺處理算法應用到農業機械導航上[2-3]。期間,農機導航的方式也從早期的預埋電纜導航和機械觸桿導航發展到電磁導航、激光導航、慣性導航、GPS導航和機器視覺導航等[4],不同導航方式具有各自的特點。其中視覺導航系統主要是利用相機采集農田環境信息,處理和分析后提取感興趣區域(ROI),然后對ROI提取定位點和擬合,獲取導航參數。通過獲取的導航參數,調整農業機械的行駛狀態,使機器能夠沿著導航目標行走[5-6]。相對于其他幾種導航方式,視覺導航具有成本低、準確度高、信息采集范圍廣和適應性強等特點,正逐漸成為農機導航的研究熱點。

根據農田的結構和作物種植特點,依據農田圖像提取導航基準線主要是利用作物行邊緣、壟溝或者是具有明顯區分特征的邊緣或中心線,很多學者對此進行了卓有成效的研究[7~18]。目前的研究成果主要集中在大田環境中相機位置高于農作物的情況,很少關注玉米中后期行間行駛的農業自動導引車(AGV)導航算法。本文提出一種針對成熟的中后期玉米根莖部識別的視覺處理方法,該方法在前期預處理過程中,改進傳統的2G-R-B算法,以解決傳統超綠特征法實時性差和魯棒性差的缺點。經過預處理和垂直投影圖變換,顯示像素在縱坐標水平方向的累加值,這些累加值能夠反映出玉米的輪廓特征,對輪廓特征點求取峰值點,得到玉米根莖的候補定位,再通過二次的檢測和判斷規則,篩選出玉米根莖定位點。最后采用最小二乘法擬合定位點,生成玉米根莖線,然后以兩行玉米根莖線斜率為參數計算出導航中心線,并以此作為導航基準線,從而為農業AGV應用于玉米中后期蟲害防治提供一種有效的導航方法。

1 機器視覺系統設計

1.1 實驗設備

機器視覺系統圖像采集設備如圖1所示。在農業AGV上安裝DFK22AUC03型相機,相機圖像尺寸為750像素×350像素,拍攝幀率為87 Hz。圖像處理硬件采用Intel Core i3處理器,主頻2 GHz,內存容量4 GB,軟件開發環境為Visual C++ 6.0。實驗中的農業AGV寬60 cm、長110 cm,相機安裝在農業AGV縱軸中心線最前方,相機中心線相對輪式小車縱軸中心線向下傾斜5°,采集前方路徑信息和玉米植株的根部特征。

圖1 圖像采集設備Fig.1 Equipment of image acquisition

1.2 相機標定模型

為獲得小車在田間的位置坐標,需要對相機位置進行標定。視覺導航中需要標定4個坐標系,分別是圖像坐標系、圖像物理坐標系、相機坐標系和世界坐標系。世界坐標系的坐標原點以車身中心為坐標原點,記為OXwYwZw;相機坐標系以安裝在小車縱向中心線位置的相機光心為相機坐標原點,記為O1XcYcZc;圖像坐標系則以圖像左上角為坐標原點,建立Obxbyb坐標系;圖像物理坐標系以圖像的中心為坐標原點,建立Odxdyd坐標系[19]。

利用相機成像原理,將地面上的對象特征坐標全部投影到圖像上,根據坐標系轉換關系

(1)

式中xi、yi——圖像坐標中第i個坐標點的值Xwi、Ywi、Zwi——世界坐標中第i個坐標點的值

將圖像坐標系轉換為世界坐標系。令mij構成的4×3矩陣為轉換矩陣H,相機標定過程就是要先獲得轉換矩陣H。H僅與相機內部參數和外部參數有關,其中內部參數是與相機自身參數有關的3×4矩陣,外部參數是相機坐標系在世界坐標系中經旋轉和平移得到的矩陣參數。利用最小二乘法求解線性方程組,便可求出轉換矩陣H。因此根據式(1),知道圖像像素坐標即可求出世界坐標系中的小車位置。

1.3 導航系統設計

實驗平臺為農業AGV,集成相機等數據采集裝備。CCD相機采集行走路線上前方的左右兩側玉米根莖圖像信息,傳送到QT-E9型開發板進行分析和處理,開發板通過RS232串口與PC上位機進行通信,將獲得的導航參數信息傳輸到控制系統模塊,控制系統模塊根據接收到的指令,控制農業AGV行走和轉向,完成導航任務。

圖2 視覺導航系統示意圖Fig.2 Schematic diagram of visual navigation system

2 玉米根莖導航基準線的提取方法

2.1 綠色特征的提取

圖像預處理包括圖像灰度化、濾波去噪和圖像二值化等。農田環境中,利用土壤和植株顏色差別較大的特點,在圖像灰度化處理之前,提取玉米綠色特征將可大大降低后期灰度化的計算量,提高實時性。αG-R-B也稱為超綠特征算法,WOEBBECKE等[20]在1995年根據作物行之間綠色特征較為明顯這一特點,用2G-R-B提取出了綠色特征分量。

機器視覺系統采集的圖像為RGB真彩色圖像(圖3),通過提取G分量,淡化R、B分量可以去除土壤等噪聲的影響。當前大多數學者仍然直接設定G值系數為2.0,部分學者通過加大G的倍數并減去R和G分量的值,重新設定新閾值提取目標的綠色特征分量。這種方式需要不斷人工設定閾值,實時性較差。為得到較為準確的G值系數,用Matlab對大量玉米根莖作物行的樣本圖片進行G-R-B分量的關系分析。

(2)

式中α——系數

Gr(x,y)new——(x,y)處R、G、B分量值

圖3 原始圖像Fig.3 Original image

利用式(2)計算每張樣本圖像,當αG(x,y)的值大于或等于R(x,y)和B(x,y)之和時,說明此處像素的G分量顯著,保留G分量值。當αG(x,y)的值小于或等于R(x,y)和B(x,y)之和時,則認為此處的G值分量不顯著,并將該處的R-G-B值設置為白色。田間觀察發現,玉米大田環境整體相對均衡,實驗前拍攝一定數量的圖片并取α的均值,可以大幅提高導航的魯棒性。實驗處理了多幅樣本圖片后,計算出α的均值為1.9。以圖3為研究對象,圖4a和圖4b分別是G值系數α為1.8和1.9時的圖像噪聲檢測效果圖。從圖中看出,當α=1.9時效果最好。如果繼續令G值系數α=2.0,會造成過度提取,腐蝕玉米根莖區域。

圖4 圖像噪聲檢測結果Fig.4 Results of image noise detection

2.2 圖像分割和去噪

圖像經過超綠特征算法處理之后,仍為三維向量數組,因此需要對圖像進行灰度化處理,降低維度,減少計算量。OTSU法(最大類間方差法)按灰度級把圖像的灰度數分成兩部分,使每部分之間的灰度差異最小,而兩部分之間灰度值差異最大,通過計算方差自動選取閾值,尋找合適的灰度級別來分割圖像。以圖4b為例,對于存在的噪聲,用6×6的濾波窗口對圖像進行中值濾波。處理后的結果如圖5所示,玉米植株清晰可見。

圖5 OTSU處理結果Fig.5 Result of OTSU processing

濾波之后仍有雜草和枯枝等噪聲。如果這些噪聲不去除,直接對其進行邊緣檢測和Hough變換將占據較多的內存量和計算時間,影響整個導航系統的實時性,采用形態學運算中的開運算可以去除部分小面積噪聲[21],不會影響植株的莖稈部分。用圓形結構元素為100的結構因子對圖像進行先腐蝕后膨脹處理,最終可以得到較為理想的處理效果。采用開運算處理圖5,結果如圖6所示。從圖中可以看出玉米根部附近外伸葉子的折彎處腐蝕較好,并剔除了大部分的小噪聲,耗時47 ms。

圖6 形態學處理的圖像Fig.6 Image of morphology processing

2.3 對感興趣區域(ROI)的提取

去除小面積噪聲后,圖像依然存在大量的小斑塊。由于整個玉米植株的根部和上枝葉有連接,從而形成大面積區域。伸展出來的葉片經過腐蝕后,依然保留小部分的斑塊。如果采用全局形態學處理,可能會腐蝕玉米的根部等感興趣區域。而采用8鄰域結構因子對二值圖形中的小斑塊進行標記,可剔除葉子尖端和邊緣的大面積噪聲,保留玉米植株的根部特征。8鄰域是指像素位置的上、下、左、右、左上、右上、左下、右下8個方向緊鄰的位置。8連通定則[22]為

N8(p)=N4∪(x+1,y+1),(x+1,y-1),

(x-1,y-1),(x-1,y+1)

(3)

其中N4=(x,y)∪(x,y-1),(x+1,y),

(x,y+1),(x-1,y)

式中N8(p)——p點的8鄰域N4——p點的4鄰域

8連通區域可通過對圖像中1個像素點進行8個方向的移動組合,更加全面地搜索標定圖像中多個連通區域的面積。從圖像中發現,圖像噪聲以區域面積斑塊為主。首先對全局所有圖像斑塊進行面積標記(以圖6為例),當標記閾值面積大于200時保留該斑塊,并視之為感興趣區域,同時將小于該閾值的小斑塊噪聲去除,處理后的結果如圖7所示,斑塊噪聲明顯得到抑制,耗時為25 ms。對于伸展到行間的玉米葉片等更大的噪聲,通過后期的垂直投影進行弱化和消除其影響。

圖7 8鄰域去噪Fig.7 Denoising of eight neighborhood

2.4 根莖輪廓點提取

根據玉米根莖部位的生長特點可知,根莖較為筆直,相鄰根莖之間有間隙,易于區分。把玉米根莖區域的輪廓提取出來,可以為后期玉米根莖尖端定位減少計算量。

(4)

式中M、N——圖像像素的水平和縱向尺寸l、j——圖像像素的列號和行號I(l,j)——以圖像左上角為坐標原點,沿著圖像l列方向,取每列的像素之和作為新的縱坐標,圖像j方向為行坐標

在圖像計算中,黑色像素是0,白色為1。經過式(4)進行垂直投影變換后,從圖8(坐標原點在左下方)可以明顯觀察到玉米植株的根莖輪廓區域,將結果放在圖9中,峰值點正好落在玉米根莖的外輪廓。另外,經過前期預處理后的圖像仍然可能會有部分葉片噪聲伸向行間,而經過垂直投影變換后,基本不會影響根莖輪廓和定位。原因在于玉米葉片與根莖相連處沿列縱向像素較少(圖9),假如產生的噪聲較大,如果大于一定閾值,可以運用特征點值比較法剔除,舍去偽值。

圖8 垂直投影圖Fig.8 Image of vertical projection

圖9 玉米莖稈輪廓Fig.9 Profile of corn stalks

2.5 根莖定位點提取

定位點的提取非常關鍵,根莖定位點是否準確,直接影響后期的直線擬合精度。從圖8和圖9中不難發現,玉米根莖連續的曲線形成了許多大小不同的峰值點。峰值點的特性表現為,峰值點的數值大于其相鄰的左邊和右邊的數值,即S(j)大于S(j+1)和S(j)大于S(j-1)。由前文可知,峰值點是由垂直投影關系計算出的,峰值點最大的點,也是根莖主干和地面相交的底端,稱為定位特征點。玉米根莖成圓柱狀,因此定位特征點可能有若干個,而只要取一個即可定位玉米的根莖位置。根據玉米根莖底端相鄰峰值點較為密集的特性,用如下算法獲取定位特征點,具體步驟為:

(1)沿j方向,從左到右對根莖輪廓點進行掃描,設定相鄰峰值點距離的閾值,目的是得到較為分散的離散點簇和玉米根莖的定位點,同時去除玉米根莖皮等引起的小波峰噪聲,如圖10所示,其中數字標記為玉米根莖特征定位點,存儲到特征點矩陣Smax中。

圖10 離散點簇圖Fig.10 Image of discrete points cluster

(2)以圖像中心的1/2處為分割線,分別建立左右兩個空矩陣,左邊記為L,右邊記為R。

(3)由相機成像特點可知,距離相機鏡頭焦距較近的成像尺寸較大,反之較小,而垂直投影變換正好符合此原則。將距離鏡頭近而投影值非常小的偽特征點舍去。以L矩陣為例,對L和R矩陣進行二次特征點判斷。將圖像左上角設定為坐標原點,沿j方向從左向右,依次掃描各個特征點,對Smax中的特征點進行判別,當出現兩個特征點符合Smax(j)小于Smax(j+1)時,將Smax(j+1)設定為空。對R矩陣的處理正好相反,坐標原點在圖像的右上方,沿j從右往左掃描,當Smax(j)小于Smax(j+1)時,將Smax(j)設定為空,即可剔除明顯偏離較大的偽特征點。如圖11中標記的2點、5點和10點。其中,圖11中的10點雖為玉米根莖定位點,但是玉米植株相對于正常中后期的其它玉米植株根莖非常細小,且莖稈也并非豎直狀,當其作垂直投影變換時,在垂直方向白色區域較少,黑色較多(即1少,0多),因此投影值相對于8特征點較低。在大田環境中,這種情況的玉米根莖相對較少,不影響整體的特征點判斷和識別。剔除噪聲特征點后的圖像如圖12所示。

圖11 候補定位點圖Fig.11 Image of alternate location points

圖12 剔除噪聲定位點Fig.12 Eliminating of noise location points

2.6 導航基準線擬合

對獲取的植株根莖定位點采用最小二乘法進行擬合,獲取AGV左右兩側的植株根莖行線,作為導航基準線,提取導航參數。利用夾角的正切公式,設導航基準線的斜率為k,根據k和k1之間的夾角正切值等于k和k2夾角正切值的關系,可計算出導航基準線斜率。如式(5),已知兩作物行直線斜率k1、k2后,即可求出兩條根莖行線的角平分線。

(5)

以圖12為例,實際求得k1=-1.361 0,k2=1.014 7,圖13中的虛線即為導航基準線。

圖13 導航基準線圖Fig.13 Diagram of navigation baseline

3 田間實驗及可靠性分析

3.1 實驗結果

田間實驗于2015年7月在河南省鶴壁市??h玉米示范區進行,大田作物中玉米行距65~80 cm。為判斷提取導航基準線的準確性,人工擬合出導航基準線作為衡量基準,以判斷該算法提取出的導航基準線的準確率。人工擬合是在農業AGV行走之前,以小車出發點為坐標原點,現場建立人工坐標系,測量行間的玉米根莖坐標,并計算出斜率,最后解算出基準線方程,從而得到人工擬合的導航基準線。人工擬合的導航基準線與農業AGV前進方向之間的夾角為導航角,該導航角大小用以衡量機器視覺算法獲取導航基準線的準確率。實驗當天為陰天,玉米行間部分地段存在少量低矮雜草,光線較暗。小車以0.8 m/s速度行駛,每隔2 s提取一幀圖像,共采集150幀圖像,此時小車行走約245 m。為分析小型農業AGV拍攝的圖像處理效果,提取小車拍攝的圖像。在Matlab 2010b中進行仿真。將本算法分別與傳統Hough變換和過已知點Hough算法提取的導航基準線進行比較和分析,結果見表1。

表1 不同算法耗時和準確率比較Tab.1 Comparison of time-consuming and accuracy for different algorithms

由于經傳統Hough變換轉換后的坐標參數ρ和θ是對全局的圖像進行檢索,信息量較大,因此耗時較長。過已知點的Hough變換需按行對圖像劃分水平帶,尋找玉米根莖定位點,增加了循環次數,處理時間也相對偏長。而且過已知點Hough變換需要人工選擇合適的已知點,實時性較差。此外,由于玉米植株根莖的離散生長,在使用Hough變換擬合前,通過Meanshift法對作物行進行邊緣檢測,雖然更好地解決了玉米植株間隙大、光照不均等問題,但導航精度下降。而本算法主要通過識別玉米根莖定位點對玉米植株進行定位,具有計算量小、定位精度高的優勢。同時將提取的導航參數與上位機建立通信,對其進行處理。

3.2 不同環境下的可靠性分析

為判斷該算法在不同環境下的可靠性,分析不同場景下提取導航中心線的耗時和準確率。分別在3種不同環境下采集若干數量的圖片,在Matlab中進行仿真分析,以上文提到的人工擬合導航線為基準,判別仿真的準確率。3種環境條件分為:晴天條件,葉片較多;晴天條件,存在少量雜草;陰天條件,葉片較少。

通過表2可知,該算法可以適應玉米田間多種情況下的導航中心線提取,且圖像處理平均耗時為200 ms左右,當玉米行間存在較少量雜草的情況下,準確率可達90%,為小型農業AGV在大田玉米環境中的自主導航提供了一種綜合性能較好的導航方法。

圖14 不同環境下導航中心線Fig.14 Navigation centerline in different environments

環境條件圖像數量/幅平均耗時/(ms·幅-1)準確率/%晴天3019791.3晴天含少量雜草3020990.4陰天3018992.9

4 結論

(1)對傳統的超綠特征算法中的G值系數先求樣本平均值,可實時地將玉米植株根莖部綠色特征提取出來,提高了算法的魯棒性。

(2)基于垂直投影圖,找出玉米根莖峰值點,僅對峰值點數據進行篩選處理,可準確提取出玉米根莖定位點,并剔除大塊的玉米葉片噪聲的影響,降低了運算量,縮短了運行時間。

(3)采用基于已知點的最小二乘法擬合提取作物行特征點,減少了計算量和占用內存,不僅提高了實時性,而且降低了算法的復雜度。

(4)相對基于玉米壟溝特征提取基準線的方法,省去了作物行邊界提取等步驟,本算法簡單易行。另外針對不同場景條件,具有較好的魯棒性,導航基準線準確率和耗時都處于優勢地位。

1 WILLRODT F L. Steering attachment for tractors: US, 1,506,706[P]. 1924-08-26.

2 REID J, SEARCY S. Vision-based guidance of an agriculture tractor[J]. IEEE Control Systems Magazine,1987,7(2):39-43.

3 FEHR B W, GERRISH J B. Vision-guided row-crop follower[J]. Applied Engineering in Agriculture, 1995,11(4):613-620.

4 劉陽,高國琴.農業機械視覺導航基準線識別研究進展[J].農機化研究,2015,37(5):7-13. LIU Yang, GAO Guoqin. Research development of vision-based guidance directrix recognition for agriculture vehicles[J]. Journal of Agricultural Mechanization Research,2015,37(5):7-13. (in Chinese)

5 陳艷,張漫,馬文強,等.基于GPS和機器視覺的組合導航定位方法[J].農業工程學報,2011,27(3):126-130. CHEN Yan, ZHANG Man, MA Wenqiang, et al. Positioning method of integrated navigation based on GPS and machine vision[J]. Transactions of the CSAE, 2011,27(3):126-130. (in Chinese)

6 張紅霞.基于機器視覺的旱田多目標直線檢測方法的研究[D].北京:中國農業大學,2007.

7 MONTALVO M, PAJARES G, GUERRERO J M, et al. Automatic detection of crop rows in maize fields with high weeds pressure[J]. Expert Systems with Applications, 2012, 39(15): 11889-11897.

8 MORIMOTO E, SUGURI M, UMEDA M. Vision-based navigation system for autonomous transportation vehicle[J]. Precision Agriculture, 2005, 6(3): 239-254.

10 BAKKER T, WOUTERS H, VAN ASSELT K, et al. A vision based row detection system for sugar beet[J]. Computers and Electronics in Agriculture, 2008, 60(1): 87-95.

11 劉占.基于雙目視覺的農田路徑導航信息獲取研究[D].呼和浩特:內蒙古大學,2014.

12 刁智華,趙明珍,宋寅卯,等.基于機器視覺的玉米精準施藥系統作物行識別算法及系統實現[J].農業工程學報,2015,31(7):47-52. DIAO Zhihua, ZHAO Mingzhen, SONG Yinmao, et al. Crop line recognition algorithm and realization in precision pesticide system based on machine vision[J]. Transactions of the CSAE, 2015,31(7):47-52. (in Chinese)

13 金海龍,喻擎蒼,周志宇,等.基于Meanshift和Hough變換的秧苗行中心線提取[J].浙江理工大學學報,2015,33(3):405-409. JIN Hailong, YU Qingcang, ZHOU Zhiyu, et al. Extraction of center line of rice seedling row based on Meanshift and Hough transform[J]. Journal of Zhejiang Sci-Tech University, 2015,33(3):405-409. (in Chinese)

14 馬紅霞,馬明建,馬娜,等.基于Hough變換的農業機械視覺導航基準線識別[J].農機化研究,2013,35(4):37-39,43. MA Hongxia, MA Mingjian, MA Na, et al. Baseline recognition based on Hough transform in the vision navigation of agricultural vehicles[J]. Journal of Agricultural Mechanization Research,2013,35(4):37-39,43. (in Chinese)

15 趙穎,陳兵旗,王書茂,等.基于機器視覺的耕作機器人行走目標直線檢測[J].農業機械學報,2006,37(4):83-86. ZHAO Ying, CHEN Bingqi, WANG Shumao, et al. Fast detection of furrows based on machine vision on autonomous mobile robot[J]. Transactions of the Chinese Society for Agricultural Machinery, 2006,37(4):83-86. (in Chinese)

16 張磊,王書茂,陳兵旗,等.基于機器視覺的麥田邊界檢測[J].農業機械學報,2007,38(2):111-114. ZHANG Lei, WANG Shumao, CHEN Bingqi, et al. Edge detection for wheat field based on machine vision[J]. Transactions of the Chinese Society for Agricultural Machinery, 2007,38(2):111-114. (in Chinese)

17 馬紅霞.基于機器視覺的農業車輛導航基準線提取方法的研究[D].淄博:山東理工大學,2012.

18 馮娟,劉剛,司永勝,等.果園視覺導航基準線生成算法[J/OL].農業機械學報,2012,43(7):185-189,184. http:∥www.j-csam.org/jcsam/ch/reader/view_abstract.aspx?file_no=20120734&flag=1. DOI:10.6041/j.issn.1000-1298.2012.07.034. FENG Juan, LIU Gang, SI Yongsheng, et al. Algorithm based on image processing technology to generate navigation directrix in orchard[J/OL]. Transactions of the Chinese Society for Agricultural Machinery, 2012,43(7):185-189,184. (in Chinese)

19 王明昕, 趙東標, 邵澤明. CCD攝像機內外參數標定技術研究[J]. 機械與電子, 2004, 22(3):12-14. WANG Mingxin, ZHAO Dongbiao, SHAO Zeming. Research of calibration technology of intrinsic and extrinsic parameters of CCD camera[J]. Machinery & Electronics, 2004, 22(3):12-14. (in Chinese)

20 WOEBBECKE D M, MEYER G E, VON BARGEN K, et al. Color indices for weed identification under various soil, residue, and lighting conditions[J]. Transactions of the ASAE, 1995, 38(1):259-269.

21 MONTALVO M, PAJARES G, GUERRERO J M, et al. Automatic detection of crop rows in maize fields with high weeds pressure[J]. Expert Systems with Applications, 2012,39(15):11889-11897.

22 劉鋼欽,晏明輝.二值圖象鄰域尋找的一種快速方法[J].計算機應用與軟件,1997,14(5):32-36. LIU Gangqin, YAN Minghui. Neighbor finding techniques for binary image[J]. Computer Applications and Software,1997,14(5):32-36. (in Chinese)

Extraction Method of Navigation Baseline of Corn Roots Based on Machine Vision

SONG Yu1LIU Yongbo1LIU Lu2ZHU Dequan1JIAO Jun1CHEN Liqing1

(1.SchoolofEngineering,AnhuiAgriculturalUniversity,Hefei230036,China2.SchoolofEngineeringScience,UniversityofScienceandTechnologyofChina,Hefei230026,China)

In order to achieve small agricultural automated guided vehicle (AGV) which could navigate autonomously between corn rows, a method was proposed which could quickly and accurately extract the centerlines of middle-late corn rows as the innovative methods of navigation baseline of agricultural robot in field environment. The algorithm was improved by the traditional 2G-R-Balgorithm so that it could obtain the characteristics of green plants in real-time and also improve the robustness of image pre-processing. According to the vertical projection of corn crop’s line, points of profile features of corn roots were generated. Using the detection algorithm of peak points, the backup location points of corn roots were obtained and then the location points of corn roots were got after the second judgment and detection. The least square method was used for fitting the location points of corn roots and two lines of crop rows were generated. The actual navigation baseline was calculated based on the formula angle bisector after the line slopes of two crop rows were generated respectively. In addition, the camera calibration process was simplified so that the image pixel coordinates could be converted into world coordinates quickly. The extracted angle and lateral deviation of navigation baselines were used as input parameters of navigation to control agriculture AGV. The experimental results showed that the method had strong robustness which could adapt to different environments and the accuracy of navigation baselines by detecting was more than 90%. The average processing time of a 700 pixels × 350 pixels color image was less than 185 ms which had a better real-time. The results provided a reliable reference method for autonomous navigation of the agricultural AGV in middle-late corn field.

agricultural AGV; machine vision; navigation baseline; detection of peak points; corn root

10.6041/j.issn.1000-1298.2017.02.005

2016-03-15

2016-05-12

國家自然科學基金項目(31671589)、農業部公益性行業專項(201503136-2)、安徽省科技攻關計劃項目(1501031104)、安徽省教育廳自然科學研究重點項目(KJ2013A107)、安徽農業大學穩定和引進人才基金項目(WD2013-11)和安徽農業大學學科骨干培育項目(2014XKPY-49)

宋宇(1971—),男,副教授,主要從事作物生產智能技術與裝備研究,E-mail: songyu@ahau.edu.cn

S224.3

A

1000-1298(2017)02-0038-07

猜你喜歡
定位點基準線根莖
碳交易市場體系中的碳排放基準線:應用實踐、研究進展與展望
數獨小游戲
培育流翔高鈣根莖類蔬菜實用技術
基于超寬帶TSOA定位原理的掘進機定位誤差分析
接觸網定位點智能識別方法
汽車大燈定位方案設計研究
基于超聲波的根莖類中草藥凈洗技術的研究
黑果菝葜根莖化學成分的研究
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合