?

基于多角度Kinect v2的羊只三維模型重構方法研究

2024-04-27 04:01范才虎程曼袁洪波王媛蔡振江
中國農機化學報 2024年3期
關鍵詞:羊只三維重建

范才虎 程曼 袁洪波 王媛 蔡振江

摘要:羊只的體尺參數是衡量其生長發育狀況、生產性能和遺傳特性的關鍵指標。重建羊只的三維模型可以為自動化獲取多種羊只體尺參數提供數據基礎,因此提出一種基于多角度Kinect v2的羊只三維模型重構方法。該方法通過放置在羊只頂部和左右兩個側面的Kinect v2設備,獲取羊只的三維點云數據;利用這些數據中的點云之間的相對位置關系,進行點云坐標的轉換和初始配準;采用ICP算法進行精確配準建立三維模型。結果表明:當Kinect v2深度相機高度為120 cm、俯視角為30°時,獲取的點云質量較高,自動配準的平均誤差為0.233 cm,平均耗時為12.89 s。根據模型計算出的羊只體高、體斜長、十字部高和腰腳寬等體尺參數與實際測量平均誤差均在5%以內。

關鍵詞:羊只;Kinect v2;點云配準;三維重建;體尺計算

中圖分類號:S24? ?文獻標識碼:A? 文章編號:2095-5553 (2024) 03-0189-09

Reconstruction method of the 3D model for sheep based on multi-angle Kinect v2

Fan Caihu1, Cheng Man1, Yuan Hongbo1, Wang Yuan2, Cai Zhenjiang1

(1. College of Mechanical and Electrical Engineering, Hebei Agricultural University, Baoding, 071001, China;2. Hengshui Zhihao Animal Husbandry Technology Co., Ltd., Hengshui, 053400, China)

Abstract:

The body size parameters of sheep are the key indicators to assess the growth, performance and genetic characteristics. The reconstruction of the 3D model can provide data basis for automatic acquisition of various body size parameters for sheep. In this paper, a reconstruction method is designed for the 3D model of sheep based on multi-angle Kinect v2. By placing Kinect v2 devices on the top and both sides of the sheep, three-dimensional point cloud data of the sheep can be captured. Then, by utilizing the?relative positional relationships between the point clouds in the data, coordinate transformation and initial alignment of the point clouds are performed. Finally, the Iterative Closest Point (ICP) algorithm is used for precise registration to establish the three-dimensional model. The results show that when the height of Kinect v2 depth camera is 120 cm and the overlooking angle is 30°, the quality of the obtained point cloud is higher. The average error of automatic registration is 0.233 cm, and the average time of automatic registration is 12.89 s. The average error of body size parameters such as body height, body oblique length, cross height and waist and foot width calculated by the model and the actual measurement are within 5%.

Keywords:sheep; Kinect v2; point cloud registration; three-dimensional reconstruction; body size calculation

0 引言

羊的養殖是畜牧業的重要組成部分[13],截至2023年,世界綿羊養殖數量已經超過13億只,主要集中在亞洲和非洲地區,其中中國綿羊養殖數量超過1.7億只[4]。羊的體尺參數可以反映其體型、結構和發育狀況,也可以反映其生理功能、生產性能、抗病能力和對外界生活條件的適應性等[5]。因此,進行羊只體尺的監測對提高精準養殖水平具有重要的現實意義[6]。

傳統的動物體尺測量方法是人工利用標尺、卷尺等工具對其進行直接測量[7]。這種方式不但工作量大,而且獲取的結果受主觀性影響。此外,這種測量方法需要固定住動物并與之直接接觸,這易使動物產生應激反應,導致生產性能下降、疾病增加,甚至死亡,嚴重影響動物個體的生長發育[8]。這種傳統的接觸式體尺測量方法降低動物的福利化飼養水平[9],并增加人畜共患病傳播的風險[10]。隨著信息感知技術和精準養殖水平的提高,家畜體尺獲取方式逐漸向非接觸式轉變[11, 12],在豬、牛和羊的體尺獲取方面,非接觸式測量都得到了研究[1316]。非接觸式測量一般利用圖像的方法進行體尺的估計[17, 18],通過圖像處理方法尋找圖像中動物體尺的關鍵點,計算關鍵點之間的距離從而得到動物的體尺數據[1922]。圖像是平面而非立體的,無法一次性得到更多的體尺參數,比如體高、體長、體寬等無法通過同一個平面得到。動物的三維模型能夠反映出其更多的體尺特征,便于從不同的角度對體尺參數進行評估。

立體視覺技術在動物三維模型重建中得到了較早的應用,利用兩個或者多個相機從不同視角對目標進行拍攝,通過提取多幅圖像中對應特征點重構目標的三維結構[23, 24]。然而,現有的圖像獲取技術仍有一定的局限性,如光照、陰影和背景噪聲的變化會影響圖像的質量,這會增加圖像處理的難度[25]。為了更好地尋找更多的對應特征點,SfM(Structure from motion)方法被提出[26, 27]。SfM可以從更多的角度獲取目標的圖像,但這并沒有從本質上解決獲取的圖像質量會直接影響模型重構的精度這一問題。隨著傳感器的發展,TOF(Time of flight)技術逐漸被應用在三維重建中[2830],該方法通過向目標投射光源然后根據ToF原理計算出設備到目標的距離,并以此獲得目標的三維點云。Le Cozler等[31]利用Morpho3D獲取奶牛的三維點云,重建出奶牛的三維模型在測量出奶牛的體尺數據。單線激光雷達是早期使用較多的ToF設備。Huang等[32]利用單線雷達重建出秦川牛的三維模型,再測量出秦川牛的體尺數。但使用單線雷達需要設計運動機構。多線激光雷達的出現從一定程度解決了上述問題,但多線雷達的價格過于昂貴,這給實際應用帶來了障礙。而且ToF技術丟失了顏色信息,不利于后期數據處理。近年來,利用RGB-D相機進行動物的三維建模得到了發展,它可以同時獲取目標的RGB和深度信息,而且成本較低。以Kinect為代表的RGB-D相機已經在動物三維建模及體尺測量中得到了較多的應用。如Pezzuolo[33]、Shi[34]等分別利用Kinect v1、Kinect v2測量了豬的體尺數據。利用Kinect進行動物三維模型的構建已經被證明是一種有效的方法。但是,只利用一臺Kinect也是難以準確的構建完整動物的三維模型,因為它同樣難以掃描和拍攝到動物體的背面,因此需要利用多個Kinect從不同角度采集數據。

針對羊只體尺測量的需求,本文設計一種羊只三維模型重構系統,能夠從三個方向獲取羊只軀體的三維點云,利用多角度點云的坐標轉化和配準方法,得到完整的羊只三維模型,獲取羊只的體尺參數。

1 材料和方法

1.1 試驗方法

為獲取羊只點云信息,構建一個信息獲取系統,如圖1所示,該系統由一個金屬框架,三臺Kinect v2和一臺筆記本電腦組成,2臺Kinect v2分別被安裝在框架的左右兩側,且其高度和角度可以調整,第3臺Kinect v2被安裝在框架頂部的中間,面向地面。三臺Kinect v2通過USB數據線與筆記本電腦相連,并由筆記本電腦控制其工作狀態。

采用正交試驗尋找Kinect v2的合適位置。一個羊只模型被放置在框架正下方,框架兩側安裝的Kinect v2分別在70 cm、95 cm、120 cm三個高度,從20°、30°、45°、50°、55°的俯視角度進行數據獲取試驗。試驗采用2個不同的羊只模型,共獲取92片有效點云。三臺Kinect v2獲取的點云分別被命名為P_left,P_right和P_top。

基于Microsoft Visual Studio 2017、PCL(point cloud library)1.8.1和OpenCV3.4.1等工具軟件,利用C++編程,開發數據獲取和分析軟件,用于點云數據的處理和羊只的三維建模。

1.2 數據獲取

利用Kinect v2獲取的點云數據包括大量的背景點云和少量的噪聲,在生成羊只個體點云之前需要進行濾波處理。背景點云可以通過直通濾波法進行處理,直通濾波通過構建約束條件并把不滿足條件的點云消除來實現的,約束條件如式(1)所示,所有不滿足這個約束條件的點云被認為是背景噪聲而被過濾掉。

Xmin

式中:(x,y,z)——點云在坐標系中的位置。

其中(Xmin,Xmax)、(Ymin,Ymax)、(Zmin,Zmax)為坐標系三個坐標方向的濾波范圍,其值通過系統結構確定。

經過直通濾波后,大部分的背景噪聲被消除,但是少量的離群點噪聲仍然存在,其中離群點噪聲是指在整個點云結構中距離密集點云的中心較遠的點云,這些噪聲點云大部分是在測量過程中受到環境干擾造成的。離群點噪聲可以通過統計濾波進行清除,統計濾波是根據整個點云分布的結構特點,清除遠離聚集中心的較為稀疏的點來實現的。統計濾波原理是點云中所有的點與其k個臨近點的平均距離值滿足高斯分布。統計濾波的實施過程中,對于點云中任意一個點,先利用式(2)計算該點到附近k個臨近點的平均距離

d-,再利用式(3)計算點云中每個點對應的平均距離的均值μ和標準差σ,最后確定有效點云的范圍為(μ-σ×std, μ+σ×std),其中std為系數。如果點云中某個點到k個近鄰點的平均距離不在這個范圍之內,則認為該點屬于噪聲。

d-=1k∑kj=1(xi-xj)2+(yi-yj)2+(zi-zj)2(2)

式中:(xi,yi,zi)——目標點在三個坐標軸上的坐標值;(xj,yj,zj)——目標點的近鄰點在三個坐標軸上的坐標值。

μ=∑ki=11kd-σ=1k∑ki=1(d--μ)2(3)

1.3 基于點云的三維模型重構方法

一個Kinect v2只能獲取某個角度下的羊只部分點云信息,所以本文使用了三個Kinect v2相機分別從頂部和兩個側面進行點云數據的獲取。為獲取完整的羊只點云,將三片點云進行融合是必要的。點云融合的目的是將不同坐標系的點云數據統一到同一個坐標系下,即找到一對或者幾對旋轉矩陣和平移向量,以恢復出完整的目標三維結構,這一過程被稱為點云的配準。目前應用最廣泛的點云配準的方法是最近迭代法(Iterative Closest Point, ICP)[35],ICP算法原理簡單、易于理解和實現,同時配準精度較高,但也存在一些弊端,如該算法在對重疊度較大的點云進行配準時具有良好的配準效果,但是當重疊度較小時或者初始位置估計不準確,無法得出較好的配準結果。因此,在利用最近點迭代算法之前,對待配準的點云進行初始配準是避免最近點迭代算法陷入局部優化的關鍵。

1.3.1 不同角度點云坐標轉換及初次配準

為了減少ICP算法過程中的不足,本文利用相機的位置關系計算出點云之間的轉換關系,并以此對點云進行初始配準。圖2為三個Kinect v2的各自的坐標系方向以及三個Kinect v2之間的相對位置關系。其中θ為Kinect v2的傾斜角度,Δh為側面兩個Kinect v2與頂部Kinect v2之間的高度,Δl為側面兩個Kinect v2與頂部Kinect v2之間的水平距離。

本文以頂部Kinect v2坐標系為基準坐標系,兩個側面的Kinect v2獲取的點云分別被轉換到基準坐標系中以完成點云的拼接,兩側Kinect v2坐標系向基準坐標系轉換的過程如圖3所示,需要經過4個步驟。

步驟一:左右兩側的Kinect v2坐標系分別圍繞各自x軸向右和左旋轉,直到y軸處于水平位置,此時z軸豎直向下。經過坐標系旋轉,則Kinect v2獲取的點云坐標位置如式(4)所示。

(xL′,yL′,zL′)=(xL,yL,zL)1000cosθ-sinθ0sinθcosθ(xR′,yR′,zR′)=(xR,yR,zR)1000cosθ-sinθ0sinθcosθ(4)

其中,(xL,yL,zL)、(xR,yR,zR)為左右兩側Kinect v2獲取點云的原始坐標,

(xL′,yL′,zL′)、(xR′,yR′,zR′)為左右兩側坐標轉換后的坐標。

步驟二:步驟一得到的坐標系沿豎直方向的z軸再次被旋轉,使兩側Kinect v2的坐標軸方向與頂部Kinect v2坐標軸方向一致。Kinect v2獲取的點云坐標位置如式(5)所示。

(xL″,yL″,zL″)=(xL′,yL′,zL′)0-10100001(xR″,yR″,zR″)=(xR′,yR′,zR′)010-100001(5)

其中,(xL″,yL″,zL″)、(xR″,yR″,zR″)為經過步驟二之后兩側Kinect v2獲取的點云的坐標。

步驟三:步驟二得到的坐標系被向上移動Δh,使左右兩次的Kinect v2坐標系與頂部Kinect v2坐標系處于同一水平位置。Kinect v2獲取的點云坐標位置如式(6)所示。

(xL,yL,zL)=(xL″,yL″,zL″)-[00Δh](xR,yR,zR)=(xR″,yR″,zR″)-[00Δh](6)

其中,(xL,yL,zL)、(xR,yR,zR)為經過步驟三之后兩側Kinect v2獲取的點云的坐標。

步驟四:步驟三得到的左右兩側Kinect v2坐標系分別被向左和向右移動Δl,使其與頂部Kinect v2坐標系重合。Kinect v2獲取點云坐標位置如式(7)所示。

(xLT,yLT,zLT)=(xL,yL,zL)+[Δl00](xRT,yRT,zRT)=(xR,yR,zR-[Δl00](7)

其中,(xLT,yLT,zLT)、(xRT,yRT,zRT)為經過步驟四之后兩側Kinect v2獲取的點云的坐標。

經過坐標變換,左右兩側Kinect v2獲取的點云被轉換到頂部Kinect v2的坐標系下,三個Kinect v2的點云可以被直接拼接。

1.3.2 三維點云的精細配準

在點云的初次配準過程中,θ、Δh和Δl的測量精度直接影響其精度,而且這三個參數都是基于Kinect v2的幾何中心來測量,測量過程中的誤差是難以避免的。此外,在實際應用過程中,也無法保證羊只是靜止不動的,所以初次配準的結果也可能存在一定的誤差。為了提高三維模型的重構精度,精細配準是必要的。本文利用ICP算法在初次配準的基礎上進行精細配準,步驟如下:(1)對于點云集P中任意一個點pi,計算其與點云集Q中所有點的歐式距離,取距離最小的點作為pi的對應點qi。(2)計算使pi和qi完全重合需要的旋轉參數Ri和平移參數Ti。(3)利用Ri和Ti對點云集P和Q中的其他點進行配準,并利用式(8)計算配準誤差。(4)遍歷點云中所有點,取最小誤差對應的R和T作為最優匹配參數。(5)根據得到的最優R和T,對初次配準后的點云進行精細配準。

E(R,T)=1n∑ni=1‖qi-(Rpi+T)‖2(8)

式中:n——點云的數量。

1.4 地面點云的去除

經過兩次配準后,羊只的三維模型被重構,由于地面與羊只的腿部相連,所以重構的模型中還包含有地面信息。通過RANSK算法可以被去除地面信息,先隨機從點云中取三個不共面的點,生成一個參考平面,再計算點云中其他點到該平面的距離,如果距離值小于閾值dp則該點被認為屬于該平面,其中閾值可以通過式(9)得到。遍歷點云中所有點,包含點數最多的平面為地面,屬于該平面的點將被刪除。

dis(p,q)=(xp-xq)2+(yp-yq)2+(zp-zq)2dp=min[dis(p,q)] q=1,2,…n,p≠qdp=1n∑np=1dp(9)

式中:p(xp,yp,zp)——被隨機選擇的點;q(xq,yq,zq)——點云中其他的任意一點;dis(p,q)——點p、點q之間的歐氏距離;dp——最小歐式距離。

1.5 三維重構模型的性能評估指標

1.5.1 重疊點云的配準誤差

兩側Kinect v2和頂部Kinect v2的成像范圍存在重疊的部分,在精細配準的過程中,可以找到這些重疊的點云。在同一個坐標系下,同一個目標的點云應該是重合的,所以這些點重疊的程度可以用于衡量三維重構模型的點云匹配精度。因此,本文取這些重疊點云配準的均方根誤差RMSE作為三維模型重構的性能評判指標之一,如式(10)所示,RMSE越小,則配準效果越好。

di=(xi-xi′)2+(yi-yi′)2+(zi-zi′)2RMSE=∑Ni=1di2N(10)

式中:(xi,yi,zi)——重疊的點云中頂部Kinect v2獲取的點云坐標;(xi′,yi′,zi′)——重疊點云中兩側Kinect v2轉到基準坐標系中的點云坐標;di——兩點之間的距離;N——重疊點云的個數。

1.5.2 羊只體尺參數

本文利用體高、體斜長、管圍、胸圍、十字部高、腰腳寬作為羊只三維重構模型精度評估的體尺參數。體高指耆甲最高點到地面的垂直距離;體斜長指肩胛前端至坐骨結節后端的直線距離;管圍指管骨上三分之一處的周圍長度;胸圍指在肩胛骨后端,圍繞胸部一周的長度;十字部高指十字部到地面的垂直距離;腰角寬指兩髖骨突之間的直線距離[16]。為驗證羊只三維模型的精度,人工對2只模型羊的體尺參數進行測量,并與根據模型計算出的體尺參數進行對比。

2 結果與分析

2.1 正交試驗結果

羊只軀干信息獲取系統中右側Kinect在不同高度和俯視角下的進行正交試驗時的點云成像結果如圖4所示。在同一高度,隨著Kinect v2俯視角的增加,點云圖像中的羊只越靠近頂部。由于Kinect v2在深度成像的邊緣部分會出現數據失真和數據丟失現[36],故側面Kinect v2的俯視角不宜過大;在同一角度,Kinect v2距離地面高度越大,羊只輪廓在整幅深度圖像中像素占比越小,即點云數量越少,因此,側面Kinect v2高度不宜過大。本文中Kinect v2垂直視場角為60°,當其高度為90 cm且具有一定俯視角的情況下,在垂直方向上拍攝高度將低于1 m,對于軀體較大的羊只,有可能無法獲取其全部軀體的點云,因此,側面Kinect v2的高度應大于90 cm。通過正交試驗可確定側面Kinect v2在高度和俯視角分別為120 cm和30°時,獲取的點云質量較好。

2.2 點云預處理結果

圖5為經過濾波預處理的點云,經過直通濾波后,原始點云中的大部分背景被清除。經過統計濾波后羊只輪廓邊緣的離群點噪聲有了顯著減少,表1為預處理之后點云數量的變化。

從表1可以看出,三個角度的Kinect v2經過直通濾波后,兩側點云數量約為原始點云的11.34%,頂部點云約為原始點云的35.20%。減少的點云大部分為背景點云,這也表明了直通濾波的有效性。直通濾波后仍然存在的噪聲點云在統計濾波的基礎上被清除,統計濾波大致能夠保留直通濾波后點云的93.86%。

2.3 點云配準的結果

點云配準是羊只形體三維重建的關鍵,配準效果將直接影響三維模型的精度。圖6為三個角度Kinect v2獲取的點云經過兩次配準的結果。

初始配準可以重建出羊只的三維模型,但地面部分的點云未能完全重疊在同一平面,且羊只輪廓中部分點云也存在傾斜,未能很好地配準在一起。經過精確配準后地面和羊只輪廓的點云均較好的重疊在一起。這說明本文初始配準的方法可以將點云進行配準,經過精確配準后可以優化初始配準中的不足,使配準效果更好。表2為初始配準和精確配準的效果比較。

從表2可以看出,初始配準和精細配準前后源點云數和目標點云數未發生改變,RMSE在精確配準后變小,這也證明了精確配準的有效性。

2.4 地面去除的結果

經過RANSAC算法后,地面點云和羊只點云被很好地區分,且地面部分的點云被去除,羊只部分的點云被保留,從而獲得完整的羊只三維模型。

2.5 三維模型精度評估結果

兩只模型羊的體尺測量結果和根據三維模型計算的結果分別如表3和表4所示。由表3、表4可知,針對體高、體斜長、十字部高、腰腳寬這四個體尺參數,模型計算值和測量值的相對誤差均在5%以內。但1號模型羊的管圍和胸圍的模型計算值和測量值相對誤差分別為9.58%、10.00%,2號模型羊管圍和胸圍的模型計算值和測量值相對誤差分別達到了23.44%和8.33%,誤差相對較大。這是因為重建完成的羊只模型在管圍、胸圍處點云產生一定的缺失,導致羊只輪廓完整性受到影響,從而使得試驗計算值偏小,產生較大的計算誤差。

3 討論

3.1 數據處理過程對試驗結果的影響

在羊只三維重構的過程中,系統獲取的三維點云數據需要經過直通濾波、統計濾波、地面去除、初始配準和精確配準等多個數據處理環節。實施這些環節的順序對試驗結果具有一定的影響,例如不經過濾波處理而先將獲取的原始點云數據進行配準,則需要占用較大的計算機內存,降低數據處理的速度,因此,為了確定相對合理的數據處理順序,本文對三種數據處理方案進行了比較。方案1首先按進行直通濾波和統計濾波,然后進行初始和精確配準,最后去除地面;方案2首先進行直通和統計濾波,然后去除地面,最后進行初始和精確配準;方案3首先進行直通濾波,然后進行初始和精確配準,接下來去除地面,最后進行統計濾波。利用三種不同方案對點云進行處理的過程如圖8所示。

從圖8可以看出,三種方案均可以重建羊只的三維模型。方案3重建的模型在羊只輪廓的邊緣部分存在有部分噪聲點云,這是因為本方案中先進行了配準再進行統計濾波,配準后同一區域的點云為三片點云的組合,不同點云中的離群點噪聲可能會相互補充使其離群性降低,導致處理復雜性增加,使邊緣部分的噪聲點云難以去除。方案2進行模型重建時先去除地面點云再進行配準,而先去除地面意味著在進行配準時就失去了大量的重疊點云進行相互校驗,容易導致精確配準的精度下降,因此,方案1的數據處理順序相對合理,三維模型重建效果也相對較好。

3.2 配準算法性能分析

本文提出的初始配準方法直接使用點云之間的相對位置關系對源點云進行旋轉和平移,使其轉換到正確的位置,再利用ICP算法進行點云的精確配準。相對于其他常用的點云配準方法,如SAC-IA(Sample Consensus Initial Aligment)+ICP[37]、NDT(Normal Distribution Transform)+ICP[38]、4PCS(4-Points Congruent Sets)+ICP[39]等,本方法提高了尋找兩片點云之間的對應點的準確性,減少了尋找兩片點云之間的對應點的迭代次數,不僅能夠減少處理的時間,而且具有更好的魯棒性。

為了驗證本文方法的優勢,針對相同的點云,進行不同配準方法的對比試驗。圖9為不同配準方法對相同點云的配準對比試驗結果,只有本文提出的方法和SAC-IA+ICP方法能夠重建出羊只的三維模型。但是后者重建的模型中點云重疊率相對較低,三維重建效果也相對較差,而其他兩種點云配準方法不能重構出完整的羊只模型。從圖9可以看出,初始配準對于重建物體的三維模型具有重要的影響,如果初始配準過程中不能找到不同點云片中對應點,即使進行精確配準也無法重構出正確的三維模型。通過比較,本文算法重建出來的羊只三維模型效果較好,且魯棒性強。表5為不同配準算法性能比較。

從表5可以看出,本文提出的方法在RMSE值與SAC+FPFH+ICP非常接近,小于其他兩種方法,但是點云配準所花費的時間遠小于其他三種方法,因此,相對于其他方法,本文提出的方法具有明顯的優勢。

3.3 系統使用限制及未來改進方向

本文提出的羊只三維模型重構方法僅在實驗室內完成了理論驗證,在實際應用場景中,還存在一些問題需要解決。第一,作為一種動物,羊只在被測量時很難保持靜止不動,這為數據獲取增加了難度,因此,需要在系統中增加限制其活動的結構,使其在測量時盡量保持不動。第二,為了實現自動化的數據采集,需要在信息獲取系統中增加拍攝觸發裝置,利用傳感器檢測羊只是否處于拍攝位置,并能夠及時觸發拍攝裝置進行信息獲取。第三,重建羊只三維模型是為了能夠準確且自動化地獲取其相關體尺參數,因此還需要開發出相應的體尺參數自動獲取軟件,可以實現體尺參數的實施自動化獲取。這些問題的解決方案是本研究目前和下一步的工作重點。

4 結論

1) 本文提出一種基于多角度Kinect v2重建羊只三維模型的方法,利用Kinect v2之間的相對位置關系進行點云坐標的轉化,據此進行初始配準,然后利用ICP算法進行精細配準并建立羊只軀體的三維模型。

2) ?通過正交試驗確定Kinect v2相對較佳的高度和拍攝俯視角分別為120 cm和30°,這種情況下拍攝得到的點云質量較好;與其他點云配準的方法相比,本文提出的方法在初始配準時減少了尋找對應點所花費的時間,在精確配準時削減了因多次迭代引起的誤差累積,其配準過程總消耗時間平均約為12.89 s,配準誤差均值為0.233 cm,在保證精度的情況下大大提高了三維模型構建的速度。

3) ?本文確定了點云濾波等預處理的合理流程順序:首先按進行直通濾波和統計濾波,然后進行初始和精確配準,最后去除地面,這樣可以更好地提取羊只的三維點云;根據模型計算出的羊只體高、體斜長、十字部高和腰腳寬等體尺參數與實際測量平均誤差均在5%以內。本文提出的羊只三維模型構建方法為畜牧養殖自動化和智能化提供參考。

參 考 文 獻

[1]Matte A, Waquil P D. Changes in markets for lamb in livestock family farming in Brazil [J]. Small Ruminant Research, 2021, 205: 106535.

[2]Gurgel A L C, dos Santos Difante G, Neto J V E, et al. Prediction of dry matter intake by meat sheep on tropical pastures [J]. Tropical Animal Health and Production, 2021, 53: 1-8.

[3]Mahon N, Clark B, Proctor A, et al. Exploring farmers?understanding of and responses to endemic animal health and welfare issues in the UK [J]. Veterinary Record, 2021, 189(10): 1-8.

[4]Chikwanha O C, Mupfiga S, Olagbegi B R, et al. Impact of water scarcity on dryland sheep meat production and quality: Key recovery and resilience strategies [J]. Journal of Arid Environments, 2021, 190: 104511.

[5]Pallottino F, Steri R, Menesatti P, et al. Comparison between manual and stereovision body traits measurements of Lipizzan horses [J]. Computers and Electronics in Agriculture, 2015, 118: 408-413.

[6]Rathbun F M, Pralle R S, Bertics S J, et al. Relationships between body condition score change, prior mid-lactation phenotypic residual feed intake, and hyperketonemia onset in transition dairy cows [J]. Journal of Dairy Science, 2017, 100(5): 3685-3696.

[7]馬學磊, 薛河儒, 周艷青, 等. 基于改進區域生長法的羊體點云分割及體尺參數測量[J]. 中國農業大學學報, 2020, 25(3): 99-105.Ma Xuelei, Xue Heru, Zhou Yanqin, et al. Point cloud segmentation and measurement of the body size parameters of sheep based on the improved region growing method [J]. Journal of China Agricultural University, 2020, 25(3): 99-105.

[8]孫芊芊, 李海軍, 宣傳忠, 等. 基于羊只應激反應的智能飼喂機器人功能與造型研究[J]. 內蒙古農業大學學報(自然科學版), 2019, 40(5): 60-64.Sun Qianqian, Li Haijun, Xuan Chuanzhong, et al. Research on function and modeling of intelligent feeding robot based on sheep stress response [J]. Journal of Inner Mongolia Agricultural University (Natural Science Edition), 2019, 40(5): 60-64.

[9]Buddle E A, Bray H J, Ankeny R A. “Of course we care!”: A qualitative exploration of Australian livestock producers?understandings of farm animal welfare issues [J]. Journal of Rural Studies, 2021, 83: 50-59.

[10]楊鵬. 羊常見傳染病的預防及治療方法[J]. 畜牧獸醫科技信息, 2021(9): 138.

[11]Marinello F, Pezzuolo A, Cillis D, et al. Application of Kinect-Sensor for three-dimensional body measurements of cows [J]. Proceedings of the 7th European Precision Livestock Farming, ECPLF, 2015.

[12]Zhou Y, Xue H, Wang C, et al. Reconstruction and body size detection of 3d sheep body model based on point cloud data [C]. IFIP WG International Conference on Computer and Computing Technologies in Agriculture, 2019: 251-262.

[13]Wang K, Guo H, Ma Q, et al. A portable and automatic Xtion-based measurement system for pig body size [J]. Computers and Electronics in Agriculture, 2018, 148: 291-298.

[14]Condotta I C F S, Brown-Brandl T M, Silva-Miranda K O, et al. Evaluation of a depth sensor for mass estimation of growing and finishing pigs [J]. Biosystems Engineering, 2018, 173: 11-18.

[15]Alvarez J R, Arroqui M, Mangudo P, et al. Body condition estimation on cows from depth images using Convolutional Neural Networks [J]. Computers and Electronics in Agriculture, 2018, 155: 12-22.

[16]Zhang A L, Wu B P, Wuyun C T, et al. Algorithm of sheep body dimension measurement and its applications based on image analysis [J]. Computers and Electronics in Agriculture, 2018, 153: 33-45.

[17]司永勝, 安露露, 劉剛, 等. 基于Kinect相機的豬體理想姿態檢測與體尺測量[J]. 農業機械學報, 2019, 50(1): 58-65.Si Yongsheng, An Lulu, Liu Gang, et al. Ideal posture detection and body size measurement of pig based on Kinect [J]. Transactions of the Chinese Society for Agricultural Machinery, 2019, 50(1): 58-65.

[18]郝雪萍. 基于圖像處理的杜泊羊體重估算模型研究[D]. 武漢: 武漢理工大學, 2015.

[19]張麗娜, 楊建寧, 武配, 等. 羊只形態參數無應激測量系統設計與試驗[J]. 農業機械學報, 2016, 47(11): 307-315.Zhang Lina, Yang Jianning, Wu Pei, et al. Design and experiment of non-stress measuring system for sheeps conformation parameters [J]. Transactions of the Chinese Society for Agricultural Machinery, 2016, 47(11): 307-315.

[20]Khojastehkey M, Aslaminejad A A, Shariati M M, et al. Body size estimation of new born lambs using image processing and its effect on the genetic gain of a simulated population [J]. Journal of Applied Animal Research, 2016, 44(1): 326-330.

[21]Vieira A, Brando S, Monteiro A, et al. Development and validation of a visual body condition scoring system for dairy goats with picture-based training [J]. Journal of Dairy Science, 2015, 98(9): 6597-6608.

[22]Shi C, Teng G, Li Z. An approach of pig weight estimation using binocular stereo system based on LabVIEW [J]. Computers and Electronics in Agriculture, 2016, 129: 37-43.

[23]Yang L, Wang B, Zhang R, et al. Analysis on location accuracy for the binocular stereo vision system [J]. IEEE Photonics Journal, 2017, 10(1): 1-16.

[24]Cui Y, Zhou F, Wang Y, et al. Precise calibration of binocular vision system used for vision measurement [J]. Optics Express, 2014, 22(8): 9134-9149.

[25]趙建敏, 趙忠鑫, 李琦. 基于Kinect傳感器的羊體體尺測量系統[J]. 傳感器與微系統, 2015, 34(9): 100-103.Zhao Jianmin, Zhao Zhongxin, Li Qi. Sheep body size measurement system based on Kinect sensor [J]. Transducer and Microsystem Technologies, 2015, 34(9): 100-103.

[26]Pezzuolo A, Gonzàlez L A, Giora D, et al. Body measurements of dairy cows using a structure from motion (SfM) photogrammetry approach [C]. 8th European Conference on Precision Livestock Farming, EC-PLF, ?2017: 483-492.

[27]Pezzuolo A, Milani V, Zhu D H, et al. On-barn pig weight estimation based on body measurements by structure-from-motion (SfM) [J]. Sensors, 2018, 18(11): 3603.

[28]初夢苑, 劉剛, 司永勝, 等. 基于三維重建的奶牛體重預估方法[J]. 農業機械學報, 2020, 51(S1): 378-384.Chu Mengyuan, Liu Gang, Si Yongsheng, et al. Predicting method of dairy cow weight based on three-dimensional reconstructions [J]. Transactions of the Chinese Society for Agricultural Machinery, 2020, 51(S1): 378-384.

[29]張馨月, 劉剛, 經玲, 等. 基于點云精簡的奶牛背部體尺測點自動提取方法[J]. 農業機械學報, 2019, 50(S1): 267-275.Zhang Xinyue, Liu Gang, Jing Ling, et al. Automatic extraction method of cows back body measuring point based on simplification point cloud [J]. Transactions of the Chinese Society for Agricultural Machinery, 2019, 50(S1): 267-275.

[30]蔡靜怡, 嚴飛, 吳兆祥, 等. 基于Kinect v2的多視角三維重建實現[J]. 傳感技術學報, 2020, 33(8): 1149-1154.Cai Jingyi, Yan Fei, Wu Zhaoxiang, et al. Implementation of multi-view 3D reconstruction based on Kinect v2 [J]. Chinese Journal of Sensors and Actuators, 2020, 33(8): 1149-1154.

[31]Le Cozler Y, Allain C, Caillot A, et al. High-precision scanning system for complete 3D cow body shape imaging and analysis of morphological traits [J]. Computers and Electronics in Agriculture, 2019, 157: 447-453.

[32]Huang L, Li S, Zhu A, et al. Non-contact body measurement for qinchuan cattle with LiDAR sensor [J]. Sensors, 2018, 18(9): 3014.

[33]Pezzuolo A, Guarino M, Sartori L, et al. On-barn pig weight estimation based on body measurements by a Kinect v1 depth camera [J]. Computers and Electronics in Agriculture, 2018, 148: 29-36.

[34]Shi S, Yin L, Siang S, et al. Research on 3D surface reconstruction and body size measurement of pigs based on multi-view RGB-D cameras [J]. Computers and Electronics in Agriculture, 2020, 175(1): 105543.

[35]Shu Q, He X, Wang C, et al. Fast point cloud registration in multidirectional affine transformation [J]. Optik, 2021, 229: 165884.

[36]Lunin A, Glock C H. Systematic review of Kinect-based solutions for physical risk assessment in manual materials handling in industrial and laboratory environments [J]. Computers & Industrial Engineering, 2021, 162: 107660.

[37]鄭立華, 王露寒, 王敏娟, 等. 基于Kinect相機的油麥菜自動化三維點云重建[J]. 農業機械學報, 2021, 52(7): 159-168.Zheng Lihua, Wang Luhan, Wang Minjuan, et al. Automated 3D reconstruction of leaf lettuce based on Kinect camera [J].Transactions of the Chinese Society for Agricultural Machinery, 2021, 52(7): 159-168.

[38]王慶閃, 張軍, 劉元盛, 等. 基于NDT與ICP結合的點云配準算法[J]. 計算機工程與應用, 2020, 56(7): 88-95.Wang Qingshan, Zhang Jun, Liu Yuansheng, et al. Point cloud registration algorithm based on combination of NDT and ICP [J]. Computer Engineering and Applications, 2020, 56(7): 88-95.

[39]Aiger D, Mitra N J, Cohen-Or D. 4-points congruent sets for robust pairwise surface registration [J]. Transactions on Graphics, 2008, 27(3): 670-679.

基金項目:河北省省級科技計劃資助(21327402D);河北農業大學精準畜牧學科群建設項目(1090064)

第一作者:范才虎,男,1998年生,江蘇鎮江人,碩士研究生;研究方向為精準畜牧。E-mail: 1627189565@qq.com

通訊作者:程曼,女,1982年生,河北石家莊人,博士,教授;研究方向為動植物表型組高通量獲取與智能解析。E-mail: chengman1982@126.com

猜你喜歡
羊只三維重建
羊急性支氣管炎的病因及治療措施
羊口瘡的防治措施探究
如何減少運輸途中羊只的死亡
舍飼養羊的疫病防控手段
基于Mimics的CT三維重建應用分析
羊寄生蟲病防治措施
羊綜合性營養缺乏癥治療體會
基于關系圖的無人機影像三維重建
三維重建結合3D打印技術在腔鏡甲狀腺手術中的臨床應用
多層螺旋 CT 三維重建在肋骨及軟骨損傷中的診斷價值
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合