?

基于航拍圖像與改進U-Net的建筑外墻裂縫檢測方法

2024-01-03 11:49劉少華任宜春鄭智雄牛孜飏
土木建筑與環境工程 2024年1期
關鍵詞:計算機視覺無人機

劉少華 任宜春 鄭智雄 牛孜飏

摘要:針對建筑外墻裂縫人工檢測方法檢測效率低、檢測效果和安全性差的問題,提出基于航拍圖像與計算機視覺的裂縫檢測方法。使用無人機繞建筑物航拍采集裂縫圖像,并構建裂縫數據集;優化U-Net模型以解決細長裂縫分割不連續、復雜背景下裂縫漏檢及背景誤檢的問題。將模型編碼網絡替換為預訓練的ResNet50以提升模型特征表達能力;添加改進的多孔空間金字塔池化(Atrous Spatial Pyramid Pooling,ASPP)模塊,獲取多尺度上下文信息;采用改進的損失函數處理裂縫圖像正負樣本分布極度不均的問題。結果表明:改進的U-Net模型解決了原模型存在的問題,IoU指標和F1_score分別提升了3.53%、4.18%;與經典分割模型相比,改進模型的裂縫分割性能最優。與人工檢測方法相比,所提方法可以安全、高效且準確地進行建筑外墻裂縫檢測。

關鍵詞:建筑外墻裂縫;無人機;計算機視覺;語義分割;U-Net

中圖分類號:TU17? ? ?文獻標志碼:A? ? ?文章編號:2096-6717(2024)01-0223-09

Building exterior wall crack detection based on aerial images and improved U-Net

LIU Shaohua1, REN Yichun1, ZHENG Zhixiong2, NIU Ziyang2

(1. School of Civil Engineering, Changsha University of Science and Technology, Changsha 410114, P. R. China;

2. China Construction Fifth Engineering Bureau Co., Ltd, Changsha 410007, P. R. China)

Abstract: Aiming at the problems of low efficiency, unsatisfactory detection effect and poor safety of manual detection methods for building exterior wall cracks, a crack detection method based on aerial images and computer vision was proposed. Firstly, the Unmanned Aerial Vehicle (UAV) was used to collect the crack images through aerial photography around the buildings, and a crack dataset was constructed. Secondly, the U-Net was optimized to solve the problems of discontinuous segmentation of slender cracks as well as the missed and false detection under complex backgrounds. The encoder was replaced with pre-trained ResNet50 to improve the feature expression ability of the model. An improved Atrous Spatial Pyramid Pooling (ASPP) module was added to obtain multi-scale context information. The improved loss function was used to deal with the problem of extremely uneven distribution of positive and negative samples in crack images. Experiments show that the improved U-Net model solved the problems existing in the original model; the IoU and F1_score were increased by 3.53% and 4.18%, respectively. Compared with the classical segmentation model, the improved model has the best crack segmentation performance. Compared with manual detection methods, it can efficiently, accurately, and safely detect building exterior wall cracks.

Keywords: building exterior wall cracks; UAV; computer vision; semantic segmentation; U-Net

建筑外墻裂縫會使帶腐蝕性的雨水滲入墻體,導致墻體涂料與防水材料等發霉、剝落,不僅影響建筑美觀,甚至銹蝕墻內鋼筋等材料,破壞墻體結構,帶來安全隱患。準確檢測出裂縫位置,可以為制定有效的維護方案提供依據。目前,建筑外墻裂縫主要采用人工檢測,這是一種高空作業,不僅危險,而且檢測效率和精度都很低。如何安全、高效地檢測建筑外墻裂縫成為亟須解決的問題。

計算機視覺為裂縫檢測提供了一種非接觸式的檢測技術[1],包括圖像處理和深度學習兩類方法?;趫D像處理的裂縫檢測方法根據裂縫的紋理和邊緣等特征,人為設計裂縫檢測的依據,實現裂縫檢測[2]。這種方法夠在特定的數據集上取得良好的檢測效果,但是裂縫的檢測精度不高,且需要針對特定的圖像設計專門的裂縫檢測算法。近年來,基于深度學習的方法在裂縫檢測領域取得了顯著的成果,根據裂縫檢測方式的不同可將其分為3類:圖像分類、目標檢測與語義分割?;趫D像分類[3]與目標檢測[4]的裂縫檢測方式,只能識別并定位裂縫,不能在像素級別上標記裂縫,從而無法獲得裂縫形狀信息;基于語義分割的裂縫檢測方法是對圖像中的每個像素點進行分類,能將裂縫像素準確標記出來,既可以檢測有無裂縫,又能得到裂縫的位置、形狀等信息[5]。經典語義分割模型U-Net[6]、DeepLabv3+[7]、PSPNet[8]及其改進模型在橋梁、路面及隧道等領域的裂縫檢測中得到廣泛應用。李良福等[9]提出了改進的PSPNet模型,解決了橋梁裂縫分割細節信息丟失的問題;Li等[10]提出了一種可訓練的上下文編碼網絡,實現了復雜條件下橋梁裂縫的檢測;曹錦綱等[11]提出了一種基于注意力機制的網絡,實現了自動準確地路面裂縫檢測;Nguyen等[12]提出了一種兩級卷積神經網絡來處理含噪聲和低質量的道路圖像;孟慶成等[13]用改進的MobileNet_v2替換U-Net編碼器,實現了對混凝土裂縫的實時檢測;Dang等[14]提出了改進的U-Net模型,在滿足裂縫分割性能要求的基礎上支持裂縫自動測量。上述模型在裂縫檢測中的成功應用,表明深度學習方法在裂縫檢測領域具有廣闊的應用前景。

建筑外墻裂縫與橋梁、路面等混凝土裂縫擁有共同特征,然而建筑外墻因其材料多樣性,且墻體包含復雜建筑構件,導致建筑外墻裂縫圖像背景更加復雜,存在更多的背景噪聲。因此,有必要為建筑外墻裂縫檢測針對性地設計一個深度學習模型?;谏疃葘W習的裂縫檢測方法在訓練和預測階段都依賴原始圖像數據,人工采集大型建筑的外墻圖像需高空作業,存在安全隱患大、效率低等問題。近年來,無人機技術取得快速發展,無人機搭載傳感器為高空采集圖像提供了一種安全且高效的方式,在抗震救災、農業植保等領域得到廣泛應用[15]。筆者使用無人機航拍采集建筑外墻圖像,并根據裂縫圖像特征設計了改進的U-Net模型用于裂縫檢測。

1 裂縫數據集構建

1.1 圖像采集與處理

圖像采集包括裂縫數據集構建和裂縫檢測兩個階段。在構建數據集時,為了保證訓練后模型的魯棒性,需要廣泛采集各類型建筑外墻圖像,包括不同光照條件、不同拍攝角度及不同航拍間距等。在裂縫檢測階段,需要根據裂縫檢測精度要求來設計圖像采集方案,規劃采集路線、航拍間距等以確定裂縫位置及圖像像素比例尺,從而指導裂縫修復與建筑維護。

廣泛采集原始建筑外墻圖像以構建建筑外墻裂縫數據集。共得到建筑外墻裂縫圖像566張,分辨率大小為8 000×6 000。由于采集的圖像分辨率過大,不利于模型訓練,且裁剪后的裂縫圖像細節信息更加豐富,于是對圖像進行裁剪。利用滑動窗口方法將原圖裁剪為512×512大小的子圖,第1步:從圖像左上角開始,沿著自左向右、自上而下的順序依次裁剪,得到子圖165張,保證子圖覆蓋原圖,避免信息丟失;第2步:在圖像左下角7 488×5 488范圍內隨機選擇35個點作為子圖左下角進行裁剪,得到子圖35張,用于信息補充。在完成所有圖像裁剪后,剔除非建筑外墻圖像及不含裂縫的背景圖像后共得到裂縫圖像3 862張。

為了確保模型的泛化性能和復雜背景下裂縫分割的魯棒性,必須保證裂縫圖像數據中裂縫樣本及圖像背景的多樣性和復雜度。無人機航拍包括不同天氣狀況、一天的不同時間段,因光照條件不同,得到明暗程度不同的裂縫圖像;裂縫圖像包含的裂縫類型全面,包括縱向、橫向、斜向、交叉及任意分布的裂縫圖像,且圖像背景豐富,包括不同材料建筑外墻下磚縫、門窗、排水管、陰影及雜物等背景,部分裂縫圖像如圖1所示。

1.2 圖像標注

為了保證數據集的可靠性,使用開源的分割任務標注軟件labelme對裂縫進行人工標注。首先,沿著裂縫邊緣逐點勾勒出裂縫的輪廓,生成一個包含裂縫位置坐標的json文件,然后用python代碼將其轉化為可供計算機學習的二值圖像,標記結果如圖2所示。

在完成裂縫數據集構建后,按照8∶1∶1的比例將數據集劃分為訓練集、驗證集和測試集,其中訓練集3 102張,驗證集與測試集各380張。

2 研究方法

2.1 U-Net模型

U-Net是在全卷積神經網絡的基礎上提出用于醫學圖像分割的網絡模型。該模型是一個對稱編解碼結構,包括編碼器、解碼器兩個部分。其獨特之處在于將編碼器中低分辨率特征圖通過跳躍連接直接拼接到對應解碼器上采樣生成的特征圖,從而有效融合淺層紋理特征和深層語義特征,有利于圖像分割。

編碼器是由兩個無填充的3×3卷積重復應用組成,每一個卷積后面有一個ReLU激活函數,兩次卷積之后有一個2×2最大池化,用于下采樣。編碼器一共包含4個下采樣,每一個下采樣中,將特征通道的數量增加一倍,特征圖大小減為一半。編碼器主要負責提取輸入圖像的特征信息,并將多個尺度的特征圖傳入解碼器。

解碼器是模型的加強特征提取網絡,利用轉置卷積對主干網絡獲取的5個初步有效特征層進行上采用,并進行特征融合,最終得到一個融合了所有特征的有效特征層。

2.2 改進的U-Net模型

研究表明:U-Net模型存在細長裂縫分割不連續、復雜背景下裂縫漏檢及背景誤檢的問題。分析其可能原因為:1)裂縫圖像正負樣本分布不均對模型性能造成影響;2)模型特征提取能力不足導致裂縫漏檢及誤檢;3)缺少獲取多尺度信息的能力導致裂縫分割不連續及背景誤檢。在分析原因基礎上提出了基于U-Net的改進模型,相對于原模型做出了3點具有針對性的改進:1)使用改進的損失函數處理裂縫圖像正負樣本分布極度不均衡的問題;2)使用預訓練的ResNet50網絡替換原模型的編碼網絡,以提升模型特征表達能力;3)添加改進的ASPP模塊,獲取多尺度上下文信息。網絡結構如圖3所示。

2.2.1 殘差神經網絡

理論上,神經網絡的層數越多即深度學習模型越深,網絡的特征表達能力越強。但神經網絡達到一定深度時,繼續加深會因為反向傳播過程梯度消失導致模型性能變得更差。為了解決這個問題,He等[16]提出了用跳躍連接解決網絡加深造成梯度消失的殘差神經網絡(ResNet),包括Conv Block和Identity Block兩個基本模塊,Conv Block改變網絡的維度,用來調整特征圖大小和層數;Identity Block不改變網絡維度,用來加深網絡,結構如圖4所示。

基于深度學習的方法對建筑外墻裂縫圖像分割,然而裂縫的標注難度較大,自制大型數據集成本太高且不實際,為了克服深度學習方法依賴大量訓練樣本的問題,引入遷移學習方法?;谔卣魈崛〉倪w移,用ImageNet數據集上預訓練好的深度殘差網絡(刪除最后的平均池化層、全連接層和softmax層),替換U-Net網絡原來由兩層卷積加一層池化組成的編碼網絡。

2.2.2 ASPP模塊

受空間金字塔池化(Spatial Pyramid Pooling, SPP)模塊[8]啟發,Chen等[7]提出了ASPP模塊,結構如圖5所示。

采用并行的多個具有不同擴張率的擴張卷積,每個分支使用不同擴張率單獨進行圖像特征提取,并將各分支提取特征進行融合,從而提取得到多尺度的圖像信息。該模塊可以有效避免局部信息丟失,增加遠距離信息的相關性。

擴張卷積是在普通卷積中增加“空洞”來擴大感受野的卷積,相對于普通卷積增加了“擴張率”這個超參數。通過設置擴張率的大小,可以實現相同參數量和計算量下更大的感受野。如圖6所示,擴張率為2的3×3卷積核與普通3×3卷積核相比,感受野由3×3擴大為5×5。

值得注意的是,組合擴張卷積的擴張率設置不當會產生“網格效應”。當卷積核大小為3×3,組合擴張率設為[2,2,2]時,像素利用情況如圖7(a)所示(數字表示像素利用次數),此時,大量像素未被利用(數字0處),產生了“網格效應”;組合擴張率設為[1,2,3]時,像素利用情況如圖7(b)所示,此時像素利用全面,未產生“網格效應”。

Wang等[17]提出了混合擴張卷積(Hybrid Dilated Convolution, HDC)理論,用于解決“網格效應”問題。假設有n個卷積核大小為k×k,擴張率為[r1…ri…rn]的擴張卷積,定義兩個非零值之間的距離為

式中:Mn=rn,M2≤k。另外,還需保證擴張率的最大公約數為不能大于1。

由于裂縫呈線性分布的特點,既有小目標物體的特點又有大目標物體的特點,且裂縫圖像含有多尺度背景噪聲。原U-Net模型對細長裂縫預測存在分割不連續及背景噪聲誤檢的問題。

為了解決上述問題,在模型編解碼之間添加ASPP模塊。ASPP模塊擴張率設計基于HDC理論,并借鑒DeepLabv3+中ASPP模塊結構。設計了擴張率分別為[2,3,5]、[2,3,7]、[2,3,9]、[2,3,12]的ASPP模塊進行消融實驗。

2.2.3 損失函數

在建筑外墻裂縫圖像中,裂縫像素所占比例極小,約為1.5%~4%,造成正(裂縫)負(背景)樣本分布極度不均衡,且樣本中存在大量易分類的負樣本。研究發現,經典的二分類損失函數在裂縫圖像語義分割模型中,易分類的負樣本會對損失起主要貢獻作用,導致模型對裂縫特征的學習被抑制,模型的性能和優化方向不穩定。

3 實驗設計與分析

實驗環境配置如表1所示。

模型訓練100個epoch,前50個epoch凍結編碼器,對解碼器進行訓練。這樣可以避免因為編碼器預訓練權重與未訓練的解碼器權重相差太大導致編碼器預訓練權重被破壞,同時還可以加快模型訓練速度。批大小設為16,初始學習率設為0.000 1。后50個epoch對整個模型進行訓練,批大小設為8,初始學習率設為0.000 01。各模型損失曲線與mIoU曲線如圖8所示??傮w上,模型大約在85個epoch后達到收斂。

3.1 評價指標

對于二分類問題,在進行結果評價時,可將樣例根據其真實類別與預測類別的組合劃分為真正例(TP)、假正例(FP)、真反例(TN)、假反例(FN)4種情形。

使用交并比(IoU)、精準率(Precision)、召回率(Recall)和F1_score這4個指標,對網絡模型的分割性能進行定量評估。

IoU突出預測結果與標簽的重合度,是常見的圖像分割評價指標;Precision突出預測結果中誤檢像素的比例;Recall突出漏檢的比例;F1_score綜合考慮了Precision與Recall,F1_score值越大代表模型性能越好。

3.2 實驗分析

3.2.1 損失函數對比實驗

分別使用Focal Loss、Dice Loss以及FD Loss作為模型的損失函數,在自制數據集上訓練,并在測試集上測試,得到實驗結果如圖9所示。

由圖9可知,Focal Loss從局部進行考察,其Precision較高,Recall相對較低;Dice Loss從全局進行考察,Recall較高,Precision較低。FD Loss結合兩者共同優化模型,引導模型更加注重對難分類的正(裂縫)樣本進行學習,并提高預測裂縫區域與標注裂縫區域的重合度。相較于單獨使用Focal Loss和Dice Loss,FD Loss在裂縫數據上表現出更優異的效果,且訓練過程更加穩定。

3.2.2 編碼網絡對比實驗

在U-Net模型基礎上,將模型編碼網絡分別替換為預訓練的ResNet18、ResNet34、ResNet50及ResNet101進行實驗(模型使用FD Loss作為損失函數),實驗結果如表2所示。由表2可知,隨著編碼網絡的加深,各評價指標都逐步提升,說明加深編碼網絡提高了模型特征提取能力,模型對裂縫的分割性能得到優化;然而編碼網絡使用ResNet101時,各評價指標反而大幅下降,說明此時的模型復雜度與數據集大小及裂縫的分割難度不匹配,模型出現了過擬合現象。選擇ResNet50作為遷移網絡,在增強模型特征提取能力的同時避免網絡過深導致模型與分割任務復雜度不匹配,造成過擬合。

3.2.3 ASPP模塊擴張率對比實驗

在U-Net模型基礎上,分別在編解碼網絡間添加3種不同擴張率的ASPP模塊進行實驗(模型使用FD Loss作為損失函數),實驗結果如表3所示。由表3可知,為了避免“網格效應”,根據HDC理論設計的ASPP模塊為兩個較小擴張率加一個較大擴張率的組合,隨著較大擴張率由5、7、9逐漸增大時,各項評價指標均逐漸上升,說明組合的較大擴張率增大有助于提升模型的裂縫分割性能。當擴張率設置為[2,3,12]時,評價指標反而減小。這是因為其M2=6>3,不滿足HDC理論,導致模型性能下降。當擴張率設為[2,3,9]時,各項評價指標均達到最高,模型分割性能最優?;诖?,改進的ASPP模塊選擇擴張率為[2,3,9]的一組擴張卷積,結構如圖10所示。

改進的ASPP模塊首先使用一個1×1的普通卷積作為第1層,保留原特征圖以補充空間信息;然后使用擴張率為[2,3,9]的擴張卷積作為2到4層,提取多尺度物體的特征;最后使用全局平均池化作為第5層,獲取全局特征。

3.2.4 消融實驗

為了驗證改進策略對提高模型分割性能的有效性,在自制數據集上進行消融實驗。分別驗證進行遷移學習、添加改進的ASPP模塊以及二者組合對模型分割效果的影響(模型都使用FD Loss作為損失函數),實驗結果如表4所示。

比較實驗結果可知,在改進損失函數的基礎上用ResNet50替換編碼網絡,Recall提升了6.78%,同時IoU、Precision和F1_score都有相應的提升,說明引入遷移學習的U-Net模型可以提取更豐富的裂縫特征,減少了部分裂縫不能被準確分割的狀況;在改進損失函數的基礎上添加改進的ASPP模塊,Precision提升了2.72%,同時IoU、Recall和F1_score都有相應的提升,說明改進的ASPP模塊獲取多尺度上下文信息的能力在U-Net模型中得到利用,降低了將背景誤檢為裂縫的狀況,保證了裂縫分割的連續性;改進的U-Net模型是在改進損失函數的基礎上引入遷移學習方法并加入改進的ASPP模塊,與單個改進策略相比,以上評價指標都有一定的提升,說明用ResNet50替代編碼網絡與添加改進的ASPP模塊可以共同優化模型,并提升模型性能。與原模型相比,IoU指標和F1_score分別提升了3.53%、4.18%,說明所提改進策略有效提升了模型的裂縫分割性能。

3.2.5 經典語義分割模型對比

為了驗證改進模型的先進性和魯棒性,在自制建筑外墻裂縫數據集上復現了經典語義分割模型U-Net、DeepLabv3+及PSPNet,并與模型進行對比。為了確保實驗有效性,各模型在相同實驗參數下進行訓練。通過評價指標與分割結果進行定性與定量地對比模型性能。不同模型在建筑外墻裂縫數據集上實驗結果如表5所示。

由表5可知,改進的U-Net模型各項評價指標分別為69.06%、82.57%、86.3%、84.39%,均高于其他語義分割模型,說明模型對建筑外墻裂縫分割具有最優的性能。

為了更直觀地對比經典模型與本文模型對建筑外墻裂縫圖像的分割效果,選取3張分別包含細長裂縫、任意分布裂縫及復雜背景噪聲的裂縫圖像進行預測,得到各模型的分割結果如圖11所示。

由圖11可知,經典語義分割模型在裂縫數據集上訓練后均能進行裂縫分割,但由于原模型并非針對裂縫特征進行設計,故裂縫分割效果較差,存在大量漏檢和誤檢的情況。對比經典模型分割效果可知,U-Net模型對裂縫的分割效果較理想,存在少量誤檢和漏檢的情況;Deeplabv3+模型對裂縫的分割效果較U-Net要差,漏檢和誤檢情況更加明顯;PSPNet模型對裂縫的分割效果較差,不僅分割粗糙,且存在大量漏檢和誤檢。與經典模型相比,針對裂縫特征改進的U-Net模型對裂縫分割不僅準確,而且分割精細,與標簽圖像基本一致;與U-Net模型相比,改進模型解決了原模型細長裂縫分割不連續、復雜背景下裂縫漏檢及背景誤檢的問題。

4 結論

針對建筑外墻裂縫人工檢測方法效率低、檢測效果和安全性差的問題,提出基于無人機航拍與計算機視覺的裂縫檢測方法。針對U-Net模型存在的問題進行改進,并進行對比實驗,得出以下結論:

1)無人機靈活性強,可以繞建筑飛行并快速獲取高清的外墻圖像。在構建裂縫數據集和建筑外墻裂縫定期檢測階段,可以使用無人機繞建筑航拍實現安全、高效地采集建筑外墻圖像。

2)提出了組合Focal Loss與Dice Loss的FD Loss,用于模型優化。新損失函數具有更強的處理正負樣本分布不均的能力,保證了模型訓練過程的穩定性,并提高了模型對裂縫的分割性能。

3)所提改進的U-Net模型增強了模型編碼網絡的特征提取能力,以及模型獲取多尺度上下文信息的能力,解決了原模型細長裂縫分割不連續、復雜背景下裂縫漏檢及背景誤檢的問題,IoU指標和F1_score分別提升了3.53%、4.18%。實驗表明,改進的U-Net模型可以對復雜背景下的裂縫進行準確識別,具有較強的魯棒性。

4)所提基于無人機航拍與計算機視覺的建筑外墻裂縫檢測方法,使用無人機獲取裂縫圖像,并利用改進的U-Net模型對裂縫進行檢測。該方法解決了傳統建筑外墻裂縫檢測方法需要人工高空作業帶來的安全問題,并提高了裂縫檢測的效率和精度。

參考文獻

[1]? 周穎, 劉彤. 基于計算機視覺的混凝土裂縫識別[J]. 同濟大學學報(自然科學版), 2019, 47(9): 1277-1285.

ZHOU Y, LIU T. Computer vision-based crack detection and measurement on concrete structure [J]. Journal of Tongji University (Natural Science), 2019, 47(9): 1277-1285. (in Chinese)

[2]? MUNAWAR H S, HAMMAD A W A, HADDAD A, et al. Image-based crack detection methods: A review [J]. Infrastructures, 2021, 6(8): 115.

[3]? DAIS D, BAL I E, SMYROU E, et al. Automatic crack classification and segmentation on masonry surfaces using convolutional neural networks and transfer learning [J]. Automation in Construction, 2021, 125: 103606.

[4]? 宋立博, 費燕瓊. 兩類YOLOv4-tiny簡化網絡及其裂縫檢測性能比較[J]. 同濟大學學報(自然科學版), 2022, 50(1): 129-137.

SONG L B, FEI Y Q. Comparison of two types YOLOv4-tiny simplified networks and their crack detection performance [J]. Journal of Tongji University (Natural Science), 2022, 50(1): 129-137. (in Chinese)

[5]? JU H Y, MA T, LI W, et al. Pixelwise asphalt concrete pavement crack detection via deep learning-based semantic segmentation method [J]. Structural Control and Health Monitoring, 2022, 29(8): e2974.

[6]? RONNEBERGER O, FISCHER P, BROX T. U-Net: Convolutional networks for biomedical image segmentation [C]//Proceedings of the 18th International Conference on Medical Image Computing and Computer-Assisted Intervention. Munich, Germany. 2015: 234-241.

[7]? CHEN L C, ZHU Y K, PAPANDREOU G, et al. Encoder-decoder with atrous separable convolution for semantic image segmentation [C]//Proceedings of the 15th European Conference on Computer Vision. Munich, Germany. 2018: 833-851.

[8]? ZHAO H S, SHI J P, QI X J, et al. Pyramid scene parsing network [C]//2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, HI, USA. IEEE, 2017: 6230-6239.

[9]? 李良福, 王楠, 武彪, 等. 基于改進PSPNet的橋梁裂縫圖像分割算法[J]. 激光與光電子學進展, 2021, 58(22): 101-109.

LI L F, WANG N, WU B, et al. Segmentation algorithm of bridge crack image based on modified PSPNet [J]. Laser & Optoelectronics Progress, 2021, 58(22): 101-109. (in Chinese)

[10]? LI G, LI X, ZHOU J, et al. Pixel-level bridge crack detection using a deep fusion about recurrent residual convolution and context encoder network [J]. Measurement, 2021, 176: 109171.

[11]? 曹錦綱, 楊國田, 楊錫運. 基于注意力機制的深度學習路面裂縫檢測[J]. 計算機輔助設計與圖形學學報, 2020, 32(8): 1324-1333.

CAO J G, YANG G T, YANG X Y. Pavement crack detection with deep learning based on attention mechanism [J]. Journal of Computer-Aided Design & Computer Graphics, 2020, 32(8): 1324-1333. (in Chinese)

[12]? NGUYEN N H T, PERRY S, BONE D, et al. Two-stage convolutional neural network for road crack detection and segmentation [J]. Expert Systems with Applications, 2021, 186: 115718.

[13]? 孟慶成,李明健,萬達,等.基于M-Unet的混凝土裂縫實時分割算法[J].土木與環境工程學報(中英文), 2024, 46(1): 215-222.

MENG Q C, LI M J, WAN D, et al. Real-time concrete crack segmentation algorithm based on M-Unet [J]. Journal of Civil and Environmental Engineering, 2024, 46(1): 215-222. (in Chinese)

[14]? DANG L M, WANG H, LI Y, et al. Automatic tunnel lining crack evaluation and measurement using deep learning [J]. Tunnelling and Underground Space Technology, 2022, 124: 104472.

[15]? LI Y, ZHANG J H, GUAN Z G, et al. Experimental study on the correlation between crack width and crack depth of RC beams [J]. Materials, 2021, 14(20): 5950.

[16]? HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition [C]//2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, NV, USA. IEEE, 2016: 770-778.

[17]? WANG P Q, CHEN P F, YUAN Y, et al. Understanding convolution for semantic segmentation [C]//2018 IEEE Winter Conference on Applications of Computer Vision. Lake Tahoe, NV, USA. IEEE, 2018: 1451-1460.

[18]? MILLETARI F, NAVAB N, AHMADI S A. V-net: Fully convolutional neural networks for volumetric medical image segmentation [C]//2016 Fourth International Conference on 3D Vision (3DV). Stanford, CA, USA. IEEE, 2016: 565-571.

[19]? LIN T Y, GOYAL P, GIRSHICK R, et al. Focal loss for dense object detection [C]//2017 IEEE International Conference on Computer Vision. Venice, Italy. IEEE, 2017: 2999-3007.

(編輯? 胡玲)

DOI: 10.11835/j.issn.2096-6717.2022.145

收稿日期:2022?09?27

基金項目:湖南省自然科學基金(2021JJ30716);湖南省高新技術產業科技創新引領計劃(2020KG2026);長沙理工大學土木工程優勢特色重點學科創新性項目(16ZDXK05)

作者簡介:劉少華(1999- ),男,主要從事計算機視覺與健康監測研究,E-mail:liushaohua2020@163.com。

Received: 2022?09?27

Foundation items: Natural Science Foundation of Hunan Province (No. 2021JJ30716); High-Tech Industry Science and Technology Innovation Leading Plan Project of Hunan Province (No. 2020KG2026); Civil Engineering Advantage Characteristic Key Discipline Innovation Project of Changsha University of Science and Technology (No. 16ZDXK05)

Author brief: LIU Shaohua (1999- ), main research interests: computer vision and health monitoring, E-mail: liushaohua2020@163.com.

猜你喜歡
計算機視覺無人機
機器視覺技術發展及其工業應用
危險氣體罐車液位計算機視覺監控識別報警系統設計
高職院校新開設無人機專業的探討
一種適用于輸電線路跨線牽引無人機的飛行方案設計
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合