?

基于漸進式生成對抗網絡的農作物病蟲害

2024-04-27 00:45鄧昀馮琦堯牛照文康燕萍
中國農機化學報 2024年3期

鄧昀 馮琦堯 牛照文 康燕萍

摘要:隨著深度學習應用的普及和飛速發展,基于深度學習的圖像識別方法廣泛應用于農作物病蟲害領域,但大部分的神經網絡重視識別準確率的提高,卻忽略神經網絡龐大的參數計算量。為解決這個問題,基于漸進式生成對抗網絡判別器模型和卷積注意力模塊,提出一種改進的漸進式生成對抗網絡判別器CPDM網絡模型對農作物病蟲害進行識別。通過對漸進式生成對抗網絡判別器網絡結構的調整,采用均衡學習率、像素級特征向量歸一化和卷積注意力模塊增強CPDM網絡模型的特征提取能力,提高對真實圖片的識別準確率。試驗在PlantVillage數據集上進行,將該模型與VGG16、VGG19和ResNet18進行比較,得到TOP-1準確率分別為99.06%、96.50%、96.65%、98.86%,分別提高2.56%、2.41%、0.2%,且參數量僅為8.2 M。試驗證明提出的CPDM網絡模型滿足在保證分類準確率的基礎上,有效控制神經網絡參數計算量的目的。

關鍵詞:農作物病蟲害;漸進式生成對抗網絡;卷積注意力模塊;細粒度分類

中圖分類號:S435: TP391? 文獻標識碼:A? 文章編號:2095-5553 (2024) 03-0156-08

Fine-grained classification of crop diseases and pests based on progressive growing of GANs

Deng Yun1, 2, Feng Qiyao1, 2, Niu Zhaowen1, 2, Kang Yanping1, 2

(1. School of Information Science and Engineering, Guilin University of Technology, Guilin, 541004, China;2. Guangxi Key Laboratory of Embedded Technology and Intelligent System, Guilin, 541004, China)

Abstract:

With the popularity and rapid development of deep learning applications, image recognition methods based on deep learning are widely used in the field of crop diseases and insect pests. However, most neural networks attach importance to the improvement of recognition accuracy, but ignore the huge parameter computation amount of neural networks. In order to solve this problem, based on the progressive growing of GANs discriminator model and convolutional attention module. an improved CPDM network model was proposed to identify crop pests and diseases. By adjusting the network structure of the progressive growing of GANs discriminator, the feature extraction capability of CPDM network model was enhanced by using balanced learning rate, pixel-level feature vector normalization and convolutional attention module, and the recognition accuracy of real images was improved. The experiment was carried out on the PlantVillage dataset, and compared with VGG16, VGG19 and ResNet18, the TOP-1 accuracy was 99.06%, 96.50%, 96.65% and 98.86%, respectively, which was improved by 2.56%, 2.41% and 0.2%, respectively. And the number of parameters was only 8.2 M. The experimental results show that the proposed CPDM network model meets the purpose of effectively controlling the calculation amount of neural network parameters on the basis of ensuring the classification accuracy.

Keywords:crop diseases and pests; progressive growing of GANs; CBAM; fine-grained classification

0 引言

農作物病蟲害作為對農作物產量和質量危害最大的影響因素之一,每年造成的農業經濟損失可達20%~50%[1]。如何有效地發現及預防農作物病害成為農作物病害防治工作的重要環節?;谌斯さ淖R別方法對人力和物力都產生了巨大的消耗,造成了嚴重的經濟負擔[2]。隨著深度學習算法的逐漸興起,如何利用深度學習算法快速有效地識別農作物病蟲害成為相關研究者的新方向。

Mohanty等[3]在2016年利用GoogleNet卷積神經網絡,通過使用遷移學習對模型進行訓練,共分析了14種農作物包括26類病害的共54306幅農作物病害圖像,證明了深度學習神經網絡模型可以同時識別多類農作物病蟲害的圖像數據;Lü等[4]基于Alex Net網絡,使用批量歸一化、PRelu激活函數等提高網絡收斂性,避免過擬合,并結合使用了拓展卷積和多尺度卷積以提高網絡特征提取能力,證明對特征增強的算法可以有效地提高網絡對特征的提取能力,提升識別準確率;Pandian等[5]利用基于圖像處理和深度學習的圖像增強技術對農作物病害數據集進行增強,并通過使用利用遷移學習技術的對抗生成網絡和神經樣式轉移對數據集進行擴充和增強,試驗結果表明,使用這種增強方式的數據集可以獲得更高準確率;Zeng等[6]利用深度卷積生成對抗網絡將原始訓練數據集增加了2倍,采用Inception_v3模型進行識別,平均準確率為92.60%,比利用原始訓練數據集訓練的識別準確率提高近20%,證明了使用深度卷積生成對抗網絡生成的數據集具有更加明顯的特征;項小東等[7]基于Xception,提出一種采用帶有通道分配權重的多尺度深度卷積與組卷積結合的通道擴增模塊,并且對網絡結構采取了通道擴張—保持—再擴張—壓縮的策略,引入密集連接方式,對10種農作物的50類病害圖像進行分類,試驗證明這種對通道權重進行重分配的方式可以在特征提取上有更好的效果;王美華等[8]通過對CBAM注意力機制的改進,將通道注意力和空間注意力原本的串聯連接改為了并聯連接,并通過試驗證明了并聯的連接方式可以對農作物病蟲害細粒度分類產生更高的準確率。

深度學習卷積神經網絡的高速發展與應用為農作物病蟲害識別帶來了新的解決問題的方式。近年來GANs的廣泛流行為研究學者提供了新的解決問題的思路[9]。漸進式生成對抗網絡(Progressive Growing of GANs,ProGAN)[10]作為較為成熟的GANs[11],相較于之前的GANs,可以生成更高質量的圖像,且訓練過程趨于穩定。因為其穩定的訓練過程和對圖像特征的學習能力,本文以ProGAN判別器采用圖像像素級別的識別方法[12]進行農作物病害分類,通過對網絡結構的調整,使用像素級別的特征向量歸一化以及卷積注意力模塊(Convolutional Block Attention Module,CBAM)[13]對ProGAN判別器進行優化,主要針對農作物病蟲害數據集子類別類間差異小、類內差異大的特點進行研究,本文使用弱監督細粒度圖像算法[14],設計CPDM網絡模型對農作物病蟲害進行細粒度分類。

1 試驗材料與方法

1.1 數據預處理

本文使用的圖像數據集為PlantVillage農作物病蟲害數據集,其中包括蘋果、葡萄、小麥、馬鈴薯等14種作物共38個病害類別共有54 303張健康和病害圖片。部分農作物病蟲害數據集圖像及標簽如圖1所示。

為能夠更好地訓練模型,防止過擬合,提高網絡模型的魯棒性,通過數據增強策略擴充數據集。首先對數據圖像進行訓練集和測試集的劃分,按照8∶2的比例劃分為訓練集和測試集,之后對訓練集數據圖像采取水平鏡像操作,擴充到81 454張圖片,作為擴充后的訓練集。最后對數據圖像的分辨率大小進行重構,統一為256×256分辨率大小,之后按照均值和標準差來標準化圖像。

1.2 研究方法

1.2.1 漸進式生成對抗網絡

漸進式生成對抗網絡(ProGAN)作為較為成熟的GAN網絡,其主要思想為漸進式,即對數據圖像進行從低分辨率圖像逐漸增長到高分辨率圖像的特征學習。ProGAN的實驗原理是在生成器生成相應分辨率的圖片后,判別器會搭建相應的網絡結構對生成圖片進行判斷。以1 024×1 024分辨率圖片為例,ProGAN判別器結構如表1所示。

其中WE_Conv為經過初始化權重的卷積層,LRelu為LeakyRelu激活函數[15],Downsample為下采樣,Avg_Pool為均值池化。通過均衡學習率[16]來保證每個權重都有相同的動態范圍,公式如式(1)所示。

Wf=Wi×2k×k×θ(1)

式中:Wf——該層通道權重;Wi——初始化權重;k——該層卷積核分辨率;θ——該層歸一化常數。

通過這種方法,確保所有權重擁有相同的動態范圍和學習率。

ProGAN在生成器訓練過程中摒棄了批標準化,而是采用一種像素級別的特征向量歸一化來對圖像進行像素歸一化。為了避免生成器和判別器中的像素幅度由于競爭而失控,在每個卷積層之后將每個像素在生成器中的特征向量規范化為統一的長度,因此使用局部響應規范化,公式如式(2)所示。

bx,y=ax,y1M∑M-1j=0(ajx,y)2+ε(2)

式中:M——特征映射通道數;a、b——圖像在x、y位置時的像素值;ε——恒值,ε為10-8。

基于像素級特征的特征向量歸一化可以有效地限制像素特征的幅度變化范圍,對像素級別的特征變化更加敏感,加深全局特征與局部特征的關聯性。

1.2.2 CBAM注意力機制

CBAM作為一種輕量的注意力模塊,考慮圖像特征的通道和空間之間的關聯性,可以在通道和空間維度上對輸入特征進行權重的重分配,使神經網絡在訓練過程中對圖像中對分類起到關鍵作用的像素區域分配較大的權重,對影響較低的像素區域分配較小的權重,從而可以忽略無關區域,添加到神經網絡上可以使模型具有更好的性能和解釋性。CBAM包含兩個獨立的模塊,分別為通道注意力模塊和空間注意力模塊。其中通道注意力模塊關注輸入特征通道之間的關聯,空間注意力模塊關注輸入特征像素空間內的相關性。CBAM注意力機制結構如圖2所示。

圖2中,SymbolEC@表示基于張量的加和操作,SymbolDC@表示特征之間的加權運算。特征圖像通過CBAM注意力機制的處理后,加深新得到的特征圖像的通道特征和空間特征的聯系,能夠有效地提高網絡特征提取的能力。

1.2.3 CPDM網絡模型

考慮試驗的實際情況,對農作物病害進行分類不需要從低分辨率到高分辨率漸進式地學習特征,這種漸進式的學習只會增加網絡參數,不能在圖像分類方面產生較好的效果,因此舍棄生成器,直接使用判別器進行農作物病蟲害圖片的特征學習與分類??紤]到試驗數據集PlantVillage中所有圖片分辨率被統一為256像素×256像素,對原判別器進行改動。

使用CBAM注意力機制、均衡學習率和像素級別的特征向量歸一化來完成對特征圖像像素空間的注意力分配、重分配的過程,不斷地更新像素空間特征的權重,即通過CBAM注意力對通道特征和空間特征權重的重分配后,使用均衡學習率對特征圖像的空間特征進行權重動態范圍的更新,并對每個卷積層的輸出特征圖像進行像素級別的特征向量歸一化。

CPDM網絡模型整體結構如圖3所示,根據原ProGAN判別器結構,圖片輸入后會分別進入兩個網絡分支進行訓練,圖3中網絡左分支對數據圖像進行卷積操作,網絡右分支則進行下采樣操作(Downsample),最后由淡入(Fade In)操作對特征圖像進行點加操作,如式(3)所示。

F=α×Lnew+(1-α)×Downsample(Lold)(3)

式中:F——淡入后特征圖像;α——當前網絡層的權重;Lnew——網絡左分支訓練得到的新的特征圖像;Lold——輸入數據圖像。

α設置為默認值0.2。為避免參數混淆,將下采樣Downsample中的平均池化操作改為最大池化操作。

由圖3可見,為能夠加快網絡收斂,提升梯度下降的效果,同時防止過擬合并提高網絡模型的魯棒性,特征圖像在淡入操作后會進行批量歸一化(Batch Normalization)操作[17]。

為能夠更好地突出CBAM注意力機制對像素級權重的分配表現,本文使用搭載了均衡學習率的WEConv和普通的卷積層與像素級特征向量歸一化共同搭建了一個卷積模塊Conv_Block,其結構如圖4所示,特征圖像在經過WEConv后,通過LeakyRelu激活函數,進行第一次像素級的特征向量歸一化,之后通過卷積層Conv,再進行一次像素級的特征向量歸一化,以達到網絡反向傳播時可以更好地初始化卷積層權重的目的。并將WE_Conv卷積層的卷積核尺寸改為1×1[18, 19],保留了特征圖的像素信息的同時進行升維,擴充網絡通道,有效地減少了網絡參數。

為能夠進一步提高網絡反向傳播時對權重的分配能力,本文在集成的卷積網絡層Conv_Block_List中,在每一個Conv_Block前面添加了CBAM注意力機制,以提高網絡對權重的分配,為了避免參數混淆,將平均池化(Average Pooling)改為最大池化(Max Pooling),如圖5所示,按照這種結構共搭建5個網絡層,加強對數據圖像像素級特征的提取能力。

特征圖像在經過Conv_Block_List后,經由小批量標準偏差(Minibatch Standard Deviation),通過計算小批量上像素空間上的特征的標準差后,對所有的標準差值進行平均得到一個值,并將該值連接到每一個小批量的空間特征上,從而產生了一個額外的特征圖像。為了底層神經網絡可以更好地提取特征,最后輸出特征圖保留特征維度為4×4。以試驗圖像數據分辨率為256像素×256像素為標準,詳細的CPDM網絡結構及操作如表2所示。

2 試驗結果分析

2.1 試驗環境

試驗環境使用Python3.6,深度學習框架Pytorch10.2,Cuda10.2,操作系統為Windows10。CPU為Intel(R) Core(TM) i7-7820X CPU @ 3.60 GHz,GPU為NVIDIA GeForce RTX 2070,顯存8 GB。在模型訓練環節,以每批次8張圖像為基準,選取隨機批次的圖像進行訓練,共訓練20次。選取優化器為隨機梯度下降優化算法,損失函數為交叉熵損失函數。學習率為0.001。

2.2 評價標準與損失函數

本文選擇TOP-1準確率作為試驗部分的評價標準。TOP-1準確率將會根據神經網絡輸出的特征向量,選取特征向量中得分最高的類別與真實類別進行判斷,如果相等則為真,否則為否,最后對每個類別樣本進行統計,輸出每個類別的準確率。

本文選擇交叉熵函數作為CPDM網絡模型訓練的損失函數。交叉熵函數通常用來對比兩個分布的異同程度,應用在深度學習神經網絡訓練中可以衡量真實數據概率分布和預測數據概率分布的異同。一般來說,得到的交叉熵值越小,則訓練出的神經網絡收斂性越好,神經網絡的預測性能越高。交叉熵損失函數的公式如式(4)所示。

Loss=-1N∑i∑Cc=1yiclog(pic)(4)

式中:Loss——損失值;N——樣本總數;C——類別總數;yic——第i個樣本類別c的標簽;pic——第i個樣本類別c的概率。

2.3 結果與分析

原ProGAN判別器模型的應用在于對生成器生成圖像的真偽判斷,由于本文使用的圖像數據集中的圖片的分辨率統一為256像素×256像素,所以為了能讓原ProGAN判別器模型適用于試驗數據集,對其進行了網絡結構上的調整,通過對卷積層和下采樣的刪減,確保最后全連接層的輸出格式大小不變,改變其全連接層輸出通道為38,以適應農作物病蟲害分類問題。使用本文提出的CPDM網絡模型與原ProGAN判別器模型,在農作物病蟲害數據集PlantVillage上分別進行訓練,得到TOP-1準確率以及損失值并進行對比,以證明CPDM在農作物病蟲害分類上的可行性。

由圖6、圖7可見,本文提出的CPDM模型比較原ProGAN判別器更適合對圖像進行分類,CPDM網絡模型在農作物病蟲害分類上的表現明顯優于原ProGAN判別器網絡模型。CPDM網絡模型在第5次訓練中就可以達到95%的TOP-1準確率,并開始逐漸擬合。而原ProGAN判別器模型在訓練結束20次后,TOP-1準確率僅可達42%,且訓練梯度較低,擬合過程較慢。由此證明了改進后的ProGAN判別器模型的可行性。

為進一步驗證CPDM網絡模型的可行性,本文使用VGG16、VGG19[20]、ResNet18[21]與CPDM網絡模型進行對比試驗。在農作物病蟲害數據集PlantVillage上分別進行訓練,得到TOP-1準確率和損失值并進行對比,同時證明CPDM網絡模型的優越性。

從圖8可以看出,CPDM網絡模型確實保持了一定的優越性。

第一次訓練過程,CPDM網絡模型表現優于VGG16和VGG19,差于ResNet18,TOP-1準確率可達67.6%,優于VGG16和VGG19的50.9%和58.5%TOP-1準確率,比ResNet18的76.9%TOP-1準確率相差9.3%。但是從第三次訓練過程后,CPDM網絡模型的TOP-1準確率開始超過ResNet18,TOP-1準確率可以達到91.5%,比ResNet18的88.9%TOP-1準確率高了2.6%。并且在之后的訓練過程中,CPDM網絡模型基本可以保持對ResNet18、VGG16和VGG19在TOP-1準確率上的領先。

結合圖9可以看出,CPDM網絡模型的損失值曲線下降明顯。雖然第一次訓練過程得到的損失值高于ResNet18,但是CPDM網絡模型損失值下降的梯度較優,對隨機梯度下降的適應要優于ResNet18,損失值下降較快,且相較于ResNet18的損失值曲線更加穩定,網絡的魯棒性較優。以此證明了CPDM網絡模型的優越性。

2.4 參數分析

為進一步證明CPDM網絡模型的優越性,本文使用VGG16、VGG19、ResNet18和原ProGAN判別器模型與CPDM網絡模型進行參數對比。原ProGAN判別器的參數有23.1 M,由于本文根據圖像數據分辨率對其結構進行了調整,使其網絡參數量下降為20.7 M。網絡參數對比結果如表3所示。

由表4可知,VGG19的TOP-1準確率比VGG16提高了0.15%,其中的原因和VGG19的網絡參數量比VGG16多有關,而本文試驗設計的CPDM網絡模型在網絡參數上,比原ProGAN判別器的參數量減少了60%,與VGG16和VGG19高達134.4 M和139.7 M的參數量相比,減少的較明顯。本文對比試驗重點是與ResNet18的比較,在TOP-1準確率的比較上,CPDM網絡模型比ResNet18高0.2%;但是在參數量的比較上,CPDM的參數量要比ResNet18減少3 M。試驗證明,CPDM網絡模型在保證準確率的基礎上,有效控制網絡參數計算量的目的。

3 結論

1) 本文通過對ProGAN在農作物病蟲害分類問題上的可行性分析,因其優越的特征學習和穩定的訓練過程,選取ProGAN判別器模型進行農作物病蟲害分類,設計了CPDM網絡模型。通過均衡學習率配合使用CBAM注意力機制,并使用像素級特征向量歸一化的方式對特征權重進行重分配。并針對其網絡結構,通過增加1×1卷積,改變卷積層,調整全連接層,降低通道數量的方式調整網絡結構,減少網絡參數量。并與VGG16、VGG19、ResNet18和原ProGAN判別器模型進行對比試驗。

2) 通過試驗,驗證了均衡學習率、CBAM注意力機制和像素級特征向量歸一化結合使用對模型性能的實際提升能力。特征圖在經過CBAM注意力機制和像素級特征向量歸一化后,可以有效地提升通道特征和空間特征的相關性,提升了對有效特征的提取能力。配合使用均衡學習率,可以使神經網絡在訓練時更加穩定。

3) ?通過試驗對比,CPDM網絡模型可以在PlantVillage農作物病蟲害數據集上達到99.06%的TOP-1準確率,且CPDM網絡模型總參數量8.2 M,實際參數大小為32.84 MB。與VGG16、VGG19和ResNet18進行對比,驗證了本文設計的CPDM網絡模型整體性能更優。試驗證明,CPDM網絡模型實現了在獲得較高識別準確率的同時,減少網絡參數計算量的目的。

參 考 文 獻

[1]Barbedo J. Factors influencing the use of deep learning for plant disease recognition [J]. Biosystems Engineering, 2018, 172: 84-91.

[2]翟肇裕, 曹益飛, 徐煥良, 等. 農作物病蟲害識別關鍵技術研究綜述[J]. 農業機械學報, 2021, 52(7): 1-18.Zhai Zhaoyu, Cao Yifei, Xu Huanliang, et al. Review of key techniques for crop disease and pest detection [J]. Transactions of the Chinese Society for Agricultural Machinery, 2021, 52(7): 1-18.

[3]Mohanty S P, Hughes D P, Salathe M. Using deep learning for image-based plant disease detection [J]. Frontiers in Plant Science, 2016, 7.

[4]Lü M, Zhou G, He M, et al. Maize leaf disease identification based on feature enhancement and DMS-Robust Alexnet [J]. IEEE Access, 2020, 8: 57952-57966.

[5]Pandian J A, Geetharamani G, Annette B. Data augmentation on plant leaf disease image dataset using image manipulation and deep learning techniques [C]. 2019 IEEE 9th International Conference on Advanced Computing (IACC). IEEE, 2019: 199-204.

[6]Zeng Q, Ma X, Cheng B, et al. Gans-based data augmentation for citrus disease severity detection using deep learning [J]. IEEE Access, 2020, 8: 172882-172891.

[7]項小東, 翟蔚, 黃言態, 等. 基于Xception-CEMs神經網絡的植物病害識別[J]. 中國農機化學報, 2021, 42(8): 177-186.Xiang Xiaodong, Zhai Wei, Huang Yantai, et al. Plant disease recognition based on Xception-CEMs neural network [J]. Journal of Chinese Agricultural Mechanization, 2021, 42(8): 177-186.

[8]王美華, 吳振鑫, 周祖光. 基于注意力改進CBAM的農作物病蟲害細粒度識別研究[J]. 農業機械學報, 2021, 52(4): 239-247.Wang Meihua, Wu Zhenxin, Zhou Zuguang. Fine-grained identification of crop pests and diseases based on improved CBAM via attention [J]. Transactions of the Chinese Society for Agricultural Machinery, 2021, 52(4): 239-247.

[9]賈少鵬, 高紅菊, 杭瀟. 基于深度學習的農作物病蟲害圖像識別技術研究進展[J]. 農業機械學報, 2019, 50(S1): 313-317.Jia Shaopeng, Gao Hongju, Hang Xiao. Research progress on image recognition technology of crop pests and diseases based on deep learning [J]. Transactions of the Chinese Society for Agricultural Machinery, 2019, 50(S1): 313-317.

[10]Karras T, Aila T, Laine S, et al. Progressive growing of gans for improved quality, stability, and variation [J]. arXiv Preprint arXiv: 1710.10196, 2017.

[11]Creswell A, White T, Dumoulin V, et al. Generative adversarial networks: An overview [J]. IEEE Signal Processing Magazine, 2018, 35(1): 53-65.

[12]金耀, 徐陽, 韓飛楊, 等. 基于深度學習語義分割的橋梁病害圖像像素級識別方法[J]. 公路交通科技(應用技術版), 2020, 16(1): 183-188.Jin Yao, Xu Yang, Han Feiyang, et al. Pixel-level recognition method for bridge disease images based on deep learning semantic segmentation [J]. Journal of Highway and Transportation Research and Development (Application Technology Edition), 2020, 16(1): 183-188.

[13]Woo S, Park J, Lee J Y, et al. CBAM: Convolutional block attention module [C]. Proceedings of the European Conference on Computer Vision (ECCV), 2018: 3-19.

[14]羅建豪, 吳建鑫. 基于深度卷積特征的細粒度圖像分類研究綜述[J]. 自動化學報, 2017, 43(8): 1306-1318.Luo Jianhao, Wu Jianxin. A survey on fine-grained image categorization using deep convolutional features [J]. Acta Automatica Sinica, 2017, 43(8): 1306-1318.

[15]Demir A, Yilmaz F. Inception-ResNet-v2 with LeakyReLU and average pooling for more reliable and accurate classification of chest X-ray images [C]. 2020 Medical Technologies Congress (TIPTEKNO). IEEE, 2020: 1-4.

[16]He K, Zhang X, Ren S, et al. Delving deep into rectifiers: Surpassing human-level performance on ImageNet classification [C]. Proceedings of the IEEE International Conference on Computer Vision, 2015: 1026-1034.

[17]Ioffe S, Szegedy C. Batch normalization: Accelerating deep network training by reducing internal covariate shift [C]. International Conference on Machine Learning. PMLR, 2015: 448-456.

[18]Lin M, Chen Q, Yan S. Network in network [J]. arXiv Preprint arXiv: 1312.4400, 2013.

[19]Szegedy C, Liu W, Jia Y, et al.Going deeper with convolutions [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2015: 1-9.

[20]Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition [J]. Computer Science, 2014.

[21]He K, Zhang X, Ren S, et al. Deep residual learning for image recognition [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016: 770-778.

基金項目:廣西科技計劃項目(桂科AD16380059);廣西自然科學基金項目(2018GXNSFAA281235)

第一作者:鄧昀,男,1980年生,廣西桂林人,碩士,教授;研究方向為嵌入式與物聯網、數據分析、圖像分類。E-mail: 574359451@qq.com

通訊作者:康燕萍,女,1987年生,廣西桂林人,碩士,實驗師;研究方向為物聯網、數據分析。E-mail: 460843302@qq.com

91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合