CN116682106A - 一种基于深度学习的柑橘木虱智能检测方法及装置 - Google Patents
一种基于深度学习的柑橘木虱智能检测方法及装置 Download PDFInfo
- Publication number
- CN116682106A CN116682106A CN202310581519.2A CN202310581519A CN116682106A CN 116682106 A CN116682106 A CN 116682106A CN 202310581519 A CN202310581519 A CN 202310581519A CN 116682106 A CN116682106 A CN 116682106A
- Authority
- CN
- China
- Prior art keywords
- diaphorina citri
- model
- image
- network model
- yolov5
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 84
- 241000526125 Diaphorina citri Species 0.000 title claims abstract description 74
- 238000013135 deep learning Methods 0.000 title claims abstract description 22
- 238000012549 training Methods 0.000 claims abstract description 53
- 238000000034 method Methods 0.000 claims abstract description 29
- 241001466030 Psylloidea Species 0.000 claims abstract description 27
- 241000207199 Citrus Species 0.000 claims abstract description 23
- 239000002420 orchard Substances 0.000 claims abstract description 17
- 238000007781 pre-processing Methods 0.000 claims abstract description 6
- 241001499733 Plantago asiatica Species 0.000 claims abstract description 4
- 235000003421 Plantago ovata Nutrition 0.000 claims abstract description 4
- 239000009223 Psyllium Substances 0.000 claims abstract description 4
- 229940070687 psyllium Drugs 0.000 claims abstract description 4
- 235000020971 citrus fruits Nutrition 0.000 claims description 16
- 230000007246 mechanism Effects 0.000 claims description 12
- 238000012795 verification Methods 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 7
- 238000012360 testing method Methods 0.000 claims description 7
- 238000013527 convolutional neural network Methods 0.000 claims description 6
- 230000011514 reflex Effects 0.000 claims description 6
- 230000003993 interaction Effects 0.000 claims description 5
- 238000009499 grossing Methods 0.000 claims description 2
- 238000012544 monitoring process Methods 0.000 abstract 1
- 238000002372 labelling Methods 0.000 description 7
- 241000607479 Yersinia pestis Species 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 201000010099 disease Diseases 0.000 description 5
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 5
- 241000238631 Hexapoda Species 0.000 description 4
- 238000010200 validation analysis Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 235000013399 edible fruits Nutrition 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000001066 destructive effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- LLLILZLFKGJCCV-UHFFFAOYSA-M n-methyl-n-[(1-methylpyridin-1-ium-4-yl)methylideneamino]aniline;methyl sulfate Chemical compound COS([O-])(=O)=O.C=1C=CC=CC=1N(C)\N=C\C1=CC=[N+](C)C=C1 LLLILZLFKGJCCV-UHFFFAOYSA-M 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- -1 re Species 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/68—Food, e.g. fruit or vegetables
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习的柑橘木虱智能检测方法及装置,方法包括以下步骤:S1、采集自然果园场景下的柑橘木虱彩色图像,对采集图像进行预处理,制成柑橘木虱数据集;S2、改进YOLOv5‑s网络模型,使用柑橘木虱数据集对改进后的YOLOv5‑s网络模型进行迭代训练,得到最优模型并将其作为木虱检测模型;S3、使用2台伺服舵机组成可旋转云台并搭载可变焦摄像头组成图像采集器;将木虱检测模型部署到嵌入式设备上并使用该设备控制图像采集器;S4、将图像采集器获取的图像输入木虱检测模型进行识别,确定所拍摄图像是否存在柑橘木虱及其位置。本发明方法及装置可部署于自然果园,对一定距离范围内的柑橘植株进行高效智能监控,以判断是否存在柑橘木虱。
Description
技术领域
本发明属于计算机视觉技术领域,具体涉及一种基于深度学习的柑橘木虱智能检测方法及装置。
背景技术
柑橘黄龙病是一种发生在柑橘上的毁灭性病害,严重影响柑橘产量和品质,甚至会造成果树枯死。对柑橘木虱进行检测与防控是控制黄龙病传播的重要途径。田间人工检测是目前常用的柑橘害虫检测方法,如使用塑料棒敲打枝干采样和利用黄色粘虫板或捕虫网采集计数等,这些方法都依赖于人工目测,效率低下,无法及时评估果园的柑橘虫害情况,难以对大面积的柑橘种植区域进行准确和有效的管理。
近年来,随着机器视觉技术的快速发展,卷积神经网络已经被广泛应用于各类农作物病虫害的检测,成为代替人工识别和传统机器视觉识别的方法。韩国学者利用压缩卷积神经网络,提出一种可安装在移动设备上进行实时检测的的柑橘病虫害分类方法,在包含14种柑橘病虫害的16528幅图像数据集进行训练和验证。中国学者构建了一个共有2141张图像的柑橘木虱数据集,通过改进YOLOVv4-Tiny模型的颈部网络,利用浅层网络的细节信息、采用交叉小批量归一化等方法构建柑橘木虱识别模型。受限于柑橘木虱体积微小,上述研究主要应用于近距离对柑橘病虫害进行分类或检测,与传统检测方法类似,依然需要人工手持移动设备贴近果树对其进行图像采集来进行分类或检测,依然无法较大提高柑橘木虱的检测效率。因此,针对果园的复杂环境,如何使用智能检测方法完全替代人工对柑橘木虱进行准确识别与定位,是同行从业人员亟待解决的问题。
发明内容
本发明的主要目的在于克服现有技术的缺点与不足,提出一种基于深度学习的柑橘木虱智能检测方法及装置,基于改进的YOLOv5-s目标检测网络模型,对处于图像采集器一定范围内采集的所有柑橘植株图像进行高效智能检测,能够解决自然果园场景下对柑橘木虱进行中远距离检测的难题。
为了达到上述目的,本发明采用以下技术方案:
一种基于深度学习的柑橘木虱智能检测方法,包括以下步骤:
S1、采集自然果园场景下的柑橘木虱彩色图像,对采集图像进行预处理,制成柑橘木虱数据集;
S2、改进YOLOv5-s网络模型,使用柑橘木虱数据集对改进后的YOLOv5-s网络模型进行迭代训练,得到最优的改进后的YOLOv5-s网络模型并将其作为木虱检测模型;
S3、使用2台伺服舵机组成可旋转云台并搭载可变焦摄像头组成图像采集器;将木虱检测模型部署到嵌入式设备上并使用该设备控制图像采集器;
S4、将图像采集器获取的图像输入木虱检测模型进行识别,确定所拍摄图像是否存在柑橘木虱及其位置。
本发明还包括一种基于深度学习的柑橘木虱智能检测装置,装置采用本发明提供的检测方法,装置包括:
图像采集模块,用于获取待检测是否存在柑橘木虱的自然果园场景下的柑橘图像,包括图像采集设备以及可旋转云台;
图像采集设备,具体为可变焦摄像头或单反相机;
可旋转云台,由于2台伺服舵机组成,并搭载图像采集设备;
嵌入式边缘计算设备,部署有训练完成的木虱检测模型,用于控制图像采集模块采集自然果园场景下的柑橘图像;
木虱定位模块,用于根据木虱检测模型的检测结果,确定所摄图像是否存在柑橘木虱及其并输出木虱位置。
本发明与现有技术相比,具有如下优点和有益效果:
1、本发明通过改进YOLOv5-s模型的网络结构,使用动态卷积替代传统卷积,增加针对小目标检测的二阶通道注意力机制,使用Wise-IoU替代C-IoU损失函数,提升模型对小目标的检测精度;在训练时使用mixup数据增强降低模型对目标全部特征的依赖,最终达到在保持原模型结构精简和检测速度快等优点的同时,提升模型对目标的检测精度,可以在复杂的田间环境下对较远距离的树上柑橘木虱进行识别。
2、针对果园面积较大,普通摄像头检测覆盖范围有限,本发明设计了一种由可变焦摄像头、多台旋转舵机以及控制器组成的具备360度旋转功能的可变焦图像采集设备,为自然果园下采集多株柑橘树的图像提供了硬件基础。
附图说明
图1是本发明方法的流程图;
图2是实施例中改进后的YOLOv5-s网络模型整体结构图;
图3是实施例中使用验证集测试模型的mAP值的曲线图;
图4是实施例中的柑橘木虱智能检测装置的示意图;
图5是本发明输入和输出图像的示意图。
具体实施方式
如图1所示,本发明,一种基于深度学习的柑橘木虱智能检测方法,包括以下步骤:
S1、采集自然果园场景下的柑橘木虱彩色图像,对采集图像进行预处理,制成柑橘木虱数据集;具体为:
S11、通过三脚架固定拍摄设备来拍摄柑橘植株图像,模拟实际应用场景中图像采集器对柑橘植株彩色图像采集;彩色图像包括不同焦段下拍摄的含有不同像素大小的柑橘木虱图像;拍摄设备可采用可变焦摄像头、单反相机等;
S12、对采集的彩色图像进行预处理,对木虱数据集按预设比例划分为训练集、验证集以及测试集;具体为:
S121、采用标注软件对采集的彩色图像中的柑橘木虱进行标注,包括木虱的位置和边框尺寸;具体的,使用标注软件如labelImg,对图像中的柑橘木虱进行标注,柑橘木虱的位置和包含木虱的最小矩形框等标签信息以VOC格式储存于xml文件制成数据集,数据集包括彩色图像文件及对应的标注信息文件。
S122、将标注后的彩色图像集按照7:1:2的比例划分为训练集、验证集和测试集;
S123、对训练集中的彩色图像进行亮度调节、对比度调节、加入噪声以及旋转四种操作扩增数据。
S2、改进YOLOv5-s网络模型,使用柑橘木虱数据集对改进后的YOLOv5-s网络模型进行迭代训练,得到最优的改进后的YOLOv5-s网络模型并将其作为木虱检测模型;具体包括:
S21、对YOLOv5-s网络模型进行改进,使用动态卷积ODConv替代传统卷积,增加针对小目标检测的二阶通道注意力机制;使用Wise-IoU替代C-IoU损失函数,获得改进后的YOLOv5-s网络模型;具体为:
S211、原YOLOv5-s网络模型采用传统卷积对输入图像特征进行卷积运算,卷积核的权重是预先定义好的,在卷积过程中,卷积核与输入数据的卷积操作是固定的,与输入数据无关,这种卷积操作会对特征进行平滑,较小尺寸的目标很容易被淹没在背景噪声中影响模型的性能;为改善该情况,使用通道-空间全维度动态卷积替换原YOLOV5-s网络模型的传统卷积方式,通过并行策略引入一种多维注意力机制,在进行卷积运算时,融合参与运算的n个卷积核组成的核空间中四个维度,对n个卷积核进行并行线性加权,避免过度平滑特征,提高特征的局部细节表达能力;
S212、原YOLOV5-s网络模型在处理小目标时容易出现误检和漏检的情况,为了使模型更加有针对性地学习柑橘木虱这种小目标的特征,在原YOLOV5-s网络模型中引入二阶通道注意力机制,基于通道间的相关性和通道间的协方差,对特征图中的每一个通道进行加权,以便更好地挖掘出不同通道之间的交互信息,加强卷积神经网络中不同通道间信息的交互能力,从而提高网络模型对柑橘木虱这种小目标的检测性能;
S213、使用Wise-IoU替换原YOLOV5-s网络模型的C-IoU,引入了动态聚焦机制,根据两个边界框之间的距离和宽高比之间的差异来计算一个动态聚焦系数,将动态聚焦系数应用于边界框的坐标和宽高信息的回归损失中,从而更加关注不同部分的边界框回归。
改进后的YOLOv5-s网络模型,由特征提取模块、颈部模块和检测头模块组成,一共25层。其中,第1到第9层为主要使用CSPDarknet53网络的特征提取模块,该模块将输入图像逐层提取有用的特征,在提取特征的同时,也压缩了特征向量的维数。第10到23层为颈部模块,卷积操作为动态卷积(Dynamic Convolution),并在第24层增加针对小目标检测的二阶通道注意力机制(Second-order Channel Attention);颈部模块还包括SPPF(FastSpatial Pyramid Pooling)模块,它可以处理图像中目标的不同比例和大小。第25层为检测头模块,包括一个回归头和一个分类头,使用Wise-IoU替代传统的C-IoU损失函数。分类头通过使用Focal Loss来聚焦困难样本,从而提高检测效果;回归头负责矩形框坐标的回归。
引入二阶通道注意力机制,原颈部网络结构的最后一层即第23层完成对特征的提取后,二阶通道注意力机制会在第24层对得到的特征图中的每一个通道进行加权计算,以便更好地挖掘出不同通道之间的交互信息,再输入到第25层的检测头模块中进行检测。
如图2所示,为改进后的YOLOv5-s网络模型示意图。
S22、对改进后的YOLOv5-s网络模型设置网络模型参数;具体为:
S221、使用k-means++算法对训练集中的目标框大小进行聚类;根据模型输出目标框的数量设置聚类算法的k值,聚类的结果作为改进后的YOLOv5-s网络模型的目标框参数值;包括:
S2211、从训练集中随机选择1个样本作为第1个初始聚类中心;
S2212、计算每个样本与当前已有初始聚类中心的最短距离;
S2213、计算每个样本被选为下一个初始聚类中心的概率,按照轮盘法选择出下一个初始聚类中心;
S2214、重复步骤S2212和S2213,直到选择出k个初始聚类中心;
S2215、计算每个样本与k个聚类中心的距离,并将其分到距离最小的聚类中心,形成k个簇;
S2216、更新聚类中心为隶属簇全部样本的均值;
S2217、重复步骤S2215和S2216直到聚类中心不再变化,获得聚类的结果作为改进后的YOLOv5-s网络模型的目标框参数值。
具体的,步骤S221为:
(1)收集训练数据集,包括图像和对应的标注框信息。
(2)将所有标注框的宽度和高度归一化到0-1的范围内。计算每个标注框的宽度和高度:宽度width=xmax-xmin,高度height=ymax-ymin,其中(xmin,ymin)表示标注框的左上角坐标,(xmax,ymax)表示标注框的右下角坐标;
(3)选择要使用的锚框数量(一般情况下选择9个锚框)。
(4)随机选择9个锚框作为初始聚类中心;可以从数据集中随机选取9个标注框作为初始聚类中心的宽度和高度。
(5)使用k-means++算法对归一化后的标注框的宽度和高度进行聚类,将每个标注框划分到最接近的聚类中心(即锚框)。计算每个标注框与每个聚类中心之间的距离,可以使用欧氏距离或其他距离度量;将每个标注框分配到距离最近的聚类中心,形成聚类簇。
(6)计算每个聚类中心(锚框)的新的中心点(宽度和高度的平均值)。对于每个聚类簇,计算所有标注框的宽度和高度的平均值作为新的聚类中心。
(7)重复步骤(5)和步骤(6),直到聚类中心不再发生变化或者达到最大迭代次数。在每次迭代中,重新计算每个标注框与新的聚类中心的距离,并更新标注框的分配。
(8)将聚类中心的宽度和高度反归一化到原始图像尺寸,即可得到确定的锚框参数。将归一化后的聚类中心乘以原始图像的宽度和高度,得到锚框参数的实际值。
S222、设置卷积神经网络输入图像的像素、batch size、权值的衰减速率、初始学习率以及模型迭代次数。
S23、使用预处理后的部分彩色图像对改进后的YOLOv5-s网络模型进行迭代训练;具体的,将设置好参数后的改进过后的YOLOv5-s网络模型放入配置好环境的计算机中,使用训练集对模型进行训练,每迭代预设次数使用验证集测试模型的mAP值并保存一个模型。如图3所示,比如每次迭代使用验证集测试模型的mAP值并将模型的权值保存到指定路径,mAP值显示为图3上部的折线。
在迭代训练过程中,每一次迭代开始前,深度学习框架不仅从训练集中读取图像,而且会通过mixup数据增强生成新图像;将新生成的图像和读取的图像组合成训练样本,输入到改进后的YOLOv5-s网络模型进行训练;每一轮训练完成后,基于该轮训练得到的模型权重,使用验证集检验模型的识别准确率。
mixup数据增强具体包括:
从训练数据集中随机选择两张图像(图像A和图像B)以及对应的标注框信息。随机选择一个混合参数λ,该参数服从Beta分布。对图像A和图像B中的每个像素点以及标注框信息根据公式(1)和(2)进行混合。将混合图像作为训练样本,同时使用混合后的标注框信息进行目标检测训练。
重复上述步骤,直到达到所需的训练样本数量或完成一轮训练。通过mixup数据增强,YOLOv5可以增加数据集的多样性,使模型对不同的输入具有更好的鲁棒性和泛化能力。
New_image=λ*Image_A+(1-)*Image_B(1)
New_bounding_box=
*_box_A+(1-)*Bounding_box_B(2)
S24、将迭代训练时识别准确率最高的改进后的YOLOv5-s网络模型作为最终的木虱检测模型。
S3、使用2台MG995伺服舵机组成可旋转云台并搭载可变焦摄像头组成图像采集器;将木虱检测模型部署到嵌入式设备Jetson nano上并使用该设备控制图像采集器;具体的,如图4所示,使用2台MG995伺服舵机和适当的支架结构,将一台MG995伺服舵机安装在支架结构上,作为水平转动电机。将该伺服舵机的输出轴与水平转动方向平行,使其能够控制水平方向的转动。安装第二台MG995伺服舵机在水平转动电机的输出轴上,作为垂直转动电机。将该伺服舵机的输出轴与垂直转动方向垂直,使其能够控制垂直方向的转动,并将可变焦USB摄像头(如GUCEE G05 18X摄像头)搭载于垂直方向转动的伺服舵机上,并连接至嵌入式设备Jetson nano。
使用PCA9685舵机控制器驱动MG995伺服舵机,将MG995的红色线连接到PCA9685舵机控制器的V+引脚,将棕色线连接到PCA9685舵机控制器的GND引脚,将黄色线(信号线)连接到PCA9685舵机控制器的PWM输出引脚。
将PCA9685舵机控制器连接到Jeston nano设备引脚。根据PCA9685舵机控制器的引脚说明,将VCC和GND分别连接到Jeston nano的3.3V和GND引脚,将SDA和SCL连接到Jeston nano的对应I2C接口。
在Jeston nano上安装PCA9685库和OPENCV库并进行初始化。使用Python语言的PCA9685库来控制PCA9685舵机控制器实现对伺服舵机的控制,在程序中先初始化PCA9685舵机控制器然后设置每个PWM输出口的频率和占空比以此来控制伺服舵机运动;使用Python语言的OPENCV库来实现对摄像头拍照及焦段变化的控制。
S4、将图像采集器获取的图像输入木虱检测模型进行识别,确定所拍摄图像是否存在柑橘木虱及其位置;具体的,使用Jetsonnano控制摄像头及伺服舵机对指定柑橘植株进行图像采集,将采集到的图片送入木虱检测模型中进行目标检测,根据检测结果,确定所采集的图像是否存在木虱,并根据两台伺服舵机的旋转角度及摄像头当前的焦段,确定柑橘木虱所在的具***置。如图5所示,为输入和输出图像的示意图。
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例
本实施例的所有数据皆采集于自然柑橘园中,来源于广东省广州市内。主要使用可变焦摄像头、单反相机,距离柑橘数枝叶上的柑橘木虱300cm处拍摄焦段处于50mm-200mm的RGB彩色图像,剔除模糊的图像,最终保留4824张。
使用图像标注工具LabelImg对图像中的柑橘木虱进行标记,柑橘木虱的位置和边框大小等标签信息以VOC格式储存于XML文件。从数据集中随机挑选3377张作为训练集,再从剩下的图像中随机挑选482张作为验证集,余下的965张作为测试集。
对训练集中的图像通过亮度调节、对比度调节、加入噪声和旋转4种操作扩增数据,最终训练集包含13508幅图像。此外,对图像中的柑橘木虱目标进行尺寸估计,将占图像像素面积分小于32×32的柑橘木虱个体定义为小目标。
使用k-means++算法对所得训练集中的目标框大小进行聚类。根据模型输出锚框的数量设置聚类算法的k值为9,最终得到的聚类结果为:(5,8),(13,17),(15,20),(25,26),(35,49),(40,56)。
采用16GB内存、Nvidia GeForce RTX 2080Ti型号的GPU、Intel Core [email protected]处理器的硬件平台和Ubuntu18.04操作***。在pytroch深度学习框架上,采用python语言作为编程语言实现本实施例方法。
将训练的初始学习率设置为0.00341,学习率衰减因子为0.1,每迭代10次保存一次模型,最大迭代次数为400次,改进的YOLOv5-s网络的锚框参数值为:(5,8),(13,17),(15,20),(25,26),(35,49),(40,56)。
在模型训练过程中,使用mixup数据增强对数据集进行混合增强,生成新的训练图像。在YOLOv5训练模型中,使用动态卷积方式ODConv替代传统卷积方式,增加了针对小目标检测的SOCA注意力机制,使用Wise-IoU替代C-IoU损失函数。观察模型的总损失值,当总损失收敛或者达到最大迭代次数时,停止训练,得到改进后的YOLOv5-s网络模型。
改进后模型检测柑橘木虱平均精度为86.16%,相比基础训练模型提升了2.14%,对小目标检测的平均精度提升了4.29%。改进后的模型在检测速度基本不变的前提下,提升了检测精度,同时也基本克服了小目标不好检测的困难。
本发明提供的方法,对YOLOv5-s模型进行了改进,对原本不利于小目标检测的网络结构、方法进行改进,如使用动态卷积方式ODConv替代传统卷积方式,增加了针对小目标检测的SOCA注意力机制,使用Wise-IoU替代C-IoU损失函数,均能有效提高模型对小目标的检测准确率。其次在训练时使用mixup数据增强降低模型对目标全部特征的依赖,最终达到在保持原模型结构精简和检测速度快等优点的同时,提升模型对目标的检测精度,可以在复杂的田间环境下对较远距离的树上柑橘木虱进行识别。
在另一个实施例中,还提供了一种基于深度学习的柑橘木虱智能检测装置,装置采用上述实施例的柑橘木虱智能检测方法,装置包括:
图像采集模块,用于获取待检测是否存在柑橘木虱的自然果园场景下的柑橘图像,包括图像采集设备以及可旋转云台;
图像采集设备,具体为可变焦摄像头或单反相机;
可旋转云台,由于2台MG995伺服舵机组成,并搭载图像采集设备;
嵌入式边缘计算设备,具体为Jetson nano,部署有训练完成的木虱检测模型,用于控制图像采集模块采集自然果园场景下的柑橘图像;
木虱定位模块,用于根据木虱检测模型的检测结果,确定所摄图像是否存在柑橘木虱及其并输出木虱位置。
还需要说明的是,在本说明书中,诸如术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其他实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (10)
1.一种基于深度学习的柑橘木虱智能检测方法,其特征在于,包括以下步骤:
S1、采集自然果园场景下的柑橘木虱彩色图像,对采集图像进行预处理,制成柑橘木虱数据集;
S2、改进YOLOv5-s网络模型,使用柑橘木虱数据集对改进后的YOLOv5-s网络模型进行迭代训练,得到最优的改进后的YOLOv5-s网络模型并将其作为木虱检测模型;
S3、使用2台伺服舵机组成可旋转云台并搭载可变焦摄像头组成图像采集器;将木虱检测模型部署到嵌入式设备上并使用该设备控制图像采集器;
S4、将图像采集器获取的图像输入木虱检测模型进行识别,确定所拍摄图像是否存在柑橘木虱及其位置。
2.根据权利要求1所述的一种基于深度学习的柑橘木虱智能检测方法,其特征在于,步骤S1具体为:
S11、通过三脚架固定拍摄设备来拍摄柑橘植株图像,模拟实际应用场景中图像采集器对柑橘植株彩色图像采集;彩色图像包括不同焦段下拍摄的含有不同像素大小的柑橘木虱图像;拍摄设备采用可变焦摄像头或单反相机;
S12、对采集的彩色图像进行预处理,对木虱数据集按预设比例划分为训练集、验证集以及测试集。
3.根据权利要求2所述的一种基于深度学习的柑橘木虱智能检测方法,其特征在于,步骤S12具体为:
S121、采用标注软件对采集的彩色图像中的柑橘木虱进行标注,包括木虱的位置和包含木虱的最小矩形框;
S122、将标注后的彩色图像按照7:1:2的比例划分为训练集、验证集和测试集;
S123、对训练集中的彩色图像进行亮度调节、对比度调节、加入噪声以及旋转四种操作扩增数据。
4.根据权利要求1所述的一种基于深度学习的柑橘木虱智能检测方法,其特征在于,步骤S2具体包括:
S21、对YOLOv5-s网络模型进行改进,使用动态卷积替代传统卷积,增加针对小目标检测的二阶通道注意力机制;使用Wise-IoU替代C-IoU损失函数,获得改进后的YOLOv5-s网络模型;
S22、对改进后的YOLOv5-s网络模型设置网络模型参数;
S23、使用预处理后的部分彩色图像对改进后的YOLOv5-s网络模型进行迭代训练,每一轮迭代训练完后,使用验证集进行识别准确率验证;
S24、将迭代训练时识别准确率最高的改进后的YOLOv5-s网络模型作为最终的木虱检测模型。
5.根据权利要求4所述的一种基于深度学习的柑橘木虱智能检测方法,其特征在于,步骤S21具体为:
S211、使用通道-空间全维度动态卷积替换原YOLOV5-s网络模型的传统卷积方式,在进行卷积运算时,融合参与运算的n个卷积核组成的核空间中四个维度,对n个卷积核进行并行线性加权,避免过度平滑特征,提高特征的局部细节表达能力;
S212、在原YOLOV5-s网络模型中引入二阶通道注意力机制,加强卷积神经网络中不同通道间信息的交互能力,从而提高网络模型对小目标的检测性能;
S213、使用Wise-IoU替换原YOLOV5-s网络模型的C-IoU,引入了动态聚焦机制,根据两个边界框之间的距离和宽高比之间的差异来计算一个动态聚焦系数,将动态聚焦系数应用于边界框的坐标和宽高信息的回归损失中,从而更加关注不同部分的边界框回归。
6.根据权利要求4所述的一种基于深度学习的柑橘木虱智能检测方法,其特征在于,步骤S22具体为:
S221、使用k-means++算法对训练集中的目标框大小进行聚类;根据模型输出目标框的数量设置聚类算法的k值,聚类的结果作为改进后的YOLOv5-s网络模型的目标框参数值;
S222、设置卷积神经网络输入图像的像素、batch size、权值的衰减速率、初始学习率以及模型迭代次数。
7.根据权利要求6所述的一种基于深度学习的柑橘木虱智能检测方法,其特征在于,步骤S221具体为:
S2211、从训练集中随机选择1个样本作为第1个初始聚类中心;
S2212、计算每个样本与当前已有初始聚类中心的最短距离;
S2213、计算每个样本被选为下一个初始聚类中心的概率,按照轮盘法选择出下一个初始聚类中心;
S2214、重复步骤S2212和S2213,直到选择出k个初始聚类中心;
S2215、计算每个样本与k个聚类中心的距离,并将其分到距离最小的聚类中心,形成k个簇;
S2216、更新聚类中心为隶属簇全部样本的均值;
S2217、重复步骤S2215和S2216直到聚类中心不再变化,获得聚类的结果作为改进后的YOLOv5-s网络模型的目标框参数值。
8.根据权利要求4所述的一种基于深度学习的柑橘木虱智能检测方法,其特征在于,步骤S23还包括:
在迭代训练过程中,每一次迭代开始前,深度学习框架从训练集中读取图像,通过mixup数据增强生成新图像;
将新生成的图像和读取的图像组合成训练样本,输入到改进后的YOLOv5-s网络模型进行训练;
每一轮训练完成后,基于该轮训练得到的模型权重,使用验证集检验模型的识别准确率。
9.根据权利要求1所述的一种基于深度学习的柑橘木虱智能检测方法,其特征在于,步骤S3中,具体使用2台MG995伺服舵机组成可旋转云台,嵌入式设备具体为Jetson nano。
10.一种基于深度学习的柑橘木虱智能检测装置,其特征在于,采用权利要求1-9任一项所述检测方法,装置包括:
图像采集模块,用于获取待检测是否存在柑橘木虱的自然果园场景下的柑橘图像,包括图像采集设备以及可旋转云台;
图像采集设备,具体为可变焦摄像头或单反相机;
可旋转云台,由于2台伺服舵机组成,并搭载图像采集设备;
嵌入式边缘计算设备,部署有训练完成的木虱检测模型,用于控制图像采集模块采集自然果园场景下的柑橘图像;
木虱定位模块,用于根据木虱检测模型的检测结果,确定所摄图像是否存在柑橘木虱及其并输出木虱位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310581519.2A CN116682106A (zh) | 2023-05-23 | 2023-05-23 | 一种基于深度学习的柑橘木虱智能检测方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310581519.2A CN116682106A (zh) | 2023-05-23 | 2023-05-23 | 一种基于深度学习的柑橘木虱智能检测方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116682106A true CN116682106A (zh) | 2023-09-01 |
Family
ID=87780168
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310581519.2A Pending CN116682106A (zh) | 2023-05-23 | 2023-05-23 | 一种基于深度学习的柑橘木虱智能检测方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116682106A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116630707A (zh) * | 2023-05-25 | 2023-08-22 | 河北农业大学 | 一种基于深度学习的番茄穴盘苗分级检测与数据传输方法 |
CN116972709A (zh) * | 2023-09-25 | 2023-10-31 | 天津金色方圆仪器仪表有限公司 | 一种钢卷尺检定误差分析方法及*** |
-
2023
- 2023-05-23 CN CN202310581519.2A patent/CN116682106A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116630707A (zh) * | 2023-05-25 | 2023-08-22 | 河北农业大学 | 一种基于深度学习的番茄穴盘苗分级检测与数据传输方法 |
CN116630707B (zh) * | 2023-05-25 | 2023-11-03 | 河北农业大学 | 一种基于深度学习的番茄穴盘苗分级检测与数据传输方法 |
CN116972709A (zh) * | 2023-09-25 | 2023-10-31 | 天津金色方圆仪器仪表有限公司 | 一种钢卷尺检定误差分析方法及*** |
CN116972709B (zh) * | 2023-09-25 | 2023-12-19 | 天津金色方圆仪器仪表有限公司 | 一种钢卷尺检定误差分析方法及*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109325431B (zh) | 草原放牧绵羊采食路径中植被覆盖度的检测方法及其装置 | |
CN111160269A (zh) | 一种人脸关键点检测方法及装置 | |
CN116682106A (zh) | 一种基于深度学习的柑橘木虱智能检测方法及装置 | |
CN110717903A (zh) | 一种利用计算机视觉技术进行农作物病害检测的方法 | |
CN110059558A (zh) | 一种基于改进ssd网络的果园障碍物实时检测方法 | |
CN114387520B (zh) | 一种用于机器人采摘的密集李子精准检测方法及其*** | |
CN113160062B (zh) | 一种红外图像目标检测方法、装置、设备及存储介质 | |
CN113312999B (zh) | 一种自然果园场景下的柑橘木虱高精度检测方法及装置 | |
CN111882554B (zh) | 一种基于SK-YOLOv3的电力线故障智能检测方法 | |
CN111340019A (zh) | 基于Faster R-CNN的粮仓害虫检测方法 | |
CN115050020A (zh) | 一种基于改进Mask R-CNN草莓叶面积的智能视觉检测方法及*** | |
Liu et al. | Recognition of pyralidae insects using intelligent monitoring autonomous robot vehicle in natural farm scene | |
CN116958961A (zh) | 一种基于改进YOLOv8s的轻量级石榴识别方法 | |
CN115376125A (zh) | 一种基于多模态数据融合的目标检测方法以及基于目标检测模型的在体果实采摘方法 | |
Rahim et al. | Data augmentation method for strawberry flower detection in non-structured environment using convolutional object detection networks | |
Bortolotti et al. | A computer vision system for in-field quality evaluation: Preliminary results on peach fruit | |
CN112132137A (zh) | 一种基于FCN-SPP-Focal Net的抽象画图像正确方向的识别方法 | |
CN116994056A (zh) | 一种基于改进YOLOv5s的番茄叶片病虫害检测方法 | |
CN117079125A (zh) | 一种基于改进型YOLOv5的猕猴桃授粉花朵识别方法 | |
Fang et al. | Classification system study of soybean leaf disease based on deep learning | |
CN116664545A (zh) | 一种基于深度学习的近海底栖生物定量检测方法及*** | |
CN114511850B (zh) | 一种阳光玫瑰葡萄果实大小粒图像识别方法 | |
CN116563205A (zh) | 基于小目标检测和改进YOLOv5的麦穗计数检测方法 | |
CN116012571A (zh) | 一种融合注意力机制的玉米籽粒破碎率实时检测方法 | |
Wang et al. | Real-world field snail detection and tracking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |