CN116485796B - 害虫检测方法、装置、电子设备及存储介质 - Google Patents
害虫检测方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN116485796B CN116485796B CN202310727197.8A CN202310727197A CN116485796B CN 116485796 B CN116485796 B CN 116485796B CN 202310727197 A CN202310727197 A CN 202310727197A CN 116485796 B CN116485796 B CN 116485796B
- Authority
- CN
- China
- Prior art keywords
- pest
- image
- network
- model
- detection model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 323
- 241000607479 Yersinia pestis Species 0.000 title claims abstract description 234
- 238000003860 storage Methods 0.000 title claims abstract description 14
- 230000004927 fusion Effects 0.000 claims abstract description 47
- 230000002457 bidirectional effect Effects 0.000 claims abstract description 31
- 238000012549 training Methods 0.000 claims description 70
- 238000012360 testing method Methods 0.000 claims description 62
- 230000006870 function Effects 0.000 claims description 31
- 238000011156 evaluation Methods 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 12
- 238000004422 calculation algorithm Methods 0.000 claims description 11
- 238000005070 sampling Methods 0.000 claims description 11
- 238000000034 method Methods 0.000 abstract description 25
- 238000010586 diagram Methods 0.000 description 8
- 230000009286 beneficial effect Effects 0.000 description 7
- 238000012271 agricultural production Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 238000007499 fusion processing Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- RTAQQCXQSZGOHL-UHFFFAOYSA-N Titanium Chemical compound [Ti] RTAQQCXQSZGOHL-UHFFFAOYSA-N 0.000 description 1
- 230000008485 antagonism Effects 0.000 description 1
- 235000013339 cereals Nutrition 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 102200029029 rs149082963 Human genes 0.000 description 1
- 241000894007 species Species 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A50/00—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE in human health protection, e.g. against extreme weather
- Y02A50/30—Against vector-borne diseases, e.g. mosquito-borne, fly-borne, tick-borne or waterborne diseases whose impact is exacerbated by climate change
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Quality & Reliability (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及害虫检测计算机***技术领域,提供一种害虫检测方法、装置、电子设备及存储介质,首先获取待检测图像;然后将待检测图像输入至害虫检测模型,得到害虫检测模型输出的检测结果。该害虫检测模型包括级联的盲去运动模糊模型和目标检测模型,盲去运动模糊模型用于对待检测图像进行盲去运动模糊,生成待检测图像对应的去模糊图像;目标检测模型中的主干网络用于提取去模糊图像的图像特征;指定颈部网络包括顺次连接的多个加权双向特征金字塔网络,用于基于图像特征,对去模糊图像的不同层次的语义特征进行提取并融合,得到不同层次的融合结果;头部网络用于基于融合结果,输出检测结果。该方法可使检测结果更准确,且占用的计算资源较少。
Description
技术领域
本发明涉及害虫检测计算机***技术领域,尤其涉及一种害虫检测方法、装置、电子设备及存储介质。
背景技术
田间害虫以其较高的发生频率、广泛的发生面积和严重的危害性成为当前影响和制约粮食安全的主要自然因素。并且,传统的化学防治方法对作物和生态环境的破坏大。若能对田间害虫进行及时准确的检测,将有效避免虫灾爆发,保障农业生产,避免农户损失,因此亟需一种及时准确检测害虫的方法。
然而,农业害虫种类繁多,体积较小,现有的图像采集设备也无法捕捉到高清的图像,这将导致害虫检测结果不准确,无法准确高效地实现害虫检测,进而无法及时的进行害虫防治,这将导致农作物产量降低不利于农业生产。而且,现有的害虫检测方法所采用的害虫检测模型,通常需要占用较多的计算资源,对硬件设备要求较高,增加害虫防治的成本,也不利于害虫防治的自动化实施。
为此,现亟需提供一种新的害虫检测方法。
发明内容
本发明提供一种害虫检测方法、装置、电子设备及存储介质,用以解决现有技术中存在的缺陷。
本发明提供一种害虫检测方法,包括:
获取待检测图像;
将所述待检测图像输入至害虫检测模型,得到所述害虫检测模型输出的检测结果;
其中,所述害虫检测模型包括级联的盲去运动模糊模型和目标检测模型,所述盲去运动模糊模型基于害虫图像样本训练得到,所述目标检测模型基于所述害虫图像样本及其携带的害虫标签训练得到;
所述盲去运动模糊模型用于对所述待检测图像进行盲去运动模糊,生成所述待检测图像对应的去模糊图像;
所述目标检测模型包括依次连接的PicoDet的主干网络、指定颈部网络和PicoDet的头部网络;所述主干网络用于提取所述去模糊图像的图像特征;所述指定颈部网络包括顺次连接的多个加权双向特征金字塔网络,用于基于所述图像特征,对所述去模糊图像的不同层次的语义特征进行提取并融合,得到不同层次的融合结果;所述头部网络用于基于所述融合结果,输出所述检测结果。
根据本发明提供的一种害虫检测方法,所述盲去运动模糊模型基于如下步骤训练得到:
基于所述害虫图像样本,对初始生成对抗网络模型进行训练,得到目标生成对抗网络模型,并将所述目标生成对抗网络模型中的目标生成器作为所述盲去运动模糊模型。
根据本发明提供的一种害虫检测方法,所述主干网络为ESNet,所述图像特征包括所述ESNet输出的C3特征图、C4特征图和C5特征图;所述头部网络包括四个;
所述指定颈部网络还用于对所述C3特征图进行下采样,并将得到的采样结果输入至第一个加权双向特征金字塔网络;
所述指定颈部网络的最后一个加权双向特征金字塔网络分别用于将所述采样结果对应的融合结果作为P6特征图输入至第一个头部网络,将所述C3特征图对应的融合结果作为P5特征图输入至第二个头部网络,将所述C4特征图对应的融合结果作为P4特征图输入至第三个头部网络,将所述C5特征图对应的融合结果作为P3特征图输入至第四个头部网络。
根据本发明提供的一种害虫检测方法,所述害虫图像样本包括训练样本和测试样本;
所述目标检测模型基于如下步骤训练得到:
将所述训练样本缩放至尺寸为640×640后输入至初始检测模型,得到所述初始检测模型输出的初始检测结果;
基于所述初始检测结果与所述训练样本携带的害虫标签,计算损失函数值,并基于所述损失函数值,采用随机梯度下降算法,对所述初始检测模型的结构参数进行迭代更新,得到备选检测模型;
基于所述测试样本,对所述备选检测模型进行测试,若所述备选检测模型通过测试,则确定所述备选检测模型为所述目标检测模型,否则继续对所述备选检测模型的结构参数进行更新。
根据本发明提供的一种害虫检测方法,基于所述初始检测结果与所述训练样本携带的害虫标签,计算损失函数值,包括:
将所述初始检测结果与所述训练样本携带的害虫标签代入至CIOU损失函数,计算所述损失函数值。
根据本发明提供的一种害虫检测方法,基于所述测试样本,对所述备选检测模型进行测试,包括:
将所述测试样本输入至所述备选检测模型,得到所述备选检测模型输出的备选检测结果;
基于所述备选检测结果与所述测试样本携带的害虫标签,计算测试评价指标的取值,并基于所述测试评价指标的取值,判断所述备选检测模型是否通过测试。
根据本发明提供的一种害虫检测方法,所述测试评价指标包括精确率、召回率和平均精度中的至少一项。
本发明还提供一种害虫检测装置,包括:
图像获取模块,用于获取待检测图像;
害虫检测模块,用于将所述待检测图像输入至害虫检测模型,得到所述害虫检测模型输出的检测结果;
其中,所述害虫检测模型包括级联的盲去运动模糊模型和目标检测模型,所述盲去运动模糊模型基于害虫图像样本训练得到,所述目标检测模型基于所述害虫图像样本及其携带的害虫标签训练得到;
所述盲去运动模糊模型用于对所述待检测图像进行盲去运动模糊,生成所述待检测图像对应的去模糊图像;
所述目标检测模型包括依次连接的PicoDet的主干网络、指定颈部网络和PicoDet的头部网络;所述主干网络用于提取所述去模糊图像的图像特征;所述指定颈部网络包括顺次连接的多个加权双向特征金字塔网络,用于基于所述图像特征,对所述去模糊图像的不同层次的语义特征进行提取并融合,得到不同层次的融合结果;所述头部网络用于基于所述融合结果,输出所述检测结果。
本发明还提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述任一种所述的害虫检测方法。
本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述任一种所述的害虫检测方法。
本发明还提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如上述任一种所述的害虫检测方法。
与现有技术相比,本发明具有如下有益效果:
本发明提供的害虫检测方法、装置、电子设备及存储介质,该方法采用的害虫检测模型级联有盲去运动模糊模型和目标检测模型,不仅具有去除待检测图像的运动模糊的功能,还具有小目标检测的功能,可以提升害虫检测模型的鲁棒性和精确度,使检测结果更准确。而且,由于盲去运动模糊模型的存在,可以使该方法在实际的害虫检测中在害虫高速飞行的情况下也能保证一定的精确度,使该方法适用性更强,便于后续可以及时的进行害虫防治,避免因害虫检测不准确而导致农作物产量降低的情况出现,有利于农业生产。此外,由于目标检测模型包括PicoDet的主干网络、指定颈部网络和PicoDet的头部网络,使得目标检测模型可以实现更高效的特征提取和融合过程,且具有轻量化的特性,进而使得该方法占用的计算资源较少,对硬件设备要求较低,适合部署在嵌入式***中,可以降低害虫防治的成本,有利于害虫防治的自动化。相比目前存在的其他害虫检测算法,该方法在精确度和轻量化之间做到了平衡,对实际场景的害虫检测效果显著。
附图说明
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明提供的害虫检测方法的流程示意图之一;
图2是本发明提供的害虫检测方法中采用的目标检测模型的结构示意图;
图3是本发明提供的害虫检测方法中采用的目标检测模型中加权双向特征金字塔网络的基础结构示意图;
图4是本发明提供的害虫检测方法的流程示意图之二;
图5是本发明提供的害虫检测装置的结构示意图;
图6是本发明提供的电子设备的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
当前,稻田害虫检测与识别主要面临害虫高速飞行导致的运动模糊和小目标检测问题。在害虫高速飞行时拍摄到的具有运动模糊的图像导致现存的算法实际应用时识别精度并不理想,这将导致害虫检测结果不准确,无法准确高效地实现害虫检测,进而无法及时的进行害虫防治,这将导致农作物产量降低不利于农业生产。而且,现有的害虫检测方法所采用的害虫检测模型,通常需要占用较多的计算资源,对硬件设备要求较高,增加害虫防治的成本,也不利于害虫防治的自动化实施。基于此,本发明实施例中提供了一种害虫检测方法,用以解决上述技术问题。
图1为本发明实施例中提供的一种害虫检测方法的流程示意图,如图1所示,该方法包括:
S1,获取待检测图像;
S2,将所述待检测图像输入至害虫检测模型,得到所述害虫检测模型输出的检测结果;
其中,所述害虫检测模型包括级联的盲去运动模糊模型和目标检测模型,所述盲去运动模糊模型基于害虫图像样本训练得到,所述目标检测模型基于所述害虫图像样本及其携带的害虫标签训练得到;
所述盲去运动模糊模型用于对所述待检测图像进行盲去运动模糊,生成所述待检测图像对应的去模糊图像;
所述目标检测模型包括依次连接的PicoDet的主干网络、指定颈部网络和PicoDet的头部网络;所述主干网络用于提取所述去模糊图像的图像特征;所述指定颈部网络包括顺次连接的多个加权双向特征金字塔网络,用于基于所述图像特征,对所述去模糊图像的不同层次的语义特征进行提取并融合,得到不同层次的融合结果;所述头部网络用于基于所述融合结果,输出所述检测结果。
具体地,本发明实施例中提供的害虫检测方法,其执行主体为处理器,该处理器可以配置于计算机内,该计算机可以为本地计算机或云计算机,本地计算机可以是电脑、平板等,本地计算机根据是否联网可以包括在线计算机和离线计算机,此处不作具体限定。
首先执行步骤S1,获取待检测图像,该待检测图像中可以包括害虫,该害虫可以是农田害虫、林地害虫等。该待检测图像是指需要检测其中包括的害虫的种类和位置的图像。该待检测图像可以是灰度图像,也可以是彩色图像。该彩色图像的色彩模式可以是RGB模式,也可以是CMYK模式。
然后执行步骤S2,将待检测图像输入至害虫检测模型,得到害虫检测模型输出的检测结果。
该害虫检测模型包括级联的盲去运动模糊模型和目标检测模型,盲去运动模糊模型可以利用害虫图像样本训练得到,目标检测模型可以利用害虫图像样本及其携带的害虫标签训练得到。
此处,害虫图像样本可以是将实际场景中相机拍摄得到的图像作为原始图像样本,并通过对原始图像样本进行旋转、放缩和马赛克拼接中的至少一项的数据扩充方式进行扩充得到。然后,可以采用人工标注或机器标注的方式,对害虫图像样本中包含的害虫的类别和位置进行标注,可以得到害虫标签。
可以理解的是,在拍摄原始样本图像时,需要保证每一种类害虫的数量接近,以防止后续模型训练时可能产生的数据不均衡问题。
本发明实施例中,盲去运动模糊模型可以基于如下步骤训练得到:
首先,利用害虫图像样本,对初始生成对抗网络模型进行训练,得到目标生成对抗网络模型;然后,将目标生成对抗网络模型中的目标生成器作为盲去运动模糊模型。
初始生成对抗网络(Generative Adversarial Network,GAN)模型包括生成器(Generator,G)和判别器(Discriminator,D)。其中,生成器用于通过机器生成数据,目的是尽可能骗过判别器,生成的数据记做G(z)。判别器用于判断数据是真实数据还是生成器生成的数据,目的是尽可能找出生成器生成的数据。它的输入参数是x,x代表数据,输出D(x)代表x为真实数据的概率,如果为1,就代表100%是真实数据,而输出为0,就代表不可能是真实数据。
由此,生成器和判别器构成了一个动态对抗过程(也称为博弈过程),随着训练(动态对抗)的进行,生成器生成的数据越来越接近真实数据,判别器鉴别数据的水平越来越高。在理想的状态下,生成器可以生成足以与真实数据相差不大的数据;而对于判别器来说,它难以判定生成器生成的数据究竟是不是真实的,因此D(G(z))=0.5。训练完成后,则可以得到一个可以用来生成与真实数据相差不大的数据的目标生成器。
初始生成对抗网络模型的优化目标如下:
;
其中,表示价值函数,相当于目标函数,本质是交叉熵损失函数。/>表示分布函数的期望值,/>表示真实数据的分布,/>为高斯噪声,D(z)代表z为真实数据的概率,/>是定义在低维的高斯噪声分布,通过G映射到高维的数据空间得到/>,/>为G的参数。
根据上面构建的初始生成对抗网络模型,利用生成器负责生成害虫图像样本对应的初始去模糊图像,利用判别器负责判断生成器生成的初始去模糊图像是否足够清晰。通过设置合适的超参数,可以在云服务器(Cloud GPU Service,GPU)上对初始生成对抗网络模型进行训练,并且验证和测试,得到端对端的目标生成器作为盲去运动模糊模型。该盲去运动模糊模型可以用于接收待检测图像,并对待检测图像进行盲去运动模糊,生成待检测图像对应的去模糊图像。该去模糊图像的尺寸可以是640×640×3。
如图2所示,该目标检测模型可以包括依次连接的PicoDet的主干网络(Backbone)、指定颈部网络(Neck)和PicoDet的头部网络(Head)。
在小目标检测方面,PicoDet结合了轻量级和高效的主干网络和指定颈部网络,旨在解决在高分辨率图像中检测小物体的挑战。这两个网络的结合使PicoDet能够有效地捕获高级语义信息和细粒度空间细节。此外,PicoDet采用无锚检测,无需调整锚盒,降低了训练过程的复杂性。与YOLOv4和YOLOv5相比,这些设置选择会提高小目标检测的性能。
主干网络用于接收去模糊图像,并提取去模糊图像的图像特征。此处,主干网络可以是ESNet,包括依次连接的Stem/Conv层、最大池化层(Max-Pool)、3个ES Block构成的第一结构、7个ES Block构成的第二结构和3个ES Block构成的第三结构,且由第一结构输出C3特征图,由第二结构输出C4特征图,由第三结构输出C5特征图,C3特征图、C4特征图和C5特征图均作为主干网络输出的图像特征。
指定颈部网络可以包括顺次连接的多个加权双向特征金字塔网络(BiFPN),例如可以是三个,如图2中的BiFPN1、BiFPN2、BiFPN3。由于多个加权双向特征金字塔网络的叠加,可以使指定颈部网络的性能随着网络深度的增加而提高。
加权双向特征金字塔网络是一种有效的颈部网络。该加权双向特征金字塔网络也属于卷积神经网络,其引入了可学习的权值来学习从一个有效的主干网络中提取的不同层次特征的重要性,并迭代地使用自上而下和自下而上的采样方法来融合多尺度特征。然后,将融合后的特征输入类预测网络和箱形预测网络进行检测。
加权双向特征金字塔网络不仅包含从左到右的水平连接和从上到下、从下到上的垂直连接,而且还存在跨尺度连接,聚合集成了多个尺度和级别的特征信息,从而产生了更稳健的特征表示。基于加权双向特征金字塔网络构建的指定颈部网络替换PicoDet的原有颈部网络,可以实现更高效的特征提取和融合过程,从而提高算法的整体性能。通过实验表明,将加权双向特征金字塔网络集成到PicoDet算法中可以显著提高小目标检测任务的性能。
加权双向特征金字塔网络的基础结构如图3所示。如此可以在不同层次上提取更多的语义特征来进行融合,进而可以关注全局信息,而不会轻易遗漏任何信息。加权双向特征金字塔网络可以表示为:
;
其中,n为用于特征融合的特征数,C1为第一层的输入特征,P1为第一层的输出特征,C2为第二层的输入特征,P2为第二层的输出特征,Cn为第n层的输入特征,Pn为第n层的输出特征,f为特征融合过程的函数。图3中,n为5,且每一行表示一层。
本发明实施例中,指定颈部网络可以用于接收主干网络输出的图像特征,并利用该图像特征,对去模糊图像的不同层次的语义特征进行提取并融合,得到不同层次的融合结果,各层次的融合结果可以分别用P3特征图、P4特征图、P5特征图、P6特征图进行表示。
为实现将指定颈部网络与主干网络的顺利连接,且不影响指定颈部网络的性能,本发明实施例中,指定颈部网络还用于对主干网络输出的C3特征图进行下采样,并将得到的采样结果输入至第一个加权双向特征金字塔网络(即BiFPN1),指定颈部网络的最后一个加权双向特征金字塔网络(即BiFPN3)用于将采样结果对应的融合结果作为P6特征图输入至第一个头部网络(即Head1),如图2中指定颈部网络和头部网络中的第一行。图2中,向上箭头为下采样,向下箭头为上采样。
此外,指定颈部网络还用于对主干网络输出的C3特征图对应的融合结果作为P5特征图输入至第二个头部网络(即Head2),将C4特征图对应的融合结果作为P4特征图输入至第三个头部网络(即Head3),将C5特征图对应的融合结果作为P3特征图输入至第四个头部网络(即Head4)。
最终,头部网络接收各融合结果,并利用接收的融合结果,输出检测结果。该检测结果可以包括待检测图像中的所有害虫的位置及各害虫的种类。
该害虫检测模型可以借助于害虫图像样本及其携带的害虫标签,通过设置合适的超参数,在云服务器上对初始检测模型进行深度学习训练,并且经过验证和测试后得到。
本发明实施例中提供的害虫检测方法,首先获取待检测图像;然后将待检测图像输入至害虫检测模型,得到害虫检测模型输出的检测结果。该害虫检测模型包括级联的盲去运动模糊模型和目标检测模型,盲去运动模糊模型用于对待检测图像进行盲去运动模糊,生成待检测图像对应的去模糊图像;目标检测模型包括依次连接的PicoDet的主干网络、指定颈部网络和PicoDet的头部网络,主干网络用于提取去模糊图像的图像特征;指定颈部网络包括顺次连接的多个加权双向特征金字塔网络,用于基于图像特征,对去模糊图像的不同层次的语义特征进行提取并融合,得到不同层次的融合结果;头部网络用于基于融合结果,输出检测结果。该方法采用的害虫检测模型级联有盲去运动模糊模型和目标检测模型,不仅具有去除待检测图像的运动模糊的功能,还具有小目标检测的功能,可以提升害虫检测模型的鲁棒性和精确度,使检测结果更准确。而且,由于盲去运动模糊模型的存在,可以使该方法在实际的害虫检测中在害虫高速飞行的情况下也能保证一定的精确度,使该方法适用性更强,便于后续可以及时的进行害虫防治,避免因害虫检测不准确而导致农作物产量降低的情况出现,有利于农业生产。此外,由于目标检测模型包括PicoDet的主干网络、指定颈部网络和PicoDet的头部网络,使得目标检测模型可以实现更高效的特征提取和融合过程,且具有轻量化的特性,进而使得该方法占用的计算资源较少,对硬件设备要求较低,适合部署在嵌入式***中,可以降低害虫防治的成本,有利于害虫防治的自动化。相比目前存在的其他害虫检测算法,该方法在精确度和轻量化之间做到了平衡,对实际场景的害虫检测效果显著。
在上述实施例的基础上,本发明实施例中提供的害虫检测方法,所述害虫图像样本包括训练样本和测试样本;
所述目标检测模型基于如下步骤训练得到:
将所述训练样本缩放至尺寸为640×640后输入至初始检测模型,得到所述初始检测模型输出的初始检测结果;
基于所述初始检测结果与所述训练样本携带的害虫标签,计算损失函数值,并基于所述损失函数值,采用随机梯度下降算法,对所述初始检测模型的结构参数进行迭代更新,得到备选检测模型;
基于所述测试样本,对所述备选检测模型进行测试,若所述备选检测模型通过测试,则确定所述备选检测模型为所述目标检测模型,否则继续对所述备选检测模型的结构参数进行更新。
具体地,本发明实施例中,害虫图像样本可以包括训练样本和测试样本,训练样本用于对初始检测模型进行训练,得到备选检测模型,测试样本用于对备选检测模型进行测试,并将测试通过的备选检测模型作为目标检测模型。
此处,目标检测模型基于如下步骤训练得到:
首先,将训练样本缩放至尺寸为640×640后输入至初始检测模型,得到初始检测模型输出的初始检测结果。其中,初始检测模型的结构与目标检测模型的结构相同,不同的是结构参数,初始检测模型的结构参数为给定的初始值,而目标检测模型的结构参数为经过训练和测试之后得到的最终值。
然后,利用初始检测结果与训练样本携带的害虫标签,计算损失函数值。此处,利用的损失函数可以是CIOU损失函数,将初始检测结果与训练样本携带的害虫标签代入至CIOU损失函数,即可计算得到损失函数值。
此后,利用损失函数值,可以采用随机梯度下降(Stochastic Gradient Descent,SGD)算法,对初始检测模型的结构参数进行迭代更新,得到备选检测模型。其中,最大更新周期数(epochs)可以为100,每次更新的批大小(batchsize)可以为16。本发明实施例中,可以使用NVIDIA Titan V 12G训练和测试算法,利用Python语言在PyTorch1.11.0框架上实现上述迭代更新过程。例如,软件的具体环境配置可以为:
PyTorch1.11.0+opencv4+CUDA11.6+Python3.9.12。
最后,利用测试样本,对备选检测模型进行测试,即先将测试样本输入至备选检测模型,得到备选检测模型输出的备选检测结果,然后利用备选检测结果与测试样本携带的害虫标签,计算测试评价指标的取值,并利用测试评价指标的取值,判断备选检测模型是否通过测试。此处,测试评价指标可以包括精确率(Precision)、召回率(recall)和平均精度(mean Average Precision,mAP)中的至少一项。
测试评价指标的取值的计算公式包括:
;
;
;
其中,TP为正确识别的测试样本数量;FP为错误或未知的测试样本数量;FN为错误识别的测试样本数量。C是测试样本中的害虫种类数;M和N1分别表示重叠度(Intersectionover Union,IOU)阈值和IOU阈值的数量;P(k)和R(k)为精确率和召回率。
可以理解的是,若备选检测结果与测试样本携带的害虫标签之间的差异在预设范围内,则认为正确识别,否则认为是错误识别。其中,预设范围可以根据检测精度和实际需求进行确定,此处不作具体限定。
当测试评价指标的取值满足预设条件,则认为备选检测模型通过测试,此时确定备选检测模型为目标检测模型,否则认为备选检测模型未通过测试,此时继续对备选检测模型的结构参数进行更新。
为了比较本发明实施例中提供的目标检测模型(即PicoDet+BiFPN)与现有的目标检测模型(即YOLOv4、YOLOv5)的复杂性,采用浮点运算次数(Floating-point OperationsPer second,FLOPs)来衡量模型复杂度。浮点运算次数的计算如公式如下:
;
其中,N2是卷积层的数量,Li是第i个卷积层输出的特征层大小。Ki是第i个卷积层的卷积核数量。Ci和Ci-1分别为第i个卷积层的输出通道和输入通道的数量。
在PyTorch框架下,本发明实施例中提供的目标检测模型与现有的目标检测模型在害虫图像样本上的性能对比,如表1所示。
表1 PyTorch框架下目标检测模型性能统计表
表1中,Params为模型的参数数量,FPS(framespersecond)为平均帧率。对比PicoDet+BiFPN、YOLOv5和YOLOv4三种目标检测模型,可以得知,YOLOv5取得了最佳的准确度P(k)和平均精度mAP。然而,PicoDet+BiFPN在FLOPS和Params达到了最低,体现了模型轻量化的特性,这正是部署在嵌入式***中所需要的。在回归率R(k)和平均帧率FPS两项指标上,PicoDet+BiFPN也取得了最好的表现。高回归率R(k)有助于在害虫检测这种小目标检测任务中减小误检测的概率,高平均帧率FPS能够更好地对实时视频流进行检测。其次,在平均精度mAP和准确度P(k)指标上,PicoDet+BiFPN与YOLOv5的差距并不大,实验表明PicoDet+BiFPN有更好的综合性能。
将本发明实施例中提供的害虫检测模型中级联盲去运动模糊模型前后进行性能对比,如表2所示。
表2 最终模型性能统计表
可以看出,级联了盲去运动模糊模型之后,平均精度mAP提升了10.6%,另外FPS也能够达到实时要求,实验证明本发明实施例中提供的害虫检测模型能够显著提升害虫高速飞行的情况下的检测精度。
综上所述,如图4所示,本发明实施例中提供的害虫检测方法,可以包括如下步骤:
第一,通过相机采集实际场景中的害虫图像样本,并对害虫图像样本进行标注,使其携带害虫标签;
第二,构建初始生成对抗网络模型;
第三,基于害虫图像样本,对初始生成对抗网络模型进行训练,得到目标生成对抗网络模型,并将目标生成对抗网络模型中的目标生成器作为盲去运动模糊模型;
第四,构建基于PicoDet和加权双向特征金字塔网络的初始检测模型;
第五,对初始检测模型进行训练,并进行验证和测试,得到目标检测模型;
第六,将盲去运动模糊模型与目标检测模型进行级联整合,得到害虫检测模型;
第七,将待检测图像输入至害虫检测模型进行检测和识别,得到害虫检测模型输出的检测结果。
如图5所示,在上述实施例的基础上,本发明实施例中提供了一种害虫检测装置,包括:
图像获取模块51,用于获取待检测图像;
害虫检测模块52,用于将所述待检测图像输入至害虫检测模型,得到所述害虫检测模型输出的检测结果;
其中,所述害虫检测模型包括级联的盲去运动模糊模型和目标检测模型,所述盲去运动模糊模型基于害虫图像样本训练得到,所述目标检测模型基于所述害虫图像样本及其携带的害虫标签训练得到;
所述盲去运动模糊模型用于对所述待检测图像进行盲去运动模糊,生成所述待检测图像对应的去模糊图像;
所述目标检测模型包括依次连接的PicoDet的主干网络、指定颈部网络和PicoDet的头部网络;所述主干网络用于提取所述去模糊图像的图像特征;所述指定颈部网络包括顺次连接的多个加权双向特征金字塔网络,用于基于所述图像特征,对所述去模糊图像的不同层次的语义特征进行提取并融合,得到不同层次的融合结果;所述头部网络用于基于所述融合结果,输出所述检测结果。
在上述实施例的基础上,本发明实施例中提供的害虫检测装置,还包括盲去运动模糊模型训练模块,用于:
基于所述害虫图像样本,对初始生成对抗网络模型进行训练,得到目标生成对抗网络模型,并将所述目标生成对抗网络模型中的目标生成器作为所述盲去运动模糊模型。
在上述实施例的基础上,本发明实施例中提供的害虫检测装置,所述主干网络为ESNet,所述图像特征包括所述ESNet输出的C3特征图、C4特征图和C5特征图;所述头部网络包括四个;
所述指定颈部网络还用于对所述C3特征图进行下采样,并将得到的采样结果输入至第一个加权双向特征金字塔网络;
所述指定颈部网络的最后一个加权双向特征金字塔网络分别用于将所述采样结果对应的融合结果作为P6特征图输入至第一个头部网络,将所述C3特征图对应的融合结果作为P5特征图输入至第二个头部网络,将所述C4特征图对应的融合结果作为P4特征图输入至第三个头部网络,将所述C5特征图对应的融合结果作为P3特征图输入至第四个头部网络。
在上述实施例的基础上,本发明实施例中提供的害虫检测装置,所述害虫图像样本包括训练样本和测试样本;
所述装置还包括目标检测模型训练模块,用于:
将所述训练样本缩放至尺寸为640×640后输入至初始检测模型,得到所述初始检测模型输出的初始检测结果;
基于所述初始检测结果与所述训练样本携带的害虫标签,计算损失函数值,并基于所述损失函数值,采用随机梯度下降算法,对所述初始检测模型的结构参数进行迭代更新,得到所述备选检测模型;
基于所述测试样本,对所述备选检测模型进行测试,若所述备选检测模型通过测试,则确定所述备选检测模型为所述目标检测模型,否则继续对所述备选检测模型的结构参数进行更新。
在上述实施例的基础上,本发明实施例中提供的害虫检测装置,所述目标检测模型训练模块,具体用于:
将所述初始检测结果与所述训练样本携带的害虫标签代入至CIOU损失函数,计算所述损失函数值。
在上述实施例的基础上,本发明实施例中提供的害虫检测装置,所述目标检测模型训练模块,具体用于:
将所述测试样本输入至所述备选检测模型,得到所述备选检测模型输出的备选检测结果;
基于所述备选检测结果与所述测试样本携带的害虫标签,计算测试评价指标的取值,并基于所述测试评价指标的取值,判断所述备选检测模型是否通过测试。
在上述实施例的基础上,本发明实施例中提供的害虫检测装置,所述测试评价指标包括精确率、召回率和平均精度中的至少一项。
具体地,本发明实施例中提供的害虫检测装置中各模块的作用与上述方法类实施例中各步骤的操作流程是一一对应的,实现的效果也是一致的,具体参见上述实施例,本发明实施例中对此不再赘述。
图6示例了一种电子设备的实体结构示意图,如图6所示,该电子设备可以包括:处理器(Processor)610、通信接口(Communications Interface)620、存储器(Memory)630和通信总线640,其中,处理器610,通信接口620,存储器630通过通信总线640完成相互间的通信。处理器610可以调用存储器630中的逻辑指令,以执行上述各实施例中提供的害虫检测方法,该方法包括:获取待检测图像;将所述待检测图像输入至害虫检测模型,得到所述害虫检测模型输出的检测结果;其中,所述害虫检测模型包括级联的盲去运动模糊模型和目标检测模型,所述盲去运动模糊模型基于害虫图像样本训练得到,所述目标检测模型基于所述害虫图像样本及其携带的害虫标签训练得到;所述盲去运动模糊模型用于对所述待检测图像进行盲去运动模糊,生成所述待检测图像对应的去模糊图像;所述目标检测模型包括依次连接的PicoDet的主干网络、指定颈部网络和PicoDet的头部网络;所述主干网络用于提取所述去模糊图像的图像特征;所述指定颈部网络包括顺次连接的多个加权双向特征金字塔网络,用于基于所述图像特征,对所述去模糊图像的不同层次的语义特征进行提取并融合,得到不同层次的融合结果;所述头部网络用于基于所述融合结果,输出所述检测结果。
此外,上述的存储器630中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
另一方面,本发明还提供一种计算机程序产品,所述计算机程序产品包括计算机程序,计算机程序可存储在非暂态计算机可读存储介质上,所述计算机程序被处理器执行时,计算机能够执行上述各实施例中提供的害虫检测方法,该方法包括:获取待检测图像;将所述待检测图像输入至害虫检测模型,得到所述害虫检测模型输出的检测结果;其中,所述害虫检测模型包括级联的盲去运动模糊模型和目标检测模型,所述盲去运动模糊模型基于害虫图像样本训练得到,所述目标检测模型基于所述害虫图像样本及其携带的害虫标签训练得到;所述盲去运动模糊模型用于对所述待检测图像进行盲去运动模糊,生成所述待检测图像对应的去模糊图像;所述目标检测模型包括依次连接的PicoDet的主干网络、指定颈部网络和PicoDet的头部网络;所述主干网络用于提取所述去模糊图像的图像特征;所述指定颈部网络包括顺次连接的多个加权双向特征金字塔网络,用于基于所述图像特征,对所述去模糊图像的不同层次的语义特征进行提取并融合,得到不同层次的融合结果;所述头部网络用于基于所述融合结果,输出所述检测结果。
又一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各实施例中提供的害虫检测方法,该方法包括:获取待检测图像;将所述待检测图像输入至害虫检测模型,得到所述害虫检测模型输出的检测结果;其中,所述害虫检测模型包括级联的盲去运动模糊模型和目标检测模型,所述盲去运动模糊模型基于害虫图像样本训练得到,所述目标检测模型基于所述害虫图像样本及其携带的害虫标签训练得到;所述盲去运动模糊模型用于对所述待检测图像进行盲去运动模糊,生成所述待检测图像对应的去模糊图像;所述目标检测模型包括依次连接的PicoDet的主干网络、指定颈部网络和PicoDet的头部网络;所述主干网络用于提取所述去模糊图像的图像特征;所述指定颈部网络包括顺次连接的多个加权双向特征金字塔网络,用于基于所述图像特征,对所述去模糊图像的不同层次的语义特征进行提取并融合,得到不同层次的融合结果;所述头部网络用于基于所述融合结果,输出所述检测结果。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (9)
1.一种害虫检测方法,其特征在于,包括:
获取待检测图像;
将所述待检测图像输入至害虫检测模型,得到所述害虫检测模型输出的检测结果;
其中,所述害虫检测模型包括级联的盲去运动模糊模型和目标检测模型,所述盲去运动模糊模型基于害虫图像样本训练得到,所述目标检测模型基于所述害虫图像样本及其携带的害虫标签训练得到;
所述盲去运动模糊模型用于对所述待检测图像进行盲去运动模糊,生成所述待检测图像对应的去模糊图像;
所述目标检测模型包括依次连接的PicoDet的主干网络、指定颈部网络和PicoDet的头部网络;所述主干网络用于提取所述去模糊图像的图像特征;所述指定颈部网络包括顺次连接的多个加权双向特征金字塔网络,用于基于所述去模糊图像的图像特征,对所述去模糊图像的不同层次的语义特征进行提取并融合,得到不同层次的融合结果;所述头部网络用于基于所述融合结果,输出所述检测结果;
所述图像特征包括所述主干网络输出的C3特征图、C4特征图和C5特征图;所述头部网络包括四个;
所述指定颈部网络还用于对所述C3特征图进行下采样,并将得到的采样结果输入至第一个加权双向特征金字塔网络;
所述指定颈部网络的最后一个加权双向特征金字塔网络分别用于将所述采样结果对应的融合结果作为P6特征图输入至第一个头部网络,将所述C3特征图对应的融合结果作为P5特征图输入至第二个头部网络,将所述C4特征图对应的融合结果作为P4特征图输入至第三个头部网络,将所述C5特征图对应的融合结果作为P3特征图输入至第四个头部网络。
2.根据权利要求1所述的害虫检测方法,其特征在于,所述盲去运动模糊模型基于如下步骤训练得到:
基于所述害虫图像样本,对初始生成对抗网络模型进行训练,得到目标生成对抗网络模型,并将所述目标生成对抗网络模型中的目标生成器作为所述盲去运动模糊模型。
3.根据权利要求1-2中任一项所述的害虫检测方法,其特征在于,所述害虫图像样本包括训练样本和测试样本;
所述目标检测模型基于如下步骤训练得到:
将所述训练样本缩放至尺寸为640×640后输入至初始检测模型,得到所述初始检测模型输出的初始检测结果;
基于所述初始检测结果与所述训练样本携带的害虫标签,计算损失函数值,并基于所述损失函数值,采用随机梯度下降算法,对所述初始检测模型的结构参数进行迭代更新,得到备选检测模型;
基于所述测试样本,对所述备选检测模型进行测试,若所述备选检测模型通过测试,则确定所述备选检测模型为所述目标检测模型,否则继续对所述备选检测模型的结构参数进行迭代更新。
4.根据权利要求3所述的害虫检测方法,其特征在于,基于所述初始检测结果与所述训练样本携带的害虫标签,计算损失函数值,包括:
将所述初始检测结果与所述训练样本携带的害虫标签代入至CIOU损失函数,计算所述损失函数值。
5.根据权利要求3所述的害虫检测方法,其特征在于,基于所述测试样本,对所述备选检测模型进行测试,包括:
将所述测试样本输入至所述备选检测模型,得到所述备选检测模型输出的备选检测结果;
基于所述备选检测结果与所述测试样本携带的害虫标签,计算测试评价指标的取值,并基于所述测试评价指标的取值,判断所述备选检测模型是否通过测试。
6.根据权利要求5所述的害虫检测方法,其特征在于,所述测试评价指标包括精确率、召回率和平均精度中的至少一项。
7.一种害虫检测装置,其特征在于,包括:
图像获取模块,用于获取待检测图像;
害虫检测模块,用于将所述待检测图像输入至害虫检测模型,得到所述害虫检测模型输出的检测结果;
其中,所述害虫检测模型包括级联的盲去运动模糊模型和目标检测模型,所述盲去运动模糊模型基于害虫图像样本训练得到,所述目标检测模型基于所述害虫图像样本及其携带的害虫标签训练得到;
所述盲去运动模糊模型用于对所述待检测图像进行盲去运动模糊,生成所述待检测图像对应的去模糊图像;
所述目标检测模型包括依次连接的PicoDet的主干网络、指定颈部网络和PicoDet的头部网络;所述主干网络用于提取所述去模糊图像的图像特征;所述指定颈部网络包括顺次连接的多个加权双向特征金字塔网络,用于基于所述去模糊图像的图像特征,对所述去模糊图像的不同层次的语义特征进行提取并融合,得到不同层次的融合结果;所述头部网络用于基于所述融合结果,输出所述检测结果;
所述图像特征包括所述主干网络输出的C3特征图、C4特征图和C5特征图;所述头部网络包括四个;
所述指定颈部网络还用于对所述C3特征图进行下采样,并将得到的采样结果输入至第一个加权双向特征金字塔网络;
所述指定颈部网络的最后一个加权双向特征金字塔网络分别用于将所述采样结果对应的融合结果作为P6特征图输入至第一个头部网络,将所述C3特征图对应的融合结果作为P5特征图输入至第二个头部网络,将所述C4特征图对应的融合结果作为P4特征图输入至第三个头部网络,将所述C5特征图对应的融合结果作为P3特征图输入至第四个头部网络。
8.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-6中任一项所述的害虫检测方法。
9.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-6中任一项所述的害虫检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310727197.8A CN116485796B (zh) | 2023-06-19 | 2023-06-19 | 害虫检测方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310727197.8A CN116485796B (zh) | 2023-06-19 | 2023-06-19 | 害虫检测方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116485796A CN116485796A (zh) | 2023-07-25 |
CN116485796B true CN116485796B (zh) | 2023-09-08 |
Family
ID=87218125
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310727197.8A Active CN116485796B (zh) | 2023-06-19 | 2023-06-19 | 害虫检测方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116485796B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116935230B (zh) * | 2023-09-13 | 2023-12-15 | 山东建筑大学 | 作物病虫害识别方法、装置、设备及介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110472699A (zh) * | 2019-08-24 | 2019-11-19 | 福州大学 | 一种基于gan的电力场所有害生物运动模糊图像检测方法 |
CN112509001A (zh) * | 2020-11-24 | 2021-03-16 | 河南工业大学 | 一种多尺度和多特征融合的特征金字塔网络盲复原方法 |
CN113744226A (zh) * | 2021-08-27 | 2021-12-03 | 浙大宁波理工学院 | 一种农业害虫智能识别与定位方法及*** |
CN114708231A (zh) * | 2022-04-11 | 2022-07-05 | 常州大学 | 一种基于轻量化YOLO v5的甘蔗蚜虫目标检测方法 |
CN115719337A (zh) * | 2022-11-11 | 2023-02-28 | 无锡学院 | 一种风力涡轮机表面缺陷检测方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109345449B (zh) * | 2018-07-17 | 2020-11-10 | 西安交通大学 | 一种基于融合网络的图像超分辨率及去非均匀模糊方法 |
CN114202696B (zh) * | 2021-12-15 | 2023-01-24 | 安徽大学 | 基于上下文视觉的sar目标检测方法、装置和存储介质 |
-
2023
- 2023-06-19 CN CN202310727197.8A patent/CN116485796B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110472699A (zh) * | 2019-08-24 | 2019-11-19 | 福州大学 | 一种基于gan的电力场所有害生物运动模糊图像检测方法 |
CN112509001A (zh) * | 2020-11-24 | 2021-03-16 | 河南工业大学 | 一种多尺度和多特征融合的特征金字塔网络盲复原方法 |
CN113744226A (zh) * | 2021-08-27 | 2021-12-03 | 浙大宁波理工学院 | 一种农业害虫智能识别与定位方法及*** |
CN114708231A (zh) * | 2022-04-11 | 2022-07-05 | 常州大学 | 一种基于轻量化YOLO v5的甘蔗蚜虫目标检测方法 |
CN115719337A (zh) * | 2022-11-11 | 2023-02-28 | 无锡学院 | 一种风力涡轮机表面缺陷检测方法 |
Non-Patent Citations (1)
Title |
---|
基于YOLOv5的粮仓害虫监测***设计与实现;杜聪;《中国优秀硕士学位论文全文数据库》(第03期);摘要、第7-61页 * |
Also Published As
Publication number | Publication date |
---|---|
CN116485796A (zh) | 2023-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111259930B (zh) | 自适应注意力指导机制的一般性目标检测方法 | |
CN110059558B (zh) | 一种基于改进ssd网络的果园障碍物实时检测方法 | |
CN107704857B (zh) | 一种端到端的轻量级车牌识别方法及装置 | |
US8379994B2 (en) | Digital image analysis utilizing multiple human labels | |
KR102263397B1 (ko) | 뉴럴 네트워크 학습에 이용될 오토 라벨링된 이미지 중에서 라벨 검수를 위한 샘플 이미지를 획득하는 방법 및 이를 이용한 샘플 이미지 획득 장치 | |
CN111161311A (zh) | 一种基于深度学习的视觉多目标跟踪方法及装置 | |
KR102328734B1 (ko) | 이미지를 분석하기 위해, 딥러닝 네트워크에 이용하기 위한 트레이닝 이미지에 대한 라벨링 신뢰도를 자동으로 평가하기 위한 방법 및 이를 이용한 신뢰도 평가 장치 | |
CN108230291B (zh) | 物体识别***训练方法、物体识别方法、装置和电子设备 | |
CN111507469A (zh) | 对自动标注装置的超参数进行优化的方法和装置 | |
CN110348475A (zh) | 一种基于空间变换的对抗样本增强方法和模型 | |
CN114821282B (zh) | 一种基于域对抗神经网络的图像检测装置及方法 | |
CN111611889B (zh) | 基于改进卷积神经网络的农田微型虫害识别装置 | |
CN110222604A (zh) | 基于共享卷积神经网络的目标识别方法和装置 | |
CN116485796B (zh) | 害虫检测方法、装置、电子设备及存储介质 | |
KR102349854B1 (ko) | 표적 추적 시스템 및 방법 | |
CN112949693A (zh) | 图像分类模型的训练方法、图像分类方法、装置和设备 | |
CN115546260A (zh) | 目标识别跟踪方法、装置、电子设备及存储介质 | |
CN109934352B (zh) | 智能模型的自动进化方法 | |
CN115565146A (zh) | 基于自编码器获取鸟瞰图特征的感知模型训练方法及*** | |
Mwaffo et al. | Assessing the Predictive Performance of Two DNN Models: A Comparative Analysis to Support Reusing Training Weights for Autonomous Aerial Refueling Missions | |
CN115147684A (zh) | 基于深度学习的目标打击效果评估方法 | |
CN113627538A (zh) | 训练非对称生成对抗网络产生图像的方法及电子装置 | |
Yilmaz et al. | Analysis of the effect of training sample size on the performance of 2D CNN models | |
CN115410141A (zh) | 人流量统计方法、***、电子设备和存储介质 | |
Zaji et al. | Wheat spike counting using regression and localization approaches |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |