CN107808116B - 一种基于深度多层特征融合学习的小麦麦蜘蛛检测方法 - Google Patents
一种基于深度多层特征融合学习的小麦麦蜘蛛检测方法 Download PDFInfo
- Publication number
- CN107808116B CN107808116B CN201710894737.6A CN201710894737A CN107808116B CN 107808116 B CN107808116 B CN 107808116B CN 201710894737 A CN201710894737 A CN 201710894737A CN 107808116 B CN107808116 B CN 107808116B
- Authority
- CN
- China
- Prior art keywords
- wheat
- network
- layer
- training
- spider
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于深度多层特征融合学习的小麦麦蜘蛛检测方法,与现有技术相比解决了尚无针对不同级别特征层的特征进行融合学习的缺陷。本发明包括以下步骤:小麦麦蜘蛛图像的收集;通过标记软件对麦蜘蛛在训练图像中进行具***置的标记;构造小麦麦蜘蛛图像检测模型,构造基于Faster‑RCNN方法通过融合不同级别特征层特征的检测模型;待检测小麦图像的收集;麦蜘蛛在图像中具***置的检测。本发明提升了深度网络模型的检测能力,提高了小麦麦蜘蛛这种小目标的检测率。
Description
技术领域
本发明涉及图像识别技术领域,具体来说是一种基于深度多层特征融合学习的小麦麦蜘蛛检测方法。
背景技术
麦蜘蛛是国内常见的危害小麦的螨类,对于麦蜘蛛的控制需要加强农业防治措施,重视田间虫情监测,及时发现、争取早治。在智能农业领域的实际应用中,麦蜘蛛作为小目标物,其检测图像经过多次卷积和池化以后,越来越小、分辨率越来越低,较深的卷积层学习的特征更加抽象。这些抽象特征对麦蜘蛛物体的大小、位置和方向等敏感性更低,从而有助于识别性能的提高,但是因为丢失了一些麦蜘蛛物体的细节,又不能很好地给出麦蜘蛛物体的具体轮廓。
因此,如何融合不同级别特征层的特征提高小麦麦蜘蛛的检测率已经成为急需解决的技术问题。
发明内容
本发明的目的是为了解决现有技术中尚无针对不同级别特征层的特征进行融合学习的缺陷,提供一种基于深度多层特征融合学习的小麦麦蜘蛛检测方法来解决上述问题。
为了实现上述目的,本发明的技术方案如下:
一种基于深度多层特征融合学习的小麦麦蜘蛛检测方法,包括以下步骤:
小麦麦蜘蛛图像的收集,收集若干幅小麦麦蜘蛛图像作为训练图像,得到若干个麦蜘蛛图像训练样本;
通过标记软件对麦蜘蛛在训练图像中进行具***置的标记;
构造小麦麦蜘蛛图像检测模型,构造基于Faster-RCNN方法通过融合不同级别特征层特征的检测模型;
待检测小麦图像的收集;
麦蜘蛛在图像中具***置的检测,将待检测小麦图像输入训练完成后的小麦麦蜘蛛图像检测模型进行麦蜘蛛的检测,定位并标记出待检测图像中所有麦蜘蛛在图像中具***置以及麦蜘蛛的类别概率。
所述构造小麦麦蜘蛛图像检测模型包括以下步骤:
基于Faster-RCNN方法构造小麦麦蜘蛛图像检测模型;
区域生成网络和检测网络fast-rcnn的轮流训练,对区域生成网络和检测网络fast-rcnn进行轮流训练。
所述基于Faster-RCNN方法构造小麦麦蜘蛛图像检测模型包括以下步骤:
输入若干个麦蜘蛛图像训练样本,将麦蜘蛛图像训练样本的整张训练图像输入RPN的共享卷积网络进行特征提取;
通过RPN区域生成网络生成建议窗口,每张图片生成300个建议窗口;
将建议窗口映射到Fast-rcnn网络的多层卷积feature map上,找到每个建议窗口在多层卷积层的映射;
映射的串联融合,将不同层级的映射作为其对应建议窗口的卷积特征,并分别输入到Fast-rcnn网络的Roi pooling层得到固定的输出尺寸后,对固定尺寸的卷积特征进行串联融合,通过Roi pooling层使每个建议窗口生成固定尺寸的输出;
将固定尺寸的输出输入Fast-rcnn网络的全连接层;
两个网络输出层的联合训练,全连接层后利用Softmax Loss网络输出层和SmoothL1 Loss网络输出层对分类概率和边框回归联合训练。
所述的区域生成网络和检测网络fast-rcnn的轮流训练包括以下:
对区域生成网络进行端到端的训练,RPN中共享卷积网络使用ImageNet预训练的模型进行初始化,参数记为a0,RPN独有的层参数用高斯分布初始化;
若共享卷积网络中最后一层特征图上滑窗对应的输入图上Anchor box与groundtruth的IoU值最大,标记为正样本;
若Anchor box与ground truth的IoU值大于0.7,标记为正样本;
若Anchor box与ground truth的IoU值小于0.3,标记为负样本;
训练区域生成网络的Loss由classification loss和regression loss按一定比重组成的;
使用ImageNet预训练的模型进行初始化,使用区域生成网络提取训练集上的建议窗口训练检测网络fast-rcnn,此时共享卷积网络参数得到更新,记为a1;
固定卷积层a1,使用上述标记的样本集对区域生成网络独有的层进行有监督的训练,微调区域生成网络独有的层;
固定卷积层a1,使用区域生成网络提取训练集上的建议窗口,微调检测网络fast-rcnn独有的层。
所述映射的串联融合包括以下步骤:
Roi pooling层获取不同大小建议窗口对应的同一层特征图上不同尺寸的映射;
Roi pooling层根据不同层特征图对应的Roi pooling参数,将每个映射均匀分成M×N块,对每块均进行max pooling;
将同一建议窗口不同层级的的卷积映射特征经过Roi pooling层串联融合起来,得到固定尺寸的输出。
所述麦蜘蛛在图像中具***置的检测包括以下步骤:
输入是一张待检测小麦图像,将整张图片输入PRN的共享卷积网络进行特征提取;
用RPN生成建议窗口,生成300个建议窗口;
把建议窗口映射到Fast-rcnn网络的多层卷积feature map上,找到每个建议窗口在多层卷积层的映射;
将映射作为每个建议窗口的卷积特征分别输入到Roi pooling层得到固定的输出尺寸后串联融合,通过Roi pooling层使每个建议窗口生成固定尺寸的输出并输入全连接层;
输入全连接层后利用Softmax Loss网络输出层和Smooth L1 Loss网络输出层得到分类概率和边框回归。
有益效果
本发明的一种基于深度多层特征融合学习的小麦麦蜘蛛检测方法,与现有技术相比基于Faster-RCNN方法通过融合不同级别特征层特征构造出检测模型,提升了深度网络模型的检测能力,提高了小麦麦蜘蛛这种小目标的检测率。
附图说明
图1为本发明的方法顺序图;
图2为本发明中小麦麦蜘蛛图像检测模型的原理示意图。
具体实施方式
为使对本发明的结构特征及所达成的功效有更进一步的了解与认识,用以较佳的实施例及附图配合详细的说明,说明如下:
如图1所示,本发明所述的一种基于深度多层特征融合学习的小麦麦蜘蛛检测方法,包括以下步骤:
第一步,小麦麦蜘蛛图像的收集。收集若干幅小麦麦蜘蛛图像作为训练图像,得到若干个麦蜘蛛图像训练样本。通过移动植保图像采集设备进行小麦麦蜘蛛图像的收集,移动植保图像采集设备包括伸缩杆、相机和智能终端,相机与智能终端通过wifi连接,相机安装在伸缩杆的前端,智能终端通过活动夹安装在伸缩杆的后端。采集人员通过智能终端可以方便地进行多位置多角度的按需采集,可以实现农作物病虫草害图像数据、地理信息、实时录入和传输等功能。数据包括图片、温湿度、墒情、病虫发生调查等多方面数据,构建农作物病虫草害样本库、知识库。
第二步,通过标记软件对麦蜘蛛在训练图像中进行具***置的标记,标记出麦蜘蛛的虫体部分。
第三步,构造小麦麦蜘蛛图像检测模型。构造基于Faster-RCNN方法通过融合不同级别特征层特征的检测模型。如图2所示,其具体步骤如下:
(1)基于Faster-RCNN方法构造小麦麦蜘蛛图像检测模型。
A、输入若干个麦蜘蛛图像训练样本,将麦蜘蛛图像训练样本的整张训练图像输入RPN的共享卷积网络进行特征提取。RPN包括共享卷积网络,其还包括一些独有的网络(即生成建议窗口)。通过共享卷积网络提取出整张训练图像的特征,以供后面生成建议窗口进行直接调用,从而降低计算复杂度、提高效率。
B、通过RPN的一些独有的层生成建议窗口,每张图片生成300个建议窗口。
C、将建议窗口映射到Fast-rcnn网络的多层卷积feature map上,找到每个建议窗口在多层卷积层的映射。
D、映射的串联融合,将不同层级的映射作为其对应建议窗口的卷积特征,并分别输入到Fast-rcnn网络的Roi pooling层得到固定的输出尺寸后,对固定尺寸的卷积特征进行串联融合,通过Roi pooling层使每个建议窗口生成固定尺寸的输出。
在共享卷积网络中的最后一层卷积图feature map上用一个n*n的滑窗生成一个长度为256维长度的特征,然后在这个256维特征后产生两个分支的全连接层即回归层和分类层。回归层用于预测滑窗的中心点对应的原图上的proposal(固定3种尺度和3种比例,记为archor box,一个滑窗对应原图上9个候选框)应该平移缩放的参数;分类层用于判定该proposal是前景还是背景,输出每一个位置上,9个anchor box属于前景和背景的概率。
在此,不同层级的映射分为低层特征图、低层上一层特征图、…、高层特征图,建议窗口的卷积特征从整张训练图像的特征中提取,以提取出不同层级的映射,由于是不同层级的映射,并不是所有层级都降采样到M*N,低层级的M*N数值偏大点。因此,其映射的串联融合为关键步骤。
其包括以下步骤:
D1、Roi pooling层获取不同大小建议窗口对应的同一层特征图上不同尺寸的映射。
D2、Roi pooling层根据不同层特征图对应的Roi pooling参数,将每个映射均匀分成M×N块,对每块均进行max pooling。这样可以将大小不一的建议窗口对应的同一层特征图上的尺寸大小不一的映射转变为大小统一的数据,不同层对应的Roi pooling参数不一样,低层M×N数值偏大,因为低层特征含有更多小目标物体的细节和轮廓信息,不能下采样幅度太大。
D3、将同一建议窗口不同层级的的卷积映射特征经过Roi pooling层串联融合起来,得到固定尺寸的输出。
E、将固定尺寸的输出输入到fast-rcnn网络的全连接层。
F、两个网络输出层的联合训练,全连接层后利用Softmax Loss(探测分类概率)网络输出层和Smooth L1 Loss(探测边框回归)网络输出层对分类概率和边框回归联合训练。
(2)区域生成网络(RPN生成建议窗口)和检测网络fast-rcnn的轮流训练,对区域生成网络(RPN生成建议窗口)和检测网络fast-rcnn进行轮流训练,以使得共用的卷积层在区域生成网络和检测网络fast-rcnn中都会收敛。
其具体步骤如下:
A、对区域生成网络(RPN生成建议窗口)进行端到端的训练,RPN中共享卷积网络使用ImageNet预训练的模型进行初始化,参数记为a0,RPN独有的层参数用高斯分布初始化。
A1、若共享卷积网络中最后一层特征图上滑窗对应的输入图上Anchor box与ground truth的IoU值最大,标记为正样本;
A2、若Anchor box与ground truth的IoU值大于0.7,标记为正样本;
A3、若Anchor box与ground truth的IoU值小于0.3,标记为负样本;
A4、训练区域生成网络的Loss由classification loss(即Softmax Loss探测分类概率)和regression loss(Smooth L1 Loss探测边框回归)按一定比重组成的,具体的比重数值根据实际经验获得。
B、使用ImageNet预训练的模型进行初始化,使用A1步骤中的区域生成网络提取训练集上的建议窗口训练检测网络fast-rcnn,此时共享卷积网络(RPN)参数得到更新,记为a1。
C、固定卷积层a1,使用上述A1-A3步骤中标记的样本集对区域生成网络独有的层进行有监督的训练,微调区域生成网络独有的层。
D、固定卷积层a1,使用步骤C中区域生成网络提取训练集上的建议窗口,微调检测网络fast-rcnn独有的层。
第四步,待检测小麦图像的收集。
第五步,麦蜘蛛在图像中具***置的检测,将待检测小麦图像输入训练完成后的小麦麦蜘蛛图像检测模型进行麦蜘蛛的检测,定位并标记出待检测图像中所有麦蜘蛛在图像中具***置以及麦蜘蛛的类别概率。如图2所示,其具体步骤如下:
(1)输入是一张待检测小麦图像,将整张图片输入PRN的共享卷积网络进行特征提取。
(2)用RPN生成建议窗口,生成300个建议窗口;
(3)把建议窗口映射到Fast-rcnn网络的多层卷积feature map上,找到每个建议窗口在多层卷积层的映射;
(4)将映射作为每个建议窗口的卷积特征分别输入到Roi pooling层得到固定的输出尺寸后串联融合,通过Roi pooling层使每个建议窗口生成固定尺寸的输出,并输入全连接层;
(5)输入全连接层后利用Softmax Loss网络输出层和Smooth L1 Loss网络输出层得到分类概率和边框回归。
以上显示和描述了本发明的基本原理、主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是本发明的原理,在不脱离本发明精神和范围的前提下本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明的范围内。本发明要求的保护范围由所附的权利要求书及其等同物界定。
Claims (3)
1.一种基于深度多层特征融合学习的小麦麦蜘蛛检测方法,其特征在于, 包括以下步骤:
11)小麦麦蜘蛛图像的收集,收集若干幅小麦麦蜘蛛图像作为训练图像,得到若干个麦蜘蛛图像训练样本;
12)通过标记软件对麦蜘蛛在训练图像中进行具***置的标记;
13)构造小麦麦蜘蛛图像检测模型,构造基于Faster-RCNN方法通过融合不同级别特征层特征的检测模型;构造小麦麦蜘蛛图像检测模型包括以下步骤:
21)基于Faster-RCNN方法构造小麦麦蜘蛛图像检测模型;所述基于Faster-RCNN方法构造小麦麦蜘蛛图像检测模型包括以下步骤:
31)输入若干个麦蜘蛛图像训练样本,将麦蜘蛛图像训练样本的整张训练图像输入RPN的共享卷积网络进行特征提取;
32)通过RPN区域生成网络生成建议窗口,每张图片生成300个建议窗口;
33)将建议窗口映射到Fast-rcnn网络的多层卷积feature map上,找到每个建议窗口在多层卷积层的映射;
34)映射的串联融合,将不同层级的映射作为其对应建议窗口的卷积特征,并分别输入到Fast-rcnn网络的Roi pooling层得到固定的输出尺寸后, 对固定尺寸的卷积特征进行串联融合,通过Roi pooling层使每个建议窗口生成固定尺寸的输出;
35)将固定尺寸的输出输入Fast-rcnn网络的全连接层;
36)两个网络输出层的联合训练,全连接层后利用Softmax Loss网络输出层和SmoothL1 Loss网络输出层对分类概率和边框回归联合训练;
22)区域生成网络RPN和检测网络fast-rcnn的轮流训练,对区域生成网络RPN和检测网络fast-rcnn进行轮流训练;所述的区域生成网络和检测网络fast-rcnn的轮流训练包括以下:
41)对区域生成网络进行端到端的训练,RPN中共享卷积网络使用ImageNet预训练的模型进行初始化,参数记为a0,RPN独有的层参数用高斯分布初始化;
411)若共享卷积网络中最后一层特征图上滑窗对应的输入图上Anchor box与groundtruth的IoU值最大,标记为正样本;
412)若Anchor box与ground truth的IoU值大于0.7,标记为正样本;
413)若Anchor box与ground truth的IoU值小于0.3,标记为负样本;
414)训练区域生成网络的Loss由classification loss和regression loss按一定比重组成的;
42)使用ImageNet预训练的模型进行初始化,使用区域生成网络提取训练集上的建议窗口训练检测网络fast-rcnn, 此时共享卷积网络参数得到更新,记为a1;
43)固定卷积层a1,使用上述标记的样本集对区域生成网络独有的层进行有监督的训练, 微调区域生成网络独有的层;
44)固定卷积层a1,使用区域生成网络提取训练集上的建议窗口,微调检测网络fast-rcnn独有的层;
14)待检测小麦图像的收集;
15)麦蜘蛛在图像中具***置的检测,将待检测小麦图像输入训练完成后的小麦麦蜘蛛图像检测模型进行麦蜘蛛的检测,定位并标记出待检测图像中所有麦蜘蛛在图像中具***置以及麦蜘蛛的类别概率。
2.根据权利要求1所述的一种基于深度多层特征融合学习的小麦麦蜘蛛检测方法,其特征在于,所述映射的串联融合包括以下步骤:
51)Roi pooling层获取不同大小建议窗口对应的同一层特征图上不同尺寸的映射;
52)Roi pooling层根据不同层特征图对应的Roi pooling参数,将每个映射均匀分成M×N块, 对每块均进行max pooling;
53)将同一建议窗口不同层级的卷积映射特征经过Roi pooling层串联融合起来,得到固定尺寸的输出。
3.根据权利要求1所述的一种基于深度多层特征融合学习的小麦麦蜘蛛检测方法,其特征在于,所述麦蜘蛛在图像中具***置的检测包括以下步骤:
61)输入是一张待检测小麦图像,将整张图片输入PRN的共享卷积网络进行特征提取;
62)用RPN生成建议窗口,生成300个建议窗口;
63)把建议窗口映射到Fast-rcnn网络的多层卷积feature map上,找到每个建议窗口在多层卷积层的映射;
64)将映射作为每个建议窗口的卷积特征分别输入到Roi pooling层得到固定的输出尺寸后串联融合,通过Roi pooling层使每个建议窗口生成固定尺寸的输出并输入全连接层;
65)输入全连接层后利用Softmax Loss网络输出层和Smooth L1 Loss网络输出层得到分类概率和边框回归。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710894737.6A CN107808116B (zh) | 2017-09-28 | 2017-09-28 | 一种基于深度多层特征融合学习的小麦麦蜘蛛检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710894737.6A CN107808116B (zh) | 2017-09-28 | 2017-09-28 | 一种基于深度多层特征融合学习的小麦麦蜘蛛检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107808116A CN107808116A (zh) | 2018-03-16 |
CN107808116B true CN107808116B (zh) | 2020-05-05 |
Family
ID=61591876
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710894737.6A Active CN107808116B (zh) | 2017-09-28 | 2017-09-28 | 一种基于深度多层特征融合学习的小麦麦蜘蛛检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107808116B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108921814A (zh) * | 2018-05-16 | 2018-11-30 | 华南农业大学 | 一种基于深度学习的柑橘黄龙病在线快速检测***及方法 |
CN109145770B (zh) * | 2018-08-01 | 2022-07-15 | 中国科学院合肥物质科学研究院 | 一种基于多尺度特征融合网络与定位模型相结合的麦蜘蛛自动计数方法 |
CN111104832B (zh) * | 2018-10-29 | 2023-05-26 | 百度在线网络技术(北京)有限公司 | 图像标签获取方法、图像标签获取装置以及电子设备 |
CN109767423B (zh) * | 2018-12-11 | 2019-12-10 | 西南交通大学 | 一种沥青路面图像的裂缝检测方法 |
CN110335270B (zh) * | 2019-07-09 | 2022-09-13 | 华北电力大学(保定) | 基于层级区域特征融合学习的输电线路缺陷检测方法 |
CN111612797B (zh) * | 2020-03-03 | 2021-05-25 | 江苏大学 | 一种水稻图像信息处理*** |
CN111930988A (zh) * | 2020-08-12 | 2020-11-13 | 柳丰 | 一种利用计算机图像识别技术快速鉴定蜘蛛种类的方法 |
CN114743023B (zh) * | 2022-06-14 | 2022-08-26 | 安徽大学 | 一种基于RetinaNet模型的麦蜘蛛图像检测方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106504233A (zh) * | 2016-10-18 | 2017-03-15 | 国网山东省电力公司电力科学研究院 | 基于Faster R‑CNN的无人机巡检图像电力小部件识别方法及*** |
CN106599939A (zh) * | 2016-12-30 | 2017-04-26 | 深圳市唯特视科技有限公司 | 一种基于区域卷积神经网络的实时目标检测方法 |
CN106919978A (zh) * | 2017-01-18 | 2017-07-04 | 西南交通大学 | 一种高铁接触网支撑装置零部件识别检测方法 |
CN107016405A (zh) * | 2017-02-24 | 2017-08-04 | 中国科学院合肥物质科学研究院 | 一种基于分级预测卷积神经网络的害虫图像分类方法 |
CN107169421A (zh) * | 2017-04-20 | 2017-09-15 | 华南理工大学 | 一种基于深度卷积神经网络的汽车驾驶场景目标检测方法 |
-
2017
- 2017-09-28 CN CN201710894737.6A patent/CN107808116B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106504233A (zh) * | 2016-10-18 | 2017-03-15 | 国网山东省电力公司电力科学研究院 | 基于Faster R‑CNN的无人机巡检图像电力小部件识别方法及*** |
CN106599939A (zh) * | 2016-12-30 | 2017-04-26 | 深圳市唯特视科技有限公司 | 一种基于区域卷积神经网络的实时目标检测方法 |
CN106919978A (zh) * | 2017-01-18 | 2017-07-04 | 西南交通大学 | 一种高铁接触网支撑装置零部件识别检测方法 |
CN107016405A (zh) * | 2017-02-24 | 2017-08-04 | 中国科学院合肥物质科学研究院 | 一种基于分级预测卷积神经网络的害虫图像分类方法 |
CN107169421A (zh) * | 2017-04-20 | 2017-09-15 | 华南理工大学 | 一种基于深度卷积神经网络的汽车驾驶场景目标检测方法 |
Non-Patent Citations (1)
Title |
---|
Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks;Shaoqing Ren 等;《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》;20170630;第1139-1141页 * |
Also Published As
Publication number | Publication date |
---|---|
CN107808116A (zh) | 2018-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107808116B (zh) | 一种基于深度多层特征融合学习的小麦麦蜘蛛检测方法 | |
CN108399362B (zh) | 一种快速行人检测方法及装置 | |
Dai et al. | Curriculum model adaptation with synthetic and real data for semantic foggy scene understanding | |
CN112380952B (zh) | 基于人工智能的电力设备红外图像实时检测及识别方法 | |
CN110046631B (zh) | 用于自动推断时空图像的变化的***和方法 | |
CN110096994B (zh) | 一种基于模糊标签语义先验的小样本PolSAR图像分类方法 | |
CN112395957B (zh) | 一种针对视频目标检测的在线学习方法 | |
Wang et al. | YOLOv3‐Litchi Detection Method of Densely Distributed Litchi in Large Vision Scenes | |
CN112183788A (zh) | 一种域自适应设备运检***和方法 | |
CN114241511B (zh) | 一种弱监督行人检测方法、***、介质、设备及处理终端 | |
CN113609889B (zh) | 基于敏感特征聚焦感知的高分辨遥感影像植被提取方法 | |
CN112801158A (zh) | 基于级联融合和注意力机制的深度学习小目标检测方法及装置 | |
WO2022082848A1 (zh) | 高光谱图像分类方法及相关设备 | |
CN112560619B (zh) | 一种基于多聚焦图像融合的多距离鸟类精准识别方法 | |
CN112149476B (zh) | 目标检测方法、装置、设备和存储介质 | |
CN112069985A (zh) | 基于深度学习的高分辨率大田图像稻穗检测与计数方法 | |
Jiang et al. | Intelligent image semantic segmentation: a review through deep learning techniques for remote sensing image analysis | |
CN113688830B (zh) | 基于中心点回归的深度学习目标检测方法 | |
CN115761529B (zh) | 图像处理方法和电子设备 | |
CN107516061B (zh) | 一种影像分类方法和*** | |
CN115661777A (zh) | 一种联合语义的雾天道路目标检测算法 | |
Gu et al. | Thermal image colorization using Markov decision processes | |
CN110399868B (zh) | 一种滨海湿地鸟类检测方法 | |
Zhang et al. | A multi-species pest recognition and counting method based on a density map in the greenhouse | |
CN113609904A (zh) | 一种基于动态全局信息建模和孪生网络的单目标跟踪算法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |