CN111738206B - 基于CenterNet的用于无人机巡检的挖掘机检测方法 - Google Patents

基于CenterNet的用于无人机巡检的挖掘机检测方法 Download PDF

Info

Publication number
CN111738206B
CN111738206B CN202010653600.3A CN202010653600A CN111738206B CN 111738206 B CN111738206 B CN 111738206B CN 202010653600 A CN202010653600 A CN 202010653600A CN 111738206 B CN111738206 B CN 111738206B
Authority
CN
China
Prior art keywords
excavator
detection
centernet
bucket
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010653600.3A
Other languages
English (en)
Other versions
CN111738206A (zh
Inventor
滕卫明
钱伟斌
钱济人
丁楠
杨秦敏
范海东
李清毅
陈积明
于晋
周君良
吴昀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Energy Group Co ltd
Zhejiang Provincial Natural Gas Development Co ltd
Zhejiang University ZJU
Original Assignee
Zhejiang Energy Group Co ltd
Zhejiang Zheneng Natural Gas Operation Co ltd
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Energy Group Co ltd, Zhejiang Zheneng Natural Gas Operation Co ltd, Zhejiang University ZJU filed Critical Zhejiang Energy Group Co ltd
Priority to CN202010653600.3A priority Critical patent/CN111738206B/zh
Publication of CN111738206A publication Critical patent/CN111738206A/zh
Application granted granted Critical
Publication of CN111738206B publication Critical patent/CN111738206B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及基于CenterNet的用于无人机巡检的挖掘机检测方法,包括以下步骤:S1、训练数据集的建立;S2、CenterNet的训练;S3、挖掘机检测。本发明为挖掘机的车身和铲斗设计了空间注意力机制,并在传统目标检测数据集的格式上新增相应的标注;结合标注热力图对空间注意力机制进行训练,使其分别聚焦于车身和铲斗,实现对输入图像中空间位置的重要性的建模;充分利用挖掘机的视觉特性,通过使网络聚焦于目标的重要区域,减少无关背景对检测结果的影响,进而提升检测性能。

Description

基于CenterNet的用于无人机巡检的挖掘机检测方法
技术领域
本发明属于目标检测技术领域,具体涉及基于CenterNet的用于无人机巡检的挖掘机检测方法。
背景技术
近年来,挖掘机施工作业引起的管道事故时有发生。如何高效地检测管道网络附近的挖掘机在改善管道风险管理中起着重要的作用。
现有挖掘机检测方法主要是利用无人机在高空对管网进行航拍,对挖掘机进行定期或随机流动性的检测,以便能够及时发现挖掘机的施工。其中,具体的挖掘机检测原理为:通过航拍获取带有挖掘机目标对象的图片制作成数据集,对数据集利用卷积神经网络的相关算法达到挖掘机检测的效果。例如,申请号为201811351933.X的专利文献公开了基于深度学习用于高空巡检下的挖掘机检测方法,引入深度神经网络进行目标预测,适用于较大规模的数据训练,通过原始图像的输入,获取图像特征,通过训练得到的模型能准确地对视野范围内的目标挖掘机进行精准的识别。
然而,面对复杂的航拍环境,且航拍图像中挖掘机的尺寸较小,复杂的图像背景对挖掘机的识别存在一定的影响,导致难以高效准确地检测识别出挖掘机的存在。
发明内容
针对现有技术中存在的上述不足之处,本发明提供基于CenterNet的用于无人机巡检的挖掘机检测方法。
为了达到上述发明目的,本发明采用以下技术方案:
基于CenterNet的用于无人机巡检的挖掘机检测方法,包括以下步骤:
S1、训练数据集的建立;
收集具有挖掘机的历史图像,对历史图像中的目标进行标注,建立训练数据集;其中,历史图像中的目标包括挖掘机以及挖掘机的车身和铲斗;
S2、CenterNet的训练;
将训练数据集输入CenterNet,提取feature map,接着对feature map进行卷积以获取车身和铲斗的热力图预测,然后分别进行全局最大池化和全局平均池化处理,再进行维度拼接、卷积和sigmoid激活层后,获取空间注意力特征图,最后将空间注意力特征图与feature map相乘后再进行卷积得到网络输出,并结合目标标注计算损失函数,通过反向传播算法最小化损失函数以优化网络参数;
S3、挖掘机检测;
通过无人机采集航拍图像,对航拍图像进行图像分块得到数个图像区块,各图像区块分别输入训练后的CenterNet进行挖掘机检测。
作为优选方案,所述步骤S2中,CenterNet的训练过程中,根据训练数据集中真实的目标标注生成标签图,具体通过
Figure GDA0002725629520000021
将历史图像中的目标中心关键点(px,py)映射到下采样后的标签图的
Figure GDA0002725629520000022
上,采用高斯核
Figure GDA0002725629520000023
将关键点分布到尺寸为x×y的c通道特征图上,c代表目标类别,R为下采样因子,σp为与目标大小相关的标准差,x和y为高斯核函数中的坐标值;
CenterNet训练的损失函数包括中心关键点类别预测损失Lk、位置偏移损失Loff和目标宽高的损失Lsize,分别使用focal loss和L1 loss进行计算,得到:
Figure GDA0002725629520000024
Figure GDA0002725629520000025
Figure GDA0002725629520000026
其中,N表示关键点的个数,α和β为focal loss的超参数,
Figure GDA0002725629520000027
Figure GDA0002725629520000028
为预测的中心关键点、位置偏移和目标宽高,Yxyc
Figure GDA0002725629520000029
和sk为对应的真实值;
则最终的损失函数Ldet可表示为:
Ldet=LksizeLsizeoffLoff
将车身和铲斗的热力图预测与预先标注好的车身和铲斗的标签图计算损失函数Lbody和Lbucket
Figure GDA0002725629520000031
将Lbody和Lbucket与最终的损失函数Ldet进行联合优化,得到优化后的损失函数Ldet-all
Ldet-all=LksizeLsizeoffLoffbodyLbodybucketLbucket
其中,λsize、λoff、λbody、λbucket均为设定的权重超参数;
通过反向传播算法来最小化优化后的损失函数以优化网络参数,最后将优化后的损失函数Ldet-all替换为最终的损失函数Ldet
作为优选方案,所述步骤S1中,还对训练数据集进行数据增强操作。
作为优选方案,所述数据增强操作包括尺度变化和旋转。
作为优选方案,所述步骤S3中,各图像区块之间具有重叠区域。
作为优选方案,所述步骤S3,还包括:
将各图像区块输入训练后的CenterNet得到的检测结果进行整合,并通过非极大值抑制算法进行去重,得到航拍图像的挖掘机检测。
作为优选方案,所述非极大值抑制算法进行去重,包括以下步骤:
S31、将检测结果的所有检测框均标记为未处理;
S32、从未处理的检测框中选出置信度得分最高的检测框A,然后逐一计算其余各检测框B与检测框A的重叠度,重叠度采用交并比IoU表示:IoU(A,B)=(A∩B)/(A∪B);
S33、将IoU大于预设阈值的检测框删除,将A标记为已处理;
S34、判断是否有未处理的检测框;若是,则转至步骤S32;若否,则结束。
作为优选方案,所述步骤S3中,在检测到挖掘机后,执行报警操作。
本发明与现有技术相比,有益效果是:
(1)本发明为挖掘机的车身和铲斗设计了空间注意力机制,并在传统目标检测数据集的格式上新增相应的标注;结合标注热力图对空间注意力机制进行训练,使其分别聚焦于车身和铲斗,实现对输入图像中空间位置的重要性的建模;充分利用挖掘机的视觉特性,通过使网络聚焦于目标的重要区域,减少无关背景对检测结果的影响,进而提升检测性能。
(2)本发明采用基于非极大值抑制算法的图像分块检测方法,为神经网络保留了较大的分辨率输入,有利于提升检测性能。
(3)本发明采用的CenterNet不需要手动设定锚框,且实时性强,计算量小,节约计算资源,适用于无人机巡检的场景。
附图说明
图1是本发明实施例1的基于CenterNet的用于无人机巡检的挖掘机检测方法的流程图;
图2是本发明实施例1的挖掘机检测的流程图;
图3是本发明实施例1的CenterNet训练的流程图;
图4是本发明实施例1的航拍图像的图像分块示意图;
图5是本发明实施例1的航拍图像的图像分块检测示意图;
图6是本发明实施例1的非极大值抑制算法进行去重的流程图;
图7是本发明实施例1的非极大值抑制算法进行去重前后的挖掘机检测对比图。
具体实施方式
为了更清楚地说明本发明实施例,下面将对照附图说明本发明的具体实施方式。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图,并获得其他的实施方式。
实施例1:
如图1所示,本实施例的基于CenterNet的用于无人机巡检的挖掘机检测方法,包括以下步骤:
S1、训练数据集的建立;
收集具有挖掘机的历史图像,对历史图像中的目标进行标注,建立训练数据集;其中,历史图像中的目标包括挖掘机以及挖掘机的车身和铲斗;
具体地,历史图像为无人机巡检采集的历史航拍图像,将历史图像中的挖掘机手动标注出来,还将历史图像中的挖掘机的车身和铲斗分别标注出来,制作为训练数据集,从而实现训练数据集的建立。
S2、CenterNet的训练;
具体地,如图2所示,将训练数据集输入CenterNet,提取feature map,接着对feature map进行卷积以获取车身和铲斗的热力图预测,然后分别进行全局最大池化和全局平均池化处理,再进行维度拼接、卷积和sigmoid激活层后,获取空间注意力特征图,最后将空间注意力特征图与feature map相乘后再进行卷积得到网络输出,并结合目标标注计算损失函数,通过反向传播算法最小化损失函数以优化网络参数。
CenterNet是一种目标检测方法,具有不需要手动设定锚框(anchor box)、实时性强的特点,其舍弃传统的锚框思路,将目标检测问题变成了一个关键点估计问题,将图像传入全卷积网络,得到一个热力图,热力图峰值点即目标中心点,每个特征图的峰值点位置预测了目标的位置偏移和宽高信息。
在CenterNet的网络训练过程中,根据训练数据集中真实的目标标注生成标签图,标签图中每个点的范围是0~1,1代表目标的中心关键点。具体地,通过
Figure GDA0002725629520000051
将原始历史图像中的目标中心关键点(px,py)映射到下采样后的标签图的
Figure GDA0002725629520000052
上,采用高斯核
Figure GDA0002725629520000053
将关键点分布到尺寸为x×y的c通道特征图上。
其中,c代表目标类别,R为下采样因子,σp为与目标大小相关的标准差,x和y为高斯核函数中的坐标值;
CenterNet训练的损失函数分为三个部分,包括:中心关键点类别预测损失Lk、位置偏移损失Loff和目标宽高的损失Lsize,分别使用focal loss和L1 loss进行计算,得到:
Figure GDA0002725629520000054
Figure GDA0002725629520000055
Figure GDA0002725629520000056
其中,N表示关键点的个数,α和β为focal loss的超参数,
Figure GDA0002725629520000057
Figure GDA0002725629520000058
为预测的中心关键点、位置偏移和目标宽高,Yxyc
Figure GDA0002725629520000059
和sk为对应的真实值;
最终的损失函数为上述三项损失的加权和,则最终的损失函数Ldet可表示为:
Ldet=LksizeLsizeoffLoff
其中,λsize、λoff均为设定的权重超参数;
本实施例考虑到挖掘机主要由车身body和铲斗bucket组成这一视觉特性,基于空间注意力机制进行了CenterNet网络的改进,在上述最终的损失函数的基础之上,结合目标标注计算损失函数,具体包括:
对于神经网络backbone提取的feature map,分别使用两组卷积Conv layer进行车身和铲斗热力图预测Heatmap,并与预先标注好的车身和铲斗的标签图计算损失函数Lbody和Lbucket
Figure GDA0002725629520000061
其中,Lbody/bucket中的“/”的含义为“或”。
将Lbody和Lbucket与最终的损失函数Ldet进行联合优化,得到优化后的损失函数Ldet-all
Ldet-all=LksizeLsizeoffLoffbodyLbodybucketLbucket
其中,λsize、λoff、λbody、λbucket均为设定的权重超参数;
经过上述两组卷积后再经过基于通道的全局最大池化(global max pooling,即Maxpool)和全局平均池化(global average pooling,即AvgPool)处理,再进行通道方向的维度拼接(concatenate)、卷积(Conv layer)和sigmoid激活层后,获取空间注意力(spatial attention)特征图,与原feature map相乘,再经卷积(Conv layer)后得到网络输出,将网络输出结合目标标注计算得到优化后的损失函数Ldet-all,通过反向传播算法最小化优化后的损失函数以优化网络参数,最后将优化后的损失函数Ldet-all替换为最终的损失函数Ldet,得到训练后的CenterNet,以便进行后续的挖掘机检测。
S3、挖掘机检测;
具体地,如图3所示,通过无人机采集原始航拍图像,对航拍图像进行图像分块得到数个图像区块,各图像区块分别输入训练后的CenterNet进行挖掘机检测,并将各图像区块输入训练后的CenterNet得到的区块检测结果进行整合,并通过非极大值抑制算法NMS进行去重,得到最终检测结果,即航拍图像的挖掘机检测。
具体地,由于无人机可搭载的计算模块计算能力有限,因此需要将航拍的原始图像的分辨率降低后输入神经网络,才能实现实时的目标检测。然而,由于航拍时无人机离地面距离较远,挖掘机目标本身较小,因此降低分辨率会使得检测性能下降。为了提升最终的挖掘机检测效果,本实施例使用基于非极大值抑制算法(Non-Maximum Suppression,NMS)的图像分块检测方法。
对于原始的航拍图像,为了降低分辨率的损失,将其分为数个图像区块,分别输入CenterNet进行检测,并进行检测结果整合和基于NMS的去重。例如,如图4所示,将航拍图像分为四个图像区块,各图像区块之间具有少量的重叠区域,以避免分块后产生的漏检。各图像区块分别输入训练后的CenterNet进行挖掘机检测,检测结果如图5所示。
如图6所示,本实施例采用非极大值抑制算法进行去重,包括以下步骤:
S31、将检测结果的所有检测框均标记为未处理;
S32、从未处理的检测框中选出置信度得分最高的检测框A,然后逐一计算其余各检测框B与检测框A的重叠度,重叠度采用交并比IoU表示:IoU(A,B)=(A∩B)/(A∪B);
S33、将IoU大于预设阈值的检测框删除,将A标记为已处理;
S34、判断是否有未处理的检测框;若是,则转至步骤S32;若否,则结束。
经过NMS去重后,得到整幅航拍图像的挖掘机检测结果,如图7所示,左侧的图为去重前的挖掘机检测结果,右侧的图为去重前的挖掘机检测结果。
实施例2:
本实施例的基于CenterNet的用于无人机巡检的挖掘机检测方法与实施例1的不同之处在于:
在训练数据集制作完成后,还对训练数据集进行数据增强操作,数据增强操作包括尺度变化和旋转等操作,提升网络训练的效率。
其他步骤可以参考实施例1。
实施例3:
本实施例的基于CenterNet的用于无人机巡检的挖掘机检测方法与实施例1的不同之处在于:
在检测到挖掘机后,执行报警操作,以便巡检人员及时阻止挖掘机的施工。
其他步骤可以参考实施例1。
以上所述仅是对本发明的优选实施例及原理进行了详细说明,对本领域的普通技术人员而言,依据本发明提供的思想,在具体实施方式上会有改变之处,而这些改变也应视为本发明的保护范围。

Claims (7)

1.基于CenterNet的用于无人机巡检的挖掘机检测方法,其特征在于,包括以下步骤:
S1、训练数据集的建立;
收集具有挖掘机的历史图像,对历史图像中的目标进行标注,建立训练数据集;其中,历史图像中的目标包括挖掘机以及挖掘机的车身和铲斗;
S2、CenterNet的训练;
将训练数据集输入CenterNet,提取feature map,接着对feature map进行卷积以获取车身和铲斗的热力图预测,然后分别进行全局最大池化和全局平均池化处理,再进行维度拼接、卷积和sigmoid激活层后,获取空间注意力特征图,最后将空间注意力特征图与feature map相乘后再进行卷积得到网络输出,并结合目标标注计算损失函数,通过反向传播算法最小化损失函数以优化网络参数;
S3、挖掘机检测;
通过无人机采集航拍图像,对航拍图像进行图像分块得到数个图像区块,各图像区块分别输入训练后的CenterNet进行挖掘机检测;
所述步骤S2中,CenterNet的训练过程中,根据训练数据集中真实的目标标注生成标签图,具体通过
Figure FDA0002725629510000011
将历史图像中的目标中心关键点(px,py)映射到下采样后的标签图的
Figure FDA0002725629510000012
上,采用高斯核
Figure FDA0002725629510000013
将关键点分布到尺寸为x×y的c通道特征图上,c代表目标类别,R为下采样因子,σp为与目标大小相关的标准差,x和y为高斯核函数中的坐标值;
CenterNet训练的损失函数包括中心关键点类别预测损失Lk、位置偏移损失Loff和目标宽高的损失Lsize,分别使用focal loss和L1 loss进行计算,得到:
Figure FDA0002725629510000014
Figure FDA0002725629510000015
Figure FDA0002725629510000016
其中,N表示关键点的个数,α和β为focal loss的超参数,
Figure FDA0002725629510000017
Figure FDA0002725629510000018
为预测的中心关键点、位置偏移和目标宽高,Yxyc
Figure FDA0002725629510000021
和sk为对应的真实值;
则最终的损失函数Ldet可表示为:
Ldet=LksizeLsizeoffLoff
将车身和铲斗的热力图预测与预先标注好的车身和铲斗的标签图计算损失函数Lbody和Lbucket
Figure FDA0002725629510000022
将Lbody和Lbucket与最终的损失函数Ldet进行联合优化,得到优化后的损失函数Ldet-all
Ldet-all=LksizeLsizeoffLoffbodyLbodybucketLbucket
其中,λsize、λoff、λbody、λbucket均为设定的权重超参数;
通过反向传播算法来最小化优化后的损失函数以优化网络参数,最后将优化后的损失函数Ldet-all替换为最终的损失函数Ldet
2.根据权利要求1所述的基于CenterNet的用于无人机巡检的挖掘机检测方法,其特征在于,所述步骤S1中,还对训练数据集进行数据增强操作。
3.根据权利要求2所述的基于CenterNet的用于无人机巡检的挖掘机检测方法,其特征在于,所述数据增强操作包括尺度变化和旋转。
4.根据权利要求1所述的基于CenterNet的用于无人机巡检的挖掘机检测方法,其特征在于,所述步骤S3中,各图像区块之间具有重叠区域。
5.根据权利要求4所述的基于CenterNet的用于无人机巡检的挖掘机检测方法,其特征在于,所述步骤S3,还包括:
将各图像区块输入训练后的CenterNet得到的检测结果进行整合,并通过非极大值抑制算法进行去重,得到航拍图像的挖掘机检测。
6.根据权利要求5所述的基于CenterNet的用于无人机巡检的挖掘机检测方法,其特征在于,所述非极大值抑制算法进行去重,包括以下步骤:
S31、将检测结果的所有检测框均标记为未处理;
S32、从未处理的检测框中选出置信度得分最高的检测框A,然后逐一计算其余各检测框B与检测框A的重叠度,重叠度采用交并比IoU表示:IoU(A,B)=(A∩B)/(A∪B);
S33、将IoU大于预设阈值的检测框删除,将A标记为已处理;
S34、判断是否有未处理的检测框;若是,则转至步骤S32;若否,则结束。
7.根据权利要求1所述的基于CenterNet的用于无人机巡检的挖掘机检测方法,其特征在于,所述步骤S3中,在检测到挖掘机后,执行报警操作。
CN202010653600.3A 2020-07-08 2020-07-08 基于CenterNet的用于无人机巡检的挖掘机检测方法 Active CN111738206B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010653600.3A CN111738206B (zh) 2020-07-08 2020-07-08 基于CenterNet的用于无人机巡检的挖掘机检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010653600.3A CN111738206B (zh) 2020-07-08 2020-07-08 基于CenterNet的用于无人机巡检的挖掘机检测方法

Publications (2)

Publication Number Publication Date
CN111738206A CN111738206A (zh) 2020-10-02
CN111738206B true CN111738206B (zh) 2020-11-17

Family

ID=72655779

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010653600.3A Active CN111738206B (zh) 2020-07-08 2020-07-08 基于CenterNet的用于无人机巡检的挖掘机检测方法

Country Status (1)

Country Link
CN (1) CN111738206B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112257609B (zh) * 2020-10-23 2022-11-04 重庆邮电大学 一种基于自适应关键点热图的车辆检测方法及装置
CN112364734B (zh) * 2020-10-30 2023-02-21 福州大学 基于yolov4和CenterNet的异常着装检测方法
CN112465854A (zh) * 2020-12-17 2021-03-09 北京三川未维科技有限公司 基于无锚点检测算法的无人机跟踪方法
CN112861608A (zh) * 2020-12-30 2021-05-28 浙江万里学院 一种分心驾驶行为的检测方法及***
CN113867415A (zh) * 2021-12-03 2021-12-31 重庆华悦生态环境工程研究院有限公司深圳分公司 水务***设备监管方法、装置、设备及存储介质
CN114494812B (zh) * 2022-02-16 2024-07-16 湖南大学 一种基于改进CenterNet的图像小目标检测方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110738211A (zh) * 2019-10-17 2020-01-31 腾讯科技(深圳)有限公司 一种对象检测的方法、相关装置以及设备
US10600204B1 (en) * 2016-12-28 2020-03-24 Ocuvera Medical environment bedsore detection and prevention system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10600204B1 (en) * 2016-12-28 2020-03-24 Ocuvera Medical environment bedsore detection and prevention system
CN110738211A (zh) * 2019-10-17 2020-01-31 腾讯科技(深圳)有限公司 一种对象检测的方法、相关装置以及设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CBAM: Convolutional Block Attention Module;Sanghyun Woo等;《arXiv数据库》;20180718;第1-17页 *
Objects as Points;Xingyi Zhou等;《arXiv数据库》;20190425;第1-12页 *

Also Published As

Publication number Publication date
CN111738206A (zh) 2020-10-02

Similar Documents

Publication Publication Date Title
CN111738206B (zh) 基于CenterNet的用于无人机巡检的挖掘机检测方法
CN110569901B (zh) 一种基于通道选择的对抗消除弱监督目标检测方法
CN111145174B (zh) 基于图像语义特征进行点云筛选的3d目标检测方法
CN112270249A (zh) 一种融合rgb-d视觉特征的目标位姿估计方法
WO2020047420A1 (en) Method and system for facilitating recognition of vehicle parts based on a neural network
JP6846069B2 (ja) 遠距離検出または軍事目的のために、イメージコンカチネーションを利用したcnn基盤のハードウェア最適化が可能な物体検出器を学習する方法及び学習装置、それを利用したテスト方法及びテスト装置{learning method and learning device for object detector with hardware optimization based on cnn for detection at distance or military purpose using image concatenation, and testing method and testing device using the same}
CN112287832A (zh) 一种基于高分辨率遥感影像的城镇违法建筑物检测方法
CN111507222B (zh) 一种基于多源数据知识迁移的三维物体检测框架
Garfo et al. Defect detection on 3d print products and in concrete structures using image processing and convolution neural network
CN111753682B (zh) 一种基于目标检测算法的吊装区域动态监控方法
CN111723693A (zh) 一种基于小样本学习的人群计数方法
CN114863097A (zh) 一种基于注意力机制卷积神经网络的红外弱小目标检测方法
CN111462140B (zh) 一种基于区块拼接的实时图像实例分割方法
CN111079604A (zh) 面向大尺度遥感图像的微小目标快速检测方法
JP2017033197A (ja) 変化領域検出装置、方法、及びプログラム
CN116783620A (zh) 根据点云的高效三维对象检测
CN115439458A (zh) 基于深度图注意力的工业图像缺陷目标检测算法
CN111259710B (zh) 采用停车位框线、端点的停车位结构检测模型训练方法
Fang et al. Sewer defect instance segmentation, localization, and 3D reconstruction for sewer floating capsule robots
CN113160117A (zh) 一种自动驾驶场景下的三维点云目标检测方法
CN117237884A (zh) 一种基于泊位定位的互动式巡检机器人
CN112509014B (zh) 金字塔遮挡检测块匹配的鲁棒插值光流计算方法
CN113537017A (zh) 基于级联型回归修正的光学遥感图像飞机检测方法和装置
CN116824330A (zh) 一种基于深度学习的小样本跨域目标检测方法
Liu et al. Global-local attention mechanism based small object detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20231227

Address after: No. 1751 Binsheng Road, Binjiang District, Hangzhou City, Zhejiang Province, 310000

Patentee after: Zhejiang Provincial Natural Gas Development Co.,Ltd.

Patentee after: ZHEJIANG ENERGY GROUP CO.,LTD.

Patentee after: ZHEJIANG University

Address before: Zheneng second building, 1751 Binsheng Road, Binjiang District, Hangzhou City, Zhejiang Province 310052

Patentee before: ZHEJIANG ZHENENG NATURAL GAS OPERATION CO.,LTD.

Patentee before: ZHEJIANG ENERGY GROUP CO.,LTD.

Patentee before: ZHEJIANG University