CN113837086A - 一种基于深度卷积神经网络的水库钓鱼人检测方法 - Google Patents

一种基于深度卷积神经网络的水库钓鱼人检测方法 Download PDF

Info

Publication number
CN113837086A
CN113837086A CN202111121039.5A CN202111121039A CN113837086A CN 113837086 A CN113837086 A CN 113837086A CN 202111121039 A CN202111121039 A CN 202111121039A CN 113837086 A CN113837086 A CN 113837086A
Authority
CN
China
Prior art keywords
target
candidate
frame
image
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111121039.5A
Other languages
English (en)
Inventor
邵叶秦
宋锦伟
杨启硕
吕昌
施佺
孙昌俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nantong University
Original Assignee
Nantong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nantong University filed Critical Nantong University
Priority to CN202111121039.5A priority Critical patent/CN113837086A/zh
Publication of CN113837086A publication Critical patent/CN113837086A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度卷积神经网络的水库钓鱼人检测方法,图像作为全卷积神经网络的输入,利用网络对图像进行特征提取,不同的卷积作为滤波器提取图像的不同特征;将得到的特征图像作为检测模块的输入,提取候选边框,最终得到候选框的类别概率和预测目标位置;再对候选框采用非极大值抑制的方法进行过滤,最终得到检测结果。本发明利用深度神经网络进行水库钓鱼人检测,介绍了水库钓鱼人检测的算法以及实验参数和结果。实验证明,该发明在不同场景(光照)下能准确的检测出水库钓鱼人。

Description

一种基于深度卷积神经网络的水库钓鱼人检测方法
技术领域
本发明属于目标检测领域,具体涉及一种基于深度卷积神经网络的水库钓鱼人检测方法。
背景技术
水库钓鱼人检测大多基于计算机视觉的算法,使用目标的形状等底层特征进行目标检测,或者基于不同范围的阈值灰度图像区别目标和背景等算法。这些算法的共性是需要人为设计特征进行目标判断,由于人为设计所以存在主观性,并不能适用于所有的目标检测场景。
近年来发展起来的深度检测算法,例如区域卷积神经网络(Regions withConvolutional Network,RCNN)生成候选区域,再利用分类器识别候选区域,最后去除冗余候选框得到目标。快速区域卷积神经网络(Fast Regions with Convolutional Network,Fast RCNN)[45]先提取图像的特征图,然后生成候选区域作为全连接层的输入,最后输出目标的位置和类别。Faster RCNN是利用神经网络提取方式代替Fast RCNN中提取候选区域部分。SSD(Single Shot MultiBox Detector)可以在不同的层级特征图下进行检测。
发明内容
发明目的:为了解决现有技术的不足,本发明提供了一种基于深度卷积神经网络的水库钓鱼人检测方法。
技术方案:一种基于深度卷积神经网络的水库钓鱼人检测方法,图像作为全卷积神经网络的输入,利用网络对图像进行特征提取,不同的卷积作为滤波器提取图像的不同特征;将得到的特征图像作为检测模块的输入,提取候选边框,最终得到候选框的类别概率和目标预测位置;再对候选框采用NMS(非极大值抑制)的方法进行过滤,最终得到检测结果。
作为优化:采用深度神经网络对图像进行目标检测,首先在图像上划分S×S个网格,如果待测目标的中心落入该网格,该网格就负责检测出这个目标;
每一个网格都会预测B个候选框,每个候选框会附带一个置信度,这个置信度代表这个候选框检测到目标的置信度以及这个候选框预测的准确度;置信度如公式(1)所示:
Figure BDA0003277167050000021
式(1)中,
Figure BDA0003277167050000022
为预测框与任意实际边界框之间的交集,Pr(Object)为预测类别概率;
如果网格中不存在目标,则置信度为0,否则为1;每个候选框都会包含5个预测值:x,y,w,h和置信度;(x,y)坐标表示边界框的中心相对于网格单元边界的值,而宽度(w)和高度(h)则是相对于整张图像来预测的;每个网格还要预测类别概率Pr(Object),存在类别概率的前提是存在目标,即置信度不为0的情况,
Figure BDA0003277167050000023
代表预测框与任意实际边界框之间的交集;网络最后选取IOU最大的N个候选区域进行非极大值抑制(NMS);
非极大值抑制(NMS)指抑制不是极大值的元素,在某个局部邻域内存在两个可变参数:邻域的维数和邻域的大小;以目标检测为例,图像上有无数个候选框,每个框可能代表某种目标;但是这些框会有重叠的部分,所以需要NMS去除概率较低的框,保留最优的结果;假设有N个框,每个框被分类器计算并得到分数为Si(1≤i≤N),首先创建包含所有待处理的候选框集合H,再创建一个存放最优框的空集M;接着对H内的所有框根据得分进行排序,选出分数最高的框m,并存放到M;然后再遍历H内的所有候选框,与框m交叉对比,如果高于设定的阈值则认为与m重叠,则从H内去除;最后经过不断的迭代,直到H集合为空,M集合中保留的候选框为最终的检测目标框;IOU的阈值是可优化的参数,可通过交叉验证法选取最优的参数。
作为优化:目标检测模型的损失函数定义如下:
Loss=C+S+P (2)
式(2)中,公式主要分为三个部分:C为类别预测的概率、S为目标的预测位置概率、P为置信度的损失;
损失函数通过BP算法不断更新模型,使loss值不断地减少;其中,类别预测的概率公式如下所示:
Figure BDA0003277167050000031
式(3)中,Pr(classi|Object)是对物体类别的预测,pi(c)是预测目标的置信度,
Figure BDA0003277167050000032
是实际目标的置信度;
每个网格只对一个目标进行预测,需要计算该类别预测的损失,采用概率分布平方差计算方式;首先需要验证网格i内是否包含目标,其次计算预测值和真实值的平方差;
计算预测目标位置的损失函数:
Figure BDA0003277167050000033
式(4)中,xi和yi为预测目标的x轴和y轴坐标,
Figure BDA0003277167050000034
Figure BDA0003277167050000035
为实际目标的坐标。wi和hi为预测目标的宽度和高度,
Figure BDA0003277167050000036
Figure BDA0003277167050000037
为实际目标的宽度和高度;
预测目标位置的损失函数有两个部分:计算坐标中心的平方差和高度、宽度的平方差之和。预测置信度的损失函数如下计算:
Figure BDA0003277167050000041
式(5)中,Ci为预测目标的类别,
Figure BDA0003277167050000042
为实际目标的类别,λnoobj和λcoord是平衡loss的比重进行设定的权重,obj指存在目标,noobj指不存在目标;
最后,每个网格会得到5个预测值和1个类别信息,所以输入网格的尺度如式(6)所示:
S*S*(5*B+1) (6)。
对于长时间(30分钟以上)出现在同一位置的同一个人,作为疑似钓鱼人,给出预警。
有益效果:本发明主要使用深度神经网络进行水库钓鱼人检测,首先介绍了水库钓鱼人检测的算法、检测框架和训练方法,然后介绍了水库钓鱼人检测相关实验的参数和结果。该发明使用一个端到端的模型,主要通过深度神经网络进行特征提取,使用网络提取候选边框,最后通过NMS进行过滤。实验证明,该发明在不同场景(光照)下能准确的检测出水库钓鱼人。
附图说明
图1是本发明的算法检测流程图;
图2是本发明的算法原理图;
图3是本发明的水库钓鱼人检测结果示意图。
具体实施方式
下面将对本发明实施例中的技术方案进行清楚、完整地描述,以使本领域的技术人员能够更好的理解本发明的优点和特征,从而对本发明的保护范围做出更为清楚的界定。本发明所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例
本发明经过研究深度神经网络算法,提出一个端到端的网络结构,将目标检测作为回归问题。通过在图像上划分网格,在网格上设置多个候选框,并且输出每个候选框的类别概率和目标候选位置。算法通过设置阈值去除了概率较低的候选框,将最高概率候选框作为最后的目标位置和最终判定类别。
1.深度神经网络算法
图像作为全卷积神经网络的输入,利用网络对图像进行特征提取,不同的卷积作为滤波器提取图像的不同特征。将得到的特征图像作为检测模块的输入,提取候选边框,最终得到候选框的类别概率和预测目标位置。再对候选框采用NMS(非极大值抑制)的方法进行过滤,最终得到检测结果。图1是本发明基于深度神经网络的目标检测流程图。
采用深度神经网络算法对图像进行目标检测。首先在图像上划分S×S个网格,如果待测目标的中心落入该网格,该网格就负责检测出这个目标。图2是本发明的算法原理图。
每一个网格都会预测B个候选框,每个候选框会附带一个置信度,这个置信度代表这个候选框检测到目标的置信度以及这个候选框预测的准确度。置信度如公式(1)所示:
Figure BDA0003277167050000051
式(1)中,
Figure BDA0003277167050000052
为预测框与任意实际边界框之间的交集,Pr(Object)为预测类别概率。
如果网格中不存在目标,则置信度为0,否则为1。每个候选框都会包含5个预测值:x,y,w,h和置信度。(x,y)坐标表示边界框的中心相对于网格单元边界的值,而宽度(w)和高度(h)则是相对于整张图像来预测的。每个网格还要预测类别概率Pr(Object),存在类别概率的前提是存在目标,即置信度不为0的情况,
Figure BDA0003277167050000061
代表预测框与任意实际边界框之间的交集。网络最后选取IOU最大的N个候选区域进行非极大值抑制(NMS)。
非极大值抑制(Non-Maximum Suppression,NMS)指抑制不是极大值的元素。在某个局部邻域内存在两个可变参数:邻域的维数和邻域的大小。以目标检测为例,图像上有无数个候选框,每个框可能代表某种目标。但是这些框会有重叠的部分,所以需要NMS去除概率较低的框,保留最优的结果。假设有N个框,每个框被分类器计算并得到分数为Si(1≤i≤N)。首先创建包含所有待处理的候选框集合H,再创建一个存放最优框的空集M。接着对H内的所有框根据得分进行排序,选出分数最高的框m,并存放到M。然后再遍历H内的所有候选框,与框m交叉对比,如果高于设定的阈值则认为与m重叠,则从H内去除。最后经过不断的迭代,直到H集合为空,M集合中保留的候选框为最终的检测目标框。IOU的阈值是可优化的参数,可通过交叉验证法选取最优的参数。
模型的训练和调整
目标检测模型的损失函数定义如下:
loss=C+S+P (2)
式(2)中,公式主要分为三个部分:C为类别预测的概率、S为目标的预测位置概率、P为置信度的损失。
损失函数通过BP算法不断更新模型,使loss值不断地减少。其中,类别预测的概率公式如下所示:
Figure BDA0003277167050000071
式(3)中,Pr(classi|Object)是对物体类别的预测,pi(c)是预测目标的置信度,
Figure BDA0003277167050000072
是实际目标的置信度。
每个网格只对一个目标进行预测,需要计算该类别预测的损失,采用概率分布平方差计算方式。首先需要验证网格i内是否包含目标,其次计算预测值和真实值的平方差。
计算预测目标位置的损失函数:
Figure BDA0003277167050000073
式(4)中,xi和yi为预测目标的x轴和y轴坐标,
Figure BDA0003277167050000074
Figure BDA0003277167050000075
为实际目标的坐标。wi和hi为预测目标的宽度和高度,
Figure BDA0003277167050000076
Figure BDA0003277167050000077
为实际目标的宽度和高度。
预测目标位置的损失函数有两个部分:计算坐标中心的平方差和高度、宽度的平方差之和。预测置信度的损失函数如下计算:
Figure BDA0003277167050000078
式(5)中,Ci为预测目标的类别,
Figure BDA0003277167050000079
为实际目标的类别。λnoobj和λcoord是平衡loss的比重进行设定的权重。obj指存在目标,noobj指不存在目标。
最后,每个网格会得到5个预测值和1个类别信息,所以输入网格的尺度如式(6)所示:
S*S*(5*B+1) (6)
对于长时间(30分钟以上)出现在同一位置的同一个人,作为疑似钓鱼人,给出预警。
2.实验结果和分析
2.1实验数据
数据集采用不同场景(光照)下的水库钓鱼人图像,该数据集包含1000张图像。其中700张作为训练集训练模型,300张作为测试集进行验证,比例为7:3。训练时采用将60个样本作为处理单元,利用前向算法正则化更新参数。表1是模型的参数。
表1模型的参数
Figure BDA0003277167050000081
制作训练集时,选取不同场景下的水库钓鱼人,并用矩形框进行手工标注。标注信息采用PASCAL VOC数据集样式保存,其中包含水库钓鱼人目标的类别和边框信息。将数据进行归一化处理,设置在0~1之间的数值,以便快速处理不同尺度的图像。在模型的最后,是通过设定阈值得到最优结果,通过对阈值进行相关调整,最终阈值为0.5。
3.2实验结果
本实验使用深度神经网络完成了在自然状态下的水库钓鱼人检测任务。本发明对不同场景(光照)下的水库钓鱼人均能准确检测到。
本实验选取不同情况下的水库钓鱼人进行检测。在相同的数据集上,对图片亮度进行实验,分别设置为光照较亮(目标清晰可见)和光照较暗(目标模糊)。表2是水库钓鱼人检测的数据表示。
表2不同情况下的检测结果
Figure BDA0003277167050000082
由表2可知,光照较亮时的检测结果要比阴暗时的结果好,这是因为水库钓鱼人在光照较亮时的分辨率较高,网络可辨别的特征较多,而阴暗条件下的特征可辨率较低。实验表明,模型的精度较高、速度较快,在复杂的场景下鲁棒性更高。
本发明主要使用深度神经网络进行水库钓鱼人检测,首先介绍了水库钓鱼人检测的算法、检测框架和训练方法,然后介绍了水库钓鱼人检测相关实验的参数和结果。该发明使用一个端到端的模型,主要通过深度神经网络进行特征提取,使用网络提取候选边框,最后通过NMS进行过滤。经过实验证明,该发明在不同场景(光照)下能准确的检测出水库钓鱼人。

Claims (3)

1.一种基于深度卷积神经网络的水库钓鱼人检测方法,其特征在于:图像作为全卷积神经网络的输入,利用网络对图像进行特征提取,不同的卷积作为滤波器提取图像的不同特征;将得到的特征图像作为检测模块的输入,提取候选边框,最终得到候选框的类别概率和目标预测位置;再对候选框采用NMS(非极大值抑制)的方法进行过滤,最终得到检测结果。
2.根据权利要求1所述的基于深度卷积神经网络的水库钓鱼人检测方法,其特征在于:采用深度神经网络对图像进行目标检测,首先在图像上划分S×S个网格,如果待测目标的中心落入该网格,该网格就负责检测出这个目标;
每一个网格都会预测B个候选框,每个候选框会附带一个置信度,这个置信度代表这个候选框检测到目标的置信度以及这个候选框预测的准确度;置信度如公式(1)所示:
Figure FDA0003277167040000011
式(1)中,
Figure FDA0003277167040000012
为预测框与任意实际边界框之间的交集,Pr(Object)为预测类别概率;
如果网格中不存在目标,则置信度为0,否则为1;每个候选框都会包含5个预测值:x,y,w,h和置信度;(x,y)坐标表示边界框的中心相对于网格单元边界的值,而宽度(w)和高度(h)则是相对于整张图像来预测的;每个网格还要预测类别概率Pr(Object),存在类别概率的前提是存在目标,即置信度不为0的情况,
Figure FDA0003277167040000013
代表预测框与任意实际边界框之间的交集;网络最后选取IOU最大的N个候选区域进行非极大值抑制(NMS);
非极大值抑制(NMS)指抑制不是极大值的元素,在某个局部邻域内存在两个可变参数:邻域的维数和邻域的大小;以目标检测为例,图像上有无数个候选框,每个框可能代表某种目标;但是这些框会有重叠的部分,所以需要NMS去除概率较低的框,保留最优的结果;假设有N个框,每个框被分类器计算并得到分数为Si(1≤i≤N),首先创建包含所有待处理的候选框集合H,再创建一个存放最优框的空集M;接着对H内的所有框根据得分进行排序,选出分数最高的框m,并存放到M;然后再遍历H内的所有候选框,与框m交叉对比,如果高于设定的阈值则认为与m重叠,则从H内去除;最后经过不断的迭代,直到H集合为空,M集合中保留的候选框为最终的检测目标框;IOU的阈值是可优化的参数,可通过交叉验证法选取最优的参数。
3.根据权利要求1所述的基于深度卷积神经网络的水库钓鱼人检测方法,其特征在于:目标检测模型的损失函数定义如下:
loss=C+S+P (2)
式(2)中,公式主要分为三个部分:C为类别预测的概率、S为目标的预测位置概率、P为置信度的损失;
损失函数通过BP算法不断更新模型,使loss值不断地减少;其中,类别预测的概率公式如下所示:
Figure FDA0003277167040000021
式(3)中,Pr(classi|Object)是对物体类别的预测,pi(c)是预测目标的置信度,
Figure FDA0003277167040000022
是实际目标的置信度;
每个网格只对一个目标进行预测,需要计算该类别预测的损失,采用概率分布平方差计算方式;首先需要验证网格i内是否包含目标,其次计算预测值和真实值的平方差;
计算预测目标位置的损失函数:
Figure FDA0003277167040000031
式(4)中,xi和yi为预测目标的x轴和y轴坐标,
Figure FDA0003277167040000032
Figure FDA0003277167040000033
为实际目标的坐标。wi和hi为预测目标的宽度和高度,
Figure FDA0003277167040000034
Figure FDA0003277167040000035
为实际目标的宽度和高度;
预测目标位置的损失函数有两个部分:计算坐标中心的平方差和高度、宽度的平方差之和。预测置信度的损失函数如下计算:
Figure FDA0003277167040000036
式(5)中,Ci为预测目标的类别,
Figure FDA0003277167040000037
为实际目标的类别,λnoobj和λcoord是平衡loss的比重进行设定的权重,obj指存在目标,noobj指不存在目标;
最后,每个网格会得到5个预测值和1个类别信息,所以输入网格的尺度如式(6)所示:
S*S*(5*B+1) (6)
对于长时间(30分钟以上)出现在同一位置的同一个人,作为疑似钓鱼人,给出预警。
CN202111121039.5A 2021-09-24 2021-09-24 一种基于深度卷积神经网络的水库钓鱼人检测方法 Pending CN113837086A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111121039.5A CN113837086A (zh) 2021-09-24 2021-09-24 一种基于深度卷积神经网络的水库钓鱼人检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111121039.5A CN113837086A (zh) 2021-09-24 2021-09-24 一种基于深度卷积神经网络的水库钓鱼人检测方法

Publications (1)

Publication Number Publication Date
CN113837086A true CN113837086A (zh) 2021-12-24

Family

ID=78969746

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111121039.5A Pending CN113837086A (zh) 2021-09-24 2021-09-24 一种基于深度卷积神经网络的水库钓鱼人检测方法

Country Status (1)

Country Link
CN (1) CN113837086A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115565006A (zh) * 2022-06-28 2023-01-03 哈尔滨学院 一种智能图像处理方法、电子设备及存储介质
CN116452878A (zh) * 2023-04-20 2023-07-18 广东工业大学 一种基于深度学习算法与双目视觉的考勤方法及***
CN116863342A (zh) * 2023-09-04 2023-10-10 江西啄木蜂科技有限公司 一种基于大尺度遥感影像的松材线虫病死木提取方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109447033A (zh) * 2018-11-14 2019-03-08 北京信息科技大学 基于yolo的车辆前方障碍物检测方法
CN110458160A (zh) * 2019-07-09 2019-11-15 北京理工大学 一种基于深度压缩神经网络的无人艇水面目标识别算法
CN111062383A (zh) * 2019-11-04 2020-04-24 南通大学 一种基于图像的船舶检测深度神经网络算法
CN111275082A (zh) * 2020-01-14 2020-06-12 中国地质大学(武汉) 一种基于改进端到端神经网络的室内物体目标检测方法
WO2021077743A1 (zh) * 2019-10-25 2021-04-29 浪潮电子信息产业股份有限公司 一种图像目标检测方法、***、电子设备及存储介质
WO2021114031A1 (zh) * 2019-12-09 2021-06-17 深圳市大疆创新科技有限公司 一种目标检测方法和装置
CN113344852A (zh) * 2021-04-30 2021-09-03 苏州经贸职业技术学院 一种电力场景通用物品的目标检测方法、装置及存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109447033A (zh) * 2018-11-14 2019-03-08 北京信息科技大学 基于yolo的车辆前方障碍物检测方法
CN110458160A (zh) * 2019-07-09 2019-11-15 北京理工大学 一种基于深度压缩神经网络的无人艇水面目标识别算法
WO2021077743A1 (zh) * 2019-10-25 2021-04-29 浪潮电子信息产业股份有限公司 一种图像目标检测方法、***、电子设备及存储介质
CN111062383A (zh) * 2019-11-04 2020-04-24 南通大学 一种基于图像的船舶检测深度神经网络算法
WO2021114031A1 (zh) * 2019-12-09 2021-06-17 深圳市大疆创新科技有限公司 一种目标检测方法和装置
CN111275082A (zh) * 2020-01-14 2020-06-12 中国地质大学(武汉) 一种基于改进端到端神经网络的室内物体目标检测方法
CN113344852A (zh) * 2021-04-30 2021-09-03 苏州经贸职业技术学院 一种电力场景通用物品的目标检测方法、装置及存储介质

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115565006A (zh) * 2022-06-28 2023-01-03 哈尔滨学院 一种智能图像处理方法、电子设备及存储介质
CN115565006B (zh) * 2022-06-28 2023-08-11 哈尔滨学院 一种智能图像处理方法、电子设备及存储介质
CN116452878A (zh) * 2023-04-20 2023-07-18 广东工业大学 一种基于深度学习算法与双目视觉的考勤方法及***
CN116452878B (zh) * 2023-04-20 2024-02-02 广东工业大学 一种基于深度学习算法与双目视觉的考勤方法及***
CN116863342A (zh) * 2023-09-04 2023-10-10 江西啄木蜂科技有限公司 一种基于大尺度遥感影像的松材线虫病死木提取方法
CN116863342B (zh) * 2023-09-04 2023-11-21 江西啄木蜂科技有限公司 一种基于大尺度遥感影像的松材线虫病死木提取方法

Similar Documents

Publication Publication Date Title
CN113837086A (zh) 一种基于深度卷积神经网络的水库钓鱼人检测方法
CN110929578B (zh) 一种基于注意力机制的抗遮挡行人检测方法
CN109613002B (zh) 一种玻璃缺陷检测方法、装置和存储介质
KR102328731B1 (ko) 다중 카메라 혹은 서라운드 뷰 모니터링에 이용되기 위해, 타겟 객체 통합 네트워크 및 타겟 영역 예측 네트워크를 이용하여 핵심성과지표와 같은 사용자 요구 사항에 적응 가능한 cnn 기반 객체 검출기를 학습하는 방법 및 학습 장치, 그리고 이를 이용한 테스팅 방법 및 테스팅 장치
CN110263660A (zh) 一种自适应场景变化的交通目标检测识别方法
CN110533022B (zh) 一种目标检测方法、***、装置及存储介质
CN109272060B (zh) 一种基于改进的darknet神经网络进行目标检测的方法和***
CN113160062B (zh) 一种红外图像目标检测方法、装置、设备及存储介质
CN111126278A (zh) 针对少类别场景的目标检测模型优化与加速的方法
WO2021081808A1 (zh) 基于人工神经网络的物体检测的***及方法
CN111967394A (zh) 一种基于动静态网格融合策略的森林火灾烟雾根节点检测方法
CN112101090B (zh) 人体检测方法及装置
CN117690128B (zh) 胚胎细胞多核目标检测***、方法和计算机可读存储介质
CN112669301A (zh) 一种高铁底板脱漆故障检测方法
CN110400274B (zh) 一种车载红外行人检测用红外图像增强方法
CN113988222A (zh) 一种基于Faster-RCNN的森林火灾检测与识别方法
CN111666822A (zh) 一种基于深度学习的低空无人机目标检测方法及***
CN114494441B (zh) 基于深度学习的葡萄及其采摘点同步识别定位方法、装置
CN113420738B (zh) 自适应网络遥感图像分类方法、计算机设备及存储介质
CN111914766B (zh) 一种城市管理业务游商行为检测方法
CN114972956A (zh) 一种目标检测模型训练方法、装置、设备及存储介质
CN104182990B (zh) 一种实时序列图像运动目标区域获取方法
CN111797940A (zh) 一种基于海洋搜救的图像识别方法及相关装置
CN111062380A (zh) 一种基于rfcn算法改进的目标检测方法
CN112633065A (zh) 一种基于数据增强的人脸检测方法、***、存储介质及终端

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination