CN111461213B - 一种目标检测模型的训练方法、目标快速检测方法 - Google Patents

一种目标检测模型的训练方法、目标快速检测方法 Download PDF

Info

Publication number
CN111461213B
CN111461213B CN202010243802.0A CN202010243802A CN111461213B CN 111461213 B CN111461213 B CN 111461213B CN 202010243802 A CN202010243802 A CN 202010243802A CN 111461213 B CN111461213 B CN 111461213B
Authority
CN
China
Prior art keywords
target
feature
training
extraction unit
channel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010243802.0A
Other languages
English (en)
Other versions
CN111461213A (zh
Inventor
王岳环
杜雅丽
张津浦
戴开恒
耿铭良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huazhong University of Science and Technology
Original Assignee
Huazhong University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huazhong University of Science and Technology filed Critical Huazhong University of Science and Technology
Priority to CN202010243802.0A priority Critical patent/CN111461213B/zh
Publication of CN111461213A publication Critical patent/CN111461213A/zh
Application granted granted Critical
Publication of CN111461213B publication Critical patent/CN111461213B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种目标检测模型的训练方法、目标快速检测方法,该训练方法包括:在训练时添加目标区域特征增强层;利用特征提取单元对训练样本进行特征提取,对上一级特征提取单元输出的特征图取通道平均,得到通道数归一的第一特征值矩阵;遍历所述训练样本中的每一个像素点,生成第二特征值矩阵;将所述第一特征值矩阵与第二特征值矩阵元素值相乘得到第三特征值矩阵;将所述第三特征值矩阵与预置的调节函数相乘,然后与特征图的每一个通道特征矩阵做元素值加法,得到目标增强特征图并输入下一特征提取单元中;本发明使网络充分训练,平衡了网络深度和检测精度间的关系,增强了特征图的背景感知能力,检测精度高且计算较简单,易于硬件平台移植。

Description

一种目标检测模型的训练方法、目标快速检测方法
技术领域
本发明属于计算机视觉技术领域,更具体地,涉及一种目标检测模型的训练方法、目标快速检测方法。
背景技术
陆战场中,坦克是主要的作战工具,为了防止敌方袭击、伏击及保护我方重要人员设备等,对坦克等车辆进行检测警戒是非常有必要的。动平台检测识别设备的战场警戒可以实现全方位的侦察,更加智能化。目前,现有的传统检测算法计算复杂且难以适应复杂的战场环境,而一般的深度学***台上实现实时检测。
在复杂战场背景下动平台坦克检测识别存在以下难点:(1)关于坦克车辆的数据和图像比较少,深度学***台上达到实时或近实时。
因此,需要一种更加适合复杂战场环境下的目标检测方法来实现坦克车辆的快速检出,以解决上述难题。
发明内容
针对现有技术的至少一个缺陷或改进需求,本发明提供了一种目标检测模型的训练方法、目标快速检测方法,使用目标区域特征增强的方法使网络充分训练;设计半通道特征信息整合结构来增强特征值对目标和背景的区分性;并将低维特征图与高维特征图融合,进行不同尺度的检测,提高各个尺度的目标检测精度;平衡了网络深度和检测精度间的关系,将该方法应用于坦克车辆的检测,由此解决现有技术中坦克车辆检测算法应用到复杂战场背景下的动平台上存在一定局限性的问题。
为实现上述目的,按照本发明的第一个方面,提供了一种目标检测模型的训练方法,该目标检测模型包括特征提取网络和预测网络,所述特征提取网络中包括多级特征提取单元和目标区域特征增强层,且至少一组相邻的特征提取单元之间设有目标区域特征增强层,该训练方法包括:
输入标记的训练图像,经过特征提取单元得到输出特征图;
在目标区域特征增强层中,对上一级特征提取单元输出的特征图进行通道平均,得到通道数归一的第一特征值矩阵;
遍历所述训练样本中的每一个像素点,若像素点不在目标区域内,则为该像素点赋予第一特征值;若像素点在目标区域内且该目标大于预设的像素块大小,则为该像素点赋予第二特征值;若像素点在目标区域内且该目标小于等于预设的像素块大小,则为该像素点赋予第三特征值;生成训练样本对应的第二特征值矩阵;
将所述第一特征值矩阵与第二特征值矩阵元素值相乘后得到第三特征值矩阵;
将所述第三特征值矩阵与预置的调节函数相乘后与特征图的每一个通道特征矩阵的进行元素值加法,得到目标增强特征图,并将其输入下一特征提取单元中;
将特征提取单元输出的特征图进行特征融合后输入所述预测网络中预测出目标的类别和位置;将预测结果与真实数据进行对比并计算预测损失,基于所述预测损失调整目标检测模型的参数直至达到设定的训练次数或预测损失达到阈值。
优先的,上述训练方法,所述目标增强特征图计算方式为:
Figure GDA0004165657490000021
其中,E表示目标增强特征图;
Figure GDA0004165657490000031
表示目标区域特征增强层的输入特征图;α(t)表示调节函数;G表示第二特征值矩阵;C表示通道数;
目标增强特征图E中包含更多的目标信息,提高了网络对目标的定位能力。
优选的,上述训练方法,所述第二特征值矩阵具体为:
Figure GDA0004165657490000032
其中,(i,j)表示训练样本中的像素点的位置坐标。
优选的,上述训练方法,所述调节函数为:
Figure GDA0004165657490000033
其中,t表示训练迭代次数;max_epoch表示网络训练的最大迭代次数。
按照本发明的第二个方面,还提供了一种目标检测方法,包括:
获取待测图像并将其归一化为固定尺寸;
将归一化的待测图像输入训练后的目标检测模型中,由各级特征提取单元进行特征提取和半通道特征信息整合后输出不同尺度的特征图;所述半通道特征信息整合具体为:
第i-1个特征提取单元输出的特征图i-1经第i个特征提取单元处理后输出特征图i;
将所述特征图i平均分离为通道数与所述特征图i-1相等的两个子特征图;
将特征图i-1两倍下采样后与其中一个所述子特征图进行元素值相加,并将相加结果与另一个子特征图进行通道拼接后得到特征图i',将激活后的所述特征图i'作为第i个特征提取单元输出的特征图;其中,i=2~n,n表示目标检测模型中特征提取单元的级数;
对特征提取单元输出的特征图进行特征融合,基于融合后的特征图进行目标分类和目标位置回归,得到预测目标框及其对应的目标类别。
优选的,上述目标检测方法,所述目标检测模型的运算参数采用上述任一项所述的训练方法训练得到。
优先的,上述目标检测方法,所述半通道特征信息整合的计算方式为:
Figure GDA0004165657490000041
其中,F表示各种张量运算,Fout、Fcat、Fsample、Fsplit分别表示半通道特征信息整合计算、通道拼接运算、下采样运算和通道分离运算,A表示特征图i-1,f(A)表示特征图i。
优选的,上述目标检测方法,对特征提取单元输出的特征图进行特征融合具体包括:
对最后一级特征提取单元输出的特征图进行卷积后执行至少两次上采样,分别将每次上采样后得到的特征图与其他特征提取单元中的浅层特征图进行通道拼接,且上采样后的特征图的尺寸与对应拼接的所述浅层特征图的尺寸相等。
优选的,上述目标检测方法,对特征图进行目标分类和目标位置回归具体包括:
基于预先设置的锚框对特征图进行边界回归,得到基于所述锚框位置和大小的预测目标框的位置和置信度;所述锚框为利用Kmeans算法对若干训练样本中标记的真实目标框进行聚类得到。
优选的,上述目标检测方法,得到预测目标框及其对应的目标类别之后还包括:基于目标类别的分类概率对预测的目标框进行非极大值抑制,消除多余的目标框。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,能够取得下列有益效果:
(1)本发明提供的目标检测模型的训练方法、目标快速检测方法,使用目标区域特征增强的方法使网络充分训练,平衡了网络深度和检测精度间的关系,检测精度高且计算较简单,易于硬件平台移植。
(2)本发明提供的目标检测模型的训练方法、目标快速检测方法,采用半通道特征信息整合来增强特征值对目标和背景的区分性,防止网络过拟合的同时,增强了特征的背景感知能力,有利于小目标检测。
(3)本发明提供的目标检测模型的训练方法、目标快速检测方法,通过通道拼接将低维特征图与高维特征图融合,进行不同尺度的检测,提高各个尺度的目标检测精度,有利于不同尺度的目标检测。
附图说明
图1为本发明实施例公开的一种目标快速检测方法的流程示意图;
图2为本发明实施例公开的一种预测网络结构示意图,其中,线条①表示特征图的半通道特征信息整合计算,线条②表示特征图的通道拼接计算;
图3为本发明实例公开的一种目标区域特征增强层示意图;
图4为本发明实例公开的一种半通道特征信息整合结构示意图;
图5为引入锚框机制的目标边框预测示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
本发明提供了一种目标检测模型的训练方法,该目标检测模型包括特征提取网络和预测网络,特征提取网络中包括多级特征提取单元和目标区域特征增强层,且至少一组相邻的特征提取单元之间设有目标区域特征增强层,该训练方法包括:
输入标记的训练图像,经过特征提取单元得到输出特征图;
利用所述目标区域特征增强层对上一级特征提取单元输出的特征图进行通道平均,得到通道数归一的第一特征值矩阵;
遍历所述训练样本中的每一个像素点,若像素点不在目标区域内,则为该像素点赋予第一特征值;若像素点在目标区域内且该目标大于预设的像素块大小,则为该像素点赋予第二特征值;若像素点在目标区域内且该目标小于等于预设的像素块大小,则为该像素点赋予第三特征值;生成训练样本对应的第二特征值矩阵;
将所述第一特征值矩阵与第二特征值矩阵元素值相乘后得到第三特征值矩阵;
将所述第三特征值矩阵与预置的调节函数相乘,然后与特征图的每一个通道特征矩阵进行元素值加法,得到目标增强特征图并将其输入下一级特征提取单元中;
将特征提取单元输出的特征图进行特征融合后输入所述预测网络中,预测出目标的类别和位置;将预测结果与训练样本中标记的真实数据进行对比并计算预测损失,基于所述预测损失调整目标检测模型的参数直至达到设定的训练次数或预测损失达到阈值。
本发明使用目标区域特征增强的方法使网络充分训练,平衡了网络深度和检测精度间的关系,检测精度高且计算较简单,易于硬件平台移植。
本发明还提供了一种目标快速检测方法,该方法可应用采用常规训练方法训练后的目标检测模型,优选应用采用本发明提供的训练方法训练后的目标检测模型;具体的,该检测方法包括以下步骤:
获取待测图像并将其归一化为固定尺寸;
将归一化的待测图像输入训练后的目标检测模型中,由各特征提取单元进行特征提取和半通道特征信息整合后输出不同尺度的特征图;所述半通道特征信息整合具体为:
第i-1个特征提取单元输出的特征图i-1经第i个特征提取单元处理后输出特征图i;
将所述特征图i平均分离为通道数与所述特征图i-1相等的两个子特征图;
将特征图i-1两倍下采样后与其中一个所述子特征图进行元素值相加,并将相加结果与另一个子特征图进行通道拼接后得到特征图i',将激活后的所述特征图i'作为第i个特征提取单元输出的特征图;其中,i=2~n,n表示目标检测模型中特征提取单元的个数;
对特征提取单元输出的特征图进行特征融合,基于融合后的特征图进行目标分类和目标位置回归,得到预测目标框及其对应的目标类别。
本发明采用半通道特征信息整合来增强特征值对目标和背景的区分性,防止网络过拟合的同时,增强了特征的背景感知能力,有利于小目标检测。
下面结合实施例和附图对本发明提供的目标快速检测方法进行详细说明。
图1为本实施例公开的一种坦克车辆快速检测方法的流程示意图,参见图1所示,该方法中包括以下步骤:
(一)建立坦克车辆数据集,数据集图像中包含任意类别、大小和角度的坦克车辆;
本实施例中,数据集中的图像来源于Google浏览器中搜索到的各国军事演习的视频,以及无人机和高清相机拍摄;图像大小任意且包含不同类别、大小、角度的坦克车辆;然后使用label-master标记软件对每一张图像中的坦克车辆进行标记并保留相关文件,标签为真实目标框的左上角顶点的坐标、真实目标框的长度、宽度以及目标的类别,形成训练样本集。
本发明创建了坦克车辆数据集,为基于深度学习的检测算法在军事场景的应用提供了数据基础。
(二)对训练样本集中的真实目标框聚类,得到锚框尺寸;
本实施例中,根据预测网络文件中要求的数量,采用Kmeans算法在训练样本集上聚类出经常出现的几个真实目标框的尺寸,这些尺寸的框称为锚框,用于后续的检测过程。
(三)设置网络参数,使用目标区域特征增强方法对目标检测模型进行训练,得到权重参数文件;具体包括以下子步骤:
(1)首先设置目标检测模型的训练参数,并输入预训练结果作为卷积计算的初始计算参数;
其中,需要根据训练集图像数量设定每次参数更新需要的图像数量和训练的总迭代次数,设定学习率、学习率更新节点、阈值等参数,预训练一般在ImageNet2012数据集上进行。
(2)训练时在原始的网络结构中添加至少一个目标区域特征增强层,以提高网络训练参数对目标的定位能力;
图2为本实施例提供的一种目标检测模型的结构示意图,如图2所示,该目标检测模型包括特征提取网络和预测网络,其中,特征提取网络中包括五级特征提取单元,本实施例在第四、第五级特征提取单元之间设有目标区域特征增强层;本实施例中,以最大池化层为界划分不同的特征提取单元,将相邻两个池化层之间的卷积层及其后对该卷积层的输出进行下采样的池化层定义为一个特征提取单元;需要说明的是,目标区域特征增强层的个数和位置不作具体限制,可以设置在任意两个特征提取单元之间;优选的,在第i个(i>n/2)特征提取单元之后设置目标区域特征增强层,其中,n为特征提取单元的总数,i为整数;实验表明,在更高层级的特征提取单元增设目标区域特征增强层对网络检测精度的提高最为明显,更高层级的特征提取单元能从低级特征中提取到更复杂的特征,此位置区域得到的特征图包含较多语义信息,同时也保留了大部分的目标位置信息,所以在此位置添加辅助增强层,更利于目标的检测。
本实施例中,在预测网络进行第四次下采样,经过卷积核为3×3、1×1、3×3的第三个卷积层之后添加目标区域特征增强层,该目标区域特征增强层的结构如图3所示。
将上一级特征提取单元输出的H×W×C大小的特征图x进行通道平均,得到H×W×1的第一特征值矩阵,同时引入原图对应大小的bounding box特征值图,即第二特征值矩阵;该第二特征值矩阵具体为:
Figure GDA0004165657490000091
在第二特征值矩阵中,真实目标框小于等于30×30像素的区域内的特征值为1,真实目标框大于30×30像素区域内的特征值为0.5-1,其他区域的值为0;该第二特征值矩阵用于区分大目标和小目标,本实施例将大于30×30像素的目标作为大目标,反之作为小目标;当然,区分大小目标的像素块大小可以根据用户需求自行调整,而不局限于30×30像素,
将第一、第二特征值矩阵做元素值乘法得到第三特征值矩阵,该第三特征值矩阵乘以与训练迭代次数相关的调节函数α(t),然后与最初输入的特征图x的每一个通道特征矩阵做元素值加法,即为目标区域特征增强层输出的特征图E。
本实施例中,调节函数
Figure GDA0004165657490000092
其中,t是网络训练迭代次数,max_epoch表示网络训练的最大迭代次数;
所以,目标区域特征增强层的输出特征图的计算公式为:
Figure GDA0004165657490000093
其中,E表示目标增强特征图;
Figure GDA0004165657490000094
表示目标区域特征增强层的输入特征图;α(t)表示调节函数;G表示第二特征值矩阵;C表示通道数。
随着训练迭代次数t的增加,α(t)逐渐减小,特征辅助增强层对得到的特征值影响逐渐减小,最后一轮训练时,α(t)等于0,特征辅助增强层不参与训练。
(3)图像经过网络各层计算,预测出目标的类别和位置,将预测得到的结果与训练样本中标注的真实数据进行对比,通过损失函数具体量化预测值和真实数据的差值,对损失函数求导,反向传播更新计算参数,重复执行此步骤,直到损失函数达到阈值或达到设定的训练次数;
本实施例中,损失函数包括坐标损失、置信度损失和类别损失三部分,计算公式如下:
Figure GDA0004165657490000101
其中,S表示输入预测网络的特征图的大小;B表示每个对应的特征图网格预置的锚框数目;
Figure GDA0004165657490000102
和/>
Figure GDA0004165657490000103
为指示函数;
坐标损失中,λcoord=2-truthw×truthh,x,y,w,h分别表示预测目标框中心点的坐标,以及它的宽度和高度,truth表示标记的真实数据,b表示预测数据;
置信度损失中,
Figure GDA0004165657490000104
是真实目标框的置信度,Cij是预测目标框的置信度,λnoobj表示此特征值代表的网格区域不含物体时预测目标框的置信度的损失权重;
类别损失中,
Figure GDA0004165657490000105
表示真实的目标类别概率,p(c)ij表示预测的目标类别概率。
坐标损失主要优化预测值和目标框的大小;置信度损失主要优化置信度参数,同时缩减检测的目标量级;类别损失主要优化置信度和预测类别。
经过上述过程,获得网络训练的权重参数文件,目标检测模型训练完成,可以用于待测图像的检测。
(四)将任意尺寸的待检测图像归一化到416×416大小;
(五)将归一化后的待检测图像输入到训练后的目标检测模型中,利用训练得到的卷积核对待检测图像进行卷积操作、特征图下采样和半通道特征信息整合,输出经过计算的特征图,重复这些步骤,得到不同尺度的特征图;
图2中的线条①示出了在特征提取网络中执行半通道特征信息整合的位置示例,实质上是将前一个特征提取单元输出的特征图与后一个特征提取单元输出的特征图进行整合;本实施例以对第二、第三个特征提取单元输出的特征图进行整合为例进行说明,半通道特征信息整合具体包括以下步骤:
(1)待检测图像经过第二个特征提取单元进行卷积和最大池化运算得到大小为H×W×C的特征图A;其中,H、W分别表示特征图的高、宽,C表示特征图的通道数;
(2)特征图A作为半通道特征信息整合结构的输入,经过第三个特征提取单元进行卷积和一次最大池化运算得到大小为H/2×W/2×2C特征图f(A);根据通道数目将特征图f(A)平均分离为两个大小为H/2×W/2×C的特征图B、C;
(3)将输入特征图A两倍下采样,与特征图B做元素值加法,然后与特征图C进行通道拼接,重新得到大小为H/2×W/2×2C的特征图,最后使用RELU激活函数激活得到最终特征图,作为第三个特征提取单元输出的特征图;
(4)特征提取网络重复上述相关步骤,得到包含不同尺度的特征图。
其中,所描述的半通道特征信息整合结构如图4所示,其计算公式表达如下:
Figure GDA0004165657490000111
其中,F表示各种张量运算,Fout、Fcat、Fsample、Fsplit分别表示半通道特征信息整合计算、通道拼接运算、下采样运算和通道分离运算,A表示特征图i-1,f(A)表示特征图i。
(六)将特征提取网络的第五个特征提取单元输出的特征图进行上采样以增大分辨率,然后与浅层特征图通道拼接,得到的新的特征图通道数是两个特征图通道数和,包含更多空间特征信息;
图2中的线条②示出了在特征提取网络中进行特征图通道拼接的位置示例,如图2所示,本实施例对第五个特征提取单元输出的特征图进行了两次上采样,并分别将每次上采样后得到的特征图与其他特征提取单元中的浅层特征图进行通道拼接;需要注意的是,浅层特征图的尺寸必须与上采样后的特征图的尺寸相等才能进行拼接;
其中,经过第五个特征提取单元输出的特征图大小为H×W×C1,插值法上采样得到新的特征图的长、宽、通道数为2H×2W×C1,将其与第五级特征提取单元中的浅层卷积得到的特征图,长、宽、通道数分别为2H×2W×C2,进行通道数拼接,拼接得到的新特征图的大小为2H×2W×(C1+C2),特征值为特征矩阵的原值,通过通道的拼接增加了通道数。此结果作为预测网络的第一个输入。将第一次上采样的特征图再进行卷积和上采样计算,与第四级特征提取单元中的浅层特征图进行通道拼接,方法同上,得到的特征图作为预测网络的第二个输入。
(七)预测网络对通道拼接后得到的特征图进行逻辑回归目标分类,得到预测目标框及其对应的目标类别;
其中,对特征金字塔得到的特征图,根据检测类别数将分类与回归前的最后一次卷积的通道数设定成3×(5+类别数);假如检测类别数为3,则最后一次卷积的通道数为24;如图5所示,基于初始设置的锚框大小对特征图进行目标框回归,得到基于特征图网格坐标和预锚框大小的tx、ty、th、tw与置信度confidence;则可以计算出预测目标框的真实大小为:
bx=σ(tx)+Cx
by=σ(ty)+Cy
Figure GDA0004165657490000121
Figure GDA0004165657490000122
其中,所有参数都是相对此次检测使用的特征图尺寸,σ是logistic函数,Cx、Cy分别表示特征图网格中某一网格左上角的坐标;pw、ph是预设的锚框映射到特征图中的宽和高;tx表示预测框中心相对所在的特征图网格左上角水平方向的偏移量,ty表示竖直方向的偏移量;tw、th分别表示预测框相对pw、ph的缩放尺度;bx、by表示预测目标框中心在特征图网格上的坐标;bw、bh分别表示预测目标框映射到特征图中的宽高。
置信度confidence的计算方式如下:
Figure GDA0004165657490000131
其中,Pr(Object)是当前预测目标框内存在物体的概率,
Figure GDA0004165657490000132
表示预测目标框中有物体时,预测目标框与标记的真实目标框的重叠度IOU;
Figure GDA0004165657490000133
用逻辑回归函数计算出每一个预测目标框的属于每一个类别的概率:
Figure GDA0004165657490000134
其中,x是输入特征值,W是运算参数,p(y=ci|x)表示当输入特征是x时,目标属于类别ci的概率,i是类别序号。
再进一步计算每个预测目标框在包含一个目标的前提下,其属于某个类别的概率Pr(Cn|object)。
(六)对获得的多个预测目标框进行非极大值抑制操作,消除多余的目标框,获取最终坦克目标;具体的:
根据类别分类概率从小到大的顺序将属于某种坦克车辆的预测目标框进行排序,从概率最大的预测开始,分别判断其他预测框与其重叠度IOU是否大于设定的阈值;若超过阈值,则舍弃类别概率小的预测框,标记并保留概率最大的预测框。从剩下的未标记的预测框中,选择概率最大的,然后判断与其他框的重叠度,重叠度大于一定的阈值,就舍弃其中概率小的预测框,最后标记并保留下概率最大的预测框。一直重复这个过程,所有的被标记保留下的预测框即为最终检测结果输出。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (9)

1.一种目标检测模型的训练方法,该目标检测模型包括特征提取网络和预测网络,所述特征提取网络中包括多级特征提取单元和目标区域特征增强层,其特征在于,该训练方法包括:
输入标记的训练图像,经过特征提取单元处理后输出特征图;
利用所述目标区域特征增强层对上一级特征提取单元输出的特征图进行通道平均,得到通道数归一的第一特征值矩阵;
遍历所述训练图像中的每一个像素点,若像素点不在目标区域内,则为该像素点赋予第一特征值;若像素点在目标区域内且该目标区域大于预设的像素块大小,则为该像素点赋予第二特征值;若像素点在目标区域内且该目标区域小于等于预设的像素块大小,则为该像素点赋予第三特征值;根据第一特征值、第二特征值及第三特征值生成训练图像对应的第二特征值矩阵;
将所述第一特征值矩阵与第二特征值矩阵元素值相乘后得到第三特征值矩阵;
将所述第三特征值矩阵与预置的调节函数相乘后与特征图的每一个通道特征矩阵的进行元素值加法,得到目标增强特征图,并将其输入下一特征提取单元中;
将特征提取单元输出的特征图进行特征融合后输入所述预测网络中预测出目标的类别和位置;将预测结果与真实数据进行对比并计算预测损失,基于所述预测损失调整目标检测模型的参数直至达到设定的训练次数或预测损失达到阈值。
2.如权利要求1所述的方法,其特征在于,所述目标增强特征图的计算方式为:
Figure FDA0004165657480000011
其中,E表示目标增强特征图;
Figure FDA0004165657480000021
表示目标区域特征增强层的输入特征图;α(t)表示调节函数;G表示第二特征值矩阵;C表示通道数。
3.如权利要求1所述的训练方法,其特征在于,所述第二特征值矩阵具体为:
Figure FDA0004165657480000022
其中,(i,j)表示训练图像中的像素点的位置坐标。
4.如权利要求1所述的训练方法,其特征在于,所述调节函数为:
Figure FDA0004165657480000023
其中,t表示训练迭代次数;max_epoch表示网络训练的最大迭代次数。
5.一种目标快速检测方法,其特征在于,包括:
获取待测图像并将其归一化为固定尺寸;
将归一化的待测图像输入训练后的目标检测模型中,由各特征提取单元进行特征提取和半通道特征信息整合后输出不同尺度的特征图;所述半通道特征信息整合具体为:
第i-1个特征提取单元输出的特征图i-1经第i个特征提取单元处理后输出特征图i;
将所述特征图i平均分离为通道数与所述特征图i-1相等的两个子特征图;
将特征图i-1两倍下采样后与其中一个所述子特征图进行元素值相加,并将相加结果与另一个子特征图进行通道拼接后得到特征图i',将激活后的所述特征图i'作为第i个特征提取单元输出的特征图;其中,i=2~n,n表示目标检测模型中特征提取单元的级数;
对特征提取单元输出的特征图进行特征融合,基于融合后的特征图进行目标分类和目标位置回归,得到预测目标框及其对应的目标类别;
所述目标检测模型的运算参数采用权利要求1-4任一项所述的训练方法训练得到。
6.如权利要求5所述的目标快速检测方法,其特征在于,所述半通道特征信息整合的计算方式为:
Figure FDA0004165657480000031
其中,F表示各种张量运算,Fout、Fcat、Fsample、Fsplit分别表示半通道特征信息整合计算、通道拼接运算、下采样运算和通道分离运算,A表示特征图i-1,f(A)表示特征图i。
7.如权利要求5所述的目标快速检测方法,其特征在于,所述对特征提取单元输出的特征图进行特征融合具体包括:
对最后一级特征提取单元输出的特征图进行卷积后执行至少两次上采样,分别将每次上采样后得到的特征图与其他特征提取单元中的浅层特征图进行通道拼接,且上采样后的特征图的尺寸与对应拼接的所述浅层特征图的尺寸相等。
8.如权利要求5所述的目标快速检测方法,其特征在于,所述基于融合后的特征图进行目标分类和目标位置回归具体包括:
基于预先设置的锚框对特征图进行边界回归,得到基于所述锚框位置和大小的预测目标框的位置和置信度;所述锚框为利用Kmeans算法对训练样本中标记的真实目标框尺寸进行聚类得到。
9.如权利要求5所述的目标快速检测方法,其特征在于,得到预测目标框及其对应的目标类别之后还包括:基于目标类别的分类概率对预测目标框进行非极大值抑制,消除多余的目标框。
CN202010243802.0A 2020-03-31 2020-03-31 一种目标检测模型的训练方法、目标快速检测方法 Active CN111461213B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010243802.0A CN111461213B (zh) 2020-03-31 2020-03-31 一种目标检测模型的训练方法、目标快速检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010243802.0A CN111461213B (zh) 2020-03-31 2020-03-31 一种目标检测模型的训练方法、目标快速检测方法

Publications (2)

Publication Number Publication Date
CN111461213A CN111461213A (zh) 2020-07-28
CN111461213B true CN111461213B (zh) 2023-06-02

Family

ID=71683470

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010243802.0A Active CN111461213B (zh) 2020-03-31 2020-03-31 一种目标检测模型的训练方法、目标快速检测方法

Country Status (1)

Country Link
CN (1) CN111461213B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111738231B (zh) * 2020-08-06 2020-12-11 腾讯科技(深圳)有限公司 目标对象检测方法、装置、计算机设备和存储介质
CN112308114A (zh) * 2020-09-24 2021-02-02 赣州好朋友科技有限公司 白钨矿的分选方法、装置和可读存储介质
CN112308856A (zh) * 2020-11-30 2021-02-02 深圳云天励飞技术股份有限公司 遥感图像的目标检测方法、装置、电子设备及介质
CN113255700B (zh) * 2021-06-10 2021-11-02 展讯通信(上海)有限公司 图像的特征图的处理方法及装置、存储介质、终端
CN113610087B (zh) * 2021-06-30 2023-06-09 国网福建省电力有限公司信息通信分公司 一种基于先验超分辨率的图像小目标检测方法及存储介质
US11967137B2 (en) * 2021-12-02 2024-04-23 International Business Machines Corporation Object detection considering tendency of object location
CN114782757A (zh) * 2022-06-21 2022-07-22 北京远舢智能科技有限公司 香烟缺陷检测模型训练方法、装置、电子设备及存储介质
CN115993365B (zh) * 2023-03-23 2023-06-13 山东省科学院激光研究所 一种基于深度学习的皮带缺陷检测方法及***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108182456A (zh) * 2018-01-23 2018-06-19 哈工大机器人(合肥)国际创新研究院 一种基于深度学习的目标检测模型及其训练方法
CN109614985A (zh) * 2018-11-06 2019-04-12 华南理工大学 一种基于密集连接特征金字塔网络的目标检测方法
WO2019223254A1 (zh) * 2018-05-21 2019-11-28 北京亮亮视野科技有限公司 多尺度轻量级人脸检测模型的构建方法及基于该模型的人脸检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110942000B (zh) * 2019-11-13 2022-09-06 南京理工大学 一种基于深度学习的无人驾驶车辆目标检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108182456A (zh) * 2018-01-23 2018-06-19 哈工大机器人(合肥)国际创新研究院 一种基于深度学习的目标检测模型及其训练方法
WO2019223254A1 (zh) * 2018-05-21 2019-11-28 北京亮亮视野科技有限公司 多尺度轻量级人脸检测模型的构建方法及基于该模型的人脸检测方法
CN109614985A (zh) * 2018-11-06 2019-04-12 华南理工大学 一种基于密集连接特征金字塔网络的目标检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Yuehuan Wang 等.Small target detection using edge-preserving background estimation based on maximum patch similarity.INTERNATIONAL JOURNAL OF ADVANCED ROBOTIC SYSTEMS.2017,第1-11页. *
王岳环 等.改进的KCF实时目标跟踪算法.华中科技大学学报(自然科学版).2020,第48卷(第01期),全文. *

Also Published As

Publication number Publication date
CN111461213A (zh) 2020-07-28

Similar Documents

Publication Publication Date Title
CN111461213B (zh) 一种目标检测模型的训练方法、目标快速检测方法
CN109584248B (zh) 基于特征融合和稠密连接网络的红外面目标实例分割方法
CN108647585B (zh) 一种基于多尺度循环注意力网络的交通标识符检测方法
CN107871119B (zh) 一种基于目标空间知识和两阶段预测学习的目标检测方法
CN110020651B (zh) 基于深度学习网络的车牌检测定位方法
CN113362329B (zh) 病灶检测模型的训练方法及识别图像中的病灶的方法
CN108830285B (zh) 一种基于Faster-RCNN的加强学习的目标检测方法
CN108304820B (zh) 一种人脸检测方法、装置及终端设备
CN109903331B (zh) 一种基于rgb-d相机的卷积神经网络目标检测方法
CN110991513B (zh) 一种具有类人连续学习能力的图像目标识别***及方法
CN111079739B (zh) 一种多尺度注意力特征检测方法
CN111523553A (zh) 一种基于相似度矩阵的中心点网络多目标检测方法
CN116188999B (zh) 一种基于可见光和红外图像数据融合的小目标检测方法
CN110490155B (zh) 一种禁飞空域无人机检测方法
CN110969171A (zh) 基于改进卷积神经网络的图像分类模型、方法及应用
US20240161304A1 (en) Systems and methods for processing images
CN112163530B (zh) 基于特征增强和样本选择的ssd小目标检测方法
CN111539456B (zh) 一种目标识别方法及设备
CN114581709A (zh) 识别医学图像中的目标的模型训练、方法、设备及介质
CN111274964B (zh) 一种基于无人机视觉显著性分析水面污染物的检测方法
CN115457258A (zh) 一种基于图像增强算法与改进YOLOv5的雾天船舶检测方法
CN113963333B (zh) 一种基于改进yolof模型的交通标志牌检测方法
CN115471741A (zh) 一种融合MSRCP预处理算法与改进YOLOv5的雾天船舶检测方法
CN111986156A (zh) 一种斧状利器检测方法、***、装置和存储介质
CN115272691A (zh) 一种钢筋绑扎状态检测模型的训练方法、识别方法及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant