CN114266846B - 一种用于目标检测模型的自学习填充方法 - Google Patents

一种用于目标检测模型的自学习填充方法 Download PDF

Info

Publication number
CN114266846B
CN114266846B CN202111604881.4A CN202111604881A CN114266846B CN 114266846 B CN114266846 B CN 114266846B CN 202111604881 A CN202111604881 A CN 202111604881A CN 114266846 B CN114266846 B CN 114266846B
Authority
CN
China
Prior art keywords
filling
image
target detection
convolution
self
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111604881.4A
Other languages
English (en)
Other versions
CN114266846A (zh
Inventor
柯逍
林心茹
蒋培龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuzhou University
Original Assignee
Fuzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuzhou University filed Critical Fuzhou University
Priority to CN202111604881.4A priority Critical patent/CN114266846B/zh
Publication of CN114266846A publication Critical patent/CN114266846A/zh
Application granted granted Critical
Publication of CN114266846B publication Critical patent/CN114266846B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Image Analysis (AREA)

Abstract

本发明涉及一种用于目标检测模型的自学习填充方法,包括以下步骤:步骤S1:获取图像数据集,并进行数据增强扩充数据集;步骤S2:构建可根据网络需要自动调整填充值的特征填充模块;步骤S3:将特征填充模块用于CenterNet骨干网络中,并且使用模糊池化优化下采样层,构建基于自学习填充的目标检测模型;步骤S4:基于扩充后的数据集对基于自学习填充的目标检测模型进行训练,通过随机梯度下降方法,优化自学习填充模块参数,得到训练后的目标检测模型;步骤S5:将测试图像输入训练好的目标检测模型,获取目标检测结果。本发明能够有效地减少边缘小目标的漏检。

Description

一种用于目标检测模型的自学习填充方法
技术领域
本发明涉及模式识别与计算机视觉领域,具体涉及一种用于目标检测模型的自学习填充方法。
背景技术
近些年来,目标检测算法在各个公开基准数据集上不断刷新纪录,并且许多落地产品被应用于各个领域。基于深度学习的通用目标检测方法已经取得了非常大的进步,但在真实环境中还面临着许多挑战,小目标检测一直是个困难问题。小目标检测的主要难点在于输入图像中小目标只占很少的像素点,因此在进行特征提取时很难获得小目标的信息。目前解决小目标问题的方法主要是通过改善输入特征质量来对小目标的检测结果,但是在进行多次特征提取的中间过程也存在信息的损失,零填充引入了和输入相关性弱的信息,导致了边缘信息弱化,对此可以通过减少损失保留更多的特征信息来提升对于小目标的检测精度。
发明内容
有鉴于此,本发明的目的在于提供一种用于目标检测模型的自学习填充方法,能够有效地减少边缘小目标的漏检。
为实现上述目的,本发明采用如下技术方案:
一种用于目标检测模型的自学习填充方法,包括以下步骤:
步骤S1:获取图像数据集,并进行数据增强扩充数据集;
步骤S2:构建可根据网络需要自动调整填充值的特征填充模块;
步骤S3:将特征填充模块用于CenterNet骨干网络中,并且使用模糊池化优化下采样层,构建基于自学习填充的目标检测模型;
步骤S4:基于扩充后的数据集对基于自学习填充的目标检测模型进行训练,通过随机梯度下降方法,优化自学习填充模块参数,得到训练后的目标检测模型;
步骤S5:将测试图像输入训练好的目标检测模型,获取目标检测结果。
进一步的,所述步骤S1,具体为:
步骤S11:获取目标检测通用数据集COCO的训练集,根据数据集标签文件中提供的真实框的位置信息截取图像中对应位置的真实框图像,对尺度小于预设像素的真实框图像构建粘贴库;
步骤S12:抽取训练集中预设比例的图像数据,使用抽取的这部分数据作为数据增强的扩展对象,制作扩展数据集;
步骤S13:将S12中制作的扩展数据集和S12抽取后剩余的数据组成新的训练集。
进一步的,所述制作扩展数据集,具体为:对抽取的图像数据顺序处理,在图像范围内随机生成五个横纵坐标,以随机生成的坐标点作为粘贴图像的中心点,从步骤S1中生成的粘贴库中随机抽取五个真实框图像粘贴到对应中心点的位置上覆盖原来的图像信息,制作扩展数据集。
进一步的,所述特征填充模块具体为:
特征填充模块的输入包含输入特征图和填充大小两部分内容,设输入特征图为f(in),输入特征图的尺度为N×C×H×W,其中N表示Batch Size,C为通道数,H和W为高和宽,填充大小为p;
截取输入特征图上、下、左、右四个方向的四个边缘信息和左上、左下、右上、右下四个角点信息,四个角点信息尺度为N×C×p×p;
特征填充模块中包含两个尺度为p×1卷积核记为g1,g2,两个尺度为1×p的卷积核记为g3,g4,四个尺度为p×p的卷积核记为g5,g6,g7,g8;卷积核g1,g2,g3,g4,g5,g6,g7,g8的初始权值为0,使用这八种卷积对步骤S21中获得的八种边缘信息P1,P2,P3,P4,P5,P6,P7,P8进行卷积操作,设*为卷积操作,则经过卷积操作后的输出结果记为P′i,计算公式如下:
P′i=Pi*gi,i∈1,2,3,…,7,8
将获得的四条边和四个角点的填充块P′i(i∈1,2,3,…,7,8)与输入图进行拼接操作,拼接操作将两个不同的特征图按照一个维度方向进行拼接,拼接操作记为CAT(Z1,Z2,Z3,dim),其中Z1,Z2,Z3为三个输入特征图,dim为对应的拼接维度,按照三个特征图输入的相对位置进行拼接,三个特征图的只能有一个维度大小不同。
进一步的,所述边缘信息和角点信息,具体设置如下:以图像的左上角为(0,0)原点,上方的边缘信息截取图像高度从0到p-1宽度为W的部分特征记为P1,下方的边缘信息截取图像高度H-p到H-1宽度为W的部分特征记为P2,上下边缘信息的尺度N×C×p×W;左边的边缘信息截取图像宽度从0到p-1高度为H的部分特征记为P3,右边的边缘信息截取图像宽度W-p到W-1高度为H的部分特征P4,左右边缘信息的尺度N×C×H×p;左上方角点信息截取图像宽度和高度0到p-1个像素的部分特征记为P5,右上方角点信息截取图像宽度W-p到W-1和高度0到p-1个像素的部分特征记为P6,左下方角点信息截取图像宽度W-p到W-1和高度0到p-1个像素的部分特征记为P7,右下方角点信息截取图像宽度W-p到W-1和高度H-p到H-1个像素的部分特征记为P8
进一步的,所述步骤S3具体为:
步骤S31:选定一个单阶段或是两阶段的目标检测模型,修改目标检测模型骨干网络中所有的卷积层,使用步骤S2中特征填充模块替换原始的填充方法,构建可以获得自学习填充边界的卷积层;
步骤S32:用步骤S31中构建可获得自学习填充边界的卷积层替换目标检测模型中的所有传统卷积层,获得可自适应扩展边缘的目标检测模型;替换后的卷积层每次执行两个操作,首先使用步骤S2中构造的特征填充模块获得fin-Pad,然后对fin-Pad使用常规卷积操作,设常规卷积为g,输入图像经过自学习的填充之后进行卷积操作,输出图像f(out)对应x位置上的结果f(out)[x]为:
其中是卷积核的范围,以3×3卷积为例/>若/>则g[y]为卷积核对应位置的权值,/>是fin-Pad图像的范围,从零到像素的宽度和高度,fin-Pad[x+y]则表示在x+y位置对应值;
步骤S33:对步骤S32中得到的可自适应扩展边缘的目标检测模型进行进一步优化,使用模糊池化替换目标检测模型骨干网络中的所有下采样层,从而构建基于自学习填充的目标检测模型。
进一步的,所述骨干网络中的下采样方法包括最大池化和跨步卷积,最大池化看作两步,先取最大值再进行下采样,模糊池化在这两步中间加入抗锯齿模糊操作,参数设置不变,因此直接使用模糊池化替换最大池化;当网络中使用跨步卷积进行下采样,不是直接使用模糊池化替换,而是在模糊池化后加上尺度不变卷积。
进一步的,所述步骤S4,具体为:
步骤S41:训练基于自学习填充的目标检测模型,对可获得自学习填充边界的卷积层中的常规卷积参数使用随机初始化,特征模块中的卷积参数固定初始值为0,通过随机梯度下降方法,优化自学习填充模块参数;
步骤S42:步骤S41训练好的模型中gi(i∈1,2,3,…,7,8)值在训练中得到优化,训练过程中根据数据特征和特征学习的自动调整值,包含了多种传统的填充方法,当卷积gi(i∈1,2,3,…,7,8)的权值都等于0时,P′i(i∈1,2,3,…,7,8)也为0,等价于零填充,如果都等于1的时,P′i(i∈1,2,3,…,7,8)和Pi(i∈1,2,3,…,7,8)相等,则是重复填充。
进一步的,所述步骤S5,具体为:将待预测图像输入S41训练好的基于自学习填充的目标检测模型进行预测,待预测图像通过训练好的特征填充模块扩展边缘,并且使用模糊池化进行下采样,生成多个预测框,设置阈值,并根据预测概率选出符合要求预测框。
本发明与现有技术相比具有以下有益效果:
1、本发明,能够基于图像的边缘信息自适应学习填充值,可以缓解边缘信息的弱化,保证了填充值和输入信息的相关性。对于目标检测任务,可以减少对落在物体边缘的小特征和关键特征的漏检,从而提高模型的准确性;
2、本发明使用复制-粘贴的数据增强方法提升模型对小目标的检测能力。
附图说明
图1是本发明方法流程图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
请参照图1,本发明提供一种用于目标检测模型的自学习填充方法,包括以下步骤:
步骤S1:获取图像数据集,并进行数据增强扩充数据集;
步骤S2:构建可根据网络需要自动调整填充值的特征填充模块;
步骤S3:将特征填充模块用于CenterNet骨干网络中,并且使用模糊池化优化下采样层,构建基于自学习填充的目标检测模型;
步骤S4:基于扩充后的数据集对基于自学习填充的目标检测模型进行训练,通过随机梯度下降方法,优化自学习填充模块参数,得到训练后的目标检测模型;
步骤S5:将测试图像输入训练好的目标检测模型,获取目标检测结果。
在本实施例中,步骤S1具体包括以下步骤:
步骤S11:获取目标检测通用数据集COCO的训练集,根据数据集标签文件中提供的真实框的位置信息截取图像中对应位置的真实框图像,对尺度小于32×32像素的真实框图像构建粘贴库。
步骤S12:抽取训练集中50%的图像数据,使用抽取的这部分数据作为数据增强的扩展对象。对抽取的图像数据顺序处理,在图像范围内随机生成五个横纵坐标,以随机生成的坐标点作为粘贴图像的中心点,从步骤S1中生成的粘贴库中随机抽取五个真实框图像粘贴到对应中心点的位置上覆盖原来的图像信息,制作扩展数据集。
步骤S13:将S12中制作的扩展数据集和S12抽取后剩余的50%数据组成新的训练集。
在本实施例中,步骤S2具体包括以下步骤:
步骤S21:特征填充模块的输入包含输入特征图和填充大小两部分内容,设输入特征图为f(in),输入特征图的尺度为N×C×H×W,其中N表示Batch Size,C为通道数,H和W为高和宽,填充大小为p。截取输入特征图上、下、左、右四个方向的四个边缘信息和左上、左下、右上、右下四个角点信息。以图像的左上角为(0,0)原点,上方的边缘信息截取图像高度从0到p-1宽度为W的部分特征记为P1,下方的边缘信息截取图像高度H-p到H-1宽度为W的部分特征记为P2,上下边缘信息的尺度N×C×p×W。左边的边缘信息截取图像宽度从0到p-1高度为H的部分特征记为P3,右边的边缘信息截取图像宽度W-p到W-1高度为H的部分特征P4,左右边缘信息的尺度N×C×H×p。左上方角点信息截取图像宽度和高度0到p-1个像素的部分特征记为P5,右上方角点信息截取图像宽度W-p到W-1和高度0到p-1个像素的部分特征记为P6,左下方角点信息截取图像宽度W-p到W-1和高度0到p-1个像素的部分特征记为P7,右下方角点信息截取图像宽度W-p到W-1和高度H-p到H-1个像素的部分特征记为P8,四个角点信息尺度为N×C×p×p。
步骤S22:特征填充模块中包含两个尺度为p×1卷积核记为g1,g2,两个尺度为1×p的卷积核记为g3,g4,四个尺度为p×p的卷积核记为g5,g6,g7,g8。卷积核g1,g2,g3,g4,g5,g6,g7,g8的初始权值为0,使用这八种卷积对步骤S21中获得的八种边缘信息P1,P2,P3,P4,P5,P6,P7,P8进行卷积操作,设*为卷积操作,则经过卷积操作后的输出结果记为P′i,计算公式如下:
P′i=Pi*gi,i∈1,2,3,…,7,8
将获得的四条边和四个角点的填充块P′i(i∈1,2,3,…,7,8)与输入图进行拼接操作,拼接操作将两个不同的特征图按照一个维度方向进行拼接,拼接操作记为CAT(Z1,Z2,Z3,dim),其中Z1,Z2,Z3为三个输入特征图,dim为对应的拼接维度(从左到右从零开始),按照三个特征图输入的相对位置进行拼接,三个特征图的只能有一个维度大小不同,例如Z1,Z2,Z3尺度为N×C×H×p、N×C×H×H与N×C×H×p,只有最后一维度大小不同,则dim=3,按照顺序Z1在左边Z2在中间Z3在右边,拼接后的尺度为N×C×H×(p+H+p),拼接后得到特征填充模块按照Z1Z2Z3对应顺序,则将获得的四条边和四个角点的填充块P′i(i∈1,2,3,…,7,8)与输入图f(in)进行拼接操作的输出值记为fin-Pad,具体计算公式如下:
fin-Pad
=CAT((CAT(P′5,P′1,P′6,3),CAT(P′3,f(in),P′4,3),CAT(P′7,P′2,P′8,3),2)
在本实施例中,步骤S3具体包括以下步骤:
步骤S31:选定一个单阶段或是两阶段的目标检测模型,修改目标检测模型骨干网络中所有的卷积层,不使用传统的填充方法,使用步骤S2中设计的特征填充模块替换原始的填充方法,构建可以获得自学习填充边界的卷积层。
步骤S32:用步骤S31中构建可获得自学习填充边界的卷积层替换目标检测模型中的所有传统卷积层,获得可自适应扩展边缘的目标检测模型。替换后的卷积层每次执行两个操作,首先使用步骤S2中构造的特征填充模块获得fin-Pad,然后对fin-Pad使用常规卷积操作,设常规卷积为g,输入图像经过自学习的填充之后进行卷积操作,输出图像f(out)对应x位置上的结果f(out)[x]为:
其中是卷积核的范围,以3×3卷积为例/>若/>则g[y]为卷积核对应位置的权值,/>是fin-Pad图像的范围,从零到像素的宽度和高度,fin-Pad[x+y]则表示在x+y位置对应值。
步骤S33:对步骤S32中得到的可自适应扩展边缘的目标检测模型进行进一步优化,使用模糊池化替换目标检测模型骨干网络中的所有下采样层,从而构建基于自学习填充的目标检测模型。骨干网络中的下采样方法包括最大池化和跨步卷积。最大池化可以看作两步,先取最大值再进行下采样,模糊池化在这两步中间加入抗锯齿模糊操作,参数设置不变,因此直接使用模糊池化替换最大池化。当网络中使用跨步卷积进行下采样,不是直接使用模糊池化替换,而是在模糊池化后加上尺度不变卷积。
在本实施例中,步骤S4具体包括以下步骤:
步骤S41:训练S33构建的基于自学习填充的目标检测模型,对可获得自学习填充边界的卷积层中的常规卷积参数使用随机初始化,特征模块中的卷积参数固定初始值为0,通过随机梯度下降方法,优化自学习填充模块参数。
步骤S42:步骤S41训练好的模型中gi(i∈1,2,3,…,7,8)值在训练中得到优化,训练过程中根据数据特征和特征学习的需要自动调整值,包含了多种传统的填充方法,当卷积gi(i∈1,2,3,…,7,8)的权值都等于0时,P′i(i∈1,2,3,…,7,8)也为0,等价于零填充,如果都等于1的时,P′i(i∈1,2,3,…,7,8)和Pi(i∈1,2,3,…,7,8)相等,则是重复填充。
在本实施例中,步骤S5具体为:将待预测图像输入S41训练好的基于自学习填充的目标检测模型进行预测,待预测图像通过训练好的特征填充模块扩展边缘,并且使用模糊池化进行下采样,生成多个预测框,设置阈值为0.5到0.95,根据预测概率选出符合要求预测框。
以上所述仅为本发明的较佳实施例,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本发明的涵盖范围。

Claims (7)

1.一种用于目标检测模型的自学习填充方法,其特征在于,包括以下步骤:
步骤S1:获取图像数据集,并进行数据增强扩充数据集;
步骤S2:构建可根据网络需要自动调整填充值的特征填充模块;
步骤S3:将特征填充模块用于CenterNet骨干网络中,并且使用模糊池化优化下采样层,构建基于自学习填充的目标检测模型;
步骤S4:基于扩充后的数据集对基于自学习填充的目标检测模型进行训练,通过随机梯度下降方法,优化自学习填充模块参数,得到训练后的目标检测模型;
步骤S5:将测试图像输入训练好的目标检测模型,获取目标检测结果;
所述特征填充模块具体为:
特征填充模块的输入包含输入特征图和填充大小两部分内容,设输入特征图为f(in),输入特征图的尺度为N×C×H×W,其中N表示Batch Size,C为通道数,H和W为高和宽,填充大小为p;
截取输入特征图上、下、左、右四个方向的四个边缘信息和左上、左下、右上、右下四个角点信息,以图像的左上角为(0,0)原点,上方的边缘信息截取图像高度从0到p-1宽度为W的部分特征记为P1,下方的边缘信息截取图像高度H-p到H-1宽度为W的部分特征记为P2,上下边缘信息的尺度N×C×p×W,左边的边缘信息截取图像宽度从0到p-1高度为H的部分特征记为P3,右边的边缘信息截取图像宽度W-p到W-1高度为H的部分特征P4,左右边缘信息的尺度N×C×H×p,左上方角点信息截取图像宽度和高度0到p-1个像素的部分特征记为P5,右上方角点信息截取图像宽度W-p到W-1和高度0到p-1个像素的部分特征记为P6,左下方角点信息截取图像宽度W-p到W-1和高度0到p-1个像素的部分特征记为P7,右下方角点信息截取图像宽度W-p到W-1和高度H-p到H-1个像素的部分特征记为P8,四个角点信息尺度为N×C×p×p;
特征填充模块中包含两个尺度为p×1卷积核记为g1,g2,两个尺度为1×p的卷积核记为g3,g4,四个尺度为p×p的卷积核记为g5,g6,g7,g8;卷积核g1,g2,g3,g4,g5,g6,g7,g8的初始权值为0,使用这八种卷积对八种边缘信息P1,P2,P3,P4,P5,P6,P7,P8进行卷积操作,设*为卷积操作,则经过卷积操作后的输出结果记为P'i,计算公式如下:
P′i=Pi*gi,i∈1,2,3,…,7,8
将获得的四条边和四个角点的填充块P'i(i∈1,2,3,…,7,8)与输入图进行拼接操作,拼接操作将两个不同的特征图按照一个维度方向进行拼接,拼接操作记为CAT(Z1,Z2,Z3,dim),其中Z1,Z2,Z3为三个输入特征图,dim为对应的拼接维度,按照三个特征图输入的相对位置进行拼接,三个特征图的只能有一个维度大小不同;
所述步骤S3具体为:
步骤S31:选定一个单阶段或是两阶段的目标检测模型,修改目标检测模型骨干网络中所有的卷积层,使用步骤S2中特征填充模块替换原始的填充方法,构建可以获得自学习填充边界的卷积层;
步骤S32:用步骤S31中构建可获得自学习填充边界的卷积层替换目标检测模型中的所有传统卷积层,获得可自适应扩展边缘的目标检测模型;替换后的卷积层每次执行两个操作,首先使用步骤S2中构造的特征填充模块获得fin-Pad,然后对fin-Pad使用常规卷积操作,设常规卷积为g,输入图像经过自学习的填充之后进行卷积操作,输出图像f(out)对应x位置上的结果f(out)[x]为:
其中是卷积核的范围,以3×3卷积为例/>若/>则g[y]为卷积核对应位置的权值,/>是fin-Pad图像的范围,从零到像素的宽度和高度,fin-Pad[x+y]则表示在x+y位置对应值;
步骤S33:对步骤S32中得到的可自适应扩展边缘的目标检测模型进行进一步优化,使用模糊池化替换目标检测模型骨干网络中的所有下采样层,从而构建基于自学习填充的目标检测模型。
2.根据权利要求1所述的一种用于目标检测模型的自学习填充方法,其特征在于,所述步骤S1,具体为:
步骤S11:获取目标检测通用数据集COCO的训练集,根据数据集标签文件中提供的真实框的位置信息截取图像中对应位置的真实框图像,对尺度小于预设像素的真实框图像构建粘贴库;
步骤S12:抽取训练集中预设比例的图像数据,使用抽取的这部分数据作为数据增强的扩展对象,制作扩展数据集;
步骤S13:将S12中制作的扩展数据集和S12抽取后剩余的数据组成新的训练集。
3.根据权利要求2所述的一种用于目标检测模型的自学习填充方法,其特征在于,所述制作扩展数据集,具体为:对抽取的图像数据顺序处理,在图像范围内随机生成五个横纵坐标,以随机生成的坐标点作为粘贴图像的中心点,从步骤S1中生成的粘贴库中随机抽取五个真实框图像粘贴到对应中心点的位置上覆盖原来的图像信息,制作扩展数据集。
4.根据权利要求1所述的一种用于目标检测模型的自学习填充方法,其特征在于,所述边缘信息和角点信息,具体设置如下:以图像的左上角为(0,0)原点,上方的边缘信息截取图像高度从0到p-1宽度为W的部分特征记为P1,下方的边缘信息截取图像高度H-p到H-1宽度为W的部分特征记为P2,上下边缘信息的尺度N×C×p×W;左边的边缘信息截取图像宽度从0到p-1高度为H的部分特征记为P3,右边的边缘信息截取图像宽度W-p到W-1高度为H的部分特征P4,左右边缘信息的尺度N×C×H×p;左上方角点信息截取图像宽度和高度0到p-1个像素的部分特征记为P5,右上方角点信息截取图像宽度W-p到W-1和高度0到p-1个像素的部分特征记为P6,左下方角点信息截取图像宽度W-p到W-1和高度0到p-1个像素的部分特征记为P7,右下方角点信息截取图像宽度W-p到W-1和高度H-p到H-1个像素的部分特征记为P8
5.根据权利要求1所述的一种用于目标检测模型的自学习填充方法,其特征在于,所述骨干网络中的下采样方法包括最大池化和跨步卷积,最大池化看作两步,先取最大值再进行下采样,模糊池化在这两步中间加入抗锯齿模糊操作,参数设置不变,因此直接使用模糊池化替换最大池化;当网络中使用跨步卷积进行下采样,不是直接使用模糊池化替换,而是在模糊池化后加上尺度不变卷积。
6.根据权利要求1所述的一种用于目标检测模型的自学习填充方法,其特征在于,所述步骤S4,具体为:
步骤S41:训练基于自学习填充的目标检测模型,对可获得自学习填充边界的卷积层中的常规卷积参数使用随机初始化,特征模块中的卷积参数固定初始值为0,通过随机梯度下降方法,优化自学习填充模块参数;
步骤S42:步骤S41训练好的模型中gi(i∈1,2,3,…,7,8)值在训练中得到优化,训练过程中根据数据特征和特征学习的自动调整值,包含了多种传统的填充方法,当卷积gi(i∈1,2,3,…,7,8)的权值都等于0时,P'i(i∈1,2,3,…,7,8)也为0,等价于零填充,如果都等于1的时,P'i(i∈1,2,3,…,7,8)和Pi(i∈1,2,3,…,7,8)相等,则是重复填充。
7.根据权利要求1所述的一种用于目标检测模型的自学习填充方法,其特征在于,所述步骤S5,具体为:将待预测图像输入S41训练好的基于自学习填充的目标检测模型进行预测,待预测图像通过训练好的特征填充模块扩展边缘,并且使用模糊池化进行下采样,生成多个预测框,设置阈值,并根据预测概率选出符合要求预测框。
CN202111604881.4A 2021-12-25 2021-12-25 一种用于目标检测模型的自学习填充方法 Active CN114266846B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111604881.4A CN114266846B (zh) 2021-12-25 2021-12-25 一种用于目标检测模型的自学习填充方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111604881.4A CN114266846B (zh) 2021-12-25 2021-12-25 一种用于目标检测模型的自学习填充方法

Publications (2)

Publication Number Publication Date
CN114266846A CN114266846A (zh) 2022-04-01
CN114266846B true CN114266846B (zh) 2024-06-14

Family

ID=80830377

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111604881.4A Active CN114266846B (zh) 2021-12-25 2021-12-25 一种用于目标检测模型的自学习填充方法

Country Status (1)

Country Link
CN (1) CN114266846B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115424129B (zh) * 2022-10-13 2023-08-11 哈尔滨市科佳通用机电股份有限公司 一种墙板破损的异常检测方法及检测***

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108596120A (zh) * 2018-04-28 2018-09-28 北京京东尚科信息技术有限公司 一种基于深度学习的目标检测方法和装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109325947A (zh) * 2018-09-20 2019-02-12 北京航空航天大学 一种基于深度学习的sar图像铁塔目标检测方法
CN110060238B (zh) * 2019-04-01 2022-04-19 桂林电子科技大学 基于深度学习的pcb板标注印刷质量检测方法
CN111062877A (zh) * 2019-08-23 2020-04-24 平安科技(深圳)有限公司 边缘学习的图像填充方法、装置、终端及可读存储介质
CN110826566B (zh) * 2019-11-01 2022-03-01 北京环境特性研究所 一种基于深度学习的目标切片提取方法
CN112862922B (zh) * 2021-01-27 2022-10-11 南昌大学 一种基于多特征生成网络先验信息引导的图像填充方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108596120A (zh) * 2018-04-28 2018-09-28 北京京东尚科信息技术有限公司 一种基于深度学习的目标检测方法和装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于图像块填充的Vibe车辆检测算法;王宝珠;楚玉梅;刘翠响;;科学技术与工程;20170328(第09期);第244-249页 *

Also Published As

Publication number Publication date
CN114266846A (zh) 2022-04-01

Similar Documents

Publication Publication Date Title
CN107945204B (zh) 一种基于生成对抗网络的像素级人像抠图方法
CN111462175B (zh) 时空卷积孪生匹配网络目标跟踪方法、装置、介质及设备
CN108416266B (zh) 一种利用光流提取运动目标的视频行为快速识别方法
CN108510485B (zh) 一种基于卷积神经网络的无参照图像质量评估方法
CN111738344B (zh) 一种基于多尺度融合的快速目标检测方法
CN109858487B (zh) 基于分水岭算法和图像类别标签的弱监督语义分割方法
CN111640125A (zh) 基于Mask R-CNN的航拍图建筑物检测和分割方法及装置
CN111696110B (zh) 场景分割方法及***
CN112927209B (zh) 一种基于cnn的显著性检测***和方法
CN111768415A (zh) 一种无量化池化的图像实例分割方法
CN111401293A (zh) 一种基于Head轻量化Mask Scoring R-CNN的手势识别方法
CN115131797A (zh) 一种基于特征增强金字塔网络的场景文本检测方法
CN112233173A (zh) 一种视力障碍人士室内物品寻找与定位的方法
CN113378812A (zh) 一种基于Mask R-CNN和CRNN的数字表盘识别方法
CN114266846B (zh) 一种用于目标检测模型的自学习填充方法
CN107533760B (zh) 一种图像分割方法和装置
CN114821048A (zh) 目标物分割方法和相关装置
CN113962905A (zh) 基于多阶段特征互补网络的单幅图像去雨方法
CN116778164A (zh) 一种基于多尺度结构改进DeeplabV3+网络的语义分割方法
CN114219757B (zh) 一种基于改进Mask R-CNN的车辆智能定损方法
CN111881732B (zh) 一种基于svm的人脸质量评价方法
CN113034420A (zh) 一种频率空间域特征的工业产品表面缺陷分割方法及***
CN113159020B (zh) 基于核尺度扩张的文本检测方法
CN114882298B (zh) 一种对抗互补学习模型的优化方法及装置
CN113392840B (zh) 基于多尺度分割融合的实时语义分割方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant