CN111461110B - 一种基于多尺度图像和加权融合损失的小目标检测方法 - Google Patents

一种基于多尺度图像和加权融合损失的小目标检测方法 Download PDF

Info

Publication number
CN111461110B
CN111461110B CN202010134062.7A CN202010134062A CN111461110B CN 111461110 B CN111461110 B CN 111461110B CN 202010134062 A CN202010134062 A CN 202010134062A CN 111461110 B CN111461110 B CN 111461110B
Authority
CN
China
Prior art keywords
image
convolution
feature
layer
size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010134062.7A
Other languages
English (en)
Other versions
CN111461110A (zh
Inventor
林坤阳
罗家祥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN202010134062.7A priority Critical patent/CN111461110B/zh
Publication of CN111461110A publication Critical patent/CN111461110A/zh
Application granted granted Critical
Publication of CN111461110B publication Critical patent/CN111461110B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于图像、视频处理领域,涉及一种基于多尺度图像和加权融合损失的小目标检测方法,包括:基于改进Mask RCNN模型对多种不同尺度图像提取多组特征向量,对多组特征向量进行融合,构造特征金字塔;基于特征金字塔生成候选检测框并筛选得到建议检测框;将建议检测框对应回特征金字塔中产生它们的特征图中,在特征图上对齐截取;将对齐后的建议检测框输入分类器层,得到建议检测框的类别置信度和位置偏移量;在测试阶段,根据建议检测框的类别置信度得分大小筛选一定的建议检测框,并做非极大值抑制;在训练阶段,对检测小目标特征层计算出的损失函数进行加权,并与检测大、中目标层的损失函数融合,增强模型对小目标物体的敏感程度。

Description

一种基于多尺度图像和加权融合损失的小目标检测方法
技术领域
本发明属于图像、视频处理领域,涉及一种基于多尺度图像和加权融合损失的小目标检测方法。
背景技术
随着机器学习、深度学习的发展,依靠卷积神经网络强大的学习能力,模式识别、计算机视觉领域得到空前的关注与热度。在机器自动化、人工智能广泛普及的时代,摄像头扮演的角色愈发等同于人的眼睛,计算机视觉领域的发展显得尤其重要,并且得到了工业界和学术界的广泛关注。其中,目标检测在计算机视觉领域成果显著,并在不断进步当中。然而,图片、视频中的目标物体,绝大部分以极其微小的形式出现。通常有很多物体在一帧图片中所占像素极低,大部分像素低于49px,检测微小物体的任务显得艰巨而又十分重要。
小目标检测的难点在于尺度,以单一尺寸输入网络模型提取特征信息,往往不能照顾到各个尺度大小的目标。虽然现有Mask RCNN模型在目标检测取得了不错的效果,但仍存在输入图像尺度单一、分辨率具有不确定性、上下文信息利用不充分、对小目标物体检测不敏感等问题。
发明内容
针对现有Mask RCNN模型的不足,本发明提供一种基于多尺度图像和加权融合损失的小目标检测方法。
本发明采用如下技术方案实现:
一种基于多尺度图像和加权融合损失的小目标检测方法,基于改进Mask RCNN模型实现,包括:
S1、搭建改进的Mask RCNN模型;所述改进的Mask RCNN模型包括:残差骨干网络、特征金字塔网络层、区域生成网络层、感兴趣框对齐层、分类器层、损失函数计算层和测试层;
S2、构建图像金字塔:对原始图像进行缩放处理,将原始图像、缩小尺寸后的图像、放大尺寸后图像一起构成图像金字塔;
S3、将图像金字塔中的图像进行随机裁剪;
S4、将随机裁剪后的图像送入残差骨干网络进行卷积、批归一化、池化操作,输出多组不同尺寸的特征图;
S5、将多组不同尺度的特征图进行融合,并进一步处理得到特征图P2-P6;
S6、对特征图P2-P6分别生成未筛选的候选检测框;
S7、将特征图P2-P6输入区域生成网络层,通过一系列卷积操作,得到候选检测框的偏移量以及置信度;
S8、把S7的候选检测框的偏移量与S6得到的未筛选的候选检测框数据结合,筛选出设定量的候选检测框作为感兴趣检测框;
S9、将感兴趣检测框分别对应回特征图P2-P6,并进行对齐操作;
S10、将对齐操作的结果输入到分类层,输出预测的感兴趣检测框类别得分、类别概率、坐标偏移量;
S11、将预测的感兴趣检测框类别得分、类别概率、坐标偏移量输入测试层,在测试层对类别概率取最大值进行筛选,选出感兴趣检测框对应的预测目标类别,进一步通过非极大值抑制过滤出多余的感兴趣检测框,最后在测试层得到最终预测的感兴趣检测框和对应的预测目标类别。
进一步地,在训练阶段还包括:
S12、将S10中预测的感兴趣检测框类别得分输入损失函数计算层,与实际类别标签一起作为交叉熵函数的输入,用来计算分类损失值,得到特征图P2-P6的类别预测损失;
将S10中预测的感兴趣检测框坐标偏移量与真实目标框偏移量一起作为回归损失函数的输入,得到特征图P2-P6的回归预测损失;
S13、将特征图P2、特征图P3的类别预测损失分别进行加权,并与特征图P4、特征图P5、特征图P6的类别预测损失相加得到总的类别预测损失;
将特征图P2、特征图P3的回归预测损失分别进行加权,并与特征图P4、特征图P5、特征图P6的回归预测损失相加得到总的回归预测损失;
S14、通过反向传播对改进Mask RCNN模型参数、权重进行迭代更新,具体地,总的类别预测损失与总的回归预测损失分别被利用,进行优化迭代、改变改进Mask RCNN模型的权重值。
进一步地,改进的Mask RCNN模型所作改进包括:
①、感兴趣检测框对齐不再统一对齐,而是分开对不同特征层进行对齐,对齐过后没有直接融合传入损失函数计算层,而是分别输入分类器层进行分别分类和回归,最终分开输入损失函数计算层,对检测小目标特征层计算出的损失函数进行加权,并与检测大、中目标层的损失函数融合;
②、在原有Mask RCNN模型中增加一层有效特征层P6;
③、去除原有Mask RCNN中图像分割模块,取消掩膜支路。
优选地,S2中对原始图像进行缩放处理包括:
缩放图片的公式表述为:
Image_New=Image*scale  (1)
其中:Image_New代表缩放后的图片,Image代表缩放前的图片,scale表示缩放尺度;
缩放尺度scale由以下因素决定:
设缩放完成后最小边的长度不能小于min_dim,min()表示取最小值运算,h表示原图的高,w表示原图宽,则的当min_dim大于min(h,w)时,
scale=min_dim/min(h,w)  (2)
否则scale=1;
设缩放完成后最长边的长度为max_dim,如果按照式(2)来进行缩放图片,若缩放后的图片的最长边已经超过了max_dim时,则令:
scale=max_dim/image_max  (3)
否则继续按scale=min_dim/min(h,w)来进行缩放;
最后的缩放完成的图片大小尺寸为max_dim*max_dim,另外,如果最后缩放的尺度scale大于1,即放大原图,则将用双线性插值法进行放大;对于最后缩放后的图片不足max_dim*max_dim的部分,采用零值填充像素值。
优选地,S3中随机裁剪图片的公式表述如下:
Y1=randi([0,image_size(1)-crop_size(1)])  (4)
X1=randi([0,image_size(2)-crop_size(2)])  (5)
其中:Y1和X1分别表示裁剪图片开始的左下角纵坐标和左下角横坐标;randi表示随机取数,取数范围是小括号里面的范围;image_size是裁剪前的图片尺寸,第一维存放图片宽度,第二维存放图片长度;crop_size是需要裁剪出来的区域尺寸,第一维存放区域宽度,第二维存放区域长度;
Y2=min(image_size(1),Y1+crop_size(1))  (6)
X2=min(image_size(2),X1+crop_size(2))  (7)
其中:Y2和X2分别表示裁剪图片开始的右上角纵坐标和右上角横坐标;randi表示随机取数;min()表示取最小值;
利用式(4)-式(7)求得的两个坐标确定裁剪的具***置,如果裁剪区域溢出原图,将进行pad填充,得到裁剪后的图像。
优选地,残差骨干网络的卷积包括block1、block2两类卷积模块,其中:
卷积模块block1工作流程包括:
①、对于分支1,输出与输入保持一致不变;
②、对于分支2,依次使用1*1卷积核、3*3卷积核、1*1卷积核进行卷积操作,并在每次卷积完成后对输出的特征向量进行均值归一化;
卷积模块block2工作流程包括:
①、对于分支1,使用1*1卷积核进行卷积操作,紧接着对输出的特征向量进行均值归一化;
②、对于分支2,依次使用1*1卷积核、3*3卷积核、1*1卷积核进行卷积操作,并在每次卷积完成后对输出的特征向量进行均值归一化。
优选地,S4中输出多组不同尺寸的特征图包括:
对于原图输入,构成五层特征图输出:C2、C3、C4、C5、C6;对于相对原图缩小一倍的输入,构成五层特征图输出:C2s、C3s、C4s、C5s、C6s;对于相对原图放大一倍的输入,构成五层特征图输出:C2l、C3l、C4l、C5l、C6l。
优选地,步骤S5包括:
S51、对C2s-C6s进行基于插值原理的上采样,将C2s-C6s扩大一倍;
S52、将C2l-C6l进行最大值池化,将C2l-C6l缩小一倍;
S53、将C2-C6与扩大一倍后的C2s-C6s和缩小一倍后的C2l-C6l相加,得到融合了不同尺度图像特征的C2-C6;
S54、对融合了不同尺度图像特征的C2-C6进一步处理得到特征图P2-P6。
优选地,S54包括:
用256个1*1卷积核对融合了不同尺度图像特征的C6进行卷积得到输出为16*16*256的特征图P6;
用256个1*1卷积核对融合了不同尺度图像特征的C5进行卷积后与将P6进行上采样两倍后的输出相加,再进行3*3卷积得到输出为32*32*256的特征图P5;
用256个1*1卷积核对融合了不同尺度图像特征的C4进行卷积后与将P5进行上采样两倍后的输出相加,再进行3*3卷积得到输出为64*64*256的特征图P4;
用256个1*1卷积核对融合了不同尺度图像特征的C3进行卷积后与将P4进行上采样两倍后的输出相加,再进行3*3卷积得到输出为128*128*256的特征图P3;
用256个1*1卷积核对融合了不同尺度图像特征的C2进行卷积后与将P3进行上采样两倍的输出相加,再进行3*3卷积得到输出为256*256*256的特征图P2。
优选地,候选检测框的高度h、宽度w为:
Figure BDA0002396690390000051
Figure BDA0002396690390000052
其中:scale_length表示当候选检测框为高度与宽度相等的方框时,高度和宽度对应于原图的像素级大小。
本发明与现有Mask RCNN模型小目标检测相比,具有如下有益效果:
(1)提出构造图像金字塔作为Mask RCNN模型输入的方法,一张图像经过预处理变成多种尺度作为输入而并非单一尺度,增强了对小目标物体特征提取的能力。
(2)去除原有Mask RCNN模型中图像分割模块,取消了Mask(掩膜)支路,减少了网络参数,使得训练分类和回归部分更加高效。
(3)感兴趣区域对齐不再统一对齐,而是分开对不同特征层进行对齐,进而再输入分类层进行分别分类和回归,最终分开输入损失函数计算层,对检测小目标特征层计算出的损失函数进行加权,并与检测大、中目标层的损失函数融合,增强了小目标物体对模型损失函数的影响,让模型更好地学习到关于检测小目标物体的特征。
(4)在原有Mask RCNN模型中增加一层有效特征层P6,在提高小目标物体检测精度的同时确保对大物体的检测精度不下降,最终达到了提高目标检测中对小目标物体的检测准确性和精度的提升。
附图说明
图1为本发明一个实施例中改进的Mask RCNN模型结构图;
图2为本发明一个实施例中改进的Mask RCNN模型中卷积块示意图;
图3为本发明一个实施例中小目标检测实现流程图。
具体实施方式
下面结合附图和具体实施例对本发明作进一步说明。
一种基于多尺度图像和加权融合损失的小目标检测方法,基于改进Mask RCNN模型实现,包括:
S1、搭建改进的Mask RCNN模型。
在一个优选的实施例中,改进的Mask RCNN模型包括骨干网络部分、候选窗口生成部分和分类层部分,利用keras平台搭建,包括:残差骨干网络、特征金字塔网络层、区域建议层、感兴趣框对齐层、分类器层、损失函数计算层、测试层。相对于原有Mask RCNN所作改进包括:
①、感兴趣区域对齐不再统一对齐,而是分开对不同特征层进行对齐,对齐过后没有直接融合传入损失函数,而是分别输入分类器层进行分别分类和回归,最终分开输入损失函数计算层,对检测小目标特征层计算出的损失函数进行加权,并与检测大、中目标层的损失函数融合,增强了小目标物体对模型损失函数的影响,让模型更好地学习到关于检测小目标物体的特征。
②、在原有Mask RCNN模型中增加一层有效特征层P6,在提高小目标物体检测精度的同时确保对大物体的检测精度不下降,最终达到提高目标检测中对小目标物体的检测准确性和精度的提升。
③、去除原有Mask RCNN中图像分割模块,取消了Mask(掩膜)支路,从而减少网络参数,使得训练分类和回归部分更加高效。
S2、构建图像金字塔。
将原始图像数据分别进行缩小图像尺寸一倍和放大一倍处理,并保留原始尺寸图像数据,原图、缩小图像、放大图像一起构成图像金字塔。
改变图片尺寸的第一步要进行图片的缩放,缩放图片的公式表述为:
Image_New=Image*scale  (1)
其中:Image_New代表缩放后的图片,Image代表缩放前的图片,scale表示缩放尺度。缩放尺度scale由以下因素决定:
设缩放完成后最小边的长度不能小于min_dim,min()表示取最小值运算,h表示原图的高,w表示原图宽,则的当min_dim大于min(h,w)时,
scale=min_dim/min(h,w)  (2)
否则scale=1。
设缩放完成后最长边的长度为max_dim,如果按照式(2)来进行缩放图片,若缩放后的图片的最长边已经超过了max_dim时,则令:
scale=max_dim/image_max  (3)
否则继续按scale=min_dim/min(h,w)来进行缩放。
最后的缩放完成的图片大小尺寸为max_dim*max_dim,另外,如果最后缩放的尺度scale大于1,即放大原图,则将用双线性插值法进行放大。对于最后缩放后的图片不足max_dim*max_dim的部分,采用零值填充像素值。
S3、将图像金字塔中的原图、缩小图像、放大图像进行512*512的随机裁剪,作为一次训练输入。
随机裁剪图片的公式表述如下:
Y1=randi([0,image_size(1)-crop_size(1)])  (4)
X1=randi([0,image_size(2)-crop_size(2)])  (5)
其中:Y1和X1分别表示裁剪图片开始的左下角纵坐标和左下角横坐标;randi表示随机取数,取数范围是小括号里面的范围;image_size是裁剪前的图片尺寸,第一维存放图片宽度,第二维存放图片长度;crop_size是需要裁剪出来的区域尺寸,第一维存放区域宽度,第二维存放区域长度。
Y2=min(image_size(1),Y1+crop_size(1))  (6)
X2=min(image_size(2),X1+crop_size(2))  (7)
其中:Y2和X2分别表示裁剪图片开始的右上角纵坐标和右上角横坐标;randi表示随机取数,取数范围是小括号里面的范围,min()表示取最小值,小括号里面是比较的两个数。
利用上述求得的两个坐标确定裁剪的具***置,如果裁剪区域溢出原图,将进行pad填充,得到裁剪后的图像。pad填充将对溢出区域进行像素三通道的零填充,即为每个通道赋值0。
S4、将裁剪后的图像进行送入残差骨干网络进行卷积、批归一化、池化操作,输出三组不同尺寸的特征图。
在一个优选的实施例中,残差骨干网络一共进行60次卷积,以及开始的一次最大值池化和末尾的平均值池化,每次卷积过后进行一次批归一化。利用特定的卷积模块,按照卷积后特征图的大小关系,对于原图输入,构成五层特征图输出:C2、C3、C4、C5、C6;对于相对原图缩小一倍的输入,构成五层特征图输出:C2s、C3s、C4s、C5s、C6s;对于相对原图放大一倍的输入,构成五层特征图输出:C2l、C3l、C4l、C5l、C6l。
卷积公式表述如下:
Figure BDA0002396690390000081
其中,Output是卷积输出的特征图中每个点的值,wi,j是n*n大小卷积核在(i,j)位置的权重;Inputi',j'是输入卷积核的图在与卷积核位置(i,j)对应位置的像素值。
对于最大值池化操作,选用3*3大小的核、以2大小的步长在输入图中滑动,选出滑动的3*3局部接收域内的最大值作为输出图对应点的值,公式表述为:
Outputmax=max(Areainput)  (9)
其中:Areainput表示局部接收域中所有像素点的值。
对于平均值池化操作,则是对输入特征图所有像素点的值进行求和后再平均,最终得到1*1的输出,不改变通道数。公式表述如下:
Figure BDA0002396690390000082
其中:Inputi,j是输入图在像素点(i,j)的像素值,n*n指输入特征图的尺寸。
批归一化是指对深度神经网络每一隐藏层输出的卷积图的每个点的值分布变换为以0为均值,单位方差的正态分布数值时,可以加速网络收敛。对于一批输入,假设有n个样本,在某隐藏层I的输出为:{z(1),z(2),z(3),z(4),...,z(n)},对这批输出进行求均值:
Figure BDA0002396690390000091
求方差:
Figure BDA0002396690390000092
对输出均一化(批归一化)即对每个送进样本的输出进行如下操作:
Figure BDA0002396690390000093
其中:∈是为了防止方差为0时产生无效计算而设置。
将I层输出进行批归一化为均值为0、方差为1的分布后,改变了原有数据的信息表达,使得底层网络学习到的参数信息丧失,导致数据表达能力缺失。基于此不足,本发明引入两个可学习的参数γ和β,从而对上述得到的批归一化输出进行如下操作:
Figure BDA0002396690390000094
以此恢复数据本身表达能力。
在一个优选的实施例中,改进的Mask RCNN模型的激活函数统一用Sigmoid函数,其数学表达式为:
Figure BDA0002396690390000095
S5、将S4中得到的三组不同尺度的特征图C2s-C6s、C2-C6、C2l-C6l进行融合,并再进一步得到特征图P2-P6。具体操作方式如下:
②、对C2s-C6s进行基于插值原理的上采样,将C2s-C6s扩大一倍;
②、将C2l-C6l进行最大值池化,将C2l-C6l缩小一倍;
最大值池化的原理如下:选用3*3大小的核、以2大小的步长在输入图中滑动,选出滑动的3*3区域内的最大值作为输出图对应点的值,公式表述为:
Outputmax=max(Areainput)  (16)
其中:Areainput表示局部接收域中所有像素点的值。
③、将C2-C6与扩大一倍后的C2s-C6s和缩小一倍后的C2l-C6l相加,得到融合了不同尺度图像特征的C2-C6。
此时的C2-C6已与S4中的C2-C6时有所不同,此时的C2-C6融合了不同尺度图像提取出的特征。
④、对融合了不同尺度图像特征的C2-C6进一步处理得到特征图P2-P6。
具体地:用256个1*1卷积核对融合了不同尺度图像特征的C6进行卷积得到输出为16*16*256的特征图P6。
用256个1*1卷积核对融合了不同尺度图像特征的C5进行卷积后与将P6进行上采样两倍后的输出相加,再进行3*3卷积得到输出为32*32*256的特征图P5。
用256个1*1卷积核对融合了不同尺度图像特征的C4进行卷积后与将P5进行上采样两倍后的输出相加,再进行3*3卷积得到输出为64*64*256的特征图P4。
用256个1*1卷积核对融合了不同尺度图像特征的C3进行卷积后与将P4进行上采样两倍后的输出相加,再进行3*3卷积得到输出为128*128*256的特征图P3。
用256个1*1卷积核对融合了不同尺度图像特征的C2进行卷积后与将P3进行上采样两倍的输出相加,再进行3*3卷积得到输出为256*256*256的特征图P2。
上述得到的P2-P6一起合并构成特征图矩阵。
S6、在S5得到的特征图P2-P6上生成未筛选的候选检测框。
候选检测框的高度h、宽度w为:
Figure BDA0002396690390000101
Figure BDA0002396690390000102
其中:scale_length表示当候选检测框为高度与宽度相等的方框时,高度和宽度对应于原图的像素级大小。对于P2到P6,分别是32、64、128、256、512。ratios表示每种尺寸候选检测框的三种尺度:0.5、1、2。
对特征图P2-P6以像素点为中心,生成不同大小、不同尺度的候选检测框,特征图上的每个像素点都会生成候选检测框。候选检测框中心坐标为每层特征图的每个像素点。
S7、将S5得到的特征图P2-P6输入RPN(Region Proposal Network,区域生成网络层),用相同的卷积层对特征图P2-P6进行卷积,但不改变特征图大小。紧接着对卷积完后的特征图用1*1的卷积核进行卷积后得到rpn_score,再进行softmax操作,则输出通道数为(2*每个像素点候选检测框数量)的候选检测框置信度rpn_pro,在此基础上通过1*1卷积核再进行卷积,输出通道数为(4*每个像素点未筛选的候选检测框数量)的候选检测框偏移量信息rpn_bbox。
S8、把S7的rpn_bbox与S6得到的未筛选的候选检测框数据结合,生成最后的感兴趣检测框(又称ROI框或建议检测框)rpn box(完整的、经过筛选后的侯选检测框),并由S7得到的rpn_score得到感兴趣检测框得分,按照感兴趣检测框得分从大到小排列、作非极大值抑制,最终保留前面1500个感兴趣检测框(rpn box)。
S9、对于S8中的得到的1500个感兴趣检测框,分别对应回P2到P6特征图进行对齐操作。
对于P5特征层,其检测目标大小平均值是224*224,在对齐时相对于原图,P5层的感受野为32,因此应对齐到(224/32=7)*(224/32=7)即7*7的大小。P2到P6层的感受野成2倍关系递增,以此类推,P2、P3、P4和P6也将对齐到7*7大小。对齐完成后输出分别为:align_p2、align_p3、align_p4、align_p5、align_p6。
S10、将S9中对齐完成后输出align_p2、align_p3、align_p4、align_p5、align_p6输入到分类层,将align_p2、align_p3、align_p4、align_p5、align_p6用卷积操作转换成向量,输出预测感兴趣检测框的类别得分、类别概率、坐标偏移量。
具体地,用7*7的卷积把向量(x,256,7,7)转化成(x,256,1,1)的数据,再用全连接把向量(x,256,1,1)转化成(x,81),输出为类别得分,其中81代表的是ROI框81个类别;对向量(x,81)进行softmax操作,输出为类别概率;再用全连接操作,把(x,256,1,1)转化成(x,81*4),其中4代表的是ROI框81个类别的4个坐标偏移量。注意,上面“x”表示每一层特征图感兴趣检测框的数量,在不同层,“x”的值大小可能不同。
S11、在测试阶段,到S10后,将类别得分、类别概率、坐标偏移量输入测试层,其中在测试层将对类别概率取最大值进行筛选,选出感兴趣检测框对应预测的目标类别,又进一步用0.7大小的阈值进行非极大值抑制过滤出多余的感兴趣检测框。最后在测试层会得出最终的预测的感兴趣检测框和对应的预测目标类别。
在训练阶段,还包括:
对检测小目标特征层计算出的损失函数进行加权,并与检测大、中目标层的损失函数融合,增强小目标物体对模型损失函数的影响,让改进的Mask RCNN模型更好地学习到关于检测小目标物体的特征。
具体地,包括:
S12、将S10中每层特征图P2-P6中每一个感兴趣检测框输出的81个类别得分,输入损失函数计算层,与实际类别标签一起作为交叉熵函数的输入,用来计算分类损失值,得到类别预测损失。其中交叉熵函数表示为:
Figure BDA0002396690390000121
其中:y'i为真实类别标签中第i个值,c表示类别标签的总数,yi为预测类别经过softmax归一化后向量中对应的值,分类越准确,yi越接近1,损失函数值Lossy′(y)越小。
对S10中每层特征图每一个感兴趣检测框输出的81类别的4个坐标偏移量,与真实目标框偏移量一起作为回归损失函数smooth_l1的输入,得到回归预测损失。其函数表示为:
Figure BDA0002396690390000122
其中:x表示预测感兴趣检测框偏移坐标与真实目标框偏移坐标的差值。
S13、将S12中输出P2、P3层的类别预测损失Loss_class_P2、Loss_class_P3分别进行加权,并与Loss_class_P4、Loss_class_P5、Loss_class_P6相加得到总的类别预测损失:
Loss_class_P2'=4*Loss_class_P2
Loss_class_P3'=2*Loss_class_P3
Loss_class=Loss_class_P2'+Loss_class_P3'+Loss_class_P4+Loss_class_P5+Loss_class_P6
(21)
将S12中输出P2、P3层的回归预测损失Loss_reg_P2、Loss_reg_P3分别进行加权,并与Loss_reg_P4、Loss_reg_P5、Loss_reg_P6相加得到回归预测损失:
Loss_reg_P2'=4*Loss_reg_P2
Loss_reg_P3'=2*Loss_reg_P3
Loss_reg=Loss_reg_P2'+Loss_reg_P3'+Loss_reg_P4+Loss_reg_P5+Loss_reg_P6
(22)
最终Loss_class与Loss_reg分别被利用,进行优化迭代、修改改进的MaskRCNN模型的权重值,达到改进的Mask RCNN模型的学习目的。
下面结合附图对本发明作进一步详细地说明。
参见图1-3,一种基于多尺度图像和加权融合损失的小目标检测方法,包括:
(1)、基于改进的Mask RCNN模型的残差骨干网络对原图、放大一倍和缩小一倍的图像进行特征提取,得到三组不同尺度的特征,对三组不同尺度的特征进行特征融合,得到融合了不同尺度特征的输出向量图C2、C3、C4、C5和C6。
在一个优选的实施例中,主要利用不同的卷积模块提取不同尺度图片的特征。特征提取层(残差骨干网络)中的卷积模块如图2所示,共有两种,分别以“block1”和“block2”简称。
卷积模块block1工作流程包括:
①、对于分支1,输出与输入保持一致不变。
②、对于分支2,依次使用1*1卷积核、3*3卷积核、1*1卷积核进行卷积操作,并在每次卷积完成后对输出的特征向量进行均值归一化。具体来看,每一次卷积操作完成后的特征向量通道数目成1:1:4的比例关系。
卷积模块block2工作流程包括:
①、对于分支1,使用1*1卷积核进行卷积操作,紧接着对输出的特征向量进行均值归一化。
②、对于分支2,依次使用1*1卷积核、3*3卷积核、1*1卷积核进行卷积操作,并在每次卷积完成后对输出的特征向量进行均值归一化。具体来看,每一次卷积操作完成后的特征向量通道数目成1:1:4的比例关系。
在一个具体的实施例中,假设图片以x*x*3输入,注意到对于原图,将图片尺寸统一为1024*1024的标准尺寸,即x=1024,缩小一倍后x=512,放大一倍后x=2048。为简便,下面将省略描述每次卷积操作后都必将进行的均值归一化操作,并且卷积及池化中若填充参数为0、步数参数为1也将省略描述。
在残差骨干网络开始前对图片进行预处理,具体地:将输入的三种不同尺度的图片用7*7*64的卷积核,填充为3,步数为2进行卷积,输出
Figure BDA0002396690390000141
的特征向量;紧接着用3*3池化核,步数为2进行最大值池化,输出
Figure BDA0002396690390000142
的特征向量。
在C2层中,依次包含一个block2、一个block1、一个bock1、一个block2,输出为
Figure BDA0002396690390000143
在C3层中,依次包含一个block2、一个block1、一个bock1、一个block1,输出为
Figure BDA0002396690390000144
在C4层中,依次包含一个block2、一个block1、一个bock1、一个block1、一个block1,输出为
Figure BDA0002396690390000145
在C5层中,依次包含一个block2、一个block1、一个block1,输出为
Figure BDA0002396690390000146
在C6层中,依次包含一个block2、一个block1、一个block1,输出为
Figure BDA0002396690390000147
(2)接下来是特征金字塔网络层,本发明对上一步骤中五层特征向量输出进行1*1卷积改变通道数为256后,采用第n层与第(n+1)层进行相加融合输出的特征向量作为Pn特征层输出,对于最高层P6,则直接输出。另外,此处可为增加更多候选检测框,对P6进行步数为2的最大值池化,得到P7特征向量输出,为节省训练空间,本实施例未采取该做法。
(3)通过在P2到P6特征图上生成候选检测框,对每一特征图以每一像素点为中心,生成三种比例、三种长宽比的候选检测框,根据P2到P6特征图大小的比例关系,将候选检测框的长度、宽度、中心坐标统一缩放到0到1区间。
(4)紧跟着在RPN层,通过一系列卷积操作,生成候选检测框的偏移量以及置信度,与候选检测框相结合,通过对置信度进行从高到低排列,以及非极大值抑制算法筛选出1500个最终的建议检测框。
(5)接下来对1500个建议检测框,分别对应回原来的P2、P3、P4、P5、P6特征图进行对齐操作,即根据建议检测框尺寸大小,找回它所属特征层,然后在对应特征图上使用非线性插值算法截取对应建议检测框。每个特征图所包含的建议检测框对齐后的输出都为7*7*256。
(6)将建议检测框对齐层的输出再输入到分类器层中。分类器层采用7*7的卷积输入的7*7特征向量转换为1*1的特征向量但通道数不变,再分别使用全连接,转换为81个类的类别得分输出和每一类的四个坐标位置偏移量;对81个类得分输出向量进行softmax操作,输出为类别概率。
(7)测试阶段,利用分类器层得到的类别得分信息以及位置偏移信息输入测试层,其中在测试层将对类别概率取最大值进行筛选,选出感兴趣检测框对应预测的目标类别,又进一步用0.7大小的阈值进行非极大值抑制过滤出多余的感兴趣检测框。最后在测试层会得出最终的预测的检测框和对应的预测目标类别。
训练阶段,在损失函数计算层,利用分类器层得到的类别得分信息以及位置偏移信息,计算与真实信息的损失大小,再通过反向传播对模型参数、权重进行修改。
具体应用上:
步骤一、得到一张包含大量小目标物体的图片,修改成标准尺寸,分别进行上采样一倍和下采样一倍,与原图组成图像金字塔作为改进Mask RCNN模型的输入。
步骤二、将图像金字塔输入改进Mask RCNN模型的残差骨干网络中,对图像金字塔中三种不同尺度图像进行特征的提取,输出三组特征向量。
步骤三、通过特征金字塔网络层对三组特征向量进行融合,构造特征金字塔。
步骤四、在特征金字塔的每一层生成候选检测框,送入RPN层。
步骤五、在RPN层,相应为每个候选检测框生成置信度和位置偏移信息,并且根据置信度高低排序以及非极大值抑制,筛选出一定量有效的建议检测框。
步骤六、对于筛选出的建议检测框,对应回特征金字塔中产生它们的特征图中,在特征图上对齐截取出来,并且统一调整为固定大小,但还是按特征层不同分开放置。
步骤七、最后将对齐后的建议检测框输入进去分类器层,得到建议检测框的各个类别置信度和位置偏移量信息。根据类别概率最大值确定建议检测框的类别;然后认为建议检测框的偏移量是其中类别最大值对应的偏移量,对建议检测框的位置进行调整;去除各个建议检测框中属于背景的对象,然后根据各个建议检测框的最大类别的置信度得分大小,取0.7的阈值,然后筛选出来一定的ROI(Region of interest,感兴趣区域),并做非极大值抑制。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (10)

1.一种基于多尺度图像和加权融合损失的小目标检测方法,其特征在于,基于改进Mask RCNN模型实现,包括:
S1、搭建改进的Mask RCNN模型;所述改进的Mask RCNN模型包括:残差骨干网络、特征金字塔网络层、区域生成网络层、感兴趣框对齐层、分类器层、损失函数计算层和测试层;
S2、构建图像金字塔:对原始图像进行缩放处理,将原始图像、缩小尺寸后的图像、放大尺寸后图像一起构成图像金字塔;
S3、将图像金字塔中的图像进行随机裁剪;
S4、将随机裁剪后的图像送入残差骨干网络进行卷积、批归一化、池化操作,输出多组不同尺寸的特征图;
S5、将多组不同尺度的特征图进行融合,并进一步处理得到特征图P2-P6;
S6、对特征图P2-P6分别生成未筛选的候选检测框;
S7、将特征图P2-P6输入区域生成网络层,通过一系列卷积操作,得到候选检测框的偏移量以及置信度;
S8、把S7的候选检测框的偏移量与S6得到的未筛选的候选检测框数据结合,筛选出设定量的候选检测框作为感兴趣检测框;
S9、将感兴趣检测框分别对应回特征图P2-P6,并进行对齐操作;
S10、将对齐操作的结果输入到分类层,输出预测的感兴趣检测框类别得分、类别概率、坐标偏移量;
S11、将预测的感兴趣检测框类别得分、类别概率、坐标偏移量输入测试层,在测试层对类别概率取最大值进行筛选,选出感兴趣检测框对应的预测目标类别,进一步通过非极大值抑制过滤出多余的感兴趣检测框,最后在测试层得到最终预测的感兴趣检测框和对应的预测目标类别。
2.根据权利要求1所述的小目标检测方法,其特征在于,在训练阶段还包括:
S12、将S10中预测的感兴趣检测框类别得分输入损失函数计算层,与实际类别标签一起作为交叉熵函数的输入,用来计算分类损失值,得到特征图P2-P6的类别预测损失;
将S10中预测的感兴趣检测框坐标偏移量与真实目标框偏移量一起作为回归损失函数的输入,得到特征图P2-P6的回归预测损失;
S13、将特征图P2、特征图P3的类别预测损失分别进行加权,并与特征图P4、特征图P5、特征图P6的类别预测损失相加得到总的类别预测损失;
将特征图P2、特征图P3的回归预测损失分别进行加权,并与特征图P4、特征图P5、特征图P6的回归预测损失相加得到总的回归预测损失;
S14、通过反向传播对改进Mask RCNN模型参数、权重进行迭代更新,具体地,总的类别预测损失与总的回归预测损失分别被利用,进行优化迭代、更新改进Mask RCNN模型的权重值。
3.根据权利要求1所述的小目标检测方法,其特征在于,改进的Mask RCNN模型所作改进包括:
①、感兴趣检测框对齐不再统一对齐,而是分开对不同特征层进行对齐,对齐过后没有直接融合传入损失函数计算层,而是分别输入分类器层进行分别分类和回归,最终分开输入损失函数计算层,对检测小目标特征层计算出的损失函数进行加权,并与检测大、中目标层的损失函数融合;
②、在原有Mask RCNN模型中增加一层有效特征层P6;
③、去除原有Mask RCNN中图像分割模块,取消掩膜支路。
4.根据权利要求1所述的小目标检测方法,其特征在于,S2中对原始图像进行缩放处理包括:
缩放图片的公式表述为:
Image_New=Image*scale  (1)
其中:Image_New代表缩放后的图片,Image代表缩放前的图片,scale表示缩放尺度;
缩放尺度scale由以下因素决定:
设缩放完成后最小边的长度不能小于min_dim,min()表示取最小值运算,h表示原图的高,w表示原图宽,则的当min_dim大于min(h,w)时,
scale=min_dim/min(h,w)  (2)
否则scale=1;
设缩放完成后最长边的长度为max_dim,如果按照式(2)来进行缩放图片,若缩放后的图片的最长边已经超过了max_dim时,则令:
scale=max_dim/image_max  (3)
否则继续按scale=min_dim/min(h,w)来进行缩放;
最后的缩放完成的图片大小尺寸为max_dim*max_dim,另外,如果最后缩放的尺度scale大于1,即放大原图,则将用双线性插值法进行放大;对于最后缩放后的图片不足max_dim*max_dim的部分,采用零值填充像素值。
5.根据权利要求1所述的小目标检测方法,其特征在于,S3中随机裁剪图片的公式表述如下:
Y1=randi([0,image_size(1)-crop_size(1)])  (4)
X1=randi([0,image_size(2)-crop_size(2)])  (5)
其中:Y1和X1分别表示裁剪图片开始的左下角纵坐标和左下角横坐标;randi表示随机取数,取数范围是小括号里面的范围;image_size是裁剪前的图片尺寸,第一维存放图片宽度,第二维存放图片长度;crop_size是需要裁剪出来的区域尺寸,第一维存放区域宽度,第二维存放区域长度;
Y2=min(image_size(1),Y1+crop_size(1))  (6)
X2=min(image_size(2),X1+crop_size(2))  (7)
其中:Y2和X2分别表示裁剪图片开始的右上角纵坐标和右上角横坐标;randi表示随机取数;min()表示取最小值;
利用式(4)-式(7)求得的两个坐标确定裁剪的具***置,如果裁剪区域溢出原图,将进行pad填充,得到裁剪后的图像。
6.根据权利要求1所述的小目标检测方法,其特征在于,残差骨干网络的卷积包括block1、block2两类卷积模块,其中:
卷积模块block1工作流程包括:
①、对于分支1,输出与输入保持一致不变;
②、对于分支2,依次使用1*1卷积核、3*3卷积核、1*1卷积核进行卷积操作,并在每次卷积完成后对输出的特征向量进行均值归一化;
卷积模块block2工作流程包括:
①、对于分支1,使用1*1卷积核进行卷积操作,紧接着对输出的特征向量进行均值归一化;
②、对于分支2,依次使用1*1卷积核、3*3卷积核、1*1卷积核进行卷积操作,并在每次卷积完成后对输出的特征向量进行均值归一化。
7.根据权利要求1所述的小目标检测方法,其特征在于,S4中输出多组不同尺寸的特征图包括:
对于原图输入,构成五层特征图输出:C2、C3、C4、C5、C6;对于相对原图缩小一倍的输入,构成五层特征图输出:C2s、C3s、C4s、C5s、C6s;对于相对原图放大一倍的输入,构成五层特征图输出:C2l、C3l、C4l、C5l、C6l。
8.根据权利要求7所述的小目标检测方法,其特征在于,步骤S5包括:
S51、对C2s-C6s进行基于插值原理的上采样,将C2s-C6s扩大一倍;
S52、将C2l-C6l进行最大值池化,将C2l-C6l缩小一倍;
S53、将C2-C6与扩大一倍后的C2s-C6s和缩小一倍后的C2l-C6l相加,得到融合了不同尺度图像特征的C2-C6;
S54、对融合了不同尺度图像特征的C2-C6进一步处理得到特征图P2-P6。
9.根据权利要求8所述的小目标检测方法,其特征在于,S54包括:
用256个1*1卷积核对融合了不同尺度图像特征的C6进行卷积得到输出为16*16*256的特征图P6;
用256个1*1卷积核对融合了不同尺度图像特征的C5进行卷积后与将P6进行上采样两倍后的输出相加,再进行3*3卷积得到输出为32*32*256的特征图P5;
用256个1*1卷积核对融合了不同尺度图像特征的C4进行卷积后与将P5进行上采样两倍后的输出相加,再进行3*3卷积得到输出为64*64*256的特征图P4;
用256个1*1卷积核对融合了不同尺度图像特征的C3进行卷积后与将P4进行上采样两倍后的输出相加,再进行3*3卷积得到输出为128*128*256的特征图P3;
用256个1*1卷积核对融合了不同尺度图像特征的C2进行卷积后与将P3进行上采样两倍的输出相加,再进行3*3卷积得到输出为256*256*256的特征图P2。
10.根据权利要求1所述的小目标检测方法,其特征在于,候选检测框的高度h、宽度w为:
Figure FDA0002396690380000051
Figure FDA0002396690380000052
其中:scale_length表示当候选检测框为高度与宽度相等的方框时,高度和宽度对应于原图的像素级大小。
CN202010134062.7A 2020-03-02 2020-03-02 一种基于多尺度图像和加权融合损失的小目标检测方法 Active CN111461110B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010134062.7A CN111461110B (zh) 2020-03-02 2020-03-02 一种基于多尺度图像和加权融合损失的小目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010134062.7A CN111461110B (zh) 2020-03-02 2020-03-02 一种基于多尺度图像和加权融合损失的小目标检测方法

Publications (2)

Publication Number Publication Date
CN111461110A CN111461110A (zh) 2020-07-28
CN111461110B true CN111461110B (zh) 2023-04-28

Family

ID=71682457

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010134062.7A Active CN111461110B (zh) 2020-03-02 2020-03-02 一种基于多尺度图像和加权融合损失的小目标检测方法

Country Status (1)

Country Link
CN (1) CN111461110B (zh)

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10678244B2 (en) 2017-03-23 2020-06-09 Tesla, Inc. Data synthesis for autonomous control systems
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US10671349B2 (en) 2017-07-24 2020-06-02 Tesla, Inc. Accelerated mathematical engine
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US11215999B2 (en) 2018-06-20 2022-01-04 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11361457B2 (en) 2018-07-20 2022-06-14 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
SG11202103493QA (en) 2018-10-11 2021-05-28 Tesla Inc Systems and methods for training machine models with augmented data
US11196678B2 (en) 2018-10-25 2021-12-07 Tesla, Inc. QOS manager for system on a chip communications
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US11150664B2 (en) 2019-02-01 2021-10-19 Tesla, Inc. Predicting three-dimensional features for autonomous driving
US10997461B2 (en) 2019-02-01 2021-05-04 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US10956755B2 (en) 2019-02-19 2021-03-23 Tesla, Inc. Estimating object properties using visual image data
CN112016467B (zh) * 2020-08-28 2022-09-20 展讯通信(上海)有限公司 交通标志识别模型训练方法、识别方法、***、设备及介质
CN112052787B (zh) * 2020-09-03 2021-07-30 腾讯科技(深圳)有限公司 基于人工智能的目标检测方法、装置及电子设备
CN112132206A (zh) * 2020-09-18 2020-12-25 青岛商汤科技有限公司 图像识别方法及相关模型的训练方法及相关装置、设备
CN112215179B (zh) * 2020-10-19 2024-04-19 平安国际智慧城市科技股份有限公司 车内人脸识别方法、设备、装置及存储介质
CN112307976B (zh) * 2020-10-30 2024-05-10 北京百度网讯科技有限公司 目标检测方法、装置、电子设备以及存储介质
CN112257809B (zh) * 2020-11-02 2023-07-14 浙江大华技术股份有限公司 目标检测网络优化方法和装置、存储介质及电子设备
CN112508863B (zh) * 2020-11-20 2023-07-18 华南理工大学 一种基于rgb图像和msr图像双通道的目标检测方法
CN112381030B (zh) * 2020-11-24 2023-06-20 东方红卫星移动通信有限公司 一种基于特征融合的卫星光学遥感图像目标检测方法
CN112418108B (zh) * 2020-11-25 2022-04-26 西北工业大学深圳研究院 一种基于样本重加权的遥感图像多类目标检测方法
CN112419310B (zh) * 2020-12-08 2023-07-07 中国电子科技集团公司第二十研究所 一种基于交并融合边框优选的目标检测方法
CN112841154A (zh) * 2020-12-29 2021-05-28 长沙湘丰智能装备股份有限公司 一种基于人工智能的病虫害防治***
CN112634313B (zh) * 2021-01-08 2021-10-29 云从科技集团股份有限公司 目标遮挡评估方法、***、介质及装置
CN114037648A (zh) * 2021-02-04 2022-02-11 广州睿享网络科技有限公司 基于类Softmax函数信息熵的智能速率参数控制方法
CN112949520B (zh) * 2021-03-10 2022-07-26 华东师范大学 一种基于多尺度小样本的航拍车辆检测方法及检测***
CN112950703B (zh) * 2021-03-11 2024-01-19 无锡禹空间智能科技有限公司 小目标的检测方法、装置、存储介质及设备
CN113160141A (zh) * 2021-03-24 2021-07-23 华南理工大学 一种钢板表面缺陷检测***
CN113326734B (zh) * 2021-04-28 2023-11-24 南京大学 一种基于YOLOv5的旋转目标检测方法
JP2023527615A (ja) * 2021-04-28 2023-06-30 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 目標対象検出モデルのトレーニング方法、目標対象検出方法、機器、電子機器、記憶媒体及びコンピュータプログラム
CN113139543B (zh) * 2021-04-28 2023-09-01 北京百度网讯科技有限公司 目标对象检测模型的训练方法、目标对象检测方法和设备
CN113538331A (zh) * 2021-05-13 2021-10-22 中国地质大学(武汉) 金属表面损伤目标检测识别方法、装置、设备及存储介质
CN113408429B (zh) * 2021-06-22 2023-06-09 深圳市华汉伟业科技有限公司 一种具有旋转适应性的目标检测方法及***
CN114067110A (zh) * 2021-07-13 2022-02-18 广东国地规划科技股份有限公司 一种实例分割网络模型的生成方法
CN113469100A (zh) * 2021-07-13 2021-10-01 北京航科威视光电信息技术有限公司 一种复杂背景下目标检测方法、装置、设备及介质
CN113657174A (zh) * 2021-07-21 2021-11-16 北京中科慧眼科技有限公司 一种车辆伪3d信息检测方法、装置与自动驾驶***
CN113657214B (zh) * 2021-07-30 2024-04-02 哈尔滨工业大学 一种基于Mask RCNN的建筑损伤评估方法
CN113705387B (zh) * 2021-08-13 2023-11-17 国网江苏省电力有限公司电力科学研究院 一种用于激光清除架空线路异物的干扰物检测和跟踪方法
CN113628250A (zh) * 2021-08-27 2021-11-09 北京澎思科技有限公司 目标跟踪方法、装置、电子设备以及可读存储介质
CN113743521B (zh) * 2021-09-10 2023-06-27 中国科学院软件研究所 一种基于多尺度上下文感知的目标检测方法
CN113870254B (zh) * 2021-11-30 2022-03-15 中国科学院自动化研究所 目标对象的检测方法、装置、电子设备及存储介质
CN113963274B (zh) * 2021-12-22 2022-03-04 中国人民解放军96901部队 基于改进ssd算法的卫星影像目标智能识别***与方法
CN116645523B (zh) * 2023-07-24 2023-12-01 江西蓝瑞存储科技有限公司 一种基于改进RetinaNet的快速目标检测方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110348445A (zh) * 2019-06-06 2019-10-18 华中科技大学 一种融合空洞卷积和边缘信息的实例分割方法
CN110738642A (zh) * 2019-10-08 2020-01-31 福建船政交通职业学院 基于Mask R-CNN的钢筋混凝土裂缝识别及测量方法及存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9965719B2 (en) * 2015-11-04 2018-05-08 Nec Corporation Subcategory-aware convolutional neural networks for object detection

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110348445A (zh) * 2019-06-06 2019-10-18 华中科技大学 一种融合空洞卷积和边缘信息的实例分割方法
CN110738642A (zh) * 2019-10-08 2020-01-31 福建船政交通职业学院 基于Mask R-CNN的钢筋混凝土裂缝识别及测量方法及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
A Fast Circle Detection Method Based on a Tri-Class Thresholding for High Detail FPC Images;Jiaxiang Luo et al.;《IEEE Transactions on Instrumentation and Measurement》;20190411;第69卷(第4期);第1327-1335页 *

Also Published As

Publication number Publication date
CN111461110A (zh) 2020-07-28

Similar Documents

Publication Publication Date Title
CN111461110B (zh) 一种基于多尺度图像和加权融合损失的小目标检测方法
CN109584248B (zh) 基于特征融合和稠密连接网络的红外面目标实例分割方法
CN110414377B (zh) 一种基于尺度注意力网络的遥感图像场景分类方法
CN109859190B (zh) 一种基于深度学习的目标区域检测方法
CN111027493B (zh) 一种基于深度学习多网络软融合的行人检测方法
CN111179217A (zh) 一种基于注意力机制的遥感图像多尺度目标检测方法
CN111126472A (zh) 一种基于ssd改进的目标检测方法
CN110059586B (zh) 一种基于空洞残差注意力结构的虹膜定位分割***
CN110633661A (zh) 一种融合语义分割的遥感图像目标检测方法
CN112036447B (zh) 零样本目标检测***及可学习语义和固定语义融合方法
CN113313810B (zh) 一种透明物体的6d姿态参数计算方法
CN115131797B (zh) 一种基于特征增强金字塔网络的场景文本检测方法
CN111368769A (zh) 基于改进锚点框生成模型的船舶多目标检测方法
CN111401293B (zh) 一种基于Head轻量化Mask Scoring R-CNN的手势识别方法
CN111274981B (zh) 目标检测网络构建方法及装置、目标检测方法
CN107506792B (zh) 一种半监督的显著对象检测方法
CN111160407A (zh) 一种深度学习目标检测方法及***
CN112613350A (zh) 一种基于深度神经网络的高分辨率光学遥感图像飞机目标检测方法
CN112488229A (zh) 一种基于特征分离和对齐的域自适应无监督目标检测方法
CN115222946B (zh) 一种单阶段实例图像分割方法、装置以及计算机设备
CN116645592A (zh) 一种基于图像处理的裂缝检测方法和存储介质
CN110852317A (zh) 一种基于弱边缘的小尺度目标检测方法
CN113205502A (zh) 一种基于深度学习的绝缘子缺陷检测方法及其***
CN113378812A (zh) 一种基于Mask R-CNN和CRNN的数字表盘识别方法
CN113887649B (zh) 一种基于深层特征和浅层特征融合的目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant