CN112115977B - 基于尺度不变性与特征融合的目标检测算法 - Google Patents

基于尺度不变性与特征融合的目标检测算法 Download PDF

Info

Publication number
CN112115977B
CN112115977B CN202010856245.XA CN202010856245A CN112115977B CN 112115977 B CN112115977 B CN 112115977B CN 202010856245 A CN202010856245 A CN 202010856245A CN 112115977 B CN112115977 B CN 112115977B
Authority
CN
China
Prior art keywords
feature
candidate
frame
frames
fusion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010856245.XA
Other languages
English (en)
Other versions
CN112115977A (zh
Inventor
周轩弘
李季
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University
Original Assignee
Chongqing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University filed Critical Chongqing University
Priority to CN202010856245.XA priority Critical patent/CN112115977B/zh
Publication of CN112115977A publication Critical patent/CN112115977A/zh
Application granted granted Critical
Publication of CN112115977B publication Critical patent/CN112115977B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

一种基于尺度不变性与特征融合的目标检测算法,采用的步骤为:步骤一:将待检测图像输入到detnet59中进行特征提取,获得多个特征图;步骤二:对获得的多个特征图进行选择融合特征的方式,获得新的具有相同通道的多个特征图;步骤三:使用多个特征图生成候选框,对候选框进行多次选择分类与回归。

Description

基于尺度不变性与特征融合的目标检测算法
技术领域
本发明涉及目标检测技术领域,具体涉及一种基于尺度不变性与特征融合的目标检测算法。
背景技术
随着深度学习技术的不断发展,目标检测方法越来越多。图像中存在大量的目标,对每一个目标进行分类与检测是比较困难的,特别是一些小目标,因此小目标的检测是目前目标检测领域中的重点区域。
目标检测是一个复杂且重要的任务,对军事,医疗,生活等方面都有着巨大的作用。已有的目标检测技术主要分为两种类型:一是基于手工标注特征的传统方法,例如Hear特征和Adaboost算法、SVM算法和DPM算法;二是基于深度学习技术的方法。在深度学习下,目标检测主要分为了以下两个任务:一个是边框的预测,标出每个物体的上下左右的位置。另一个是类别的预测,预测出每个像素属于哪个物体。而又因为步骤不同,目标检测又分为了二阶段检测和单阶段目标检测。二阶段目标检测的代表论文主要有RCNN系列,即先产生物体候选区域(Region Proposals),然后在对其进行修正。单阶段的目标检测的代表论文主要是YOLO、SSD系列,即通过网络直接预测出边框的位置。总体上来说,二阶段的目标检测的精度比单阶段的目标检测的精度更高,而单阶段目标检测精度不如二阶段的,但是在保证了一定的精度下检测速度更快。但是这俩种方法都存在一个尺度变换问题。因为这俩种方法都是基于较大的下采样因子,而产生较高的感受野来获得更多的语义信息,这是有利于大物体识别。但是,下采样必定带来空间分辨率的损害,下采样越大,分辨率越小,小物体识别也就更困难。为了解决下采样带来的尺度变换问题,常用的方法是多尺度特征融合。FPN首次使用了该方法,通过自顶向下的思想,低层的特征融合高层的特征来获得了更多的语义信息。其后PANet在FPN的基础上进行了改进,在加上了自底向上的思想,在从低层特征逐步下采样到高层特征的分辨率,并且与高层特征融合,使得高层特征也具有了低层特征的空间信息。但是这种方法也存在缺陷,不同层对不同尺度的敏感性不同,高层特征即使融合了低层特征的空间信息,但同时也带来了低层的语义信息,因此会对本身已经训练好的高层特征产生影响,使得高层特征对大物体的分类以及预测能力减弱。
发明内容
本发明针对现有技术的不足,提出一种解决现有的目标检测方法中存在的尺度变化问题,提升小目标以及大目标的检测的基于尺度不变性与特征融合的目标检测算法,具体技术方案如下:
一种基于尺度不变性与特征融合的目标检测算法,采用的步骤为:
步骤一:将待检测图像输入到detnet59中进行特征提取,获得多个特征图;
步骤二:对获得的多个特征图进行选择融合特征的方式,获得新的具有相同通道的多个特征图;
步骤三:使用多个特征图生成候选框,对候选框进行多次选择分类与回归。
作为优化:所述detnet59为改进的detnet59,所述改进的detnet59与detnet59拥有相同的第一步到第五步,分别生成1-5个特征图,从第五步开始,使用第5个特征图,分成了三个分支,生成第6-8个特征图,第6个特征图的分辨率与第5个特征图保持一样,使用膨胀卷积保持感受野不同,第7,8个特征图使用下采样降低分辨率增加语义信息,再使用膨胀卷积增加第7,8个特征图的感受野。
作为优化:所述步骤二中选择融合特征的方式具体为;
步骤2.1:将第2-8的特征图通过卷积操作变为通道256的特征图,其中第6-8的特征图就生成为P6-P8;
步骤2.2:在将7和8的特征图经过上采样后和6的特征图一起融合到特征图5中,在融合之后再对每个融合结果进行卷积生成P5;
步骤2.3:再将P5进行上采样融合到特征图4中,在融合之后再对每个融合结果进行卷积生成P4;
步骤2.4:一直重复2.3步骤直到融合完特征图2,生成P2、P3。
作为优化:所述步骤三具体为,
步骤3.1:对于P2、P3、P4、P5、P6、P7和P8层,生成大量的anchor;
步骤3.2:对于P6、P7、P8这三层,对其产生的anchor和ground truth根据l_i≤√wh〖≤u〗_i函数进行了筛选,l_i代表宽度最小值,u_i代表宽度最大值,w、h分别代表边框的高和宽,P6只保留小的anchor,P7只保留中等的anchor,P8只保留大的anchor;然后对anchor使用IoU阈值为0.5的NMS非极大值抑制生成第一部分的候选框,再对第一部分的候选框进行分类和边框回归;IOU的值就是两个预测框的交集除以两个预测框的并集的值;NMS就是对所有的框进行一一比较,如果两个框的交集大于IOU设置的阈值,则保留得分最大的框,删除另外的框;获得第一部分候选框;P6再只对小的ground truth回传损失,P7再只对中等的ground truth回传损失,P8再只对大的ground truth回传损失;
步骤3.2:得到第一部分回归后的候选框后,使用阈值为0.6的NMS非极大值抑制生成第二部分的候选框,再对第二部分的候选框进行分类和边框回归;
步骤3.3:得到第二部分回归后的候选框后,使用阈值为0.7的NMS非极大值抑制生成最终的候选框,再对最终的候选框进行分类和边框回归。
作为优化:所述对候选框进行分类包括,
分类利用softmax函数将候选框对应的特征映射到(0,1)区间,对应n个类别上去,n为大于1的整数,概率最高的类别为预测的类别;
其中Si表示对于类别的概率,ei表示对类别的预测分数,∑jej表示所有类别分数和。
作为优化:所述对最终的候选框进行回归包括:
回归利用DIoU损失函数将候选框与目标之间的尺度,重叠率以及距离都参与计算;
其中IoU表示目标框与候选框的交并比,b表示候选框的的中心点,bgt表示目标框的中心点,ρ代表的是计算两个中心点间的欧式狙击,c代表的是能够同时包含候选框和目标框的最小闭包区域的对角线距离。
本发明的有益效果为:将图像输入到深度神经网络中进行特征提取,获得拥有尺度不变性的特征图,对特征图进行筛选,获取多个候选框,利用特征图生成候选框,再对候选框进行交并比为0.5的极大值抑制选出第一部分候选框,对第一部分候选框进行分类和回归获得新的候选框,再对新的候选框做交并比为0.6的极大值抑制,获得第二部分候选框。再对第二部分候选框进行分类和回归获得新的候选框,再对新的候选框做交并比为0.7的极大值抑制,获得最终的候选框。
附图说明
图1为本发明基于尺度不变性与特征融合的目标检测算法的流程图;
图2为本发明中多分支detnet网络结构图;
图3为本发明中选择融合结构图;
图4为本发明中每个分支预测物体大小图;
图5为本发明中候选框多次分类与回归图;
图6为本发明中网络结构图;
具体实施方式
下面结合附图对本发明的较佳实施例进行详细阐述,以使本发明的优点和特征能更易于被本领域技术人员理解,从而对本发明的保护范围做出更为清楚明确的界定。
本发明所用到的硬件设备有PC机1台、nvidia1080Ti显卡1个;
如图1所示:一种基于尺度不变性与特征融合的目标检测算法,包括以下步骤:
S1:将待检测图像输入到改进的detnet59中进行特征提取,获得多个特征图;
S2:对获得的多个特征图进行选择融合特征的方式,获得新的具有相同通道的多个特征图;
S3:使用多个特征图生成候选框,对候选框进行多次选择分类与回归。
改进的detnet59网络结构:
参见图2,所使用的改进的detnet59网络结构,对输入的图片每次使用步长为2的卷积操作产生4层不同大小的特征图C2,C2,C3,C4。其中使用了36个使用膨胀卷积,每9个膨胀卷积层后取一个特征图,分为C5,C6,C7,C8。而C5使用的膨胀率为2的膨胀卷积,C6在C5的基础上再使用了膨胀率为2的膨胀卷积,获得了不同于C5的感受野。C7是在C5的基础上,先对C5进行了一次步长为2的卷积,使得图像大小变小,在对变小后的图像进行膨胀率为2的膨胀卷积,获得不同于C6的感受野。C8也是在C5的基础上,先对C5进行了一次步长为2的卷积,使得图像大小变小,在对变小后的图像进行膨胀率为2的膨胀卷积,获得不同于C6,C7的感受野。
选择融合:
参见图3,利用第一步提取出来的特征图{C2,C3,C4,C5,C6,C7,C8},对所有的特征图使用一个1*1卷积核为256的卷积操作生成{C2_reduced,C3_reduced,C4_reduced,C5_reduced,P6,P7,P8};{P7,P8}进行一个双线性插值处理变为{P7_upsampled,P8_upsampled},C5_reduced和{P7_upsampled,P8_upsampled,C6_reduced}进行add卷积融合生成P5_merged,P5_merged经过一个3*3卷积核为256的卷积得到P5;P5进行一个双线性插值处理变为P5_upsampled,C4_reduced和P5_upsampled进行add卷积融合生成P4_merged,P4_merged经过一个3*3卷积核为256的卷积得到P4;
同样的方式,P4进行一个双线性插值处理变为P4_upsampled,C3_reduced和P4_upsampled进行add卷积融合生成P3_merged,P3_merged经过一个3*3卷积核为256的卷积得到P3;P3进行一个双线性插值处理变为P3_upsampled,C2_reduced和P3_upsampled进行add卷积融合生成P2_merged,P2_merged经过一个3*3卷积核为256的卷积得到P2;
预测anchor:
参见图4,{P6,P7,P8}送入RPN网络中,对其产生的anchor和ground truth根据函数进行了筛选,P6只保留在{li,ui}在[0,90]范围内的anchor,P7只保留在{li,ui}在[30,160]范围内的anchor,P8只保留在{li,ui}在[90,∞]范围内的anchor。分别预测出对应大小的anchor。而{P2,P3,P4,P5}预测出全部尺度的anchor
候选框多次分类与回归:
参见图5,使用IoU阈值为0.5的NMS非极大值抑制生成第一部分的候选框,再对第一部分的候选框进行分类和边框回归。得到回归后的候选框后,再使用IoU阈值为0.6的NMS非极大值抑制生成第二部分的候选框,再对第二部分的候选框进行分类和边框回归。得到回归后的候选框后,再使用IoU阈值为0.7的NMS非极大值抑制生成最终部分的候选框,再对最终部分的候选框进行分类和边框回归。所有的分类都使用softmax函数,所有的回归都是DIoU损失函数。
如图6所示,是专利中使用的总体网络的结构图
训练目标检测网络
加载imagene预训练模型,对网络的特征提取部分的参数进行冻结,只训练之后的网络,达到最好结果后进行下一步训练。

Claims (4)

1.一种基于尺度不变性与特征融合的目标检测算法,其特征在于,采用的步骤为:
步骤一:将待检测图像输入到detnet59中进行特征提取,获得多个特征图;
步骤二:对获得的多个特征图进行选择融合特征的方式,获得新的具有相同通道的多个特征图;
所述步骤二中选择融合特征的方式具体为;
步骤2.1:将第2-8的特征图通过卷积操作变为通道256的特征图,其中第6-8的特征图就生成为P6-P8;
步骤2.2:在将7和8的特征图经过上采样后和6的特征图一起融合到特征图5中,在融合之后再对每个融合结果进行卷积生成P5;
步骤2.3:再将P5进行上采样融合到特征图4中,在融合之后再对每个融合结果进行卷积生成P4;
步骤2.4:一直重复2.3步骤直到融合完特征图2,生成P2、P3;
步骤三:使用多个特征图生成候选框,对候选框进行多次选择分类与回归;
所述步骤三具体为,
步骤3.1:对于P2、P3、P4、P5、P6、P7和P8层,生成大量的anchor;
步骤3.2:对于P6、P7、P8这三层,对其产生的anchor和ground truth根据函数进行了筛选,li代表宽度最小值,ui代表宽度最大值,w、h分别代表边框的高和宽,P6只保留在{li,ui}在[0,90]范围内的anchor,P7只保留在{li,ui}在[30,160]范围内的anchor,P8只保留在{li,ui}在[90,∞]范围内的anchor;然后对anchor使用IoU阈值为0.5的NMS非极大值抑制生成第一部分的候选框,再对第一部分的候选框进行分类和边框回归;IOU的值就是两个预测框的交集除以两个预测框的并集的值;NMS就是对所有的框进行一一比较,如果两个框的交集大于IOU设置的阈值,则保留得分最大的框,删除另外的框;获得第一部分候选框;
步骤3.3:得到第一部分回归后的候选框后,使用阈值为0.6的NMS非极大值抑制生成第二部分的候选框,再对第二部分的候选框进行分类和边框回归;
步骤3.4:得到第二部分回归后的候选框后,使用阈值为0.7的NMS非极大值抑制生成最终的候选框,再对最终的候选框进行分类和边框回归。
2.根据权利要求1所述基于尺度不变性与特征融合的目标检测算法,其特征在于:所述detnet59为改进的detnet59,所述改进的detnet59与detnet59拥有相同的第一步到第五步,分别生成1-5个特征图,从第五步开始,使用第5个特征图,分成了三个分支,生成第6-8个特征图,第6个特征图的分辨率与第5个特征图保持一样,使用膨胀卷积保持感受野不同,第7,8个特征图使用下采样降低分辨率增加语义信息,再使用膨胀卷积增加第7,8个特征图的感受野。
3.根据权利要求1所述基于尺度不变性与特征融合的目标检测算法,其特征在于:所述对候选框进行分类包括,
分类利用softmax函数将候选框对应的特征映射到(0,1)区间,对应n个类别上去,n为大于1的整数,概率最高的类别为预测的类别;
其中Si表示对于类别的概率,ej表示对类别的预测分数,∑jej表示所有类别分数和。
4.根据权利要求1所述基于尺度不变性与特征融合的目标检测算法,其特征在于:所述对最终的候选框进行回归包括:
回归利用DIoU损失函数将候选框与目标之间的尺度,重叠率以及距离都参与计算;
其中IoU表示目标框与候选框的交并比,b表示候选框的的中心点,bgt表示目标框的中心点,ρ代表的是计算两个中心点间的欧式距离,c代表的是能够同时包含候选框和目标框的最小闭包区域的对角线距离。
CN202010856245.XA 2020-08-24 2020-08-24 基于尺度不变性与特征融合的目标检测算法 Active CN112115977B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010856245.XA CN112115977B (zh) 2020-08-24 2020-08-24 基于尺度不变性与特征融合的目标检测算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010856245.XA CN112115977B (zh) 2020-08-24 2020-08-24 基于尺度不变性与特征融合的目标检测算法

Publications (2)

Publication Number Publication Date
CN112115977A CN112115977A (zh) 2020-12-22
CN112115977B true CN112115977B (zh) 2024-04-02

Family

ID=73805356

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010856245.XA Active CN112115977B (zh) 2020-08-24 2020-08-24 基于尺度不变性与特征融合的目标检测算法

Country Status (1)

Country Link
CN (1) CN112115977B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114037972A (zh) * 2021-10-08 2022-02-11 岚图汽车科技有限公司 目标检测方法、装置、设备及可读存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109345472A (zh) * 2018-09-11 2019-02-15 重庆大学 一种复杂场景的红外运动小目标检测方法
CN109871806A (zh) * 2019-02-21 2019-06-11 山东大学 基于深度残差纹理网络的地形识别方法及***
CN110689044A (zh) * 2019-08-22 2020-01-14 湖南四灵电子科技有限公司 一种结合目标间关系的目标检测方法及***
CN110929578A (zh) * 2019-10-25 2020-03-27 南京航空航天大学 一种基于注意力机制的抗遮挡行人检测方法
CN111027547A (zh) * 2019-12-06 2020-04-17 南京大学 一种针对二维图像中的多尺度多形态目标的自动检测方法
CN111241905A (zh) * 2019-11-21 2020-06-05 南京工程学院 基于改进ssd算法的输电线路鸟窝检测方法
CN111292305A (zh) * 2020-01-22 2020-06-16 重庆大学 一种改进型yolo-v3的金属加工表面缺陷检测方法
CN111310756A (zh) * 2020-01-20 2020-06-19 陕西师范大学 一种基于深度学习的损伤玉米颗粒检测和分类方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10679351B2 (en) * 2017-08-18 2020-06-09 Samsung Electronics Co., Ltd. System and method for semantic segmentation of images

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109345472A (zh) * 2018-09-11 2019-02-15 重庆大学 一种复杂场景的红外运动小目标检测方法
CN109871806A (zh) * 2019-02-21 2019-06-11 山东大学 基于深度残差纹理网络的地形识别方法及***
CN110689044A (zh) * 2019-08-22 2020-01-14 湖南四灵电子科技有限公司 一种结合目标间关系的目标检测方法及***
CN110929578A (zh) * 2019-10-25 2020-03-27 南京航空航天大学 一种基于注意力机制的抗遮挡行人检测方法
CN111241905A (zh) * 2019-11-21 2020-06-05 南京工程学院 基于改进ssd算法的输电线路鸟窝检测方法
CN111027547A (zh) * 2019-12-06 2020-04-17 南京大学 一种针对二维图像中的多尺度多形态目标的自动检测方法
CN111310756A (zh) * 2020-01-20 2020-06-19 陕西师范大学 一种基于深度学习的损伤玉米颗粒检测和分类方法
CN111292305A (zh) * 2020-01-22 2020-06-16 重庆大学 一种改进型yolo-v3的金属加工表面缺陷检测方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Adaptive Anchor Networks for Multi-Scale Object Detection in Remote Sensing Images;Miaohui Zhang等;《IEEE Access》;第8卷;57552-57565 *
DetNet: A Backbone network for Object Detection;Zeming Li等;《arXiv:1804.06215v2》;1-17 *
基于多特征融合与ROI预测的红外目标跟踪算法;刘辉等;《光子学报》;第48卷(第07期);108-123 *
基于尺度不变性与特征融合的目标检测算法;李季等;《南京大学学报(自然科学)》;第57卷(第02期);237-244 *
基于融合机制的航拍目标检测与识别;丁瑶;《中国优秀硕士学位论文全文数据库 (信息科技辑)》(第7期);I138-572 *

Also Published As

Publication number Publication date
CN112115977A (zh) 2020-12-22

Similar Documents

Publication Publication Date Title
CN107341517B (zh) 基于深度学习层级间特征融合的多尺度小物体检测方法
CN111027493B (zh) 一种基于深度学习多网络软融合的行人检测方法
CN111860499B (zh) 一种基于特征分组的双线性卷积神经网络的汽车品牌识别方法
CN108830285B (zh) 一种基于Faster-RCNN的加强学习的目标检测方法
US10198657B2 (en) All-weather thermal-image pedestrian detection method
CN110580699A (zh) 基于改进Faster RCNN算法的病理图像细胞核检测方法
CN111353544B (zh) 一种基于改进的Mixed Pooling-YOLOV3目标检测方法
CN113313706B (zh) 基于检测参考点偏移分析的电力设备缺陷图像检测方法
CN111027475A (zh) 一种基于视觉的实时交通信号灯识别方法
CN111738055A (zh) 多类别文本检测***和基于该***的票据表单检测方法
CN113920468B (zh) 一种基于跨尺度特征增强的多分支行人检测方法
CN113255837A (zh) 工业环境下基于改进的CenterNet网络目标检测方法
CN111368845B (zh) 基于深度学习的特征字典构建及图像分割方法
CN110889360A (zh) 一种基于切换卷积网络的人群计数方法及***
CN114998595A (zh) 弱监督语义分割方法、语义分割方法及可读存储介质
CN112215226A (zh) 一种基于改进east算法的栅格地质图文本检测方法
CN116152226A (zh) 基于可融合的特征金字塔的换向器内侧图像缺陷检测方法
CN114612847A (zh) 一种Deepfake视频篡改检测方法以及***
CN112115977B (zh) 基于尺度不变性与特征融合的目标检测算法
CN112347967B (zh) 一种复杂场景下融合运动信息的行人检测方法
CN111931572B (zh) 一种遥感影像的目标检测方法
CN112418358A (zh) 一种强化深度融合网络的车辆多属性分类方法
CN107480718A (zh) 一种基于视觉词袋模型的高分辨率遥感图像分类方法
CN111582057A (zh) 一种基于局部感受野的人脸验证方法
CN114092818B (zh) 语义分割方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant