CN109166106B - 一种基于滑动窗口的目标检测位置矫正方法和装置 - Google Patents

一种基于滑动窗口的目标检测位置矫正方法和装置 Download PDF

Info

Publication number
CN109166106B
CN109166106B CN201810871600.3A CN201810871600A CN109166106B CN 109166106 B CN109166106 B CN 109166106B CN 201810871600 A CN201810871600 A CN 201810871600A CN 109166106 B CN109166106 B CN 109166106B
Authority
CN
China
Prior art keywords
confidence
sliding window
target
area
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810871600.3A
Other languages
English (en)
Other versions
CN109166106A (zh
Inventor
赵梦莹
张俊男
李睿豪
潘煜
贾智平
蔡晓军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University
Original Assignee
Shandong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University filed Critical Shandong University
Priority to CN201810871600.3A priority Critical patent/CN109166106B/zh
Publication of CN109166106A publication Critical patent/CN109166106A/zh
Application granted granted Critical
Publication of CN109166106B publication Critical patent/CN109166106B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于滑动窗口的目标检测位置矫正方法和装置,设置滑动窗口的宽度和移动步幅,利用滑动窗口分割待检测目标的图像,得到若干个候选目标区域;将所有候选目标区域送入CNN神经网络进行训练处理,得到所有候选目标区域的置信度;选取置信度最大值与该最大值对应的索引区域为基准值;利用位置矫正方法与基准值对候选目标区域进行裁剪和组合,形成新的目标区域。本发明针对图像中单一目标,以卷积神经网络和滑动窗口为基础,给出了可组合、裁剪的定位方法,提高目标识别的准确度和速度。

Description

一种基于滑动窗口的目标检测位置矫正方法和装置
技术领域
本发明涉及图像处理领域,具体涉及一种基于滑动窗口的目标检测位置矫正方法和装置。
背景技术
众所周知,当前是信息时代,信息的获得、加工、处理以及应用都有了飞跃发展。人们认识世界的重要知识来源就是图像信息,在很多场合,图像所传送的信息比其他形式的信息更丰富、真切和具体。人眼与大脑的协作使得人们可以获取、处理以及理解视觉信息,人类利用视觉感知外界环境信息的效率很高。事实上,据一些国外学者所做的统计,人类所获得外界信息有80%左右是来自眼睛摄取的图像。由此可见,视觉作为人类获取外界信息的主要载体,计算机要实现智能化,就必须能够处理图像信息。尤其是近年来,以图形、图像、视频等大容量为特征的图像数据处理广泛应用于医学、交通、工业自动化等领域。
近年来,机器学习受到学术和工程上的广泛关注。在机器学习中,卷积神经网络(Convolutional Neural Network,CNN)是一种深度前馈人工神经网络,通常包括卷积层(convolution layer)、归一化层(normalization layer)、池化层(pooling layer)和全连接层(full-connected layer),已成功地应用于图像识别。现在,CNN已经成为众多科学领域的研究热点之一,特别是在模式分类领域,由于该网络避免了对图像的复杂前期预处理,可以直接输入原始图像并对图像进行分类等操作,因而得到了更为广泛的应用。
目标检测是图像处理、目标识别领域的重要内容,其主要任务为从一幅给定图像中定位目标和分类,其中基于滑窗搜索的方法在目标检测中得到广泛应用。但传统滑窗(sliding window)搜索技术存在缺点有:(1)窗口大小固定,分割图像的大小不会因为目标大小而改变;(2)若有多组大小不同滑动窗口同时工作,势必会增加计算量,影响效率;(3)当滑动步幅密集时,数据量增加,影响速度;当滑动步幅过大时,影响检测准确率。
综上所述,现有技术中对于目标检测的准确率和效率低的问题,尚缺乏有效的解决方案。
发明内容
为了克服上述现有技术的不足,本发明提供了一种基于滑动窗口的目标检测位置矫正方法和装置,针对图像中单一目标,以卷积神经网络和滑动窗口为基础,给出了可组合、裁剪的定位方法,提高目标识别的准确度和速度。
本发明所采用的技术方案是:
本发明的第一目的是提供一种基于滑动窗口的目标检测位置矫正方法,该方法包括以下步骤:
设置滑动窗口的宽度和移动步幅,利用滑动窗口分割待检测目标的图像,得到若干个候选目标区域;
将所有候选目标区域送入CNN神经网络进行训练处理,得到所有候选目标区域的置信度;
选取置信度最大值与该最大值对应的索引区域为基准值;
利用位置矫正方法与基准值对候选目标区域进行裁剪和组合,形成新的目标区域。
进一步的,根据所有待检测物体的平均大小确定滑动窗口的宽度;滑动窗口的移动布幅小于等于滑动窗口宽度的一半。
进一步的,所述将所有候选目标区域送入CNN神经网络进行训练处理的步骤包括:
将与目标区域相关率小于阈值I的候选目标区域作为噪音,将与目标区域相关率大于阈值I的候选目标区域作为目标,分别输入到CNN神经网络中训练;
利用训练好的CNN神经网络得到所有候选目标区域的置信度。
进一步的,当噪音区域过多时,利用随机抽样方法随机删除多个噪音区域,或者删除相应训练集的图片。
进一步的,在CNN神经网络输出的所有置信度中,选取置信度最大值,将该置信度最大值与该置信度最大值对应的索引区域为基准值。
进一步的,根据滑动窗口的宽度与待检测目标的大小,将广度遍历的深度作为遍历约束条件,当广度遍历的最大深度小于等于2时进行位置矫正。
进一步的,所述利用位置矫正方法与基准值对候选目标区域进行裁剪和组合方法为:
以最大置信度对应索引区域为中心点区域;
设置区域强弱阈值T1、置信度激活阈值T2和置信度抑制阈值T3
以中心点区域为原点,上下左右四个相邻区域为当前候选扩散区域;
以广度遍历算法为基础,将当前扩散区域置信度与索引区域中心点最大置信度做差,并将扩散区域置信度与置信度激活阈值、置信度抑制阈值分别进行比较;
若当前扩散区域某个方向置信度与最大置信度的差值小于T1,且扩散区域置信度大于T2,则将中心区域向该扩散区域对应的方向扩大边界;
若当前扩散区域某个方向置信度小于T3,则说明目标区域在该方向没有延伸,待检测目标在最大值对应的索引区域内,将中心区域对应方向反方向缩小。
本发明的第二目的是提供一种基于滑动窗口的目标检测位置矫正装置,该装置包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现以下步骤,包括:
设置滑动窗口的宽度和移动步幅,利用滑动窗口分割待检测目标的图像,得到若干个候选目标区域;
将所有候选目标区域送入CNN神经网络进行训练处理,得到所有候选目标区域的置信度;
选取置信度最大值与该最大值对应的索引区域为基准值;
利用位置矫正方法与基准值对候选目标区域进行裁剪和组合,形成新的目标区域。
与现有技术相比,本发明的有益效果是:
(1)本发明根据待检测物体的平均大小设置滑动窗口的大小,使得在组合和裁剪目标区域时有较好的弹性,能够在较少的组合、裁剪操作下检测出目标所在的区域;并将移动步幅设置为低于滑动窗口的大小的一半,保证窗口有较大重叠区的前提下,提高目标检测的速度;
(2)本发明以广度遍历方法为基础,根据滑动窗口大小与检测目标真实大小添加广度遍历的深度为遍历约束条件,即广度遍历最大深度小于等于2时进行组合、裁剪,进而将待检测目标的高矮胖瘦进行描述,而非是一个原始的正方形,有效提高目标检测的准确度。
附图说明
构成本申请的一部分的说明书附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。
图1是本发明实施例一的基于滑动窗口的目标检测位置矫正方法流程图;
图2是本发明实施例二的基于滑动窗口的目标检测位置矫正方法流程图;
图3是图像候选目标区域属性值示意图;
图4是最大深度示意图;
图5是裁剪候选区域示例图;
图6是组合候选区域示例图。
具体实施方式
下面结合附图与实施例对本发明作进一步说明。
应该指出,以下详细说明都是例示性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
正如背景技术所介绍的,现有滑窗(sliding window)搜索技术存在窗口大小固定,分割图像的大小不会因为目标大小而改变,若有多组大小不同滑动窗口同时工作,势必会增加计算量,影响效率,当滑动步幅密集时,数据量增加,影响速度,当滑动步幅过大时,影响检测准确率的不足。
针对上述的不足,本发明实施例一提供了一种基于滑动窗口的目标检测位置矫正方法。如图1所示,该方法包括如下步骤:
S101,设置滑动窗口大小和移动步幅,利用滑动窗口分割图像。
先采集待检测物体的图像;然后设置滑动窗口大小和移动步幅。
设置滑动窗口大小时,通常默认滑动窗口为方形,滑动窗口的大小要依据检测物体的平均大小而确定,不应该选择过大,虽然大的窗口会在一定程度内减少窗口数量,提高检测速度,但滑动窗口过大,导致窗口内噪音过多,影响识别准确度。
选取移动步幅s时,移动步幅s要低于滑动窗口的一半,即0<s<=slide.width,slide.width为滑动窗口的宽度;保证滑动窗口有较大重叠区,提高识别准确度。
设置好滑动窗口大小和移动步幅后,利用滑动窗口开始分割目标检测的原始图像,得到若干个候选目标区域。
S102,将得到的所有候选目标区域送入CNN神经网络进行训练处理,得出所有候选目标区域的置信度。
在训练CNN神经网络权重时,将除目标区域以外的所有滑动窗口所得候选目标区域做为噪音,将与目标区域相关率IoU(Intersection over Union)大于阈值I的所有滑动窗口所得候选目标区域做为目标,放入CNN神经网络中训练。
所述目标区域相关率IoU的表达式为:
Figure BDA0001752297940000061
式中,Area of Overlap表示正确结果区域与检测结果区域交集;Area of Union表示正确结果区域与检测结果区域并集;Detection result表示目标检测位置;GroundTruth表示目标真实位置。
当噪音区域过多时,可以利用随机抽样random()方法随机删除一些噪音区域,或者减少相应训练集的一些图片。
其中阈值I(0<I<1)的选择需要根据实际训练情况而调整,即向有较高准确率的方向做出调整。
最后,做为CNN神经网络的输出是滑动窗口所得所有候选目标区域的置信度score[1]、score[2]、...、score[n]。
S103,在CNN神经网络输出的所有置信度中,选择最大值max_score=max{score[1],score[2]...score[n]}与最大值对应的索引区域v∈(1,n)为基准值。
本实施例中,在CNN神经网络输出的所有置信度中选择最大值,即选出待检测目标最有可能在的位置,然后以此位置为中心点,再进行调整。
在滑动窗口顺序分割原始图像的时候,有一个数组bounds也顺序的记录了每一个分割后图像块的信息,其与score[i]是一一对应的。假如socre[v]为最大值,那么bounds[v]就是对应的图像块,称为索引区域。
S104,利用位置矫正方法BSF_Revise_bounds()与基准值max_score、v对候选目标区域进行裁剪和组合,形成新的目标区域。
本发明以BFS(Breadth-First Search)广度遍历为基础,根据滑动窗口大小与检测目标真实大小添加广度遍历的深度extent为遍历约束条件,即广度遍历最大深度extent<=2来进行位置矫正。
该裁剪和组合方法具体为:
以最大置信度max_score对应索引区域为中心,以广度遍历BFS方法向四周扩散;
将扩散区域置信度score[w]与索引区域的最大置信度max_score比较;其中本发明设置了三个阈值,分别为T1、T2、T3,T1表示扩散区域置信度score[w]与最大置信度max_score的差值,表示两个区域的联系强弱;T2为置信度激活阈值,若当前扩散区域置信度score[w]大于T2,表示当前区域可信度较高;T3为置信度抑制阈值,若当前扩散区域置信度score[w]小于T3,表示当前区域置信度较低;T1、T2、T3大小设置可以根据CNN神经网络得出的实际置信度与检测目标的联系灵活设置。
若当前扩散区域置信度score[w]与最大区域置信度max_score差值小于T1且当前扩散区域置信度score[w]大于T2,说明扩散区域与索引区域联系密切,且扩散区域w为高可信度区域。此时应向扩散区域w对应方向扩大边界,并考虑与扩散区域w相邻的周围区域是否还包含目标区域。
若当前扩散区域置信度score[w]小于T3,则说明w区域与目标区域联系较弱,且目标区域在max_score对应候选区域内,此时应缩减扩散区域w对应方向的边界,同时放弃考虑扩散区域w对应方向的延伸。
S105,输出矫正后目标区域坐标。
本发明实施例提出了一种基于滑动窗口的目标检测位置矫正方法,根据检测物体的大小设置滑动窗口的大小,使得分割图像的大小会因为目标的大小而改变;并将移动布幅设置为低于滑动窗口的大小的一半,保证窗口有较大重叠区,提高识别准确度;根据滑动窗口大小与检测目标真实大小添加广度遍历的深度为遍历约束条件,即广度遍历最大深度小于等于2时进行位置矫正,有效提高目标检测的准确度。
为了让本领域的技术人员更好地了解本发明,本发明实施例二提供了一种基于滑动窗口的目标检测位置矫正方法,如图2所示,该方法包括以下步骤:
S201,选取滑动串口的宽度slide.width和移动步幅s,利用滑动窗口对待检测物体的图像进行处理,得到1~n候选区域。
S202,将得到的所有候选区域送入CNN神经网络进行训练,使用训练好的CNN神经网络得到候选区域置信度score[i],如图3所示。
S203,采用最大值max方法在所有候选区域置信度score[i]中选取最大置信度max_score以及该最大置信度对应索引区域v;将该最大置信度max_score和索引区域v作为基准值。
S204,调用位置矫正方法BFS_Revise_Bounds()矫正候选区域的边界区域。
BFS_Revise_bounds()位置矫正方法具体为:
S2041,初始化队列Q;初始化候选区域深度extent[1,2,3....n]=∞。
队列Q是一个一维队列具有先进先出的特点,存放当前广度遍历的中心点,刚开始存放最大值对应的区域v,extent=0,然后经过循环,会存放v的左、上、右、下几个点,组合、裁剪结束后,此时循环结束extent=1,进入下一次循环;下一次循环以左点为中心点,分别加入左点的左、上、右、下,组合、裁剪,以上为中心,分别加入上点的左、上、右、下,裁剪组合,依次循环,直到下点的左、上、右、下遍历完成,此时extent=2;队列Q里没有新的元素了,退出循环。
extent数组存放索引点距离最大值v的距离,初始化为正无穷。
S2042,访问最大置信度对应索引区域点v;visited[v]=1,extent[v]=0;将中心点v入队列Q中。
visited数组表示区域是否访问过,若visited[v]=1表示访问过;visited[v]=0;表示未访问过。
S2043,若队列Q非空时,继续执行,否则跳转到S20413。
S2044,队列Q的队头元素出队,赋值给temp。
S2045,w等于temp的左\上\右\下索引点。
左\上\右\下的意思是每次访问一个,只是访问的顺序是不一样的,比如第一次访问左,第二次访问上,第三次访问右,第四次访问下。这是循环语句里的,若第一次左不存在,就访问上。
S2046,若w存在,则向下执行,否则跳转到S2044;
S2047,若w未为访问,则向下执行,否则跳转到S20412;
S2048,访问w,将visited[w]设置为1,extent[w]=extent[w]+1;如图4所示;
S2049,若扩散区域w的置信度score[w]与最大置信度max_score的差值max_score-score[w]≤T1并且扩散区域w的置信度score[w]≥T2,则从中心点v对应区域左/上/右/下边界扩大到扩散区域w对应左/上/右/下边界,如图5所示;
S20410,若extent[w]<2,则w入队列Q;
S20411,若扩散区域w的置信度score[w]≤T3,并且扩散区域w左/右/上/下边界没扩大;则最大置信度max_score对应区域左/右/上/下边界缩小d1;如图6所示;
S20412,w=v的下一个(上\右\下)相邻置信点,跳转到S2046;直到w不存在,跳转到S2044;
S20413,返回修正后目标区域边界坐标。
其中,T1、T2、T3大小设置可以根据CNN神经网络得出的实际置信度与检测目标的联系灵活设置,d1根据滑动窗口大小与目标物体大小灵活设置。
本发明实施例提出了一种基于滑动窗口的目标检测位置矫正方法,根据检测物体的平均大小确定滑动窗口的大小,移动步幅低于窗口的一半,保证窗口有较大重叠区,提高识别准确度;以最大置信度对应区域为中心,以BFS方法向四周扩散,根据CNN神经网络得出的实际置信度与检测目标的联系灵活设置阈值T1、T2、T3来矫正边界区域,提高目标识别的准确度和速度。
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制,所属领域技术人员应该明白,在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。

Claims (5)

1.一种基于滑动窗口的目标检测位置矫正方法,其特征是,包括以下步骤:
设置滑动窗口的宽度和移动步幅,利用滑动窗口分割待检测目标的图像,得到若干个候选目标区域;
根据所有待检测物体的平均大小确定滑动窗口的宽度;滑动窗口的移动布幅小于等于滑动窗口宽度的一半;
将所有候选目标区域送入CNN神经网络进行训练处理,得到所有候选目标区域的置信度;
选取置信度最大值与该最大值对应的索引区域为基准值;
利用位置矫正方法与基准值对候选目标区域进行裁剪和组合,形成新的目标区域;根据滑动窗口的宽度与待检测目标的大小,将广度遍历的深度作为遍历约束条件,当广度遍历的最大深度小于等于2时进行位置矫正;
所述利用位置矫正方法与基准值对候选目标区域进行裁剪和组合方法为:
以最大置信度对应索引区域为中心点;
设置区域强弱阈值T1、置信度激活阈值T2和置信度抑制阈值T3
以中心点区域为原点,上、下、左、右四个相邻区域为当前候选扩散区域;
以广度遍历算法为基础,将当前扩散区域置信度与索引区域中心点最大置信度做差,并将扩散区域置信度与置信度激活阈值、置信度抑制阈值分别进行比较;
若当前扩散区域某个方向置信度与最大置信度的差值小于T1,且扩散区域置信度大于T2,则将中心区域向该扩散区域对应的方向扩大边界;
若当前扩散区域某个方向置信度小于T3,则说明目标区域在该方向没有延伸,待检测目标在最大值对应的索引区域内,将中心区域对应方向反方向缩小。
2.根据权利要求1所述的基于滑动窗口的目标检测位置矫正方法,其特征是,所述将所有候选目标区域送入CNN神经网络进行训练处理的步骤包括:
将与目标区域相关率小于阈值I的候选目标区域作为噪音,将与目标区域相关率大于阈值I的候选目标区域作为目标,分别输入到CNN神经网络中训练;
利用训练好的CNN神经网络得到所有候选目标区域的置信度。
3.根据权利要求2所述的基于滑动窗口的目标检测位置矫正方法,其特征是,当噪音区域过多时,利用随机抽样方法随机删除多个噪音区域,或者删除相应训练集的图片。
4.根据权利要求1所述的基于滑动窗口的目标检测位置矫正方法,其特征是,在CNN神经网络输出的所有置信度中,选取置信度最大值,将该置信度最大值与该置信度最大值对应的索引区域为基准值。
5.一种基于滑动窗口的目标检测位置矫正装置,其特征是,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现以下步骤,包括:
设置滑动窗口的宽度和移动步幅,利用滑动窗口分割待检测目标的图像,得到若干个候选目标区域;
根据所有待检测物体的平均大小确定滑动窗口的宽度;滑动窗口的移动布幅小于等于滑动窗口宽度的一半;
将所有候选目标区域送入CNN神经网络进行训练处理,得到所有候选目标区域的置信度;
选取置信度最大值与该最大值对应的索引区域为基准值;
利用位置矫正方法与基准值对候选目标区域进行裁剪和组合,形成新的目标区域;
根据滑动窗口的宽度与待检测目标的大小,将广度遍历的深度作为遍历约束条件,当广度遍历的最大深度小于等于2时进行位置矫正;
所述利用位置矫正方法与基准值对候选目标区域进行裁剪和组合方法为:
以最大置信度对应索引区域为中心点;
设置区域强弱阈值T1、置信度激活阈值T2和置信度抑制阈值T3
以中心点区域为原点,上、下、左、右四个相邻区域为当前候选扩散区域;
以广度遍历算法为基础,将当前扩散区域置信度与索引区域中心点最大置信度做差,并将扩散区域置信度与置信度激活阈值、置信度抑制阈值分别进行比较;
若当前扩散区域某个方向置信度与最大置信度的差值小于T1,且扩散区域置信度大于T2,则将中心区域向该扩散区域对应的方向扩大边界;
若当前扩散区域某个方向置信度小于T3,则说明目标区域在该方向没有延伸,待检测目标在最大值对应的索引区域内,将中心区域对应方向反方向缩小。
CN201810871600.3A 2018-08-02 2018-08-02 一种基于滑动窗口的目标检测位置矫正方法和装置 Active CN109166106B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810871600.3A CN109166106B (zh) 2018-08-02 2018-08-02 一种基于滑动窗口的目标检测位置矫正方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810871600.3A CN109166106B (zh) 2018-08-02 2018-08-02 一种基于滑动窗口的目标检测位置矫正方法和装置

Publications (2)

Publication Number Publication Date
CN109166106A CN109166106A (zh) 2019-01-08
CN109166106B true CN109166106B (zh) 2021-07-30

Family

ID=64898741

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810871600.3A Active CN109166106B (zh) 2018-08-02 2018-08-02 一种基于滑动窗口的目标检测位置矫正方法和装置

Country Status (1)

Country Link
CN (1) CN109166106B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112751633B (zh) * 2020-10-26 2022-08-26 中国人民解放军63891部队 一种基于多尺度窗口滑动的宽带频谱检测方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107665336A (zh) * 2017-09-20 2018-02-06 厦门理工学院 智能冰箱中基于Faster‑RCNN的多目标检测方法
CN107679469A (zh) * 2017-09-22 2018-02-09 东南大学—无锡集成电路技术研究所 一种基于深度学习的非极大值抑制方法
CN108062531A (zh) * 2017-12-25 2018-05-22 南京信息工程大学 一种基于级联回归卷积神经网络的视频目标检测方法
CN108304808A (zh) * 2018-02-06 2018-07-20 广东顺德西安交通大学研究院 一种基于时空信息与深度网络的监控视频对象检测方法
CN108319949A (zh) * 2018-01-26 2018-07-24 中国电子科技集团公司第十五研究所 一种高分辨率遥感图像中多朝向舰船目标检测与识别方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9881234B2 (en) * 2015-11-25 2018-01-30 Baidu Usa Llc. Systems and methods for end-to-end object detection
KR20170131081A (ko) * 2016-05-20 2017-11-29 주식회사 에스원 객체 검출 방법 및 장치
CN106327507B (zh) * 2016-08-10 2019-02-22 南京航空航天大学 一种基于背景和前景信息的彩色图像显著性检测方法
CN107154024A (zh) * 2017-05-19 2017-09-12 南京理工大学 基于深度特征核相关滤波器的尺度自适应目标跟踪方法
CN108154520B (zh) * 2017-12-25 2019-01-08 北京航空航天大学 一种基于光流与帧间匹配的运动目标检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107665336A (zh) * 2017-09-20 2018-02-06 厦门理工学院 智能冰箱中基于Faster‑RCNN的多目标检测方法
CN107679469A (zh) * 2017-09-22 2018-02-09 东南大学—无锡集成电路技术研究所 一种基于深度学习的非极大值抑制方法
CN108062531A (zh) * 2017-12-25 2018-05-22 南京信息工程大学 一种基于级联回归卷积神经网络的视频目标检测方法
CN108319949A (zh) * 2018-01-26 2018-07-24 中国电子科技集团公司第十五研究所 一种高分辨率遥感图像中多朝向舰船目标检测与识别方法
CN108304808A (zh) * 2018-02-06 2018-07-20 广东顺德西安交通大学研究院 一种基于时空信息与深度网络的监控视频对象检测方法

Also Published As

Publication number Publication date
CN109166106A (zh) 2019-01-08

Similar Documents

Publication Publication Date Title
US11842487B2 (en) Detection model training method and apparatus, computer device and storage medium
US10832039B2 (en) Facial expression detection method, device and system, facial expression driving method, device and system, and storage medium
CN113159028B (zh) 显著性感知图像裁剪方法、装置、计算设备和存储介质
WO2019174276A1 (zh) 用于定位目标物体区域中心的图像处理方法、装置、设备和介质
US20220084304A1 (en) Method and electronic device for image processing
CN109685037A (zh) 一种实时动作识别方法、装置及电子设备
US20210158593A1 (en) Pose selection and animation of characters using video data and training techniques
CN112507918B (zh) 一种手势识别方法
WO2021238586A1 (zh) 一种训练方法、装置、设备以及计算机可读存储介质
CN106295639A (zh) 一种虚拟现实终端以及目标图像的提取方法和装置
CN111488836A (zh) 人脸轮廓修正方法、装置、设备及存储介质
CN111277759A (zh) 构图提示方法、装置、存储介质及电子设备
CN111951283A (zh) 一种基于深度学习的医学图像识别方法及***
CN109166106B (zh) 一种基于滑动窗口的目标检测位置矫正方法和装置
CN114299363A (zh) 图像处理模型的训练方法、图像分类方法及装置
CN114445691A (zh) 模型训练方法、装置、电子设备及存储介质
CN109948489A (zh) 一种基于视频多帧人脸特征融合的人脸识别***及方法
CN110223291B (zh) 一种基于损失函数的训练眼底病变点分割网络方法
CN113627410B (zh) 一种视频中动作语义识别检索的方法
CN111291611A (zh) 一种基于贝叶斯查询扩展的行人重识别方法及装置
CN109299743A (zh) 手势识别方法及装置、终端
CN115457646A (zh) 用于对眼底周边的病灶进行识别的装置、方法和相关产品
CN111626143B (zh) 一种基于眼睛定位的反向人脸检测方法、***及设备
CN111950586B (zh) 一种引入双向注意力的目标检测方法
CN113591858A (zh) 一种文本识别方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant