CN108256394B - 一种基于轮廓梯度的目标跟踪方法 - Google Patents

一种基于轮廓梯度的目标跟踪方法 Download PDF

Info

Publication number
CN108256394B
CN108256394B CN201611239192.7A CN201611239192A CN108256394B CN 108256394 B CN108256394 B CN 108256394B CN 201611239192 A CN201611239192 A CN 201611239192A CN 108256394 B CN108256394 B CN 108256394B
Authority
CN
China
Prior art keywords
target
image
scale
gradient
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201611239192.7A
Other languages
English (en)
Other versions
CN108256394A (zh
Inventor
李波
左春婷
蔡宇
黄艳金
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Forestry Star Beijing Technology Information Co ltd
Original Assignee
China Forestry Star Beijing Technology Information Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Forestry Star Beijing Technology Information Co ltd filed Critical China Forestry Star Beijing Technology Information Co ltd
Priority to CN201611239192.7A priority Critical patent/CN108256394B/zh
Publication of CN108256394A publication Critical patent/CN108256394A/zh
Application granted granted Critical
Publication of CN108256394B publication Critical patent/CN108256394B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明具体公开一种基于轮廓梯度的目标跟踪方法,通过从输入的视频或图像序列的初始帧中分割候选目标,并提取出参考图像;提取参考图像轮廓作为标准特征模板,并进行尺度、角度变换,得到多尺度多角度模板序列;输入视频或图像序列的下一帧,提取该目标图像的梯度特征;将多尺度多角度模板序列在目标图像的特征图像上进行步长为1的滑动窗口扫描,并计算两者匹配的相似度;根据匹配位置、尺度因子、角度因子等信息,在目标图像中分割出目标所在的子区域作为下一次检测的参考图像进行更新;直至视频或图像序列所有帧检测完毕。本发明目的是:在于提供一种基于轮廓梯度的目标跟踪方法,以适应目标的尺度变化和/或角度变化,提高目标跟踪的准确度。

Description

一种基于轮廓梯度的目标跟踪方法
技术领域
本发明属于计算机图像处理技术领域,具体公开一种基于轮廓梯度的目标跟踪方法。
背景技术
在安防监控任务中,为了实现目标自动跟踪的需求,常常需要在视频或者连续图像序列中确定出感兴趣区域的目标位置,并将每一帧图像中的目标位置对应起来。
目标跟踪技术的研究内容,主要分为以下两个方面:一,对所捕获的视频序列中的运动目标进行检测、跟踪、识别和提取所需信息,如目标的轨迹及相关运动参数如速度、加速度、位置等。二,利用获取的各项运动参数对目标进行预测和估计以辅助决策。因此,精确提取运动目标的特征是提高目标跟踪、识别与分类精度的前提;而跟踪的精确度又影响到高层决策的精确与困难程度。
传统的目标跟踪技术方案可以描述如下:
(1)在采集的图像序列中上确定一个模板,通常称为参考图像,参考图像中记载有需要被跟踪的目标;
(2)将参考图像的每个像素点作为特征点,形成原始特征点集;或者,为了提高运算的效率,从参考图像内相隔等间距把像素点均匀提取出来(该过程可被称为等间距采样),形成原始特征点集;
(3)对原始特征点集及其邻域作运算,得到新的特征点集,根据新的特征点集在待匹配图像上确定匹配区域;
(4)计算匹配区域和参考模板之间的灰度或纹理信息,利用最小化误差的方法,通过迭代,得到匹配区域与参考图像之间的匹配系数矩阵,其中匹配系数最大值对应的区域即为被跟踪的目标。
(5)对采集到的图像序列重复步骤(3)-(4),通过图像帧与帧之间的模板匹配,最终实现了目标连续的跟踪。
传统的目标跟踪方法,存在以下缺点:
(1)得到参考图像后,将其作为标准模板,对此不再更新。但实际的跟踪***中,随着摄像机等图像采集设备的运动、目标发生运动、尺度或旋转时,可能确定的参考图像会部分移出摄像机的画面采集范围,从而参考图像的部分区域并不在后续图像序列的图像中,若采用初始参考图像,则会导致跟踪失败,出现丢失目标的情况。因此,设计一种具有较强抗干扰能力的跟踪方法具有很好的应用价值。
(2)获得的参考图像的特征点随意性大,通常包含的图像信息较少,不能很好的表征图像特征,可靠性、稳定性不高,使得跟踪算法不具备良好的鲁棒性。
(3)特征匹配计算难以达到实时,影响了目标跟踪的响应速度。
发明内容
本发明的目的是:在于提供一种基于轮廓梯度的目标跟踪方法,以适应目标的尺度变化和/或角度变化,提高目标跟踪的准确度;首先通过sobel算子提取指定目标的轮廓及其梯度向量作为标准尺度模板,然后通过尺度和角度采样得到多尺度多角度的模板序列;其次,通过模板匹配方法得到最优匹配信息,包括位置、尺度因子和角度因子;最后,根据最优匹配信息切割出目标图像上的最优匹配区域,并将其轮廓及其梯度向量作为更新的标准尺度模板。
本发明的目的是通过以下技术方案实现的:
一种基于轮廓梯度的目标跟踪方法,包括以下步骤;
步骤1:从输入的视频或图像序列的初始帧中分割候选目标,提取出包含候选目标的参考图像;
步骤2:提取目标参考图像的轮廓,得到参考图像各像素点坐标序列pi=(xi,yi)T及其对应的水平、竖直方向的梯度序列di=(ti,ui)T,作为标准特征模板;
若目标参考图像的尺寸为m×n,根据预设阈值条件T检测到边缘点的个数为L,则i=1,2,3,...,m×n,其中仅L个点为sobel边缘点,而其他的非边缘点所对应的梯度定义为(0,0);
sobel边缘检测的过程,就是利用sobel算子与参考图像的所有像素点及其邻域作卷积,然后根据预设阈值条件T确定出边缘点的过程;
经过sobel边缘检测,可以得到点pi=(xi,yi)T及其对应的梯度方向di=(ti,ui)T
步骤3:对标准特征模板进行尺度、角度di=(ti,ui)T变换,得到多尺度多角度模板序列(Pi1',di)T,(Pi2',di)T,(Pi3',di)T,......,(PiM',di)T,以增强匹配的鲁棒性;
步骤4:输入视频或图像序列的下一帧,提取该目标图像的梯度特征gr=(vr,wr)T
对尺寸为M×N目标图像使用与步骤2相同的方法及预设阈值条件进行sobel边缘检测,得到目标图像的梯度特征gr=(vr,wr)T,其中,r=1,2,3,...,M×N,L'为检测到的目标图像中边缘点的个数,当且仅当像素点为边缘时对应的梯度有值,否则为(0,0);
步骤5:将步骤3中得到的M组多尺度多角度模板图(Pi1',di)T,(Pi2',di)T,(Pi3',di)T,......,(PiM',di)T分别与目标图像的特征图像进行步长为定值的滑动窗口扫描,并计算两者匹配的相似度,比较所有模板、所有窗口位置下得到的相似度,则相似度取得最大值所对应的窗口位置,即为最佳匹配位置,是当前帧实现目标跟踪的最终结果;
步骤6:根据最佳匹配位置、尺度因子和角度因子在目标图像中分割出目标所在的子区域,并将该子区域作为下一次检测的参考图像进行更新;
步骤7:重复步骤2至步骤6的内容,直至视频或图像序列所有帧检测完毕。
进一步,所述步骤3中对标准特征模板进行适当的尺度、角度变换的方法,包括:
a)将标准尺度模板序列(pi,di)T每一点pi=(xi,yi)T的横坐标xi放大/缩小
sx倍,纵坐标yi放大/缩小sy倍;
b)经过不同变换因子sx、sy处理后,可得到多个多尺度特征模板序列(Pi1,di)T,(Pi2,di)T,(Pi3,di)T,...,(Pik,di)T,其中k为进行不同尺度变换的次数;
c)对b)得到的所有多尺度特征模板进行适当的角度变换,对多尺度特征模板序列(Pij,di)T,(j=1,2,3,...,k)进行角度为θ的旋转,设向右旋转为正方向,模板序列(Pij,di)T的每一点Pij=(Xij,Yij)T,以(0,0)为中心顺时针旋转θ,得到点Pij'=(Xij',Yij')T,用数学公式可以表示为:
Figure GDA0002473963200000041
d)得到M组多尺度多角度模板序列(Pi1',di)T,(Pi2',di)T,(Pi3',di)T,......,(PiM',di)T
进一步,所述尺度变换因子sx、sy范围为0.9~1.1,所述角度θ的范围为-30°到30°。
进一步,所述步骤5中相似度的计算方法,包括:
1)对目标图像上任一点(x,y),其梯度方向记为gx,y=(vx,y,wx,y)T
2)参考图像的特征模板窗口与待检测目标图像中某同样大小的范围进行匹配时,两点的匹配相似度s可以定义为:特征模板矩阵与目标图像的特征矩阵中相同坐标位置的点对应梯度向量方向夹角归一化余弦值之和;
3)非边缘点的梯度向量值为(0,0),故相似度可简化为相同坐标位置的边缘点对应梯度向量方向夹角归一化余弦值之和:
Figure GDA0002473963200000042
上述公式中,(x,y)值为目标图像中滑动窗口所在位置左上角的坐标,直接用该点坐标或转换为窗口中心点的坐标来表示窗口位置,相似度s的取值范围为0~1;
4)将M组多尺度多角度模板(Pi1',di)T,(Pi2',di)T,(Pi3',di)T,......,(PiM',di)T分别在目标图像的特征矩阵上进行步长为1的滑动窗口扫描,比较所有模板、所有窗口位置下得到的相似度,则相似度取得最大值所对应的窗口位置,即为最佳匹配位置,是当前帧实现目标跟踪的最终结果。
进一步,所述步骤5中相似度的快速计算方法,采用快速傅里叶变换(FFT)进行卷积运算,将相似度转换到频率域,包括:
(1)对于任一个多尺度多角度特征模板(pik,dik)T,定义两个梯度方向分量矩阵Tx、Ty,矩阵的尺寸为m×n,m、n的值分别由pik的水平、竖直坐标的最大最小值确定;pik=(xik,yik)T,dik=(tik,uik)T,根据pik中的坐标值分别对Tx、Ty赋值,将Tx中第xik列yik行元素赋值为tik,将Ty中第xik列yik行元素赋值为uik
(2)用(1)同样的方式,赋值得到目标图像的两个梯度方向分量矩阵Ox、Oy,赋值方式类似;
(3)Tx和Ox的卷积计算,通过FFT实现该卷积运算,得到
Figure GDA0002473963200000051
其中,
Figure GDA0002473963200000052
Figure GDA0002473963200000053
Figure GDA0002473963200000054
Figure GDA0002473963200000055
计算得到:
Figure GDA0002473963200000061
同理,计算得到:
Figure GDA0002473963200000062
(4)根据卷积与快速傅里叶变换(FFT)的等价关系,将上述计算结果进行如下处理得到的相似度矩阵:
Figure GDA0002473963200000063
即匹配相似度s的集合。
本发明的有益效果如下:
第一、本发明对目标提取轮廓梯度作为特征,并采用梯度阈值进行处理,得到了基于边缘点梯度向量为特征的合理、有效的特征模板,能够有效地实现目标的跟踪。
第二、本发明对特征模板进行了适当的尺度及旋转变换,得到多尺度多角度特征模板,避免了因摄像机等图像采集设备或目标的运动、目标的尺度或旋转变化导致的目标丢失问题。
第三、本发明及时分割出目标并对模板进行实时更新,避免了传统方式中采用固定模板导致的跟踪失败问题。
第四、本发明与现有技术相比,本方法使用基于边缘点梯度向量为特征模板,非边缘点则不参与特征匹配的计算过程,大大减少了特征匹配的计算量。
第五、本发明的方法还为特征匹配的实施提供了一种快速计算方法,实现了计算量的数量级地减少,可以很好地适应安防监控***中的实时性要求。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步的详细描述,其中:
图1为本发明基于轮廓梯度的目标跟踪方法实现流程图;
图2为本发明的从初始帧分割候选目标的示意图;
图3为本发明的sobel算子的示意图;
图4为本发明的图像某像素邻域示意图;
图5为本发明的标准特征模板示意图。
具体实施方式
以下将参照附图,对本发明的优选实施例进行详细的描述。应当理解,优选实施例仅为了说明本发明,而不是为了限制本发明的保护范围。
如图1-5所示,实施例一:提供一种基于轮廓梯度的目标跟踪方法,包括:特征模板的建立、特征模板与目标图像之间的匹配和特征模板的更新三个方面的内容;
步骤1.从输入的视频或图像序列的初始帧中分割候选目标,提取出包含候选目标的参考图像。该步骤图示如图2所示。根据实际应用的需求,该步骤作为整个流程的第一步,可以手工标注实现,也可通过对目标实施完整的分割算法实现。
步骤2.对目标参考图像提取轮廓,得到参考图像各像素点坐标序列pi=(xi,yi)T及其对应的水平、竖直方向的梯度序列di=(ti,ui)T,作为标准特征模板。
需要特别说明的是,若目标参考图像的尺寸为m×n,根据预设阈值条件T检测到边缘点的个数为L,则i=1,2,3,...,m×n,其中仅L个点为sobel边缘点,而其他的非边缘点所对应的梯度定义为(0,0)。
sobel边缘检测的过程,就是利用sobel算子(如图3所示的Gx、Gy)与参考图像的所有像素点及其邻域作卷积,然后根据预设阈值条件T确定出边缘点的过程。
设参考图像中的某像素(x,y)及其邻域像素值分布如图4所示。
经过sobel边缘检测,可以得到点pi=(xi,yi)T及其对应的梯度方向di=(ti,ui)T,其中,梯度方向的坐标值如下:
Figure GDA0002473963200000071
Figure GDA0002473963200000081
这样,就得到了特征模板的雏形——以参考图像的梯度特征di T构成的集合/序列,此处称之为标准特征模板,其尺寸与参考图像相同,大小为m×n,梯度特征值的分布的示例如图5所示。
步骤3.对标准特征模板进行尺度、角度变换,得到多尺度多角度模板序列(Pi1',di)T,(Pi2',di)T,(Pi3',di)T,......,(PiM',di)T,以增强匹配的鲁棒性。
对标准特征模板进行适当的尺度变换,即使标准尺度模板序列(pi,di)T每一点pi=(xi,yi)T的横坐标xi放大(缩小)sx倍,纵坐标yi放大(缩小)sy倍,取尺度变换因子sx、sy范围为0.9~1.1。若用Pi=(Xi,Yi)T表示尺度变换后的结果,则该过程数学公式可以表示为:
Figure GDA0002473963200000082
经过不同变换因子sx、sy处理后,可得到多个多尺度特征模板序列(Pi1,di)T,(Pi2,di)T,(Pi3,di)T,...,(Pik,di)T,其中k为进行不同尺度变换的次数。
进一步地,对得到的所有多尺度特征模板进行适当的角度变换。以参考图像的左上角为中心,对多尺度特征模板序列(Pij,di)T,(j=1,2,3,...,k)进行角度为θ的旋转,设向右旋转为正方向,取角度θ的范围为-30°到30°。模板序列(Pij,di)T的每一点Pij=(Xij,Yij)T,以(0,0)为中心旋转θ,得到点Pij'=(Xij',Yij')T,用数学公式可以表示为:
Figure GDA0002473963200000083
此处不局限于以参考图像左上角为旋转中心的方式,若选择参考图像中心等其他固定点作为旋转中心,其本质与本实施例都是一样的。
经过上述处理,最终得到M组多尺度多角度模板序列(Pi1',di)T,(Pi2',di)T,(Pi3',di)T,......,(PiM',di)T
使用上述过程得到的多尺度多角度特征模板,能够克服由于摄像机等图像采集设备或目标的运动、目标的尺度或角度变化导致的目标丢失问题,有良好的鲁棒性,且变换过程简单、方便,具有良好的实时性。
步骤4.输入视频或图像序列的下一帧,提取该目标图像的梯度特征gr=(vr,wr)T:
对尺寸为M×N目标图像使用与步骤2相同的方法及预设阈值条件进行sobel边缘检测,得到目标图像的梯度特征gr=(vr,wr)T,其中,r=1,2,3,...,M×N,L'为检测到的目标图像中边缘点的个数,当且仅当像素点为边缘时对应的梯度有值,否则为(0,0)。
该步骤的具体实施方法见step2,此处不再赘述。
步骤5.将步骤3中得到的M组多尺度多角度模板图(Pi1',di)T,(Pi2',di)T,(Pi3',di)T,......,(PiM',di)T分别与目标图像的特征图像进行步长为1的滑动窗口扫描,并计算两者匹配的相似度。当相似度取得最大值时,对应位置即为最佳匹配位置,进行匹配的多尺度多角度模板序列可给出最佳匹配所对应的尺度因子、角度因子等信息。具体匹配算法如下。
若对目标图像上任一点(x,y),其梯度方向记为gx,y=(vx,y,wx,y)T。参考图像的特征模板窗口与待检测目标图像中某同样大小的范围进行匹配时,两点的匹配相似度s可以定义为:特征模板矩阵与目标图像的特征矩阵中相同坐标位置的点对应梯度向量方向夹角归一化余弦值之和。
实际上,因为非边缘点的梯度向量值为(0,0),故相似度可简化为相同坐标位置的边缘点对应梯度向量方向夹角归一化余弦值之和。用数学公式可以表示为:
Figure GDA0002473963200000101
上述公式中,(x,y)值为目标图像中滑动窗口所在位置左上角的坐标,直接用该点坐标或转换为窗口中心点的坐标来表示窗口位置,相似度s的取值范围为0~1。
将M组多尺度多角度模板(Pi1',di)T,(Pi2',di)T,(Pi3',di)T,......,(PiM',di)T分别在目标图像的特征矩阵上进行步长为1的滑动窗口扫描,比较所有模板、所有窗口位置下得到的相似度,则相似度取得最大值所对应的窗口位置,即为最佳匹配位置,是当前帧实现目标跟踪的最终结果。
可以看到,通过sobel算子提取轮廓梯度向量作为特征进行匹配,计算中就只需对边缘点进行计算,与传统的特征模板相比,大大降低了计算量,提高了算法的实时性。
步骤6.根据最优匹配位置、尺度因子、角度因子等信息,在目标图像中分割出目标所在的子区域,并将该子区域作为下一次检测的参考图像进行更新。
步骤7.重复步骤2至步骤6的内容,直至视频或图像序列所有帧检测完毕。
实施例二:实施例一中相似度的计算,涉及到参考图像的特征模板与目标图像特征矩阵在某窗口范围内梯度特征值的卷积运算。虽然基于特征梯度在非边缘点对应梯度值为(0,0)的定义,该计算过程相比传统特征的匹配方法已经大大减少了计算量。但卷积的计算机械、冗杂,还是会消耗大量的时间,导致,上述匹配相似度的计算难以达到实时。
因此,这里提供一种快速计算的方法,采用快速傅里叶变换(FFT)进行卷积运算,将相似度转换到频率域,具体方法如下:
Step1.对于任一个多尺度多角度特征模板(pik,dik)T,定义两个梯度方向分量矩阵Tx、Ty,矩阵的尺寸为m×n,m、n的值分别由pik的水平、竖直坐标的最大最小值确定。pik=(xik,yik)T,dik=(tik,uik)T根据pik中的坐标值分别对Tx、Ty赋值,将Tx中第xik列yik行元素赋值为tik,将Ty中第xik列yik行元素赋值为uik
Step2.用同样方式,赋值得到目标图像的两个梯度方向分量矩阵Ox、Oy,赋值方式类似。
Step3.考虑Tx和Ox的卷积计算,通过FFT实现该卷积运算,得到
Figure GDA0002473963200000111
其中,
Figure GDA0002473963200000112
Figure GDA0002473963200000113
Figure GDA0002473963200000114
Figure GDA0002473963200000115
计算得到:
Figure GDA0002473963200000116
同理,计算得到:
Figure GDA0002473963200000117
Step4.根据卷积与快速傅里叶变换(FFT)的等价关系,将上述计算结果进行如下处理得到的相似度矩阵:
Figure GDA0002473963200000118
即匹配相似度s的集合。
根据得到最大相似度在该相似度矩阵中的位置,可得特征模板在目标图像中的最佳匹配的位置,实现目标跟踪的结果。
通过采用快速计算的方式,特征匹配的计算量可以实现数量级地减少,达到实时计算的目标。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (5)

1.一种基于轮廓梯度的目标跟踪方法,其特征在于:包括以下步骤;
步骤1:从输入的视频或图像序列的初始帧中分割候选目标,提取出包含候选目标的参考图像;
步骤2:提取目标参考图像的轮廓,得到参考图像各像素点坐标序列pi=(xi,yi)T及其对应的水平、竖直方向的梯度序列di=(ti,ui)T,作为标准特征模板;
若目标参考图像的尺寸为m×n,根据预设阈值条件T检测到边缘点的个数为L,则i=1,2,3,...,m×n,其中仅L个点为sobel边缘点,而其他的非边缘点所对应的梯度定义为(0,0);
sobel边缘检测的过程,就是利用sobel算子与参考图像的所有像素点及其邻域作卷积,然后根据预设阈值条件T确定出边缘点的过程;
经过sobel边缘检测,可以得到点pi=(xi,yi)T及其对应的梯度方向di=(ti,ui)T
步骤3:对标准特征模板进行尺度、角度di=(ti,ui)T变换,得到多尺度多角度模板序列(Pi1',di)T,(Pi2',di)T,(Pi3',di)T,......,(PiM',di)T,以增强匹配的鲁棒性;
步骤4:输入视频或图像序列的下一帧,提取该目标图像的梯度特征gr=(vr,wr)T
对尺寸为M×N目标图像使用与步骤2相同的方法及预设阈值条件进行sobel边缘检测,得到目标图像的梯度特征gr=(vr,wr)T,其中,r=1,2,3,...,M×N,L'为检测到的目标图像中边缘点的个数,当且仅当像素点为边缘时对应的梯度有值,否则为(0,0);
步骤5:将步骤3中得到的M组多尺度多角度模板图(Pi1',di)T,(Pi2',di)T,(Pi3',di)T,......,(PiM',di)T分别与目标图像的特征图像进行步长为定值的滑动窗口扫描,并计算两者匹配的相似度,比较所有模板、所有窗口位置下得到的相似度,则相似度取得最大值所对应的窗口位置,即为最佳匹配位置,是当前帧实现目标跟踪的最终结果;
步骤6:根据最佳匹配位置、尺度因子和角度因子在目标图像中分割出目标所在的子区域,并将该子区域作为下一次检测的参考图像进行更新;
步骤7:重复步骤2至步骤6的内容,直至视频或图像序列所有帧检测完毕。
2.根据权利要求1所述的一种基于轮廓梯度的目标跟踪方法,其特征在于:所述步骤3中对标准特征模板进行适当的尺度、角度变换的方法,包括:
a)将标准尺度模板序列(pi,di)T每一点pi=(xi,yi)T的横坐标xi放大/缩小sx倍,纵坐标yi放大/缩小sy倍;
b)经过不同变换因子sx、sy处理后,可得到多个多尺度特征模板序列(Pi1,di)T,(Pi2,di)T,(Pi3,di)T,...,(Pik,di)T,其中k为进行不同尺度变换的次数;
c)对b)得到的所有多尺度特征模板进行适当的角度变换,对多尺度特征模板序列(Pij,di)T,(j=1,2,3,...,k)进行角度为θ的旋转,设向右旋转为正方向,模板序列(Pij,di)T的每一点Pij=(Xij,Yij)T,以(0,0)为中心顺时针旋转θ,得到点Pij'=(Xij',Yij')T,用数学公式表示为:
Figure FDA0002521165680000021
d)得到M组多尺度多角度模板序列(Pi1',di)T,(Pi2',di)T,(Pi3',di)T,......,(PiM',di)T
3.根据权利要求2所述的一种基于轮廓梯度的目标跟踪方法,其特征在于:所述尺度变换因子sx、sy范围为0.9~1.1,所述角度θ的范围为-30°到30°。
4.根据权利要求1所述的一种基于轮廓梯度的目标跟踪方法,其特征在于:所述步骤5中相似度的计算方法,包括:
1)对目标图像上任一点(x,y),其梯度方向记为gx,y=(vx,y,wx,y)T
2)参考图像的特征模板窗口与待检测目标图像中某同样大小的范围进行匹配时,两点的匹配相似度s定义为:特征模板矩阵与目标图像的特征矩阵中相同坐标位置的点对应梯度向量方向夹角归一化余弦值之和;
3)非边缘点的梯度向量值为(0,0),故相似度简化为相同坐标位置的边缘点对应梯度向量方向夹角归一化余弦值之和:
Figure FDA0002521165680000031
上述公式中,(x,y)值为目标图像中滑动窗口所在位置左上角的坐标,直接用该点坐标或转换为窗口中心点的坐标来表示窗口位置,相似度s的取值范围为0~1;
4)将M组多尺度多角度模板(Pi1',di)T,(Pi2',di)T,(Pi3',di)T,......,(PiM',di)T分别在目标图像的特征矩阵上进行步长为1的滑动窗口扫描,比较所有模板、所有窗口位置下得到的相似度,则相似度取得最大值所对应的窗口位置,即为最佳匹配位置,是当前帧实现目标跟踪的最终结果。
5.根据权利要求1所述的一种基于轮廓梯度的目标跟踪方法,其特征在于:所述步骤5中相似度的快速计算方法,采用快速傅里叶变换(FFT)进行卷积运算,将相似度转换到频率域,包括:
(1)对于任一个多尺度多角度特征模板(pik,dik)T,定义两个梯度方向分量矩阵Tx、Ty,矩阵的尺寸为m×n,m、n的值分别由pik的水平、竖直坐标的最大最小值确定;pik=(xik,yik)T,dik=(tik,uik)T,根据pik中的坐标值分别对Tx、Ty赋值,将Tx中第xik列yik行元素赋值为tik,将Ty中第xik列yik行元素赋值为uik
(2)用(1)同样的方式,赋值得到目标图像的两个梯度方向分量矩阵Ox、Oy,赋值方式类似;
(3)Tx和Ox的卷积计算,通过FFT实现该卷积运算,得到
Figure FDA0002521165680000041
其中,
Figure FDA0002521165680000042
Figure FDA0002521165680000043
Figure FDA0002521165680000044
Figure FDA0002521165680000045
计算得到:
Figure FDA0002521165680000046
同理,计算得到:
Figure FDA0002521165680000047
(4)根据卷积与快速傅里叶变换(FFT)的等价关系,将上述计算结果进行如下处理得到的相似度矩阵:
Figure FDA0002521165680000048
即匹配相似度s的集合。
CN201611239192.7A 2016-12-28 2016-12-28 一种基于轮廓梯度的目标跟踪方法 Active CN108256394B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611239192.7A CN108256394B (zh) 2016-12-28 2016-12-28 一种基于轮廓梯度的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611239192.7A CN108256394B (zh) 2016-12-28 2016-12-28 一种基于轮廓梯度的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN108256394A CN108256394A (zh) 2018-07-06
CN108256394B true CN108256394B (zh) 2020-09-25

Family

ID=62720243

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611239192.7A Active CN108256394B (zh) 2016-12-28 2016-12-28 一种基于轮廓梯度的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN108256394B (zh)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109584250B (zh) * 2018-11-28 2022-09-20 哈工大机器人(合肥)国际创新研究院 一种鲁棒的视觉区域自动划分标注的方法
CN111292350B (zh) * 2018-12-10 2024-03-01 北京京东乾石科技有限公司 目标朝向的优化算法、***、电子设备及存储介质
CN111369599B (zh) * 2018-12-25 2024-04-16 阿里巴巴集团控股有限公司 一种图像匹配方法、设备、装置及存储介质
CN110070557A (zh) * 2019-04-07 2019-07-30 西北工业大学 一种基于边缘特征检测的目标识别与定位方法
CN111951211B (zh) * 2019-05-17 2024-05-14 株式会社理光 一种目标检测方法、装置及计算机可读存储介质
CN110210565B (zh) * 2019-06-05 2021-04-30 中科新松有限公司 归一化互相关图像模板匹配实现方法
CN112435211B (zh) * 2020-09-03 2022-04-26 北京航空航天大学 一种内窥镜图像序列中轮廓稠密特征点描述和匹配的方法
CN112184785B (zh) * 2020-09-30 2023-03-24 西安电子科技大学 基于mcd度量和vtm的多模态遥感图像配准方法
CN112014409B (zh) * 2020-10-25 2021-02-05 西安邮电大学 一种半导体蚀刻引线框架模具缺陷的检测方法及***
CN113091759B (zh) * 2021-03-11 2023-02-28 安克创新科技股份有限公司 位姿处理、地图构建方法及装置
CN113112516A (zh) * 2021-04-01 2021-07-13 广东拓斯达科技股份有限公司 图像边缘特征库构建方法、装置、计算机设备及存储介质
CN113139988B (zh) * 2021-05-17 2023-02-14 中国科学院光电技术研究所 一种高效高准确率的估计目标尺度变化的图像处理方法
CN113538340A (zh) * 2021-06-24 2021-10-22 武汉中科医疗科技工业技术研究院有限公司 目标轮廓的检测方法、装置、计算机设备和存储介质
CN113450378B (zh) * 2021-06-28 2022-06-03 河北工业大学 一种判断触点组差平面高度数据匹配程度的方法
CN113486769B (zh) * 2021-07-01 2024-04-26 珍岛信息技术(上海)股份有限公司 一种高清视频中图像快速匹配方法
CN113689397A (zh) * 2021-08-23 2021-11-23 湖南视比特机器人有限公司 工件圆孔特征检测方法和工件圆孔特征检测装置
CN114842212B (zh) * 2022-04-19 2024-06-25 湖南大学 一种快速的多目标多角度模板匹配方法
CN114663316B (zh) * 2022-05-17 2022-11-04 深圳市普渡科技有限公司 确定沿边路径的方法、移动设备及计算机存储介质
CN115223240B (zh) * 2022-07-05 2023-07-07 北京甲板智慧科技有限公司 基于动态时间规整算法的运动实时计数方法和***
CN115082472B (zh) * 2022-08-22 2022-11-29 江苏东跃模具科技有限公司 一种轮毂模具浇注成型产品的质量检测方法及***
CN115131587A (zh) * 2022-08-30 2022-09-30 常州铭赛机器人科技股份有限公司 一种基于边缘轮廓的梯度向量特征的模板匹配方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103218616A (zh) * 2013-05-05 2013-07-24 西安电子科技大学 基于高斯-埃尔米特矩的图像轮廓特征提取方法
CN105678806A (zh) * 2016-01-07 2016-06-15 中国农业大学 一种基于Fisher判别的生猪行为轨迹自动跟踪方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103218616A (zh) * 2013-05-05 2013-07-24 西安电子科技大学 基于高斯-埃尔米特矩的图像轮廓特征提取方法
CN105678806A (zh) * 2016-01-07 2016-06-15 中国农业大学 一种基于Fisher判别的生猪行为轨迹自动跟踪方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Contour-based object tracking with gradient-based contour attraction field;Petr Dokladal 等;《2014 IEEE International Conference on Acoustics,Speech,and Processing》;20040830;第III-17-III-20页 *
基于多尺度图像的主动轮廓线模型;黄海赟 等;《计算机研究与发展》;20001031;第37卷(第10期);第1240-1245页 *
目标基视频编码中的运动目标提取与跟踪新算法;朱仲杰 等;《电子学报》;20130930;第31卷(第9期);第1426-1428页 *

Also Published As

Publication number Publication date
CN108256394A (zh) 2018-07-06

Similar Documents

Publication Publication Date Title
CN108256394B (zh) 一种基于轮廓梯度的目标跟踪方法
CN109784333B (zh) 基于点云带权通道特征的三维目标检测方法及***
Le et al. Deep homography estimation for dynamic scenes
CN106875381B (zh) 一种基于深度学习的手机外壳缺陷检测方法
CN109903313B (zh) 一种基于目标三维模型的实时位姿跟踪方法
CN110349207B (zh) 一种复杂环境下的视觉定位方法
CN108229475B (zh) 车辆跟踪方法、***、计算机设备及可读存储介质
CN106683119B (zh) 基于航拍视频图像的运动车辆检测方法
CN111028292B (zh) 一种亚像素级图像匹配导航定位方法
CN111046856B (zh) 基于动静态特征提取并行位姿跟踪与地图创建的方法
Liu et al. Tracking objects using shape context matching
CN111860439A (zh) 一种无人机巡检图像缺陷检测方法、***及设备
WO2018049704A1 (en) Vehicle detection, tracking and localization based on enhanced anti-perspective transformation
CN110110618B (zh) 一种基于pca和全局对比度的sar目标检测方法
CN110751619A (zh) 一种绝缘子缺陷检测方法
CN109410248B (zh) 一种基于r-K算法的浮选泡沫运动特征提取方法
CN108961262B (zh) 一种复杂场景下的条码定位方法
CN117952979B (zh) 一种建设工程质量检测监管方法及***
CN115984186A (zh) 基于多分辨率知识提取的精细产品图像异常检测方法
CN113989308B (zh) 一种基于霍夫变换与模板匹配的多边形目标分割方法
CN113689365B (zh) 一种基于Azure Kinect的目标跟踪定位方法
CN109558877B (zh) 基于kcf的海上目标跟踪算法
Zhang et al. Reading various types of pointer meters under extreme motion blur
Zhou et al. Target tracking based on foreground probability
Zhou et al. Speeded-up robust features based moving object detection on shaky video

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant