CN108764343B - 一种跟踪算法中的跟踪目标框的定位方法 - Google Patents

一种跟踪算法中的跟踪目标框的定位方法 Download PDF

Info

Publication number
CN108764343B
CN108764343B CN201810534463.4A CN201810534463A CN108764343B CN 108764343 B CN108764343 B CN 108764343B CN 201810534463 A CN201810534463 A CN 201810534463A CN 108764343 B CN108764343 B CN 108764343B
Authority
CN
China
Prior art keywords
target frame
initial target
optimal
tracking
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810534463.4A
Other languages
English (en)
Other versions
CN108764343A (zh
Inventor
赵小明
袁胜春
张佳欢
张策
俱青
邵晓鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201810534463.4A priority Critical patent/CN108764343B/zh
Publication of CN108764343A publication Critical patent/CN108764343A/zh
Application granted granted Critical
Publication of CN108764343B publication Critical patent/CN108764343B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种跟踪算法中的跟踪目标框的定位方法,包括以下步骤:(a)获取待处理图像中的初始目标框;(b)根据所述初始目标框计算不同位置的衡量指标值获得所述跟踪目标框的最佳位置;(c)根据所述最佳位置和所述初始目标框获得所述跟踪目标框的最佳尺寸。本发明实施例,针对鼠标直接框选跟踪目标或自动获取跟踪目标框的方法做出改进,以提高首帧跟踪目标框定位的准确性,为后续跟踪过程提供一个良好的前提条件。

Description

一种跟踪算法中的跟踪目标框的定位方法
技术领域
本发明属于目标跟踪领域,具体涉及一种跟踪算法中的跟踪目标框的定位方法。
背景技术
对于跟踪目标在首帧的准确框选,是目标跟踪领域中一件至关重要的事情。例如,在基于模板匹配的跟踪算法中,首帧所框选的目标作为初始模板,其准确性将直接影响后续跟踪过程的稳定性。在基于特征点的跟踪算法中,要对首帧所框选的目标进行特征点提取,为避免提取到过多背景干扰点,跟踪目标的准确框选显得尤为重要。一般而言,跟踪目标框应当满足如下要求:第一、需要跟踪的目标应被框全部包围;第二、跟踪目标在框中应占最大比例,而跟踪目标周围的背景干扰信息应当尽可能少。这样可保证后续跟踪时所使用模板的正确性,同时可确保所提取的特征点是最能反映目标特征的一系列点。
现有的跟踪目标有两种方法来进行跟踪,一种是利用鼠标直接框选跟踪目标的方法,开始时记录画框起始点的坐标,结束时记录画框终止点的坐标,据此得到矩形跟踪目标框。但是利用鼠标直接框选跟踪目标的方法受人为因素的影响较严重,画框过大或过小都是随机的。初始目标框的不准确会导致目标信息的缺失或包含过多背景干扰信息,那么在后续跟踪过程中模板可能是不准确的,而且所提取的特征点也不具有代表性,致使跟踪结果易发生严重漂移。
另一种目标跟踪的方法是对首帧图像进行大津阈值分割,然后再对图像进行开运算、闭运算操作以获得目标大致的轮廓信息,最后检测连通域,对目标外轮廓画外接矩形框,从而得到最终的跟踪目标框。请参见图1,图1为现有技术的一种大津阈值分割法的示意图。具体操作如下:
(1)大津阈值分割
最大类间方差法是一种自适应阈值确定的方法,又叫大津法,简称OTSU,是一种基于全局的二值化算法。它是依据图像的平均灰度信息,将图像分为前景和背景两个部分,当取最佳阈值时,两部分之间的差别应该是最大的。在OTSU算法中所采用的衡量差别的标准是较为常见的最大类间方差,前景和背景之间的类间方差如果越大,就说明构成图像的两个部分之间的差别越大,当部分目标被错分为背景或部分背景被错分为目标时,都会导致两部分差别变小。因此,使类间方差最大的分割就意味着错分概率最小。
将图像目标和背景的分割阈值记作T,属于目标的像素点数占整幅图像的比例记为ω0,其平均灰度为μ0;而属于背景的像素点数占整幅图像的比例记为ω1,其平均灰度为μ1;图像的总平均灰度记为μ2,其类间方差记为g,则有:
μ2=ω0×μ01×μ1
g=ω0×(μ02)21×(μ12)2
联立上面两式可得:
g=ω0ω101)2
采用遍历的方法当方差g最大时,可以认为前景和背景差异最大,此时的灰度T即为最佳阈值。
(2)开运算、闭运算
通常情况下,当有噪声的图像进行阈值分割后,所得到的边界是很不平滑的,物体区域具有一些错判的孔洞,背景区域散布着一些小的噪声物体,此时连续的开和闭运算可以显著的改善这种情况。闭运算操作是指对图像进行先膨胀后腐蚀的操作,它具有填充物体内细小的空洞、连接邻近物体、在不明显改变物体面积的情况下平滑其边界的作用。开运算操作是指对图像进行先腐蚀后膨胀的操作,用来消除小物体、在纤细点处分离物体、平滑较大物体的边界的同时并不明显改变其面积。
其中,膨胀与腐蚀运算是形态学图像处理的基础。膨胀是将与物体接触的所有背景点合并到该物体中,使边界向外部扩张的过程。通过膨胀,可以填充图像中的小孔,及在图像边缘处的小凹陷部分。腐蚀是一种消除边界点,使边界向内部收缩的过程。利用腐蚀操作,可以消除小且无意义的物体。
基于以上操作可获得目标的轮廓,最后再对目标轮廓画外界矩形即可得到最终的矩形目标框。
使用自动获取跟踪目标框的方法虽然减少了人为因素的影响,但是这种方法获得目标框的效果较为一般,特别是对于可见光图像来说分割效果较差,导致最终得到的外接矩形框中背景信息过多。同样的,在后续跟踪过程中模板是不准确的,而且所提取的特征点也不具有代表性,致使跟踪结果发生严重漂移。
目前,无论是鼠标直接框选跟踪目标还是自动获得目标框的方法,在以上两方面都与实际***的需求存在较大差距。因此,如何提高跟踪目标框的定位准确性仍然是一个富有挑战性的课题。
发明内容
为了解决现有技术中存在的上述问题,本发明提供了一种跟踪算法中的跟踪目标框的定位方法。本发明要解决的技术问题通过以下技术方案实现:
本发明实施例提供了一种跟踪算法中的跟踪目标框的定位方法,包括以下步骤:
(a)获取待处理图像中的初始目标框;
(b)根据所述初始目标框计算不同位置的衡量指标值获得所述跟踪目标框的最佳位置;
(c)根据所述最佳位置和所述初始目标框获得所述跟踪目标框的最佳尺寸。
在本发明的一个实施例中,步骤(a)之后还包括:
将所述待处理图像、所述初始目标框的坐标、所述初始目标框的尺寸按比例同步缩小。
在本发明的一个实施例中,步骤(c)之后还包括:
将所述待处理图像、所述最佳位置的坐标、所述最佳尺寸按所述比例同步放大。
在本发明的一个实施例中,步骤(b)包括:
(b1)根据所述初始目标框获得所述跟踪目标框的最佳水平位置。
(b2)根据所述最佳水平位置和所述初始目标框获得所述最佳位置。
在本发明的一个实施例中,步骤(b1)包括:
(b11)根据所述初始目标框获得搜索区域;
(b12)根据所述初始目标框计算所述搜索区域对应的衡量指标值;
(b13)将所述初始目标框按照第一步长沿水平方向移动,重复步骤(b11)~(b12),计算所述水平方向上不同位置对应的衡量指标值;
(b14)获取所述水平方向上不同位置对应的衡量指标值中的最大值对应的位置作为所述最佳水平位置。
在本发明的一个实施例中,步骤(b12)包括:
(x1)根据所述初始目标框计算所述搜索区域对应的互相关矩阵;
(x2)根据所述互相关矩阵计算所述搜索区域对应的衡量指标值。
在本发明的一个实施例中,所述第一步长为一个像素长度。
在本发明的一个实施例中,所述搜索区域为所述初始目标框的1倍~1.5倍邻域。
在本发明的一个实施例中,步骤(b2)包括:
(b21)将所述初始目标框按照第二步长沿所述最佳水平位置的垂直方向移动,重复步骤(b11)~(b12),计算所述垂直方向上不同位置对应的衡量指标值;
(b22)获取所述垂直方向上不同位置对应的衡量指标值中的最大值对应的位置作为所述最佳位置。
在本发明的一个实施例中,所述第二步长为一个像素长度。
与现有技术相比,本发明的有益效果:
1.本发明利用互相关匹配算法来衡量跟踪目标框的准确程度,提高了首帧跟踪目标框定位的准确性,为后续跟踪过程提供了一个良好的前提条件。
2.本发明对鼠标直接框选或者自动获取的跟踪目标框的位置进行了精确调整,提高了基于模板匹配、基于特征点这类跟踪算法的稳定性。
附图说明
图1为现有技术的一种大津阈值分割法的示意图;
图2为本发明实施例提供的一种跟踪算法中的跟踪目标框的定位方法的流程示意图;
图3为本发明实施例提供的一种跟踪算法中的跟踪目标框的定位方法的互相关矩阵的原理示意图;
图4为本发明实施例提供的一种跟踪算法中的跟踪目标框的定位方法的确定最佳水平位置的原理示意图;
图5为本发明实施例提供的一种跟踪算法中的跟踪目标框的定位方法的确定最佳位置的原理示意图;
图6为本发明实施例提供的一种跟踪算法中的跟踪目标框的定位方法的确定最佳尺寸的原理示意图。
具体实施方式
下面结合具体实施例对本发明做进一步详细的描述,但本发明的实施方式不限于此。
实施例一
请参见图2,图2为本发明实施例提供的一种跟踪算法中的跟踪目标框的定位方法的流程示意图。
一种跟踪算法中的跟踪目标框的定位方法,包括以下步骤:
(a)获取待处理图像中的初始目标框;
(b)根据所述初始目标框计算不同位置的衡量指标值获得所述跟踪目标框的最佳位置;
(c)根据所述最佳位置和所述初始目标框获得所述跟踪目标框的最佳尺寸。
在一个具体实施例中,通过归一化互相关匹配算法来计算衡量指标值。
归一化互相关匹配算法是一种基于相似度度量的匹配算法。互相关匹配算法可通过计算模板图像和待匹配图像之间的互相关值,来确定匹配的程度。其取值范围为[-1,1],当取值为1时表示相关性很高,如果是-1则表示模板图像和匹配图像完全不相关,其中,所述模板图像在本发明中指的是所述初始目标框,互相关匹配算法的计算公式如下:
Figure BDA0001677516390000071
其中T为所述初始目标框,
Figure BDA0001677516390000072
为所述初始目标框的像素平均值,M×N为所述初始目标框的大小,I为待匹配图像,
Figure BDA0001677516390000073
为待匹配图像的像素平均值。
需要说明的是,在计算互相关值时,需要根据所述初始目标框获取所述待匹配图像和搜索区域,所述待匹配图像遍历所述搜索区域,得到不同的所述互相值,最后形成互相关矩阵。
所述衡量指标值的计算公式如下:
E=k1σ-k2μ
其中k1、k2为常数;μ为所述互相关矩阵中的所有互相关值的均值;σ为所述互相关矩阵中的所有互相关值的标准差;E为所述衡量指标值。
在本发明实施例中,通过将归一化互相关匹配算法和首帧跟踪目标框相结合,能够精确的定位首帧目标框,避免了目标框过大或者过小造成背景信息干扰或者目标信息不完整,不利于后续的稳定跟踪。
实施例二
请再次参见图2,本实施例在上述实施例的基础上,重点对一种跟踪算法中的跟踪目标框的定位方法的具体过程进行详细描述。
(S10)获取待处理图像中的初始目标框。
所述初始目标框即为跟踪目标框。
(S20)将所述待处理图像、所述初始目标框的坐标、所述初始目标框的尺寸按比例同步缩小。
由于互相关矩阵的计算过程对于较大的图像来说比较耗时,因此,对于较大的图像,首先将其缩小到特定大小,此时,相对应的所述初始目标框的坐标、所述初始目标框的尺寸按比例同步缩小。
在一个具体实施例中,将所述待处理图像的大小缩小到32*32以下,此时,相对应的所述初始目标框的坐标、所述初始目标框的尺寸按比例同步缩小。
(S30)根据所述初始目标框计算不同位置的衡量指标值获得所述跟踪目标框的最佳位置。
步骤(S30)包括以下步骤:
(S301)根据所述初始目标框获得所述跟踪目标框的最佳水平位置。
步骤(S301)还包括以下步骤:
(S3011)根据所述初始目标框获得搜索区域以及待匹配图像。
在一个具体实施例中,所述待匹配图像的大小与所述初始目标框的大小相同,所述待匹配图像是后续计算互相关矩阵时与所述初始目标框来进行匹配的图像。
在一个具体实施例中,规定所述初始目标框特定邻域范围内的区域作为所述搜索区域。
在一个具体实施例中,所述搜索区域的大小为所述初始目标框1倍~1.5倍的邻域范围,优选地,所述搜索区域的大小为所述初始目标框的1倍邻域范围。
(S3012)根据所述初始目标框计算所述搜索区域对应的衡量指标值。
在一个具体实施例中,步骤(S3012)还可以包括以下步骤:
(S30121)根据所述初始目标框计算所述搜索区域对应的互相关矩阵。
在一个具体实施例中,利用归一化互相关匹配算法得到所述互相关矩阵。
在本步骤中,所述互相关矩阵指的是第一互相关矩阵。所述第一互相关矩阵为所述初始目标框在水平方向移动时,得到的所述互相关矩阵。
请参见图3,图3为本发明实施例提供的一种跟踪算法中的目标框定位方法的互相关矩阵的原理示意图。归一化互相关匹配算法是一种基于相似度度量的匹配算法。互相关匹配算法可通过计算模板图像和待匹配图像之间的互相关值,来确定匹配的程度。其取值范围为[-1,1],当取值为1时表示相关性很高,如果是-1则表示模板图像和匹配图像完全不相关,其中,所述模板图像在本发明中指的是所述初始目标框,互相关匹配算法的计算公式如下:
Figure BDA0001677516390000091
其中T为所述初始目标框,
Figure BDA0001677516390000092
为所述初始目标框的像素平均值,M×N为所述初始目标框的大小,I为所述待匹配图像,
Figure BDA0001677516390000093
为所述待匹配图像的像素平均值。
将所述待匹配图像按固定步长遍历所述搜索区域的每一个位置,所述待匹配图像在所述搜索区域内每移动一个位置,将移动后的所述待匹配图像与所述初始目标框带入上述公式中,计算出一个互相关值,所述待匹配图像在所述搜索区域内移动n个位置,计算出n个互相值,所述n个互相关值组成所述第一互相关矩阵。
在一个具体实施例中,所述固定步长优选一个像素长度。
(S30122)根据所述第一互相关矩阵计算所述搜索区域对应的衡量指标值。
所述衡量指标值的公式如下:
E=k1σ-k2μ
其中k1、k2为常数;μ为所述第一互相关矩阵中的所有互相关值的均值;σ为所述第一互相关矩阵中的所有互相关值的标准差;E为所述衡量指标值。
在一个具体实施例中,k1的值为1000,k2的值为300。
(S3013)请参见图4,图4为本发明实施例提供的一种跟踪算法中的跟踪目标框的定位方法的确定最佳水平位置的原理示意图。将所述初始目标框按照第一步长沿水平方向移动,重复步骤(S3011)~(S3012),计算所述水平方向上不同位置对应的衡量指标值。
将所述初始目标框沿水平方向移动,根据所述初始目标框、所述待匹配图像以及所述搜索区域得到不同的所述第一互相关矩阵。
在一个具体实施例中,所述第一步长为一个像素长度。
在一个具体实施例中,所述初始目标框沿所述待处理图像水平方向左右各能移动的范围为10个像素长度。
在一个具体实施例中,步骤(S3013)还包括以下步骤:
(S30131)将所述初始目标框按像素沿水平方向进行移动,同时获取相对应的所述搜索区域以及所述待匹配图像。
当所述初始目标框沿水平方向按像素进行移动时,每移动到一个位置,获取当前位置对应的所述搜索区域以及所述待匹配图像。
(S30132)将所述待匹配图像按固定步长在所述搜索区域内移动得到不同的所述第一互相关矩阵。
所述初始目标框沿水平方向按像素移动到一个位置,将所述待匹配图像按固定步长遍历所述搜索区域的每一个位置,所述待匹配图像在所述搜索区域内每移动一个位置,将移动后的所述待匹配图像与所述初始目标框带入上述公式中,计算出一个互相关值,所述待匹配图像在当前所述搜索区域内移动n个位置,计算出n个互相关值,所述n个互相关值组成所述第一互相关矩阵。所述初始目标框沿水平方向移动不同的位置,得到多个所述第一互相关矩阵。
(S30133)根据多个所述第一互相关矩阵得到多个所述衡量指标值。
通常情况下,跟踪目标与周围背景图像有明显差别,那么按以上步骤得到的多个所述第一互相关矩阵中,与所述初始目标框重合的位置处的所述第一互相关矩阵中的互相关值最大,而其余位置处的所述互相关值相对会很小,据此可对跟踪目标定位的准确程度进行衡量。对多个所述第一互相关矩阵中的所有互相关值进行数学统计,每个所述第一互相关矩阵中的所有互相关值的均值记为μ,标准差记为σ。若所框选的跟踪目标非常准确,则意味着与周围背景图像差别明显,对应所述第一互相关矩阵中的互相关值有明显差别,进行数学统计后μ较小,而σ较大。将不同的μ和σ带入所述衡量指标值公式中,得到不同的所述衡量指标值,也即每个第一互相关矩阵均对应一个衡量指标值。
(S3014)获取所述水平方向上不同位置对应的衡量指标值中的最大值对应的位置作为所述最佳水平位置。
比较所述多个E值的大小,E值越大表示准确程度越高。E值最大的所述初始目标框的位置作为所述最佳水平位置。
(S302)根据所述最佳水平位置和所述初始目标框获得所述跟踪目标框的所述最佳位置。
步骤(S302)还包括以下步骤:
(S3021)请参见图5,图5为本发明实施例提供的一种跟踪算法中的目标框定位方法的确定最佳位置的原理示意图。将所述初始目标框按照第二步长沿所述最佳水平位置的垂直方向移动,重复步骤(S3011)~(S3012),计算所述垂直方向上不同位置对应的衡量指标值;
将所述初始目标框按照第二步长沿所述最佳水平位置的竖直方向移动,根据所述最佳水平位置、所述待匹配图像以及所述搜索区域得到不同的所述互相关矩阵。
在本步骤中,所述互相关矩阵指的是第二互相关矩阵。所述第二互相关矩阵为所述初始目标框在竖直方向移动时,得到的所述互相关矩阵。
在一个具体实施例中,所述第二步长为一个像素长度。
在一个具体实施例中,所述初始目标框沿所述最佳水平位置的竖直方向各能移动的范围为10个像素长度。
在一个具体实施例中,步骤(S3021)还包括以下步骤:
(S30211)将所述初始目标框沿所述最佳水平位置的竖直方向进行移动,同时获取相对应的所述搜索区域以及所述待匹配图像。
当初始目标框沿所述最佳水平位置的竖直方向按像素进行移动时,每移动到一个位置,获取当前位置对应的所述搜索区域以及所述待匹配图像。
(S30212)将所述待匹配图像按固定步长在所述搜索区域内移动得到不同的所述第二互相关矩阵。
所述初始目标框沿所述最佳水平位置的竖直方向按像素移动到一个位置,将所述待匹配图像按固定步长遍历所述搜索区域的每一个位置,所述待匹配图像在所述搜索区域内每移动一个位置,将移动后的所述待匹配图像与所述初始目标框带入上述公式中,计算出一个互相关值,所述待匹配图像在当前所述搜索区域内移动n个位置,计算出n个互相值,所述n个互相关值组成所述第二互相关矩阵。所述初始目标框沿最佳水平方向的竖直方向移动不同的位置,得到多个所述第二互相关矩阵。
在一个具体实施例中,所述固定步长优选1个像素长度。
(S30213)根据多个所述第二互相关矩阵得到多个所述衡量指标值。
多个所述第二互相关矩阵可以得到多个所述衡量指标值。
(S3022)获取所述垂直方向上不同位置对应的衡量指标值中的最大值对应的位置作为所述最佳位置。
比较所述多个所述衡量指标值的大小,值越大表示准确程度越高。所述衡量指标值最大的所述初始目标框的位置作为所述最佳位置。
(S40)根据所述最佳位置和所述初始目标框获得所述跟踪目标框的最佳尺寸。
请参见图6,图6为本发明实施例提供的一种跟踪算法中的跟踪目标框的定位方法的确定最佳尺寸的原理示意图。在进行框选所述初始目标框的过程中,有可能框选的范围过大或者过小,因此,在得到最佳位置的基础上,将所述初始目标框在特定范围内进行不同程度的缩放,得到不同的所述互相关矩阵,最后求取最大的所述衡量指标值,得到所述跟踪目标框的最佳尺寸。
在本步骤中,所述互相关矩阵指的是第三互相关矩阵,所述第三互相关矩阵为所述初始目标框进行不同程度缩放时得到的所述互相关矩阵。
在一个具体实施例中,所述特定范围为所述初始目标框大小的0.7~1.3倍。
在一个具体实施例中,在所述初始目标框大小的0.7~1.3倍的范围内,将所述初始目标框按固定倍数进行依次增大。
在一个具体实施例中,所述固定倍数为0.05倍,将所述初始目标框缩小0.7倍,之后每次增加0.05倍,计算所述第三互相关矩阵,根据所述第三互相关矩阵计算所述衡量指标值,直到所述初始目标框的大小为原来的1.3倍。
(S50)将所述待处理图像、所述最佳位置的坐标、所述最佳尺寸按所述比例同步放大,完成所述跟踪目标框的定位。
在步骤(S20)中,对所述待处理图像和所述初始目标框进行了缩小,因此,在确定所述初始目标框的最佳位置和最佳尺寸的基础上,对所述待处理图像、所述最佳位置的坐标、所述最佳尺寸进行同比例的放大,完成所述跟踪目标框的定位。
在一个具体实施例中,在步骤(S20)中对所述待处理图像和所述初始目标框缩小了5倍,在步骤(S50)中,对所述待处理图像、所述最佳位置的坐标、所述最佳尺寸同比例放大5倍,完成所述跟踪目标框的定位。
本发明通过这种方法,可以达到以下有益效果:
1.本发明依次对跟踪目标框的水平位置、垂直位置以及大小进行调整,同时利用互相关匹配算法计算不同位置及大小时的衡量指标值,以完成对首帧目标框的精确定位。
2.本发明对鼠标直接框选或自动获取的目标框位置进行了精确调整,提高了基于模板匹配、基于特征点这类跟踪算法的稳定性。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。

Claims (6)

1.一种跟踪算法中的跟踪目标框的定位方法,其特征在于,包括以下步骤:
(a)获取待处理图像中的初始目标框;
(b)根据所述初始目标框计算不同位置的衡量指标值获得所述跟踪目标框的最佳位置;
(c)根据所述最佳位置和所述初始目标框获得所述跟踪目标框的最佳尺寸;
所述步骤(b)包括:
(b1)根据所述初始目标框获得所述跟踪目标框的最佳水平位置;
(b2)根据所述最佳水平位置和所述初始目标框获得所述最佳位置;
所述步骤(b1)包括:
(b11)根据所述初始目标框获得搜索区域;
(b12)根据所述初始目标框计算所述搜索区域对应的衡量指标值;
(b13)将所述初始目标框按照第一步长沿水平方向移动,重复步骤(b11)~(b12),计算所述水平方向上不同位置对应的衡量指标值;
(b14)获取所述水平方向上不同位置对应的衡量指标值中的最大值对应的位置作为所述最佳水平位置;
所述步骤(b2)包括:
(b21)将所述初始目标框按照第二步长沿所述最佳水平位置的垂直方向移动,重复步骤(b11)~(b12),计算所述垂直方向上不同位置对应的衡量指标值;
(b22)获取所述垂直方向上不同位置对应的衡量指标值中的最大值对应的位置作为所述最佳位置;
所述步骤(c)包括:
(c1)按照预设缩放参数对所述初始目标框进行缩放;
(c2)基于缩放后的所述初始目标框,在所述最佳位置的搜索框区域内进行遍历,以获得最大衡量指标值;其中,搜索区域为所述初始目标框对应的预设邻域范围内的区域;
(c3)将所述最大衡量指标值对应的尺寸确定为最佳尺寸;
所述步骤(b11)包括:
将所述初始目标框对应的预设邻域范围内的区域,确定为搜索区域;
所述步骤(b12)包括:
(b121)将待匹配图像按固定步长遍历所述搜索区域的每一个位置,以计算得到所述搜索区域对应的第一互相关矩阵;
(b122)根据所述第一互相关矩阵计算所述搜索区域对应的衡量指标值。
2.根据权利要求1所述的定位方法,其特征在于,步骤(a)之后还包括:
将所述待处理图像、所述初始目标框的坐标、所述初始目标框的尺寸按比例同步缩小。
3.根据权利要求2所述的定位方法,其特征在于,步骤(c)之后还包括:
将所述待处理图像、所述最佳位置的坐标、所述最佳尺寸按所述比例同步放大。
4.根据权利要求1所述的定位方法,其特征在于,所述第一步长为一个像素长度。
5.根据权利要求1所述的定位方法,其特征在于,所述搜索区域为所述初始目标框的1倍~1.5倍邻域。
6.根据权利要求1所述的定位方法,其特征在于,所述第二步长为一个像素长度。
CN201810534463.4A 2018-05-29 2018-05-29 一种跟踪算法中的跟踪目标框的定位方法 Active CN108764343B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810534463.4A CN108764343B (zh) 2018-05-29 2018-05-29 一种跟踪算法中的跟踪目标框的定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810534463.4A CN108764343B (zh) 2018-05-29 2018-05-29 一种跟踪算法中的跟踪目标框的定位方法

Publications (2)

Publication Number Publication Date
CN108764343A CN108764343A (zh) 2018-11-06
CN108764343B true CN108764343B (zh) 2022-04-22

Family

ID=64003678

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810534463.4A Active CN108764343B (zh) 2018-05-29 2018-05-29 一种跟踪算法中的跟踪目标框的定位方法

Country Status (1)

Country Link
CN (1) CN108764343B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111311673B (zh) * 2018-12-12 2023-11-03 北京京东乾石科技有限公司 一种定位方法及装置、存储介质
CN110414535B (zh) * 2019-07-02 2023-04-28 绵阳慧视光电技术有限责任公司 一种基于背景区分的手工初始框修正方法及***
CN116740126A (zh) * 2023-08-09 2023-09-12 深圳市深视智能科技有限公司 目标跟踪方法、高速相机及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080130825A1 (en) * 2006-11-02 2008-06-05 Accuray Incorporated Target tracking using direct target registration
CN101689921A (zh) * 2007-03-21 2010-03-31 蔚蓝公司 受移动性影响的切换方法和设备
CN103533279A (zh) * 2013-10-24 2014-01-22 深圳市晶日盛科技有限公司 一种多投影拼接的校准方法
CN104408725A (zh) * 2014-11-28 2015-03-11 中国航天时代电子公司 一种基于tld优化算法的目标重捕获***及方法
CN105243364A (zh) * 2015-09-24 2016-01-13 北京贯中精仪科技有限公司 光电吊舱搜索方法、装置以及***
CN105654454A (zh) * 2014-11-10 2016-06-08 中国船舶重工集团公司第七二三研究所 一种快速稳定的对比度跟踪方法
CN105761216A (zh) * 2016-01-25 2016-07-13 西北大学 一种图像去噪处理方法及装置
CN107240118A (zh) * 2017-05-19 2017-10-10 成都信息工程大学 一种基于rgb颜色直方图的判别式跟踪方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9607228B2 (en) * 2014-02-14 2017-03-28 Toyota Motor Engineering & Manufacturing North America, Inc. Parts based object tracking method and apparatus

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080130825A1 (en) * 2006-11-02 2008-06-05 Accuray Incorporated Target tracking using direct target registration
CN101689921A (zh) * 2007-03-21 2010-03-31 蔚蓝公司 受移动性影响的切换方法和设备
CN103533279A (zh) * 2013-10-24 2014-01-22 深圳市晶日盛科技有限公司 一种多投影拼接的校准方法
CN105654454A (zh) * 2014-11-10 2016-06-08 中国船舶重工集团公司第七二三研究所 一种快速稳定的对比度跟踪方法
CN104408725A (zh) * 2014-11-28 2015-03-11 中国航天时代电子公司 一种基于tld优化算法的目标重捕获***及方法
CN105243364A (zh) * 2015-09-24 2016-01-13 北京贯中精仪科技有限公司 光电吊舱搜索方法、装置以及***
CN105761216A (zh) * 2016-01-25 2016-07-13 西北大学 一种图像去噪处理方法及装置
CN107240118A (zh) * 2017-05-19 2017-10-10 成都信息工程大学 一种基于rgb颜色直方图的判别式跟踪方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"基于人脸检测的模板匹配人脸跟踪算法研究";齐苏敏等;《电子技术研发》;20161231;第45卷(第12期);第28页第2小节 *
"基于最佳搜索域的水下图像区域匹配算法研究";张强等;《光学学报》;20140630;第34卷(第6期);第1-6页 *
"基于视觉的目标跟踪研究及其在移动机器人中的实现";和箫;《中国优秀硕士学位论文全文数据库 信息科技辑》;20170215(第2期);第I138-3797页 *

Also Published As

Publication number Publication date
CN108764343A (zh) 2018-11-06

Similar Documents

Publication Publication Date Title
CN110866924B (zh) 一种线结构光中心线提取方法及存储介质
CN111611643B (zh) 户型矢量化数据获得方法、装置、电子设备及存储介质
CN110276264B (zh) 一种基于前景分割图的人群密度估计方法
CN110838126B (zh) 细胞图像分割方法、装置、计算机设备和存储介质
CN110930427B (zh) 一种基于语义轮廓信息的图像分割方法、设备和存储介质
CN106920245B (zh) 一种边界检测的方法及装置
CN108229475B (zh) 车辆跟踪方法、***、计算机设备及可读存储介质
CN109658433B (zh) 图像背景建模和前景提取方法、装置和电子设备
CN109919002B (zh) 黄色禁停线识别方法、装置、计算机设备及存储介质
CN108764343B (zh) 一种跟踪算法中的跟踪目标框的定位方法
CN109977952B (zh) 基于局部最大值的候选目标检测方法
CN115082466B (zh) 一种pcb表面焊点缺陷检测方法及***
CN109035287B (zh) 前景图像提取方法和装置、运动车辆识别方法和装置
CN106934338B (zh) 一种基于相关滤波器的长期行人跟踪方法
US11669978B2 (en) Method and device for estimating background motion of infrared image sequences and storage medium
CN108960247B (zh) 图像显著性检测方法、装置以及电子设备
CN109241975B (zh) 一种基于字符中心点定位的车牌字符分割方法
CN102201060B (zh) 一种基于形状语义的非参数轮廓跟踪评价方法
CN104200460A (zh) 基于图像特征和互信息的图像配准方法
CN112258449A (zh) 一种基于结节特征的快速结节匹配方法
US10140509B2 (en) Information processing for detection and distance calculation of a specific object in captured images
Zhu Moving Objects Detection and Segmentation Based on Background Subtraction and Image Over-Segmentation.
CN113643290A (zh) 一种基于图像处理的吸管计数方法、装置及存储介质
CN110599456A (zh) 一种医学图像的特定区域的提取方法
Peng et al. Simultaneous perimeter measurement for multiple planar objects

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant