CN103413323A - 基于部件级表观模型的物体跟踪方法 - Google Patents

基于部件级表观模型的物体跟踪方法 Download PDF

Info

Publication number
CN103413323A
CN103413323A CN2013103174087A CN201310317408A CN103413323A CN 103413323 A CN103413323 A CN 103413323A CN 2013103174087 A CN2013103174087 A CN 2013103174087A CN 201310317408 A CN201310317408 A CN 201310317408A CN 103413323 A CN103413323 A CN 103413323A
Authority
CN
China
Prior art keywords
feature
frame
super pixel
cluster
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2013103174087A
Other languages
English (en)
Other versions
CN103413323B (zh
Inventor
王美华
梁云
刘福明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China Agricultural University
Original Assignee
South China Agricultural University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China Agricultural University filed Critical South China Agricultural University
Priority to CN201310317408.7A priority Critical patent/CN103413323B/zh
Publication of CN103413323A publication Critical patent/CN103413323A/zh
Application granted granted Critical
Publication of CN103413323B publication Critical patent/CN103413323B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于部件级表观模型的物体跟踪方法,是基于中层视觉线索部件级更新表观模型的方法,通过对图像进行超像素分割,以超像素描述跟踪物体的目标部件,利用目标部件的信息构造物体特征池建立和更新物体的表观模型,该模型能够准确的表达形变、遮挡等情况下的运动物体。更新物体表观模型时,用新跟踪帧的部件替换特征池中将被替换的部分部件集,建立目标物体部件的特征补集,将特征补集作为新跟踪帧的部件描述信息加入特征池,再根据新的特征池建立表观模型实现表观模型的更新。本法随着对物体跟踪的进行,更新表观模型信息集中被跟踪物体的信息,物体表观模型更加全面,在指导跟踪严重遮挡、变形等外观变化较大时能够取得更好的效果。

Description

基于部件级表观模型的物体跟踪方法
技术领域
本发明涉及计算机视觉领域,更具体地,涉及到一种基于部件级表观模型的物体跟踪方法。
背景技术
物体跟踪是计算机视觉领域的一个重要研究内容,近年来已引起人们的广泛关注,成为当前的研究热点。该技术具有广阔的应用前景,在多个领域起着重要作用,如安全监控、人机交互、医疗诊断和车辆流量监控等等。尽管人们已经提出了大量的物体跟踪方法,但在光照和物体外形变化较大或有严重遮挡的情况下,这些方法经常不能提供理想的跟踪结果,常无法追踪到目标物体。因此,提出一种有效的物体跟踪方法具有重要的应用价值和现实意义。
当前,贝叶斯滤波原理在物体跟踪运用上已经相当成熟,涉及的特征提取、建立表观模型、搜索目标、更新表观模型四大部分,其中重点和难点在于表观模型处理。虽然很多成功的物体跟踪算法已经被提出,但是要开发一个能处理复杂的、动态的场景的健壮算法仍然是一个具有挑战性的问题。因为光照发生变化、镜头发生移动、物体发生形变、目标物体发生部分或全部遮挡等等会导致场景的外观发生很大的变化。这些变化只能通过增量更新它们表达的自适应方法进行处理。因此,能够不断学习的在线更新对跟踪物体表观的表示对于跟踪任务而言是很有必要的。
现有的物体跟踪方法在更新物体表观模型时,基于模板,以帧为更新单位,即往建模特征池中加入一帧信息就从特征池中剔除一帧信息。这样的处理方式使物体表观模型随着跟踪目标或场景外观的变化而不断更新,然而,在剔除一帧信息会造成部分有用信息损失。在目标物体形变频繁或部分在跟踪场景中消失时间足够长时,结果往往是更新得到的表观模型不全面,只能得到对物体表观的部分表示。在复杂的背景和物体外观变化大的场景下的跟踪,没有健壮的表观模型,常无法得到有效跟踪结果。
发明内容
为了克服现有技术的不足,即针对物体跟踪方法在基于模板更新物体时,表观模型易造成用表观模型损失部分跟踪物体信息,模型对跟踪物体表示不全面,本发明提出一种基于部件级表观模型的物体跟踪方法,以部件为更新单位,旨在加强表观模型对跟踪物体的完整性表示。
为了克服现有技术的不足,本发明的技术方案为:
一种基于部件级表观模型的物体跟踪方法,包括以下步骤:
S1.创建用于建模的特征池:简单跟踪前m帧图像并记录每帧的目标区域,以目标区域为中心向四周扩展得到扩展区域,超像素分割每个扩展区域,超像素记录目标物体部件的信息,提取各部件的特征,并收集所有帧的特征构建特征池;
S2.基于特征池中的特征集创建物体的表观模型;
S3.设已完成前t帧图像的跟踪,t≥m,根据表观模型计算第t+1帧图像的目标区域、及其扩展区域内超像素的特征集和置信度,记录描述目标物体部件的超像素;
S4.计算第t+1帧图像特征集的补集,当没有严重遮挡时,执行S5,否则执行S8;
S5.以特征池中距离当前时间最久的帧作为被替换帧;
S6.当被替换帧中描述目标物体部件的超像素数量大于β时,β为预先设定的常数,从这些超像素中选出β个作为当前帧特征集的补集,其中β个超像素的特征矢量与当前帧描述目标的超像素的特征矢量的欧式距离最大,则转入S11;否则转入S7;
S7.将被替换帧中描述目标物体部件的超像素的特征集作为当前帧特征集的补集,转入S11;
S8.选择特征池中距离当前时间最近的第3帧作为被替换帧;
S9.当被替换帧中描述目标物体部件的超像素数量小于或等于α时,α为预先设定的常数,α<β,将这些超像素的特征集作为当前帧特征集的补集,则转入S11,否则,当被替换帧中描述目标物体部件的超像素数量大于α时,转入S10;
S10.把被替换帧中描述目标物体部件的超像素的置信度最大的α个超像素的特征集作为当前帧特征集的补集;
S11.合并当前帧的特征集及其补集作为当前帧的新特征集,将新特征集加入特征池并删除特征池中被替换帧的特征集,完成一次特征池更新;
S12.若满足更新表观模型条件,根据更新后的特征池构建物体的表观模型,实现表观模型的更新;
S13.转入步骤S3,直到完成整个视频图像序列的跟踪为止。
更进一步的,所述步骤S1中前m帧是基于无表观模型指导的跟踪,具体创建特征池的方式为:
给定第一帧图像Frame1中目标区域,包括中心点和区域大小,以第一帧图像的目标区域为模板,用简单匹配的迭代方法分别从Frame2,……,Framem中计算目标区域;
在目标区域周边范围采样作为候选目标区域,以目标区域为中心向四周扩展λ倍得到扩展区域,并分别对m帧的扩展区域进行超像素分割成Ni个超像素sp(i,j),i=1,…,m,j=1,…,Ni
分别提取各帧超像素的HSI色彩特征,用特征矢量
Figure BDA00003568643900033
表示,并且记录各超像素是否属于目标部件;最后,把m帧特征矢量按顺序组织成用于创建部件表观模型的特征池 F = { f t &prime; r | t &prime; = 1 , &CenterDot; &CenterDot; &CenterDot; , m ; r = 1 , &CenterDot; &CenterDot; &CenterDot; , N t &prime; } ,并记录。
上述λ为常量,为了保证扩展区域足够大,应覆盖各采样;因为HSI彩色空间更接近人眼视觉状态,与人眼视觉对目标部件的理解一致,所以提取各帧超像素的HSI色彩特征。
更进一步的,所述步骤S2中创建物体的表观模型包括通过均值聚类法对特征池中的特征矢量聚类和计算各聚类置信度两部分,采用每个聚类代表特征相似的一类部件,并且用置信度值表示部件为目标部件的概率;具体实现如下:
根据均值聚类算法对特征池中的特征矢量
Figure BDA00003568643900032
聚类成n类clst(k)(k=1,…,n),fc表示聚类中心特征矢量,rc(k)为在特征空间中聚类clst(k)的半径;
设S+(k)为特征池中属于第k个聚类的部件覆盖在目标区域内的面积总和,S-(k)为特征池中属于第k个聚类的部件覆盖在目标区域外的面积总和,则聚类的置信度表示为: C k = S + ( k ) - S - ( k ) S + ( k ) + S - ( k ) , &ForAll; k = 1 , &CenterDot; &CenterDot; &CenterDot; , n .
更进一步的,所述步骤S3的设已完成前t帧图像的跟踪,t≥m,根据表观模型计算第t+1帧图像的目标区域、及其扩展区域内超像素的特征集和置信度,具体方法如下:
对以第t帧的目标区域的中心点和大小在第t+1帧图像的扩展区域进行超像素分割,并提取各超像素的HSI特征,用特征矢量表示;
特征矢量分别与特征池中的特征矢量进行相似性比较,通过特征池中特征矢量与聚类的对应关系来确定第t+1帧的超像素与聚类之间的对应关系;
设λd常量,超像素sp(t+1,j)属于聚类clst(k),则与聚类中心特征矢量fc(k)的聚类权重为:
Figure BDA00003568643900044
,超像素sp(t+1,j)的置信度为conf(t+1,j)=dist(j,k)×Ck,,并记录超像素的置信度;绘制扩展区域的置信度图,图上的各点的值为对应的超像素置信度值;
在扩展区域内采Mt+1个样本
Figure BDA00003568643900046
作为第t+1帧候选目标区域,由扩展区域与置信度图的对应关系可得到Mt+1个样本的置信度,并根据最大后验概率估计以各候选目标区域内置信度和最大的作为目标区域,并记录描述目标物体部件的超像素。
更进一步的,所述步骤S4到步骤S11采用保留特征池中被替换帧的部分特征作为当前帧的特征集的补集加入当前帧,再用新的当前帧特征集替换被替换帧的更新特征池方法;所述步骤S4中严重遮挡的判断标准为:设θo为遮挡阈值,当候选目标置信度小于θo与扩展区域的乘积时,判断为发生了严重遮挡。
步骤S4到步骤S11中针对在更新特征池时以整帧为替换单位容易损失部分描述目标部件的超像素特征,采用保留特征池中被替换帧的部分特征作为当前帧的特征集的补集加入当前帧,再用新的当前帧特征集替换被替换帧的更新特征池方法。针对严重遮挡和没严重遮挡两种情况,在计算补集时采用不同的策略。这种更新特征池的策略优点有:第一,增强与被保留超像素同一聚类的超像素的置信度;第二,保留因为目标外观发生变化而造成同一部件的在被替换帧和新帧中有不同描述的超像素的特征,或因遮挡使得在新帧没有而被替换帧中有描述为目标部件的超像素的特征,丰富了特征池中对部件的描述,使得物体表观模型更加全面。
更进一步的,所述步骤S12中更新后的表观模型包含聚类和计算置信度,创建表观模型采用m帧建模:根据均值漂移聚类算法对特征池中的特征矢量
Figure BDA00003568643900056
进行聚类,聚类成n类clst(k)(k=1,…,n),各聚类中心为fc(k),每一类的成员表示为
Figure BDA00003568643900057
;计算聚类置信度值部分,计算由特征池中保存各帧图像分割的超像素信息和计算作为各帧的补充的超像素信息:设
Figure BDA00003568643900051
是特征补集中的任意一个特征,它属于第k个聚类,且其所对应的超像素的面积为Area(t',o),S+(k)为特征池中属于第k个聚类的超像素覆盖在目标区域内的面积总和:S+(k)=ΣN+(t′,r)+ΣArea(t′,o),
Figure BDA00003568643900053
S-(k)为特征池中属于第k个聚类的超像素覆盖在目标区域外的面积总和: S - ( k ) = &Sigma; N - ( t &prime; , r ) , &ForAll; t &prime; , r &Element; { t &prime; , r | f t &prime; r &Element; clst ( k ) } , 聚类置信度值为: C k = S + ( k ) - S - ( k ) S + ( k ) + S - ( k ) , &ForAll; k = 1 , &CenterDot; &CenterDot; &CenterDot; , n .
与现有技术相比,本发明具有以下有益效果:
1)中层视觉线索,能更有效地、灵活地表示图像结果信息。把目标中具有意义的、具有明显边界信息的目标部分割成众多的超像素,进而用超像素描述跟踪物体的部件,操作起来更直观。
2)以部件为最小操作单位,每一次在选择最相近部件进行替换,保留最不相似的部件为新一帧部件集的补集,使得建模信息池中的物体表观的信息更加丰富,表观模型能够对跟踪物体的描述更全面。
附图说明
图1为本发明的方法执行步骤示意图。
图2为本发明方法和以帧为更新单位的方法在跟踪图像序列“Wwoman_sequence”第63帧图时效果对比图。
图3为本发明方法和以帧为更新单位的方法在跟踪图像序列“Wwoman_sequence”第78帧图时效果对比图。
具体实施方式
下面结合附图对本发明做进一步的描述,但本发明的实施方式并不限于此。
本发明的方法执行步骤示意图如附图1所示,具体包括如下步骤:
S1.创建用于建模的特征池阶段:简单跟踪前m帧,在本实施例中,m取7;图像并记录每帧的目标区域,首先,给定第一帧图像Frame1中目标区域,包括中心点和区域大小,以第一帧图像的目标区域为模板,用简单匹配的迭代方法分别从Frame2,…,Frame7中计算目标区域;然后,以目标区域为中心向四周扩展λ倍,λ为常量,在本实施例中,λ取1.5,为了保证扩展区域足够大,应该覆盖各采样;得到扩展区域,并使用SLIC算法分别对7帧的扩展区域进行超像素分割成Ni个超像素sp(i,j)(i=1,…,7,j=1,…,Ni);接着,分别提取各帧超像素的HSI色彩特征,用特征矢量
Figure BDA00003568643900063
表示,并且设N+表示超像素在目标区域内像素点数,N-表示超像素在目标区域外像素数,通过N+/(N-+N+)的值判断超像素所属区域,当值大于0.5则记录该超像素属于目标区域内,否则记录超像素属于区域外;最后,把7帧特征矢量按顺序组织成用于创建部件表观模型的特征池 F = { f t &prime; r | t &prime; = 1 , &CenterDot; &CenterDot; &CenterDot; , 7 ; r = 1 , &CenterDot; &CenterDot; &CenterDot; , N t &prime; } ,并记录。
S2.创建目标的初始表观模型阶段:首先,根据均值聚类算法对特征池中的特征矢量
Figure BDA00003568643900062
聚类成n类clst(k)(k=1,…,n),用fc表示聚类中心特征矢量,rc(k)为在特征空间中聚类clst(k)的半径。然后,设S+(k)为特征池中属于第k个聚类的部件覆盖在目标区域内的面积总和,
S-(k)为特征池中属于第k个聚类的部件覆盖在目标区域外的面积总和,则聚类的置信度表示为: C k = S + ( k ) - S - ( k ) S + ( k ) + S - ( k ) , &ForAll; k = 1 , &CenterDot; &CenterDot; &CenterDot; , n .
S3.基于表观模型对新输入的图像跟踪目标物体阶段:首先,对以第t帧的目标区域的中心点和大小在第t+1帧图像的扩展区域进行超像素分割,并提取各超像素的HSI特征,用特征矢量
Figure BDA00003568643900072
表示;然后,特征矢量分别与特征池中的特征矢量进行相似性比较,通过特征池中特征矢量与聚类的对应关系来确定第t+1帧的超像素与聚类之间的对应关系;从而,设λd常量,在本实施例中,λd取2,超像素sp(t+1,j)属于聚类clst(k),则
Figure BDA00003568643900073
与聚类中心特征矢量fc(k)的聚类权重为:,进而,超像素sp(t+1,j)的置信度为conf(t+1,j)=dist(j,k)×Ck,
Figure BDA00003568643900075
并记录超像素的置信度值;接着,绘制扩展区域的置信度图,图上的各点的值为对应的超像素置信度值;最后,在扩展区域内采Mt+1个样本
Figure BDA00003568643900076
作为第t+1帧候选目标区域,由扩展区域与置信度图的对应关系可得到Mt+1个样本的置信度,并根据最大后验概率估计以各候选目标区域内置信度和最大的作为目标区域,并记录超像素是否属于目标判断。
S4.当前帧特征替换特征池中被替换帧特征阶段:在这阶段首先要定义发生严重遮挡判断标准:设θo为遮挡阈值,在本实施例中,针对Wwoman_sequence图像序列,θo取-0.1;当候选目标置信度小于θo与扩展区域的乘积时,判断为发生了严重遮挡。当发生严重遮挡时,转到步骤S6,否则,转到步骤S5。
S5.非严重遮挡情况下,当前帧特征局部替换特征池中被替换帧特征阶段:以特征池中距离当前时间最久的帧作为被替换帧。设β,β为预先设定的常数,在本实施例中,β取25,当被替换帧中描述目标物体部件的超像素数量大于β时,从这些超像素中选出β个作为当前帧特征集的补集,其中这β个超像素的特征矢量与当前帧描述目标的超像素的特征矢量的欧式距离最大;否则,将被替换帧中描述目标物体部件的超像素的特征集作为当前帧特征集的补集。转到步骤S7。
S6.严重遮挡情况下,当前帧特征局部替换特征池中被替换帧特征阶段:选择特征池中距离当前时间最近第3帧作为被替换帧。设α,α为预先设定的常数,其中α<β,在本实施例中,α取15,当被替换帧中描述目标物体部件的超像素数量小于α时,将这些超像素的特征集作为当前帧特征集的补集;否则,把被替换帧中描述目标物体部件的超像素的置信值最大的α个超像素的特征集作为当前帧特征集的补集。
S7.更新特征池阶段:首先,合并当前帧的特征集及其补集作为当前帧的新特征集,并把补集中的超像素特征记录为当前帧的描述目标物体部件的超像素特征;然后,将新特征集加入特征池,并删除特征池中被替换帧的特征集。
S8.判断是否满足更新表观模型条件,不满足时转到步骤S3,否则,继续步骤S9;
S10.更新表观模型阶段:首先,根据均值漂移聚类算法对特征池中的特征矢量 ( F = { f t &prime; r | t &prime; = 1 , &CenterDot; &CenterDot; &CenterDot; , m ; r = 1 , &CenterDot; &CenterDot; &CenterDot; , N t &prime; } ) 进行聚类,聚类成n类clst(k)(k=1,…,n),各聚类中心为fc(k),每一类的成员表示为
Figure BDA00003568643900082
然后,计算聚类置信度值。因为特征池中保存的各帧图像分割的超像素信息增加了补集,因此,计算聚类置信值的方法需要相应改变:设
Figure BDA00003568643900083
是特征补集中的任意一个特征,它属于第k个聚类,且其所对应的超像素的面积为Area(t',o),S+(k)为特征池中属于第k个聚类的超像素覆盖在目标区域内的面积总和:S+(k)=ΣN+(t′,r)+ΣArea(t′,o), r &Element; { t &prime; , r | f t &prime; r &Element; clst ( k ) } , S-(k)为特征池中属于第k个聚类的超像素覆盖在目标区域外的面积总和: S - ( k ) = &Sigma; N - ( t &prime; , r ) , &ForAll; t &prime; , r &Element; { t &prime; , r | f t &prime; r &Element; clst ( k ) } , 聚类置信度值为: C k = S + ( k ) - S - ( k ) S + ( k ) + S - ( k ) , &ForAll; k = 1 , &CenterDot; &CenterDot; &CenterDot; , n .
S11.若完成整个视频图像序列的跟踪,结束程序,否则,转到步骤S3。
图2是采用本发明方法以部件为更新单位和以帧为更新单位的方法在跟踪图像序列“Wwoman_sequence”第63帧图时效果对比图。图2(a)、图2(b)、图2(c)为以帧为更新单位的方法的执行过程;图2(d)、图2(e)、图2(f)为本方法的执行过程。图2(a)和图2(d)为对目标区域的扩展区域进行超像素分割图;图2(b)和图2(e)为使用表观模型对扩展区域内超像素进行评估,绘制出置信度图,采用灰度图表示,其中深色部分(黑色)的置信度大于0,识别为跟踪目标;相反,浅色(灰色)部分的置信度值小于0,识别为背景;图2(c)和图2(f)为跟踪的结果,框为目标框。图2中跟踪目标进入部分遮挡环境下的跟踪,对目标的可视部分可以两种方法都可以很好的建模,表观模型对跟踪目标的可视部分都可识别,置信度图中跟踪目标的超像素的置信度值大于0。图3是采用本发明方法以部件为更新单位和以帧为更新单位的方法在跟踪图像序列“Wwoman_sequence”第78帧图时效果对比图。图3(a)、图3(b)、图3(c)为以帧为更新单位的方法的执行过程;图3(d)、图3(e)、图3(f)为本方法的执行过程。图3(a)和图3(d)为对目标区域的扩展区域进行超像素分割图;图3(b)和图3(e)为使用表观模型对扩展区域内超像素进行评估,绘制出置信度图,采用灰度图表示,其中深色部分(黑色)的置信度大于0,识别为跟踪目标;相反,浅色(灰色)部分的置信度值小于0,识别为背景;图3(c)和图3(f)为跟踪结果,框为目标框。图3中跟踪目标被遮挡部分开始走出遮挡的跟踪,经过多帧的跟踪,以帧为单位的更新方法已把被跟踪目标被遮挡部分的特征损失,对被遮挡部分不可识别;相反,本发明方法以部件为单位进行局部更新替换用于建模的信息池的信息,较完整的保留跟踪目标的信息,表观模型对跟踪目标可以比较全面的表示,因此,尽管跟踪目标下面部分被遮挡超过m帧,当该部分走出遮挡环境时还是可以被识别,如图3(b)人物的大腿部分,图中虚线框部分。
以上所述的本发明的实施方式,并不构成对本发明保护范围的限定。任何在本发明的精神原则之内所作出的修改、等同替换和改进等,均应包含在本发明的权利要求保护范围之内。

Claims (6)

1.一种基于部件级表观模型的物体跟踪方法,其特征在于,包括以下步骤:
S1.创建用于建模的特征池:跟踪前m帧图像并记录每帧的目标区域,以目标区域为中心向四周扩展得到扩展区域,超像素分割每个扩展区域,超像素记录目标物体部件的信息,提取各部件的特征,并收集所有帧的特征构建特征池;
S2.基于特征池中的特征集创建物体的表观模型;
S3.设已完成前t帧图像的跟踪,t≥m,根据表观模型计算第t+1帧图像的目标区域、及其扩展区域内超像素的特征集和置信度,记录描述目标物体部件的超像素;
S4.计算第t+1帧图像特征集的补集,当没有严重遮挡时,执行S5,否则执行S8;
S5.以特征池中距离当前时间最久的帧作为被替换帧;
S6.当被替换帧中描述目标物体部件的超像素数量大于β时,β为预先设定的常数,从这些超像素中选出β个作为当前帧特征集的补集,其中β个超像素的特征矢量与当前帧描述目标的超像素的特征矢量的欧式距离最大,则转入S11;否则转入S7;
S7.将被替换帧中描述目标物体部件的超像素的特征集作为当前帧特征集的补集,转入S11;
S8.选择特征池中距离当前时间最近的第3帧作为被替换帧;
S9.当被替换帧中描述目标物体部件的超像素数量小于或等于α时,α为预先设定的常数,α<β,将这些超像素的特征集作为当前帧特征集的补集,则转入S11,否则,当被替换帧中描述目标物体部件的超像素数量大于α时,转入S10;
S10.把被替换帧中描述目标物体部件的超像素的置信度最大的α个超像素的特征集作为当前帧特征集的补集;
S11.合并当前帧的特征集及其补集作为当前帧的新特征集,将新特征集加入特征池并删除特征池中被替换帧的特征集,完成一次特征池更新;
S12.若满足更新表观模型条件,根据更新后的特征池构建物体的表观模型,实现表观模型的更新;
S13.转入步骤S3,直到完成整个视频图像序列的跟踪为止。
2.根据权利要求1所述的基于部件级表观模型的物体跟踪方法,其特征在于,所述步骤S1中前m帧是基于无表观模型指导的跟踪,具体创建特征池的方式为:
给定第一帧图像Frame1中目标区域,包括中心点和区域大小,以第一帧图像的目标区域为模板,用简单匹配的迭代方法分别从Frame2,……,Framem中计算目标区域;
在目标区域周边范围采样作为候选目标区域,以目标区域为中心向四周扩展λ倍得到扩展区域,并分别对m帧的扩展区域进行超像素分割成Ni个超像素sp(i,j),i=1,…,m,j=1,…,Ni
分别提取各帧超像素的HSI色彩特征,用特征矢量
Figure FDA00003568643800024
表示,并且记录各超像素是否属于目标部件;最后,把m帧特征矢量按顺序组织成用于创建部件表观模型的特征池 F = { f t &prime; r | t &prime; = 1 , &CenterDot; &CenterDot; &CenterDot; , m ; r = 1 , &CenterDot; &CenterDot; &CenterDot; , N t &prime; } ,并记录。
3.根据权利要求2所述的基于部件级表观模型的物体跟踪方法,其特征在于,所述步骤S2中创建物体的表观模型包括通过均值聚类法对特征池中的特征矢量聚类和计算各聚类置信度两部分,采用每个聚类代表特征相似的一类部件,并且用置信度值表示部件为目标部件的概率;具体实现如下:
根据均值聚类算法对特征池中的特征矢量
Figure FDA00003568643800022
聚类成n类clst(k),k=1,…,n,fc表示聚类中心特征矢量,rc(k)为在特征空间中聚类clst(k)的半径;
设S+(k)为特征池中属于第k个聚类的部件覆盖在目标区域内的面积总和,S-(k)为特征池中属于第k个聚类的部件覆盖在目标区域外的面积总和,则聚类的置信度表示为: C k = S + ( k ) - S - ( k ) S + ( k ) + S - ( k ) , &ForAll; k = 1 , &CenterDot; &CenterDot; &CenterDot; , n .
4.根据权利要求3所述的基于部件级表观模型的物体跟踪方法,其特征在于,所述步骤S3的设已完成前t帧图像的跟踪,t≥m,根据表观模型计算第t+1帧图像的目标区域、及其扩展区域内超像素的特征集和置信度,具体方法如下:
对以第t帧的目标区域的中心点和大小在第t+1帧图像的扩展区域进行超像素分割,并提取各超像素的HSI特征,用特征矢量表示;
特征矢量分别与特征池中的特征矢量进行相似性比较,通过特征池中特征矢量与聚类的对应关系来确定第t+1帧的超像素与聚类之间的对应关系;
设λd常量,超像素sp(t+1,j)属于聚类clst(k),则
Figure FDA00003568643800032
与聚类中心特征矢量fc(k)的聚类权重为:
Figure FDA00003568643800033
,超像素sp(t+1,j)的置信度为conf(t+1,j)=dist(j,k)×Ck,
Figure FDA00003568643800034
并记录超像素的置信度;绘制扩展区域的置信度图,图上的各点的值为对应的超像素置信度值;
在扩展区域内采Mt+1个样本
Figure FDA00003568643800035
作为第t+1帧候选目标区域,由扩展区域与置信度图的对应关系可得到Mt+1个样本的置信度,并根据最大后验概率估计以各候选目标区域内置信度和最大的作为目标区域,并记录描述目标物体部件的超像素。
5.根据权利要求4所述的基于部件级表观模型的物体跟踪方法,其特征在于,所述步骤S4到步骤S11采用保留特征池中被替换帧的部分特征作为当前帧的特征集的补集加入当前帧,再用新的当前帧特征集替换被替换帧的更新特征池方法;所述步骤S4中严重遮挡的判断标准为:设θo为遮挡阈值,当候选目标置信度小于θo与扩展区域的乘积时,判断为发生了严重遮挡。
6.根据权利要求5所述的基于部件级表观模型的物体跟踪方法,其特征在于,所述步骤S12中更新后的表观模型包含聚类和计算置信度,采用m帧建模:根据均值漂移聚类算法对特征池中的特征矢量
Figure FDA00003568643800036
进行聚类,聚类成n类clst(k)(k=1,…,n),各聚类中心为fc(k),每一类的成员表示为
Figure FDA00003568643800037
计算聚类置信度值部分,计算由特征池中保存各帧图像分割的超像素信息和计算作为各帧的补充的超像素信息:设
Figure FDA00003568643800041
是特征补集中的任意一个特征,它属于第k个聚类,且其所对应的超像素的面积为Area(t',o),S+(k)为特征池中属于第k个聚类的超像素覆盖在目标区域内的面积总和:S+(k)=ΣN+(t′,r)+ΣArea(t′,o),
Figure FDA00003568643800043
为特征池中属于第k个聚类的超像素覆盖在目标区域外的面积总和: S - ( k ) = &Sigma; N - ( t &prime; , r ) , &ForAll; t &prime; , r &Element; { t &prime; , r | f t &prime; r &Element; clst ( k ) } ,聚类置信度值为: C k = S + ( k ) - S - ( k ) S + ( k ) + S - ( k ) , &ForAll; k = 1 , &CenterDot; &CenterDot; &CenterDot; , n .
CN201310317408.7A 2013-07-25 2013-07-25 基于部件级表观模型的物体跟踪方法 Active CN103413323B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310317408.7A CN103413323B (zh) 2013-07-25 2013-07-25 基于部件级表观模型的物体跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310317408.7A CN103413323B (zh) 2013-07-25 2013-07-25 基于部件级表观模型的物体跟踪方法

Publications (2)

Publication Number Publication Date
CN103413323A true CN103413323A (zh) 2013-11-27
CN103413323B CN103413323B (zh) 2016-01-20

Family

ID=49606328

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310317408.7A Active CN103413323B (zh) 2013-07-25 2013-07-25 基于部件级表观模型的物体跟踪方法

Country Status (1)

Country Link
CN (1) CN103413323B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103810723A (zh) * 2014-02-27 2014-05-21 西安电子科技大学 基于帧间约束超像素编码的目标跟踪方法
CN104298968A (zh) * 2014-09-25 2015-01-21 电子科技大学 一种基于超像素的复杂场景下的目标跟踪方法
CN104915677A (zh) * 2015-05-25 2015-09-16 宁波大学 一种三维视频目标跟踪方法
CN105678338A (zh) * 2016-01-13 2016-06-15 华南农业大学 基于局部特征学习的目标跟踪方法
CN106846365A (zh) * 2016-12-30 2017-06-13 中国科学院上海高等研究院 基于his空间的目标跟踪方法
US10121251B2 (en) 2015-07-08 2018-11-06 Thomson Licensing Method for controlling tracking using a color model, corresponding apparatus and non-transitory program storage device
CN114140501A (zh) * 2022-01-30 2022-03-04 南昌工程学院 目标跟踪方法、装置及可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070098239A1 (en) * 2005-08-31 2007-05-03 Siemens Corporate Research Inc Method for characterizing shape, appearance and motion of an object that is being tracked
US20090092282A1 (en) * 2007-10-03 2009-04-09 Shmuel Avidan System and Method for Tracking Objects with a Synthetic Aperture
CN102831439A (zh) * 2012-08-15 2012-12-19 深圳先进技术研究院 手势跟踪方法及***
CN102982559A (zh) * 2012-11-28 2013-03-20 大唐移动通信设备有限公司 车辆跟踪方法及***

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070098239A1 (en) * 2005-08-31 2007-05-03 Siemens Corporate Research Inc Method for characterizing shape, appearance and motion of an object that is being tracked
US20090092282A1 (en) * 2007-10-03 2009-04-09 Shmuel Avidan System and Method for Tracking Objects with a Synthetic Aperture
CN102831439A (zh) * 2012-08-15 2012-12-19 深圳先进技术研究院 手势跟踪方法及***
CN102982559A (zh) * 2012-11-28 2013-03-20 大唐移动通信设备有限公司 车辆跟踪方法及***

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
BO YANG等: "《12th European Conference on Computer Vision》", 13 October 2012 *
IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION (ICCV): "《IEEE International Conference on Computer Vision (ICCV)》", 31 December 2011 *
XUE ZHOU 等: "《2012 IEEE International conference on image processing(ICIP2012)》", 30 September 2012 *
王澎: "基于中层视觉特征和高层结构信息的互补目标跟踪模型", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103810723A (zh) * 2014-02-27 2014-05-21 西安电子科技大学 基于帧间约束超像素编码的目标跟踪方法
CN103810723B (zh) * 2014-02-27 2016-08-17 西安电子科技大学 基于帧间约束超像素编码的目标跟踪方法
CN104298968A (zh) * 2014-09-25 2015-01-21 电子科技大学 一种基于超像素的复杂场景下的目标跟踪方法
CN104298968B (zh) * 2014-09-25 2017-10-31 电子科技大学 一种基于超像素的复杂场景下的目标跟踪方法
CN104915677A (zh) * 2015-05-25 2015-09-16 宁波大学 一种三维视频目标跟踪方法
CN104915677B (zh) * 2015-05-25 2018-01-05 宁波大学 一种三维视频目标跟踪方法
US10121251B2 (en) 2015-07-08 2018-11-06 Thomson Licensing Method for controlling tracking using a color model, corresponding apparatus and non-transitory program storage device
CN105678338A (zh) * 2016-01-13 2016-06-15 华南农业大学 基于局部特征学习的目标跟踪方法
CN105678338B (zh) * 2016-01-13 2020-04-14 华南农业大学 基于局部特征学习的目标跟踪方法
CN106846365A (zh) * 2016-12-30 2017-06-13 中国科学院上海高等研究院 基于his空间的目标跟踪方法
CN106846365B (zh) * 2016-12-30 2020-02-07 中国科学院上海高等研究院 基于his空间的目标跟踪方法
CN114140501A (zh) * 2022-01-30 2022-03-04 南昌工程学院 目标跟踪方法、装置及可读存储介质

Also Published As

Publication number Publication date
CN103413323B (zh) 2016-01-20

Similar Documents

Publication Publication Date Title
CN103413323B (zh) 基于部件级表观模型的物体跟踪方法
Gilroy et al. Overcoming occlusion in the automotive environment—A review
Wegner et al. Road networks as collections of minimum cost paths
CN102289948B (zh) 高速公路场景下一种多特征融合的多车辆视频跟踪方法
CN113963445B (zh) 一种基于姿态估计的行人摔倒动作识别方法及设备
US20180247126A1 (en) Method and system for detecting and segmenting primary video objects with neighborhood reversibility
CN103413120A (zh) 基于物体整体性和局部性识别的跟踪方法
CN102034247B (zh) 一种基于背景建模对双目视觉图像的运动捕捉方法
CN103729858B (zh) 一种视频监控***中遗留物品的检测方法
CN112950477B (zh) 一种基于双路径处理的高分辨率显著性目标检测方法
CN103164694A (zh) 一种人体动作识别的方法
Montoya-Zegarra et al. Semantic segmentation of aerial images in urban areas with class-specific higher-order cliques
CN103871076A (zh) 基于光流法和超像素分割的运动目标提取方法
CN103093198B (zh) 一种人群密度监测方法及装置
CN104966286A (zh) 一种3d视频显著性检测方法
CN102622769A (zh) 一种在动态场景下以深度为主导线索的多目标跟踪方法
CN102324019A (zh) 一种视频序列中自动提取手势候选区域的方法及***
CN101459843B (zh) 一种精确提取视频序列中损坏内容区域的方法
CN103208115A (zh) 基于测地线距离的图像显著性区域检测方法
CN103020606A (zh) 一种基于时空上下文信息的行人检测方法
CN104268520A (zh) 一种基于深度运动轨迹的人体动作识别方法
CN103136537A (zh) 一种基于支持向量机的车型识别方法
CN106097385A (zh) 一种目标跟踪的方法和装置
CN102592115A (zh) 一种人手定位方法及***
CN112906631A (zh) 一种基于视频的危险驾驶行为检测方法和检测***

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant