CN102663775A - 面向低帧率视频的目标跟踪方法 - Google Patents

面向低帧率视频的目标跟踪方法 Download PDF

Info

Publication number
CN102663775A
CN102663775A CN2012100892480A CN201210089248A CN102663775A CN 102663775 A CN102663775 A CN 102663775A CN 2012100892480 A CN2012100892480 A CN 2012100892480A CN 201210089248 A CN201210089248 A CN 201210089248A CN 102663775 A CN102663775 A CN 102663775A
Authority
CN
China
Prior art keywords
low frame
pixel
color mode
particle
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2012100892480A
Other languages
English (en)
Inventor
张笑钦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wenzhou University
Original Assignee
Wenzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wenzhou University filed Critical Wenzhou University
Priority to CN2012100892480A priority Critical patent/CN102663775A/zh
Publication of CN102663775A publication Critical patent/CN102663775A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种面向低帧率视频的目标跟踪方法,其包含主要的步骤如下:(1)将目标区域用融合主颜色及其空间分布特征的方法表示;(2)对候选区域与目标区域采用基于交叉颜色比例的匹配准则进行相似度匹配;(3)采用一种基于参数积分图的适应值函数来表征样本粒子与目标模板的匹配程度;(4)利用一种模拟生物群智能的退火粒子群优化框架来搜索低帧率视频所引起的突变运动。本发明实现了有效的目标跟踪方法,相对于其他经典低帧率跟踪算法,实验结果表明该发明更加有效和鲁棒。

Description

面向低帧率视频的目标跟踪方法
技术领域
本发明涉及计算机视觉领域,尤其是一种面向低帧率视频的目标跟踪方法。 
背景技术
在很多的实际的机器视觉应用中,可利用的资源都是受限制的(例如:嵌入式可视***)。所以,在视频采集的过程中就会产生一些低帧率(Low Frame Rate)视频,具体的原因有如下两种:1)由于视频采集硬件的延时或传输带宽的限制,使得视频采集过程或传输过程掉帧;2)由于CPU处理能力或存储容量的限制,对所采集的视频数据在时间维上进行下采样,从而提高处理速率或降低存储量。 
由于低帧率视频数据每秒钟显示的图像数据少于10帧,导致其连续的图像帧中目标物体的表观或运动存在很大的突变。然而,大多经典的跟踪算法都是基于目标状态的连续性假设,即假定目标物体的运动和表观在连续图像帧间的变化很小。例如,粒子滤波算法采用在前一帧的跟踪结果的基础上来预测当前帧图像中的粒子;基于迭代优化的跟踪算法,如KLT(Kanade-Lucas-Tomasi)、模板匹配算法和均值漂移算法也同样将基于前一帧的跟踪结果作为当前帧迭代优化的初始值。因此,上述经典的跟踪算法在面向低帧率视频的应用中无法获得令人满意的结果。 
国内外直接针对低帧率视频下目标跟踪的研究较少,其中Porikli 等人对均值漂移算法进行了拓展,在背景减除的基础上对运动显著区域采用多核的均值漂移算法,从而克服了由低帧率所引起的运动不连续性以及不可预测的问题。Li等人提出一种级联粒子滤波算法来解决低帧率视频下目标运动突变的问题,该算法通过检测器来学***均像素强度、速度差和角度差,来实现目标模型与运动可能性区域的匹配。另外,Zhang等人采用连续图像帧间的差分图来预测目标的运动突变,然后利用预测的结果来指导粒子滤波中的样本传播过程。总而言之,国内外现有的研究都是将低帧率视频看成目标物体的运动突变。然而,在实际应用中,低帧率视频所引入的不仅仅是目标物体的运动突变,还伴随着目标表观的巨大变化。因此,要实现低帧率视频下得鲁棒跟踪,需要同时从目标物体的表观模型和运动搜索框架两个方面着手,使其符合低帧率视频的特性。 
发明内容
为了克服低帧率视频所带来的目标表观和运动突变的问题,本发明提出从以下三个方面着手来建立一个鲁棒的面向低帧率视频的目标跟踪***:1)目标表示;2)模型匹配;3)运动搜索。首先,提出融合主颜色及其空间分布的表观模型和交叉颜色比例的匹配准则,使得模型有效地处理目标表观和光线的突变;其次,提出基于生物群智能的运动搜索方法,从而对运动突变进行有效地跟踪。 
为了实现上述的目的,本发明采用了以下的技术方案: 
建立一个鲁棒的面向低帧率视频的目标跟踪***,包括以下的步骤: 
1.融合主颜色及其空间分布信息的目标表观及其更新,主要有以下步骤: 
第一步,将目标区域像素从RGB转换到rgI颜色空间,再计算像素颜色的欧氏距离,从而建立目标区域像素间的权重图矩阵;
第二步,利用所建立像素间的图结构,对像素采用主导集聚类算法可依次获得目标区域的主颜色模式,当剩余像素个数小于一定的阈值,则聚类结束,并认为剩余像素为噪声; 
第三步,提取落在每个主颜色模式内所有像素的包括权重、均值和方差的空间分布信息,而且所有像素点的空间位置需要进行中心化处理(为了消除绝对位置的影响); 
第四步,在每一帧跟踪结束之后,对主颜色模式及其空间分布信息进行更新; 
2.在完成对目标区域模板的“主颜色+空间”表示后,当跟踪***获得一个候选区域时,需要对候选区域与目标模型进行相似度匹配。本发明就提出了基于交叉颜色比例的匹配准则,基本步骤如下: 
第一步,在给定目标模板的主颜色模式上利用最近邻算法确定候选区域的主颜色模式,再计算各自主颜色模式间的交叉比例矩阵; 
第二步,根据所建立的不同交叉比例矩阵,计算两个矩阵间的平方和距离作为颜色模式的匹配误差; 
第三步,根据目标模板中主颜色的空间分布信息,计算候选区域中对应颜色模式的空间匹配误差,并与颜色匹配误差进行融合; 
3.在应用退火粒子群优化框架前,需要定义一个适应值函数来表征样本粒子与目标模板的匹配程度。为了避免在适应值评价过程中多次计算图像的重复区域,本发明设计一种基于参数积分图的适应值快速计算方法,具体实现步骤如下: 
第一步,根据粒子群优化算法中的最大限制速度参数来确定潜在样本粒子所能覆盖的最大区域; 
第二步,根据目标模板的主颜色模式和最近邻算法确定该图像区域中每个像素属于哪个主颜色模式,从而获得整个图像区域像素的标签; 
第三步,针对每一个像素,记录其标签和空间参数形成一个5维向量,并计算该5维向量的积分图; 
第四步,对于给定样本粒子的对应区域,根据积分图查找该区域的模型参数,并根据匹配准则计算该粒子的适应值; 
4.对于由低帧率视频所引起的突变运动,本发明设计一种模拟生物群智能的退火粒子群优化框架来搜索。其主要步骤如下: 
第一步,对上一帧图像跟踪收敛后的个体最优粒子进行时序上的随机传播,以提高样本粒子的多样性,由于个体最优粒子的紧致性,所以不需要对粒子进行重采样; 
第二步,对样本粒子进行退火优化迭代,在迭代过程中需要通过适应值评价更新粒子群的个体最优粒子和群体最优粒子,用以指导粒子群的进化迭代过程; 
第三步,对进化的粒子进行收敛性判断,并输出跟踪结果; 
本发明的有益效果是: 
1、本发明所提出的跟踪算法是一种面向低帧率视频的目标跟踪的方法; 
2、本发明提出一种融合主颜色及其空间分布信息的目标表观模 型,采用主导集聚类算法获得目标区域的主颜色模式,该算法可根据样本的“紧致性”自动决定类的个数,产生层次清晰的聚类类别,从而保留最具判别性的颜色模式,剔除噪声像素的影响,并且该算法的计算量小,容易满足实时性需求。同时提取主颜色在空间位置中的分布模式,既可以保留颜色模型的适应性,又提高了模型的判别性。 
3、本发明提出一种交叉颜色比例的匹配准则,该准则较其他准则(如Bhattacharyya系数、Kullback-Leibler散度等)更为鲁棒,具体表现以下两个方面:1)该准则采用颜色比例可有效消除光照变化的影响;2)计算距离时将每个颜色模式对所有其他颜色模式考虑进来,可减轻背景噪声像素和遮挡部分像素的影响。 
4.本发明提出的退火粒子群优化框架是一个基于分布重要性采样的过程,通过粗采样和细采样两个步骤将图像观测信息加入到采样过程中,从而得到的采样结果逼近直接采样于最佳重要性分布的结果,也很好的解决了突然运动的搜索问题。 
5.本发明提出一种基于积分图的适应值快速计算方法避免了在评价过程中多次计算图像的重复区域。每个像素只需一次匹配计算,即使运动搜索的迭代次数增加了,也不会增加计算复杂度。 
附图说明
下面结合附图和实施例对本发明进一步说明。 
图1是本发明的跟踪***的整体框架; 
具体实施方式
下面通过实施例对本发明进行具体的描述,只用于对本发明进行进一步说明,不能理解为对本发明保护范围的限定,该领域的技术人员可根据上述发明的内容对本发明作出一些非本质的改进和调整。 
如图1所示,图1为本发明整体框架。本发明为一种面向低帧率视频的目标跟踪方法,本发明的方法具体运行的硬件和编程语言并不限制,用任何语言编写都可以完成,为此其它工作模式不再赘述。 
本发明的实施例采用一台具有3.2G赫兹中央处理器和1G字节内存的奔腾4计算机并用Matlab语言编制了工作程序,实现了本发明的方法,本发明的面向低帧率视频的目标跟踪方法包括以下步骤: 
计算融合主颜色及其空间分布信息的目标表观、交叉颜色比例的匹配准则的构建、模拟生物群智能的退火粒子群优化框架的更新及判断、基于积分图的适应值快速计算等模块,具体步骤如下所述: 
(1)首先将目标区域像素按公式 
r=R/(R+G+B),g=G/(R+G+B),I=(R+G+B)/3 
进行颜色空间的转变;然后再定义像素间的权重图如下: 
Wi,j=||fi-fj||2
其中fi=(ri,gi,Ii),i,j分别表示第i个像素和第j个像素。 
再通过主导集聚类的方法就可以依次得到主颜色模式 
Figure BDA0000148613180000061
(2)计算落在第l个颜色模式的所有像素的空间分布模式:均值、 
方差分别如下: 
μ l = Σ i p i δ ( L ( f i ) - l ) Σ i δ ( L ( f i ) - l ) ; Σ l = Σ i ( p i - u l ) ( p i - u l ) T δ ( L ( f i ) - l ) Σ i δ ( L ( f i ) - l ) ;
其中,pi是像素i的位置;δ(·)是Kronecker函数,即为 
Figure BDA0000148613180000071
从而可知,目标图像区域将表示成 
Figure BDA0000148613180000072
其中, 
Figure BDA0000148613180000073
是第l个主颜色模式的权重。 
(3)根据最近邻算法确定候选区域的各颜色模式内像素的个数 
Figure BDA0000148613180000074
可得各自主颜色模式间的交叉比例矩阵为 
Figure BDA0000148613180000075
其中, 表示主颜色模式ci和cj的关系。 
再计算直方图UT和UC的相似度Mv, 
M v ( U T , U C ) = Σ v = 1 k ( u l T u v T - u l C u v C ) 2 / ( 1 u v T + 1 u v C ) 2 ;
其中,当 和 
Figure BDA0000148613180000079
趋近于零时, 
Figure BDA00001486131800000710
将正交化以防其不稳定问题。 
从而可得颜色匹配误差为 
M v ( U T , U C ) = Σ v = 1 k M v ( U T , U C ) = Σ v = 1 k ( 1 - u v T u v C ( u v T + u v C ) 2 | | U T + U C | | 2 2 )
(4)根据目标模板中主颜色的空间分布信息再计算候选区域中对应颜色模式的匹配误差,并且与颜色匹配误差融合可得: 
S ( U T , U C ) = Σ l = 1 k w l exp { - 1 2 ( u l T - u l C ) T ( Σ l T + Σ l C ) - 1 ( u l T - u l C ) }
(5)退火粒子群优化框架是在粒子群优化框架基础上修正的高斯退火粒子群优化算法,具体方程如下: 
vi,n+1=|r1|(pi-xi,n)+|r2|(g-xi,n)+ε 
xi,n+1=xi,n+vi,n+1
其中,|r1|和|r2|是高斯概率分布中的独立抽样的随机值;ε是为了阻止搜索陷入局部最小的零均值高斯噪声,且其协方差∑ε也在自适应的退火方式改变,即∑ε=∑e-cn,其中,∑是预定义的转移分布的协方差矩阵;n是迭代次数;c是退火因子。 
每个粒子的适应值计算f(xi,n+1)是用外观模型p(oi,n+1|xi,n+1)表示如下:f(xi,n+1)=p(oi,n+1|xi,n+1
p ( o i , n + 1 | x i , n + 1 ) = exp { 1 2 σ 1 2 ( 1 - S ( U T , U C ) ) } * exp { 1 2 σ 2 2 M ( U T , U C ) }
其中, 
Figure BDA0000148613180000082
是关于衡量空间距离与交叉比例相似度的影响的外观协方差参数。 
另外,个体最优粒子和群体最优粒子在适应值计算后将按如下公式进行更新: 
Figure BDA0000148613180000083
g = arg max p i f ( p i )
(6)由粒子群优化算法中的最大限制速度参数 
Figure BDA0000148613180000085
确定潜在t+1时刻样本粒子所能覆盖的最大图像区域为 
Figure BDA0000148613180000086
再对每个粒子建立一个5维的向量,即 
F i = { L ( i ) , ( p i ) x , ( p i ) y , ( p i ) x 2 , ( p i ) y 2 }
其中,L(i)是属于像素i的颜色模式;(pi)x,(pi)y分别是像素i的x,y轴的坐标值。再计算第l个颜色模式的积分图,而该积分图中在第i位置的值为: 
Figure BDA0000148613180000088
上述积分图分别表示i位置属于第l个颜色模式的像素个数,以及这些像素在空间位置的均值,以及方差。 
对于给定样本粒子的对应区域,根据上述积分图查找该区域的模型参数,并根据匹配准则计算该粒子的适应值。 

Claims (8)

1.一种面向低帧率视频的目标跟踪方法,其特征在于,包括以下步骤:
(1)在融合主颜色及其空间分布的目标表示过程中要将目标区域像素的颜色空间从RGB转换到rgI空间,再采用主导集聚类的方法获得像素的主颜色模式;
(2)对于落在每个主颜色模式内所有像素的包括权重、均值和方差的空间分布信息进行计算,并与颜色模式信息进行融合及更新;
(3)对给定目标模板的主颜色模式利用最近邻算法确定候选区域的主颜色模式,进而计算各主颜色模式间的交叉比例矩阵及颜色模式的匹配误差;
(4)根据目标模板中主颜色的空间分布信息计算候选区域中对应颜色模式的空间匹配误差,并且与颜色匹配误差进行融合;
(5)在已确定的最大图像区域计算其中每个像素的标签,并将其与空间参数构成5维向量,再计算该5维向量的积分图;
(6)根据积分图查找给定样本粒子的对应区域的模型参数,并根据匹配准则计算该粒子的适应值;
(7)根据退火粒子群优化的运动搜索框架对样本粒子进行退火优化迭代,同时还要利用适应值评价更新粒子群的个体最优粒子和全体最优粒子,然后对进化的粒子进行收敛性判断并输出跟踪结果。
2.根据权利要求1所述的面向低帧率视频的目标跟踪方法,其特征在于,所述的步骤(1)具体包括以下子步骤:
首先,目标区域像素颜色空间的转换;
其次,计算像素颜色的欧氏距离,由此建立像素间的权重图矩阵;
最后,由图结构依次获得主颜色模式。
3.根据权利要求1所述的面向低帧率视频的目标跟踪方法,其特征在于,所述的步骤(2)具体包括以下子步骤:
首先,从权重、均值、方差三个方面计算像素的空间分布模式,而且像素点的位置还要中心化处理;
其次,将空间分布信息与颜色分布信息进行融合及更新。
4.根据权利要求1所述的面向低帧率视频的目标跟踪方法,其特征在于,所述的步骤(3)具体包括以下子步骤:
首先,确定候选区域的主颜色模式;
其次,计算各自主颜色模式间的交叉比例矩阵;
最后,计算两个矩阵间的平方和距离作为颜色模式的匹配误差。
5.根据权利要求1所述的面向低帧率视频的目标跟踪方法,其特征在于,所述的步骤(4)具体包括以下子步骤:
首先,计算候选区域中对应颜色模式的空间匹配误差;
其次,将颜色匹配误差与空间匹配误差进行融合。
6.根据权利要求1所述的面向低帧率视频的目标跟踪方法,其特征在于,所述的步骤(5)具体包括以下子步骤:
首先,确定潜在样本粒子所能覆盖的最大图像区域;
其次,由最大图像区域中的每个像素的主颜色模式可得该区域像素的标签;
最后,计算由标签和空间参数构成的5维向量的积分图。
7.根据权利要求1所述的面向低帧率视频的目标跟踪方法,其特征在于,所述的步骤(6)具体包括以下子步骤:
首先,根据积分图查找给定样本粒子的对应区域的模型参数;
其次,根据匹配准则计算该粒子的适应值。
8.根据权利要求1所述的面向低帧率视频的目标跟踪方法,其特征在于,所述的步骤(7)具体包括以下子步骤:
首先,对前一帧图像收敛后的个体最优粒子进行时序上的随机传播;
其次,对样本粒子进行退火优化迭代,同时还要通过适应值评价更新粒子群个体最优粒子和群体最优粒子;
最后,对进化的粒子进行收敛性判断。
CN2012100892480A 2012-03-30 2012-03-30 面向低帧率视频的目标跟踪方法 Pending CN102663775A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2012100892480A CN102663775A (zh) 2012-03-30 2012-03-30 面向低帧率视频的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2012100892480A CN102663775A (zh) 2012-03-30 2012-03-30 面向低帧率视频的目标跟踪方法

Publications (1)

Publication Number Publication Date
CN102663775A true CN102663775A (zh) 2012-09-12

Family

ID=46773253

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2012100892480A Pending CN102663775A (zh) 2012-03-30 2012-03-30 面向低帧率视频的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN102663775A (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103024354A (zh) * 2012-12-11 2013-04-03 华为技术有限公司 颜色匹配方法及装置
CN104253981A (zh) * 2014-09-28 2014-12-31 武汉烽火众智数字技术有限责任公司 一种用于视频侦查的运动目标按颜色排序的方法
CN104488255A (zh) * 2012-06-18 2015-04-01 汤姆逊许可公司 用于图像的色彩调和的装置和方法
CN105427348A (zh) * 2015-12-03 2016-03-23 山东理工大学 一种基于蝙蝠算法的视频目标跟踪方法
CN105631900A (zh) * 2015-12-30 2016-06-01 浙江宇视科技有限公司 一种车辆跟踪方法及装置
CN106682573A (zh) * 2016-11-15 2017-05-17 中山大学 一种单摄像头的行人跟踪方法
CN107169990A (zh) * 2017-04-21 2017-09-15 南京邮电大学 一种基于粒子群优化算法的视频多运动目标跟踪定位方法
CN107689053A (zh) * 2017-07-31 2018-02-13 温州大学 一种基于标签传播和排序约束的目标跟踪方法
CN109800689A (zh) * 2019-01-04 2019-05-24 西南交通大学 一种基于时空特征融合学习的目标跟踪方法
CN110907896A (zh) * 2019-12-16 2020-03-24 哈尔滨工程大学 一种非同步时延跟踪方法
CN113537137A (zh) * 2021-08-02 2021-10-22 浙江索思科技有限公司 一种面向电扶梯的人体动作本征特征提取的方法及***

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030103647A1 (en) * 2001-12-03 2003-06-05 Yong Rui Automatic detection and tracking of multiple individuals using multiple cues
CN101014097A (zh) * 2006-10-17 2007-08-08 马涛 主动红外跟踪***

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030103647A1 (en) * 2001-12-03 2003-06-05 Yong Rui Automatic detection and tracking of multiple individuals using multiple cues
CN101014097A (zh) * 2006-10-17 2007-08-08 马涛 主动红外跟踪***

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
XIAOQIN ZHANG ET AL.: "Robust Object Tracking for Resource-Limited Hardware Systems", 《ICIRA 2011》 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104488255A (zh) * 2012-06-18 2015-04-01 汤姆逊许可公司 用于图像的色彩调和的装置和方法
CN103024354B (zh) * 2012-12-11 2015-11-25 华为技术有限公司 颜色匹配方法及装置
CN103024354A (zh) * 2012-12-11 2013-04-03 华为技术有限公司 颜色匹配方法及装置
CN104253981B (zh) * 2014-09-28 2017-11-28 武汉烽火众智数字技术有限责任公司 一种用于视频侦查的运动目标按颜色排序的方法
CN104253981A (zh) * 2014-09-28 2014-12-31 武汉烽火众智数字技术有限责任公司 一种用于视频侦查的运动目标按颜色排序的方法
CN105427348A (zh) * 2015-12-03 2016-03-23 山东理工大学 一种基于蝙蝠算法的视频目标跟踪方法
CN105631900A (zh) * 2015-12-30 2016-06-01 浙江宇视科技有限公司 一种车辆跟踪方法及装置
CN105631900B (zh) * 2015-12-30 2019-08-02 浙江宇视科技有限公司 一种车辆跟踪方法及装置
CN106682573A (zh) * 2016-11-15 2017-05-17 中山大学 一种单摄像头的行人跟踪方法
CN106682573B (zh) * 2016-11-15 2019-12-03 中山大学 一种单摄像头的行人跟踪方法
CN107169990A (zh) * 2017-04-21 2017-09-15 南京邮电大学 一种基于粒子群优化算法的视频多运动目标跟踪定位方法
CN107689053A (zh) * 2017-07-31 2018-02-13 温州大学 一种基于标签传播和排序约束的目标跟踪方法
CN109800689A (zh) * 2019-01-04 2019-05-24 西南交通大学 一种基于时空特征融合学习的目标跟踪方法
CN109800689B (zh) * 2019-01-04 2022-03-29 西南交通大学 一种基于时空特征融合学习的目标跟踪方法
CN110907896A (zh) * 2019-12-16 2020-03-24 哈尔滨工程大学 一种非同步时延跟踪方法
CN110907896B (zh) * 2019-12-16 2022-06-21 哈尔滨工程大学 一种非同步时延跟踪方法
CN113537137A (zh) * 2021-08-02 2021-10-22 浙江索思科技有限公司 一种面向电扶梯的人体动作本征特征提取的方法及***

Similar Documents

Publication Publication Date Title
CN102663775A (zh) 面向低帧率视频的目标跟踪方法
CN103268616B (zh) 多特征多传感器的移动机器人运动人体跟踪方法
CN104680559B (zh) 基于运动行为模式的多视角室内行人跟踪方法
CN107256386A (zh) 基于深度学习的人类行为分析方法
CN105467838B (zh) 一种随机有限集框架下的同步定位与地图构建方法
CN103077423B (zh) 基于视频流的人群数量估计、局部人群聚集状态以及人群跑动状态检测方法
CN101470809B (zh) 一种基于扩展混合高斯模型的运动目标检测方法
CN104574439A (zh) 一种融合卡尔曼滤波与tld算法的目标跟踪方法
CN103426179B (zh) 一种基于均值偏移多特征融合的目标跟踪方法及装置
CN102142085B (zh) 一种林区监控视频中运动火焰目标的鲁棒跟踪方法
CN106815563B (zh) 一种基于人体表观结构的人群数量预测方法
Bešić et al. Dynamic object removal and spatio-temporal RGB-D inpainting via geometry-aware adversarial learning
CN102682452A (zh) 基于产生式和判别式结合的人体运动跟踪方法
CN101408983A (zh) 基于粒子滤波和活动轮廓模型的多目标跟踪方法
CN104599290A (zh) 一种面向视频感知节点的目标检测方法
CN104159088B (zh) 一种远程智能车辆监控***及方法
CN104318588A (zh) 一种基于位置感知判别外观模型的多摄像机目标跟踪方法
CN104050685A (zh) 基于粒子滤波视觉注意力模型的运动目标检测方法
CN103605983A (zh) 一种遗留物检测和跟踪方法
CN113985897B (zh) 一种基于行人轨迹预测与社交约束的移动机器人路径规划方法
CN102592135B (zh) 融合目标空间分布和时序分布特征子空间的视觉跟踪方法
CN113763427B (zh) 一种基于从粗到精遮挡处理的多目标跟踪方法
CN102903121A (zh) 基于运动目标跟踪的融合算法
Yang et al. Digital video intrusion intelligent detection method based on narrowband Internet of Things and its application
CN111739066A (zh) 一种基于高斯过程的视觉定位方法、***及存储介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20120912