CN104200488A - 一种基于图表示和匹配的多目标跟踪方法 - Google Patents
一种基于图表示和匹配的多目标跟踪方法 Download PDFInfo
- Publication number
- CN104200488A CN104200488A CN201410377583.XA CN201410377583A CN104200488A CN 104200488 A CN104200488 A CN 104200488A CN 201410377583 A CN201410377583 A CN 201410377583A CN 104200488 A CN104200488 A CN 104200488A
- Authority
- CN
- China
- Prior art keywords
- track
- target
- node
- formula
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了基于图表示和匹配的多目标跟踪方法,与现有技术相比解决了视频跟踪技术在遇到目标频繁交互遮挡、外观特征相似而无法成功跟踪的缺陷。本发明包括以下步骤:输入跟踪视频,在相邻的时间窗口内生成目标可靠的短轨迹;为形成的目标短轨迹建立以图为框架的空间运动模型和以颜色、局部二值差分为特征的外观模型;计算轨迹间外观特征和空间运动相似度;用带权二分图匹配框架实现目标的关联跟踪。不断重复以上步骤,从而得到每个目标所有时刻的运动轨迹。本发明提高了复杂场景中的目标跟踪的准确度与效率,提升了目标跟踪技术在各类场景中的应用程度。通过对外观模型和空间运动模型的在线学习,达到目标在复杂环境下的准确追踪。
Description
技术领域
本发明涉及智能视频技术领域,具体来说是一种基于图表示和匹配的多目标跟踪方法。
背景技术
视频中的多目标跟踪是计算机视觉领域中一个最基本的研究内容,具有广泛的实际应用领域,如智能监控、人机交互、自主机器人、增强现实等,目前对其展开的相应研究也较多。当背景较为简单,目标之间不存在严重遮挡等情况下,能取得较为理想的效果。但是在一些较为复杂和拥挤的环境下,目标外观的相似性、目标间的相互遮挡、目标的频繁消失和重现等都给视频多目标跟踪带来了很大困难。
现有的解决方法主要分为两类:基于特征建模的跟踪方法和基于数据关联的跟踪方法。基于特征建模的方法主要采用颜色、纹理等简单的局部特征以及这些特征的组合来描述跟踪目标,以实现目标的检测和跟踪,但现有的这类方法极少考虑到跟踪目标的运动和空间信息,因此在复杂环境下经常会出现跟错、跟丢等现象。基于数据关联的方法是将候选回波与已知目标轨迹比较并最后确定正确观测与轨迹配对的方法,这类方法大大提高了多目标跟踪的精度,主要的代表有:联合概率数据关联算法(JPDA)和多假设方法(MHT),但当多目标和回波数目增加时,JPDA会遭遇到数据关联组合计算量巨大的问题,计算复杂度呈指数增加,而MHT由于大量的“迭代”过程浪费许多时间。如何构造一种区分度高的特征模型,实现多目标之间快而准确地关联已经成为急需解决的技术问题。
发明内容
本发明的目的是为了解决复杂环境下,目标外观的相似、目标间相互遮挡而导致无法跟踪成功的缺陷,提供一种基于图表示和匹配的多目标跟踪方法来解决上述问题。
为了实现上述目的,本发明的技术方案如下:
一种基于图表示和匹配的多目标跟踪方法,包括以下步骤:
在视频序列中,用预先训练的模型进行目标检测,对相邻两帧内检测出的响应进行特征描述,构造两帧响应间相似度匹配矩阵,用双阀值策略生成目标可靠的短轨迹;
为形成的短轨迹建立以图为框架的空间运动模型和以颜色、局部二值差分(Local Difference Binary,简称LDB)为特征的外观模型;
计算轨迹间外观特征和空间运动相似度;
用带权二分图匹配跟踪目标:将相邻时间窗口的轨迹作为二分图的结点,轨迹间外观特征和空间运动相似度的线性组合作为两结点相连边的权重,最后通过匈牙利算法实现二分图匹配优化,形成目标跟踪的长轨迹。
所述的跟踪目标短轨迹的生成包括以下步骤:
给定相邻两帧,用预先训练的模型检测出所有的响应;
对每个检测出的响应用它所在的位置、大小和颜色直方图进行描述;
构造两帧响应间相似度匹配矩阵,用双阀值策略关联两帧间的响应,生成目标的短轨迹,计算公式如下:
公式中S(ri,rj)表示响应ri和rj间的相似度,ti和tj分别表示当前的两帧,R表示所有响应的集合,θ1和θ2表示两个阀值。通过这种双阀值策略,相关联的响应间形成了可靠的短轨迹。
所述的为短轨迹建立以图为框架的空间运动模型和以颜色、LDB为特征的外观模型包括以下步骤:
(1)使用无向图建立空间运动模型
在两个连续的时间窗口,建立一个无向图G=(V,E),V表示图结点的集合,E表示连接结点的边的集合。每个结点由一对轨迹组成,结点的权重表示这对轨迹是同一目标的概率。每条边连接图中的两个结点,边的权重表示两结点间的相关性。
计算图中任意结点的权重:首先计算结点中两轨迹基于平均速度的相似性,然后计算两轨迹间基于位置信息的相似性,最后计算出结点的权重为基于平均速度的相似性与基于位置信息的相似性的乘积。若结点的权重越大,表示结点中两轨迹为同一目标的概率较大。
计算连接两结点的边的权重:对任意两结点,计算在同一时间窗口的两轨迹在时间上重叠部分的运动关系,假设两轨迹间存在线性运动关系。把这种关系应用到另一时间窗口的两轨迹上,真实运动关系与假设运动关系之间的距离为两结点的权重。
(2)建立外观模型
轨迹的外观信息有HSV颜色直方图和LDB特征组成。LDB特征是由Xin Yang和Kwang-Ting Cheng2014年提出的局部特征描述子,具有描述准确、运算速度快的特点。
所述的轨迹间相似度计算包括如下步骤:
两轨迹Ti k,Tj k+1间外观特征的相似度计算采用Bhattacharyya距离,HSV颜色直方图的相似度表示为ρ(Hcoli,Hcolj),LDB特征的相似度表示为ρ(τLDBi,τLDBj),则外观特征的相似度表示为ρapp(Vij)=ρ(Hcoli,Hcolj)+ρ(τLDBi,τLDBj);
结点间空间运动关系相似度计算如下:
式中Vmn表示Vij附近的结点,即运动特征和Vij相似的结点。这样两轨迹Ti k,Tj k+1间外观特征和运动特征融合相似度为:
ρfuse(Vij)=α·ρapp(Vij)+β·ρmotion(Vij)
公式中α和β分别表示外观特征和运动特征的融合权重。
所述用带权二分图匹配跟踪目标步骤如下:
建立带权二分图:考虑连续的两个时间窗口内的跟踪轨迹 和 带权二分图表示为G=(Tk,Tk+1,E),Tk和Tk+1分别作为二分图的结点集合,且 任意eij(eij∈E)为连接Ti k和Tj k+1的边,其权重为ρfuse,若权重越大则两结点越相似;
然后把多目标跟踪看成是二分图的最大权匹配问题,而二分图的最大权匹配问题可采用整数规划模型表示,此优化模型的的解可由匈牙利算法求得;
最后,把匹配上的结点进行连接,就形成了跟踪目标的长轨迹。
有益效果
本发明的一种基于图表示和匹配的多目标跟踪方法,与现有技术相比提高了复杂环境下目标跟踪的准确度和效率,提升了目标跟踪技术在各类场景中 的应用程度。本发明不仅使用了高辨识度、计算简单、匹配速度快的HSV颜色和LDB特征描述跟踪目标,而且采用图框架来表示目标间的运动和空间关系,可以有效区分空间位置相近且外观相似的运动目标。在跟踪轨迹关联时,采用了最大权二分图匹配方法,该方法与其他关联方法相比具有实现简单、复杂度低的特点,从而能较好地应用于实时跟踪中。另外,在整个跟踪过程中,目标的外观模型和图模型都采用了在线学习的技术,当遇到目标外观变化、环境的光线变化、目标间频繁地交互遮挡等情况时,也能实现准确地跟踪目标。
附图说明
图1为本发明实施例的方法流程图
图2为本发明实施例的跟踪目标短轨迹的生成图((a)为连续5帧中检测出的目标响应,(b)为生成的目标短轨迹)
图3为本发明实施例的空间运动模型的形式化图(a)两时间窗口中的跟踪短轨迹,(b)空间运动模型中的结点及其邻结点)
图4为本发明实施例的求两结点边的权重示意图
图5为本发明实施例的二分图匹配图
具体实施方式
为使对本发明的结构特征及所达成的功效有更进一步的了解与认识,用以较佳的实施例及附图配合详细地说明,说明如下:
如图1所示,一种基于图表示和匹配的多目标跟踪方法,包括以下步骤:
第一步,跟踪目标短轨迹的生成:在视频序列中,用预先训练的模型进行目标检测,对相邻两帧内检测出的响应进行特征描述,构造两帧响应间相似度匹配矩阵,用双阀值策略生成目标的短轨迹。比如,在连续5帧的时间窗口, 生成跟踪目标的短轨迹,这里根据不同的应用,跟踪的目标类型可以不同,如跟踪行人、车辆等,时间窗口的大小也可以改变。
(1)用GMM(高斯混合模型)检测出每帧中的响应,对检测出的响应用其大小、颜色直方图和位置信息进行描述。
(2)选取两连续帧,如:t=1,t=2。建立两帧间响应特征相似度匹配矩阵S,如图2(a),t=1时检测出两个响应r1和r6,t=2时检测出三个响应r2、r5和r7。两个响应间的相似度计算如下式:
(3)用如下的双阀值策略生成两帧响应间短轨迹为T1={r1,r2},T2={r5},T3={r6,r7}。
以此类推,每相邻两帧都能生成短轨迹,再将轨迹间有共同响应的轨迹连接,生成较长点的跟踪短轨迹。如图2(b)中所示,连续5帧中生成的跟踪轨迹。
第二步,为相邻两个窗口生成的跟踪轨迹建立以图为框架的空间运动模型和以颜色、LDB为特征的外观模型,如相邻的两个时间窗口为K和K+1,K由1到5帧组成,K+1由6到10帧组成,两窗口内的跟踪短轨迹如图3(a)所示。
(21)建立以图为框架的空间运动模型
(211)在时间窗口K和K+1之间建立一个无向图G=(V,E),V表示图结 点的集合,E表示连接结点的边的集合。每个结点由一对轨迹组成,如:Vij=(Ti k,Tj k+1),结点的权重表示这对轨迹相连的概率,如:ωv(Ti k,Tj k+1);每条边连接图中的两个结点,如:Vij和Vmn,那么这条边的权重ωe(Vij,Vmn)就表示两对轨迹间的相关性。对任一轨迹用其附近的轨迹来表示它的空间结构信息,如:Ti k附近的轨迹表示为(Ti k)-,假设有2个轨迹组成,Tj k+1附近的轨迹表示为(Tj k+1)-,假设有3个轨迹组成,那么结点Vij的附近结点就表示为(Vij)-,定义如下:
(Vij)-={Tl k,Th k+1}where Tk l∈(Ti k)-and Th k+1∈(Tj k+1)-
也就是说(Vij)-有6个结点(6对轨迹)组成。图模型如图3(b)所示。
(212)计算已建图中任意结点Vij=(Ti k,Tj k+1)的权重:设 表示一个轨迹由m+1帧响应构成,和分别表示该轨迹的第一帧和最后一帧,表示第帧中响应。
首先结点中两轨迹基于速度差分的关系定义为:
上式中是δυ设定的阀值,ευ是设定的很小的值。如果Eυ很小,表示两行人走在一起的可能性很小;然后计算两轨迹间位置差别,定义如下:
上式中表示轨迹Ti k在时的运动速度,表示轨迹在时的位置估计 表示所有估计位置和真实位置之差的期望值;最后计算出结点的权重为:
ωv(Vij)=Eυ·EP
(213)计算两结点的边的权重:对任意两结点Vij和Vmn,定义两轨迹Ti k和Tm k在时间上重叠部分分别为两个向量Si和Sm,假设两向量间存在线性运动关系,即:Si=Sm·A+B,其中A和B分别为参数,如图4所示。已知Si和Sm,两参数估计如下:
在此基础上定义Vij和Vmn边的权重为:
上式中c表示归一化因子,σ表示两轨迹间运动方差。如果we(Vij,Vmn)大,表示如果Ti k与Tj k+1连接,那么Tm k与Tn k+1连接的概率较大。
(22)建立外观模型:在目标跟踪过程中,经常会遇到目标外观变化,目标遮挡等情况,为了能较好跟踪复杂场景中的目标,本实施例采用了一个在线学习多特征融合的方法来构建目标的外观模型,具体步骤如下:
(221)在一个时间窗口内,如K,选取训练样本。假设在同一个短轨迹中的响应表示同一个目标;在同一帧中属于不同短轨迹的响应表示不同的目标。这样,选择同一轨迹中不同的两个响应作为正样本,不同跟踪迹中不同的两个响应作为负样本。
(222)对选取的所有样本用颜色和LDB特征的融合描述。颜色特征采用 HSV直方图,如:H、S、V分别量化为16,4,4,则可以得到256维的HSV直方图。LDB特征就是把目标划分成多层网格,如2×2,3×3,4×4,5×5,层数是可以选择的,层数越多描述越精确。每个网格单元用灰度、X方向的梯度、Y方向的梯度来描述,用每个网格单元与同层其他网格单元信息比较生成三位的二值数,把所有的这些二值数按一定顺序排列就形成了对目标描述的LDB描述子。如一对网格单元i和j生成的二值信息如下:
其中Func(i)={Iintensity(i),Grandientx(i),Grandienty(i)}。对2×2,3×3,4×4,5×5网格来说,可以生成1386位的LDB描述子。这两个特征都具有计算简单,描述能力强的特点。
(223)计算颜色特征和LDB特征的相似度,采用Adaboost算法对样本进行学习,这样就得到辨识度强的外观模型。
第三步,任意结点Vij=(Ti k,Tj k+1)的两轨迹相似度有两部分组成,外观特征相似度与空间运动相似度。
(31)外观特征相似度计算:由上步的在线学习方法得到了两轨迹的外观特征,HSV颜色直方图的相似度计算采用Bhattacharyya距离,如256维的HSV颜色直方图相似度表示为
LDB特征表示为τLDBi,τLDBj,统计τLDBi和τLDBj相应位的值相同的个数,进行归一化,就得到两轨迹间LDB特征的相似度,表示为ρ(τLDBi,τLDBj)。则两轨迹外观特征的相似度表示为 ρapp(Vij)=ρ(Hcoli,Hcolj)+ρ(τLDBi,τLDBj);
(32)结点Vij=(Ti k,Tj k+1)中两轨迹空间运动关系相似度通过该结点自身的运动,及其相邻结点运动与该结点运动之间的关系求得,计算如下:
上式中Vmn表示Vij相邻的结点。这样结点Vij=(Ti k,Tj k+1)外观特征和运动特征融合相似度为:
ρfuse(Vij)=α·ρapp(Vij)+β·ρmotion(Vij)
上式中α和β分别表示外观特征和运动特征的融合权重,α和β可以根据实际情况动态调整。比如在无交互遮挡时以外观特征为主来跟踪目标,这时可以加大α的值,反之,加大β的值。
第四步,运用带权二分图匹配框架关联跟踪目标。首先用要关联的目标短轨迹建立一个新的带权二分图,然后求所建二分图的最大权匹配,最后把匹配上的轨迹相连,就形成了跟踪目标的长轨迹。具体步骤如下:
(41)考虑连续的两个时间窗口K和K+1内的跟踪短轨迹 和 如图3(a)所示。建立带权二分图G=(Tk,Tk+1,E),Tk和Tk+1分别作为二分图的结点集合,且 任意eij(eij∈E)为连接Ti k和Tj k+1的边,其权重为ωij。
(42)计算二分图每条边的权重ωij,如第3步的计算方法,得ωij=ρfuse(Vij),建立权矩阵W=[ωij]m×n。
(43)求二分图的最大权匹配M,可转化为如下的整数规划模型的求解问题,假设m<n:
subject to
xij=0or1,i=1,2,...,m;j=1,2,...,n
此优化模型的解可由匈牙利算法求得,这样就得到了二分图的最大权匹配M,如图5所示。关联匹配上的轨迹,形成了跟踪目标的长轨迹。
不断重复以上步骤,从而得到每个目标所有时刻的运动轨迹。
本实施例的描述目标空间运动特征的图模型,很好地刻画了目标与其邻域内目标的运动关系,在目标外观相似,交互频繁时,对区分不同目标起到了重要的作用;本实施例的关联目标的带权二分图模型,与其他的数据关联方法相比,具有实现简单、匹配速度快等特点,降低了目标跟踪的时间复杂度。总的来说,本实施例提出的一种基于图表示和匹配的多目标跟踪方法,在目标拥挤、频繁交互情况下,能实现目标的连续长时间跟踪,与现有的其他跟踪方法相比,降低了丢失率和错跟率,从而提高了多目标跟踪的准确率。
为了验证本实施例跟踪方法的有效性,我们做了大量的实验,将本实施例应用到多个视频数据库中,如’PETS2006’,’AVSS2007’和‘PETS2009’等数据库,对跟踪效果进行定性与定量分析。具体就是对数据库中的某段视频内的运动目标进行检测跟踪,记录下每帧中目标的位置,根据跟踪方法关联每帧的运动目标,连接每帧中判定为同一目标的位置,形成了目标的跟踪轨迹。
用不同的跟踪方法跟踪同一视频序列的目标,进行定性分析来判定跟踪方法的优劣程度。如用本实施例的跟踪方法、GM-PHD方法(高斯混合概率假设 密度方法,2006年由Ba-Ngu Vo和Wing-Kin Ma提出的)和CP1(单模板耦合***,2012年由Zheng Wu等人在CVPR会议上提出的)跟踪方法分别跟踪视频序列PETS2009S2.L2,该序列中,多个行人以不同的速度和方向穿过一交叉路口。这些行人大多数很靠近,频繁发生遮挡。GM-PHD方法经常跟丢或跟错目标,CP1在外观相似时,也产生跟踪错误,但本实施例的方法能较准确地跟踪目标。
用不同的跟踪方法跟踪同一视频序列的目标,进行定量分析来判定跟踪方法的优劣程度。定量评估方法采用国际上通用的2008年提出的CLEAR MOT标准,即MOTA(多目标跟踪的准确度)和MOTP(多目标跟踪的精确度),另外还采用一些其他的常用标准:MT(目标被成功跟踪帧数占目标实际存在帧数80%以上的轨迹个数)、ML(目标被成功跟踪帧数占目标实际存在帧数20%以下的轨迹个数)、FRMT(一条轨迹的分段数)、IDS(轨迹标志交换的次数)。用本实施例的跟踪方法和GM-PHD和CP1跟踪方法分别跟踪视频序列’PETS2006’,’AVSS2007’和‘PETS2009S2.L2’,跟踪结果的定量比较如表1所示,表中↑表示值越大跟踪效果越好,反之亦然。
表1:本实施例与其他两种方法跟踪结果的定量比较
实验结论:在复杂环境中,目标外观相似、频繁遮挡的情况下,本实施例的跟踪能力优于现有的其他方法。如表1所示,本实施例在目标跟踪的准确性、 连续性方面明显优于其他方法,本实施例的跟踪精度也与其他方法相近。
以上显示和描述了本发明的基本原理、主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是本发明的原理,在不脱离本发明精神和范围的前提下本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明的范围内。本发明要求的保护范围由所附的权利要求书及其等同物界定。
Claims (8)
1.基于图表示和匹配的多目标跟踪方法,其特征在于,包括以下步骤:
(11)生成跟踪目标可靠的短轨迹:输入视频序列,在连续的时间窗口进行目标检测,对检测出的响应进行特征描述,构造相邻两帧响应间相似度匹配矩阵,用双阀值策略关联相邻帧中的响应目标,生成目标可靠的短轨迹;
(12)为形成的目标短轨迹建立以图为框架的空间运动模型和以颜色、局部二值差分为特征的外观模型;
(13)计算目标短轨迹间外观特征和空间运动相似度;
(14)用带权二分图匹配跟踪目标:将相邻时间窗口的轨迹作为二分图的结点,轨迹间外观特征和空间运动相似度的线性融合作为两结点相连边的权重,通过匈牙利算法实现二分图匹配优化,边权重最大的两个结点进行关联,形成跟踪目标的长轨迹。
2.根据权利要求1所述的多目标跟踪方法,其特征在于,步骤(11)所述生成跟踪目标可靠的短轨迹包括以下步骤:
(21)用高斯混合模型检测出每帧中的响应,对检测出的响应用其大小、颜色和位置信息进行描述;
(22)选取两连续帧,建立两帧间响应特征相似度匹配矩阵S,两个响应间的相似度计算如下式:
(公式1)
(23)采用如下的双阀值策略,关联两帧间响应,生成短轨迹;
(公式2)
公式2中R表示两帧中所有检测到的响应集合;
以此类推,在给定的时间窗口内就生成了可靠的短轨迹。
3.根据权利要求1所述的多目标跟踪方法,其特征在于,步骤(12)所述为形成的目标短轨迹建立以图为框架的空间运动模型和以颜色、局部二值差分为特征的外观模型包括以下步骤:
(31)使用无向图建立空间运动模型:在两个连续的时间窗口,建立一个无向图G=(V,E),V表示图结点的集合,E表示连接结点的边的集合;通过结点中一对轨迹的运动速度和位置信息,计算每个结点的权重;通过两结点的两对轨迹的运动关系信息,计算边的权重;
(32)建立短轨迹的外观模型:轨迹的外观信息由HSV颜色直方图和局部二值差分特征组成;通过两种特征的线性融合,生成轨迹的外观模型。
4.根据权利要求3所述的多目标跟踪方法,其特征在于,步骤(31)中所述计算空间运动模型图中每个结点的权重包括以下步骤:
(41)首先结点中两轨迹基于速度差分的关系,定义为:
(公式3)
公式3中表示Tj k+1轨迹中响应在第帧中的位置,表示Ti k轨迹中响应在第帧中的位置,δυ是设定的阀值,ευ是设定的很小的值;如果Eυ很小,表示两目标在一起的可能性很小;
(42)计算两轨迹间位置差别,定义如下:
(公式4)
(公式5)
公式4中表示轨迹Ti k中的响应在时的运动速度,表示轨迹Ti k中的响应在时的位置估计,表示所有估计位置和真实位置之差的期望值;
(43)计算出结点的权重为:
ωv(Vij)=Eυ·EP (公式6)
5.根据权利要求3所述的多目标跟踪方法,其特征在于,步骤(31)中所述的计算图中两结点边的权重包括以下步骤:
(51)对任意两结点Vij和Vmn,定义两轨迹Ti k和Tm k在时间上重叠部分分别为两个向量Si和Sm,假设两向量间存在线性运动关系,即:Si=Sm·A+B,其中A和B分别为参数;
(52)已知Si和Sm,对A和B两参数进行估计:
(公式7)
(公式8)
(53)定义Vij和Vmn边的权重为:
(公式9)
公式9中c表示归一化因子,σ表示两轨迹间运动方差;如果we(Vij,Vmn)大,表示如果Ti k与Tj k+1连接,那么Tm k与Tn k+1连接的概率较大。
6.根据权利要求3所述的多目标跟踪方法,其特征在于,步骤(32)中所述建立短轨迹外观模型包括以下步骤:
(61)在一个时间窗口内,选取训练样本;假设在同一个短轨迹中的响应 表示同一个目标;在同一帧中属于不同短轨迹的响应表示不同的目标;这样,选择同一轨迹中不同的两个响应作为正样本,不同跟踪迹中不同的两个响应作为负样本;
(62)对选取的所有样本用颜色和局部二值差分特征的融合描述;颜色特征采用HSV直方图,而局部二值差分特征就是把目标划分成多层网格,每层中的每个网格单元用灰度、X方向的梯度、Y方向的梯度来描述,用每个网格单元与同层其他网格单元信息比较生成三位的二值数,把所有的这些二值数按一定顺序排列就形成了对目标描述的局部二值差分描述子;任一对网格单元i和j生成的二值信息如下:
(公式10)
公式10中
Func(i)={Iintensity(i),Grandientx(i),Grandienty(i)};这两种外观特征都具有计算简单,描述能力强的特点;
(63)计算颜色特征和局部二值差分特征的相似度,采用Adaboost算法对样本进行学习,这样就得到辨识度强的外观模型。
7.根据权利要求1所述的多目标跟踪方法,其特征在于,步骤(13)中所述计算短轨迹间特征相似度包括以下步骤:
(71)结点Vij=(Ti k,Tj k+1)中两轨迹外观特征相似度计算:外观特征HSV颜色直方图的相似度计算采用Bhattacharyya距离,如256维的HSV颜色直方图相似度表示为:
(公式11)
局部二值差分特征表示为τLDBi,τLDBj,统计τLDBi和τLDBj相应位的值相同的个数,进行归一化,就得到两轨迹间局部二值差分特征的相似度,表示为ρ(τLDBi,τLDBj);则两轨迹外观特征的相似度表示为ρapp(Vij)=ρ(Hcoli,Hcolj)+ρ(τLDBi,τLDBj);
(72)结点Vij=(Ti k,Tj k+1)中两轨迹空间运动关系相似度通过该结点自身的运动,及其相邻结点运动与该结点运动之间的关系求得,计算如下:
(公式12)
公式12中Vmn表示Vij相邻的结点;这样结点Vij=(Ti k,Tj k+1)外观特征和运动特征融合相似度为:
ρfuse(Vij)=α·ρapp(Vij)+β·ρmotion(Vij) (公式13)
公式13中α和β分别表示外观特征和运动特征的融合权重,α和β可以根据实际情况动态调整。
8.根据权利要求1所述的多目标跟踪方法,其特征在于,步骤(14)中所述运用带权二分图匹配框架关联跟踪目标包括以下步骤:
(81)建立一个新的带权二分图:考虑连续的两个时间窗口K和K+1内的跟踪短轨迹和建立带权二分图G=(Tk,Tk+1,E),Tk和Tk+1分别作为二分图的结点集合,且 任意eij(eij∈E)为连接Ti k和Tj k+1的边,其权重为ωij;
(82)计算二分图中每条边的权重ωij,如第7步的计算方法,得 ωij=ρfuse(Vij),建立权矩阵W=[ωij]m×n;
(83)求二分图的最大权匹配M,可转化为如下的整数规划模型的求解问题,假设m<n:
subject to
xij=0or1,i=1,2,...,m;j=1,2,...,n
此优化模型的解可由匈牙利算法求得,这样就得到了二分图的最大权匹配M;关联匹配上的轨迹,形成了跟踪目标的长轨迹。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410377583.XA CN104200488A (zh) | 2014-08-04 | 2014-08-04 | 一种基于图表示和匹配的多目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410377583.XA CN104200488A (zh) | 2014-08-04 | 2014-08-04 | 一种基于图表示和匹配的多目标跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104200488A true CN104200488A (zh) | 2014-12-10 |
Family
ID=52085774
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410377583.XA Pending CN104200488A (zh) | 2014-08-04 | 2014-08-04 | 一种基于图表示和匹配的多目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104200488A (zh) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104751489A (zh) * | 2015-04-09 | 2015-07-01 | 苏州阔地网络科技有限公司 | 一种在线课堂中基于网格的接力跟踪方法及装置 |
CN106127119A (zh) * | 2016-06-16 | 2016-11-16 | 山东大学 | 基于彩色图像和深度图像多特征的联合数据关联方法 |
CN106156705A (zh) * | 2015-04-07 | 2016-11-23 | 中国科学院深圳先进技术研究院 | 一种行人异常行为检测方法及*** |
CN106600631A (zh) * | 2016-11-30 | 2017-04-26 | 郑州金惠计算机***工程有限公司 | 基于多目标跟踪的客流统计方法 |
CN107423695A (zh) * | 2017-07-13 | 2017-12-01 | 苏州珂锐铁电气科技有限公司 | 基于二分图的动态纹理识别方法 |
CN107505951A (zh) * | 2017-08-29 | 2017-12-22 | 深圳市道通智能航空技术有限公司 | 一种目标跟踪方法、无人机和计算机可读存储介质 |
CN108875666A (zh) * | 2018-06-27 | 2018-11-23 | 腾讯科技(深圳)有限公司 | 运动轨迹的获取方法、装置、计算机设备及存储介质 |
CN109064472A (zh) * | 2017-03-28 | 2018-12-21 | 合肥工业大学 | 一种脊椎骨的三维空间模型拟合平面的拟合方法及装置 |
CN109360226A (zh) * | 2018-10-17 | 2019-02-19 | 武汉大学 | 一种基于时间序列多特征融合的多目标跟踪方法 |
CN109697393A (zh) * | 2017-10-23 | 2019-04-30 | 北京京东尚科信息技术有限公司 | 人物跟踪方法、装置、电子装置及计算机可读介质 |
CN109934849A (zh) * | 2019-03-08 | 2019-06-25 | 西北工业大学 | 基于轨迹度量学习的在线多目标跟踪方法 |
CN110349181A (zh) * | 2019-06-12 | 2019-10-18 | 华中科技大学 | 一种基于改进的图分区模型单摄像头多目标跟踪方法 |
CN110675319A (zh) * | 2019-09-12 | 2020-01-10 | 创新奇智(成都)科技有限公司 | 一种基于最小生成树的手机拍照全景图像拼接方法 |
CN111739053A (zh) * | 2019-03-21 | 2020-10-02 | 四川大学 | 一种复杂场景下的在线多行人检测跟踪方法 |
CN111862156A (zh) * | 2020-07-17 | 2020-10-30 | 中南民族大学 | 一种基于图匹配的多目标跟踪方法和*** |
CN112884742A (zh) * | 2021-02-22 | 2021-06-01 | 山西讯龙科技有限公司 | 一种基于多算法融合的多目标实时检测、识别及跟踪方法 |
WO2023072269A1 (zh) * | 2021-10-29 | 2023-05-04 | 上海商汤智能科技有限公司 | 对象跟踪 |
CN117435934A (zh) * | 2023-12-22 | 2024-01-23 | 中国科学院自动化研究所 | 基于二分图的运动目标轨迹的匹配方法、装置和存储介质 |
CN117454199A (zh) * | 2023-12-20 | 2024-01-26 | 北京数原数字化城市研究中心 | 轨迹关联方法、***、电子设备及可读存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090237511A1 (en) * | 2008-03-18 | 2009-09-24 | Bae Systems Information And Electronic Systems Integration Inc. | Multi-window/multi-target tracking (mw/mt tracking) for point source objects |
CN103778647A (zh) * | 2014-02-14 | 2014-05-07 | 中国科学院自动化研究所 | 一种基于层次超图优化的多目标跟踪方法 |
CN103955947A (zh) * | 2014-03-21 | 2014-07-30 | 南京邮电大学 | 一种基于连续最小能量与表观模型的多目标关联跟踪方法 |
-
2014
- 2014-08-04 CN CN201410377583.XA patent/CN104200488A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090237511A1 (en) * | 2008-03-18 | 2009-09-24 | Bae Systems Information And Electronic Systems Integration Inc. | Multi-window/multi-target tracking (mw/mt tracking) for point source objects |
CN103778647A (zh) * | 2014-02-14 | 2014-05-07 | 中国科学院自动化研究所 | 一种基于层次超图优化的多目标跟踪方法 |
CN103955947A (zh) * | 2014-03-21 | 2014-07-30 | 南京邮电大学 | 一种基于连续最小能量与表观模型的多目标关联跟踪方法 |
Non-Patent Citations (6)
Title |
---|
BO YANG等: "Multi-Target Tracking by Online Learning a CRF Model of Appearance and Motion Patterns", 《INTERNATIONAL JOURNAL OF COMPUTER VISION》 * |
CHANG HUANG等: "Robust Object Tracking by Hierarchical Association of Detection Responses", 《10TH EUROPEAN CONFERENCE ON COMPUTER VISION》 * |
SHU ZHANG等: "Online Social Behavior Modeling for Multi-target Tracking", 《2013 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR) WORKSHOPS》 * |
XIN YANG等: "Local Difference Binary for Ultrafast and Distinctive Feature Description", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 * |
刘晨光等: "一种基于交互式粒子滤波器的视频中多目标跟踪算法", 《电子学报》 * |
马纬章: "多目标跟踪算法研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
Cited By (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106156705A (zh) * | 2015-04-07 | 2016-11-23 | 中国科学院深圳先进技术研究院 | 一种行人异常行为检测方法及*** |
CN104751489A (zh) * | 2015-04-09 | 2015-07-01 | 苏州阔地网络科技有限公司 | 一种在线课堂中基于网格的接力跟踪方法及装置 |
CN106127119B (zh) * | 2016-06-16 | 2019-03-08 | 山东大学 | 基于彩色图像和深度图像多特征的联合数据关联方法 |
CN106127119A (zh) * | 2016-06-16 | 2016-11-16 | 山东大学 | 基于彩色图像和深度图像多特征的联合数据关联方法 |
CN106600631A (zh) * | 2016-11-30 | 2017-04-26 | 郑州金惠计算机***工程有限公司 | 基于多目标跟踪的客流统计方法 |
CN109064472B (zh) * | 2017-03-28 | 2020-09-04 | 合肥工业大学 | 一种脊椎骨的三维空间模型拟合平面的拟合方法及装置 |
CN109064472A (zh) * | 2017-03-28 | 2018-12-21 | 合肥工业大学 | 一种脊椎骨的三维空间模型拟合平面的拟合方法及装置 |
CN107423695A (zh) * | 2017-07-13 | 2017-12-01 | 苏州珂锐铁电气科技有限公司 | 基于二分图的动态纹理识别方法 |
CN107505951B (zh) * | 2017-08-29 | 2020-08-21 | 深圳市道通智能航空技术有限公司 | 一种目标跟踪方法、无人机和计算机可读存储介质 |
CN107505951A (zh) * | 2017-08-29 | 2017-12-22 | 深圳市道通智能航空技术有限公司 | 一种目标跟踪方法、无人机和计算机可读存储介质 |
CN109697393A (zh) * | 2017-10-23 | 2019-04-30 | 北京京东尚科信息技术有限公司 | 人物跟踪方法、装置、电子装置及计算机可读介质 |
WO2019080668A1 (zh) * | 2017-10-23 | 2019-05-02 | 北京京东尚科信息技术有限公司 | 人物跟踪方法、装置、电子装置及计算机可读介质 |
US11270126B2 (en) | 2017-10-23 | 2022-03-08 | Beijing Jingdong Shangke Information Technology Co., Ltd. | Person tracking method, device, electronic device, and computer readable medium |
CN108875666B (zh) * | 2018-06-27 | 2023-04-18 | 腾讯科技(深圳)有限公司 | 运动轨迹的获取方法、装置、计算机设备及存储介质 |
CN108875666A (zh) * | 2018-06-27 | 2018-11-23 | 腾讯科技(深圳)有限公司 | 运动轨迹的获取方法、装置、计算机设备及存储介质 |
CN109360226A (zh) * | 2018-10-17 | 2019-02-19 | 武汉大学 | 一种基于时间序列多特征融合的多目标跟踪方法 |
CN109360226B (zh) * | 2018-10-17 | 2021-09-24 | 武汉大学 | 一种基于时间序列多特征融合的多目标跟踪方法 |
CN109934849A (zh) * | 2019-03-08 | 2019-06-25 | 西北工业大学 | 基于轨迹度量学习的在线多目标跟踪方法 |
CN111739053B (zh) * | 2019-03-21 | 2022-10-21 | 四川大学 | 一种复杂场景下的在线多行人检测跟踪方法 |
CN111739053A (zh) * | 2019-03-21 | 2020-10-02 | 四川大学 | 一种复杂场景下的在线多行人检测跟踪方法 |
CN110349181B (zh) * | 2019-06-12 | 2021-04-06 | 华中科技大学 | 一种基于改进的图分区模型单摄像头多目标跟踪方法 |
CN110349181A (zh) * | 2019-06-12 | 2019-10-18 | 华中科技大学 | 一种基于改进的图分区模型单摄像头多目标跟踪方法 |
CN110675319B (zh) * | 2019-09-12 | 2020-11-03 | 创新奇智(成都)科技有限公司 | 一种基于最小生成树的手机拍照全景图像拼接方法 |
CN110675319A (zh) * | 2019-09-12 | 2020-01-10 | 创新奇智(成都)科技有限公司 | 一种基于最小生成树的手机拍照全景图像拼接方法 |
CN111862156B (zh) * | 2020-07-17 | 2021-02-26 | 中南民族大学 | 一种基于图匹配的多目标跟踪方法和*** |
CN111862156A (zh) * | 2020-07-17 | 2020-10-30 | 中南民族大学 | 一种基于图匹配的多目标跟踪方法和*** |
CN112884742A (zh) * | 2021-02-22 | 2021-06-01 | 山西讯龙科技有限公司 | 一种基于多算法融合的多目标实时检测、识别及跟踪方法 |
CN112884742B (zh) * | 2021-02-22 | 2023-08-11 | 山西讯龙科技有限公司 | 一种基于多算法融合的多目标实时检测、识别及跟踪方法 |
WO2023072269A1 (zh) * | 2021-10-29 | 2023-05-04 | 上海商汤智能科技有限公司 | 对象跟踪 |
CN117454199A (zh) * | 2023-12-20 | 2024-01-26 | 北京数原数字化城市研究中心 | 轨迹关联方法、***、电子设备及可读存储介质 |
CN117435934A (zh) * | 2023-12-22 | 2024-01-23 | 中国科学院自动化研究所 | 基于二分图的运动目标轨迹的匹配方法、装置和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104200488A (zh) | 一种基于图表示和匹配的多目标跟踪方法 | |
Chiu et al. | Probabilistic 3D multi-modal, multi-object tracking for autonomous driving | |
CN106875424B (zh) | 一种基于机器视觉的城市环境行驶车辆行为识别方法 | |
CN110660082B (zh) | 一种基于图卷积与轨迹卷积网络学习的目标跟踪方法 | |
Fang et al. | 3d-siamrpn: An end-to-end learning method for real-time 3d single object tracking using raw point cloud | |
CN110660083B (zh) | 一种结合视频场景特征感知的多目标跟踪方法 | |
CN103605362B (zh) | 基于车辆轨迹多特征的运动模式学习及异常检测方法 | |
Leal-Taixé et al. | Learning an image-based motion context for multiple people tracking | |
CN108573496B (zh) | 基于lstm网络和深度增强学习的多目标跟踪方法 | |
Breitenstein et al. | Online multiperson tracking-by-detection from a single, uncalibrated camera | |
CN103699908B (zh) | 基于联合推理的视频多目标跟踪方法 | |
CN103489199B (zh) | 视频图像目标跟踪处理方法和*** | |
CN102722725B (zh) | 一种基于主动场景学习的对象跟踪方法 | |
CN105335986A (zh) | 基于特征匹配和MeanShift算法的目标跟踪方法 | |
CN102663429B (zh) | 运动目标的运动模式分类和动作识别的方法 | |
CN104680559B (zh) | 基于运动行为模式的多视角室内行人跟踪方法 | |
CN106373143A (zh) | 一种自适应跨摄像机多目标跟踪方法及*** | |
CN104574439A (zh) | 一种融合卡尔曼滤波与tld算法的目标跟踪方法 | |
Qin et al. | Semantic loop closure detection based on graph matching in multi-objects scenes | |
CN111402632B (zh) | 一种交叉口行人运动轨迹的风险预测方法 | |
CN102063625B (zh) | 一种用于多视角下多目标追踪的改进型粒子滤波方法 | |
CN105809718A (zh) | 一种轨迹熵最小化的对象跟踪方法 | |
CN108898612A (zh) | 基于多智能体深度增强学习的多目标跟踪方法 | |
Prokaj et al. | Using 3d scene structure to improve tracking | |
Qing et al. | A novel particle filter implementation for a multiple-vehicle detection and tracking system using tail light segmentation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20141210 |