CN103198493B - 一种基于多特征自适应融合和在线学习的目标跟踪方法 - Google Patents

一种基于多特征自适应融合和在线学习的目标跟踪方法 Download PDF

Info

Publication number
CN103198493B
CN103198493B CN201310121576.9A CN201310121576A CN103198493B CN 103198493 B CN103198493 B CN 103198493B CN 201310121576 A CN201310121576 A CN 201310121576A CN 103198493 B CN103198493 B CN 103198493B
Authority
CN
China
Prior art keywords
target
feature
new candidate
region
target region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201310121576.9A
Other languages
English (en)
Other versions
CN103198493A (zh
Inventor
苏育挺
刘安安
刘晓伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN201310121576.9A priority Critical patent/CN103198493B/zh
Publication of CN103198493A publication Critical patent/CN103198493A/zh
Application granted granted Critical
Publication of CN103198493B publication Critical patent/CN103198493B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于多特征自适应融合和在线学习的目标跟踪方法,提取目标特征并作为模板特征;对新候选目标区域分别提取三种特征;根据各特征的辨别性和相关性进行自适应融合;计算融合后特征与模版特征的巴氏距离,将巴氏距离归一化后作为新候选目标区域的权重;对最大权重的新候选目标区域与目标区域进行重叠判断,若重叠率小于重叠率阈值将最大权重的新候选目标区域的多倍区域输入检测器,当识别器输出是,表示跟踪成功并更新识别器、模板特征和目标区域;若输出否,表示发现新目标;若重叠率大于等于重叠率阈值,更新识别器、模板特征和目标区域。增强了不同场景以及一定形变情况下目标跟踪的适应能力,避免了遮挡后易发生跟踪漂移的问题。

Description

一种基于多特征自适应融合和在线学习的目标跟踪方法
技术领域
本发明涉及目标跟踪领域,特别涉及一种基于多特征自适应融合和在线学习的目标跟踪方法。
背景技术
视频目标跟踪是指对视频序列中目标的检测、表征和轨迹提取的过程。视频目标跟踪在视频监控、事件分析、人机交互等领域都有实际应用需求。
目前,世界上最先进的监控***也不能完美地处理复杂场景下的动态跟踪任务,例如:形变、遮挡、光照变化、阴影或拥挤环境下的跟踪。特别在目标间发生部分遮挡以及目标发生形变时,目标跟踪仍是个挑战。
基于单特征的跟踪方法通常初始化目标区域,提取任意目标特征,例如:颜色特征,在下一帧进行搜索和匹配。但该方法很难处理复杂背景下的跟踪任务,造成对目标跟踪以及后续的轨迹评估不具鲁棒性。
为此,现有技术中又提出了基于多特征的目标跟踪方法,该方法通常提取颜色、边缘等特征,可以较好地完成某些复杂情况下的跟踪任务。
发明人在实现本发明的过程中,发现现有技术中至少存在以下缺点和不足:
基于多特征的目标跟踪方法无法适应目标外形的变化,不能很好的解决目标之间发生部分遮挡后跟踪漂移的问题。
发明内容
本发明提供了一种基于多特征自适应融合和在线学习的目标跟踪方法,本方法避免了跟踪漂移的问题,很好的适应了目标外形的变化,详见下文描述:
一种基于多特征自适应融合和在线学习的目标跟踪方法,所述方法包括以下步骤:
(1)从一帧图像中选定目标区域,提取目标特征并作为模板特征;
(2)初始化识别器,输入下一帧图像,初始化候选目标区域;根据转移公式获取新候选目标区域;
(3)对所述新候选目标区域分别提取颜色、边缘、纹理三种特征;根据各特征的辨别性和相关性进行自适应融合;
(4)计算融合后特征与模版特征的巴氏距离,将所述巴氏距离归一化后作为所述新候选目标区域的权重;
(5)将N个新候选目标区域按照权重大小进行排序,若重采样判断值大于重采样判决阈值,进行重采样,执行步骤(6);如果否,执行步骤(6);
(6)对最大权重的新候选目标区域与所述目标区域进行重叠判断,若重叠率小于重叠率阈值执行步骤(7);否则,执行步骤(8);
(7)将最大权重的新候选目标区域的多倍区域输入检测器,若所述检测器输出0,表示跟踪失败;否则将所述检测器输出结果输入到识别器,若所述识别器输出是,表示跟踪成功并更新所述识别器、所述模板特征和所述目标区域;若输出否,表示发现新目标,流程结束;
(8)重叠率大于等于重叠率阈值,则认为跟踪成功,更新所述识别器、所述模板特征和所述目标区域,流程结束。
所述提取目标特征并作为模板特征的步骤具体包括:
1)提取颜色特征信息;
2)提取边缘特征信息;
3)提取纹理特征信息;
4)融合所述颜色特征信息、所述边缘特征信息和所述纹理特征信息,得到目标特征直方图,作为所述模板特征。
所述提取颜色特征信息的步骤具体包括:
1)将颜色空间分为彩色区域和非彩色区域,对所述彩色区域和所述非彩色区域进行HSV分区,获取QH×QS个彩色子区间和Qv个非彩色子区间,将所述QH×QS个彩色子区间和所述Qv个非彩色子区间作为QH×QS+Qv个颜色区间u;
2)根据像素点与目标区域中心点的距离远近对所述像素点赋予不同的权值,根据所述像素点的HSV对相应的颜色区间u进行投票;
3)统计每一颜色区间的投票值得到颜色特征直方图。
所述提取边缘特征信息的步骤具体包括:
1)对所述目标区域插值得到2倍宽和高的插值区域,然后分别对所述目标区域和所述插值区域分块;
2)计算每一子块的边缘强度和方向,在0°-360°范围内将边缘方向划分为若干个方向区域,根据边缘强度对方向区域投票,得到每一子块的边缘特征直方图;
3)将每一子块计算得到的所述边缘特征直方图连接起来得到完整边缘特征直方图。
所述提取纹理特征信息的步骤具体包括:
1)对每一子块,计算局部二值模式特征直方图;
2)将每一子块计算得到的所述局部二值模式特征直方图连接起来得到完整纹理特征直方图。
所述辨别性定义为所述新候选目标区域与相邻背景关于某一特征的相似程度,用两直方图的巴氏系数表示。
所述相关性定义为所述新候选目标区域与所述模版特征关于某一特征的相似程度,用两直方图的巴氏系数表示。
所述更新识别器具体为:正样本由所述检测器验证过的新候选目标区域组成,负样本为背景中随机选取的与新候选目标区域等尺寸的区域;
所述更新模板特征具体为:将最大权重的新候选目标区域的特征作为更新后的模板特征;
所述更新目标区域具体为:将最大权重的新候选目标区域作为更新后的目标区域。
本发明提供的技术方案的有益效果是:本方法克服了单特征的单一性,增强了不同场景以及一定形变情况下目标跟踪的适应能力,并且避免了遮挡后易发生跟踪漂移的问题,大大提高了目标跟踪的精确性和鲁棒性。
附图说明
图1为一种基于多特征自适应融合和在线学习的目标跟踪方法的流程图;
图2为初始化目标区域的示意图;
图3为目标1发生遮挡的示意图;
图4为通过在线学习成功找回遮挡丢失的目标的示意图;
图5为另一初始化目标区域的示意图;
图6为目标1和目标2发生交错遮挡的示意图;
图7为精确跟踪没有发生跟踪漂移的示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
为了避免跟踪漂移的问题,很好的适应目标外形的变化,本发明实施例提供了一种基于多特征自适应融合和在线学习的目标跟踪方法,在线学习通过实时自动学习,可以克服目标形变以及跟踪漂移带来的问题,较好地实现了预期的跟踪效果,参见图1,详见下文描述:
101:将任意视频序列的一帧作为输入,从一帧图像中选定目标区域,提取目标特征并作为模板特征;
其中,选定目标区域的操作为本领域技术人员所公知,目标区域为矩形区域,例如:根据实际需求可以人为手工选定被跟踪对象所在矩形区域;或者采用被检测对象模型(例如:人体检测模型[1])进行自动检测,计算模版特征。
其中,提取目标特征并作为模板特征的步骤具体为:
1)提取颜色特征信息;
本方法采用基于HSV(色度、饱和度和亮度)颜色空间模型的核加权颜色特征直方图对目标进行建模,基本思想是:
(1)将颜色空间分为彩色区域和非彩色区域,对彩色区域和非彩色区域进行HSV分区,获取QH×QS个彩色子区间和Qv个非彩色子区间,将QH×QS个彩色子区间和Qv个非彩色子区间作为QH×QS+Qv个颜色区间u;
例如:所有亮度小于20%或者饱和度小于10%均归入非彩色区域,并按亮度值分为Qv个非彩色子区间,非彩色区域以外的颜色区域为彩色区域,按色度和饱和度分为QH×QS个彩色子区间。
(2)根据像素点与目标区域中心点的距离远近对像素点赋予不同的权值(即对距离目标中心较远的像素点赋予较小的权值,从而减弱目标边界及背景的干扰),根据像素点的HSV对相应的颜色区间u进行投票;
定义目标区域为宽W,高H的矩形区域。在目标区域边界的像素点可能属于背景或发生了部分遮挡,为了增加颜色分布的可靠性,采用如下函数分配权重:
k ( x i ) = 1 - ( y - x i h ) 2 r < 1 0 r &GreaterEqual; 1
式中,k(xi)表示赋予像素点xi的权重,y表示目标区域中心点,xi为目标区域内第i个像素点;表示目标区域大小。
本方法通过狄拉克函数δ确定每个像素点所对应的颜色区间,δ(b(xi)-u)表示像素点xi在直方图中颜色区间u的分布:b(xi)为像素点xi的HSV,φ,η为常数。狄拉克函数δ定义如下:
δ(x-φ)=0,x≠φ
例如:有3个像素点,分别为:x1、x2和x3,像素点x1对应的颜色区间为u1,像素点x2对应的颜色区间为u1,像素点x3对应的颜色区间为u2,则颜色区间u1的投票结果为像素点x1和像素点x2的权重之和;颜色区间u2的投票结果为像素点x3的权重;颜色区间u3的投票结果为0。
(3)通过每一颜色区间计算得到的投票值得到颜色特征直方图,颜色特征直方图的维数为彩色区间与非彩色区间的个数之和。
颜色特征直方图pc可以表示为:
p c = C h &Sigma; u = 1 U &Sigma; i = 1 N k ( x i ) * &delta; ( b ( x i ) - u )
式中,U为颜色区间的个数,N为目标区域像素点的个数,归一化常数Ch
C h = 1 &Sigma; i = 1 N k ( x i )
2)提取边缘特征信息;
本方法采用一种基于多尺度分块的边缘强度加权的边缘方向特征,该步骤具体为:
(1)对目标区域插值得到2倍宽和高的插值区域,然后分别对目标区域和插值区域分块;
其中,对目标区域插值的方法为本领域技术人员所公知,分块方法采用重叠块或非重叠块等方法,将目标区域和插值区域分为若干个子块,本发明实施例对此不做限制。
(2)计算每一子块的边缘强度和方向,在0°-360°范围内将边缘方向划分为若干个方向区域,根据边缘强度对方向区域投票,得到每一子块的边缘特征直方图;
其中,本发明实施例采用索贝尔算子[2]计算出边缘强度和方向,还可以采用其他的方法,本发明实施例对此不做限制。方向区域的个数根据实际应用中的需要进行设定,例如:以20度为区间,在0°-360°范围内将边缘方向划分为18个方向区域。根据边缘强度对方向区域投票的步骤为本领域技术人员所公知,本发明实施例在此不做赘述。
(3)将每一子块计算得到的边缘特征直方图连接起来得到完整边缘特征直方图。
其中,完整边缘特征直方图的维数为方向区域个数与子块总数的乘积。
3)提取纹理特征信息;
本方法采用基于分块的多尺度局部二值模式[3]算子计算纹理特征,相比原始的局部二值模式特征,基于分块的多尺度局部二值模式特征对图像噪声的影响更加不敏感,且能够提取到更加丰富的局部和全局信息,对目标图像具有更强的表示能力和判别能力,鲁棒性更强。
(1)对每一子块,计算局部二值模式特征直方图;
其中,每一子块为边缘特征信息中划分得到的子块,本方法采用包含59种样式的统一模式[4]计算局部二值模式特征。
(2)将每一子块计算得到的局部二值模式特征直方图连接起来得到完整纹理特征直方图。
其中,完整纹理特征直方图的维数为59倍的子块总数。
4)融合颜色特征信息、边缘特征信息和纹理特征信息,得到目标特征直方图,作为模板特征。
即对颜色特征信息、边缘特征信息和纹理特征信息进行归一化处理,按照预设权重(权重值根据实际应用中的需要进行设定,例如:颜色特征信息、边缘特征信息和纹理特征信息的权重比为1:1:1)将归一化后的三种特征信息连接,得到目标特征直方图。
102:初始化识别器;
识别器用于找回丢失的已跟踪目标,识别器采用Boost算法[5]训练进行学习,学习中的正样本为目标区域,负样本随机选取背景中与正样本大小相同的矩形区域,负样本个数的选择根据实际需求确定,本实验参考值为3。
103:输入下一帧图像,初始化候选目标区域;
根据高斯分布,在目标区域周围随机选取N个区域作为候选目标区域。N的取值根据实际需要进行选择,本实验中参考值为20。
104:根据转移公式获取新候选目标区域;
Rn=A*(Rc-R0)+B*rng+R0
其中,Rn,Rc,R0分别为新候选目标区域、候选目标区域、目标区域;A、B为转移系数;rng为随机数产生器。例如:新候选目标区域、候选目标区域和目标区域用矩形区域的宽、高和中心坐标(x,y)表示,即宽、高和中心坐标来确定新候选目标区域,当计算新候选目标区域的宽参数时,将候选目标区域和目标区域的宽参数代入到转移公式中,得到新候选目标区域的宽参数,以此类推,分别计算出新候选目标区域的高参数和中心坐标,最终得到新候选目标区域。
105:对新候选目标区域分别提取颜色、边缘、纹理三种视觉特征;
其中,该步骤的具体操作与步骤101相同,本发明实施例对此不做赘述。
106:根据颜色、边缘和纹理特征的辨别性和相关性,对各特征进行自适应融合;
辨别性RDf定义为新候选目标区域与相邻背景关于某一特征的相似程度,用两直方图的巴氏系数来表示:
RD f = 1 &Sigma; m = 1 M q f ( bg ) m &CenterDot; p f m , f &Element; { HSV , EO , LBP }
式中,HSV、EO、LBP分别表示颜色、边缘、纹理特征,分别表示相邻背景和目标区域特征直方图的第m维;M为颜色特征直方图的维数或完整边缘特征直方图的维数或完整纹理特征直方图的维数。辨别性RDf越小,该特征的区分程度越强,分配较高的权重;相反,分配较低的权重。
相关性定义为新候选目标区域与模版特征关于某一特征的相似程度,用两直方图的巴氏系数来表示:
CD f = 1 &Sigma; m = 1 M q f m &CenterDot; p f m , f &Element; { HSV , EO , LBP }
式中,HSV、EO、LBP分别表示颜色、边缘、纹理特征,分别表示新候选目标区域和目标区域特征直方图的第m维;M为颜色特征直方图的维数或完整边缘特征直方图的维数或完整纹理特征直方图的维数;相关性CDf越大,该特征的相关程度越强,分配较高的权重;相反,分配较低的权重。
每一种特征的权重α,β,γ最终由RDf和CDf共同决定:
&alpha; = C &CenterDot; RD HSV &CenterDot; CD HSV &beta; = C &CenterDot; RD EO &CenterDot; CD EO &gamma; = C &CenterDot; RD LBP &CenterDot; CD LBP
式中,是归一化常数,α+β+γ=1;HSV、EO、LBP分别表示颜色、边缘、纹理特征。
107:计算融合后特征与模版特征的巴氏距离d,对巴氏距离d进行归一化处理,将归一化结果作为新候选目标区域的权重;
d = 1 - &rho;
&rho; = &Sigma; m = 1 M p m &CenterDot; q m
其中,ρ表示巴氏系数;M为颜色特征直方图的维数或完整边缘特征直方图的维数或完整纹理特征直方图的维数;qm,pm分别为融合后特征与模版特征的第m维。
108:将N个新候选目标区域按照权重大小进行排序,计算重采样判断值Nj,若重采样判断值大于重采样判决阈值,进行重采样,执行步骤109;如果否,执行步骤109;
其中,N为新候选目标区域数目;为第i个新候选目标区域权重。
重采样判决阈值根据经验所得,参考值为50。重采样即删除小权重新候选目标区域,然后复制最大权重的新候选目标区域替换删除掉的新候选目标区域。
109:对最大权重的新候选目标区域与目标区域进行重叠判断,若重叠率小于重叠率阈值执行步骤110;否则,执行步骤111;
其中,重叠率阈值根据实际应用中的情况进行设定,例如:0.3,具体实现时,本发明实施例对此不做限制。
110:将最大权重的新候选目标区域(宽W,高H,中心(x,y))的多倍区域(宽LW,高LH,中心(x,y),L为倍数)输入检测器,若检测器输出0,表示跟踪失败;否则将检测器输出结果输入到识别器,若识别器输出是,表示跟踪成功并更新识别器、模板特征和目标区域;若输出否,表示发现新目标,流程结束;
检测器是一种可以检测感兴趣目标的通用分类器,用于区分被跟踪目标与其他物体。检测器在离线下训练,在跟踪过程中不会更新。检测器输入可以是一帧图像,也可以是一帧图像中的一块区域,输出是该图像中目标对象的区域。
识别器用于获取跟踪过程中特定目标的先验信息,它只在特定情况下进行更新。识别器更新中的正样本是由检测器验证过的新候选目标区域组成,负样本为背景中随机选取的与新候选目标区域等尺寸区域。识别器通过对验证过的新候选目标区域进行识别来防止跟踪漂移的发生。识别器输入是目标区域,输出是逻辑值,表示该目标是否属于识别器表示的目标。将最大权重的新候选目标区域的特征作为更新后的模板特征;将最大权重的新候选目标区域作为更新后的目标区域。
111:重叠率大于等于重叠率阈值,则认为跟踪成功,更新识别器、模板特征和目标区域,流程结束。
其中,该步骤中的更新识别器、模板特征和目标区域的操作和步骤110中的更新操作一致,本发明实施例在此不做赘述。
对视频序列的其他帧重复执行步骤104至步骤111,直到遍历完整个视频。
下面以具体的实验来验证本发明实施例提供的一种基于多特征自适应融合和在线学习的目标跟踪方法的可行性,本实验将人作为目标进行跟踪,具体结果如图2至图7所示。其中,检测器采用基于边缘梯度直方图特征和支持向量机模型训练得到的人体检测器。
图2,图3和图4,分别为视频序列第16,19,23帧。在第16帧初始化目标区域,第19帧,目标1发生了遮挡,跟踪丢失,第23帧通过在线学习成功找回遮挡丢失的目标,证明了本方法可以有效避免遮挡后目标丢失问题。
图5,图6和图7分别为视频序列第291,294和299帧。在第291帧,初始化目标区域,第294帧,目标1和目标2发生交错遮挡,第299帧,本方法进行了精确有效地跟踪,避免了目标交错遮挡后易发生跟踪漂移的问题。
参考文献
[1]N.Dalal and B.Triggs.Histograms of oriented gradients for human detection.CVPR,2005.
[2]Kanopoulos N,Vasanthavada N,Baker R.L.Design of an image edge detectionfilter using the Sobel operator.IEEE Journal of Volume:23,Issue.1988.
[3]Wang Xiaoyu,Han,Tony X,Yan Shuicheng.An HOG-LBP human detector withpartial occlusion handling.Computer Vision,32-39,2009.
[4]T.Ahonen,A.Hadid,and M.Pietikainen.Face Recogniton with Local BinaryPatterns.Proc.European Conf.Computer Vision,469-481,2004.
[5]P.Viola and M.Jones.Rapid object detection using a boosted cascade of simplefeatures.In Proc.CVPR,volume I,511-518,2001.
本领域技术人员可以理解附图只是一个优选实施例的示意图,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (5)

1.一种基于多特征自适应融合和在线学习的目标跟踪方法,其特征在于,所述方法包括以下步骤:
(1)从一帧图像中选定目标区域,提取目标特征并作为模板特征;
(2)初始化识别器,输入下一帧图像,初始化候选目标区域;根据转移公式获取新候选目标区域;
(3)对所述新候选目标区域分别提取颜色、边缘、纹理三种特征;根据各特征的辨别性和相关性进行自适应融合;
(4)计算融合后特征与模版特征的巴氏距离,将所述巴氏距离归一化后作为所述新候选目标区域的权重;
(5)将N个新候选目标区域按照权重大小进行排序,若重采样判断值大于重采样判决阈值,进行重采样,执行步骤(6);如果否,执行步骤(6);
(6)对最大权重的新候选目标区域与所述目标区域进行重叠判断,若重叠率小于重叠率阈值执行步骤(7);否则,执行步骤(8);
(7)将最大权重的新候选目标区域的多倍区域输入检测器,若所述检测器输出0,表示跟踪失败;否则将所述检测器输出结果输入到识别器,若所述识别器输出是,表示跟踪成功并更新所述识别器、所述模板特征和所述目标区域;若输出否,表示发现新目标,流程结束;
(8)重叠率大于等于重叠率阈值,则认为跟踪成功,更新所述识别器、所述模板特征和所述目标区域,流程结束;
其中,
所述辨别性定义为所述新候选目标区域与相邻背景关于某一特征的相似程度,用两直方图的巴氏系数表示;
所述相关性定义为所述新候选目标区域与所述模版特征关于某一特征的相似程度,用两直方图的巴氏系数表示;
所述更新识别器具体为:正样本由所述检测器验证过的新候选目标区域组成,负样本为背景中随机选取的与新候选目标区域等尺寸的区域;
所述更新模板特征具体为:将最大权重的新候选目标区域的特征作为更新后的模板特征;
所述更新目标区域具体为:将最大权重的新候选目标区域作为更新后的目标区域。
2.根据权利要求1所述的一种基于多特征自适应融合和在线学习的目标跟踪方法,其特征在于,所述提取目标特征并作为模板特征的步骤具体包括:
1)提取颜色特征信息;
2)提取边缘特征信息;
3)提取纹理特征信息;
4)融合所述颜色特征信息、所述边缘特征信息和所述纹理特征信息,得到目标特征直方图,作为所述模板特征。
3.根据权利要求2所述的一种基于多特征自适应融合和在线学习的目标跟踪方法,其特征在于,所述提取颜色特征信息的步骤具体包括:
1)将颜色空间分为彩色区域和非彩色区域,对所述彩色区域和所述非彩色区域进行HSV分区,获取QH×QS个彩色子区间和Qv个非彩色子区间,将所述QH×QS个彩色子区间和所述Qv个非彩色子区间作为QH×QS+Qv个颜色区间u;
2)根据像素点与目标区域中心点的距离远近对所述像素点赋予不同的权值,根据所述像素点的HSV对相应的颜色区间u进行投票;
3)统计每一颜色区间的投票值得到颜色特征直方图。
4.根据权利要求2所述的一种基于多特征自适应融合和在线学习的目标跟踪方法,其特征在于,所述提取边缘特征信息的步骤具体包括:
1)对所述目标区域插值得到2倍宽和高的插值区域,然后分别对所述目标区域和所述插值区域分块;
2)计算每一子块的边缘强度和方向,在0°-360°范围内将边缘方向划分为若干个方向区域,根据边缘强度对方向区域投票,得到每一子块的边缘特征直方图;
3)将每一子块计算得到的所述边缘特征直方图连接起来得到完整边缘特征直方图。
5.根据权利要求2所述的一种基于多特征自适应融合和在线学习的目标跟踪方法,其特征在于,所述提取纹理特征信息的步骤具体包括:
1)对每一子块,计算局部二值模式特征直方图;
2)将每一子块计算得到的所述局部二值模式特征直方图连接起来得到完整纹理特征直方图。
CN201310121576.9A 2013-04-09 2013-04-09 一种基于多特征自适应融合和在线学习的目标跟踪方法 Expired - Fee Related CN103198493B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310121576.9A CN103198493B (zh) 2013-04-09 2013-04-09 一种基于多特征自适应融合和在线学习的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310121576.9A CN103198493B (zh) 2013-04-09 2013-04-09 一种基于多特征自适应融合和在线学习的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN103198493A CN103198493A (zh) 2013-07-10
CN103198493B true CN103198493B (zh) 2015-10-28

Family

ID=48720998

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310121576.9A Expired - Fee Related CN103198493B (zh) 2013-04-09 2013-04-09 一种基于多特征自适应融合和在线学习的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN103198493B (zh)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103473288B (zh) * 2013-08-29 2016-12-28 西北工业大学 一种基于混合微结构描述子的图像检索方法
CN103996046B (zh) * 2014-06-11 2017-07-21 北京邮电大学 基于多视觉特征融合的人员识别方法
CN106033613B (zh) * 2015-03-16 2019-04-30 北京大学 目标跟踪方法及装置
CN105069488B (zh) * 2015-09-25 2018-06-29 南京信息工程大学 基于模板在线聚类的跟踪方法
CN105513090B (zh) * 2015-11-24 2018-06-05 浙江宇视科技有限公司 一种观察模型构建方法及装置
CN105844647A (zh) * 2016-04-06 2016-08-10 哈尔滨伟方智能科技开发有限责任公司 一种基于颜色属性的核相关目标跟踪方法
CN105957107A (zh) * 2016-04-27 2016-09-21 北京博瑞空间科技发展有限公司 行人检测与跟踪方法及装置
CN106991395B (zh) * 2017-03-31 2020-05-26 联想(北京)有限公司 信息处理方法、装置及电子设备
CN108876841B (zh) * 2017-07-25 2023-04-28 成都通甲优博科技有限责任公司 一种视差图视差求精中插值的方法及***
CN107633226B (zh) * 2017-09-19 2021-12-24 北京师范大学珠海分校 一种人体动作跟踪特征处理方法
CN108846854B (zh) * 2018-05-07 2021-03-16 中国科学院声学研究所 一种基于运动预测与多特征融合的车辆跟踪方法
CN110147768B (zh) * 2019-05-22 2021-05-28 云南大学 一种目标跟踪方法及装置
CN110232703B (zh) * 2019-06-12 2023-07-25 中国矿业大学 一种基于颜色和纹理信息的运动目标识别装置及方法
CN110414535B (zh) * 2019-07-02 2023-04-28 绵阳慧视光电技术有限责任公司 一种基于背景区分的手工初始框修正方法及***
CN110569840B (zh) * 2019-08-13 2023-05-16 浙江大华技术股份有限公司 目标检测方法及相关装置
CN110443320A (zh) * 2019-08-13 2019-11-12 北京明略软件***有限公司 事件相似度的确定方法及装置
CN114692788B (zh) * 2022-06-01 2022-08-19 天津大学 基于增量学习的厄尔尼诺极端天气预警方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2037410A1 (en) * 2007-09-14 2009-03-18 Thomson Licensing Method for tracking an object in a sequence of images and device implementing said method
CN102982340A (zh) * 2012-10-31 2013-03-20 中国科学院长春光学精密机械与物理研究所 基于半监督学习和随机蕨类分类器的目标跟踪方法
CN102999920A (zh) * 2012-10-25 2013-03-27 西安电子科技大学 基于最近邻分类器和均值漂移的目标跟踪方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2037410A1 (en) * 2007-09-14 2009-03-18 Thomson Licensing Method for tracking an object in a sequence of images and device implementing said method
CN102999920A (zh) * 2012-10-25 2013-03-27 西安电子科技大学 基于最近邻分类器和均值漂移的目标跟踪方法
CN102982340A (zh) * 2012-10-31 2013-03-20 中国科学院长春光学精密机械与物理研究所 基于半监督学习和随机蕨类分类器的目标跟踪方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
一种基于多特征自适应融合的运动目标跟踪算法;尹宏鹏 等;《光电子·激光》;20100630;第21卷(第6期);3、4部分 *
基于多特征融合的粒子滤波目标跟踪算法;刘士荣 等;《信息与控制》;20120630;第41卷(第6期);752-759页 *

Also Published As

Publication number Publication date
CN103198493A (zh) 2013-07-10

Similar Documents

Publication Publication Date Title
CN103198493B (zh) 一种基于多特征自适应融合和在线学习的目标跟踪方法
CN105095856B (zh) 基于掩模的有遮挡人脸识别方法
CN103258213B (zh) 一种用于智能交通***中的动态车辆车型识别方法
CN104077613A (zh) 一种基于级联多级卷积神经网络的人群密度估计方法
CN103246896B (zh) 一种鲁棒性车辆实时检测与跟踪方法
CN108596211B (zh) 一种基于集中学习与深度网络学习的遮挡行人再识别方法
CN103870818B (zh) 一种烟雾检测方法和装置
CN103226835B (zh) 基于在线初始化梯度增强回归树的目标跟踪方法及***
CN107230267B (zh) 基于人脸识别算法的幼儿园智能签到方法
CN103886325B (zh) 一种分块的循环矩阵视频跟踪方法
CN103824070A (zh) 一种基于计算机视觉的快速行人检测方法
CN103605971B (zh) 一种捕获人脸图像的方法及装置
CN102521565A (zh) 低分辨率视频的服装识别方法及***
CN103839279A (zh) 一种目标检测中基于vibe的粘连目标分割方法
CN104978567A (zh) 基于场景分类的车辆检测方法
CN104992453A (zh) 基于极限学习机的复杂背景下目标跟踪方法
CN103048329A (zh) 一种基于主动轮廓模型的路面裂缝检测方法
CN103593679A (zh) 一种基于在线机器学习的视觉人手跟踪方法
CN104834916A (zh) 一种多人脸检测跟踪方法
Karpagavalli et al. Estimating the density of the people and counting the number of people in a crowd environment for human safety
CN104268520A (zh) 一种基于深度运动轨迹的人体动作识别方法
CN103150572A (zh) 在线式视觉跟踪方法
CN106127812A (zh) 一种基于视频监控的客运站非出入口区域的客流统计方法
CN112434599B (zh) 一种基于噪声通道的随机遮挡恢复的行人重识别方法
CN111191535B (zh) 基于深度学习的行人检测模型构建方法及行人检测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20151028

Termination date: 20200409