CN104766343A - 一种基于稀疏表示的视觉目标跟踪方法 - Google Patents

一种基于稀疏表示的视觉目标跟踪方法 Download PDF

Info

Publication number
CN104766343A
CN104766343A CN201510142274.9A CN201510142274A CN104766343A CN 104766343 A CN104766343 A CN 104766343A CN 201510142274 A CN201510142274 A CN 201510142274A CN 104766343 A CN104766343 A CN 104766343A
Authority
CN
China
Prior art keywords
image
template
fragment
value
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510142274.9A
Other languages
English (en)
Other versions
CN104766343B (zh
Inventor
解梅
张碧武
何磊
卜英家
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Houpu Clean Energy Group Co ltd
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN201510142274.9A priority Critical patent/CN104766343B/zh
Publication of CN104766343A publication Critical patent/CN104766343A/zh
Application granted granted Critical
Publication of CN104766343B publication Critical patent/CN104766343B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于稀疏表示的视觉目标跟踪方法,属于计算机视觉技术领域。本发明的方法为:首先基于目标图像确定后续跟踪处理需要用到的判决字典、匹配字典、灰度矩阵T,然后对待跟踪的各图像帧进行跟踪处理,采样多个第一候选图像样本集,通过K均值聚类选择K个具有代表性的聚类中心,并基于判决字典计算其置信值,基于最大置信值设置采样中心,从而得到第二候选图像样本集,再从中选择N个置信值最高的候选图像,基于匹配字典通过碎片采样该候选图像的灰度矩阵,取与灰度矩阵T相似度最高的候选图像作为当前帧的跟踪目标。本发明用于智能监控领域,对跟踪目标姿态变化,环境光照变化以及遮挡等情况具有很强的鲁棒性。

Description

一种基于稀疏表示的视觉目标跟踪方法
技术领域
本发明属于计算机视觉领域,具体涉及智能监控领域,特别涉及一种基于稀疏表示的视觉目标跟踪。
背景技术
基于视觉的目标跟踪技术(一般是指基于视频或者是图像序列的目标跟踪),是在一系列的图像中对目标物体进行检测、提取、识别和跟踪,从而获得目标物体的相关参数,如位置、速度、尺度、轨迹等;进一步根据跟踪结果进行处理和分析,实现对目标物体的行为理解,或者完成更高一级的任务。这是一个迅猛崛起的热点领域,属于计算机视觉领域的研究范畴,具有广泛的应用前景和科学研究价值。经过近二三十年的发展过程,国内外已经出现了各种跟踪算法,包括一些经典的算法以及基于这些算法的创新性算法。
根据跟踪算法的原理与技术不同,可以将这些跟踪算法分为判决模型的跟踪方法和生成模型的跟踪方法。基于判决模型的跟踪算法将跟踪问题看成是分类问题,尤其在单目标跟踪中,将跟踪问题看成是二分类问题,比较经典的分类器有SVM(Support Vector Machine)分类器,Adaboost的分类器。最近较为流行的基于分类器的算法有CSK,Struct,CT等算法。对于基于生成模型的跟踪算法而言,跟踪的目的是在邻域内寻找到与目标相似度最大的区域,实际上是寻找与目标相似度函数最大的区域,即最优化估计目标的状态,其中比较有效的经典算法有卡尔曼滤波、粒子滤波,最近较为流行的有MTT,LSK等算法。
稀疏跟踪算法是近年来发展比较迅速的一种新兴跟踪算法,属于生成模型的跟踪方法。由于算法是基于一系列的模板库得到的最终结果,因此对于光照变化、复杂环境以及姿态改变等都具有较好的鲁棒性,如文献“X.Mei and H.Ling.“Robust visual tracking CN 103440645A using L1minimization”.12th International Conference on Computer Vision,Kyoto,Japan,2009(1436-1443).”但是,由于模板库往往采用目标的整体模板作为特征,因此对目标遮挡的情况处理效果不佳。
上述算法大多能够在简单的场景中进行鲁棒的实时跟踪。但在不受限制的日常视频中跟踪目标仍然是一个重大挑战。光照、尺寸变化、遮挡、目标旋转、复杂背景等都是带来困难的因素。因此,如何设计一个鲁棒性较强的跟踪算法,能够在条件较为苛刻的情况下获得较好的表现,是计算机视觉领域一个重要的课题。
发明内容
本发明提出了一种基于稀疏表示的视觉跟踪算法,对跟踪目标姿态变化,环境光照变化 以及遮挡等情况具有很强的鲁棒性,且能改善对目标遮挡的情况处理效果。
本发明包括两个部分,首先构造用于跟踪目标的判决字典D、匹配字典A和灰度矩阵T,然后在当前帧中基于判决字典D、匹配字典A和灰度矩阵T在候选图像中查找与跟踪目标最相似的候选图像,确定当前所跟踪目标的目标图像,其具体过程为:
步骤1:确定初始化图像并确定所述初始化图像的目标图像,在该步骤中个,通常取视频或者是图像序列的第一帧图像为初始化图像,并确定初始化图像的目标图像(矩形图像块),即目标模板,可根据初始化图像手动给定的初始化位置得到目标图像(目标大小、在图像中的位置坐标)。
步骤2:基于当前目标图像生成判决字典D、匹配字典A和目标模板灰度矩阵T:
在初始化图像中,确定距离目标图像中心P1(预设值,具体值根据不同的处理环境根据经验设定,通常设置为1~10)个像素点的矩形区域为前景模板的采样区域,确定距离目标图像中心P2(预设值,且P2大于P1,具体值根据不同的处理环境根据经验设定,通常设置P2与P1的差值为1~5)个像素点的矩形区域与前景模板的采样区域的空集为背景模板的采样区域(即围绕着前景模板的采样区域的回字形区域);对前景模板的采样区域进行随机采样,并选择Np(预设值,具体值根据不同的处理环境根据经验设定,通常取值为[3060])个与目标图像大小相等的采样图像作为前景模板D+;对背景模板的采样区域进行随机采样,并选择Nn(预设值,具体值根据不同的处理环境根据经验设定,通常取值设置为[200300])个与目标图像大小相等的采样图像作为背景模板D-,由前景模板D+和背景模板D-构成判决字典D;
基于预设的矩形滑动窗(尺寸为w*h,其宽w、高h的取值为预设值,具体值根据不同的处理环境根据经验设定,通常可基于目标图像大小进行设置,例如w可以设置为目标图像宽度的1/8,1/16,1/32,1/64等,h可以设置为目标图像高度的1/8,1/16,1/32,1/64等),在目标图像上进行左、右、上、下滑动采样,且左右采样间隔相同,上下采样间隔相同(通常为可设置为w/2,上下采样间隔可设置为h/2,当然也可以进行其他设置例如w/4,h/4等,取决于计算的精细度要求),得到目标图像的碎片集,并基于K均值聚类方法从所述碎片集中选取K个碎片(K个具有代表性的碎片),由K个碎片构成训练集并得到匹配字典A,其中K是K均值聚类方法的泛称,为预设值,具体值根据不同的处理环境根据经验设定,通常取值范围为[50 100],下文描述的K均值聚类方法计算时,K的取值可以设置各不相同的取值,通常通常取值范围为[50 100];设置用于存放目标图像的碎片集的各碎片的灰度值的灰度矩阵T,所述灰度矩阵T中各碎片的灰度值为:碎片的各点像素值的累加和。
步骤3:基于构建好的判决字典D、匹配字典A和灰度矩阵T,确定初始化图像的各后 续帧图像的目标位置,即对非第一帧图像进行目标跟踪处理:
301:候选粒子的采样及候选粒子的预预选取
首先是候选粒子的采样:对当前帧图像进行采样(本处理过程直接基于惯用技术完成即可,本发明不作限定,通常可以用粒子滤波方式完成采样,采样的粒子数量具体依实际情况而定,一般可选择500左右),得到第一候选图像样本集,然后基于K均值聚类从第一候选样本集中选取K个聚类中心,并计算每个聚类中心的置信值Hc
基于公式(1)计算对应的稀疏系数:
min α | | X - Dα | | 2 2 + μ | | α | | 1 - - - ( 1 )
其中D为判决字典(具体指前景模板D+(也可称前景模板字典D+)和背景模板D-(也可称背景模板字典D-)),X为某个样本(本发明中具体指各候选图像),通过L1优化问题可求得稀疏系数α,其中μ为稀疏表示公式的预设系数,具体值根据不同的实验环境根据经验设定。‖.‖1、‖.‖2分别表示对应向量的1范数、2范数。
因为如果一个样本在前景模板集上有小的重构误差就表示该样本很可能是一个目标。反之,如果一个样本在背景模板集上有小的重构误差就表示这个样本很可能是背景。因此,根据样本在前景模板集上的重构误差和背景模板集上的重构误差可以构造样本的置信值Hc:
Hc=exp(-εfb)      (2) 
上式中,是样本(候选图像)X在前景模板D+上的重构误差,a+是聚类中心所对应的候选图像X基于前景模板D+的稀疏系数(根据公式(1)计算求解), 是样本X在背景模板D-上的重构误差,a-是聚类中心所对应的候选图像X基于前景模板D-的稀疏系数(根据公式(1)计算求解)。
取K个聚类中心中置信值最大的聚类中心为候选样图像本采样中心,基于所述候选图像样本采样中心进行采样得到第二候选图像样本集。
其次是对候选粒子的预选取,该处理主要是通过预选取,去掉大量偏离比较大的候选粒子,以进一步缩小候选范围。其处理为:对第二候选图像样本集,根据公式(1)和(2)计算各候选图像的置信值,再从中选取置信值最高的前N(经验值,取值范围通常可设置为[20 60])个候选作为新的候选图像,以待后面进一步处理。此处不直接选择置信值最高的一个候选图像作为目标,是考虑到因为遮挡的原因,置信值最高的候选可能并不是最佳候选,需经过后面的遮挡处理才能选择最佳候选。
考虑到在后续的目标跟踪过程中,目标有可能被背景遮挡,如果不进行遮挡处理,有可能跟踪过程中把目标当成背景,从而造成错误的跟踪结果,因此,有必要进行遮挡处理, 使得本发明对遮挡情况也有着较好的鲁棒性,所谓的遮挡处理为:
首先对每一个新的候选图像以滑动窗的方式进行碎片采样(需要记录碎片的坐标位置),采样的方式与步骤2中对目标图像的采样方式相同,采样得到的碎片包含了该候选图像的每一个局部,然后对每一个碎片基于匹配字典A,利用公式(1)计算对应的稀疏系数βi,接着基于公式计算每个碎片yi的重构误差εi(下标i用于标识不同的碎片)。对于属于背景的碎片,其重构误差会较大,属于前景的碎片,其重构误差会比较小,设一个阈值ε0(取值范围通常为[0.3 0.6]),依次来判断候选图像的每一个碎片的属性,即当εi>ε0,说明该碎片属于背景;当εi≤ε0时,说明该碎片属于前景。然后建立一个依次记录每个碎片的属性的属性矩阵(例如,定义目标图像或者候选图像所对应的碎片总数为m*n个,其中m为每行的碎片总数,n为每列的碎片总数,则属性矩阵为m*n阶的二维矩阵,当然也可以按行向量或列向量依次存储,只是需要限定目标图像和候选图像所采取的存储方式一致,从而实现匹配处理),即当碎片属于前景时,在该矩阵对应位置值设为1,属于背景时,其值设为0,这样对每一个候选都建立一个0—1矩阵。用同样的方式对初始化图像(第一帧图像)中的目标建立一个0—1矩阵作为目标模板(目标模板属性矩阵),然后将每个候选与模板进行匹配,匹配度最高的一个候选图像即为当前帧的目标图像。若直接基于目标图像所对应的属性矩阵与候选图像所对应的属性矩阵进行匹配跟踪目标,则在步骤2可以不用生成目标模板灰度矩阵T,仅基于上述描述生成目标图像对应的目标目标属性矩阵即可。
具体实方法如下:
对每个新的候选图像c,首先设一个w*h大小的矩形滑动窗,利用该滑动窗在候选图像c上进行滑动采样,得到候选图像c的碎片集,基于匹配字典A(亦可称为稀疏字典A),根据公式(3)求解得到每一个碎片yi的稀疏系数向量βi
min β i | | y i - Aβ i | | 2 2 + μ | | β i | | 1 - - - ( 3 )
即将公式(1)中的判决字典替换为匹配字典A,样本对应为每个碎片。
再根据计算每个碎片yi的重构误差εi,并基于重构误差εi与预设阈值ε0的大小大小关系设置每个碎片的属性值,再讲每个碎片的属性值依次记录在属性矩阵Sc的中。
若直接基于目标图像所对应的属性矩阵与候选图像所对应的属性矩阵进行匹配跟踪目标,则直接将N个属性矩阵Sc分别与目标目标属性矩阵S进行匹配处理,取匹配度最高的属性矩阵Sc所对应的候选图像为当前帧的目标图像。
同时,本发明还可以基于目标目标的灰度矩阵与新的候选图像所对应的灰度矩阵的相 似度来跟踪当前帧的目标图像。其具体处理为,即首先需要在步骤2中,基于初始化图像的目标图像确定目标模板灰度矩阵T(依次存放目标图像的各碎片的灰度值),然后在遮挡处理中,还需要为每个新的候选图像设置一个灰度矩阵Fc,用于存放新的候选图像c的每个碎片的灰度值,为了简化计算,基于各候选图像的属性矩阵Sc对其灰度矩阵Fc进行归一化处理,即当Sc中的属性值为0时,则将Fc中对应位置的取值置为0;当Sc中的属性值为1时,Fc中对应位置的取值为对应碎片的灰度值,即该碎片的各点像素值的累加和。最后,取与灰度矩阵T最相似的灰度矩阵Fc所对应的新候选图像c作为当前帧的目标图像。
进一步的,可根据公式(4)计算候选图像与目标图像的相似度Lc
L c = Σ i Σ j min ( F ij c , T ij ) / M - - - ( 4 )
M为目标图像(目标模板灰度矩阵T)的所有点的灰度值总和,即将计算值归一化。表示候选图像c的灰度矩阵Fc的各元素,Tij表示目标模板灰度矩阵T的各元素。经过以上公式所求得的相似度在[0,1]范围内,找出所有候选中相似度Lc最大的一个候选,该候选图像与目标图像的匹配度最高,因此,可将该候选图像作为当前帧的跟踪目标(目标图像)。
为了保持跟踪处理的实时性,在确定完当前帧的目标图像后,设置更新处理,其具体更新处理方式可以是:
基于当前帧的目标图像,根据步骤2对前景模板D+、背景模板D-、匹配字典A和目标模板属性矩阵S或目标模板灰度矩阵T进行更新; 
或者,基于当前帧的目标图像,根据步骤2对匹配字典A和灰度矩阵T进行更新;并且每隔5-10帧,基于当前帧的目标图像,根据步骤2在背景模板的采样区域进行随机采样,选择N’个与目标图像大小相等的采样图像,加入到背景模板D-中,并删除背景模板D-中离当前帧相隔时间最长的N’个采样图像,其中1≤’≤≤n(在后面的跟踪过程中,跟踪环境在不断的变化,跟踪目标变化不大,但是背景变化较大,故可只考虑周期对背景模板进行更新处理);进一步的,还可以将当前帧的目标图像加入到前景模板D+中,并删除前景模板D+中离当前帧相隔时间最长的一个采样图像。
综上所述,由于采用了上述技术方案,本发明的有益效果是:对跟踪目标姿态变化,环境光照变化以及遮挡等情况具有很强的鲁棒性,且能改善对目标遮挡的情况处理效果。
附图说明
本发明将通过具体实施方式并参照附图的方式说明,其中:
图1为本发明具体实施方式的处理过程示意图;
图2为本发明具体实施方式的前景模板(正模板)、背景模板(负模板)的采样示意图;
图3为本发明具体实施方式的碎片获取示例图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面结合实施方式和附图,对本发明作进一步地详细描述。
参见图1,对于实际的当前帧图像,首先判断当前帧是否是第一帧,若是第一帧,则需要依据第一帧中的目标图像信息(目标在图像中的位置,大小(长宽分别为W、H)等信息提前获取)求取本发明的跟踪方法中所需的判决字典(前景模板和背景模板)、匹配字典及其它信息,具体是:对于第一帧图像,首先在图二中所示的采样区域进行模板采样,获取正负模板作为训练集。正模板是在用中心矩形框所标示的目标位置通过上、下、左、右平移1-5个像素的方式随机采样一些图像,然后通过K均值聚类的方式选取Np个聚类中心作为正模板(前景模板)。负模板是在距离标记的位置相对较远距离的位置采样一些图像,同样利用K均值聚类的方法选取Nn个图像(即在距离目标中心一定距离的一个回形区域内,大小同样归一化为W*H),这些采样图像作为负模板(背景模板)。
同时还需计算在第一帧中获得匹配字典A和灰度矩阵T,即要通过对目标模板的碎片获取进行对应计算,其方法是:首先设一个w*h大小的矩形滑动窗,利用该滑动窗在目标图像上左、右、上、下进行滑动采样,左右采样间隔为w/2,上下采样间隔为h/2,设目标图像的高和宽分别为H和W,则采样数目为[W/(w/2)–1]*[H/(h/2)–1](如图3所示,其采样数目为8*8)。同样的将这些碎片先利用K均值聚类方法求取K个最具有代表性的碎片,然后按列堆放的方式堆成列向量构成训练集,利用逼近法(例如凸松弛法)生成判决字典A。对于目标模板灰度矩阵对于T中每个点,都对应着目标图像的一个局部碎片的灰度值。
若当前帧不是第一帧图像,则需要估计当前帧的目标位置(确定当前帧的目标图像)。首先利用粒子滤波方式对当前帧图像进行采样,获取比较多的候选图像作为第一候选图像样本集合,然后利用K均值聚类选取K个聚类中心,根据公式(1)和(2)计算每个聚类中心的置信值,将置信值最大的一个聚类中心作为候选采样中心。然后依据该采样中心再次以粒子滤波方式获得一定数量的候选图像作为第二候选图像样本集合。计算对第二候选图像样本集合中的各候选图像的置信值,取置信值最高的前20个候选作为新的候选图像。
对20个新的候选图像中的每一个,依据第一帧中碎片获取的方式获取碎片,对每一个碎片,利用匹配字典A求每一个碎片的重构误差εi,当εi>ε0,说明该碎片属于背景;当εi≤ε0 时,说明该碎片属于前景。将该碎片在属性矩阵Sc对应位置的值设为1。经过重复计算,对于每个候选图像,都可以得到其对应的属性矩阵Sc。然后同第一帧中灰度矩阵T的求取方法类似,求取每个候选图像的灰度矩阵不过这里和第一帧不同的是需要结合属性矩阵Sc,即是当属性矩阵中某点的属性值为0时,灰度矩阵中对应点的归一化灰度值也为0,当属性值为1时,归一化灰度值不变。参照图3,以碎片的总数目为8*8为例,其对应的属性矩阵Sc、目标模板灰度矩阵T和新的候选图像的灰度矩阵Fc则均为为8*8的二维矩阵,若(3,4)的碎片的属性值为0,则属性矩阵Sc中S34的取值为0,且灰度矩阵Fc中F34的取值也为0,若(4,2)的碎片的属性值为1,则属性矩阵Sc中S42的取值为1,且灰度矩阵Fc中F42的取值为碎片(4,2)的各点像素值相加所求得的总和。
最后根据公式(4)计算候选与模板的相似度,将其中相似度最高的一个候选图像作为当前帧的目标图像,并利用该目标图像更新前景模板、背景模板、匹配字典A和目标模板灰度矩阵T。

Claims (10)

1.一种基于稀疏表示的视觉目标跟踪方法,其特征在于,包括下列步骤:
步骤1:确定初始化图像并确定所述初始化图像的目标图像;
步骤2:基于当前目标图像生成前景模板D+、背景模板D-、匹配字典A和目标模板属性矩阵S:
在所述初始化图像中,确定距离目标图像中心P1个像素点的矩形区域为前景模板的采样区域,确定距离目标图像中心P2个像素点的矩形区域与前景模板的采样区域的空集为背景模板的采样区域,其中P1、P2位预设值,且P2大于P1;对前景模板的采样区域进行随机采样,并选择Np个与目标图像大小相等的采样图像作为前景模板D+;对背景模板的采样区域进行随机采样,并选择Nn个与目标图像大小相等的采样图像作为背景模板D-
基于预设的矩形滑动窗,在目标图像上进行左、右、上、下滑动采样,且上下采样间隔相同,左右采样间隔相同,得到目标图像的碎片集,并基于K均值聚类方法从所述碎片集中选取K个碎片,由所述K个碎片构成训练集并得到匹配字典A;并基于匹配字典A计算碎片集的每个碎片yi对应的稀疏系数βi,下标i用于标识不同的碎片,并基于公式计算碎片yi的重构误差εi;若εi大于预设阈值ε0,则设置碎片yi的属性值为0,否则设置为1;设置目标模板属性矩阵S,用于依次存放所述碎片集的每个碎片的属性;
步骤3:确定初始化图像的各后续帧图像的目标位置:
301:对当前帧图像进行采样,得到第一候选图像样本集,基于K均值聚类从所述第一候选样本集中选取K个聚类中心,并计算每个聚类中心的置信值Hc;取K个聚类中心中置信值最大的聚类中心为候选样图像本采样中心,基于所述候选图像样本采样中心进行采样得到第二候选图像样本集,并计算第二候选样本集中各候选样本的置信值Hc,取置信值最高的前N个候选图像作为新候选图像;所述第一候选图像样本集与第二候选图像样本集中的各图像样本的大小与目标图像一致;
所述置信值Hc的计算公式为Hc=exp(-εfb)计算每个聚类中心的置信值Hc,前景重构误差其中a+表示聚类中心所对应的候选图像X基于前景模板D+的稀疏系数;背景重构误差其中a-表示聚类中心所对应的候选图像X基于前景模板D-的稀疏系数;
302:基于与步骤2中获取目标图像的碎片集相同的滑动采样方式,获取新候选图像c的碎片集,并基于匹配字典A计算每个碎片yi对应的稀疏系数βi,下标i用于标识不同的碎片,并基于公式计算碎片yi的重构误差εi,若εi大于预设阈值ε0,则设置碎片yi的属性值为0,否则设置为1;
303:设置属性矩阵Sc,用于依次存放新候选图像c的每个碎片的属性;
304:取与目标模板属性矩阵S最匹配的属性矩阵Sc所对应的新候选图像c作为当前帧的目标图像。
2.如权利要求1所述的方法,其特征在于,所述步骤2中,不进行将基于当前目标图像生成目标模板属性矩阵S的处理,直接基于当前目标图像生成目标模板灰度属性矩阵T:设置用于依次存放目标图像的碎片集的各碎片的灰度值的灰度矩阵T,所述灰度矩阵T中各碎片的灰度值为:碎片的各点像素值的累加和;
且在所述步骤303中还包括:设置灰度矩阵Fc用于依次存放新候选图像c的每个碎片的灰度值,所述碎片的灰度值为碎片的各点像素值的累加和,并基于属性矩阵Sc对灰度矩阵Fc的取值进行调整:若Sc中的属性值为0,则将Fc中对应位置的取值置为0;
所述步骤304为:取与目标模板灰度矩阵T最相似的灰度矩阵Fc所对应的新候选图像c作为当前帧的目标图像。
3.如权利要求2所述的方法,其特征在于,所述步骤304中,计算目标模板灰度矩阵T与灰度矩阵Fc的相似度Lc的公式为其中,M表示灰度矩阵T各元素的总和,i和j表示矩阵的元素位置。
4.如权利要求1、2或3所述的方法,其特征在于,所述步骤3还包括305:基于当前帧的目标图像,根据步骤2对前景模板D+、背景模板D-、匹配字典A和目标模板属性矩阵S或目标模板灰度矩阵T进行更新。
5.如权利要求1、2或3所述的方法,其特征在于,所述步骤3还包括305:基于当前帧的目标图像,根据步骤2对匹配字典A和灰度矩阵T进行更新;并且每隔5-10帧,基于当前帧的目标图像,根据步骤2在背景模板的采样区域进行随机采样,选择N’个与目标图像大小相等的采样图像,加入到背景模板D-中,并删除背景模板D-中离当前帧相隔时间最长的N’个采样图像,其中1≤N’≤Nn
6.如权利要求5所述的方法,其特征在于,所述步骤305还包括,每隔5-10帧,将当前帧的目标图像加入到前景模板D+中,并删除前景模板D+中离当前帧相隔时间最长的一个采样图像。
7.如权利要求1所述的方法,其特征在于,所述步骤2中,P1的取值为1~10,P2与P1的差值为1~5。
8.如权利要求1所述的方法,其特征在于,所述初始化图像为视频图像或图像序列的第一帧图像。
9.如权利要求1所述的方法,其特征在于,基于预设的矩形滑动窗进行滑动采样时,左右采样间隔为w/2,上下采样间隔为h/2,其中w表示矩形滑动窗的宽,h表示矩形滑动窗的高。
10.如权利要求1所述的方法,其特征在于,所述步骤301中,基于粒子滤波进行采样,获取所述第一候选图像样本集与第二候选图像样本集。
CN201510142274.9A 2015-03-27 2015-03-27 一种基于稀疏表示的视觉目标跟踪方法 Active CN104766343B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510142274.9A CN104766343B (zh) 2015-03-27 2015-03-27 一种基于稀疏表示的视觉目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510142274.9A CN104766343B (zh) 2015-03-27 2015-03-27 一种基于稀疏表示的视觉目标跟踪方法

Publications (2)

Publication Number Publication Date
CN104766343A true CN104766343A (zh) 2015-07-08
CN104766343B CN104766343B (zh) 2017-08-25

Family

ID=53648148

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510142274.9A Active CN104766343B (zh) 2015-03-27 2015-03-27 一种基于稀疏表示的视觉目标跟踪方法

Country Status (1)

Country Link
CN (1) CN104766343B (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105513093A (zh) * 2015-12-10 2016-04-20 电子科技大学 一种基于低秩矩阵表示的目标跟踪方法
CN105718910A (zh) * 2016-01-22 2016-06-29 孟玲 一种局部和全局特征相结合的蓄电池室
CN105718894A (zh) * 2016-01-22 2016-06-29 孟玲 一种具有稳定跟踪功能的污水处理装置
CN106355604A (zh) * 2016-08-22 2017-01-25 湖南挚新科技发展有限公司 图像目标跟踪方法与***
CN106373144A (zh) * 2016-08-22 2017-02-01 湖南挚新科技发展有限公司 图像目标相对位置确定方法与***
WO2017075939A1 (zh) * 2015-11-06 2017-05-11 腾讯科技(深圳)有限公司 一种图像内容识别方法及装置
CN107123130A (zh) * 2017-03-06 2017-09-01 华南理工大学 一种基于超像素和混合哈希的核相关滤波目标跟踪方法
CN107273919A (zh) * 2017-05-27 2017-10-20 南京理工大学 一种基于置信度构造类属字典的高光谱无监督分类方法
CN107368785A (zh) * 2017-06-16 2017-11-21 浙江万里学院 多核局部约束的视频目标跟踪方法
CN109313709A (zh) * 2017-12-29 2019-02-05 深圳配天智能技术研究院有限公司 一种相似度的度量方法、装置及存储装置
CN110276348A (zh) * 2019-06-20 2019-09-24 腾讯科技(深圳)有限公司 一种图像定位方法、装置、服务器及存储介质
CN111274966A (zh) * 2020-01-20 2020-06-12 临沂大学 一种基于结构化模型的长期视觉追踪方法及装置
CN112513870A (zh) * 2018-08-08 2021-03-16 索博客科技有限公司 用于利用改进的高度计算对感兴趣的人类对象进行检测、跟踪和计数的***和方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103440645A (zh) * 2013-08-16 2013-12-11 东南大学 一种基于自适应粒子滤波和稀疏表示的目标跟踪算法
CN103544483A (zh) * 2013-10-25 2014-01-29 合肥工业大学 一种基于局部稀疏表示的联合目标追踪方法及其***

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103440645A (zh) * 2013-08-16 2013-12-11 东南大学 一种基于自适应粒子滤波和稀疏表示的目标跟踪算法
CN103544483A (zh) * 2013-10-25 2014-01-29 合肥工业大学 一种基于局部稀疏表示的联合目标追踪方法及其***

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CHENGJUN XIE,JIEQING TAN,PENG CHEN,JIE ZHANG,LEI HE: "Multiple instance learning tracking method with local sparse representation", 《IET COMPUTER VISION》 *
WEI ZHONG,HUCHUAN LU,MING-HSUAN YANG: "Robust Object Tracking via Sparsity-based Collaborative Model", 《2012 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *
钟伟: "基于稀疏表示的目标跟踪算法", 《中国优秀硕士学位论文全文数据库》 *

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10438091B2 (en) 2015-11-06 2019-10-08 Tencent Technology (Shenzhen) Company Limited Method and apparatus for recognizing image content
WO2017075939A1 (zh) * 2015-11-06 2017-05-11 腾讯科技(深圳)有限公司 一种图像内容识别方法及装置
CN105513093B (zh) * 2015-12-10 2018-02-16 电子科技大学 一种基于低秩矩阵表示的目标跟踪方法
CN105513093A (zh) * 2015-12-10 2016-04-20 电子科技大学 一种基于低秩矩阵表示的目标跟踪方法
CN105718910A (zh) * 2016-01-22 2016-06-29 孟玲 一种局部和全局特征相结合的蓄电池室
CN105718894A (zh) * 2016-01-22 2016-06-29 孟玲 一种具有稳定跟踪功能的污水处理装置
CN106355604A (zh) * 2016-08-22 2017-01-25 湖南挚新科技发展有限公司 图像目标跟踪方法与***
CN106373144A (zh) * 2016-08-22 2017-02-01 湖南挚新科技发展有限公司 图像目标相对位置确定方法与***
CN106355604B (zh) * 2016-08-22 2019-10-18 杭州保新科技有限公司 图像目标跟踪方法与***
CN107123130A (zh) * 2017-03-06 2017-09-01 华南理工大学 一种基于超像素和混合哈希的核相关滤波目标跟踪方法
CN107123130B (zh) * 2017-03-06 2019-12-10 华南理工大学 一种基于超像素和混合哈希的核相关滤波目标跟踪方法
CN107273919A (zh) * 2017-05-27 2017-10-20 南京理工大学 一种基于置信度构造类属字典的高光谱无监督分类方法
CN107273919B (zh) * 2017-05-27 2020-07-07 南京理工大学 一种基于置信度构造类属字典的高光谱无监督分类方法
CN107368785A (zh) * 2017-06-16 2017-11-21 浙江万里学院 多核局部约束的视频目标跟踪方法
CN109313709A (zh) * 2017-12-29 2019-02-05 深圳配天智能技术研究院有限公司 一种相似度的度量方法、装置及存储装置
CN112513870A (zh) * 2018-08-08 2021-03-16 索博客科技有限公司 用于利用改进的高度计算对感兴趣的人类对象进行检测、跟踪和计数的***和方法
CN110276348A (zh) * 2019-06-20 2019-09-24 腾讯科技(深圳)有限公司 一种图像定位方法、装置、服务器及存储介质
CN110276348B (zh) * 2019-06-20 2022-11-25 腾讯科技(深圳)有限公司 一种图像定位方法、装置、服务器及存储介质
CN111274966A (zh) * 2020-01-20 2020-06-12 临沂大学 一种基于结构化模型的长期视觉追踪方法及装置
CN111274966B (zh) * 2020-01-20 2022-06-03 临沂大学 一种基于结构化模型的长期视觉追踪方法及装置

Also Published As

Publication number Publication date
CN104766343B (zh) 2017-08-25

Similar Documents

Publication Publication Date Title
CN104766343A (zh) 一种基于稀疏表示的视觉目标跟踪方法
Yu et al. Feature integration analysis of bag-of-features model for image retrieval
CN110532920B (zh) 基于FaceNet方法的小数量数据集人脸识别方法
Li et al. Delving into egocentric actions
CN109949341B (zh) 一种基于人体骨架结构化特征的行人目标跟踪方法
CN103207898B (zh) 一种基于局部敏感哈希的相似人脸快速检索方法
CN109753975A (zh) 一种训练样本获得方法、装置、电子设备和存储介质
CN112101150A (zh) 一种基于朝向约束的多特征融合行人重识别方法
CN103996046B (zh) 基于多视觉特征融合的人员识别方法
CN105160310A (zh) 基于3d卷积神经网络的人体行为识别方法
CN107133496B (zh) 基于流形学习与闭环深度卷积双网络模型的基因特征提取方法
CN109086706A (zh) 应用于人机协作中的基于分割人体模型的动作识别方法
CN108681737B (zh) 一种复杂光照下图像特征提取方法
Olague et al. Evolving head tracking routines with brain programming
CN109101864A (zh) 基于关键帧和随机森林回归的人体上半身动作识别方法
Havasi et al. Detection of gait characteristics for scene registration in video surveillance system
Seidl et al. Automated classification of petroglyphs
CN102446356A (zh) 一种获取均匀分布匹配点的遥感影像并行自适应匹配方法
CN106529441B (zh) 基于模糊边界分片的深度动作图人体行为识别方法
CN106056627B (zh) 一种基于局部鉴别性稀疏表示的鲁棒目标跟踪方法
WO2017161443A1 (en) A method and system for tracking objects
Zhang Half century for image segmentation
Tong et al. Cross-view gait recognition based on a restrictive triplet network
Faisal et al. Depth estimation from video using computer vision and machine learning with hyperparameter optimization
Ahmed et al. Symmetric image contents analysis and retrieval using decimation, pattern analysis, orientation, and features fusion

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
EXSB Decision made by sipo to initiate substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20210513

Address after: No.3, 11th floor, building 6, no.599, shijicheng South Road, Chengdu hi tech Zone, China (Sichuan) pilot Free Trade Zone, Chengdu, Sichuan 610041

Patentee after: Houpu clean energy Co.,Ltd.

Address before: 611731, No. 2006, West Avenue, Chengdu hi tech Zone (West District, Sichuan)

Patentee before: University of Electronic Science and Technology of China

TR01 Transfer of patent right
CP01 Change in the name or title of a patent holder

Address after: No.3, 11th floor, building 6, no.599, shijicheng South Road, Chengdu hi tech Zone, China (Sichuan) pilot Free Trade Zone, Chengdu, Sichuan 610041

Patentee after: Houpu clean energy (Group) Co.,Ltd.

Address before: No.3, 11th floor, building 6, no.599, shijicheng South Road, Chengdu hi tech Zone, China (Sichuan) pilot Free Trade Zone, Chengdu, Sichuan 610041

Patentee before: Houpu clean energy Co.,Ltd.

CP01 Change in the name or title of a patent holder