CN108062557A - 基于快速压缩跟踪算法的尺度自适应目标跟踪方法 - Google Patents

基于快速压缩跟踪算法的尺度自适应目标跟踪方法 Download PDF

Info

Publication number
CN108062557A
CN108062557A CN201711164884.4A CN201711164884A CN108062557A CN 108062557 A CN108062557 A CN 108062557A CN 201711164884 A CN201711164884 A CN 201711164884A CN 108062557 A CN108062557 A CN 108062557A
Authority
CN
China
Prior art keywords
target
tracking
scale
center
classifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711164884.4A
Other languages
English (en)
Other versions
CN108062557B (zh
Inventor
刘晴
龙英
冯维
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao Qingzi Engineering Consulting Co ltd
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN201711164884.4A priority Critical patent/CN108062557B/zh
Publication of CN108062557A publication Critical patent/CN108062557A/zh
Application granted granted Critical
Publication of CN108062557B publication Critical patent/CN108062557B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • G06F18/24155Bayesian classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于快速压缩跟踪算法的尺度自适应目标跟踪方法。本发明首先,采用上下文模型对类哈尔特征进行加权,增强了类哈尔特征对光照变化的鲁棒性。其次,采用分步跟踪,即增强了算法的抗遮挡能力和应对目标尺度变化的能力,又保持了算法的实时性。最后,提出尺度自适应方法,实现了对尺度变化目标的稳定跟踪。本发明对目标尺度变化、目标外观变化及目标被遮挡的情况具有较好的鲁棒性,且能保证帧频在39帧/秒左右,满足实时性的要求。

Description

基于快速压缩跟踪算法的尺度自适应目标跟踪方法
技术领域
本发明属于图像处理技术领域,特别是涉及视频目标跟踪、人脸识别、在线学习及尺度自适应等,具体是基于快速压缩跟踪算法的尺度自适应目标跟踪方法。
背景技术
目标跟踪是计算机视觉领域的一个研究热点,它在运动分析、行为识别、智能监控、人机交互等领域有广泛的应用[1,2]。目标跟踪的难点是如何处理目标自身的外观变化及光照、遮挡、背景变化等因素对目标的影响[3,4]。近年来,基于在线学习的目标跟踪算法受到了广泛关注,该算法把跟踪问题看成一个特殊的二元分类问题,其关键在于用一个训练好的分类器将目标从序列图像的背景中分割出来,并且在线更新分类器[5,6]。由于噪声及分类器更新因子不匹配等因素的影响,在线学习的目标跟踪算法容易出现跟踪漂移的问题[7]。因此出现了许多改进算法。文献[8]提出一种基于在线半监督分类器的跟踪算法来降低跟踪漂移,它的主要思想是将优先分类器和在线分类器组成组合分类器,利用半监督学习方式学习组合分类器实现分类器的更新,该算法在限制跟踪漂移的同时能保持对外观变化目标的稳定跟踪。文献[9]提出了一种将半监督学习和多示例学习相结合的学习方法,该方法引入一个组合损失因子,同时对标记和未标记的样本进行学习,实验结果表明其跟踪效果优于在线半监督分类器。
压缩跟踪(Compressive Tracking,CT)算法[10]是二元分类方法中比较流行的一种算法,该算法实时性好,对目标遮挡和外观变化均具有一定的鲁棒性。但它主要存在两方面的问题:第一,特征描述简单,当光照变化或目标外观变化较大时容易出现跟踪漂移或目标丢失。第二,跟踪过程中目标窗尺度固定,当目标尺度变大或发生遮挡时容易出现跟踪漂移或目标丢失。文献[11]是原作者对CT算法的改进,但其仅是提高了算法的处理速度,对上述问题并没有很好的解决。
参考文献列表:
[1]Cehovin L,Kristan M,Leonardis A.Robust visual tracking using anadaptive coupled-layer visual model[J].IEEE Transactions on Pattern Analysisand Machine Intelligence(PAMI),2013,35(4):941–953.
[2]Qian Chen,Sun Xiao,Wei Yi-chen,etal.Realtime and robust handtracking from depth[C].IEEE Conference on Computer Vision and PatternRecognition(CVPR),2014:1106-1113.
[3]Zhang T,Ghanem B,Liu S,etl.Robust visual tracking via multi-tasksparse learning[C].IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2012:2042–2049.
[4]Dicle C,Sznaier M and Camps O.The way they move:tracking multipletargets with similar appearance[C].IEEE International Conference on ComputerVision(ICCV),2013:2304-2311.
[5]Luber Matthias,Spinello Luciano,Arras KaiO.People Tracking in RGB-D Data With On-line Boosted Target Models[C].2011IEEE/RSJ InternationalConference on Intelligent Robots and Systems(IROS),2011:3844-3849.
[6]Grabner Helmut,Leistner Christian,Bischof Horst.Semi-supervisedOn-Line Boosting for Robust Tracking[J].Lecture Notes In Computer Science,2008,5302(1):234-247.
[7]Li Hai-feng,Zeng Min,Lu Min-yan.Adaboosting-based dynamic weightedcombination of software reliability growth models[J].Quality and ReliabilityEngineering International,2013,28(1):67-84.
[8]Zeisl B,Leistner C,Saffari A,Bischof H.On-line Semi-supervisedMultiple-Instance Boosting[C].2010IEEE Conference on Computer Vision andPattern Recognition(CVPR),2010:1879.1-1879.15.
[9]Crowley J L,Stelmaszyk P,Discours C.TransientBoost:On-lineBoosting with Transient Data[C].2010IEEE Computer Society Conference onComputer Vision and Pattern Recognition Workshops(CVPRW),2010:22-27.
[10]Zhang Kai-hua,Zhang Lei,Yang Ming-hsuan.Real-Time CompressiveTracking[C].European Conference on Computer Vision(ECCV),2012:866-879.
[11]Zhang Kai-hua,Zhang Lei,Yang Ming-hsuan.Fast Compressive Tracking[J].IEEE Transaction on Pattern Analysis and Machine Intelligence,2014,36(10):2002-2015.
[12]Wright J,Yang A,Ganesh,Sastry S.Robust face recognition viasparse representation[J].IEEE Transactions on Pattern Analysis and MachineIntelligence,2009,31(2):210-227.
[13]Ng AY,Jordan M.On discriminative vs.generative classifier:acomparison of logistic regression and naive bayes[C].2002Annual Conference onNeural Information Processing Systems,2002:841-848.
[14]Comaniciu D,Ramesh V,Meer P.Kernel-based object tracking[J].IEEETransactions on Pattern Analysis and Machine Intelligence,2003,25(5):564-577.
[15]Gary R,Bradski.Real Time Face and Object Tracking as a Componentof a Perceptual User Interface[C]IEEE Workshop on Applications of ComputerVision(WACV),1998:214-219.
[16]Zhang Kai-hua,Zhang Lei,Liu Qing-shan.Fast Visual Tracking viaDense Spatio-Temporal Context Learning[C].European Conference on ComputerVision(ECCV),2014:127-141.
发明内容
针对上述问题,本发明提出一种基于快速压缩跟踪算法的尺度自适应目标跟踪方法。
本发明首先,采用上下文模型对类哈尔(haar-like)特征进行加权,增强了类哈尔特征对光照变化的鲁棒性。其次,采用分步跟踪,即增强了算法的抗遮挡能力和应对目标尺度变化的能力,又保持了算法的实时性。最后,提出尺度自适应方法,实现了对尺度变化目标的稳定跟踪。
本发明实现的具体步骤如下:
(1)采用上下文特征对输入图像进行变换,得到加权haar-like特征图像。
CT算法中采用压缩的haar-like特征来构建目标和背景的外观模型。不同于haar特征,
haar-like特征等于矩形框内所有像素值的和。假设目标在当前帧的位置是o*,图像中的任意像素点z在定位目标的位置时所起的作用不同:靠近目标中心点的像素点重要,应赋予其较大的权重;反之,远离目标中心点像素点应赋予其较小的权重。加权haar-like特征的计算公式如下:
式中,S为所选择的矩形区域,n为图像的量化位数,y为加权后像素的特征值,其公式如下:
y(z)=I(z)ωσ(z-o*) (2)
式中,I(·)是表征目标模型所选择特征的强度,一般情况下为像素的灰度值。ωσ(·)为高斯权重函数,其计算公式为
式中,a为归一化的权重函数,使y的取值范围为[0,1],σ为尺度函数。
(2)利用边缘和中心增强的核函数直方图判断目标是否受到遮挡。
在相邻两帧图像的目标区域内建立核函数加权的直方图,加权规则分别采用中心增强和边缘增强。所谓中心增强是指像素点离目标中心越近,其所获得的权重越大;像素点离目标中心越远,其获得的权重越小。所谓边缘增强是指像素点离目标中心越近,其所获得的权重越小;像素点离目标中心越远,其获得的权重越大。中心增强的公式如(4)所示,边缘增强的公式如(5)所示:
式中,d为与跟踪窗的相对位置。
定义遮挡判决因子J=B(pb,qb)-B(pt,qt)。其中B(p,q)表示Bhattacharyya系数[0~1];pt,qt表示中心增强核函数的直方图;pb,qb表示边缘增强核函数的直方图。当遮挡未发生时,J值应接近于0;当遮挡发生时,J值将迅速变大,因为大量的背景像素点进入跟踪窗口内。J取值范围为J∈(0,1)。
(3)当遮挡发生时,采用分块粗搜索-压缩跟踪精搜索的方式跟踪目标。
当遮挡发生时,对目标进行分块处理Ri,i=1,2,…n,n为目标分块总个数。在目标周围λf邻域范围内选择步长Δf得到目标的可能位置,用朴素贝叶斯分类器进行分类得到各个分类器的响应值。利用位置信息判断各分类器所属的目标区域Ri,计算各目标区域Ri中所有分类器响应值的和Si,选择和最大的目标区域的中心作为精确搜索的起始位置L0(部分分类器可能同时属于多个区域,各分类器的值只需计算一次即可)。在起始位置L0所属的区域内进行精确搜索,在窗口中心周围λc邻域范围利用压缩跟踪检测目标,分类器响应最大值所对应的位置就是目标的位置(Δfcfcc=1)。
其中的压缩跟踪算法:
压缩跟踪(CT)算法是一种基于特征压缩的快速鲁棒跟踪算法,它利用一个非常稀疏的随机投影矩阵R对haar-like特征x进行压缩,提取压缩特征v,并利用朴素贝叶斯分类器对v进行分类进而实现目标跟踪。
特征压缩的计算公式为:
v=Rx (6)
式中,满足Johnson-Lindenstrauss推论和压缩感知理论中的RIP前提。稀疏投影矩阵R的矩阵元素定义如下:
式中,ρ=2或3。当ρ=3时,这个矩阵非常稀疏,计算量会减少2/3(当ρ=3时,矩阵元素有1/6的概率为1.732,有1/6的概率为-1.732,有2/3的概率为0)。
在提取样本的压缩特征v后,将v输入朴素贝叶斯分类器进行分类,将分类器响应最大值所对应的位置作为目标在新一帧的位置。下面介绍其分类器的构建和更新。
对于每个样本它的低维表示是假定v中各元素的分布是独立的,并且可以通过朴素贝叶斯分类器来建模[12]
其中,两个类的先验概率相等p(y=1)=p(y=0),y∈{0,1}表示样本标签,y=0代表负样本,y=1代表正样本。
Diaconis和Freedman证明了高维随机向量的随机投影几乎都是高斯分布的[13]。因此,假定在分类器H(v)中的条件概率p(vi|y=1)和p(vi|y=0)也属于高斯分布,并且可以用四个参数来描述[10]
上式中的参数按照公式(5)进行增量更新,其中,j=0,1。
其中,学习因子λ>0,
(4)当未遮挡时,采用重心粗搜索-压缩跟踪精搜索的方式跟踪目标。
假设M00为图像的0阶距,M10和M01为图像的1阶距,M20和M02为图像的2阶距。则重心的位置为
假设上一帧目标的位置为其重心的位置为在本帧图像中,首先以上一帧目标的位置为中心,计算得到目标重心的起始位置多次重复计算目标重心直到相邻两次的计算结果满足收敛的条件为止,并将值赋给利用重心位置得到对应的目标位置将目标位置作为目标精确搜索的起始位置。在周围λc邻域范围内采用压缩跟踪方法检测目标,分类器响应最大值所对应的位置就是目标的位置。
(5)计算图像的n阶矩,并采用CAMShift算法更新目标尺度。
在跟踪过程中,目标的尺度经常发生变化。必须采取相应的策略更新目标尺度以适应目标的尺度变化,尺度更新方法[15]如下所示。
定义则跟踪窗的长度l和宽度w为
(3)公式(3)中的尺度参数σ的更新公式[16]如下所示:
式中,s′t是相邻两帧目标尺度变化的估计值,为了降低估计误差和尺度更新的过分敏感,增强s′t的鲁棒性,引入对尺度变化估计值进行滤波,是所有尺度估计值的均值。λ为更新速度,是一个[0,1]之间的自然数。
本发明的有益效果:本发明公开了一种基于快速压缩跟踪算法的尺度自适应目标跟踪方法。首先,对haar-like特征进行改进,增强其对目标的表征能力;其次,利用重心粗搜索减少算法处理时间,并引入尺度因子自适应的更新目标窗尺度;最后,采用分块和由粗到细的跟踪策略处理目标的遮挡问题。实验结果表明,本发明对目标尺度变化、目标外观变化及目标被遮挡的情况具有较好的鲁棒性,且能保证帧频在39帧/秒左右,满足实时性的要求。
附图说明
图1是本发明的处理流程。
图2是压缩跟踪的处理流程。
图3是分块示意图。
图4是david视频序列的跟踪结果。
图5是woman视频序列的跟踪结果。
图6是twinnings视频序列的跟踪结果。
具体实施方式
下面结合附图和附表对本发明实施例作详细说明。
图1是本发明的处理流程,首先,对输入图像进行变换得到加权haar-like特征图像。其次,判断目标是否受到遮挡。当遮挡发生时,采用分块粗搜索-压缩跟踪精搜索的方式跟踪目标。当未遮挡时,采用重心粗搜索-压缩跟踪精搜索的方式跟踪目标。最后,对跟踪窗进行尺度更新。
图2是压缩跟踪算法的处理流程。压缩跟踪(Compressive Tracking,CT)算法是二元分类方法中比较流行的一种算法,它首先利用稀疏投影矩阵对图像特征进行降维,其次利用简单的朴素贝叶斯分类器对降维后的特征进行分类,最后通过在线学习更新分类器。
图3是分块示意图。当遮挡发生时,将目标区域按图3所示划分为四部分Ri,i=1,2,3,4。在目标周围λf邻域范围内选择步长Δf得到目标的可能位置,用朴素贝叶斯分类器进行分类得到各个分类器的响应值。利用位置信息判断各分类器所属的目标区域Ri,计算各目标区域Ri中所有分类器响应值的和Si,选择和最大的目标区域的中心作为精确搜索的起始位置L0(部分分类器可能同时属于多个区域,各分类器的值只需计算一次即可)。在起始位置L0所属的区域内进行精确搜索,在窗口中心周围λc邻域范围利用压缩跟踪检测目标,分类器响应最大值所对应的位置就是目标的位置(Δfcfcc=1)。
假设λf=29Δf=4和λc=10Δc=1,则分块粗搜索的计算量约为CT算法的计算量约为由于分类器的计算占用了大部分处理时间,虽然采用了分块处理,但计算量并没有增加。
在Matlab9.0的仿真环境下进行实验,并与CT算法[10]、FCT算法[11]进行比较。3个公共测试视频分别是david.jpg、woman.png和twinnings.png。仿真结果如图4~图6所示,图中白色框为CT算法的跟踪结果,黑色框为FCT算法的跟踪结果,灰色框为本发明的跟踪结果。
图4是david视频序列的跟踪结果。david视频序列中目标经历光照、尺度、外形的逐渐变化,重点测试光照变化时算法的跟踪性能。图4显示的是视频序列中第10、80、150、300、450、600、690、770帧的跟踪结果。在300帧之前david的脸部外形和尺度没有发生明显变化,而室内亮度变化显著。随着光照变化CT算法和FCT算法跟踪误差逐渐变大,而本发明给出了较准确的跟踪结果。在300帧以后,david的脸部出现一定程度的形变和尺度变化。CT和FCT算法的跟踪结果均存在较大偏差,但FCT算法优于CT算法,本发明能适应目标的变化,跟踪误差最小。
图5是woman视频序列的跟踪结果。woman视频序列中目标经历部分遮挡和大面积遮挡的情况,重点测试遮挡时算法的跟踪性能。图5显示的是视频序列中第15、100、200、300、700、831帧的跟踪结果。在人脸未被遮挡时(第15帧),三种算法均能稳定的跟踪目标,但当目标出现了遮挡时(第100、200、300、700、831帧),CT和FCT均出现了一定的跟踪漂移,CT算法优于FCT算法,而本发明仍能较准确地跟踪目标。
图6是twinnings视频序列的跟踪结果。twinnings视频序列中目标经历外形变化、光照变化及大比例的尺度变化,重点测试尺度变化时算法的跟踪性能。图6显示的是视频序列中第30、100、200、300、400、450帧的跟踪结果。在目标未发生尺度变化时,三种算法均能稳定的跟踪目标(第30帧),但当目标出现了明显的尺度变化时(第100、200、300、400、451帧),CT和FCT均出现了一定的跟踪漂移,FCT算法优于CT算法,而本发明能适应目标的尺度变化,准确地跟踪目标
3种算法跟踪性能的比较如下所示,表1是成功率SR(success rate,SR)(%),表2是中心位置误差(Center location error,CLE)(in pixels)和每秒的平均帧数(averageframe persecond,FPS)。
表1成功率SR(%)
从表1可以看出,本发明的成功率最高,保持在98%以上。在跟踪外观变化和尺度变化的目标时,FCT算法的成功率高于CT算法。
表2CLE和FPS
从表2可以看出,本发明的跟踪误差最小,FCT算法次之,CT算法最大;FCT算法的实时性最好,本发明次之,CT算法最差。
总体来说,本发明的整体性能最好,拥有最高的成功率和最小的跟踪误差,且跟踪时间优于CT算法。
本技术领域中的普通技术人员应当认识到,以上实施例仅是用来说明本发明,而并非作为对本发明的限定,只要在本发明的范围内,对以上实施例的变化、变形都将落在本发明的保护范围。

Claims (5)

1.基于快速压缩跟踪算法的尺度自适应目标跟踪方法,其特征在于:首先对输入图像进行变换得到加权haar-like特征图像;其次,判断目标是否受到遮挡;当遮挡发生时,采用分块粗搜索-压缩跟踪精搜索的方式跟踪目标;当未遮挡时,采用重心粗搜索-压缩跟踪精搜索的方式跟踪目标;最后,对跟踪窗进行尺度更新;
所述的对输入图像进行变换是采用上下文特征对输入图像进行变换,加权haar-like特征z的计算公式如下:
<mrow> <mi>z</mi> <mo>=</mo> <munder> <mo>&amp;Sigma;</mo> <mrow> <mi>z</mi> <mo>&amp;Element;</mo> <mi>S</mi> </mrow> </munder> <mfrac> <mrow> <mi>y</mi> <mrow> <mo>(</mo> <mi>z</mi> <mo>)</mo> </mrow> <mo>-</mo> <msub> <mi>y</mi> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> </msub> </mrow> <mrow> <msub> <mi>y</mi> <mi>max</mi> </msub> <mo>-</mo> <msub> <mi>y</mi> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> </msub> </mrow> </mfrac> <mo>&amp;times;</mo> <msup> <mn>2</mn> <mi>n</mi> </msup> </mrow>
式中,S为所选择的矩形区域,n为图像的量化位数,y为加权后像素的特征值;
所述的判断目标是否受到遮挡是利用边缘和中心增强的核函数直方图来判断;
在相邻两帧图像的目标区域内建立核函数加权的直方图,加权规则分别采用中心增强和边缘增强;所述中心增强是指像素点离目标中心越近,其所获得的权重越大;像素点离目标中心越远,其获得的权重越小;所述边缘增强是指像素点离目标中心越近,其所获得的权重越小;像素点离目标中心越远,其获得的权重越大;
遮挡判决因子J=B(pb,qb)-B(pt,qt),其中B(p,q)表示Bhattacharyya系数;pt,qt表示中心增强核函数的直方图;pb,qb表示边缘增强核函数的直方图;当遮挡未发生时,J值应接近于0;当遮挡发生时,J值将迅速变大。
2.根据权利要求1所述的基于快速压缩跟踪算法的尺度自适应目标跟踪方法,其特征在于:
当遮挡发生时,对目标进行分块处理Ri,i=1,2,…n,n为目标分块总个数;在目标周围λf邻域范围内选择步长Δf得到目标的可能位置,用朴素贝叶斯分类器进行分类得到各个分类器的响应值;利用位置信息判断各分类器所属的目标区域Ri,计算各目标区域Ri中所有分类器响应值的和Si,选择和最大的目标区域的中心作为精确搜索的起始位置L0;在起始位置L0所属的区域内进行精确搜索,在窗口中心周围λc邻域范围利用压缩跟踪检测目标,分类器响应最大值所对应的位置就是目标的位置。
3.根据权利要求1所述的基于快速压缩跟踪算法的尺度自适应目标跟踪方法,其特征在于:
当未遮挡时,假设M00为图像的0阶距,M10和M01为图像的1阶距,M20和M02为图像的2阶距;则重心的位置为
<mrow> <msub> <mi>x</mi> <mi>g</mi> </msub> <mo>=</mo> <mfrac> <msub> <mi>M</mi> <mn>10</mn> </msub> <msub> <mi>M</mi> <mn>00</mn> </msub> </mfrac> <mo>,</mo> <msub> <mi>y</mi> <mi>g</mi> </msub> <mo>=</mo> <mfrac> <msub> <mi>M</mi> <mn>01</mn> </msub> <msub> <mi>M</mi> <mn>00</mn> </msub> </mfrac> </mrow>
假设上一帧目标的位置为其重心的位置为在帧图像中,首先以上一帧目标的位置为中心,计算得到目标重心的起始位置多次重复计算目标重心直到相邻两次的计算结果满足收敛的条件为止,并将值赋给利用重心位置得到对应的目标位置将目标位置作为目标精确搜索的起始位置;在周围λc邻域范围内采用压缩跟踪检测目标,分类器响应最大值所对应的位置就是目标的位置。
4.根据权利要求3所述的基于快速压缩跟踪算法的尺度自适应目标跟踪方法,其特征在于:采用CAMShift算法更新目标尺度,尺度更新如下所示:
定义则跟踪窗的长度l和宽度w为
<mfenced open = "" close = ""> <mtable> <mtr> <mtd> <mrow> <mi>l</mi> <mo>=</mo> <msqrt> <mfrac> <mrow> <mi>a</mi> <mo>+</mo> <mi>c</mi> <mo>+</mo> <msqrt> <mrow> <msup> <mi>b</mi> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <mi>a</mi> <mo>-</mo> <mi>c</mi> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msqrt> </mrow> <mn>2</mn> </mfrac> </msqrt> </mrow> </mtd> <mtd> <mrow> <mi>w</mi> <mo>=</mo> <msqrt> <mfrac> <mrow> <mi>a</mi> <mo>+</mo> <mi>c</mi> <mo>-</mo> <msqrt> <mrow> <msup> <mi>b</mi> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <mi>a</mi> <mo>-</mo> <mi>c</mi> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msqrt> </mrow> <mn>2</mn> </mfrac> </msqrt> </mrow> </mtd> </mtr> </mtable> </mfenced>
尺度参数σ的更新公式如下:
<mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msubsup> <mi>s</mi> <mi>t</mi> <mo>&amp;prime;</mo> </msubsup> <mo>=</mo> <msqrt> <mfrac> <mrow> <mi>w</mi> <mrow> <mo>(</mo> <msubsup> <mi>o</mi> <mi>t</mi> <mo>*</mo> </msubsup> <mo>)</mo> </mrow> <mi>l</mi> <mrow> <mo>(</mo> <msubsup> <mi>o</mi> <mi>t</mi> <mo>*</mo> </msubsup> <mo>)</mo> </mrow> </mrow> <mrow> <mi>w</mi> <mrow> <mo>(</mo> <msubsup> <mi>o</mi> <mrow> <mi>t</mi> <mo>-</mo> <mn>1</mn> </mrow> <mo>*</mo> </msubsup> <mo>)</mo> </mrow> <mi>l</mi> <mrow> <mo>(</mo> <msubsup> <mi>o</mi> <mrow> <mi>t</mi> <mo>-</mo> <mn>1</mn> </mrow> <mo>*</mo> </msubsup> <mo>)</mo> </mrow> </mrow> </mfrac> </msqrt> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mover> <mi>s</mi> <mo>&amp;OverBar;</mo> </mover> <mo>=</mo> <mfrac> <mn>1</mn> <mi>n</mi> </mfrac> <msubsup> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </msubsup> <msubsup> <mi>s</mi> <mrow> <mi>t</mi> <mo>-</mo> <mn>1</mn> </mrow> <mo>&amp;prime;</mo> </msubsup> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>s</mi> <mrow> <mi>t</mi> <mo>+</mo> <mn>1</mn> </mrow> </msub> <mo>=</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <mi>&amp;lambda;</mi> <mo>)</mo> </mrow> <msub> <mi>s</mi> <mi>t</mi> </msub> <mo>+</mo> <mi>&amp;lambda;</mi> <msub> <mover> <mi>s</mi> <mo>&amp;OverBar;</mo> </mover> <mrow> <mi>t</mi> <mo>-</mo> <mn>1</mn> </mrow> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>&amp;sigma;</mi> <mrow> <mi>t</mi> <mo>+</mo> <mn>1</mn> </mrow> </msub> <mo>=</mo> <msub> <mi>s</mi> <mi>t</mi> </msub> <msub> <mi>&amp;sigma;</mi> <mi>t</mi> </msub> </mrow> </mtd> </mtr> </mtable> </mfenced>
式中,o*是当前帧的位置,s′t是相邻两帧目标尺度变化的估计值,为了降低估计误差和尺度更新的过分敏感,增强s′t的鲁棒性,引入对尺度变化估计值进行滤波,是所有尺度估计值的均值;λ为更新速度,是一个[0,1]之间的自然数。
5.根据权利要求2或3所述的基于快速压缩跟踪算法的尺度自适应目标跟踪方法,其特征在于:
所述的压缩跟踪是一种基于特征压缩的快速鲁棒跟踪算法,它利用一个非常稀疏的随机投影矩阵R对haar-like特征x进行压缩,提取压缩特征v,并利用朴素贝叶斯分类器对v进行分类进而实现目标跟踪;
特征压缩的计算公式为:
v=Rx
式中,满足Johnson-Lindenstrauss推论和压缩感知理论中的RIP前提;稀疏投影矩阵R的矩阵元素定义如下:
<mrow> <msub> <mi>r</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>=</mo> <msqrt> <mi>&amp;rho;</mi> </msqrt> <mo>&amp;times;</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mn>1</mn> <mo>,</mo> <mi>p</mi> <mo>=</mo> <mn>1</mn> <mo>/</mo> <mo>(</mo> <mn>2</mn> <mi>&amp;rho;</mi> <mo>)</mo> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> <mo>,</mo> <mi>p</mi> <mo>=</mo> <mn>1</mn> <mo>-</mo> <mn>1</mn> <mo>/</mo> <mi>&amp;rho;</mi> </mtd> </mtr> <mtr> <mtd> <mo>-</mo> <mn>1</mn> <mo>,</mo> <mi>p</mi> <mo>=</mo> <mn>1</mn> <mo>/</mo> <mo>(</mo> <mn>2</mn> <mi>&amp;rho;</mi> <mo>)</mo> </mtd> </mtr> </mtable> </mfenced> </mrow>
在提取样本的压缩特征v后,将v输入朴素贝叶斯分类器进行分类,将分类器响应最大值所对应的位置作为目标在新一帧的位置。
CN201711164884.4A 2017-11-21 2017-11-21 基于快速压缩跟踪算法的尺度自适应目标跟踪方法 Active CN108062557B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711164884.4A CN108062557B (zh) 2017-11-21 2017-11-21 基于快速压缩跟踪算法的尺度自适应目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711164884.4A CN108062557B (zh) 2017-11-21 2017-11-21 基于快速压缩跟踪算法的尺度自适应目标跟踪方法

Publications (2)

Publication Number Publication Date
CN108062557A true CN108062557A (zh) 2018-05-22
CN108062557B CN108062557B (zh) 2020-01-10

Family

ID=62134902

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711164884.4A Active CN108062557B (zh) 2017-11-21 2017-11-21 基于快速压缩跟踪算法的尺度自适应目标跟踪方法

Country Status (1)

Country Link
CN (1) CN108062557B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109859242A (zh) * 2019-01-16 2019-06-07 重庆邮电大学 一种预测自适应学习的目标跟踪方法
CN110166959A (zh) * 2019-05-15 2019-08-23 青岛农业大学 一种用于北斗短信息进行大数据通讯的压缩方法
CN110711718A (zh) * 2019-07-26 2020-01-21 广东邮政邮件快件服务有限公司 基于x光图像的快递包裹智能分拣***、方法及存储介质
CN111860189A (zh) * 2020-06-24 2020-10-30 北京环境特性研究所 一种目标跟踪方法和装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102129695A (zh) * 2010-01-19 2011-07-20 中国科学院自动化研究所 基于遮挡物建模的有遮挡情况下的目标跟踪方法
CN102881022A (zh) * 2012-07-20 2013-01-16 西安电子科技大学 基于在线学习的遮挡目标跟踪方法
CN104243916A (zh) * 2014-09-02 2014-12-24 江苏大学 一种基于压缩传感的运动目标检测和跟踪方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102129695A (zh) * 2010-01-19 2011-07-20 中国科学院自动化研究所 基于遮挡物建模的有遮挡情况下的目标跟踪方法
CN102881022A (zh) * 2012-07-20 2013-01-16 西安电子科技大学 基于在线学习的遮挡目标跟踪方法
CN104243916A (zh) * 2014-09-02 2014-12-24 江苏大学 一种基于压缩传感的运动目标检测和跟踪方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
GUO WEIWEI,YU WENXIAN: "a novel multilinear predictor for fast visual tracking", 《JOURNAL OF ELECTRONICS》 *
刘晴,唐林波,赵保军: "跟踪窗自适应的Mean Shift 目标跟踪算法", 《***工程与电子技术》 *
刘晴,赵保军: "尺度自适应的多模型压缩跟踪算法", 《***工程与电子技术》 *
刘晴: "基于区域特征的目标跟踪算法研究", 《中国博士研究生优秀论文库》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109859242A (zh) * 2019-01-16 2019-06-07 重庆邮电大学 一种预测自适应学习的目标跟踪方法
CN110166959A (zh) * 2019-05-15 2019-08-23 青岛农业大学 一种用于北斗短信息进行大数据通讯的压缩方法
CN110711718A (zh) * 2019-07-26 2020-01-21 广东邮政邮件快件服务有限公司 基于x光图像的快递包裹智能分拣***、方法及存储介质
CN111860189A (zh) * 2020-06-24 2020-10-30 北京环境特性研究所 一种目标跟踪方法和装置
CN111860189B (zh) * 2020-06-24 2024-01-19 北京环境特性研究所 一种目标跟踪方法和装置

Also Published As

Publication number Publication date
CN108062557B (zh) 2020-01-10

Similar Documents

Publication Publication Date Title
Suruliandi et al. Local binary pattern and its derivatives for face recognition
Cai et al. HOG-assisted deep feature learning for pedestrian gender recognition
Chan et al. Classification and retrieval of traffic video using auto-regressive stochastic processes
CN108062557B (zh) 基于快速压缩跟踪算法的尺度自适应目标跟踪方法
Li et al. Saliency model-based face segmentation and tracking in head-and-shoulder video sequences
Filali et al. Multiple face detection based on machine learning
CN113298189A (zh) 一种基于无监督域自适应的跨域图像分类方法
Xie et al. Video based head detection and tracking surveillance system
Biswas et al. Face recognition in low-resolution videos using learning-based likelihood measurement model
Tathe et al. Human face detection and recognition in videos
Tavakkoli et al. Incremental SVDD training: improving efficiency of background modeling in videos
Corvee et al. Combining face detection and people tracking in video sequences
Sun et al. Learning based particle filtering object tracking for visible-light systems
Gui et al. Pedestrian detection based on modified dynamic background using Gaussian mixture models and HOG-SVM detection
Deboeverie et al. Face analysis using curve edge maps
Kumar et al. Pixel-based skin color classifier: A review
Wang A learning-based human facial image quality evaluation method in video-based face recognition systems
Li et al. Online background learning for illumination-robust foreground detection
Nilsson et al. On histograms and spatiograms-introduction of the mapogram
Fu et al. Research on Video Object Tracking Based on Improved Camshift Algorithm
He et al. Recent advance on mean shift tracking: A survey
Song et al. Subsampling-based HOG for Multi-scale real-time Pedestrian Detection
Sayed et al. Robust Hand Gesture Recognition Using HOG Features and machine learning
Yao et al. Algorithm for Target tracking using modified image filtering based on statistical features and GMM image modeling
Sahbi et al. Accurate face detection based on coarse segmentation and fine skin color adaption

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20210112

Address after: Room 3003-1, building 1, Gaode land center, Jianggan District, Hangzhou City, Zhejiang Province

Patentee after: Zhejiang Zhiduo Network Technology Co.,Ltd.

Address before: 310018 No. 2 street, Xiasha Higher Education Zone, Hangzhou, Zhejiang

Patentee before: HANGZHOU DIANZI University

Effective date of registration: 20210112

Address after: 314500 Tongxiang City, Jiaxing, Zhejiang, Tung Tung Road, Wu Tung Street (East) 55, Tongxiang chamber of Commerce Building 1 unit 1702, 1703 room -A-220

Patentee after: Jiaxing Beixi Electromechanical Equipment Co.,Ltd.

Address before: Room 3003-1, building 1, Gaode land center, Jianggan District, Hangzhou City, Zhejiang Province

Patentee before: Zhejiang Zhiduo Network Technology Co.,Ltd.

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20210401

Address after: No.49, Donghai West Road, Qingdao, Shandong 266000

Patentee after: Qingdao Engineering Consulting Institute

Address before: 314500 Tongxiang City, Jiaxing, Zhejiang, Tung Tung Road, Wu Tung Street (East) 55, Tongxiang chamber of Commerce Building 1 unit 1702, 1703 room -A-220

Patentee before: Jiaxing Beixi Electromechanical Equipment Co.,Ltd.

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20210609

Address after: 266071 1st and 3rd floors, No.49, Donghai West Road, Shinan District, Qingdao, Shandong Province

Patentee after: Qingdao Qingzi Engineering Consulting Co.,Ltd.

Address before: No.49, Donghai West Road, Qingdao, Shandong 266000

Patentee before: Qingdao Engineering Consulting Institute