CN109670410A - 一种基于多特征的融合的长时运动目标跟踪方法 - Google Patents
一种基于多特征的融合的长时运动目标跟踪方法 Download PDFInfo
- Publication number
- CN109670410A CN109670410A CN201811439041.5A CN201811439041A CN109670410A CN 109670410 A CN109670410 A CN 109670410A CN 201811439041 A CN201811439041 A CN 201811439041A CN 109670410 A CN109670410 A CN 109670410A
- Authority
- CN
- China
- Prior art keywords
- target
- frame
- feature
- follows
- fern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 230000004927 fusion Effects 0.000 title claims abstract description 21
- 238000001514 detection method Methods 0.000 claims abstract description 19
- 230000004044 response Effects 0.000 claims abstract description 12
- 238000001914 filtration Methods 0.000 claims abstract description 11
- 238000010586 diagram Methods 0.000 claims abstract description 6
- 239000013598 vector Substances 0.000 claims description 17
- 239000011159 matrix material Substances 0.000 claims description 15
- 102000008297 Nuclear Matrix-Associated Proteins Human genes 0.000 claims description 3
- 108010035916 Nuclear Matrix-Associated Proteins Proteins 0.000 claims description 3
- 230000009471 action Effects 0.000 claims description 3
- 238000005352 clarification Methods 0.000 claims description 3
- 238000005314 correlation function Methods 0.000 claims description 3
- 125000004122 cyclic group Chemical group 0.000 claims description 3
- 239000000203 mixture Substances 0.000 claims description 3
- 210000000299 nuclear matrix Anatomy 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims 1
- 230000006870 function Effects 0.000 description 14
- 230000008859 change Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 2
- 241000195940 Bryophyta Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于多特征的融合的长时运动目标跟踪方法,属于计算机视觉领域。本发明首先在第一帧初始化目标所在的区域与目标周围的上下文信息区域,用HOG特征融合HSV颜色特征来训练位置滤波器;然后在下一帧的目标区域中提取特征与上一帧进行对比,计算得出置信值,得到响应图,选取响应值最大的位置即为目标所在的位置;定义一个阈值,在目标发生丢失的时候,激活重检测的功能,使用在线随机蕨分类器,在满足最大置信分数小于这个阈值的时候,就开始在整幅图像上重新检测目标。
Description
技术领域
本发明涉及一种基于多特征的融合的长时运动目标跟踪方法,属于复杂场景下对运动目标的实时跟踪技术领域。
背景技术
视频跟踪是机器视觉领域的基础问题之一,它是目标识别,行为识别等后续应用的基础,在航空和航天,社会安全等重大项目中有着广阔的应用前景;视频跟踪可以用在自动监控、视频索引、人机交互、交通监控、车辆导航等方面。然而,由于物体的突然运动、目标或者背景外观的改变、目标遮挡、非刚性形变以及摄像机的抖动等外在因素的变化,进行鲁棒的跟踪仍然面临着很大的挑战。
由于相关滤波方法的高效性,Bolme等提出了最小输入平方误差和(MinimumOutput Sum of Square Error,MOSSE)算法,采用灰度特征进行跟踪,它克服了目标尺度形变的情况,对目标外观的变化有着较强的鲁棒性。Henriques等[1]提出了循环结构的检测跟踪(Circulant Structure of Tracking-by-Detection with Kernel,CSK)算法,采用正则化最小二乘分类器实现对目标的跟踪。之后Henriques等又提出了基于核相关滤波器(Kernel Correlation Filter)的跟踪算法,使用目标的方向梯度(Histogram ofOriented Gradients)特征来替代了CSK算法中所使用的灰度特征,对跟踪效果有了进一步提升。K Zhang等人提出基于时空上下文的快速跟踪方法(Fast Visual Tracking viaDense Spatio-Temporal Context Learning),融合目标周围的空间信息进行跟踪。上述的算法都仅采用了一种特征进行特征描述,对于有着多种特征的目标跟踪的结果并不是很精确,而且在目标发生遮挡或者丢失的时候并不能做出很好的处理,容易将错误信息一直累计导致目标彻底丢失。
发明内容
本发明要解决的问题为提供一种基于多特征的融合的长时运动目标跟踪方法,用已解决现有的仅利用单一特征跟踪对目标发生形变等情况的表现不够好,并且在丢失目标后很难再跟回的缺点。
本发明采用的技术方案为:首先在第一帧初始化目标所在的区域与目标周围的上下文信息区域,用方向梯度直方图(Histogram of Oriented Grandient,HOG)特征融合HSV颜色特征来训练位置滤波器;然后在下一帧的目标区域中提取特征与上一帧进行对比,计算得出置信值,得到响应图,选取响应值最大的位置即为目标所在的位置;定义一个阈值,在目标发生丢失的时候,激活重检测的功能,使用在线随机蕨分类器,在满足最大置信分数小于这个阈值的时候,就开始在整幅图像上重新检测目标。
所述方法的具体步骤如下:
Step1:初始化目标并选取目标区域以及上下文空间区域;
Step2:提取目标区域以及上下文空间区域的方向梯度直方图特征以及HSV颜色特征进行融合作为训练样本,训练出一个位置滤波器模型;
Step3:计算比较新一帧与前一帧的置信分数,得到特征的响应图,选取置信值最大的位置为目标所在位置;
Step4:在最大置信分数小于预定义的阈值时,激活重检测功能,使用在线随机蕨分类器,开始在整幅图像上重新检测目标。
Step5:更新模型,更新在线随机蕨检测器,直到视频序列结束。
所述步骤Step1的具体步骤如下:
Step1.1、初始化目标,采用循环位移的方法采集样本,使用循环矩阵训练分类器,把数据矩阵转换成一个循环矩阵。
Step1.2、根据第一帧目标框两倍的大小选取目标的上下文信息区域。
所述Step2的具体步骤为:
Step2.1、提取目标框两倍大小区域的上下文信息的HOG和HSV颜色特征进行融合,采用特征向量的多通道的特征串联表示,由于核相关函数只需要计算点积和向量的范数,所以就可以通过多通道提取图像特征,假设数据表示的多个通道用一个向量d=[d1,d2,...,dC]表示,可以对多个特征进行融合采用的高斯核函数可以表示为:
式中kdd’表示所求的高斯核函数的结果;σ表示带宽,控制高斯核函数的局部作用范围;d与d’分别代表两个多通道向量;||d||表示二范数;F-1表示逆傅里叶变换;^代表离散傅里叶变换,⊙代表矩阵元素级的乘法,而*代表复共轭。
所述Step3的具体步骤为:
Step3.1、在已知第一帧目标位置情况下,建立一个滤波器Rc,考虑目标的特征与背景的特征,并且用下式进行逐帧更新
其中和分别代表当前帧目标模型和上下文模型的滤波模板,t代表当前帧,η为学习率。
Step3.2、当输入新一帧的图像时,计算其置信图,找到置信图最大的位置即为新一帧目标的中心位置。其中响应值最大位置为:
其中z表示新一帧的输入;可以由式(1)计算得出;且kxx表示核矩阵的第一行,x表示一个样本的特征向量的一行样本矩阵,y表示x对应的每个回归值组成的列向量,^代表离散傅里叶变换,λ是防止过拟合的正则化参数。
所述Step4的具体步骤为:
Step4.1、在最大置信分数小于预定义的阈值Гr时,激活重检测功能,使用在线随机蕨分类器,当满足max(f(z))<Гr的情况时,开始在整幅图像上重新检测目标。在满足max(f(z))>Гr的情况时,设这个点的位置为目标新的位置。令ci,i∈{0,1}为类别标签,fj,j∈{1,2,…,N}为一系列的二元特征,它们组合在一起被称为蕨。每个蕨的特征的联合分布为:
其中Fk={fσ(k,0),fσ(k,2),...,fσ(k,N)}代表第k个蕨,σ(k,n)是随机惩罚函数。对于每一个蕨Fk,它的条件概率可以写为 为第k个蕨的ci类训练样本的个数,根据贝叶斯的角度来看,最优类ci可由如下公式所得:
所述Step5的具体步骤为:
Step5.1、用式(2)与式(3)更新滤波器,更新在线随机蕨分类器。算法结束,下一帧进入时,重复Step3,若激活了重检测功能,重复Step3与Step4直至视频序列结束。
本发明的有益效果是:
1、使用特征融合的方法:
如果仅采用单一特征对需要跟踪的目标进行跟踪,目标的大部分特征都不能很好地被采用,例如:在单独使用HOG特征时,***对目标的运动模糊或者光照变化时的鲁棒性虽然还不错,但是在发生形变或者快速运动的情况时,却容易跟丢目标。而HSV颜色空间特征在目标发生形变或者快速运动的情况下受到的影响比较小,因为目标在这些干扰下,目标的颜色特征并不会发生太大的变化,所以这两种特征可以进行互补,提升整体的跟踪效果。因此,本发明将这两种特征进行融合用于描述目标特征,在目标处于形变或者是快速运动等负面因素的影响下,还是可以精确地跟踪到目标,极大地提高了跟踪的准确性。
2、考虑目标周围的上下文信息:
大部分的相关滤波方法在跟踪目标的时候,没有把目标周围的相关信息考虑进去,而在连续的帧间,目标周围的局部场景还是存在着很强烈的时空关系,在目标在某一帧发生遮挡的情况下,局部空间上下文信息并不会发生太大的改变,并且有助于把目标与背景信息区分开。本文考虑了目标周围的上下文空间信息,在目标发生局部遮挡的情况下,还是能通过目标周围的上下文时空信息来判断目标是否还处于原位置,以此来提高跟踪的稳定性。
3、采用在线随机蕨分类器进行重检测:
一般的相关滤波方法,采用逐帧更新方法,在目标发生丢失的情况下,还是继续更新模型,导致目标距离跟踪框越来越远,最终再也跟不上,导致失败。本发明采用重检测方法,使用在线随机蕨分类器,在目标发生丢失的情况下,既当满足max(f(z))<Гr的情况时,开始在整幅图像上重新检测目标。在满足max(f(z))>Гr的情况时,设这个点的位置为目标新的位置。以此提高算法的稳定性。
附图说明
图1为本发明中方法流程图;
图2为本发明具体实施例中连续视频在70帧时与现有方法的状态对比结果图。
图3为本发明具体实施例中连续视频在100帧时与现有方法的状态对比结果图。
具体实施方式
下面结合附图和具体实施例,对本发明作进一步的说明。
实施例1:如图1-3所示,基于多特征融合的长时运动目标跟踪方法,所述方法的具体步骤如下:
Step1:初始化目标并选取目标区域以及上下文空间区域;
Step2:提取目标区域以及上下文空间区域的方向梯度直方图特征以及HSV颜色特征进行融合作为训练样本,训练出一个位置滤波器模型;
Step3:计算比较新一帧与前一帧的置信分数,得到特征的响应图,选取置信值最大的位置为目标所在位置;
Step4:在最大置信分数小于预定义的阈值时,激活重检测功能,使用在线随机蕨分类器,开始在整幅图像上重新检测目标。
Step5:更新模型,更新在线随机蕨检测器,直到视频序列结束。
所述步骤Step1的具体步骤如下:
Step1.1、初始化目标,采用循环位移的方法采集样本,使用循环矩阵训练分类器,把数据矩阵转换成一个循环矩阵。
Step1.2、根据第一帧目标框两倍的大小选取目标的上下文信息区域。
所述Step2的具体步骤为:
Step2.1、提取目标框两倍大小区域的上下文信息的HOG和HSV颜色特征进行融合,采用特征向量的多通道的特征串联表示,由于核相关函数只需要计算点积和向量的范数,所以就可以通过多通道提取图像特征,假设数据表示的多个通道用一个向量d=[d1,d2,...,dC]表示,可以对多个特征进行融合采用的高斯核函数可以表示为:
式中kdd’表示所求的高斯核函数的结果;σ表示带宽,控制高斯核函数的局部作用范围;d与d’分别代表两个多通道向量;||d||表示二范数;F-1表示逆傅里叶变换;^代表离散傅里叶变换,⊙代表矩阵元素级的乘法,而*代表复共轭。
所述Step3的具体步骤为:
Step3.1、在已知第一帧目标位置情况下,建立一个滤波器Rc,考虑目标的特征与背景的特征,并且用下式进行逐帧更新
其中和分别代表当前帧目标模型和上下文模型的滤波模板,t代表当前帧,η为学习率。
Step3.2、当输入新一帧的图像时,计算其置信图,找到置信图最大的位置即为新一帧目标的中心位置。其中响应值最大位置为:
其中z表示新一帧的输入;可以由式(1)计算得出;且kxx表示核矩阵的第一行,x表示一个样本的特征向量的一行样本矩阵,y表示x对应的每个回归值组成的列向量,^代表离散傅里叶变换,λ是防止过拟合的正则化参数。
所述Step4的具体步骤为:
Step4.1、在最大置信分数小于预定义的阈值Гr时,激活重检测功能,使用在线随机蕨分类器,当满足max(f(z))<Гr的情况时,开始在整幅图像上重新检测目标。在满足max(f(z))>Гr的情况时,设这个点的位置为目标新的位置。令ci,i∈{0,1}为类别标签,fj,j∈{1,2,…,N}为一系列的二元特征,它们组合在一起被称为蕨。每个蕨的特征的联合分布为:
其中Fk={fσ(k,0),fσ(k,2),...,fσ(k,N)}代表第k个蕨,σ(k,n)是随机惩罚函数。对于每一个蕨Fk,它的条件概率可以写为 为第k个蕨的ci类训练样本的个数,根据贝叶斯的角度来看,最优类ci可由如下公式所得:
所述Step5的具体步骤为:
Step5.1、用式(2)与式(3)更新滤波器,更新在线随机蕨分类器。算法结束,下一帧进入时,重复Step3,若激活了重检测功能,重复Step3与Step4直至视频序列结束。
下面通过选取OTB(Online Object Tracking:a Benchmark)上的23段具有一定挑战性的视频对本算法进行评估,包含的干扰因素有遮挡、形变、背景杂波、旋转、快速运动等。
将本发明的算法与其它几种现有算法进行对比,对比结果如表1所示:
表1:
表1中数据粗体的为最优结果,从表1中可以看出,本算法的平均中心位置误差CLE,pixels)相对于KCF,CN,DSST,CSK分别提高29.51,43.13,28.29,50.06。平均距离精度(DP,%)分别提高23.87,34.96,20.72,40.04。
如图2所示,目标在70帧左右被完全遮挡,目标响应值小于预定的阈值,激活了重检测模块,如图3所示,当后续帧中,目标再度出现的时候,当响应值大于预定阈值时,重新检测到目标。本发明方法可以较好地处理类似情况,并且跟上目标。其它几个算法中,因为没有重检测的模块,所以在目标发生遮挡或者丢失等情况下不能很好的进行处理。
本发明在基于KCF算法的基础上,考虑了目标周围的上下文时空信息,加入HSV颜色特征与HOG特征进行融合,对目标特征的描述更加细致,提高了跟踪的精确度;并且采用重检测的方法,当目标发生丢失的时候,到达一定的阈值,便激活重检测功能,在整幅图像上重新定位目标所在的位置,极大地提高目标跟踪的稳定性。
上面结合附图对本发明的具体实施方式作了详细说明,但是本发明并不限于上述实施方式,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下作出各种变化。
Claims (6)
1.一种基于多特征的融合的长时运动目标跟踪方法,其特征在于:具体步骤如下:
Step1:初始化目标并选取目标区域以及上下文空间区域;
Step2:提取目标区域以及上下文空间区域的方向梯度直方图特征以及HSV颜色特征进行融合作为训练样本,训练出一个位置滤波器模型;
Step3:计算比较新一帧与前一帧的置信分数,得到特征的响应图,选取置信值最大的位置为目标所在位置;
Step4:在最大置信分数小于预定义的阈值时,激活重检测功能,使用在线随机蕨分类器,开始在整幅图像上重新检测目标;
Step5:更新模型,更新在线随机蕨检测器,直到视频序列结束。
2.根据权利要求1所述的基于多特征的融合的长时运动目标跟踪方法,其特征在于:所述步骤Step1的具体步骤如下:
Step1.1、初始化目标,采用循环位移的方法采集样本,使用循环矩阵训练分类器,把数据矩阵转换成一个循环矩阵;
Step1.2、根据第一帧目标框两倍的大小选取目标的上下文信息区域。
3.根据权利要求2所述的基于多特征的融合的长时运动目标跟踪方法,所述步骤Step2的具体步骤如下:
Step2.1、提取目标框两倍大小区域的上下文信息的HOG和HSV颜色特征进行融合,采用特征向量的多通道的特征串联表示,由于核相关函数只需要计算点积和向量的范数,所以就通过多通道提取图像特征,假设数据表示的多个通道用一个向量d=[d1,d2,...,dC]表示,可以对多个特征进行融合采用的高斯核函数可以表示为:
式中kdd’表示所求的高斯核函数的结果;σ表示带宽,控制高斯核函数的局部作用范围;d与d’分别代表两个多通道向量;||d||表示二范数;F-1表示逆傅里叶变换;^代表离散傅里叶变换,⊙代表矩阵元素级的乘法,而*代表复共轭。
4.根据权利要求3所述的基于多特征的融合的长时运动目标跟踪方法,所述步骤Step3的具体步骤如下:
Step3.1、在已知第一帧目标位置情况下,建立一个滤波器Rc,考虑目标的特征与背景的特征,并且用下式进行逐帧更新
其中和分别代表当前帧目标模型和上下文模型的滤波模板,t代表当前帧,η为学习率;
Step3.2、当输入新一帧的图像时,计算其置信图,找到置信图最大的位置即为新一帧目标的中心位置,其中响应值最大位置为:
其中z表示新一帧的输入;可以由式(1)计算得出;且kxx表示核矩阵的第一行,x表示一个样本的特征向量的一行样本矩阵,y表示x对应的每个回归值组成的列向量,^代表离散傅里叶变换,λ是防止过拟合的正则化参数。
5.根据权利要求4所述的基于多特征的融合的长时运动目标跟踪方法,所述步骤Step4的具体步骤如下:
Step4.1、在最大置信分数小于预定义的阈值Гr时,激活重检测功能,使用在线随机蕨分类器,当满足max(f(z))<Гr的情况时,开始在整幅图像上重新检测目标,在满足max(f(z))>Гr的情况时,设这个点的位置为目标新的位置,令ci,i∈{0,1}为类别标签,fj,j∈{1,2,…,N}为一系列的二元特征,它们组合在一起被称为蕨,每个蕨的特征的联合分布为:
其中Fk={fσ(k,0),fσ(k,2),...,fσ(k,N)}代表第k个蕨,σ(k,n)是随机惩罚函数,对于每一个蕨Fk,它的条件概率可以写为 为第k个蕨的ci类训练样本的个数,根据贝叶斯的角度来看,最优类ci可由如下公式所得:
6.根据权利要求5所述的基于多特征的融合的长时运动目标跟踪方法,所述步骤Step5的具体步骤如下:
Step5.1、用式(2)与式(3)更新滤波器,更新在线随机蕨分类器,算法结束,下一帧进入时,重复Step3,若激活了重检测功能,重复Step3与Step4直至视频序列结束。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811439041.5A CN109670410A (zh) | 2018-11-29 | 2018-11-29 | 一种基于多特征的融合的长时运动目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811439041.5A CN109670410A (zh) | 2018-11-29 | 2018-11-29 | 一种基于多特征的融合的长时运动目标跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109670410A true CN109670410A (zh) | 2019-04-23 |
Family
ID=66143290
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811439041.5A Pending CN109670410A (zh) | 2018-11-29 | 2018-11-29 | 一种基于多特征的融合的长时运动目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109670410A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110378932A (zh) * | 2019-07-10 | 2019-10-25 | 上海交通大学 | 一种基于空间正则矫正的相关滤波视觉跟踪算法 |
CN110569855A (zh) * | 2019-08-08 | 2019-12-13 | 北京航科威视光电信息技术有限公司 | 基于相关滤波与特征点匹配融合的长时间目标跟踪算法 |
CN111210461A (zh) * | 2019-12-30 | 2020-05-29 | 成都慧视光电技术有限公司 | 一种自适应尺度变化的实时相关滤波跟踪算法 |
CN111862151A (zh) * | 2020-06-23 | 2020-10-30 | 北京轩宇空间科技有限公司 | 用于目标跟踪的方法及装置、设备 |
CN114089364A (zh) * | 2021-11-18 | 2022-02-25 | 智能移动机器人(中山)研究院 | 一种集成化的感知***装置及实现方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160239982A1 (en) * | 2014-08-22 | 2016-08-18 | Zhejiang Shenghui Lighting Co., Ltd | High-speed automatic multi-object tracking method and system with kernelized correlation filters |
CN106557774A (zh) * | 2015-09-29 | 2017-04-05 | 南京信息工程大学 | 多通道核相关滤波的实时跟踪方法 |
CN107103616A (zh) * | 2017-04-27 | 2017-08-29 | 中国科学院长春光学精密机械与物理研究所 | 一种目标跟踪方法及*** |
CN107316316A (zh) * | 2017-05-19 | 2017-11-03 | 南京理工大学 | 基于多特征自适应融合和核相关滤波技术的目标跟踪方法 |
CN107452015A (zh) * | 2017-07-28 | 2017-12-08 | 南京工业职业技术学院 | 一种具有重检测机制的目标跟踪*** |
CN108062764A (zh) * | 2017-11-30 | 2018-05-22 | 极翼机器人(上海)有限公司 | 一种基于视觉的物体跟踪方法 |
CN108198201A (zh) * | 2017-12-19 | 2018-06-22 | 深圳市深网视界科技有限公司 | 一种多目标跟踪方法、终端设备及存储介质 |
CN108647694A (zh) * | 2018-04-24 | 2018-10-12 | 武汉大学 | 基于上下文感知和自适应响应的相关滤波目标跟踪方法 |
-
2018
- 2018-11-29 CN CN201811439041.5A patent/CN109670410A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160239982A1 (en) * | 2014-08-22 | 2016-08-18 | Zhejiang Shenghui Lighting Co., Ltd | High-speed automatic multi-object tracking method and system with kernelized correlation filters |
CN106557774A (zh) * | 2015-09-29 | 2017-04-05 | 南京信息工程大学 | 多通道核相关滤波的实时跟踪方法 |
CN107103616A (zh) * | 2017-04-27 | 2017-08-29 | 中国科学院长春光学精密机械与物理研究所 | 一种目标跟踪方法及*** |
CN107316316A (zh) * | 2017-05-19 | 2017-11-03 | 南京理工大学 | 基于多特征自适应融合和核相关滤波技术的目标跟踪方法 |
CN107452015A (zh) * | 2017-07-28 | 2017-12-08 | 南京工业职业技术学院 | 一种具有重检测机制的目标跟踪*** |
CN108062764A (zh) * | 2017-11-30 | 2018-05-22 | 极翼机器人(上海)有限公司 | 一种基于视觉的物体跟踪方法 |
CN108198201A (zh) * | 2017-12-19 | 2018-06-22 | 深圳市深网视界科技有限公司 | 一种多目标跟踪方法、终端设备及存储介质 |
CN108647694A (zh) * | 2018-04-24 | 2018-10-12 | 武汉大学 | 基于上下文感知和自适应响应的相关滤波目标跟踪方法 |
Non-Patent Citations (5)
Title |
---|
CHAO MA 等: "Long-term correlation tracking", 《2015 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》, 15 October 2015 (2015-10-15), pages 5388 - 5396 * |
GUO DE-QUAN 等: "An Adaptive KCF Tracking Via Multi-feature Fusion", 《2017 INTERNATIONAL CONFERENCE ON VIRTUAL REALITY AND VISUALIZATION》, 22 October 2017 (2017-10-22), pages 255 - 260, XP033554136, DOI: 10.1109/ICVRV.2017.00059 * |
李凯等: "基于分块的多特征融合变尺度目标跟踪算法", 《电视技术》, no. 01, 17 January 2017 (2017-01-17), pages 6 - 13 * |
杨德东等: "采用核相关滤波器的长期目标跟踪", 《光学精密工程》, no. 08, 15 August 2016 (2016-08-15), pages 2037 - 2049 * |
魏全禄等: "基于相关滤波器的视觉目标跟踪综述", 《计算机科学》, no. 11, 15 November 2016 (2016-11-15), pages 1 - 5 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110378932A (zh) * | 2019-07-10 | 2019-10-25 | 上海交通大学 | 一种基于空间正则矫正的相关滤波视觉跟踪算法 |
CN110378932B (zh) * | 2019-07-10 | 2023-05-12 | 上海交通大学 | 一种基于空间正则矫正的相关滤波视觉跟踪方法 |
CN110569855A (zh) * | 2019-08-08 | 2019-12-13 | 北京航科威视光电信息技术有限公司 | 基于相关滤波与特征点匹配融合的长时间目标跟踪算法 |
CN110569855B (zh) * | 2019-08-08 | 2023-01-24 | 北京航科威视光电信息技术有限公司 | 基于相关滤波与特征点匹配融合的长时间目标跟踪方法 |
CN111210461A (zh) * | 2019-12-30 | 2020-05-29 | 成都慧视光电技术有限公司 | 一种自适应尺度变化的实时相关滤波跟踪算法 |
CN111210461B (zh) * | 2019-12-30 | 2023-06-02 | 成都慧视光电技术有限公司 | 一种自适应尺度变化的实时相关滤波跟踪算法 |
CN111862151A (zh) * | 2020-06-23 | 2020-10-30 | 北京轩宇空间科技有限公司 | 用于目标跟踪的方法及装置、设备 |
CN114089364A (zh) * | 2021-11-18 | 2022-02-25 | 智能移动机器人(中山)研究院 | 一种集成化的感知***装置及实现方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109670410A (zh) | 一种基于多特征的融合的长时运动目标跟踪方法 | |
Masita et al. | Deep learning in object detection: A review | |
Hu et al. | Single and multiple object tracking using a multi-feature joint sparse representation | |
Wang et al. | An experimental comparison of online object-tracking algorithms | |
Chen et al. | Dynamically modulated mask sparse tracking | |
CN101324958A (zh) | 一种目标跟踪方法及装置 | |
Wang et al. | Review on kernel based target tracking for autonomous driving | |
CN111027586A (zh) | 一种基于新型响应图融合的目标跟踪方法 | |
CN103413312A (zh) | 基于邻里成分分析和尺度空间理论的视频目标跟踪方法 | |
Naiel et al. | Multi-view human action recognition system employing 2DPCA | |
Li et al. | A bottom-up and top-down integration framework for online object tracking | |
CN114627339A (zh) | 茂密丛林区域对越境人员的智能识别跟踪方法及存储介质 | |
Huang et al. | Small target detection model in aerial images based on TCA-YOLOv5m | |
Qian et al. | Video-based multiclass vehicle detection and tracking | |
Rasol et al. | N-fold Bernoulli probability based adaptive fast-tracking algorithm and its application to autonomous aerial refuelling | |
Lin et al. | COB method with online learning for object tracking | |
Li | Research on camera-based human body tracking using improved cam-shift algorithm | |
Lin et al. | An object tracking method based on CNN and optical flow | |
Ren et al. | Robust visual tracking based on scale invariance and deep learning | |
Awal et al. | A Particle Filter Based Visual Object Tracking: A Systematic Review of Current Trends and Research Challenges. | |
Wang | MRCNNAM: Mask Region Convolutional Neural Network Model Based On Attention Mechanism And Gabor Feature For Pedestrian Detection | |
Isayev et al. | Investigation of optimal configurations of a convolutional neural network for the identification of objects in real-time | |
Yang et al. | Adaptively self-driving tracking algorithm based on particle filter | |
Ji et al. | A Comparative Study and Simulation of Object Tracking Algorithms | |
Yi et al. | Pedestrian detection based on Visconti2 7502 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190423 |
|
RJ01 | Rejection of invention patent application after publication |