CN109285179A - 一种基于多特征融合的运动目标跟踪方法 - Google Patents
一种基于多特征融合的运动目标跟踪方法 Download PDFInfo
- Publication number
- CN109285179A CN109285179A CN201810834082.8A CN201810834082A CN109285179A CN 109285179 A CN109285179 A CN 109285179A CN 201810834082 A CN201810834082 A CN 201810834082A CN 109285179 A CN109285179 A CN 109285179A
- Authority
- CN
- China
- Prior art keywords
- target
- frame
- feature
- training
- filter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 230000004927 fusion Effects 0.000 title claims abstract description 32
- 238000012549 training Methods 0.000 claims abstract description 68
- 230000004044 response Effects 0.000 claims abstract description 51
- 238000001914 filtration Methods 0.000 claims abstract description 44
- 238000010586 diagram Methods 0.000 claims abstract description 24
- 238000001514 detection method Methods 0.000 claims abstract description 18
- 238000010276 construction Methods 0.000 claims abstract description 7
- 238000004364 calculation method Methods 0.000 claims description 8
- 239000000284 extract Substances 0.000 claims description 7
- 230000000903 blocking effect Effects 0.000 claims description 3
- 239000000203 mixture Substances 0.000 claims description 3
- 230000009467 reduction Effects 0.000 claims description 3
- 239000004576 sand Substances 0.000 claims description 3
- 238000005286 illumination Methods 0.000 description 3
- 241000195940 Bryophyta Species 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于多特征融合的运动目标跟踪方法,属于计算机视觉领域。本发明首先在第一帧图像中,初始化目标区域,分别利用方向直方图和颜色特征训练两个位置滤波器;其次在后续帧目标周围提取两种特征的检测样本,分别计算两个检测样本与上一步中训练得到的各自位置滤波器的相关得分,即得到不同特征的响应图;再次根据不同特征响应图的峰值旁瓣比,加权融合两种特征响应值,选取响应值最大的点作为目标当前中心位置;然后利用方向梯度直方图特征构建尺度金字塔训练尺度滤波器,并得到响应值最大点作为目标当前尺度;最后根据每帧最终响应图的峰值旁边比,判断是否发生遮挡,遮挡情况下,不更新位置滤波器。
Description
技术领域
本发明公开了一种基于多特征融合的运动目标跟踪方法,属于计算机视觉领域。
背景技术
目标跟踪是计算机视觉领域的一个热点,被广泛应用于视频监控、机器人学习、工业智能化等方面。其本质是在一段连续视频序列图像中找到目标的位置和状态。虽然目前目标跟踪已经取得很大进展,但因受到遮挡、光照变化和尺度变化等众多因素影响,它仍然是一个具有挑战性的问题。
近年来,由于相关滤波器算法的显著效果,许多学者将相关滤波器引入到目标跟踪框架中。相关滤波器目标跟踪算法中特征的选择对跟踪的性能影响很大。其中,Bolme等提出的最小化输出平方误差和(Minimun Output Sum of Square Error,MOSSE)算法,仅采用灰度特征进行跟踪,Henriques等提出将以往单通道灰度特征拓展到多通道,采用方向梯度特征(Histogram of Oriented Gridients,HOG)跟踪目标的(Kernel CorrelationFilter,KCF)算法,提高了跟踪的准确度。Danelljan等在算法中加入颜色特征,并利用主成分分析(Principal Component Analysis,PCA)对颜色特征CN降维处理,在彩***序列中应用效果不错。Danelljan M等在MOSSE的基础上提出利用HOG特征构建尺度金字塔进行目标尺度估计的DSST算法。上述算法都仅使用单一特征描述目标,无法较全面的表达目标,在不同场景下跟踪性能有较大差异。另外,上述算法都采用逐帧固定更新滤波器模型的方式,但每帧跟踪情况各不相同,容易将错误的信息加到目标模型中,而导致后续跟踪败。
发明内容
本发明要解决的技术问题是提供一种基于多特征融合的运动目标跟踪方法,用以解决现有单特征描述目标,无法全面的表达目标,在不同场景下跟踪性能差异较大的缺陷,并且解决了逐帧固定更新滤波器模型时,容易将错误信息加到目标模型中而导致跟踪失败的问题。
本发明采用的技术方案是:一种基于多特征融合的运动目标跟踪方法,方法将目标跟踪中采用单一特征描述目标和传统模型更新方法改进为多特征融合和选择性更新模型方法。首先在第一帧图像中,初始化目标区域,分别利用方向直方图(Histogram ofOriented Gradient,HOG)和颜色(Color Name,CN)特征训练两个位置滤波器;其次在新一帧目标区域中分别提取两种特征得到两个检测样本,分别计算两个检测样本与上一步中训练得到的各自位置滤波器的相关得分,即得到不同特征的响应图;再次根据不同特征响应图的峰值旁瓣比,加权融合两种特征响应值,选取响应值最大的点作为目标当前中心位置;然后利用HOG特征构建尺度金字塔训练尺度滤波器,并得到响应值最大点作为目标当前尺度;最后根据每帧最终响应图的峰值旁边比,判断是否发生遮挡,遮挡情况下,不更新位置滤波器。
所述方法的具体步骤如下:
Step1、初始化目标并选取目标区域;
Step2、提取目标区域方向梯度直方图特征作为训练样本,同时提取目标区域颜色特征作为另一个训练样本。用两个训练样本训练各自的位置滤波器模型;
Step3、在新一帧目标区域中分别提取两种特征得到两个检测样本,分别计算两个检测样本与上一步中训练得到的各自位置滤波器的相关得分,即得到不同特征的响应图;
Step4、计算不同特征的响应图的峰值旁瓣比,根据其加权融合两种特征响应值,选取最大值处作为目标当前位置;
Step5、在当前目标区域,通过HOG特征构建尺度金字塔训练尺度滤波器,获取尺度响应最大值作为目标当前尺度;
Step6、更新尺度滤波器模型;
Step7、根据每帧最终位置响应图的峰值旁瓣比,判断目标是否发生遮挡,如果是重复步骤3至6,如果没有出现遮挡进入步骤8;
Step8、更新位置滤波器模型;
Step9、重复步骤3至8直到跟踪结束。
所述步骤Step1的具体步骤如下:
Step1.1、根据所述输入图像第一帧,以目标位置为中心,采集一个尺寸为目标2倍大小的图像块P。
所述Step2的具体步骤为:
Step2.1、采用目标不同特征训练得到的位置滤波器的应用方式和原理相同。以下都将以HOG特征为例进行描述。提取P的HOG特征f作为训练样本,其中特征的维度为d维,fl是其中的第l维,l∈{1,...,d}。样本训练是为了找到最优的位置滤波器h,使输入样本和需要输出之间平方误差最小。h由特征每个维度训练的滤波器hl组成,h通过如下最小化均方差求得:
式中,g表示滤波器h的期望输出,τ为正则化参数。训练样本f共有d维,fl是其中的第维,l∈{1,...,d}。*表示循环相关。(1)式的最小值在频域里的解如下:
式中,Hl、G、F分别为是hl、g、f的频域描述,分别表示G、F的共轭复数。Fk是F的第k维,其中是Fk的共轭复数。Al、B为滤波器h的分子分母。
所述Step3的具体步骤为:
Step3.1、上述计算方法得到位置滤波器模型,完成了位置滤波器的训练过程。此处对目标进行检测,在新一帧目标区域提取HOG特征作为检测样本z,计算z与之前采用HOG特征训练好的滤波器h的相关得分y,即得到该特征的响应图:
式中表示Al的共轭复数,Z是z的频域描述,Zl是Z的第l维,其中l∈{1,...,d}。使用CN和HOG特征分别跟踪目标得到滤波器响应记为yt,cn和yt,hog。
所述Step4的具体步骤为:
Step4.1、在t帧时,分别计算CN特征和HOG特征响应图的峰值旁瓣比,记为PSRt,cn和PSRt,hog;
Step4.2、分别计算CN特征和HOG特征在第t帧时归一化权重wt,cn和wt,hog,
Step4.3、、在响应层面进行特征融合,在t帧时,分别使用CN和HOG特征训练得到两个位置滤波器响应,记为yt,cn和yt,hog,利用如下加权方法得到融合后的响应yt,
yt=wt,cn×yt,cn+wt,hog×yt,hog (6)
Step4.4、计算yt的最大值,得到目标在第t帧最终的位置。
所述Step5的具体步骤为:
Step5.1、确定目标位置后,以目标新位置为中心,截取构建尺度金字塔的33个图像层,并提取这些图像层的HOG特征训练一个尺度滤波器Hs,用以估计目标尺度。并且尺度滤波器和位置滤波器h的应用方式和原理相同,所以Hs由式(2)计算方法可得;
Step5.2、在新一帧中,为了得到目标尺度,利用式(3)求ys并得其最大值,确定目标当前尺度。
所述Step6的具体步骤为:
Step6.1、以固定学习率η对尺度滤波器模型进行更新,更新公式为:
式中,每一帧中尺度滤波器都进行更新。式中Bt,s表示在t帧时尺度滤波器第l维的分子和分母。Bt-1,s为上一帧尺度滤波器模型的分子分母。表示第t帧时尺度滤波器期望输出的频域描述的共轭复数。表示第t帧时训练尺度滤波器的训练样本第l维的频域描述。表示第t帧时训练尺度滤波器的训练样本第k维的频域描述的共轭复数,其中k∈{1,...,d}。
所述Step7的具体步骤为:
Step7.1、PSR值为目标遮挡判断依据,用来确定位置滤波器模型是否需要更新。如果发生遮挡情况则不更新位置滤波器模型,否则对位置滤波器模型进行更新,减小遮挡对目标跟踪的影响。
所述Step8的具体步骤为:
Step8.1、当判断目标没有出现遮挡时,以固定学习率η对位置滤波器模型进行更新,更新公式为:
式中Bt表示在第t帧时,位置滤波器h第l维的分子和分母,Bt-1为上一帧位置滤波器模型的分子分母,表示第t帧位置滤波器h期望输出的频域描述的共轭复数,表示第t帧时训练位置滤波器h的训练样本第l维的频域描述,第t帧时训练位置滤波器h的训练样本第k维的频域描述的共轭复数,其中k∈{1,...,d}。
所述Step9的具体步骤为:
Step9.1、算法运行至此,第二帧运行结束,目标位置、尺度以及所有滤波器模型都已经更新完成,下一帧重复运行步骤3至8直至视频结束。
本发明的有益效果是:
1、使用多特征融合的运动目标跟踪方法
如果只采用单一特征(HOG特征或颜色特征)描述目标。HOG特征是图像的局部特征,对目标细微形变、光照变化等有较好的适应能力,但是如果目标发生较大的形变和遮挡时,会发生错跟或漏跟;而人类识别图像的重要感知特征颜色特征是基于像素点的一种全局特征,对目标旋转、平移和尺度变化不敏感,但颜色特征不能很好描述目标的局部特征且无法适应光照变化。为此,本发明将这两种特征融合起来描述目标模型,在获得目标全局特征的同时,也可以获取目标局部特征,提高了目标检测的准确度。
2、使用选择性更新模型策略实现目标跟踪方法
本发明以相关滤波器目标跟踪算法为基础,一般相关滤波器目标跟踪算法使用目标模型逐帧固定更新策略,如果目标发生遮挡时,继续更新模型会将不正确的信息加到模型中,会导致目标跟踪的失败。为了提高跟踪性能,提出只有满足一定条件时才更新的策略,通过判断目标是否发生遮挡来决定是否进行模型更新,减小了遮挡对目标跟踪的影响,从而提高了算法的稳定性
3、通过构建尺度金字塔训练尺度滤波器估计目标尺度
运动过程中目标跟踪框如果是固定的,当目标变大时,只能获取目标的部分信息,当目标变小时,容易引入干扰的背景信息,会影响算法的跟踪精确度。为解决这一问题,本发明通过构建尺度金字塔训练尺度滤波器估计目标尺度,解决运动目标尺度变化问题极大地减少了在目标跟踪过程中因跟踪框固定带来的错误信息。
总之,基于多特征融合的运动目标跟踪方法,综合了多个特征的属性信息,使用多特征描述目标和选择性更新模型方法。首先使用多特征可以更全面的描述目标,在获得目标全局特征的同时,也可以获取目标局部特征,提高了目标检测的准确度。其次通过构建尺度金字塔自适应的更新目标尺度。最后利用响应图的峰值旁瓣比自适应更新目标模型,提高了模型的有效性。
附图说明
图1为本发明中方法流程图。
具体实施方式
下面结合附图和具体实施例,对本发明作进一步的说明。
实施例1:如图1所示,基于多特征融合的运动目标跟踪方法,所述方法的具体步骤如下:
Step1、初始化目标并选取目标区域;
Step2、提取目标区域方向梯度直方图(Histogram of Oriented Gradient,HOG)特征作为训练样本,同时提取目标区域颜色(Color Name,CN)特征作为另一个训练样本。用两个训练样本训练各自的位置滤波器模型;
Step3、在新一帧目标区域中分别提取两种特征得到两个检测样本,分别计算两个检测样本与上一步中训练得到的各自位置滤波器的相关得分,即得到不同特征的响应图;
Step4、计算不同特征的响应图的峰值旁瓣比,根据其加权融合两种特征响应值,选取最大值处作为目标当前位置;
Step5、在当前目标区域,通过HOG特征构建尺度金字塔训练尺度滤波器,获取尺度响应最大值作为目标当前尺度;
Step6、更新尺度滤波器模型;
Step7、根据每帧最终位置响应图的峰值旁瓣比,判断目标是否发生遮挡,如果是重复步骤3至6,如果没有出现遮挡进入步骤8;
Step8、更新位置滤波器模型;
Step9、重复步骤3至8直到跟踪结束。
所述步骤Step1的具体步骤如下:
Step1.1、根据所述输入图像第一帧,以目标位置为中心,采集一个尺寸为目标2倍大小的图像块P。
所述Step2的具体步骤为:
Step2.1、采用目标不同特征训练得到的位置滤波器的应用方式和原理相同。HOG特征(27维梯度特征,加上一维灰度特征,共28维)和CN特征(将11维特征降维至2维)。以下都将以HOG特征为例进行描述。提取P的HOG特征f作为训练样本,其中特征的维度为d维,fl是其中的第l维,l∈{1,...,d}。样本训练是为了找到最优的位置滤波器h,使输入样本和需要输出之间平方误差最小。h由特征每个维度训练的滤波器hl组成,h通过如下最小化均方差求得:
式中,g表示滤波器h的期望输出,τ为正则化参数。训练样本f共有d维,fl是其中的第维,l∈{1,...,d}。*表示循环相关。(1)式的最小值在频域里的解如下:
式中,Hl、G、F分别为是hl、g、f的频域描述,分别表示G、F的共轭复数。Fk是F的第k维,其中是Fk的共轭复数。Al、B为滤波器h的分子分母。
所述Step3的具体步骤为:
Step3.1、上述计算方法得到位置滤波器模型,完成了位置滤波器的训练过程。此处对目标进行检测,在新一帧目标区域提取HOG特征作为检测样本z,计算z与之前采用HOG特征训练好的滤波器h的相关得分y,即得到该特征的响应图:
式中表示Al的共轭复数,Zl是z的第l维,其中l∈{1,...,d}。使用CN和HOG特征分别跟踪目标得到滤波器响应记为yt,cn和yt,hog。
所述Step4的具体步骤为:
Step4.1、在t帧时,分别计算CN特征和HOG特征响应图的峰值旁瓣比,记为PSRt,cn和PSRt,hog;
Step4.2、分别计算CN特征和HOG特征在第t帧时归一化权重wt,cn和wt,hog,
Step4.3、在响应层面进行特征融合,在t帧时,使用CN和HOG特征分别跟踪目标得到位置滤波器响应,记为yt,cn和yt,hog,利用如下加权方法得到融合后的响应yt,
yt=wt,cn×yt,cn+wt,hog×yt,hog (6)
Step4.4、计算yt的最大值,得到目标最终的位置。
所述Step5的具体步骤为:
Step5.1、确定目标位置后,以目标新位置为中心,截取构建尺度金字塔的33个图像层,并提取这些图像层的HOG特征训练一个尺度滤波器Hs,用以估计目标尺度。并且尺度滤波器和位置滤波器h的应用方式和原理相同,所以Hs由式(2)计算方法可得;
Step5.2、在新一帧中,为了得到目标尺度,利用式(3)求ys并得其最大值,确定目标当前尺度。
所述Step6的具体步骤为:
Step6.1、以固定学习率η对尺度滤波器模型进行更新,更新公式为:
式中,每一帧中尺度滤波器都进行更新。式中Bt,s表示在t帧时尺度滤波器第l维的分子和分母。Bt-1,s为上一帧尺度滤波器模型的分子分母。表示第t帧时尺度滤波器期望输出的频域描述的共轭复数。表示第t帧时训练尺度滤波器的训练样本第l维的频域描述。表示第t帧时训练尺度滤波器的训练样本第k维的频域描述的共轭复数,其中k∈{1,...,d}。
所述Step7的具体步骤为:
Step7.1、遮挡判断依据PSR值,判断目标是否发生遮挡用来确定是否更新位置滤波器模型,减小遮挡对目标跟踪的影响,第t帧时,PSR计算方法:
式中,PSRt表示第t帧时峰值旁边比,yt,max为第t帧响应图的峰值,μt和σt是第t帧时最大响应位置周围区域的均值和标准差。PSRt越大,响应分布中峰值强度越高,则目标置信度越高。
所述Step8的具体步骤为:
Step8.1、判断目标没有出现遮挡时,以固定学习率η对位置滤波器模型进行更新,更新公式为:
式中Bt表示在第t帧时,位置滤波器h第l维的分子和分母,Bt-1为上一帧位置滤波器模型的分子分母,表示第t帧位置滤波器h期望输出的频域描述的共轭复数,表示第t帧时训练位置滤波器h的训练样本第l维的频域描述,第t帧时训练位置滤波器h的训练样本第k维的频域描述的共轭复数,其中k∈{1,...,d}。
所述Step9的具体步骤为:
Step9.1、算法运行至此,第二帧运行结束,目标位置、尺度以及所有滤波器模型都已经更新完成,下一帧重复运行步骤3至8直至视频结束。
本发明以HOG特征和颜色特征CN的不同性质,将这两种特征融合起来描述目标模型,在获得目标全局特征的同时,也可以获取目标局部特征,提高了目标检测的准确度。同时根据每帧最终目标响应图的峰值旁瓣比,判断目标是否发生遮挡来决定是否进行模型更新,减小了遮挡对目标跟踪的影响,从而提高了算法的稳定性。
上面结合附图对本发明的具体实施方式作了详细说明,但是本发明并不限于上述实施方式,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下作出各种变化。
Claims (11)
1.一种基于多特征融合的运动目标跟踪方法,其特征在于:包括如下步骤:首先在第一帧图像中,初始化目标区域,分别利用方向直方图和颜色特征训练两个位置滤波器;其次在后续帧目标周围提取两种特征的检测样本,分别计算两个检测样本与上一步中训练得到的各自位置滤波器的相关得分,即得到不同特征的响应图;再次根据不同特征响应图的峰值旁瓣比,加权融合两种特征响应值,选取响应值最大的点作为目标当前中心位置;然后利用方向梯度直方图特征构建尺度金字塔训练尺度滤波器,并得到响应值最大点作为目标当前尺度;最后根据每帧最终响应图的峰值旁边比,判断是否发生遮挡,遮挡情况下,不更新位置滤波器。
2.根据权利要求1所述的基于多特征融合的运动目标跟踪方法,其特征在于:所述方法的具体步骤如下:
Step1、初始化目标并选取目标区域;
Step2、提取目标区域方向梯度直方图特征作为训练样本,同时提取目标区域颜色特征作为另一个训练样本,用两个训练样本训练各自的位置滤波器模型;
Step3、在新一帧目标区域中分别提取两种特征得到两个检测样本,分别计算两个检测样本与上一步中训练得到的各自位置滤波器的相关得分,即得到不同特征的响应图;
Step4、计算不同特征的响应图的峰值旁瓣比,根据其加权融合两种特征响应值,选取最大值处作为目标当前位置;
Step5、在当前目标位置区域,通过HOG特征构建尺度金字塔训练尺度滤波器,获取尺度响应最大值作为目标当前尺度;
Step6、更新尺度滤波器模型;
Step7、根据每帧最终位置响应图的峰值旁瓣比,判断目标是否发生遮挡,如果是重复步骤3至6,如果没有出现遮挡进入步骤8;
Step8、更新位置滤波器模型;
Step9、重复步骤3至8直到跟踪结束。
3.根据权利要求2所述的基于多特征融合的运动目标跟踪方法,其特征在于:所述步骤Step1的具体步骤如下:
Step1.1、根据所述输入图像第一帧,以目标位置为中心,采集一个尺寸为目标2倍大小的图像块P。
4.根据权利要求3所述的基于多特征融合的运动目标跟踪方法,其特征在于:所述步骤Step2的具体步骤如下:
Step2.1、采用目标不同特征训练得到的位置滤波器的应用方式和原理相同,以下都将以HOG特征为例进行描述,提取P的HOG特征f作为训练样本,其中特征的维度为d维,fl是其中的第l维,l∈{1,…,d},样本训练是为了找到最优的位置滤波器h,使输入样本和需要输出之间平方误差最小,h由特征每个维度训练的滤波器hl组成,h通过如下最小化均方差求得:
式中,g表示滤波器h的期望输出,τ为正则化参数,训练样本f共有d维,fl是其中的第l维,l∈{1,…,d},*表示循环相关,(1)式的最小值在频域里的解如下:
式中,Hl、G、F分别为是hl、g、f的频域描述,分别表示G、F的共轭复数,Fk是F的第k维,其中k∈{1,…,d},是Fk的共轭复数,Al、B为滤波器h的分子分母。
5.根据权利要求4所述的基于多特征融合的运动目标跟踪方法,其特征在于:所述Step3的具体步骤为:
Step3.1、上述计算方法得到位置滤波器模型,完成了位置滤波器的训练过程,此处对目标进行检测,在新一帧目标区域提取HOG特征作为检测样本z,计算z与之前采用HOG特征训练好的滤波器h的相关得分y,即得到该特征的响应图:
式中表示Al的共轭复数,Z是z的频域描述,Zl是Z的第l维,其中l∈{1,…,d},使用CN和HOG特征分别跟踪目标得到滤波器响应记为yt,cn和yt,hog。
6.根据权利要求5所述的基于多特征融合的运动目标跟踪方法,其特征在于:所述Step4的具体步骤为:
Step4.1、在t帧时,分别计算CN特征和HOG特征响应图的峰值旁瓣比,记为PSRt,cn和PSRt,hog;
Step4.2、分别计算CN特征和HOG特征在第t帧时归一化权重wt,cn和wt,hog:
Step4.3、在响应层面进行特征融合,在t帧时,分别使用CN和HOG特征训练得到两个位置滤波器响应,记为yt,cn和yt,hog,利用如下加权方法得到融合后的响应yt,
yt=wt,cn×yt,cn+wt,hog×yt,hog (6)
Step4.4、计算yt的最大值,得到目标在第t帧最终的位置。
7.根据权利要求6所述的基于多特征融合的运动目标跟踪方法,其特征在于:所述Step5的具体步骤为:
Step5.1、确定目标位置后,以目标新位置为中心,截取构建尺度金字塔的33个图像层,并提取这些图像层的HOG特征训练一个尺度滤波器Hs,用以估计目标尺度,并且尺度滤波器和位置滤波器h的应用方式和原理相同,所以Hs由式(2)计算方法可得;
Step5.2、在新一帧中,为了得到目标尺度,利用式(3)计算方法求ys并得其最大值,确定目标当前尺度。
8.根据权利要求7所述的基于多特征融合的运动目标跟踪方法,其特征在于:所述Step6的具体步骤为:
Step6.1、以固定学习率η对尺度滤波器模型进行更新,更新公式为:
式中,每一帧中尺度滤波器都进行更新,式中Bt,s表示在t帧时尺度滤波器第l维的分子和分母,Bt-1,s为上一帧尺度滤波器模型的分子分母,表示第t帧时尺度滤波器期望输出的频域描述的共轭复数,表示第t帧时训练尺度滤波器的训练样本第l维的频域描述,表示第t帧时训练尺度滤波器的训练样本第k维的频域描述的共轭复数,其中k∈{1,…,d}。
9.根据权利要求8所述的基于多特征融合的运动目标跟踪方法,其特征在于:所述Step7的具体步骤为:
Step7.1、PSR值为目标遮挡判断依据,用来确定位置滤波器模型是否需要更新,如果发生遮挡情况则不更新位置滤波器模型,否则对位置滤波器模型进行更新,减小遮挡对目标跟踪的影响。
10.根据权利要求9所述的基于多特征融合的运动目标跟踪方法,其特征在于:所述Step8的具体步骤为:
Step8.1、当判断目标没有出现遮挡时,以固定学习率η对位置滤波器模型进行更新,更新公式为:
式中Bt表示在第t帧时,位置滤波器h第l维的分子和分母,Bt-1为上一帧位置滤波器模型的分子分母,表示第t帧位置滤波器h期望输出的频域描述的共轭复数,表示第t帧时训练位置滤波器h的训练样本第l维的频域描述,第t帧时训练位置滤波器h的训练样本第k维的频域描述的共轭复数,其中k∈{1,…,d}。
11.根据权利要求10所述的基于多特征融合的运动目标跟踪方法,其特征在于:所述Step9的具体步骤为:
Step9.1、算法运行至此,第二帧运行结束,目标位置、尺度以及所有滤波器模型都已经更新完成,下一帧重复运行步骤3至8直至视频结束。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810834082.8A CN109285179B (zh) | 2018-07-26 | 2018-07-26 | 一种基于多特征融合的运动目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810834082.8A CN109285179B (zh) | 2018-07-26 | 2018-07-26 | 一种基于多特征融合的运动目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109285179A true CN109285179A (zh) | 2019-01-29 |
CN109285179B CN109285179B (zh) | 2021-05-14 |
Family
ID=65182784
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810834082.8A Active CN109285179B (zh) | 2018-07-26 | 2018-07-26 | 一种基于多特征融合的运动目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109285179B (zh) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110009664A (zh) * | 2019-04-11 | 2019-07-12 | 南京航空航天大学金城学院 | 一种基于响应图融合的红外目标跟踪方法及装置 |
CN110246155A (zh) * | 2019-05-17 | 2019-09-17 | 华中科技大学 | 一种基于模型交替的抗遮挡目标跟踪方法及*** |
CN110348492A (zh) * | 2019-06-24 | 2019-10-18 | 昆明理工大学 | 一种基于上下文信息及多特征融合的相关滤波目标跟踪方法 |
CN110414439A (zh) * | 2019-07-30 | 2019-11-05 | 武汉理工大学 | 基于多峰值检测的抗遮挡行人跟踪方法 |
CN110428450A (zh) * | 2019-08-01 | 2019-11-08 | 中国矿业大学 | 应用于矿井巷道移动巡检图像的尺度自适应目标跟踪方法 |
CN110533690A (zh) * | 2019-08-08 | 2019-12-03 | 河海大学 | 特征融合与学习率优化的核相关滤波水下目标跟踪方法 |
CN110569723A (zh) * | 2019-08-02 | 2019-12-13 | 西安工业大学 | 一种结合特征融合与模型更新的目标跟踪方法 |
CN110660077A (zh) * | 2019-09-12 | 2020-01-07 | 昆明理工大学 | 一种融合多个特征的多尺度目标跟踪方法 |
CN110929620A (zh) * | 2019-11-15 | 2020-03-27 | 浙江大华技术股份有限公司 | 目标跟踪方法、装置及存储装置 |
CN111161324A (zh) * | 2019-11-20 | 2020-05-15 | 山东工商学院 | 一种基于自适应多模更新策略的目标跟踪方法 |
CN111260689A (zh) * | 2020-01-16 | 2020-06-09 | 东华大学 | 一种有效的置信度增强相关滤波视觉跟踪算法 |
CN111340846A (zh) * | 2020-02-25 | 2020-06-26 | 重庆邮电大学 | 一种多特征融合的抗遮挡目标跟踪方法 |
CN111814734A (zh) * | 2020-07-24 | 2020-10-23 | 南方电网数字电网研究院有限公司 | 识别刀闸状态的方法 |
CN111860532A (zh) * | 2019-04-25 | 2020-10-30 | 四川大学 | 基于两种互补跟踪算法的自适应目标跟踪方法 |
CN111931722A (zh) * | 2020-09-23 | 2020-11-13 | 杭州视语智能视觉***技术有限公司 | 一种结合颜色比率特征的相关滤波跟踪方法 |
CN112200829A (zh) * | 2020-09-07 | 2021-01-08 | 慧视江山科技(北京)有限公司 | 基于相关滤波方法的目标跟踪方法及装置 |
CN112364891A (zh) * | 2020-10-20 | 2021-02-12 | 西安理工大学 | 一种基于样本分类的自适应去污方法 |
CN112598710A (zh) * | 2020-12-25 | 2021-04-02 | 杭州电子科技大学 | 基于特征在线选择的时空相关滤波目标跟踪方法 |
CN112767437A (zh) * | 2020-12-30 | 2021-05-07 | 大连海事大学 | 基于kcf自适应多特征融合滤波水面无人船跟踪方法、***及存储介质 |
CN112785622A (zh) * | 2020-12-30 | 2021-05-11 | 大连海事大学 | 一种水面无人船长时跟踪方法、装置及存储介质 |
CN116109975A (zh) * | 2023-02-08 | 2023-05-12 | 广州宝立科技有限公司 | 电网安全作业监控图像处理方法及智能视频监控*** |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106485732A (zh) * | 2016-09-09 | 2017-03-08 | 南京航空航天大学 | 一种视频序列的目标跟踪方法 |
CN106570486A (zh) * | 2016-11-09 | 2017-04-19 | 华南理工大学 | 基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法 |
CN106887011A (zh) * | 2017-01-20 | 2017-06-23 | 北京理工大学 | 一种基于cnn和cf的多模板目标跟踪方法 |
CN107209854A (zh) * | 2015-09-15 | 2017-09-26 | 深圳市大疆创新科技有限公司 | 用于支持顺畅的目标跟随的***和方法 |
WO2017170876A1 (ja) * | 2016-03-30 | 2017-10-05 | 株式会社エクォス・リサーチ | 画像認識装置、移動体装置、及び画像認識プログラム |
CN107316316A (zh) * | 2017-05-19 | 2017-11-03 | 南京理工大学 | 基于多特征自适应融合和核相关滤波技术的目标跟踪方法 |
CN107578423A (zh) * | 2017-09-15 | 2018-01-12 | 杭州电子科技大学 | 多特征分层融合的相关滤波鲁棒跟踪方法 |
CN107644430A (zh) * | 2017-07-27 | 2018-01-30 | 孙战里 | 基于自适应特征融合的目标跟踪 |
CN108062764A (zh) * | 2017-11-30 | 2018-05-22 | 极翼机器人(上海)有限公司 | 一种基于视觉的物体跟踪方法 |
-
2018
- 2018-07-26 CN CN201810834082.8A patent/CN109285179B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107209854A (zh) * | 2015-09-15 | 2017-09-26 | 深圳市大疆创新科技有限公司 | 用于支持顺畅的目标跟随的***和方法 |
WO2017170876A1 (ja) * | 2016-03-30 | 2017-10-05 | 株式会社エクォス・リサーチ | 画像認識装置、移動体装置、及び画像認識プログラム |
CN106485732A (zh) * | 2016-09-09 | 2017-03-08 | 南京航空航天大学 | 一种视频序列的目标跟踪方法 |
CN106570486A (zh) * | 2016-11-09 | 2017-04-19 | 华南理工大学 | 基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法 |
CN106887011A (zh) * | 2017-01-20 | 2017-06-23 | 北京理工大学 | 一种基于cnn和cf的多模板目标跟踪方法 |
CN107316316A (zh) * | 2017-05-19 | 2017-11-03 | 南京理工大学 | 基于多特征自适应融合和核相关滤波技术的目标跟踪方法 |
CN107644430A (zh) * | 2017-07-27 | 2018-01-30 | 孙战里 | 基于自适应特征融合的目标跟踪 |
CN107578423A (zh) * | 2017-09-15 | 2018-01-12 | 杭州电子科技大学 | 多特征分层融合的相关滤波鲁棒跟踪方法 |
CN108062764A (zh) * | 2017-11-30 | 2018-05-22 | 极翼机器人(上海)有限公司 | 一种基于视觉的物体跟踪方法 |
Non-Patent Citations (2)
Title |
---|
YANG RUAN等: "Extended kernelised correlation filter tracking", 《ELECTRONIC LETTERS》 * |
鲁国智等: "多特征分层融合的相关滤波鲁棒跟踪", 《中国图像图形学报》 * |
Cited By (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110009664A (zh) * | 2019-04-11 | 2019-07-12 | 南京航空航天大学金城学院 | 一种基于响应图融合的红外目标跟踪方法及装置 |
CN110009664B (zh) * | 2019-04-11 | 2021-08-27 | 南京航空航天大学金城学院 | 一种基于响应图融合的红外目标跟踪方法及装置 |
CN111860532A (zh) * | 2019-04-25 | 2020-10-30 | 四川大学 | 基于两种互补跟踪算法的自适应目标跟踪方法 |
CN110246155A (zh) * | 2019-05-17 | 2019-09-17 | 华中科技大学 | 一种基于模型交替的抗遮挡目标跟踪方法及*** |
CN110246155B (zh) * | 2019-05-17 | 2021-05-18 | 华中科技大学 | 一种基于模型交替的抗遮挡目标跟踪方法及*** |
CN110348492A (zh) * | 2019-06-24 | 2019-10-18 | 昆明理工大学 | 一种基于上下文信息及多特征融合的相关滤波目标跟踪方法 |
CN110414439B (zh) * | 2019-07-30 | 2022-03-15 | 武汉理工大学 | 基于多峰值检测的抗遮挡行人跟踪方法 |
CN110414439A (zh) * | 2019-07-30 | 2019-11-05 | 武汉理工大学 | 基于多峰值检测的抗遮挡行人跟踪方法 |
CN110428450B (zh) * | 2019-08-01 | 2021-11-16 | 中国矿业大学 | 应用于矿井巷道移动巡检图像的尺度自适应目标跟踪方法 |
CN110428450A (zh) * | 2019-08-01 | 2019-11-08 | 中国矿业大学 | 应用于矿井巷道移动巡检图像的尺度自适应目标跟踪方法 |
CN110569723A (zh) * | 2019-08-02 | 2019-12-13 | 西安工业大学 | 一种结合特征融合与模型更新的目标跟踪方法 |
CN110533690A (zh) * | 2019-08-08 | 2019-12-03 | 河海大学 | 特征融合与学习率优化的核相关滤波水下目标跟踪方法 |
CN110533690B (zh) * | 2019-08-08 | 2022-02-11 | 河海大学 | 特征融合与学习率优化的核相关滤波水下目标跟踪方法 |
CN110660077A (zh) * | 2019-09-12 | 2020-01-07 | 昆明理工大学 | 一种融合多个特征的多尺度目标跟踪方法 |
CN110929620A (zh) * | 2019-11-15 | 2020-03-27 | 浙江大华技术股份有限公司 | 目标跟踪方法、装置及存储装置 |
CN110929620B (zh) * | 2019-11-15 | 2023-04-07 | 浙江大华技术股份有限公司 | 目标跟踪方法、装置及存储装置 |
CN111161324B (zh) * | 2019-11-20 | 2023-06-23 | 山东工商学院 | 一种基于自适应多模更新策略的目标跟踪方法 |
CN111161324A (zh) * | 2019-11-20 | 2020-05-15 | 山东工商学院 | 一种基于自适应多模更新策略的目标跟踪方法 |
CN111260689B (zh) * | 2020-01-16 | 2022-10-11 | 东华大学 | 一种基于置信度增强的相关滤波视觉跟踪方法 |
CN111260689A (zh) * | 2020-01-16 | 2020-06-09 | 东华大学 | 一种有效的置信度增强相关滤波视觉跟踪算法 |
CN111340846B (zh) * | 2020-02-25 | 2023-02-17 | 重庆邮电大学 | 一种多特征融合的抗遮挡目标跟踪方法 |
CN111340846A (zh) * | 2020-02-25 | 2020-06-26 | 重庆邮电大学 | 一种多特征融合的抗遮挡目标跟踪方法 |
CN111814734A (zh) * | 2020-07-24 | 2020-10-23 | 南方电网数字电网研究院有限公司 | 识别刀闸状态的方法 |
CN111814734B (zh) * | 2020-07-24 | 2024-01-26 | 南方电网数字电网研究院有限公司 | 识别刀闸状态的方法 |
CN112200829A (zh) * | 2020-09-07 | 2021-01-08 | 慧视江山科技(北京)有限公司 | 基于相关滤波方法的目标跟踪方法及装置 |
CN111931722A (zh) * | 2020-09-23 | 2020-11-13 | 杭州视语智能视觉***技术有限公司 | 一种结合颜色比率特征的相关滤波跟踪方法 |
CN111931722B (zh) * | 2020-09-23 | 2021-02-12 | 杭州视语智能视觉***技术有限公司 | 一种结合颜色比率特征的相关滤波跟踪方法 |
CN112364891A (zh) * | 2020-10-20 | 2021-02-12 | 西安理工大学 | 一种基于样本分类的自适应去污方法 |
CN112598710A (zh) * | 2020-12-25 | 2021-04-02 | 杭州电子科技大学 | 基于特征在线选择的时空相关滤波目标跟踪方法 |
CN112598710B (zh) * | 2020-12-25 | 2024-03-12 | 杭州电子科技大学 | 基于特征在线选择的时空相关滤波目标跟踪方法 |
CN112785622B (zh) * | 2020-12-30 | 2024-04-05 | 大连海事大学 | 一种水面无人船长时跟踪方法、装置及存储介质 |
CN112785622A (zh) * | 2020-12-30 | 2021-05-11 | 大连海事大学 | 一种水面无人船长时跟踪方法、装置及存储介质 |
CN112767437A (zh) * | 2020-12-30 | 2021-05-07 | 大连海事大学 | 基于kcf自适应多特征融合滤波水面无人船跟踪方法、***及存储介质 |
CN116109975B (zh) * | 2023-02-08 | 2023-10-20 | 广州宝立科技有限公司 | 电网安全作业监控图像处理方法及智能视频监控*** |
CN116109975A (zh) * | 2023-02-08 | 2023-05-12 | 广州宝立科技有限公司 | 电网安全作业监控图像处理方法及智能视频监控*** |
Also Published As
Publication number | Publication date |
---|---|
CN109285179B (zh) | 2021-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109285179A (zh) | 一种基于多特征融合的运动目标跟踪方法 | |
US11763485B1 (en) | Deep learning based robot target recognition and motion detection method, storage medium and apparatus | |
CN108053419A (zh) | 基于背景抑制和前景抗干扰的多尺度目标跟踪方法 | |
WO2015010451A1 (zh) | 一种从单幅图像检测道路的方法 | |
CN109635875A (zh) | 一种基于深度学习的端到端网口检测方法 | |
CN107424171A (zh) | 一种基于分块的抗遮挡目标跟踪方法 | |
CN108198201A (zh) | 一种多目标跟踪方法、终端设备及存储介质 | |
CN109766887A (zh) | 一种基于级联沙漏神经网络的多目标检测方法 | |
CN102075686B (zh) | 一种鲁棒的实时在线摄像机跟踪方法 | |
CN105046206B (zh) | 基于视频中运动先验信息的行人检测方法及装置 | |
CN106529591A (zh) | 一种基于改进的mser图像匹配算法 | |
CN103164858A (zh) | 基于超像素和图模型的粘连人群分割与跟踪方法 | |
CN105740945A (zh) | 一种基于视频分析的人群计数方法 | |
CN110175649A (zh) | 一种关于重新检测的快速多尺度估计目标跟踪方法 | |
CN103632137B (zh) | 一种人眼虹膜图像分割方法 | |
CN104408725A (zh) | 一种基于tld优化算法的目标重捕获***及方法 | |
CN107564035B (zh) | 基于重要区域识别和匹配的视频跟踪方法 | |
CN107123130A (zh) | 一种基于超像素和混合哈希的核相关滤波目标跟踪方法 | |
CN107886507A (zh) | 一种基于图像背景和空间位置的显著区域检测方法 | |
CN109711267A (zh) | 一种行人重识别、行人运动轨迹生成方法及装置 | |
CN110348492A (zh) | 一种基于上下文信息及多特征融合的相关滤波目标跟踪方法 | |
CN104866853A (zh) | 一种足球比赛视频中的多运动员的行为特征提取方法 | |
CN106934338A (zh) | 一种基于相关滤波器的长期行人跟踪方法 | |
CN115375733A (zh) | 基于视频和点云数据的雪车雪橇三维滑行轨迹提取方法 | |
CN109712171A (zh) | 一种基于相关滤波器的目标跟踪***及目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |