CN109146911B - 一种目标跟踪的方法及装置 - Google Patents

一种目标跟踪的方法及装置 Download PDF

Info

Publication number
CN109146911B
CN109146911B CN201810809470.0A CN201810809470A CN109146911B CN 109146911 B CN109146911 B CN 109146911B CN 201810809470 A CN201810809470 A CN 201810809470A CN 109146911 B CN109146911 B CN 109146911B
Authority
CN
China
Prior art keywords
target
scale
space
image
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810809470.0A
Other languages
English (en)
Other versions
CN109146911A (zh
Inventor
魏振忠
谈可
张广军
闵玥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN201810809470.0A priority Critical patent/CN109146911B/zh
Publication of CN109146911A publication Critical patent/CN109146911A/zh
Application granted granted Critical
Publication of CN109146911B publication Critical patent/CN109146911B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/207Analysis of motion for motion estimation over a hierarchy of resolutions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种目标跟踪的方法及装置,该方法包括:在初始化帧中,根据目标区域建立掩模矩阵,利用空间和时间约束,建立时空正则化判别相关滤波器模型;提取目标在初始位置和旋转角度下的多尺度样本,学习得到尺度空间判别相关滤波器模型;在随后帧中,利用时空正则化判别相关滤波器获取目标位置和旋转角度;利用尺度空间判别相关滤波器,获取目标尺度;根据跟踪结果,在线更新相关滤波器。采用本方法,能够提高目标遮挡、形变、旋转等情况下的跟踪鲁棒性,并估计目标的位移、旋转和尺度,得到准确的目标区域,从而对目标进行持续跟踪。实现该方法的目标跟踪的装置,包括:图像采集单元,图像处理单元,学习单元,跟踪单元和伺服驱动单元。

Description

一种目标跟踪的方法及装置
技术领域
本发明涉及计算机视觉中的目标跟踪技术领域,特别涉及一种目标跟踪的方法及装置。
背景技术
目标视觉跟踪是计算机视觉领域的重要研究方向,其主要任务是获取视频序列中感兴趣的目标的位置与运动信息,为进一步的语义层分析(动作识别、场景识别等)提供基础,广泛应用于机器人、智能交通、安防和人机交互等领域。单目标视觉跟踪的主要难点在于视频中的光线变化、目标形变、目标旋转、部分遮挡、快速运动和背景干扰。
目前的目标视觉跟踪方法主要分为两大类:生成式方法和判别式方法。生成式方法通过学习目标的表示,在候选区域内搜索最相似的目标。判别式方法通过训练一个在线分类器,将目标从背景中分离。
文章“Robust visual tracking using L1minimization.In:Proceedings ofthe 12th IEEE International Conference on Computer Vision.Kyoto:IEEE,2009.1436-1443”提出了一种建立目标外观模型的稀疏方法,通过最小化基函数字典表示的稀疏向量的L1范数,能够表征目标的内在分布,但是由于没有利用背景信息,在遇到遮挡等情况下容易通过错误更新将噪声混入模型,从而造成模型的漂移。
文章“Tracking-learning-detection.IEEE Transactions on PatternAnalysis and Machine Intelligence,2012,34(7):1409-1422”提出了一种单目标长时跟踪算法,通过一种在线跟踪分类检测框架,解决被跟踪目标形变、部分遮挡等问题,但是其跟踪模块使用传统的光流法,导致跟踪效果和速度不佳。
文章“High-speed tracking with kernelized correlation filters.IEEETransactions on Pattern Analysis and Machine Intelligence,2015,37(3):583-596”提出了一种利用相关滤波在高维特征空间的视觉跟踪方法,通过循环矩阵和核函数,将相关运算转换到频域,极大的提高了跟踪速度,在使用梯度方向直方图特征和色彩名称特征时,能够获得出色的跟踪效果。但是由于相关运算带来的边界效应,对相邻两帧位移较大的物体效果不理想,而且对目标的变形和旋转比较敏感。
从以上分析可以看出,基于相关滤波的判别式方法相比其他方法在速度和精度上具有优势,但是已有的此类方法受到检测区域大小的限制,并且无法估计目标的旋转。
发明内容
鉴于此,本发明的目的在于提供一种目标跟踪的方法及装置。采用本方法,能够解决传统的判别相关滤波跟踪方法检测区域小、判别力不够的问题,提高目标遮挡、形变、旋转等情况下的时间鲁棒性,并对目标的位移、旋转和尺度进行估计,得到准确的跟踪目标区域,从而对目标进行持续跟踪。
本发明技术解决方案:一种旋转和尺度自适应的时空正则化判别相关滤波目标跟踪方法。该方法包括:根据视频中初始化帧的目标信息,建立掩模矩阵,并提取训练样本,结合空间约束和时间约束学习时空正则化的判别相关滤波器;在初始旋转角度下,以目标位置为中心提取多尺度训练样本,学习尺度空间判别相关滤波器;在随后帧中,利用时空正则化判别相关滤波器检测目标的位移和旋转;利用尺度空间判别相关滤波器检测目标的尺度变化。
具体实现步骤如下:
步骤1:在初始帧中,以目标位置为中心,在初始旋转角度下,提取图像块,并建立掩模矩阵,对图像块进行预处理,获取训练样本,利用空间和时间约束,建立时空正则化相关滤波模型,并将训练样本和对应标签输入模型,学习得到时空正则化判别相关滤波器;
步骤2:在初始帧中,以目标位置为中心,在初始旋转角度下,分别提取多尺度图像块,对所有图像块进行预处理,获取训练样本,输入尺度空间判别相关滤波模型,学习得到尺度空间判别相关滤波器;
步骤3:在随后帧中,首先以目标在上一帧的位置为中心,在上一帧的旋转角度下提取图像块,对图像块进行预处理,利用时空正则化判别相关滤波器获取每个位置的响应,并选取响应峰值所在位置为目标位置;
步骤4:以目标位置为中心,分别提取不同旋转角度图像块,对所有图像块进行预处理,利用时空正则化判别相关滤波器获取不同旋转角度下的响应峰值,选取所有响应峰值的最大值所对应的角度作为目标的旋转角度,选取此旋转角度下响应峰值所在位置作为目标的微调位置;
步骤5:以目标的微调位置为中心,在所得旋转角度下,分别提取多尺度图像块,对图像块进行预处理,利用尺度空间判别相关滤波器获取每个尺度的响应值,并选取响应峰值所对应的尺度作为目标的尺度;
步骤6:以步骤3、4和5所得目标的位置、旋转和尺度作为跟踪结果,采用步骤2和3中相同的处理方式,得到新的时空正则化判别相关滤波器和尺度空间判别相关滤波器,并采用线性插值的方式更新得到最终的相关滤波器;
步骤7:分别重复3、4、5和6,对随后帧进行处理,直到最后一帧处理结束。
所述步骤1、2中,初始旋转角度由初始帧中目标区域的信息获得,具体指目标框主轴与图像x坐标轴的夹角;
所述步骤1、3中提取图像块,具体指从当前帧裁剪出5倍于目标区域大小的图像区域;
所述步骤1中掩模矩阵,尺度和图像块大小相同,包含在目标区域内像素对应的矩阵中的元素为0,其余为1。
所述步骤1、2、3、4、5中,对图像块进行预处理,具体步骤如下:
(1)对图像块的分辨率进行归一化,采用双线性插值进行采样;
(2)提取归一化图像块的特征,可以是混合特征,如梯度方向直方图(HOG)和颜色名(CN)等,并对特征图分辨率进行归一化,合并后得到多通道特征图;
(3)对特征图进行余弦窗处理,得到最终样本。
所述步骤1中建立时空正则化相关滤波模型具体实现如下:
(1)根据掩模矩阵来确定空间约束,结合相关滤波器作为空间正则化项;
(2)根据前后两帧所对应的滤波器差值的欧式距离平方作为时间正则化项;
(3)结合空间、时间正则化项和标准判别相关滤波器模型,得到时空正则化的判别相关滤波模型,并使用交替方向乘子法求解。
本发明还提供一种目标跟踪的装置,包括图像采集单元,图像处理单元,学习单元,跟踪单元,伺服驱动单元;其中,
所述图像采集单元,用于对目标进行成像;
所述图像处理单元,包括图像提取模块和图像预处理模块;图像提取模块用于提取视频中每一帧中特定位置、旋转和尺度的图像块,当超出当前帧范围,则复制边缘像素;图像预处理模块主要对图像块的分辨率进行归一化处理,并提取混合特征,得到的样本输入到学习单元和跟踪单元。
所述学习单元,由时空正则化判别相关滤波单元和尺度空间判别相关滤波单元组成,具体是通过各自的训练样本和标签学习得到相应的滤波器。
所述跟踪单元,由位移检测模块、旋转检测模块和尺度检测模块组成,接受图像处理单元的输入,输出目标最终的位移、旋转和尺度信息。
所述伺服驱动单元,用于驱动图像采集单元的机械运动。
本发明与现有技术相比的有点在于:本发明提供的目标跟踪的方法及装置,能够对旋转和尺度变化的目标下进行准确跟踪,对光照、遮挡和快速运动等挑战因素具有很强的鲁棒性。同时,通过时空约束的外观模型,能够有效排除跟踪过程的干扰物,并抑制目标外观的非连续变化,实现任意目标的快速跟踪。
附图说明
图1是本发明中目标跟踪方法流程图;
图2是掩模矩阵示意图;
图3是建立时空正则化的判别相关滤波模型示意图;
图4是跟踪流程图;
图5是本发明目标跟踪装置示意图;
图6是本方法在VOT2017数据集上的结果;
图7是本方法在OTB2015数据集上的成功率图;
图8是本方法跟踪效果图,其中,(1)为视频ants1,(2)为视频motocross1,(3)为视频drone_flip,(4)为视频basketball,(5)为视频wiper。
具体实施方式
下面结合附图以及具体实施方式进一步说明本发明。
本发明的基本思想是:基于视频中目标区域的空间约束和相邻两帧之间的时间连续性约束,建立时空正则化的判别相关滤波器模型,估计目标的位移、旋转;利用尺度空间判别相关滤波器模型,估计目标的尺度;通过目标的位移、旋转和尺度信息,获得准确的目标跟踪区域。
如图1所示,本发明方法实现步骤如下:
1.在初始化帧中,根据目标区域建立掩模矩阵,利用空间和时间约束,建立时空正则化判别相关滤波器模型。
给定目标区域
Figure BDA0001738733800000041
选取以目标位置为中心的图像块,建立掩模矩阵
Figure BDA0001738733800000042
如图2所示,其中的元素m满足:
Figure BDA0001738733800000043
对图像块进行预处理后,得到的多通道混合特征训练样本
Figure BDA0001738733800000044
M和N为特征尺度大小,D为特征通道数。
设定目标在每个位置的置信度
Figure BDA0001738733800000045
满足高斯分布,目的是学习一个最优的滤波器f,使得训练样本的分类结果总体损失最小。为了减轻相关滤波带来的边界效应,引入空间约束
Figure BDA0001738733800000051
产生空间正则化惩罚
Figure BDA0001738733800000052
e是Hadmard积;同时,为了抑制目标外观发生的突变,引入时间正则化惩罚
Figure BDA0001738733800000053
如图3所示。定义目标函数为:
Figure BDA0001738733800000054
其中,f为所要求的时空正则化判别相关滤波器,★代表圆卷积,λ和μ为正则化项系数,上标d为特征通道,ft-1为上一帧的滤波器。上述最优化问题可以利用交替方向乘子算法进行迭代求解。
2.提取目标在初始位置和旋转角度下的多尺度样本,学习得到尺度空间判别相关滤波器。
首先计算尺度空间内的不同尺度对应的图像大小,在目标的初始位置和旋转角度下,采用双线性插值的方法获得图像块,进行预处理后得到训练样本;
建立尺度空间判别相关滤波器模型,具体方法参见“M.Danelljan,G.Hger,F.S.Khan,M.Felsberg,Discriminative scale space tracking,IEEE Transactions onPattern Analysis&Machine Intelligence 39(8)(2017)1561–1575.”;
将训练样本输入模型,学习得到尺度空间相关滤波器。
3.在随后帧中,利用时空正则化判别相关滤波器获取目标位置。
如图4中位移估计所示,在上一帧的目标位置,以上一帧的旋转角度提取图像块,作为目标的搜索区域,经过预处理得到样本x;
f为时空正则化判别相关滤波器,目标在搜索区域每个位置的响应为:
Figure BDA0001738733800000055
其中,z为响应图,
Figure BDA0001738733800000056
为傅里叶反变换,D为样本特征总通道数,上标d代表特征通道,F和X分别代表f和x的傅里叶变换,e是Hadmard积;z中最大峰值所在位置即为目标的位置。
4.利用时空正则化判别相关滤波器获取在新位置处,不同旋转角度下响应,获取目标的旋转角度,并对目标位移进行微调。
如图4中旋转估计所示,根据旋转池中的角度获取相应的旋转图像块,计算目标在每个位置的响应,选取响应峰值对应的角度作为目标的旋转角度,并对此旋转角度下的响应图进行位置的微调。
5.利用尺度空间判别相关滤波器,获取目标的尺度。
在所得的位置和旋转角度下,提取33个尺度的图像块,预处理后得到样本xscale,则目标的尺度响应为:
Figure BDA0001738733800000061
其中zscale为尺度响应图,Fscale和Xscale为尺度空间判别相关滤波器fscale和xscale的傅里叶变换,e是Hadmard积;
尺度响应图zscale峰值所对应尺度即为目标的尺度。
6.根据跟踪结果,更新相关滤波器。
通过目标的位置、旋转和尺度,可以得到准确的目标区域,根据此区域生成掩模矩阵,并按照步骤1得到当前目标的时空正则化判别相关滤波器ft,按照步骤2得到当前帧的尺度空间判别相关滤波器fscale,t
对滤波器进行更新,方法采用线性插值的方式,设定时空正则化判别相关滤波器和尺度空间判别相关滤波器的学习率分别为η和ηscale,则有:
f=(1-η)ft-1+ηft (5)
fscale=(1-ηscale)fscale,t-1scalefscale,t (6)
其中,ft-1和fscale,t-1分别为上一帧的时空正则化判别相关滤波器和尺度空间判别相关滤波器。
这个更新策略只需要保存当前帧的外观模型,无需保存每一帧的外观模型。
如图5所示,为了实现上述跟踪方法,本发明提供了一种目标跟踪装置:
图像采集单元,用于对目标进行成像;
图像处理单元,包括图像提取模块和图像预处理模块。图像提取模块用于提取视频中每一帧中特定位置、旋转和尺度的图像块,当超出当前帧范围,则复制边缘像素;图像预处理模块主要对图像块的分辨率进行归一化处理,并提取混合特征,得到的样本输入到学习单元和跟踪单元;
学习单元,由时空正则化判别相关滤波单元和尺度空间判别相关滤波单元组成,具体是通过各自的训练样本和标签学习得到相应的滤波器;
跟踪单元,由位移检测模块、旋转检测模块和尺度检测模块组成,接受图像处理单元的输入,输出目标最终的位移、旋转和尺度信息
伺服驱动单元,伺服驱动单元,根据目标跟踪的结果,驱动图像采集单元的机械运动。
下面结合实施例对本发明作进一步描述。
实施例
在本实施例中,采用视觉目标跟踪数据集2017版本(VOT2017),这个数据集包含60段视频序列,包括了光照变化、旋转、快速移动、遮挡、形变等挑战因素。所有的实验在一台CPU为Intel i7-4700Hq(2.4GHz),RAM为16GB的便携式计算机上进行。
为了评价本发明方法的有效性,采用VOT方法,具体方式是检测到跟踪失败后跳过5帧重新初始化***,以保证对数据集的最大化利用,具体评价方式是通过综合***的准确度(与真实目标区域的重叠率)和稳定度(跟踪失败次数与总跟踪帧数的比值),计算平均期望重叠率。
将本发明算法与最新的9种算法比较(ECOhc算法、STRCF算法、CSRDCF算法、Staple算法、SRDCF算法、DSST算法、SSKCF算法、KCF算法和mosse_ca算法)。图6展示了准确度-稳定度图及其排名图。平均期望重叠率结果见表1。结果表明,本发明算法的结果最好。
表1平均期望重叠率
Figure BDA0001738733800000071
为了进一步表明本发明算法的泛化性能,采用由Y.Wu建立的目标跟踪标准测试视频集(OTB2015),其中包含了100个视频序列,评价方式采用跟踪框与真值的重叠率计算成功率。成功率有两种计算方式,一种是计算重叠率大于阈值(通常取0.5)的帧数与总帧数的比率(OP),另一种为计算重叠率的曲线下面积(AUC),图7分别展示了OP的成功率图和AUC的成功率图。
为了直观表明本方法的跟踪结果,选取了5段挑战性视频(ants1,motocross1,drone_flip,basketball,wiper),图8展示了本方法在这些视频上的跟踪结果,结果显示,本发明算法能够很好地应对光照变化、遮挡、旋转和快速运动等挑战因素,并输出准确的目标区域。

Claims (7)

1.一种目标跟踪的方法,其特征在于,实现步骤如下:
步骤1:在初始帧中,以目标位置为中心,在初始旋转角度下,提取图像块,并建立掩模矩阵,对图像块进行预处理,获取训练样本,利用空间和时间约束,建立时空正则化相关滤波模型,并将训练样本和对应标签输入模型,学习得到时空正则化判别相关滤波器;
步骤2:在初始帧中,以目标位置为中心,在初始旋转角度下,分别提取多尺度图像块,对所有图像块进行预处理,获取训练样本,输入尺度空间判别相关滤波模型,学习得到尺度空间判别相关滤波器;
步骤3:在随后帧中,首先以目标在上一帧的位置为中心,在上一帧的旋转角度下提取图像块,对图像块进行预处理,利用时空正则化判别相关滤波器获取每个位置的响应,并选取响应峰值所在位置为目标位置;
步骤4:以目标位置为中心,分别提取不同旋转角度图像块,对所有图像块进行预处理,利用时空正则化判别相关滤波器获取不同旋转角度下的响应峰值,选取所有响应峰值的最大值所对应的角度作为目标的旋转角度,选取此旋转角度下响应峰值所在位置作为目标的微调位置;
步骤5:以目标的微调位置为中心,在所得旋转角度下,分别提取多尺度图像块,对图像块进行预处理,利用尺度空间判别相关滤波器获取每个尺度的响应值,并选取响应峰值所对应的尺度作为目标的尺度;
步骤6:以步骤3、4和5所得目标的位置、旋转和尺度作为跟踪结果,采用步骤2和3中相同的处理方式,得到新的时空正则化判别相关滤波器和尺度空间判别相关滤波器,并采用线性插值的方式更新得到最终的相关滤波器;
步骤7:分别重复3、4、5和6,对随后帧进行处理,直到最后一帧处理结束。
2.根据权利要求1所述的一种目标跟踪的方法,其特征在于:所述的初始旋转角度,由初始化帧中的目标区域信息获得,具体指目标框主轴与图像x坐标轴的夹角。
3.根据权利要求1所述的一种目标跟踪的方法,其特征在于:所述的提取图像块,从当前帧裁剪出5倍于目标区域大小的图像区域。
4.根据权利要求1所述的一种目标跟踪的方法,其特征在于:所述的掩模矩阵,所述掩模矩阵尺度和图像块大小相同,包含在目标区域内像素对应的矩阵中的元素为0,其余为1。
5.根据权利要求1所述的一种目标跟踪的方法,其特征在于:所述的对图像块进行预处理,具体步骤如下:
(1)对图像块的分辨率进行归一化,采用双线性插值进行采样;
(2)提取归一化图像块的特征,其是混合特征,并对特征图分辨率进行归一化,合并后得到多通道特征图;
(3)对特征图进行余弦窗处理,得到最终样本。
6.根据权利要求1所述的一种目标跟踪的方法,其特征在于:所述的建立时空正则化相关滤波模型,具体实现如下:
(1)根据掩模矩阵来确定空间约束,结合相关滤波器作为空间正则化项;
(2)根据前后两帧所对应的滤波器差值的欧式距离平方作为时间正则化项;
(3)结合空间、时间正则化项和标准判别相关滤波器模型,得到时空正则化的判别相关滤波模型,并使用交替方向乘子法求解。
7.一种目标跟踪的装置,其特征在于:包括图像采集单元,图像处理单元,学习单元,跟踪单元,伺服驱动单元;其中,
所述图像采集单元,用于对目标进行成像;
所述图像处理单元,包括图像提取模块和图像预处理模块;图像提取模块用于提取视频中每一帧中特定位置、旋转和尺度的图像块,当超出当前帧范围,则复制边缘像素;图像预处理模块对图像块的分辨率进行归一化处理,并提取混合特征,得到的样本输入到学习单元和跟踪单元;
所述学习单元,由时空正则化判别相关滤波单元和尺度空间判别相关滤波单元组成,具体是通过各自的训练样本和标签学习得到相应的滤波器;
所述跟踪单元,由位移检测模块、旋转检测模块和尺度检测模块组成,接受图像处理单元的输入,输出目标最终的位移、旋转和尺度信息;
所述伺服驱动单元,根据目标跟踪的结果,驱动图像采集单元的机械运动;
该目标跟踪的装置用来实现权利要求1所述的目标跟踪的方法。
CN201810809470.0A 2018-07-23 2018-07-23 一种目标跟踪的方法及装置 Active CN109146911B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810809470.0A CN109146911B (zh) 2018-07-23 2018-07-23 一种目标跟踪的方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810809470.0A CN109146911B (zh) 2018-07-23 2018-07-23 一种目标跟踪的方法及装置

Publications (2)

Publication Number Publication Date
CN109146911A CN109146911A (zh) 2019-01-04
CN109146911B true CN109146911B (zh) 2021-09-14

Family

ID=64801277

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810809470.0A Active CN109146911B (zh) 2018-07-23 2018-07-23 一种目标跟踪的方法及装置

Country Status (1)

Country Link
CN (1) CN109146911B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109993777B (zh) * 2019-04-04 2021-06-29 杭州电子科技大学 一种基于双模板自适应阈值的目标跟踪方法及***
CN110163887B (zh) * 2019-05-07 2023-10-20 国网江西省电力有限公司检修分公司 基于运动插值估计与前景分割相结合的视频目标跟踪方法
CN110348522B (zh) * 2019-07-12 2021-12-07 创新奇智(青岛)科技有限公司 一种图像检测识别方法及***、电子设备、图像分类网络优化方法及***
CN110929620B (zh) * 2019-11-15 2023-04-07 浙江大华技术股份有限公司 目标跟踪方法、装置及存储装置
CN111429484B (zh) * 2020-03-31 2022-03-15 电子科技大学 一种基于交通监控视频的多目标车辆轨迹实时构建方法
CN111563915B (zh) * 2020-05-06 2023-04-14 南京航空航天大学 一种融合运动信息检测和Radon变换的KCF目标跟踪方法
CN111612809B (zh) * 2020-05-28 2023-04-07 华侨大学 一种结合时空正则化约束的视觉跟踪定位方法
CN113822911B (zh) * 2021-10-08 2022-09-16 中国人民解放军国防科技大学 柱状倾斜目标的跟踪方法、装置、计算机设备和存储介质
CN114035186B (zh) * 2021-10-18 2022-06-28 北京航天华腾科技有限公司 一种目标方位跟踪指示***及方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104574445B (zh) * 2015-01-23 2015-10-14 北京航空航天大学 一种目标跟踪方法
CN108257153B (zh) * 2017-12-29 2021-09-07 中国电子科技集团公司第二十七研究所 一种基于方向梯度统计特征的目标跟踪方法

Also Published As

Publication number Publication date
CN109146911A (zh) 2019-01-04

Similar Documents

Publication Publication Date Title
CN109146911B (zh) 一种目标跟踪的方法及装置
CN108665481B (zh) 多层深度特征融合的自适应抗遮挡红外目标跟踪方法
CN104574445B (zh) 一种目标跟踪方法
CN104091147B (zh) 一种近红外眼睛定位及眼睛状态识别方法
Srivatsa et al. Salient object detection via objectness measure
CN111311647B (zh) 一种基于全局-局部及卡尔曼滤波的目标跟踪方法及装置
Rahtu et al. A simple and efficient saliency detector for background subtraction
CN107368802B (zh) 基于kcf和人脑记忆机制的运动目标跟踪方法
CN106529441B (zh) 基于模糊边界分片的深度动作图人体行为识别方法
Hu et al. Depth sensor based human detection for indoor surveillance
CN110276782B (zh) 一种结合空谱特征和相关滤波的高光谱目标跟踪方法
Nandhini et al. SIFT algorithm-based Object detection and tracking in the video image
CN111915653B (zh) 双站视觉目标跟踪的方法
CN111951298B (zh) 一种融合时间序列信息的目标跟踪方法
CN113033356A (zh) 一种尺度自适应的长期相关性目标跟踪方法
CN111862147A (zh) 视频中多车辆和多行人目标的跟踪方法
Dou et al. Robust visual tracking based on joint multi-feature histogram by integrating particle filter and mean shift
Guangjing et al. Research on static image recognition of sports based on machine learning
CN115345902A (zh) 基于机器学习的红外图像弱小目标检测跟踪方法及***
CN114743257A (zh) 图像目标行为的检测识别方法
Liu et al. [Retracted] Mean Shift Fusion Color Histogram Algorithm for Nonrigid Complex Target Tracking in Sports Video
Lal et al. Feature extraction for moving object detection in a non-stationary background
Kwon et al. Visual tracking based on edge field with object proposal association
Goyal et al. Moving Object Detection in Video Streaming Using Improved DNN Algorithm
Mohammadi et al. Enhanced adaptive bandwidth tracking using mean shift algorithm

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant