CN106952288A - 基于卷积特征和全局搜索检测的长时遮挡鲁棒跟踪方法 - Google Patents

基于卷积特征和全局搜索检测的长时遮挡鲁棒跟踪方法 Download PDF

Info

Publication number
CN106952288A
CN106952288A CN201710204379.1A CN201710204379A CN106952288A CN 106952288 A CN106952288 A CN 106952288A CN 201710204379 A CN201710204379 A CN 201710204379A CN 106952288 A CN106952288 A CN 106952288A
Authority
CN
China
Prior art keywords
target
scale
init
convolution
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710204379.1A
Other languages
English (en)
Other versions
CN106952288B (zh
Inventor
李映
林彬
杭涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN201710204379.1A priority Critical patent/CN106952288B/zh
Publication of CN106952288A publication Critical patent/CN106952288A/zh
Application granted granted Critical
Publication of CN106952288B publication Critical patent/CN106952288B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]

Landscapes

  • Image Analysis (AREA)

Abstract

本发明涉及一种基于卷积特征和全局搜索检测的长时遮挡鲁棒跟踪方法,通过在跟踪模块中使用卷积特征和多尺度相关滤波方法,增强了跟踪目标外观模型的特征表达能力,使得跟踪结果对于光照变化、目标尺度变化、目标旋转等因素具有很强的鲁棒性;又通过引入的全局搜索检测机制,使得当目标被长时遮挡导致跟踪失败时,检测模块可以再次检测到目标,使跟踪模块从错误中恢复过来,这样即使在目标外观变化的情况下,也能够被长时间持续地跟踪。

Description

基于卷积特征和全局搜索检测的长时遮挡鲁棒跟踪方法
技术领域
本发明属计算机视觉领域,涉及一种目标跟踪方法,具体涉及一种基于卷积特征和全局搜索检测的长时遮挡鲁棒跟踪方法。
背景技术
目标跟踪的主要任务是获取视频序列中特定目标的位置与运动信息,在视频监控、人机交互等领域具有广泛的应用。跟踪过程中,光照变化、背景复杂、目标发生旋转或缩放等因素都会增加目标跟踪问题的复杂性,尤其是当目标被长时遮挡时,则更容易导致跟踪失败。
文献“Tracking-learning-detection,IEEE Transactions on PatternAnalysis and Machine Intelligence,2012,34(7):1409-1422”提出的跟踪方法(简称TLD)首次将传统的跟踪算法和检测算法结合起来,利用检测结果完善跟踪结果,提高了***的可靠性和鲁棒性。其跟踪算法基于光流法,检测算法产生大量的检测窗口,对于每个检测窗口,都必须被三个检测器接受才能成为最后的检测结果。针对遮挡问题,TLD提供了一个切实有效的解决思路,能够对目标进行长时跟踪(Long-term Tracking)。但是,TLD使用的是浅层的人工特征,对目标的表征能力有限,且检测算法的设计也较为复杂,有一定的改进空间。
发明内容
要解决的技术问题
为了避免现有技术的不足之处,本发明提出一种基于卷积特征和全局搜索检测的长时遮挡鲁棒跟踪方法,解决视频运动目标在跟踪过程中由于长时遮挡或目标平移出视野之外等因素造成外观模型漂移,从而易导致跟踪失败的问题。
技术方案
一种基于卷积特征和全局搜索检测的长时遮挡鲁棒跟踪方法,其特征在于步骤如下:
步骤1读取视频中第一帧图像数据以及目标所在的初始位置信息[x,y,w,h],其中x,y表示目标中心的横坐标和纵坐标,w,h表示目标的宽和高。将(x,y)对应的坐标点记为P,以P为中心,大小为w×h的目标初始区域记为Rinit,再将目标的尺度记为scale,初始化为1。
步骤2以P为中心,确定一个包含目标及背景信息的区域Rbkg,Rbkg的大小为M×N,M=2w,N=2h。采用VGGNet-19作为CNN模型,在第5层卷积层(conv5-4)对R'提取卷积特征图ztarget_init。然后根据ztarget_init构建跟踪模块的目标模型t∈{1,2,...,T},T为CNN模型通道数,计算方法如下:
其中,大写的变量为相应的小写变量在频域上的表示,高斯滤波模板m,n为高斯函数自变量,m∈{1,2,...,M},n∈{1,2,...,N},σtarget为高斯核的带宽,⊙代表元素相乘运算,上划线表示复共轭,λ1为调整参数(为了避免分母为0而引入),设定为0.0001。
步骤3以P为中心,提取S个不同尺度的图像子块,S设定为33。每个子块的大小为w×h×s,变量s为图像子块的尺度因子,s∈[0.7,1.4]。然后分别提取每个图像子块的HOG特征,合并后成为一个S维的HOG特征向量,这里将其命名为尺度特征向量,记为zscale_init。再根据zscale_init构建跟踪模块的尺度模型Wscale,计算方法与步骤2中计算类似(将尺度特征向量替换掉卷积特征图),具体如下:
其中,s'为高斯函数自变量,s'∈{1,2,...,S},σscale为高斯核的带宽,λ2为调整参数,设定为0.0001。
步骤4对目标初始区域Rinit提取灰度特征,得到的灰度特征表示是一个二维矩阵,这里将该矩阵命名为目标外观表示矩阵,记为Ak,下标k表示当前帧数,初始时k=1。然后将检测模块的滤波模型D初始化为A1,即D=A1,再初始化历史目标表示矩阵集合Ahis。Ahis的作用是存储当前及之前每一帧的目标外观表示矩阵,即Ahis={A1,A2,...,Ak},初始时Ahis={A1}。
步骤5读取下一帧图像,仍然以P为中心,提取大小为Rbkg×scale的经过尺度缩放后的目标搜索区域。然后通过步骤2中的CNN网络提取目标搜索区域的卷积特征,并以双边插值的方式采样到Rbkg的大小得到当前帧的卷积特征图ztarget_cur,再利用目标模型计算目标置信图ftarget,计算方法如下:
其中,为傅里叶逆变换。最后更新P的坐标,将(x,y)修正为ftarget中的最大响应值所对应的坐标:
步骤6以P为中心,提取S个不同尺度的图像子块,然后分别提取每个图像子块的HOG特征,合并后得到当前帧的尺度特征向量zscale_cur(同步骤3中zscale_init的计算方法)。再利用尺度模型Wscale计算尺度置信图:
最后更新目标的尺度scale,计算方法如下:
至此,可以得到跟踪模块在当前帧(第k帧)的输出:以坐标为(x,y)的P为中心,大小为Rinit×scale的图像子块TPatchk。另外,将已经计算完成的ftarget中的最大响应值简记为TPeakk,即TPeakk=ftarget(x,y)。
步骤7检测模块以全局搜索的方式将滤波模型D与当前帧的整幅图像进行卷积,计算滤波模型D与当前帧各个位置的相似程度。取响应度最高的前j个值(j设定为10),并分别以这j个值对应的位置点为中心,提取大小为Rinit×scale的j个图像子块。将这j个图像子块作为元素,生成一个图像子块集合DPatchesk,即检测模块在第k帧的输出。
步骤8对检测模块输出的集合DPatchesk中各图像子块,分别计算其与跟踪模块输出的TPatchk之间的像素重叠率,可以得到j个值,将其中最高的值记为如果小于阈值(设定为0.05),判定为目标被完全遮挡,需要抑制跟踪模块在模型更新时的学习率β,并转步骤9;否则按初始学习率βinitinit设定为0.02)进行更新,并转步骤10。β的计算公式如下:
步骤9根据DPatchesk中各图像子块的中心,分别提取大小为Rbkg×scale的j个目标搜索区域,按照步骤5中的方法对每一个目标搜索区域提取卷积特征图并计算目标置信图,可以得到j个目标搜索区域上的最大响应值。在这j个响应值中再进行比较,将最大的值记为DPeakk。如果DPeakk大于TPeakk,则再次更新P的坐标,将(x,y)修正为DPeakk所对应的坐标。并重新计算目标尺度特征向量和目标尺度scale(同步骤6中的计算方式)。
步骤10目标在当前帧最优的位置中心确定为P,最优尺度确定为scale。在图像中标示出新的目标区域Rnew,即以P为中心,宽和高分别为w×scale、h×scale的矩形框。另外,将已经计算完成、并且能够得到最优目标位置中心P的卷积特征图简记为ztarget;同样,将能够得到最优目标尺度scale的尺度特征向量简记为zscale
步骤11利用ztarget、zscale,以及上一帧建立的跟踪模块中的目标模型和尺度模型Wscale,分别以加权求和的方式进行模型更新,计算方法如下:
其中,β为步骤8计算后的学习率。
步骤12对新的目标区域Rnew提取灰度特征后得到当前帧的目标外观表示矩阵Ak,将Ak加入到历史目标表示矩阵集合Ahis。如果集合Ahis中元素个数大于c(c设定为20),则从Ahis中随机选择c个元素生成一个三维矩阵Ck,Ck(:,i)对应的是Ahis中任意一个元素(即二维矩阵Ak);否则用Ahis中所有元素生成矩阵Ck。然后对Ck进行平均化得到二维矩阵,将这个二维矩阵作为检测模块新的滤波模型D,计算方法如下:
步骤13判断是否处理完视频中所有的图像帧,若处理完则算法结束,否则转步骤5继续执行。
有益效果
本发明提出的一种基于卷积特征和全局搜索检测的长时遮挡鲁棒跟踪方法,分别设计了跟踪模块和检测模块,跟踪过程中,两个模块协同工作:跟踪模块主要利用卷积神经网络(Convolutional Neural Network,CNN)提取目标的卷积特征用于构建鲁棒的目标模型,并通过方向梯度直方图(Histogram of Oriented Gradient,HOG)特征构建尺度模型,结合相关滤波方法来分别确定目标的位置中心和尺度;检测模块提取灰度特征构建目标的滤波模型,采用全局搜索的方式在整幅图像中对目标进行快速检测并判断遮挡的发生,一旦目标被完全遮挡(或其它因素导致目标外观剧烈变化),检测模块利用检测结果修正跟踪目标的位置,并抑制跟踪模块的模型更新,防止引入不必要的噪声从而导致模型漂移和跟踪失败。
优越性:通过在跟踪模块中使用卷积特征和多尺度相关滤波方法,增强了跟踪目标外观模型的特征表达能力,使得跟踪结果对于光照变化、目标尺度变化、目标旋转等因素具有很强的鲁棒性;又通过引入的全局搜索检测机制,使得当目标被长时遮挡导致跟踪失败时,检测模块可以再次检测到目标,使跟踪模块从错误中恢复过来,这样即使在目标外观变化的情况下,也能够被长时间持续地跟踪。
附图说明
图1:基于卷积特征和全局搜索检测的长时遮挡鲁棒跟踪方法流程图
具体实施方式
现结合实施例、附图对本发明作进一步描述:
步骤1读取视频中第一帧图像数据以及目标所在的初始位置信息[x,y,w,h],其中x,y表示目标中心的横坐标和纵坐标,w,h表示目标的宽和高。将(x,y)对应的坐标点记为P,以P为中心,大小为w×h的目标初始区域记为Rinit,再将目标的尺度记为scale,初始化为1。
步骤2以P为中心,确定一个包含目标及背景信息的区域Rbkg,Rbkg的大小为M×N,M=2w,N=2h。采用VGGNet-19作为CNN模型,在第5层卷积层(conv5-4)对R'提取卷积特征图ztarget_init。然后根据ztarget_init构建跟踪模块的目标模型t∈{1,2,...,T},T为CNN模型通道数,计算方法如下:
其中,大写的变量为相应的小写变量在频域上的表示,高斯滤波模板m,n为高斯函数自变量,m∈{1,2,...,M},n∈{1,2,...,N},σtarget为高斯核的带宽,⊙代表元素相乘运算,上划线表示复共轭,λ1为调整参数(为了避免分母为0而引入),设定为0.0001。
步骤3以P为中心,提取S个不同尺度的图像子块,S设定为33。每个子块的大小为w×h×s,变量s为图像子块的尺度因子,s∈[0.7,1.4]。然后分别提取每个图像子块的HOG特征,合并后成为一个S维的HOG特征向量,这里将其命名为尺度特征向量,记为zscale_init。再根据zscale_init构建跟踪模块的尺度模型Wscale,计算方法与步骤2中计算类似(将尺度特征向量替换掉卷积特征图),具体如下:
其中,s'为高斯函数自变量,s'∈{1,2,...,S},σscale为高斯核的带宽,λ2为调整参数,设定为0.0001。
步骤4对目标初始区域Rinit提取灰度特征,得到的灰度特征表示是一个二维矩阵,这里将该矩阵命名为目标外观表示矩阵,记为Ak,下标k表示当前帧数,初始时k=1。然后将检测模块的滤波模型D初始化为A1,即D=A1,再初始化历史目标表示矩阵集合Ahis。Ahis的作用是存储当前及之前每一帧的目标外观表示矩阵,即Ahis={A1,A2,...,Ak},初始时Ahis={A1}。
步骤5读取下一帧图像,仍然以P为中心,提取大小为Rbkg×scale的经过尺度缩放后的目标搜索区域。然后通过步骤2中的CNN网络提取目标搜索区域的卷积特征,并以双边插值的方式采样到Rbkg的大小得到当前帧的卷积特征图ztarget_cur,再利用目标模型计算目标置信图ftarget,计算方法如下:
其中,为傅里叶逆变换。最后更新P的坐标,将(x,y)修正为ftarget中的最大响应值所对应的坐标:
步骤6以P为中心,提取S个不同尺度的图像子块,然后分别提取每个图像子块的HOG特征,合并后得到当前帧的尺度特征向量zscale_cur(同步骤3中zscale_init的计算方法)。再利用尺度模型Wscale计算尺度置信图:
最后更新目标的尺度scale,计算方法如下:
至此,可以得到跟踪模块在当前帧(第k帧)的输出:以坐标为(x,y)的P为中心,大小为Rinit×scale的图像子块TPatchk。另外,将已经计算完成的ftarget中的最大响应值简记为TPeakk,即TPeakk=ftarget(x,y)。
步骤7检测模块以全局搜索的方式将滤波模型D与当前帧的整幅图像进行卷积,计算滤波模型D与当前帧各个位置的相似程度。取响应度最高的前j个值(j设定为10),并分别以这j个值对应的位置点为中心,提取大小为Rinit×scale的j个图像子块。将这j个图像子块作为元素,生成一个图像子块集合DPatchesk,即检测模块在第k帧的输出。
步骤8对检测模块输出的集合DPatchesk中各图像子块,分别计算其与跟踪模块输出的TPatchk之间的像素重叠率,可以得到j个值,将其中最高的值记为如果小于阈值(设定为0.05),判定为目标被完全遮挡,需要抑制跟踪模块在模型更新时的学习率β,并转步骤9;否则按初始学习率βinitinit设定为0.02)进行更新,并转步骤10。β的计算公式如下:
步骤9根据DPatchesk中各图像子块的中心,分别提取大小为Rbkg×scale的j个目标搜索区域,按照步骤5中的方法对每一个目标搜索区域提取卷积特征图并计算目标置信图,可以得到j个目标搜索区域上的最大响应值。在这j个响应值中再进行比较,将最大的值记为DPeakk。如果DPeakk大于TPeakk,则再次更新P的坐标,将(x,y)修正为DPeakk所对应的坐标。并重新计算目标尺度特征向量和目标尺度scale(同步骤6中的计算方式)。
步骤10目标在当前帧最优的位置中心确定为P,最优尺度确定为scale。在图像中标示出新的目标区域Rnew,即以P为中心,宽和高分别为w×scale、h×scale的矩形框。另外,将已经计算完成、并且能够得到最优目标位置中心P的卷积特征图简记为ztarget;同样,将能够得到最优目标尺度scale的尺度特征向量简记为zscale
步骤11利用ztarget、zscale,以及上一帧建立的跟踪模块中的目标模型和尺度模型Wscale,分别以加权求和的方式进行模型更新,计算方法如下:
其中,β为步骤8计算后的学习率。
步骤12对新的目标区域Rnew提取灰度特征后得到当前帧的目标外观表示矩阵Ak,将Ak加入到历史目标表示矩阵集合Ahis。如果集合Ahis中元素个数大于c(c设定为20),则从Ahis中随机选择c个元素生成一个三维矩阵Ck,Ck(:,i)对应的是Ahis中任意一个元素(即二维矩阵Ak);否则用Ahis中所有元素生成矩阵Ck。然后对Ck进行平均化得到二维矩阵,将这个二维矩阵作为检测模块新的滤波模型D,计算方法如下:
步骤13判断是否处理完视频中所有的图像帧,若处理完则算法结束,否则转步骤5继续执行。

Claims (6)

1.一种基于卷积特征和全局搜索检测的长时遮挡鲁棒跟踪方法,其特征在于步骤如下:
步骤1:读取视频中第一帧图像数据以及目标所在的初始位置信息[x,y,w,h],其中x,y表示目标中心的横坐标和纵坐标,w,h表示目标的宽和高;将(x,y)对应的坐标点记为P,以P为中心,大小为w×h的目标初始区域记为Rinit,再将目标的尺度记为scale,初始化为1;
步骤2:以P为中心,确定一个包含目标及背景信息的区域Rbkg,Rbkg的大小为M×N,M=2w,N=2h;采用VGGNet-19作为CNN模型,在第5层卷积层(conv5-4)对R'提取卷积特征图ztarget_init;然后根据ztarget_init构建跟踪模块的目标模型t∈{1,2,...,T},T为CNN模型通道数,计算方法如下:
其中:大写的变量为相应的小写变量在频域上的表示,高斯滤波模板m,n为高斯函数自变量,m∈{1,2,...,M},n∈{1,2,...,N},σtarget为高斯核的带宽,⊙代表元素相乘运算,上划线表示复共轭,λ1为调整参数;
步骤3:以P为中心,提取S个不同尺度的图像子块,S设定为33;每个子块的大小为w×h×s,变量s为图像子块的尺度因子,s∈[0.7,1.4];然后分别提取每个图像子块的HOG特征,合并后成为一个S维的HOG特征向量,并命名为尺度特征向量,记为zscale_init;再根据zscale_init构建跟踪模块的尺度模型Wscale,计算方法如下:
其中,s'为高斯函数自变量,s'∈{1,2,...,S},σscale为高斯核的带宽,λ2为调整参数;
步骤4:对目标初始区域Rinit提取灰度特征,得到的灰度特征表示的二维矩阵,命名为目标外观表示矩阵,记为Ak,下标k表示当前帧数,初始时k=1;然后将检测模块的滤波模型D初始化为A1,即D=A1,再初始化历史目标表示矩阵集合Ahis;Ahis为存储当前及之前每一帧的目标外观表示矩阵,即Ahis={A1,A2,...,Ak},初始时Ahis={A1};
步骤5:读取下一帧图像,仍然以P为中心,提取大小为Rbkg×scale的经过尺度缩放后的目标搜索区域;然后通过步骤2中的CNN网络提取目标搜索区域的卷积特征,并以双边插值的方式采样到Rbkg的大小得到当前帧的卷积特征图ztarget_cur,再利用目标模型计算目标置信图ftarget,计算方法如下:
其中,为傅里叶逆变换。最后更新P的坐标,将(x,y)修正为ftarget中的最大响应值所对应的坐标:
( x , y ) = arg m a x x ′ , y ′ ( f t arg e t ( x ′ , y ′ ) ) ;
步骤6:以P为中心,提取S个不同尺度的图像子块,然后分别提取每个图像子块的HOG特征,合并后得到当前帧的尺度特征向量zscale_cur,同步骤3中zscale_init的计算方法;再利用尺度模型Wscale计算尺度置信图:
最后更新目标的尺度scale,计算方法如下:
s c a l e = arg m a x s ′ ′ ( f s c a l e ( s ′ ′ ) )
得到跟踪模块在当前帧(第k帧)的输出:以坐标为(x,y)的P为中心,大小为Rinit×scale的图像子块TPatchk;另外,将已经计算完成的ftarget中的最大响应值简记为TPeakk,即TPeakk=ftarget(x,y);
步骤7:检测模块以全局搜索的方式将滤波模型D与当前帧的整幅图像进行卷积,计算滤波模型D与当前帧各个位置的相似程度;取响应度最高的前j个值,并分别以j个值对应的位置点为中心,提取大小为Rinit×scale的j个图像子块;将j个图像子块作为元素,生成一个图像子块集合DPatchesk,即检测模块在第k帧的输出;
步骤8:分别计算检测模块输出的集合DPatchesk中各图像子块与跟踪模块输出的TPatchk之间的像素重叠率,得到j个值,将其中最高的值记为如果小于阈值判定为目标被完全遮挡,需要抑制跟踪模块在模型更新时的学习率β,并转步骤9;否则按初始学习率βinit进行更新,并转步骤10;
所述β的计算公式如下:
步骤9:根据DPatchesk中各图像子块的中心,分别提取大小为Rbkg×scale的j个目标搜索区域,按照步骤5中的方法对每一个目标搜索区域提取卷积特征图并计算目标置信图,得到j个目标搜索区域上的最大响应值;在j个响应值中的最大的值记为DPeakk;如果DPeakk大于TPeakk,则再次更新P的坐标,将(x,y)修正为DPeakk所对应的坐标;并重新计算目标尺度特征向量和目标尺度scale,采用步骤6中的计算方式;
步骤10:目标在当前帧最优的位置中心确定为P,最优尺度确定为scale;在图像中标示出新的目标区域Rnew,以P为中心,宽和高分别为w×scale、h×scale的矩形框;另外,将已经计算完成、并且能够得到最优目标位置中心P的卷积特征图简记为ztarget;同样,将能够得到最优目标尺度scale的尺度特征向量简记为zscale
步骤11:利用ztarget、zscale,以及上一帧建立的跟踪模块中的目标模型和尺度模型Wscale,分别以加权求和的方式进行模型更新,计算方法如下:
W t arg e t t = W t arg e t _ n e w t
Wscale=Wscale_new
步骤12:对新的目标区域Rnew提取灰度特征后得到当前帧的目标外观表示矩阵Ak,将Ak加入到历史目标表示矩阵集合Ahis;如果集合Ahis中元素个数大于c,则从Ahis中随机选择c个元素生成一个三维矩阵Ck,Ck(:,i)对应的是Ahis中任意一个元素、即二维矩阵Ak;否则用Ahis中所有元素生成矩阵Ck;然后对Ck进行平均化得到二维矩阵,将这个二维矩阵作为检测模块新的滤波模型D,计算方法如下:
D = 1 c Σ i = 1 , ... , c C ( : , i ) , i f | A h i s | > c 1 | A h i s | Σ i = 1 , ... , | A h i s | C ( : , i ) , o t h e r w i s e
步骤13:若处理完视频中所有的图像帧则算法结束,否则转步骤5继续执行。
2.根据权利要求1所述基于卷积特征和全局搜索检测的长时遮挡鲁棒跟踪方法,其特征在于:所述调整参数λ1和λ2设定为0.0001。
3.根据权利要求1所述基于卷积特征和全局搜索检测的长时遮挡鲁棒跟踪方法,其特征在于:所述j值设定为10。
4.根据权利要求1所述基于卷积特征和全局搜索检测的长时遮挡鲁棒跟踪方法,其特征在于:所述阈值设定为0.05。
5.根据权利要求1所述基于卷积特征和全局搜索检测的长时遮挡鲁棒跟踪方法,其特征在于:所述初始学习率βinit设定为0.02。
6.根据权利要求1所述基于卷积特征和全局搜索检测的长时遮挡鲁棒跟踪方法,其特征在于:所述c设定为20。
CN201710204379.1A 2017-03-31 2017-03-31 基于卷积特征和全局搜索检测的长时遮挡鲁棒跟踪方法 Expired - Fee Related CN106952288B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710204379.1A CN106952288B (zh) 2017-03-31 2017-03-31 基于卷积特征和全局搜索检测的长时遮挡鲁棒跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710204379.1A CN106952288B (zh) 2017-03-31 2017-03-31 基于卷积特征和全局搜索检测的长时遮挡鲁棒跟踪方法

Publications (2)

Publication Number Publication Date
CN106952288A true CN106952288A (zh) 2017-07-14
CN106952288B CN106952288B (zh) 2019-09-24

Family

ID=59475259

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710204379.1A Expired - Fee Related CN106952288B (zh) 2017-03-31 2017-03-31 基于卷积特征和全局搜索检测的长时遮挡鲁棒跟踪方法

Country Status (1)

Country Link
CN (1) CN106952288B (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107452022A (zh) * 2017-07-20 2017-12-08 西安电子科技大学 一种视频目标跟踪方法
CN107491742A (zh) * 2017-07-28 2017-12-19 西安因诺航空科技有限公司 一种长时稳定的无人机目标跟踪方法
CN107644430A (zh) * 2017-07-27 2018-01-30 孙战里 基于自适应特征融合的目标跟踪
CN108734151A (zh) * 2018-06-14 2018-11-02 厦门大学 基于相关滤波以及深度孪生网络的鲁棒长程目标跟踪方法
CN109271865A (zh) * 2018-08-17 2019-01-25 西安电子科技大学 基于散射变换多层相关滤波的运动目标跟踪方法
CN109410249A (zh) * 2018-11-13 2019-03-01 深圳龙岗智能视听研究院 一种结合深度特征与手绘特征自适应目标的追踪方法
CN109596649A (zh) * 2018-11-29 2019-04-09 昆明理工大学 一种基于卷积网络耦合微合金元素对主元素浓度影响的方法及装置
CN109740448A (zh) * 2018-12-17 2019-05-10 西北工业大学 基于相关滤波和图像分割的航拍视频目标鲁棒跟踪方法
CN109754424A (zh) * 2018-12-17 2019-05-14 西北工业大学 基于融合特征和自适应更新策略的相关滤波跟踪算法
CN110276782A (zh) * 2018-07-09 2019-09-24 西北工业大学 一种结合空谱特征和相关滤波的高光谱目标跟踪方法
WO2020056903A1 (zh) * 2018-09-21 2020-03-26 北京字节跳动网络技术有限公司 用于生成信息的方法和装置
CN111260687A (zh) * 2020-01-10 2020-06-09 西北工业大学 一种基于语义感知网络和相关滤波的航拍视频目标跟踪方法
CN111652910A (zh) * 2020-05-22 2020-09-11 重庆理工大学 一种基于对象空间关系的目标跟踪算法
CN112762841A (zh) * 2020-12-30 2021-05-07 天津大学 一种基于多分辨率深度特征的桥梁动位移监测***及方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105631895A (zh) * 2015-12-18 2016-06-01 重庆大学 结合粒子滤波的时空上下文视频目标跟踪方法
CN105741316A (zh) * 2016-01-20 2016-07-06 西北工业大学 基于深度学习和多尺度相关滤波的鲁棒目标跟踪方法
CN106326924A (zh) * 2016-08-23 2017-01-11 武汉大学 一种基于局部分类的目标跟踪方法及***

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105631895A (zh) * 2015-12-18 2016-06-01 重庆大学 结合粒子滤波的时空上下文视频目标跟踪方法
CN105741316A (zh) * 2016-01-20 2016-07-06 西北工业大学 基于深度学习和多尺度相关滤波的鲁棒目标跟踪方法
CN106326924A (zh) * 2016-08-23 2017-01-11 武汉大学 一种基于局部分类的目标跟踪方法及***

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CHAO MA等: "Hierarchical convolutional features for visual tracking", 《2015 IEEE INTERNATIONAL CONFERENCE ON COMPUTER》 *
YAN CHEN等: "CNNTracker: Online discriminative object tracking via deep convolutional neural network", 《APPLIED SOFT COMPUTING》 *
YOUNGBIN PARK等: "Tracking Human-like Natural Motion Using Deep Recurrent Neural Networks", 《ARXIV: COMPUTER VISION AND PATTERN RECOGNITION》 *

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107452022A (zh) * 2017-07-20 2017-12-08 西安电子科技大学 一种视频目标跟踪方法
CN107644430A (zh) * 2017-07-27 2018-01-30 孙战里 基于自适应特征融合的目标跟踪
CN107491742A (zh) * 2017-07-28 2017-12-19 西安因诺航空科技有限公司 一种长时稳定的无人机目标跟踪方法
CN108734151A (zh) * 2018-06-14 2018-11-02 厦门大学 基于相关滤波以及深度孪生网络的鲁棒长程目标跟踪方法
CN110276782A (zh) * 2018-07-09 2019-09-24 西北工业大学 一种结合空谱特征和相关滤波的高光谱目标跟踪方法
CN110276782B (zh) * 2018-07-09 2022-03-11 西北工业大学 一种结合空谱特征和相关滤波的高光谱目标跟踪方法
CN109271865A (zh) * 2018-08-17 2019-01-25 西安电子科技大学 基于散射变换多层相关滤波的运动目标跟踪方法
CN109271865B (zh) * 2018-08-17 2021-11-09 西安电子科技大学 基于散射变换多层相关滤波的运动目标跟踪方法
WO2020056903A1 (zh) * 2018-09-21 2020-03-26 北京字节跳动网络技术有限公司 用于生成信息的方法和装置
CN109410249B (zh) * 2018-11-13 2021-09-28 深圳龙岗智能视听研究院 一种结合深度特征与手绘特征自适应的目标追踪方法
CN109410249A (zh) * 2018-11-13 2019-03-01 深圳龙岗智能视听研究院 一种结合深度特征与手绘特征自适应目标的追踪方法
CN109596649A (zh) * 2018-11-29 2019-04-09 昆明理工大学 一种基于卷积网络耦合微合金元素对主元素浓度影响的方法及装置
CN109754424A (zh) * 2018-12-17 2019-05-14 西北工业大学 基于融合特征和自适应更新策略的相关滤波跟踪算法
CN109740448A (zh) * 2018-12-17 2019-05-10 西北工业大学 基于相关滤波和图像分割的航拍视频目标鲁棒跟踪方法
CN109740448B (zh) * 2018-12-17 2022-05-10 西北工业大学 基于相关滤波和图像分割的航拍视频目标鲁棒跟踪方法
CN109754424B (zh) * 2018-12-17 2022-11-04 西北工业大学 基于融合特征和自适应更新策略的相关滤波跟踪算法
CN111260687A (zh) * 2020-01-10 2020-06-09 西北工业大学 一种基于语义感知网络和相关滤波的航拍视频目标跟踪方法
CN111260687B (zh) * 2020-01-10 2022-09-27 西北工业大学 一种基于语义感知网络和相关滤波的航拍视频目标跟踪方法
CN111652910A (zh) * 2020-05-22 2020-09-11 重庆理工大学 一种基于对象空间关系的目标跟踪算法
CN112762841A (zh) * 2020-12-30 2021-05-07 天津大学 一种基于多分辨率深度特征的桥梁动位移监测***及方法

Also Published As

Publication number Publication date
CN106952288B (zh) 2019-09-24

Similar Documents

Publication Publication Date Title
CN106952288B (zh) 基于卷积特征和全局搜索检测的长时遮挡鲁棒跟踪方法
CN105741316B (zh) 基于深度学习和多尺度相关滤波的鲁棒目标跟踪方法
Liu et al. Detection of multiclass objects in optical remote sensing images
CN112184752A (zh) 一种基于金字塔卷积的视频目标跟踪方法
CN108665481A (zh) 多层深度特征融合的自适应抗遮挡红外目标跟踪方法
CN106570893A (zh) 一种基于相关滤波的快速稳健视觉跟踪方法
CN111062973A (zh) 基于目标特征敏感性和深度学习的车辆跟踪方法
CN107316316A (zh) 基于多特征自适应融合和核相关滤波技术的目标跟踪方法
CN110120064B (zh) 一种基于互强化与多注意机制学习的深度相关目标跟踪算法
CN107330357A (zh) 基于深度神经网络的视觉slam闭环检测方法
CN107644430A (zh) 基于自适应特征融合的目标跟踪
CN103886325B (zh) 一种分块的循环矩阵视频跟踪方法
CN107424171A (zh) 一种基于分块的抗遮挡目标跟踪方法
CN108447078A (zh) 基于视觉显著性的干扰感知跟踪算法
CN112232134B (zh) 一种基于沙漏网络结合注意力机制的人体姿态估计方法
CN107067410B (zh) 一种基于增广样本的流形正则化相关滤波目标跟踪方法
CN107452022A (zh) 一种视频目标跟踪方法
CN110175649A (zh) 一种关于重新检测的快速多尺度估计目标跟踪方法
CN105844665A (zh) 视频对象追踪方法及装置
CN111882546A (zh) 基于弱监督学习的三分支卷积网络织物疵点检测方法
Lei et al. Boundary extraction constrained siamese network for remote sensing image change detection
CN111027586A (zh) 一种基于新型响应图融合的目标跟踪方法
CN110111369A (zh) 一种基于边缘检测的尺度自适应海面目标跟踪方法
CN110135435B (zh) 一种基于广度学习***的显著性检测方法及装置
CN110309729A (zh) 基于异常峰值检测和孪生网络的跟踪与重检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20190924

CF01 Termination of patent right due to non-payment of annual fee