CN110569706A - 一种基于时间和空间网络的深度集成目标跟踪算法 - Google Patents

一种基于时间和空间网络的深度集成目标跟踪算法 Download PDF

Info

Publication number
CN110569706A
CN110569706A CN201910546908.5A CN201910546908A CN110569706A CN 110569706 A CN110569706 A CN 110569706A CN 201910546908 A CN201910546908 A CN 201910546908A CN 110569706 A CN110569706 A CN 110569706A
Authority
CN
China
Prior art keywords
network
expert
time
value
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201910546908.5A
Other languages
English (en)
Inventor
胡昭华
陈胡欣
李高飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Information Science and Technology
Original Assignee
Nanjing University of Information Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Information Science and Technology filed Critical Nanjing University of Information Science and Technology
Priority to CN201910546908.5A priority Critical patent/CN110569706A/zh
Publication of CN110569706A publication Critical patent/CN110569706A/zh
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于时间和空间网络的深度集成目标跟踪算法,利用VGG‑16网络提取深度特征并得到特征映射图,构建由相关滤波网络、时间网络以及空间网络构成的深度网络,将特征映射图送入由相关滤波网络、时间网络以及空间网络连接成的深度网络中,同时训练模型,直到收敛为止,以前一帧预测的目标位置为中心在当前帧的图片中提取搜索块,用VGG‑16网络提取搜索块的特征送入与之对应训练好的模型中来生成响应映射,利用自适应权重的集成学习算法融合所有弱***得到最终的目标位置,采用尺度估计算法对目标大小进行预测,利用当前帧的搜索块和预测值组成训练对,输入到模型中进行在线更新。可以进一步提高算法的精确度。

Description

一种基于时间和空间网络的深度集成目标跟踪算法
技术领域
本发明图像处理和计算机视觉领域,尤其一种基于时间和空间网络的深度集成目标跟踪算法。
背景技术
视觉目标跟踪是计算机视觉领域中的一项基本问题,可广泛应用于车辆导航、视频监控、人机交互等许多实际***中。该问题的核心是如何利用极其有限的训练数据(通常是第一帧中的边界框)来开发出一个鲁棒的外观模型。在过去几十年里视觉目标跟踪技术取得了长足的进步,主要有基于相关滤波的跟踪算法和基于深度学习的跟踪算法。
基于视觉识别任务,深度学习模型需要大量标记的训练样本,而在目标跟踪问题中,唯一标记的样本只有第一帧标注的目标位置,所以直接将深度学习模型应用于在线跟踪算法是不可行的。以往基于深度学习的跟踪算法通过大量标记视频,离线学习通用特征表示。例如,Nam等人(Nam H,Han B.Learning multi-domain convolutional neuralnetworks for visual tracking[C]//Computer Vision and Pattem Recognition(CVPR),2016IEEE Conference on.IEEE,2016:4293-4302.)提出MDNet跟踪算法,该算法利用类似于跟踪基准中的视频序列来离线学习深度模型,并使用目标基准测试序列对离线学习的模型进行在线微调,这种方法不仅容易产生过拟合,而且离线训练耗时过长。此外在视觉识别算法中使用神经网络作为在线分类器,通过最后一个卷积层的输出来表示目标。由于最后一层的特征有较高的语义信息,容易推断出物体的类别,所以使用最后一层的特征对于视觉识别任务是非常有效的。但是对于目标跟踪任务,仅仅使用最后一层的特征来表示目标是不够的,因为它还需要对目标进行精准定位。
发明内容
本发明所要解决的技术问题是针对上述现有技术的不足,提供一种基于时间和空间网络的深度集成目标跟踪算法。
为实现上述技术目的,本发明采取的技术方案为:
一种基于时间和空间网络的深度集成目标跟踪算法,包括以下步骤:
S1:利用VGG-16网络提取深度特征并得到特征映射图;
S2:构建由相关滤波网络、时间网络以及空间网络构成的深度网络;
S3:将特征映射图送入由相关滤波网络、时间网络以及空间网络连接成的深度网络中,同时训练模型,直到收敛为止;
S4:以前一帧预测的目标位置为中心在当前帧的图片中提取搜索块p1,以前一帧预测的目标位置为中心在前一帧的图片中提取搜索块p2,用VGG-16网络提取搜索块p1和搜索块p2的特征送入与之对应训练好的模型中来生成响应映射,每个模型视为弱***,利用自适应权重的集成学习算法融合所有弱***得到最终的目标位置,采用尺度估计算法对目标大小进行预测;
S5:利用搜索块p1、搜索块p2和预测值组成训练对,输入到模型中进行在线更新;
为优化上述技术方案,采取的具体措施还包括:
上述的步骤S1具体为:
S11:VGGNet网络构筑16~19层深的卷积神经网络;
S12:去除第三层和第五层的池化层以及全连接层,分别从第三、四、五层提取特征映射图;
S13:通过主成分分析算法将提取到的特征进行降维,使卷积层通道数降至64维。
上述的步骤S2具体为:
S21:构建相关滤波网络,根据相关滤波算法的跟踪原理得到相关滤波器Ω的最小化目标函数Ω′:
其中X表示输入样本,Y表示对应的高斯函数标签,*表示卷积,λ表示正则化参数,Ω表示相关滤波器,Ω′表示相关滤波器的最小化目标函数;
将相关滤波跟踪算法的学习过程重新定义为卷积神经网络的代价函数最小化问题,则代价函数的一般形式为:
其中Θ表示卷积滤波器,J(Θ)表示卷积滤波器的代价函数,M是样本的数量,X(i)表示第i个输入样本,Y(i)表示第i个样本所对应的高斯标签,L()代表样本的损失函数,F()是样本的网络输出即预测值,P()是正则化函数,令M=1,采用l2损失函数,将l2范数作为正则化函数,公式(2)改写为如下形式:
J(Θ)=||F(X;Θ)-Y||2+λ||Θ||2 (3)
公式(3)中当输入样本X通过一个卷积层时,其网络输出F(X;Θ)=Θ*X,其中的卷积滤波器Θ等价于公式(1)中的相关滤波器Ω′,相关滤波算法中的目标函数也等价于网络中的代价函数,将相关滤波算法表示成一层卷积神经网络,该网络为相关滤波网络;
S22:在相关滤波网络的基础上通过Conv_21、Conv_22和Conv_23三层卷积神经网络框架构成空间网络,Conv_21和Conv_22对空间信息进行整合,Conv_23对前一个卷积层通道数降维至与相关滤波网络的输出维数保持一致;
S23:在相关滤波网络的基础上通过Conv_31卷积神经网络构成时间网络;
S24:深度网络最终得到的响应映射为:
F(Xt)=Fspatial(Xt)+FCF(Xt)+Ftemporal(Xt-1) (4)
其中Xt代表当前帧的特征映射图,Xt-1代表前一帧的特征映射图,Fspatial()代表空间网络的输出,FCF()代表相关滤波网络的输出,Ftemporal()表示时间网络的输出,F(·)表示深度网络最终响应映射。
上述的步骤S3具体为:
S31:给定一个带有目标位置的第一帧,采用VGG-16网络提取以目标位置为中心的训练块,将其放入网络框架中用于特征提取和响应映射;
S32:相关滤波网络、时间网络以及空间网络的参数都初始化为零均值高斯分布;
S33:将第一帧的训练块经过VGG-16网络得到第三、四、五层的特征映射图分别送入由相关滤波网络、时间网络以及空间网络连接成的深度网络中,同时训练三个模型,直到收敛为止。
上述的步骤S4具体为:
自适应权重的集成学习算法,在视觉跟踪问题中,将弱***视为专家,第l个专家的响应映射为:
其中k=3,4,5代表VGG-16网络的第三、四、五层,表示第k层特征映射图,表示第k-1层特征映射图,表示第l个专家的响应映射,
第l个专家的目标位置为:
最终预测的目标位置是多个专家加权的结果即:
其中是第l个专家的权重,L表示总共的专家数量;
每个专家的决策损失:
每个专家的后悔值:
其中,表示所有专家决策损失的平均值,表示每个专家的决策损失值,表示每个专家的后悔值;
其中,表示第l个专家的稳定性,表示第l个专家的决策损失的均值,表示第l个专家的决策损失的标准差,表示每个专家的决策损失值,Δt表示时间,Δt=5,当较小时,说明专家趋于稳定,相反如果的值较大,说明专家性能差;
求解累积的后悔值
ζ=10,H=0.97
其中表示历史后悔值,是权重因子,ζ表示比例因子控制指数函数的形状,H表示当前帧后悔值的最大权重,用以避免没有历史后悔值;
计算下一帧的权重分布:
其中表示下一帧的权重分布,L表示总共的专家数量,表示σt表示比例因子。
上述的步骤S5具体为:
S51:短时更新:当值小时,说明专家稳定,该专家对应的模型不需要进行更新;相反当值大时,根据公式(12)可以推算出此时值较小,当小于阈值D=0.12时,说明专家性能差,此时需要对其所对应的模型进行更新。
S52:长时更新:利用在线检测期间持续生成的搜索块和预测的真值响应图得到的训练数据,每S=10帧对三个模型均进行一次更新。
本发明的有益效果:
1.通过将相关滤波算法重新定义为一层卷积神经网络,也即相关滤波网络,直接生成响应映射作为连续帧之间的空间相关性,可以消除循环移位样本导致的边界效应问题。
2.采用跳跃式连接方式将相关滤波网络、时间网络以及空间网络组合成新的深度网络,该网络是完全可微的,它允许使用反向传播算法更新卷积滤波器。
3.通过VGG-16网络所生成的特征映射送入新的深度网络中用以构造弱***,使用自适应权重的集成学习算法将所有弱***融合成强***,从而得到目标位置,并且利用短时更新和长时更新相结合的方式对跟踪模型进行更新,新的更新方式进一步提高算法的精确度。
附图说明
图1为本发明提出的基于时间和空间网络的深度集成目标跟踪算法的整体框架图;
图2为本发明可视化VGG-16网络的卷积层示意图;
图3为本发明提出的深度网络结构图;
图4为本发明提出的模型更新策略流程图;
图5为本发明对10个测试视频跟踪结果抽样帧;
图6为本发明在OPE评估方式下与8种***的综合跟踪性能比较图;
图7为本发明在六种挑战因子的OPE评估方式下与8种***的综合跟踪性能比较图。
具体实施方式
以下结合附图对本发明的实施例作进一步详细描述。
本发明提供了一种基于时间和空间网络的深度集成目标跟踪算法,
本发明使用MatConvNet工具箱,硬件平台采用Intel i7-8700 3.2GHz CPU,8GBRAM,NIVIDIA GTX 1060 GPU。本发明提出的基于时间和空间网络的深度集成目标跟踪算法的整体框架图如图1所示,具体包括以下操作步骤:
(1)步骤一:提取深度特征,采用VGG-16网络提取深度特征,VGGNet相比于AlexNet有更深的网络结构,它成功地构筑了16~19层深的卷积神经网络,并且该网络有很好的拓展性,迁移到目标跟踪任务上的泛化能力强。此外VGGNet使用130万张imageNet数据集上的图片进行训练,它在图像分类任务上取得了鲁棒的效果。如图2所示,在(b)(c)两组图中能够比较清晰的看到目标轮廓,因此第三层和第四层的特征有较高的分辨率能精确定位到目标。同时在(d)组图中已经很难看出目标细节,但是在背景变化剧烈的情况下第五层的特征能有效区分目标和背景。换句话说,浅层的深度特征提供目标的位置信息,深层的深度特征包含更多的语义信息可以用来处理目标形变和防止***漂移。算法的特征提取网络来自于VGG-16网络,且去除了第三层和第五层的池化层以及全连接层。本发明分别从第三、四、五层提取特征映射图,然后通过主成分分析算法将提取到的特征进行降维,使通道数降至64维。
(2)步骤二:构建深度网络,此深度网络由相关滤波网络、时间网络以及空间网络构成,深度网络的结构图如图3所示,根据相关滤波算法的跟踪原理得出,学习相关滤波器Ω就是解决下面最小化目标函数Ω′问题:
其中X表示输入样本,Y表示对应的高斯函数标签,*代表卷积,λ是正则化参数,Ω表示相关滤波器,Ω′表示相关滤波器的最小化目标函数;
将相关滤波跟踪算法的学习过程重新定义为卷积神经网络的代价函数最小化问题,代价函数的一般形式为:
其中Θ表示卷积滤波器,J(Θ)表示卷积滤波器的代价函数,M是样本的数量,X(i)表示第i个输入样本,Y(i)表示第i个样本所对应的高斯标签,L()代表第i个样本的损失函数,F()是第i个样本的网络输出即预测值,P()是正则化函数。本发明令M=1,采用l2损失函数,将l2范数作为正则化函数,公式改写为如下形式:
J(Θ)=||F(X;Θ)-Y||2+λ||Θ||2 (3)
当输入样本X通过一个卷积层时,其网络输出F(X;Θ)=Θ*X,其中的卷积滤波器Θ等价于公式(1)中的相关滤波器Ω′,相关滤波算法中的目标函数也等价于网络中的代价函数。如公式(3)所述,本发明将相关滤波算法表示成一层卷积神经网络,该网络为相关滤波网络Conv_11,相关滤波网络的滤波器大小需要覆盖目标,用梯度下降算法和反向传播算法代替原来的闭式解去训练参数。
在相关滤波网络的基础上提出空间网络;由于特征提取网络的加深,空间信息变得越来越弱,为了解决这个问题,采用三层卷积神经网络框架构成空间网络如图3所示,前两个卷积层Conv_21和Conv_22是对空间信息进行整合,最后一个卷积层Conv_23是对前一个卷积层通道数的降维,目的是为了使空间网络的输出和相关滤波网络的输出维数保持一致。空间网络的具体细节见表格1。
此外,空间网络只能捕捉当前帧的空间信息,当目标变化剧烈时,只靠空间信息学习到的模型是不稳定的。因此本发明又设计了一种与空间网络结构相似的时间网络如图3所示,用以捕获时间历史信息。时间网络Conv_31是由一层卷积神经网络构成,目的是为了提取前一帧的历史信息。时间网络的具体细节见表格1。
深度网络最终得到的响应映射为:
F(Xt)=Fspatial(Xt)+FCF(Xt)+Ftemporal(Xt-1) (4)
其中Xt代表当前帧的特征映射图,Xt-1代表前一帧的特征映射图,Fspatial()代表空间网络的输出,FCF()代表相关滤波网络的输出,Ftemporal()表示时间网络的输出,F(·)表示深度网络最终响应映射。
表格1.卷积层嵌入函数的体系结构
(3)步骤三:训练网络,给定一个带有目标位置的输入帧即第一帧,提取以目标位置为中心的训练块,将其放入网络框架中用于特征提取和响应映射,第一帧得到的训练块大小是目标宽度和高度最大值的5倍。采用VGG-16网络进行特征提取,与此同时相关滤波网络、时间网络以及空间网络的参数都初始化为零均值高斯分布,此外上述三个网络不需要单独进行训练。第一帧的训练块经过VGG-16网络得到第三、四、五层的特征映射图,然后将这三层的特征映射分别送入由相关滤波网络、时间网络以及空间网络连接成的深度网络中,同时训练三个模型,直到收敛为止。训练阶段的学习率为5e-8,迭代次数为1000次,优化器采用Adam算法。
(4)步骤四:在线检测,以前一帧预测的目标位置为中心在当前帧的图片中提取搜索块p1。与此同时,还是以前一帧预测的目标位置为中心在前一帧的图片中提取搜索块p2,搜索块p1、p2的大小与训练块的大小一致。用VGG-16网络提取两个搜索块的特征送入与之对应训练好的三个模型中来生成响应映射,每个模型视为弱***,利用自适应权重的集成学习算法融合所有弱***得到最终的目标位置。在预测目标位置后,采用尺度估计算法对目标大小进行预测。本发明提取三个不同尺度的候选目标,尺度因子被设置为(1,0.95,1.05),调整所有候选块的大小使其与训练块的大小相同,将这些候选块送入第三层特征对应的模型以生成响应图。一旦有了响应图,通过搜索最大响应值来预测目标大小。
采用自适应权重的集成学习算法,用于解决多专家决策理论的在线学习问题。在视觉跟踪问题中,将弱***视为专家。第l个专家的响应映射为:
其中k=3,4,5代表VGG-16网络的第三、四、五层,表示第k层特征映射图,表示第k-1层特征映射图,表示第l个专家的响应映射;
第l个专家的目标位置为:
最终预测的目标位置是多个专家加权的结果,即:
其中是第l个专家的权重,L是总共的专家数量;
每个专家决策损失:
每个专家的后悔值:
其中,表示所有专家决策损失的平均值,表示每个专家的决策损失值,表示每个专家的后悔值;通过引入决策分析中常用的后悔值准则,后悔值准则被定义为所有专家决策损失的平均值减去每个专家的决策损失;
其中,表示第l个专家的稳定性,表示第l个专家的决策损失的均值,表示第l个专家的决策损失的标准差,表示每个专家的决策损失值,Δt表示时间,Δt=5,当较小时,说明专家趋于稳定,相反如果的值较大,说明专家性能差。
求解累积的后悔值
ζ=10,H=0.97
其中表示历史后悔值,是权重因子,ζ表示比例因子控制指数函数的形状,H表示当前帧后悔值的最大权重,用以避免没有历史后悔值;
计算下一帧的权重分布:
其中表示下一帧的权重分布,L是总共的专家数量,表示σt表示比例因子。
步骤五:模型更新,如图4所示,通过短时更新与长时更新相结合。短时更新求解模型可靠性,方法与集成学习中计算专家稳定性一样。当值小时,说明专家稳定,该专家对应的模型不需要进行更新。相反当值大时,此时值较小,当小于阈值D=0.12时,说明专家性能差,此时需要对其所对应的模型进行更新,本发明利用当前帧的搜索块和预测值组成训练对,输入到模型中进行在线更新。除此之外,还加入了长时更新,即每S=10帧对三个模型均进行一次更新,用到的训练数据是在线检测期间持续生成的搜索块和预测的真值响应图。更新阶段的学习率为2e-9,迭代次数2次,优化器采用Adam算法。
通过一次性评估(OPE)准则以及精确度和成功率度量来衡量***的性能。选取90个不同属性的视频序列测试本发明的目标跟踪算法,并与其它***(TRACA、ACFN、CFNet、SiamFC、SCT、Staple、SRDCF、CNN-SVM等8种***)在不同的挑战因素(如快速运动、运动模糊、光照变化、平面外旋转、目标形变、遮挡等情况)下进行对比。图5是本发明与8种***对10个测试视频((a)Bolt2、(b)Box、(c)DragonBaby、(d)Girl2、(e)Human9、(f)Ironman、(g)KiteSurf、(h)Matrix、(i)Skating1、(j)Skiing)跟踪结果抽样帧,图6从精确度(precision)和成功率(Success rate)两个方面给出了本发明与其他8种***的性能对比图。图7是本发明在快速运动、运动模糊、光照变化、平面外旋转、目标形变、遮挡六种挑战因子的OPE评估方式下与8种***的综合跟踪性能比较图。正如图5所示,本发明的算法可以准确的跟踪到图例中大多数挑战性序列。总的来说,本发明的跟踪算法比最近几年的跟踪算法更加精确和鲁棒,特别是在具有挑战性的场景中。
以上仅是本发明的优选实施方式,本发明的保护范围并不仅局限于上述实施例,凡属于本发明思路下的技术方案均属于本发明的保护范围。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理前提下的若干改进和润饰,应视为本发明的保护范围。

Claims (6)

1.一种基于时间和空间网络的深度集成目标跟踪算法,其特征在于,包括以下步骤:
S1:利用VGG-16网络提取深度特征并得到特征映射图;
S2:构建由相关滤波网络、时间网络以及空间网络构成的深度网络;
S3:将特征映射图送入由相关滤波网络、时间网络以及空间网络连接成的深度网络中,同时训练模型,直到收敛为止;
S4:以前一帧预测的目标位置为中心在当前帧的图片中提取搜索块p1,以前一帧预测的目标位置为中心在前一帧的图片中提取搜索块p2,用VGG-16网络提取搜索块p1和搜索块p2的特征送入与之对应训练好的模型中来生成响应映射,每个模型视为弱***,利用自适应权重的集成学习算法融合所有弱***得到最终的目标位置,采用尺度估计算法对目标大小进行预测;
S5:利用搜索块p1、搜索块p2和预测值组成训练对,输入到模型中进行在线更新。
2.根据权利要求1所述的一种基于时间和空间网络的深度集成目标跟踪算法,其特征在于:步骤S1具体为:
S11:VGGNet网络构筑16~19层深的卷积神经网络;
S12:去除第三层和第五层的池化层以及全连接层,分别从第三、四、五层提取特征映射图;
S13:通过主成分分析算法将提取到的特征进行降维,使卷积层通道数降至64维。
3.根据权利要求1所述的一种基于时间和空间网络的深度集成目标跟踪算法,其特征在于:步骤S2具体为:
S21:构建相关滤波网络,根据相关滤波算法的跟踪原理得到相关滤波器Ω的最小化目标函数Ω′:
其中X表示输入样本,Y表示对应的高斯函数标签,*表示卷积,λ表示正则化参数,Ω表示相关滤波器,Ω′表示相关滤波器的最小化目标函数;
将相关滤波跟踪算法的学习过程重新定义为卷积神经网络的代价函数最小化问题,则代价函数的一般形式为:
其中Θ表示卷积滤波器,J(Θ)表示卷积滤波器的代价函数,M是样本的数量,X(i)表示第i个输入样本,Y(i)表示第i个样本所对应的高斯标签,L()代表样本的损失函数,F()是样本的网络输出即预测值,P()是正则化函数,令M=1,采用l2损失函数,将l2范数作为正则化函数,公式(2)改写为如下形式:
J(Θ)=||F(X;Θ)-Y||2+λ||Θ||2 (3)
公式(3)中当输入样本X通过一个卷积层时,其网络输出F(X;Θ)=Θ*X,其中的卷积滤波器Θ等价于公式(1)中的相关滤波器Ω′,相关滤波算法中的目标函数也等价于网络中的代价函数,将相关滤波算法表示成一层卷积神经网络,该网络为相关滤波网络;
S22:在相关滤波网络的基础上通过Conv_21、Conv_22和Conv_23三层卷积神经网络框架构成空间网络,Conv_21和Conv_22对空间信息进行整合,Conv_23对前一个卷积层通道数降维至与相关滤波网络的输出维数保持一致;
S23:在相关滤波网络的基础上通过Conv_31卷积神经网络构成时间网络;
S24:深度网络最终得到的响应映射为:
F(Xt)=Fspatial(Xt)+FCF(Xt)+Ftemporal(Xt-1) (4)
其中Xt代表当前帧的特征映射图,Xt-1代表前一帧的特征映射图,Fspatial()代表空间网络的输出,FCF()代表相关滤波网络的输出,Ftemporal()表示时间网络的输出,F(·)表示深度网络最终响应映射。
4.根据权利要求1所述的一种基于时间和空间网络的深度集成目标跟踪算法,其特征在Ω于:步骤S3具体为:
S31:给定一个带有目标位置的第一帧,采用VGG-16网络提取以目标位置为中心的训练块,将其放入网络框架中用于特征提取和响应映射;
S32:相关滤波网络、时间网络以及空间网络的参数都初始化为零均值高斯分布;
S33:将第一帧的训练块经过VGG-16网络得到第三、四、五层的特征映射图分别送入由相关滤波网络、时间网络以及空间网络连接成的深度网络中,同时训练三个模型,直到收敛为止。
5.根据权利要求1所述的一种基于时间和空间网络的深度集成目标跟踪算法,其特征在Ω于:步骤S4具体为:
自适应权重的集成学习算法,在视觉跟踪问题中,将弱***视为专家,第l个专家的响应映射为:
其中k=3,4,5代表VGG-16网络的第三、四、五层,表示第k层特征映射图,表示第k-1层特征映射图,表示第l个专家的响应映射;
第l个专家的目标位置为:
其中(xt,yt)表示使得目标函数最大的值;
最终预测的目标位置是多个专家加权的结果,即:
其中是第l个专家的权重,L是总共的专家数量;
每个专家的决策损失:
每个专家的后悔值:
其中表示所有专家决策损失的平均值,表示每个专家的决策损失值,表示每个专家的后悔值;
其中,表示第l个专家的稳定性,表示第l个专家的决策损失的均值,表示第l个专家的决策损失的标准差,表示每个专家的决策损失值,Δt表示时间,Δt=5,如公式(10)所述,当较小时,说明专家趋于稳定,相反如果的值较大,说明专家性能差。
求解累积的后悔值
ζ=10,H=0.97
其中表示历史后悔值,是权重因子,ζ表示比例因子控制指数函数的形状,H表示当前帧后悔值的最大权重,用以避免没有历史后悔值;
计算下一帧的权重分布:
其中表示下一帧的权重分布,L表示总共的专家数量,表示σt表示比例因子。
6.根据权利要求1所述的一种基于时间和空间网络的深度集成目标跟踪算法,其特征在Ω于:步骤S5具体为:
S51:短时更新:当值小时,说明专家稳定,该专家对应的模型不需要进行更新;相反当值大时,根据公式(14)可以推算出此时直较小,当小于阈值D=0.12时,说明专家性能差,此时需要对其所对应的模型进行更新。
S52:长时更新:利用在线检测期间持续生成的搜索块和预测的真值响应图得到的训练数据,每S=10帧对三个模型均进行一次更新。
CN201910546908.5A 2019-06-25 2019-06-25 一种基于时间和空间网络的深度集成目标跟踪算法 Withdrawn CN110569706A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910546908.5A CN110569706A (zh) 2019-06-25 2019-06-25 一种基于时间和空间网络的深度集成目标跟踪算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910546908.5A CN110569706A (zh) 2019-06-25 2019-06-25 一种基于时间和空间网络的深度集成目标跟踪算法

Publications (1)

Publication Number Publication Date
CN110569706A true CN110569706A (zh) 2019-12-13

Family

ID=68772949

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910546908.5A Withdrawn CN110569706A (zh) 2019-06-25 2019-06-25 一种基于时间和空间网络的深度集成目标跟踪算法

Country Status (1)

Country Link
CN (1) CN110569706A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111105442A (zh) * 2019-12-23 2020-05-05 中国科学技术大学 切换式目标跟踪方法
CN112001324A (zh) * 2020-08-25 2020-11-27 北京影谱科技股份有限公司 篮球比赛视频的球员动作识别方法、装置和设备
CN112150509A (zh) * 2020-09-29 2020-12-29 中国人民解放军63875部队 基于多层深度特征的分块跟踪算法
CN113487654A (zh) * 2021-07-07 2021-10-08 中国科学院上海微***与信息技术研究所 一种基于多专家决策的多模态视觉目标跟踪方法
CN113947618A (zh) * 2021-10-20 2022-01-18 哈尔滨工业大学 基于调制器的自适应回归跟踪方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109934846A (zh) * 2019-03-18 2019-06-25 南京信息工程大学 基于时间和空间网络的深度集成目标跟踪方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109934846A (zh) * 2019-03-18 2019-06-25 南京信息工程大学 基于时间和空间网络的深度集成目标跟踪方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111105442A (zh) * 2019-12-23 2020-05-05 中国科学技术大学 切换式目标跟踪方法
CN111105442B (zh) * 2019-12-23 2022-07-15 中国科学技术大学 切换式目标跟踪方法
CN112001324A (zh) * 2020-08-25 2020-11-27 北京影谱科技股份有限公司 篮球比赛视频的球员动作识别方法、装置和设备
CN112001324B (zh) * 2020-08-25 2024-04-05 北京影谱科技股份有限公司 篮球比赛视频的球员动作识别方法、装置和设备
CN112150509A (zh) * 2020-09-29 2020-12-29 中国人民解放军63875部队 基于多层深度特征的分块跟踪算法
CN112150509B (zh) * 2020-09-29 2024-05-03 中国人民解放军63875部队 基于多层深度特征的分块跟踪方法
CN113487654A (zh) * 2021-07-07 2021-10-08 中国科学院上海微***与信息技术研究所 一种基于多专家决策的多模态视觉目标跟踪方法
CN113947618A (zh) * 2021-10-20 2022-01-18 哈尔滨工业大学 基于调制器的自适应回归跟踪方法
CN113947618B (zh) * 2021-10-20 2023-08-29 哈尔滨工业大学 基于调制器的自适应回归跟踪方法

Similar Documents

Publication Publication Date Title
CN103971386B (zh) 一种动态背景场景下的前景检测方法
CN109360226B (zh) 一种基于时间序列多特征融合的多目标跟踪方法
CN110569706A (zh) 一种基于时间和空间网络的深度集成目标跟踪算法
CN108734151B (zh) 基于相关滤波以及深度孪生网络的鲁棒长程目标跟踪方法
CN109934846B (zh) 基于时间和空间网络的深度集成目标跟踪方法
CN107369166B (zh) 一种基于多分辨率神经网络的目标跟踪方法及***
CN110120064B (zh) 一种基于互强化与多注意机制学习的深度相关目标跟踪算法
CN112836640B (zh) 一种单摄像头多目标行人跟踪方法
CN110111366A (zh) 一种基于多级损失量的端到端光流估计方法
CN108470354A (zh) 视频目标跟踪方法、装置和实现装置
CN112884742B (zh) 一种基于多算法融合的多目标实时检测、识别及跟踪方法
CN111476817A (zh) 一种基于yolov3的多目标行人检测跟踪方法
CN108961308B (zh) 一种漂移检测的残差深度特征目标跟踪方法
CN109993775B (zh) 基于特征补偿的单目标跟踪方法
CN113706581B (zh) 基于残差通道注意与多层次分类回归的目标跟踪方法
CN109886356A (zh) 一种基于三分支神经网络的目标追踪方法
CN111598928B (zh) 一种基于具有语义评估和区域建议的突变运动目标跟踪方法
CN112085765A (zh) 结合粒子滤波及度量学习的视频目标跟踪方法
CN113920170A (zh) 结合场景上下文和行人社会关系的行人轨迹预测方法、***及存储介质
CN112184767A (zh) 对运动物体进行轨迹跟踪的方法、装置、设备及存储介质
CN110189362A (zh) 基于多分支自编码对抗网络的高效目标跟踪方法
Zhang et al. Unsupervised multi-view constrained convolutional network for accurate depth estimation
CN112233145A (zh) 一种基于rgb-d时空上下文模型的多目标遮挡跟踪方法
CN110544267B (zh) 一种自适应选择特征的相关滤波跟踪方法
CN116630376A (zh) 基于ByteTrack的无人机多目标跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20191213