CN109493370A - 一种基于空间偏移学习的目标跟踪方法 - Google Patents

一种基于空间偏移学习的目标跟踪方法 Download PDF

Info

Publication number
CN109493370A
CN109493370A CN201811186951.7A CN201811186951A CN109493370A CN 109493370 A CN109493370 A CN 109493370A CN 201811186951 A CN201811186951 A CN 201811186951A CN 109493370 A CN109493370 A CN 109493370A
Authority
CN
China
Prior art keywords
target
spatial offset
image block
image
particle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811186951.7A
Other languages
English (en)
Other versions
CN109493370B (zh
Inventor
权伟
李天瑞
高仕斌
赵丽平
陈金强
陈锦雄
刘跃平
卢学民
王晔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southwest Jiaotong University
Original Assignee
Southwest Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southwest Jiaotong University filed Critical Southwest Jiaotong University
Priority to CN201811186951.7A priority Critical patent/CN109493370B/zh
Publication of CN109493370A publication Critical patent/CN109493370A/zh
Application granted granted Critical
Publication of CN109493370B publication Critical patent/CN109493370B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于空间偏移学习的目标跟踪方法,涉及计算机视觉技术领域。选择并确定要跟踪的目标对象,目标选取过程通过运动目标检测方法自动提取或者人工指定;空间偏移学习网络包含图像数据提取、深度神经网络、多层感知机MLP和空间偏移输出四个部分:在实时处理情况下,提取通过摄像头采集并保存在存储区的视频图像,作为要进行跟踪的输入图像;在离线处理情况下,将已采集的视频文件分解为多个帧组成的图像序列;短时跟踪采用粒子滤波方法,粒子滤波中的一个粒子代表一个可能的目标图像块,以对应的目标关注区域ROI作为空间偏移学习网络的在线训练集,采用随机梯度下降法SGD对空间偏移学习网络进行在线训练,更新网络参数;目标定位与更新。

Description

一种基于空间偏移学习的目标跟踪方法
技术领域
本发明涉及计算机视觉、图形图像、模式识别、机器学习技术领域。
背景技术
视觉目标跟踪是计算机视觉领域的重要研究课题,其主要任务是获取目标连续的位置、外观和运动等信息,进而为进一步的语义层分析(如行为识别、场景理解等)提供基础。目标跟踪研究被广泛应用于智能监控、人机交互、自动控制***等领域,具有很强的实用价值。目前,目标跟踪方法主要包括经典目标跟踪方法和深度学习目标跟踪方法。
经典的目标跟踪方法主要分为生成式方法(Generative Methods)和判别式方法(Discriminative Methods)两类。生成式方法假设目标可以通过某种生成过程或者模型进行表达,如主成分分析(PCA),稀疏编码(Sparse Coding)等,然后将跟踪问题视为在感兴趣的区域中寻找最可能的候选项。这些方法旨在设计一种利于鲁棒目标跟踪的图像表示方法。而在运动建模方面,通常是基于某种假设和校验进行,典型的方法如卡尔曼滤波、均值漂移、粒子滤波(PF,Particle Filter)等,其中粒子滤波技术为非线性非高斯问题的求解提供了一种非常有效手段,它对部分遮挡和背景干扰具有很好的鲁棒性。不同于生成式方法,判别式方法将跟踪视为一个分类或者一种连续的对象检测问题,其任务是将目标从图像背景中分辨出来。这类方法同时利用目标和背景信息,是目前主要研究的一类方法。判别式方法通常包含两个主要的步骤,第一步是通过选择能够辨别目标和背景的视觉特征训练得到一个分类器及其决策规则,第二步是在跟踪过程中将该分类器用于对视场内的每一个位置进行评价并确定最有可能的目标位置。随后将目标框移动到该位置并重复这样的过程,进而实现跟踪,该框架被用于设计出各种形式的跟踪算法。总体来看,经典跟踪方法的主要优势在于运行速度和对辅助数据较少的依赖,同时它们也需要在跟踪的准确性与实时性之间做出权衡。
深度学习(Deep Learning)是近年来机器学习研究的热点,由于其强大的特征表达能力和不断发展的数据集和硬件支持,深度学习已在许多方面取得了惊人的成功,例如语音识别、图像识别、目标检测、视频分类等。深度学习目标跟踪研究发展也十分迅速,但由于目标跟踪中先验知识的缺乏和实时性的要求,使得需要大量训练数据和参数计算为基础的深度学习技术在这方面难以得到充分的施展,具有很大的探索空间。从目前的研究成果来看,深度学习跟踪方法主要应用了自编码器网络和卷积神经网络,其研究主要有两种思路,一种是对网络进行迁移学习再进行在线微调,另一种是改造深度网络的结构以适应跟踪的要求。自编码器网络(AE)是典型的非监督深度学习网络,因其特征学习能力和抗噪声性能被首先应用到目标跟踪中。综合来看,自编码器网络比较直观且体量适中,是一种优秀的非监督深度学习模型,在跟踪中最先得以应用并取得了较好的效果。与自编码器网络不同,卷积神经网络(CNN)是一种监督型的前馈神经网络,它包含多个循环交替进行的卷积、非线性变换和降采样操作,在模式识别特别是计算机视觉任务中体现出非常强大的性能。总体来看,深度学习相比于经典方法具有更强大的特征表达能力,其跟踪方法中有关训练集的选取,网络的选择与结构的改进,算法的实时性,以及应用递归神经网络等方面仍需要进一步的研究。
因此,鉴于粒子滤波PF的高鲁棒性和深度神经网络强大的特征表达能力,本发明提出一种基于空间偏移学习的目标跟踪方法。该方法采用深度神经网络GoogleNet的152层对输入图像进行特征表达,将帧图像中目标关注区域ROI及其在该区域内选择的图像块作为空间偏移学习网络的输入数据,然后经多层感知机MLP学习输出所选图像块与目标的空间偏移值,跟踪过程中将粒子滤波中的粒子作为目标关注区域ROI内选择得到的图像块,连同目标关注区域ROI,经网络正向处理后可得到每个粒子对应的空间偏移值,进而计算得到其对应的预测目标位置,最后把具有预测最多次的位置作为新的目标位置实现对目标的定位,进而实现跟踪。由于该方法一方面采用了深度神经网络进行特征表达,另一方面同时将目标和背景的图像数据作为网络输入,且学习空间偏移值,使得目标定位过程更加准确,而在跟踪过程中通过与粒子滤波的有效结合,充分利用了粒子滤波的高鲁棒性并简化了网络的学习过程,进而能够实现长时间实时稳定的目标跟踪。此外,本发明方法不仅可以用于单目标跟踪,通过增加和调整样例标记,还可以扩展用于多目标的跟踪。
发明内容
本发明的目的是提供一种基于空间偏移学习的目标跟踪方法,它能有效地解决在无约束环境下对一般性目标对象进行长时间实时稳定的跟踪的技术问题。
本发明的目的是通过以下技术方案来实现的:一种基于空间偏移学习的目标跟踪方法,包括如下步骤:
步骤一、目标选取:
从初始图像中选择并确定要跟踪的目标对象,目标选取过程通过运动目标检测方法自动提取,或者通过人机交互方法人工指定;
步骤二、空间偏移学习网络构建与初始化:
空间偏移学习网络包含图像数据提取、深度神经网络、多层感知机MLP和空间偏移输出四个部分:
图像数据提取部分,对原始图像提取出两种图像块,一种是目标的关注区域ROI,即以目标为中心的,且9倍于目标大小的图像块,另一种是在该目标的关注区域ROI内随机选择的与目标具有相同大小的图像块;对于深度神经网络部分,采用可公开获得的预训练网络GoogleNet对图像进行特征表达,该网络共有154层,是在包含上百万个训练图像的大规模数据集ImageNet上训练获得的深度神经网络,输入图像经过224×224像素大小的尺度归一化后作为GoogleNet网络的输入数据;将GoogleNet的152层作为特征表达层,它有1024个值输出;将目标关注区域ROI和该区域内选择的一个图像块分别作为GoogleNet的图像输入,经GoogleNet正向处理后,输出两个特征值,每个特征值包含1024个值,将这两个特征值连接合并后作为多层感知机MLP部分的数据输入;多层感知机MLP包含三个全连接层,第一层节点数为2048个,第二层节点数为1024个,第三层节点数为512个,多层感知机MLP的最后一层连接空间偏移输出部分;空间偏移输出部分包含4个值,这4个值分别为所选图像块左上角横坐标与目标左上角横坐标的差值Dxl,所选图像块左上角纵坐标与目标左上角纵坐标的差值Dyl,所选图像块右下角横坐标与目标右下角横坐标的差值Dxr,所选图像块右下角纵坐标与目标右下角纵坐标的差值Dyr
目标关注区域ROI和该区域内选择的一个图像块是成对输入空间偏移学习网络的,对于同一帧图像,目标关注区域ROI不变,而该区域内选择的图像块有多个;在目标关注区域ROI内随机选择1000个图像块,并记录每个所选的图像块与目标的空间偏移值,即所选图像块与目标的坐标差值Dxl,Dyl,Dxr,Dyr,通过以步骤一中确定的目标图像块为中心获得的目标关注区域ROI和该区域中选择的图像块生成初始训练集,采用随机梯度下降法SGD对空间偏移学习网络进行离线训练,从而确定多层感知机的参数,进而完成空间偏移学习网络的初始化;
步骤三、图像输入:
在实时处理情况下,提取通过摄像头采集并保存在存储区的视频图像,作为要进行跟踪的输入图像;在离线处理情况下,将已采集的视频文件分解为多个帧组成的图像序列,按照时间顺序,逐个提取帧图像作为输入图像;如果输入图像为空,则整个流程中止;
步骤四、短时跟踪:
短时跟踪采用粒子滤波方法(PF,Particle Filter),粒子滤波中的一个粒子代表一个可能的目标图像块,粒子滤波包含1000个粒子,每个粒子是在目标关注区域ROI内随机选择得到,该目标关注区域ROI是以上一次确定的目标为中心的,且9倍于目标大小的区域;将粒子滤波输出的预测目标图像块与目标图像块的相似度值计算为这两个图像块之间的规则化交叉互相关值NCC(Normalized Cross-Correlation),则跟踪过程中如果该值>0.9,则表示短时跟踪输出的目标可信,目标定位完成,记录每个粒子与新定位目标的空间偏移值,即粒子与目标的坐标差值Dxl,Dyl,Dxr,Dyr,跳转到步骤五,否则表示目标不可信,跳转到步骤六;
步骤五、网络在线训练:
以步骤四中粒子滤波的粒子及其对应的目标关注区域ROI作为空间偏移学习网络的在线训练集,采用随机梯度下降法SGD对空间偏移学习网络进行在线训练,更新网络参数;
步骤六、目标定位与更新:
将当前目标关注区域ROI和步骤四中粒子滤波的每个粒子分别输入到空间偏移学习网络,经网络正向处理后,输出每个粒子对应的空间偏移值,根据粒子所在的位置和该粒子对应的空间偏移值,计算得到该粒子预测的目标位置;统计所有粒子预测的目标位置,把具有预测最多次的位置作为新的目标位置,目标定位完成;计算新定位的目标图像块与粒子滤波短时跟踪的目标图像块之间的相似度值,即它们的规则化交叉互相关值NCC,如果该值>0.9,则用新定位的目标图像块更新粒子滤波短时跟踪的目标图像块;跳转到步骤三。
在跟踪过程中,当粒子滤波短时跟踪输出的目标结果可信时,短时跟踪可进行实时目标跟踪,同时对空间偏移学习网络进行在线训练,而当其输出的目标结果不可信时,则由空间偏移学习网络对目标进行定位,同时根据该网络确定的目标来更新粒子滤波短时跟踪的目标图像块。由于该方法一方面采用了深度神经网络进行特征表达,另一方面同时将目标和背景的图像数据作为网络输入,且学习空间偏移值,使得目标定位过程更加准确,而在跟踪过程中通过与粒子滤波的有效结合,充分利用了粒子滤波的高鲁棒性并简化了网络的学习过程,进而能够实现长时间实时稳定的目标跟踪。
与现有技术相比的优点和积极效果:本发明提出一种基于空间偏移学习的目标跟踪方法。该方法采用深度神经网络GoogleNet的152层对输入图像进行特征表达,将帧图像中目标关注区域ROI及其在该区域内选择的图像块作为空间偏移学习网络输入,然后经多层感知机MLP学习输出所选图像块与目标的空间偏移值,跟踪过程中将粒子滤波中的粒子作为目标关注区域ROI内选择得到的图像块,连同目标关注区域ROI,经网络正向处理后可得到每个粒子对应的空间偏移值,进而计算得到其对应的预测目标位置,最后把具有预测最多次的位置作为新的目标位置可实现对目标的定位,进而实现跟踪。由于该方法一方面采用了深度神经网络进行特征表达,另一方面同时将目标和背景的图像数据作为网络输入,且学习空间偏移值,使得目标定位过程更加准确,而在跟踪过程中通过与粒子滤波的有效结合,充分利用了粒子滤波的高鲁棒性并简化了网络的学习过程,进而能够实现长时间实时稳定的目标跟踪。此外,本发明方法不仅可以用于单目标跟踪,通过增加和调整样例标记,还可以扩展用于多目标的跟踪。
附图说明
图1为本发明空间偏移学习网络结构组成示意图
图2为本发明目标跟踪方法流程图
具体实施方式
实施例:
本发明的方法可用于目标对象跟踪的各种场合,如智能视频分析,自动人机交互,通视频监控,无人车辆驾驶,生物群体分析,以及流体表面测速等。
以智能视频分析为例:智能视频分析包含许多重要的自动分析任务,如对象行为分析,视频压缩等,而这些工作的基础则是能够进行长时间稳定的目标跟踪。可以采用本发明提出的跟踪方法实现,具体来说,首先根据目标选择所在图像构建空间偏移学习网络并完成初始化训练,如图1的空间偏移学习网络结构组成所示;然后在跟踪过程中采用粒子滤波方法PF进行短时跟踪,当粒子滤波短时跟踪确定的目标可信时,按照短时跟踪所确定的目标位置,提取目标关注区域ROI,连同粒子滤波的粒子构成在线训练集并训练空间偏移学习网络,而当粒子滤波短时跟踪确定的目标不可信时,则由空间偏移学习网络对目标进行定位,同时根据该网络确定的目标来更新粒子滤波的目标图像块。由于该方法一方面采用了深度神经网络进行特征表达,另一方面同时将目标和背景的图像数据作为网络输入,且学习空间偏移值,使得目标定位过程更加准确,而在跟踪过程中通过与粒子滤波的有效结合,充分利用了粒子滤波的高鲁棒性并简化了网络的学习过程,进而能够实现长时间实时稳定的目标跟踪。
本发明方法可通过任何计算机程序设计语言(如C语言)编程实现,基于本方法的跟踪***软件可在任何PC或者嵌入式***中实现实时目标跟踪应用。

Claims (1)

1.一种基于空间偏移学习的目标跟踪方法,包括如下步骤:
步骤一、目标选取:
从初始图像中选择并确定要跟踪的目标对象,目标选取过程通过运动目标检测方法自动提取,或者通过人机交互方法人工指定;
步骤二、空间偏移学习网络构建与初始化:
空间偏移学习网络包含图像数据提取、深度神经网络、多层感知机MLP和空间偏移输出四个部分:
图像数据提取部分,对原始图像提取出两种图像块,一种是目标的关注区域ROI,即以目标为中心的,且9倍于目标大小的图像块,另一种是在该目标的关注区域ROI内随机选择的与目标具有相同大小的图像块;对于深度神经网络部分,采用可公开获得的预训练网络GoogleNet对图像进行特征表达,该网络共有154层,是在包含上百万个训练图像的大规模数据集ImageNet上训练获得的深度神经网络,输入图像经过224×224像素大小的尺度归一化后作为GoogleNet网络的输入数据;将GoogleNet的152层作为特征表达层,它有1024个值输出;将目标关注区域ROI和该区域内选择的一个图像块分别作为GoogleNet的图像输入,经GoogleNet正向处理后,输出两个特征值,每个特征值包含1024个值,将这两个特征值连接合并后作为多层感知机MLP部分的数据输入;多层感知机MLP包含三个全连接层,第一层节点数为2048个,第二层节点数为1024个,第三层节点数为512个,多层感知机MLP的最后一层连接空间偏移输出部分;空间偏移输出部分包含4个值,这4个值分别为所选图像块左上角横坐标与目标左上角横坐标的差值Dxl,所选图像块左上角纵坐标与目标左上角纵坐标的差值Dyl,所选图像块右下角横坐标与目标右下角横坐标的差值Dxr,所选图像块右下角纵坐标与目标右下角纵坐标的差值Dyr
目标关注区域ROI和该区域内选择的一个图像块是成对输入空间偏移学习网络的,对于同一帧图像,目标关注区域ROI不变,而该区域内选择的图像块有多个;在目标关注区域ROI内随机选择1000个图像块,并记录每个所选的图像块与目标的空间偏移值,即所选图像块与目标的坐标差值Dxl,Dyl,Dxr,Dyr,通过以步骤一中确定的目标图像块为中心获得的目标关注区域ROI和该区域中选择的图像块生成初始训练集,采用随机梯度下降法SGD对空间偏移学习网络进行离线训练,从而确定多层感知机的参数,进而完成空间偏移学习网络的初始化;
步骤三、图像输入:
在实时处理情况下,提取通过摄像头采集并保存在存储区的视频图像,作为要进行跟踪的输入图像;在离线处理情况下,将已采集的视频文件分解为多个帧组成的图像序列,按照时间顺序,逐个提取帧图像作为输入图像;如果输入图像为空,则整个流程中止;
步骤四、短时跟踪:
短时跟踪采用粒子滤波方法,粒子滤波中的一个粒子代表一个可能的目标图像块,粒子滤波包含1000个粒子,每个粒子是在目标关注区域ROI内随机选择得到,该目标关注区域ROI是以上一次确定的目标为中心的,且9倍于目标大小的区域;将粒子滤波输出的预测目标图像块与目标图像块的相似度值计算为这两个图像块之间的规则化交叉互相关值NCC,则跟踪过程中如果该值>0.9,则表示短时跟踪输出的目标可信,目标定位完成,记录每个粒子与新定位目标的空间偏移值,即粒子与目标的坐标差值Dxl,Dyl,Dxr,Dyr,跳转到步骤五,否则表示目标不可信,跳转到步骤六;
步骤五、网络在线训练:
以步骤四中粒子滤波的粒子及其对应的目标关注区域ROI作为空间偏移学习网络的在线训练集,采用随机梯度下降法SGD对空间偏移学习网络进行在线训练,更新网络参数;
步骤六、目标定位与更新:
将当前目标关注区域ROI和步骤四中粒子滤波的每个粒子分别输入到空间偏移学习网络,经网络正向处理后,输出每个粒子对应的空间偏移值,根据粒子所在的位置和该粒子对应的空间偏移值,计算得到该粒子预测的目标位置;统计所有粒子预测的目标位置,把具有预测最多次的位置作为新的目标位置,目标定位完成;计算新定位的目标图像块与粒子滤波短时跟踪的目标图像块之间的相似度值,即它们的规则化交叉互相关值NCC,如果该值>0.9,则用新定位的目标图像块更新粒子滤波短时跟踪的目标图像块;跳转到步骤三。
CN201811186951.7A 2018-10-12 2018-10-12 一种基于空间偏移学习的目标跟踪方法 Active CN109493370B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811186951.7A CN109493370B (zh) 2018-10-12 2018-10-12 一种基于空间偏移学习的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811186951.7A CN109493370B (zh) 2018-10-12 2018-10-12 一种基于空间偏移学习的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN109493370A true CN109493370A (zh) 2019-03-19
CN109493370B CN109493370B (zh) 2021-07-02

Family

ID=65689745

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811186951.7A Active CN109493370B (zh) 2018-10-12 2018-10-12 一种基于空间偏移学习的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN109493370B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109993770A (zh) * 2019-04-09 2019-07-09 西南交通大学 一种自适应时空学习与状态识别的目标跟踪方法
CN110007675A (zh) * 2019-04-12 2019-07-12 北京航空航天大学 一种基于行车态势图的车辆自动驾驶决策***及基于无人机的训练集制备方法
CN110472588A (zh) * 2019-08-19 2019-11-19 上海眼控科技股份有限公司 锚点框确定方法、装置、计算机设备和存储介质

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160127641A1 (en) * 2014-11-03 2016-05-05 Robert John Gove Autonomous media capturing
CN106169188A (zh) * 2016-07-11 2016-11-30 西南交通大学 一种基于蒙特卡洛树搜索的对象跟踪方法
CN106980843A (zh) * 2017-04-05 2017-07-25 南京航空航天大学 目标跟踪的方法及装置
CN107146237A (zh) * 2017-04-24 2017-09-08 西南交通大学 一种基于在线状态学习与估计的目标跟踪方法
CN107169998A (zh) * 2017-06-09 2017-09-15 西南交通大学 一种基于肝脏超声造影图像的实时跟踪及定量分析方法
CN107316058A (zh) * 2017-06-15 2017-11-03 国家新闻出版广电总局广播科学研究院 通过提高目标分类和定位准确度改善目标检测性能的方法
CN107369169A (zh) * 2017-06-08 2017-11-21 温州大学 一种gpu加速的基于方向对齐与匹配传递的近似最相似图像块匹配方法
CN108154118A (zh) * 2017-12-25 2018-06-12 北京航空航天大学 一种基于自适应组合滤波与多级检测的目标探测***及方法
CN108470355A (zh) * 2018-04-04 2018-08-31 中山大学 融合卷积网络特征和判别式相关滤波器的目标跟踪方法
CN108537825A (zh) * 2018-03-26 2018-09-14 西南交通大学 一种基于迁移学习回归网络的目标跟踪方法
CN108573246A (zh) * 2018-05-08 2018-09-25 北京工业大学 一种基于深度学习的时序动作识别方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160127641A1 (en) * 2014-11-03 2016-05-05 Robert John Gove Autonomous media capturing
CN106169188A (zh) * 2016-07-11 2016-11-30 西南交通大学 一种基于蒙特卡洛树搜索的对象跟踪方法
CN106980843A (zh) * 2017-04-05 2017-07-25 南京航空航天大学 目标跟踪的方法及装置
CN107146237A (zh) * 2017-04-24 2017-09-08 西南交通大学 一种基于在线状态学习与估计的目标跟踪方法
CN107369169A (zh) * 2017-06-08 2017-11-21 温州大学 一种gpu加速的基于方向对齐与匹配传递的近似最相似图像块匹配方法
CN107169998A (zh) * 2017-06-09 2017-09-15 西南交通大学 一种基于肝脏超声造影图像的实时跟踪及定量分析方法
CN107316058A (zh) * 2017-06-15 2017-11-03 国家新闻出版广电总局广播科学研究院 通过提高目标分类和定位准确度改善目标检测性能的方法
CN108154118A (zh) * 2017-12-25 2018-06-12 北京航空航天大学 一种基于自适应组合滤波与多级检测的目标探测***及方法
CN108537825A (zh) * 2018-03-26 2018-09-14 西南交通大学 一种基于迁移学习回归网络的目标跟踪方法
CN108470355A (zh) * 2018-04-04 2018-08-31 中山大学 融合卷积网络特征和判别式相关滤波器的目标跟踪方法
CN108573246A (zh) * 2018-05-08 2018-09-25 北京工业大学 一种基于深度学习的时序动作识别方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
NAOKI AKAI ET AL: "Simultaneous pose and reliability estimation using convolutional neural network and Rao–Blackwellized particle filter", 《ADVANCED ROBOTICS》 *
X KONG ET AL: "Attentional convolutional neural networks for object tracking", 《2018 INTEGRATED COMMUNICATIONS, NAVIGATION, SURVEILLANCE CONFERENCE (ICNS)》 *
习文星: "移动背景下视觉的行人检测、识别与跟踪技术研究", 《中国博士学位论文全文数据库 信息科技辑》 *
常发亮等: "复杂环境下基于自适应粒子滤波器的目标跟踪", 《电子学报》 *
张毅锋等: "基于基完备化理论和嵌入多层感知机的深度网络结构设计", 《东南大学学报(自然科学版)》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109993770A (zh) * 2019-04-09 2019-07-09 西南交通大学 一种自适应时空学习与状态识别的目标跟踪方法
CN109993770B (zh) * 2019-04-09 2022-07-15 西南交通大学 一种自适应时空学习与状态识别的目标跟踪方法
CN110007675A (zh) * 2019-04-12 2019-07-12 北京航空航天大学 一种基于行车态势图的车辆自动驾驶决策***及基于无人机的训练集制备方法
CN110472588A (zh) * 2019-08-19 2019-11-19 上海眼控科技股份有限公司 锚点框确定方法、装置、计算机设备和存储介质
CN110472588B (zh) * 2019-08-19 2020-11-24 上海眼控科技股份有限公司 锚点框确定方法、装置、计算机设备和存储介质

Also Published As

Publication number Publication date
CN109493370B (zh) 2021-07-02

Similar Documents

Publication Publication Date Title
CN109800689B (zh) 一种基于时空特征融合学习的目标跟踪方法
CN107967451B (zh) 一种对静止图像进行人群计数的方法
Molchanov et al. Online detection and classification of dynamic hand gestures with recurrent 3d convolutional neural network
CN109344725B (zh) 一种基于时空关注度机制的多行人在线跟踪方法
Gurghian et al. Deeplanes: End-to-end lane position estimation using deep neural networksa
CN106169188B (zh) 一种基于蒙特卡洛树搜索的对象跟踪方法
CN112842690B (zh) 具有维度数据缩减的机器视觉
CN109816689A (zh) 一种多层卷积特征自适应融合的运动目标跟踪方法
CN110660082A (zh) 一种基于图卷积与轨迹卷积网络学习的目标跟踪方法
CN107146237B (zh) 一种基于在线状态学习与估计的目标跟踪方法
CN111862145B (zh) 一种基于多尺度行人检测的目标跟踪方法
CN114241548A (zh) 一种基于改进YOLOv5的小目标检测算法
CN112836640A (zh) 一种单摄像头多目标行人跟踪方法
CN110929593A (zh) 一种基于细节辨别区别的实时显著性行人检测方法
CN105809718B (zh) 一种轨迹熵最小化的对象跟踪方法
CN109993770A (zh) 一种自适应时空学习与状态识别的目标跟踪方法
CN109493370A (zh) 一种基于空间偏移学习的目标跟踪方法
CN110728694A (zh) 一种基于持续学习的长时视觉目标跟踪方法
CN113763424B (zh) 基于嵌入式平台的实时智能目标检测方法及***
CN106529441B (zh) 基于模糊边界分片的深度动作图人体行为识别方法
Munir et al. LDNet: End-to-end lane marking detection approach using a dynamic vision sensor
CN108537825B (zh) 一种基于迁移学习回归网络的目标跟踪方法
CN110310305A (zh) 一种基于bssd检测与卡尔曼滤波的目标跟踪方法与装置
CN114283355A (zh) 一种基于小样本学习的多目标濒危动物跟踪方法
CN110111358B (zh) 一种基于多层时序滤波的目标跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant