CN105894008A - 结合特征点匹配及深度神经网络检测的目标运动跟踪方法 - Google Patents

结合特征点匹配及深度神经网络检测的目标运动跟踪方法 Download PDF

Info

Publication number
CN105894008A
CN105894008A CN201410767363.8A CN201410767363A CN105894008A CN 105894008 A CN105894008 A CN 105894008A CN 201410767363 A CN201410767363 A CN 201410767363A CN 105894008 A CN105894008 A CN 105894008A
Authority
CN
China
Prior art keywords
target
tracking
feature point
point matching
nerve network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201410767363.8A
Other languages
English (en)
Inventor
陈姝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangxi Kasite Cartoon Co Ltd
Original Assignee
Guangxi Kasite Cartoon Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangxi Kasite Cartoon Co Ltd filed Critical Guangxi Kasite Cartoon Co Ltd
Priority to CN201410767363.8A priority Critical patent/CN105894008A/zh
Publication of CN105894008A publication Critical patent/CN105894008A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种结合特征点匹配及深度神经网络检测的目标运动跟踪方法。首先利用深度神经网络通过样本学习目标的视觉先验,然后跟踪在贝叶斯推理框架下进行,在跟踪过程中将目标视觉先验用作目标的外观表示,跟踪结果由粒子滤波顺序得到。为了防止跟踪漂移,通过特征点匹配建立***的状态模型,并且将目标分解成子目标进行相似度量提高算法抗局部遮挡能力。本发明可以精确跟踪视频中的运动目标,能够广泛应用于人机交互、互动娱乐、智能监控、医疗诊断等领域。

Description

结合特征点匹配及深度神经网络检测的目标运动跟踪方法
【技术领域】
本发明涉及计算机视觉和视频处理领域,特别涉及基于视频的运动目标跟踪方法。
【背景技术】
基于视频的运动目标跟踪能够广泛应用于人机交互、互动娱乐、智能监控等多个领域。目前,常用的运动目标跟踪方法主要采用判别式跟踪算法或生成式跟踪算法。此两类跟踪算法各有其优缺点,判别式跟踪算法由于采用了有效的目标视觉表示,在简单的跟踪环境下能够取得较好的跟踪效果,但在复杂的背景下跟踪效果较差。生成式跟踪算法在遮挡等复杂环境下跟踪效果较好,但是当目标外观急剧变化时,则跟踪效果较差。
【发明内容】
鉴于此,本发明的目的在于利用这两类跟踪算法的优点,提出一种在复杂环境进行目标运动精确跟踪的方法。
为达到上述目的,本发明采用以下技术方案:
1、在公开数据集上训练栈式稀疏自编码神经网络得到目标的先验视觉表示。
2、在提取的SIFT匹配点对基础上建立目标函数,并优化该目标函数得运动目标上下两帧间的运动模型。
3、在以上两步的基础上,利用粒子滤波进行运动目标跟踪。
与现有技术相比,本发明具有以下显著优势:
1、该发明利用深度神经网络学习目标的先验视觉表示,可以提高跟踪的精度。
2、该发明利用特征点匹配及深度神经网络检测可以防止跟踪漂移及跟踪丢失。
【附图说明】
图1是目标跟踪流程图;
图2是栈式稀疏自编码神经网络结构图;
图3是特征层1稀疏自编码结构图;
图4是本发明应用于视频跟踪结果图;
【具体实施方式】
下面结合附图及具体实施方式对本发明作进一步详细描述。
本发明所提出的目标运动跟踪算法如图1所示,现具体介绍每一步的实现细节:
1、离线训练。利用VOC2010及Caltech101数据集进行栈式自编码神经网络训练得到目标的视觉先验。采用的栈式自编码神经网络结构如图2所示,共分5层,第1层为输入层,最后一层为softmax分类器,中间三层为稀疏自编码器。训练采用逐层贪婪训练法分两步进行,第一步依次训练网络的每一层,第二步在第一步计算的每层初始权值的基础上利用反向传播算法对整个网络进行微调。
第一步训练:稀疏自编码器尝试逼近一个恒等函数,从而使得输出接近于输入x。以特征层1为例说明稀疏自编码器的结构(见图3)及训练过程。
设第i样本为xi,W,W′,b,b′分别为输入层与隐含层及隐含层与输出层之间的权值矩阵及偏置向量。输入层(xi=[x1 (l),x2 (l),…,x1024 (l),1]T),隐含层( 为第i样本下隐含层神经元j的激励输出)及输出层()具有以下关系
其中f(·)为logistic sigmoid函数。
建立稀疏自编码器的目标函数为
其中β控制稀疏性惩罚因子的权重,J(W,W′,b,b′)为代价函数,定义为
为稀疏约束项,其中m为隐含层神经元的数量,ρ是稀疏性参数,通常是一个接近于0的较小的值,β用来控制约束项的权重。之间的交叉熵。
稀疏自编码器为求解使式(2)最小化的参数,即
W , W ′ , b , b ′ = arg min W , W ′ , b , b ′ ( J sparse ( W , W ′ , b , b ′ ) ) - - - ( 4 )
第二步微调:在第一步训练过程中,由于训练每一层参数时,会固定其它各层参数保持不变,因而如果想得到更好的结果,在上述预训练过程完成之后,可以通过反向传播算法同时调整所有层的参数以改善结果。
为了提高算法抵抗局部遮挡的能力,除了训练一个整体目标自编码深度神经网络,同时将目标分成四个不重叠的子目标(上半部分,下半部分,左半部分及右半部分)分别训练一个自编码深度神经网络,由于尺寸减少一半,因而这四个子目标对应的自编码深度神经网络的输入层的大小都为512。这样做的好处在于在局部遮挡下,目标部分区域可见,利用部分可见区域进行目标相似性度量可以提高算法的可靠性。
2、目标跟踪。本发明采用粒子滤波作为跟踪的基本方法。粒子滤波跟踪的精度依赖于状态模型及观测模型的可靠性,下面说明这两个模型的构建。
2.1状态模型构建
我们以向量 x t = ( x t 1 , y t 1 , x t 2 , y t 2 , x t 3 , y t 3 , x t 4 , y t 4 ) T 表示目标状态, 分别为目标在图像中左上角、左下角、右上角、右下角的坐标。采用的状态模型如下
p ( x t | x t - 1 ) = g ( x t - 1 ) + v t - 1 , v t - 1 ~ N ( 0 , Σ ) - - - ( 5 )
其中N(0,∑)为零向量均值多元高斯函数,∑为对角矩阵。g(xt-1)为运动模型,采用六参数仿射变换定义如下
x t = a 1 x t - 1 + a 2 y t - 1 + a 0 y t = a 4 x t - 1 + a 5 y t - 1 + a 3 - - - ( 6 )
其中a0,a1,a2,a3,a4,a5为运动模型参数,采用以下方法计算得到。
由上式定义误差函数为
E ( p ; x ) = x t - a 1 x t - 1 - a 2 y t - 1 - a 0 y t - a 4 x t - 1 - a 5 y t - 1 - a 3 - - - ( 7 )
其中p=(a0,a1,a2,a3,a4,a5)T,x=(xt,yt,xt+1,yt+1)为两匹配SIFT特征点在图像上的坐标。最小化下式可以求得运动模型参数
采用Gauss-Newton迭代法来优化上式。
2.2观测模型构建
以深度神经网络的输出作为粒子的相似度,由于共有5个深度神经网络,故粒子的相似度结合目标及子目标的深度神经网络输出,定义如下
p ( z t | x t ) ∝ θ 1 · c t f + θ 2 · max ( c t t , c t b , c t l , c t r ) - - - ( 9 )
其中θ1,θ2为相似度系数,满足θ12=1,其值根据实验调整设置;为目标深度神经网络的输出,分别为四个子目标深度神经网络的输出。
2.3在线目标跟踪
待跟踪的目标由用户在首帧中标注得到,并且提取待跟踪目标图像区域中的SIFT特征。在首帧中提取目标的正负样本对离线训练得到的栈式稀疏自编码深度神经网络进行再训练得到目标的视觉专用表示模型。正样本集由选定目标区域根据以下变换方程得到,
x ′ y ′ = cos θ sin θ - sin θ cos θ 1 s s 1 x y - - - ( 10 )
其中(x,y)T为选定目标区域中的像素点坐标,(x′,y′)T为变换后的区域像素点坐标,θ,s为变换参数,θ为变换角度,取值范围为θ∈[-π/4,π/4],s为变换尺度,取值范围为s∈[0.8,1.2]。随机选择一组(θ,s)值根据式(10)将目标模板进行变换作为一个训练正样本,负样本集则以选定目标区域之外的图像区域作为数据源,以不同的尺度及位置从这些数据源中提取负样本。
目标在线跟踪算法流程如图1所示。在本算法中还设定两个阈值a1,a2,且a1>a2,其中a1用来判定当前跟踪结果是否可靠,如果可信度超过该阈值,则将跟踪结果作为一个新的正样本,并从该区域以外的图像区域选择负样本,重新训练深度神经网络。a2用来判定粒子滤波跟踪是否发生漂移,如果所有粒子的相似度都低于该阈值,则表明***失效,需要由深度神经网络扫描整个图像进行目标检测,并根据检测结果进行粒子滤波器重新初始化。
将本方法应用于视频的目标跟踪结果见图4。

Claims (2)

1.一种结合特征点匹配及深度神经网络检测的目标运动跟踪方法。其特征在于包括以下步骤:
a)在VOC2010及Caltech101数据集进行栈式自编码神经网络训练得到目标的视觉先验。
b)提取的SIFT匹配点对并上建立目标函数,优化该目标函数得运动目标上下两帧间的运动模型。
c)在以上两步的基础上,利用粒子滤波进行运动目标跟踪。
2.根据权利要求1所述的一种结合特征点匹配及深度神经网络检测的目标运动跟踪方法,其特征在于:所述步骤b)中建立以下误差函数。
E ( p ; x ) = x t - a 1 x t - 1 - a 2 y t - 1 - a 0 y t - a 4 x t - 1 - a 5 y t - 1 - a 3
CN201410767363.8A 2015-01-16 2015-01-16 结合特征点匹配及深度神经网络检测的目标运动跟踪方法 Pending CN105894008A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410767363.8A CN105894008A (zh) 2015-01-16 2015-01-16 结合特征点匹配及深度神经网络检测的目标运动跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410767363.8A CN105894008A (zh) 2015-01-16 2015-01-16 结合特征点匹配及深度神经网络检测的目标运动跟踪方法

Publications (1)

Publication Number Publication Date
CN105894008A true CN105894008A (zh) 2016-08-24

Family

ID=56701463

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410767363.8A Pending CN105894008A (zh) 2015-01-16 2015-01-16 结合特征点匹配及深度神经网络检测的目标运动跟踪方法

Country Status (1)

Country Link
CN (1) CN105894008A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106651917A (zh) * 2016-12-30 2017-05-10 天津大学 基于神经网络的图像目标跟踪算法
CN107169117A (zh) * 2017-05-25 2017-09-15 西安工业大学 一种基于自动编码器和dtw的手绘图人体运动检索方法
CN108257156A (zh) * 2018-01-24 2018-07-06 清华大学深圳研究生院 一种从视频中自动追踪目标物体的方法
CN108447080A (zh) * 2018-03-02 2018-08-24 哈尔滨工业大学深圳研究生院 基于分层数据关联和卷积神经网络的目标跟踪方法、***和存储介质
CN109559329A (zh) * 2018-11-28 2019-04-02 陕西师范大学 一种基于深度去噪自动编码器的粒子滤波跟踪方法
CN109684953A (zh) * 2018-12-13 2019-04-26 北京小龙潜行科技有限公司 基于目标检测和粒子滤波算法进行猪只跟踪的方法及装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106651917A (zh) * 2016-12-30 2017-05-10 天津大学 基于神经网络的图像目标跟踪算法
CN107169117A (zh) * 2017-05-25 2017-09-15 西安工业大学 一种基于自动编码器和dtw的手绘图人体运动检索方法
CN107169117B (zh) * 2017-05-25 2020-11-10 西安工业大学 一种基于自动编码器和dtw的手绘图人体运动检索方法
CN108257156A (zh) * 2018-01-24 2018-07-06 清华大学深圳研究生院 一种从视频中自动追踪目标物体的方法
CN108257156B (zh) * 2018-01-24 2021-05-04 清华大学深圳研究生院 一种从视频中自动追踪目标物体的方法
CN108447080A (zh) * 2018-03-02 2018-08-24 哈尔滨工业大学深圳研究生院 基于分层数据关联和卷积神经网络的目标跟踪方法、***和存储介质
CN108447080B (zh) * 2018-03-02 2023-05-23 哈尔滨工业大学深圳研究生院 基于分层数据关联和卷积神经网络的目标跟踪方法、***和存储介质
CN109559329A (zh) * 2018-11-28 2019-04-02 陕西师范大学 一种基于深度去噪自动编码器的粒子滤波跟踪方法
CN109684953A (zh) * 2018-12-13 2019-04-26 北京小龙潜行科技有限公司 基于目标检测和粒子滤波算法进行猪只跟踪的方法及装置

Similar Documents

Publication Publication Date Title
CN109597087B (zh) 一种基于点云数据的3d目标检测方法
CN105894008A (zh) 结合特征点匹配及深度神经网络检测的目标运动跟踪方法
CN105741267B (zh) 聚类引导深度神经网络分类的多源图像变化检测方法
Li et al. Robust visual tracking based on convolutional features with illumination and occlusion handing
CN107016357B (zh) 一种基于时间域卷积神经网络的视频行人检测方法
CN108549876A (zh) 基于目标检测和人体姿态估计的坐姿检测方法
CN104200494B (zh) 一种基于光流的实时视觉目标跟踪方法
CN107330357A (zh) 基于深度神经网络的视觉slam闭环检测方法
CN104392241B (zh) 一种基于混合回归的头部姿态估计方法
CN105046717A (zh) 一种鲁棒性的视频目标对象跟踪方法
CN104281853A (zh) 一种基于3d卷积神经网络的行为识别方法
CN105809693A (zh) 基于深度神经网络的sar图像配准方法
CN104463191A (zh) 一种基于注意机制的机器人视觉处理方法
CN104050685B (zh) 基于粒子滤波视觉注意力模型的运动目标检测方法
CN109978882A (zh) 一种基于多模态融合的医疗影像目标检测方法
CN106408030A (zh) 基于中层语义属性和卷积神经网络的sar图像分类方法
Lu et al. Learning transform-aware attentive network for object tracking
CN107689052A (zh) 基于多模型融合和结构化深度特征的视觉目标跟踪方法
CN106778687A (zh) 基于局部评估和全局优化的注视点检测方法
CN106611420A (zh) 基于反卷积网络和素描图方向约束的sar图像分割方法
CN114937066A (zh) 基于交叉偏移特征与空间一致性的点云配准***及方法
CN104318246A (zh) 基于深度自适应脊波网络的极化sar图像分类
CN113158943A (zh) 一种跨域红外目标检测方法
CN106611423A (zh) 基于脊波滤波器和反卷积结构模型的sar图像分割方法
Shu et al. LVC-Net: Medical image segmentation with noisy label based on local visual cues

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20160824

WD01 Invention patent application deemed withdrawn after publication