CN110570450B - 一种基于级联的上下文感知框架的目标跟踪方法 - Google Patents

一种基于级联的上下文感知框架的目标跟踪方法 Download PDF

Info

Publication number
CN110570450B
CN110570450B CN201910882861.XA CN201910882861A CN110570450B CN 110570450 B CN110570450 B CN 110570450B CN 201910882861 A CN201910882861 A CN 201910882861A CN 110570450 B CN110570450 B CN 110570450B
Authority
CN
China
Prior art keywords
context
target
map
aware
framework
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910882861.XA
Other languages
English (en)
Other versions
CN110570450A (zh
Inventor
邬向前
卜巍
马丁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Institute of Technology
Original Assignee
Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Institute of Technology filed Critical Harbin Institute of Technology
Priority to CN201910882861.XA priority Critical patent/CN110570450B/zh
Publication of CN110570450A publication Critical patent/CN110570450A/zh
Application granted granted Critical
Publication of CN110570450B publication Critical patent/CN110570450B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/207Analysis of motion for motion estimation over a hierarchy of resolutions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于级联的上下文感知框架的目标跟踪方法,所述方法提出了一个基于两个网络的级联的上下文感知框架,其包括两个子网络:一个基于图像的上下文感知网络ICANet和一个基于图像块的上下文感知网络PCANet。该框架渐近地建模了各种目标与其上下文信息之间的各种变化。第一个网络关注的是目标与其上下文之间最具判别力的信息以及目标粗略的结构,第二个网络关注的是目标自身的细致的结构信息。根据这两个网络的输出—最终的上下文感知图,可以灵活地生成目标的定位框,有效地区分目标与其周围干扰物等背景信息。本发明所获得的FCA map能够灵活地嵌入到多种跟踪框架中。

Description

一种基于级联的上下文感知框架的目标跟踪方法
技术领域
本发明涉及一种目标跟踪方法,具体涉及一种基于级联的上下文感知框架的目标跟踪方法。
背景技术
基于卷积神经网络(CNNs)的强大的表示能力,研究者们提出了大量的基于卷积神经网络的***。其中,大多数***使用矩形框来标记目标的位置。在这种情况下,目标模型将或多或少的包含上下文信息。而且,忽略上下文信息可能对跟踪性能造成很大的影响。首先,从有限的空间区域学习目标模型可能会导致过度拟合,且对于目标外观的快速变化并不鲁棒。其次,缺乏真正意义上的负样本将大大削弱***对于复杂背景的鲁棒性,特别是当目标与其上下文环境中存在相似的视觉信息时将大大增加跟踪漂移现象出现的风险。第三,当上下文信息没有充分考虑时,***难以有效处理目标遭遇遮挡的情况。
现有的目标跟踪算法大多只针对目标局部范围内的上下文信息,对于整幅输入图像的上下文信息很少关注,使得存在于整幅图像范围内的干扰物和背景信息被忽略,从而影响了跟踪算法的鲁棒性。
发明内容
为了减少背景对***的干扰,关注整个图像每个角落的上下文信息,同时解决现有目标跟踪算法存在的上述问题,本发明提供了一种基于级联的上下文感知框架的目标跟踪方法。
本发明的目的是通过以下技术方案实现的:
一种基于级联的上下文感知框架的目标跟踪方法,包括如下步骤:
步骤一、构建基于级联的上下文感知框架(CAT),所述上下文感知框架包括两个子网络:一个基于图像的上下文感知网络(ICANet)和一个基于图像块的上下文感知网络(PCANet),其中:ICANet的输入为整幅图像,用以捕获整幅输入图像范围内的背景信息,PCANet用以区分目标局部范围内的相似干扰物;
步骤二、通过ICANet学习图像级的上下文感知图(ICA map),捕捉目标与周围上下文之间最具判别力的特征以及目标的大概结构信息;
步骤三、通过PCANet学习图像块级的上下文感知图(PCA map),基于该PCAmap获得目标的自身结构信息并抑制干扰物的信息;
步骤四、在获得ICA map和PCA map之后,将PCA map的像素映射到ICA map以此来得到最终的上下文感知图(FCA map);
步骤五、基于最终的上下文感知图(FCA map),使用两种策略来获得目标的定位框,其中:
策略一、在FCA map对每个像素使用sigmoid,然后通过将FCA map二值化(阈值为0.5)获得二值掩模,根据该二值掩模,通过轴对齐的边界矩形生成边界框;
策略二、将FCA map嵌入到贝叶斯框架中,即根据候选样本属于目标的可能性计算最大后验估计。
相比于现有技术,本发明具有如下优点:
1、本发明提出了一个基于两个网络的级联的上下文感知框架,其包括一个ICANet和一个PCANet。该框架渐近地建模了各种目标与其上下文信息之间的各种变化。第一个网络关注的是目标与其上下文之间最具判别力的信息以及目标粗略的结构,第二个网络关注的是目标自身的细致的结构信息。根据这两个网络的输出—最终的上下文感知图,可以灵活地生成目标的定位框,有效地区分目标与其周围干扰物等背景信息。
2、本发明所获得的FCA map能够灵活地嵌入到多种跟踪框架中。
附图说明
图1为本发明提出的CAT框架的总体流程图;
图2为ICANet的架构;
图3为PCANet的架构;
图4为可视化结果,(a)标签,(b)FCA map没有LBoundary的可视化结果,(c)FCAmap添加LBoundary的可视化结果;
图5为在OTB100数据集上的准确率和成功率表,(a)准确率,(b)成功率;
图6为在TC128数据集上的准确率和成功率表,(a)准确率,(b)成功率;
图7为本发明提出的CAT***在具有挑战性的序列的可视化结果。
具体实施方式
下面结合附图对本发明的技术方案作进一步的说明,但并不局限于此,凡是对本发明技术方案进行修改或者等同替换,而不脱离本发明技术方案的精神和范围,均应涵盖在本发明的保护范围中。
本发明提供了一种基于级联的上下文感知框架的目标跟踪方法,所述方法包括如下步骤:
一、图像级上下文感知网络(ICANet)
本发明认为循环结构对于生成对象上下文图像非常重要,因为它可以帮助网络知晓对象在连续帧中的位置。如图1所示,循环结构以循环方式生成图像级的上下文感知图(ICA map)。整个网络由一个特征提取器(VGG-M中的五个卷积层conv1-conv5)和额外的五个附加模块组成,每个附加模块由卷积层、平均池化层、卷积LSTM单元和反卷积层组成。
对于ICANet,目标和背景被视为二元分类问题。在大多数情况下,目标与其上下文之间存在着相反的信息。为了捕获这样的相反信息,本发明提出从特征本身中减去特征的平均值。该平均值由核大小为3×3的平均池化层实现。
在大多数情况下,与目标的外观变化相比,上下文的变化相对较慢。因此,本发明选择LSTM来处理这种长期依赖性。如图2所示,卷积LSTM单元(粉红色矩形)由输入门It、遗忘门Ft、细胞状态Ct和输出门Ot组成。在时间维度上,门和状态之间的关系可表示为:
Figure BDA0002206400660000051
其中,Xt是对比层生成的特征。细胞状态Ct将被输入下一个LSTM。隐输出由Ht表示。*是卷积运算。W*为所要学***衡交叉熵损失函数用于训练:
Figure BDA0002206400660000052
其中,K是训练像素的总数,Qk是高斯形状的标签,Pk是预测概率。
二、图像块级上下文感知网络(PCANet)
ICANet的结构基于2D CNN和卷积LSTM,它通常专注于捕获较为粗糙和长期的时间依赖。然而,这种架构可能缺乏在局部时空窗口中表示更为精细的结构信息的能力。此外,ICANet的输出为高斯形状图,在某些情况下,输出无法描述目标的准确轮廓。
图3展示了PCANet的网络结构。本发明从当前帧中裁剪一个出一个图像块,该图像块的中心位于ICA map的最高响应区域。PCANet由特征提取器(ICANet中的前三个卷积层)和其余的三个附加模块组成。每个附加模块由用于减小特征尺寸的卷积层,用于建模自身结构的RNN单元和用于递进地增大特征到输入大小的反卷积层组成。
PCANet旨在获得目标本身的结构。然而,目标特征的分辨率较低,且目标仅占图像的一小部分。为了捕获目标的完整结构,需要构建具有高分辨率的特征图。本发明通过扩大每次激活的感受野来满足这一要求。为此,删除VGG-M网络中的conv1和conv2之后的最大池化层。在此操作之后,conv3的输出特征图比原始的VGG-M网络中的特征图大四倍。该操作能够提取高分辨率的特征并提高构造结构的质量。
之后,构建目标的本身结构基于RNN单元。在每个RNN单元中,使用几个有向RNN来模拟目标的自身结构,即通过一些有向图的组合来近似无向图的拓扑。在RNN单元中,无向图被分解为四个有向图,即右(G1)、左(G2)、上(G3)和下(G4)。通过执行RNN,隐藏状态hn(n=1;2;3;4)由相应的Gn计算得到。并且所有隐藏层的输出总和被输送到输出层。该过程可表示为:
Figure BDA0002206400660000061
其中,Un,Wn和Vn是对应于Gn的矩阵参数。bn和c是偏置项。
Figure BDA0002206400660000062
vivi的前身。之后,将RNN单元的输出输入到反卷积层以扩大特征图。最后,最终输出是一个单通道得分图,其大小与输入相同。
为了强调对象的边界,本发明提出了一个边界损失LBoundary来作为辅助损失。总损失包括类平衡交叉熵损失和边界损失LBoundary。要计算边界损失LBoundary,首先需要提取预测和groundtruth的边界。这里,Sobel滤波器作为3×3的卷积来检测边界。在数学上,Sobel滤波器可表示为:
Figure BDA0002206400660000071
其分别编码水平和垂直梯度。然后,通过连接上述滤波器构造Sobel滤波器。LBoundary由标签qk和预测pkpk之间的均方误差计算得出。之后,用于训练所提出的PCANet的整个损失函数通过以下公式计算:
Figure BDA0002206400660000072
图4为PCAmap的可视化结果。由图4可以看出,PCANet更多地关注目标的更精细结构。
三、目标位置的确定
为了估计目标的位置,最终的上下文感知图(FCA map)通过两个结果的投影来构建,即PCANet的结果通过像素值映射的方式映射到ICANet的结果。然后,考虑两种不同的策略来生成目标的矩形框:
(1)给定FCA map,我们在FCA map对每个像素使用sigmoid。然后,通过将FCA map二值化(阈值为0.5)来获得二值掩模。根据该二值掩模,通过轴对齐的边界矩形生成边界框(记为Seg)。
(2)将FCAmap嵌入到贝叶斯框架中,即根据候选样本属于目标的可能性来计算最大后验估计。为了在获得更清晰准确的目标描述,使用independent component analysis(ICA)来描述目标的详细信息(记为ICA)。
ICA是在参考的指导下,在信号源之间提取所需信号。为了得到参考,首先用拉普拉斯高斯滤波器对输入帧进行卷积并输出边界图。然后,参考mr通过边界图与FCA map进行元素相乘得到。通过给定mr作为参考,ms作为信号,所需信号由投影空间s=wTms获得。其目标是最大化负熵J(s):
Figure BDA0002206400660000081
ε(s,mr)≤δ (7);
其中,
Figure BDA0002206400660000082
是非二次函数,ρ是常数,ε是g均匀变量,ε(·)是归一化函数,Ε[·]是期望。之后,将ICA的结果输入到贝叶斯框架中的外观模型。在该框架中,目标的位置表示为lt=(x,y,σ),其中x,y和σ分别表示矩形框的中心点坐标和尺度。所有候选样本归一化到标准大小/>
Figure BDA0002206400660000083
为此,第r个候选样本的置信度通过计算热图中所有像素值的总和:
Figure BDA0002206400660000084
最终的位置通过以下方式计算得到:
Figure BDA0002206400660000085
其中,*对应目标在当前帧中最优的外观状态lt
四、在线更新
在线更新策略在跟踪过程中起着重要作用。对于ICANet,输入为整幅图像。由于ICANet在最大长度为16帧的序列上进行训练,因此在每16帧后重置LSTM状态。LSTM的状态被设置为第一个前向传递的输出,其编码了跟踪对象的信息。对于PCANet,使用估计的二进制掩码逐帧更新网络。
五、训练细节
对于ICANet,使用VGG-M的权重初始化,其他参数使用正态分布随机初始化。这里使用AdamOptimizer方法以10-4的学习速率进行更新。ICANet分为两个阶段进行训练。在第一阶段,ICANet的训练时长为300个周期,批量大小为16帧,使用CDnet2014数据集。然后,ICANet在DAVIS2016数据集上微调200个周期,批量大小为16帧。对于PCANet,使用ICANet的前三个卷积层初始化特征提取器。使用10-5的初始学习率,持续大约300次迭代。在整个实验过程中固定所有参数。
六、实验结果及分析
为了评估CAT的性能,本发明使用标准的评价指标。在OTB100数据集中,使用常用的一次通过评估(OPE)对算法进行评估,并用准确率和成功率的图表作为指标。对于准确率度量,估计的位置在距离标定位置的特定阈值距离内测量。通常,阈值距离设置为20个像素。成功率度量为预测边界框和groundtruth边界框之间的重叠率。准确率和成功率的图表也用于TC128数据集。在VOT2016数据集中,每个***通过准确度排名(A)、鲁棒性排名(R)和预期平均重叠(EAO)的度量来评测。
1、实现细节
本发明所提出的跟踪方法使用Matconvnet工具箱实现,并在Intel(R)Core(TM)i7-4790k CPU和NVIDIA Tesla K40c GPU的PC上运行。ICANet和PCANet的输入大小分别300×300和100×100。LSTM层有1024个单元。使用MSRA初始化方法初始化所有新层。使用峰值为1.0的二维高斯函数生成ICANet的标签。在PCANet中,第一帧中目标的状态由GrabCut初始化。RNN的隐藏层的维度被设置为512,256和128。对于贝叶斯框架的跟踪策略,使用高斯分布模型为每个帧生成600个候选。候选位置参数的方差分别设置为{10,10,0.01}。
2、自比较实验
为了验证CAT中各组成部分的有效性,本发明设计了六种CAT变体并使用OTB100进行评估。灰线表示使用Seg策略的ICANet的变体。白线展示了使用ICA策略的ICANet的变体。其中,准确率和成功率的分数在表1的最后两列中说明。对于Seg策略,“ICANet+PCANet”and“ICANet+PCANet+LBoundary”在准确率的度量上分别提升了4%和4.4%。对于ICA策略,“ICANet+PCANet”and“ICANet+PCANet+LBoundary”在准确率的度量上分别提升了5.2%和5.8%。结果表明,本发明所提出的框架可以在充分考虑上下文和边界信息的情况下提高性能。本发明选择“ICANet+PCANet+ICA+LBoundary”的架构与其他最先进的***在以下3个公开数据集上进行比较。
表1
Figure BDA0002206400660000101
3、在OTB100数据集上的实验结果
将本发明提出的CAT***与最近发布的16个***在OTB100数据集上进行了比较:SiamRPN++、DSLT、DAT、DaSiamRPN、MCPF、TADT、ACT、meta crest、PTAV、CREST、TRACA、CNN-SVM、BACF、ACFN、cfnet和UDT。通过基于两个度量进行一次通过评估(OPE)来测量跟踪性能:中心位置误差和重叠率,结果显示在图5中。根据图5,CAT***在该数据集中展现了具有竞争性的性能。其在OTB100上的准确率和成功率的值分别为0.909和0.697。
4、在TC128数据集上的实验结果
本发明在包含了128个视频的TC128数据集上进行了实验,与12个最先进的***比较结果显示在图6中。在所有比较的方法中,本发明的方法将准确率得分从最先进的***的0.8073提高到0.8153。图6(b)展示了TC128数据集中总共128个视频的成功率。CAT追踪器的性能优于最先进的方法,AUC得分为0.6138。此结果验证了本发明所提出的CAT的鲁棒性。
5、在VOT2016数据集上的实验结果
本发明评估了CAT在(VOT2016)数据集上的性能。VOT2016报告显示,在EAO指标下,先进指标设置为0.251,EAO值超过此范围的***被定义为最先进的。我们将CAT***与7种最先进的***进行比较,包括ECO、C-COT、Staple、MDNet、CREST、SiamFC和ECO-hc。如表2所示,CAT***在所有比较的***中获得了更高的排名。
表2
Tracker CAT ECO C-COT Staple MDNet CREST SiamFC ECO-hc
EAO 0.332 0.367 0.331 0.295 0.257 0.283 0.235 0.322
A 0.57 0.55 0.54 0.54 0.54 0.51 0.53 0.54
R 0.23 0.20 0.24 0.38 0.34 0.25 0.46 0.30
6、分析与讨论
本发明所提出的CAT***在挑战性序列子集的定性结果如图7所示。本发明所提出的CAT能够成功应对目标的平面内和平面外旋转。通过ICANet生成的ICAmap捕获了更多用于分离前景和背景的辨别特征,即它在长时间跨度上保持最鲁棒的特征。PCANet中的循环单元对于目标出现遮挡时表现得较为鲁棒。此外,本发明的PCANet能够有效捕获目标自身的结构变化。与BACF、DaSiamRPN相比,我们的CAT在存在光照变化和复杂背景的情况下获得了更好跟踪结构。这是因为提取了整个图像中每个角落的上下文信息。同时,FCA map捕获了目标的粗粒度和细粒度信息,本发明的***在目标大小也很小的序列中比BACF表现更好。

Claims (7)

1.一种基于级联的上下文感知框架的目标跟踪方法,其特征在于所述方法包括如下步骤:
步骤一、构建基于级联的上下文感知框架CAT,所述CAT包括两个子网络:一个基于图像的上下文感知网络ICANet和一个基于图像块的上下文感知网络PCANet,其中:ICANet的输入为整幅图像,用以捕获整幅输入图像范围内的背景信息,PCANet用以区分目标局部范围内的相似干扰物;
所述ICANet由一个特征提取器和五个附加模块组成,其中:特征提取器包括VGG-M中的五个卷积层,每个附加模块由卷积层、平均池化层、卷积LSTM单元和反卷积层组成;
所述PCANet由特征提取器和三个附加模块组成,其中:特征提取器包括ICANet中的前三个卷积层,每个附加模块由用于减小特征尺寸的卷积层、用于建模自身结构的RNN单元和用于递进地增大特征到输入大小的反卷积层组成;
步骤二、通过ICANet学习图像级的上下文感知图ICA map,捕捉目标与周围上下文之间最具判别力的特征以及目标的大概结构信息;
步骤三、通过PCANet学习图像块级的上下文感知图PCA map,基于该PCAmap获得目标的自身结构信息并抑制干扰物的信息;
步骤四、在获得ICA map和PCA map之后,将PCA map的像素映射到ICA map以此来得到最终的上下文感知图FCA map;
步骤五、基于最终的FCA map获得目标的定位框。
2.根据权利要求1所述的基于级联的上下文感知框架的目标跟踪方法,其特征在于所述平均池化层的核大小为3×3。
3.根据权利要求1所述的基于级联的上下文感知框架的目标跟踪方法,其特征在于所述卷积LSTM单元由输入门It、遗忘门Ft、细胞状态Ct和输出门Ot组成,在时间维度上,门和状态之间的关系表示为:
Figure FDA0003880628380000021
其中,Xt是对比层生成的特征,Ct是细胞状态,Ht表示隐输出,*是卷积运算,W*为所要学习的参数,b*为偏置项,⊙为点乘运算,tanh为正切运算。
4.根据权利要求1所述的基于级联的上下文感知框架的目标跟踪方法,其特征在于所述步骤一中,ICANet采用类平衡交叉熵损失函数用于训练:
Figure FDA0003880628380000022
其中,K是训练像素的总数,Qk是高斯形状的标签,Pk是预测概率。
5.根据权利要求1所述的基于级联的上下文感知框架的目标跟踪方法,其特征在于所述步骤一中,用于训练PCANet的整个损失函数通过以下公式计算:
Figure FDA0003880628380000031
其中,LBoundary为边界损失,qk为标签,K是训练像素的总数,Pk是预测概率。
6.根据权利要求1所述的基于级联的上下文感知框架的目标跟踪方法,其特征在于所述步骤五中,基于最终的FCA map获得目标的定位框的方法如下:在FCA map对每个像素使用sigmoid,然后通过将FCA map二值化获得二值掩模,根据该二值掩模,通过轴对齐的边界矩形生成边界框。
7.根据权利要求1所述的基于级联的上下文感知框架的目标跟踪方法,其特征在于所述步骤五中,基于最终的FCA map获得目标的定位框的方法如下:将FCA map嵌入到贝叶斯框架中,即根据候选样本属于目标的可能性计算最大后验估计。
CN201910882861.XA 2019-09-18 2019-09-18 一种基于级联的上下文感知框架的目标跟踪方法 Active CN110570450B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910882861.XA CN110570450B (zh) 2019-09-18 2019-09-18 一种基于级联的上下文感知框架的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910882861.XA CN110570450B (zh) 2019-09-18 2019-09-18 一种基于级联的上下文感知框架的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN110570450A CN110570450A (zh) 2019-12-13
CN110570450B true CN110570450B (zh) 2023-03-24

Family

ID=68780920

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910882861.XA Active CN110570450B (zh) 2019-09-18 2019-09-18 一种基于级联的上下文感知框架的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN110570450B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111222470A (zh) * 2020-01-09 2020-06-02 北京航空航天大学 基于多元高斯分布与PCANet的可见光遥感图像舰船检测方法
CN113761976A (zh) * 2020-06-04 2021-12-07 华为技术有限公司 基于全局引导选择性上下文网络的场景语义解析方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105447473A (zh) * 2015-12-14 2016-03-30 江苏大学 一种基于PCANet-CNN的任意姿态人脸表情识别方法
CN107622225A (zh) * 2017-07-27 2018-01-23 成都信息工程大学 基于独立分量分析网络的人脸识别方法
KR20180069220A (ko) * 2016-12-15 2018-06-25 현대자동차주식회사 레이더 신호 정보를 이용한 표적 식별 알고리즘.
CN110070562A (zh) * 2019-04-02 2019-07-30 西北工业大学 一种上下文相关的深度目标跟踪方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105447473A (zh) * 2015-12-14 2016-03-30 江苏大学 一种基于PCANet-CNN的任意姿态人脸表情识别方法
KR20180069220A (ko) * 2016-12-15 2018-06-25 현대자동차주식회사 레이더 신호 정보를 이용한 표적 식별 알고리즘.
CN107622225A (zh) * 2017-07-27 2018-01-23 成都信息工程大学 基于独立分量分析网络的人脸识别方法
CN110070562A (zh) * 2019-04-02 2019-07-30 西北工业大学 一种上下文相关的深度目标跟踪方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
一种不受光照和阴影影响的图像边缘检测方法;张金霞;《兰州理工大学学报》;20070630;第33卷(第3期);第100-103页 *
基于PCA及ICA的双空间特征提取算法;王卫东 等;《中国图象图形学报》;20081130;第13卷(第11期);第2163-2169页 *

Also Published As

Publication number Publication date
CN110570450A (zh) 2019-12-13

Similar Documents

Publication Publication Date Title
CN108416266B (zh) 一种利用光流提取运动目标的视频行为快速识别方法
CN108550161B (zh) 一种尺度自适应核相关滤波快速目标跟踪方法
Cui et al. Recurrently target-attending tracking
CN111027493B (zh) 一种基于深度学习多网络软融合的行人检测方法
US8989442B2 (en) Robust feature fusion for multi-view object tracking
Jia et al. Visual tracking via adaptive structural local sparse appearance model
Han et al. Visual object tracking via sample-based Adaptive Sparse Representation (AdaSR)
CN107633226B (zh) 一种人体动作跟踪特征处理方法
CN104182772B (zh) 一种基于深度学习的手势识别方法
CN108038435B (zh) 一种基于卷积神经网络的特征提取与目标跟踪方法
CN110738207A (zh) 一种融合文字图像中文字区域边缘信息的文字检测方法
CN113657560B (zh) 基于节点分类的弱监督图像语义分割方法及***
KR101409810B1 (ko) 파티클 필터를 이용한 움직임 카메라에서의 실시간 객체 추적 방법
CN114758288A (zh) 一种配电网工程安全管控检测方法及装置
CN104537686B (zh) 基于目标时空一致性和局部稀疏表示的跟踪方法及装置
CN110084201B (zh) 一种监控场景下基于特定目标跟踪的卷积神经网络的人体动作识别方法
Zhang et al. A swarm intelligence based searching strategy for articulated 3D human body tracking
CN113312973B (zh) 一种手势识别关键点特征提取方法及***
CN110570450B (zh) 一种基于级联的上下文感知框架的目标跟踪方法
CN107609571A (zh) 一种基于lark特征的自适应目标跟踪方法
CN105405138A (zh) 基于显著性检测的水面目标跟踪方法
CN104200222B (zh) 一种基于因子图模型的图片中对象识别方法
CN113657225B (zh) 一种目标检测方法
Juang et al. Moving object recognition by a shape-based neural fuzzy network
CN115512207A (zh) 一种基于多路特征融合及高阶损失感知采样的单阶段目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant