CN108288282A - 一种基于卷积神经网络的自适应特征选择目标跟踪方法 - Google Patents

一种基于卷积神经网络的自适应特征选择目标跟踪方法 Download PDF

Info

Publication number
CN108288282A
CN108288282A CN201711434884.1A CN201711434884A CN108288282A CN 108288282 A CN108288282 A CN 108288282A CN 201711434884 A CN201711434884 A CN 201711434884A CN 108288282 A CN108288282 A CN 108288282A
Authority
CN
China
Prior art keywords
characteristic pattern
feature
formula
conv3
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711434884.1A
Other languages
English (en)
Other versions
CN108288282B (zh
Inventor
周小龙
李军伟
陈胜勇
邵展鹏
产思贤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN201711434884.1A priority Critical patent/CN108288282B/zh
Publication of CN108288282A publication Critical patent/CN108288282A/zh
Application granted granted Critical
Publication of CN108288282B publication Critical patent/CN108288282B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

一种面向卷积神经网络的自适应特征选择视频目标跟踪方法,包括以下步骤:1)多层CNN特征提取;2)训练相关滤波器;3)特征选择;4)目标跟踪过程如下:利用conv3‑2,conv3‑4,conv3‑8,conv3‑12,conv3‑16五层的卷积特征作为目标特征观测,经过特征选择之后分别训练五个相关滤波器wk,k∈[1,5],然后通过加权投票最终决定目标位置(x*,y*),权重参数wk根据学习率ρ在线更新。本发明显著降低特征维度,并在不损失特征判别能力的情况下降低运算量。

Description

一种基于卷积神经网络的自适应特征选择目标跟踪方法
技术领域
本发明属于视频目标跟踪技术领域,尤其是一种自适应特征选择目标跟踪方 法。
背景技术
目标跟踪是对图像序列中的兴趣目标进行特征提取,表观建模、运动分析和 目标关联的过程,被广泛应用于智能交通,视觉伺服、人机交互等领域。近年来 目标跟踪领域虽然取得了巨大进展,但是仍然面临很大挑战,例如目标遮挡、光 照变化、姿态变化、背景复杂、低分辨率和目标快速运动等都会导致目标漂移甚 至跟踪失败。
随着卷积神经网络在目标检测和对象识别方面取得的巨大成功,越来越多的 研究者开始着眼于将卷积神经网络特征应用于目标跟踪领域,当前基于卷积神经 网络的视觉跟踪方法主要利用卷积特征作为目标观测,并以此训练分类器进行跟 踪。相比于传统的手动特征提取方法,卷积网络特征具有提取简单、特征丰富、 通用性强等优点,但是由于卷积特征的维度是普通特征维度的几十乃至上百倍, 一方面会降低分类器在线训练和更新速度,不利于算法的实时性,另外卷积神经 网络不同层和同层的不同特征图对跟踪目标的前景和背景有不同的响应,并且特 征之间存在大量的冗余信息和噪声。
发明内容
针对现有卷积神经网络特征带来的特征维度灾难、特征冗余性、鲁棒性不高 等问题,本发明提出一种基于卷积神经网络特征图之间距离的自适应聚类中心的 特征选取方法;此方法同时融入了多个相关滤波器加权确定目标位置的方法;利用 信息传播策略自适应选取特征。从而显著降低特征维度,并在不损失特征判别能 力的情况下降低运算量。
本发明解决其技术问题所采用的技术方案是:
一种面向卷积神经网络的自适应特征选择视频目标跟踪方法,所述方法包括 以下步骤:
1)多层CNN特征提取,过程如下:
在给定(t)时刻视频帧和(t-1)时刻的目标位置pt-1首先确定目标搜索区域 R(pt -1),其尺度为M*N,然后根据VGG-Net的需要用图像插值方法将搜索区域的 图像尺度进行调整,网路不同层的输出作为提取到的多层卷积特征,将提取到的 特征图乘余弦窗以消除由于图像的边缘效应而导致的特征图不连续的现象;
2)训练相关滤波器,过程如下:
将VGG-Net五个池化层的输出作为目标的多通道卷积神经网络特征 X∈RM×N×D,其中M,N,D分别表示特征图的宽度、高度和通道数,Xm,n, (m,n)∈{0,1,......,M-1}×{0,1,......,N-1}表示特征X的循环变换,在训练过程的特征的每一次 变换对应的标签Y定义为以(M/2,N/2)为中心的零均值2D高斯分布:
由于相关滤波器训练过程是在频域内进行的因此我们对样本X和标签Y分别 做快速离散傅里叶变换FFT,式中代表快速傅里叶变换, 分别代表傅里叶变换后的目标特征和标签的频域表示,相关滤波器是通过求 解式(2)得到
式中
λ≥0是规则化参数,相关滤波器能够通过稠密采样的方式求解权重参数因为信号处理理论可以利用矩阵的循环结构将时域内的卷积转化为每个样本在频 域内的乘积运算,式(2)的优化问题存在闭环解结构,在特征的d∈[1,2,3,......,D]通道 求解的模型参数有如下结构;
在跟踪过程中根据前一帧目标位置pt-1我们选定被跟踪目标的搜索区域 R(pt-1),将其通过VGG-Net前向传播的结果表示为Zd
Zd=VGG*R(pt-1),(d∈[1,2,3,......,D]) ⑸
式中*表示图像经过VGG-Net的前向传播运算符,该特征对相关滤波器的响 应表示为:
其中是卷积特征Zd在频域内的表示,符号表示逆傅里叶变换, 被跟踪目标位置由S最大响应位置决定:
3)特征选择,过程如下:
首先计算卷积特征的平均特征
式中N代表来自VGG-Net不同层特征图数量,然后将卷积特征图减平均特征 后再做高斯平滑处理得到Fi',如式(9):
特征图之间的负欧式距离作为卷积神经网络特征图之间的相似度矩阵S(i,k) 如式(10):
该相似度矩阵S(i,k),(i∈{1,N},k∈{1,N}且i≠k)描述的是特征图Fk作为Fi聚类中 心的合适程度,所有特征图之间的相似度全部取为负值,即相似度越大表示两个 特征图之间距离越近,两者更可能隶属于同一类;当i=k时,P(i)=S(i,i)表示特征 图作为聚类中心的参考度,由于在每个特征图作为聚类中心的概率相等,所以在 参考度P(i)均取为等值的;
在聚类过程中特征图之间传递两种信息:响应度和可利用度,响应度r(i,k)描 述特征图k适合作为特征图i的合适程度,该信息由点i传递到点k,迭代过程中 更新策略如下式(12):
可利用度a(i,k)描述特征图i选择特征图k作为聚类中心的合适程度,由k传 递到i,第一次迭代时响应度r(i,k)用相似度S(i,k)减去特征图i与其他所有特征图之 间最大的相似度值,可利用度a(i,k)=0,在此过程中适合做聚类中心的点其响应 值r(i,k)为正,反之则为负;如式(10)所示当i=k时,特征图的自响应值r(k,k)为 特征值得参考度P(i)减与特征图i有最大相似度的值,若其值为负则表明该点不适 合作为聚类中心,在后续的迭代过程中特征图之间的可利用度a(i,k)会根据公式 (13)更新:
候选聚类中心特征图的可利用度反映的是特征图k作为聚类中心累计可靠程 度,不适合作为中心的特征图的可利用度会迅速降到0以下,由于迭代过程,即 式(14)和(15)中容易出现信息震荡而导致算法不收敛现象,以此在每次迭代 前都要对r(i,k)和a(i,k)加一个阻尼系数λ∈[0.5,1):
rnew(i,k)=λ·rold(i,k)+(1-λ)·r(i,k) ⒁
anew(i,k)=λ·aold(i,k)+(1-λ)·a(i,k) ⒂
4)目标跟踪过程如下:
利用conv3-2,conv3-4,conv3-8,conv3-12,conv3-16五层的卷积特征作为 目标特征观测,经过特征选择之后分别训练五个相关滤波器然后通过 加权投票最终决定目标位置(x*,y*),如式(16):
每个相关滤波器的权重wk由在当前帧目标位置决定过程中的贡献率Ck决定,如式(17)和(18):
权重参数wk根据学习率ρ在线更新:
wk=(1-ρ)wk+ρwk-1 ⒆。
本发明的有益效果主要表现在:提出一种基于卷积神经网络特征图之间距离 的自适应聚类中心的特征选取方法,在保证特征表达能力的同时,有效滤除了特 征噪声,提高了特征的鲁棒性;利用不同层卷积特征的表达特异性训练多个相关 滤波器,使来自不同卷积层的特征信息互补,然后通过在线更新滤波器权重的方 式加权决定目标位置;利用信息传播策略自适应选取特征,显著降低特征维度, 在不损失特征判别能力的情况下降低运算量。
附图说明
图1是跟踪流程。
图2是不同卷积层特征可视化示意图。
图3是特征余弦窗处理示意图。
具体实施方式
下面结合附图对本发明作进一步描述。
参照图1~图3,一种面向卷积神经网络的自适应特征选择视频跟踪方法,包 括以下步骤:
1)多层CNN特征提取,过程如下:
在给定(t)时刻视频帧和(t-1)时刻的目标位置pt-1首先确定目标搜索区域 R(pt -1),其尺度为M*N,一般定义为目标尺度的2倍左右,然后根据VGG-Net的 需要用图像插值方法将搜索区域的图像尺度调整为224*224,网路不同层的输出 作为提取到的多层卷积特征,将提取到的特征图乘余弦窗(cosine)以消除由于 图像的边缘效应而导致的特征图不连续的现象;
2)训练相关滤波器,过程如下:
将VGG-Net五个池化层的输出作为目标的多通道卷积神经网络特征 X∈RM×N×D,其中M,N,D分别表示特征图的宽度、高度和通道数,Xm,n, (m,n)∈{0,1,......,M-1}×{0,1,......,N-1}表示特征X的循环变换,在训练过程的特征的每一次 变换对应的标签Y定义为以(M/2,N/2)为中心的零均值2D高斯分布.
由于相关滤波器训练过程是在频域内进行的因此我们对样本X和标签Y分别 做快速离散傅里叶变换(FFT),式中代表快速傅里叶变换, 分别代表傅里叶变换后的目标特征和标签的频域表示。相关滤波器是通过求 解式(2)得到:
式中
λ≥0是规则化参数,其目的是防止优化过程中出现过拟合现象。相较与传统 的SVM,Adaboost,random Forest等训练方法,相关滤波器能够通过稠密采样的 方式求解权重参数因为信号处理理论可以利用矩阵的循环结构将时域内的卷 积转化为每个样本在频域内的乘积运算,在保证样本最高利用率的情况下大大减 少了模型求解的运算量。式(2)的优化问题存在闭环解结构,在特征的 d∈[1,2,3,......,D]通道求解的模型参数有如下结构:
在跟踪过程中根据前一帧目标位置pt-1我们选定被跟踪目标的搜索区域 R(pt-1),将其通过VGG-Net前向传播的结果表示为Zd
Zd=VGG*R(pt-1),(d∈[1,2,3,......,D]) ⑸
式中*表示图像经过VGG-Net的前向传播运算符。该特征对相关滤波器的响 应表示为:
其中是卷积特征Zd在频域内的表示。符号表示逆傅里叶变换。 被跟踪目标位置由S最大响应位置决定:
3)特征选择,过程如下:
首先计算卷积特征的平均特征
式中N代表来自VGG-Net不同层特征图数量,然后将卷积特征图减平均特征 后再做高斯平滑处理得到Fi',如式(9):
特征图之间的负欧式距离作为卷积神经网络特征图之间的相似度矩阵S(i,k),如式(10):
该相似度矩阵S(i,k),(i∈{1,N},k∈{1,N}且i≠k)描述的是特征图Fk作为Fi聚类中 心的合适程度,所有特征图之间的相似度全部取为负值,即相似度越大表示两个 特征图之间距离越近,两者更可能隶属于同一类,距离取为负值的目的是为了便 于比较。当i=k时,P(i)=S(i,i)表示特征图作为聚类中心的参考度,由于在每个特 征图作为聚类中心的概率相等,所以在参考度P(i)均取为等值的,一般默认为相 似度S(i,k)的中值。
在聚类过程中特征图之间传递两种信息:响应度和可利用度。响应度r(i,k) 描述特征图k适合作为特征图i的合适程度,该信息由点i传递到点k,迭代过程 中更新策略如式(12):
可利用度a(i,k)描述特征图i选择特征图k作为聚类中心的合适程度,由k传 递到i,算法第一次迭代时响应度r(i,k)用相似度S(i,k)减去特征图i与其他所有特征 图之间最大的相似度值,可利用度a(i,k)=0,在此过程中适合做聚类中心的点其 响应值r(i,k)为正,反之则为负。如式(10)所示当i=k时,特征图的自响应值r(k,k) 为特征值得参考度P(i)减与特征图i有最大相似度的值,若其值为负则表明该点不 适合作为聚类中心。在后续的迭代过程中特征图之间的可利用度a(i,k)会根据公 式(13)更新:
候选聚类中心特征图的可利用度反映的是特征图k作为聚类中心累计可靠程 度,不适合作为中心的特征图的可利用度会迅速降到0以下。由于迭代过程,即 式(14)和(15)中容易出现信息震荡而导致算法不收敛现象,以此在每次迭代 前都要对r(i,k)和a(i,k)加一个阻尼系数λ∈[0.5,1):
rnew(i,k)=λ·rold(i,k)+(1-λ)·r(i,k) ⒁
anew(i,k)=λ·aold(i,k)+(1-λ)·a(i,k) ⒂
4)遮挡目标跟踪,过程如下:
利用conv3-2,conv3-4,conv3-8,conv3-12,conv3-16五层的卷积特征作为 目标特征观测,经过特征选择之后分别训练五个相关滤波器然后通过 加权投票(weighted voting)最终决定目标位置(x*,y*),如式(16):
每个相关滤波器的权重wk由在当前帧目标位置决定过程中的贡献率Ck决定,如式(17)和(18):
为了提高算法的鲁棒性,权重参数wk根据学习率ρ在线更新,这种权重的在线策略能够有效提高算法的准确率,降低噪声干扰,防止目标漂移现象发生:
wk=(1-ρ)wk+ρwk-1 ⒆。

Claims (1)

1.一种面向卷积神经网络的自适应特征选择视频目标跟踪方法,其特征在于:所述方法包括以下步骤:
1)多层CNN特征提取,过程如下:
在给定(t)时刻视频帧和(t-1)时刻的目标位置pt-1首先确定目标搜索区域R(pt-1),其尺度为M*N,然后根据VGG-Net的需要用图像插值方法将搜索区域的图像尺度进行调整,网路不同层的输出作为提取到的多层卷积特征,将提取到的特征图乘余弦窗以消除由于图像的边缘效应而导致的特征图不连续的现象;
2)训练相关滤波器,过程如下:
将VGG-Net五个池化层的输出作为目标的多通道卷积神经网络特征X∈RM×N×D,其中M,N,D分别表示特征图的宽度、高度和通道数,Xm,n,(m,n)∈{0,1,......,M-1}×{0,1,......,N-1}表示特征X的循环变换,在训练过程的特征的每一次变换对应的标签Y定义为以(M/2,N/2)为中心的零均值2D高斯分布:
由于相关滤波器训练过程是在频域内进行的因此我们对样本X和标签Y分别做快速离散傅里叶变换FFT,式中代表快速傅里叶变换,x和y分别代表傅里叶变换后的目标特征和标签的频域表示,相关滤波器是通过求解式(2)得到
式中
λ≥0是规则化参数,相关滤波器能够通过稠密采样的方式求解权重参数因为信号处理理论可以利用矩阵的循环结构将时域内的卷积转化为每个样本在频域内的乘积运算,式(2)的优化问题存在闭环解结构,在特征的d∈[1,2,3,......,D]通道求解的模型参数有如下结构;
在跟踪过程中根据前一帧目标位置pt-1我们选定被跟踪目标的搜索区域R(pt-1),将其通过VGG-Net前向传播的结果表示为Zd
Zd=VGG*R(pt-1),(d∈[1,2,3,......,D]) (5)
式中*表示图像经过VGG-Net的前向传播运算符,该特征对相关滤波器的响应表示为:
其中是卷积特征Zd在频域内的表示,符号表示逆傅里叶变换,被跟踪目标位置由S最大响应位置决定:
3)特征选择,过程如下:
首先计算卷积特征的平均特征
式中N代表来自VGG-Net不同层特征图数量,然后将卷积特征图减平均特征后再做高斯平滑处理得到F′i,如式(9):
特征图之间的负欧式距离作为卷积神经网络特征图之间的相似度矩阵S(i,k)如式(10):
该相似度矩阵S(i,k),(i∈{1,N},k∈{1,N}且i≠k)描述的是特征图Fk作为Fi聚类中心的合适程度,所有特征图之间的相似度全部取为负值,即相似度越大表示两个特征图之间距离越近,两者更可能隶属于同一类;当i=k时,P(i)=S(i,i)表示特征图作为聚类中心的参考度,由于在每个特征图作为聚类中心的概率相等,所以在参考度P(i)均取为等值的;
在聚类过程中特征图之间传递两种信息:响应度和可利用度,响应度r(i,k)描述特征图k适合作为特征图i的合适程度,该信息由点i传递到点k,迭代过程中更新策略如下式(12):
可利用度a(i,k)描述特征图i选择特征图k作为聚类中心的合适程度,由k传递到i,第一次迭代时响应度r(i,k)用相似度S(i,k)减去特征图i与其他所有特征图之间最大的相似度值,可利用度a(i,k)=0,在此过程中适合做聚类中心的点其响应值r(i,k)为正,反之则为负;如式(10)所示当i=k时,特征图的自响应值r(k,k)为特征值得参考度P(i)减与特征图i有最大相似度的值,若其值为负则表明该点不适合作为聚类中心,在后续的迭代过程中特征图之间的可利用度a(i,k)会根据公式(13)更新:
候选聚类中心特征图的可利用度反映的是特征图k作为聚类中心累计可靠程度,不适合作为中心的特征图的可利用度会迅速降到0以下,由于迭代过程,即式(14)和(15)中容易出现信息震荡而导致算法不收敛现象,以此在每次迭代前都要对r(i,k)和a(i,k)加一个阻尼系数λ∈[0.5,1):
rnew(i,k)=λ·rold(i,k)+(1-λ)·r(i,k) (14)
anew(i,k)=λ·aold(i,k)+(1-λ)·a(i,k) (15)
4)目标跟踪过程如下:
利用conv3-2,conv3-4,conv3-8,conv3-12,conv3-16五层的卷积特征作为目标特征观测,经过特征选择之后分别训练五个相关滤波器然后通过加权投票最终决定目标位置(x*,y*),如式(16):
每个相关滤波器的权重wk由在当前帧目标位置决定过程中的贡献率Ck决定,如式(17)和(18):
权重参数wk根据学习率ρ在线更新:
wk=(1-ρ)wk+ρwk-1 (19)。
CN201711434884.1A 2017-12-26 2017-12-26 一种基于卷积神经网络的自适应特征选择目标跟踪方法 Active CN108288282B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711434884.1A CN108288282B (zh) 2017-12-26 2017-12-26 一种基于卷积神经网络的自适应特征选择目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711434884.1A CN108288282B (zh) 2017-12-26 2017-12-26 一种基于卷积神经网络的自适应特征选择目标跟踪方法

Publications (2)

Publication Number Publication Date
CN108288282A true CN108288282A (zh) 2018-07-17
CN108288282B CN108288282B (zh) 2022-04-08

Family

ID=62832458

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711434884.1A Active CN108288282B (zh) 2017-12-26 2017-12-26 一种基于卷积神经网络的自适应特征选择目标跟踪方法

Country Status (1)

Country Link
CN (1) CN108288282B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109255800A (zh) * 2018-08-03 2019-01-22 浙江工业大学 一种震动检测和参数自适应的对冲方法
CN109741364A (zh) * 2018-11-19 2019-05-10 北京陌上花科技有限公司 目标跟踪方法及装置
CN109740416A (zh) * 2018-11-19 2019-05-10 深圳市华尊科技股份有限公司 目标跟踪方法及相关产品
CN109741366A (zh) * 2018-11-27 2019-05-10 昆明理工大学 一种融合多层卷积特征的相关滤波目标跟踪方法
CN109816689A (zh) * 2018-12-18 2019-05-28 昆明理工大学 一种多层卷积特征自适应融合的运动目标跟踪方法
CN110457989A (zh) * 2019-06-19 2019-11-15 华南农业大学 基于卷积神经网络提取多维度扩展特征的稻田杂草识别方法
CN110544267A (zh) * 2019-07-24 2019-12-06 中国地质大学(武汉) 一种自适应选择特征的相关滤波跟踪方法
CN113269301A (zh) * 2021-04-27 2021-08-17 北方工业大学 基于神经网络估计多目标跟踪***参数的方法及***
CN116544146A (zh) * 2023-05-22 2023-08-04 浙江固驰电子有限公司 功率半导体器件真空烧结设备及方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103984959A (zh) * 2014-05-26 2014-08-13 中国科学院自动化研究所 一种基于数据与任务驱动的图像分类方法
CN105741316A (zh) * 2016-01-20 2016-07-06 西北工业大学 基于深度学习和多尺度相关滤波的鲁棒目标跟踪方法
CN106056628A (zh) * 2016-05-30 2016-10-26 中国科学院计算技术研究所 基于深度卷积神经网络特征融合的目标跟踪方法及***
WO2017132830A1 (en) * 2016-02-02 2017-08-10 Xiaogang Wang Methods and systems for cnn network adaption and object online tracking

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103984959A (zh) * 2014-05-26 2014-08-13 中国科学院自动化研究所 一种基于数据与任务驱动的图像分类方法
CN105741316A (zh) * 2016-01-20 2016-07-06 西北工业大学 基于深度学习和多尺度相关滤波的鲁棒目标跟踪方法
WO2017132830A1 (en) * 2016-02-02 2017-08-10 Xiaogang Wang Methods and systems for cnn network adaption and object online tracking
CN106056628A (zh) * 2016-05-30 2016-10-26 中国科学院计算技术研究所 基于深度卷积神经网络特征融合的目标跟踪方法及***

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JUNWEI LI等: "Robust Object Tracking Based on Selected Discriminative Convolutional Features", 《IEEE》 *
JUNWEI LI等: "Robust Object Tracking via Large Margin and Scale-Adaptive Correlation Filter", 《IEEE》 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109255800A (zh) * 2018-08-03 2019-01-22 浙江工业大学 一种震动检测和参数自适应的对冲方法
CN109255800B (zh) * 2018-08-03 2021-08-03 浙江工业大学 一种震动检测和参数自适应的对冲方法
CN109741364B (zh) * 2018-11-19 2021-09-07 北京陌上花科技有限公司 目标跟踪方法及装置
CN109741364A (zh) * 2018-11-19 2019-05-10 北京陌上花科技有限公司 目标跟踪方法及装置
CN109740416A (zh) * 2018-11-19 2019-05-10 深圳市华尊科技股份有限公司 目标跟踪方法及相关产品
CN109740416B (zh) * 2018-11-19 2021-02-12 深圳市华尊科技股份有限公司 目标跟踪方法及相关产品
CN109741366A (zh) * 2018-11-27 2019-05-10 昆明理工大学 一种融合多层卷积特征的相关滤波目标跟踪方法
CN109816689A (zh) * 2018-12-18 2019-05-28 昆明理工大学 一种多层卷积特征自适应融合的运动目标跟踪方法
CN110457989A (zh) * 2019-06-19 2019-11-15 华南农业大学 基于卷积神经网络提取多维度扩展特征的稻田杂草识别方法
CN110544267A (zh) * 2019-07-24 2019-12-06 中国地质大学(武汉) 一种自适应选择特征的相关滤波跟踪方法
CN110544267B (zh) * 2019-07-24 2022-03-15 中国地质大学(武汉) 一种自适应选择特征的相关滤波跟踪方法
CN113269301A (zh) * 2021-04-27 2021-08-17 北方工业大学 基于神经网络估计多目标跟踪***参数的方法及***
CN113269301B (zh) * 2021-04-27 2023-08-08 北方工业大学 基于神经网络估计多目标跟踪***参数的方法及***
CN116544146A (zh) * 2023-05-22 2023-08-04 浙江固驰电子有限公司 功率半导体器件真空烧结设备及方法
CN116544146B (zh) * 2023-05-22 2024-04-09 浙江固驰电子有限公司 功率半导体器件真空烧结设备及方法

Also Published As

Publication number Publication date
CN108288282B (zh) 2022-04-08

Similar Documents

Publication Publication Date Title
CN108288282A (zh) 一种基于卷积神经网络的自适应特征选择目标跟踪方法
CN108665485B (zh) 一种基于相关滤波与孪生卷积网络融合的目标跟踪方法
CN109816689B (zh) 一种多层卷积特征自适应融合的运动目标跟踪方法
CN108734151B (zh) 基于相关滤波以及深度孪生网络的鲁棒长程目标跟踪方法
CN107644217B (zh) 基于卷积神经网络和相关滤波器的目标跟踪方法
CN107689052B (zh) 基于多模型融合和结构化深度特征的视觉目标跟踪方法
CN111882580A (zh) 一种视频多目标跟踪方法及***
CN112258554A (zh) 基于注意力机制的双流层次孪生网络目标跟踪方法
CN113706581B (zh) 基于残差通道注意与多层次分类回归的目标跟踪方法
CN112130200A (zh) 一种基于grad-CAM注意力引导的断层识别方法
CN111583300B (zh) 一种基于富集目标形态变化更新模板的目标跟踪方法
Widiputra et al. Multiple time-series prediction through multiple time-series relationships profiling and clustered recurring trends
CN108133489A (zh) 一种增强的多层卷积视觉跟踪方法
CN105608457A (zh) 直方图灰度矩阈值分割法
CN112164033A (zh) 一种基于异常特征编辑的对抗网络纹理表面缺陷检测方法
CN107622507A (zh) 一种基于深度学习的空中目标跟踪方法
CN111968155A (zh) 一种基于分割目标掩模更新模板的目标跟踪方法
Wang et al. Multi-feature fusion tracking algorithm based on generative compression network
CN112818771B (zh) 一种基于特征聚合的多目标跟踪算法
CN111539985A (zh) 一种融合多特征的自适应运动目标跟踪方法
CN111144497B (zh) 基于美学分析的多任务深度网络下的图像显著性预测方法
Chen et al. [Retracted] Surface Defect Detection Method Based on Improved Attention Mechanism and Feature Fusion Model
Qin et al. Multi-scaling detection of singular points based on fully convolutional networks in fingerprint images
CN110111358B (zh) 一种基于多层时序滤波的目标跟踪方法
CN116720057A (zh) 基于特征筛选与权值分配的江河水质预测方法及***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant