CN106846377A - 一种基于颜色属性和主动特征提取的目标跟踪算法 - Google Patents
一种基于颜色属性和主动特征提取的目标跟踪算法 Download PDFInfo
- Publication number
- CN106846377A CN106846377A CN201710013077.6A CN201710013077A CN106846377A CN 106846377 A CN106846377 A CN 106846377A CN 201710013077 A CN201710013077 A CN 201710013077A CN 106846377 A CN106846377 A CN 106846377A
- Authority
- CN
- China
- Prior art keywords
- image
- sample
- matrix
- vector
- color attribute
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
- G06F18/24155—Bayesian classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明属于视觉跟踪领域,一种基于颜色属性和主动特征提取的目标跟踪算法,解决现有目标跟踪算法速度慢,鲁棒性低和目标跟踪不准确的问题。首先,取第t帧的图像将其灰度化,同时再将图像从RGB色彩空间映射到11维的颜色属性空间,利用主成分分析法将其将到2维,将灰度信息和颜色信息进行结合,然后根据从粗到细的搜索策略,进行采样,之后利用压缩感知理论,通过一个非常稀疏的随机矩阵将提取的高维多尺度图像特征映射到一个低维的子空间,得到一个低维的图像特征,最后基于Fisher信息矩阵构造的准则函数,构建一个强分类器也就是主动特征提取的过程,利用强分类器对特征进行分类,选出分类器反应值最大的那个样本即为跟踪的目标。该方法能够克服上述现有技术的不足,该算法在光照不变性和辨别力上取得了平衡,鲁棒性较好,可以有效解决漂移问题,并能实时地完成在线跟踪,具有重要的现实意义。
Description
技术领域
本发明属于视觉跟踪领域,涉及一种基于颜色属性和主动特征提取的压缩目标跟踪算法。
背景技术
目标跟踪是计算机视觉领域中一个非常热门的研究课题,原因在于它在车辆导航、交通监控和人机交互等方面具有重要的意义。尽管目标跟踪这个课题被研究了几十年,许许多多的跟踪算法被提出,但是它仍然是一个非常具有挑战性的问题。因为目标外观受各种因素的干扰,例如,光照变化、姿态变化、完全或部分遮挡以及突然的运动等等。因此,在上述因素的干扰下,如何设计一个强大的表观模型是开发一个高性能跟踪***的关键问题。
现有大部分的视觉***依赖于灰度信息或使用简单的颜色信息表示来表示图片,然而使用图像的灰度信息将造成图像信息的丢失。至今为止目标跟踪已经获得了较大的进步,但就颜色信息来说却只进行了简单的颜色空间转换。并且利用颜色信息进行跟踪却是一件很难的事情,因为颜色信息测量的结果往往变化很大,原因在于光照变换、阴影、相机位置和目标几何位置的变化。因此,在跟踪问题上,所需要的颜色特征应该被有效的计算并拥有一定程度的光度不变性和较高的辨别能力。
跟踪算法依据所用的表观模型可分为生成法和鉴别法两类。鉴别法就是将目标跟踪看成一个二值分类问题来区分目标对象和背景信息,其中最具代表性的就是在线多实例学习跟踪算法。但是它有些不足:当分类器所选取的特征效率不高时,为了使分类器拥有足够的辨别能力,就必须从特征集中选取相对多的特征,这将加大算法的时间复杂度;选取的特征越多,包含低效特征的可能 性就越大,而低鉴别度特征势必会降低分类器的性能而且造成模板漂移;它没有考虑各个正样本对包的不同贡献程度,导致分类器提取到低效的正样本可能性增大。
本发明提出了一种基于颜色属性和主动特征提取的压缩目标跟踪算法。首先将颜色分为11类,就是将RGB三种颜色细化为黑色,蓝色,棕色,灰色,绿色,橙色,粉红色,紫色,红色,白色和黄色。然后,通过主成分分析法中降维的思想将11维特征降为2维,从而达到实时的选择比较显著的颜色信息。为了改善在线多实例学习跟踪算法,我们通过优化包的费舍尔信息函数来进行特征提取,以便能提取到更加有效的特征。
发明内容
本发明提出了一种基于颜色属性和主动特征提取的压缩目标跟踪算法,目的在于克服上述现有技术的不足,得到一种鲁棒性高、准确率高的实时目标跟踪算法。
为了实现上述目的,本发明的技术方案为:
一种基于颜色属性和主动特征提取的压缩目标跟踪算法,包括以下步骤:
第一步,取第t帧图像,将其灰度化,再将图像的灰度值规范到[-0.5,0.5]这个区间之内,如下所示:
其中,im为原始图像,z_npca为规范后的图像的灰度值;
第二步,通过由谷歌图像搜索自动学习到的映射图将原始图像由RGB色彩空间映射到11维的颜色属性空间;
第三步,通过使以下重构误差最小的方式,将11维的颜色属性子空间降到2维
其中,MN为图像像素总数,x(m,n)为位置在(m,n)处像素的11维颜色属性,B为映射矩阵,且上述降维过程可以通过主成分分析法(PCA)来实现;
第四步,将上述三步得到的结果即灰度特征和颜色属性特征进行结合,得到一个具有三通道的图像;
第五步,将图像中三通道的值相加之后,对图像进行积分,得到一个积分图像;
第六步,粗采样得到一个样本集即一个图像块集合Drc={z|||I(z)-It-1||<rc},其中,It-1为t-1帧中目标的位置,Δc为粗采样的步长,设置为4,rc为采样范围,设置为25;
第七步,为了解决尺度问题,构建了一个高维多尺度的图像特征向量来表示每一个样本。对于每一个样本我们通过将z与一系列多尺度的矩形滤波器进行卷积计算来表示它,矩形滤波器定义为
其中,i和j分别为矩形滤波器的宽和高。每一个滤波后的图像用一个列向量来表示,然后这些列向量连接起来构成一个高维多尺度的图像特征向量其中,m=(wh)2,且在106~1010;
第八步,基于压缩感知理论,通过一个非常稀疏的随机矩阵将一个高维多尺度的图像特征向量投影到低维空间中的一个向量上,即v=Rx。其中,随机矩阵的定义为
其中,s=m/4,p为出现1,0,-1的概率。这样我们就获得了一个非常稀疏的随机矩阵,且在算法开始的时候被产生,在之后的跟踪过程中一直保持不变。对于中的每一行仅有c(c≤4)个元素需要计算和存储;
第九步,仅仅保存第八步得到的稀疏随机矩阵中的非零元素和与其对应的第七步得到的矩形滤波器的位置,每个样本的特征向量中的每一个分量vi通过下式来获得
其中,n=100,rij为稀疏随机矩阵中的非零元素,xj为与其对应的矩形特征,它可以通过第五步得到的积分图像来获得;
第十步,通过朴素贝叶斯强分类器H(v)对特征向量v(z)进行分类,分类器响应值最大值所对应的那个样本记为It';
第十一步,在当前帧中,基于It'进行精确采样Drf={z|||I(z)-It'||<rf},其中,rf为采样范围,设置为10,Δf为精采样步长,设置为1。重复前面的第七、八、九步提取压缩后的特征向量;
第十二步,再通过朴素贝叶斯强分类器H(v)对特征向量v(z)进行分类,分类器响应值最大值所对应的那个样本就是跟踪到的目标,位置记为It;
第十三步,基于It,在当前帧中最后一次采样得到正负样本集和其中并提取正负样本的特征v(z);
第十四步,利用上步获得的正负样本的特征对一个个朴素贝叶斯弱分类器 进行更新,朴素贝叶斯分类器定义为
其中,这四个参数通过以下机制被增量更新:
其中,λ>0是一个学习参数,且
第十五步,基于Fisher信息矩阵构造的准则函数,重新构建一个强分类器H(v)也就是主动特征提取的过程,过程如下:
强分类器的定义为
H(v)=αTh(v) (9)
其中,α=(α1,…,αm)T为一个权向量。
准则函数定义为
F(Hk-1+αh)=F(αTh)=tr(I(α)) (10)
其中,Hk-1为前k-1个弱分类器构成的强分类器,I(α)为Fisher信息矩阵,常被用于主动学习算法中。
对于第十四步更新后的弱分类器集Φ,使(10)式准则函数最小化,得到当前最优的弱分类器
(hk,αk)=arg min F(Hk-1+αh) (11)
从而更新的强分类器为一个图像特征对应一个弱分类器,弱分类器即图像特征有100个,通过主动特征提取算法从中提取了30个图像特征,即一个强分类器由30个弱分类器构成。
本发明的有益效果为:该方法区别于已有方法的特色在于,将图像从RGB色彩空间转换到11维的颜色属性空间,再利用主成分分析法将11维的颜色空间降为2维,然后将灰度信息和颜色特征信息结合。之后利用压缩感知理论,将图像的高维多尺度的特征向量通过一个非常稀疏的随机矩阵映射到一个低维的子空间中,得到的低维特征向量每一个分量的物理意义就是加权的颜色显著程度差。最后基于Fisher信息矩阵构造的准则函数,重新构建一个强分类器也就是主动特征提取的过程。该算法在光照不变性和辨别力上取得了平衡,鲁棒性较好,可以有效解决漂移问题,并能实时地完成在线跟踪。
附图说明
图1是本发明方法的流程示意图;
图2,3,4,5为不同干扰因素下的跟踪结果;
图2biker中的干扰因素为:尺度变化、运动模糊、快速运动、低分辨率;
图3basketball中的干扰因素为:光照变化、遮挡、目标变形、背景杂斑;
图4faceocc1中的干扰因素为:目标被大面积的遮挡;
图5skater中的干扰因素为:尺度变化、目标变形;
具体实施方式
下面结合附图对本发明的实施方式进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
实验平台为win10,实验环境为Matlab R2012a。本发明在四个标准的数据集上对提出的算法进行测试:图2的biker,图3的basketball,图4的faceocc1,图5的skater。实现本发明的具体步骤为:
第一步,取图像集中第t帧图像,将其灰度化,再将图像的灰度值规范到 [-0.5,0.5]这个区间之内,如下所示:
其中,im为原始图像,z_npca为规范后的图像的灰度值;
第二步,通过由谷歌图像搜索自动学习到的映射图将原始图像由RGB色彩空间映射到11维的颜色属性空间;
第三步,通过使以下重构误差最小的方式,将11维的颜色属性子空间降到2维
其中,MN为图像像素总数,x(m,n)为位置在(m,n)处像素的11维颜色属性,B为映射矩阵,且上述降维过程可以通过主成分分析法(PCA)来实现;
第四步,将上述三步得到的结果即灰度特征和颜色属性特征进行结合,得到一个具有三通道的图像;
第五步,将图像中三通道的值相加之后,对图像进行积分,得到一个积分图像;
第六步,粗采样得到一个样本集即一个图像块集合Drc={z|||I(z)-It-1||<rc},其中,It-1为t-1帧中目标的位置,Δc为粗采样的步长,设置为4,rc为采样范围,设置为25;
第七步,为了解决尺度问题,构建了一个高维多尺度的图像特征向量来表示每一个样本。对于每一个样本我们通过将z与一系列多尺度的矩形滤波器进行卷积计算来表示它,矩形滤波器定义为
其中,i和j分别为矩形滤波器的宽和高。每一个滤波后的图像用一个列向量来表示,然后这些列向量连接起来构成一个高维多尺度的图像特征向量其中,m=(wh)2,且在106~1010;
第八步,基于压缩感知理论,通过一个非常稀疏的随机矩阵将一个高维多尺度的图像特征向量投影到低维空间中的一个向量上,即v=Rx。其中,随机矩阵的定义为
其中,s=m/4,p为出现1,0,-1的概率。这样我们就获得了一个非常稀疏的随机矩阵,且在算法开始的时候被产生,在之后的跟踪过程中一直保持不变。对于中的每一行仅有c(c≤4)个元素需要计算和存储;
第九步,仅仅保存第八步得到的稀疏随机矩阵中的非零元素和与其对应的第七步得到的矩形滤波器的位置,每个样本的特征向量中的每一个分量vi通过下式来获得
其中,n=100,rij为稀疏随机矩阵中的非零元素,xj为与其对应的矩形特征,它可以通过第五步得到的积分图像来获得;
第十步,通过朴素贝叶斯强分类器H(v)对特征向量v(z)进行分类,分类器响应值最大值所对应的那个样本记为It';
第十一步,在当前帧中,基于It'进行精确采样Drf={z|||I(z)-It'||<rf},其中,rf为采样范围,设置为10,Δf为精采样步长,设置为1。重复前面的第七、八、九步提取压缩后的特征向量;
第十二步,再通过朴素贝叶斯强分类器H(v)对特征向量v(z)进行分类,分类 器响应值最大值所对应的那个样本就是跟踪到的目标,位置记为It;
第十三步,基于It,在当前帧中最后一次采样得到正负样本集Dα={z||I(z)-It||<α}和其中并提取正负样本的特征v(z);
第十四步,利用上步获得的正负样本的特征对一个个朴素贝叶斯弱分类器进行更新,朴素贝叶斯分类器定义为
其中,这四个参数通过以下机制被增量更新:
其中,λ>0是一个学习参数,且
第十五步,基于Fisher信息矩阵构造的准则函数,重新构建一个强分类器H(v)也就是主动特征提取的过程,过程如下:
强分类器的定义为
H(v)=αTh(v) (9)
其中,α=(α1,…,αm)T为一个权向量。
准则函数定义为
F(Hk-1+αh)=F(αTh)=tr(I(α)) (10)
其中,Hk-1为前k-1个弱分类器构成的强分类器,I(α)为Fisher信息矩阵,常被用于主动学习算法中。
对于第十四步更新后的弱分类器集Φ,使(10)式准则函数最小化,得到当 前最优的弱分类器
(hk,αk)=arg min F(Hk-1+αh) (11)
从而更新的强分类器为一个图像特征对应一个弱分类器,弱分类器即图像特征有100个,通过主动特征提取算法从中提取了30个图像特征,即一个强分类器由30个弱分类器构成。
Claims (3)
1.一种基于颜色属性和主动特征提取的目标跟踪算法,其特征在于,包括如下步骤:
第一步,取第t帧图像,将其灰度化,再将图像的灰度值规范到[-0.5,0.5]这个区间之内,如下所示:
其中,im为原始图像,z_npca为规范后的图像的灰度值;
第二步,通过由谷歌图像搜索自动学习到的映射图将原始图像由RGB色彩空间映射到11维的颜色属性空间;
第三步,通过使以下重构误差最小的方式,将11维的颜色属性子空间降到2维
其中,MN为图像像素总数,x(m,n)为位置在(m,n)处像素的11维颜色属性,B为映射矩阵,且上述降维过程可以通过主成分分析法(PCA)来实现;
第四步,将上述三步得到的结果即灰度特征和颜色属性特征进行结合,得到一个具有三通道的图像;
第五步,将图像中三通道的值相加之后,对图像进行积分,得到一个积分图像;
第六步,粗采样得到一个样本集即一个图像块集合Drc={z|||I(z)-It-1||<rc},其中,It-1为t-1帧中目标的位置,Δc为粗采样的步长,设置为4,rc为采样范围,设置为25;
第七步,为了解决尺度问题,构建了一个高维多尺度的图像特征向量来表示每一个样本。对于每一个样本我们通过将z与一系列多尺度的矩形滤波器进行卷积计算来表示它,矩形滤波器定义为
其中,i和j分别为矩形滤波器的宽和高。每一个滤波后的图像用一个列向量 来表示,然后这些列向量连接起来构成一个高维多尺度的图像特征向量其中,m=(wh)2,且在106~1010;
第八步,基于压缩感知理论,通过一个非常稀疏的随机矩阵将一个高维多尺度的图像特征向量投影到低维空间中的一个向量上,即v=Rx。其中,随机矩阵的定义为
其中,s=m/4,p为出现1,0,-1的概率。这样我们就获得了一个非常稀疏的随机矩阵,且在算法开始的时候被产生,在之后的跟踪过程中一直保持不变。对于中的每一行仅有c(c≤4)个元素需要计算和存储;
第九步,仅仅保存第八步得到的稀疏随机矩阵中的非零元素和与其对应的第七步得到的矩形滤波器的位置,每个样本的特征向量中的每一个分量vi通过下式来获得
其中,n=100,rij为稀疏随机矩阵中的非零元素,xj为与其对应的矩形特征,它可以通过第五步得到的积分图像来获得;
第十步,通过朴素贝叶斯强分类器H(v)对特征向量v(z)进行分类,分类器响应值最大值所对应的那个样本记为It';
第十一步,在当前帧中,基于It'进行精确采样Drf={z|||I(z)-It'||<rf},其中,rf为采样范围,设置为10,Δf为精采样步长,设置为1。重复前面的第七、八、九 步提取压缩后的特征向量;
第十二步,再通过朴素贝叶斯强分类器H(v)对特征向量v(z)进行分类,分类器响应值最大值所对应的那个样本就是跟踪到的目标,位置记为It;
第十三步,基于It,在当前帧中最后一次采样得到正负样本集Dα={z|||I(z)-It||<α}和其中并提取正负样本的特征v(z);
第十四步,利用上步获得的正负样本的特征对一个个朴素贝叶斯弱分类器进行更新,朴素贝叶斯分类器定义为
其中,这四个参数通过以下机制被增量更新:
其中,λ>0是一个学习参数,且
第十五步,基于Fisher信息矩阵构造的准则函数,重新构建一个强分类器H(v)也就是主动特征提取的过程,过程如下:
强分类器的定义为
H(v)=αTh(v) (9)
其中,α=(α1,…,αm)T为一个权向量。
准则函数定义为
F(Hk-1+αh)=F(αTh)=tr(I(α)) (10)
其中,Hk-1为前k-1个弱分类器构成的强分类器,I(α)为Fisher信息矩阵,常被用 于主动学习算法中。
对于第十四步更新后的弱分类器集Φ,使(10)式准则函数最小化,得到当前最优的弱分类器
(hk,αk)=argminF(Hk-1+αh) (11)
从而更新的强分类器为H(v)=∑kh(v)。一个图像特征对应一个弱分类器,弱分类器即图像特征有100个,通过主动特征提取算法从中提取了30个图像特征,即一个强分类器由30个弱分类器构成。
2.根据权利要求1所述的一种基于颜色属性和主动特征提取的目标跟踪算法,其特征在于,所述的第二、三步中将原图像的RGB颜色空间映射到11维的颜色属性空间中,并通过PCA的方法将11维的颜色属性空间降到2维,其中,所说的颜色属性包含黑色,蓝色,棕色,灰色,绿色,橙色,粉红色,紫色,红色,白色和黄色。过程如下:
给定图像映射到11维的颜色属性子空间中为矩阵均值向量为通过下式进行协方差矩阵s的求解
s=(P-Ip)(P-Ip)T (11)
对s进行对角化后,可获得其特征值和特征向量,取前两个特征向量,将映射到两维子空间里。
3.根据权利要求1或2所述的一种一种基于颜色属性和主动特征提取的目标跟踪算法,其特征在于,第十五步中所述的基于Fisher信息矩阵构造的准则函数,重新构建一个强分类器H(v)也就是主动特征提取的过程。
将强分类器的定义为
H(v)=αTh(v) (12)
其中,α=(α1,…,αm)T为一个权向量,弱分类器向量h(v)=(h1,…,hm)T中的每一个分量代表一个单层决策树函数并用来返回一个二值类标签1或者-1。为了构建出强分类器H(v),得先通过参数估计的方法来得到相应的权向量α。
Cramer-Rao不等式表示,如果α能够被n个独立同分布p(y|α)的样本估计的话,对于α的无偏估计tn来说,它的协方差cov(tn)满足其中I(α)为Fisher信息矩阵,定义如下:
Fisher信息矩阵表示分类器模型的整体不确定性,经常被用在主动学习算法中。
为了衡量本发明中分类器的不确定程度,我们定义了以下基于包概率样本的Fisher信息矩阵
其中,yi∈{0,1}是包的标签,δIm(δ>0,Im是单位矩阵)保证了I(α)为非奇异矩阵。δ是与弱分类器无关的阻尼参数,对特征的选取过程没有影响。根据MIL***,我们可获得:
p(yi=1|Xi,α)=1-Πj(1-σ(αTh(xij))),p(yi=0|Xi,α)=1-Πj(1-σ(αTh(xij)))(15)
Fisher信息矩阵的逆矩阵I(α)-1是α的协方差矩阵的下界,更特别的是,det(I(α))-1是权向量α=(α1,…,αm)T中各元素方差积的下界,在进行特征选择的时候,我们希望权向量α的方差尽可能小。因此,Liao等人提出,在主动学习中,选择使det(I(α))值最大的样本来降低分类器模型的不确定程度。但是,由式(14)很难计算出det(I(α))。
由于I(α)是一个正定对称矩阵,其所有的特征值{λi>0,i=1,…,m}都是正的,所以我们能够得到以下不等式:
其中,tr(I(α))可以通过分别计算正包和负包对应项的迹来得到。计算公式如下:
这样我们定义准则函数为
F(Hk-1+αh)=F(αTh)=tr(I(α)) (18)
其中,Hk-1为前k-1个弱分类器构成的强分类器,I(α)为Fisher信息矩阵,常被用于主动学习算法中。
对于第十四步更新后的弱分类器集Φ,使(18)式准则函数最小化,得到当前最优的弱分类器
(hk,αk)=argminF(Hk-1+αh) (19)
从而更新的强分类器为H(v)=∑kh(v)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710013077.6A CN106846377A (zh) | 2017-01-09 | 2017-01-09 | 一种基于颜色属性和主动特征提取的目标跟踪算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710013077.6A CN106846377A (zh) | 2017-01-09 | 2017-01-09 | 一种基于颜色属性和主动特征提取的目标跟踪算法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106846377A true CN106846377A (zh) | 2017-06-13 |
Family
ID=59117135
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710013077.6A Pending CN106846377A (zh) | 2017-01-09 | 2017-01-09 | 一种基于颜色属性和主动特征提取的目标跟踪算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106846377A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107358623A (zh) * | 2017-07-12 | 2017-11-17 | 武汉大学 | 一种基于显著性检测和鲁棒性尺度估计的相关滤波跟踪算法 |
CN108460786A (zh) * | 2018-01-30 | 2018-08-28 | 中国航天电子技术研究院 | 一种无人机侦察目标的高速跟踪方法 |
CN110909801A (zh) * | 2019-11-26 | 2020-03-24 | 山东师范大学 | 基于卷积神经网络的数据分类方法、***、介质及设备 |
CN111314708A (zh) * | 2020-02-25 | 2020-06-19 | 腾讯科技(深圳)有限公司 | 一种图像数据压缩方法、装置、存储介质和电子设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104077608A (zh) * | 2014-06-11 | 2014-10-01 | 华南理工大学 | 基于稀疏编码慢特征函数的行为识别方法 |
CN105574534A (zh) * | 2015-12-17 | 2016-05-11 | 西安电子科技大学 | 基于稀疏子空间聚类和低秩表示的显著性目标检测方法 |
CN105809713A (zh) * | 2016-03-03 | 2016-07-27 | 南京信息工程大学 | 基于在线Fisher判别机制增强特征选择的目标跟踪方法 |
-
2017
- 2017-01-09 CN CN201710013077.6A patent/CN106846377A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104077608A (zh) * | 2014-06-11 | 2014-10-01 | 华南理工大学 | 基于稀疏编码慢特征函数的行为识别方法 |
CN105574534A (zh) * | 2015-12-17 | 2016-05-11 | 西安电子科技大学 | 基于稀疏子空间聚类和低秩表示的显著性目标检测方法 |
CN105809713A (zh) * | 2016-03-03 | 2016-07-27 | 南京信息工程大学 | 基于在线Fisher判别机制增强特征选择的目标跟踪方法 |
Non-Patent Citations (6)
Title |
---|
DONG WANG等: "Online Object Tracking With Sparse Prototypes", 《IEEE TRANSACTIONS ON IMAGE PROCESSING》 * |
JING LI等: "Moving object detection in framework of compressive sampling", 《JOURNAL OF SYSTEMS ENGINEERING AND ELECTRONICS》 * |
MARTIN DANELLJAN等: "Adaptive Color Attributes for Real-Time Visual Tracking", 《CVPR 2014》 * |
XUEJUN LIAO等: "Logistic R egression with an Auxiliary Data Source", 《PROCEEDINGS OF THE 22ND INTERNATIONAL CONFERENCE ON MACHINE LEARNING》 * |
王松林: "基于压缩感知的目标跟踪研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
董婷婷: "基于压缩感知的目标跟踪算法研究", 《万方数据》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107358623A (zh) * | 2017-07-12 | 2017-11-17 | 武汉大学 | 一种基于显著性检测和鲁棒性尺度估计的相关滤波跟踪算法 |
CN107358623B (zh) * | 2017-07-12 | 2020-01-07 | 武汉大学 | 一种基于显著性检测和鲁棒性尺度估计的相关滤波跟踪方法 |
CN108460786A (zh) * | 2018-01-30 | 2018-08-28 | 中国航天电子技术研究院 | 一种无人机侦察目标的高速跟踪方法 |
CN110909801A (zh) * | 2019-11-26 | 2020-03-24 | 山东师范大学 | 基于卷积神经网络的数据分类方法、***、介质及设备 |
CN111314708A (zh) * | 2020-02-25 | 2020-06-19 | 腾讯科技(深圳)有限公司 | 一种图像数据压缩方法、装置、存储介质和电子设备 |
CN111314708B (zh) * | 2020-02-25 | 2021-05-07 | 腾讯科技(深圳)有限公司 | 一种图像数据压缩方法、装置、存储介质和电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Tu et al. | RGB-T image saliency detection via collaborative graph learning | |
CN106997597B (zh) | 一种基于有监督显著性检测的目标跟踪方法 | |
CN108549891A (zh) | 基于背景与目标先验的多尺度扩散显著目标检测方法 | |
CN104599275B (zh) | 基于概率图模型的非参数化的rgb-d场景理解方法 | |
Zhao et al. | Superpixel guided deformable convolution network for hyperspectral image classification | |
CN103020992B (zh) | 一种基于运动颜色关联的视频图像显著性检测方法 | |
CN108288033B (zh) | 一种基于随机蕨融合多特征的安全帽检测方法 | |
CN105701467B (zh) | 一种基于人体形态特征的多人异常行为识别方法 | |
CN105825502B (zh) | 一种基于显著性指导的词典学习的弱监督图像解析方法 | |
CN103258332B (zh) | 一种抗光照变化的运动目标的检测方法 | |
CN111260738A (zh) | 基于相关滤波和自适应特征融合的多尺度目标跟踪方法 | |
CN107564022A (zh) | 基于贝叶斯融合的视频显著性检测方法 | |
CN108647625A (zh) | 一种表情识别方法及装置 | |
CN110569782A (zh) | 一种基于深度学习目标检测方法 | |
CN105740915B (zh) | 一种融合感知信息的协同分割方法 | |
CN106846377A (zh) | 一种基于颜色属性和主动特征提取的目标跟踪算法 | |
CN110008844B (zh) | 一种融合slic算法的kcf长期手势跟踪方法 | |
CN106991686A (zh) | 一种基于超像素光流场的水平集轮廓跟踪方法 | |
CN108256462A (zh) | 一种商场监控视频中的人数统计方法 | |
CN107798686A (zh) | 一种基于多特征判别学习的实时目标跟踪方法 | |
CN107590427A (zh) | 基于时空兴趣点降噪的监控视频异常事件检测方法 | |
CN106372658A (zh) | 车辆分类器的训练方法 | |
CN106971158A (zh) | 一种基于CoLBP共生特征与GSS特征的行人检测方法 | |
CN107392211B (zh) | 基于视觉稀疏认知的显著目标检测方法 | |
CN116469020A (zh) | 一种基于多尺度和高斯Wasserstein距离的无人机图像目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20170613 |