CN106296734B - 基于极限学习机和boosting多核学习的目标跟踪方法 - Google Patents
基于极限学习机和boosting多核学习的目标跟踪方法 Download PDFInfo
- Publication number
- CN106296734B CN106296734B CN201610637804.1A CN201610637804A CN106296734B CN 106296734 B CN106296734 B CN 106296734B CN 201610637804 A CN201610637804 A CN 201610637804A CN 106296734 B CN106296734 B CN 106296734B
- Authority
- CN
- China
- Prior art keywords
- indicate
- formula
- frame image
- sample
- under
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于极限学习机和boosting多核学习的目标跟踪方法,其特征包括:1多次boosting迭代得到优秀的分类器,将每次boosting迭代中通过多核学习得到的弱分类器组合成强分类器,再用强分类器对特征进行分类。2为了进一步减少计算量和提升分类性能,不同于传统多核学习以支持向量机(SVM)为基分类器,而采用极限学习机作为基分类器,极限学习机结构简单,训练速度非常快,并且比SVM有更好的泛化能力。本发明能使多核分类器进行快速分类,从而使跟踪算法在复杂场景下也能保证跟踪的鲁棒性和实时性。
Description
技术领域
本发明属于计算机视觉技术领域,具体涉及一种基于极限学习机和boosting多核学习的目标跟踪方法。
背景技术
目标跟踪作为计算机视觉的一个重要领域,在很多实际应用方面都起着至关重要的作用,例如视频监控、移动识别、交通管理、人机交互、医学图像诊断等等。但是由于光照变化、形态变化、遮挡、复杂背景、尺度变化等问题,如何鲁棒的跟踪目标仍然是个具有挑战性的研究课题。
鲁棒的目标跟踪方法要求分类器具有优秀的分类能力,很多算法采用单个核函数的分类方法,但是实际数据可能来源不同或者表示方式不同,有些情况下单个核函数并不能很好的对数据进行分类。多核学习正是一种通过线性组合多个核函数来达到更好的分类性能而提出的,传统的多核学习一般都是基于SVM分类器,具有良好的分类性能。现有技术将多核学习应用到目标跟踪,采用的基分类器就是SVM,由于SVM本身计算复杂,使目标跟踪很难达到实时跟踪,并且传统的多核学习一般都要解很复杂的最优化问题,计算量非常大。同时,目标跟踪数据量都很大,对实时性要求高,因此传统多核学习无法直接应用到目标跟踪。
另外,目标跟踪要想达到实时鲁棒的跟踪,算法中采取的分类器应该满足低计算量和能够快速适应动态环境变化。当前大部分算法都无法同时满足运算速度和学习准确度,例如朴素贝叶斯分类器具有快速的分类速度,但由于分类器太过简单,所以通常都无法达到很好的分类性能。另一方面,基于支持向量机的分类器一般分类效果都很好,但由于需要解大量的多项式问题使得计算量会非常大。
发明内容
本发明针对传统多核学习使用SVM做为基核分类器无法很好的应用到目标跟踪的问题,提出一种基于极限学习机和boosting多核学习的目标跟踪方法,以期能使多核分类器进行快速分类,从而使跟踪算法在复杂场景下也能保证跟踪的鲁棒性和实时性。
本发明为解决技术问题采用如下技术方案:
本发明一种基于极限学习机和boosting多核学习的目标跟踪方法的特点是按如下步骤进行:
步骤1、对任意一个含有S帧的视频图像序列的第一帧图像手动选择跟踪目标的初始位置,记为x(1)=(x1,y1,c1,θ1),x1表示所述第一帧图像中目标的水平位置;y1表示所述第一帧图像中目标的垂直位置;c1表示所述第一帧图像中目标的矩形窗大小;θ1表示所述第一帧图像中目标的旋转角度;
步骤2、令l(x(1))表示所述第一帧图像初始位置x(1)的中心位置;利用式(1)对所述第一帧图像初始位置x(1)的中心位置l(x(1))进行正样本采样,从而获得α个正样本所组成的正样本集合X+:
式(1)中,表示第i个正样本;表示所述第i个正样本的中心位置;r1表示内采样半径;1≤i≤α;
利用式(2)对所述第一帧图像初始位置x(1)的中心位置l(x(1))进行负样本采样,从而获得β个负样本所组成的负样本集合X-:
式(2)中,表示第j个负样本;表示所述第j个负样本的中心位置;r2表示外采样半径;1≤j≤β;
步骤3、利用HOG局部特征描述子对所述正样本集合X+和负样本集合X-分别进行特征提取,得到HOG局部特征xn表示第n个HOG局部特征;yn表示所述第n个HOG局部特征xn的样本标签,并有:yn=+1表示正样本;yn=-1表示负样本;D表示所有正样本和负样本的总数,1≤n≤D;
步骤4、定义迭代次数为t,并初始化t=1;将所述HOG局部特征作为训练数据;
步骤5、初始化所述训练数据的第t次迭代下第n个HOG局部特征的分布权值为:Bt(n)=1/D;
步骤6、随机给定M个不同核函数集合Km(x)表示第m个ELM核函数;并有:Km(x)=km(x,xn);x表示ELM核函数的自变量;km(·)表示ELM核函数的内积;
步骤7、初始化第t次迭代下ELM核函数集合的采样概率为:Pt(m)=1;并以采样概率Pt(m)对所述M个不同核函数集合进行采样,得到第t次迭代下用于训练的核函数数目为Mt;
步骤8、利用多核boosting分类器得到第t次迭代下的分类器;
步骤8.1、利用式(3)所示的极限学习机对所述第t次迭代下Mt个核函数进行训练,得到第t次迭代下的第φ个分类器ft φ(z):
式(3)中,C为偏置量,φ表示用于训练的核函数或分类器的序号,并有:1≤φ≤Mt;是第t次迭代下第φ个ELM核函数Kφ(z)对所有D个HOG局部特征分别训练得到的列向量,并有 表示第t次迭代下的第φ个ELM核函数Kφ(z)的自变量z与第n个HOG局部特征xn的内积;是Mt×Mt维单位矩阵;Ω=HHT表示极限学习机隐藏层输出矩阵H与其转置的乘积;并有:其中L表示隐藏层节点的个数;{a1,…,aL}表示极限学习机隐藏层L个节点所对应的输入权值,{b1,…,bL}表示极限学习机隐藏层L个节点所对应的阈值,{G(a1,b1,xn),…,G(aL,bL,xn)}表示极限学习机隐藏层L个节点所对应的激活函数;Y代表样本标签组成的列矩阵,并有:
步骤8.2、利用式(4)计算所述第t次迭代下第φ个分类器ft φ(z)的分类误差
步骤8.3、利用式(5)计算所述第t次迭代下的第φ个分类器ft φ(z)的组合权值
步骤8.4、利用式(6)组合第t次迭代下的Mt个分类器,从而得到第t次迭代下的强分类器ht(z):
式(6),sign(·)表示符号函数;
步骤8.5、利用式(7)和式(8)分别计算所述第t次迭代下强分类器ht(z)的分类误差εt和权值λt:
步骤8.6、利用式(9)和式(10)更新第t+1次迭代下第n个HOG局部特征的分布权值Bt+1(n)和ELM核函数的采样概率密度Pt+1(m):
式(9)和式(10)中,Zt是第t次迭代下所有HOG局部特征的分布权值Bt的归一化参数,τ为(0,1)之间的常量;
步骤9、将t+1赋值给t,并返回步骤8执行,直到t=T为止,从而获得T次迭代后的T个强分类器{h1(z),h2(z),…,ht(z),…,hT(z)};利用式(11)将T次迭代后的T个强分类器组合成最终的强分类器h(z):
步骤10、对于含有S帧的视频图像序列,令s表示当前帧图像;并初始化s=2;预测当前帧图像s的目标位置:
步骤10.1、载入当前帧图像s,在当前帧图像s中,以s-1帧图像跟踪目标x(s-1)的中心位置l(x(s-1))为中心,在半径为R的圆内,取出与s-1帧图像跟踪目标x(s-1)的矩形窗cs-1大小相同的个矩形框作为检测样本
步骤10.2分别提取当前帧图像s的个检测样本的HOG特征;
步骤10.3通过所述最终强分类器h(z)对当前帧图像的个检测样本的HOG特征进行分类,计算当前帧图像个检测样本的分类误差,取出分类误差最小的检测样本,并将分类误差最小的检测样本作为当前帧图像待跟踪目标,并记为x(s);
步骤11、将s+1赋值给s,并返回步骤10.1执行,直至s=S为止,从而获得整个视频序列的目标跟踪位置{x(1),x(2),…,x(s),…,x(S)}。
与已有技术相比,本发明有益效果体现在:
1、本发明采用基于极限学习机的分类器对特征进行快速并准确的分类。ELM具有结构简单,计算速度快的优势,它对比SVM具有更好的泛化能力。极限学习机最初被用来解决单隐藏层前馈神经网络,与支持向量机或其它神经网络算法不同的是极限学习机的隐藏层参数不需要迭代调整,因而有很快的训练速度,可以满足实时性和鲁棒性的要求。
2、本发明将传统多核学习嵌入到boosting学习的框架中,使得分类的结果更加准确,分类速度相对传统多核学习有明显改善。Boosting算法是一种将一系列弱分类器组合成强分类器的方法。将多核学习应用到boosting算法的框架内,每个核函数分别训练一个基分类器,核函数和分类器的组合权值都可以在boosting算法学习过程中得到。相对常规的多核学习,boosting算法不需要解复杂的最优化问题,因此可以快速有效的得到分类器。另外与其他多核学习算法最终只得到一个基于核的分类器不同,多核学习可以得到多个基于核的分类器并根据分类误差赋予这些分类器不同的权值,组合得到最终的强分类器,从而使增强了分类器模型的稳定性。
3、本发明针对目标跟踪数据量大,在核函数集合很大的情况下根据分类误差进行采样,减少了训练分类器的时间,从而很好的满足了目标跟踪对于实时性的要求。
4、本发明采用极限学习机与boosting多核学习的方法应用于目标跟踪,良好的分类效果使得即使在复杂场景下也能准确快速的跟踪目标,从而增强了目标跟踪的准确性和可靠性。
附图说明
图1为本发明的boosting多核学习分类器的算法流程图。
具体实施方式
本实施例中,如图1所示,一种基于极限学习机和boosting多核学习的目标跟踪方法是按如下步骤进行:
步骤1、对任意一个含有S帧的视频图像序列的第一帧图像手动选择跟踪目标的初始位置,记为x(1)=(x1,y1,c1,θ1),x1表示所述第一帧图像中目标的水平位置;y1表示所述第一帧图像中目标的垂直位置;c1表示所述第一帧图像中目标的矩形窗大小;θ1表示所述第一帧图像中目标的旋转角度;
步骤2、令l(x(1))表示所述第一帧图像初始位置x(1)的中心位置;利用式(1)对所述第一帧图像初始位置x(1)的中心位置l(x(1))进行正样本采样,从而获得α个正样本所组成的正样本集合X+:
式(1)中,表示第i个正样本;表示所述第i个正样本的中心位置;r1表示内采样半径;1≤i≤α;
利用式(2)对所述第一帧图像初始位置x(1)的中心位置l(x(1))进行负样本采样,从而获得β个负样本所组成的负样本集合X-:
式(2)中,表示第j个负样本;表示所述第j个负样本的中心位置;r2表示外采样半径;1≤j≤β;
步骤3、利用HOG局部特征描述子对所述正样本集合X+和负样本集合X-分别进行特征提取,得到HOG局部特征xn表示第n个HOG局部特征;yn表示所述第n个HOG局部特征xn的样本标签,并有:yn=+1表示正样本;yn=-1表示负样本;D表示所有正样本和负样本的总数,1≤n≤D;
目前,在计算机视觉和模式识别等领域中,可用于特征提取的方法很多,HOG是现阶段单一特征中性能较好的一种,主要用来描述图像的局部纹理特征且方法简单实用,因此较为常用,通常通过计算和统计图像局部区域的梯度方向直方图来构成特征。
步骤4、定义迭代次数为t,并初始化t=1;将所述HOG局部特征作为训练数据;
步骤5、初始化所述训练数据的第t次迭代下第n个HOG局部特征的分布权值为:Bt(n)=1/D;
步骤6、随机给定M个不同核函数集合Km(x)表示第m个ELM核函数;并有:Km(x)=km(x,xn);x表示ELM核函数的自变量;km(·)表示ELM核函数的内积;
基于核的学习算法关键在于如何合理的选择核函数。实际应用中,由于数据可能有多个来源或者数据有多种表示方式,使用单个核函数的算法无法有效解决问题。多核学习通过组合多个核函数在很多情况下具有更好的适应力和灵活性。核函数的选择有高斯函数、多项式函数、仿射基函数、sigmoid核等。
步骤7、初始化第t次迭代下ELM核函数集合的采样概率为:Pt(m)=1;并以采样概率Pt(m)对所述M个不同核函数集合进行采样,得到第t次迭代下用于训练的核函数数目为Mt;
极限学习机(extreme learning machine,ELM)是一种近年来比较流行的机器学习方法,它对于单隐藏层前馈网络具有很有效的解。不同于传统的基于反向传播的神经网络算法和支持向量机,ELM的隐藏层参数是随机产生的并且不需要调整,因此隐藏层的节点可以在训练样本获取前建立好。黄广斌等已经证明了即使不更新隐藏层节点,通过随机产生隐藏层神经元和由正则化最小均方误差调整输出权重可以保持ELM的全局近似能力。另外,在ELM中解正则化最小均方问题也比在SVM中的多项式问题和传统BP算法中的梯度问题快许多。因此ELM相对于支持向量机有更快的训练速度、更好的泛化性能和更优全局的分类能力。
步骤8、利用多核boosting分类器得到第t次迭代下的分类器;
Boosting算法是一种将一系列弱分类器组合成强分类器的方法。将多核学习应用到boosting算法的框架内,每个核函数分别训练一个基分类器,核函数和分类器的组合权值都可以在boosting算法学习过程中得到。相对常规的多核学习,boosting算法不需要解复杂的最优化问题,因此可以快速有效的得到分类器。另外与其他多核学习算法最终只得到一个基核的分类器不同,多核学习可以得到多个基核的分类器并赋予这些分类器不同的权值,组合得到最终的强分类器。
步骤8.1、利用式(3)所示的极限学习机对所述第t次迭代下Mt个核函数进行训练,得到第t次迭代下的第φ个分类器ft φ(z):
式(3)中,C为偏置量,φ表示用于训练的核函数或分类器的序号,并有:1≤φ≤Mt;是第t次迭代下第φ个ELM核函数Kφ(z)对所有D个HOG局部特征分别训练得到的列向量,并有 表示第t次迭代下的第φ个ELM核函数Kφ(z)的自变量z与第n个HOG局部特征xn的内积;是Mt×Mt维单位矩阵;Ω=HHT表示极限学习机隐藏层输出矩阵H与其转置的乘积;并有:其中L表示隐藏层节点的个数;{a1,…,aL}表示极限学习机隐藏层L个节点所对应的输入权值,{b1,…,bL}表示极限学习机隐藏层L个节点所对应的阈值,{G(a1,b1,xn),…,G(aL,bL,xn)}表示极限学习机隐藏层L个节点所对应的激活函数;Y代表样本标签组成的列矩阵,并有:
步骤8.2、利用式(4)计算所述第t次迭代下第φ个分类器ft φ(z)的分类误差
式(4)表示对分类结果与样本标签不一致的样本分布权值累加得到分类误差,分类结果正确的样本不进行累加;
步骤8.3、利用式(5)计算所述第t次迭代下的第φ个分类器ft φ(z)的组合权值
步骤8.4、利用式(6)组合第t次迭代下的Mt个分类器,从而得到第t次迭代下的强分类器ht(z):
式(6),sign(·)表示符号函数;
步骤8.5、利用式(7)和式(8)分别计算所述第t次迭代下强分类器ht(z)的分类误差εt和权值λt:
步骤8.6、利用式(9)和式(10)更新第t+1次迭代下第n个HOG局部特征的分布权值Bt+1(n)和ELM核函数的采样概率密度Pt+1(m):
式(9)和式(10)中,Zt是第t次迭代下所有HOG局部特征的分布权值Bt的归一化参数,τ为(0,1)之间的常量,这里取值为0.3;
对样本分布权值的更新的思想是于错误分类的数据在下一次迭代过程中赋予更大的权值,这样就会减少下次分类错误的概率,直至达到满意的分类效果。
步骤9、将t+1赋值给t,并返回步骤8执行,直到t=T为止,从而获得T次迭代后的T个强分类器{h1(z),h2(z),…,ht(z),…,hT(z)};利用式(11)将T次迭代后的T个强分类器组合成最终的强分类器h(z):
步骤10、对于含有S帧的视频图像序列,令s表示当前帧图像;并初始化s=2;预测当前帧图像s的目标位置:
步骤10.1、载入当前帧图像s,在当前帧图像s中,以s-1帧图像跟踪目标x(s-1)的中心位置l(x(s-1))为中心,在半径为R的圆内,取出与s-1帧图像跟踪目标x(s-1)的矩形窗cs-1大小相同的个矩形框作为检测样本R可以是10-40内的随机值,这里取R=25;
步骤10.2分别提取当前帧图像s的个检测样本的HOG特征;
步骤10.3通过所述最终强分类器h(z)对当前帧图像的个检测样本的HOG特征进行分类,计算当前帧图像个检测样本的分类误差,取出分类误差最小的检测样本,并将该检测样本作为当前帧图像待跟踪目标,并记为x(s);
步骤11、将s+1赋值给s,并返回步骤10.1执行,直至s=S为止,从而获得整个视频序列的目标跟踪位置{x(1),x(2),…,x(s),…,x(S)}。
Claims (1)
1.一种基于极限学习机和boosting多核学习的目标跟踪方法,其特征是按如下步骤进行:
步骤1、对任意一个含有S帧的视频图像序列的第一帧图像手动选择跟踪目标的初始位置,记为x(1)=(x1,y1,c1,θ1),x1表示所述第一帧图像中目标的水平位置;y1表示所述第一帧图像中目标的垂直位置;c1表示所述第一帧图像中目标的矩形窗大小;θ1表示所述第一帧图像中目标的旋转角度;
步骤2、令l(x(1))表示所述第一帧图像初始位置x(1)的中心位置;利用式(1)对所述第一帧图像初始位置x(1)的中心位置l(x(1))进行正样本采样,从而获得α个正样本所组成的正样本集合X+:
式(1)中,表示第i个正样本;表示所述第i个正样本的中心位置;r1表示内采样半径;1≤i≤α;
利用式(2)对所述第一帧图像初始位置x(1)的中心位置l(x(1))进行负样本采样,从而获得β个负样本所组成的负样本集合X-:
式(2)中,表示第j个负样本;表示所述第j个负样本的中心位置;r2表示外采样半径;1≤j≤β;
步骤3、利用HOG局部特征描述子对所述正样本集合X+和负样本集合X-分别进行特征提取,得到HOG局部特征xn表示第n个HOG局部特征;yn表示所述第n个HOG局部特征xn的样本标签,并有:yn=+1表示正样本;yn=-1表示负样本;D表示所有正样本和负样本的总数,1≤n≤D;
步骤4、定义迭代次数为t,并初始化t=1;将所述HOG局部特征作为训练数据;
步骤5、初始化所述训练数据的第t次迭代下第n个HOG局部特征的分布权值为:Bt(n)=1/D;
步骤6、随机给定M个不同核函数集合Km(x)表示第m个ELM核函数;并有:Km(x)=km(x,xn);x表示ELM核函数的自变量;km(·)表示ELM核函数的内积;
步骤7、初始化第t次迭代下ELM核函数集合的采样概率为:Pt(m)=1;并以采样概率Pt(m)对所述M个不同核函数集合进行采样,得到第t次迭代下用于训练的核函数数目为Mt;
步骤8、利用多核boosting分类器得到第t次迭代下的分类器;
步骤8.1、利用式(3)所示的极限学习机对所述第t次迭代下Mt个核函数进行训练,得到第t次迭代下的第φ个分类器
式(3)中,C为偏置量,φ表示用于训练的核函数或分类器的序号,并有:1≤φ≤Mt;是第t次迭代下第φ个ELM核函数Kφ(z)对所有D个HOG局部特征分别训练得到的列向量,并有 表示第t次迭代下的第φ个ELM核函数Kφ(z)的自变量z与第n个HOG局部特征xn的内积;是Mt×Mt维单位矩阵;Ω=HHT表示极限学习机隐藏层输出矩阵H与其转置的乘积;并有:其中L表示隐藏层节点的个数;{a1,…,aL}表示极限学习机隐藏层L个节点所对应的输入权值,{b1,…,bL}表示极限学习机隐藏层L个节点所对应的阈值,{G(a1,b1,xn),…,G(aL,bL,xn)}表示极限学习机隐藏层L个节点所对应的激活函数;Y代表样本标签组成的列矩阵,并有:
步骤8.2、利用式(4)计算所述第t次迭代下第φ个分类器的分类误差
步骤8.3、利用式(5)计算所述第t次迭代下的第φ个分类器的组合权值
步骤8.4、利用式(6)组合第t次迭代下的Mt个分类器,从而得到第t次迭代下的强分类器ht(z):
式(6),sign(·)表示符号函数;
步骤8.5、利用式(7)和式(8)分别计算所述第t次迭代下强分类器ht(z)的分类误差εt和权值λt:
步骤8.6、利用式(9)和式(10)更新第t+1次迭代下第n个HOG局部特征的分布权值Bt+1(n)和ELM核函数的采样概率密度Pt+1(m):
式(9)和式(10)中,Zt是第t次迭代下所有HOG局部特征的分布权值Bt的归一化参数,τ为(0,1)之间的常量;
步骤9、将t+1赋值给t,并返回步骤8执行,直到t=T为止,从而获得T次迭代后的T个强分类器{h1(z),h2(z),…,ht(z),…,hT(z)};利用式(11)将T次迭代后的T个强分类器组合成最终的强分类器h(z):
步骤10、对于含有S帧的视频图像序列,令s表示当前帧图像;并初始化s=2;预测当前帧图像s的目标位置:
步骤10.1、载入当前帧图像s,在当前帧图像s中,以s-1帧图像跟踪目标x(s-1)的中心位置l(x(s-1))为中心,在半径为R的圆内,取出与s-1帧图像跟踪目标x(s-1)的矩形窗cs-1大小相同的个矩形框作为检测样本
步骤10.2分别提取当前帧图像s的个检测样本的HOG特征;
步骤10.3通过所述最终强分类器h(z)对当前帧图像的个检测样本的HOG特征进行分类,计算当前帧图像个检测样本的分类误差,取出分类误差最小的检测样本,并将分类误差最小的检测样本作为当前帧图像待跟踪目标,并记为x(s);
步骤11、将s+1赋值给s,并返回步骤10.1执行,直至s=S为止,从而获得整个视频序列的目标跟踪位置{x(1),x(2),…,x(s),…,x(S)}。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610637804.1A CN106296734B (zh) | 2016-08-05 | 2016-08-05 | 基于极限学习机和boosting多核学习的目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610637804.1A CN106296734B (zh) | 2016-08-05 | 2016-08-05 | 基于极限学习机和boosting多核学习的目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106296734A CN106296734A (zh) | 2017-01-04 |
CN106296734B true CN106296734B (zh) | 2018-08-28 |
Family
ID=57665852
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610637804.1A Active CN106296734B (zh) | 2016-08-05 | 2016-08-05 | 基于极限学习机和boosting多核学习的目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106296734B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106447691A (zh) * | 2016-07-19 | 2017-02-22 | 西安电子科技大学 | 基于加权多示例学习的加权极限学习机视频目标跟踪方法 |
CN106815576B (zh) * | 2017-01-20 | 2020-07-07 | 中国海洋大学 | 基于连续时空置信图和半监督极限学习机的目标追踪方法 |
CN107147603B (zh) * | 2017-05-05 | 2019-10-08 | 西安电子科技大学 | 基于多神经网络的dbpsk解调方法 |
CN107679455A (zh) * | 2017-08-29 | 2018-02-09 | 平安科技(深圳)有限公司 | 目标跟踪装置、方法及计算机可读存储介质 |
WO2022141201A1 (zh) * | 2020-12-30 | 2022-07-07 | 深圳高性能医疗器械国家研究院有限公司 | 一种基于dce-mri的乳腺癌分级方法 |
CN113469257B (zh) * | 2021-07-07 | 2023-02-07 | 云南大学 | 一种配电变压器故障检测方法和*** |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6532305B1 (en) * | 1998-08-04 | 2003-03-11 | Lincom Corporation | Machine learning method |
CN102750550A (zh) * | 2012-06-06 | 2012-10-24 | 初红霞 | 基于视频的多目标跟踪方法及装置 |
CN104992453A (zh) * | 2015-07-14 | 2015-10-21 | 国家电网公司 | 基于极限学习机的复杂背景下目标跟踪方法 |
CN105719292A (zh) * | 2016-01-20 | 2016-06-29 | 华东师范大学 | 利用两层级联的Boosting分类算法实现视频目标跟踪的方法 |
-
2016
- 2016-08-05 CN CN201610637804.1A patent/CN106296734B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6532305B1 (en) * | 1998-08-04 | 2003-03-11 | Lincom Corporation | Machine learning method |
CN102750550A (zh) * | 2012-06-06 | 2012-10-24 | 初红霞 | 基于视频的多目标跟踪方法及装置 |
CN104992453A (zh) * | 2015-07-14 | 2015-10-21 | 国家电网公司 | 基于极限学习机的复杂背景下目标跟踪方法 |
CN105719292A (zh) * | 2016-01-20 | 2016-06-29 | 华东师范大学 | 利用两层级联的Boosting分类算法实现视频目标跟踪的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN106296734A (zh) | 2017-01-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106296734B (zh) | 基于极限学习机和boosting多核学习的目标跟踪方法 | |
Chen et al. | Detection of rice plant diseases based on deep transfer learning | |
Zou et al. | Attend to count: Crowd counting with adaptive capacity multi-scale CNNs | |
CN111027493B (zh) | 一种基于深度学习多网络软融合的行人检测方法 | |
WO2019237240A1 (zh) | 一种增强型生成式对抗网络以及目标样本识别方法 | |
CN104850865B (zh) | 一种多特征迁移学习的实时压缩跟踪方法 | |
CN110929610A (zh) | 基于cnn模型和迁移学习的植物病害识别方法及*** | |
Yee et al. | DeepScene: Scene classification via convolutional neural network with spatial pyramid pooling | |
Abbass et al. | Efficient object tracking using hierarchical convolutional features model and correlation filters | |
Shu et al. | LVC-Net: Medical image segmentation with noisy label based on local visual cues | |
Kang et al. | Robust visual tracking via nonlocal regularized multi-view sparse representation | |
Lin et al. | Two stream active query suggestion for active learning in connectomics | |
Hsu et al. | Human body motion parameters capturing using kinect | |
Tan et al. | Rapid fine-grained classification of butterflies based on FCM-KM and mask R-CNN fusion | |
CN107220597B (zh) | 一种基于局部特征和词袋模型人体动作识别过程的关键帧选取方法 | |
Ben Mahjoub et al. | An efficient end-to-end deep learning architecture for activity classification | |
Bai et al. | Learning two-pathway convolutional neural networks for categorizing scene images | |
Liu et al. | Inverse nonnegative local coordinate factorization for visual tracking | |
CN107423771B (zh) | 一种两时相遥感图像变化检测方法 | |
Zeng et al. | Kernel based multiple cue adaptive appearance model for robust real-time visual tracking | |
Zeng et al. | SAR-ATR with knowledge hierarchy division and information dissemination networks | |
Cetindag et al. | Transfer Learning Methods for Using Textural Features in Histopathological Image Classification | |
Lu et al. | Visual tracking via probabilistic hypergraph ranking | |
US20220391692A1 (en) | Semantic understanding of dynamic imagery using brain emulation neural networks | |
Lei et al. | Convolutional restricted Boltzmann machines learning for robust visual tracking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20210928 Address after: 230001 1101, building B, Xiangfeng Creative Park, 211 Xiangzhang Avenue, Hefei, Anhui Patentee after: Anhui Keda Qingtian Technology Co.,Ltd. Address before: Tunxi road in Baohe District of Hefei city of Anhui Province, No. 193 230009 Patentee before: Hefei University of Technology |