CN102930558B - 一种多特征融合的红外图像目标实时跟踪方法 - Google Patents
一种多特征融合的红外图像目标实时跟踪方法 Download PDFInfo
- Publication number
- CN102930558B CN102930558B CN201210397686.3A CN201210397686A CN102930558B CN 102930558 B CN102930558 B CN 102930558B CN 201210397686 A CN201210397686 A CN 201210397686A CN 102930558 B CN102930558 B CN 102930558B
- Authority
- CN
- China
- Prior art keywords
- rho
- target
- prime
- textural characteristics
- gray
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种多特征融合的红外图像目标实时跟踪方法,包括以下步骤:初始化目标跟踪点位置;初始化目标模型;计算目标候选模型;计算的联合特征Bhattacharyya系数及特征间权重系数;计算当前帧目标跟踪新位置;估计新位置的联合特征Bhattacharyya系数;比较前后两个联合特征Bhattacharyya系数,并输出结果。本发明自适应计算多特征间的权重系数,增强了目标跟踪鲁棒性,保证了目标跟踪稳定性,解决了单一特征不稳定造成的跟踪点漂移问题,有效提高了目标跟踪精度。
Description
技术领域
本发明设计一种多特征融合的红外图像目标跟踪方法,特别涉及一种适合硬件实时实现的红外图像目标跟踪方法。
背景技术
近年来,随着集成电路工艺和红外材料的发展,红外成像技术取得了很大进步,在国防建设和国民经济领域得到广泛应用。然而,与可见光图像相比,红外图像信噪比相对较低,因此在进行红外图像目标检测和跟踪时只能提供有限的信息。由于红外图像中目标特征不明显,存在大的背景杂波等问题,导致红外图像目标的精确跟踪变得更加困难。
目前,目标跟踪算法分为基于模型的跟踪方法和基于外观的跟踪方法两大类。与模型跟踪法相比,外观跟踪法避免了建立模型的复杂过程,具有更广的工程实用价值。其中,均值漂移跟踪算法因其简单、鲁棒、实时性好的特点在目标跟踪中得到广泛应用。均值漂移是一种无参密度计算方法,通过多次迭代搜索与样本分布最相似的分布模式。Comaniciu等人通过寻找目标颜色直方图与候选目标颜色直方图相似度的极大值,提出一种均值漂移目标跟踪算法。Chu等人将Kalman滤波器用于预测Mean Shift的初始迭代位置,但是当目标被严重遮挡时,由于Mean Shift算法寻找到的目标位置点不准确,存在一定偏差。Collins等提出一种能选取易辨识颜色特征的自适应跟踪方法,其中候选颜色特征集包含由像素点R、G、B值线性组合计算得到的49组特征.由于采用的候选集较大,特征选取的运算开销也很大。因此,现有的目标跟踪算法存在以下缺点:(1)经典的目标跟踪算法采用单一特征描述目标,抗干扰能力差;(2)多数现有的多特征目标跟踪算法仅仅利用当前帧计算特征间的权重系数,当目标进行复杂变化,跟踪算法鲁棒性差;(3)多数现有的跟踪算法在目标出现非刚性变形、局部遮挡及交叠的情况下,跟踪精度下降,甚至出现目标丢失;(4)多数现有的跟踪算法在提高目标跟踪精度的同时,大大增加了算法复杂度,不易硬件实时实现。
发明内容
发明目的:本发明所要解决的技术问题是针对现有技术的不足,提供一种多特征融合的红外图像目标实时跟踪方法。
为了解决上述技术问题,本发明公开了一种多特征融合的红外图像目标实时跟踪方法,包括以下步骤:
(1)初始化目标跟踪点位置y0。初始跟踪点由人工指定;
(2)初始化目标模型,以初始跟踪点y0为中心建立目标灰度模型q1和目标LBP纹理模型q2;(local binary pattern,LBP)局部二值模式。
(3)计算目标候选模型,根据目标的跟踪点位置y0,计算候选目标灰度模型p1(y0)和候选目标LBP纹理模型p2(y0);
(4)利用灰度特征Bhattacharyya(巴塔查里亚Bhattacharyya,参见Visual C++数字图像处理,第466页,作者:谢凤英,2008年第一版,电子工业出版社。)系数ρ1和LBP纹理特征的Bhattacharyya系数ρ2,以及灰度特征的权重系数α1和LBP纹理特征的权重系数α2,计算位置y0处联合特征Bhattacharyya系数ρ,表达式如下:
ρ=α1·ρ1+α2·ρ2;
(5)计算当前帧目标新位置y1;
(6)利用灰度特征Bhattacharyya系数ρ'1和LBP纹理特征Bhattacharyya系数ρ'2,以及灰度特征的权重系数α'1和LBP纹理特征的权重系数α'2,计算位置y1处联合特征Bhattacharyya系数ρ',表达式如下;
ρ′=α′1·ρ′1+α′2·ρ′2,
(7)当ρ'<ρ时,否则y1保持不变;
(8)若|(y0-y1)|<ε,停止计算,否则,将y1赋值给y0并执行步骤(3),其中,ε是误差常系数。
步骤(2)中,目标灰度模型q1为:
目标LBP纹理模型q2为:
其中,qu为目标灰度模型灰度特征的各级概率密度,qv为LBP纹理特征的各级概率密度,m1为目标灰度模型灰度特征的最大量化级数范围,m2为LBP纹理特征的最大量化级数范围,u表示灰度量化级数,v表示纹理量化级数。
步骤(3)中,候选目标灰度模型p1为:
候选目标LBP纹理模型p2为:
pu为目标灰度模型灰度特征的各级概率密度,pv为目标灰度模型灰度特征和LBP纹理特征的各级概率密度,m1为目标灰度模型灰度特征的最大量化级数范围,m2为LBP纹理特征的最大量化级数范围,u表示灰度量化级数,v表示纹理量化级数。
步骤(4)中灰度特征的权重系数α1和LBP纹理特征的权重系数α2,步骤(6)中灰度特征的权重系数α'1和LBP纹理特征的权重系数α'2采用迭代方式更新,计算式分别如下:
α1=(1-λ)·α1,old+λ·α1,cur,
α2=(1-λ)·α2,old+λ·α2,cur,
α'1=(1-λ)·α'1,old+λ·α'1,cur,
α'2=(1-λ)·α'2,old+λ·α'2,cur,
其中,α1,old和α2,old分别是步骤(4)中上一帧灰度特征和LBP纹理特征的权重系数,α1,cur和α2,cur分别是步骤(4)中当前帧灰度特征和LBP纹理特征的权重系数,α'1,old和α'2,old分别是步骤(6)中上一帧灰度特征和LBP纹理特征的权重系数,α'1,cur和α'2,cur是步骤(6)中当前帧灰度特征和LBP纹理特征的权重系数,λ是比例系数。0≤λ≤1,决定权重系数的收敛速度,λ值越大,收敛速度越快,跟踪机动性越强,λ值越小,收敛速度越慢,跟踪稳定性越好。
步骤(4)中当前帧灰度特征的权重系数α1,cur和LBP纹理特征的权重系数α2,cur,步骤(6)中当前帧灰度特征的权重系数α'1,cur和LBP纹理特征的权重系数α'2,cur,计算式分别如下:
其中,ρ1是步骤(4)中灰度特征的Bhattacharyya系数,ρ2是步骤(4)中LBP纹理特征的Bhattacharyya系数,ρ'1是步骤(6)中灰度特征的Bhattacharyya系数,ρ'2是步骤(6)中LBP纹理特征的Bhattacharyya系数。
步骤(6)中灰度特征Bhattacharyya系数ρ'1和LBP纹理特征的Bhattacharyya系数ρ'2,以及灰度特征的权重系数α'1和LBP纹理特征的权重系数α'2通过以下公式得到:
p'u是位置y1处的目标灰度模型灰度特征的各级概率密度,p'v是位置y1处LBP纹理特征的各级概率密度;
其中,α'1,old是上一帧灰度特征的权重系数,α'2,old是上一帧LBP纹理特征的权重系数,λ是比例系数。0≤λ≤1,决定权重系数的收敛速度,λ值越大,收敛速度越快,跟踪机动性越强,λ值越小,收敛速度越慢,跟踪稳定性越好。
本发明多特征融合的红外图像目标实时跟踪方法中,使用依潘涅切科夫(Epanechnikov)核函数计算灰度特征概率直方图和LBP纹理特征概率直方图。
本发明与现有技术相比,具有以下显著优点:(1)根据目标与背景的特征显著性和相似性,自适应计算多特征间的权重系数,增强了目标跟踪鲁棒性;(2)采用迭代方式更新多特征间的权重系数,保证了目标跟踪稳定性;(3)利用多特征融合目标跟踪方法对红外图像目标进行跟踪,解决了单一特征不稳定造成的跟踪点漂移问题,有效提高了目标跟踪精度;(4)本发明提出的多特征融合目标跟踪方法不存在高阶运算和复杂结构,算法运算量小,易于硬件实时实现。
附图说明
下面结合附图和具体实施方式对本发明做更进一步的具体说明,本发明的上述和其他方面的优点将会变得更加清楚。
图1为本发明流程图。
图2a~2d为传统的单特征(灰度)红外图像目标跟踪结果。
图3a~3d为本发明多特征融合的红外图像目标跟踪结果。
具体实施方式
本发明多特征融合的红外图像目标实时跟踪方法中,利用灰度特征和LBP纹理特征描述红外图像目标的特征。
八邻域LBP纹理特征表达式LBP8,1如下所示:
其中,gc是当前点,gn是周围邻域点,n=0..7。
本发明多特征融合的红外图像目标实时跟踪方法中,利用Bhattacharyya系数描述目标模型和目标候选模型间的相似性。
Bhattacharyya系数ρBha表达式如下所示:
其中,p是目标候选模型,q是目标模型。
本发明多特征融合的红外图像目标实时跟踪方法中,灰度特征的权重系数α1和LBP纹理特征的权重系数α2采用迭代方式更新,表达式如下:
α1=(1-λ)·α1,old+λ·α1,cur
α2=(1-λ)·α2,old+λ·α2,cur
其中,α1,old和α2,old分别是上一帧灰度特征和LBP纹理特征的权重系数,α1,cur和α2,cur是当前帧灰度特征和LBP纹理特征的权重系数,λ是比例系数。
本发明多特征融合的红外图像目标实时跟踪方法中,当前帧灰度特征的权重系数α1,cur和LBP纹理特征的权重系数α2,cur表达式分别如下:
其中,ρ1是灰度特征的Bhattacharyya系数,ρ2是LBP纹理特征的Bhattacharyya系数。
实施例1
如图1所示,下面以实例来说明本发明多特征融合的红外图像目标实时跟踪方法。红外图像的像素个数320×240,帧频25HZ。红外热像仪成像通过光纤传给DSP+FPGA架构的专用图像处理板,多特征融合的红外图像目标跟踪在DSP处理器中实现,满足实时处理的需求,具体实施步骤如下:
(1)初始化目标跟踪点位置y0,初始跟踪点由人工指定。
人工指定初始目标跟踪点位置(i,j),i=80,j=100(图2所示),设定依潘涅切科夫(Epanechnikov)核函数带宽h=10。
(2)初始化目标模型,根据灰度特征建立目标灰度模型q1,计算目标的LBP纹理特征,结合LBP纹理特征建立目标纹理模型q2;
计算以初始跟踪点位置(80,100)为中心,带宽h=10为范围的图像ILBP的LBP纹理特征,表达式如下所示:
八邻域LBP纹理特征表达式LBP8,1如下所示:
其中,gc是当前目标点,c=k2*320+k1,gn是gc周围邻域点,n=0..7。
目标灰度模型q1为:
目标LBP纹理模型q2为:
其中,qu和qv分别表示目标模型灰度特征和LBP纹理特征的各级概率密度,m1=255和m2=255分别表示目标模型灰度特征和LBP纹理特征的量化级数,函数b1(·)是位于xi的像素向灰度特征索引的映像,函数b2(·)是位于xi的像素向LBP纹理特征索引的映像,δ是Delta函数,C是归一化系数,μ=1...255,v=1...255。
(3)计算目标候选模型。根据跟踪点位置y0,计算候选目标灰度模型p1(y0)和目标纹理候选模型p2(y0);
候选目标灰度模型p1为:
候选目标LBP纹理模型p2为:
pu和pv分别表示目标模型灰度特征和LBP纹理特征的各级概率密度,m1=255和m2=255分别表示目标模型灰度特征和LBP纹理特征的量化级数,函数b1(·)是位于xi的像素向灰度特征索引的映像,函数b2(·)是位于xi的像素向LBP纹理特征索引的映像,δ是Delta函数,C是归一化系数,μ=1...255,v=1...255。
(4)分别计算灰度特征和LBP纹理特征的Bhattacharyya系数ρ1、ρ2以及权重系数α1、α2,利用ρ1、α1、ρ2、α2计算位置y0处的联合特征Bhattacharyya系数ρ;
联合特征Bhattacharyya系数ρ描述为:
ρ=α1·ρ1+α2·ρ2,
灰度特征权重系数α1、LBP纹理特征α2更新表达式如下所示:
其中,α1,old和α2,old是上一帧权重系数,α1,cur和α2,cur是当前帧权重系数,λ是比例系数。
(5)计算当前帧目标跟踪新位置y1;
其中,n'是候选目标像素点个数,h是核函数带宽,qu、qv、pu、pv、α1、α2、xi、b1(·)、b2(·)的含义与步骤(2)、(3)、(4)中的定义相同。
(6)利用灰度特征和LBP纹理特征的Bhattacharyya系数ρ'1、ρ'2以及权重系数α'1、α'2,计算位置y1处联合特征Bhattacharyya系数ρ',表达式如下;
ρ′=α′1·ρ′1+α′2·ρ′2,
灰度特征权重系数α'1、LBP纹理特征α'2更新表达式如下所示:
其中,α'1,old和α'2,old是上一帧权重系数,λ是比例系数。
(7)当ρ'<ρ时,否则y1保持不变;
(8)如果abs(y0-y1)<0.01则停止,否则,y0←y1,执行步骤(3)。
图2为传统技术,图3为根据本实施例得到的仅利用单特征(灰度特征)和多特征融合的红外图像目标跟踪结果,因为为红外图像,所以不可避免出现灰度颜色。其中图2a、2b、2c、2d分别表示第20帧、第80帧、第140帧以及第200帧的图像,图3a、3b、3c、3d分别表示第20帧、第80帧、第140帧以及第200帧的图像。对比图2和图3发现:仅利用单特征对目标跟踪会引起跟踪过程不稳定,跟踪精度差,如图2跟踪波门随机摆动;利用多特征融合的跟踪方法能有效提高跟踪精度,如图3跟踪波门始终在目标型心附近。
本发明提供了一种多特征融合的红外图像目标实时跟踪方法,具体实现该技术方案的方法和途径很多,以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。本实施例中未明确的各组成部分均可用现有技术加以实现。
Claims (5)
1.一种多特征融合的红外图像目标实时跟踪方法,其特征在于,包括以下步骤:
(1)给定目标初始跟踪点位置y0;
(2)初始化目标模型,以初始跟踪点y0为中心建立目标灰度模型q1和目标LBP纹理模型q2;
(3)计算目标候选模型,根据目标的跟踪点位置y0,计算候选目标灰度模型p1(y0)和候选目标LBP纹理模型p2(y0);
(4)利用灰度特征Bhattacharyya系数ρ1和LBP纹理特征的Bhattacharyya系数ρ2,以及灰度特征的权重系数α1和LBP纹理特征的权重系数α2,计算位置y0处联合特征Bhattacharyya系数ρ,表达式如下:
ρ=α1·ρ1+α2·ρ2;
(5)计算当前帧目标新位置y1;
(6)利用灰度特征Bhattacharyya系数ρ'1和LBP纹理特征Bhattacharyya系数ρ'2,以及灰度特征的权重系数α'1和LBP纹理特征的权重系数α'2,计算位置y1处联合特征Bhattacharyya系数ρ',表达式如下;
ρ′=α′1·ρ′1+α′2·ρ′2,
(7)当ρ'<ρ时,否则y1保持不变;
(8)若|(y0-y1)|<ε,停止计算,否则,将y1赋值给y0并执行步骤(3),其中,ε是误差常系数;
步骤(4)中灰度特征的权重系数α1和LBP纹理特征的权重系数α2,步骤(6)中灰度特征的权重系数α'1和LBP纹理特征的权重系数α'2采用迭代方式更新,计算式分别如下:
α1=(1-λ)·α1,old+λ·α1,cur,
α2=(1-λ)·α2,old+λ·α2,cur,
α'1=(1-λ)·α'1,old+λ·α'1,cur,
α'2=(1-λ)·α'2,old+λ·α'2,cur,
其中,α1,old和α2,old分别是步骤(4)中上一帧灰度特征和LBP纹理特征的权重系数,α1,cur和α2,cur分别是步骤(4)中当前帧灰度特征和LBP纹理特征的权重系数,α'1,old和α'2,old分别是步骤(6)中上一帧灰度特征和LBP纹理特征的权重系数,α'1,cur和α'2,cur是步骤(6)中当前帧灰度特征和LBP纹理特征的权重系数,λ是比例系数。
2.根据权利要求1所述的一种多特征融合的红外图像目标实时跟踪方法,其特征在于,步骤(2)中,目标灰度模型q1为:
目标LBP纹理模型q2为:
其中,qu为目标灰度模型灰度特征的各级概率密度,qv为LBP纹理特征的各级概率密度,m1为目标灰度模型灰度特征的最大量化级数范围,m2为LBP纹理特征的最大量化级数范围,u表示灰度量化级数,v表示纹理量化级数。
3.根据权利要求1所述的一种多特征融合的红外图像目标实时跟踪方法,其特征在于,步骤(3)中,候选目标灰度模型p1为:
候选目标LBP纹理模型p2为:
pu为目标灰度模型灰度特征的各级概率密度,pv为目标灰度模型灰度特征和LBP纹理特征的各级概率密度,m1为目标灰度模型灰度特征的最大量化级数范围,m2为LBP纹理特征的最大量化级数范围,u表示灰度量化级数,v表示纹理量化级数。
4.根据权利要求1所述的一种多特征融合的红外图像目标实时跟踪方法,其特征在于,步骤(4)中当前帧灰度特征的权重系数α1,cur和LBP纹理特征的权重系数α2,cur,步骤(6)中当前帧灰度特征的权重系数α'1,cur和LBP纹理特征的权重系数α'2,cur,计算式分别如下:
其中,ρ1是步骤(4)中灰度特征的Bhattacharyya系数,ρ2是步骤(4)中LBP纹理特征的Bhattacharyya系数,ρ'1是步骤(6)中灰度特征的Bhattacharyya系数,ρ'2是步骤(6)中LBP纹理特征的Bhattacharyya系数。
5.根据权利要求4所述的一种多特征融合的红外图像目标实时跟踪方法,其特征在于,步骤(6)中灰度特征Bhattacharyya系数ρ'1和LBP纹理特征的Bhattacharyya系数ρ'2,以及灰度特征的权重系数α'1和LBP纹理特征的权重系数α'2通过以下公式得到:
p'u是位置y1处的目标灰度模型灰度特征的各级概率密度,p'v是位置y1处LBP纹理特征的各级概率密度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210397686.3A CN102930558B (zh) | 2012-10-18 | 2012-10-18 | 一种多特征融合的红外图像目标实时跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210397686.3A CN102930558B (zh) | 2012-10-18 | 2012-10-18 | 一种多特征融合的红外图像目标实时跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102930558A CN102930558A (zh) | 2013-02-13 |
CN102930558B true CN102930558B (zh) | 2015-04-01 |
Family
ID=47645348
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210397686.3A Active CN102930558B (zh) | 2012-10-18 | 2012-10-18 | 一种多特征融合的红外图像目标实时跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102930558B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI628624B (zh) * | 2017-11-30 | 2018-07-01 | 國家中山科學研究院 | Improved thermal image feature extraction method |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109215062B (zh) * | 2017-06-29 | 2022-02-08 | 沈阳新松机器人自动化股份有限公司 | 基于图像视觉的动作捕捉方法、双目定位装置及*** |
US10304207B2 (en) * | 2017-07-07 | 2019-05-28 | Samsung Electronics Co., Ltd. | System and method for optical tracking |
CN109902578B (zh) * | 2019-01-25 | 2021-01-08 | 南京理工大学 | 一种红外目标检测与跟踪方法 |
CN113379789B (zh) * | 2021-06-11 | 2022-12-27 | 天津大学 | 一种复杂环境下运动目标跟踪方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6590999B1 (en) * | 2000-02-14 | 2003-07-08 | Siemens Corporate Research, Inc. | Real-time tracking of non-rigid objects using mean shift |
-
2012
- 2012-10-18 CN CN201210397686.3A patent/CN102930558B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6590999B1 (en) * | 2000-02-14 | 2003-07-08 | Siemens Corporate Research, Inc. | Real-time tracking of non-rigid objects using mean shift |
Non-Patent Citations (1)
Title |
---|
汪首坤,郭俊杰,王军政.基于自适应特征融合的均值迁移目标跟踪.《北京理工大学学报》.2011,第31卷(第7期),第804-805页,第807页. * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI628624B (zh) * | 2017-11-30 | 2018-07-01 | 國家中山科學研究院 | Improved thermal image feature extraction method |
Also Published As
Publication number | Publication date |
---|---|
CN102930558A (zh) | 2013-02-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109816641B (zh) | 基于多尺度形态学融合的加权局部熵红外小目标检测方法 | |
CN111681197B (zh) | 一种基于Siamese网络结构的遥感图像无监督变化检测方法 | |
CN102103748B (zh) | 一种复杂背景下红外弱小目标检测和跟踪方法 | |
CN102930558B (zh) | 一种多特征融合的红外图像目标实时跟踪方法 | |
CN106991686B (zh) | 一种基于超像素光流场的水平集轮廓跟踪方法 | |
CN101976504B (zh) | 一种基于颜色空间信息的多车辆视频跟踪方法 | |
CN101924871A (zh) | 基于均值偏移的视频目标跟踪方法 | |
CN107944354B (zh) | 一种基于深度学习的车辆检测方法 | |
Qi et al. | FTC-Net: Fusion of transformer and CNN features for infrared small target detection | |
CN110135312B (zh) | 一种基于分级lcm的快速小目标检测方法 | |
Shen et al. | Adaptive pedestrian tracking via patch-based features and spatial–temporal similarity measurement | |
Li et al. | Visual object tracking using spatial context information and global tracking skills | |
CN108038856B (zh) | 基于改进多尺度分形增强的红外小目标检测方法 | |
Yuan et al. | A moving objects tracking method based on a combination of local binary pattern texture and hue | |
CN106250687B (zh) | 去扁化ipp的沉积砾石圆度计算方法 | |
CN108573236B (zh) | 基于离散分数布朗随机场的云天背景下红外弱小目标检测方法 | |
Bao et al. | Solar panel segmentation under low contrast condition | |
CN107067411B (zh) | 一种结合密集特征的Mean-shift跟踪方法 | |
Li et al. | Moving target tracking via particle filter based on color and contour features | |
CN115131240A (zh) | 一种用于三维点云数据的目标识别方法和*** | |
Wang et al. | Comparison and Analysis of Several Clustering Algorithms for Pavement Crack Segmentation Guided by Computational Intelligence | |
Chen et al. | A mean shift algorithm based on modified Parzen window for small target tracking | |
Yu et al. | Research on video face detection based on AdaBoost algorithm training classifier | |
CN113888428A (zh) | 一种基于局部对比度的红外弱小目标检测方法及装置 | |
Li et al. | An Infrared small target detection method based on local contrast measure and gradient property |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |