CN106971176A - 基于稀疏表示的红外人体目标跟踪方法 - Google Patents

基于稀疏表示的红外人体目标跟踪方法 Download PDF

Info

Publication number
CN106971176A
CN106971176A CN201710323547.9A CN201710323547A CN106971176A CN 106971176 A CN106971176 A CN 106971176A CN 201710323547 A CN201710323547 A CN 201710323547A CN 106971176 A CN106971176 A CN 106971176A
Authority
CN
China
Prior art keywords
target
template
collection
feature
human body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710323547.9A
Other languages
English (en)
Inventor
王鑫
徐玲玲
张鑫
邓梁
熊星南
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hohai University HHU
Original Assignee
Hohai University HHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hohai University HHU filed Critical Hohai University HHU
Priority to CN201710323547.9A priority Critical patent/CN106971176A/zh
Publication of CN106971176A publication Critical patent/CN106971176A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/457Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by analysing connectivity, e.g. edge linking, connected component analysis or slices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/513Sparse representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种改进的基于稀疏表示的红外人体目标跟踪方法,首先,从红外目标模板中提取含有空间位置信息的灰度特征和边缘特征,并组成总特征集;然后,通过K‑SVD算法对其进行过完备字典的学习,实现目标外观的建模;最后,通过求取残差来实现人体目标的跟踪。本发明一方面提取了红外人体目标含有空间位置信息的灰度特征和边缘特征,有效的克服了人体姿势变化、光照变化以及目标被遮挡等因素的干扰;另一方面,通过自适应字典更新算法,可以使过完备字典保持对目标的良好建模;两方面结合,提高了人体目标跟踪的鲁棒性和精确性。

Description

基于稀疏表示的红外人体目标跟踪方法
技术领域
本发明涉及一种基于稀疏表示的红外人体目标跟踪方法,特别是一种光照变化、人体姿势变化等因素干扰情况下的红外人体目标跟踪方法,属于计算机视觉技术领域。
背景技术
复杂背景下的红外目标跟踪始终都是计算机视觉领域的重要研究内容,它在视频监控、红外精确制导、视频压缩等应用领域发挥着很大的作用。红外人体目标跟踪是红外目标跟踪的一个重要分支,它在重要部门监督、人体运动分析等领域做出了很大的贡献。但是由于红外目标信息较为单一,缺乏可供跟踪***利用的有效的颜色或纹理等特征,再加上人体在运动过程中,运动姿势、方向等多方面的改变,使得复杂背景下的红外人体目标跟踪称为该领域的一个难点。
近年来,随着稀疏表示理论的兴起和发展,很多研究学者将稀疏表示理论应用于目标跟领域。
公开号CN103514600A一种基于稀疏表示的红外目标快速鲁棒跟踪,该方法在压缩感知的基础上,采用一种随机测量矩阵对Harr-like特征进行压缩,通过计算范数最小化的进行稀疏求解,计算其重构误差得到每个粒子的概率,从而实现目标跟踪。但是,该方法没有对目标模板进行适当的更新,因此容易造成跟踪结果不理想的情况。
公开号CN102005054A一种实时红外图像目标跟踪方法,该方法利用拉普拉斯算子对原始红外图像进行增强处理,通过MCD度量准则获得多个图像模板所对应的相关值和相关匹配位置,并根据其进行模板更新,同时结合跟踪计算信息判定当前帧图像的目标跟踪结果,利用跟踪结果和Kalman滤波器来预测下一帧目标的位置。但是,该方法在噪声较强、背景较复杂的情况下,目标的跟踪性能较差。
发明内容
发明目的:针对现有技术中存在的问题,本发明提供一种基于稀疏表示的红外人体目标跟踪方法,能够克服目标的外观发生变化、目标被部分遮挡或者目标处于复杂的背景下所带来的影响,大大提高目标跟踪成果率。
技术方案:一种基于稀疏表示的红外人体目标跟踪方法,包括如下步骤:
步骤1,在对所有图像序列进行第一帧目标跟踪时,采用一个滑动窗口在第一帧目标所在区域进行多次目标模板的提取,并将截取到的所有目标模板组成一个目标模板集;
步骤2,对于目标模板集,通过灰度直方图和边缘直方图的方法来提取每个模板的含有空间位置信息的灰度特征和边缘特征,并将这两种特征组合生成总特征集;
步骤3,采用K-SVD算法对总特征集进行训练生成目标的过完备字典;
步骤4,对当前帧图像搜索候选目标,通过计算稀疏重建残差,得到待跟踪目标的精确位置;
步骤5,每隔r帧用新的模板总特征集对字典进行更新,使得过完备字典能够保持对目标的良好建模,r一般取值5-20。
作为本发明的一种优选方案,步骤1所述在对所有图像序列进行第一帧目标跟踪时,采用一个滑动窗口在第一帧目标所在区域进行多次目标模板的提取,并将截取到的所有目标模板组成一个目标模板集,具体过程如下:
步骤11,采用一个尺寸为m×n的滑动窗口在第一帧目标所在区域进行多次目标模板的截取;
步骤12,将所截取到的N个模板组成目标模板集;T=[t1,t2,···,tj,···,tN],其中,tj表示所截取的第j个目标模板;
步骤13,将所有的目标模板的尺寸归一化为μ×μ,这里取μ=32。
作为本发明的一种优选方案,步骤2所述对于目标模板集,通过灰度直方图和边缘直方图的方法来提取每个模板的含有空间位置信息的灰度特征和边缘特征,并将这两种特征组合生成总特征集,具体过程如下:
步骤21,计算训练样本集中N个模板在各个灰度级的概率密度,从而得到相应的灰度特征向量p;
步骤22,将N个目标模板的灰度特征向量都各自进行列向量化,并级联组成一个含有空间位置信息的灰度特征集,即:PG=[p1,p2,···,pN],其中,pj表示第j个目标模板的灰度特征向量;
步骤23,计算训练样本集中N个模板的边缘特征向量q;
步骤24,将N个边缘特征向量列向量化,并级联组成一个含有空间位置信息的边缘特征集,即:QE=[q1,q2,···,qN],其中,qj表示第j个目标模板的边缘特征向量;
步骤25,将灰度特征集PG和边缘特征集QE进行纵向连接,使同一目标模板的灰度特征和边缘特征在同一列向量中表示,这样就可以得到所有目标模板的总特征集featset;
作为本发明的一种优选方案,所述步骤3的具体过程如下:
步骤31,当字典D固定时,采用正交匹配追踪(Orthogonal Matching Pursuit,OMP)算法求出特征集featset在该字典下的稀疏系数X;
步骤32,当稀疏系数固定时,采用奇异值分解(Singular Value Decomposition,SVD)方法实现字典D的逐列更新;
步骤33,重复步骤31、32,直到迭代次数满足预先设定的条件,从而得到最终的过完备字典D。
作为本发明的一种优选方案,步骤4所述对当前帧图像搜索候选目标,具体过程如下:
步骤41,对于当前帧图像,如果是图像序列的第一帧,则标识出目标区域,且将其中心记为O*。否则,将前一帧目标跟踪结果所在的区域记做Rfr,记其中心为O*,并扩展出一个尺寸比Rfr区域大一倍的搜索区域Rse,用于搜索候选目标;
步骤42,用一个多尺度滑动窗口对搜索区域Rse进行扫描,从而完成了当前帧图像的h个候选目标的提取;
步骤43,将这h个候选目标组成一个集合F:F=[f1,f2,···,fh],其中,fg(1≤g≤h)表示第g个候选目标。
作为本发明的一种优选方案,步骤4所述通过计算稀疏重建残差,得到待跟踪目标的精确位置,具体过程如下:
步骤44,将每个候选目标尺寸统一归一化为与目标模板同样大小的μ×μ;
步骤45,计算集合F中所有候选目标的灰度特征向量和边缘特征向量,并将各自的两种特征向量分别列向量化后进行纵向连接形成feag
步骤46,采用OMP算法,计算feag在过完备字典下的稀疏编码系数Xg
步骤47,计算每个候选目标fg的重建残差εg:εg=fg-DgXg
步骤48,计算出h个重构残差中的最小值:εm=min[ε12,···,εh],且εm所对应的候选目标就是当前帧图像的目标区域;
步骤49,对于图像序列接下来的每一帧图像都进行步骤41至步骤49的操作,直到最后一帧处理完成为止。
作为本发明的一种优选方案,所述步骤5的具体过程如下:
步骤51,提取当前帧图像的目标跟踪结果;
步骤52,分别提取当前帧目标跟踪结果区域的两种特征向量,即灰度特征向量pcur和边缘特征向量qcur
步骤53,计算pcur与灰度特征集PG中每一列原子pj之间的巴氏(Bhattacharyya)系数ρ1,j,以及qcur与边缘特征集QE中每一列原子qj之间的Bhattacharyya系数ρ2,j
步骤54,计算ρ1,j和ρ2,j的权重w1,j和w2,j
步骤55,计灰度特征和边缘特征融合后的Bhattacharyya系数:ρsum,j
步骤56,从N个联合特征的Bhattacharyya系数组成的相似性向量Sim中选出最大值ρsum,ma,将ρsum,ma与预先设定的阈值th进行比较,如果ρsum,ma<th,则字典不更新,否则,就用当前帧的目标跟踪结果来更新模板特征集;
步骤57,从Sim选出最小值ρsum,mi=min(ρsum,1,···,ρsum,N),用当前帧的目标跟踪结果的pcur和qcur分别替换第mi个目标模板的灰度特征向量pmi和边缘特征向量qmi
本发明采用以上技术方案与现有技术相比,具有以下技术效果:
1、本发明跟踪方法分别提取了人体目标模板的含有空间位置信息的灰度特征和边缘特征,使得所建的目标模型能够有效克服光照变化、人体姿势变化、目标被遮挡等干扰。
2、本发明跟踪方法利用多尺度窗口搜索候选目标,从而保证候选目标的完整性。
3、本发明跟踪方法采用一种自适应字典更新方法,能够保证过完备字典保持对目标的良好建模。
附图说明
图1是本发明基于稀疏表示的红外人体目标跟踪方法的实施流程图;
图2是本发明跟踪方法中目标模板的截取示意图;
图3是本发明跟踪方法中当前帧候选目标搜索框示意图;
图4是本发明跟踪方法在光照变化情况下的跟踪结果图;
图5是本发明跟踪方法在目标被遮挡情况下的跟踪结果图;
图6是本发明跟踪方法在目标被遮挡和灰度变化情况下的跟踪结果图;
图7是本发明跟踪方法在杂波背景和相似灰度干扰下的跟踪结果图。
具体实施方式
下面结合具体实施例,进一步阐明本发明,应理解这些实施例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
如图1所示,本发明改进的基于稀疏表示的红外人体目标跟踪方法具体步骤如下:
步骤一,在对所有图像序列进行第一帧目标跟踪时,采用一个滑动窗口在第一帧目标所在区域进行多次目标模板的提取,并将截取到的所有目标模板组成一个目标模板集,其具体操作过程如下:
(1)首先采用一个尺寸为m×n的滑动窗口在第一帧目标所在区域进行多次目标模板的截取;接着将所截取到的模板组成目标模板集T=[t1,t2,···,tN],其中,tj表示所截取的第j个目标模板,N代表目标模板的数量;最后将所有的目标模板的尺寸归一化为μ×μ。图2是图像序列中第一帧图像目标模板的截取示意图以及得到的相应的部分目标模板。
步骤二,对于目标模板集,通过灰度直方图和边缘直方图的方法来提取每个模板的含有空间位置信息的灰度特征和边缘特征,并将这两种特征组合生成总特征集。具体步骤如下:
(2)目标灰度特征的提取
首先,利用目标模型的含有空间位置的灰度直方图计算每个目标模板的灰度特征向量:
其中,xi代表目标区域的某一像素点的位置,x0代表目标区域的中心位置,h代表目标区域的大小,b(xi)表示像素点xi的灰度值映射函数,LG表示灰度映射级数,k(·)表示为核函数,δ(·)表示狄拉克δ函数,M代表目标区域像素点的总个数,C1是归一化常数。
接着,将这N个目标模板的灰度特征向量都各自进行列向量化,并级联组成一个含有空间位置信息的灰度特征集,即:
PG=[p1,p2,···,pN]
(3)目标边缘特征的提取
首先,利用目标模型的含有空间位置的边缘方向直方图计算每个目标模板的边缘特征向量:
其中,b*(xi)为像素点xi处边缘方向的特征映射函数,LE表示边缘方向映射级数,C2为归一化常数。
接着,将训练样本集中的N个目标模板的边缘特征向量列向量化,并排成一个含有空间位置信息的边缘特征集,即:
QE=[q1,q2,···,qN]
最后,将灰度特征集PG和边缘特征集QE进行纵向连接,使同一目标模板的灰度特征和边缘特征在同一列向量中表示,这样就可以得到所有目标模板的总特征集,即:
其中,featset∈RL×N,LG+LE=L表示所有目标模板的总特征集,featurej∈RL×1表示第j个目标模板的灰度和边缘特征集。
步骤三,采用K-SVD算法对总特征集进行训练生成目标S的过完备字典。具体步骤如下:
(4)目标过完备字典的构建
首先,当字典D固定时,采用OMP算法求出特征集featset在该字典下的稀疏系数X。
接着,当稀疏系数固定时,采用SVD方法实现字典D的逐列更新。
最后,重复两个步骤,直到迭代次数满足预先设定的条件,从而得到最终的过完备字典D∈RL×S,由于过完备字典的维数L必须小于其原子数S,因此有L<S。
步骤四,对当前帧图像搜索候选目标,通过计算稀疏重建残差,得到待跟踪目标的精确位置。具体步骤如下:
(5)对当前帧图像进行候选目标的提取
首先,对于需要跟踪的当前帧图像,如果是图像序列的第一帧,则人工手动标识出目标区域,且将其中心记为O*。否则,将前一帧目标跟踪结果当做Rfr,记其中心为O*,并扩展出一个尺寸比Rfr区域大一倍的搜索区域Rse,用于搜索候选目标。图3展示了相关的具体操作,其中小矩形表示前一帧图像所检测到的目标区域Rfr,且圆点代表该区域的中心O*,大矩形代表用于搜索候选目标所用到的区域Rse
接着,用一个多尺度滑动窗口对搜索区域Rse进行扫描。
最后,将上述所获得的h个候选目标组成一个集合F,即:
F=[f1,f2,···,fh]
其中,fg(1≤g≤h)表示第g个候选目标。
(6)对集合F中的每个候选目标都分别进行灰度特征和边缘特征的提取。
首先,需要将每个候选目标尺寸统一归一化为与目标模板同样大小的μ×μ。
然后,计算集合F中所有候选目标的灰度特征向量和边缘特征向量,并将各自的两种特征向量分别列向量化后进行纵向连接形成其中,1≤g≤h,pg表示第g个候选目标的灰度特征,qg表示第g个候选目标的边缘特征,feag表示g个候选目标的特征集包括灰度特征和边缘特征。
(7)采用OMP算法,计算feag在过完备字典下的稀疏编码系数Xg
(8)计算每个候选目标fg的重建残差εg:εg=fg-DgXg,并将h个重构残差一起进行比较,并取出其中的最小值εm:εm=min[ε12,···,εh],εm所对应的候选目标就是当前帧图像的目标区域。
(9)对于图像序列接下来的每一帧图像都进行步骤(5)至步骤(9)的操作,直到最后一帧处理完成为止。
步骤五,每隔r帧用新的模板总特征集对字典进行更新,使得过完备字典能够保持对目标的良好建模。具体步骤如下:
(10)利用步骤二中的方法提取当前帧目标跟踪结果区域的两种特征向量,即灰度特征向量和边缘特征向量
(11)判断当前帧的跟踪结果是否被污染
首先,计算pcur与灰度特征集PG中每一列原子pj之间的Bhattacharyya系数ρ1,j,以及qcur与边缘特征集QE中每一列原子qj之间的Bhattacharyya系数ρ2,j,即:
然后,计算ρ1,j和ρ2,j的权重w1,j和w2,j
并计算两种特征融合后的Bhattacharyya系数:ρsum,j=w1,jρ1,j+w2,jρ2,j,因此,该方法可以得到由N个联合特征的Bhattacharyya系数组成的相似性向量:
Sim=[ρsum,1,···,ρsum,N]
最后,从Sim中选出最大值ρsum,ma=max(ρsum,1,···,ρsum,N),将ρsum,ma与预先设定的阈值th进行比较,如果ρsum,ma<th,则判定当前帧的目标跟踪结果被污染,不用它更新字典,否则,就用当前帧的目标跟踪结果来更新模板特征集。
(12)若当前帧的跟踪结果未被污染,则用其来更新目标特征集
首先,从Sim选出最小值ρsum,mi=min(ρsum,1,···,ρsum,N),即第mi个目标模板与当前帧的目标跟踪结果之间的相似度最小,然后,用当前帧的目标跟踪结果的pcur和qcur分别替换第mi个目标模板的灰度特征向量pmi和边缘特征向量qmi
(13)每隔r帧用新的模板总特征集对字典进行更新。
(14)为了验证本发明提出算法的有效性,本发明给出了4组具有代表性的人体目标序列的实验结果,这些图像序列具有视频跟踪问题中普遍存在的挑战因素,主要包括:目标被部分遮挡、目标发生姿态形变、光照变化、背景复杂等干扰因素。如图4所示,为本发明在光照变化情况下的跟踪结果图;图5为本发明在目标被遮挡情况下的跟踪结果图;图6为本发明在目标被遮挡和灰度变化情况下的跟踪结果图;图7为本发明在杂波背景和相似灰度干扰下的跟踪结果图。
以上实施例仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明保护范围之内。

Claims (7)

1.一种基于稀疏表示的红外人体目标跟踪方法,其特征在于,包括如下步骤:
步骤1,在对所有图像序列进行第一帧目标跟踪时,采用一个滑动窗口在第一帧目标所在区域进行多次目标模板的提取,并将截取到的所有目标模板组成一个目标模板集;
步骤2,对于目标模板集,通过灰度直方图和边缘直方图的方法来提取每个模板的含有空间位置信息的灰度特征和边缘特征,并将这两种特征组合生成总特征集;
步骤3,采用K-SVD算法对总特征集进行训练生成目标的过完备字典;
步骤4,对当前帧图像搜索候选目标,通过计算稀疏重建残差,得到待跟踪目标的精确位置;
步骤5,每隔r帧用新的模板总特征集对字典进行更新,使得过完备字典能够保持对目标的良好建模。
2.根据权利要求1所述的基于稀疏表示的红外人体目标跟踪方法,其特征在于,步骤1所述在对所有图像序列进行第一帧目标跟踪时,采用一个滑动窗口在第一帧目标所在区域进行多次目标模板的提取,并将截取到的所有目标模板组成一个目标模板集,具体过程如下:
步骤11,采用一个尺寸为m×n的滑动窗口在第一帧目标所在区域进行多次目标模板的截取;
步骤12,将所截取到的N个模板组成目标模板集;T=[t1,t2,···,tj,···,tN],其中,tj表示所截取的第j个目标模板;
步骤13,将所有的目标模板的尺寸归一化为μ×μ。
3.根据权利要求1所述的基于稀疏表示的红外人体目标跟踪方法,其特征在于,步骤2所述对于目标模板集,通过灰度直方图和边缘直方图的方法来提取每个模板的含有空间位置信息的灰度特征和边缘特征,并将这两种特征组合生成总特征集,具体过程如下:
步骤21,计算训练样本集中N个模板在各个灰度级的概率密度,从而得到相应的灰度特征向量p;
步骤22,将N个目标模板的灰度特征向量都各自进行列向量化,并级联组成一个含有空间位置信息的灰度特征集,即:PG=[p1,p2,···,pN],其中,pj表示第j个目标模板的灰度特征向量;
步骤23,计算训练样本集中N个模板的边缘特征向量q,;
步骤24,将N个边缘特征向量列向量化,并级联组成一个含有空间位置信息的边缘特征集,即:QE=[q1,q2,···,qN],其中,qj表示第j个目标模板的边缘特征向量;
步骤25,将灰度特征集PG和边缘特征集QE进行纵向连接,使同一目标模板的灰度特征和边缘特征在同一列向量中表示,这样就可以得到所有目标模板的总特征集featset。
4.根据权利要求1所述的基于稀疏表示的红外人体目标跟踪方法,其特征在于,所述步骤3的具体过程如下:
步骤31,当字典D固定时,采用OMP算法求出特征集featset在该字典下的稀疏系数X;
步骤32,当稀疏系数固定时,采用SVD方法实现字典D的逐列更新;
步骤33,重复步骤31、32,直到迭代次数满足预先设定的条件,从而得到最终的过完备字典D。
5.根据权利要求1所述的基于稀疏表示的红外人体目标跟踪方法,其特征在于,步骤4所述对当前帧图像搜索候选目标,具体过程如下:
步骤41,对于当前帧图像,如果是图像序列的第一帧,则标识出目标区域,且将其中心记为O*。否则,将前一帧目标跟踪结果当做Rfr,记其中心为O*,并扩展出一个尺寸比Rfr区域大一倍的搜索区域Rse,用于搜索候选目标;
步骤42,用一个多尺度滑动窗口对搜索区域Rse进行扫描,从而完成了当前帧图像的h个候选目标的提取;
步骤43,将这h个候选目标组成一个集合F:F=[f1,f2,···,fh],其中,fg(1≤g≤h)表示第g个候选目标。
6.根据权利要求1所述的基于稀疏表示的红外人体目标跟踪方法,其特征在于,步骤4所述通过计算稀疏重建残差,得到待跟踪目标的精确位置,具体过程如下:
步骤44,将每个候选目标尺寸统一归一化为与目标模板同样大小的μ×μ;
步骤45,计算集合F中所有候选目标的灰度特征向量和边缘特征向量,并将各自的两种特征向量分别列向量化后进行纵向连接形成feag
步骤46,采用OMP算法,计算feag在过完备字典下的稀疏编码系数Xg
步骤47,计算每个候选目标fg的重建残差εg:εg=fg-DgXg
步骤48,计算出h个重构残差中的最小值:εm=min[ε12,···,εh],且εm所对应的候选目标就是当前帧图像的目标区域;
步骤49,对于图像序列接下来的每一帧图像都进行步骤41至步骤49的操作,直到最后一帧处理完成为止。
7.根据权利要求1所述的基于稀疏表示的红外人体目标跟踪方法,其特征在于,所述步骤5的具体过程如下:
步骤51,提取当前帧图像的目标跟踪结果;
步骤52,分别提取当前帧目标跟踪结果区域的两种特征向量,即灰度特征向量pcur和边缘特征向量qcur
步骤53,计算pcur与灰度特征集PG中每一列原子pj之间的Bhattacharyya系数ρ1,j,以及qcur与边缘特征集QE中每一列原子qj之间的Bhattacharyya系数ρ2,j
步骤54分别计算ρ1,j和ρ2,j的权重w1,j和w2,j
步骤55,计算两种特征融合后的Bhattacharyya系数:ρsum,j
步骤56,从N个联合特征的Bhattacharyya系数组成的相似性向量Sim中选出最大值ρsum,ma,将ρsum,ma与预先设定的阈值th进行比较,如果ρsum,ma<th,则字典不更新,否则,就用当前帧的目标跟踪结果来更新模板特征集;
步骤57,从Sim选出最小值ρsum,mi=min(ρsum,1,···,ρsum,N),用当前帧的目标跟踪结果的pcur和qcur分别替换第mi个目标模板的灰度特征向量pmi和边缘特征向量qmi
CN201710323547.9A 2017-05-10 2017-05-10 基于稀疏表示的红外人体目标跟踪方法 Pending CN106971176A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710323547.9A CN106971176A (zh) 2017-05-10 2017-05-10 基于稀疏表示的红外人体目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710323547.9A CN106971176A (zh) 2017-05-10 2017-05-10 基于稀疏表示的红外人体目标跟踪方法

Publications (1)

Publication Number Publication Date
CN106971176A true CN106971176A (zh) 2017-07-21

Family

ID=59331739

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710323547.9A Pending CN106971176A (zh) 2017-05-10 2017-05-10 基于稀疏表示的红外人体目标跟踪方法

Country Status (1)

Country Link
CN (1) CN106971176A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107437259A (zh) * 2017-08-08 2017-12-05 西安科技大学 一种矿井用单摄像头运动目标跟踪方法
CN108446273A (zh) * 2018-03-15 2018-08-24 哈工大机器人(合肥)国际创新研究院 基于狄式过程的卡尔曼滤波词向量学习方法
CN108734139A (zh) * 2018-05-24 2018-11-02 辽宁工程技术大学 基于特征融合及svd自适应模型更新的相关滤波跟踪方法
CN117392179A (zh) * 2023-12-11 2024-01-12 四川迪晟新达类脑智能技术有限公司 一种基于相关滤波器和边缘框的目标跟踪方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104899567A (zh) * 2015-06-05 2015-09-09 重庆大学 基于稀疏表示的小弱运动目标跟踪方法
US20160253783A1 (en) * 2013-11-01 2016-09-01 Eizo Corporation Image quality enhancing apparatus, image display apparatus, image quality enhancing method, and computer readable storage medium
CN105976395A (zh) * 2016-04-27 2016-09-28 宁波大学 一种基于稀疏表示的视频目标跟踪方法
CN106056627A (zh) * 2016-05-30 2016-10-26 河海大学 一种基于局部鉴别性稀疏表示的鲁棒目标跟踪方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160253783A1 (en) * 2013-11-01 2016-09-01 Eizo Corporation Image quality enhancing apparatus, image display apparatus, image quality enhancing method, and computer readable storage medium
CN104899567A (zh) * 2015-06-05 2015-09-09 重庆大学 基于稀疏表示的小弱运动目标跟踪方法
CN105976395A (zh) * 2016-04-27 2016-09-28 宁波大学 一种基于稀疏表示的视频目标跟踪方法
CN106056627A (zh) * 2016-05-30 2016-10-26 河海大学 一种基于局部鉴别性稀疏表示的鲁棒目标跟踪方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
HAOYANG WEI ET AL.: "Robust Infrared Small Target Detection via Temporal Low-Rank and Sparse Representation", 《 2016 3RD INTERNATIONAL CONFERENCE ON INFORMATION SCIENCE AND CONTROL ENGINEERING (ICISCE)》 *
刘煜,刘进,***,张茂军: "《稀疏表示基础理论与典型应用》", 31 October 2014, 国防科学技术大学出版社 *
王鑫: "复杂背景下红外目标检测与跟踪算法研究", 《万方中国学位论文全文数据库》 *
祝晓斌: "《面向智能视频监控的异常检测与摘要技术》", 31 July 2015, 知识产权出版社 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107437259A (zh) * 2017-08-08 2017-12-05 西安科技大学 一种矿井用单摄像头运动目标跟踪方法
CN108446273A (zh) * 2018-03-15 2018-08-24 哈工大机器人(合肥)国际创新研究院 基于狄式过程的卡尔曼滤波词向量学习方法
CN108446273B (zh) * 2018-03-15 2021-07-20 哈工大机器人(合肥)国际创新研究院 基于狄式过程的卡尔曼滤波词向量学习方法
CN108734139A (zh) * 2018-05-24 2018-11-02 辽宁工程技术大学 基于特征融合及svd自适应模型更新的相关滤波跟踪方法
CN108734139B (zh) * 2018-05-24 2021-12-14 辽宁工程技术大学 基于特征融合及svd自适应模型更新的相关滤波跟踪方法
CN117392179A (zh) * 2023-12-11 2024-01-12 四川迪晟新达类脑智能技术有限公司 一种基于相关滤波器和边缘框的目标跟踪方法
CN117392179B (zh) * 2023-12-11 2024-02-27 四川迪晟新达类脑智能技术有限公司 一种基于相关滤波器和边缘框的目标跟踪方法

Similar Documents

Publication Publication Date Title
CN107423730B (zh) 一种基于语义折叠的人体步态行为主动检测识别***和方法
CN104063702B (zh) 一种基于遮挡修复和局部相似性匹配的三维步态识别方法
CN107481279B (zh) 一种单目视频深度图计算方法
CN109299643B (zh) 一种基于大姿态对准的人脸识别方法及***
CN107633226B (zh) 一种人体动作跟踪特征处理方法
CN103136516B (zh) 可见光与近红外信息融合的人脸识别方法及***
CN106570460B (zh) 一种基于深度值的单幅图像人脸姿态估计方法
CN106971176A (zh) 基于稀疏表示的红外人体目标跟踪方法
CN108681725A (zh) 一种加权稀疏表示人脸识别方法
CN108875586B (zh) 一种基于深度图像与骨骼数据多特征融合的功能性肢体康复训练检测方法
CN104077742B (zh) 基于Gabor特征的人脸素描合成方法及***
Gouidis et al. Accurate hand keypoint localization on mobile devices
Song et al. Multi-scale feature based land cover change detection in mountainous terrain using multi-temporal and multi-sensor remote sensing images
CN114067128A (zh) 一种基于语义特征的slam回环检测方法
CN112329662B (zh) 基于无监督学习的多视角显著性估计方法
Dutta et al. Weighted singular value thresholding and its application to background estimation
CN117710888A (zh) 一种遮挡行人再识别方法及***
CN110334677A (zh) 一种基于人体骨骼关键点检测和非均等分区的行人重识别方法
CN114973305B (zh) 一种针对拥挤人群的精确人体解析方法
CN112396089B (zh) 基于lfgc网络和压缩激励模块的图像匹配方法
Weihu et al. Multi-view gait recognition method based on dynamic and static feature fusion
Marras et al. Deep globally constrained MRFs for human pose estimation
Mahjoub et al. Naive Bayesian fusion for action recognition from Kinect
CN112580679A (zh) 红外目标跟踪方法、计算机设备及计算机可读存储介质
Ding et al. Weakly structured information aggregation for upper-body posture assessment using ConvNets

Legal Events

Date Code Title Description
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20170721