CN102663411A - 一种目标人体识别方法 - Google Patents

一种目标人体识别方法 Download PDF

Info

Publication number
CN102663411A
CN102663411A CN2012100506226A CN201210050622A CN102663411A CN 102663411 A CN102663411 A CN 102663411A CN 2012100506226 A CN2012100506226 A CN 2012100506226A CN 201210050622 A CN201210050622 A CN 201210050622A CN 102663411 A CN102663411 A CN 102663411A
Authority
CN
China
Prior art keywords
yardstick
field picture
human object
image sequences
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012100506226A
Other languages
English (en)
Other versions
CN102663411B (zh
Inventor
郭立君
张�荣
胡一嗔
肖波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ningbo University
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN201210050622.6A priority Critical patent/CN102663411B/zh
Publication of CN102663411A publication Critical patent/CN102663411A/zh
Application granted granted Critical
Publication of CN102663411B publication Critical patent/CN102663411B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种目标人体识别方法,首先通过对两个包含同一人体对象的图像序列进行分割处理,获得每帧图像中的人体对象区域,然后根据两个图像序列中的每帧图像中的人体对象区域,分别计算两个图像序列的空间颜色特征相似度和局部特征相似度,再利用颜色特征相似度和局部特征相似度训练SVM分类器,最后利用SVM分类器对待识别的两个图像序列进行目标人体识别,由于本发明方法充分利用空间颜色特征和局部特征来识别目标人体,因此能够有效提高识别率,且本发明方法的计算复杂度较低。

Description

一种目标人体识别方法
技术领域
本发明涉及一种目标对象识别技术,尤其是涉及一种目标人体识别方法。
背景技术
随着人们安全意识的增强以及安全形势的需要,越来越多的公共场所安装了视频监控***。在这些视频监控***中都有这样一类功能需求,即判别当前视频中出现的人是否与其它视频中我们感兴趣的人为同一个人。该功能需求为非重叠的多摄像***中的人体重现(Person Re-identification)问题,或称之为目标人体识别。与人体检测、跟踪等视频监控中常见的任务相比,目标人体识别(人体重现)属于事件检测的内容,属于智能视频监控中更高层的目标,其实现的难度更大。
在大多数视频监控***中,由于视频质量方面的问题,包括分辨率低、光线变化大以及姿态、着装的影响,使得目标人体识别无法应用基于生物特征的识别方法来完成。因此,研究人员提出了一种基于表观特征(如颜色、纹理统计特征以及局部特征)的目标人体识别方法。这种基于表观特征的目标人体识别方法来自以下考虑:首先,在众多视频或图像序列中,包括来自公共场所的监控视频,无法获得人脸的正面图像,或者图像的质量无法为人脸识别、步态识别等等提供可靠的保障,该环境下也无法有效地进行指纹、虹膜识别;其次,应用是在已知目标对象的前提下,希望通过视频分析与识别,为人们查找该目标对象在相近的一段时间内(着装不发生改变)出现在其他场所提供线索;最后,在非重叠的多摄像***中,在***覆盖的区域内跨越多个摄像机间的人体跟踪也需要同样的人体识别技术。
在基于表观特征的目标人体识别方法中被使用较多的一类特征是全局表观特征,如各种颜色直方图、基于特定滤波器的各种纹理特征等。为消除光线的影响,O.Javed等人(O.Javed,et al.Appearance modeling for tracking in multiple non-overlapping cameras.InIEEE Conference on Computer Vision and Pattern Recognition,2005,多重非重叠摄像中的基于表观模型的追踪,计算机视觉与模式识别国际会议,2005)提出了一种亮度转换函数方法消除不同摄像机间由于光线变化带来的差异,但需要通过校正的目标对象进行学习。由于缺乏空间结构信息,因此颜色/纹理特征对姿态变化以及部分遮挡等问题缺乏鲁棒性。随着各种局部不变特征的提出,能编码空间结构信息以及对部分遮挡具有鲁棒性的局部不变特征被应用在了目标人体识别中。O.Hamdoun等人(O Hamdoun,et al.Personre-identification in multi-camera system by signature based on interest point descriptorscollected on short video sequences.ICDSC-08,基于视频序列中兴趣点特征的多摄像***中的人体识别,国际科学史会议,2008)提出了一种改进SURF(Speeded-Up RobustFeature)的局部描述子特征,并通过建立局部描述子的K维树进行特征匹配。L.F.Teixeira等人(L.F.Teixeira,et al.Video object matching across multiple independent views usinglocal descriptors and adaptive learning.Pattern Recognition Letters,2009,基于局部描述和自适应学习的多重独立视角下的视频对象的匹配,模式识别杂志,2009)通过层次K均值聚类方法建立基于局部描述子的视觉词汇树,并对比了基于局部描述子的视觉词汇法(bag-of-features)与基于主要颜色直方图方法的识别效果。O.Hamdoun等人与L.F.Teixeira等人提出的方法都通过预先建立并存储大量要查询的人体对象,进而完成快速人体对象识别,但只依靠局部特征的方法,并没有明显提高目标人体识别效果。D.Gray等人(D.Gray,H.Tao.Viewpoint Invariant Pedestrian Recognition with an Ensemble ofLocalized Features,.ECCV 2008,基于局部特征整合的视角不变的人体识别,欧洲计算机视觉国际会议,2008)通过在图像局部区域上提取一组底层特征(包括颜色与纹理特征),再利用Adaboost从中选择出最具视觉不变性的描述,结果显示颜色信息在最终的视觉不变性的描述中占有最大的比重。局部特征一般都建立在兴趣点检测基础上,而在较低分辨率的图像或视频中只能提取很少的兴趣点,在粗糙的分割情况下会影响匹配的可靠性。上海交通大学的刘坤、杨杰等人(Kun Liu,Jie Yang.Recognition ofpeoplereoccurrences using bag-of-features representation and support vector machine,CCPR2009,使用特征词袋法和支持向量机的人体识别,中国模式识别会议,2009)将上述两种特征合并构成更高维的特征,在一定程度上改进了识别效果。中科院自动化所的蔡莹皓、黄凯奇等人(Yinghao Cai,Kaiqi Huang and Tieniu Tan.Human Appearance Matching AcrossMultiple Non-overlapping Cameras.ICPR2008,多重非重叠摄像条件下的人体表观特征的匹配,国际模式识别会议,2008)则使用canny算子提取人体边缘,结合基于边缘上采样点周围的局部特征与几何约束信息建立对象描述,该方法在人体轮廓清晰,背景较简单的图像序列上能够取得一定的识别效果。
发明内容
本发明所要解决的技术问题是提供一种计算复杂度低,且能够有效提高识别率的基于空间颜色特征和局部特征的目标人体识别方法。
本发明解决上述技术问题所采用的技术方案为:一种目标人体识别方法,其特征在于包括以下步骤:
①从非重叠的多摄像***中采集两个包含人体对象的图像序列,每个图像序列包括多帧图像,两个图像序列中的图像的帧数相同;
②对两个图像序列中的每帧图像进行分割处理,得到每帧图像中的人体对象区域;
③根据两个图像序列中的每帧图像中的人体对象区域,计算两个图像序列的空间颜色特征相似度,具体过程为:
③-1、计算两个图像序列中的每帧图像中的人体对象区域的R、G、B三个颜色通道的颜色均值,将每帧图像中的人体对象区域的R颜色通道的颜色均值记为mean(R),将每帧图像中的人体对象区域的G颜色通道的颜色均值记为mean(G),将每帧图像中的人体对象区域的B颜色通道的颜色均值记为mean(B);
③-2、对两个图像序列中的每帧图像中的人体对象区域进行水平划分,平均划分为N个子区域,然后计算每帧图像中的人体对象区域的各个子区域的R、G、B三个颜色通道的颜色均值,将每帧图像中的人体对象区域的各个子区域的R颜色通道的颜色均值记为R,将每帧图像中的人体对象区域的各个子区域的G颜色通道的颜色均值记为G,将每帧图像中的人体对象区域的各个子区域的B颜色通道的颜色均值记为B;
③-3、采用基于各个颜色通道的灰度归一化方法对两个图像序列中的每帧图像中的人体对象区域的各个子区域的R、G、B三个颜色通道的颜色均值进行归一化处理,得到R、G和B对应的归一化处理后的颜色均值,分别记为R′、G′和B′,
Figure BDA0000139327030000031
Figure BDA0000139327030000032
Figure BDA0000139327030000033
然后将由每帧图像中的人体对象区域的各个子区域的R、G、B三个颜色通道的颜色均值进行归一化处理后的颜色均值R′、G′、B′形成的一个长度为3×N的向量作为该帧图像的空间颜色特征;
③-4、根据两个图像序列中的任意两帧图像的空间颜色特征的欧氏距离,构造一个大小为2m×2m的关系矩阵W,将关系矩阵W中第i行第j列的元素记为Wij
Figure BDA0000139327030000034
其中,m表示每个图像序列中的图像的帧数,1≤i≤2m,1≤j≤2m,exp()表示以自然对数e为底的指数函数,d(xi,xj)表示两个图像序列中的任意两帧图像的空间颜色特征的欧氏距离,
Figure BDA0000139327030000041
xik表示空间颜色特征xi的第k个分量,xjk表示空间颜色特征xj的第k个分量, σ = 1 ( 2 m ) 2 Σ i = 1 2 m Σ j = 1 2 m d ( x i , x j ) ;
③-5、对关系矩阵W进行归一化处理,得到规范化谱矩阵P,将规范化谱矩阵P中第i行第j列的元素记为Pij,Pij=Wij/Dii,其中,Dii=∑jWij;然后采用谱分解方法对规范化谱矩阵P进行谱分解,得到规范化谱矩阵P的2m个维数为2m的特征向量及对应的特征值;
③-6、对规范化谱矩阵P的2m个特征值进行排序,选择值次大的两个特征值对应的特征向量构造两个图像序列中的每帧图像在二维空间的可视化描述,具体过程为:a、将值次大的两个特征值对应的特征向量分别记为
Figure BDA0000139327030000043
Figure BDA0000139327030000044
b、将由
Figure BDA0000139327030000046
中对应位置的前m个分量构成的m个坐标位置作为第一个图像序列中的m帧图像在二维空间的可视化描述,将由
Figure BDA0000139327030000047
中对应位置的后m个分量构成的m个坐标位置作为第二个图像序列中的m帧图像在二维空间的可视化描述;
③-7、根据两个图像序列中的每帧图像在二维空间的可视化描述,计算两个图像序列的空间颜色特征相似度,记为J,
Figure BDA0000139327030000049
其中,t={1,2},min()为取最小值函数,X表示二维空间上的一个坐标位置,St表示第t个图像序列中的m帧图像在二维空间上的坐标位置的集合,“||||”为欧氏距离计算符号,Mt表示St中的所有坐标位置的均值,
Figure BDA00001393270300000410
Nt表示St中所包含的坐标位置的个数;
④根据两个图像序列中的每帧图像中的人体对象区域,计算两个图像序列的局部特征相似度,具体过程为:
④-1、采用尺度不变特征转换方法提取两个图像序列中的每帧图像中的人体对象区域的局部特征集合,将第一个图像序列中的每帧图像中的人体对象区域的局部特征集合构成的集合记为X,X={x1,x2,...,xu,...,xm},将第二个图像序列中的每帧图像中的人体对象区域的局部特征集合构成的集合记为Y,Y={y1,y2,...,yv,...,ym},其中,x1表示第一个图像序列中的第1帧图像中的人体对象区域的局部特征集合,x2表示第一个图像序列中的第2帧图像中的人体对象区域的局部特征集合,xu表示第一个图像序列中的第u帧图像中的人体对象区域的局部特征集合,xm表示第一个图像序列中的第m帧图像中的人体对象区域的局部特征集合,y1表示第二个图像序列中的第1帧图像中的人体对象区域的局部特征集合,y2表示第二个图像序列中的第2帧图像中的人体对象区域的局部特征集合,yv表示第二个图像序列中的第v帧图像中的人体对象区域的局部特征集合,ym表示第二个图像序列中的第m帧图像中的人体对象区域的局部特征集合,1≤u≤m,1≤v≤m;
④-2、将两个图像序列中各自所有图像中的人体对象区域的局部特征集合各自归并为一个新的局部特征集合,分别记为
Figure BDA0000139327030000051
Figure BDA0000139327030000052
X ~ = { x 1 ∪ x 2 ∪ . . . ∪ x u ∪ . . . ∪ x m } , Y ~ = { y 1 ∪ y 2 ∪ . . . ∪ y v ∪ . . . ∪ y m } ;
④-3、对
Figure BDA0000139327030000055
Figure BDA0000139327030000056
分别进行L+1级尺度直方图生成,得到
Figure BDA0000139327030000057
对应的L+1级尺度下的尺度直方图集合和
Figure BDA0000139327030000058
对应的L+1级尺度下的尺度直方图集合,分别记为
Figure BDA00001393270300000510
ψ ( X ~ ) = [ H 0 ( X ~ ) , H 1 ( X ~ ) , . . . , H l ( X ~ ) , . . . , H L ( X ~ ) ] , ψ ( Y ~ ) = [ H 0 ( Y ~ ) , H 1 ( Y ~ ) , . . . , H l ( Y ~ ) , . . . , H L ( Y ~ ) ] , 其中,0≤l≤L,表示
Figure BDA00001393270300000514
在第0级尺度下的尺度直方图,
Figure BDA00001393270300000515
表示
Figure BDA00001393270300000516
在第1级尺度下的尺度直方图,
Figure BDA00001393270300000517
表示在第l级尺度下的尺度直方图,表示
Figure BDA00001393270300000520
在第L级尺度下的尺度直方图,
Figure BDA00001393270300000521
表示在第0级尺度下的尺度直方图,
Figure BDA00001393270300000523
表示
Figure BDA00001393270300000524
在第1级尺度下的尺度直方图,
Figure BDA00001393270300000525
表示在第l级尺度下的尺度直方图,表示
Figure BDA00001393270300000528
在第L级尺度下的尺度直方图,
Figure BDA00001393270300000529
Figure BDA00001393270300000530
的柱体宽度均为2l
Figure BDA00001393270300000531
Figure BDA00001393270300000532
的柱体的个数均为rl
Figure BDA00001393270300000533
d表示
Figure BDA00001393270300000535
中的各个局部特征集合中的每个局部特征的维度,
Figure BDA0000139327030000061
中的各个局部特征集合中的每个局部特征的维度一致,D表示包含
Figure BDA0000139327030000062
Figure BDA0000139327030000063
中的所有局部特征集合的球体的直径;
④-4、对
Figure BDA0000139327030000064
Figure BDA0000139327030000065
在各级相同尺度下的尺度直方图进行相似度匹配,得到
Figure BDA0000139327030000066
Figure BDA0000139327030000067
在各级相同尺度下的尺度直方图的相似度,对于
Figure BDA0000139327030000068
Figure BDA0000139327030000069
在第l级尺度下的尺度直方图的相似度,将其记为Il
Figure BDA00001393270300000610
其中,min()为取最小值函数,
Figure BDA00001393270300000611
表示的第s个柱体的数值,
Figure BDA00001393270300000613
表示
Figure BDA00001393270300000614
的第s个柱体的数值;
④-5、分别计算
Figure BDA00001393270300000615
Figure BDA00001393270300000616
在前后两级尺度下的尺度直方图的相似度的差值,然后根据
Figure BDA00001393270300000617
Figure BDA00001393270300000618
在前后两级尺度下的尺度直方图的相似度的差值、计算两个图像序列的局部特征相似度,记为KΔ
Figure BDA00001393270300000621
其中,ωl为权值,ωl=2-l,Nl表示
Figure BDA00001393270300000622
Figure BDA00001393270300000623
在第l级尺度下的尺度直方图的相似度Il
Figure BDA00001393270300000624
Figure BDA00001393270300000625
在第l-1级尺度下的尺度直方图的相似度Il-1的差值, N l = ( H l ( X ~ ) , H l ( Y ~ ) ) - ( H l - 1 ( X ~ ) , H l - 1 ( Y ~ ) ) ;
⑤根据两个图像序列的空间颜色特征相似度和局部特征相似度训练SVM分类器,再利用SVM分类器对待识别的两个图像序列进行目标人体识别,具体过程为:
⑤-1、选取一些由两个包含同一人体对象的图像序列组成的图像序列对,依照步骤②至步骤④相同的操作,计算每个图像序列对的两个图像序列的空间颜色特征相似度J和局部特征相似度KΔ,并将每个图像序列对对应的J和KΔ的组合(J,KΔ)视为二维平面上的一个坐标点,然后将每个图像序列对对应的(J,KΔ)作为正样本;
⑤-2、选取一些由两个包含不同人体对象的图像序列组成的图像序列对,依照步骤②至步骤④相同的操作,计算每个图像序列对的两个图像序列的空间颜色特征相似度J和局部特征相似度KΔ,并将每个图像序列对对应的J和KΔ的组合(J,KΔ)视为二维平面上的一个坐标点,然后将每个图像序列对对应的(J,KΔ)作为负样本;
⑤-3、利用正样本和负样本训练二维平面上的SVM分类器,训练得到的SVM分类器为二维平面上的一条分界线;
⑤-4、依照步骤②至步骤④相同的操作,计算待识别的两个图像序列的空间颜色特征相似度和局部特征相似度,并将两者的组合视为二维平面上的坐标点(x*,y*),再利用训练好的SVM分类器对待识别的两个图像序列进行目标人体识别,如果(x*,y*)落在分界线正样本所在一侧,则判定待识别的两个图像序列中的人体对象为同一个人,如果(x*,y*)落在分界线负样本所在一侧,则判定待识别的两个图像序列中的人体对象不为同一个人。
所述的步骤②中分割处理采用GrabCut方法。
所述的步骤③-2中N>1。
与现有技术相比,本发明的优点在于首先通过对两个包含同一人体对象的图像序列进行分割处理,获得每帧图像中的人体对象区域,然后根据两个图像序列中的每帧图像中的人体对象区域,分别计算两个图像序列的空间颜色特征相似度和局部特征相似度,再利用颜色特征相似度和局部特征相似度训练SVM分类器,最后利用SVM分类器对待识别的两个图像序列进行目标人体识别,由于本发明方法充分利用空间颜色特征和局部特征来识别目标人体,因此能够有效提高识别率,且本发明方法的计算复杂度较低。
附图说明
图1为本发明方法的流程框图;
图2a为
Figure BDA0000139327030000071
在第l级尺度下的尺度直方图
Figure BDA0000139327030000072
图2b为在第l级尺度下的尺度直方图
Figure BDA0000139327030000074
图2c为图2a所示的尺度直方图与图2b所示的尺度直方图相交得到的尺度直方图;
图3a为两个人体(着装)差异较大的图像序列及其经过本发明方法处理后得到的空间颜色特征相似度;
图3b为两个着装部分相似的人体图像序列及其经过本发明方法处理后得到的空间颜色特征相似度;
图3c为同一人体对象在不同环境下通过不同摄像机获取的两个图像序列及其经过本发明方法处理后得到的空间颜色特征相似度;
图4a为待识别的目标图像序列;
图4b为候选的与目标图像序列进行匹配的图像序列一;
图4c为候选的与目标图像序列进行匹配的图像序列二;
图4d为候选的与目标图像序列进行匹配的图像序列三。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种目标人体识别方法,其流程框图如图1所示,其包括以下步骤:
①从非重叠的多摄像***中采集两个包含人体对象的图像序列,每个图像序列包括多帧图像,两个图像序列中的图像的帧数相同。
②采用现有的GrabCut方法(其是一种交互式图像分割方法)对两个图像序列中的每帧图像进行分割处理,得到每帧图像中的人体对象区域。
③根据两个图像序列中的每帧图像中的人体对象区域,计算两个图像序列的空间颜色特征相似度,具体过程为:
③-1、计算两个图像序列中的每帧图像中的人体对象区域的R、G、B三个颜色通道的颜色均值,将每帧图像中的人体对象区域的R颜色通道的颜色均值记为mean(R),将每帧图像中的人体对象区域的G颜色通道的颜色均值记为mean(G),将每帧图像中的人体对象区域的B颜色通道的颜色均值记为mean(B)。
③-2、人体着装的颜色特征在目标人体识别中是主要依据的表观特征,考虑到目标人体识别中,人体对应关系的建立也起着至关重要的作用,因此本发明采用了一种隐式的人体对应关系,即将空间信息融入表观特征中,空间颜色特征就是这样一种表观特征。因此,本发明对两个图像序列中的每帧图像中的人体对象区域进行水平划分,平均划分为N个子区域,然后计算每帧图像中的人体对象区域的各个子区域的R、G、B三个颜色通道的颜色均值,将每帧图像中的人体对象区域的各个子区域的R颜色通道的颜色均值记为R,将每帧图像中的人体对象区域的各个子区域的G颜色通道的颜色均值记为G,将每帧图像中的人体对象区域的各个子区域的B颜色通道的颜色均值记为B。
在此具体实施例中,N>1,在实际处理过程中,一般N值不宜取太小,这是因为N值太小时会导致最终的识别结果不准确,N值也不宜取太大,这是因为N值太大时,会增加计算复杂度。
③-3、为尽量消除由于服装反射、光线亮度、摄像机设备以及环境等因素给空间颜色特征带来的影响,有必要对每帧图像中的人体对象区域的各个子区域的三个颜色通道的颜色值做颜色归一化处理。因此,本发明采用基于各个颜色通道的灰度归一化方法对两个图像序列中的每帧图像中的人体对象区域的各个子区域的R、G、B三个颜色通道的颜色均值进行归一化处理,得到R、G和B对应的归一化处理后的颜色均值,分别记为R′、G′和B′, R ′ = R mean ( R ) , G ′ = G mean ( G ) , B ′ = B mean ( B ) , 然后将由每帧图像中的人体对象区域的各个子区域的R、G、B三个颜色通道的颜色均值进行归一化处理后的颜色均值R′、G′、B′形成的一个长度为3×N的向量作为该帧图像的空间颜色特征即作为该帧图像的表观特征。空间颜色特征由于引入了空间信息,在一定程度上,解决了传统的颜色直方图中无法准确判别颜色的空间分布的困难,同时使得在基于表观特征计算两幅图像中人体对象的距离时,通过特征匹配隐式地建立了人体对应关系,能更准确地反映人体对象的相似性。
在此,采用基于各个颜色通道的灰,度归一化方法对两个图像序列中的每帧图像中的人体对象区域的各个子区域的R、G、B三个颜色通道的颜色均值进行归一化处理,可使得提取得到的颜色空间特征只对光照的色度具有不变性,不具有对光照强度的不变性,与基于色度空间的归一化方法以及基于直方图均衡化方法相比,仍然能够取得最好的人体识别率。
③-4、根据两个图像序列中的任意两帧图像的空间颜色特征的欧氏距离,构造一个大小为2m×2m的关系矩阵W,该关系矩阵W为一个基于空间颜色特征的相似性矩阵,将关系矩阵W中第i行第j列的元素记为Wij
Figure BDA0000139327030000094
如果空间颜色特征xi对应的图像和空间颜色特征xj对应的图像来自同一个图像序列,则Wij的值较大,反之,Wij的值较小,其中,m表示每个图像序列中的图像的帧数,1≤i≤2m,1≤j≤2m,exp()表示以自然对数e为底的指数函数,d(xi,xj)表示两个图像序列中的任意两帧图像的空间颜色特征的欧氏距离,
Figure BDA0000139327030000095
xik表示空间颜色特征xi的第k个分量,xjk表示空间颜色特征xj的第k个分量,
Figure BDA0000139327030000096
③-5、对关系矩阵W进行归一化处理,得到规范化谱矩阵P,将规范化谱矩阵P中第i行第j列的元素记为Pij,Pij=Wij/Dii,其中,Dii=∑jWij;然后采用谱分解方法对规范化谱矩阵P进行谱分解,得到规范化谱矩阵P的2m个维数为2m的特征向量及对应的特征值。
③-6、对规范化谱矩阵P的2m个特征值进行排序,选择值次大的两个特征值对应的特征向量构造两个图像序列中的每帧图像在二维空间的可视化描述,具体过程为:a、将值次大的两个特征值对应的特征向量分别记为
Figure BDA0000139327030000102
b、将由
Figure BDA0000139327030000103
Figure BDA0000139327030000104
中对应位置的前m个分量构成的m个坐标位置作为第一个图像序列中的m帧图像在二维空间的可视化描述,将由
Figure BDA0000139327030000106
中对应位置的后m个分量构成的m个坐标位置作为第二个图像序列中的m帧图像在二维空间的可视化描述。
③-7、获得两个图像序列中的各帧图像在二维空间的可视化描述后,可以通过多种方式判别两个图像序列的相似性,但由于判别两个图像序列的相似性的目的不仅是能够区分差异较大的人体图像序列,而且更需要能够判别两个相似的图像序列中所包含的两个人体对象是否为同一个人。通过分析多种情况下两个图像序列在二维空间的分布情况,得出:相应的两个图像序列中的图像投影到内嵌空间,其中总有一个图像序列中的图像分布比较发散,而另一个图像序列中的图像随着两个图像序列中图像的相似程度不同而表现为不同的分布,即如果两个图像序列中的图像差异越大,则后一个图像序列中的图像分布越集中。因此,本发明根据两个图像序列中的每帧图像在二维空间的可视化描述,计算两个图像序列的空间颜色特征相似度,记为J,
Figure BDA0000139327030000107
J值越大,则两个图像序列中的人体对象越相似,其中,t={1,2},min()为取最小值函数,X表示二维空间上的一个坐标位置,St表示第t个图像序列中的m帧图像在二维空间上的坐标位置的集合,“||||”为欧氏距离计算符号,Mt表示St中的所有坐标位置的均值,即为点集St的中心,
Figure BDA0000139327030000108
Nt表示St中所包含的坐标位置的个数。
④根据两个图像序列中的每帧图像中的人体对象区域,计算两个图像序列的局部特征相似度,具体过程为:
④-1、采用尺度不变特征转换(SIFT,Scale-invariant feature transform)方法提取两个图像序列中的每帧图像中的人体对象区域的局部特征集合,将第一个图像序列中的每帧图像中的人体对象区域的局部特征集合构成的集合记为X,X={x1,x2,...,xu,...,xm},将第二个图像序列中的每帧图像中的人体对象区域的局部特征集合构成的集合记为Y,Y={y1,y2,...,yv,...,ym},其中,x1表示第一个图像序列中的第1帧图像中的人体对象区域的局部特征集合,x2表示第一个图像序列中的第2帧图像中的人体对象区域的局部特征集合,xu表示第一个图像序列中的第u帧图像中的人体对象区域的局部特征集合,xm表示第一个图像序列中的第m帧图像中的人体对象区域的局部特征集合,y1表示第二个图像序列中的第1帧图像中的人体对象区域的局部特征集合,y2表示第二个图像序列中的第2帧图像中的人体对象区域的局部特征集合,yv表示第二个图像序列中的第v帧图像中的人体对象区域的局部特征集合,ym表示第二个图像序列中的第m帧图像中的人体对象区域的局部特征集合,1≤u≤m,1≤v≤m。
④-2、将两个图像序列中各自所有图像中的人体对象区域的局部特征集合各自归并为一个新的局部特征集合,分别记为
Figure BDA0000139327030000111
Figure BDA0000139327030000112
X ~ = { x 1 ∪ x 2 ∪ . . . ∪ x u ∪ . . . ∪ x m } , Y ~ = { y 1 ∪ y 2 ∪ . . . ∪ y v ∪ . . . ∪ y m } .
④-3、对
Figure BDA0000139327030000115
分别进行L+1级尺度直方图生成,得到
Figure BDA0000139327030000117
对应的L+1级尺度下的尺度直方图集合和
Figure BDA0000139327030000118
对应的L+1级尺度下的尺度直方图集合,分别记为
Figure BDA0000139327030000119
Figure BDA00001393270300001110
ψ ( X ~ ) = [ H 0 ( X ~ ) , H 1 ( X ~ ) , . . . , H l ( X ~ ) , . . . , H L ( X ~ ) ] , ψ ( Y ~ ) = [ H 0 ( Y ~ ) , H 1 ( Y ~ ) , . . . , H l ( Y ~ ) , . . . , H L ( Y ~ ) ] , 其中,0≤l≤L,
Figure BDA00001393270300001113
表示在第0级尺度下的尺度直方图,
Figure BDA00001393270300001115
表示
Figure BDA00001393270300001116
在第1级尺度下的尺度直方图,
Figure BDA00001393270300001117
表示
Figure BDA00001393270300001118
在第l级尺度下的尺度直方图,
Figure BDA00001393270300001119
表示
Figure BDA00001393270300001120
在第L级尺度下的尺度直方图,
Figure BDA00001393270300001121
表示
Figure BDA00001393270300001122
在第0级尺度下的尺度直方图,
Figure BDA00001393270300001123
表示
Figure BDA00001393270300001124
在第1级尺度下的尺度直方图,表示在第l级尺度下的尺度直方图,表示在第L级尺度下的尺度直方图,
Figure BDA00001393270300001129
Figure BDA00001393270300001130
的柱体宽度均为2l
Figure BDA00001393270300001131
Figure BDA00001393270300001132
的柱体的个数均为rl
Figure BDA00001393270300001133
d表示
Figure BDA00001393270300001134
中的各个局部特征集合中的每个局部特征的维度,中的各个局部特征集合中的每个局部特征的维度一致,但两个局部特征集合中的局部特征的个数可以不一样,D表示包含
Figure BDA0000139327030000121
Figure BDA0000139327030000122
中的所有局部特征集合的球体的直径(即
Figure BDA0000139327030000124
中的所有局部特征集合在d维空间中最远的两个局部特征之间的距离)。
④-4、对
Figure BDA0000139327030000125
Figure BDA0000139327030000126
在各级相同尺度下的尺度直方图进行相似度匹配,得到
Figure BDA0000139327030000127
Figure BDA0000139327030000128
在各级相同尺度下的尺度直方图的相似度,对于
Figure BDA0000139327030000129
Figure BDA00001393270300001210
在第l级尺度下的尺度直方图的相似度,将其记为Il
Figure BDA00001393270300001211
其中,min()为取最小值函数,表示
Figure BDA00001393270300001213
的第s个柱体的数值,
Figure BDA00001393270300001214
表示
Figure BDA00001393270300001215
的第s个柱体的数值。图2a给出了
Figure BDA00001393270300001216
在第l级尺度下的尺度直方图图2b给出了
Figure BDA00001393270300001218
在第l级尺度下的尺度直方图
Figure BDA00001393270300001219
图2c给出了图2a所示的尺度直方图与图2b所示的尺度直方图相交得到的尺度直方图,通过图2c所示的尺度直方图可得到
Figure BDA00001393270300001220
Figure BDA00001393270300001221
在第l级尺度下的尺度直方图的相似度Il
④-5、分别计算
Figure BDA00001393270300001222
在前后两级尺度下的尺度直方图的相似度的差值,然后根据
Figure BDA00001393270300001225
在前后两级尺度下的尺度直方图的相似度的差值、
Figure BDA00001393270300001227
计算两个图像序列的局部特征相似度,记为KΔ其中,ωl为权值,ωl=2-l,Nl表示
Figure BDA00001393270300001229
Figure BDA00001393270300001230
在第l级尺度下的尺度直方图的相似度Il
Figure BDA00001393270300001232
在第l-1级尺度下的尺度直方图的相似度Il-1的差值, N l = ( H l ( X ~ ) , H l ( Y ~ ) ) - ( H l - 1 ( X ~ ) , H l - 1 ( Y ~ ) ) , 在此计算两个图像序列的局部特征相似度KΔ的时间复杂度为O(d×m′×logD),m′为图像对应的局部特征集合中的局部特征的个数。
在此,由于在新一级尺度下得到的匹配可能也在前一级尺度下已经得到过匹配,因此在计算新一级尺度下的有用的匹配时要相应减去上一级尺度下的匹配,否则上一级尺度下得到的匹配会被重复计算。
在此,取ωl=2-l,这样就能使得在小尺度下得到的匹配值权重较大,在大尺度下得到的匹配值权重较小。这是因为在小尺度下得到的匹配较精确,而随着尺度直方图的柱体以两倍增长所得到的新匹配精确度下降,所以权值采取的1/2倍的下降速度正好符合柱体宽度2倍的增长。
⑤根据两个图像序列的空间颜色特征相似度和局部特征相似度训练SVM分类器,再利用SVM分类器对待识别的两个图像序列进行目标人体识别,具体过程为:
⑤-1、选取一些由两个包含同一人体对象的图像序列组成的图像序列对,依照步骤②至步骤④相同的操作,计算每个图像序列对的两个图像序列的空间颜色特征相似度J和局部特征相似度KΔ,并将每个图像序列对对应的J和KΔ的组合(J,KΔ)视为二维平面上的一个坐标点,然后将每个图像序列对对应的(J,KΔ)作为正样本;
⑤-2、选取一些由两个包含不同人体对象的图像序列组成的图像序列对,依照步骤②至步骤④相同的操作,计算每个图像序列对的两个图像序列的空间颜色特征相似度J和局部特征相似度KΔ,并将每个图像序列对对应的J和KΔ的组合(J,KΔ)视为二维平面上的一个坐标点,然后将每个图像序列对对应的(J,KΔ)作为负样本;
⑤-3、利用正样本和负样本训练二维平面上的SVM分类器,即训练得到的SVM分类器为二维平面上的一条分界线。在此,选取图像序列对时对数可以根据分类器训练的需求任意选取多对。
⑤-4、依照步骤②至步骤④相同的操作,计算待识别的两个图像序列的空间颜色特征相似度和局部特征相似度,并将两者的组合视为二维平面上的坐标点(x*,y*),再利用训练好的SVM分类器对待识别的两个图像序列进行目标人体识别,如果(x*,y*)落在分界线正样本所在一侧,则判定待识别的两个图像序列中的人体对象为同一个人,如果(x*,y*)落在分界线负样本所在一侧,则判定待识别的两个图像序列中的人体对象不为同一个人。
以下为通过具体的实验来客观验证本发明方法的有效性和可行性。
实验环境:
实验中所用到的人体图像序列取自不同视频库,包括CAVIAR项目视频库以及自行建立的目标人体识别库。CAVIAR是关于动作识别的一个项目,提供了各种环境下的人体运动视频,包含较复杂的背景环境以及较大的光线变化。针对CAVIAR视频,实验中首先选择一个人在不同环境下的两个图像序列,这两个图像序列或者环境(背景与光线)差异较大,或者针对同一个人的不同姿态。这样的图像序列共提取10组(对应10个人,每组包含两个图像序列)。此外,提取了另外20个视频的人体图像序列(对应20个人,每人对应一个图像序列)。自行建立的目标人体识别测试库,针对同一个人体对象,利用两个不同的摄像机,在不同的两种环境中,获取对应的两个视频,从中提取包含完整人体的两个图像序列,形成一组。视频库中共包含有20个人的图像序列对,此外,还包含20个随机拍摄的人体图像序列。最终形成的目标人体识别库共包含100个图像序列,包含70个人体目标(有30个人体各自对应两个图像序列)。
在对图像中的人体对象区域进行水平划分时,实验中将人体对象区域水平平均划分为10个区域,分别提取每个子区域的RGB三个颜色通道的颜色值,形成一个30维的特征向量来描述该图像。
局部特征的提取是针对一个图像序列而言的,即分别提取图像序列中每一幅图像的SIFT局部特征,将这些局部特征合在一起作为该图像序列的局部特征。在此基础上,计算两个图像序列之间的相似性。这相当于将同一个人的一个图像序列合成一幅图像,然后再确定两幅图像的相似性。图像序列的局部特征匹配的好处:假设有A、B两组人体图像序列待识别,如果有特征点在图像序列A中的几幅图像中出现或者只出现一次,那么只要它在图像序列B中也出现过,这个特征就能得到匹配。
实验结果与分析:
针对空间颜色特征相似度的获取,选择三对图像序列,分别代表两个人体(着装)差异较大的图像序列、两个着装部分相似的人体图像序列以及同一人体对象在不同环境下通过不同摄像机获取的两个图像序列。图3a给出了两个人体(着装)差异较大的图像序列及其经过本发明方法处理后得到的空间颜色特征相似度(J=0.000663),图3b给出了两个着装部分相似的人体图像序列及其经过本发明方法处理后得到的空间颜色特征相似度(J=0.008906),图3c给出了同一人体对象在不同环境下通过不同摄像机获取的两个图像序列及其经过本发明方法处理后得到的空间颜色特征相似度(J=0.580242)。分析图3a至图3c,可知如果两个图像序列中的人体的相似度越大,则计算得到J的值也越大。
针对局部特征相似度的获取,选择四个图像序列,每个图像序列包含有10幅图像,以第一个图像序列为目标图像序列,分别计算该目标图像序列与后三个图像序列的相似度值。图4a给出了待识别的目标图像序列),图4b给出了候选的与目标图像序列进行匹配的图像序列一及目标图像序列与该图像序列的局部特征相似度(KΔ=377.254),图4c给出了候选的与目标图像序列进行匹配的图像序列二及目标图像序列与该图像序列的局部特征相似度(KΔ=314.854),图4d给出了候选的与目标图像序列进行匹配的图像序列三及目标序列与该图像序列的局部特征相似度(KΔ=282.914)。分析图4a至图4d,可知如果两个图像序列中的人体相似度越大,则计算得到的KΔ值也就越大。
表1列出了现有的人体识别方法与本发明方法的目标人体识别率比较。第一种方法是D.Truong Cong提出的建立基于空间颜色的图模型,然后使用谱降维,并且在降维后的二维平面内使用SVM进行分类;第二种方法是在第一种方法的降维后的基础上,使用聚类准则进行分类;第三种方法是单纯使用局部特征匹配来进行人体识别,识别率较低;最后一种为本发明方法。分析表1中所列的数据,可知本发明方法的识别效果较单纯使用空间颜色特征或局部特征更准确。
表1四种识别方法的识别率比较
识别方法 识别率(%)
空间颜色特征使用特征值的谱降维 95
空间颜色谱降维聚类类准则 90
局部特征 78
本发明方法 96.87

Claims (3)

1.一种目标人体识别方法,其特征在于包括以下步骤:
①从非重叠的多摄像***中采集两个包含人体对象的图像序列,每个图像序列包括多帧图像,两个图像序列中的图像的帧数相同;
②对两个图像序列中的每帧图像进行分割处理,得到每帧图像中的人体对象区域;
③根据两个图像序列中的每帧图像中的人体对象区域,计算两个图像序列的空间颜色特征相似度,具体过程为:
③-1、计算两个图像序列中的每帧图像中的人体对象区域的R、G、B三个颜色通道的颜色均值,将每帧图像中的人体对象区域的R颜色通道的颜色均值记为mean(R),将每帧图像中的人体对象区域的G颜色通道的颜色均值记为mean(G),将每帧图像中的人体对象区域的B颜色通道的颜色均值记为mean(B);
③-2、对两个图像序列中的每帧图像中的人体对象区域进行水平划分,平均划分为N个子区域,然后计算每帧图像中的人体对象区域的各个子区域的R、G、B三个颜色通道的颜色均值,将每帧图像中的人体对象区域的各个子区域的R颜色通道的颜色均值记为R,将每帧图像中的人体对象区域的各个子区域的G颜色通道的颜色均值记为G,将每帧图像中的人体对象区域的各个子区域的B颜色通道的颜色均值记为B;
③-3、采用基于各个颜色通道的灰度归一化方法对两个图像序列中的每帧图像中的人体对象区域的各个子区域的R、G、B三个颜色通道的颜色均值进行归一化处理,得到R、G和B对应的归一化处理后的颜色均值,分别记为R′、G′和B′,
Figure FDA0000139327020000011
Figure FDA0000139327020000012
Figure FDA0000139327020000013
然后将由每帧图像中的人体对象区域的各个子区域的R、G、B三个颜色通道的颜色均值进行归一化处理后的颜色均值R′、G′、B′形成的一个长度为3×N的向量作为该帧图像的空间颜色特征;
③-4、根据两个图像序列中的任意两帧图像的空间颜色特征的欧氏距离,构造一个大小为2m×2m的关系矩阵W,将关系矩阵W中第i行第j列的元素记为Wij
Figure FDA0000139327020000014
其中,m表示每个图像序列中的图像的帧数,1≤i≤2m,1≤j≤2m,exp()表示以自然对数e为底的指数函数,d(xi,xj)表示两个图像序列中的任意两帧图像的空间颜色特征的欧氏距离,
Figure FDA0000139327020000021
xik表示空间颜色特征xi的第k个分量,xjk表示空间颜色特征xj的第k个分量, σ = 1 ( 2 m ) 2 Σ i = 1 2 m Σ j = 1 2 m d ( x i , x j ) ;
③-5、对关系矩阵W进行归一化处理,得到规范化谱矩阵P,将规范化谱矩阵P中第i行第j列的元素记为Pij,Pij=Wij/Dii,其中,Dii=∑jWij;然后采用谱分解方法对规范化谱矩阵P进行谱分解,得到规范化谱矩阵P的2m个维数为2m的特征向量及对应的特征值;
③-6、对规范化谱矩阵P的2m个特征值进行排序,选择值次大的两个特征值对应的特征向量构造两个图像序列中的每帧图像在二维空间的可视化描述,具体过程为:a、将值次大的两个特征值对应的特征向量分别记为
Figure FDA0000139327020000023
b、将由
Figure FDA0000139327020000025
Figure FDA0000139327020000026
中对应位置的前m个分量构成的m个坐标位置作为第一个图像序列中的m帧图像在二维空间的可视化描述,将由
Figure FDA0000139327020000027
Figure FDA0000139327020000028
中对应位置的后m个分量构成的m个坐标位置作为第二个图像序列中的m帧图像在二维空间的可视化描述;
③-7、根据两个图像序列中的每帧图像在二维空间的可视化描述,计算两个图像序列的空间颜色特征相似度,记为J,
Figure FDA0000139327020000029
其中,t={1,2},min()为取最小值函数,X表示二维空间上的一个坐标位置,St表示第t个图像序列中的m帧图像在二维空间上的坐标位置的集合,“||||”为欧氏距离计算符号,Mt表示St中的所有坐标位置的均值,
Figure FDA00001393270200000210
Nt表示St中所包含的坐标位置的个数;
④根据两个图像序列中的每帧图像中的人体对象区域,计算两个图像序列的局部特征相似度,具体过程为:
④-1、采用尺度不变特征转换方法提取两个图像序列中的每帧图像中的人体对象区域的局部特征集合,将第一个图像序列中的每帧图像中的人体对象区域的局部特征集合构成的集合记为X,X={x1,x2,...,xu,...,xm},将第二个图像序列中的每帧图像中的人体对象区域的局部特征集合构成的集合记为Y,Y={y1,y2,...,yv,...,ym},其中,x1表示第一个图像序列中的第1帧图像中的人体对象区域的局部特征集合,x2表示第一个图像序列中的第2帧图像中的人体对象区域的局部特征集合,xu表示第一个图像序列中的第u帧图像中的人体对象区域的局部特征集合,xm表示第一个图像序列中的第m帧图像中的人体对象区域的局部特征集合,y1表示第二个图像序列中的第1帧图像中的人体对象区域的局部特征集合,y2表示第二个图像序列中的第2帧图像中的人体对象区域的局部特征集合,yv表示第二个图像序列中的第v帧图像中的人体对象区域的局部特征集合,ym表示第二个图像序列中的第m帧图像中的人体对象区域的局部特征集合,1≤u≤m,1≤v≤m;
④-2、将两个图像序列中各自所有图像中的人体对象区域的局部特征集合各自归并为一个新的局部特征集合,分别记为
Figure FDA0000139327020000031
Figure FDA0000139327020000032
X ~ = { x 1 ∪ x 2 ∪ . . . ∪ x u ∪ . . . ∪ x m } , Y ~ = { y 1 ∪ y 2 ∪ . . . ∪ y v ∪ . . . ∪ y m } ;
④-3、对
Figure FDA0000139327020000035
Figure FDA0000139327020000036
分别进行L+1级尺度直方图生成,得到对应的L+1级尺度下的尺度直方图集合和对应的L+1级尺度下的尺度直方图集合,分别记为
Figure FDA0000139327020000039
Figure FDA00001393270200000310
ψ ( X ~ ) = [ H 0 ( X ~ ) , H 1 ( X ~ ) , . . . , H l ( X ~ ) , . . . , H L ( X ~ ) ] , ψ ( Y ~ ) = [ H 0 ( Y ~ ) , H 1 ( Y ~ ) , . . . , H l ( Y ~ ) , . . . , H L ( Y ~ ) ] , 其中,0≤l≤L,
Figure FDA00001393270200000313
表示
Figure FDA00001393270200000314
在第0级尺度下的尺度直方图,表示
Figure FDA00001393270200000316
在第1级尺度下的尺度直方图,
Figure FDA00001393270200000317
表示
Figure FDA00001393270200000318
在第l级尺度下的尺度直方图,
Figure FDA00001393270200000319
表示在第L级尺度下的尺度直方图,
Figure FDA00001393270200000321
表示
Figure FDA00001393270200000322
在第0级尺度下的尺度直方图,
Figure FDA00001393270200000323
表示
Figure FDA00001393270200000324
在第1级尺度下的尺度直方图,
Figure FDA00001393270200000325
表示
Figure FDA00001393270200000326
在第l级尺度下的尺度直方图,
Figure FDA00001393270200000327
表示在第L级尺度下的尺度直方图,
Figure FDA00001393270200000329
Figure FDA00001393270200000330
的柱体宽度均为2l的柱体的个数均为rl
Figure FDA0000139327020000041
d表示
Figure FDA0000139327020000042
Figure FDA0000139327020000043
中的各个局部特征集合中的每个局部特征的维度,
Figure FDA0000139327020000044
Figure FDA0000139327020000045
中的各个局部特征集合中的每个局部特征的维度一致,D表示包含
Figure FDA0000139327020000046
中的所有局部特征集合的球体的直径;
④-4、对
Figure FDA0000139327020000048
在各级相同尺度下的尺度直方图进行相似度匹配,得到
Figure FDA00001393270200000410
Figure FDA00001393270200000411
在各级相同尺度下的尺度直方图的相似度,对于
Figure FDA00001393270200000412
在第l级尺度下的尺度直方图的相似度,将其记为Il
Figure FDA00001393270200000414
其中,min()为取最小值函数,
Figure FDA00001393270200000415
表示
Figure FDA00001393270200000416
的第s个柱体的数值,
Figure FDA00001393270200000417
表示
Figure FDA00001393270200000418
的第s个柱体的数值;
④-5、分别计算在前后两级尺度下的尺度直方图的相似度的差值,然后根据
Figure FDA00001393270200000421
Figure FDA00001393270200000422
在前后两级尺度下的尺度直方图的相似度的差值、
Figure FDA00001393270200000423
Figure FDA00001393270200000424
计算两个图像序列的局部特征相似度,记为KΔ其中,ωl为权值,ωl=2-l,Nl表示
Figure FDA00001393270200000426
Figure FDA00001393270200000427
在第l级尺度下的尺度直方图的相似度Il
Figure FDA00001393270200000428
Figure FDA00001393270200000429
在第l-1级尺度下的尺度直方图的相似度Il-1的差值, N l = ( H l ( X ~ ) , H l ( Y ~ ) ) - ( H l - 1 ( X ~ ) , H l - 1 ( Y ~ ) ) ;
⑤根据两个图像序列的空间颜色特征相似度和局部特征相似度训练SVM分类器,再利用SVM分类器对待识别的两个图像序列进行目标人体识别,具体过程为:
⑤-1、选取一些由两个包含同一人体对象的图像序列组成的图像序列对,依照步骤②至步骤④相同的操作,计算每个图像序列对的两个图像序列的空间颜色特征相似度J和局部特征相似度KΔ,并将每个图像序列对对应的J和KΔ的组合(J,KΔ)视为二维平面上的一个坐标点,然后将每个图像序列对对应的(J,KΔ)作为正样本;
⑤-2、选取一些由两个包含不同人体对象的图像序列组成的图像序列对,依照步骤②至步骤④相同的操作,计算每个图像序列对的两个图像序列的空间颜色特征相似度J和局部特征相似度KΔ,并将每个图像序列对对应的J和KΔ的组合(J,KΔ)视为二维平面上的一个坐标点,然后将每个图像序列对对应的(J,KΔ)作为负样本;
⑤-3、利用正样本和负样本训练二维平面上的SVM分类器,训练得到的SVM分类器为二维平面上的一条分界线;
⑤-4、依照步骤②至步骤④相同的操作,计算待识别的两个图像序列的空间颜色特征相似度和局部特征相似度,并将两者的组合视为二维平面上的坐标点(x*,y*),再利用训练好的SVM分类器对待识别的两个图像序列进行目标人体识别,如果(x*,y*)落在分界线正样本所在一侧,则判定待识别的两个图像序列中的人体对象为同一个人,如果(x*,y*)落在分界线负样本所在一侧,则判定待识别的两个图像序列中的人体对象不为同一个人。
2.根据权利要求1所述的一种目标人体识别方法,其特征在于所述的步骤②中分割处理采用GrabCut方法。
3.根据权利要求1或2所述的一种目标人体识别方法,其特征在于所述的步骤③-2中N>1。
CN201210050622.6A 2012-02-29 2012-02-29 一种目标人体识别方法 Expired - Fee Related CN102663411B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210050622.6A CN102663411B (zh) 2012-02-29 2012-02-29 一种目标人体识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210050622.6A CN102663411B (zh) 2012-02-29 2012-02-29 一种目标人体识别方法

Publications (2)

Publication Number Publication Date
CN102663411A true CN102663411A (zh) 2012-09-12
CN102663411B CN102663411B (zh) 2014-06-11

Family

ID=46772895

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210050622.6A Expired - Fee Related CN102663411B (zh) 2012-02-29 2012-02-29 一种目标人体识别方法

Country Status (1)

Country Link
CN (1) CN102663411B (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103020614A (zh) * 2013-01-08 2013-04-03 西安电子科技大学 基于时空兴趣点检测的人体运动识别方法
CN103065126A (zh) * 2012-12-30 2013-04-24 信帧电子技术(北京)有限公司 不同场景对人体图像再识别的方法
CN103679142A (zh) * 2013-12-02 2014-03-26 宁波大学 一种基于空间约束的目标人体识别方法
CN104077597A (zh) * 2014-06-25 2014-10-01 小米科技有限责任公司 图像分类方法及装置
CN103617423B (zh) * 2013-11-26 2017-01-25 前锦网络信息技术(上海)有限公司 基于色彩参数的图像拆分识别方法
CN106611030A (zh) * 2015-10-27 2017-05-03 杭州海康威视数字技术股份有限公司 基于视频的对象相似度比较方法和检索方法及其***
CN106778633A (zh) * 2016-12-19 2017-05-31 江苏慧眼数据科技股份有限公司 一种基于区域分割的行人识别方法
CN106933816A (zh) * 2015-12-29 2017-07-07 北京大唐高鸿数据网络技术有限公司 基于全局特征和局部特征的跨镜头目标检索***及方法
CN107045520A (zh) * 2016-11-29 2017-08-15 江南大学 一种基于位置信息加权词汇树的车辆图像检索方法
CN108090485A (zh) * 2017-11-28 2018-05-29 西安电子科技大学昆山创新研究院 基于多视角融合的图像前景自动提取方法
CN108427927A (zh) * 2018-03-16 2018-08-21 深圳市商汤科技有限公司 目标再识别方法和装置、电子设备、程序和存储介质
CN113327332A (zh) * 2018-09-29 2021-08-31 爱笔(北京)智能科技有限公司 基于生物信息的票务处理方法及***、服务端、客户端

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101329765A (zh) * 2008-07-31 2008-12-24 上海交通大学 多摄像机目标匹配特征融合方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101329765A (zh) * 2008-07-31 2008-12-24 上海交通大学 多摄像机目标匹配特征融合方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
DUNG NGHI TRUONG CONG ET AL.: ""Video Sequences Association for People Re-identification across Multiple Non-overlapping Cameras"", 《ICIAP 2009, LNCS 5716》, 31 December 2009 (2009-12-31) *
M. FARENZENA ET AL.: ""Person Re-Identification by Symmetry-Driven Accumulation of Local Features"", 《2010 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》, 18 June 2010 (2010-06-18), pages 2360 - 2367 *
OMAR HAMDOUN ET AL.: ""PERSON RE-IDENTIFICATION IN MULTI-CAMERA SYSTEM BY SIGNATURE BASED ON INTEREST POINT DESCRIPTORS COLLECTED ON SHORT VIDEO SEQUENCES"", 《ICDSC 2008 》, 11 September 2008 (2008-09-11), pages 1 - 6 *
YINGHAO CAI ET AL.: ""Human Appearance Matching Across Multiple Non-overlapping Cameras"", 《19TH INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION, 2008. ICPR 2008 》, 11 December 2008 (2008-12-11), pages 1 - 4 *

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103065126B (zh) * 2012-12-30 2017-04-12 信帧电子技术(北京)有限公司 不同场景对人体图像再识别的方法
CN103065126A (zh) * 2012-12-30 2013-04-24 信帧电子技术(北京)有限公司 不同场景对人体图像再识别的方法
CN103020614A (zh) * 2013-01-08 2013-04-03 西安电子科技大学 基于时空兴趣点检测的人体运动识别方法
CN103020614B (zh) * 2013-01-08 2015-09-02 西安电子科技大学 基于时空兴趣点检测的人体运动识别方法
CN103617423B (zh) * 2013-11-26 2017-01-25 前锦网络信息技术(上海)有限公司 基于色彩参数的图像拆分识别方法
CN103679142A (zh) * 2013-12-02 2014-03-26 宁波大学 一种基于空间约束的目标人体识别方法
CN103679142B (zh) * 2013-12-02 2016-09-07 宁波大学 一种基于空间约束的目标人体识别方法
CN104077597B (zh) * 2014-06-25 2017-09-05 小米科技有限责任公司 图像分类方法及装置
CN104077597A (zh) * 2014-06-25 2014-10-01 小米科技有限责任公司 图像分类方法及装置
CN106611030A (zh) * 2015-10-27 2017-05-03 杭州海康威视数字技术股份有限公司 基于视频的对象相似度比较方法和检索方法及其***
CN106611030B (zh) * 2015-10-27 2020-05-19 杭州海康威视数字技术股份有限公司 基于视频的对象相似度比较方法和检索方法及其***
CN106933816A (zh) * 2015-12-29 2017-07-07 北京大唐高鸿数据网络技术有限公司 基于全局特征和局部特征的跨镜头目标检索***及方法
CN107045520A (zh) * 2016-11-29 2017-08-15 江南大学 一种基于位置信息加权词汇树的车辆图像检索方法
CN106778633A (zh) * 2016-12-19 2017-05-31 江苏慧眼数据科技股份有限公司 一种基于区域分割的行人识别方法
CN106778633B (zh) * 2016-12-19 2020-07-07 江苏慧眼数据科技股份有限公司 一种基于区域分割的行人识别方法
CN108090485A (zh) * 2017-11-28 2018-05-29 西安电子科技大学昆山创新研究院 基于多视角融合的图像前景自动提取方法
CN108427927A (zh) * 2018-03-16 2018-08-21 深圳市商汤科技有限公司 目标再识别方法和装置、电子设备、程序和存储介质
CN108427927B (zh) * 2018-03-16 2020-11-27 深圳市商汤科技有限公司 目标再识别方法和装置、电子设备、程序和存储介质
CN113327332A (zh) * 2018-09-29 2021-08-31 爱笔(北京)智能科技有限公司 基于生物信息的票务处理方法及***、服务端、客户端

Also Published As

Publication number Publication date
CN102663411B (zh) 2014-06-11

Similar Documents

Publication Publication Date Title
CN102663411B (zh) 一种目标人体识别方法
CN110084156B (zh) 一种步态特征提取方法及基于步态特征的行人身份识别方法
CN109101924B (zh) 一种基于机器学习的路面交通标志识别方法
CN103824070B (zh) 一种基于计算机视觉的快速行人检测方法
Merad et al. Fast people counting using head detection from skeleton graph
CN107133601A (zh) 一种基于生成式对抗网络图像超分辨率技术的行人再识别方法
CN105528794A (zh) 基于混合高斯模型与超像素分割的运动目标检测方法
CN104166841A (zh) 一种视频监控网络中指定行人或车辆的快速检测识别方法
CN103942577A (zh) 视频监控中基于自建立样本库及混合特征的身份识别方法
CN109918971B (zh) 监控视频中人数检测方法及装置
CN106991370B (zh) 基于颜色和深度的行人检索方法
CN102214291A (zh) 一种快速准确的基于视频序列的人脸检测跟踪方法
CN106295532B (zh) 一种视频图像中的人体动作识别方法
CN102521616B (zh) 基于稀疏表示的行人检测方法
CN107967695A (zh) 一种基于深度光流和形态学方法的运动目标检测方法
CN103761531A (zh) 基于形状轮廓特征的稀疏编码车牌字符识别方法
CN103310194A (zh) 视频中基于头顶像素点梯度方向的行人头肩部检测方法
CN101131728A (zh) 一种基于Shape Context的人脸形状匹配方法
CN104517095A (zh) 一种基于深度图像的人头分割方法
CN111460884A (zh) 基于人体跟踪的多人脸识别方法
CN106570490A (zh) 一种基于快速聚类的行人实时跟踪方法
CN108073940B (zh) 一种非结构化环境中的3d目标实例物体检测的方法
CN103955671A (zh) 基于快速判别公共向量算法的人体行为识别方法
CN108921064B (zh) 基于多特征融合的行人重识别方法
CN107392953B (zh) 基于等高线的深度图像识别方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20140611

Termination date: 20170229