CN104298977A - 一种基于不相关性约束的低秩表示人体行为识别方法 - Google Patents

一种基于不相关性约束的低秩表示人体行为识别方法 Download PDF

Info

Publication number
CN104298977A
CN104298977A CN201410578539.5A CN201410578539A CN104298977A CN 104298977 A CN104298977 A CN 104298977A CN 201410578539 A CN201410578539 A CN 201410578539A CN 104298977 A CN104298977 A CN 104298977A
Authority
CN
China
Prior art keywords
human body
body behavior
represent
dictionary
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410578539.5A
Other languages
English (en)
Other versions
CN104298977B (zh
Inventor
张向荣
焦李成
贾航华
侯彪
王爽
马文萍
马晶晶
杨淑媛
刘若辰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201410578539.5A priority Critical patent/CN104298977B/zh
Publication of CN104298977A publication Critical patent/CN104298977A/zh
Application granted granted Critical
Publication of CN104298977B publication Critical patent/CN104298977B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明属于图像处理技术领域,具体公开了一种基于不相关性约束的低秩表示人体行为识别方法,主要用于解决现有技术中对特征的编码方法中没有考虑行为之间的不相关性的问题。其实现步骤为:(1)输入人体行为视频序列,提取初级特征;(2)对初级特征聚类得到字典;(3)对初级特征进行不相关性约束的低秩表示编码;(4)利用稀疏表示分类方法对视频进行分类;(5)输出分类结果。本发明在低秩表示的基础上,加入了人体行为不相关性约束,增强了人体行为视频序列编码的判别性,提高了人体行为识别的准确性,可用于智能监控。

Description

一种基于不相关性约束的低秩表示人体行为识别方法
技术领域
本发明属于图像处理技术领域,涉及机器学习和计算机视觉技术领域,具体是一种基于不相关性约束的低秩表示人体行为识别方法,本发明可以通过对人体的行为视频中的特征进行学习,得到不同的人体行为的特征表示,从而在此基础上实现计算机自主的对于人体行为进行识别和跟踪等。
背景技术
人体行为识别包含从人体行为视频中提取出相关的初级特征,通过对该初级特征的学习,从而得到对不同人体行为进行特征表示,最终以该特征表示识别人体行为。人体行为的识别已经成为现代计算机视觉领域中的研究热点问题,其研究主要致力于寻找精确的特征学习方法和识别人类行为的技术方法。最为普遍的人体行为识别方法通常是:首先从包含人体行为视频中提取初级特征,通过对初级特征的学习得到人体行为的高级特征,并在此基础上对人体行为进行识别分类。在该过程中,如何对不同的人体行为进行恰当的表示是一个关键问题,表示的合理与否将会影响到最终的分类精度和识别精度。
传统的词袋BoF模型已经成功的运用于行为识别领域。在行为之别中,BoF模型将人体行为表示成一个基于字典原子的统计直方图。该模型中,该模型存在的缺点是,人体行为的每个特征单独的对应于字典的一个原子,没有考虑特征之间的相关性,使得最终的特征表示不够精确。
Changhong Liu等人在论文“Human action recognition using sparse representation”(ICIS,2009)中利用Sparse Coding的方法进行行为识别。该方法将每个特征单独的表示成基于字典原子的稀疏表示向量,没有考虑特征之间的相互关系。因此,使得最终的表示不够精确。
GuangCan Liu等人在论文“Robust Subspace Segmentation by Low-RankRepresentation(ICML,2010)”中利用低秩表示的方法对数据进行子空间分割。该方法从全局出发对原始数据进行表示,考虑了特征之间的相关性。然而,在行为识别领域,低秩表示并没有考虑行为之间的不相关性。
发明内容
本发明针对上述现有技术的不足,提出一种基于不相关性约束的低秩表示人体行为识别方法。该方法在低秩表示的基础上加入了人体行为间的不相关性约束,使得人体行为的表示更具判别性,从而提高了对人体行为的识别能力。
本发明的技术方案是:一种基于不相关性约束的低秩表示人体行为识别方法,包括如下步骤:
(1)输入人体行为视频,利用Cuboid检测子和描述子分别对视频中的人体行为进行特征提取,得到人体行为的初级特征矩阵其中,xi表示第i个初级特征,i=1,2,...,n,d表示初级特征的维数;
(2)对所有视频的初级特征进行聚类得到字典。
利用k-均值聚类方法,对所有人体行为初级特征进行聚类,聚类中心作为字典的原子,从而得到字典:其中:ai表示字典的原子,i=1,2,…,N,N表示原子的个数;
(3)利用不相关性约束的低秩表示对每个视频的初级特征进行编码,得到其高级特征表示:
(3a)利用低秩表示方法,求解基于字典A的每个视频中人体行为初级特征的编码系数矩阵,利用如下公式进行编码:
min Z , E | | Z | | * + λ | | E | | 2,1 , s . t . X = AZ + E
其中:Z表示编码系数矩阵,E表示噪声项,||Z||*表示编码系数矩阵的核范数,即编码系数矩阵的奇异值之和,参数λ用来平衡噪声的影响,||E||2,1表示对E的l2,1范数,Eij为第i行第j列元素;
(3b)利用中间变量J代替步骤(3a)中的Z,将编码公式转化为:
min Z , E , J | | J | | * + λ | | E | | 2,1 , s . t . X = AZ + E , Z = J
利用增强拉格朗日乘子(ALM)算法对该公式进行求解,得到人体行为的编码系数矩阵i=1,2,…,n;
(3c)对人体行为的编码系数矩阵应用最大化池算法,将每个人体行为的编码系数表示成一个N维的列向量:其中:yi=max(|zi1|,|zi2|,...,|zik|,...,|zin|),i=1,2,...,N,k=1,2,...n,zik表示Z的第i行第k列元素;
(3d)利用步骤(3b)中得到的结果初始化下式中的编码系数矩阵,对每个视频中人体行为的初级特征进行再次编码,得到高级编码系数矩阵,编码公式如下:
min Z i , E i Σ i = 1 M { | | Z i | | * + λ | | E i | | 2,1 } + γ Σ j ≠ i W ij | | Z j T Z i | | F 2
s.t.Xi=AZi+Ei
其中:M表示人体行为视频的个数,Zi表示第i个视频中人体行为初级特征矩阵的高级编码系数矩阵,Ei为噪声项,γ表示不相关约束项的权值,Wij=||Yi-Yj||2 2表示Zi和Zj的权重,Yi和Yj表示第i个和第j个编码系数矩阵经过最大化池得到的列向量,||Zj TZi||F 2表示Zi和Zj的乘积F范数的平方;
(3e)对得到的高级编码系数矩阵进行如步骤(3c)所述的最大化池算法,得到人体行为的高级特征表示,将其表示为
(4)利用稀疏表示分类方法对视频进行分类:
(4a)将一个动作者的所有行为视频的高级特征表示作为测试样本集,其他动作者的所有行为视频的高级特征表示作为训练集,训练样本个数为m,利用所有训练样本组成字典j=1,2,...,m,其中m是字典D的原子个数;
(4b)利用下式,得到每个测试样本的编码系数β:
min β | | y ^ - Dβ | | 2 2 + η | | β | | 1 ,
其中,||·||2表示向量的l2范数,||·||1表示向量的l1范数,η是用于平衡重建误差和编码稀疏性的参数,取值范围为0-1;
(4c)计算每个测试样本在每类字典上的残差
r j ( y ^ ) = | | y ^ - D j β j | | 2 2 , j = 1,2 , . . . , c
其中:βj是测试样本在第j类字典Dj上的编码系数,如果在第j类字典上的残差最小,则测试样本的类标为j;
(5)输出分类结果:
重复步骤(4),依次对每个动作者的所有行为进行分类,得到各自的类标,输出结果。
上述步骤(1)中所述的特征维数d=100。
上述步骤(2)中所述的字典维数N=500,即也就是使用k均值聚类,聚类中心为500。
为了便于求解上述步骤(3d)中的编码公式,分别对每一个初级特征进行如下编码:
min Z i , E i | | Z i | | * + λ | | E i | | 2,1 + γ Σ j ≠ i W ij | | Z j T Z i | | F 2
s.t.Xi=AZi+Ei
根据将上式转化为如下表达式:
s.t.Xi=AZi+Ei
其中:是一个常量,该常量表示的系数。
为求解方便,利用字母J替换上式中的Z,得到如下表达式:
s.t.Xi=AZi+Ei,Zi=Ji
利用增强拉格朗日乘子ALM算法对上式进行求解,得到人体行为的高级编码系数i=1,2,...,n。
本发明的有益效果:本发明从人体行为视频中提取出初级特征,在该初级特的基础上,通过不相关性约束的低秩表示得到人体行为的高级特征,对人体行为高级特征利用分类器进行分类,从而达到识别人体行为的目的。与现有技术相比,本发明具有以下优点:
第一,本发明利用不相关性约束的低秩表示方法,克服了词袋模型中每个特征只对应于字典中一个原子而带来的特征表示精确度低的不足,提高了特征表示的精确度,使得本发明具有分类精确更高的优点。
第二,本发明利用不相关性约束的低秩表示方法,克服了稀疏表示单独考虑每个特征的不足,使得本发明具有基于全局编码的优点。
第三,本发明利用不相关性约束的低秩表示方法,克服了现有技术中低秩表示没有考虑视频间相关性的不足,使得本发明具有对视频编码判别性高和识别精度高的优点。
以下将结合附图对本发明做进一步详细说明。
附图说明
图1为本发明方法的流程图;
图2为本发明仿真实验中人体行为视频的图像。
具体实施措施
下面结合附图对发明做进一步描述。
结合附图1对本发明的具体步骤描述如下:
步骤1,输入人体行为视频序列,提取初级特征。
输入人体行为视频序列,该视频是人体行为识别领域中有代表性的人体运动视频序列:Weizmann视频序列或者KTH视频序列。利用Cuboid检测子和描述子分别对视频中的人体行为进行特征提取,该过程包含两个部分:特征检测和特征描述。
特征检测的实现过程是:按照下式,计算出图像每个像素点的响应函数值R:
R=(I*g*hev)2+(I*g*hod)2
其中:I表示当前像素点的灰度值,g是二维高斯核函数,hev、hod为一对Garbor滤波算子。
根据每个像素点的响应函数值R,将局部最大的响应函数值作为检测出来的特征点。
特征描述的实现过程是:根据检测出来的特征点,在以该特征点为中心的立方体内,利用该立方体内的所有像素点的灰度值组成一个特征向量,得到人体行为的初级特征矩阵其中,xi表示第i个初级特征,i=1,2,...,n,d表示初级特征的维数,d设为100。
步骤2,对所有视频的初级特征进行聚类得到字典。
利用k-均值聚类方法,对所有人体行为初级特征进行聚类,聚类中心作为字典的原子,从而得到字典:其中:ai表示字典的原子,i=1,2,…,N,N表示原子的个数;
步骤3,利用不相关性约束的低秩表示对每个视频的初级特征进行编码,得到其高级特征表示:
(3a)利用低秩表示方法,求解基于字典A的每个视频中人体行为初级特征的编码系数矩阵,利用如下公式进行编码:
min Z , E | | Z | | * + λ | | E | | 2,1 , s . t . X = AZ + E
其中:Z表示编码系数矩阵,E表示噪声项,||Z||*表示编码系数矩阵的核函数,即编码系数矩阵的奇异值之和,参数λ用来权衡噪声的影响,||E||2,1表示对E的l2,1范数,,Eij为第i行第j列元素;
(3b)利用中间变量J代替(3a)中的Z,将编码公式转化为:
min Z , E , J | | J | | * + λ | | E | | 2,1 , s . t . X = AZ + E , Z = J
利用增强拉格朗日乘子(ALM)算法对该公式进行求解,得到人体行为的初级编码系数矩阵i=1,2,...,n;
(3c)对人体行为的初级编码系数矩阵应用最大化池(max pooling)算法,将每个人体行为初级编码系数表示成一个N维的列向量:其中yi=max(|zi1|,|zi2|,...,|zik|,...,|zin|),i=1,2,...,N,k=1,2,...n,zik表示Z的第i行k列元素;
(3d)利用步骤(3b)中得到的结果初始化下式中的编码系数矩阵,对每个视频中人体行为的初级特征进行再次编码,得到高级编码系数矩阵,编码公式如下:
min Z i , E i Σ i = 1 M { | | Z i | | * + λ | | E i | | 2,1 } + γ Σ j ≠ i W ij | | Z j T Z i | | F 2
s.t.Xi=AZi+Ei
其中:M表示人体行为视频的个数,Zi表示第i个视频中人体行为初级特征矩阵的高级编码系数矩阵,Ei为噪声项,γ表示不相关约束项的权值,Wij=||Yi-Yj||2 2表示Zi和Zj的权重,Yi和Yj表示第i个和第j个编码系数矩阵经过最大化池得到的列向量,||Zj TZi||F 2表示Zi和Zj的乘积F范数的平方;
为了便于求解,分别对每一个初级特征进行如下编码:
min Z i , E i | | Z i | | * + λ | | E i | | 2,1 + γ Σ j ≠ i W ij | | Z j T Z i | | F 2
s.t.Xi=AZi+Ei
根据将上式转化为如下表达式:
s.t.Xi=AZi+Ei
其中:是一个常量,该常量表示的系数。
利用J替换上式中的Z,得到如下表达式:
s.t.Xi=AZi+Ei,Zi=Ji
利用增强拉格朗日乘子ALM算法对上式进行求解,得到人体行为视频的高级编码系数i=1,2,...,n;
(3e)对得到的高级编码系数矩阵进行如步骤(3c)所述的最大化池算法,得到人体行为的高级特征表示,将其表示为
(4)利用稀疏表示分类方法对视频进行分类:
(4a)将一个动作者的所有行为视频的高级特征表示作为测试样本集,其他动作者的所有行为视频的高级特征表示作为训练集,训练样本个数为m,利用所有训练样本组成字典j=1,2,...,m,其中m是字典D的原子个数;
(4b)利用下式,得到每个测试样本的编码系数β:
min β | | y ^ - Dβ | | 2 2 + η | | β | | 1 ,
其中,||·||2表示向量的l2范数,||·||1表示向量的l1范数,η是用于平衡重建误差和编码稀疏性的参数,取值范围为0-1;
(4c)计算每个测试样本在每类字典上的残差
r j ( y ^ ) = | | y ^ - D j β j | | 2 2 , j = 1,2 , . . . , c
其中:βj是测试样本在第j类字典Dj上的编码系数,如果在第j类字典上的残差最小,则测试样本的类标为j;
(5)输出结果:
重复步骤(4),依次对每个动作者的所有行为进行分类,得到各自的类标,输出结果。
下面结合附图2对本发明的效果做进一步描述。
本发明的仿真实验是在Intel Core(TM)2 Duo CPU、主频2.33GHz,内存2G,Windows 7平台上的MATLAB 7.14上实现的。
本发明的仿真是在两个代表性的人体运动视频序列Weizmann和KTH上进行的,Weizmann视频序列包含9个人的10类行为:行走,奔跑,侧行,双脚跳,单脚跳,挥手跳,原地跳,弯腰,单臂挥手和双臂挥手;KTH视频序列包含25个人在4个不同的场景下的6类行为:行走,慢跑,快跑,打拳,挥手,拍手。
图2表示视频序列的图像,图2(a)表示Weizmann视频序列中,类别为走的视频图像,图2(b)表示KTH视频序列中,类别为拳击的视频图像。
本发明的仿真实验中将正则参数设置为:。
本发明与现有技术Bag-of-Feature,LLC,LRR三种方法在Weizmann视频序列上进行仿真实验,得到的分类精度如表1所示。
表1 不同方法在Weizmann视频序列的分类精度
特征编码方法 分类精度
Bag of feature 94.7%
LLC 95.6%
LRR 96.7%
本发明方法 97.8%
从表1可以看出,在Weizmann视频序列上的仿真结果,本发明的分类精度为97.8%,分类精度更高。
本发明与现有技术Bag-of-Feature,LLC,LRR等方法在KTH视频序列上的进行仿真实验,得到的平均分类精度如表2所示。
表2 不同方法在KTH视频序列的分类精度
特征编码方法 分类精度
Bag-of-Feature 87.7%
Sparse Coding 93.5%
LRR 93.2%
本发明方法 95.0%
从表2可以看出,在KTH视频序列上的仿真结果,本发明的分类精度为95.0%,分类精度更高。
通过在Weizmann视频序列和KTH视频序列的仿真实验,可以看出本发明能够获得较高的分类精度。因此,本发明是一种比较有效的人体行为识别方法。
因此,与现有技术相比,本发明具有以下优点:
第一,本发明利用不相关性约束的低秩表示方法,克服了词袋模型中每个特征只对应于字典中一个原子而带来的特征表示精确度低的不足,提高了特征表示的精确度,使得本发明具有分类精确更高的优点。
第二,本发明利用不相关性约束的低秩表示方法,克服了稀疏表示单独考虑每个特征的不足,使得本发明具有基于全局编码的优点。
第三,本发明利用不相关性约束的低秩表示方法,克服了现有技术中低秩表示没有考虑人体行为视频特征间相关性的不足,使得本发明具有对视频编码判别性高和识别精度高的优点。
本实施例没有详细叙述的部分属本行业的公知的常用手段,这里不一一叙述。以上例举仅仅是对本发明的举例说明,并不构成对本发明的保护范围的限制,凡是与本发明相同或相似的设计均属于本发明的保护范围之内。

Claims (4)

1.一种基于不相关性约束的低秩表示人体行为识别方法,其特征在于:包括如下步骤:
(1)输入人体行为视频,利用Cuboid检测子和描述子分别对视频中的人体行为进行特征提取,得到人体行为的初级特征矩阵其中,xi表示第i个初级特征,i=1,2,...,n,d表示初级特征的维数;
(2)对所有视频的初级特征进行聚类得到字典:
利用k-均值聚类方法,对所有人体行为初级特征进行聚类,聚类中心作为字典的原子,从而得到字典:其中:ai表示字典的原子,i=1,2,…,N,N表示原子的个数;
(3)利用不相关性约束的低秩表示对每个视频的初级特征进行编码,得到其高级特征表示:
(3a)利用低秩表示方法,求解基于字典A的每个视频中人体行为初级特征的编码系数矩阵,利用如下公式进行编码:
min Z , E | | Z | | * + λ | | E | | 2,1 , s . t . X = AZ + E
其中:Z表示编码系数矩阵,E表示噪声项,‖Z‖*表示编码系数矩阵的核范数,即编码系数矩阵的奇异值之和,参数λ用来平衡噪声的影响,‖E‖2,1表示对E的l2,1范数,Eij为第i行第j列元素;
(3b)利用中间变量J代替步骤(3a)中的Z,将编码公式转化为:
min Z , E , J | | J | | * + λ | | E | | 2,1 , s . t . X = AZ + E , Z = J
利用增强拉格朗日乘子(ALM)算法对该公式进行求解,得到人体行为的编码系数矩阵i=1,2,…,n;
(3c)对人体行为的编码系数矩阵应用最大化池算法,将每个人体行为的编码系数表示成一个N维的列向量:其中:yi=max(|zi1|,|zi2|,...,|zik|,...,|zin|),i=1,2,...,N,k=1,2,...n,zik表示Z的第i行第k列元素;
(3d)利用步骤(3b)中得到的结果初始化下式中的编码系数矩阵,对每个视频中人体行为的初级特征进行再次编码,得到高级编码系数矩阵,编码公式如下:
min Z i , E i Σ i = 1 M { | | Z i | | * + λ | | E i | | 2,1 } + λ Σ j ≠ i W ij | | Z j T Z i | | F 2
s.t.Xi=AZi+Ei
其中:M表示人体行为视频的个数,Zi表示第i个视频中人体行为初级特征矩阵的高级编码系数矩阵,Ei为噪声项,γ表示不相关约束项的权值,Wij=‖Yi-Yj2 2表示Zi和Zj的权重,Yi和Yj表示第i个和第j个编码系数矩阵经过最大化池得到的列向量,‖Zj TZiF 2表示Zi和Zj的乘积F范数的平方;
(3e)对得到的高级编码系数矩阵进行如步骤(3c)所述的最大化池算法,得到人体行为的高级特征表示,将其表示为
(4)利用稀疏表示分类方法对视频进行分类:
(4a)将一个动作者的所有行为视频的高级特征表示作为测试样本集,其他动作者的所有行为视频的高级特征表示作为训练集,训练样本个数为m,利用所有训练样本组成字典j=1,2,...,m,其中m是字典D的原子个数;
(4b)利用下式,得到每个测试样本的编码系数β:
min β | | y ^ - Dβ | | 2 2 + η | | β | | 1 ,
其中,‖·‖2表示向量的l2范数,‖·‖1表示向量的l1范数,η是用于平衡重建误差和编码稀疏性的参数,取值范围为0-1;
(4c)计算每个测试样本在每类字典上的残差
r j ( y ^ ) = | | y ^ - D j β j | | 2 2 , j = 1,2 , . . . , c
其中:βj是测试样本在第j类字典Dj上的编码系数,如果在第j类字典上的残差最小,则测试样本的类标为j;
(5)输出分类结果:
重复步骤(4),依次对每个动作者的所有行为进行分类,得到各自的类标,输出结果。
2.根据权利要求1所述的一种基于不相关性约束的低秩表示人体行为识别方法,其特征在于,步骤(1)中所述的特征维数d=100。
3.根据权利要求1所述的一种基于不相关性约束的低秩表示人体行为识别方法,其特征在于,步骤(2)中所述的字典原子的个数N=500,即就是k均值聚类算法中设定的聚类中心个数。
4.根据权利要求1所述的一种基于不相关性约束的低秩表示人体行为识别方法,其特征在于,为了便于求解步骤(3d)中的编码公式,分别对每一个初级特征进行如下编码:
min Z i , E i | | Z i | | * + λ | | E i | | 2,1 + γ Σ j ≠ i W ij | | Z j T Z i | | F 2
s.t.Xi=AZi+Ei
根据将上式转化为如下表达式:
s.t.Xi=AZi+Ei
其中:是一个常量,该常量表示的系数;
为求解方便,利用字母J替换上式中的Z,得到如下表达式:
s.t.Xi=AZi+Ei,Zi=Ji
利用增强拉格朗日乘子ALM算法对上式进行求解,得到人体行为的高级编码系数i=1,2,...,n。
CN201410578539.5A 2014-10-24 2014-10-24 一种基于不相关性约束的低秩表示人体行为识别方法 Active CN104298977B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410578539.5A CN104298977B (zh) 2014-10-24 2014-10-24 一种基于不相关性约束的低秩表示人体行为识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410578539.5A CN104298977B (zh) 2014-10-24 2014-10-24 一种基于不相关性约束的低秩表示人体行为识别方法

Publications (2)

Publication Number Publication Date
CN104298977A true CN104298977A (zh) 2015-01-21
CN104298977B CN104298977B (zh) 2017-11-03

Family

ID=52318698

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410578539.5A Active CN104298977B (zh) 2014-10-24 2014-10-24 一种基于不相关性约束的低秩表示人体行为识别方法

Country Status (1)

Country Link
CN (1) CN104298977B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105046193A (zh) * 2015-06-05 2015-11-11 上海大学 一种基于融合稀疏表示矩阵的人体动作识别方法
CN105279964A (zh) * 2015-08-07 2016-01-27 北京工业大学 一种基于低秩算法的路网交通数据的补全方法
CN105740903A (zh) * 2016-01-29 2016-07-06 北京大学 多属性识别方法及装置
CN105868711A (zh) * 2016-03-28 2016-08-17 电子科技大学 一种基于稀疏低秩的人体行为识别方法
CN106056082A (zh) * 2016-05-31 2016-10-26 杭州电子科技大学 一种基于稀疏低秩编码的视频动作识别方法
CN106326906A (zh) * 2015-06-17 2017-01-11 姚丽娜 活动识别方法和装置
CN107704887A (zh) * 2017-10-20 2018-02-16 北京工业大学 一种基于f范数的局部保持投影的图像识别方法
CN107766790A (zh) * 2017-08-31 2018-03-06 电子科技大学 一种基于局部约束低秩编码的人体行为识别方法
CN109977805A (zh) * 2019-03-11 2019-07-05 厦门理工学院 基于局部稀疏编码的姿态检索方法、装置、设备和存储介质
CN110265039A (zh) * 2019-06-03 2019-09-20 南京邮电大学 一种基于字典学习和低秩矩阵分解的说话人识别方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103106394A (zh) * 2012-12-24 2013-05-15 厦门大学深圳研究院 一种视频监控中的人体行为识别方法
CN103440471A (zh) * 2013-05-05 2013-12-11 西安电子科技大学 基于低秩表示的人体行为识别方法
CN103632138A (zh) * 2013-11-20 2014-03-12 南京信息工程大学 一种低秩分块稀疏表示的人脸识别方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103106394A (zh) * 2012-12-24 2013-05-15 厦门大学深圳研究院 一种视频监控中的人体行为识别方法
CN103440471A (zh) * 2013-05-05 2013-12-11 西安电子科技大学 基于低秩表示的人体行为识别方法
CN103632138A (zh) * 2013-11-20 2014-03-12 南京信息工程大学 一种低秩分块稀疏表示的人脸识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CHIH-FAN CHEN等: "Low-Rank Matrix Recovery with Structural Incoherence for Robust Face Recognition", 《PROCEEDINGS OF THE IEEE COMPUTER SOCIETY CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *
张向荣等: "Low-rank Representation Based Action Recognition", 《2014 INTERNATIONAL JOINT CONFERENCE ON NEURAL NETWORKS》 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105046193A (zh) * 2015-06-05 2015-11-11 上海大学 一种基于融合稀疏表示矩阵的人体动作识别方法
CN105046193B (zh) * 2015-06-05 2018-07-10 上海大学 一种基于融合稀疏表示矩阵的人体动作识别方法
CN106326906A (zh) * 2015-06-17 2017-01-11 姚丽娜 活动识别方法和装置
CN106326906B (zh) * 2015-06-17 2019-11-01 姚丽娜 活动识别方法和装置
CN105279964A (zh) * 2015-08-07 2016-01-27 北京工业大学 一种基于低秩算法的路网交通数据的补全方法
CN105740903B (zh) * 2016-01-29 2019-01-25 北京大学 多属性识别方法及装置
CN105740903A (zh) * 2016-01-29 2016-07-06 北京大学 多属性识别方法及装置
CN105868711A (zh) * 2016-03-28 2016-08-17 电子科技大学 一种基于稀疏低秩的人体行为识别方法
CN105868711B (zh) * 2016-03-28 2020-04-17 电子科技大学 一种基于稀疏低秩的人体行为识别方法
CN106056082A (zh) * 2016-05-31 2016-10-26 杭州电子科技大学 一种基于稀疏低秩编码的视频动作识别方法
CN106056082B (zh) * 2016-05-31 2019-03-08 杭州电子科技大学 一种基于稀疏低秩编码的视频动作识别方法
CN107766790A (zh) * 2017-08-31 2018-03-06 电子科技大学 一种基于局部约束低秩编码的人体行为识别方法
CN107766790B (zh) * 2017-08-31 2021-04-30 电子科技大学 一种基于局部约束低秩编码的人体行为识别方法
CN107704887A (zh) * 2017-10-20 2018-02-16 北京工业大学 一种基于f范数的局部保持投影的图像识别方法
CN107704887B (zh) * 2017-10-20 2021-04-02 北京工业大学 一种基于f范数的局部保持投影的图像识别方法
CN109977805A (zh) * 2019-03-11 2019-07-05 厦门理工学院 基于局部稀疏编码的姿态检索方法、装置、设备和存储介质
CN110265039A (zh) * 2019-06-03 2019-09-20 南京邮电大学 一种基于字典学习和低秩矩阵分解的说话人识别方法
CN110265039B (zh) * 2019-06-03 2021-07-02 南京邮电大学 一种基于字典学习和低秩矩阵分解的说话人识别方法

Also Published As

Publication number Publication date
CN104298977B (zh) 2017-11-03

Similar Documents

Publication Publication Date Title
CN104298977A (zh) 一种基于不相关性约束的低秩表示人体行为识别方法
CN105956560B (zh) 一种基于池化多尺度深度卷积特征的车型识别方法
CN104408478B (zh) 一种基于分层稀疏判别特征学习的高光谱图像分类方法
CN103605952B (zh) 基于拉普拉斯正则组稀疏的人体行为识别方法
CN105095863B (zh) 基于相似性权值的半监督字典学习的人体行为识别方法
CN107145836B (zh) 基于栈式边界辨别自编码器的高光谱图像分类方法
CN106056082B (zh) 一种基于稀疏低秩编码的视频动作识别方法
CN106778921A (zh) 基于深度学习编码模型的人员再识别方法
CN109190472B (zh) 基于图像与属性联合引导的行人属性识别方法
CN104268593A (zh) 一种小样本情况下多稀疏表示的人脸识别方法
CN104281855A (zh) 基于多任务低秩的高光谱图像分类方法
CN105184298A (zh) 一种快速局部约束低秩编码的图像分类方法
CN103440471B (zh) 基于低秩表示的人体行为识别方法
CN103226713B (zh) 一种多视角行为识别方法
CN103886336A (zh) 基于稀疏自动编码器的极化sar图像分类方法
CN108734199A (zh) 基于分段深度特征及低秩表示的高光谱图像鲁棒分类方法
CN104778482A (zh) 基于张量半监督标度切维数约减的高光谱图像分类方法
CN103761537A (zh) 基于低秩优化特征字典模型的图像分类方法
CN106203483A (zh) 一种基于语义相关多模态映射方法的零样本图像分类方法
CN104463248A (zh) 基于深度玻尔兹曼机提取高层特征的高分辨率遥感图像飞机检测方法
CN110569860A (zh) 结合判别分析和多核学习的图像有趣性二分类预测方法
Li et al. Dating ancient paintings of Mogao Grottoes using deeply learnt visual codes
CN105868711B (zh) 一种基于稀疏低秩的人体行为识别方法
CN103136540B (zh) 一种基于隐结构推理的行为识别方法
CN105469063A (zh) 鲁棒的人脸图像主成分特征提取方法及识别装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant