CN103500342B - 一种基于加速度计的人体行为识别方法 - Google Patents

一种基于加速度计的人体行为识别方法 Download PDF

Info

Publication number
CN103500342B
CN103500342B CN201310428353.7A CN201310428353A CN103500342B CN 103500342 B CN103500342 B CN 103500342B CN 201310428353 A CN201310428353 A CN 201310428353A CN 103500342 B CN103500342 B CN 103500342B
Authority
CN
China
Prior art keywords
sample
formula
sigma
class
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201310428353.7A
Other languages
English (en)
Other versions
CN103500342A (zh
Inventor
陶大鹏
金连文
黎小凤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201310428353.7A priority Critical patent/CN103500342B/zh
Publication of CN103500342A publication Critical patent/CN103500342A/zh
Application granted granted Critical
Publication of CN103500342B publication Critical patent/CN103500342B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开一种基于加速度计的人体行为识别分类方法,包括如下步骤:1)收集人体行为样本作为训练集;2)寻找对该训练集识别分类最优的投影矩阵U;3)对无标注数据进行投影;4)对投影后的数据采用最小距离分类器分类,获得识别结果。本发明对标注数据形成的近邻块做局部近似线性的假设,并使块上不同类别之间样本距离足够大,相同类别样本位置顺序信息通过类sigmoid函数惩罚因子尽可能的保留,最后在所有块上目标函数的基础上建立全局目标函数。利用本发明提出的方法能够合适的保留高维空间中样本之间距离的信息,减少识别模型对人工标注样本的依赖,其识别效果优于有代表性的基于线性判别分析的人体行为识别方法。

Description

一种基于加速度计的人体行为识别方法
技术领域
本发明涉及一种模式识别与人工智能技术,特别涉及一种基于加速度计的人体行为识别方法。
背景技术
人类行为识别是一个复杂的问题,横跨很多学科,并且受到了工业信息化领域的极大关注。基本步骤包括感知信号的获取,信息处理和模式分类。最近几年,人们提出了很多有效的方法来自动识别人类行为。这些方法可以归为两类:一类是基于计算机视觉的,另一类是基于加速度传感器的。基于计算机视觉的人类行为分析***不能很好地应用于工业环境,这是因为该类***对于光照条件非常敏感。最近几年来基于加速度计的人类行为识别在工业环境中的应用受到越来越多的关注,它可以替代基于计算机视觉的人体行为识别***。通过固定在人体上的加速度计上的加速度信号,我们可以很好地分析并区分人类的行为,例如走路、跑步和站立。
通常的基于加速度计人体行为是一种监督学习方法,即通过学习人工标注数据,以获得人体行为识别模型,然后对新的数据进行自动人体行为识别。通常采集到的人体行为特征维数非常高,因此降维方法有助于识别性能的提高。传统的全局线性降维的方法主要是基于线性的,其中线性判别分析被广泛地应用在模式分类问题上。线性判别分析法主要通过全局最大化类间距离的同时使类内样本间距离最小,从而实现不同类别之间的可分性。但是,手工标定人体行为样本数据是费时费力的。采用线性判别分析模型进行训练需要人工大量的标注样本,这使得人体行为模型开发成本大量增加,需要人工大量的标注样本。因此,寻找一个需要标注少量样本即可得到满足要求的人体行为分类方法是非常必要的。
发明内容
本发明的目的在于克服现有技术的缺点与不足,提供一种基于加速度计的人体行为识别方法,该方法是一种只需要少量人工标注样本的基于加速度计人体行为识别方法。
本发明的目的通过下述技术方案实现:一种基于加速度计的人体行为识别方法,可以包括以下步骤:
1)收集N个人体行为样本作为训练集X,即X=[x1,x2,…,xN]∈RD×N,样本维数为D,每个样本有相应的类别标志Ci∈Zn
2)建立局部优化目标函数:
对每一个已标注的样本xi,可以找到同类样本的k1近邻和不同类别样本的k2近邻来形成一个局部块,即 X i = [ x i , x i 1 , . . . x i k 1 , x i 1 , . . . , x i k 2 ] ∈ R D × ( k 1 + k 2 + 1 ) . 另外,我们定义Rij为第j个样本相对第i个样本里的位置顺序。我们希望每个局部块的新的低维空间表达,即 Y i = [ y i , y i 1 , . . . y i k 1 , y i 1 , . . . , y i k 2 ] ∈ R d × ( k 1 + k 2 + 1 ) , 满足不同类别间样本距离足够大,同时相同类内样本位置顺序信息尽可能的保留。
对类间样本距离建立(1)式:
M ( y i ) = Σ p = 1 k 2 | | y i - y i p | | 2 , - - - ( 1 )
对类内样本的位置顺序信息建立(2)式:
R ( y i ) = Σ j = 1 k 1 | | y i - y i j | | 2 ( w i ) j , - - - ( 2 )
其中,(wi)j表示区别小距离和大距离之间的惩罚因子,当原始空间的距离小时,我们赋予低维子空间较大的权重,当距离大时,我们赋予较小的权重。
惩罚因子定义为类-sigmoid函数如下:
这里f(u|μ,σ)是均值为μ,标准差为σ的高斯概率密度函数。均值μ和标准差σ可以分别由以下两条公式估计得到:
&mu; = mean 1 &le; i < j &le; N ( d ij ) - 2 ( 1 - &lambda; ) std 1 &le; i < j &le; N ( d ij ) , - - - ( 4 )
&sigma; = 2 &lambda; std 1 &le; i < j &le; N ( d ij ) , - - - ( 5 )
这里,dij是高维空间样本之间的距离。参数λ∈[0,1]是由人为定义的,λ越大,位置顺序信息保持的效果更好,但会影响降维性能。另外,参数λ一般可以通过交叉验证得到;
由于局部块Xi是近似线性的,由公式(1)(2)和一个权衡参数γ,可以得到局部优化的目标函数(6):
arg min y i ( &Sigma; j = 1 k 1 | | y i - y i j | | 2 ( w i ) j - &gamma; &Sigma; p = 1 k 2 | | y i - y i p | | 2 ) , - - - ( 6 )
其中γ∈[0,1]是一个用于整合类内样本和类间样本贡献值的权衡系数。
公式(6)可以进一步化为以下形式:
arg min y i &Sigma; j = 1 k 1 | | y i - y i j | | 2 ( w i ) j - &gamma; &Sigma; p = 1 k 2 | | y i - y i j | | 2 - - - ( 7 )
= arg min Y i tr ( Y i L i Y i T ) ,
其中,tr(·)是迹算子, L i = - e k 1 + k 2 T I k 1 + k 2 diag ( v i ) - e k 1 + k 2 I k 1 + k 2 , e k 1 + k 2 = [ 1 , . . . , 1 ] T &Element; R k 1 + k 2 , Y i = [ y i , y i 1 , . . . , y i k 1 , y i 1 , . . . , y i k 2 ] ,
3)建立全局优化目标函数:
通过样本选择矩阵,低维空间表达Yi的坐标是从全局坐标Y=UTX=[y1,y2,…yN]∈Rd ×N中选择出来的,即
Yi=YSi, (8)
这里Si∈RN×(K+1)是选择矩阵。令Fi={i,i1,…iK}为指示集合,则选择矩阵的定义如下:
根据公式(9),公式(7)可以写为:
arg min Y tr ( Y S i L i S i T Y T ) , - - - ( 10 )
通过对公式(10)的局部优化求和,我们可以得到整体调整公式(11):
arg min Y &Sigma; i = 1 N tr ( Y S i L i S i T Y T ) - - - ( 11 )
= arg min Y tr ( YL Y T ) ,
令Y=UTX,而UTU=Id。Id是d×d的单位矩阵。因此公式(9)可以写成:
arg min Y tr ( U T XL X T U ) - - - ( 12 )
s.t.UTU=Id,
4)利用拉格朗日乘数法,我们可以将求公式(12)的问题转换为求广义特征值的问题,投影矩阵U由式子XLXT的前d个最小特征值对应的d个特征向量得到;
5)通过对无标注人体行为数据集Xu进行投影,即Yu=UTXu,并对Yu采用最小距离分类器(Minimum Euclidean Distance Classifier,MEDC)分类,可以获得人体行为识别的结果。
本发明也可以包括以下步骤:
1)收集人体行为样本作为训练集X,即X=[x1,x2,…,xN]∈RD×N,样本维数为D,样本个数为N,每个样本有相应的类别标志Ci∈Zn
2)寻找基于加速度计的人体行为识别分类最优的投影矩阵U;
3)通过对无标注数据Xu进行投影,即Yu=UTXu
4)对Yu采用最小距离分类器(Minimum Euclidean Distance Classifier,MEDC)分类,以获得人体行为识别的结果;
其特征在于,所述寻找基于加速度计的人体行为识别分类最优的投影矩阵的方法包括以下步骤:
步骤1:建立局部优化目标函数;
步骤2:建立全局优化目标函数;
步骤3:利用拉格朗日乘数法,将求公式(12)的问题转换为求广义特征值的问题,投影矩阵U由式子XLXT的前d个最小特征值对应的d个特征向量得到。
所述步骤1中,建立局部优化目标函数的方法为:对每一个已标注的样本xi,找到同类样本的k1近邻和不同类别样本的k2近邻来形成一个局部块,即 X i = [ x i , x i 1 , . . . x i k 1 , x i 1 , . . . , x i k 2 ] &Element; R D &times; ( k 1 + k 2 + 1 ) ; 另外,定义Rij为第j个样本相对第i个样本里的位置顺序;我们希望每个局部块的新的低维空间表达,即 Y i = [ y i , y i 1 , . . . y i k 1 , y i 1 , . . . , y i k 2 ] &Element; R d &times; ( k 1 + k 2 + 1 ) , 满足不同类别样本(类间样本)距离足够大,同时相同类样本(类内样本)位置顺序信息尽量保留;
对类间样本距离建立(1)式:
M ( y i ) = &Sigma; p = 1 k 2 | | y i - y i p | | 2 , - - - ( 3 )
对类内样本的位置顺序信息建立(2)式:
R ( y i ) = &Sigma; j = 1 k 1 | | y i - y i j | | 2 ( w i ) j , - - - ( 4 )
其中,(wi)j表示区别小距离和大距离之间的惩罚因子,当原始空间的距离小时,我们赋予低维子空间较大的权重,当距离大时,我们赋予较小的权重。
惩罚因子定义为类-sigmoid函数如下:
这里f(u|μ,σ)是均值为μ,标准差为σ的高斯概率密度函数。均值μ和标准差σ可以分别由以下两条公式估计得到:
&mu; = mean 1 &le; i < j &le; N ( d ij ) - 2 ( 1 - &lambda; ) std 1 &le; i < j &le; N ( d ij ) , - - - ( 4 )
&sigma; = 2 &lambda; std 1 &le; i < j &le; N ( d ij ) , - - - ( 5 )
这里,dij是高维空间样本之间的距离,参数λ∈[0,1]是由人为定义的,λ越大,位置顺序信息保持的效果更好,但会影响降维性能,另外,参数λ一般可以通过交叉验证得到;
由于局部块Xi是近似线性的,由公式(1)(2)和一个权衡参数γ,可以得到局部优化的目标函数(6):
arg min y i ( &Sigma; j = 1 k 1 | | y i - y i j | | 2 ( w i ) j - &gamma; &Sigma; p = 1 k 2 | | y i - y i p | | 2 ) , - - - ( 6 )
其中,γ∈[0,1]是一个用于整合类内样本和类间样本贡献值的权衡系数;
公式(6)可以进一步化为以下形式:
arg min y i &Sigma; j = 1 k 1 | | y i - y i j | | 2 ( w i ) j - &gamma; &Sigma; p = 1 k 2 | | y i - y i j | | 2 - - - ( 7 )
= arg min Y i tr ( Y i L i Y i T ) ,
其中,tr(·)是迹算子, L i = - e k 1 + k 2 T I k 1 + k 2 diag ( v i ) - e k 1 + k 2 I k 1 + k 2 , e k 1 + k 2 = [ 1 , . . . , 1 ] T &Element; R k 1 + k 2 , Y i = [ y i , y i 1 , . . . , y i k 1 , y i 1 , . . . , y i k 2 ] ,
所述步骤2中,建立全局优化目标函数的方法为:通过样本选择矩阵,低维空间表达Yi的坐标是从全局坐标Y=UTX=[y1,y2,…yN]∈Rd×N中选择出来的,即
Yi=YSi, (8)
这里Si∈RN×(K+1)是选择矩阵。令Fi={i,i1,…iK}为指示集合,则选择矩阵的定义如下:
根据公式(9),公式(7)可以写为:
arg min Y tr ( Y S i L i S i T Y T ) , - - - ( 10 )
通过对公式(10)的局部优化求和,我们可以得到整体调整公式(11):
arg min Y &Sigma; i = 1 N tr ( Y S i L i S i T Y T ) - - - ( 11 )
= arg min Y tr ( YL Y T ) ,
令Y=UTX,而UTU=Id。Id是d×d的单位矩阵。因此公式(9)可以写成:
arg min Y tr ( U T XL X T U ) - - - ( 12 ) .
s.t.UTU=Id,
本发明相对于现有技术具有如下的优点及效果:
1、通过对标注数据形成的近邻块做局部近似线性的假设,并使块上不同类别之间样本距离足够大,相同类别样本位置顺序信息通过类sigmoid函数惩罚因子尽可能的保留,最后在所有块上目标函数的基础上建立全局目标函数。这样设计与有代表性的基于线性判别分析的识别方法而言,能够合适的保留高维空间中样本之间的距离信息,其识别效果优于基于线性判别分析的人体行为识别方法。
2、本发明可以用少量样本获得很好的识别率,因此减少了人体行为识别模型对人工标注样本的依赖。
3、相对于传统的基于线性判别分析全局线性降维方法,采用本发明可以有效减少训练和测试过程中的存储成本。
附图说明
图1是本发明实施例的流程图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例
为了清楚说明本发明对于基于加速度计的人体行为识别的有效性,如图1所示,在本实施例中进行了人体行为识别的试验,并与经典的线性判别分析(LDA)进行对比。
试验数据选择常见的SCUT NAA数据集,华南理工大学自然的基于加速度传感器的人体动作(SCUT NAA)数据库是第一款公开的基于三轴加速度传感器的人体动作数据库。该数据库是在完全自然的条件下,仅用一个三轴加速度传感器,放置在采集者的腰带位置采集的数据,包括44个不同采集者(34个男性,10个女性)的1278个样本,总共10类动作。这些动作覆盖了很大的运动范围,例如静态动作坐、较轻的动作走路和剧烈活动动作跳跃和跑步。
另外,我们对加速度传感器的数据,提取了FFT特征,提取特征的窗口大小为512个点,连续窗口之间重叠了256个采样点。对于滑动窗口来说,提取前64个FFT系数,由于第一个系数是直流成分,因此被舍弃。每个基于加速度计的人体行为动作连续采样4096点,最终的FFT特征有945维。
具体实施步骤如下:(将实施例与图1结合来具体阐述试验步骤以及列举试验结果)
步骤1:由于每类的样本数量最多为44个,所以我们每类保留一个作为测试样本生成测试集数据Xu,剩余的样本作为人体行为识别模型的训练样本集X,即X=[x1,x2…,xN]∈RD ×N,样本维数为D=945维,训练样本个数为1234,每个样本有相应的类别标志Ci∈Zn
2)建立局部优化目标函数:
对每一个已标注的样本xi,我们可以找到类内样本的k1近邻和类间样本的k2近邻来形成一个局部块,即 X i = [ x i , x i 1 , . . . x i k 1 , x i 1 , . . . , x i k 2 ] &Element; R D &times; ( k 1 + k 2 + 1 ) . 另外,我们定义Rij为第j个样本相对第i个样本里的位置顺序。我们希望每个局部块的新的低维空间表达,即 Y i = [ y i , y i 1 , . . . y i k 1 , y i 1 , . . . , y i k 2 ] &Element; R d &times; ( k 1 + k 2 + 1 ) , 满足不同类别间样本距离足够大,同时相同类内样本位置顺序信息尽可能的保留。
我们对类间样本距离建立(1)式:
M ( y i ) = &Sigma; p = 1 k 2 | | y i - y i p | | 2 , - - - ( 5 )
我们对类内样本的位置顺序信息建立(2)式:
R ( y i ) = &Sigma; j = 1 k 1 | | y i - y i j | | 2 ( w i ) j , - - - ( 6 )
其中(wi)j表示区别小距离和大距离之间的惩罚因子,当原始空间的距离小时,我们赋予低维子空间较大的权重,当距离大时,我们赋予较小的权重。
惩罚因子定义为类-sigmoid函数如下:
这里f(u|μ,σ)是均值为μ,标准差为σ的高斯概率密度函数。均值μ和标准差σ可以分别由以下两条公式估计得到:
&mu; = mean 1 &le; i < j &le; N ( d ij ) - 2 ( 1 - &lambda; ) std 1 &le; i < j &le; N ( d ij ) , - - - ( 4 )
&sigma; = 2 &lambda; std 1 &le; i < j &le; N ( d ij ) , - - - ( 5 )
这里,dij是高维空间样本之间的距离。参数λ∈[0,1]是由人为定义的,λ越大,位置顺序信息保持的效果更好,但会影响降维性能。另外,参数λ一般可以通过交叉验证得到。
由于局部块Xi是近似线性的,由公式(1)(2)和一个权衡参数γ,可以得到局部优化的目标函数(6):
arg min y i ( &Sigma; j = 1 k 1 | | y i - y i j | | 2 ( w i ) j - &gamma; &Sigma; p = 1 k 2 | | y i - y i p | | 2 ) , - - - ( 6 )
其中γ∈[0,1]是一个用于整合类内样本和类间样本贡献值的权衡系数。
公式(6)可以进一步化为以下形式:
arg min y i &Sigma; j = 1 k 1 | | y i - y i j | | 2 ( w i ) j - &gamma; &Sigma; p = 1 k 2 | | y i - y i j | | 2 - - - ( 7 )
= arg min Y i tr ( Y i L i Y i T ) ,
其中,tr(·)是迹算子,
L i = - e k 1 + k 2 T I k 1 + k 2 diag ( v i ) - e k 1 + k 2 I k 1 + k 2 , e k 1 + k 2 = [ 1 , . . . , 1 ] T &Element; R k 1 + k 2 ,
Y i = [ y i , y i 1 , . . . , y i k 1 , y i 1 , . . . , y i k 2 ] ,
3)建立全局优化目标函数:
通过样本选择矩阵,低维空间表达Yi的坐标是从全局坐标Y=UTX=[y1,y2,…yN]∈Rd ×N中选择出来的,即:
Yi=YSi, (8)
这里Si∈RN×(K+1)是选择矩阵。令Fi={i,i1,…iK}为指示集合,则选择矩阵的定义如下:
根据公式(9),公式(7)可以写为:
arg min Y tr ( Y S i L i S i T Y T ) , - - - ( 10 )
通过对公式(10)的局部优化求和,我们可以得到整体调整公式(11):
arg min Y &Sigma; i = 1 N tr ( Y S i L i S i T Y T ) - - - ( 11 )
= arg min Y tr ( YL Y T ) ,
令Y=UTX,而UTU=Id。Id是d×d的单位矩阵。因此公式(9)可以写成:
= arg min Y tr ( U T XL X T U ) - - - ( 12 )
s.t.UTU=Id,
4)利用拉格朗日乘数法,可以将求公式(12)的问题转换为求广义特征值的问题。投影矩阵U由式子XLXT的前d=41个最小特征值对应的d=41个特征向量得到。
5)通过对无标注人体行为数据测试Xu进行投影,即Yu=UTXu,并对Yu采用最小距离分类器(Minimum Euclidean Distance Classifier,MEDC)分类,可以获得人体行为识别的结果。
表1对本专利方法与常见的基于线性判别分析的方法进行了对比,可以看出本专利方法有明显的优势。
表1为本专利方法与常见的基于线性判别分析的方法在SCUT NAA数据库的实验结果:
方法 线性判别分析(LDA) 本专利方法
识别率 78.7% 88.4%
表1
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (1)

1.一种基于加速度计的人体行为识别方法,包括以下步骤:
1)收集人体行为样本作为训练集X,即:X=[x1,x2,…,xN]∈RD×N,样本维数为D,样本个数为N,每个样本有相应的类别标志Ci∈Zn
2)寻找基于加速度计的人体行为识别分类最优的投影矩阵U;
3)通过对无标注数据Xu进行投影,即:Yu=UTXu
4)对Yu采用最小距离分类器分类,以获得人体行为识别的结果;
其特征在于,所述寻找基于加速度计的人体行为识别分类最优的投影矩阵的方法包括以下步骤:
步骤1:建立局部优化目标函数;
步骤2:建立全局优化目标函数;
步骤3:利用拉格朗日乘数法,投影矩阵U由式子XLXT的前d个最小特征值对应的d个特征向量得到;
所述步骤1中,建立局部优化目标函数的方法为:对每一个已标注的样本xi,找到同类样本的k1近邻和不同类别样本的k2近邻来形成一个局部块,即另外,定义Rij为第j个样本相对第i个样本里的位置顺序;当时,满足不同类别样本距离足够大,同时,相同类样本位置顺序信息尽量保留;
对类间样本距离建立(1)式:
M ( y i ) = &Sigma; p = 1 k 2 | | y i - y i p | | 2 , - - - ( 1 )
对类内样本的位置顺序信息建立(2)式:
R ( y i ) = &Sigma; j = 1 k 1 | | y i - y i j | | 2 ( w i ) j , - - - ( 2 )
式中,(wi)j表示区别小距离和大距离之间的惩罚因子,当原始空间的距离小时,赋予低维子空间较大的权重,当距离大时,赋予较小的权重;
所述惩罚因子定义为类-sigmoid函数,所述惩罚因子的表达式如下:
式中,f(u|μ,σ)是均值为μ,标准差为σ的高斯概率密度函数,均值μ和标准差σ可以分别由以下两条公式估计得到:
&mu; = m e a n 1 &le; i < j &le; N ( d i j ) - 2 ( 1 - &lambda; ) s t d 1 &le; i < j &le; N ( d i j ) , - - - ( 4 )
&sigma; = 2 &lambda; s t d 1 &le; i < j &le; N ( d i j ) , - - - ( 5 )
式中,dij是高维空间样本之间的距离,参数λ∈[0,1],并且,参数λ通过交叉验证得到;
由于局部块Xi是近似线性的,由公式(1)(2)和一个权衡参数γ,得到局部优化的目标函数(6):
arg min y i ( &Sigma; j = 1 k 1 | | y i - y i j | | 2 ( w i ) j - &gamma; &Sigma; p = 1 k 2 | | y i - y i p | | 2 ) , - - - ( 6 )
式中,γ∈[0,1]是一个用于整合类内样本和类间样本贡献值的权衡系数;
公式(6)进一步化为以下形式:
arg min y i &Sigma; j = 1 k 1 | | y i - y i j | | 2 ( w i ) j - &gamma; &Sigma; p = 1 k 2 | | y i - y i j | | 2 = arg min Y i t r ( Y i L i Y i T ) , - - - ( 7 )
式中,tr(·)是迹算子,
所述步骤2中,建立全局优化目标函数的方法为:通过样本选择矩阵,低维空间表达Yi的坐标是从全局坐标Y=UTX=[y1,y2,…yN]∈Rd×N中选择出来的,即:
Yi=YSi, (8)
式中,Si∈RN×(K+1)是选择矩阵,令Fi={i,i1,…iK}为指示集合,则选择矩阵的定义如下:
根据公式(9),公式(7)写为:
argmin Y t r ( YS i L i S i T Y T ) , - - - ( 10 )
通过对公式(10)的局部优化求和,得到整体调整公式(11):
arg min Y &Sigma; i = 1 N t r ( YS i L i S i T Y T ) = arg min Y t r ( YLY T ) , - - - ( 11 )
令Y=UTX,而UTU=Id,这里Id是d×d维的单位矩阵,因此公式(9)写成:
argmin Y t r ( U T XLX T U ) s . t . U T U = I d , - - - ( 12 )
式中,U为投影矩阵;X为训练集;为全局校准矩阵;s.t.为subject to,即满足约束;Id为d×d维的单位矩阵。
CN201310428353.7A 2013-09-18 2013-09-18 一种基于加速度计的人体行为识别方法 Active CN103500342B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310428353.7A CN103500342B (zh) 2013-09-18 2013-09-18 一种基于加速度计的人体行为识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310428353.7A CN103500342B (zh) 2013-09-18 2013-09-18 一种基于加速度计的人体行为识别方法

Publications (2)

Publication Number Publication Date
CN103500342A CN103500342A (zh) 2014-01-08
CN103500342B true CN103500342B (zh) 2017-01-04

Family

ID=49865547

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310428353.7A Active CN103500342B (zh) 2013-09-18 2013-09-18 一种基于加速度计的人体行为识别方法

Country Status (1)

Country Link
CN (1) CN103500342B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103810496B (zh) * 2014-01-09 2017-01-25 江南大学 基于图像深度信息的3d高斯空间人体行为识别方法
CA2983574C (en) * 2014-04-22 2021-11-16 Blast Motion Inc. Initializing an inertial sensor using soft constraints and penalty functions
CN103984921B (zh) * 2014-04-29 2017-06-06 华南理工大学 一种用于人体动作识别的三轴特征融合方法
CN104537252B (zh) * 2015-01-05 2019-09-17 深圳市腾讯计算机***有限公司 用户状态单分类模型训练方法和装置
CN105447467A (zh) * 2015-12-01 2016-03-30 北京航空航天大学 一种用户行为模式的识别***和识别方法
CN106919947B (zh) * 2015-12-25 2019-12-13 ***通信集团公司 一种用户吃饭行为识别的方法及装置
CN105590108B (zh) * 2016-02-25 2018-08-17 云南大学 一种有噪环境下的场景识别方法
CN105956558B (zh) * 2016-04-26 2019-07-23 深圳市联合视觉创新科技有限公司 一种基于三轴加速度传感器人体动作识别方法
CN109670527A (zh) * 2018-11-13 2019-04-23 平安科技(深圳)有限公司 加速度识别方法、装置、计算机设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101159019A (zh) * 2007-11-08 2008-04-09 复旦大学 一种用于k近邻分类的线性特征提取方法
CN102867191A (zh) * 2012-09-04 2013-01-09 广东群兴玩具股份有限公司 一种基于流形子空间学习的降维方法
CN103077405A (zh) * 2013-01-18 2013-05-01 浪潮电子信息产业股份有限公司 一种基于Fisher判别分析的贝叶斯分类方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI430212B (zh) * 2010-06-08 2014-03-11 Gorilla Technology Inc 利用多特徵自動集群法之異常行為偵測系統與方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101159019A (zh) * 2007-11-08 2008-04-09 复旦大学 一种用于k近邻分类的线性特征提取方法
CN102867191A (zh) * 2012-09-04 2013-01-09 广东群兴玩具股份有限公司 一种基于流形子空间学习的降维方法
CN103077405A (zh) * 2013-01-18 2013-05-01 浪潮电子信息产业股份有限公司 一种基于Fisher判别分析的贝叶斯分类方法

Also Published As

Publication number Publication date
CN103500342A (zh) 2014-01-08

Similar Documents

Publication Publication Date Title
CN103500342B (zh) 一种基于加速度计的人体行为识别方法
CN110399905A (zh) 施工场景中安全帽佩戴情况的检测及描述方法
CN101561868B (zh) 基于高斯特征的人体运动情感识别方法
CN107657279A (zh) 一种基于少量样本的遥感目标检测方法
CN107609572A (zh) 基于神经网络和迁移学习的多模态情感识别方法、***
CN111199202B (zh) 基于循环注意力网络的人体动作识别方法及识别装置
CN107320115B (zh) 一种自适应的精神疲劳评估装置及方法
CN104809479B (zh) 基于支持向量机的鱼类栖息地适宜性指数建模方法
CN101799875B (zh) 一种目标检测方法
CN104834918A (zh) 一种基于高斯过程分类器的人体行为识别方法
CN106095101A (zh) 基于节能机制的人体行为识别方法及客户端
CN106203296B (zh) 一种属性辅助的视频动作识别方法
CN105117708A (zh) 人脸表情识别的方法和装置
CN104182621A (zh) 基于深度信念网络的adhd判别分析方法
CN103745233B (zh) 基于空间信息迁移的高光谱图像分类方法
CN105956570A (zh) 基于唇部特征和深度学习的笑脸识别方法
CN111259956B (zh) 一种基于惯性传感器的人员非常规行为快速识别方法
CN105678341A (zh) 一种基于Gabor小波分析的羊毛羊绒识别算法
CN110664412A (zh) 一种面向可穿戴传感器的人类活动识别方法
CN103258216A (zh) 一种基于在线学习的局部可形变目标检测方法及其***
CN108717548A (zh) 一种面向传感器动态增加的行为识别模型更新方法及***
WO2022100187A1 (zh) 一种基于移动端对用户的情感进行识别与监测方法
WO2015176417A1 (zh) 一种用于认知状态识别的特征分组归一化方法
CN106845419A (zh) 一种基于运动捕获框架评估步态识别性能的方法
CN107045624A (zh) 一种基于最大加权团的脑电信号预处理与分类方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant