CN103390168A - 基于Kinect深度信息的智能轮椅动态手势识别方法 - Google Patents

基于Kinect深度信息的智能轮椅动态手势识别方法 Download PDF

Info

Publication number
CN103390168A
CN103390168A CN2013103027548A CN201310302754A CN103390168A CN 103390168 A CN103390168 A CN 103390168A CN 2013103027548 A CN2013103027548 A CN 2013103027548A CN 201310302754 A CN201310302754 A CN 201310302754A CN 103390168 A CN103390168 A CN 103390168A
Authority
CN
China
Prior art keywords
gesture
sigma
dynamic
algorithm
dynamic gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2013103027548A
Other languages
English (en)
Inventor
张毅
徐晓东
罗元
谢颖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN2013103027548A priority Critical patent/CN103390168A/zh
Publication of CN103390168A publication Critical patent/CN103390168A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

基于Kinect深度信息的智能轮椅动态手势识别方法,涉及智能轮椅领域,它采用基于Kinect深度图像信息动态手势识别的方法,具有较强的扩展性,且能解决复杂背景、大面积的肤色干扰等对手势检测造成影响的问题,能够准确有效的分割出手部。后续采用了融合Camshift和Kalman滤波的方法快速有效的跟踪手势,采用了融合的特征提取方法,提高了动态手势识别的准备率,用于基于动态手势识别的智能轮椅控制***中,可以达到快速、准确的识别动态手势命令,同时能够安全、稳定地控制智能轮椅,实现人与智能轮椅之间自然、直观的人机交互方式。

Description

基于Kinect深度信息的智能轮椅动态手势识别方法
技术领域
本发明涉及智能轮椅领域,特别是一种识别智能轮椅动态手势的方法。
背景技术
人类自然地与自然界沟通的认知习惯和形式是人机交互的发展方向。因此,研究者们也正在努力让未来的终端能听、能看、能说、能感觉。简单来说,人机交互就是人类与计算机交流互动。从键盘到鼠标控制,再从语音到触摸,再到多点触控,随着人机交互模式使用人群的扩大,并且不断向非专业人群渗透,人机交互方式也越来越回归“自然”。在科技技术的变革中,人机交互技术也有了质的进展,近年来人们对人机交互方式的需求也更加拟人化、自然化。根据人们的需求,研究者在人机交互领域做了更多的研究,因此,设计出来一种广泛的能够被大众接受的人机交互方式,会更好的提高人与机器之间的密切交流,同时也能够提高交互效率。
手势在人们日常交流中就常常使用,手势控制方式的人机交互更容易被大众接受和使用,因此手势控制使用广泛,也在人机交互领域的占了重要地位。手势交互是我们日常生活中广泛使用的人机交互技术,广泛应用于手语识别、电器控制、虚拟现实、机器人控制、智能家居等。
手势是指人手或手臂有目的或有意义的运动,人们可以通过手势用以表达思想或进行交流、传达命令等。手势在人们日常生活中得到最广泛使用的一种交流方式,同时手势识别的研究也受到了越来越广泛的关注。然而,人的手的变化是多种多样的,不同人甚至同一个人的手势在速度、时间、形状等都不尽相同,因此手势具有多样性、多义性,让计算机充分解释不同人的手势,这将是研究中需要解决的一个重要问题。在基于视觉的手势识别研究中,由于视觉研究技术本身的存在不确定性,这些不定因素都使手势识别成为一个融合了多学科的研究课题。
手势识别的分类可以从多个角度来分类,就从手势识别的对象而言,手势识别根据手部的不同特征可以分为动态手势识别和静态手势识别。静态手势可以看作是手形的变化,利用不同的手形表达不同的含义,对应于空间中的一个点,不包含手势运动的轨迹。动态手势是由一系列姿态组成,包含手形变化,对应于空间中的一条轨迹,动态手势就通过不同的空间轨迹来表达不同含义。静态手势识别根据其特性,不涉及图像的时空序列的研究,主要以手的姿势和形状作为识别对象,因此在应用上具有局限性,只能用于相对简单的场合。动态手势识别包含空间序列,是由一系列的手势动作组成,包含手形变化和手势轨迹变化,研究内容几乎涵盖了静态手势识别需要研究的所有领域。动态手势识别结合静态手势识别的结果并加以扩张实现更丰富的语义,因此动态手势识别技术在人机交互发展中非常有意义,研究动态手势识别基本上就是研究手语识别。
智能轮椅作为一种代步工具,主要是为老年人和残障人士提供服务。它融合了自主导航、避障和人机交互等技术。传统意义上的智能轮椅是通过手动操纵杆来完成对运动的控制,对于患有上肢无力或手容易颤抖的用户来说,操纵硬件来控制轮椅显得比较困难,而且该方式也不够自然自观,人机交互的速度也比较慢。不能满足人们对友好、方便、直观的人机交互方式的迫切需要。
发明内容
本发明的目的就是提供一种基于Kinect深度信息的智能轮椅动态手势识别方法,它可以识别人体的动态手势,从而操控智能轮椅。
本发明的目的是通过这样的技术方案实现的,具体步骤如下:
1)Kinect摄像头获取人手的手势视频信号;
2)提取步骤1)得到的手势视频信号,采用灰度直方图进行手势分割,定位手部位置;
3)采用动态手势跟踪算法获取手势轨迹;
4)根据步骤3)中得到的手势轨迹,采用轨迹提取方法,提取手势轨迹方向角作为局部特征,并提取三维质心距函数作为全局特征;
5)以步骤4)中得到的局部特征和全局特征作为输入,运用HMM模型进行动态手势的识别。
进一步,步骤2)中采用灰度直方图进行手势分割,定位手部位置的具体方法为:通过灰度直方图中灰度值由大到小变化,寻找像数点剧变较大的灰度值处作为手势区域分割的阈值。
进一步,步骤3)中所述动态手势跟踪算法为融合Camshift算法与Kalman滤波的动态手势跟踪算法,具体方法为:
3-1)计算当前帧图像搜索窗口的质心位置
设(x,y)为搜索窗中的像素位置,I(x,y)为投影图中(x,y)处的像素值,搜索窗口的零阶矩和一阶矩分别为:
M 00 = Σ x Σ y I ( x , y ) M 10 = Σ x Σ y xI ( x , y ) M 01 = Σ x Σ y yI ( x , y )
其中,M00为零阶矩,M10,M01分别为x和y的一阶矩,可以求得搜索窗口的质心位置为:
x c = M 10 M 00 y c = M 01 M 00
3-2)重新设置搜索窗的大小s:
s = 2 M 00 / 256
3-3)将搜索窗口的中心移动到质心,并判断移动距离是否大于预设固定阀值;
若移动距离大于预设固定阀值,则返回步骤3-1);
若移动距离小于预设阀值,则进入下一帧图像目标搜索,并转入步骤3-1),直到所有帧图像完成目标搜索,获得手心位置;
在新的帧图像中,利用上一帧图像中最终得到的窗口质心位置和零阶矩来设置新的搜索窗口位置和尺寸。
进一步,步骤4)中轨迹提取的具体方法为:
4-1)根据手心位置计算手势运动轨迹
Figure BDA00003531520700034
4-2)提取手势轨迹方向角作为局部特征;
设t和t-1时刻的手心坐标为
Figure BDA00003531520700035
根据下式就可以计算出手势轨迹的方向角根据所得方向角度,对其进行12方向链码离散化
4-3)根据下式提取三维质心距函数作为全局特征;
C [ t ] = [ x [ t ] - x c ] 2 + [ y [ t ] - y c ] 2 , t = 0,1 , . . . , N - 1
其中: x c = 1 N Σ t = 0 N - 1 y [ t ] , y c = 1 N Σ t = 0 N - 1 y [ t ]
xc,yc表示N个节点的加权质心。
进一步,步骤5)中所述HMM模型采用Baum-Welch算法作为训练方法,具体方法为:保存前一次得出的输出概率结果P(O|λ),再计算出本次迭代的输出概率结果比较两次的结果,如果有
Figure BDA00003531520700042
产生,则得到训练模型;
具体步骤如下:
5-1-1)对HMM模型的参数λ={π,A,B}初始化;
5-1-2)输入样本特征序列;
5-1-3)利用Baum-Welch算法进行参数重估,得到新模型,并代替原有的模型;
5-1-4)若满足收敛条件,即两次比较结果的差值小于预设值,则转入步骤5-5),若不满足收敛条件,则返回步骤5-3);
5-1-5)判断样本是否输入完毕,输入完毕则结束,反之,则返回步骤5-1),并将新的模型作为下一个样本的HMM模型初始化。
进一步,步骤5-1-3)中所述Baum-Welch算法为前后向递推算法,具体计算方法为:
前向递推算法:定义变量at(i)=P(o1,o2...oT,qt=i|λ)为前向变量。at(i)表示在给定模型λ的情况下,设在t时刻下的状态i,到t时刻为止的部分观察序列为o1,o2...oT的概率,具体步骤为:
S1-1初始化
at(i)=πibi(o1)
bi(o1)表示状态i所产生观测序列o1的概率值,πi表示在状态i下的初始值;
S1-2递推
a t + 1 ( j ) = [ Σ i = 1 N a t ( i ) a ij ] b j ( o t + 1 ) , t = 1 ~ T - 1 , j = 1 ~ N
S1-3终止在t=T时刻
P ( O | λ ) = Σ j = 1 N a T ( j )
后向递推算法:定义后向变量为βt(i)=P(ot+1,ot+2...oT,qt=i|λ),βt(i)表示在给定模型λ的情况下,设在t时刻下的状态i,到t时刻为止的部分观察序列为ot+1,ot+2...oT的概率,具体步骤为:
S2-1初始化
βT(i)=1,i=1~N
S2-2递推
β t ( i ) = Σ i = 1 N a ij b j ( o t + 1 ) β t + 1 ( i ) , i = 1 ~ N , t = T - 1 , T - 2 , . . . , 1
S2-3终止在t=T时刻
P ( O | λ ) = Σ i = 1 N β T ( i )
前向递推法结合后向递推法就是前后递推法,假设前半部分时间为0~t,后半部分为t~T,那么此时:
P ( O | λ ) = Σ i = 1 N a t ( i ) β t ( i ) .
进一步,步骤5)中所述动态手势的识别的具体方法如下:
5-2-1)首先提取手势轨迹特征,转换成观测向量值;
5-2-2)采用前向后向算法或者Viterbi算法,计算出此动态手势轨迹的观察值向量序列与手势模型库中各个动态手势轨迹的HMM模型的概率P(O|λ);
5-2-3)比较得到概率值最大手势模型,则这个分类为待识别动态手势轨迹的手势模型。
由于采用了上述技术方案,本发明具有如下的优点:
本发明通过Kinect摄像头实时采集图像,根据深度信息采用灰度直方图实现手势分割,之后运用融合Camshift与Kalman滤波的动态手势跟踪获取动态手势轨迹,使用HMM模型训练和识别动态手势。本发明采用基于Kinect深度图像信息动态手势识别的方法,具有较强的扩展性,且能解决复杂背景、大面积的肤色干扰等对手势检测造成影响的问题,能够准确有效的分割出手部。后续采用了融合Camshift和Kalman滤波的方法快速有效的跟踪手势,采用了融合的特征提取方法,提高了动态手势识别的准备率,用于基于动态手势识别的智能轮椅控制***中,可以达到快速、准确的识别动态手势命令,同时能够安全、稳定地控制智能轮椅,实现人与智能轮椅之间自然、直观的人机交互方式。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书和权利要求书来实现和获得。
附图说明
本发明的附图说明如下。
图1为基于Kinect深度信息动态手势识别流程图;
图2为融合Camshift算法和Kalman滤波的动态手势跟踪流程图;
图3为融合局部和全局特征的手势轨迹特征提取流程图;
图4为基于HMM模型的动态手势轨迹训练流程图;
图5为基于HMM模型的动态手势轨迹识别流程图;
图6为基于动态手势识别的智能轮椅控制控制流程图。
具体实施方式
下面结合附图和实施例对本发明作进一步说明。
手势是非刚体性运动,手势的含义也多种多样,在时间和空间上也很多差异,表现方式也多样化,这样使动态手势识别任务更加艰巨。当手部运动时,人的习惯不同,做的动作时间也不同,因此做出的手势差别很大,即使是一个做重复性的动作也不尽相同。动态手势在空间和时间上都不尽相同,都存在着可变性。对于实际应用中不同的实验环境,智能轮椅运动环境不断变化,背景、光照、类肤色物体、遮挡等都使手势识别研究停留在理论研究或者简单背景下的应用。因此需要新的手势分割方法,以及有效的特征提取方法来提高动态手势识别的准确率。本发明采用动态手势识别方法可以解决肤色干扰、遮挡及背景变化的等因素造成的误检测,实现实时动态手势跟踪及识别的效果。
如图1所示,为本发明提出的动态手势识别***框图,Kinect摄像头获取包含人手的视频信号,利用深度信息,采用灰度直方图的方法对其进行手势分割,检测到手部以后采用了融合Camshift算法和Kalman滤波的动态手势跟踪算法获取手势轨迹。由于手势轨迹具有空间多变性,且具有三维信息,因此采用了全局和局部特征轨迹提取方法,提取轨迹特征,运用HMM模型进行动态手势的训练和识别。
如图2所示,为本发明中融合Camshift算法与Kalman滤波的手势跟踪流程图。图2中虚线标示的部分是CamShift算法的核心,以及在此基础上增加了Kalman滤波。Camshift算法的原理是设(x,y)为搜索窗中的像素位置,I(x,y)是投影图中(x,y)处的像素值。搜索窗口的零阶矩和一阶矩分别如下:
M 00 = Σ x Σ y I ( x , y ) - - - ( 1 )
M 10 = Σ x Σ y xI ( x , y ) - - - ( 2 )
M 01 = Σ x Σ y yI ( x , y ) - - - ( 3 )
可以求得搜索窗口内的质心位置为:
x c = M 10 M 00 y c = M 01 M 00 - - - ( 4 )
重新设置搜索窗的大小s:
s = 2 M 00 / 256 - - - ( 5 )
将搜索窗口的中心移动到质心,如果移动距离大于预设的固定阀值,则重新计算调整后的窗口质心,进行新一轮的窗口位置和尺寸调整。直到窗口中心与质心间的移动距离小于预设的固定阀值,或者循环运算的次数达到某一最大值,认为收敛条件满足,进入下一帧图像进行新的目标搜索。在新的图像中,利用上一帧图像中最终得到的窗口质心位置和零阶矩来设置新的搜索窗口的位置和尺寸。在Camshift算法基础上利用Kalman滤波对搜索窗口进行运动预测。该算法快速准确可靠,并且较好地处理了跟踪过程中大面积肤色干扰问题,对复杂场景的检测与跟踪也取得了较好的效果。
如图3所示,为本发明中的手势轨迹特征提取示意图。从全局和局部角度来提取手势轨迹特征,同时也包含了手势轨迹的三维信息,对提取的两种特征进行提取特征向量,并且进行量化作为识别算法的输入。选择方向角作为居部手势轨迹特征,在基于HMM动态手势轨迹识别中被认为是很重要的特征。
获取手心位置后即可得到手势运动轨迹,设t和t-1时刻的手心坐标为
Figure BDA00003531520700073
Figure BDA00003531520700074
式(6)就可以计算出手势轨迹的方向角
Figure BDA00003531520700075
根据所得方向角度,对其进行12方向链码离散化。
Figure BDA00003531520700076
通常情况下人们的大脑都是从整体感知物体,当需要判断手势轨迹时,仍习惯上从整体轨迹的形状来判断手势轨迹代表的意义。并且手心轨迹大多数是三维空间内的,因此本发明采用了质心距离函数Centroid Distance Function,简称CDF作为全局特征,并且在此基础上对CDF算法做了改进。
手势轨迹特征可以映射为基于CDF观测不变量来表示,广泛应用于图像检索领域的方法。CDF是从全局的观测手势轨迹的形状,比绝对坐标更能代表手势轨迹。本质上,CDF表示的是轨迹点上每一个点到中心点的距离,取最接近整数的值作为HMM的观测向量。通过前几章所述的方法检测到手心位置,记录手心轨迹。CDF可以用公式表示为:
C [ t ] = [ x [ t ] - x c ] 2 + [ y [ t ] - y c ] 2 , t = 0,1 , . . . , N - 1 - - - ( 7 )
其中: x c = 1 N Σ t = 0 N - 1 y [ t ] , y c = 1 N Σ t = 0 N - 1 y [ t ]
目前,CDF提取的特征是在二维空间,实际上手势轨迹运动大部分是在三维空间。不同的轨迹经过投影可能具有相同的二维轨迹,相同的手势在同一个平面通过不同的角度投影得到不同的手势,传统的解决办法是增加轨迹分类,但是同时也增加了计算量,降低了识别速度。因此,本发明对CDF进行了改进,增加第三维信息,利用改进的CDF提取三维特征,使三维轨迹特征具有视角不变性,可用公式表示如下:
C [ t ] = [ x [ t ] - x c ] 2 + [ y [ t ] - y c ] 2 + [ z [ t ] - z c ] 2 - - - ( 8 )
t=0,1,...,N-1
其中: x c = 1 N Σ t = 0 N - 1 y [ t ] , y c = 1 N Σ t = 0 N - 1 y [ t ] , z c = 1 N Σ t = 0 N - 1 z [ t ]
实验表明本发明提出的动态手势轨迹特征提取方法具有旋转、平移、缩放三重不变性。
如图4所示,是基于HMM模型进行动态手势训练的示意图。训练就是动态手势的建模过程,即利用参数重估算法不断调整模型的参数,不断优化模型。在初始化模型参数后,采用Baum-Welch算法作为手势轨迹模型训练的算法。训练的原理就是根据Baum-Welch算法反复迭代特性,保存前一次得出的输出概率结果P(O|λ),再计算出本次迭代的输出概率结果
Figure BDA00003531520700084
比较两次的结果,如果有
Figure BDA00003531520700085
产生,则得到训练模型。操作的具体步骤如下:
①按照上述矩阵形式对HMM的参数λ={π,A,B}初始化。
②输入样本特征序列。
③利用Baum-Welch算法进行参数重估,得到新模型,并代替原有的模型。
④如果满足收敛条件,进行下一步,否则重复估计步聚(3)~(4)。
⑤判断样本是否输入完毕,输入完毕执行下一步,否则进行的将新模型作为下一个样本的HMM模型的初始化,并且重复步聚(2)~(5)。
⑥训练结束。
图5所示的是动态手势识别的流程图。动态手势识别的过程就是将待动态识别的手势与己经建立好的动态手势HMM模型库进行匹配,通过计算从而搜索到最佳匹配的过程。动态手势轨迹识别是在训练好HMM模型后进行,主要利用前后向算法和Viterbi算法,通过与训练好的模型库匹配来计算相似度。识别的流程如下:
①首先提取手势轨迹特征,转换成观测向量值;
②然后采用前向后向算法或者Viterbi算法,计算出此动态手势轨迹的观察值向量序列与手势模型库中各个动态手势轨迹的HMM模型的概率P(O|λ);
③比较得到概率值最大手势模型,则这个分类为待识别动态手势轨迹的手势模型。因Viterbi算法更具有实际应用性,因此本文采用Viterbi算法来进行动态手势轨迹识别。
基于动态手势识别的智能轮椅控制***框架如图6所示。首先由Kinect摄像头提取深度信息,通过分类识别算法得到动态手势识别的指令,通过Ad Hoc网络,采用无线网卡与智能轮椅和电脑之间进行无线通信,根据定义好的手势命令可以得到相应的控制命令。通过socket通信,上位机将控制命令发送给ARM控制器。智能轮椅的驱动由ARM9上位机、底层驱动模块和传感器模块完成。上位机***通过RS232串行总线与基于DSP的驱动模块和传感器模块通信,从而实现运动控制。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (7)

1.基于Kinect深度信息的智能轮椅动态手势识别方法,其特征在于,具体步骤如下:
1)Kinect摄像头获取人手的手势视频信号;
2)提取步骤1)得到的手势视频信号,采用灰度直方图进行手势分割,定位手部位置;
3)采用动态手势跟踪算法获取手势轨迹;
4)根据步骤3)中得到的手势轨迹,采用轨迹提取方法,提取手势轨迹方向角作为局部特征,并提取三维质心距函数作为全局特征;
5)以步骤4)中得到的局部特征和全局特征作为输入,运用HMM模型进行动态手势的识别。
2.如权利要求1所述的基于Kinect深度信息的智能轮椅动态手势识别方法,其特征在于,步骤2)中采用灰度直方图进行手势分割,定位手部位置的具体方法为:通过灰度直方图中灰度值由大到小变化,寻找像数点剧变较大的灰度值处作为手势区域分割的阈值。
3.如权利要求1所述的基于Kinect深度信息的智能轮椅动态手势识别方法,其特征在于,步骤3)中所述动态手势跟踪算法为融合Camshift算法与Kalman滤波的动态手势跟踪算法,具体方法为:
3-1)计算当前帧图像搜索窗口的质心位置
设(x,y)为搜索窗中的像素位置,I(x,y)为投影图中(x,y)处的像素值,搜索窗口的零阶矩和一阶矩分别为:
M 00 = Σ x Σ y I ( x , y )
M 10 = Σ x Σ y xI ( x , y )
M 01 = Σ x Σ y yI ( x , y )
其中,M00为零阶矩,M10,M01分别为x和y的一阶矩,可以求得搜索窗口的质心位置为:
x c = M 10 M 00 , y c = M 01 M 00
3-2)重新设置搜索窗的大小s:
s = 2 M 00 / 256
3-3)将搜索窗口的中心移动到质心,并判断移动距离是否大于预设固定阀值;
若移动距离大于预设固定阀值,则返回步骤3-1);
若移动距离小于预设阀值,则进入下一帧图像目标搜索,并转入步骤3-1),直到所有帧图像完成目标搜索,获得手心位置;
在新的帧图像中,利用上一帧图像中最终得到的窗口质心位置和零阶矩来设置新的搜索窗口位置和尺寸。
4.如权利要求3所述的基于Kinect深度信息的智能轮椅动态手势识别方法,其特征在于,步骤4)中轨迹提取的具体方法为:
4-1)根据手心位置计算手势运动轨迹
Figure FDA00003531520600022
4-2)提取手势轨迹方向角作为局部特征;
设t和t-1时刻的手心坐标为
Figure FDA00003531520600023
根据下式就可以计算出手势轨迹的方向角
Figure FDA00003531520600024
根据所得方向角度,对其进行12方向链码离散化
Figure FDA00003531520600025
4-3)根据下式提取三维质心距函数作为全局特征;
C [ t ] = [ x [ t ] - x c ] 2 + [ y [ t ] - y c ] 2 , t = 0,1 , . . . , N - 1
其中: x c = 1 N Σ t = 0 N - 1 y [ t ] , y c = 1 N Σ t = 0 N - 1 y [ t ]
xc,yc表示N个节点的加权质心。
5.如权利要求1所述的基于Kinect深度信息的智能轮椅动态手势识别方法,其特征在于,步骤5)中所述HMM模型采用Baum-Welch算法作为训练方法,具体方法为:保存前一次得出的输出概率结果P(O|λ),再计算出本次迭代的输出概率结果
Figure FDA00003531520600028
比较两次的结果,如果有
Figure FDA00003531520600029
产生,则得到训练模型;
具体步骤如下:
5-1-1)对HMM模型的参数λ={π,A,B}初始化;
5-1-2)输入样本特征序列;
5-1-3)利用Baum-Welch算法进行参数重估,得到新模型,并代替原有的模型;
5-1-4)若满足收敛条件,即两次比较结果的差值小于预设值,则转入步骤5-5),若不满足收敛条件,则返回步骤5-3);
5-1-5)判断样本是否输入完毕,输入完毕则结束,反之,则返回步骤5-1),并将新的模型作为下一个样本的HMM模型初始化。
6.如权利要求5所述的基于Kinect深度信息的智能轮椅动态手势识别方法,其特征在于,步骤5-1-3)中所述Baum-Welch算法为前后向递推算法,具体计算方法为:
前向递推算法:定义变量at(i)=P(o1,o2...oT,qt=i|λ)为前向变量。at(i)表示在给定模型λ的情况下,设在t时刻下的状态i,到t时刻为止的部分观察序列为o1,o2...oT的概率,具体步骤为:
S1-1初始化
at(i)=πibi(o1)
bi(o1)表示状态i所产生观测序列o1的概率值,πi表示在状态i下的初始值;
S1-2递推
a t + 1 ( j ) [ Σ i = 1 N a i ( t ) a ij ] b j ( o t + 1 ) , t = 1 ~ T - 1 , j = 1 ~ N
S1-3终止在t=T时刻
P ( O | λ ) = Σ j = 1 N a T ( j )
后向递推算法:定义后向变量为βt(i)=P(ot+1,ot+2...oT,qt=i|λ),βt(i)表示在给定模型λ的情况下,设在t时刻下的状态i,到t时刻为止的部分观察序列为ot+1,ot+2...oT的概率,具体步骤为:
S2-1初始化
βT(i)=1,i=1~N
S2-2递推
β t ( i ) = Σ i = 1 N a ij b j ( o t + 1 ) β t + 1 ( i ) , i = 1 ~ N , t = T - 1 , T - 2 , . . . , 1
S2-3终止在t=T时刻
P ( O | λ ) = Σ i = 1 N β T ( i )
前向递推法结合后向递推法就是前后递推法,假设前半部分时间为0~t,后半部分为t~T,那么此时:
P ( O | λ ) = Σ i = 1 N a t ( i ) β t ( i ) .
7.如权利要求5所述的基于Kinect深度信息的智能轮椅动态手势识别方法,其特征在于,步骤5)中所述动态手势的识别的具体方法如下:
5-2-1)首先提取手势轨迹特征,转换成观测向量值;
5-2-2)采用前向后向算法或者Viterbi算法,计算出此动态手势轨迹的观察值向量序列与手势模型库中各个动态手势轨迹的HMM模型的概率P(O|λ);
5-2-3)比较得到概率值最大手势模型,则这个分类为待识别动态手势轨迹的手势模型。
CN2013103027548A 2013-07-18 2013-07-18 基于Kinect深度信息的智能轮椅动态手势识别方法 Pending CN103390168A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2013103027548A CN103390168A (zh) 2013-07-18 2013-07-18 基于Kinect深度信息的智能轮椅动态手势识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2013103027548A CN103390168A (zh) 2013-07-18 2013-07-18 基于Kinect深度信息的智能轮椅动态手势识别方法

Publications (1)

Publication Number Publication Date
CN103390168A true CN103390168A (zh) 2013-11-13

Family

ID=49534435

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2013103027548A Pending CN103390168A (zh) 2013-07-18 2013-07-18 基于Kinect深度信息的智能轮椅动态手势识别方法

Country Status (1)

Country Link
CN (1) CN103390168A (zh)

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103713554A (zh) * 2013-12-26 2014-04-09 浙江师范大学 一种体感跟随式控制***及应用此***的搬运车
CN103903011A (zh) * 2014-04-02 2014-07-02 重庆邮电大学 基于图像深度信息的智能轮椅手势识别控制方法
CN104123007A (zh) * 2014-07-29 2014-10-29 电子科技大学 一种多维加权的3d动态手势识别方法
CN104390645A (zh) * 2014-12-09 2015-03-04 重庆邮电大学 一种基于视觉信息的智能轮椅室内导航方法
CN104573665A (zh) * 2015-01-23 2015-04-29 北京理工大学 一种基于改进维特比算法的连续动作识别方法
CN105469043A (zh) * 2015-11-20 2016-04-06 苏州铭冠软件科技有限公司 一种手势识别***
CN105787471A (zh) * 2016-03-25 2016-07-20 南京邮电大学 一种应用于助老助残移动服务机器人控制的手势识别方法
CN105807926A (zh) * 2016-03-08 2016-07-27 中山大学 一种基于三维连续动态手势识别的无人机人机交互方法
CN106095107A (zh) * 2016-06-21 2016-11-09 南京邮电大学 一种应用于智能移动轮椅的手势交互控制方法
CN106557173A (zh) * 2016-11-29 2017-04-05 重庆重智机器人研究院有限公司 动态手势识别方法及装置
CN106682585A (zh) * 2016-12-02 2017-05-17 南京理工大学 一种基于kinect2的动态手势识别方法
CN106909106A (zh) * 2017-03-22 2017-06-30 河海大学常州校区 一种电动轮椅的体感控制方法及装置
CN107168633A (zh) * 2017-04-07 2017-09-15 南京邮电大学 一种基于数据依赖的手势交互查询事件构建方法
CN107390573A (zh) * 2017-06-28 2017-11-24 长安大学 基于手势控制的智能轮椅***及控制方法
CN107680104A (zh) * 2017-09-23 2018-02-09 天津大学 基于kalman滤波的手势分割方法
CN107765855A (zh) * 2017-10-25 2018-03-06 电子科技大学 一种基于手势识别控制机器人运动的方法和***
CN107766842A (zh) * 2017-11-10 2018-03-06 济南大学 一种手势识别方法及其应用
CN108280489A (zh) * 2018-02-12 2018-07-13 中国银行股份有限公司 一种样本数据生成方法及装置
WO2018170713A1 (zh) * 2017-03-21 2018-09-27 深圳市欸阿技术有限公司 基于手势识别的小车控制方法、装置
CN108682021A (zh) * 2018-04-18 2018-10-19 平安科技(深圳)有限公司 快速手部跟踪方法、装置、终端及存储介质
CN109086664A (zh) * 2018-06-27 2018-12-25 济南大学 一种动静态融合的多态手势识别方法
CN109143875A (zh) * 2018-06-29 2019-01-04 广州市得腾技术服务有限责任公司 一种手势控制智能家居方法及其***
CN109190559A (zh) * 2018-08-31 2019-01-11 深圳先进技术研究院 一种手势识别方法、手势识别装置及电子设备
CN109330494A (zh) * 2018-11-01 2019-02-15 珠海格力电器股份有限公司 基于动作识别的扫地机器人控制方法、***、扫地机器人
CN109472222A (zh) * 2018-10-25 2019-03-15 深圳市象形字科技股份有限公司 一种基于计算机视觉技术的辅助二胡练习者姿态检测方法
CN109523567A (zh) * 2018-10-25 2019-03-26 深圳市象形字科技股份有限公司 一种基于计算机视觉技术的辅助二胡练习者指法检测方法
CN109543543A (zh) * 2018-10-25 2019-03-29 深圳市象形字科技股份有限公司 一种基于计算机视觉技术的辅助二胡练习者弓法检测方法
CN109839827A (zh) * 2018-12-26 2019-06-04 哈尔滨拓博科技有限公司 一种基于全空间位置信息的手势识别智能家居控制***
CN110037869A (zh) * 2019-05-17 2019-07-23 广州足步医疗科技有限公司 带双遥控器的轮式控制***及其控制方法
CN110058688A (zh) * 2019-05-31 2019-07-26 安庆师范大学 一种投影用动态手势翻页的***及其方法
CN110246154A (zh) * 2019-05-07 2019-09-17 重庆邮电大学 一种基于ica-r多特征融合与自适应更新的视觉目标跟踪方法
CN110695990A (zh) * 2019-09-23 2020-01-17 江苏理工学院 一种基于Kinect手势识别的机械臂控制***
CN111897433A (zh) * 2020-08-04 2020-11-06 吉林大学 一种集成成像显示***中实现动态手势识别与控制方法
CN112115791A (zh) * 2020-08-18 2020-12-22 北京嘀嘀无限科技发展有限公司 图像识别方法、装置、电子设备和计算机可读存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030113018A1 (en) * 2001-07-18 2003-06-19 Nefian Ara Victor Dynamic gesture recognition from stereo sequences
CN102339379A (zh) * 2011-04-28 2012-02-01 重庆邮电大学 手势识别方法及基于手势识别控制的智能轮椅人机***

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030113018A1 (en) * 2001-07-18 2003-06-19 Nefian Ara Victor Dynamic gesture recognition from stereo sequences
CN102339379A (zh) * 2011-04-28 2012-02-01 重庆邮电大学 手势识别方法及基于手势识别控制的智能轮椅人机***

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
曹雏清等: "基于深度图像技术的手势识别方法", 《计算机工程》, 26 June 2012 (2012-06-26) *
罗元等: "基于CamShift和Kalman滤波混合的视频手势跟踪算法", 《计算机应用研究》, 28 April 2009 (2009-04-28) *
许杏: "基于隐马尔可夫模型的手势识别研究", 《中国优秀硕士学位论文全文数据库信息科技辑》, 15 December 2011 (2011-12-15) *

Cited By (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103713554A (zh) * 2013-12-26 2014-04-09 浙江师范大学 一种体感跟随式控制***及应用此***的搬运车
CN103903011A (zh) * 2014-04-02 2014-07-02 重庆邮电大学 基于图像深度信息的智能轮椅手势识别控制方法
CN104123007B (zh) * 2014-07-29 2017-01-11 电子科技大学 一种多维加权的3d动态手势识别方法
CN104123007A (zh) * 2014-07-29 2014-10-29 电子科技大学 一种多维加权的3d动态手势识别方法
CN104390645A (zh) * 2014-12-09 2015-03-04 重庆邮电大学 一种基于视觉信息的智能轮椅室内导航方法
CN104390645B (zh) * 2014-12-09 2017-11-07 重庆邮电大学 一种基于视觉信息的智能轮椅室内导航方法
CN104573665A (zh) * 2015-01-23 2015-04-29 北京理工大学 一种基于改进维特比算法的连续动作识别方法
CN104573665B (zh) * 2015-01-23 2017-10-17 北京理工大学 一种基于改进维特比算法的连续动作识别方法
CN105469043A (zh) * 2015-11-20 2016-04-06 苏州铭冠软件科技有限公司 一种手势识别***
CN105807926A (zh) * 2016-03-08 2016-07-27 中山大学 一种基于三维连续动态手势识别的无人机人机交互方法
CN105807926B (zh) * 2016-03-08 2019-06-21 中山大学 一种基于三维连续动态手势识别的无人机人机交互方法
CN105787471B (zh) * 2016-03-25 2019-05-03 南京邮电大学 一种应用于助老助残移动服务机器人控制的手势识别方法
CN105787471A (zh) * 2016-03-25 2016-07-20 南京邮电大学 一种应用于助老助残移动服务机器人控制的手势识别方法
CN106095107A (zh) * 2016-06-21 2016-11-09 南京邮电大学 一种应用于智能移动轮椅的手势交互控制方法
CN106557173A (zh) * 2016-11-29 2017-04-05 重庆重智机器人研究院有限公司 动态手势识别方法及装置
CN106557173B (zh) * 2016-11-29 2019-10-18 重庆重智机器人研究院有限公司 动态手势识别方法及装置
CN106682585A (zh) * 2016-12-02 2017-05-17 南京理工大学 一种基于kinect2的动态手势识别方法
WO2018170713A1 (zh) * 2017-03-21 2018-09-27 深圳市欸阿技术有限公司 基于手势识别的小车控制方法、装置
CN106909106A (zh) * 2017-03-22 2017-06-30 河海大学常州校区 一种电动轮椅的体感控制方法及装置
CN107168633A (zh) * 2017-04-07 2017-09-15 南京邮电大学 一种基于数据依赖的手势交互查询事件构建方法
CN107168633B (zh) * 2017-04-07 2019-08-06 南京邮电大学 一种基于数据依赖的手势交互查询事件构建方法
CN107390573A (zh) * 2017-06-28 2017-11-24 长安大学 基于手势控制的智能轮椅***及控制方法
CN107390573B (zh) * 2017-06-28 2020-05-29 长安大学 基于手势控制的智能轮椅***及控制方法
CN107680104B (zh) * 2017-09-23 2020-10-23 天津大学 基于kalman滤波的手势分割方法
CN107680104A (zh) * 2017-09-23 2018-02-09 天津大学 基于kalman滤波的手势分割方法
CN107765855A (zh) * 2017-10-25 2018-03-06 电子科技大学 一种基于手势识别控制机器人运动的方法和***
CN107766842B (zh) * 2017-11-10 2020-07-28 济南大学 一种手势识别方法及其应用
CN107766842A (zh) * 2017-11-10 2018-03-06 济南大学 一种手势识别方法及其应用
CN108280489A (zh) * 2018-02-12 2018-07-13 中国银行股份有限公司 一种样本数据生成方法及装置
CN108682021A (zh) * 2018-04-18 2018-10-19 平安科技(深圳)有限公司 快速手部跟踪方法、装置、终端及存储介质
CN109086664B (zh) * 2018-06-27 2023-04-28 济南大学 一种动静态融合的多态手势识别方法
CN109086664A (zh) * 2018-06-27 2018-12-25 济南大学 一种动静态融合的多态手势识别方法
CN109143875A (zh) * 2018-06-29 2019-01-04 广州市得腾技术服务有限责任公司 一种手势控制智能家居方法及其***
CN109190559A (zh) * 2018-08-31 2019-01-11 深圳先进技术研究院 一种手势识别方法、手势识别装置及电子设备
CN109523567A (zh) * 2018-10-25 2019-03-26 深圳市象形字科技股份有限公司 一种基于计算机视觉技术的辅助二胡练习者指法检测方法
CN109472222A (zh) * 2018-10-25 2019-03-15 深圳市象形字科技股份有限公司 一种基于计算机视觉技术的辅助二胡练习者姿态检测方法
CN109543543A (zh) * 2018-10-25 2019-03-29 深圳市象形字科技股份有限公司 一种基于计算机视觉技术的辅助二胡练习者弓法检测方法
CN109330494A (zh) * 2018-11-01 2019-02-15 珠海格力电器股份有限公司 基于动作识别的扫地机器人控制方法、***、扫地机器人
CN109839827A (zh) * 2018-12-26 2019-06-04 哈尔滨拓博科技有限公司 一种基于全空间位置信息的手势识别智能家居控制***
CN110246154A (zh) * 2019-05-07 2019-09-17 重庆邮电大学 一种基于ica-r多特征融合与自适应更新的视觉目标跟踪方法
CN110246154B (zh) * 2019-05-07 2022-12-27 重庆邮电大学 一种基于ica-r多特征融合与自适应更新的视觉目标跟踪方法
CN110037869A (zh) * 2019-05-17 2019-07-23 广州足步医疗科技有限公司 带双遥控器的轮式控制***及其控制方法
CN110058688A (zh) * 2019-05-31 2019-07-26 安庆师范大学 一种投影用动态手势翻页的***及其方法
CN110695990A (zh) * 2019-09-23 2020-01-17 江苏理工学院 一种基于Kinect手势识别的机械臂控制***
CN111897433A (zh) * 2020-08-04 2020-11-06 吉林大学 一种集成成像显示***中实现动态手势识别与控制方法
CN112115791A (zh) * 2020-08-18 2020-12-22 北京嘀嘀无限科技发展有限公司 图像识别方法、装置、电子设备和计算机可读存储介质

Similar Documents

Publication Publication Date Title
CN103390168A (zh) 基于Kinect深度信息的智能轮椅动态手势识别方法
CN105787471B (zh) 一种应用于助老助残移动服务机器人控制的手势识别方法
Chaudhary et al. Intelligent approaches to interact with machines using hand gesture recognition in natural way: a survey
CN106650687B (zh) 一种基于深度信息和骨骼信息的姿势矫正方法
CN105807926B (zh) 一种基于三维连续动态手势识别的无人机人机交互方法
CN105320944B (zh) 一种基于人体骨架运动信息的人体行为预测方法
Gu et al. Human gesture recognition through a kinect sensor
CN104123007B (zh) 一种多维加权的3d动态手势识别方法
CN103246891B (zh) 一种基于Kinect的中国手语识别方法
CN104317386B (zh) 一种姿势序列有限状态机动作识别方法
CN100407798C (zh) 三维几何建模***和方法
CN102567703B (zh) 一种基于分类特征的手部动作识别信息处理方法
CN105739702A (zh) 用于自然人机交互的多姿态指尖跟踪方法
CN110473284A (zh) 一种基于深度学习的运动物体三维模型重建方法
CN106406518A (zh) 手势控制装置及手势识别方法
CN106502390B (zh) 一种基于动态3d手写数字识别的虚拟人交互***及方法
CN104461000B (zh) 一种基于少量缺失信号的在线连续人体运动识别方法
CN104038799A (zh) 一种面向立体电视的手势操控方法
Ghotkar et al. Dynamic hand gesture recognition using hidden Markov model by Microsoft Kinect sensor
CN110348321A (zh) 基于骨骼时空特征及长短时记忆网络的人体动作识别方法
CN113221726A (zh) 一种基于视觉与惯性信息融合的手部姿态估计方法及***
CN111444488A (zh) 一种基于动态手势的身份认证方法
Geng et al. Combining features for chinese sign language recognition with kinect
CN111382699A (zh) 基于粒子群优化lstm算法的动态手势识别方法
Ko et al. CNN and bi-LSTM based 3D golf swing analysis by frontal swing sequence images

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20131113

RJ01 Rejection of invention patent application after publication