CN110472506B - 一种基于支持向量机和神经网络优化的手势识别方法 - Google Patents

一种基于支持向量机和神经网络优化的手势识别方法 Download PDF

Info

Publication number
CN110472506B
CN110472506B CN201910625657.XA CN201910625657A CN110472506B CN 110472506 B CN110472506 B CN 110472506B CN 201910625657 A CN201910625657 A CN 201910625657A CN 110472506 B CN110472506 B CN 110472506B
Authority
CN
China
Prior art keywords
data
gesture
finger
neural network
speed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910625657.XA
Other languages
English (en)
Other versions
CN110472506A (zh
Inventor
廖佳培
刘治
章云
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong University of Technology
Original Assignee
Guangdong University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong University of Technology filed Critical Guangdong University of Technology
Priority to CN201910625657.XA priority Critical patent/CN110472506B/zh
Publication of CN110472506A publication Critical patent/CN110472506A/zh
Application granted granted Critical
Publication of CN110472506B publication Critical patent/CN110472506B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明涉及智能穿戴式设备识别技术领域,更具体地,涉及一种基于支持向量机和神经网络优化的手势识别方法。包括以下步骤:首先进行手势数据的采集;接着对获取的手势数据预处理;然后进行手势的特征提取;经过多模态融合,确定理想的特征结构,生成多模态融合特征向量用于预测模型;最后采用支持向量机(SVM)和优化的神经网络作为预测算法进行手势模型的判断。本发明通过多模态融合和神经网络预测模型的数据手套预测***,有效提高了识别速度,加快训练效果,减少了时间成本;本发明能有效提高了预测的有效性和可靠性。

Description

一种基于支持向量机和神经网络优化的手势识别方法
技术领域
本发明涉及智能穿戴式设备识别技术领域,更具体地,涉及一种基于支持向量机和神经网络优化的手势识别方法。
背景技术
目前,目前的手势识别技术分为基于数据手套和基于计算机视觉两大类。手势识别主要有两大问题需要解决:首先是手势特征的选取,基于数据手套的手势识别技术从一开始就依赖于各种各样的人工神经网络,Beale和Edwards在1990年就利用人工神经网络识别了与美国手势语言(ASL)相关的5个静态手势。特征提取技术也被用来提高手势识别的准确率,Fels和Hinton在1993年就利用人工神经网络提取手势特征,另一个研究案列是SLATI***的研制,该***由Vamplew和Adams在1996年设计出来,并用于识别澳大利亚手势语言的手势,***由4个用于提取特征向量的人工神经网络构成。最近的基于特征提取的手势识别技术研究是Oz和Leu在2011年设计的***,该***用CyberGlove数据手套、跟踪***和一个前馈神经网络实现了对ASL的手势识别;其次是分类器的选择,手势识别算法研究一般有模板匹配法,神经网络法,支持向量机法等。但是,目前的手势识别方法,算法识别效率较低,影响了设备的使用。
发明内容
本发明为克服上述现有技术中识别效率低的缺陷,提供一种基于支持向量机和神经网络优化的手势识别方法,能够有效提高识别速度,加快训练效果。
为解决上述技术问题,本发明采用的技术方案是:一种基于支持向量机和神经网络优化的手势识别方法,包括以下步骤:
S1.手势数据采集,利用可穿戴式设备--数据手套对手套操控者的手势运动进行数据采集,并且在做每个静态动作时稍微的移动以产生噪声;
S2.数据预处理,为了保证神经网络的输入输出值,将数据手套各个传感器采集到的样本数据[X0,Y0]进归一化处理,将数据映射到[0,1]区间,得到网络的训练样本[X,Y];然后进行数据滤波处理,为了去掉噪声和提高识别算法精度,将归一化后的数据进行滤波处理;
S3.进行手势特征提取,提取每一种手势的手型特征并表示出来,结合特征点集确定出适合做静态手势的手势模板,为后面手势识别判断手势做准备工作;
S4.构建多模态融合,计算手指和手掌的位置空间特征、速度和加速度的时间特征、手指相邻耦合特征,将这三种不同特征通道的组合形成多模态融合;
S5.通过多模态融合,确定理想的特征结构;
S6.构建多层感知器神经网络(MLP)和多类支持向量机(SVM)相结合,形成预测算法;
S7.将待识别的手势数据输入到多模态融合和神经网络预测模型的数据手套预测***,预测手势模型。
进一步的,所述的S2步骤中采用巴斯沃滤波器对数据进行滤波处理;所述的步骤S2中进行归一化处理的具体公式为:
Figure GDA0004175842300000021
Figure GDA0004175842300000022
通过上述公式得到网络的训练样本[X,Y],式中x0i,min,x0i,max分别表示随机代表样本数据中x0i的最小值和最大值,同理,式中y0i,min,y0i,max也是分别表示随机代表样本数据中y0i的最小值和最大值。
进一步地,所述的S3步骤进行手势特征提取具体包括:数据手套采集手指运动和手掌弯曲的实时位置信息,为了从实测数据中提取更多的手势信息,计算数据随时间变化的关系特征、每个手指的速度和加速度;为了使***更加稳定,使用移动平均法来平滑速度;采用高斯白噪声进行数据扩充,扩大数据集。
进一步地,所述的计算每个手指的速度和加速度,具体包括:提取每根手指的速度和加速度计算,为了避免异常值,保证稳定性,每6个采样数据计算一个力矩的速度,而加速度是4个速度采样数据,即:
Figure GDA0004175842300000031
Figure GDA0004175842300000032
式中,P为数据手套中传感器采集到的位置数据,下标t表示不同时刻,l表示传感器的具体数量。
进一步地,所述的S4步骤构建多模态融合,具体包括以下步骤:
S41.结合数据手套传感器数据及其速度,使每一个时间点对应一个多模态向量,并对矢量进行缩放:
Figure GDA0004175842300000033
S42.为了更好地描述相邻手指之间的相互作用,计算双指特征:
Figure GDA0004175842300000034
式中,M是手指位置的范围,除以M将绝对弯曲指尖距离标准化到区间[0,1];相邻手指距离特征区分了相邻手指之间不同类型的相互作用;每个手指和手掌的位置反映空间特征,结合上述速度和加速度时间特征,通过计算手指相邻耦合特征;这三种不同特征通道的组合形成了多模态融合。
进一步地,所述的S5步骤中确定特征结构具体包括:每个采样时间都经过单独的预处理,这里的预处理即指以上S2步骤所述的预处理操作,对每个时间点单独操作,作为特征提取的输入;每个采样时间都有各自独立的特征提取;经过多模态融合,确定理想的特征结构;当手势发生改变时,将数据手套采集的原始数据作为特征提取算法的输入,生成多模态融合特征向量用于预测模型;为了避免异常值,速度、加速度、手指位置、手掌位置、手指相邻指尖之间的绝对弯曲距离,这五个特性中的每一个都组成一个组;采用一种增强方法,得到一个中间预测手势作为每个特征组的输出;其中,增强方法是指:输入中间预测手势,对每个中间预测手势判断原始手势是不是等于预测手势,若相等则清空所有中间预测手势,否则,返回预测手势。
进一步地,所述的多层感知器(MLP)为一个包含n层隐含层的多层感知器,第一隐含层包含输入向量x=[1,x1,x2,x3,...,xm]和权值W=[ω0123,...,ωn],其中m是输入向量的大小,n是隐含层的神经元个数,ω0是偏置值;输出向量表示为:
f(x)=G(sn(W(n)...(s2(W(2)(s1(W(1)))))))
G作为softmax函数实现多类分类,表示为:
Figure GDA0004175842300000041
其中,输出的编码方法为one-hot,在对参数进行训练时,采用交叉熵代价函数,y为理想输出,a为实际输出:
Figure GDA0004175842300000042
进一步地,所述的S6步骤中支持向量机(SVM)的目标函数为:
max(1/||ω||)
s.t.,yi(wTxi+b)≥1,i=1,...,n
使用拉格朗日乘子α转化为双变量优化问题,将约束条件合并到目标函数中,其表示为:
Figure GDA0004175842300000043
其中w和b分别为权重和偏差;为了解决非线性问题,简化计算,采用核函数法:
Figure GDA0004175842300000044
s.t.,αi≥0,i=1,...,n
Figure GDA0004175842300000045
式中,k(xi,xj)代表不同的核函数核函数,αi、αj表拉格朗日系数,满足两面两个式子,这是高数和最优化核函数法的公式。
与现有技术相比,有益效果是:本发明通过多模态融合和神经网络预测模型的数据手套预测***,有效提高了识别速度,加快训练效果,减少了时间成本;能有效提高预测的有效性和可靠性;有效地对简单和复杂的静态手势进行识别。
附图说明
图1是本发明的方法流程图。
图2是本发明预测算法框架图。
图3是本发明MLP和SVM融合算法结构图。
图4是本发明多层感知器(MLP)网络结构图。
具体实施方式
附图仅用于示例性说明,不能理解为对本发明的限制;为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。附图中描述位置关系仅用于示例性说明,不能理解为对本发明的限制。
如图1所示,一种基于支持向量机和神经网络优化的手势识别方法,包括以下步骤:
S1.手势数据采集,利用可穿戴式设备--数据手套对手套操控者的手势运动进行数据采集,并且在做每个静态动作时稍微的移动以产生噪声;
S2.数据预处理,为了保证神经网络的输入输出值,将数据手套各个传感器采集到的样本数据[X0,Y0]进归一化处理,将数据映射到[0,1]区间,得到网络的训练样本[X,Y];然后进行数据滤波处理,为了去掉噪声和提高识别算法精度,将归一化后的数据进行滤波处理;
S3.进行手势特征提取,提取每一种手势的手型特征并表示出来,结合特征点集确定出适合做静态手势的手势模板,为后面手势识别判断手势做准备工作;
S4.构建多模态融合,计算手指和手掌的位置空间特征、速度和加速度的时间特征、手指相邻耦合特征,将这三种不同特征通道的组合形成多模态融合;
S5.通过多模态融合,确定理想的特征结构;
S6.如图3所示,构建多层感知器神经网络(MLP)和多类支持向量机(SVM)相结合,形成预测算法;
S7.将待识别的手势数据输入到多模态融合和神经网络预测模型的数据手套预测***,预测手势模型。
其中,S2步骤中采用巴斯沃滤波器对数据进行滤波处理;步骤S2中进行归一化处理的具体公式为:
Figure GDA0004175842300000061
Figure GDA0004175842300000062
通过上述公式得到网络的训练样本[X,Y],式中x0i,min,x0i,max分别表示随机代表样本数据中x0i的最小值和最大值,同理,式中y0i,min,y0i,max也是分别表示随机代表样本数据中y0i的最小值和最大值。
具体的,S3步骤进行手势特征提取具体包括:数据手套采集手指运动和手掌弯曲的实时位置信息,为了从实测数据中提取更多的手势信息,计算数据随时间变化的关系特征、每个手指的速度和加速度;为了使***更加稳定,使用移动平均法来平滑速度;采用高斯白噪声进行数据扩充,扩大数据集。
其中,计算每个手指的速度和加速度,具体包括:提取每根手指的速度和加速度计算,为了避免异常值,保证稳定性,每6个采样数据计算一个力矩的速度,而加速度是4个速度采样数据,即:
Figure GDA0004175842300000063
Figure GDA0004175842300000064
式中,P为数据手套中传感器采集到的位置数据,下标t表示不同时刻,l表示传感器的具体数量。
另外,S4步骤构建多模态融合,具体包括以下步骤:
S41.结合数据手套传感器数据及其速度,使每一个时间点对应一个多模态向量,并对矢量进行缩放:
Figure GDA0004175842300000071
其中,Feature代表的是每一个时间点对应的多模态向量,这个公式是基于归一化公式的思想,对这个矢量进行缩放;
S42.为了更好地描述相邻手指之间的相互作用,计算双指特征:
Figure GDA0004175842300000072
式中,M是手指位置的范围,除以M将绝对弯曲指尖距离标准化到区间[0,1];相邻手指距离特征区分了相邻手指之间不同类型的相互作用;每个手指和手掌的位置反映空间特征,结合上述速度和加速度时间特征,通过计算手指相邻耦合特征;这三种不同特征通道的组合形成了多模态融合。
如图2所示,S5步骤中确定特征结构具体包括:每个采样时间都经过单独的预处理,作为特征提取的输入;每个采样时间都有各自独立的特征提取;经过多模态融合,确定理想的特征结构;当手势发生改变时,将数据手套采集的原始数据作为特征提取算法的输入,生成多模态融合特征向量用于预测模型;为了避免异常值,速度、加速度、手指位置、手掌位置、手指相邻指尖之间的绝对弯曲距离,这五个特性中的每一个都组成一个组;采用一种增强方法,得到一个中间预测手势作为每个特征组的输出;其中,增强方法是指:输入中间预测手势,对每个中间预测手势判断原始手势是不是等于预测手势,若相等则清空所有中间预测手势,否则,返回预测手势。
如图4所示,多层感知器(MLP)为一个包含n层隐含层的多层感知器,第一隐含层包含输入向量x=[1,x1,x2,x3,...,xm]和权值W=[ω0123,...,ωn],其中m是输入向量的大小,n是隐含层的神经元个数,ω0是偏置值;输出向量表示为:
f(x)=G(sn(W(n)...(s2(W(2)(s1(W(1)))))))
G作为softmax函数实现多类分类,表示为:
Figure GDA0004175842300000073
其中,输出的编码方法为one-hot,在对参数进行训练时,采用交叉熵代价函数,y为理想输出,a为实际输出,交叉熵代价函数为:
Figure GDA0004175842300000081
另外,S6步骤中支持向量机(SVM)的目标函数为:
max(1/||ω||)
s.t.,yi(wTxi+b)≥1,i=1,...,n
使用拉格朗日乘子α转化为双变量优化问题,将约束条件合并到目标函数中,其表示为:
Figure GDA0004175842300000082
其中w和b分别为权重和偏差;为了解决非线性问题,简化计算,采用核函数法:
Figure GDA0004175842300000083
s.t.,αi≥0,i=1,...,n
Figure GDA0004175842300000084
式中,k(xi,xj)代表不同的核函数核函数。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (2)

1.一种基于支持向量机和神经网络优化的手势识别方法,其特征在于,包括以下步骤:
S1.手势数据采集,利用可穿戴式数据手套对手套操控者的手势运动进行数据采集,并且在做每个静态动作时稍微的移动以产生噪声;
S2.数据预处理,为了保证神经网络的输入输出值,将数据手套各个传感器采集到的样本数据[X0,Y0]进归一化处理,将数据映射到[0,1]区间,得到网络的训练样本[X,Y];然后进行数据滤波处理,为了去掉噪声和提高识别算法精度,将归一化后的数据进行滤波处理;
S3.进行手势特征提取,提取每一种手势的手型特征并表示出来,结合特征点集确定出适合做静态手势的手势模板,为后面手势识别判断手势做准备工作;手势特征提取具体包括:数据手套采集手指运动和手掌弯曲的实时位置信息,计算数据随时间变化的关系特征、每个手指的速度和加速度;使用移动平均法来平滑速度;采用高斯白噪声进行数据扩充,扩大数据集;所述的计算每个手指的速度和加速度,具体包括:提取每根手指的速度和加速度计算,为了避免异常值,保证稳定性,每6个采样数据计算一个速度
Figure QLYQS_1
而加速度/>
Figure QLYQS_2
是4个速度采样数据,即:
Figure QLYQS_3
Figure QLYQS_4
式中,P为数据手套中传感器采集到的位置数据,下标t表示不同时刻,l表示传感器的具体数量;
S4.构建多模态融合,计算手指和手掌的位置空间特征、速度和加速度的时间特征、手指相邻耦合特征,将这三种不同特征通道的组合形成多模态融合;具体包括以下步骤:
S41.结合数据手套传感器数据及其速度,使每一个时间点对应一个多模态向量,并对矢量进行缩放:
Figure QLYQS_5
S42.为了更好地描述相邻手指之间的相互作用,计算双指特征:
Figure QLYQS_6
式中,M是手指位置的范围,除以M将绝对弯曲指尖距离标准化到区间[0,1];相邻手指距离特征区分了相邻手指之间不同类型的相互作用;每个手指和手掌的位置反映空间特征,结合上述速度和加速度时间特征,通过计算手指相邻耦合特征;这三种不同特征通道的组合形成了多模态融合;
S5.通过多模态融合,确定理想的特征结构;所述的S5步骤中确定特征结构具体包括:每个采样时间都经过单独的预处理,作为特征提取的输入;每个采样时间都有各自独立的特征提取;经过多模态融合,确定理想的特征结构;当手势发生改变时,将数据手套采集的原始数据作为特征提取算法的输入,生成多模态融合特征向量用于预测模型;为了避免异常值,速度、加速度、手指位置、手掌位置、手指相邻指尖之间的绝对弯曲距离,这五个特性中的每一个都组成一个组;采用一种增强方法,得到一个中间预测手势作为每个特征组的输出;其中,所述增强方法是指:输入中间预测手势,对每个中间预测手势判断原始手势是不是等于预测手势,若相等则清空所有中间预测手势,否则,返回预测手势;
S6.构建多层感知器神经网络和多类支持向量机相结合,形成预测算法;其中,多层感知器为一个包含n层隐含层的多层感知器,第一隐含层包含输入向量x=[1,x1,x2,x3,...,xm]和权值W=[ω0123,...,ωn],其中m是输入向量的大小,n是隐含层的神经元个数,ω0是偏置值;输出向量表示为:
f(x)=G(sn(W(n)...(s2(W(2)(s1(W(1)))))))
G作为softmax函数实现多类分类,表示为:
Figure QLYQS_7
其中,输出的编码方法为one-hot,在对参数进行训练时,采用交叉熵代价函数,y为理想输出,a为实际输出,交叉熵代价函数为:
Figure QLYQS_8
支持向量机的目标函数为:
max(1/||W||)
s.t.,yi(wTxi+b)≥1,i=1,...,n
使用拉格朗日乘子α转化为双变量优化问题,将约束条件合并到目标函数中,其表示为:
Figure QLYQS_9
其中W和b分别为权重和偏差,T是转置;为了解决非线性问题,简化计算,采用核函数法:
Figure QLYQS_10
s.t.,αi≥0,i=1,...,n
Figure QLYQS_11
式中,k(xi,xj)代表不同的核函数;
S7.将待识别的手势数据输入到多模态融合和神经网络预测模型的数据手套预测***,预测手势模型。
2.根据权利要求1所述的基于支持向量机和神经网络优化的手势识别方法,其特征在于,所述的S2步骤中采用巴斯沃滤波器对数据进行滤波处理;所述的步骤S2中进行归一化处理的具体公式为:
Figure QLYQS_12
Figure QLYQS_13
通过上述公式得到网络的训练样本[X,Y],式中x0i,min,x0i,max分别表示随机代表样本数据中x0i的最小值和最大值,同理,式中y0i,min,y0i,max也是分别表示随机代表样本数据中y0i的最小值和最大值。
CN201910625657.XA 2019-07-11 2019-07-11 一种基于支持向量机和神经网络优化的手势识别方法 Active CN110472506B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910625657.XA CN110472506B (zh) 2019-07-11 2019-07-11 一种基于支持向量机和神经网络优化的手势识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910625657.XA CN110472506B (zh) 2019-07-11 2019-07-11 一种基于支持向量机和神经网络优化的手势识别方法

Publications (2)

Publication Number Publication Date
CN110472506A CN110472506A (zh) 2019-11-19
CN110472506B true CN110472506B (zh) 2023-05-26

Family

ID=68508018

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910625657.XA Active CN110472506B (zh) 2019-07-11 2019-07-11 一种基于支持向量机和神经网络优化的手势识别方法

Country Status (1)

Country Link
CN (1) CN110472506B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111831122B (zh) * 2020-07-20 2023-05-16 浙江财经大学 基于多关节数据融合的手势识别***及方法
CN112114665B (zh) * 2020-08-23 2023-04-11 西北工业大学 一种基于多模态融合的手部追踪方法
CN112748800B (zh) * 2020-09-16 2022-11-04 济南大学 一种基于智能手套的实验场景感知交互方法
CN112148128B (zh) * 2020-10-16 2022-11-25 哈尔滨工业大学 一种实时手势识别方法、装置及人机交互***
CN112749512B (zh) * 2021-01-18 2024-01-26 杭州易现先进科技有限公司 手势估计优化的方法、***和电子装置
CN112818936B (zh) * 2021-03-02 2022-12-09 成都视海芯图微电子有限公司 一种连续手势的快速识别分类方法及***

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101483652A (zh) * 2009-01-10 2009-07-15 五邑大学 生物特征识别***
CN107451552A (zh) * 2017-07-25 2017-12-08 北京联合大学 一种基于3d‑cnn和卷积lstm的手势识别方法
CN107679491B (zh) * 2017-09-29 2020-05-19 华中师范大学 一种融合多模态数据的3d卷积神经网络手语识别方法
CN107808146B (zh) * 2017-11-17 2020-05-05 北京师范大学 一种多模态情感识别分类方法
CN109284777B (zh) * 2018-08-28 2021-09-28 内蒙古大学 基于信号时频特征和支持向量机的供水管道泄漏识别方法
CN109635706B (zh) * 2018-12-04 2020-09-01 武汉灏存科技有限公司 基于神经网络的手势识别方法、设备、存储介质及装置
CN109614922B (zh) * 2018-12-07 2023-05-02 南京富士通南大软件技术有限公司 一种动静态手势识别方法和***

Also Published As

Publication number Publication date
CN110472506A (zh) 2019-11-19

Similar Documents

Publication Publication Date Title
CN110472506B (zh) 一种基于支持向量机和神经网络优化的手势识别方法
Ibraheem et al. Survey on various gesture recognition technologies and techniques
Tao et al. American Sign Language alphabet recognition using Convolutional Neural Networks with multiview augmentation and inference fusion
Lahiani et al. Real time hand gesture recognition system for android devices
Ibraheem et al. Vision based gesture recognition using neural networks approaches: a review
Sonkusare et al. A review on hand gesture recognition system
CN104484644B (zh) 一种手势识别方法和装置
Kuzmanic et al. Hand shape classification using DTW and LCSS as similarity measures for vision-based gesture recognition system
CN111444488A (zh) 一种基于动态手势的身份认证方法
Sharma et al. Trbaggboost: An ensemble-based transfer learning method applied to Indian Sign Language recognition
Sahoo et al. RBI-2RCNN: Residual block intensity feature using a two-stage residual convolutional neural network for static hand gesture recognition
Bhuiyan et al. Reduction of gesture feature dimension for improving the hand gesture recognition performance of numerical sign language
CN115527269A (zh) 一种人体姿态图像智能识别方法及***
Al-Saedi et al. Survey of hand gesture recognition systems
Ge et al. A real-time gesture prediction system using neural networks and multimodal fusion based on data glove
Echoukairi et al. Improved Methods for Automatic Facial Expression Recognition.
Nayakwadi et al. Natural hand gestures recognition system for intelligent hci: A survey
Ikram et al. Real time hand gesture recognition using leap motion controller based on CNN-SVM architechture
Lahiani et al. Real Time Static Hand Gesture Recognition System for Mobile Devices.
Vo et al. Dynamic gesture classification for Vietnamese sign language recognition
Kumar et al. Performance analysis of KNN, SVM and ANN techniques for gesture recognition system
KR102079380B1 (ko) 시간적 및 공간적 정규화를 통한 딥 러닝 기반의 실시간 3차원 제스처 인식 시스템 및 방법
Gangrade et al. Real time sign language recognition using depth sensor
Nigam et al. A complete study of methodology of hand gesture recognition system for smart homes
Sima et al. Action recognition algorithm based on skeletal joint data and adaptive time pyramid

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant