CN110390281B - 一种基于感知设备的手语识别***及其工作方法 - Google Patents

一种基于感知设备的手语识别***及其工作方法 Download PDF

Info

Publication number
CN110390281B
CN110390281B CN201910623439.2A CN201910623439A CN110390281B CN 110390281 B CN110390281 B CN 110390281B CN 201910623439 A CN201910623439 A CN 201910623439A CN 110390281 B CN110390281 B CN 110390281B
Authority
CN
China
Prior art keywords
gesture
finger
data
axis
joint point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910623439.2A
Other languages
English (en)
Other versions
CN110390281A (zh
Inventor
谢磊
徐岩
陆桑璐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University
Original Assignee
Nanjing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University filed Critical Nanjing University
Priority to CN201910623439.2A priority Critical patent/CN110390281B/zh
Publication of CN110390281A publication Critical patent/CN110390281A/zh
Application granted granted Critical
Publication of CN110390281B publication Critical patent/CN110390281B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种基于感知设备的手语识别***及其工作方法,包括以下步骤:实时采集用户手的关节点数据;对关节点数据进行降噪;对降噪后的关节点数据进行分割来完成手势动作分割;计算手势分类用到的手势特征;对手势动作对应的手势特征进行分类,确定手势动作的类别;匹配手势动作类别对应的手语,并显示手语结果。本发明在手势动作建模和手势分类的基础上,设计开发了在线的手语识别***,为健听人和聋哑人的交流问题提供了一种解决方法。

Description

一种基于感知设备的手语识别***及其工作方法
技术领域
本发明属于手势感知和手语识别技术领域,具体涉及一种基于感知设备的手语识别***及其工作方法。
背景技术
社会上,有这样的一个群体,他们听不到声音,说不出话语,只能生活在无声的世界里,他们便是我国的几千万聋哑人,无法像正常人一样交流沟通,给他们的工作、学习、就医等生活状态带去很大的困扰。现实生活中,他们也有用于沟通交流的方式—手语,但是多数的健听人并不能理解手语的含义。为此,手势感知技术被广泛地研究。目前,手势感知技术可以按感知手段分为四类,分别是基于声音信号的手势感知技术、基于人体传感器的手势感知技术、基于射频信号的手势感知技术和基于视觉的手势感知技术。其中,基于声音信号的手势感知技术容易受到环境噪声的影响,可以识别的手势动作也有限;基于人体传感器的手势感知技术往往需要用户佩戴相关的传感器,对用户是不友好的;基于射频信号的手势感知技术对环境较为敏感,***的实现场景布置较为麻烦。基于视觉的手势感知技术则可以较好地解决上述感知技术中的问题,最具代表性的基于视觉的感知设备有Kinect和LeapMotion,Kinect感知设备可以获得人体骨骼点数据,更多应用于粗粒度的手势感知,并不能进行手指手势感知,而LeapMotion感知设备可以获取手指关节点位置数据,可以用于细粒度的手指手势感知。
因此,基于上述考虑,有必要提出一个基于感知设备的手语识别***,从手势感知入手,识别手语手势动作,设计用户友好的***,为聋哑人和健听人的交流问题提供一种解决方法。
发明内容
针对于上述现有技术的不足,本发明的目的在于提供一种基于感知设备的手语识别***及其工作方法,以实现对用户手势动作的实时手语识别,为聋哑人和健听人的交流问题提供一种解决方法。
为达到上述目的,本发明采用的技术方案如下:
本发明的一种基于感知设备的手语识别***,包括:
手势动作采集模块,用于实时采集用户手的关节点数据,对采集到的数据进行手势动作分割和特征提取;
手势动作模型库,用于存储手势动作特征和手势动作分类模型,其中,手势动作特征通过对手势动作建模得到;
计算模块,用于手势动作分类,通过手势动作模型库中的手势动作分类模型对上述采集到手的关节点数据的动作特征进行分类,从而得到手势动作分类结果。
进一步地,所述***还包括校准模块,用于校准用户双手是否处于有效检测范围内。
进一步地,所述***还包括显示模块,用于显示手势动作识别结果、感知设备状态、用户的双手高度和双手实时图像。
进一步地,所述手势动作建模分为静态手势建模和动态手势建模;动态手势建模分为手的运动的全局动态手势建模和手指运动的局部动态手势建模。
进一步地,所述手势动作模型库中的手势动作特征具体为:手指的弯曲角度特征,手指指尖关节点间距离特征,手指的手指指向特征,动态手势的位移特征、旋转角度特征及旋转方向特征。
进一步地,所述手势动作模型库中的手势动作分类模型具体为:通过解决手势多分类、手势动作初始化和未标记手势类别分类的问题改进支持向量机(SVM)算法,采集手势动作用于SVM算法的训练,得到手势动作分类模型。
进一步地,所述改进支持向量机(SVM)算法中的解决手势多分类问题具体为:通过在任意两个手势动作样本之间构造支持向量机分类模型处理手势多分类问题,当对一个待分类手势进行分类时,最后得票最多的类别即为未知样本的类别。
进一步地,所述改进支持向量机(SVM)算法中的解决手势动作初始化问题具体为:通过给手势动作定义一个初始状态处理手势动作初始化问题,避免因初始状态不同导致的分类错误。
进一步地,所述改进支持向量机(SVM)算法中的解决未标记手势类别分类问题具体为:通过将未标记手势动作作为新的手势动作类别处理未标记手势类别分类问题,提高手势分类的准确率。
本发明的一种感知设备的手语识别***的工作方法,包括以下步骤:
1)实时采集用户手的关节点数据;
2)对上述关节点数据进行降噪,得到处理后的关节点数据;
3)对处理后关节点数据进行分割来完成手势动作分割,确定手势动作的开始位置和结束位置,抽取完整手势动作的数据;
4)计算手势分类用到的手势特征;
5)对手势动作对应的手势特征进行分类,确定手势动作的类别;
6)匹配手势动作类别对应的手语,并显示手势动作分类结果。
进一步地,所述步骤1)中关节点数据是帧数据的形式。
进一步地,所述步骤2)中数据降噪的方法为:
21)设定滑动窗口的长度为20个采样点,关节点为一个三维坐标数据;
22)对关节点的每个轴坐标数据应用中值滤波器进行数据降噪,当前的关节点数据记为Xi,应用中值滤波器进行数据降噪后,则Xi会被(X-19,…,Xi-2,Xi-1)中的中值所代替。
进一步地,所述步骤3)中手势动作分割的方法为:
31)设定手势数据分割滑动窗口的长度L为40个采样点,手势数据使用手指指尖关节点数据;
32)手指指尖关节点的X轴、Y轴、Z轴的数据分别记为:
(X(i)1,X(i)2,…,X(i)L-1,X(i)L),(Y(i)1,(Y(i)2,…,Y(i)L-1,Y(i)L),(Z(i)1,Z(i)2…,Z(i)L-1,Z(i)L),与之对应的三轴坐标数据的方差记为
Figure BDA0002126274260000031
其中,i取值为0到9,分别对应右手的拇指、食指、中指、无名指、小指和左手的拇指、食指、中指、无名指、小指;
33)滑动窗口内出现某一手指的某一轴数据的方差超过一定阈值,则该窗口是手势动作的开始窗口,将滑动窗口的开始位置作为手势动作的开始位置;
34)检测到开始位置后,滑动窗口继续移动,若某一手指的某一轴数据的方差超过一定阈值,则该窗口仍然处于手势工作过程中;若任一手指的任一轴数据的方差均未超过一定阈值,则该窗口为手势动作的结束窗口,将滑动窗口的开始位置作为手势动作的结束位置;
35)确定手势动作的开始位置和结束位置后,将手势动作成功分割。
进一步地,所述步骤4)中的手势特征为:手指的弯曲角度特征,每个手指相邻关节的夹角,每个手指有3个弯曲角度;手指指尖关节点间距离特征,同一只手两两指尖关节点的距离,每只手有10个距离;手指的手指指向特征,手指的指向向量,是一个三维向量;动态手势的位移特征,两个帧数据沿X轴、Y轴、Z轴的距离差;旋转角度特征,两个帧数据对应的旋转角度;旋转方向特征,两个帧数据对应的旋转方向,由旋转平面的法向量表示,是一个三维向量。
本发明的有益效果:
1、全面而稳定的手势动作特征:对手势的全面分析建模,求得全面的手势动作特征,特征通过用户无关性和位置无关性的验证,特征较为稳定;
2、高准确性手语识别:通过实验对手语识别准确性进行分析,手语识别有很高的准确性;
3、实时的手语识别***:***对用户的手势动作进行实时识别,并在***界面上显示手语识别结果;
4、***用户友好:***会实时向用户反馈手的位置信息及设备状态信息,方便用户手的位置调整;***包含一个摄像头实时输出模块,方便用户对比自己的手势动作。
附图说明
图1为手势建模框架图;
图2为***流程图;
图3a为***初始化图;
图3b为手语“很”识别结果图;
图3c为手语“高兴”识别结果图;
图3d为手语“认”识别结果图;
图3e为手语“识”识别结果图;
图3f为手语“你”识别结果图。
具体实施方式
为了便于本领域技术人员的理解,下面结合实施例与附图对本发明作进一步的说明,实施方式提及的内容并非对本发明的限定。
本发明的一种基于感知设备的手语识别***,包括:
手势动作采集模块,用于实时采集用户手的关节点数据,对采集到的数据进行手势动作分割和特征提取;
手势动作模型库,用于存储手势动作特征和手势动作分类模型,其中,手势动作特征通过对手势动作建模得到,手势动作建模分为静态手势建模和动态手势建模;动态手势建模分为手的运动的全局动态手势建模和手指运动的局部动态手势建模;
计算模块,用于手势动作分类,通过手势动作模型库中的手势动作分类模型对上述采集到手的关节点数据的动作特征进行分类,从而得到手势动作分类结果。
所述***还包括校准单元,用于校准用户双手是否处于有效检测范围。
所述***还包括显示单元,用于显示手语动作识别结果、感知设备状态、用户的双手高度和双手实时图像。
参照图1所示,所述手势动作模型库中的手势动作特征具体为:手指的弯曲角度特征,手指指尖关节点间距离特征,手指的手指指向特征,动态手势的位移特征、旋转角度特征及旋转方向特征。
所述手势动作模型库中的手势动作分类模型具体为:通过解决手势多分类、手势动作初始化和未标记手势类别分类的问题改进支持向量机(SVM)算法,采集手势动作用于SVM算法的训练,得到手势动作分类模型。
所述改进支持向量机(SVM)算法中的解决手势多分类问题具体为:手语分类涉及多个类别,是一个多分类的问题,解决方法是在任意两个手势动作样本之间构造一个SVM分类模型,当对一个待分类手势进行分类时,最后得票最多的类别即为未知样本的类别。
所述改进支持向量机(SVM)算法中的解决手势动作初始化问题具体为:手势动作需要有相同的初始状态,解决方法是为手势动作定义一个初始状态,可以有效的避免因初始状态不同导致的分类错误。
所述改进支持向量机(SVM)算法中的解决未标记手势类别分类问题具体为:手语分类是实时连续的,不可避免地会产生标记手势动作之外的未标记手势动作,降低手势分类准确率,解决方法是将未标记手势动作作为新的手势动作类别,可以提高手势分类的准确率。
参照图2所示,本发明的一种基于感知设备的手语识别***的工作方法,包括以下步骤:
1)通过感知设备实时采集手的关节点数据;
2)对关节点原始数据进行降噪,得到处理后的关节点数据;
3)对处理后关节点数据进行分割来完成手势动作分割,确定手势动作的开始位置和结束位置,抽取完整手势动作的数据;
4)计算手势分类用到的手势特征;
5)对手势动作对应的手势特征进行分类,确定手势动作的类别;
6)匹配手势动作类别对应的手语,并显示手势动作分类结果。
其中,所述步骤2)中数据降噪的方法为:
21)设定滑动窗口的长度为20个采样点,关节点为一个三维坐标数据;
22)对关节点的每个轴坐标数据应用中值滤波器进行数据降噪,当前的关节点数据记为Xi,应用中值滤波器进行数据降噪后,则Xi会被(X-19,…,Xi-2,Xi-1)中的中值所代替。
所述步骤1)中关节点数据是帧数据的形式。
所述步骤3)中手势动作分割的方法为:
31)设定手势数据分割滑动窗口的长度L为40个采样点,手势数据使用手指指尖关节点数据;
32)手指指尖关节点的X轴、Y轴、Z轴的数据分别记为:
(X(i)1,X(i)2,…,X(i)L-1,X(i)L),(Y(i)1,(Y(i)2,…,Y(i)L-1,Y(i)L),(Z(i)1,Z(i)2…,Z(i)L-1,Z(i)L),与之对应的三轴坐标数据的方差记为
Figure BDA0002126274260000051
其中,i取值为0到9,分别对应右手的拇指、食指、中指、无名指、小指和左手的拇指、食指、中指、无名指、小指;
33)滑动窗口内出现某一手指的某一轴数据的方差超过一定阈值,则该窗口是手势动作的开始窗口,将滑动窗口的开始位置作为手势动作的开始位置;
34)检测到开始位置后,滑动窗口继续移动,若某一手指的某一轴数据的方差超过一定阈值,则该窗口仍然处于手势工作过程中;若任一手指的任一轴数据的方差均未超过一定阈值,则该窗口为手势动作的结束窗口,将滑动窗口的开始位置作为手势动作的结束位置;
35)确定手势动作的开始位置和结束位置后,将手势动作成功分割。
所述步骤4)中的手势特征为:手指的弯曲角度特征,每个手指相邻关节的夹角,每个手指有3个弯曲角度;手指指尖关节点间距离特征,同一只手两两指尖关节点的距离,每只手有10个距离;手指的手指指向特征,手指的指向向量,是一个三维向量;动态手势的位移特征,两个帧数据沿X轴、Y轴、Z轴的距离差;旋转角度特征,两个帧数据对应的旋转角度;旋转方向特征,两个帧数据对应的旋转方向,由旋转平面的法向量表示,是一个三维向量。
图3a-图3f是手语识别***运行图,展示了手语识别***识别手语的过程,识别的手语内容为“很高兴认识你”。如图3a所示,***启动后,***会检查感知设备的状态并显示,输出双手高度信息,同时,摄像头实时图像显示区域显示摄像头的实时图像;如图3b所示,***识别出用户手语“很”对应的手势动作,并显示手语识别的结果;如图3c所示,***识别出用户手语“高兴”对应的手势动作,并显示手语识别的结果;如图3d所示,***识别出用户手语“认”对应的手势动作,并显示手语识别的结果;如图3e所示,***识别出用户手语“识”对应的手势动作,并显示手语识别的结果;如图3f所示,***识别出用户手语“你”对应的手势动作,并显示手语识别的结果;用户点击***界面中的“清除”按钮时,会清除手语含义显示区域的内容。
本发明具体应用途径很多,以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以作出若干改进,这些改进也应视为本发明的保护范围。

Claims (7)

1.一种基于感知设备的手语识别***,其特征在于,包括:
手势动作采集模块,用于实时采集用户手的关节点数据,对采集到的数据进行手势动作分割和特征提取;
手势动作模型库,用于存储手势动作特征和手势动作分类模型;
计算模块,用于手势动作分类,通过手势动作模型库中的手势动作分类模型对上述采集到手的关节点数据的动作特征进行分类,从而得到手势动作分类结果;
手势动作分割的方法为:
设定手势数据分割滑动窗口的长度L为40个采样点,手势数据使用手指指尖关节点数据;
手指指尖关节点的X轴、Y轴、Z轴的数据分别记为:(X(i)1,X(i)2,…,X(i)L-1,X(i)L),(Y(i)1,(Y(i)2,…,Y(i)L-1,Y(i)L),(Z(i)1,Z(i)2…,Z(i)L-1,Z(i)L),与之对应的三轴坐标数据的方差记为
Figure FDA0003929083770000011
其中,i取值为0到9,分别对应右手的拇指、食指、中指、无名指、小指和左手的拇指、食指、中指、无名指、小指;
滑动窗口内出现某一手指的某一轴数据的方差超过一定阈值,则该窗口是手势动作的开始窗口,将滑动窗口的开始位置作为手势动作的开始位置;
检测到开始位置后,滑动窗口继续移动,若某一手指的某一轴数据的方差超过一定阈值,则该窗口仍然处于手势工作过程中;若任一手指的任一轴数据的方差均未超过一定阈值,则该窗口为手势动作的结束窗口,将滑动窗口的开始位置作为手势动作的结束位置;
确定手势动作的开始位置和结束位置后,将手势动作成功分割;
手势特征为:手指的弯曲角度特征,每个手指相邻关节的夹角,每个手指有3个弯曲角度;手指指尖关节点间距离特征,同一只手两两指尖关节点的距离,每只手有10个距离;手指的手指指向特征,手指的指向向量,是一个三维向量;动态手势的位移特征,两个帧数据沿X轴、Y轴、Z轴的距离差;旋转角度特征,两个帧数据对应的旋转角度;旋转方向特征,两个帧数据对应的旋转方向,由旋转平面的法向量表示,是一个三维向量。
2.根据权利要求1所述的基于感知设备的手语识别***,其特征在于,所述***还包括校准模块,用于校准用户双手是否处于有效检测范围内。
3.根据权利要求2所述的基于感知设备的手语识别***,其特征在于,所述***还包括显示模块,用于显示手势动作识别结果、感知设备状态、用户的双手高度和双手实时图像。
4.根据权利要求1所述的基于感知设备的手语识别***,其特征在于,所述手势动作模型库中的手势动作特征具体为:手指的弯曲角度特征,手指指尖关节点间距离特征,手指的手指指向特征,动态手势的位移特征、旋转角度特征及旋转方向特征。
5.一种感知设备的手语识别***的工作方法,其特征在于,包括以下步骤:
1)实时采集用户手的关节点数据;
2)对上述关节点数据进行降噪,得到处理后的关节点数据;
3)对处理后关节点数据进行分割来完成手势动作分割,确定手势动作的开始位置和结束位置,抽取完整手势动作的数据;
4)计算手势分类用到的手势特征;
5)对手势动作对应的手势特征进行分类,确定手势动作的类别;
6)匹配手势动作类别对应的手语,并显示手势动作分类结果;
所述步骤3)中手势动作分割的方法为:
31)设定手势数据分割滑动窗口的长度L为40个采样点,手势数据使用手指指尖关节点数据;
32)手指指尖关节点的X轴、Y轴、Z轴的数据分别记为:
(X(i)1,X(i)2,…,X(i)L-1,X(i)L),(Y(i)1,(Y(i)2,…,Y(i)L-1,Y(i)L),(Z(i)1,Z(i)2…,Z(i)L-1,Z(i)L),与之对应的三轴坐标数据的方差记为
Figure FDA0003929083770000021
其中,i取值为0到9,分别对应右手的拇指、食指、中指、无名指、小指和左手的拇指、食指、中指、无名指、小指;
33)滑动窗口内出现某一手指的某一轴数据的方差超过一定阈值,则该窗口是手势动作的开始窗口,将滑动窗口的开始位置作为手势动作的开始位置;
34)检测到开始位置后,滑动窗口继续移动,若某一手指的某一轴数据的方差超过一定阈值,则该窗口仍然处于手势工作过程中;若任一手指的任一轴数据的方差均未超过一定阈值,则该窗口为手势动作的结束窗口,将滑动窗口的开始位置作为手势动作的结束位置;
35)确定手势动作的开始位置和结束位置后,将手势动作成功分割;
所述步骤4)中的手势特征为:手指的弯曲角度特征,每个手指相邻关节的夹角,每个手指有3个弯曲角度;手指指尖关节点间距离特征,同一只手两两指尖关节点的距离,每只手有10个距离;手指的手指指向特征,手指的指向向量,是一个三维向量;动态手势的位移特征,两个帧数据沿X轴、Y轴、Z轴的距离差;旋转角度特征,两个帧数据对应的旋转角度;旋转方向特征,两个帧数据对应的旋转方向,由旋转平面的法向量表示,是一个三维向量。
6.根据权利要求5所述的感知设备的手语识别***的工作方法,其特征在于,所述步骤1)中关节点数据是帧数据的形式。
7.根据权利要求5所述的感知设备的手语识别***的工作方法,其特征在于,所述步骤2)中数据降噪的方法为:
21)设定滑动窗口的长度为20个采样点,关节点为一个三维坐标数据;
22)对关节点的每个轴坐标数据应用中值滤波器进行数据降噪,当前的关节点数据记为Xi,应用中值波器进行数据降噪后,则Xi会被(X-19,…,Xi-2,Xi-1)中的中值所代替。
CN201910623439.2A 2019-07-11 2019-07-11 一种基于感知设备的手语识别***及其工作方法 Active CN110390281B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910623439.2A CN110390281B (zh) 2019-07-11 2019-07-11 一种基于感知设备的手语识别***及其工作方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910623439.2A CN110390281B (zh) 2019-07-11 2019-07-11 一种基于感知设备的手语识别***及其工作方法

Publications (2)

Publication Number Publication Date
CN110390281A CN110390281A (zh) 2019-10-29
CN110390281B true CN110390281B (zh) 2023-03-24

Family

ID=68286491

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910623439.2A Active CN110390281B (zh) 2019-07-11 2019-07-11 一种基于感知设备的手语识别***及其工作方法

Country Status (1)

Country Link
CN (1) CN110390281B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115546824B (zh) * 2022-04-18 2023-11-28 荣耀终端有限公司 禁忌图片识别方法、设备及存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130335318A1 (en) * 2012-06-15 2013-12-19 Cognimem Technologies, Inc. Method and apparatus for doing hand and face gesture recognition using 3d sensors and hardware non-linear classifiers
CN107678550A (zh) * 2017-10-17 2018-02-09 哈尔滨理工大学 一种基于数据手套的手语手势识别***
CN109597485B (zh) * 2018-12-04 2021-05-07 山东大学 一种基于双指角域特征的手势交互***及其工作方法

Also Published As

Publication number Publication date
CN110390281A (zh) 2019-10-29

Similar Documents

Publication Publication Date Title
Kumar et al. A position and rotation invariant framework for sign language recognition (SLR) using Kinect
Zhou et al. A novel finger and hand pose estimation technique for real-time hand gesture recognition
JP4625074B2 (ja) サインに基づく人間−機械相互作用
Hasan et al. RETRACTED ARTICLE: Static hand gesture recognition using neural networks
CN102231093B (zh) 一种屏幕定位控制方法及装置
KR20200111617A (ko) 제스처 인식 방법, 장치, 전자 기기 및 저장 매체
Trindade et al. Hand gesture recognition using color and depth images enhanced with hand angular pose data
CN106774850B (zh) 一种移动终端及其交互控制方法
JP2001056861A (ja) 手の形状と姿勢の認識装置および手の形状と姿勢の認識方法並びに当該方法を実施するプログラムを記録した記録媒体
Kalsh et al. Sign language recognition system
KR20150127381A (ko) 얼굴 특징점 추출 방법 및 이를 수행하는 장치
Dinh et al. Hand number gesture recognition using recognized hand parts in depth images
Aggarwal et al. Online handwriting recognition using depth sensors
CN112749646A (zh) 一种基于手势识别的交互式点读***
Shinde et al. Real time two way communication approach for hearing impaired and dumb person based on image processing
Francis et al. Significance of hand gesture recognition systems in vehicular automation-a survey
CN107346207B (zh) 一种基于隐马尔科夫模型的动态手势切分识别方法
CN110390281B (zh) 一种基于感知设备的手语识别***及其工作方法
Caplier et al. Comparison of 2D and 3D analysis for automated cued speech gesture recognition
Robert et al. A review on computational methods based automated sign language recognition system for hearing and speech impaired community
KR101141936B1 (ko) 광류장 기반의 손 이미지 영역 검출 방법 및 그 검출 방법에 의한 손동작 인식 방법
Dhamanskar et al. Human computer interaction using hand gestures and voice
Nguyen et al. Vietnamese sign language reader using Intel Creative Senz3D
Yeom et al. [POSTER] Haptic Ring Interface Enabling Air-Writing in Virtual Reality Environment
Pradeep et al. Advancement of sign language recognition through technology using python and OpenCV

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant