CN104007819B - 手势识别方法、装置及Leap Motion体感控制*** - Google Patents
手势识别方法、装置及Leap Motion体感控制*** Download PDFInfo
- Publication number
- CN104007819B CN104007819B CN201410188979.XA CN201410188979A CN104007819B CN 104007819 B CN104007819 B CN 104007819B CN 201410188979 A CN201410188979 A CN 201410188979A CN 104007819 B CN104007819 B CN 104007819B
- Authority
- CN
- China
- Prior art keywords
- hand
- motion
- gesture
- axis
- type
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000013519 translation Methods 0.000 claims abstract description 28
- 238000000605 extraction Methods 0.000 claims abstract description 10
- 230000009471 action Effects 0.000 claims description 16
- 230000006870 function Effects 0.000 claims description 10
- 238000001914 filtration Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 7
- 238000012706 support-vector machine Methods 0.000 claims description 7
- 230000006399 behavior Effects 0.000 claims description 5
- 238000009499 grossing Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 abstract description 4
- 230000000875 corresponding effect Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 6
- 230000003993 interaction Effects 0.000 description 4
- 230000001276 controlling effect Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 239000012141 concentrate Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000003238 somatosensory effect Effects 0.000 description 1
Landscapes
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种手势识别方法及装置,以及一种Leap Motion体感控制***。上述手势识别方法包括:S1:将用于控制三维物体的多个手势操作存储至手势库;S2:实时采集手部的运动数据,对采集到的数据进行特征提取;S3:根据提取出的特征参数判断手部的运动是否属于平移类型操作,若属于平移类型操作,进入步骤S5,若不属于平移类型操作,进入步骤S4;S4:通过预设算法确定手部的运动所属的操作类型;S5:根据操作类型在手势库中查询相应类型的操作,根据特征参数在相应类型的操作中确定目标操作。通过上述技术方案,可以构建适用于Leap Motion的三维模型操作手势库,以及相应的手势识别方法,并提高手势识别的准确率,保证三维操作中模型变换的连贯性和稳定性。
Description
技术领域
本发明涉及手势识别技术领域,具体而言,涉及一种手势识别方法、一种手势识别装置以及一种Leap Motion体感控制***。
背景技术
三维物体操作一般包括对三维模型六个自由度(6DOF)的控制:三个分别沿着x、y、z轴方向的平移和三个分别绕x、y、z轴的旋转,它是三维设计和创作类应用的基础功能,如CAD,Maya,模拟制作陶器的移动应用Pottery等,也是许多游戏中不可缺少的体验要素。在之前很长一段时间,人们都是通过鼠标和键盘来操作这些变换,但输入工具的存在影响了人们创造力的发挥,人们很容易将注意力集中于工具的使用和数值的调整上,而不是创作或体验本身。
近几年,智能手机和平板的普及使触屏类手势交互成为研究热点。这些对于图片、文字等二维内容的操作是恨直观的。但在三维模型的操作上,由于比模型对象少了一个维度,操作起来并不直观。不少学者把研究重点放在如何约束三维的变换信息到二维的输入上,或如何扩展二维的输入使之更好地操作三维变换,但这些都不如用自由手操作自然和直观。所以用自由手势动作来实现对三维模型的操作是最符合以用户为中心的人机交互理念的。
手势追踪是手势交互不可缺少的关键技术,也是这种交互能否推广应用的瓶颈问题之一。特别是对于三维模型的控制上,需要实时反馈,模型跟随操作而变换,对实时性和稳定性要求较高。之前的自由手势研究大致分两种,一种是基于视觉的,一种是基于数据手套的,前者容易受光线、肤色、干扰物体影响,对手部细节动作的实时重建很困难,后者对于设备的要求比较高。近两年,也有人 把Kinect体感技术用于动态手势识别中,但Kinect主要追踪的是中远距(0.5m-4m)的全身动作,对于手部的动作,细节信息不够。而Leap Motion的出现,弥补了Kinect的精度问题,它是一个检测手势运动的传感器,动作跟踪精确到0.01mm,精准度是Kincet的100倍。而且设备小,成本低,扩展性强,易于内置到笔记本等其他设备上。
Leap Motion的手势主要是指令类,用于UI输入等,并未有一个完整的,包含6DOF以及缩放操作的用于三维模型变换的手势库,以及适用于三维模型操作的自由手势识别方法。
发明内容
本发明所要解决的技术问题是,如何构建适用于Leap Motion的三维模型操作手势库,以及相应的手势识别方法,并提高手势识别的准确率,保证三维操作中模型变换的连贯性和稳定性。
为此目的,本发明提出了一种手势识别方法,包括:S1:将用于控制三维物体的多个手势操作存储至手势库;S2:实时采集手部的运动数据,对采集到的数据进行特征提取;S3:根据提取出的特征参数判断所述手部的运动是否属于平移类型操作,若属于平移类型操作,进入步骤S5,若不属于平移类型操作,进入步骤S4;S4:通过预设算法确定所述手部的运动所属的操作类型;S5:根据所述操作类型,在所述手势库中查询相应类型的操作,根据所述特征参数在所述相应类型的操作中确定目标操作。
优选地,所述手势库包含单手和/或双手手势操作,且所述单手和/或双手手势操作包括沿三个轴中任一轴的平移操作,绕所述三个轴中任一轴的旋转操作,以及绕所述三个轴中任一轴的缩放操作,其中,所述三个轴中的任意两个轴互相垂直。
优选地,所述步骤S2还包括:S21,以帧数据的形式输入采集到的数据。
优选地,所述步骤S2包括:S22:对输入的帧数据进行特征提取,得到特征参数STx、STy、STz、Nx、Ny、Nz、Dx、Dy、Dz、DTx、DTy、DTz、rt、pt,其中,STx、STy、STz分别为当前帧与上一帧间,所述手部沿x轴、y轴、z轴平移的距离差;Nx、Ny、Nz分别为所述手部在当前帧中沿x轴、y轴、z轴的法向向量;Dx、Dy、Dz分别为当前帧中所述手部的掌心到指尖的方向向量沿x轴、y轴、z轴的向量;DTx、DTy、DTz分别为当前帧与上一帧间,所述手部的掌心到指尖的方向向量沿x轴、y轴、z轴的向量差,其中,所述手部的所有指尖指向同一方向,所述x轴、y轴、z轴中的任意两个轴互相垂直;rt为当前帧与上一帧间欧拉角的横滚角的差值;pt为当前帧与上一帧间欧拉角的俯仰角的差值。
优选地,所述步骤S3包括:判断Ny<A且100(rt2+pt2)<B是否成立,其中,A和B分别为第一预设常数和第二预设常数;若成立,则判定所述手部的运动属于平移类型操作,进入所述步骤S5,若不成立,则判定所述手部的运动不属于平移类型操作,进入所述步骤S4。
优选地,所述步骤S4包括:通过支持向量机算法,选用高斯核函数作为内积和函数判断所述手部的运动所属的操作类型。
优选地,在所述步骤S3之前还包括:对所述特征参数进行帧间平滑处理。
优选地,在所述步骤S3之前还包括:对所述特征参数进行有效性过滤。
优选地,还包括:S6,过滤所述目标操作中的重复执行操作,并执行过滤后的操作。
优选地,所述步骤S2包括:通过Leap Motion体感控制器实时采集所述手部的运动数据。
本发明还提出了一种手势识别***,包括:存储单元,用于将用 于控制三维物体的多个手势操作存储至手势库;采集单元,用于实时采集手部的运动数据,对采集到的数据进行特征提取;判断单元,用于根据提取出的特征参数判断所述手部的运动是否属于平移类型操作;计算单元,用于在所述判断单元判定所述手部的运动不属于平移类型操作时,通过预设算法确定所述手部的运动所属的操作类型;查询单元,用于根据所述操作类型,在所述手势库中查询相应类型的操作,根据所述特征参数在所述相应类型的操作中确定目标操作。
本发明还提出了一种Leap Motion体感控制器,包括上述手势识别***。
通过采用本发明所公开的技术方案,能够构建适用于Leap Motion的三维模型操作手势库,以及相应的手势识别方法,并提高手势识别的准确率,保证三维操作中模型变换的连贯性和稳定性。
附图说明
通过参考附图会更加清楚的理解本发明的特征和优点,附图是示意性的而不应理解为对本发明进行任何限制,在附图中:
图1示出了根据本发明一个实施例的手势识别方法的流程图;
图2示出了根据本发明一个实施例的手势识别装置的框图;
图3示出了根据本发明一个实施例的手势库中手势操作的示意图;
图4示出了根据本发明一个实施例的进行手势识别的示意图。
具体实施方式
下面将结合附图对本发明的实施例进行详细描述。
图1示出了根据本发明一个实施例的手势识别方法的流程图。
如图1所示,根据本发明一个实施例的手势识别方法包括:
S1:将用于控制三维物体的多个手势操作存储至手势库;
S2:实时采集手部的运动数据,对采集到的数据进行特征提取;
S3:根据提取出的特征参数判断手部的运动是否属于平移类型操作,若属于平移类型操作,进入步骤S5,若不属于平移类型操作,进入步骤S4;
S4:通过预设算法确定手部的运动所属的操作类型;
S5:根据操作类型,在手势库中查询相应类型的操作,根据特征参数在相应类型的操作中确定目标操作。
通过对手部运动进行逐次识别,可以在手部运动为较易分析的平移运动时,直接在手势库中查询出其相应的操作,而在手部运动属于非平移操作时,比如旋转或缩放操作时,能够对手部运动的特征参数进行具体运算,从而以从简单到复杂的分析方式确定手部运动在手势库中所对应的操作,提高了手势识别的准确率。
优选地,手势库包含单手和/或双手手势操作,且单手和/或双手手势操作包括沿三个轴中任一轴的平移操作,绕三个轴中任一轴的旋转操作,以及绕三个轴中任一轴的缩放操作,其中,三个轴中的任意两个轴互相垂直。
三个轴可以为构成空间直角坐标系的x轴、y轴、z轴,该手势库可以应用于LeapMotion,从而为Leap Motion提供包含六个自由度的手势控制操作以及缩放操作,便于LeapMotion的拓展和开发使用。
优选地,步骤S2还包括:S21,以帧数据的形式输入采集到的数据。
通过帧数据形式输入数据,在分析手部运动时即可通过比对前后两帧数据中的差异来实现,便于对手部运动数据变化进行分析。
优选地,步骤S2包括:S22:对输入的帧数据进行特征提取,得到特征参数STx、STy、STz、Nx、Ny、Nz、Dx、Dy、Dz、DTx、DTy、DTz、rt、pt,其中,STx、STy、STz分别为当前帧与上一帧间,手部沿x轴、y轴、z轴平移的距离差;Nx、Ny、Nz分别为手部在当前帧中 沿x轴、y轴、z轴的法向向量;Dx、Dy、Dz分别为当前帧中手部的掌心到指尖的方向向量沿x轴、y轴、z轴的向量;DTx、DTy、DTz分别为当前帧与上一帧间,手部的掌心到指尖的方向向量沿x轴、y轴、z轴的向量差,其中,手部的所有指尖指向同一方向,x轴、y轴、z轴中的任意两个轴互相垂直;rt为当前帧与上一帧间欧拉角的横滚角(即将物体绕z轴旋转的角度)的差值;pt为当前帧与上一帧间欧拉角的俯仰角(即将物体绕x轴旋转的角度)的差值。
通过提取上述特征参数,可以准确地识别出手部运动。
优选地,步骤S3包括:判断Ny<A且100(rt2+pt2)<B是否成立,其中,A和B分别为第一预设常数和第二预设常数,通过多次实验和大量数据统计得出的固定数值;若成立,则判定手部的运动属于平移类型操作,进入步骤S5,若不成立,则判定手部的运动不属于平移类型操作,进入步骤S4。
优选地,步骤S4包括:通过支持向量机算法,选用高斯核函数作为内积和函数判断手部的运动所属的操作类型。
不属于平移类型操作的手部运动可以是旋转操作或缩放操作,通过支持向量机算法(Support Vector Machine)作为进一步判断手部运动所述类型的分类器,同时选用高斯核函数(Radial Basis Function)作为内积核函数,进行多类模式识别。从而在对旋转和缩放对应的手势进行识别时,还能够将各自对应的归位类动作列入区分范畴,即分类数是有效手势类型的两倍。
优选地,在步骤S3之前还包括:对特征参数进行帧间平滑处理。
通过帧间平滑处理,可以保证用户通过手势操作进行三维操作过程中,模型连贯且稳定地变化,使用户能够更直接和自然地操作三维物体。
优选地,在步骤S3之前还包括:对特征参数进行有效性过滤。
由于用户手部执行的运动中,可能存在部分错误操作,这些操作 在手势库并不存在对应的目标操作,因此对于提取出的多个特征参数,其中存在明显偏差的特征参数可以直接过滤掉,从而避免在判断手部运动对应的操作类型时进行不必要的分析。
优选地,还包括:S6,过滤目标操作中的重复执行操作,并执行过滤后的操作。
在分析出手部运动对应的操作类型后,对于旋转和缩放操作,由于通过支持向量机算法进行多类模式识别后,得到分类数是有效手势类型的两倍。比如用户手部对操作模型执行旋转操作,向左旋转90°,由于用户执行操作后习惯将手部复位以进行下一步操作,那么在复位过程中,还会检测到用户手部向右旋转90°,即有效手势类型为向左旋转,同时还存在与之对应的无效操作类型向右旋转,因此需要对无效操作类型进行过滤,使得用户执行的控制操作更加准确、有效。
优选地,步骤S2包括:通过Leap Motion体感控制器实时采集手部的运动数据。
可以通过Leap Motion来进行手部运动的采集,提高采集精度,也可以将上述操作应用于Leap Motion,从而为Leap Motion提供6各自由度的控制以及缩放操作,便于用户通过Leap Motion执行更加准确和灵活地三维控制。
图2示出了根据本发明一个实施例的手势识别装置的框图。
如图2所示,根据本发明一个实施例的手势识别装置10包括:存储单元11,用于将用于控制三维物体的多个手势操作存储至手势库;采集单元12,用于实时采集手部的运动数据,对采集到的数据进行特征提取;判断单元13,用于根据提取出的特征参数判断手部的运动是否属于平移类型操作;计算单元14,用于在判断单元判定手部的运动不属于平移类型操作时,通过预设算法确定手部的运动所属的操作类型;查询单元15,用于根据操作类型,在手势库中查询相应类型的操作,根据特征参数在相应类型的操作中确定目标操作。
本发明还提出了一种Leap Motion体感控制***,包括上述手势识别装置10。
图3示出了根据本发明一个实施例的手势库中手势操作的示意图。
如图3所示,手势库中可以包含单手操作和双手操作,具体分为三类,包括平移操作、旋转操作和缩放操作,其中,平移操作又可以具体分为沿X轴平移,沿Y轴平移和沿Z轴平移,在X轴、Y轴、Z轴构成空间直角坐标系的情况下,上述操作相当于左右移动、上下移动和前后移动;旋转操作又可以具体分为绕X轴旋转、绕Y轴旋转、绕Z轴旋转,在X轴、Y轴、Z轴构成空间直角坐标系的情况下,上述操作相当于向上/下旋转、向左/右旋转和顺/逆时针旋转;缩放操作又可以具体分为放大操作和缩小操作。
通过为Leap Motion提供包含如图3所示的19种手势操作的手势库,使得用户可以通过Leap Motion执行6个自由度的控制和缩放操作,便于用户通过Leap Motion进行更加全面、准确地控制操作,易于Leap Motion的扩展。
图4示出了根据本发明一个实施例的进行手势识别的示意图。
如图4所示,在通过支持向量机算法(图4中简称SVM)作为进一步判断手部运动所述类型的分类器之前,需要对手部的运动进行一定的训练,经过训练后即可采用支持向量机算法对非平移类型的操作进行进一步分析。
其中第一次分类操作即判断出用户手部运动哪些属于平移类型,哪些属于非平移类型,对于平移类型的手部运动,可知直接进行后置处理得到输出,进行具体地控制,而对于非平移类型的手部运动,则需要通过支持向量机算法进行进一步分类。
通过采用本发明所公开的技术方案,能够构建适用于Leap Motion的三维模型操作手势库,以及相应的手势识别方法,并提高手 势识别的准确率,保证三维操作中模型变换的连贯性和稳定性。
虽然结合附图描述了本发明的实施方式,但是本领域技术人员可以在不脱离本发明的精神和范围的情况下做出各种修改和变型,这样的修改和变型均落入由所附权利要求所限定的范围之内。
Claims (12)
1.一种手势识别方法,其特征在于,包括:
S1:将用于控制三维物体的多个手势操作存储至手势库;
S2:实时采集手部的运动数据,对采集到的数据进行特征提取;
S3:根据提取出的特征参数判断所述手部的运动是否属于平移类型操作,若属于平移类型操作,进入步骤S5,若不属于平移类型操作,进入步骤S4;
S4:通过预设算法确定所述手部的运动所属的操作类型;
S5:根据所述操作类型,在所述手势库中查询相应类型的操作,根据所述特征参数在所述相应类型的操作中确定目标操作。
2.根据权利要求1所述的手势识别方法,其特征在于,所述手势库包含单手和/或双手手势操作,且所述单手和/或双手手势操作包括沿三个轴中任一轴的平移操作,绕所述三个轴中任一轴的旋转操作,以及绕所述三个轴中任一轴的缩放操作,其中,所述三个轴中的任意两个轴互相垂直。
3.根据权利要求1所述手势识别方法,其特征在于,所述步骤S2还包括:
S21,以帧数据的形式输入采集到的数据。
4.根据权利要求3所述手势识别方法,其特征在于,所述步骤S2包括:
S22:对输入的帧数据进行特征提取,得到特征参数STx、STy、STz、Nx、Ny、Nz、Dx、Dy、Dz、DTx、DTy、DTz、rt、pt,其中,
STx、STy、STz分别为当前帧与上一帧间,所述手部沿x轴、y轴、z轴平移的距离差;
Nx、Ny、Nz分别为所述手部在当前帧中沿x轴、y轴、z轴的法向向量;
Dx、Dy、Dz分别为当前帧中所述手部的掌心到指尖的方向向量沿x轴、y轴、z轴的向量;
DTx、DTy、DTz分别为当前帧与上一帧间,所述手部的掌心到指尖的方向向量沿x轴、y轴、z轴的向量差,其中,所述手部的所有指尖指向同一方向,所述x轴、y轴、z轴中的任意两个轴互相垂直;
rt为当前帧与上一帧间欧拉角的横滚角的差值;
pt为当前帧与上一帧间欧拉角的俯仰角的差值。
5.根据权利要求4所述手势识别方法,其特征在于,所述步骤S3包括:判断
Ny<A且100(rt2+pt2)<B
是否成立,其中,A和B分别为第一预设常数和第二预设常数;
若成立,则判定所述手部的运动属于平移类型操作,进入所述步骤S5,若不成立,则判定所述手部的运动不属于平移类型操作,进入所述步骤S4。
6.根据权利要求1至5中任一项所述手势识别方法,其特征在于,所述步骤S4包括:
通过支持向量机算法,选用高斯核函数作为内积和函数判断所述手部的运动所属的操作类型。
7.根据权利要求1至5中任一项所述手势识别方法,其特征在于,在所述步骤S3之前还包括:对所述特征参数进行帧间平滑处理。
8.根据权利要求1至5中任一项所述手势识别方法,其特征在于,在所述步骤S3之前还包括:对所述特征参数进行有效性过滤。
9.根据权利要求1至5中任一项所述手势识别方法,其特征在于,还包括:
S6,过滤所述目标操作中的重复执行操作,并执行过滤后的操作。
10.根据权利要求1至5中任一项所述手势识别方法,其特征在于,所述步骤S2包括:通过Leap Motion体感控制器实时采集所述手部的运动数据。
11.一种手势识别装置,其特征在于,包括:
存储单元,用于将用于控制三维物体的多个手势操作存储至手势库;
采集单元,用于实时采集手部的运动数据,对采集到的数据进行特征提取;
判断单元,用于根据提取出的特征参数判断所述手部的运动是否属于平移类型操作;
计算单元,用于在所述判断单元判定所述手部的运动不属于平移类型操作时,通过预设算法确定所述手部的运动所属的操作类型;
查询单元,用于根据所述操作类型,在所述手势库中查询相应类型的操作,根据所述特征参数在所述相应类型的操作中确定目标操作。
12.一种Leap Motion体感控制***,其特征在于,包括如权利要求11所述的手势识别装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410188979.XA CN104007819B (zh) | 2014-05-06 | 2014-05-06 | 手势识别方法、装置及Leap Motion体感控制*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410188979.XA CN104007819B (zh) | 2014-05-06 | 2014-05-06 | 手势识别方法、装置及Leap Motion体感控制*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104007819A CN104007819A (zh) | 2014-08-27 |
CN104007819B true CN104007819B (zh) | 2017-05-24 |
Family
ID=51368513
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410188979.XA Active CN104007819B (zh) | 2014-05-06 | 2014-05-06 | 手势识别方法、装置及Leap Motion体感控制*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104007819B (zh) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104793738A (zh) * | 2015-03-17 | 2015-07-22 | 上海海洋大学 | 基于Leap Motion的非接触式计算机操控方法 |
CN104866824A (zh) * | 2015-05-17 | 2015-08-26 | 华南理工大学 | 一种基于Leap Motion的手语字母识别方法 |
CN105868715B (zh) * | 2016-03-29 | 2020-02-07 | 苏州科达科技股份有限公司 | 一种手势识别方法、装置及手势学习*** |
CN106272409A (zh) * | 2016-08-03 | 2017-01-04 | 北京航空航天大学 | 基于手势识别的机械臂控制方法及*** |
CN107885317A (zh) * | 2016-09-29 | 2018-04-06 | 阿里巴巴集团控股有限公司 | 一种基于手势的交互方法及装置 |
CN106598227B (zh) * | 2016-11-15 | 2019-03-01 | 电子科技大学 | 基于Leap Motion和Kinect的手势识别方法 |
CN106527730B (zh) * | 2016-11-22 | 2018-05-11 | 包磊 | 体感控制数据的生成、输出控制方法及装置 |
CN106547357B (zh) * | 2016-11-22 | 2018-06-29 | 包磊 | 体感传感数据的通信处理方法及装置 |
CN107479689A (zh) * | 2017-06-20 | 2017-12-15 | 北京行云时空科技有限公司 | 用于vr/ar的操作控制方法和可穿戴设备 |
CN107491648A (zh) * | 2017-08-24 | 2017-12-19 | 清华大学 | 基于Leap Motion体感控制器的手部康复训练方法 |
CN108044625B (zh) * | 2017-12-18 | 2019-08-30 | 中南大学 | 一种基于多Leapmotion虚拟手势融合的机器人机械臂操控方法 |
CN108182728A (zh) * | 2018-01-19 | 2018-06-19 | 武汉理工大学 | 一种基于Leap Motion的在线体感三维建模方法及*** |
CN108694742A (zh) * | 2018-03-23 | 2018-10-23 | 深圳市家家顺物联科技有限公司 | 一种房源浏览方法、设备及存储介质 |
CN109395375A (zh) * | 2018-09-18 | 2019-03-01 | 华南理工大学 | 一种基于增强现实与移动交互的三维游戏接口设计方法 |
CN109501600A (zh) * | 2018-11-05 | 2019-03-22 | 徐州路马力电控科技有限公司 | 一种智能感应控制器 |
CN109597483A (zh) * | 2018-11-30 | 2019-04-09 | 湖北安心智能科技有限公司 | 一种基于体感交互的会议方案演示装置及方法 |
CN110084857B (zh) * | 2019-04-30 | 2022-09-23 | 南京邮电大学 | Kinect和厉动传感器组合传感装置及联合标定方法 |
CN113917927A (zh) * | 2021-10-26 | 2022-01-11 | 沈阳航天新光集团有限公司 | 一种基于Leap Motion交互的仿生机器鱼控制*** |
CN113961080B (zh) * | 2021-11-09 | 2023-08-18 | 南京邮电大学 | 一种基于手势交互的三维建模软件框架及设计方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102047203A (zh) * | 2008-04-02 | 2011-05-04 | 奥布隆工业有限公司 | 使用在扩展的景深内提取的三维信息进行的基于姿态的控制 |
CN103135753A (zh) * | 2011-12-05 | 2013-06-05 | 纬创资通股份有限公司 | 手势输入的方法及*** |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130271574A1 (en) * | 2012-04-13 | 2013-10-17 | Hunter Engineering Company | Method And Apparatus For Contactless Data Acquisition In A Vehicle Service System |
CN102778966B (zh) * | 2012-06-29 | 2016-03-02 | 广东威创视讯科技股份有限公司 | 利用鼠标模拟触摸输入的方法及装置 |
-
2014
- 2014-05-06 CN CN201410188979.XA patent/CN104007819B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102047203A (zh) * | 2008-04-02 | 2011-05-04 | 奥布隆工业有限公司 | 使用在扩展的景深内提取的三维信息进行的基于姿态的控制 |
CN103135753A (zh) * | 2011-12-05 | 2013-06-05 | 纬创资通股份有限公司 | 手势输入的方法及*** |
Non-Patent Citations (1)
Title |
---|
基于Kinect的手势识别技术及其在教学中的应用;陈静;《中国优秀硕士学位论文全文数据库信息科技辑》;20130715;1-71 * |
Also Published As
Publication number | Publication date |
---|---|
CN104007819A (zh) | 2014-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104007819B (zh) | 手势识别方法、装置及Leap Motion体感控制*** | |
CN104331158B (zh) | 一种手势控制的人机交互方法及装置 | |
US20130120282A1 (en) | System and Method for Evaluating Gesture Usability | |
CN105807926A (zh) | 一种基于三维连续动态手势识别的无人机人机交互方法 | |
KR20180064371A (ko) | 다수의 객체 입력을 인식하기 위한 시스템 및 그 방법 및 제품 | |
KR20120058996A (ko) | 객체 제어 장치 및 방법 | |
CN103093196A (zh) | 一种基于手势的汉字交互输入与识别方法 | |
CN107742095A (zh) | 基于卷积神经网络的汉语手语识别方法 | |
KR101392936B1 (ko) | 사용자 맞춤형 인터페이스 시스템 및 그 구현 방법 | |
CN102622225A (zh) | 一种支持用户自定义手势的多点触控应用程序开发方法 | |
CN104331154A (zh) | 实现非接触式鼠标控制的人机交互方法和*** | |
CN103793683A (zh) | 手势辨识方法与电子装置 | |
Kang et al. | Editing 3D models on smart devices | |
CN103336967A (zh) | 一种手部运动轨迹检测方法及装置 | |
Kryvonos et al. | New tools of alternative communication for persons with verbal communication disorders | |
Prasad et al. | A wireless dynamic gesture user interface for HCI using hand data glove | |
CN103177245B (zh) | 手势识别方法及装置 | |
CN106598422A (zh) | 基于指向型的操控、混合操控方法及操控***和电子设备 | |
CN113031464B (zh) | 设备控制方法、装置、电子设备及存储介质 | |
CN104461365A (zh) | 终端的触控方法和装置 | |
CN105204630A (zh) | 一种用体感进行服装设计的方法与*** | |
Kang et al. | Feature-based 3D CAD modeling on smart device using multi-touch gesture | |
WO2013149476A1 (zh) | 一种用户界面的操作控制方法及装置 | |
Feng et al. | FM: Flexible mapping from one gesture to multiple semantics | |
TW201248456A (en) | Identifying contacts and contact attributes in touch sensor data using spatial and temporal features |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |