CN103995586A - 基于虚拟触摸屏的非穿戴指势人机交互方法 - Google Patents
基于虚拟触摸屏的非穿戴指势人机交互方法 Download PDFInfo
- Publication number
- CN103995586A CN103995586A CN201410196648.0A CN201410196648A CN103995586A CN 103995586 A CN103995586 A CN 103995586A CN 201410196648 A CN201410196648 A CN 201410196648A CN 103995586 A CN103995586 A CN 103995586A
- Authority
- CN
- China
- Prior art keywords
- finger
- gesture
- coordinate
- touch screen
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
本发明涉及一种基于虚拟触摸屏的非穿戴指势人机交互方法。它是根据指势用户所指目标的手指屏可按照用户的人脸三维信息和手指尖的深度信息映射成手指尖可触及的虚拟触摸屏,通过手指尖在虚拟触摸屏的位置计算,自动确定用户所指空间目标。本发明方法不需要特定的硬件支持以及限定用户活动范围等约束,方法简便、灵活、易实现。
Description
技术领域
本发明涉及一种基于虚拟触摸屏的非穿戴指势人机交互方法,用于视频数字图像分析与理解,属于智能信息处理技术领域。
背景技术
随着计算机技术的迅猛发展,研究符合人类自然交流习惯的新颖人机交互技术异常活跃,且人机交互技术已从以计算机为中心逐步转移到以人为中心,为人们提供了更自然、更符合人类习惯的人机交互方式。在人体的所有姿势中,手势是一种自然、直观且易于学习的人机交互手段,已成为当前人机交互的研究热点,但手势不仅受骨胳肌肉驱动,且涉及人类思维活动,导致它具有多样性、多义性。相对于手势的多样性和多义性,指势易于解释,它是人们日常生活中用手指对空间感兴趣目标的反映,是人类语系发展和个体发生学的重要先驱,可揭示人类社会智力,是一种理想的自然人机交互模式;采用它进行人机交互,则可充分发挥人类的日常技能,摆脱目前常规输入设备(如键盘、鼠标器和触摸屏等)的束缚。
目前,基于指势的人机交互分为穿戴式和非穿戴式两类。前者基于数据头盔、数据手套和身体标记等,这类方法虽可获得较准确的用户位置和用户行动,但该类方法为侵入式,用户需专门训练,操作不便;后者基于非接触传感器(如摄像机),支持自然、灵活的人机交互。由于在人类的日常生活中,人类习惯并大量使用非精确的信息交流,允许使用模糊的表达手段避免不必要的认识负荷,以提高交互活动的自然性和高效性,因此,非穿戴的指势人机交互方法倍受青睐,其使用的***结构示意图如图1:利用摄像机捕获指势交互用户对象, 通过视频对象分割方法提取指势交互用户对象及其相关特征,确定指势交互用户对象所指空间目标,通过计算机发送触发命令,控制并显示和反馈所指目标结果。有效的非穿戴的指势人机交互在教育、影视、娱乐、制造、医学、商业、军事等领域均具有重要的实用意义和价值。
虽然人类在日常生活中频繁地使用指势进行信息交流,且极易识别所指目标,但对计算机而言却是一个难题。目前,已经提出了许多非穿戴指势人机交互方法。主要有基于立体匹配方法和基于特征分析方法。前者通过二个或以上摄像机获取图像,采用立体匹配方法进行指势人机交互,以确定所指目标。但由于立体匹配存在歧义性,且计算量大、运算复杂,需特定的硬件支持以实现实时处理。后者通过指势用户对象特征提取,进行指势视觉识别,并确定用户所指目标。但这类方法要求用户站立于事先指定的范围内,用户周围无遮挡或障碍物,且要求背景简单、单一,该类方法在很大程度上制约了用户活动的自由性,不符合人类自然交流习惯。
发明内容
本发明的目的在于针对现有非穿戴指势人机交互方法要求用户站立于事先指定的范围,其周围无遮挡或障碍物,背景简单、单一等假设信息,以及对不同身高、体型用户适用性差、实时交互效果不理想,提供一种基于虚拟触摸屏的非穿戴指势人机交互方法。它是根据指势用户所指目标的手指屏可按照用户的人脸三维信息和手指尖的深度信息映射成手指尖可触及的虚拟触摸屏,通过手指尖在虚拟触摸屏的位置计算,自动确定用户所指的实际空间目标。
根据上述发明构思,本发明采用下述技术方案:
一种基于虚拟触摸屏的非穿戴指势人机交互方法,其特征在于具体步骤如下:
1)启动非穿戴指势人机交互***,采集视频图像;
2)获取用户三维信息:标定Kinect,并由Kinect获取用户三维信息;
3)用户指势手部区域分割:根据步骤2)所提取的用户三维信息,获取用户手部深度方向的Z坐标,并将Z坐标值小的手部区域确定为指势手部区域;
4)指势手指尖提取:根据步骤3)所确定的用户指势手部区域,确定对应的指势手部区域外接矩形框;根据指势手指的Z坐标值小的特点,将具有最小Z坐标值且手指与外接矩形框的边缘相交点确定为指势手的手指尖点;
5)手指目标的行为确定;
6)虚拟触摸屏的构建;
7)手指目标的确定:根据手指尖在步骤6)所构建的虚拟触摸屏的位置计算,确定手指的目标。
所述步骤5)手指目标的行为判定的具体操作步骤如下:
(5-1)手指尖在相邻时刻的位移量计算:根据手指尖在t时刻和t-1时刻分别在水平X方向的三维坐标X t 、X t-1,垂直Y方向的三维坐标Y t 、Y t-1和深度Z方向的三维坐标Z t 、Z t-1,计算手指尖在水平X方向、垂直Y方向和深度Z方向的位移量D x 、D y 、D z : D x = X t - X t-1,D y = Y t - Y t-1,D z = Z t - Z t-1,并由此确定手指尖在相邻时刻的位移量D: ;
(5-2)手指目标的行为确定:根据手指目标时,手指尖在相邻时刻的位移量D值小的特点,将满足手指尖位移量D在连续设定p帧内小于给定阈值T的行为判定为手指目标行为。
所述步骤6)虚拟触摸屏的构建的具体操作步骤如下:
(6-1)手指屏的模块划分:将手指屏分别在水平X方向划分为m个模块和垂直Y方向划分为n个模块,并由此分别确定手指屏在水平X方向的各个分界点坐标为X 1 ,…,X m+1,以及在垂直Y方向的各个分界点坐标为Y 1 ,…,Y n+1;
(6-2)虚拟触摸屏构建:根据步骤2)所获取的用户三维信息,确定人脸中心点的三维坐标X head ,Y head ,Z head ;同时,根据步骤4)所确定的手指尖,获取手指尖在深度Z方向的坐标值Z fingertip ,并根据步骤(6-1)所划分的手指屏的各个分界点坐标X i (i=1,2,…,m+1),Y j (j = 1,2,…,n+1),按下式计算手指屏各模块分界点在虚拟触摸屏上的对应点坐标X i ’ ,Y j ’ ,构建用户手指可触及的虚拟触摸屏:
本发明的原理如下:在本发明的技术方案中,根据指势用户所指目标的手指屏可按照用户的人脸三维信息和手指尖的深度信息映射成手指尖可触及的虚拟触摸屏,通过手指尖在虚拟触摸屏的位置计算,自动确定用户所指的实际空间目标。
基于Kinect由RGB彩色摄像机和红外摄像机组成,并可获取人体深度信息,但因Kinect由RGB彩色摄像机获取的彩色图和由红外摄像机获取的深度图无法完全吻合,从而不能将指势的手指尖特征点的像素坐标有效地转换为对应的三维空间坐标,因此,需对Kinect标定。
在Kinect标定中,其标定参数为Kinect的彩色摄像机、红外摄像机的内参数以及彩色摄像机与红外摄像机之间的平移和旋转矩阵。其中,Kinect彩色摄像机的内参数矩阵为:
其中,(f uRGB, f vRGB )分别为彩色摄像机的焦距,(u 0RGB, v 0RGB )分别为彩色摄像机的主点坐标。
Kinect红外摄像机的内参数矩阵为:
其中, (f uIR, f vIR )分别为红外摄像机的焦距,(f 0IR, f 0IR )分别为红外摄像机的主点坐标。
上述参数确定后,可由空间某点在红外摄像机的原始视差d,计算该点在红外摄像机坐标系下的坐标:
其中,b为红外投射机和接收机之间的距离,a、b为常系数。
由于红外摄像机和彩色摄像机的位置不同,因此,需对两者标定旋转矩阵和平移矩阵:
采用棋盘方格作为标定靶,分别使用10组以上不同视角拍摄的图像进行标定。
基于Kinect标定结果,确定手部和手肘的三维坐标并初步判断指势方向,根据指向和指势手的形状特征扫描手部外接矩形的边缘区域来检测指尖点,并获得手指尖点的三维坐标。
当用户抬手并用手指向目标时,手指尖将在相邻t时刻和t-1时刻分别在水平X方向、垂直Y方向和深度Z方向发生如下位移:
D x = X t - X t-1
D y = Y t - Y t-1
D z = Z t - Z t-1
其中,D x ,D y ,D z 分别为手指尖在水平X方向、垂直Y方向和深度Z方向的位移量,(X t ,Y t ,Z t ,X t-1,Y t-1,Z t-1)分别为手指尖在t时刻和t-1时刻在水平X方向的坐标,垂直Y方向和深度Z方向的三维坐标。
由此确定手指尖在相邻时刻的位移量:
当用户用手指向目标时,根据手指尖在相邻时刻的位移量D值小的特点,将满足手指尖位移量D在连续设定p帧内小于给定阈值T的行为判定手指目标行为
其中,p表示手指尖点处于手指目标状态的帧数。
若检测到用户用手指向目标,按下列方法构建虚拟触摸屏。将用户所指目标所处的实际手指屏划分成m′n个模块,其中,水平方向的分界点分别为X 1 ,…, X m+1, 垂直方向分界点分别为Y 1 ,…,Y n+1。
以Kinect的彩色摄像头为三维坐标原点(0,0,0),以用户的人脸中心点为汇点,连接实际手指屏上的(X i ,Y j )点构建直线(如图2所示),其中,i=1,2,…,m+1;j=1,2,…,n+1。
得到空间直线方程如下:
其中,X i ’ ,Y j ’ ,Z ’ 分别表示构建的虚拟触摸屏的三维坐标,X head , Y head , Z head 分别表示用户脸部中心点的三维坐标,Z fingertip 为手指尖在深度Z方向的坐标。
为构建灵活、可变的活动虚拟触摸屏,令Z ’ =Z fingertip ,得到活动虚拟触摸屏的X i ’ ,Y j ’ :
根据所构建的虚拟触摸屏的X i ’ ,Y j ’ 与真实的手指屏各点(X i ,Y j )存在对应关系,通过手指尖在虚拟触摸屏的X i ’ ,Y j ’ 位置的计算,自动确定指势用户所指的实际空间目标。
本发明与现有技术相比较,具有如下显而易见的突出实质性特点和显著优点:本发明通过计算指势手部的深度信息,分割指势手部区域,并根据指势手指的深度坐标值小的特点,将具有最小深度坐标值且手指与外接矩形框的边缘相交点确定为指势手的手指尖点,基于手指目标时手指尖在相邻时刻的位移量小的特点,将满足手指尖位移量在连续设定帧内小于给定阈值的行为判定手指目标行为,并根据指势用户所指目标的手指屏可按照用户的人脸三维信息和手指尖的深度信息映射成手指尖可触及的虚拟触摸屏,通过手指尖在虚拟触摸屏的位置计算,自动确定用户所指的实际空间目标,运算简便、灵活,易实现,解决了非穿戴指势人机交互过程中要求背景简单、单一,需特定的硬件支持,以及要求用户站立于事先指定的范围内,用户周围无遮挡或障碍物的不足,适用于身高、体型各异的用户以其自然的指势习惯进行人机交互;提高了非穿戴指势人机交互的鲁棒性,可适应复杂背景条件下的非穿戴指势人机交互。
附图说明
图1是本发明方法的非穿戴指势人机交互***结构示意图。
图2是本发明方法的构建虚拟触摸屏示意图。
图3是本发明方法的操作程序框图。
图4是本发明一个实施例的视频当前帧图像。
图5是图4示例中分割出的手部区域图。
图6是图4示例中分割出的指尖区域图。
图7是本发明一个实施例的构建虚拟触摸屏结果图。
图8是本发明一个实施例的指势用户未指前方目标时的场景图像。 图9是图8示例指势用户徒手指向前方一目标时(前方目标被点亮—方框)的场景图像。
具体实施方式
本发明的优选实施例结合附图详述如下:
实施例一:
参见图1~图3,本基于虚拟触摸屏的非穿戴指势人机交互方法的具体步骤如下:
1)启动非穿戴指势人机交互***,采集视频图像;
2)获取用户三维信息:标定Kinect,并由Kinect获取用户三维信息;
3)用户指势手部区域分割:根据步骤2)所提取的用户三维信息,获取用户手部深度方向的Z坐标,并将Z坐标值小的手部区域确定为指势手部区域;
4)指势手指尖提取:根据步骤3)所确定的用户指势手部区域,确定对应的指势手部区域外接矩形框;根据指势手指的Z坐标值小的特点,将具有最小Z坐标值且手指与外接矩形框的边缘相交点确定为指势手的手指尖点;
5)手指目标的行为确定;
6)虚拟触摸屏的构建;
7)手指目标的确定:根据手指尖在步骤6)所构建的虚拟触摸屏的位置计算,确定手指的目标。
实施例二:
本实施例与实施例一基本相同,特别之处如下:
所述步骤5)手指目标的行为判定的具体操作步骤如下:
(5-1)手指尖在相邻时刻的位移量计算:根据手指尖在t时刻和t-1时刻分别在水平X方向的三维坐标X t 、X t-1,垂直Y方向的三维坐标Y t 、Y t-1和深度Z方向的三维坐标Z t 、Z t-1,计算手指尖在水平X方向、垂直Y方向和深度Z方向的位移量D x 、D y 、D z : D x = X t - X t-1,D y = Y t - Y t-1,D z = Z t - Z t-1,并由此确定手指尖在相邻时刻的位移量D:;
(5-2)手指目标的行为确定:根据手指目标时,手指尖在相邻时刻的位移量D值小的特点,将满足手指尖位移量D在连续设定p帧内小于给定阈值T的行为判定为手指目标行为。
所述步骤6)虚拟触摸屏的构建的具体操作步骤如下:
(6-1)手指屏的模块划分:将手指屏分别在水平X方向划分为m个模块和垂直Y方向划分为n个模块,并由此分别确定手指屏在水平X方向的各个分界点坐标为X 1 ,…,X m+1,以及在垂直Y方向的各个分界点坐标为Y 1 ,…,Y n+1;
(6-2)虚拟触摸屏构建:根据步骤2)所获取的用户三维信息,确定人脸中心点的三维坐标X head ,Y head ,Z head ;同时,根据步骤4)所确定的手指尖,获取手指尖在深度Z方向的坐标值Z fingertip ,并根据步骤(6-1)所划分的手指屏的各个分界点坐标X i (i=1,2,…,m+1),Y j (j = 1,2,…,n+1),按下式计算手指屏各模块分界点在虚拟触摸屏上的对应点坐标X i ’ ,Y j ’ ,构建用户手指可触及的虚拟触摸屏:
实施例三:
参见图1~图9,本基于虚拟触摸屏的非穿戴指势人机交互方法的操作程序如图3所示;具体步骤如下:
1)启动非穿戴指势人机交互***,采集视频图像,如图4;
2)获取用户三维信息:标定Kinect,所得Kinect参数值分别为:
,, ,,
,
,
并由Kinect获取用户三维信息;
3)用户指势手部区域分割:根据步骤2)所提取的用户三维信息,获取用户手部深度方向的Z坐标,并将Z坐标值小的手部区域确定为指势手部区域,如图5;
4)指势手指尖提取:根据步骤3)所确定的用户指势手部区域,确定对应的指势手部区域外接矩形框;根据指势手指的Z坐标值小的特点,将具有最小Z坐标值且手指与外接矩形框的边缘相交点确定为指势手的手指尖点,如图6;
5)手指目标的行为确定:具体操作步骤如下:
(1)手指尖在相邻时刻的位移量计算:根据手指尖在t时刻和t-1时刻分别在水平X方向的三维坐标X t 、X t-1,垂直Y方向的三维坐标Y t 、Y t-1和深度Z方向的三维坐标Z t 、Z t-1,计算手指尖在水平X方向、垂直Y方向和深度Z方向的位移量D x : D x = X t - X t-1,D y : D y = Y t - Y t-1,D z : D z = Z t - Z t-1,并由此确定手指尖在相邻时刻的位移量D:;
(2)手指目标的行为确定:根据手指目标时,手指尖在相邻时刻的位移量D值小的特点,将满足手指尖位移量D在连续设定8帧内小于给定阈值5的行为判定手指目标行为;
6)虚拟触摸屏的构建:具体操作步骤如下:
(1)手指屏的模块划分:手指屏的实际宽高均为180cm,并将其划分为6′6个模块。为直观反映指势识别结果,在每个模块正中央装置一盏日光灯,并标上数字1~36的序号,即36个指势目标,如图7所示。Kinect设置在手指屏正下方,以其彩色摄像头为坐标原点建立三维空间坐标系,测量得到水平X方向上的分界点坐标(X 1 ,…,X 7)分别为(-90cm,…,90cm),以及在垂直Y方向的分界点坐标(Y 1 ,…,Y 7)分别为(195cm, …,15cm),由于手指屏和摄像头位于同一垂直平面上,因此分界点的Z坐标均为0。
(2)虚拟触摸屏构建:根据步骤4)可提取指势手的指尖点,再由Harr特征检测人脸并确定脸部中心点,按照步骤2)的标定方法获取用户三维信息,人脸中心点的三维坐标(X head ,Y head ,Z head )分别为(-10.0cm, 35.0cm, 191.0cm),手指尖点的三维坐标(X fingertip ,Y fingertip ,Z fingertip )分别为(-12.2cm,50.4cm,155.0cm)。然后将手指屏上水平方向和垂直方向上的分界点坐标、人脸中心点的三维坐标,以及指尖点的Z坐标代入下式,可得到手指屏上分界点在虚拟触摸屏上对应的空间位置。
计算得虚拟屏上X方向的分界点坐标(X 1 ’ ,X 2 ’ ,X 3 ’ , X 4 ’ ,X 5 ’ ,X 6 ’ ,X 7 ’ )分别为(-25 cm, -19.4 cm, -13.7 cm, -8.1 cm, -2.4 cm, 3.1 cm, 8.8 cm),Y方向的分界点坐标(Y 1 ’ ,Y 2 ’ ,Y 3 ’ ,Y 4 ’ ,Y 5 ’ ,Y 6 ’ ,Y 7 ’ )分别为(31.2 cm, 36.8 cm, 42.5 cm, 48.1 cm, 53.8 cm, 59.5 cm, 65.1 cm)。
7)手指目标的确定:根据步骤6)所构建的虚拟触摸屏,可确定目标所在模块的指势范围。若判断得用户的手指尖停留在某一模块内,如下式:
X i ’ <X fingertip < X i+1 ’ 且Y j ’ <Y fingertip <Y j+1 ’ (i,j=1,2,…6)
则表示该用户正指向某一目标(灯),同时相应的灯被点亮。由于X fingertip =-12.2cm,Y fingertip =50.4cm,因此得到:
X 3 ’ (-13.7cm)<X fingertip (-12.2)< X 4 ’ (-8.1cm)且 Y 4 ’ (48.1cm)<Y fingertip (50.4cm)<Y 5 ’ (53.8cm)
从而可知用户所指向的目标为第15号灯,开启第15号灯点亮,实际场景如图9方框部分所示。
Claims (3)
1.一种基于虚拟触摸屏的非穿戴指势人机交互方法,其特征在于具体步骤如下:
1)启动非穿戴指势人机交互***,采集视频图像;
2)获取用户三维信息:标定Kinect,并由Kinect获取用户三维信息;
3)用户指势手部区域分割:根据步骤2)所提取的用户三维信息,获取用户手部深度方向的Z坐标,并将Z坐标值小的手部区域确定为指势手部区域;
4)指势手指尖提取:根据步骤3)所确定的用户指势手部区域,确定对应的指势手部区域外接矩形框;根据指势手指的Z坐标值小的特点,将具有最小Z坐标值且手指与外接矩形框的边缘相交点确定为指势手的手指尖点;
5)手指目标的行为确定;
6)虚拟触摸屏的构建;
7)手指目标的确定:根据手指尖在步骤6)所构建的虚拟触摸屏的位置计算,确定手指的目标。
2.根据权利要求1所述的基于虚拟触摸屏的非穿戴指势人机交互方法,其特征在于:所述步骤5)手指目标的行为判定的具体操作步骤如下:
(5-1)手指尖在相邻时刻的位移量计算:根据手指尖在t时刻和t-1时刻分别在水平X方向的三维坐标X t 、X t-1,垂直Y方向的三维坐标Y t 、Y t-1和深度Z方向的三维坐标Z t 、Z t-1,计算手指尖在水平X方向、垂直Y方向和深度Z方向的位移量D x 、D y 、D z : D x = X t - X t-1,D y = Y t - Y t-1,D z = Z t - Z t-1,并由此确定手指尖在相邻时刻的位移量D: ;
(5-2)手指目标的行为确定:根据手指目标时,手指尖在相邻时刻的位移量D值小的特点,将满足手指尖位移量D在连续设定p帧内小于给定阈值T的行为判定为手指目标行为。
3.根据权利要求1所述的基于虚拟触摸屏的非穿戴指势人机交互方法,其特征在于:所述步骤6)虚拟触摸屏的构建的具体操作步骤如下:
(6-1)手指屏的模块划分:将手指屏分别在水平X方向划分为m个模块和垂直Y方向划分为n个模块,并由此分别确定手指屏在水平X方向的各个分界点坐标为X 1 ,…,X m+1,以及在垂直Y方向的各个分界点坐标为Y 1 ,…,Y n+1;
(6-2)虚拟触摸屏构建:根据步骤2)所获取的用户三维信息,确定人脸中心点的三维坐标X head ,Y head ,Z head ;同时,根据步骤4)所确定的手指尖,获取手指尖在深度Z方向的坐标值Z fingertip ,并根据步骤(6-1)所划分的手指屏的各个分界点坐标X i (i=1,2,…,m+1),Y j (j = 1,2,…,n+1),按下式计算手指屏各模块分界点在虚拟触摸屏上的对应点坐标X i ’ ,Y j ’ ,构建用户手指可触及的虚拟触摸屏。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410196648.0A CN103995586B (zh) | 2014-05-12 | 2014-05-12 | 基于虚拟触摸屏的非穿戴指势人机交互方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410196648.0A CN103995586B (zh) | 2014-05-12 | 2014-05-12 | 基于虚拟触摸屏的非穿戴指势人机交互方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103995586A true CN103995586A (zh) | 2014-08-20 |
CN103995586B CN103995586B (zh) | 2018-04-06 |
Family
ID=51309774
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410196648.0A Expired - Fee Related CN103995586B (zh) | 2014-05-12 | 2014-05-12 | 基于虚拟触摸屏的非穿戴指势人机交互方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103995586B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105425954A (zh) * | 2015-11-04 | 2016-03-23 | 哈尔滨工业大学深圳研究生院 | 应用于智能家居中的人机交互方法及*** |
CN111803962A (zh) * | 2020-07-21 | 2020-10-23 | 腾讯科技(深圳)有限公司 | 一种虚拟场景中虚拟对象交互的方法以及相关装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101038671A (zh) * | 2007-04-25 | 2007-09-19 | 上海大学 | 基于立体视觉三维手指运动轨迹跟踪方法 |
CN102073878B (zh) * | 2010-11-15 | 2012-11-07 | 上海大学 | 非穿戴指势视觉识别方法 |
CN102508546B (zh) * | 2011-10-31 | 2014-04-09 | 冠捷显示科技(厦门)有限公司 | 一种3d虚拟投影及虚拟触摸的用户交互界面及实现方法 |
-
2014
- 2014-05-12 CN CN201410196648.0A patent/CN103995586B/zh not_active Expired - Fee Related
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105425954A (zh) * | 2015-11-04 | 2016-03-23 | 哈尔滨工业大学深圳研究生院 | 应用于智能家居中的人机交互方法及*** |
CN105425954B (zh) * | 2015-11-04 | 2018-09-18 | 哈尔滨工业大学深圳研究生院 | 应用于智能家居中的人机交互方法及*** |
CN111803962A (zh) * | 2020-07-21 | 2020-10-23 | 腾讯科技(深圳)有限公司 | 一种虚拟场景中虚拟对象交互的方法以及相关装置 |
Also Published As
Publication number | Publication date |
---|---|
CN103995586B (zh) | 2018-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10186057B2 (en) | Data input device, data input method, and non-transitory computer readable recording medium storing data input program | |
CN104050859A (zh) | 可交互数字化立体沙盘*** | |
CN102184021B (zh) | 一种基于手写输入和指尖鼠标的电视人机交互方法 | |
CN101719015B (zh) | 指示手势的手指尖定位方法 | |
US20130249786A1 (en) | Gesture-based control system | |
CN105554385A (zh) | 一种远距离多模态生物特征识别方法及其*** | |
CN103135755A (zh) | 交互***及方法 | |
CN103838378A (zh) | 一种基于瞳孔识别定位的头戴式眼睛操控*** | |
JP2013250882A5 (zh) | ||
CN107357428A (zh) | 基于手势识别的人机交互方法及装置、*** | |
CN104317391A (zh) | 一种基于立体视觉的三维手掌姿态识别交互方法和*** | |
CN103105930A (zh) | 一种基于视频图像的非接触式智能输入方法及装置 | |
CN110209285B (zh) | 一种基于手势控制的沙盘展示*** | |
CN108305321B (zh) | 一种基于双目彩色成像***的立体人手3d骨架模型实时重建方法和装置 | |
WO2016035941A1 (ko) | 인간 모델의 3차원 공간 데이터를 이용한 포즈 인식 시스템 및 그 방법 | |
CN103176605A (zh) | 一种手势识别控制装置及控制方法 | |
CN109145802A (zh) | 基于Kinect的多人手势人机交互方法及装置 | |
US20180053338A1 (en) | Method for a user interface | |
CN106909871A (zh) | 手势指令识别方法 | |
CN102929547A (zh) | 智能终端无接触交互方法 | |
CN102799271A (zh) | 一种基于人手手势的交互命令识别方法及*** | |
CN109471533A (zh) | 一种vr/ar教室内的学生端***及其使用方法 | |
CN106445146A (zh) | 用于头盔显示器的手势交互方法与装置 | |
KR101426378B1 (ko) | 깊이 정보를 이용한 프레젠테이션 이벤트 처리 장치 및 방법 | |
CN103995586A (zh) | 基于虚拟触摸屏的非穿戴指势人机交互方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20180406 Termination date: 20210512 |
|
CF01 | Termination of patent right due to non-payment of annual fee |