CN104808790A - 一种基于非接触式交互获取无形透明界面的方法 - Google Patents
一种基于非接触式交互获取无形透明界面的方法 Download PDFInfo
- Publication number
- CN104808790A CN104808790A CN201510163408.5A CN201510163408A CN104808790A CN 104808790 A CN104808790 A CN 104808790A CN 201510163408 A CN201510163408 A CN 201510163408A CN 104808790 A CN104808790 A CN 104808790A
- Authority
- CN
- China
- Prior art keywords
- transparent interface
- interface
- gesture
- centre
- transparent
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
本发明提供一种基于非接触式交互获取无形透明界面的方法,其特征是:包括如下步骤:(1)输入手势操作视频流,初始化,设置k=1,获取第k帧图像;(2)计算当前时刻k的手势指示位置,透明界面的长、宽、高和透明界面的重心;(3)k←k+1,计算Pk(p1,p2,p3);(4)如果当前手势位置脱离当前透明界面的区域范围,则重新定位透明界面的位置和大小,转步骤(2);(5)刷新透明界面的重心位置(6)刷新透明界面沿长、宽、高三个方向的长度;(7)判断当前操作是属于2D操作还是属于3D操作;(8)如果透明界面结构趋于稳定,则输出透明界面的位置、大小和结构信息。
Description
技术领域
本发明涉及虚拟手势操作领域,具体地讲,涉及一种基于非接触式交互获取无形透明界面的方法。
背景技术
电视正在变成一个与许多内容进行交互的枢纽。这些大型的、高分辨率的显示器可以被用于浏览数码照片、选择音乐、玩游戏、看电影和电视节目。现在许多电视与互联网连接,允许访问在线内容和社会媒体,这进一步导致了像苹果电视和谷歌电视这样的新产品的发展,它们增加了从电视屏幕获取信息的数量和复杂性。国内的乐视和小米也很火爆,其中乐视互联网电视去年10月份以后超越了海信、长虹等传统品牌高居第一位,它有语音交互和基于触摸操作的智能遥控器。在许多情况下,电视遥控器本身就是一个限制因素,通常它只提供简单的固定按钮来与电视进行交互,缺少鼠标和手势交互的灵活性。NasserH.Dardas和Mohammad Alhaj利用手势识别技术来产生控制命令,利用这些控制命令来控制游戏中物体的运动,在该手势识别***中利用词袋技术和支持向量机技术来实现用户和计算机之间的交互。Werner等人在不违反用户心理模型的情况下,通过隐式调整控制显示来适应当前用户的需要,解决了远程交互中指点设备的精度问题。Joe Weakliam等人提出了CoMPASS***,它不需要来自用户的显式输入,而是当用户根据特征和感兴趣的区域浏览地图特定空间内容时,监控用户的隐式操作。该***可以分析用户的隐式行为,并将分析结果用于建立用户模型。Kaori Fujinami等人把增强技术融入到普适计算中,采用自然或隐式的方法获取用户环境信息,而用户不需要学习如何获取信息,填补了用户和复杂计算环境间的差距。Paul Dietz等人提出了基于多投影仪的隐式交互技术,他们把投影仪作为实时输出设备,当用户进入红外线区域时,***可以隐式地关注用户并在显示区显示用户,同时用卡通技术循环地展示有关内容。Stavros Antifakos等人设计了一个面向非意外同步运动的“智能”对象的隐式交互实例,当打开门时***隐式访问控制。
发明内容:
本发明要解决的技术问题是提供一种基于非接触式交互获取无形透明界面的方法,弄清透明界面的空间功能分布与用户行为模型和体验愉悦感之间的关系,探明基于透明界面的透明感知的认知机理和行为特征,为三维用户界面***、虚拟现实***、动漫游戏软件***,尤其是为交互式智能数字电视、3D游戏等界面的设计提供更加智能化、人性化、自然化的交互范式。
本发明采用如下技术方案实现发明目的:
一种基于非接触式交互获取无形透明界面的方法,其特征是:包括如下步骤:
(1)初始化,设置k=1,L(k,i)=0,i=1,2,3,L(k,i)表示透明界面的长、宽、高,当|H1-H2|<τ时,即当人手基本保持不动时,τ是一个非负经验参数,Pk(x,y,z)=(H1+H2)/2,其中,H1和H2分别表示相邻两帧之间通过Kinect设备接口获得的手势重心位置,Ok(x,y,z)=Pk(x,y,z),Ok(x,y,z)为k时刻透明界面的重心位置;
(2)k=k+1,计算Pk(x,y,z),Pk(x,y,z)为当前时刻k的手势重心位置;
(3)如果人体重心位置发生移动,则重新定位透明界面的位置和大小,亦即对于经验常数β,如果:
|Ck(x,y,z)-Ck-1(x,y,z)|>β (1)
则转第(1)步,Ck表示人体的重心位置;
(4)刷新透明界面的重心位置,
Ok(o1,o2,o3)=(nOk-1(x,y,z)+Pk(x,y,z))/(n+1) (2)
其中,n表示透明界面中参与统计的手势重心位置的轨迹点的数目;
(5)刷新透明界面沿长、宽、高三个方向的长度:
L(k,i)=max(L(k-1,i),2*|pk(x,y,z)-ok(x,y,z)|)
(2)
其中,i=1,2,3;
(6)判断当前操作是属于物理界面的2D操作区的操作还是属于3D操作区的操作;
(7)如果透明界面结构趋于稳定,即
(||L(k,i)-L(k-1,i)||<μ)and(||Ok(x,y,z)-Ok-1(x,y,z)||<μ)
(4)
则输出透明界面的位置、大小和结构信息,μ为事先设定的常数,否则,转第步骤(2)。
作为对本技术方案的进一步限定,所述步骤(7)包括如下步骤:
(7.1)如果当前第k帧的手势重心位置与透明界面的重心位置之差超过规定阈值,则认为当前操作为3D操作区的操作;否则,当前操作被认定为2D操作区的操作,亦即:
如果
λ<||Pk(x,y,z)-ok(x,y,z)||<L3 (3)
则当前手势操作为2D操作,否则当前手势操作为3D操作,λ、L3为常数;
(7.2)刷新2DR和3DR:2DR和3DR分别指显示器上的二维区域和三维区域,
分别求2DR和3DR的最大包围盒,得到(2DR_LB,2DR_RT)和(3DR_LB,3DR_RT,2DR_LB指2DR区域的左下角位置,2DR_RT指2DR区域的右上角位置,3DR_LB、3DR_RT分别指3DR区域的两个对角位置即左下角与右上角位置,从而,确定2DR和3DR区域的位置和大小。
作为对本技术方案的进一步限定,所述透明界面指计算机感知的位于用户与物理界面之间的3D交互感应区。
作为对本技术方案的进一步限定,所述物理界面指显示器的显示屏幕。
作为对本技术方案的进一步限定,所述透明界面为水平长方形。
作为对本技术方案的进一步限定,所述透明界面为竖直长方形。
作为对本技术方案的进一步限定,所述透明界面为半圆柱形。
作为对本技术方案的进一步限定,所述物理界面分为2D操作区和3D操作区。
作为对本技术方案的进一步限定,所述步骤(3)的人体重心位置的计算步骤为:
(3.1)通过Kinect设备获取人体骨骼坐标;
(3.2)用左、右膝关节坐标(A1(x,y,z),A2(x,y,z))、左、右髋关节坐标(A3(x,y,z),A4(x,y,z))、左、右肩关节坐标(A5(x,y,z),A6(x,y,z))、左、右胸锁关节坐标(A7(x,y,z),A8(x,y,z))和下颌关节(A9(x,y,z))的平均值代***重心位置Ck(x,y,z),即
其中,Ai(x,y,z)表示关节位置,该位置可以从Kinect设备编程接口直接获取,它用(x,y,z)三维坐标表示。
作为对本技术方案的进一步限定,所述步骤(2)和(3)手势重心位置的计算步骤为:
(2.1)从k时刻获取的视频帧图像中根据肤色和深度值把手势图像从背景图像中分割出来,得到手势的RGB位图I;
(2.2)在位图I中计算手势图像的二维重心位置(x,y);
(2.3)根据Kinect设备提供的编程接口中,读出(x,y)对应的深度值z,从而得到Pk(x,y,z)。
与现有技术相比,本发明的优点和积极效果是:本发明赋予手势操纵物理空间以信息空间的属性,结构化交互感应区,达到物理空间(透明界面)“实”化的目的;通过建立物理界面与透明界面的对应关系,达到物理界面“虚”化的目的。这样,一方面,实者虚之,虚者实之,实现物理界面与透明界面二者的信息增强和无缝融合,“拉近”用户与物理界面的距离,使之更加逼近用户的心理模型;另一方面,通过透明界面构建隐式交互界面范式,有望为人机交互中的部分热点问题或难点问题找到新的解决方法。例如,有可能为Midas Touch、手势操作疲劳、混合多模态手势之间的透明切换等问题,提供新的突破口。弄清透明界面的空间功能分布与用户行为模型和体验愉悦感之间的关系,探明基于透明界面的透明感知的认知机理和行为特征,为三维用户界面***、虚拟现实***、动漫游戏软件***,尤其是为交互式智能数字电视、3D游戏等界面的设计提供更加智能化、人性化、自然化的交互范式。
附图说明
图1为本发明的透明界面结构图。
图2为本发明为从透明界面到物理界面的映射的示意图。
图3为本发明的透明界面为平面的示意图。
图4为本发明的透明界面为圆弧形的示意图。
图5为本发明的透明界面的投影效果图。
具体实施方式:
下面结合实施例,进一步说明本发明。
一、基本概念
(1)透明界面
通过对用户手势操作行为进行分析,计算机将透明感知位于用户与物理界面之间的3D交互感应区,该区域将与用户的身***置及姿态亦步亦趋、就好像用户手势附近有一个看不见但却随用户手势运动“亦步亦趋”的操作屏幕,本发明将这种具有特定结构和功能的用户交互感应区称为(无形)透明界面。
透明界面的意义在于,它不仅从一个侧面反映了用户的手势操作行为模型,而且刻画了用户的心理模型,并且规范了非接触式交互的界面范式,使得非接触式交互界面是可以计算、可以感知的。从这个意义上讲,透明界面将接触式交互与非接触式交互很好地统一起来。
(2)物理界面
本发明将显示器的显示屏幕称为物理界面,物理界面上设置有3D操作区和2D操作区。
(3)物理空间
用户与物理界面之间的手势操作空间称为物理空间。图1中给出了一种可能的透明界面结构图。在该界面中,不同的功能区分布在不同的层上,不同的层上可以设置不同的子块。
二、透明界面的构建
2.1透明界面的获取
通过计算机对用户手势操作范围的感知,构建具有动态自适应能力的透明界面,即容许用户随意移动手势或身体,透明界面可以随着用户手势位置的改变而亦步亦趋地自动调整,从而实现手势操纵物理空间的“实”化和信息增强。除了可以通过用户学习和训练的方法得到透明界面之外,本文提出一种获取透明界面的新方法。
设当前透明界面的重心为Ok(x,y,z),长、宽、高三个方向的长度分别为L(k,i),(i=1,2,3),当前手势位置为Pk(x,y,z),图像帧序号为k;2DR和3DR分别表示二维(2D)区域三维(3D)区域,2DR_LB和3DR_LB分别表示2DR和3DR的左下角位置,2DR_RT和3DR_RT分别表示2DR和3DR的右上角位置。具体算法如下:
(1)初始化,设置k=1,L(k,i)=0,i=1,2,3,L(k,i)表示透明界面的长、宽、高,当|H1-H2|<τ时,即当人手基本保持不动时,τ是一个非负经验参数,Pk(x,y,z)=(H1+H2)/2,其中,H1和H2分别表示相邻两帧之间通过Kinect设备接口获得的手势重心位置,Ok(x,y,z)=Pk(x,y,z),Ok(x,y,z)为k时刻透明界面的重心位置;
(2)k=k+1,计算Pk(x,y,z),Pk(x,y,z)为当前时刻k的手势重心位置;
(3)如果人体重心位置发生移动,则重新定位透明界面的位置和大小,亦即对于经验常数β,如果:
|Ck(x,y,z)-Ck-1(x,y,z)|>β (1)
则转第(1)步,Ck表示人体的重心位置;
(4)刷新透明界面的重心位置,
Ok(o1,o2,o3)=(nOk-1(x,y,z)+Pk(x,y,z))/(n+1) (2)
其中,n表示透明界面中参与统计的手势重心位置的轨迹点的数目;
(5)刷新透明界面沿长、宽、高三个方向的长度:
L(k,i)=max(L(k-1,i),2*|pk(x,y,z)-ok(x,y,z)|)
(2)
其中,i=1,2,3;
(6)判断当前操作是属于物理界面的2D操作区的操作还是属于3D操作区的操作;
(7)如果透明界面结构趋于稳定,即
(||L(k,i)-L(k-1,i)||<μ)and(||Ok(x,y,z)-Ok-1(x,y,z)||<μ)
(4)
则输出透明界面的位置、大小和结构信息,μ为事先设定的常数,否则,转第步骤(2)。
所述步骤(7)包括如下步骤:
(7.1)如果当前第k帧的手势重心位置与透明界面的重心位置之差超过规定阈值,则认为当前操作为3D操作区的操作;否则,当前操作被认定为2D操作区的操作,亦即:
如果
λ<||Pk(x,y,z)-ok(x,y,z)||<L3 (3)
则当前手势操作为2D操作,否则当前手势操作为3D操作,λ、L3为常数;
(7.2)刷新2DR和3DR:2DR和3DR分别指显示器上的二维区域和三维区域,
分别求2DR和3DR的最大包围盒,得到(2DR_LB,2DR_RT)和(3DR_LB,3DR_RT,2DR_LB指2DR区域的左下角位置,2DR_RT指2DR区域的右上角位置,3DR_LB、3DR_RT分别指3DR区域的两个对角位置即左下角与右上角位置,从而,确定2DR和3DR区域的位置和大小。
所述步骤(3)的人体重心位置的计算步骤为:
(3.1)通过Kinect设备获取人体骨骼坐标;
(3.2)用左、右膝关节坐标(A1(x,y,z),A2(x,y,z))、左、右髋关节坐标(A3(x,y,z),A4(x,y,z))、左、右肩关节坐标(A5(x,y,z),A6(x,y,z))、左、右胸锁关节坐标(A7(x,y,z),A8(x,y,z))和下颌关节(A9(x,y,z))的平均值代***重心位置Ck(x,y,z),即
其中,Ai(x,y,z)表示关节位置,该位置可以从Kinect设备编程接口直接获取,它用(x,y,z)三维坐标表示。
所述步骤(2)手势重心位置的计算步骤为:
(2.1)从k时刻获取的视频帧图像中根据肤色和深度值把手势图像从背景图像中分割出来,得到手势的RGB位图I;
(2.2)在位图I中计算手势图像的二维重心位置(x,y);
(2.3)根据Kinect设备提供的编程接口中,读出(x,y)对应的深度值z,从而得到Pk(x,y,z)。
透明界面的获取相当于人机交互***的初始化阶段,一旦透明界面结构趋于稳定,就可以通过透明界面到物理界面的映射关系,就可以像操作实物界面那样非接触式操作物理界面或与环境中的设备进行交互。
2.2透明界面与物理界面之间的映射
一般情况下,透明界面VI可以是二维平面,也可以是3维立体面,透明界面VI与物理界面PI所在的平面平行。实验表明,从透明界面VI到物理界面PI的关系可以近似地用透视映射进行表达(图2):
其中,
这里,3×3阶子矩阵ai,j(i,j=1,2,3)是比例变换或旋转变换参数,(t1,t2,t3)是平移变换参数,(p1,p2,p3)是透视变换参数,r是整体比例变换参数。显然,从图中的4个顶点的映射对应可以解出矩阵T,于是得到从透明界面到物理界面的映射关系;同样,可以得到从物理界面到透明界面的映射关系。
2.3多风格透明界面
透明界面固然反映了用户的行为模型,但这个模型是在要求用户在面对物理界面操作任务的条件下得到的,在用户的潜意识里,操作所在的范围几乎与物理界面平行。然而,这种要求往往会让用户在长时间操作后感到疲劳,即用户的操作负荷往往比较重。为了降低用户的操作负荷,我们进一步提出多风格透明界面的研究设想。根据这种研究设想,透明界面与物理界面之间可以呈任意角度,且计算机可以自动感知多风格透明界面并自动找到透明界面与物理界面之间的对应关系。实现多种风格的任意转换,可能更能降低用户的操作负荷。图中,给出了一种可能的透明界面风格。在这个实例中,物理界面PI所在的平面是竖直的,而透明界面VI所在的平面是水平的。事实上,根据透明界面VI和物理界面PI之间的对应关系,总可以求出透视矩阵T,从而方便地实现不同风格的透明界面。
此外,透明界面VI还可以被映射为呈球面状或柱面状(图3和图4)。根据VI和PI之间四个角点之间的对应关系,很容易求出对应球面状或柱面的有关参数。
多风格透明界面在一定程度上降低了用户对于物理界面的依赖程度,克服了目前基于手势输入的非接触式界面中式单一、刻板的交互模式,更加体现“以人为中心”的设计理念。
Claims (10)
1.一种基于非接触式交互获取无形透明界面的方法,其特征是:包括如下步骤:
(1)初始化,设置k=1,L(k,i)=0,i=1,2,3,L(k,i)表示透明界面的长、宽、高,当|H1-H2|<τ时,即当人手基本保持不动时,τ是一个非负经验参数,Pk(x,y,z)=(H1+H2)/2,其中,H1和H2分别表示相邻两帧之间通过Kinect设备接口获得的手势重心位置,Ok(x,y,z)=Pk(x,y,z),Ok(x,y,z)为k时刻透明界面的重心位置;
(2)k=k+1,计算Pk(x,y,z),Pk(x,y,z)为当前时刻k的手势重心位置;
(3)如果人体重心位置发生移动,则重新定位透明界面的位置和大小,亦即对于经验常数β,如果:
|Ck(x,y,z)-Ck-1(x,y,z)|>β (1)
则转第(1)步,Ck表示人体的重心位置;
(4)刷新透明界面的重心位置,
Ok(o1,o2,o3)=(nOk-1(x,y,z)+Pk(x,y,z))/(n+1) (2)
其中,n表示透明界面中参与统计的手势重心位置的轨迹点的数目;
(5)刷新透明界面沿长、宽、高三个方向的长度:
L(k,i)=max(L(k-1,i),2*|pk(x,y,z)-ok(x,y,z)|)
(2)
其中,i=1,2,3;
(6)判断当前操作是属于物理界面的2D操作区的操作还是属于3D操作区的操作;
(7)如果透明界面结构趋于稳定,即
(||L(k,i)-L(k-1,i)||<μ)and(||Ok(x,y,z)-Ok-1(x,y,z)||<μ)
(4)
则输出透明界面的位置、大小和结构信息,μ为事先设定的常数,否则,转第步骤(2)。
2.根据权利要求1所述的基于非接触式交互获取无形透明界面的方法,其特征是:所述步骤(7)包括如下步骤:
(7.1)如果当前第k帧的手势重心位置与透明界面的重心位置之差超过规定阈值,则认为当前操作为3D操作区的操作;否则,当前操作被认定为2D操作区的操作,亦即:
如果
λ<||Pk(x,y,z)-ok(x,y,z)||<L3 (3)
则当前手势操作为2D操作,否则当前手势操作为3D操作,λ、L3为常数;
(7.2)刷新2DR和3DR:2DR和3DR分别指显示器上的二维区域和三维区域,
分别求2DR和3DR的最大包围盒,得到(2DR_LB,2DR_RT)和(3DR_LB,3DR_RT,2DR_LB指2DR区域的左下角位置,2DR_RT指2DR区域的右上角位置,3DR_LB、3DR_RT分别指3DR区域的两个对角位置即左下角与右上角位置,从而,确定2DR和3DR区域的位置和大小。
3.根据权利要求1所述的基于非接触式交互获取无形透明界面的方法,其特征是:所述透明界面指计算机感知的位于用户与物理界面之间的3D交互感应区。
4.根据权利要求1所述的基于非接触式交互获取无形透明界面的方法,其特征是:所述物理界面指显示器的显示屏幕。
5.根据权利要求1所述的基于非接触式交互获取无形透明界面的方法,其特征是:所述透明界面为水平长方形。
6.根据权利要求1所述的基于非接触式交互获取无形透明界面的方法,其特征是:所述透明界面为竖直长方形。
7.根据权利要求1所述的基于非接触式交互获取无形透明界面的方法,其特征是:所述透明界面为半圆柱形。
8.根据权利要求1所述的基于非接触式交互获取无形透明界面的方法,其特征是:所述物理界面分为2D操作区和3D操作区。
9.根据权利要求1所述的基于非接触式交互获取无形透明界面的方法,其特征是:所述步骤(3)的人体重心位置的计算步骤为:
(3.1)通过Kinect设备获取人体骨骼坐标;
(3.2)用左、右膝关节坐标(A1(x,y,z),A2(x,y,z))、左、右髋关节坐标(A3(x,y,z),A4(x,y,z))、左、右肩关节坐标(A5(x,y,z),A6(x,y,z))、左、右胸锁关节坐标(A7(x,y,z),A8(x,y,z))和下颌关节(A9(x,y,z))的平均值代***重心位置Ck(x,y,z),即
其中,Ai(x,y,z)表示关节位置,该位置可以从Kinect设备编程接口直接获取,它用(x,y,z)三维坐标表示。
10.根据权利要求1所述的基于非接触式交互获取无形透明界面的方法,其特征是:所述步骤(2)和(3)手势重心位置的计算步骤为:
(2.1)从k时刻获取的视频帧图像中根据肤色和深度值把手势图像从背景图像中分割出来,得到手势的RGB位图I;
(2.2)在位图I中计算手势图像的二维重心位置(x,y);
(2.3)根据Kinect设备提供的编程接口中,读出(x,y)对应的深度值z,从而得到Pk(x,y,z)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510163408.5A CN104808790B (zh) | 2015-04-08 | 2015-04-08 | 一种基于非接触式交互获取无形透明界面的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510163408.5A CN104808790B (zh) | 2015-04-08 | 2015-04-08 | 一种基于非接触式交互获取无形透明界面的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104808790A true CN104808790A (zh) | 2015-07-29 |
CN104808790B CN104808790B (zh) | 2016-04-06 |
Family
ID=53693694
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510163408.5A Expired - Fee Related CN104808790B (zh) | 2015-04-08 | 2015-04-08 | 一种基于非接触式交互获取无形透明界面的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104808790B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105302305A (zh) * | 2015-11-02 | 2016-02-03 | 深圳奥比中光科技有限公司 | 手势操控方法和*** |
CN105389111A (zh) * | 2015-10-28 | 2016-03-09 | 维沃移动通信有限公司 | 一种分屏显示的操作方法及电子设备 |
CN105955450A (zh) * | 2016-04-15 | 2016-09-21 | 范长英 | 一种基于计算机虚拟界面的自然交互*** |
CN106200964A (zh) * | 2016-07-06 | 2016-12-07 | 浙江大学 | 一种虚拟现实中基于移动轨迹识别进行人机交互的方法 |
CN106502420A (zh) * | 2016-11-14 | 2017-03-15 | 北京视据科技有限公司 | 基于图像色差识别的虚拟按键触发方法 |
CN106681516A (zh) * | 2017-02-27 | 2017-05-17 | 盛世光影(北京)科技有限公司 | 一种基于虚拟现实的自然人机交互*** |
WO2018076523A1 (zh) * | 2016-10-25 | 2018-05-03 | 科世达(上海)管理有限公司 | 手势识别的方法、装置及车载*** |
WO2018149318A1 (zh) * | 2017-02-17 | 2018-08-23 | 阿里巴巴集团控股有限公司 | 一种输入方法、装置、设备、***和计算机存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100199228A1 (en) * | 2009-01-30 | 2010-08-05 | Microsoft Corporation | Gesture Keyboarding |
CN102830938A (zh) * | 2012-09-13 | 2012-12-19 | 济南大学 | 一种基于手势动画的3d人机交互方法 |
CN103793060A (zh) * | 2014-02-14 | 2014-05-14 | 杨智 | 一种用户交互***和方法 |
-
2015
- 2015-04-08 CN CN201510163408.5A patent/CN104808790B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100199228A1 (en) * | 2009-01-30 | 2010-08-05 | Microsoft Corporation | Gesture Keyboarding |
CN102830938A (zh) * | 2012-09-13 | 2012-12-19 | 济南大学 | 一种基于手势动画的3d人机交互方法 |
CN103793060A (zh) * | 2014-02-14 | 2014-05-14 | 杨智 | 一种用户交互***和方法 |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105389111A (zh) * | 2015-10-28 | 2016-03-09 | 维沃移动通信有限公司 | 一种分屏显示的操作方法及电子设备 |
CN105389111B (zh) * | 2015-10-28 | 2019-05-17 | 维沃移动通信有限公司 | 一种分屏显示的操作方法及电子设备 |
CN105302305A (zh) * | 2015-11-02 | 2016-02-03 | 深圳奥比中光科技有限公司 | 手势操控方法和*** |
CN105955450A (zh) * | 2016-04-15 | 2016-09-21 | 范长英 | 一种基于计算机虚拟界面的自然交互*** |
CN106200964A (zh) * | 2016-07-06 | 2016-12-07 | 浙江大学 | 一种虚拟现实中基于移动轨迹识别进行人机交互的方法 |
CN106200964B (zh) * | 2016-07-06 | 2018-10-26 | 浙江大学 | 一种虚拟现实中基于移动轨迹识别进行人机交互的方法 |
WO2018076523A1 (zh) * | 2016-10-25 | 2018-05-03 | 科世达(上海)管理有限公司 | 手势识别的方法、装置及车载*** |
CN106502420A (zh) * | 2016-11-14 | 2017-03-15 | 北京视据科技有限公司 | 基于图像色差识别的虚拟按键触发方法 |
WO2018149318A1 (zh) * | 2017-02-17 | 2018-08-23 | 阿里巴巴集团控股有限公司 | 一种输入方法、装置、设备、***和计算机存储介质 |
CN108459782A (zh) * | 2017-02-17 | 2018-08-28 | 阿里巴巴集团控股有限公司 | 一种输入方法、装置、设备、***和计算机存储介质 |
CN106681516A (zh) * | 2017-02-27 | 2017-05-17 | 盛世光影(北京)科技有限公司 | 一种基于虚拟现实的自然人机交互*** |
CN106681516B (zh) * | 2017-02-27 | 2024-02-06 | 盛世光影(北京)科技有限公司 | 一种基于虚拟现实的自然人机交互*** |
Also Published As
Publication number | Publication date |
---|---|
CN104808790B (zh) | 2016-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104808790B (zh) | 一种基于非接触式交互获取无形透明界面的方法 | |
CN103246351B (zh) | 一种用户交互***和方法 | |
CN103793060B (zh) | 一种用户交互***和方法 | |
CN110168475A (zh) | 将用户接口装置导入虚拟现实/增强现实的*** | |
CN103778538A (zh) | 一种家具仿真布局方法和*** | |
CN104571823A (zh) | 一种基于智能电视的非接触式虚拟人机交互方法 | |
CN103049852A (zh) | 虚拟试衣*** | |
JP2011022984A (ja) | 立体映像インタラクティブシステム | |
CN106066688B (zh) | 一种基于穿戴式手套的虚拟现实交互方法及装置 | |
CN104714649A (zh) | 一种基于kinect的裸眼3D UI交互方法 | |
Sra et al. | Metaspace ii: Object and full-body tracking for interaction and navigation in social vr | |
Gao et al. | Digiclay: an interactive installation for virtual pottery using motion sensing technology | |
Chen et al. | Graphic design method based on 3D virtual vision technology | |
CN105929946B (zh) | 一种基于虚拟界面的自然交互方法 | |
Yolcu et al. | Real time virtual mirror using kinect | |
CN109903118A (zh) | 一种基于双屏互动的家装方案展示*** | |
GB2533777A (en) | Coherent touchless interaction with steroscopic 3D images | |
Phommaly et al. | Research of Virtual reality technology in home design | |
Lu et al. | Design practice of interactive imaging art in the new media art-Taking “Ink-wash Tai Chi” as an example | |
CN207367158U (zh) | 一种基于LeapMotion和Arduino相结合的操作平台 | |
CN105955450A (zh) | 一种基于计算机虚拟界面的自然交互*** | |
Shen | Augmented reality for e-commerce | |
Lim et al. | Holographic projection system with 3D spatial interaction | |
Jiang | The art design method of user interaction experience in mobile system based on situational perception | |
Ren et al. | Application of Natural Interaction in Narrative Presentation in Museum Exhibition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
EXSB | Decision made by sipo to initiate substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160406 Termination date: 20200408 |