CN103955267A - 光透视增强现实***中双手人机交互方法 - Google Patents
光透视增强现实***中双手人机交互方法 Download PDFInfo
- Publication number
- CN103955267A CN103955267A CN201310569738.5A CN201310569738A CN103955267A CN 103955267 A CN103955267 A CN 103955267A CN 201310569738 A CN201310569738 A CN 201310569738A CN 103955267 A CN103955267 A CN 103955267A
- Authority
- CN
- China
- Prior art keywords
- hand
- gesture
- described step
- user
- ray fluoroscopy
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 47
- 238000002594 fluoroscopy Methods 0.000 title claims abstract description 42
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 25
- 238000000034 method Methods 0.000 title claims abstract description 22
- 238000012545 processing Methods 0.000 claims abstract description 9
- 238000012937 correction Methods 0.000 claims abstract description 4
- 210000004247 hand Anatomy 0.000 claims description 42
- 210000003811 finger Anatomy 0.000 claims description 26
- 230000002452 interceptive effect Effects 0.000 claims description 15
- 238000013461 design Methods 0.000 claims description 9
- 230000007704 transition Effects 0.000 claims description 9
- 238000005452 bending Methods 0.000 claims description 8
- 238000013507 mapping Methods 0.000 claims description 8
- 239000011159 matrix material Substances 0.000 claims description 6
- 230000003068 static effect Effects 0.000 claims description 6
- 230000009471 action Effects 0.000 claims description 5
- 210000003128 head Anatomy 0.000 claims description 5
- 230000003542 behavioural effect Effects 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 3
- 210000005224 forefinger Anatomy 0.000 claims description 3
- 230000004927 fusion Effects 0.000 claims description 3
- 210000004932 little finger Anatomy 0.000 claims description 3
- 230000003287 optical effect Effects 0.000 claims description 3
- 230000009467 reduction Effects 0.000 claims description 3
- 230000009897 systematic effect Effects 0.000 claims description 3
- 210000003813 thumb Anatomy 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 description 13
- 238000011160 research Methods 0.000 description 8
- 238000010606 normalization Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 239000012141 concentrate Substances 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
Landscapes
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明涉及一种光透视增强现实***中双手人机交互方法。本方法的操作步骤为:1)初始化***环境,设置***参数,扫描和检查***设备;2)设计算法对磁力跟踪***进行误差校正;3)设计算法对数据手套进行自适应处理;4)测量并修正磁力跟踪传感器与用户眼睛之间的偏差;5)设计算法实时识别交互手势;6)根据用户操作生成反馈动画;7)将真实场景与虚拟模型无缝融合;8)用户使用光透视头盔显示器查看结果。本发明能让用户摆脱键盘、鼠标、触摸板等传统的人机交互方式,而直接使用双手进行人机交互操作,从而带给用户更为贴近日常习惯的交互体验。
Description
技术领域
本发明涉及的是一种光透视增强现实***中双手人机交互方法。
背景技术
增强现实技术(Augmented Reality,AR)是多媒体技术在三维领域实现的重要新手段,是一种利用计算机***产生的三维信息来增强用户对现实世界感知的技术。与传统虚拟现实技术(Virtual Reality,VR)所要达到的完全沉浸于虚拟世界的效果不同,AR技术致力于将计算机生成的虚拟物体、场景或***提示信息等无缝叠加到真实场景中,从而创造一个虚实结合的世界,以此实现对现实世界的“增强”。该领域的权威学者Azuma对增强现实***及其所涉及的技术给出了一个较为详尽的综述并将AR***的主要特点归纳为:①跟踪注册;②虚实融合;③实时交互。
近年来,国内外对于AR技术的研究出现了很浓厚的气氛,国内外相关研讨会的数目不断增加,学术期刊和国际会议为研究者提供了一个充分交流的空间。其研究重点从简单的***框架、硬件跟踪等技术,发展到目前的交互性能评价。每年有大量的有关AR技术研究的学术论文成果,还出现了一些AR技术的专题讨论。由此可见,目前AR技术发展迅速,它的研究与应用将有着深远的价值。目前从事AR技术研究的学术机构有美国北卡罗来纳大学、麻省理工学院、哥伦比亚大学、罗切斯特大学、波音公司、加拿大多伦大大学和索尼计算机科学实验室等;国内在这一方面的研究主要集中在配准技术以及***应用的方面,研究内容还比较有限。
从AR技术的研究热点来看,从AR诞生至今的二十多年内,大多数研究者们的研究兴趣集中在三维注册和信息集成两个领域。近年来,随着跟踪、传感等技术的迅速发展,AR中的实时人机交互技术成为一个研究热点。由于在日常生活中,人们往往***稳自然的方式完成指定任务。如何将人的双手经验技能应用到虚拟环境的交互过程中去,成为AR***中的一个热点问题。
本发明的目标是为在光透视AR***中实现自然的双手人机交互提供切实有效的实现方法,让用户能在真实的环境中与虚拟的物体进行更为友好的交互。尤其是,希望能让用户摆脱键盘、鼠标、触摸板等传统的人机交互方式,而直接使用双手进行人机交互操作,从而带给用户更为贴近日常习惯的交互体验。根据调研和查找资料,目前还未见有在AR***中实现双手人机交互的成熟解决方案,本发明尚属首例。
发明内容
鉴于现有技术存在的问题和不足,本发明的目的在于提供一种光透视增强现实***中双手人机交互方法,让用户以更为贴近自然的方式进行人机交互操作,提高***的沉浸感。
本发明采用的光透视增强现实***中双手人机交互***硬件结构如图1所示,在双手数据手套(5)和光透视头盔显示器(7)上安装有磁力跟踪传感器(6,8),在操作台(3)上设置磁力跟踪发射器(4),将磁力跟踪传感器(6,8)以及磁力跟踪发射器(4)与磁力跟踪控制盒(2)相连接,将磁力跟踪控制盒(2)、光透视头盔显示器(7)以及数据手套(5)与***主机(1)连接,用户穿戴光透视头盔显示器(7)及双手数据手套(5)。
为达到上述目的,本发明采用的技术方案如下:
一种光透视增强现实***中双手人机交互方法,其特征在于具体操作步骤如下:
1):初始化***环境,设置***参数,扫描和检查***设备;
2):设计算法对磁力跟踪传感器(6,8)的读数进行误差校正,并利用校正过的跟踪数据完成对用户头部、手部的实时方位跟踪以及虚拟模型的三维注册;
3):设计算法对数据手套(5)的读数进行自适应处理,并利用处理后的数据实时获取用户手指的弯曲状态;
4):测量磁力跟踪传感器(8)与用户眼睛之间的距离,修正视点的偏移量和可视角度;
5):设计算法对手部的空间位置跟踪数据和手指弯曲状态进行分析处理,完成交互手势的实时识别;
6):根据用户的输入操作进行虚拟场景实时建模,并根据其交互操作对场景模型进行实时变换和渲染,生成反馈动画;
7):将真实场景与虚拟模型无缝融合;
8):用户使用光透视头盔显示器(7)查看结果。
由于磁场强度随着距离的增加以几何级数递减,因此在磁力跟踪发射器(4)的附近与远处,磁场强度差别很大,导致磁力跟踪坐标与真实世界坐标不再成线性关系,如图2所示。所以需要对磁力跟踪传感器(6,8)的读数进行校正。前述步骤2) 磁力跟踪传感器(6,8)校正算法具体包括以下步骤:
2)-1:空间网格划分:将工作空间S划分为n个独立小立方体C i ,即 ;
2)-2:建立磁力跟踪坐标与真实世界坐标的对应表:将磁力跟踪传感器(6,8)读数坐标空间和真实世界坐标空间中的坐标点建立对应关系;
2)-3:定位待校正点:由于磁场强度衰减使得空间网格发生形变,为避免定位误差,从X轴,Y轴,Z轴三个方向缩减搜索空间;以X方向为例,X i 表示磁力跟踪坐标系中处于同一平面上坐标点X轴坐标值的集合,则有X i+1min >X imin 且X i+1max >X imax ;设有待校正点P(x p , y p , z p ) ,从X轴正方向最大值出发,沿X轴负方向遍历各,找到满足x p <X imin 最小的i,即为点P所处搜索空间X方向上的右边界;从X轴负方向最小值出发,沿X轴正方向遍历各X jmax ,找到满足最大的,即为点P所处搜索空间X方向上的左边界,且j<i;同样,可以找到Y方向的上下边界Y k 、Y l (l<k)和Z方向的前后边界Z m 、Z n (n<m);由此将点P的搜索空间由全部顶点缩小到由平面X i 、X j 、Y k 、Y l 、Z m 、Z n 所界定的较小的空间中;然后,对此空间中所包含的顶点进行遍历,最终确定点P属于哪一个单位网格之中;
2)-4:反距离权重插值求解待校正点的真实世界坐标值。在已确定的搜索空间中,计算每个顶点与点P的距离,找出与点P距离最小的顶点Q;而点P必然处于以点Q为中心的六面体ABCD-A`B`C`D`中,如图3所示;因Q相对于其他顶点和P的相似度最大,所以赋予Q点更大的权重,点P真实世界坐标值可表示为:
;
其中,d 0 为点P于点Q之间的距离,t 0 为d 0 的权重,d i 为点P与顶点i之间的距离,t i 为d i 的权重,n为不含点Q在内的顶点个数,w为定义的权重系数,实际使用中,令w=n。
由于人手有大有小,手指有长有短,以及各人在穿戴习惯方面的差异,数据手套(5)内置的弯曲度传感器的相对于用户手指的位置会因人而异,这样就必然会导致数据手套(5)的原始弯曲度读数存在很大的误差,故必须要进行数据手套(5)读数的归一化处理。所以,前述步骤3) 数据手套(5)读数自适应处理算法具体包括以下步骤:
3)-1:操作人员戴上数据手套(5);
3)-2:获取训练数据:以最自然的方式做握拳和平伸动作,重复10次,将每一次弯曲时的数据手套(5)读数记录到数组bendMax[10]中,将每一次伸直时的数据手套(5)读数记录到数组bendMin[10]中;
3)-3:归一化弯曲度数据:令bMax=max(bendMax[i],i∈[0,9]),bMin=min(bendMin[j], j∈[0,9]), bMax为数据手套(5)各个手指弯曲度的最大值,bMin为数据手套(5)各个手指弯曲度的最小值,bendCurrent为数据手套的实时原始数据,则归一化后的数据为bCurrent=(bendcurrent-bMin)/ (bMax-bMin)。
由于用户在佩戴光透视头盔显示器(7)时,眼睛与磁力跟踪传感器(8)之间的偏移不尽相同,因此需要测量两者之间的偏移量,对视点和可视角度进行修正。前述步骤4)具体包括以下步骤:
4)-1:操作人员戴上光透视头盔显示器(7):操作人员的视轴与光透视头盔显示器(7)的中心线重合;
4)-2:修正磁力跟踪传感器(8)与观测眼之间的偏移误差:令由磁力跟踪传感器(8)得到的3个欧拉角分别为A,E,R,其对应的单独旋转矩阵为M R ,M E ,M A ,则总的旋转矩阵M=M R M E M A ;
其中, ,,;
测量得到磁力跟踪传感器(8)与观测眼之间的偏移量T(x,y,z),头部磁力跟踪传感器(8)校正后读数为P(x,y,z),则观测眼的实际空间坐标为P`=P+TM;
4)-3:计算观测眼可视角。测量得到观测眼与光透视头盔显示器(7)之间的距离为D,光透视头盔显示器(7)的长为L,宽为W,则可视角θ=arctan(L/(W+2D))。
为让用户能在增强现实***中使用双手进行自然的交互,需要首先根据运动链模型定义双手交互规则,然后实时识别用户的手势操作。前述步骤5)具体包括以下步骤:
5)-1:基于运动链模型定义交互手势;
5)-2:基于规则实时识别用户交互手势;
5)-3:基于有限状态机的手势语义映射。
所述步骤5)-1定义交互手势具体包括以下步骤:
5)-1-1:双手交互特征分析:现实生活中人们完成各种任务时的手部动作可以分为:1)单手行为;2)双手对称行为;3)双手非对称行为。以右顺手为例,运动链模型的基本原则为:1)右手的运动以左手为参考,即左手能为右手的运动提供一个参考坐标;2)右手用于完成精确的小范围内操作,左手用于大范围内的粗略操作;3)左手的动作在时序上先于右手动作;
5)-1-2:定义交互手势操作规则:根据步骤5)-1-1所提出的原则,将用户手部的弯曲度,相对空间位置关系作为特征,构建特征向量,作为识别目标集合,建立手势规则集合G。
所述步骤5)-2实时识别用户交互手势具体包括以下步骤:
5)-2-1:获取手部静态特征:根据所述步骤3)得到的用户手部每根手指(t为大拇指,i为食指,m为中指,r为无名指,l为小拇指)的弯曲度B(B t , B i , B m , B r , B l ),设定对应的阈值T(T t , T i , T m , T r , T l ),则当前手指状态S定义为:
;
其中,x=t,i,m,r,l;w为范围阈值;
5)-2-2:获取手部动态特征:根据所述步骤2)得到的用户手部的实时空间位置坐标,得到当前位置P与上一时刻位置P’间的运动向量V,从而求得手部运动的方向与速度;
5)-2-3:识别用户单手手势:根据所述步骤5)-2-1得到的手部静态特征S和所述步骤5)-2-2得到的手部运动向量V,从所述步骤5)-1-2中所定义的手势规则集合G中查找对应单手手势;
5)-2-4:识别用户双手手势:根据所述步骤5)-2-3得到的左右手单手手势,以右顺手为例,以左手手势为约束条件,结合右手手势,从所述步骤5)-1-2中所定义的手势规则集合G中查找对应双手手势。
所述步骤5)-3:手势语义映射具体包括以下步骤:
5)-3-1:建立约束条件:根据所属步骤5)-1-1所列举原则,以右顺手为例,***以左手状态为前置约束,结合右手状态变化进行状态转移;
5)-3-2:建立有限状态机模型:根据所述步骤5)-1-2中所定义的手势规则集合G中所定义的手势之间的状态迁移,建立有限状态机模型,并对其进行最小化处理;
5)-3-3:手势语义映射:根据所述步骤5)-2-4中得到的操作者手势,对所述步骤5)-3-2中的有限状态机进行状态迁移,触发新状态所对应的***功能。
本发明与现有技术相比较,具有如下显而易见的突出实质性特点和显著优点:
本发明实际上提出了一种在光透视增强现实***中实现双手人机交互操作的方法和解决方案,提供一种更为自然的人机交互界面,为类似***的实现提供了可参照的实施流程。本发明能让用户摆脱键盘、鼠标、触摸板等传统的人机交互方式,而直接使用双手进行人机交互操作,从而带给用户更为贴近日常习惯的交互体验。
附图说明
图1 光透视增强现实***中双手人机交互***结构示意图。
图2 磁力跟踪坐标散点图。
图3 定位待校正点P。
图4 有限状态机示意图。
图5 光透视增强现实***中双手交互***流程图。
图6 双手交互手势表。
具体实施方式
本发明的一个优选实施例说明如下:
以在光透视增强现实***中实现基于双手交互的魔方操作为实例,操作着能用双手操作魔方模型任意面旋转,整体旋转,整体缩放。操作步骤如下:(参见图1~图5)
1):初始化***环境,设置***参数,扫描和检查***设备;
2):设计算法对磁力跟踪传感器(6,8)的读数进行误差校正,并利用校正过的跟踪数据完成对用户头部、手部的实时方位跟踪以及虚拟模型的三维注册;
3):设计算法对数据手套(5)的读数进行自适应处理,并利用处理后的数据实时获取用户手指的弯曲状态;
4):测量磁力跟踪传感器(8)与用户眼睛之间的距离,修正视点的偏移量和可视角度;
5):设计算法对手部的空间位置跟踪数据和手指弯曲状态进行分析处理,完成交互手势的实时识别;
6):根据用户的输入操作进行虚拟场景实时建模,并根据其交互操作对场景模型进行实时变换和渲染,生成反馈动画;
7):将真实场景与虚拟模型无缝融合;
8):用户使用光透视头盔显示器(7)查看结果。
由于磁场强度随着距离的增加以几何级数递减,因此在磁力跟踪发射器(4)的附近与远处,磁场强度差别很大,导致磁力跟踪坐标与真实世界坐标不再成线性关系,如图2所示。所以需要对磁力跟踪传感器(6,8)的读数进行校正。前述步骤2) 磁力跟踪传感器(6,8)校正算法具体包括以下步骤:
2)-1:空间网格划分:将工作空间S划分为n个独立小立方体C i ,即;
2)-2:建立磁力跟踪坐标与真实世界坐标的对应表:将磁力跟踪传感器(6,8)读数坐标空间和真实世界坐标空间中的坐标点建立对应关系;
2)-3:定位待校正点:由于磁场强度衰减使得空间网格发生形变,为避免定位误差,从X轴,Y轴,Z轴三个方向缩减搜索空间;以X方向为例,X i 表示磁力跟踪坐标系中处于同一平面上坐标点X轴坐标值的集合,则有X i+1min >X imin 且X i+1max >X imax 。设有待校正点P(x p , y p , z p ) ,从X轴正方向最大值出发,沿X轴负方向遍历各,找到满足x p <X imin 最小的i,即为点P所处搜索空间X方向上的右边界;从X轴负方向最小值出发,沿X轴正方向遍历各X jmax ,找到满足最大的,即为点P所处搜索空间X方向上的左边界,且j<i。同样,可以找到Y方向的上下边界Y k 、Y l (l<k)和Z方向的前后边界Z m 、Z n (n<m);由此将点P的搜索空间由全部顶点缩小到由平面X i 、X j 、Y k 、Y l 、Z m 、Z n 所界定的较小的空间中;然后,对此空间中所包含的顶点进行遍历,最终确定点P属于哪一个单位网格之中;
2)-4:反距离权重插值求解待校正点的真实世界坐标值:在已确定的搜索空间中,计算每个顶点与点P的距离,找出与点P距离最小的顶点Q;而点P必然处于以点Q为中心的六面体ABCD-A`B`C`D`中,如图3所示。因Q相对于其他顶点和P的相似度最大,所以赋予Q点更大的权重,点P真实世界坐标值可表示为:
;
其中,d 0 为点P于点Q之间的距离,t 0 为d 0 的权重,d i 为点P与顶点i之间的距离,t i 为d i 的权重,n为不含点Q在内的顶点个数,w为定义的权重系数,实际使用中,令w=n。
由于人手有大有小,手指有长有短,以及各人在穿戴习惯方面的差异,数据手套(5)内置的弯曲度传感器的相对于用户手指的位置会因人而异,这样就必然会导致数据手套(5)的原始弯曲度读数存在很大的误差,故必须要进行数据手套(5)读数的归一化处理。所以,前述步骤3) 数据手套(5)读数自适应处理算法具体包括以下步骤:
3)-1:操作人员戴上数据手套(5);
3)-2:获取训练数据:以最自然的方式做握拳和平伸动作,重复10次,将每一次弯曲时的数据手套(5)读数记录到数组bendMax[10]中,将每一次伸直时的数据手套(5)读数记录到数组bendMin[10]中;
3)-3:归一化弯曲度数据:令bMax=max(bendMax[i],i∈[0,9]),bMin=min(bendMin[j], j∈[0,9]), bMax为数据手套(5)各个手指弯曲度的最大值,bMin为数据手套(5)各个手指弯曲度的最小值,bendCurrent为数据手套的实时原始数据,则归一化后的数据为bCurrent=(bendcurrent-bMin)/ (bMax-bMin)。
由于用户在佩戴光透视头盔显示器(7)时,眼睛与磁力跟踪传感器(8)之间的偏移不尽相同,因此需要测量两者之间的偏移量,对视点和可视角度进行修正。前述步骤4)具体包括以下步骤:
4)-1:操作人员戴上光透视头盔显示器(7):操作人员的视轴与光透视头盔显示器(7)的中心线重合;
4)-2:修正磁力跟踪传感器(8)与观测眼之间的偏移误差:令由磁力跟踪传感器(8)得到的3个欧拉角分别为A,E,R,其对应的单独旋转矩阵为M R ,M E ,M A ,则总的旋转矩阵M=M R M E M A ;
其中, ,,;
测量得到磁力跟踪传感器(8)与观测眼之间的偏移量T(x,y,z),头部磁力跟踪传感器(8)校正后读数为P(x,y,z),则观测眼的实际空间坐标为P`=P+TM;
4)-3:计算观测眼可视角:测量得到观测眼与光透视头盔显示器(7)之间的距离为D,光透视头盔显示器(7)的长为L,宽为W,则可视角θ=arctan(L/(W+2D));
为让用户能在增强现实***中使用双手进行自然的交互,需要首先根据运动链模型定义双手交互规则,然后实时识别用户的手势操作。前述步骤5)具体包括以下步骤:
5)-1:基于运动链模型定义交互手势;
5)-2:基于规则实时识别用户交互手势;
5)-3:基于有限状态机的手势语义映射。
所述步骤5)-1定义交互手势具体包括以下步骤:
5)-1-1:双手交互特征分析:现实生活中人们完成各种任务时的手部动作可以分为:1)单手行为;2)双手对称行为;3)双手非对称行为。以右顺手为例,运动链模型的基本原则为:1)右手的运动以左手为参考,即左手能为右手的运动提供一个参考坐标;2)右手用于完成精确的小范围内操作,左手用于大范围内的粗略操作;3)左手的动作在时序上先于右手动作;
5)-1-2:定义交互手势操作规则:根据步骤5)-1-1所提出的原则,将用户手部的弯曲度,相对空间位置关系作为特征,构建特征向量,作为识别目标集合,建立手势规则集合G。
所述步骤5)-2实时识别用户交互手势具体包括以下步骤:
5)-2-1:获取手部静态特征:根据所述步骤3)得到的用户手部每根手指(t为大拇指,i为食指,m为中指,r为无名指,l为小拇指)的弯曲度B(B t , B i , B m , B r , B l ),设定对应的阈值T(T t , T i , T m , T r , T l ),则当前手指状态S定义为:
;
其中,x=t,i,m,r,l;w为范围阈值;
5)-2-2:获取手部动态特征:根据所述步骤2)得到的用户手部的实时空间位置坐标,得到当前位置P与上一时刻位置P’间的运动向量V,从而求得手部运动的方向与速度;
5)-2-3:识别用户单手手势:根据所述步骤5)-2-1得到的手部静态特征S和所述步骤5)-2-2得到的手部运动向量V,从所述步骤5)-1-2中所定义的手势规则集合G中查找对应单手手势;
5)-2-4:识别用户双手手势:根据所述步骤5)-2-3得到的左右手单手手势,以右顺手为例,以左手手势为约束条件,结合右手手势,从所述步骤5)-1-2中所定义的手势规则集合G中查找对应双手手势。
所述步骤5)-3:手势语义映射具体包括以下步骤:
5)-3-1:建立约束条件:根据所属步骤5)-1-1所列举原则,以右顺手为例,***以左手状态为前置约束,结合右手状态变化进行状态转移;
5)-3-2:建立有限状态机模型:根据所述步骤5)-1-2中所定义的手势规则集合G中所定义的手势之间的状态迁移,建立有限状态机模型,并对其进行最小化处理;
5)-3-3:手势语义映射:根据所述步骤5)-2-4中得到的操作者手势,对所述步骤5)-3-2中的有限状态机进行状态迁移,触发新状态所对应的***功能。
所述步骤6) 生成反馈动画具体包括以下步骤:
6)-1:确定魔方模型状态:根据所述步骤5)-3-3 所触发的***功能,对魔方模型的指定侧面进行旋转或缩放;旋转的角度和缩放的比例因子由双手操作过程中的相对角度和相对距离得到;
6)-2:渲染魔方模型:根据所述步骤6)-1得到的魔方模型状态渲染虚拟魔方模型,根据所述步骤4)-2和步骤4)-3得到的虚拟相机参数,调整魔方模型姿态,使其无缝融合到真实场景中。
图1示出本实施例采用的光透视增强现实***中双手人机交互***的结构。
图5示出本实施例光透视增强现实***中双手人机交互方法的程序框图。
Claims (7)
1.一种光透视增强现实***中双手人机交互方法,其特征在于包括以下操作步骤:
1):初始化***环境,设置***参数,扫描和检查***设备;
2):设计算法对磁力跟踪传感器(6,8)的读数进行误差校正,并利用校正过的跟踪数据完成对用户头部、手部的实时方位跟踪以及虚拟模型的三维注册;
3):设计算法对数据手套(5)的读数进行自适应处理,并利用处理后的数据实时获取用户手指的弯曲状态;
4):测量磁力跟踪传感器(8)与用户眼睛之间的距离,修正视点的偏移量和可视角度;
5):设计算法对手部的空间位置跟踪数据和手指弯曲状态进行分析处理,完成交互手势的实时识别;
6):根据用户的输入操作进行虚拟场景实时建模,并根据其交互操作对场景模型进行实时变换和渲染,生成反馈动画;
7):将真实场景与虚拟模型无缝融合;
8):用户使用光透视头盔显示器(7)查看结果。
2.根据权利要求1所述的光透视增强现实***中双手人机交互方法,其特征在于所述步骤2)具体包括以下步骤:
2)-1:空间网格划分:将工作空间S划分为n个独立小立方体C i ,即 ;
2)-2:建立磁力跟踪坐标与真实世界坐标的对应表:将磁力跟踪传感器(6,8)读数坐标空间和真实世界坐标空间中的坐标点建立对应关系;
2)-3:定位待校正点:由于磁场强度衰减使得空间网格发生形变,为避免定位误差,从X轴,Y轴,Z轴三个方向缩减搜索空间;以X方向为例,X i 表示磁力跟踪坐标系中处于同一平面上坐标点X轴坐标值的集合,由于X i+1min >X imin 且X i+1max >X imax 。设有待校正点P(x p , y p , z p ) ,从X轴正方向最大值出发,沿X轴负方向遍历各,找到满足x p <X imin 最小的i,即为点P所处搜索空间X方向上的右边界;从X轴负方向最小值出发,沿X轴正方向遍历各X jmax ,找到满足最大的,即为点P所处搜索空间X方向上的左边界,且j<i;同样,可以找到Y方向的上下边界Y k 、Y l (l<k)和Z方向的前后边界Z m 、Z n (n<m);由此将点P的搜索空间由全部顶点缩小到由平面X i 、X j 、Y k 、Y l 、Z m 、Z n 所界定的较小的空间中;然后,对此空间中所包含的顶点进行遍历,最终确定点P属于哪一个单位网格之中;
2)-4:反距离权重插值求解待校正点的真实世界坐标值:在已确定的搜索空间中,计算每个顶点与点P的距离,找出与点P距离最小的顶点Q;而点P必然处于以点Q为中心的六面体ABCD-A`B`C`D`中;因Q相对于其他顶点和P的相似度最大,所以赋予Q点更大的权重,点P真实世界坐标值可表示为:
;
其中,d 0 为点P于点Q之间的距离,t 0 为d 0 的权重,d i 为点P与顶点i之间的距离,t i 为d i 的权重,n为不含点Q在内的顶点个数,w为定义的权重系数,实际使用中,令w=n。
3.根据权利要求1所述的光透视增强现实***中双手人机交互方法,其特征在于所述步骤4)具体包括以下步骤:
4)-1:操作人员戴上光透视头盔显示器(7):操作人员的视轴与光透视头盔显示器(7)的中心线重合;
4)-2:修正磁力跟踪传感器(8)与观测眼之间的偏移误差:令由磁力跟踪传感器(8)得到的3个欧拉角分别为A,E,R,其对应的单独旋转矩阵为M R ,M E ,M A ,则总的旋转矩阵M=M R M E M A ;
其中, ,,;
测量得到磁力跟踪传感器(8)与观测眼之间的偏移量T(x,y,z),磁力跟踪传感器(8)校正后读数为P(x,y,z),则观测眼的实际空间坐标为P`=P+TM;
4)-3:计算观测眼可视角:测量得到观测眼与光透视头盔显示器(7)之间的距离为D,光透视头盔显示器(7)的长为L,宽为W,则可视角θ=arctan(L/(W+2D)),并将其作为虚拟世界坐标系中虚拟相机的属性。
4.根据权利要求1所述的光透视增强现实***中双手人机交互方法,其特征在于所述步骤5)具体包括以下步骤:
5)-1:基于运动链模型定义交互手势;
5)-2:基于规则实时识别用户交互手势;
5)-3:基于有限状态机的手势语义映射。
5.根据权利要求4所述的光透视增强现实***中双手人机交互方法,其特征在于所述步骤5)-1具体包括以下步骤:
5)-1-1:双手交互特征分析:现实生活中人们完成各种任务时的手部动作可以分为:1)单手行为;2)双手对称行为;3)双手非对称行为。以右顺手为例,运动链模型的基本原则为:1)右手的运动以左手为参考,即左手能为右手的运动提供一个参考坐标;2)右手用于完成精确的小范围内操作,左手用于大范围内的粗略操作;3)左手的动作在时序上先于右手动作;
5)-1-2:定义交互手势操作规则:根据步骤5)-1-1所提出的原则,将用户手部的弯曲度,相对空间位置关系作为特征,构建特征向量,作为识别目标集合,建立手势规则集合G。
6.根据权利要求4所述的光透视增强现实***中双手人机交互方法,其特征在于所述步骤5)-2具体包括以下步骤:
5)-2-1:获取手部静态特征:根据所述步骤3)得到的用户手部每根手指——t为大拇指,i为食指,m为中指,r为无名指,l为小拇指,的弯曲度B——B t ,B i ,B m ,B r ,B l ,设定对应的阈值T——T t ,T i ,T m ,T r ,T l ,则当前手指状态S定义为:
;
其中,x=t,i,m,r,l;w为范围阈值;
5)-2-2:获取手部动态特征:根据所述步骤2)得到的用户手部的实时空间位置坐标,得到当前位置P与上一时刻位置P’间的运动向量V,从而求得手部运动的方向与速度;
5)-2-3:识别用户单手手势:根据所述步骤5)-2-1得到的手部静态特征S和所述步骤5)-2-2得到的手部运动向量V,从所述步骤5)-1-2中所定义的手势规则集合G中查找对应单手手势;
5)-2-4:识别用户双手手势:根据所述步骤5)-2-3得到的左右手单手手势,以右顺手为例,以左手手势为约束条件,结合右手手势,从所述步骤5)-1-2中所定义的手势规则集合G中查找对应双手手势。
7.根据权利要求4所述的光透视增强现实***中双手人机交互方法,其特征在于所述步骤5)-3具体包括以下步骤:
5)-3-1:建立约束条件:根据所属步骤5)-1-1所列举原则,以右顺手为例,***以左手状态为前置约束,结合右手状态变化进行状态转移;
5)-3-2:建立有限状态机模型:根据所述步骤5)-1-2中所定义的手势规则集合G中所定义的手势之间的状态迁移,建立有限状态机模型,并对其进行最小化处理;
5)-3-3:手势语义映射:根据所述步骤5)-2-4中得到的操作者手势,对所述步骤5)-3-2中的有限状态机进行状态迁移,触发新状态所对应的***功能。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310569738.5A CN103955267B (zh) | 2013-11-13 | 2013-11-13 | 光透视增强现实***中双手人机交互方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310569738.5A CN103955267B (zh) | 2013-11-13 | 2013-11-13 | 光透视增强现实***中双手人机交互方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103955267A true CN103955267A (zh) | 2014-07-30 |
CN103955267B CN103955267B (zh) | 2017-03-15 |
Family
ID=51332552
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310569738.5A Expired - Fee Related CN103955267B (zh) | 2013-11-13 | 2013-11-13 | 光透视增强现实***中双手人机交互方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103955267B (zh) |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104765448A (zh) * | 2015-03-17 | 2015-07-08 | 重庆邮电大学 | 一种增强现实环境下自然手交互方法 |
CN105005986A (zh) * | 2015-06-19 | 2015-10-28 | 北京邮电大学 | 一种三维注册方法及装置 |
CN105373218A (zh) * | 2014-08-13 | 2016-03-02 | 英派尔科技开发有限公司 | 用于改进眼睛跟踪的场景分析 |
CN105404384A (zh) * | 2015-11-02 | 2016-03-16 | 深圳奥比中光科技有限公司 | 手势操作方法、利用手势定位屏幕光标的方法及手势*** |
CN105915877A (zh) * | 2015-12-27 | 2016-08-31 | 乐视致新电子科技(天津)有限公司 | 一种三维视频的自由观影方法及设备 |
CN106095090A (zh) * | 2016-06-07 | 2016-11-09 | 北京行云时空科技有限公司 | 基于智能***的空间场景的操控方法、装置和*** |
CN106101470A (zh) * | 2015-04-28 | 2016-11-09 | 京瓷办公信息***株式会社 | 信息处理装置及对图像处理装置的作业指示方法 |
CN106502420A (zh) * | 2016-11-14 | 2017-03-15 | 北京视据科技有限公司 | 基于图像色差识别的虚拟按键触发方法 |
CN107085467A (zh) * | 2017-03-30 | 2017-08-22 | 北京奇艺世纪科技有限公司 | 一种手势识别方法及装置 |
CN107548470A (zh) * | 2015-04-15 | 2018-01-05 | 索尼互动娱乐股份有限公司 | 头戴式显示器上的夹捏和保持手势导航 |
CN107576731A (zh) * | 2017-08-30 | 2018-01-12 | 天津大学 | 基于混合现实的模型实验结构裂纹扩展过程实时透视方法 |
CN107764262A (zh) * | 2017-11-09 | 2018-03-06 | 深圳创维新世界科技有限公司 | 虚拟现实显示设备、***及姿态校准方法 |
CN108211355A (zh) * | 2017-12-29 | 2018-06-29 | 武汉市马里欧网络有限公司 | 基于ar的三维魔方 |
CN108898062A (zh) * | 2018-05-31 | 2018-11-27 | 电子科技大学 | 一种基于改进的信号片段提取算法的手部动作识别方法 |
CN109032355A (zh) * | 2018-07-27 | 2018-12-18 | 济南大学 | 多种手势对应同一交互命令的柔性映射交互算法 |
CN109308741A (zh) * | 2018-08-08 | 2019-02-05 | 长春理工大学 | 一种基于Meta2的自然交互工艺品创意设计*** |
CN109582138A (zh) * | 2018-11-16 | 2019-04-05 | 重庆邮电大学 | 一种增强现实***中跟踪注册精度的校正方法 |
CN109683700A (zh) * | 2017-10-18 | 2019-04-26 | 深圳市掌网科技股份有限公司 | 基于视觉感知的人机交互实现方法和装置 |
US10573075B2 (en) | 2016-05-19 | 2020-02-25 | Boe Technology Group Co., Ltd. | Rendering method in AR scene, processor and AR glasses |
TWI702548B (zh) * | 2018-04-23 | 2020-08-21 | 財團法人工業技術研究院 | 虛擬畫面之操控系統及操控方法 |
CN112181132A (zh) * | 2020-08-24 | 2021-01-05 | 东南大学 | 虚拟环境中基于射线交互任务的模型评估方法及*** |
CN112181133A (zh) * | 2020-08-24 | 2021-01-05 | 东南大学 | 基于静态和动态手势交互任务的模型评估方法及*** |
CN112181134A (zh) * | 2020-08-24 | 2021-01-05 | 东南大学 | 虚拟环境中基于手指点击交互任务的模型评估方法及*** |
US10890979B2 (en) | 2018-04-23 | 2021-01-12 | Industrial Technology Research Institute | Controlling system and controlling method for virtual display |
CN113204306A (zh) * | 2021-05-12 | 2021-08-03 | 同济大学 | 一种基于增强现实环境下的物体交互信息提示方法及*** |
CN113838177A (zh) * | 2021-09-22 | 2021-12-24 | 上海拾衷信息科技有限公司 | 一种手部动画制作方法及*** |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101539804A (zh) * | 2009-03-11 | 2009-09-23 | 上海大学 | 基于增强虚拟现实与异型屏的实时人机互动方法及*** |
CN102142055A (zh) * | 2011-04-07 | 2011-08-03 | 上海大学 | 基于增强现实交互技术的真三维设计方法 |
-
2013
- 2013-11-13 CN CN201310569738.5A patent/CN103955267B/zh not_active Expired - Fee Related
Non-Patent Citations (2)
Title |
---|
姚争为等: "增强现实***中基于视觉感知的抓取识别", 《计算机辅助设计与图形学学报》 * |
黄晨等: "增强现实***中大范围磁跟踪注册问题研究", 《计算机工程》 * |
Cited By (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105373218A (zh) * | 2014-08-13 | 2016-03-02 | 英派尔科技开发有限公司 | 用于改进眼睛跟踪的场景分析 |
US10394318B2 (en) | 2014-08-13 | 2019-08-27 | Empire Technology Development Llc | Scene analysis for improved eye tracking |
CN109062415A (zh) * | 2014-08-13 | 2018-12-21 | 英派尔科技开发有限公司 | 用于改进眼睛跟踪的场景分析 |
CN105373218B (zh) * | 2014-08-13 | 2018-09-18 | 英派尔科技开发有限公司 | 用于改进眼睛跟踪的场景分析 |
CN104765448A (zh) * | 2015-03-17 | 2015-07-08 | 重庆邮电大学 | 一种增强现实环境下自然手交互方法 |
CN104765448B (zh) * | 2015-03-17 | 2018-02-27 | 重庆邮电大学 | 一种增强现实环境下自然手交互方法 |
CN107548470A (zh) * | 2015-04-15 | 2018-01-05 | 索尼互动娱乐股份有限公司 | 头戴式显示器上的夹捏和保持手势导航 |
CN107548470B (zh) * | 2015-04-15 | 2020-06-26 | 索尼互动娱乐股份有限公司 | 头戴式显示器上的夹捏和保持手势导航 |
CN106101470B (zh) * | 2015-04-28 | 2019-01-18 | 京瓷办公信息***株式会社 | 信息处理装置及对图像处理装置的作业指示方法 |
CN106101470A (zh) * | 2015-04-28 | 2016-11-09 | 京瓷办公信息***株式会社 | 信息处理装置及对图像处理装置的作业指示方法 |
CN105005986A (zh) * | 2015-06-19 | 2015-10-28 | 北京邮电大学 | 一种三维注册方法及装置 |
CN105404384A (zh) * | 2015-11-02 | 2016-03-16 | 深圳奥比中光科技有限公司 | 手势操作方法、利用手势定位屏幕光标的方法及手势*** |
CN105915877A (zh) * | 2015-12-27 | 2016-08-31 | 乐视致新电子科技(天津)有限公司 | 一种三维视频的自由观影方法及设备 |
US10573075B2 (en) | 2016-05-19 | 2020-02-25 | Boe Technology Group Co., Ltd. | Rendering method in AR scene, processor and AR glasses |
CN106095090A (zh) * | 2016-06-07 | 2016-11-09 | 北京行云时空科技有限公司 | 基于智能***的空间场景的操控方法、装置和*** |
CN106502420A (zh) * | 2016-11-14 | 2017-03-15 | 北京视据科技有限公司 | 基于图像色差识别的虚拟按键触发方法 |
CN107085467A (zh) * | 2017-03-30 | 2017-08-22 | 北京奇艺世纪科技有限公司 | 一种手势识别方法及装置 |
CN107576731A (zh) * | 2017-08-30 | 2018-01-12 | 天津大学 | 基于混合现实的模型实验结构裂纹扩展过程实时透视方法 |
CN109683700A (zh) * | 2017-10-18 | 2019-04-26 | 深圳市掌网科技股份有限公司 | 基于视觉感知的人机交互实现方法和装置 |
CN107764262A (zh) * | 2017-11-09 | 2018-03-06 | 深圳创维新世界科技有限公司 | 虚拟现实显示设备、***及姿态校准方法 |
CN107764262B (zh) * | 2017-11-09 | 2019-10-25 | 深圳创维新世界科技有限公司 | 虚拟现实显示设备、***及姿态校准方法 |
CN108211355A (zh) * | 2017-12-29 | 2018-06-29 | 武汉市马里欧网络有限公司 | 基于ar的三维魔方 |
US10890979B2 (en) | 2018-04-23 | 2021-01-12 | Industrial Technology Research Institute | Controlling system and controlling method for virtual display |
TWI702548B (zh) * | 2018-04-23 | 2020-08-21 | 財團法人工業技術研究院 | 虛擬畫面之操控系統及操控方法 |
CN108898062A (zh) * | 2018-05-31 | 2018-11-27 | 电子科技大学 | 一种基于改进的信号片段提取算法的手部动作识别方法 |
CN108898062B (zh) * | 2018-05-31 | 2021-12-10 | 电子科技大学 | 一种基于改进的信号片段提取算法的手部动作识别方法 |
CN109032355A (zh) * | 2018-07-27 | 2018-12-18 | 济南大学 | 多种手势对应同一交互命令的柔性映射交互算法 |
CN109032355B (zh) * | 2018-07-27 | 2021-06-01 | 济南大学 | 多种手势对应同一交互命令的柔性映射交互方法 |
CN109308741A (zh) * | 2018-08-08 | 2019-02-05 | 长春理工大学 | 一种基于Meta2的自然交互工艺品创意设计*** |
CN109582138A (zh) * | 2018-11-16 | 2019-04-05 | 重庆邮电大学 | 一种增强现实***中跟踪注册精度的校正方法 |
CN112181134A (zh) * | 2020-08-24 | 2021-01-05 | 东南大学 | 虚拟环境中基于手指点击交互任务的模型评估方法及*** |
CN112181133A (zh) * | 2020-08-24 | 2021-01-05 | 东南大学 | 基于静态和动态手势交互任务的模型评估方法及*** |
CN112181132A (zh) * | 2020-08-24 | 2021-01-05 | 东南大学 | 虚拟环境中基于射线交互任务的模型评估方法及*** |
CN112181134B (zh) * | 2020-08-24 | 2024-03-08 | 东南大学 | 虚拟环境中基于手指点击交互任务的模型评估方法及*** |
CN112181133B (zh) * | 2020-08-24 | 2024-05-07 | 东南大学 | 基于静态和动态手势交互任务的模型评估方法及*** |
CN112181132B (zh) * | 2020-08-24 | 2024-05-28 | 东南大学 | 虚拟环境中基于射线交互任务的模型评估方法及*** |
CN113204306A (zh) * | 2021-05-12 | 2021-08-03 | 同济大学 | 一种基于增强现实环境下的物体交互信息提示方法及*** |
CN113838177A (zh) * | 2021-09-22 | 2021-12-24 | 上海拾衷信息科技有限公司 | 一种手部动画制作方法及*** |
Also Published As
Publication number | Publication date |
---|---|
CN103955267B (zh) | 2017-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103955267A (zh) | 光透视增强现实***中双手人机交互方法 | |
CN108052202B (zh) | 一种3d交互方法、装置、计算机设备及存储介质 | |
Bowman et al. | An introduction to 3-D user interface design | |
US9857868B2 (en) | Method and system for ergonomic touch-free interface | |
CN104854537B (zh) | 与计算设备的多距离、多模态自然用户交互 | |
US20170193289A1 (en) | Transform lightweight skeleton and using inverse kinematics to produce articulate skeleton | |
Linqin et al. | Dynamic hand gesture recognition using RGB-D data for natural human-computer interaction | |
Aditya et al. | Recent trends in HCI: A survey on data glove, LEAP motion and microsoft kinect | |
Wang et al. | Immersive human–computer interactive virtual environment using large-scale display system | |
CN107633551A (zh) | 一种虚拟键盘的展示方法及装置 | |
Huang et al. | Conceptual three-dimensional modeling using intuitive gesture-based midair three-dimensional sketching technique | |
Gao | Key technologies of human–computer interaction for immersive somatosensory interactive games using VR technology | |
Xiao et al. | A hand gesture-based interface for design review using leap motion controller | |
Prasad et al. | A wireless dynamic gesture user interface for HCI using hand data glove | |
CN108664126B (zh) | 一种虚拟现实环境下可变形手抓取交互方法 | |
Wang et al. | Immersive wysiwyg (what you see is what you get) volume visualization | |
Bai et al. | Asymmetric Bimanual Interaction for Mobile Virtual Reality. | |
CN104820584B (zh) | 一种面向层次化信息自然操控的3d手势界面的构建方法及*** | |
Mahdikhanlou et al. | Object manipulation and deformation using hand gestures | |
CN105204630A (zh) | 一种用体感进行服装设计的方法与*** | |
Caputo | Gestural interaction in virtual environments: User studies and applications | |
CN112837339B (zh) | 基于运动捕捉技术的轨迹绘制方法及装置 | |
Ogiela et al. | Natural user interfaces for exploring and modeling medical images and defining gesture description technology | |
Rehman et al. | FPSI-Fingertip pose and state-based natural interaction techniques in virtual environments | |
Song et al. | 3D hand pose estimation via graph-based reasoning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20170315 |