CN105045398B - 一种基于手势识别的虚拟现实交互设备 - Google Patents
一种基于手势识别的虚拟现实交互设备 Download PDFInfo
- Publication number
- CN105045398B CN105045398B CN201510563540.5A CN201510563540A CN105045398B CN 105045398 B CN105045398 B CN 105045398B CN 201510563540 A CN201510563540 A CN 201510563540A CN 105045398 B CN105045398 B CN 105045398B
- Authority
- CN
- China
- Prior art keywords
- hand
- user
- gesture
- sequence
- virtual reality
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 42
- 238000012545 processing Methods 0.000 claims abstract description 48
- 238000012360 testing method Methods 0.000 claims abstract description 36
- 230000009471 action Effects 0.000 claims description 42
- 210000004247 hand Anatomy 0.000 claims description 34
- 238000013507 mapping Methods 0.000 claims description 27
- 238000004088 simulation Methods 0.000 claims description 20
- 238000003384 imaging method Methods 0.000 claims description 16
- 210000000707 wrist Anatomy 0.000 claims description 10
- 244000060701 Kaempferia pandurata Species 0.000 claims description 8
- 235000016390 Uvaria chamae Nutrition 0.000 claims description 8
- 241000905957 Channa melasoma Species 0.000 claims description 6
- 230000008878 coupling Effects 0.000 claims description 6
- 238000010168 coupling process Methods 0.000 claims description 6
- 238000005859 coupling reaction Methods 0.000 claims description 6
- 108010001267 Protein Subunits Proteins 0.000 claims description 4
- 210000000988 bone and bone Anatomy 0.000 claims description 3
- 239000012780 transparent material Substances 0.000 claims description 3
- 230000003993 interaction Effects 0.000 abstract description 13
- 238000005516 engineering process Methods 0.000 abstract description 5
- 230000008859 change Effects 0.000 description 12
- 230000033001 locomotion Effects 0.000 description 9
- 238000000034 method Methods 0.000 description 7
- 238000001514 detection method Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000012217 deletion Methods 0.000 description 3
- 230000037430 deletion Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000004438 eyesight Effects 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 241000894007 species Species 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
本发明提供了一种基于手势识别的虚拟现实交互设备,该设备包括3D摄像头接口、头盔式虚拟现实显示器、信号处理组件以及移动设备接口;3D摄像头接口用于连接外部的3D摄像头,以捕获含有深度信息的使用者手部的待测图像序列,并将待测图像序列发送给信号处理组件,信号处理组件用于基于待测图像序列来获得使用者的手势,并根据该手势确定对应的操作指令,以对连接至移动设备接口的移动设备执行该操作指令,头盔式虚拟现实显示器用于通过移动设备接口接收移动设备的屏幕显示信号,以将移动设备的屏幕以虚拟现实显示方式呈现于预定显示区域。本发明的上述技术能够利用手势识别技术进行人机交互,丰富了输入方式,且操作较为简便。
Description
技术领域
本发明涉及人机交互技术,尤其涉及一种基于手势识别的虚拟现实交互设备。
背景技术
随着移动计算设备从笔记本电脑到手机、平板电脑的演化,移动计算设备的操控方式也经历了从键盘、鼠标到手机按键、手写板,再到触摸屏、虚拟键盘的进化,可以看到,移动设备的操控方式是朝着越来越直观、简便,并且符合人的自然习惯的方向进化的。
目前在移动计算设备上广泛使用的基于触摸屏的操控方式,技术上是将一块透明的触摸感应屏和显示屏贴合在一起,触摸感应屏实质上是一个定位装置,能够捕捉到屏幕上的触摸动作并获取其位置,同时结合时间轴信息,将动作识别其为点触、长触、滑动等动作之一。进而将位置和动作信息作为指令传递给移动计算设备,移动计算设备基于该指令做出相应的操作反应。由于触摸感应屏与显示屏是叠加在一起的,因此带给使用者“所点即所想”的使用感受,相比鼠标、触控板等定位设备需要通过光标反馈位置的输入方式,屏幕触控方式带来更好的使用体验。
屏幕触控方式相比键盘加鼠标的方式,更加符合人的直观反应、更容易学习,但是屏幕触控方式毕竟只捕捉到了人体手指的动作,在一些需要更多使用者本体信息输入的场合,比如运动游戏、模拟训练、复杂操控、远距离操控等,屏幕触控方式就显示出其捕获人体信息过于单一的局限性了。
目前,现有的虚拟现实交互技术通常是利用诸如鼠标、按键等常规输入方式来与设备进行交互,使得输入方式过于有限,由此导致用户在进行功能选择或执行时,操作较为繁琐,用户体验较差。
发明内容
在下文中给出了关于本发明的简要概述,以便提供关于本发明的某些方面的基本理解。应当理解,这个概述并不是关于本发明的穷举性概述。它并不是意图确定本发明的关键或重要部分,也不是意图限定本发明的范围。其目的仅仅是以简化的形式给出某些概念,以此作为稍后论述的更详细描述的前序。
鉴于此,本发明提供了一种基于手势识别的虚拟现实交互设备,以至少解决现有的虚拟现实交互技术的输入方式有限以及用户在进行功能选择或执行时操作较为繁琐的问题。
根据本发明的一个方面,提供了一种基于手势识别的虚拟现实交互设备,该虚拟现实交互设备包括3D摄像头接口、头盔式虚拟现实显示器、信号处理组件以及移动设备接口,所述3D摄像头接口连接至所述信号处理组件;所述信号处理组件连接至所述移动设备接口,所述移动设备接口连接至所述头盔式虚拟现实显示器;所述3D摄像头接口用于连接外部的3D摄像头,以通过该3D摄像头来捕获含有深度信息的使用者手部的待测图像序列,并将所述待测图像序列发送给所述信号处理组件,所述信号处理组件用于基于所述待测图像序列来获得所述使用者的手势,并根据该手势确定对应的操作指令,以对连接至所述移动设备接口的移动设备执行该操作指令,所述头盔式虚拟现实显示器用于通过所述移动设备接口接收所述移动设备的屏幕显示信号,以将所述移动设备的屏幕以虚拟现实显示方式呈现于预定显示区域。
进一步地,所述头盔式虚拟现实显示器包括:佩戴部,所述佩戴部可佩戴在使用者头部;采集成像部,所述采集成像部设置于所述佩戴部上,并连接至所述移动设备接口以采集所述移动设备的屏幕显示信号,来将所述屏幕以虚拟现实显示方式呈现于所述预定显示区域。
进一步地,所述采集成像部包括显示屏和两组透镜组,所述显示屏为透明材质,所述两组镜片组被设置成:当所述虚拟现实交互设备被使用者佩戴于头部时,所述两组镜片组分别位于使用者对应的视线正前方。
进一步地,所述信号处理组件包括:轮廓检测单元,用于根据图像深度信息和图像颜色信息,在所述待测图像序列的每帧图像中检测出所述使用者的手部轮廓;特征点序列确定单元,用于针对所述使用者的每只手,利用预设的手部结构模板,在所述待测图像序列的每帧图像中确定该只手的待测特征点序列;动作识别单元,用于针对所述使用者的每只手,在多个预设特征点序列中确定该只手的待测特征点序列的匹配序列,以根据所述匹配序列确定该只手的动作名称和位置;手势识别单元,用于在预设手势表中选择与所述使用者双手的动作名称和位置相匹配的手势,作为已识别手势;指令确定单元,用于根据预设操作指令表,确定与所述已识别手势对应的操作指令;执行单元,用于对与确定的操作指令相关的设备进行与该操作指令对应的操作。
进一步地,所述特征点序列确定单元包括:模板存储子单元,用于存储预设的手部结构模板;模板匹配子单元,用于针对所述使用者的每只手,利用预设的手部结构模板,在所述待测图像序列的每帧图像的手部轮廓中确定该只手的预定数目个特征点;序列生成子单元,用于针对所述使用者的每只手,利用该只手在所述待测图像序列的各帧图像中对应的预定数目个特征点,获得该只手的待测特征点序列。
进一步地,所述模板匹配子单元包括:定位基点确定模块,其用于针对所述待测图像序列的每帧图像,根据该图像中的轮廓线的曲率找到该轮廓线中的指尖点和指根关节点,以将所述指尖点作为定位基点;缩放基准确定模块,其用于针对所述定位基点确定模块处理后的每帧图像,基于该帧图像中已找到的所述定位基点,匹配每个单指的指根关节点,得到各单指的长度来作为尺度缩放的基准;缩放及形变模块,其用于针对所述缩放基准确定模块处理后的每帧图像,基于已找到的所述指尖点和所述指根关节点的位置以及各单指的长度来对相应的所述手部结构模板进行缩放和形变,通过匹配得到每只手的各指关节特征点和手腕中点特征点;其中,所述模板存储子单元存储的所述手部结构模板包括左手结构模板和右手结构模板,所述左手结构模板和右手结构模板各自包括:各手指的指尖特征点、各指关节特征点、各指根关节特征点、手腕中点特征点以及各特征点之间的拓扑关系。
进一步地,所述动作识别单元包括:分割子单元,用于针对每只手的待测特征点序列,根据预定时间窗将该待测特征点序列分割为多个子序列,并获得每个子序列对应的平均位置;匹配序列确定子单元,用于针对每只手对应的每个子序列,将该子序列与所述多个预设特征点序列中的每一个分别进行匹配,在所述多个预设特征点序列中选择与该子序列的匹配程度高于预设的匹配阈值、并且最大的预设特征点序列,作为该子序列的匹配序列;关联子单元,用于将每个子序列对应的平均位置与该子序列的匹配序列对应的动作名称相关联;动作名称确定子单元,用于针对每只手,将该只手对应的各子序列的匹配序列作为该只手对应的多个匹配序列,并将该多个匹配序列各自对应的动作名称作为该只手的多个动作名称。
进一步地,所述手势识别单元包括:手势表存储子单元,用于存储如下映射列表来作为所述预设手势表:该映射列表中的每个映射的左端是一组动作名称对及每个动作名称对的位置;该映射列表中的每个映射的右端是一个手势;手势表匹配子单元,用于将所述预设手势表中的每个映射的左端与所述使用者双手的动作名称和位置进行匹配,其中,动作名称的匹配执行严格匹配,而位置则是通过使用者双手各自的平均位置计算得到相对位置信息,进而计算该相对位置信息与映射左端的位置之间的相似度来实现的。
进一步地,所述信号处理组件还用于:基于所述使用者每只手的位置获得所述使用者手部的模拟图形,以通过所述移动设备接口将该模拟图形显示在所述移动设备的屏幕上。
进一步地,所述信号处理组件用于:根据所述使用者每只手对应的待测特征点序列,通过连接骨骼后外延得到该只手的外轮廓图形,作为该只手的模拟图形;通过对所述使用者双手的相对位置进行平移校准和比例缩放,确定所述使用者的每只手在所述屏幕中的显示位置;基于所述使用者每只手的模拟图形和显示位置来在所述移动设备的屏幕中显示所述使用者手部的模拟图形。
上述根据本发明实施例的基于手势识别的虚拟现实交互设备,利用外接至3D摄像头接口头接口的3D摄像头来捕获使用者手部的待测图像序列,以识别使用者的手势,进而根据已识别手势来进行对移动设备的操控。该虚拟现实交互设备通过移动设备接口采集移动设备的屏幕显示信号,从而将其屏幕通过虚拟现实显示方式呈现于预定显示区域。当使用者头戴该虚拟现实交互设备时,能够在位于其视场之内的预定显示区域内看到移动设备屏幕的虚像,并通过手势识别的方式与移动设备之间进行人机交互,操控该移动设备。与现有技术不同,本发明的虚拟现实交互设备除了可以利用已有的鼠标、按键等传统输入方式进行人机交互之外,还可以利用上述手势识别技术来进行人机交互,丰富了输入方式种类,且操作较为简便。
此外,本发明的虚拟现实交互设备在进行手势识别的过程中,采用动作模版匹配和动作对与手势匹配的方式来实现,识别处理的精度高、速度快。
本发明的上述虚拟现实交互设备采用层次化设计算法,算法复杂度低,便于实现。
此外,应用本发明的上述虚拟现实交互设备,当需要改变(例如修改、增加或减少等)对动作和/或手势的定义时,可以仅通过调整模板(即,通过修改预设特征点序列对应的动作名称来改变动作的定义,通过增加或减少预设特征点序列及其对应动作名称来增、减动作)以及预设手势表(即,通过修改预设手势表中手势对应的多个动作来改变手势的定义,通过增加或减少预设手势表中的手势及其对应动作来增、减手势),而不需改变算法或者重新训练分类器,大大提高了算法的适应性。
此外,本发明的上述虚拟现实交互设备的实时性强,能够适合即时交互需求的场合。
通过以下结合附图对本发明的最佳实施例的详细说明,本发明的这些以及其他优点将更加明显。
附图说明
本发明可以通过参考下文中结合附图所给出的描述而得到更好的理解,其中在所有附图中使用了相同或相似的附图标记来表示相同或者相似的部件。所述附图连同下面的详细说明一起包含在本说明书中并且形成本说明书的一部分,而且用来进一步举例说明本发明的优选实施例和解释本发明的原理和优点。在附图中:
图1A是示出本发明的基于手势识别的虚拟现实交互设备的一个示例的三维结构示意图,图1B-1F分别是图1A所示的虚拟现实交互设备的主视图、俯视图、仰视图、左视图和右视图;
图2A和图2B是示出将图1A所示的虚拟现实交互设备佩戴在使用者头部的示意图;
图3是示出信号处理组件130的一个示例的结构示意图;
图4是示出图3中的特征点序列确定单元320的一个示例的结构示意图;
图5是示出图4中的模板匹配子单元420的一个示例的结构示意图;
图6是示出图3中的动作识别单元330的一个示例的结构示意图;
图7是示出图3中的手势识别单元340的一个示例的结构示意图。
本领域技术人员应当理解,附图中的元件仅仅是为了简单和清楚起见而示出的,而且不一定是按比例绘制的。例如,附图中某些元件的尺寸可能相对于其他元件放大了,以便有助于提高对本发明实施例的理解。
具体实施方式
在下文中将结合附图对本发明的示范性实施例进行描述。为了清楚和简明起见,在说明书中并未描述实际实施方式的所有特征。然而,应该了解,在开发任何这种实际实施例的过程中必须做出很多特定于实施方式的决定,以便实现开发人员的具体目标,例如,符合与***及业务相关的那些限制条件,并且这些限制条件可能会随着实施方式的不同而有所改变。此外,还应该了解,虽然开发工作有可能是非常复杂和费时的,但对得益于本公开内容的本领域技术人员来说,这种开发工作仅仅是例行的任务。
在此,还需要说明的一点是,为了避免因不必要的细节而模糊了本发明,在附图中仅仅示出了与根据本发明的方案密切相关的装置结构和/或处理步骤,而省略了与本发明关系不大的其他细节。
本发明的实施例提供了一种基于手势识别的虚拟现实交互设备,该虚拟现实交互设备包括3D摄像头接口、头盔式虚拟现实显示器、信号处理组件以及移动设备接口,所述3D摄像头接口连接至所述信号处理组件;所述信号处理组件连接至所述移动设备接口,所述移动设备接口连接至所述头盔式虚拟现实显示器;所述3D摄像头接口用于连接外部的3D摄像头,以通过该3D摄像头来捕获含有深度信息的使用者手部的待测图像序列,并将所述待测图像序列发送给所述信号处理组件,所述信号处理组件用于基于所述待测图像序列来获得所述使用者的手势,并根据该手势确定对应的操作指令,以对连接至所述移动设备接口的移动设备执行该操作指令,所述头盔式虚拟现实显示器用于捕获所述移动设备的屏幕,并将该屏幕的虚拟图像呈现于预定成像区域。
图1A-图1F示出了本发明的基于手势识别的虚拟现实交互设备的一个示例的结构。如图1A-图1F所示,基于手势识别的虚拟现实交互设备100包括3D摄像头接口110、头盔式虚拟现实显示器120(例如包括下文所描述的佩戴部210和采集成像部220)、信号处理组件130以及移动设备接口140。其中,3D摄像头接口110连接(此处为电信号连接)至信号处理组件130,信号处理组件130连接(此处为电信号连接)至移动设备接口140,而移动设备接口140连接(此处为电信号连接)至头盔式虚拟现实显示器120。需要说明的是,在该示例中,信号处理组件130是设置在头盔式虚拟现实显示器120内部的。此外,图2A和图2B示出了将图1A所示的虚拟现实交互设备佩戴在使用者头部的示意图。
3D摄像头接口110用于连接外部的3D摄像头,以通过该3D摄像头来捕获含有深度信息的使用者手部的待测图像序列,并将该待测图像序列发送给信号处理组件130。其中,3D摄像头接口110例如可以包括两个接口,每个接口分别连接一个3D摄像头。3D摄像头为包括可见光图像传感器和红外图像传感器的深度摄像头,可见光图像传感器用于获得可见光图像序列而红外图像传感器的深度摄像头则用于获得红外图像序列
根据一种实现方式,信号处理组件130设置在头盔式虚拟现实显示器120内部,可以将3D摄像头接口110设置在一个连接件上,该连接件与头盔式虚拟现实显示器120连接、并且可以绕头盔式虚拟现实显示器120进行旋转(参考图2A和图2B)。由此,用户通过旋转上述连接件,能够使得设置在其上的3D摄像头接口110所面对的方向(也即,安装在上面的3D摄像头对应的光轴方向)朝向使用者的手势。当调整好上述连接件的方向之后,使用者只需在舒适的位置做手势,并且可以根据不同场合各自的舒适位置来分别调整连接件适应的方向。
根据一种实现方式,3D摄像头接口110可以通过外接至该接口110的3D摄像来捕获预定成像区域内的使用者手部的图像,(例如可以利用深度摄像头上的可见光图像传感器和红外图像传感器)获得可见光图像序列和红外图像序列为可见光图像序列第i帧图像坐标(x,y)处的像素值,而为红外图像序列第i帧图像坐标(x,y)处的像素值,根据如下公式可以得到抽取使用者双手信息的图像序列:
其中,α、β、λ为预设参数阈值,这些预设参数阈值可以根据经验值来设定,也可以通过试验的方法来确定(例如通过实际使用特定型号的深度摄像头采集到的样本图像训练得到),这里不再赘述。为获取的含有深度信息的使用者双手的图像序列,作为上述待测图像序列。此外,i=1,2,…,M,M为待测图像序列中所包括的图像帧数。
需要说明的是,根据使用者手势所使用的手数量的不同(单只或双只),在预定成像区域内所捕获的图像可能是包含使用者双手的图像,也可能是仅包含使用者单只手的图像。另外,获取的待测图像序列可以是在一个时间段内获得的,该时间段可以预先根据经验值设置,例如可为10秒。
信号处理组件130用于基于上述待测图像序列来获得使用者的手势,并根据该手势确定对应的操作指令,以对连接至移动设备接口140的移动设备执行该操作指令。其中,连接至移动设备接口140的移动设备例如是手机,移动设备接口140可以通过有线方式(比如USB或其它类型接口等)连接该移动设备,或者可以通过无线方式(比如蓝牙、WIFI等)连接该移动设备。
头盔式虚拟现实显示器120用于通过移动设备接口140接收连接至此接口140的移动设备的屏幕显示信号,以将该移动设备的屏幕以虚拟现实显示方式呈现于预定显示区域。
这样,将3D摄像头接口110设置在头盔式虚拟现实显示器上,使用时将3D摄像头连接至该接口(例如通过USB方式,或其他现有接口方式),而不需要借助任何手持设备,即可实现基于双手手势的设备操作和场景操作。
上述根据本发明实施例的基于手势识别的虚拟现实交互设备,利用外接至3D摄像头接口的3D摄像头来捕获使用者手部的待测图像序列,以识别使用者的手势,进而根据已识别手势来进行对移动设备的操控。该虚拟现实交互设备通过移动设备接口采集移动设备的屏幕显示信号,从而将其屏幕通过虚拟现实显示方式呈现于预定显示区域。当使用者头戴该虚拟现实交互设备时,能够在位于其视场之内的预定显示区域内看到移动设备屏幕的虚像,并通过手势识别的方式与移动设备之间进行人机交互,操控该移动设备。与现有技术不同,本发明的虚拟现实交互设备除了可以利用已有的鼠标、按键等传统输入方式进行人机交互之外,还可以利用上述手势识别技术来进行人机交互,丰富了输入方式种类,且操作较为简便。
根据一种实现方式,头盔式虚拟现实显示器120可以包括佩戴部210和采集成像部220(如图1C所示)。
其中,佩戴部210可佩戴在使用者头部,其上设置有采集成像部220。采集成像部220连接(此处为电信号连接)至移动设备接口140以采集连接至该移动设备接口140的移动设备的屏幕显示信号,来将该移动设备的屏幕以虚拟现实显示方式呈现于预定成像区域。
采集成像部220包括显示屏和两组镜片组。其中,两组镜片组被设置成:当虚拟现实交互设备100被使用者佩戴于头部时,这两组镜片组分别位于使用者对应的视线正前方,即左侧镜片组位于使用者左眼视线正前方,而右侧镜片组位于使用者右眼视线正前方。这种情况下,预定显示区域例如是这两组镜片组的虚像成像区域。
采集成像部220通过移动设备接口140连接至外接的移动设备,采集该移动设备的屏幕显示信号,该屏幕显示信号即用于在手机屏幕上显示内容的信号,类似于台式计算机显示器所接收的显示信号。采集成像部220接收上述屏幕显示信号后,通过其内部的显示屏根据该屏幕显示信号来显示移动设备的屏幕内容,并通过上述两组镜片组对该图像成虚像。使用者佩戴上述虚拟现实交互设备后,通过上述两组镜片组看到的即是上述虚像。需要说明的是,本领域的技术人员能够根据本领域公知常识和公开资料等获知如何设置镜片组中镜片的数量和参数,这里不再赘述。
根据一种实现方式,采集成像部220内部的显示屏例如可以是透明材质的显示屏,使用者佩戴虚拟现实交互设备后,能够透过该显示屏看到自己的手势,以准确掌握自己所做手势及手势位置。
根据其他实现方式,头盔式虚拟现实显示器120还可以选择性地包括固定支架。固定支架固定地或活动地连接至佩戴部210,并用于固定连接移动设备接口140的移动设备。例如,可在固定支架中设置卡槽,用于固定诸如手机之类的移动设备,该卡槽的尺寸可以根据移动设备的尺寸预先设置,也可以被制成可调节型卡槽(比如在卡槽两侧设置弹性部件)。
图3示意性地示出了信号处理组件130的一种示例性结构。如图3所示,信号处理组件130可以包括轮廓检测单元310、特征点序列确定单元320、动作识别单元330、手势识别单元340、指令确定单元350以及执行单元360。
轮廓检测单元310用于根据图像深度信息和图像颜色信息,在待测图像序列的每帧图像中检测出使用者的手部轮廓。其中,检测出的手部轮廓可能是双手轮廓,也可能是单手轮廓。
特征点序列确定单元320用于针对使用者的每只手,利用预设的手部结构模板,在待测图像序列的每帧图像中确定该只手的待测特征点序列
动作识别单元330用于针对使用者的每只手,在多个预设特征点序列中确定该只手的待测特征点序列的匹配序列,以根据匹配序列确定该只手的动作名称和位置。
手势识别单元340用于在预设手势表中选择与使用者双手的动作名称和位置相匹配的手势,作为已识别手势。
指令确定单元350用于根据预设操作指令表,确定与已识别手势对应的操作指令。
执行单元360用于对与确定的操作指令相关的设备进行与该操作指令对应的操作。由此,将确定的操作指令发送到相关设备,能够实现对诸如移动计算设备的相关设备的拟人化、自然化、非接触的操作与控制。
通过以上描述可知,本发明的虚拟现实交互设备在进行手势识别的过程中,采用动作模版匹配和动作对与手势匹配的方式来实现,识别处理的精度高、速度快。
根据一种实现方式,轮廓检测单元310可以用于:针对待测图像序列中的每帧图像结合颜色信息删除该帧图像中的噪声点及非肤色区域,利用边缘检测算子E(·)对删除噪声点和非肤色区域后所得到的图像进行边缘检测,从而得到边缘图像
边缘图像即为仅包含使用者手部轮廓的图像。
其中,在“结合颜色信息删除该帧图像中的噪声点及非肤色区域”的处理过程中,可以利用现有的去噪方法来删除图像中的噪声点,并可以通过计算图像的均值来得到肤色区域,则肤色区域之外的区域即为非肤色区域,即可实现对非肤色区域的删除。例如,得到图像的均值之后,在该均值上下浮动一个范围,得到包含该均值的一个颜色范围,当图像中某点的颜色值落在这个颜色范围之内,则将该点确定是肤色点,否则认为不是肤色点;所有肤色点构成肤色区域,其余为非肤色区域。
由此,通过轮廓检测单元310的处理,能够快速检测出使用者的手部轮廓,提高了整个处理的速度和效率。
根据一种实现方式,特征点序列确定单元320可以包括如图4所示的模板存储子单元410、模板匹配子单元420和序列生成子单元430。
其中,模板存储子单元410可以用于存储预设的手部结构模板。
根据一种实现方式,手部结构模板可以包括左手结构模板和右手结构模板,左手结构模板和右手结构模板各自包括预定数目个特征点以及各特征点之间的拓扑关系。
在一个例子中,左手结构模板和右手结构模板可以各自包括如下20(作为预定数目的示例,但预定数目并不限于20,也可为19、21等数值)个特征点:各手指的指尖特征点(5个)、各指关节特征点(9个)、各指根关节特征点(5个)、手腕中点特征点(1个)。
如图4所示,模板匹配子单元420可以针对使用者的每只手,利用上述预设的手部结构模板,分别将待测图像序列的每帧图像中的手部轮廓与手部结构模板(左右结构模板和右手结构模板)进行匹配、对齐,得到该帧图像手部轮廓中的预定数目个(例如20个)特征点。
然后,序列生成子单元430可以针对使用者的每只手,利用该只手在待测图像序列的各帧图像中对应的预定数目个特征点(即特征点集),获得该只手的待测特征点序列。
这样,通过手部结构模板与之前获得的每个手部轮廓(即待测图像序列的每帧图像中的手部轮廓)进行匹配等处理,能够快速、准确地获得每个手部轮廓中的预定数目个特征点。由此,能够使得后续处理利用这些轮廓中的所述预定数目个特征点来进一步实现手势识别,相比于现有技术,提高了整个人机交互处理的速度和准确度。
在现有技术中,当根据不同应用场景需要改变(例如修改、增加或减少等)对动作的定义时,需要修改算法以及重新训练分类器;在本发明中,可以仅通过调整动作模板(即预设特征点序列)来实现对动作定义的改变,大大提高了手势识别技术的适应性。
在一个例子中,模板匹配子单元420可以包括如图5所示的定位基点确定模块510、缩放基准确定模块520和缩放及形变模块530。
根据人类双手的生理结构特征,可以通过定位基点确定模块510、缩放基准确定模块520和缩放及形变模块530对每只手提取20(作为预定数目的示例)个特征点。
针对待测图像序列的每帧图像执行以下处理:首先,通过定位基点确定模块510根据该图像中的轮廓线的曲率找到该轮廓线中的指尖点和指根关节点;接着,缩放基准确定模块520基于定位基点确定模块510已找到的该帧图像的轮廓线中的定位基点,匹配每个单指的指根关节点,得到各单指的长度作为尺度缩放的基准;最后,缩放及形变模块530基于已找到的指尖点和指根关节点的位置以及得到的各单指的长度两方面的参数对相应的手部结构模板进行缩放和形变,通过匹配得到每只手其余的10个特征点,即每只手的各指关节特征点和手腕中点特征点。
例如,在找轮廓线中的指尖点和指根关节点的过程中,可以将其中曲率最大的凸点作为指尖点,将曲率最大的凹点作为指缝最低点,并将每个指尖点到该指尖点相邻的指缝最低点之间的距离定义为该指尖点对应的单位长度。对每两个相邻的指缝最低点,将此二点的中点再往手掌方向延伸三分之一单位长度(此时的单位长度为此二点之间的指尖点对应的单位长度)的点,定义为该指尖点对应的指根关节点,由此可以得到每只手的中间3个指根关节点。除此之外,对于每只手来说,可以通过在后续缩放和形变的过程中获得该只手的首尾两个指根关节点;或者,也可以将该只手的两个(例如任意选两个)相邻的指缝最低点之间的距离作为手指参考宽度,然后将该只手的首尾两个指缝最低点各沿切线方向、向外延伸半个手指参考宽度,得到的点分别作为该只手的首尾两个指根关节点。
需要说明的是,如果对于单只手所找到的凸点多于5个,可以在将其与手部结构模板进行匹配对齐的过程中将多余的凸点去除。
由此,通过定位基点确定模块510、缩放基准确定模块520和缩放及形变模块530,可以匹配得到每一帧图像对应的左手的20个特征点Pl={pl1,pl2,...,pl20}和右手的20个特征点Pr={pr1,pr2,...,pr20}。需要说明的是,若使用者手势仅包含单只手,则通过以上匹配所得到的是该单只手在每帧图像中的20个特征点(称为特征点集),即Pl={pl1,pl2,...,pl20}或Pr={pr1,pr2,...,pr20}。其中,pl1,pl2,…,pl20分别为左手20个特征点的位置,而pr1,pr2,…,pr20分别为右手20个特征点的位置。
若使用者手势包含双手,则通过以上处理可以得到左手的待测特征点序列{Pli,i=1,2,...,M}和右手的待测特征点序列{Pri,i=1,2,...,M}。其中,Pli为使用者左手在待测图像序列的第i帧图像中对应的20(作为预定数目的示例)个特征点,而Pri为使用者右手在待测图像序列的第i帧图像中对应的20(作为预定数目的示例)个特征点。
若使用者手势仅包含单只手,则捕获的待测图像序列中的每帧图像均是仅包含该单只手的图像,从而通过以上处理之后能够得到该单只手的待测特征点序列,即{Pli,i=1,2,...,M}或{Pri,i=1,2,...,M}。
根据一种实现方式,动作识别单元330可以包括如图6所示的分割子单元610、匹配序列确定子单元620、关联子单元630和动作名称确定子单元640。
如图6所示,分割子单元610可以针对每只手的待测特征点序列,根据预定时间窗将该待测特征点序列分割为多个子序列,并获得每个子序列对应的平均位置。其中,每个子序列对应的平均位置可以选取指定特征点(如手腕中点,或者也可为其他特征点)在该子序列中的平均位置。其中,预定时间窗约为一个单手基本动作(即单手的握、抓等)从开始到结束的时间,可根据经验值来设定,或可以通过试验的方法来确定,例如可以为2.5秒。
在一个例子中,假设待测特征点序列是在10秒内采集的,分割子单元610利用2.5秒的时间窗可以将左手的待测特征点序列以及右手的待测特征点序列分别分割成4个子序列。以左手的待测特征点序列{Pli,i=1,2,...,M}为例(右手的待测特征点序列{Pri,i=1,2,...,M}与其类似,这里不再详述),假设每秒采集10帧图像,则待测特征点序列对应的是100帧图像,即M=100,也就是说,{Pli,i=1,2,...,M}包括100组特征点集Pl1、Pl2、…、Pl100。这样,通过上述2.5秒的时间窗,可以将{Pli,i=1,2,...,M}分割为{Pli,i=1,2,...,25}、{Pli,i=25,26,...,50}、{Pli,i=51,52,...,75}和{Pli,i=76,77,...,100}4个子序列,且每个子序列各对应25帧图像,也即,每个子序列各包括25组特征点集。指定特征点选取手腕中点,以子序列{Pli,i=1,2,...,25}为例(其余三个子序列与其处理相似,这里不再详述),手腕中点在{Pli,i=1,2,...,25}对应的25组特征点集中的位置分别为位置p1、p2、…、p25,于是手腕中点在子序列{Pli,i=1,2,...,25}中的平均位置为(p1+p2+…+p25)/25,作为子序列{Pli,i=1,2,...,25}对应的平均位置。
然后,匹配序列确定子单元620可以针对每只手对应的每个子序列,将该子序列与多个预设特征点序列中的每一个分别进行匹配,在多个预设特征点序列中选择与该子序列的匹配程度高于预设的匹配阈值(该匹配阈值可以根据经验值来设定,或者也可以通过试验的方法来确定)、并且最大的那个预设特征点序列,作为该子序列的匹配序列。其中,匹配序列确定子单元620可以计算子序列与预设特征点序列之间的相似度,来作为二者之间的匹配程度。
其中,多个预设特征点序列可以预先设置在一个手部动作名列表中,该手部动作名列表包括基本的手部动作,例如:挥、推、拉、张、合、转等,每个动作都有唯一的名称标识以及用归一化的用手部特征点序列(即预设特征点序列)表示的模板。需要说明的是,对于使用者的双手来说,每只手都具有一个上述的手部动作名列表。也就是说,对于左手来说,左手的手部动作名列表(简称左手动作名列表)中包括的每个动作除了分别具有各自的名称之外,还具有一个左手模板(即左手的一个预设特征点序列);对于右手来说,右手的手部动作名列表(简称右手动作名列表)中包括的每个动作除了分别具有各自的名称之外,还具有一个右手模板(即右手的一个预设特征点序列)。
例如,单只手的多个预设特征点序列分别记为序列A1、序列A2、…、序列AH,其中,H为该单只手的上述多个预设特征点序列所包含的序列数,则在该单只手的手部动作名列表中:动作1的名称标识为“挥”且对应的模板(即预设特征点序列)为序列A1;动作2的名称标识为“推”且对应的模板为序列A1;…;动作H的名称标识为“转”且对应的模板为序列A1。
需要说明的是,对于每个子序列,并非一定能够在多个预设特征点序列中找到该子序列对应的匹配序列。当对于单只手的某个子序列并未找到其匹配序列时,则将该子序列的匹配序列记为“空”,但该子序列的平均位置可以不为“空”。根据一种实现方式,若子序列的匹配序列为“空”,则将该子序列的平均位置设为“空”;根据另一种实现方式,若子序列的匹配序列为“空”,该子序列的平均位置为该子序列中指定特征点的实际平均位置;根据其他一种实现方式,若子序列的匹配序列为“空”,将该子序列的平均位置设为“+∞”。
此外,根据一种实现方式,若子序列中不存在指定特征点(也即不存在该指定特征点的实际平均位置),可以将该子序列的平均位置设为“+∞”。
然后,如图6所示,关联子单元630可以将每个子序列对应的平均位置与该子序列的匹配序列对应的动作名称相关联。
这样,动作名称确定子单元640可以针对每只手,将该只手对应的各子序列的匹配序列作为该只手对应的多个匹配序列,并将该多个匹配序列各自对应的动作名称(按时间顺序排序后)作为该只手的多个动作名称。
例如,假设对于左手的待测特征点序列的多个子序列为{Pli,i=1,2,...,25}、{Pli,i=25,26,...,50}、{Pli,i=51,52,...,75}和{Pli,i=76,77,...,100},分别在左手的多个预设特征点序列中找到{Pli,i=1,2,...,25}、{Pli,i=25,26,...,50}、{Pli,i=51,52,...,75}的匹配序列依次为Pl1'、Pl2'、Pl3',而未找到{Pli,i=76,77,...,100}的匹配序列。假设Pl1'、Pl2'、Pl3'在左手动作名列表中对应的动作名称依次分别为“挥”、“推”、“拉”,{Pli,i=1,2,...,25}、{Pli,i=25,26,...,50}、{Pli,i=51,52,...,75}和{Pli,i=76,77,...,100}各自的平均位置分别为pm1、pm2、pm3和pm4,则由此得到的左手的动作名称和位置包括:“挥”(位置pm1);“推”(位置pm2);“拉”(位置pm3);“空”(位置“pm4”)。需要注意到是,在不同实施例中,pm4可能是真实位置值,也可能是“空”或“+∞”等。
由此,通过分割子单元610、匹配序列确定子单元620、关联子单元630和动作名称确定子单元640的处理,能够得到使用者每只手对应的多个动作名称(作为该只手的动作名称,也就是说,该只手的动作名称),且每个动作名称分别关联有一个平均位置(作为该只手的位置,“该只手的位置”中包括一个或多个平均位置,数量与动作名称的数量相同)。相比于单单识别单个动作作为手势的识别技术来说,采用如图6所示的组成的处理所识别的双手各自的多个动作和位置,提供了更灵活的组合方式,一方面使得手势的识别精度更高,另一方面使得能够识别的手势更多样、丰富。
此外,根据一种实现方式,可以通过如图7所示的结构来实现手势识别单元340的处理。如图7所示,手势识别单元340可以包括手势表存储子单元710和手势表匹配子单元720。
如图7所示,手势识别单元340可以将预定义的一个从两只手动作和位置两个要素到手势的映射列表存储为预设手势表:每个映射的左端是一组动作名称对及每个动作名称对的位置;每个映射的右端是一个手势HandSignal。
其中,“一组动作名称对”包括多个动作名称对,每个动作名称对包括左手动作名称ActNameleft和右手动作名称ActNameright,每个动作名称对的位置包括两只手的相对位置。
例如,在预设手势表中,映射一为{(“拉”,“空”)、(“拉”,“拉”)、(“空”,“合”)、(“空”,“空”)}(作为要素一)、{(x1,y1),(x2,y2),(x3,y3),(x4,y4)}(相对位置,作为要素二)到手势“开关”的映射;映射二为{(“拉”,“拉”)、(“张”,“张”)、(“空”,“空”)、(“空”,“空”)}、{(x5,y5),(x6,y6),(x7,y7),(x8,y8)}到手势“***”的映射;等等。其中,每个动作对(如(“拉”,“空”))中左边的动作名称对应于左手动作,而右边的动作名称对应于右手动作。
以映射一为例,(x1,y1)表示的是左手第一个动作“拉”与右手第一个动作“空”之间的相对位置(即动作对(“拉”,“空”)中左手动作和右手动作对应的两只手的相对位置);(x2,y2)表示的是左手第二个动作“拉”与右手第二个动作“拉”之间的相对位置;(x3,y3)表示的是左手第三个动作“空”与右手第三个动作“合”之间的相对位置;而(x4,y4)表示的是左手第四个动作“空”与右手第四个动作“空”之间的相对位置。其他映射中的表述意义与此类似,不再赘述。
这样,手势表匹配子单元720可以将预设手势表中的每个映射的左端与使用者双手的动作名称和位置进行匹配,以将与使用者双手动作名称和位置匹配的手势作为已识别手势。
其中,动作名称的匹配执行严格匹配,也即,在两个动作名称之间一字不差的情况下判定这两个动作名称是匹配的;而位置则是通过使用者双手各自的平均位置计算得到相对位置信息,进而计算该相对位置信息与映射左端的位置之间的相似度来实现的(如可以设定一个相似度阈值,当计算的相似度大于或等于该相似度阈值时判定位置是匹配的)。
例如,假设通过动作识别单元330得到使用者双手各自的动作名称为{(“拉”,“拉”)、(“张”,“张”)、(“空”,“空”)、(“空”,“空”)},位置为{(x11,y12)、(x21,y22)、(x31,y32)、(x41,y42)(对应左手);(x’11,y’12)、(x’21,y’22)、(x’31,y’32)、(x’41,y’42)(对应左手)}。
这样,手势表匹配子单元720将使用者双手的动作名称与预设手势表中的每个映射的左端进行匹配。
当与映射一进行匹配时,可以得出,使用者双手的动作名称与映射一的左端的动作名称不匹配,因此忽略映射一,继续匹配映射二。
当与映射二进行匹配时,可以得出,使用者双手的动作名称与映射二的左端的动作名称完全匹配,然后再将使用者双手的位置与映射二的左端的相对位置进行匹配。
在将使用者双手的位置与映射二的左端的相对位置进行匹配的过程中,首先计算使用者双手的相对位置如下:{(x’11-x11,y’12-y12)、(x’21-x21,y’22-y22)、(x’31-x31,y’32-y32)、(x’41-x41,y’42-y42)(对应左手)}。然后,将计算得到的使用者双手的上述相对位置与映射二左端的相对位置{(x5,y5),(x6,y6),(x7,y7),(x8,y8)}进行匹配,也即,计算{(x’11-x11,y’12-y12)、(x’21-x21,y’22-y22)、(x’31-x31,y’32-y32)、(x’41-x41,y’42-y42)(对应左手)}与{(x5,y5),(x6,y6),(x7,y7),(x8,y8)}之间的相似度,假设计算得到的相似度为95%。在该例子中,设相似度阈值为80%,于是判定计算得到的使用者双手的相对位置与映射二左端的相对位置是匹配的。由此,在该例子中,人机交互的结果为“***”。
由此,利用手势表匹配子单元720,通过双手各自的多个动作和位置与预定手势表之间的匹配来确定使用者的手势,使得识别的精度较高;当根据不同应用场景需要改变(例如修改、增加或减少等)对手势的定义时,不需要修改算法或重新训练分类器,可以仅通过调整预定手势表中的手势名称或者手势对应的动作名称等方式来实现对手势定义的改变,大大提高了算法的适应性。
根据一种实现方式,指令确定单元350可以建立一个手势名称和操作指令之间的一个映射关系表,作为上述预设操作指令表。该预设操作指令表包括多个映射,每个映射的左边为一个预设手势的名称,而右边为与该预设手势对应的操作指令(比如用于移动计算设备图形界面操作的基本操作指令,例如焦点移动、点击、双击、点击拖动、放大、缩小、旋转、长触等)。由此,通过查表操作即可获得与已识别手势HandSignal对应的那个操作指令OptCom。
此外,根据另一种实现方式,信号处理组件130可以基于使用者每只手的位置获得使用者手部的模拟图形,以通过移动设备接口140将该模拟图形显示在连接至此接口140的移动设备的屏幕上。
例如,信号处理组件130可用于:根据使用者每只手在待测图像序列的每帧图像中对应的待测特征点序列(例如每帧图像中每只手的20个特征点),通过连接骨骼后外延得到该只手的外轮廓图形,作为该只手的模拟图形;通过对使用者双手的相对位置进行平移校准和比例缩放,确定使用者的每只手在所述屏幕中的显示位置;基于使用者每只手的模拟图形和显示位置来在移动设备的屏幕中显示使用者手部的模拟图形。
这样,通过头盔式虚拟现实显示器120将移动设备的屏幕以虚拟现实显示方式呈现于预定显示区域,能够使得使用者在该预定显示区域看到包含以上手部的模拟图形的屏幕内容(虚像),从而能够根据手部模拟图形来确定其手势是否准确,以继续操作手势或调整手势等。
由此,可以通过在移动设备的屏幕上显示半透明的手部图形来给用户提供视觉反馈,并帮助用户调整手部位置和操作。需要说明的是,在执行“通过对使用者双手的相对位置进行平移校准和比例缩放”的处理时,如果已识别手势中只包含使用者的单只手,则不存在相对位置(或者相对位置被记为无穷大),此时,可以在一个指定的初始位置显示对应的单只手。此外,在执行“基于使用者每只手的模拟图形和显示位置来在屏幕中显示使用者手部的模拟图形”的处理时,若已识别手势中包括双手,则显示双手的模拟图形;若已识别手势仅包含单只手,则仅显示该只手的模拟图形。
例如,在实际应用中,3D摄像头接口设置在头盔式虚拟现实显示器上,3D摄像头安装于该接口后的视场朝下,使用者抬起双手的自然位置正处于视场中央。使用者抬起双手做出相关手势操作,即可:1、在虚拟现实设备中实现菜单选择等设备操作;2、在游戏或相关软件操作中通过手势实现场景导航,以及对象的缩放、旋转、平移等操作
尽管根据有限数量的实施例描述了本发明,但是受益于上面的描述,本技术领域内的技术人员明白,在由此描述的本发明的范围内,可以设想其它实施例。此外,应当注意,本说明书中使用的语言主要是为了可读性和教导的目的而选择的,而不是为了解释或者限定本发明的主题而选择的。因此,在不偏离所附权利要求书的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。对于本发明的范围,对本发明所做的公开是说明性的,而非限制性的,本发明的范围由所附权利要求书限定。
Claims (9)
1.一种基于手势识别的虚拟现实交互设备,其特征在于,所述虚拟现实交互设备包括3D摄像头接口、头盔式虚拟现实显示器、信号处理组件以及移动设备接口,所述3D摄像头接口连接至所述信号处理组件,所述信号处理组件连接至所述移动设备接口,所述移动设备接口连接至所述头盔式虚拟现实显示器;
所述3D摄像头接口用于连接外部的3D摄像头,以通过该3D摄像头来捕获含有深度信息的使用者手部的待测图像序列,并将所述待测图像序列发送给所述信号处理组件,
所述信号处理组件用于基于所述待测图像序列来获得所述使用者的手势,并根据该手势确定对应的操作指令,以对连接至所述移动设备接口的移动设备执行该操作指令,
所述头盔式虚拟现实显示器用于通过所述移动设备接口接收所述移动设备的屏幕显示信号,以将所述移动设备的屏幕以虚拟现实显示方式呈现于预定显示区域;
所述信号处理组件包括手势识别单元,所述手势识别单元用于在预设手势表中选择与所述使用者双手的动作名称和位置相匹配的手势,作为已识别手势;
所述手势识别单元包括:
手势表存储子单元,用于存储如下映射列表来作为所述预设手势表:该映射列表中的每个映射的左端是一组动作名称对及每个动作名称对的位置;该映射列表中的每个映射的右端是一个手势;
手势表匹配子单元,用于将所述预设手势表中的每个映射的左端与所述使用者双手的动作名称和位置进行匹配,其中,动作名称的匹配执行严格匹配,而位置则是通过使用者双手各自的平均位置计算得到相对位置信息,进而计算该相对位置信息与映射左端的位置之间的相似度来实现的。
2.根据权利要求1所述的基于手势识别的虚拟现实交互设备,其特征在于,所述头盔式虚拟现实显示器包括:
佩戴部,所述佩戴部佩戴在使用者头部;
采集成像部,所述采集成像部设置于所述佩戴部上,并连接至所述移动设备接口以采集所述移动设备的屏幕显示信号,来将所述屏幕以虚拟现实显示方式呈现于所述预定显示区域。
3.根据权利要求2所述的基于手势识别的虚拟现实交互设备,其特征在于,所述采集成像部包括显示屏和两组透镜组,所述显示屏为透明材质,所述两组透镜组被设置成:当所述虚拟现实交互设备被使用者佩戴于头部时,所述两组透镜组分别位于使用者对应的视线正前方。
4.根据权利要求1-3中任一项所述的基于手势识别的虚拟现实交互设备,其特征在于,所述信号处理组件包括:
轮廓检测单元,用于根据图像深度信息和图像颜色信息,在所述待测图像序列的每帧图像中检测出所述使用者的手部轮廓;
特征点序列确定单元,用于针对所述使用者的每只手,利用预设的手部结构模板,在所述待测图像序列的每帧图像中确定该只手的待测特征点序列;
动作识别单元,用于针对所述使用者的每只手,在多个预设特征点序列中确定该只手的待测特征点序列的匹配序列,以根据所述匹配序列确定该只手的动作名称和位置;
指令确定单元,用于根据预设操作指令表,确定与所述已识别手势对应的操作指令;
执行单元,用于对与确定的操作指令相关的设备进行与该操作指令对应的操作。
5.根据权利要求4所述的基于手势识别的虚拟现实交互设备,其特征在于,所述特征点序列确定单元包括:
模板存储子单元,用于存储预设的手部结构模板;
模板匹配子单元,用于针对所述使用者的每只手,利用预设的手部结构模板,在所述待测图像序列的每帧图像的手部轮廓中确定该只手的预定数目个特征点;
序列生成子单元,用于针对所述使用者的每只手,利用该只手在所述待测图像序列的各帧图像中对应的预定数目个特征点,获得该只手的待测特征点序列。
6.根据权利要求5所述的基于手势识别的虚拟现实交互设备,其特征在于,所述模板匹配子单元包括:
定位基点确定模块,其用于针对所述待测图像序列的每帧图像,根据该图像中的轮廓线的曲率找到该轮廓线中的指尖点和指根关节点,以将所述指尖点作为定位基点;
缩放基准确定模块,其用于针对所述定位基点确定模块处理后的每帧图像,基于该帧图像中已找到的所述定位基点,匹配每个单指的指根关节点,得到各单指的长度来作为尺度缩放的基准;
缩放及形变模块,其用于针对所述缩放基准确定模块处理后的每帧图像,基于已找到的所述指尖点和所述指根关节点的位置以及各单指的长度来对相应的所述手部结构模板进行缩放和形变,通过匹配得到每只手的各指关节特征点和手腕中点特征点;
其中,所述模板存储子单元存储的所述手部结构模板包括左手结构模板和右手结构模板,所述左手结构模板和右手结构模板各自包括:各手指的指尖特征点、各指关节特征点、各指根关节特征点、手腕中点特征点以及各特征点之间的拓扑关系。
7.根据权利要求4所述的基于手势识别的虚拟现实交互设备,其特征在于,所述动作识别单元包括:
分割子单元,用于针对每只手的待测特征点序列,根据预定时间窗将该待测特征点序列分割为多个子序列,并获得每个子序列对应的平均位置;
匹配序列确定子单元,用于针对每只手对应的每个子序列,将该子序列与所述多个预设特征点序列中的每一个分别进行匹配,在所述多个预设特征点序列中选择与该子序列的匹配程度高于预设的匹配阈值、并且最大的预设特征点序列,作为该子序列的匹配序列;
关联子单元,用于将每个子序列对应的平均位置与该子序列的匹配序列对应的动作名称相关联;
动作名称确定子单元,用于针对每只手,将该只手对应的各子序列的匹配序列作为该只手对应的多个匹配序列,并将该多个匹配序列各自对应的动作名称作为该只手的多个动作名称。
8.根据权利要求1-3中任一项所述的基于手势识别的虚拟现实交互设备,其特征在于,所述信号处理组件还用于:
基于所述使用者每只手的位置获得所述使用者手部的模拟图形,以通过所述移动设备接口将该模拟图形显示在所述移动设备的屏幕上。
9.根据权利要求8所述的基于手势识别的虚拟现实交互设备,其特征在于,所述信号处理组件用于:根据所述使用者每只手对应的待测特征点序列,通过连接骨骼后外延得到该只手的外轮廓图形,作为该只手的模拟图形;通过对所述使用者双手的相对位置进行平移校准和比例缩放,确定所述使用者的每只手在所述屏幕中的显示位置;基于所述使用者每只手的模拟图形和显示位置来在所述移动设备的屏幕中显示所述使用者手部的模拟图形。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510563540.5A CN105045398B (zh) | 2015-09-07 | 2015-09-07 | 一种基于手势识别的虚拟现实交互设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510563540.5A CN105045398B (zh) | 2015-09-07 | 2015-09-07 | 一种基于手势识别的虚拟现实交互设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105045398A CN105045398A (zh) | 2015-11-11 |
CN105045398B true CN105045398B (zh) | 2018-04-03 |
Family
ID=54451990
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510563540.5A Expired - Fee Related CN105045398B (zh) | 2015-09-07 | 2015-09-07 | 一种基于手势识别的虚拟现实交互设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105045398B (zh) |
Families Citing this family (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105988583A (zh) * | 2015-11-18 | 2016-10-05 | 乐视致新电子科技(天津)有限公司 | 手势控制方法及虚拟现实显示输出设备 |
CN105892636A (zh) * | 2015-11-20 | 2016-08-24 | 乐视致新电子科技(天津)有限公司 | 一种应用于头戴设备的控制方法及头戴设备 |
CN105487660A (zh) * | 2015-11-25 | 2016-04-13 | 北京理工大学 | 基于虚拟现实技术的沉浸式舞台表演交互方法及*** |
CN105975292A (zh) * | 2015-11-26 | 2016-09-28 | 乐视致新电子科技(天津)有限公司 | 一种应用的启动方法和装置 |
WO2017088187A1 (zh) * | 2015-11-27 | 2017-06-01 | 深圳市欢创科技有限公司 | 对虚拟现实设备实现位置追踪的***及方法 |
CN105892639A (zh) * | 2015-12-01 | 2016-08-24 | 乐视致新电子科技(天津)有限公司 | 一种对虚拟现实vr设备进行控制的方法及设备 |
CN105487230B (zh) * | 2015-12-18 | 2019-01-22 | 济南中景电子科技有限公司 | 虚拟现实眼镜 |
CN105929933A (zh) * | 2015-12-22 | 2016-09-07 | 北京蚁视科技有限公司 | 一种用于三维显示环境中的交互识别方法 |
CN105487673B (zh) * | 2016-01-04 | 2018-01-09 | 京东方科技集团股份有限公司 | 一种人机交互***、方法及装置 |
CN105739703A (zh) * | 2016-02-02 | 2016-07-06 | 北方工业大学 | 面向无线头戴显示设备的虚拟现实体感交互***及方法 |
CN105721857A (zh) * | 2016-04-08 | 2016-06-29 | 刘海波 | 一种具有双摄像头的头盔 |
CN105847578A (zh) * | 2016-04-28 | 2016-08-10 | 努比亚技术有限公司 | 一种显示信息的参数调整方法及头戴式设备 |
US10382634B2 (en) * | 2016-05-06 | 2019-08-13 | Fuji Xerox Co., Ltd. | Information processing apparatus and non-transitory computer readable medium configured to generate and change a display menu |
CN105975158A (zh) * | 2016-05-11 | 2016-09-28 | 乐视控股(北京)有限公司 | 虚拟现实交互的方法及装置 |
CN106293099A (zh) * | 2016-08-19 | 2017-01-04 | 北京暴风魔镜科技有限公司 | 手势识别方法及*** |
CN107885313A (zh) * | 2016-09-29 | 2018-04-06 | 阿里巴巴集团控股有限公司 | 一种设备交互方法、装置和设备 |
CN106598211A (zh) * | 2016-09-29 | 2017-04-26 | 莫冰 | 一种基于多摄像头的可穿戴式头盔的手势交互***及识别方法 |
CN107977070B (zh) * | 2016-10-25 | 2021-09-28 | 中兴通讯股份有限公司 | 一种手势操控虚拟现实视频的方法、装置和*** |
CN107340853B (zh) * | 2016-11-18 | 2020-04-14 | 北京理工大学 | 一种基于虚拟现实与手势识别的远程呈现交互方法和*** |
CN107281750A (zh) * | 2017-05-03 | 2017-10-24 | 深圳市恒科电子科技有限公司 | Vr头显的动作识别方法及vr头显 |
CN114168034A (zh) * | 2017-05-26 | 2022-03-11 | 成都理想境界科技有限公司 | 应用于头戴式显示设备的菜单操作方法及头戴式显示设备 |
WO2019018992A1 (zh) * | 2017-07-24 | 2019-01-31 | 深圳市柔宇科技有限公司 | 手势识别方法、头部可穿戴设备和手势识别装置 |
CN107479715A (zh) * | 2017-09-29 | 2017-12-15 | 广州云友网络科技有限公司 | 利用手势控制实现虚拟现实交互的方法和装置 |
CN107831890A (zh) * | 2017-10-11 | 2018-03-23 | 北京华捷艾米科技有限公司 | 基于ar的人机交互方法、装置及设备 |
CN107943293B (zh) * | 2017-11-24 | 2021-01-15 | 联想(北京)有限公司 | 一种信息交互方法及信息处理装置 |
CN107993720A (zh) * | 2017-12-19 | 2018-05-04 | 中国科学院自动化研究所 | 基于深度相机和虚拟现实技术的康复功能评定装置及方法 |
CN108919948A (zh) * | 2018-06-20 | 2018-11-30 | 珠海金山网络游戏科技有限公司 | 一种基于手机的vr***、存储介质及输入方法 |
CN109254650B (zh) * | 2018-08-02 | 2021-02-09 | 创新先进技术有限公司 | 一种人机交互方法和装置 |
CN109240494B (zh) * | 2018-08-23 | 2023-09-12 | 京东方科技集团股份有限公司 | 电子显示板的控制方法、计算机可读存储介质和控制*** |
CN110947181A (zh) * | 2018-09-26 | 2020-04-03 | Oppo广东移动通信有限公司 | 游戏画面显示方法、装置、存储介质及电子设备 |
CN109460150A (zh) * | 2018-11-12 | 2019-03-12 | 北京特种机械研究所 | 一种虚拟现实人机交互***及方法 |
CN109598998A (zh) * | 2018-11-30 | 2019-04-09 | 深圳供电局有限公司 | 基于手势识别的电网培训可穿戴设备及其交互方法 |
CN111353519A (zh) * | 2018-12-24 | 2020-06-30 | 北京三星通信技术研究有限公司 | 用户行为识别方法和***、具有ar功能的设备及其控制方法 |
CN109917921A (zh) * | 2019-03-28 | 2019-06-21 | 长春光华学院 | 一种用于vr领域的隔空手势识别方法 |
CN110815189B (zh) * | 2019-11-20 | 2022-07-05 | 福州大学 | 基于混合现实的机器人快速示教***及方法 |
CN111178170B (zh) * | 2019-12-12 | 2023-07-04 | 青岛小鸟看看科技有限公司 | 一种手势识别方法和一种电子设备 |
CN113253882A (zh) * | 2021-05-21 | 2021-08-13 | 东风汽车有限公司东风日产乘用车公司 | 模拟鼠标方法、电子设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103530061A (zh) * | 2013-10-31 | 2014-01-22 | 京东方科技集团股份有限公司 | 显示装置及控制方法、手势识别方法、头戴显示装置 |
US9024842B1 (en) * | 2011-07-08 | 2015-05-05 | Google Inc. | Hand gestures to signify what is important |
CN104598915A (zh) * | 2014-01-24 | 2015-05-06 | 深圳奥比中光科技有限公司 | 一种手势识别方法与装置 |
CN104750397A (zh) * | 2015-04-09 | 2015-07-01 | 重庆邮电大学 | 一种基于体感的虚拟矿井自然交互方法 |
CN205080499U (zh) * | 2015-09-07 | 2016-03-09 | 哈尔滨市一舍科技有限公司 | 一种基于手势识别的虚拟现实交互设备 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5900393B2 (ja) * | 2013-03-21 | 2016-04-06 | ソニー株式会社 | 情報処理装置、操作制御方法及びプログラム |
CN103645807B (zh) * | 2013-12-23 | 2017-08-25 | 努比亚技术有限公司 | 空中姿态输入方法和装置 |
CN103713741B (zh) * | 2014-01-08 | 2016-06-29 | 北京航空航天大学 | 一种基于Kinect手势控制显示墙的方法 |
CN103927016B (zh) * | 2014-04-24 | 2017-01-11 | 西北工业大学 | 一种基于双目视觉的实时三维双手手势识别方法及其*** |
-
2015
- 2015-09-07 CN CN201510563540.5A patent/CN105045398B/zh not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9024842B1 (en) * | 2011-07-08 | 2015-05-05 | Google Inc. | Hand gestures to signify what is important |
CN103530061A (zh) * | 2013-10-31 | 2014-01-22 | 京东方科技集团股份有限公司 | 显示装置及控制方法、手势识别方法、头戴显示装置 |
CN104598915A (zh) * | 2014-01-24 | 2015-05-06 | 深圳奥比中光科技有限公司 | 一种手势识别方法与装置 |
CN104750397A (zh) * | 2015-04-09 | 2015-07-01 | 重庆邮电大学 | 一种基于体感的虚拟矿井自然交互方法 |
CN205080499U (zh) * | 2015-09-07 | 2016-03-09 | 哈尔滨市一舍科技有限公司 | 一种基于手势识别的虚拟现实交互设备 |
Also Published As
Publication number | Publication date |
---|---|
CN105045398A (zh) | 2015-11-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105045398B (zh) | 一种基于手势识别的虚拟现实交互设备 | |
CN105302295B (zh) | 一种具有3d摄像组件的虚拟现实交互设备 | |
CN105045399B (zh) | 一种具有3d摄像组件的电子设备 | |
CN105302294B (zh) | 一种交互式虚拟现实演示装置 | |
KR102097190B1 (ko) | 스마트 미러를 이용하여 실시간 운동 동작을 분석 및 디스플레이하기 위한 방법 및 이를 위한 스마트 미러 | |
CN105068662B (zh) | 一种用于人机交互的电子设备 | |
CN113238650B (zh) | 手势识别和控制的方法、装置及虚拟现实设备 | |
CN106598227B (zh) | 基于Leap Motion和Kinect的手势识别方法 | |
US9996797B1 (en) | Interactions with virtual objects for machine control | |
CN105868715B (zh) | 一种手势识别方法、装置及手势学习*** | |
CN102915111B (zh) | 一种腕上手势操控***和方法 | |
CN205080499U (zh) | 一种基于手势识别的虚拟现实交互设备 | |
US20150084859A1 (en) | System and Method for Recognition and Response to Gesture Based Input | |
US20200004403A1 (en) | Interaction strength using virtual objects for machine control | |
CN105160323B (zh) | 一种手势识别方法 | |
CN105980965A (zh) | 用于非接触式打字的***、设备和方法 | |
US20170192519A1 (en) | System and method for inputting gestures in 3d scene | |
CN112198962B (zh) | 一种与虚拟现实设备交互的方法及虚拟现实设备 | |
CN104838337A (zh) | 用于用户界面的无触摸输入 | |
CN105046249B (zh) | 一种人机交互方法 | |
CN105068646B (zh) | 终端的控制方法和*** | |
CN109145802B (zh) | 基于Kinect的多人手势人机交互方法及装置 | |
CN110663063B (zh) | 一种评价脸妆的方法及装置 | |
WO2012119371A1 (zh) | 一种用户交互***和方法 | |
CN109583261A (zh) | 身体信息分析装置及其辅助比对眉型方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: 150016 Heilongjiang Province, Harbin Economic Development Zone haping Road District Dalian road and Xingkai road junction Applicant after: HARBIN YISHE TECHNOLOGY Co.,Ltd. Address before: 150016 Heilongjiang City, Harbin province Daoli District, quiet street, unit 54, unit 2, layer 4, No. 3 Applicant before: HARBIN YISHE TECHNOLOGY Co.,Ltd. |
|
CB02 | Change of applicant information | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20180403 |