CN112198962B - 一种与虚拟现实设备交互的方法及虚拟现实设备 - Google Patents
一种与虚拟现实设备交互的方法及虚拟现实设备 Download PDFInfo
- Publication number
- CN112198962B CN112198962B CN202011061911.7A CN202011061911A CN112198962B CN 112198962 B CN112198962 B CN 112198962B CN 202011061911 A CN202011061911 A CN 202011061911A CN 112198962 B CN112198962 B CN 112198962B
- Authority
- CN
- China
- Prior art keywords
- finger
- preset
- point
- coordinate system
- coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开一种与虚拟现实设备交互的方法及虚拟现实设备,所述方法包括:接收摄像头拍摄的手部图像;在从手部图像中识别到预设手指时根据识别到的预设手指中骨骼关键点的相对位置,在用户界面中生成射线控件;根据所述射线控件的位置和用户界面中其他控件的位置,改变用户界面中所述射线控件所指向的控件的显示状态。一些实施例中,通过用户手指可以与虚拟现实设备交互,避免现有技术中使用的手柄所带来的不便。
Description
技术领域
0001.本发明涉及虚拟现实设备技术领域,尤其涉及一种与虚拟现实设备交互的方法及虚拟现实设备。
背景技术
0002.虚拟现实技术(英文全称:Virtual Reality,缩写为VR),其基本实现方式是模拟虚拟环境从而给人以环境沉浸感。随着社会生产力和科学技术的不断发展,各行各业对VR技术的需求日益旺盛。
0003.目前市面上的VR硬件设备,主要为VR头盔设备,穿戴之后让人身临其境的沉浸在虚拟的世界中。目前与VR头盔设备的交互方式主要为通过手持手柄进行交互,手柄通过蓝牙的方式连接上头盔,将手柄的位置、按键等信息传递给头盔,头盔做出相应的交互。目前手持手柄的缺陷为交互方式比较依赖手柄,当手柄没电时将失去较为方便可靠的交互设备,目前很多手柄较为沉重厚实,手持时间长后将是个负担。VR看重的是沉浸感,手持手柄进行交互操作不利于用户沉浸感的体验。
发明内容
0004.为解决上述技术问题,本发明提供一种与虚拟现实设备交互的方法及虚拟现实设备,以提升用户的使用体验。
0005.第一方面,本发明提供的一种虚拟现实设备,包括:
0006.显示器,用于显示用户界面;
0007.控制器,用于:
0008.接收摄像头拍摄的手部图像;
0009.在从手部图像中识别到预设手指时根据识别到的预设手指中骨骼关键点的相对位置,在用户界面中生成射线控件;
0010.根据所述射线控件的位置和用户界面中其他控件的位置,改变用户界面中所述射线控件所指向的控件的显示状态。
0011.第二方面,本发明提供的一种虚拟显示设备,包括:
0012.显示器,用于显示用户界面;
0013.控制器,用于:
0014.接收摄像头拍摄的图像;
0015.在从图像中识别到预设物品时根据识别到的预设物品的相对位置,在用户界面中生成射线控件;
0016.根据所述射线控件的位置和用户界面中其他控件的位置,改变用户界面中所述射线控件所指向的控件的显示状态。
0017.第三方面,本发明提供的一种与虚拟现实设备交互的方法,包括:
0018.接收摄像头拍摄的手部图像;
0019.在从手部图像中识别到预设手指时根据识别到的预设手指中骨骼关键点的相对位置,在用户界面中生成射线控件;
0020.根据所述射线控件的位置和用户界面中其他控件的位置,改变用户界面中所述射线控件所指向的控件的显示状态。
0021.第四方面,本发明提供的一种与虚拟现实设备交互的方法,包括:
0022.接收摄像头拍摄的图像;
0023.在从图像中识别到预设物品时根据识别到的预设物品的相对位置,在用户界面中生成射线控件;
0024.根据所述射线控件的位置和用户界面中其他控件的位置,改变用户界面中所述射线控件所指向的控件的显示状态。
0025.本申请提供的技术方案中,提供一种与虚拟现实设备交互的方法及虚拟现实设备,所述方法包括:接收摄像头拍摄的手部图像;在从手部图像中识别到预设手指时根据识别到的预设手指中骨骼关键点的相对位置,在用户界面中生成射线控件;根据所述射线控件的位置和用户界面中其他控件的位置,改变用户界面中所述射线控件所指向的控件的显示状态。一些实施例中,通过用户手指可以与虚拟现实设备交互,避免现有技术中使用的手柄所带来的不便。
附图说明
0026.为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
0027.图1中示例性示出了手部的骨骼关键点的示意图;
0028.图2中示例性示出了一种与虚拟现实设备交互的方法的流程图;
0029.图3中示例性示出了一种用户界面的示意图。
具体实施方式
0030.为使本申请的目的、实施方式和优点更加清楚,下面将结合本申请示例性实施例中的附图,对本申请示例性实施方式进行清楚、完整地描述,显然,所描述的示例性实施例仅是本申请一部分实施例,而不是全部的实施例。
0031.基于本申请描述的示例性实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请所附权利要求保护的范围。此外,虽然本申请中公开内容按照示范性一个或几个实例来介绍,但应理解,可以就这些公开内容的各个方面也可以单独构成一个完整实施方式。
0032.需要说明的是,本申请中对于术语的简要说明,仅是为了方便理解接下来描述的实施方式,而不是意图限定本申请的实施方式。除非另有说明,这些术语应当按照其普通和通常的含义理解。
0033.本申请中说明书和权利要求书及上述附图中的术语″第一″、″第二″、″第三″等是用于区别类似或同类的对象或实体,而不必然意味着限定特定的顺序或先后次序,除非另外注明(Unless otherwise indicated)。应该理解这样使用的用语在适当情况下可以互换,例如能够根据一些实施例图示或描述中给出那些以外的顺序实施。
0034.此外,术语″包括″和″具有″以及他们的任何变形,意图在于覆盖但不排他的包含,例如,包含了一系列组件的产品或设备不必限于清楚地列出的那些组件,而是可包括没有清楚地列出的或对于这些产品或设备固有的其它组件。
0035.本申请中使用的术语″模块″,是指任何已知或后来开发的硬件、软件、固件、人工智能、模糊逻辑或硬件或/和软件代码的组合,能够执行与该元件相关的功能。
0036.目前市面上的VR硬件设备,主要为VR头盔设备,穿戴之后让人身临其境的沉浸在虚拟的世界中。目前与VR头盔设备的交互方式主要为通过手持手柄进行交互,手柄通过蓝牙的方式连接上头盔,将手柄的位置、按键等信息传递给头盔,头盔做出相应的交互。目前手持手柄的缺陷为交互方式比较依赖手柄,当手柄没电时将失去较为方便可靠的交互设备,目前很多手柄较为沉重厚实,手持时间长后将是个负担。VR看重的是沉浸感,手持手柄进行交互操作不利于用户沉浸感的体验。
0037.而一些实施例中使用的与虚拟现实设备的交互方式为使用手势进行交互,这样可以避免使用手柄给用户带来的不便。
0038.一些实施例中虚拟现实设备可以自身设置有摄像头,也可以外接摄像头。打开虚拟现实设备后,设备开机显示用户界面,同时启动摄像头,摄像头开启后即可对手势进行动作捕捉,将捕捉到的手部图像实时渲染到虚拟现实设备的3D用户界面中。
0039.一些实施例中,所述虚拟现实设备带有双目摄像头,示例性的所述虚拟现实设备为VR头盔设备。
0040.一些实施例中的所述双目摄像头设置有两个摄像头。双目摄像头就像人的双目,可以通过立体成像,获取所拍摄物体的深度信息,即人眼看到的世界是三维的,双目摄像头捕捉到的世界也是三维的。另外,只要能获得物体的深度信息,也可以不限制摄像头的数量。
0041.一些实施例提供一种与虚拟现实设备交互的方法,一些实施例支持识别手指代替手柄进行操作,通过手指与虚拟显示设备进行交互操作,代替手柄提供的执行高亮等操作,。如图1所示,所述方法包括:
0042.S100、接收摄像头拍摄的手部图像。
0043.S200、在从手部图像中识别到预设手指时根据识别到的预设手指中骨骼关键点的相对位置,在用户界面中生成射线控件。
0044.一些实施例中,还可以从摄像头接收摄像头根据拍摄到的手部图像生成的手部骨骼点数据,并根据手部骨骼点数据在用户界面中生成射线控件。
0045.一些实施例中,由于右手为大部分人的习惯用手,所以所述预设手指可以为右手食指,当然,一些实施例也可以为了便于将左手作为习惯用手的用户,将所述预设手指设置为左手食指。另外,为了避免用户一直使用食指易疲劳,也可以将左手或右手上的任一手指作为预设手指。
0046.一些实施例中可以将其他手指弯曲时,用户伸出的手指作为预设手指。
0047.一些实施例中,在从手部图像中识别预设手指之前,所述方法还包括:从手部图像中识别第一预设手势;在识别到所述第一预设手势时,进行预设手指的识别;在从手部图像中识别不到第一预设手势,则不从手部图像中识别预设手指。示例性的,第一预设手势为只有预设手指伸出,其他手指握紧。这样可以对射线控件的生成进行预设手势的触发,避免了无意义的手指识别。
0048.在一些实施例中,虚拟现实设备的手势识别功能可以开启或者关闭,一般默认为开启。
0049.一些实施例中,当用户伸开手掌在虚拟现实设备前挥动两下,设备识别到手势后将手势交互功能关闭。当手势交互功能处于关闭状态时,可通过同样的手势手掌在虚拟现实设备前挥动两下,将手势交互功能开启。在另一些实施例中,也可通过辅助操作,例如使用虚拟现实设备上的按键操作,选择用户界面中的手势交互功能将其开启。
0050.一些实施例中,所述在从手部图像中识别到预设手指时根据识别到的预设手指中骨骼关键点的相对位置,在用户界面中生成射线控件的步骤包括:
0051.识别所述手部图像中的预设手指在第一三维坐标系中的预设手指坐标集,所述预设手指坐标集表征预设手指中骨骼关键点的相对位置;
0052.根据所述预设手指坐标集,确定在第二三维坐标系中射线控件的位置坐标。一些实施例的第二三维坐标系为用户界面中的坐标系。
0053.根据所述射线控件的位置坐标,在所述用户界面中生成所述射线控件。
0054.一些实施例中,所述根据所述预设手指坐标集,确定在第二三维坐标系中射线控件的位置坐标的步骤包括:
0055.将所述第一三维坐标系中的预设手指坐标集,转化为第二三维坐标系中的预设手指坐标集;
0056.示例性的,图2中的第一骨骼点(在图2中标注为5)、第二骨骼点(在图2中标注为6)、第三骨骼点(在图2中标注为7)和第四骨骼点(在图2中标注为8)在第一三维坐标系中的坐标分别为Vector(三维向量坐标)1,Vector2,Vector3,Vector4,此时将第一骨骼点设置为第二三维坐标系的原点(0,0,0),此时第二骨骼点、第三骨骼点和第四骨骼点对应的第二三维坐标系的坐标通过以下公式计算:
0057.第二骨骼点对应的第二三维坐标系的坐标=Vector2-Vector1+(0,0,0);
0058.第三骨骼点对应的第二三维坐标系的坐标=Vector3-Vector1+(0,0,0);
0059.第四骨骼点对应的第二三维坐标系的坐标=Vector4-Vector1+(0,0,0)。
0060.一些实施例中,所述第二三维坐标系为Unity世界坐标系。
0061.筛选出第二三维坐标系中的预设手指坐标集中的预设骨骼关键点的坐标;
0062.根据预设骨骼关键点的坐标,确定在第二三维坐标系中射线控件的位置坐标。
0063.一些实施例中,所述根据预设骨骼关键点的坐标,确定在第二三维坐标系中射线控件的位置坐标的步骤包括:
0064.所述预设手指上全部骨骼关键点包括按照由指根到指尖方向排列的第一骨骼点、第二骨骼点、第三骨骼点和第四骨骼点,其中,所述预设骨骼关键点包括第三骨骼点和第四骨骼点;
0065.确定在第二三维坐标系中射线控件的位置坐标,其中,所述射线控件位于预设手指的指尖和所述用户界面中其他控件之间,并将所述射线控件的方向设置为第三骨骼点指向第四骨骼点,指尖坐标可以通过第四骨骼点的坐标确定。
0066.S300、根据所述射线控件的位置和用户界面中其他控件的位置,改变用户界面中所述射线控件所指向的控件的显示状态。
0067.一些实施例中,用户界面中的其他控件在第二二维坐标系中也相应有对应的位置,根据射线控件的位置和用户界面中其他控件的位置,可以利用射线控件的方向,确定射线控件所指向的控件,并控制该控件改变显示状态,示例性的,如图3所示。一些实施例中,所述射线控件的长度可以根据射线控件所指物体动态改变长短,示例性的,一些实施例中用户使用虚拟显示设备所看到的用户界面还包括3D画面的背景。当指向控件时,射线的长度为手指到控件的长度,当未指向控件时,射线控件的长度可以变长,指向远处的3D画面。
0068.在一些实施例中,以第二坐标系为Unity坐标系为例,处理器需要根据待显示的图像在Unity坐标系中进行渲染,然后根据渲染后的数据进行三维投影,或者,在显示器包括左眼子显示器和右眼子显示器时,根据渲染后的数据获取两个不同视角的图像分别显示在左眼子显示器和右眼子显示器上,或者,在显示器仅仅包括一个立体显示器时,根据渲染后的数据获取两个不同视角的图像分时的显示在立体显示器上,以根据视觉暂留效应使用户″看″到立体图像。
0069.在一些实施例中,射线控件的渲染也需要在Unity坐标系中进行,射线渲染完成后才开始进行三维投影或不同视角的图像的生成。
0070.在一些实施例中,射线控件的长度是确定的,在Unity坐标系中根据射线控件长度方向上所在的直线和待显示凸显的控件的位置确定被指向的控件来进行突出显示;
0071.在一些实施例中,根据在Unity坐标系中根据射线控件长度方向上所在的直线和待显示图像的焦点确定射线控件的长度,并将射线控件长度方向上所在的直线和待显示凸显的控件的位置确定被指向的控件来进行突出显示。
0072.一些实施例中,所述改变用户界面中所述射线控件指向的控件的显示状态以进行突出显示的步骤包括:
0073.将用户界面中被所述射线控件指向的控件显示为高亮状态;
0074.或者将所述控件放大,并显示在所述手部和所述控件所处原位置之间。
0075.一些实施例中,在生成射线控件的同时还生成虚拟手部控件,虚拟手部控件位于射线控件的远离所述带显示图像的一端,所述方法还包括:根据识别出的手部图像,控制用户界面中虚拟手部控件的生成:
0076.确定第一三维坐标系中的手部坐标集;
0077.将所述第一三维坐标系中的手部坐标集,转化为第二三维坐标系中的手部坐标集;根据所述第二三维坐标系中的手部坐标集,生成用户界面上的手部控件。
0078.一些实施例中,在虚拟现实设备开启后,如果手部在摄像头的检测范围内,则在虚拟现实设备的用户界面中显示出一个手部控件,根据手部追踪技术,实时捕捉真实的位置以及手势同时根据此数据,将虚拟的手部实时渲染到虚拟现实设备的用户界面中。
0079.手部控件的渲染在Unity(游戏引擎)引擎层进行渲染,技术实现流程为:Android端(安卓端)获取双目摄像头中图像的手指以及上臂躯干的骨骼关键点的点阵数据,包括骨骼关键点名称,骨骼关键点的(X,Y,Z)坐标;将Android端获取的上述数据,以Json字符串的形式传递给Unity,Android端将每帧图像中的数据向Unity传递;Unity对Android端传递过来的数据,进行处理,将传过来的(X,Y,Z)坐标校正为Unity世界坐标系。校正方式为,将双目摄像头拍摄的图像的交叉部分的中心点,作为Unity世界坐标系的中心点,如果手部关键点的位置对于双目摄像头所拍摄到的交叉图像有位置偏差,则根据此位置对于双目摄像头的中心点的偏移量,对应将此偏移量校正到Unity世界坐标系中心点的偏移量,即可完成双目摄像头传递过来的(X,Y,Z)坐标转换为Unity世界坐标系。
0080.Unity端实时获取到Android端传递过来的关键点的坐标并转换为Unity世界坐标系后,按照骨骼关键点的坐标进行手部绘制,每个手掌包括21个骨骼关键点,如图2所示,利用手部骨骼关键点和手部的厚度,所述手部的厚度是指手指的宽度或者手掌的宽度,确定手部轮廓点,使用Unity的线渲染器(LineRender)将手部轮廓绘制出来。所述手部轮廓点是与手部骨骼关键点的距离为手部的厚度,且在手部骨骼关键点的两侧的轮廓点。根据手部轮廓,将手部填充颜色。一些实施例中,将手部填充颜色的透明度设为70%,Unity端的手部绘制就完成了。
0081.Unity端的手部绘制完成后,就可以将穿戴虚拟现实设备的使用者的真实的手部动作实时显示在虚拟现实设备的用户界面中,对使用者的手势进行识别即可响应特定的操作,手势识别的技术实现流程如下:
0082.手势识别基于虚拟现实设备的双目摄像头实现。从双目摄像头采集使用者手势动作的左右视觉图像,进行立体匹配,获得视觉差异图像,利用摄像机的内参数以及外参数进行三角计算以获取深度图像。对视觉图像使用手势分割算法进行分割,将人手与背景环境进行分割,实现对人手的抠图。使用手势跟踪算法对手进行跟踪,实时获取手的位置信息。通过手部识别算法,可以获取到手部的关节点。根据获取到的手部的信息以及位置信息,可以对手部以及上肢进行实时绘制。根据手势跟踪算法和手部关节点的运动轨迹,对手势进行识别匹配,例如比剪刀手的手势,两根手指捏的手势等。
0083.一些实施例中,所述方法还包括:根据预设手指上全部骨骼关键点的坐标,确定手指轮廓坐标,所述手指轮廓坐标用于绘制用户界面上的手指图像。
0084.一些实施例中,所述根据预设手指上全部骨骼关键点的坐标,确定手指轮廓坐标的步骤包括:
0085.将预设手指上的各个骨骼关键点作为中心点,利用预设手指宽度,确定所述每个骨骼关键点对应的手指两侧边缘坐标;
0086.利用所述手指两侧边缘坐标和指尖坐标,确定手指轮廓坐标。
0087.示例性的,第四骨骼点对应的UNITY世界坐标为(x,y,z),预设手指宽度为0.13,则与第四骨骼点对应的手指两侧边缘坐标分别为(x-0.13,y,z),(x+0.13,y,z)。
0088.由于第四骨骼点是最临近指尖的骨骼关键点,所以利用所述第四骨骼点的UNITY世界坐标,生成指尖坐标。示例性的,设置第四骨骼点到手指上端边缘的距离为0.13,则指尖坐标为(x,y+0.13,z)。
0089.一些实施例通过手指上的四个骨骼关键点分别对应的手指两侧边缘坐标,以及指尖坐标,一共九个坐标点,确定手指轮廓坐标。在一些实施例中,根据手指轮廓坐标,利用贝塞尔曲线,绘制手指图像时,可以将手指图像的填充透明度设置为0.7颜色值。
0090.一些实施例中,所述方法还包括:当用户移动预设手指,用户界面上的手指图像实时发生相应移动,以选中不同的其他控件。
0091.一些实施例中,所述方法还包括:当用户移动头部,根据头部的移动使射线控件的坐标同向移动,以使得所述射线控件在视窗中的相对位置保持不变。当用户移动头部时,用户界面的中间位置显示的内容,可以根据头部移动方向发生变化。示例性的,当用户移动头部向左,则用户可以看到用户界面的中间位置由原来显示的内容,变化为位于原来显示的内容左侧对应的内容。为了避免射线控件由于用户头部转动而导致头部和实际手部存在一定角度差,造成的射线控件移动,使用户在观看用户界面时产生不适感。一些实施例当用户移动头部时,控制射线控件的坐标同向移动,使得射线控件在视窗中的相对位置保持不变。所述视窗是指用户通过虚拟现实设备看到的全部用户界面。这样,当用户移动头部,射线控件显示位置依旧不变。一些实施例中,当虚拟现实设备初始化时,可以重新设定射线控件的位置。
0092.一些实施例中,所述方法还包括:在用户界面中所述射线控件所指向的控件的显示状态改变后,识别到第二预设手势,则根据所述被指的控件对应的链接内容进行用户界面的切换。示例性的,第二预设手势可以为用户的大拇指和中指的捏手动作。
0093.一些实施例中,所述方法还包括:在用户界面中所述射线控件指向的控件的显示状态改变后,识别到第三预设手势,控制所述控件恢复为原有显示状态。示例性的,第三预设手势可以为用户的大拇指和无名指的捏手动作。
0094.一些实施例除了可以利用手指,与虚拟现实设备交互,在另一些实施例中,还可以使用其他物品代替手指,实现与虚拟现实设备的交互。
0095.一些实施例提供的另一种与虚拟现实设备交互的方法,如图3所示,包括:
0096.接收摄像头拍摄的图像;在从图像中识别到预设物品时根据识别到的预设物品的相对位置,在用户界面中生成射线控件;根据所述射线控件的位置和用户界面中其他控件的位置,改变用户界面中所述射线控件所指向的控件的显示状态。
0097.示例性的,所述预设物品可以为一支笔,当识别到笔,可以通过确定笔的位置以及笔尖的指向,绘制射线控件,当然一些实施例中也不限制于预设物品的种类,只要不违背本申请的意图即可。
0098.在一些实施例中,在虚拟现实设备发生移动时,重新获取手部图像来进行射线控件的生成。
0099.在一些实施例中,在虚拟现实设备发生移动时,根据移动的三维变量,在第二坐标系中移动射线控件的坐标,以使得维持射线控件在显示窗口中的位置相对稳定。
0100.在一些实施例中,在虚拟现实设备发生移动时,根据移动的三维变量,确定待显示的图像区域,在视窗控件位置展示带显示的图像。
0101.本领域的技术人员可以清楚地了解到本发明实施例中的技术可借助软件加必需的通用硬件平台的方式来实现。具体实现中,本发明还提供一种计算机存储介质,其中,该计算机存储介质可存储有程序,当计算机存储介质位于显示设备中时,该程序执行时可包括控制器250被配置执行的与虚拟现实设备交互的方法包括的程序步骤。其中,计算机存储介质可为磁碟、光盘、只读存储记忆体(英文:read-only memory,简称:ROM)或随机存储记忆体(英文:random access memory,简称:RAM)等。
0102.本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明的其它实施方案。本发明旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本发明未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,并不构成对本发明保护范围的限定。本发明的真正范围和精神由所附的权利要求指出。
Claims (10)
1.一种虚拟现实设备,其特征在于,包括:
显示器,用于显示用户界面;
控制器,用于:
接收摄像头拍摄的手部图像;
在从手部图像中识别到预设手指时,识别所述手部图像中的预设手指在第一三维坐标系中的预设手指坐标集,所述预设手指坐标集表征所述预设手指中骨骼关键点的相对位置,其中,所述预设手指坐标集包括由指尖方向到指根方向排列的第一骨骼点、第二骨骼点、第三骨骼点和第四骨骼点的坐标,所述第四骨骼点指示预设手指的指尖,所述第三骨骼点指示距离指尖最近的关节点,所述第一骨骼点指示预设手指的指根;
将所述第一三维坐标系中的预设手指坐标集,转化为第二三维坐标系中的预设手指坐标集,所述第二三维坐标系的坐标原点为所述第一骨骼点,所述第二三维坐标系和第一三维坐标系不同,所述用户界面位于所述第二三维坐标系中;
将所述第四骨骼点在所述第二三维坐标系的坐标作为起点,并根据所述第二三维坐标系中的所述第三骨骼点指向第四骨骼点的方向作为射线方向,绘制可见的射线控件,在所述用户界面上显示所述射线控件;
当所述射线控件指向用户界面中的其他控件时,改变所述其他控件的显示状态。
2.根据权利要求1所述的虚拟现实设备,其特征在于,所述控制器,还用于:根据第二三维坐标系中预设手指上全部骨骼关键点的坐标,确定手指轮廓坐标,所述手指轮廓坐标用于绘制用户界面上的手指图像。
3.根据权利要求2所述的虚拟现实设备,其特征在于,所述控制器按照下述步骤执行根据预设手指上全部骨骼关键点的坐标,确定手指轮廓坐标:
将预设手指上的各个骨骼关键点作为中心点,利用预设手指宽度,确定所述每个骨骼关键点对应的手指两侧边缘坐标;
利用所述手指两侧边缘坐标和指尖坐标,确定手指轮廓坐标。
4.根据权利要求1所述的虚拟现实设备,其特征在于,所述控制器,还用于:
当识别到用户移动手部时,在原有的第二三维坐标系中,确定移动后手部的预设手指坐标集;将移动后手部的预设手指坐标集中的第四骨骼点的坐标作为起点,并根据所述第三骨骼点指向第四骨骼点的方向作为射线方向,绘制新的可见的射线控件,以选中不同的其他控件。
5.根据权利要求1所述的虚拟现实设备,其特征在于,所述控制器被配置为按照下述步骤执行改变用户界面中所述射线控件指向的控件的显示状态:
将用户界面中被所述射线控件指向的控件显示为高亮状态;
或者将所述控件放大,并显示在所述手部和所述控件所处原位置之间。
6.根据权利要求1所述的虚拟现实设备,其特征在于,所述控制器,还用于:当用户移动头部,根据头部的移动使射线控件的坐标同向移动,以使得所述射线控件在视窗中的相对位置保持不变。
7.根据权利要求1所述的虚拟现实设备,其特征在于,所述控制器在从手部图像中识别预设手指之前,还用于:
从手部图像中识别第一预设手势;
在识别到所述第一预设手势时进行预设手指的识别;
在从手部图像中识别不到第一预设手势,则不从手部图像中识别预设手指。
8.根据权利要求1所述的虚拟现实设备,其特征在于,所述控制器,还用于:在用户界面中所述射线控件所指向的控件的显示状态改变后,识别到第二预设手势,则根据所述被指的控件对应的链接内容进行用户界面的切换。
9.根据权利要求1所述的虚拟现实设备,其特征在于,所述控制器,还用于:在用户界面中所述射线控件指向的控件的显示状态改变后,识别到第三预设手势,控制所述控件恢复为原有显示状态。
10.一种与虚拟现实设备交互的方法,其特征在于,包括:
接收摄像头拍摄的手部图像;
在从手部图像中识别到预设手指时,识别所述手部图像中的预设手指在第一三维坐标系中的预设手指坐标集,所述预设手指坐标集表征所述预设手指中骨骼关键点的相对位置,其中,所述预设手指坐标集包括由指尖方向到指根方向排列的第一骨骼点、第二骨骼点、第三骨骼点和第四骨骼点的坐标,所述第四骨骼点指示预设手指的指尖,所述第三骨骼点指示距离指尖最近的关节点,所述第一骨骼点指示预设手指的指根;
将所述第一三维坐标系中的预设手指坐标集,转化为第二三维坐标系中的预设手指坐标集,所述第二三维坐标系的坐标原点为所述第一骨骼点,所述第二三维坐标系和第一三维坐标系不同,用户界面位于所述第二三维坐标系中;
将所述第四骨骼点在所述第二三维坐标系的坐标作为起点,并根据所述第二三维坐标系中的所述第三骨骼点指向第四骨骼点的方向作为射线方向,绘制可见的射线控件,在所述用户界面上显示所述射线控件;
当所述射线控件指向用户界面中的其他控件时,改变所述其他控件的显示状态。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011061911.7A CN112198962B (zh) | 2020-09-30 | 2020-09-30 | 一种与虚拟现实设备交互的方法及虚拟现实设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011061911.7A CN112198962B (zh) | 2020-09-30 | 2020-09-30 | 一种与虚拟现实设备交互的方法及虚拟现实设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112198962A CN112198962A (zh) | 2021-01-08 |
CN112198962B true CN112198962B (zh) | 2023-04-28 |
Family
ID=74013569
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011061911.7A Active CN112198962B (zh) | 2020-09-30 | 2020-09-30 | 一种与虚拟现实设备交互的方法及虚拟现实设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112198962B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112817447B (zh) * | 2021-01-25 | 2024-05-07 | 暗物智能科技(广州)有限公司 | 一种ar内容显示方法及*** |
US20220308659A1 (en) * | 2021-03-23 | 2022-09-29 | Htc Corporation | Method for interacting with virtual environment, electronic device, and computer readable storage medium |
CN113238650B (zh) * | 2021-04-15 | 2023-04-07 | 青岛小鸟看看科技有限公司 | 手势识别和控制的方法、装置及虚拟现实设备 |
CN113282166A (zh) * | 2021-05-08 | 2021-08-20 | 青岛小鸟看看科技有限公司 | 头戴式显示设备的交互方法、装置及头戴式显示设备 |
US11954266B2 (en) | 2021-12-20 | 2024-04-09 | Htc Corporation | Method for interacting with virtual world, host, and computer readable storage medium |
CN117173734A (zh) * | 2022-05-27 | 2023-12-05 | 腾讯科技(深圳)有限公司 | 手掌轮廓提取、控制指令生成方法、装置和计算机设备 |
CN115145395B (zh) * | 2022-07-01 | 2023-12-12 | 山西极智峰数字科技有限公司 | 虚拟现实交互控制方法、***及虚拟现实设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103971102A (zh) * | 2014-05-21 | 2014-08-06 | 南京大学 | 基于手指轮廓和决策树的静态手势识别方法 |
CN105867599A (zh) * | 2015-08-17 | 2016-08-17 | 乐视致新电子科技(天津)有限公司 | 一种手势操控方法及装置 |
CN106325509A (zh) * | 2016-08-19 | 2017-01-11 | 北京暴风魔镜科技有限公司 | 三维手势识别方法及*** |
CN107340868A (zh) * | 2017-07-05 | 2017-11-10 | 北京奇艺世纪科技有限公司 | 一种数据处理方法、装置及vr设备 |
CN108230383A (zh) * | 2017-03-29 | 2018-06-29 | 北京市商汤科技开发有限公司 | 手部三维数据确定方法、装置及电子设备 |
CN108549490A (zh) * | 2018-05-03 | 2018-09-18 | 林潼 | 一种基于Leap Motion设备的手势识别互动方法 |
CN109196447A (zh) * | 2016-03-31 | 2019-01-11 | 奇跃公司 | 使用姿势和多dof控制器与3d虚拟对象的交互 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080136775A1 (en) * | 2006-12-08 | 2008-06-12 | Conant Carson V | Virtual input device for computing |
-
2020
- 2020-09-30 CN CN202011061911.7A patent/CN112198962B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103971102A (zh) * | 2014-05-21 | 2014-08-06 | 南京大学 | 基于手指轮廓和决策树的静态手势识别方法 |
CN105867599A (zh) * | 2015-08-17 | 2016-08-17 | 乐视致新电子科技(天津)有限公司 | 一种手势操控方法及装置 |
CN109196447A (zh) * | 2016-03-31 | 2019-01-11 | 奇跃公司 | 使用姿势和多dof控制器与3d虚拟对象的交互 |
CN106325509A (zh) * | 2016-08-19 | 2017-01-11 | 北京暴风魔镜科技有限公司 | 三维手势识别方法及*** |
CN108230383A (zh) * | 2017-03-29 | 2018-06-29 | 北京市商汤科技开发有限公司 | 手部三维数据确定方法、装置及电子设备 |
CN107340868A (zh) * | 2017-07-05 | 2017-11-10 | 北京奇艺世纪科技有限公司 | 一种数据处理方法、装置及vr设备 |
CN108549490A (zh) * | 2018-05-03 | 2018-09-18 | 林潼 | 一种基于Leap Motion设备的手势识别互动方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112198962A (zh) | 2021-01-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112198962B (zh) | 一种与虚拟现实设备交互的方法及虚拟现实设备 | |
US20210177124A1 (en) | Information processing apparatus, information processing method, and computer-readable storage medium | |
US20220084279A1 (en) | Methods for manipulating objects in an environment | |
US11947729B2 (en) | Gesture recognition method and device, gesture control method and device and virtual reality apparatus | |
CN105045398B (zh) | 一种基于手势识别的虚拟现实交互设备 | |
US10095030B2 (en) | Shape recognition device, shape recognition program, and shape recognition method | |
CN103793060B (zh) | 一种用户交互***和方法 | |
JP5936155B2 (ja) | 3次元ユーザインタフェース装置及び3次元操作方法 | |
CN110363867B (zh) | 虚拟装扮***、方法、设备及介质 | |
JP6057396B2 (ja) | 3次元ユーザインタフェース装置及び3次元操作処理方法 | |
CN110456907A (zh) | 虚拟画面的控制方法、装置、终端设备及存储介质 | |
CN109144252B (zh) | 对象确定方法、装置、设备和存储介质 | |
KR20140010616A (ko) | 3d 가상 객체에 대한 조작 처리 장치 및 방법 | |
CN107357434A (zh) | 一种虚拟现实环境下的信息输入设备、***及方法 | |
US20240104813A1 (en) | Techniques for enabling drawing in a computer-generated reality environment | |
JP6506443B1 (ja) | 画像生成装置及び画像生成プログラム | |
US10171800B2 (en) | Input/output device, input/output program, and input/output method that provide visual recognition of object to add a sense of distance | |
CN110717993B (zh) | 一种分体式ar眼镜***的交互方法、***及介质 | |
KR101719927B1 (ko) | 립 모션을 이용한 실시간 메이크업 미러 시뮬레이션 장치 | |
CN106502401A (zh) | 一种图像控制方法及装置 | |
CN109102571B (zh) | 一种虚拟影像的控制方法、装置、设备及其存储介质 | |
CN109144235A (zh) | 基于头手协同动作的人机交互方法与*** | |
WO2024131405A1 (zh) | 对象移动控制方法、装置、设备及介质 | |
CN117435055A (zh) | 基于空间立体显示器的手势增强眼球追踪的人机交互方法 | |
CN115407878A (zh) | 一种xr手势输入实现方法和*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |