CN115129164B - 基于虚拟现实的交互控制方法、***及虚拟现实设备 - Google Patents
基于虚拟现实的交互控制方法、***及虚拟现实设备 Download PDFInfo
- Publication number
- CN115129164B CN115129164B CN202211057017.1A CN202211057017A CN115129164B CN 115129164 B CN115129164 B CN 115129164B CN 202211057017 A CN202211057017 A CN 202211057017A CN 115129164 B CN115129164 B CN 115129164B
- Authority
- CN
- China
- Prior art keywords
- user
- action
- hand
- picture
- virtual reality
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 230000003993 interaction Effects 0.000 title claims abstract description 25
- 230000009471 action Effects 0.000 claims abstract description 187
- 230000033001 locomotion Effects 0.000 claims abstract description 130
- 230000000875 corresponding effect Effects 0.000 claims abstract description 56
- 230000002452 interceptive effect Effects 0.000 claims abstract description 31
- 239000011521 glass Substances 0.000 claims abstract description 17
- 238000004590 computer program Methods 0.000 claims description 8
- 238000013507 mapping Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000012790 confirmation Methods 0.000 claims description 6
- 238000012544 monitoring process Methods 0.000 claims description 5
- 230000003068 static effect Effects 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000005452 bending Methods 0.000 description 2
- 230000001276 controlling effect Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 241001464837 Viridiplantae Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000010813 municipal solid waste Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明提出一种基于虚拟现实的交互控制方法、***及虚拟现实设备,包括以下步骤:通过VR头盔或者VR眼镜接收虚拟现实画面,接收用户选择的虚拟人物;根据角度感应器确定用户头部朝向,根据振动传感器确定用户运动状态,将用户头部朝向和用户运动状态进行整合得到运动信息,将运动信息同步至虚拟现实画面中的虚拟人物;在虚拟现实画面中显示人物操作信息,人物操作信息包括动作指令和对应的预设操作动作,预设操作动作包括预设手势动作以及预设身体动作;对用户的实际操作动作进行识别,当实际操作动作与预设操作动作中的一个相同时,使得虚拟人物执行对应的动作指令。如此,用户能够轻松简单的进行交互控制,体验感好。
Description
技术领域
本发明涉及虚拟现实技术领域,具体是涉及一种基于虚拟现实的交互控制方法、***及虚拟现实设备。
背景技术
虚拟现实(VirtualReality,VR)技术是一种先进的、数字化的人机接口技术,其特点在于计算机产生一种人为虚拟的环境,生成一个以视觉感受为主,包括听觉、触觉的综合感知的人工环境,人们可以通过视觉、听觉、触觉和加速度等多种感觉通道感知计算机虚拟的虚拟世界,也可以也通过移动、语音、动作等最自然的方式和虚拟世界交互,从而产生身临其境的体验。
目前,市场上的虚拟现实游戏有以手柄作为交互设备,用户可通过操控游戏手柄体验游戏中的虚拟场景。但是,用户在体验虚拟现实游戏时,往往会戴上VR头盔或者VR眼镜,无法看见操控手柄的按键,对于初玩者来说,交互体验极差。因此,需要提供一种基于虚拟现实的交互控制方法、***及虚拟现实设备,旨在解决上述问题。
发明内容
鉴于上述状况,本发明的主要目的是为了提出一种基于虚拟现实的交互控制方法、***及虚拟现实设备,以解决上述背景技术中存在的问题。
本发明实施例提出一种基于虚拟现实的交互控制方法,所述方法包括以下步骤:
通过VR头盔或者VR眼镜接收虚拟现实画面,接收用户选择的虚拟人物;
根据角度感应器确定用户头部朝向,根据振动传感器确定用户运动状态,将用户头部朝向和用户运动状态进行整合得到运动信息,将运动信息同步至虚拟现实画面中的虚拟人物;
在虚拟现实画面中显示人物操作信息,所述人物操作信息包括动作指令和对应的预设操作动作,所述预设操作动作包括预设手势动作以及预设身体动作;
对用户的实际操作动作进行识别,当实际操作动作与预设操作动作中的一个相同时,使得虚拟人物执行对应的动作指令。
所述一种基于虚拟现实的交互控制方法,其中,所述根据角度感应器确定用户头部朝向,根据振动传感器确定用户运动状态,将用户头部朝向和用户运动状态进行整合得到运动信息的步骤,具体包括:
根据VR头盔或者VR眼镜中安装的陀螺仪确定用户头部朝向,所述陀螺仪即为角度感应器;
根据振动传感器的监测数据判定用户是否进行原地走路;
将用户头部朝向和用户是否进行原地走路进行整合得到运动信息,当用户没有进行原地走路,则运动信息为虚拟人物静止且朝向用户头部朝向的一侧;当用户有进行原地走路,则运动信息为虚拟人物朝着用户头部朝向的方向向前运动。
所述一种基于虚拟现实的交互控制方法,其中,虚拟人物在虚拟现实画面中的运动速度的计算方法包括如下步骤:
通过摄像头动态采集用户的脚部运动状态信息,所述脚部运动状态信息包括多张脚部运动图片,其中每张脚部运动图片对应有一运动时间点;
根据每张所述脚部运动图片以及对应的运动时间点,计算得到用户的脚部运动频次;
根据所述脚部运动图片获取得到用户的单脚平均离地高度;
根据用户的脚部运动频次以及用户的单脚平均离地高度,计算得到虚拟人物在虚拟现实画面中的运动速度。
所述一种基于虚拟现实的交互控制方法,其中,虚拟人物在虚拟现实画面中的运动速度的公式表示为:
其中,表示虚拟人物在虚拟现实画面中的运动速度,表示基准运动速度,表示用户的脚部运动频次,表示标准脚部运动频次,表示用户的单脚平均离地高度,表示第一权重系数,表示第二权重系数,表示用户有进行原地走路,表示用户没有进行原地走路。
所述一种基于虚拟现实的交互控制方法,其中,所述对用户的实际操作动作进行识别,当实际操作动作与预设操作动作中的一个相同时,使得虚拟人物执行对应的动作指令的方法包括如下步骤:
通过摄像头采集用户的实际操作动作,其中所述实际操作动作包括实际手势动作以及实际身体动作;
在通过摄像头采集到用户的实际操作动作后,通过第一虚拟框对用户的手部进行框选以得到实际手势动作,通过第二虚拟框对用户的躯干部位进行框选以得到实际身体动作;
将所述实际手势动作与预设手势动作进行比对,以及将所述实际身体动作与预设身体动作进行比对;
当判断到所述实际手势动作与预设手势动作相一致时,则对虚拟人物执行与所述预设手势动作对应的动作指令;
当判断到所述实际身体动作与预设身体动作相一致时,则对虚拟人物执行与所述预设身体动作对应的动作指令。
所述一种基于虚拟现实的交互控制方法,其中,所述方法还包括如下步骤:
通过摄像头在第一虚拟框中获取用户的手部图片,判断所述手部图片是否同时包含左手图片与右手图片;
当判断到所述手部图片同时包含左手图片与右手图片,则通过所述左手图片获取对应的左手实际手势动作,以及通过所述右手图片获取对应的右手实际手势动作;
当左手实际手势动作与对应的其中一个左手预设手势动作相同,则对应执行左手的动作指令;当右手实际手势动作与对应的其中一个右手预设手势动作相同,则对应执行右手的动作指令。
所述一种基于虚拟现实的交互控制方法,其中,所述方法还包括如下步骤:
通过摄像头在第一虚拟框中获取用户的手部图片,判断所述手部图片是否同时包含左手图片与右手图片;
当判断到所述手部图片仅为单手图片,则在虚拟现实画面中生成第一交互窗口,所述第一交互窗口用于接收用户进行单手操作模式的确认点击信号;
当接收到用户进行单手操作模式的确认点击信号之后,生成第二交互窗口,所述第二交互窗口为针对左手与右手之间操作规则的选项列表框;
若判断到所述手部图片为左手图片,则接收到针对于所述第二交互窗口中选项列表框的选择信号之后,根据所选定的左手与右手之间的操作规则,对未进行操作的右手进行动作映射;
若判断到所述手部图片为右手图片,则接收到针对于所述第二交互窗口中选项列表框的选择信号之后,根据所选定的左手与右手之间的操作规则,对未进行操作的左手进行动作映射。
所述一种基于虚拟现实的交互控制方法,其中,判定实际手势动作是否与其中一个预设手势动作匹配成功时,需要将摄像头采集到的图片与每一个操作手势对应的图像进行相似度计算,具体包括如下步骤:
用基于DCT的hash方法分别计算采集到的图片与操作手势图像的hash值,得到h_1和h_2;
计算h_1和h_2之间的汉明距离dis_h;
根据汉明距离dis_h计算得到采集到的图片与操作手势图像之间的相似度,当相似度大于设定值时,表明匹配成功。
本发明还提出一种基于虚拟现实的交互控制***,其中,所述***包括:
虚拟现实画面接收模块,用于通过VR头盔或者VR眼镜接收虚拟现实画面,接收用户选择的虚拟人物;
运动信息确定模块,用于根据角度感应器确定用户头部朝向,根据振动传感器确定用户运动状态,将用户头部朝向和用户运动状态进行整合得到运动信息,将运动信息同步至虚拟现实画面中的虚拟人物;
操作信息显示模块,用于在虚拟现实画面中显示人物操作信息,所述人物操作信息包括动作指令和对应的预设操作动作,所述预设操作动作包括预设手势动作以及预设身体动作;
实际动作识别模块,用于对用户的实际操作动作进行识别,当实际操作动作与预设操作动作中的一个相同时,使得虚拟人物执行对应的动作指令。
本发明的另一目的在于提供一种虚拟现实设备,包括存储器、处理器以及计算机程序,所述存储器中存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行所述基于虚拟现实的交互控制方法的步骤。
与现有技术相比,本发明的有益效果是:
本发明通过在虚拟现实画面中显示人物操作信息,所述人物操作信息包括动作指令和对应的预设操作动作,这样当用户需要虚拟人物执行某个动作指令时,直接做出对应的实际操作动作,本发明会自动对用户的实际操作动作进行识别,当实际操作动作与预设操作动作中的一个相同时,使得虚拟人物执行对应的动作指令。如此,用户能够轻松简单的进行交互控制,体验感好。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实施例了解到。
附图说明
图1为本发明提出的一种基于虚拟现实的交互控制方法的流程图;
图2为本发明提出的一种基于虚拟现实的交互控制方法中根据角度感应器确定用户头部朝向,根据振动传感器确定用户运动状态的方法流程图;
图3为本发明提出的一种基于虚拟现实的交互控制方法中实际操作动作与预设操作动作比对方法的流程图;
图4为本发明提出的一种基于虚拟现实的交互控制方法中将摄像头采集到的图片与每一个操作手势对应的图像进行相似度计算的流程图;
图5为本发明提出的一种基于虚拟现实的交互控制***的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
参照下面的描述和附图,将清楚本发明的实施例的这些和其他方面。在这些描述和附图中,具体公开了本发明的实施例中的一些特定实施方式,来表示实施本发明的实施例的原理的一些方式,但是应当理解,本发明的实施例的范围不受此限制。相反,本发明的实施例包括落入所附加权利要求书的精神和内涵范围内的所有变化、修改和等同物。
虚拟现实(VirtualReality,VR)技术是一种先进的、数字化的人机接口技术,其特点在于计算机产生一种人为虚拟的环境,生成一个以视觉感受为主,包括听觉、触觉的综合感知的人工环境,人们可以通过视觉、听觉、触觉和加速度等多种感觉通道感知计算机虚拟的虚拟世界,也可以也通过移动、语音、动作等最自然的方式和虚拟世界交互,从而产生身临其境的体验。目前市场上的虚拟现实游戏有以手柄作为交互设备,用户可通过操控游戏手柄体验游戏中的虚拟场景,但是,用户在体验虚拟现实游戏时,往往会戴上VR头盔或者VR眼镜,无法看见操控手柄的按键,对于初玩者来说,交互体验极差。本发明实施例旨在解决上述问题。
如图1所示,本发明实施例提供了一种基于虚拟现实的交互控制方法,所述方法包括以下步骤:
S100,通过VR头盔或者VR眼镜接收虚拟现实画面,接收用户选择的虚拟人物。
在本实施例中,虚拟现实画面中对应显示的是一个虚拟场景,虚拟人物在虚拟现实画面中可进行自由活动。例如,虚拟现实画面为虚拟人物在普通的街道上进行行走,虚拟场景为街道场景。虚拟人物在街道场景中行走时会遇到多种不同的物体,例如街道两旁的绿植、路灯杆、垃圾箱以及被丢弃在街道上的废弃瓶等。
S200,根据角度感应器确定用户头部朝向,根据振动传感器确定用户运动状态,将用户头部朝向和用户运动状态进行整合得到运动信息,将运动信息同步至虚拟现实画面中的虚拟人物。
在此需要说明的是,对于虚拟人物而言,用户头部朝向即为虚拟人物在虚拟现实画面中的行进方向。振动传感器则通过可穿戴设备的方式穿戴在用户的身上,从而实现对用户运动信息的获取。
S300,在虚拟现实画面中显示人物操作信息,所述人物操作信息包括动作指令和对应的预设操作动作,所述预设操作动作包括预设手势动作以及预设身体动作。
在实际应用中,首先获取用户的实际操作动作,然后对实际操作动作进行识别,与虚拟设备(VR头盔或者VR眼镜)上述的预设操作动作进行比对,也即预设操作动作是存储在虚拟设备的处理器单元中。进一步的,每一个预设操作动作都对应有与其相对的动作指令,该动作指令是针对于虚拟人物进行操作的。
例如,上述的预设手势动作可以为手部向左滑动以或手部向右滑动等,上述的预设身体动作可以为弯腰或下蹲等。
S400,对用户的实际操作动作进行识别,当实际操作动作与预设操作动作中的一个相同时,使得虚拟人物执行对应的动作指令。
进一步的,如上所述,在获取了用户的实际操作动作之后,对实际操作动作进行识别,然后与预设操作动作进行比对,若当前的实际操作动作与预设操作动作中的其中一个相同时,则使得虚拟人物执行对应的动作指令。从而可在不适用操作手柄的情况下,也能实现较好的虚拟现实交互效果。
本发明实施例中,用户在体验虚拟现实游戏时,需要佩戴VR头盔或者VR眼镜接收虚拟现实画面,然后用户选择虚拟人物,通过虚拟人物来沉浸式体验虚拟现实游戏,本发明实施例会根据角度感应器确定用户头部朝向,根据振动传感器确定用户运动状态,然后将用户头部朝向和用户运动状态进行整合得到运动信息,将运动信息同步至虚拟现实画面中的虚拟人物,如此虚拟人物就会根据用户的动作进行相应的移动。另外,还会在虚拟现实画面中显示人物操作信息,具体的,人物操作信息可以显示在虚拟现实画面的最上方或者最下方,所述人物操作信息包括动作指令和对应的预设操作动作,这样当用户需要虚拟人物执行某个动作指令时,直接做出对应的实际操作动作,本发明实施例会自动对用户的实际操作动作进行识别,当实际操作动作与预设操作动作中的一个相同时,使得虚拟人物执行对应的动作指令。如此,用户能够轻松简单的进行交互控制,体验感好。
如图2所示,作为本发明一个优选的实施例,所述根据角度感应器确定用户头部朝向,根据振动传感器确定用户运动状态,将用户头部朝向和用户运动状态进行整合得到运动信息的步骤,具体包括:
S201,根据VR头盔或者VR眼镜中安装的陀螺仪确定用户头部朝向,所述陀螺仪即为角度感应器。
如上所述,用户的运动信息会实时同步至虚拟现实画面中的虚拟人物,因此在本实施例中,当完成整体设备(包括VR头盔、VR眼镜及可穿戴设备)的初始化之后,通过VR头盔或VR眼镜确定用户头部朝向。
S202,根据振动传感器的监测数据判定用户是否进行原地走路。
在此需要补充说明的,振动传感器通过可穿戴设备的方式穿戴在用户的身上,从而实现对用户运动信息的获取。在本实施例中,通过获取振动传感器的监测数据,以判断用户是否为静止状态或进行原地踏步。
S203,将用户头部朝向和用户是否进行原地走路进行整合得到运动信息,当用户没有进行原地走路,则运动信息为虚拟人物静止且朝向用户头部朝向的一侧;当用户有进行原地走路,则运动信息为虚拟人物朝着用户头部朝向的方向向前运动。
本发明实施例中,所述角度感应器为陀螺仪,根据VR头盔或者VR眼镜中安装的陀螺仪确定用户头部朝向,这也是目前常用的方案,但是值得一提的是,本发明实施例根据振动传感器的监测数据判定用户是否进行原地走路,即用户需要虚拟人物移动时,直接原地走路或者原地跑步即可,不需要到处走动,一方面保证了用户的安全性,另一方面便于对用户的实际手势进行识别;接着会将用户头部朝向和用户是否进行原地走路进行整合得到运动信息,当用户没有进行原地走路,则运动信息为虚拟人物静止朝向用户头部朝向的一侧;当用户有进行原地走路,则运动信息为虚拟人物朝着用户头部朝向的方向向前运动。
为了更好地对虚拟人物在虚拟现实画面中的运动进行计算控制,在本发明中,对虚拟人物在虚拟现实画面中的运动速度进行了模拟计算,具体的方法包括如下步骤:
S2031,通过摄像头动态采集用户的脚部运动状态信息,所述脚部运动状态信息包括多张脚部运动图片,其中每张脚部运动图片对应有一运动时间点。
S2032,根据每张所述脚部运动图片以及对应的运动时间点,计算得到用户的脚部运动频次。
在本步骤中,具体包括如下子步骤:
S2032a,根据多张所述脚部运动图片中,实时计算获取用户的单脚离地高度。
可以理解的,在本实施例中所指的单脚离地高度,指的是用户的实际离地高度。对于所拍摄得到的脚部运动图片而言,以用户的脚部为目标点,以图片中的底面作为基线,从而自动测距计算得到用户的单脚离地高度。作为补充的,对于单脚离地高度而言,也可以采用在地面上安装测距仪的方式来实现直接测距,以实际应用需求及成本考虑进行具体设定。
S2032b,根据多个所述单脚离地高度以及对应的运动时间点,生成用户单脚离地高度-时间曲线。
在本实施例中,可以认为用户是在做比较规律的运动,也即左脚与右脚是保持相对一致的步调进行运动。可以理解的,每张图片中均对应有一个单脚离地高度,以及对应有相应的运动时间点。因此,根据多个单脚离地高度的数值与对应的运动时间点的数据,可生成得到用户单脚离地高度-时间曲线。在本实施例中,该单脚离地高度-时间曲线为一正弦曲线。
S2032c,在所述用户单脚离地高度-时间曲线中,统计预设时间段内的所有最高离地高度的坐标点的数量,以计算得到脚部运动频次。
进一步的,在生成得到了单脚离地高度-时间曲线之后,在本实施例中,统计预设时间段内的所有最高离地高度的坐标点的数量。例如,在5S内,用户的单脚对应的最高离地高度的坐标点的数量为6次,则在本实施例中计算得到的脚部运动频次对应的数值为1.2。
S2033,根据所述脚部运动图片获取得到用户的单脚平均离地高度。
如上所述,对于所拍摄得到的多张脚部运动图片而言,可计算得到用户的单脚离地高度。在计算得到了多个单脚离地高度之后,对多个单脚离地高度进行平均,以得到用户的单脚平均离地高度。在此需要补充说明的是,由于不同用户的跨步是不同的,因此所计算得到的单脚平均离地高度,可影响虚拟人物在虚拟现实画面中的运动速度。
S2034,根据用户的脚部运动频次以及用户的单脚平均离地高度,计算得到虚拟人物在虚拟现实画面中的运动速度。
在本步骤中,虚拟人物在虚拟现实画面中的运动速度的公式表示为:
如图3所示,作为本发明一个优选的实施例,所述对用户的实际操作动作进行识别,当实际操作动作与预设操作手势中的一个相同时,使得虚拟人物执行对应的动作指令的步骤,具体包括:
S301,通过摄像头采集用户的实际操作动作,其中所述实际操作动作包括实际手势动作以及实际身体动作。
S302,在通过摄像头采集到用户的实际操作动作后,通过第一虚拟框对用户的手部进行框选以得到实际手势动作,通过第二虚拟框对用户的躯干部位进行框选以得到实际身体动作。
S303,将所述实际手势动作与预设手势动作进行比对,以及将所述实际身体动作与预设身体动作进行比对。
S304,当判断到所述实际手势动作与预设手势动作相一致时,则对虚拟人物执行与所述预设手势动作对应的动作指令。
例如,预设手势动作可以为手部向左滑动以或手部向右滑动等。
S305,当判断到所述实际身体动作与预设身体动作相一致时,则对虚拟人物执行与所述预设身体动作对应的动作指令。
例如,上述的预设身体动作可以为弯腰或下蹲等等。
对于实际手势动作而言,部分人习惯双手操作,然而部分人习惯单手操作。对于习惯双手操作的人群,则对应包括如下步骤:
S3031,通过摄像头在第一虚拟框中获取用户的手部图片,判断所述手部图片是否同时包含左手图片与右手图片;
S3032,当判断到所述手部图片同时包含左手图片与右手图片,则通过所述左手图片获取对应的左手实际手势动作,以及通过所述右手图片获取对应的右手实际手势动作;
S3033,当左手实际手势动作与对应的其中一个左手预设手势动作相同,则对应执行左手的动作指令;当右手实际手势动作与对应的其中一个右手预设手势动作相同,则对应执行右手的动作指令。
对于习惯单手操作的人群,则对应包括如下步骤:
S3031a,通过摄像头在第一虚拟框中获取用户的手部图片,判断所述手部图片是否同时包含左手图片与右手图片。
S3032b,当判断到所述手部图片仅为单手图片,则在虚拟现实画面中生成第一交互窗口,所述第一交互窗口用于接收用户进行单手操作模式的确认点击信号。
也即,在本步骤中,当***检测到手部图片仅为单手图片,则认为用户有进行单手操作的习惯,因此会自动生成第一交互窗口与用户进行信息的交互,从而确认是否进行单手操作模式的切换。
S3032c,当接收到用户进行单手操作模式的确认点击信号之后,生成第二交互窗口,所述第二交互窗口为针对左手与右手之间操作规则的选项列表框。
可以理解的,左手与右手之间的操作,可以是方向相同且步调一致,也可以是步调一致但方向相反的。在本实施例中仅设置了此两种方式,但实际应用中可根据实际需求设置更多的操作规则。
S3032d,若判断到所述手部图片为左手图片,则接收到针对于所述第二交互窗口中选项列表框的选择信号之后,根据所选定的左手与右手之间的操作规则,对未进行操作的右手进行动作映射。
可以理解的,由于采集到的为左手图片,因此可根据左手图片得到对应的左手预设手势动作,进而对虚拟人物的左手进行控制。此外,再根据所选定的左手与右手之间的操作规则,对未进行操作的右手进行动作映射,从而实现左手与右手的共同动作。
S3032e,若判断到所述手部图片为右手图片,则接收到针对于所述第二交互窗口中选项列表框的选择信号之后,根据所选定的左手与右手之间的操作规则,对未进行操作的左手进行动作映射。
如图4所示,作为本发明一个优选的实施例,判定实际手势动作是否与其中一个预设手势动作匹配成功时,需要将摄像头采集到的图片与每一个预设手势动作对应的图像进行相似度计算,具体的:
S401,用基于DCT的hash方法分别计算采集到的图片与操作手势图像的hash值,得到h_1和h_2;
S402,计算h_1和h_2之间的汉明距离dis_h;
S403,根据汉明距离dis_h计算得到采集到的图片与操作手势图像之间的相似度,当相似度大于设定值时,设定值为提前设定的定值,表明匹配成功。
本发明实施例中,基于DCT的hash方法对图片进行识别为现有技术中的一种AI图片识别方法,所述基于DCT的hash方法使用离散余弦变换提取图片的低频成分,先将图片转换成标准大小的灰度图,然后对灰度图做DCT变换,再从系数矩阵中提取出64位的hash值作为指纹,这种计算两张图片之间相似度的方法为现有技术;在根据汉明距离dis_h计算得到采集到的图片与操作手势图像之间的相似度时,需要对dis_h的值进行判定,当dis_h≤10时,相似度P=1-dis_h/100;当dis_h≥25时,相似度P=4*(64-dis_h)/195;当10<dis_h<25时,相似度P=[(25-dis_h)/150+0.8]*0.5+pcc*0.5,所述pcc为皮尔逊相关系数。
如图5所示,本发明实施例还提供了一种基于虚拟现实的交互控制***,所述***包括:
虚拟现实画面接收模块100,用于通过VR头盔或者VR眼镜接收虚拟现实画面,接收用户选择的虚拟人物;
运动信息确定模块200,用于根据角度感应器确定用户头部朝向,根据振动传感器确定用户运动状态,将用户头部朝向和用户运动状态进行整合得到运动信息,将运动信息同步至虚拟现实画面中的虚拟人物;
操作信息显示模块300,用于在虚拟现实画面中显示人物操作信息,所述人物操作信息包括动作指令和对应的预设操作动作,所述预设操作动作包括预设手势动作以及预设身体动作;
实际动作识别模块400,用于对用户的实际操作动作进行识别,当实际操作动作与预设操作动作中的一个相同时,使得虚拟人物执行对应的动作指令。
本发明实施例还提供了一种虚拟现实设备,包括存储器、处理器以及计算机程序,所述存储器中存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行所述基于虚拟现实的交互控制方法的步骤。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行***执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、 “示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明保护范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明的保护范围应以所附权利要求为准。
Claims (4)
1.一种基于虚拟现实的交互控制方法,其特征在于,所述方法包括如下步骤:
通过VR头盔或者VR眼镜接收虚拟现实画面,接收用户选择的虚拟人物;
根据角度感应器确定用户头部朝向,根据振动传感器确定用户运动状态,将用户头部朝向和用户运动状态进行整合得到运动信息,将运动信息同步至虚拟现实画面中的虚拟人物;
在虚拟现实画面中显示人物操作信息,所述人物操作信息包括动作指令和对应的预设操作动作,所述预设操作动作包括预设手势动作以及预设身体动作;
对用户的实际操作动作进行识别,当实际操作动作与预设操作动作中的一个相同时,使得虚拟人物执行对应的动作指令;
所述根据角度感应器确定用户头部朝向,根据振动传感器确定用户运动状态,将用户头部朝向和用户运动状态进行整合得到运动信息的步骤,具体包括:
根据VR头盔或者VR眼镜中安装的陀螺仪确定用户头部朝向,所述陀螺仪即为角度感应器;
根据振动传感器的监测数据判定用户是否进行原地走路;
将用户头部朝向和用户是否进行原地走路进行整合得到运动信息,当用户没有进行原地走路,则运动信息为虚拟人物静止且朝向用户头部朝向的一侧;当用户有进行原地走路,则运动信息为虚拟人物朝着用户头部朝向的方向向前运动;
虚拟人物在虚拟现实画面中的运动速度的计算方法包括如下步骤:
通过摄像头动态采集用户的脚部运动状态信息,所述脚部运动状态信息包括多张脚部运动图片,其中每张脚部运动图片对应有一运动时间点;
根据每张所述脚部运动图片以及对应的运动时间点,计算得到用户的脚部运动频次;
根据所述脚部运动图片获取得到用户的单脚平均离地高度;
根据用户的脚部运动频次以及用户的单脚平均离地高度,计算得到虚拟人物在虚拟现实画面中的运动速度;
其中,根据每张所述脚部运动图片以及对应的运动时间点,计算得到用户的脚部运动频次的方法包括:
根据多张所述脚部运动图片中,实时计算获取用户的单脚离地高度;
根据多个所述单脚离地高度以及对应的运动时间点,生成用户单脚离地高度-时间曲线;
在所述用户单脚离地高度-时间曲线中,统计预设时间段内的所有最高离地高度的坐标点的数量,以计算得到脚部运动频次;
虚拟人物在虚拟现实画面中的运动速度的公式表示为:
其中,表示虚拟人物在虚拟现实画面中的运动速度,表示基准运动速度,表示用户的脚部运动频次,表示标准脚部运动频次,表示用户的单脚平均离地高度,表示第一权重系数,表示第二权重系数,表示用户有进行原地走路,表示用户没有进行原地走路;
所述对用户的实际操作动作进行识别,当实际操作动作与预设操作动作中的一个相同时,使得虚拟人物执行对应的动作指令的方法包括如下步骤:
通过摄像头采集用户的实际操作动作,其中所述实际操作动作包括实际手势动作以及实际身体动作;
在通过摄像头采集到用户的实际操作动作后,通过第一虚拟框对用户的手部进行框选以得到实际手势动作,通过第二虚拟框对用户的躯干部位进行框选以得到实际身体动作;
将所述实际手势动作与预设手势动作进行比对,以及将所述实际身体动作与预设身体动作进行比对;
当判断到所述实际手势动作与预设手势动作相一致时,则对虚拟人物执行与所述预设手势动作对应的动作指令;
当判断到所述实际身体动作与预设身体动作相一致时,则对虚拟人物执行与所述预设身体动作对应的动作指令;
所述方法还包括如下步骤:
通过摄像头在第一虚拟框中获取用户的手部图片,判断所述手部图片是否同时包含左手图片与右手图片;
当判断到所述手部图片同时包含左手图片与右手图片,则通过所述左手图片获取对应的左手实际手势动作,以及通过所述右手图片获取对应的右手实际手势动作;
当左手实际手势动作与对应的其中一个左手预设手势动作相同,则对应执行左手的动作指令;当右手实际手势动作与对应的其中一个右手预设手势动作相同,则对应执行右手的动作指令;
所述方法还包括如下步骤:
通过摄像头在第一虚拟框中获取用户的手部图片,判断所述手部图片是否同时包含左手图片与右手图片;
当判断到所述手部图片仅为单手图片,则在虚拟现实画面中生成第一交互窗口,所述第一交互窗口用于接收用户进行单手操作模式的确认点击信号;
当接收到用户进行单手操作模式的确认点击信号之后,生成第二交互窗口,所述第二交互窗口为针对左手与右手之间操作规则的选项列表框;
若判断到所述手部图片为左手图片,则接收到针对于所述第二交互窗口中选项列表框的选择信号之后,根据所选定的左手与右手之间的操作规则,对未进行操作的右手进行动作映射;
若判断到所述手部图片为右手图片,则接收到针对于所述第二交互窗口中选项列表框的选择信号之后,根据所选定的左手与右手之间的操作规则,对未进行操作的左手进行动作映射。
2.根据权利要求1所述一种基于虚拟现实的交互控制方法,其特征在于,
判定实际手势动作是否与其中一个预设手势动作匹配成功时,需要将摄像头采集到的图片与每一个操作手势对应的图像进行相似度计算,具体包括如下步骤:
用基于DCT的hash方法分别计算采集到的图片与操作手势图像的hash值,得到h_1和h_2;
计算h_1和h_2之间的汉明距离dis_h;
根据汉明距离dis_h计算得到采集到的图片与操作手势图像之间的相似度,当相似度大于设定值时,表明匹配成功。
3.一种基于虚拟现实的交互控制***,其特征在于,所述***应用如上述权利要求1至2任意一项所述的基于虚拟现实的交互控制方法,所述***包括:
虚拟现实画面接收模块,用于通过VR头盔或者VR眼镜接收虚拟现实画面,接收用户选择的虚拟人物;
运动信息确定模块,用于根据角度感应器确定用户头部朝向,根据振动传感器确定用户运动状态,将用户头部朝向和用户运动状态进行整合得到运动信息,将运动信息同步至虚拟现实画面中的虚拟人物;
操作信息显示模块,用于在虚拟现实画面中显示人物操作信息,所述人物操作信息包括动作指令和对应的预设操作动作,所述预设操作动作包括预设手势动作以及预设身体动作;
实际动作识别模块,用于对用户的实际操作动作进行识别,当实际操作动作与预设操作动作中的一个相同时,使得虚拟人物执行对应的动作指令。
4.一种虚拟现实设备,其特征在于,包括存储器、处理器以及计算机程序,所述存储器中存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行权利要求1-2任一项所述的基于虚拟现实的交互控制方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211057017.1A CN115129164B (zh) | 2022-08-31 | 2022-08-31 | 基于虚拟现实的交互控制方法、***及虚拟现实设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211057017.1A CN115129164B (zh) | 2022-08-31 | 2022-08-31 | 基于虚拟现实的交互控制方法、***及虚拟现实设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115129164A CN115129164A (zh) | 2022-09-30 |
CN115129164B true CN115129164B (zh) | 2022-12-09 |
Family
ID=83387596
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211057017.1A Active CN115129164B (zh) | 2022-08-31 | 2022-08-31 | 基于虚拟现实的交互控制方法、***及虚拟现实设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115129164B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115712347B (zh) * | 2022-11-11 | 2023-10-03 | 深圳市弘粤驱动有限公司 | 一种基于光电传感器和霍尔传感器的计量方法 |
CN116107436A (zh) * | 2023-04-13 | 2023-05-12 | 北京乐开科技有限责任公司 | 一种基于移动设备的vr虚拟形象交互方法及*** |
CN117111873B (zh) * | 2023-10-23 | 2024-01-09 | 南昌市一境信息技术有限公司 | 一种基于cave环境的沉浸交互*** |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106951069A (zh) * | 2017-02-23 | 2017-07-14 | 深圳市金立通信设备有限公司 | 一种虚拟现实界面的控制方法及虚拟现实设备 |
CN107346174A (zh) * | 2017-06-15 | 2017-11-14 | 武汉秀宝软件有限公司 | 一种现实环境与虚拟环境的交互方法及*** |
CN109364471A (zh) * | 2018-12-12 | 2019-02-22 | 歌尔科技有限公司 | 一种vr*** |
CN112827162A (zh) * | 2020-12-10 | 2021-05-25 | 桑亚杰 | 一种三维演示动画交互式体验方法及装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ITMI20130110A1 (it) * | 2013-01-24 | 2014-07-25 | Technogym Spa | Sistema fruibile da un utente per l'allenamento, metodo di allenamento e relativo prodotto programma |
US20140249927A1 (en) * | 2013-03-04 | 2014-09-04 | Michael De Angelo | System and method for cyclic recognition-primed notifications and responsive situational awareness in an advertising display network |
CN106599962A (zh) * | 2016-09-13 | 2017-04-26 | 江苏图码信息科技有限公司 | 一种手绘图案或文字的彩码产品及应用组件 |
CN112076440A (zh) * | 2020-09-11 | 2020-12-15 | 广州晓康医疗科技有限公司 | 基于识别屏的双人互动上肢康复***及其训练方法 |
-
2022
- 2022-08-31 CN CN202211057017.1A patent/CN115129164B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106951069A (zh) * | 2017-02-23 | 2017-07-14 | 深圳市金立通信设备有限公司 | 一种虚拟现实界面的控制方法及虚拟现实设备 |
CN107346174A (zh) * | 2017-06-15 | 2017-11-14 | 武汉秀宝软件有限公司 | 一种现实环境与虚拟环境的交互方法及*** |
CN109364471A (zh) * | 2018-12-12 | 2019-02-22 | 歌尔科技有限公司 | 一种vr*** |
CN112827162A (zh) * | 2020-12-10 | 2021-05-25 | 桑亚杰 | 一种三维演示动画交互式体验方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN115129164A (zh) | 2022-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115129164B (zh) | 基于虚拟现实的交互控制方法、***及虚拟现实设备 | |
KR101658937B1 (ko) | 제스처 숏컷 | |
US9910509B2 (en) | Method to control perspective for a camera-controlled computer | |
US8856691B2 (en) | Gesture tool | |
US10691216B2 (en) | Combining gestures beyond skeletal | |
US8223147B1 (en) | Method and system for vision-based interaction in a virtual environment | |
US10092220B2 (en) | System and method for motion capture | |
US8942428B2 (en) | Isolate extraneous motions | |
US20110151974A1 (en) | Gesture style recognition and reward | |
US9013396B2 (en) | System and method for controlling a virtual reality environment by an actor in the virtual reality environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |