CN106681479A - 基于虚拟现实的用户交互方法及*** - Google Patents
基于虚拟现实的用户交互方法及*** Download PDFInfo
- Publication number
- CN106681479A CN106681479A CN201510745327.6A CN201510745327A CN106681479A CN 106681479 A CN106681479 A CN 106681479A CN 201510745327 A CN201510745327 A CN 201510745327A CN 106681479 A CN106681479 A CN 106681479A
- Authority
- CN
- China
- Prior art keywords
- user
- virtual reality
- action
- information
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开一种基于虚拟现实的用户交互方法及***,本发明通过获取佩戴在用户身体上不同位置的传感器所检测到的动作数据;根据所述传感器在用户身体上的设置位置,解析获取的所述动作数据,获取用户当前执行的动作;将获取的用户当前执行的动作反馈至虚拟现实中对应的虚拟角色,并控制虚拟现实中对应的所述虚拟角色执行相应的操作;具有通过用户身上佩戴的传感器来检测并获取用户的肢体动作,从而使得用户能够与虚拟场景中的虚拟角色进行互动的有益效果,提高了虚拟现实的真实感;进一步地,由于用户也能够感知到虚拟角色所处的环境信息,因此也提高了用户体验。
Description
技术领域
本发明涉及虚拟现实技术领域,尤其涉及一种基于虚拟现实的用户交互方法及***。
背景技术
随着虚拟现实技术的迅猛发展,随之而不断开发或者更新的利用虚拟现实技术的产品也越来越多。虚拟现实技术具有如下基本的特点:虚拟现实技术是一种可以创建和体验虚拟世界的计算机仿真***,它利用计算机生成一种模拟环境,是一种多源信息融合的交互式的三维动态视景和实体行为的***仿真,使用户能够真实感受并沉浸到该环境中;因此,在用户基于虚拟现实技术进行游戏、活动演练等活动时,要求显示屏上显示的图像的立体感和真实感会更强烈、更真实。
目前,在利用虚拟现实技术进行游戏或者活动演练等活动时,尚未出现通过用户身上佩戴的传感器来检测并获取用户的肢体动作,从而与虚拟场景中的虚拟角色进行互动的技术方案,影响了利用虚拟场景进行游戏或者活动演练等活动时用户的真实感。
发明内容
鉴于此,有必要提供一种基于虚拟现实的用户交互方法及***,用以通过用户身上佩戴的传感器来检测并获取用户的肢体动作,从而使得用户能够与虚拟场景中的虚拟角色进行互动,提高虚拟现实的真实感。
本发明实施例公开了一种基于虚拟现实的用户交互方法,包括以下步骤:
获取佩戴在用户身体上不同位置的传感器所检测到的动作数据;
根据所述传感器在用户身体上的设置位置,解析获取的所述动作数据,获取用户当前执行的动作;
将获取的用户当前执行的动作反馈至虚拟现实中对应的虚拟角色,并控制虚拟现实中对应的所述虚拟角色执行相应的操作。
优选地,所述基于虚拟现实的用户交互方法还包括:
获取虚拟现实中所述虚拟角色当前所在场景的环境信息,并将所述环境信息反馈至用户,使得用户能够感知到所述环境信息。
优选地,所述环境信息包括:
温度信息、湿度信息、气压信息、风力风向信息以及降雨或者降雪量信息。
优选地,所述佩戴在用户身体上不同位置的传感器包括:
在用户的双手、双脚和腰部所分别设置的传感器。
优选地,所述将获取的用户当前执行的动作反馈至虚拟现实中对应的虚拟角色,并控制虚拟现实中对应的所述虚拟角色执行相应的操作,包括:
根据获取的用户当前执行的动作,绘制用户当前执行的动作所对应的运动轨迹,得到绘制后的运动轨迹信息;
根据绘制后的所述运动轨迹信息,控制虚拟现实中对应的虚拟角色按照所述运动轨迹信息执行对应的操作。
对应于以上所公开的一种基于虚拟现实的用户交互方法,本发明还公开了一种基于虚拟现实的用户交互***,所述***包括佩戴在用户身体上不同位置的多个传感器;
所述基于虚拟现实的用户交互***还包括:
获取模块,用于获取佩戴在用户身体上不同位置的传感器所检测到的动作数据;
解析模块,用于根据所述传感器在用户身体上的设置位置,解析获取的所述动作数据,获取用户当前执行的动作;
控制模块,用于将获取的用户当前执行的动作反馈至虚拟现实中对应的虚拟角色,并控制虚拟现实中对应的所述虚拟角色执行相应的操作。
优选地,所述基于虚拟现实的用户交互***还包括:
交互模块,用于获取虚拟现实中所述虚拟角色当前所在场景的环境信息,并将所述环境信息反馈至用户,使得用户能够感知到所述环境信息。
优选地,所述环境信息包括:
温度信息、湿度信息、气压信息、风力风向信息以及降雨或者降雪量信息。
优选地,所述佩戴在用户身体上不同位置的传感器包括:
在用户的双手、双脚和腰部所分别设置的传感器。
优选地,所述控制模块包括:
绘制单元,用于根据获取的用户当前执行的动作,绘制用户当前执行的动作所对应的运动轨迹,得到绘制后的运动轨迹信息;
控制单元,用于根据绘制后的所述运动轨迹信息,控制虚拟现实中对应的虚拟角色按照所述运动轨迹信息执行对应的操作。
本发明一种基于虚拟现实的用户交互方法及***可以达到如下有益效果:
通过获取佩戴在用户身体上不同位置的传感器所检测到的动作数据;根据所述传感器在用户身体上的设置位置,解析获取的所述动作数据,获取用户当前执行的动作;将获取的用户当前执行的动作反馈至虚拟现实中对应的虚拟角色,并控制虚拟现实中对应的所述虚拟角色执行相应的操作;具有通过用户身上佩戴的传感器来检测并获取用户的肢体动作,从而使得用户能够与虚拟场景中的虚拟角色进行互动的有益效果,提高了虚拟现实的真实感。
附图说明
图1是本发明基于虚拟现实的用户交互方法的一种实施方式的流程示意图;
图2是本发明基于虚拟现实的用户交互方法中,图1所述实施例中步骤S30的一种实施方式的流程示意图;
图3是本发明基于虚拟现实的用户交互方法的另一种实施方式的流程示意图;
图4是本发明基于虚拟现实的用户交互***的一种实施方式的框图;
图5是本发明基于虚拟现实的用户交互***中,图4所述实施例中控制模块80一实施例框图;
图6是本发明基于虚拟现实的用户交互***的另一种实施方式的框图。
本发明实施例目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
以下结合说明书附图及具体实施例进一步说明本发明的技术方案。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提供了一种基于虚拟现实的用户交互方法及***,用以通过用户身上佩戴的传感器来检测并获取用户的肢体动作,从而使得用户能够与虚拟场景中的虚拟角色进行互动,提高虚拟现实的真实感。
参照图1,图1是本发明基于虚拟现实的用户交互方法的一种实施方式的流程示意图;如图1所示,本发明基于虚拟现实的用户交互方法可以实施为如下描述的步骤S10-S30:
步骤S10、获取佩戴在用户身体上不同位置的传感器所检测到的动作数据;
本发明实施例中,用户预先在身上的不同位置佩戴上相应的传感器,当用户有所动作时,位于该用户身上不同部位的传感器通过检测到的相应数据即可获知用户所作出的相应动作。
在一优选的实施例中,所述佩戴在用户身体上不同位置的传感器包括:在用户的双手、双脚和腰部所分别设置的传感器。例如,分别在用户的双手、双脚和腰部各设置相应的传感器,从而能够检测到用户双手、双脚和身体躯干部分的动作数据;进一步的,也可以在用户的头部和/或颈部,也同时分别设置相应的传感器,从而更加准确地检测到用户身体不同部位的动作数据。
当通过传感器检测到上述动作数据后,***直接获取来自传感器检测到的上述动作数据。
步骤S20、根据所述传感器在用户身体上的设置位置,解析获取的所述动作数据,获取用户当前执行的动作;
获取到用户身上不同位置所分别设置的传感器所检测到的动作数据后,***根据传感器在用户身体上的不同设置位置,例如:左右手、左右脚、腰部或者其他部位的传感器,解析所获取的上述不同设置位置的传感器所分别对应的动作数据,从而即可获知该用户当前所执行的动作。
本发明实施例中,以用户身上的双手、双脚和腰部分别设置一个传感器为例,进行举例说明。例如,将用户双手、双脚和腰部分别设置的传感器看成是五个位于不同设置位置的点,当用户正常站立的时候,获取上述五个点的原始位置;当用户倒立的时候,获取上述五个点在用户倒立时的动作数据,通过解析上述动作数据,获取到上述五个点在用户运动后所处的新位置,将上述新位置与原始位置进行比较,即可获取用户当前执行的动作为倒立动作。
步骤S30、将获取的用户当前执行的动作反馈至虚拟现实中对应的虚拟角色,并控制虚拟现实中对应的所述虚拟角色执行相应的操作。
在***解析并获取到用户当前所执行的动作后,将获取的用户当前所执行的动作反馈至虚拟现实中对应的虚拟角色,例如:***将用户所执行的动作转换为虚拟现实中对应的虚拟角色所能够识别的控制指令,从而控制虚拟现实中对应的虚拟角色执行相应的操作。
例如,用户执行了“右勾拳”的动作,则***通过获取对应的传感器数据,并解析出用户所执行的“右勾拳动作”,从而将上述“右勾拳动作”反馈至虚拟现实中对应的虚拟角色A,控制该虚拟角色A执行与用户相同的“右勾拳动作”。
在一优选的实施例中,如图2所示,本发明基于虚拟现实的用户交互方法中,图1所述实施例中,上述“步骤S30、将获取的用户当前执行的动作反馈至虚拟现实中对应的虚拟角色,并控制虚拟现实中对应的所述虚拟角色执行相应的操作”可以实施为如下描述的步骤S301-S302:
步骤S301、根据获取的用户当前执行的动作,绘制用户当前执行的动作所对应的运动轨迹,得到绘制后的运动轨迹信息;
本发明实施例中,当***解析传感器检测到的动作数据并获取到用户当前执行的动作后,根据获取的用户当前执行的动作,绘制上述用户当前执行的动作所对应的运动轨迹,从而得到绘制后的运动轨迹信息。
进一步地,在一优选的实施例中,***绘制的运动轨迹信息可以被虚拟现实中的虚拟角色识别并直接执行该运动轨迹信息所对应的动作。
步骤S302、根据绘制后的所述运动轨迹信息,控制虚拟现实中对应的虚拟角色按照所述运动轨迹信息执行对应的操作。
根据绘制后的上述运动轨迹信息,***直接控制虚拟现实中对应的虚拟角色按照上述运动轨迹信息去执行对应的操作。其中,具体的实现方式包括但不限于:***直接将上述运动轨迹信息发送至对应的虚拟角色,该虚拟角色识别上述运动轨迹信息所对应的操作,执行上述运动轨迹信息所对应的操作。或者,***根据上述运动轨迹信息,控制对应的虚拟角色执行与上述运动轨迹信息所对应的动作相一致的操作。
在一优选的实施例中,基于图1、图2所述实施例的描述,如图3所示,本发明基于虚拟现实的用户交互方法还包括步骤:
步骤S40、获取虚拟现实中所述虚拟角色当前所在场景的环境信息,并将所述环境信息反馈至用户,使得用户能够感知到所述环境信息。
本发明实施例中,***还可以通过获取虚拟现实中虚拟角色当前所处的场景对应的环境信息,并将该环境信息反馈至用户,使得用户能够感知到上述环境信息,进而做出相应的触觉感知。其中,上述虚拟现实中虚拟角色当前所处的场景所对应的环境信息包括但不限于:温度信息、湿度信息、气压信息、风力风向信息以及降雨或者降雪量信息。
例如,***通过获取虚拟现实中虚拟角色当前所处的场景为:该虚拟角色B在冰窖中,则获取上述场景“冰窖”所对应的环境信息为:温度为零下10℃,则***按照上述环境信息改变用户当前所处的环境,进而将上述环境信息反馈至用户,使得用户能够通过自身当前所处的环境,来感知到上述环境信息,例如,用户同样会感觉到冷。
本发明实施例中,***改变用户当前所处的环境的具体改变方式,是根据用户所处的具体环境来执行的;例如,用户当前所处的为一个密闭的空间,则***通过控制该空间中的智能家居比如空调,来调节用户当前所处的环境。又例如,若用户当前身穿具备可调节环境因素(例如温度、湿度等)的服装来执行上述动作的,则***通过调整上述功能性服装所具备的环境因素(例如温度、湿度),来使用户感知到上述环境信息。
本发明基于虚拟现实的用户交互方法通过获取佩戴在用户身体上不同位置的传感器所检测到的动作数据;根据所述传感器在用户身体上的设置位置,解析获取的所述动作数据,获取用户当前执行的动作;将获取的用户当前执行的动作反馈至虚拟现实中对应的虚拟角色,并控制虚拟现实中对应的所述虚拟角色执行相应的操作;具有通过用户身上佩戴的传感器来检测并获取用户的肢体动作,从而使得用户能够与虚拟场景中的虚拟角色进行互动的有益效果,提高了虚拟现实的真实感;进一步地,由于用户也能够感知到虚拟角色所处的环境信息,因此也提高了用户体验。
对应于图1、图2和图3所述实施例所描述的一种基于虚拟现实的用户交互***方法,本发明还提供了一种基于虚拟现实的用户交互***,如图4所示,本发明基于虚拟现实的用户交互***包括:佩戴在用户身体上不同位置的多个传感器100,所述基于虚拟现实的用户交互***还包括:获取模块60、解析模块70和控制模块80;其中:
所述获取模块60,用于获取佩戴在用户身体上不同位置的传感器100所检测到的动作数据;
本发明实施例中,用户预先在身上的不同位置佩戴上相应的传感器100,当用户有所动作时,位于该用户身上不同部位的传感器100通过检测到的相应数据即可获知用户所作出的相应动作。
在一优选的实施例中,所述佩戴在用户身体上不同位置的传感器100包括:在用户的双手、双脚和腰部所分别设置的传感器。例如,分别在用户的双手、双脚和腰部各设置相应的传感器,从而能够检测到用户双手、双脚和身体躯干部分的动作数据;进一步的,也可以在用户的头部和/或颈部,也同时分别设置相应的传感器100,从而更加准确地检测到用户身体不同部位的动作数据。
当通过传感器100检测到上述动作数据后,所述获取模块60直接获取来自传感器100检测到的上述动作数据。
所述解析模块70,用于根据所述传感器100在用户身体上的设置位置,解析获取的所述动作数据,获取用户当前执行的动作;
所述获取模块60获取到用户身上不同位置所分别设置的传感器100所检测到的动作数据后,解析模块70根据传感器100在用户身体上的不同设置位置,例如:左右手、左右脚、腰部或者其他部位的传感器100,解析所获取的上述不同设置位置的传感器100所分别对应的动作数据,从而即可获知该用户当前所执行的动作。
本发明实施例中,以用户身上的双手、双脚和腰部分别设置一个传感器为例,进行举例说明。例如,将用户双手、双脚和腰部分别设置的传感器看成是五个位于不同设置位置的点,当用户正常站立的时候,所述获取模块60获取上述五个点的原始位置;当用户倒立的时候,所述获取模块60获取上述五个点在用户倒立时的动作数据,解析模块70通过解析上述动作数据,获取到上述五个点在用户运动后所处的新位置,将上述新位置与原始位置进行比较,即可获取用户当前执行的动作为倒立动作。
所述控制模块80,用于将获取的用户当前执行的动作反馈至虚拟现实中对应的虚拟角色,并控制虚拟现实中对应的所述虚拟角色执行相应的操作。
在解析模块70解析并获取到用户当前所执行的动作后,控制模块80将获取的用户当前所执行的动作反馈至虚拟现实中对应的虚拟角色,例如:控制模块80将用户所执行的动作转换为虚拟现实中对应的虚拟角色所能够识别的控制指令,从而控制虚拟现实中对应的虚拟角色执行相应的操作。
例如,用户执行了“右勾拳”的动作,则获取模块60通过获取对应的传感器数据,解析模块70解析出用户所执行的“右勾拳动作”,控制模块80从而将上述“右勾拳动作”反馈至虚拟现实中对应的虚拟角色A,控制该虚拟角色A执行与用户相同的“右勾拳动作”。
在一优选的实施例中,如图5所示,本发明基于虚拟现实的用户交互***中,图1所述实施例中,所述控制模块80包括:绘制单元801和控制单元802;其中:
所述绘制单元801,用于根据获取的用户当前执行的动作,绘制用户当前执行的动作所对应的运动轨迹,得到绘制后的运动轨迹信息;
本发明实施例中,当解析模块70解析传感器100检测到的动作数据并获取到用户当前执行的动作后,所述绘制单元801根据获取的用户当前执行的动作,绘制上述用户当前执行的动作所对应的运动轨迹,从而得到绘制后的运动轨迹信息。
进一步地,在一优选的实施例中,所述绘制单元801绘制的运动轨迹信息可以被虚拟现实中的虚拟角色识别并直接执行该运动轨迹信息所对应的动作。
所述控制单元802,用于根据绘制后的所述运动轨迹信息,控制虚拟现实中对应的虚拟角色按照所述运动轨迹信息执行对应的操作。
根据绘制单元801绘制后的上述运动轨迹信息,控制单元802直接控制虚拟现实中对应的虚拟角色按照上述运动轨迹信息去执行对应的操作。其中,具体的实现方式包括但不限于:控制单元802直接将上述运动轨迹信息发送至对应的虚拟角色,该虚拟角色识别上述运动轨迹信息所对应的操作,执行上述运动轨迹信息所对应的操作。或者,控制单元802根据上述运动轨迹信息,控制对应的虚拟角色执行与上述运动轨迹信息所对应的动作相一致的操作。
在一优选的实施例中,基于图4、图5所述实施例的描述,如图6所示,本发明基于虚拟现实的用户交互***还包括:
交互模块90,用于获取虚拟现实中所述虚拟角色当前所在场景的环境信息,并将所述环境信息反馈至用户,使得用户能够感知到所述环境信息。
发明实施例中,交互模块90还可以通过获取虚拟现实中虚拟角色当前所处的场景对应的环境信息,并将该环境信息反馈至用户,使得用户能够感知到上述环境信息,进而做出相应的触觉感知。其中,上述虚拟现实中虚拟角色当前所处的场景所对应的环境信息包括但不限于:温度信息、湿度信息、气压信息、风力风向信息以及降雨或者降雪量信息。
例如,交互模块90通过获取虚拟现实中虚拟角色当前所处的场景为:该虚拟角色B在冰窖中,则获取上述场景“冰窖”所对应的环境信息为:温度为零下10℃,则交互模块90按照上述环境信息改变用户当前所处的环境,进而将上述环境信息反馈至用户,使得用户能够通过自身当前所处的环境,来感知到上述环境信息,例如,用户同样会感觉到冷。
本发明实施例中,交互模块90改变用户当前所处的环境的具体改变方式,是根据用户所处的具体环境来执行的;例如,用户当前所处的为一个密闭的空间,则交互模块90通过控制该空间中的智能家居比如空调,来调节用户当前所处的环境。又例如,若用户当前身穿具备可调节环境因素(例如温度、湿度等)的服装来执行上述动作的,则交互模块90通过调整上述功能性服装所具备的环境因素(例如温度、湿度),来使用户感知到上述环境信息。
本发明基于虚拟现实的用户交互***通过获取佩戴在用户身体上不同位置的传感器所检测到的动作数据;根据所述传感器在用户身体上的设置位置,解析获取的所述动作数据,获取用户当前执行的动作;将获取的用户当前执行的动作反馈至虚拟现实中对应的虚拟角色,并控制虚拟现实中对应的所述虚拟角色执行相应的操作;具有通过用户身上佩戴的传感器来检测并获取用户的肢体动作,从而使得用户能够与虚拟场景中的虚拟角色进行互动的有益效果,提高了虚拟现实的真实感;进一步地,由于用户也能够感知到虚拟角色所处的环境信息,因此也提高了用户体验。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上所述仅为本发明的优选实施例,并非因此限制其专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种基于虚拟现实的用户交互方法,其特征在于,包括以下步骤:
获取佩戴在用户身体上不同位置的传感器所检测到的动作数据;
根据所述传感器在用户身体上的设置位置,解析获取的所述动作数据,获取用户当前执行的动作;
将获取的用户当前执行的动作反馈至虚拟现实中对应的虚拟角色,并控制虚拟现实中对应的所述虚拟角色执行相应的操作。
2.如权利要求1所述的方法,其特征在于,所述基于虚拟现实的用户交互方法还包括:
获取虚拟现实中所述虚拟角色当前所在场景的环境信息,并将所述环境信息反馈至用户,使得用户能够感知到所述环境信息。
3.如权利要求2所述的方法,其特征在于,所述环境信息包括:
温度信息、湿度信息、气压信息、风力风向信息以及降雨或者降雪量信息。
4.如权利要求1所述的方法,其特征在于,所述佩戴在用户身体上不同位置的传感器包括:
在用户的双手、双脚和腰部所分别设置的传感器。
5.如权利要求1至4任一项所述的方法,其特征在于,所述将获取的用户当前执行的动作反馈至虚拟现实中对应的虚拟角色,并控制虚拟现实中对应的所述虚拟角色执行相应的操作,包括:
根据获取的用户当前执行的动作,绘制用户当前执行的动作所对应的运动轨迹,得到绘制后的运动轨迹信息;
根据绘制后的所述运动轨迹信息,控制虚拟现实中对应的虚拟角色按照所述运动轨迹信息执行对应的操作。
6.一种基于虚拟现实的用户交互***,所述***包括佩戴在用户身体上不同位置的多个传感器;
其特征在于,所述基于虚拟现实的用户交互***还包括:
获取模块,用于获取佩戴在用户身体上不同位置的传感器所检测到的动作数据;
解析模块,用于根据所述传感器在用户身体上的设置位置,解析获取的所述动作数据,获取用户当前执行的动作;
控制模块,用于将获取的用户当前执行的动作反馈至虚拟现实中对应的虚拟角色,并控制虚拟现实中对应的所述虚拟角色执行相应的操作。
7.如权利要求6所述的***,其特征在于,所述基于虚拟现实的用户交互***还包括:
交互模块,用于获取虚拟现实中所述虚拟角色当前所在场景的环境信息,并将所述环境信息反馈至用户,使得用户能够感知到所述环境信息。
8.如权利要求7所述的***,其特征在于,所述环境信息包括:
温度信息、湿度信息、气压信息、风力风向信息以及降雨或者降雪量信息。
9.如权利要求6所述的***,其特征在于,所述佩戴在用户身体上不同位置的传感器包括:
在用户的双手、双脚和腰部所分别设置的传感器。
10.如权利要求6至9任一项所述的***,其特征在于,所述控制模块包括:
绘制单元,用于根据获取的用户当前执行的动作,绘制用户当前执行的动作所对应的运动轨迹,得到绘制后的运动轨迹信息;
控制单元,用于根据绘制后的所述运动轨迹信息,控制虚拟现实中对应的虚拟角色按照所述运动轨迹信息执行对应的操作。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510745327.6A CN106681479A (zh) | 2015-11-05 | 2015-11-05 | 基于虚拟现实的用户交互方法及*** |
PCT/CN2016/103733 WO2017076224A1 (zh) | 2015-11-05 | 2016-10-28 | 基于虚拟现实的用户交互方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510745327.6A CN106681479A (zh) | 2015-11-05 | 2015-11-05 | 基于虚拟现实的用户交互方法及*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106681479A true CN106681479A (zh) | 2017-05-17 |
Family
ID=58661676
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510745327.6A Pending CN106681479A (zh) | 2015-11-05 | 2015-11-05 | 基于虚拟现实的用户交互方法及*** |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN106681479A (zh) |
WO (1) | WO2017076224A1 (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107358007A (zh) * | 2017-08-14 | 2017-11-17 | 腾讯科技(深圳)有限公司 | 控制智能家居***的方法、装置和计算可读存储介质 |
CN107562195A (zh) * | 2017-08-17 | 2018-01-09 | 英华达(南京)科技有限公司 | 人机交互方法及*** |
CN108334192A (zh) * | 2018-01-02 | 2018-07-27 | 联想(北京)有限公司 | 一种信息处理方法、穿戴式装置及存储介质 |
CN108509050A (zh) * | 2018-05-04 | 2018-09-07 | 北京航空航天大学 | 一种具有多点独立温度反馈的触觉反馈装置 |
CN108734774A (zh) * | 2018-05-18 | 2018-11-02 | 网易(杭州)网络有限公司 | 虚拟肢体构建方法及装置、人机交互方法 |
CN109426348A (zh) * | 2017-08-29 | 2019-03-05 | 西门子医疗有限公司 | 用于选择虚拟对象或图像参数值的方法和选择单元 |
WO2019091369A1 (zh) * | 2017-11-13 | 2019-05-16 | 深圳市创客工场科技有限公司 | 虚拟环境与物理硬件的交互方法、装置和存储介质 |
CN109783144A (zh) * | 2017-11-13 | 2019-05-21 | 深圳市创客工场科技有限公司 | 虚拟环境交互实现中变量的处理方法、装置和存储介质 |
WO2019095250A1 (zh) * | 2017-11-17 | 2019-05-23 | 腾讯科技(深圳)有限公司 | Vr场景下的角色模拟方法和终端设备 |
CN110134226A (zh) * | 2018-02-09 | 2019-08-16 | 深圳市掌网科技股份有限公司 | 一种辅助定位装置以及采用该装置的虚拟现实操作平台 |
CN112000228A (zh) * | 2020-09-04 | 2020-11-27 | 李欢 | 一种沉浸式虚拟现实中控制移动的方法及*** |
CN116107436A (zh) * | 2023-04-13 | 2023-05-12 | 北京乐开科技有限责任公司 | 一种基于移动设备的vr虚拟形象交互方法及*** |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2569603B (en) * | 2017-12-21 | 2020-04-01 | Sony Interactive Entertainment Inc | Position tracking apparatus and method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103116857A (zh) * | 2013-02-01 | 2013-05-22 | 武汉百景互动科技有限责任公司 | 一种基于体感控制的虚拟样板房漫游*** |
CN103488291A (zh) * | 2013-09-09 | 2014-01-01 | 北京诺亦腾科技有限公司 | 一种基于运动捕捉的浸入式虚拟现实*** |
CN104258555A (zh) * | 2014-09-10 | 2015-01-07 | 北京理工大学 | 采用rgbd视觉传感的双拳击球健身交互*** |
CN104407701A (zh) * | 2014-11-27 | 2015-03-11 | 曦煌科技(北京)有限公司 | 一种面向个人的集群化虚拟现实交互*** |
-
2015
- 2015-11-05 CN CN201510745327.6A patent/CN106681479A/zh active Pending
-
2016
- 2016-10-28 WO PCT/CN2016/103733 patent/WO2017076224A1/zh active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103116857A (zh) * | 2013-02-01 | 2013-05-22 | 武汉百景互动科技有限责任公司 | 一种基于体感控制的虚拟样板房漫游*** |
CN103488291A (zh) * | 2013-09-09 | 2014-01-01 | 北京诺亦腾科技有限公司 | 一种基于运动捕捉的浸入式虚拟现实*** |
CN104258555A (zh) * | 2014-09-10 | 2015-01-07 | 北京理工大学 | 采用rgbd视觉传感的双拳击球健身交互*** |
CN104407701A (zh) * | 2014-11-27 | 2015-03-11 | 曦煌科技(北京)有限公司 | 一种面向个人的集群化虚拟现实交互*** |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107358007A (zh) * | 2017-08-14 | 2017-11-17 | 腾讯科技(深圳)有限公司 | 控制智能家居***的方法、装置和计算可读存储介质 |
CN107562195A (zh) * | 2017-08-17 | 2018-01-09 | 英华达(南京)科技有限公司 | 人机交互方法及*** |
CN109426348A (zh) * | 2017-08-29 | 2019-03-05 | 西门子医疗有限公司 | 用于选择虚拟对象或图像参数值的方法和选择单元 |
CN109783144A (zh) * | 2017-11-13 | 2019-05-21 | 深圳市创客工场科技有限公司 | 虚拟环境交互实现中变量的处理方法、装置和存储介质 |
CN109783144B (zh) * | 2017-11-13 | 2022-03-25 | 深圳市创客工场科技有限公司 | 虚拟环境交互实现中变量的处理方法、装置和存储介质 |
CN109783112A (zh) * | 2017-11-13 | 2019-05-21 | 深圳市创客工场科技有限公司 | 虚拟环境与物理硬件的交互方法、装置和存储介质 |
WO2019091369A1 (zh) * | 2017-11-13 | 2019-05-16 | 深圳市创客工场科技有限公司 | 虚拟环境与物理硬件的交互方法、装置和存储介质 |
US10953336B2 (en) | 2017-11-17 | 2021-03-23 | Tencent Technology (Shenzhen) Company Limited | Role simulation method and terminal apparatus in VR scene |
WO2019095250A1 (zh) * | 2017-11-17 | 2019-05-23 | 腾讯科技(深圳)有限公司 | Vr场景下的角色模拟方法和终端设备 |
CN108334192A (zh) * | 2018-01-02 | 2018-07-27 | 联想(北京)有限公司 | 一种信息处理方法、穿戴式装置及存储介质 |
CN110134226A (zh) * | 2018-02-09 | 2019-08-16 | 深圳市掌网科技股份有限公司 | 一种辅助定位装置以及采用该装置的虚拟现实操作平台 |
CN110134226B (zh) * | 2018-02-09 | 2022-05-10 | 深圳市掌网科技股份有限公司 | 一种辅助定位装置以及采用该装置的虚拟现实操作平台 |
CN108509050A (zh) * | 2018-05-04 | 2018-09-07 | 北京航空航天大学 | 一种具有多点独立温度反馈的触觉反馈装置 |
CN108734774A (zh) * | 2018-05-18 | 2018-11-02 | 网易(杭州)网络有限公司 | 虚拟肢体构建方法及装置、人机交互方法 |
CN108734774B (zh) * | 2018-05-18 | 2022-05-31 | 网易(杭州)网络有限公司 | 虚拟肢体构建方法及装置、人机交互方法 |
CN112000228A (zh) * | 2020-09-04 | 2020-11-27 | 李欢 | 一种沉浸式虚拟现实中控制移动的方法及*** |
CN112000228B (zh) * | 2020-09-04 | 2024-04-05 | 河北大学 | 一种沉浸式虚拟现实中控制移动的方法及*** |
CN116107436A (zh) * | 2023-04-13 | 2023-05-12 | 北京乐开科技有限责任公司 | 一种基于移动设备的vr虚拟形象交互方法及*** |
Also Published As
Publication number | Publication date |
---|---|
WO2017076224A1 (zh) | 2017-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106681479A (zh) | 基于虚拟现实的用户交互方法及*** | |
CN110930483B (zh) | 一种角色控制的方法、模型训练的方法以及相关装置 | |
CN102426486B (zh) | 一种立体交互方法及***作设备 | |
CN114399826A (zh) | 图像处理方法及装置、图像设备及存储介质 | |
CN104181875A (zh) | 基于物联模式的运动健身*** | |
KR20140107062A (ko) | 자세 훈련 시스템 및 자세 훈련 시스템의 동작방법 | |
CN111383309A (zh) | 一种骨骼动画驱动方法、装置及存储介质 | |
CN102508562B (zh) | 一种立体交互*** | |
CN109426343B (zh) | 基于虚拟现实的协作训练方法及*** | |
CN112633059B (zh) | 一种基于LabVIEW和MATLAB的跌倒远程监控*** | |
CN104258555B (zh) | 采用rgbd视觉传感的双拳击球健身交互*** | |
CN113076002A (zh) | 基于多部位动作识别的互联健身竞技***及方法 | |
CN107272884A (zh) | 一种基于虚拟现实技术的控制方法及其控制*** | |
CN102999165B (zh) | 一种基于红外识别的虚拟现实***及交互方法 | |
CN110446996A (zh) | 一种控制方法、终端及*** | |
CN107643820B (zh) | Vr被动型机器人及其实现方法 | |
CN107684430A (zh) | 基于Curie模块人体姿态检测纠正装置及其使用方法 | |
Harms et al. | Does loose fitting matter? Predicting sensor performance in smart garments. | |
CN102508561B (zh) | 一种操作棒 | |
CN106951070A (zh) | 一种通过vr设备与虚拟场景交互的方法及显示*** | |
CN106020468A (zh) | 一种手套控制的增强现实*** | |
CN106200911A (zh) | 一种基于双摄像头的体感控制方法、移动终端及*** | |
CN102508563A (zh) | 一种立体交互方法以及***作设备 | |
CN211180839U (zh) | 一种运动教学设备和运动教学*** | |
CN107422847A (zh) | 一种远程测试虚拟角色加速度值的方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170517 |
|
RJ01 | Rejection of invention patent application after publication |