CN114035674B - 用于校准虚拟现实***的方法和*** - Google Patents

用于校准虚拟现实***的方法和*** Download PDF

Info

Publication number
CN114035674B
CN114035674B CN202110179103.9A CN202110179103A CN114035674B CN 114035674 B CN114035674 B CN 114035674B CN 202110179103 A CN202110179103 A CN 202110179103A CN 114035674 B CN114035674 B CN 114035674B
Authority
CN
China
Prior art keywords
headset
platform
perspective
virtual environment
view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110179103.9A
Other languages
English (en)
Other versions
CN114035674A (zh
Inventor
B·K·赫曼
S·J·科隆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DreamWorks Animation LLC
Original Assignee
DreamWorks Animation LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DreamWorks Animation LLC filed Critical DreamWorks Animation LLC
Priority to CN202110179103.9A priority Critical patent/CN114035674B/zh
Publication of CN114035674A publication Critical patent/CN114035674A/zh
Application granted granted Critical
Publication of CN114035674B publication Critical patent/CN114035674B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/024Multi-user, collaborative environment

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Architecture (AREA)
  • User Interface Of Digital Computer (AREA)
  • Stereophonic System (AREA)

Abstract

虚拟现实***包括平台、头戴式受送话器、底座和控制单元。所述头戴式受送话器包括运动感应单元和配置为显示虚拟环境的视频的显示单元。底座位于平台上并且配置为可释放地接合所述头戴式受送话器。在所述头戴式受送话器与底座接合的同时,头戴式受送话器位于第一位置。在头戴式受送话器与底座分离的同时,头戴式受送话器位于第二位置。控制单元连接到头戴式受送话器且配置为接收表示第一位置的第一数据且将第一位置与虚拟环境的预定第一视角相关联。控制单元还配置为接收表示第二位置的第二数据,确定与第二位置对应的虚拟环境的第二视角,以及从第二视角提供虚拟环境的视频。

Description

用于校准虚拟现实***的方法和***
本申请是申请号为2016103292320、申请日为2016年05月18日、发明名称为“用于校准虚拟现实***的方法和***”的专利的分案申请。
技术领域
本申请一般涉及基于视频的虚拟现实***,并且更具体地涉及用于使虚拟现实头戴送受话器对准以校准虚拟现实***的***和方法。
背景技术
虚拟现实是一种计算机模拟环境,其能够模拟用户在真实或虚拟环境中的物理存在。虚拟现实的应用包括医疗、游戏和军事环境。虚拟现实环境通常包括显示在计算机屏幕上或者通过立体(例如,3D)显示器显示的视觉图像。例如,视频可以显示在提供沉浸式虚拟体验的可佩戴头戴式受送话器上。
在一些虚拟现实应用中,用户可以通过使用键盘、鼠标、操纵杆或其它输入设备来改变虚拟环境的显示视角。除了该常规的输入设备之外或者替代该常规的输入设备,可佩戴头戴式受送话器可包含检测头戴式受送话器的位置的运动和/或方位传感器。头戴式受送话器的方位可对应于虚拟环境中的特定的观看方向,从而允许用户通过按照他/她环视真实世界的相同的方式移动他/她的头来改变虚拟环境的显示视角。
在一些情况下,期望的是虚拟环境与真实世界对准,使得头戴式受送话器的具体方位对应于虚拟环境中与用户所期望的一致的特定的观看方向。例如,在观看虚拟环境的同时坐在椅子上面朝前的用户可能期望在虚拟环境中向前看。不对准会导致虚拟视角倾斜或者与期望的观看方向偏轴。仅几度的小的不对准对于用户而言是可觉察到的。不对准会分心或迷惑并且可能导致不期望的后果,例如运动病。
因此,期望能够使虚拟现实环境与用户所占据的物理环境精确地对准。
发明概述
本公开描述了用于容易地且一致地校准虚拟现实***的方法和***。该***包括显示虚拟环境的视频的至少一个头戴式受送话器。虚拟环境的视角基于头戴式受送话器的位置。在一些实施例中,一个或多个底座用于将头戴式受送话器相对于平台精确地对准,使得能够基于头戴式受送话器的安装位置而将虚拟环境的方位与平台正确地对准。在一些实施例中,平台的测量位置用于将虚拟环境与平台对准。
提供了用于操作虚拟现实***的方法,所述虚拟现实***具有平台、具有运动感应单元和配置为显示虚拟环境的视频的显示单元的头戴式受送话器,以及底座,其中所述底座位于所述平台上,并且头戴式受送话器能够与底座可释放地接合。在一个实施例中,该方法包括:在头戴式受送话器与底座接合的同时,确定头戴式受送话器的第一位置,以及将头戴式受送话器的第一位置与虚拟环境的预定第一视角相关联。该方法还包括:在头戴式受送话器与底座分离的同时,确定头戴式受送话器的第二位置;确定与头戴式受送话器的第二位置对应的虚拟环境的第二视角,其中第二视角基于头戴式受送话器的第一位置与第二位置之间的差别;以及利用头戴式受送话器来从第二视角显示虚拟环境的视频。视频可包括渲染动画视频。
在一个实施例中,虚拟现实***包括平台、头戴式受送话器、底座和控制单元。头戴式受送话器包括运动感应单元和配置为显示虚拟环境的视频的显示单元。底座位于平台上。底座构造为可释放地接合头戴式受送话器。当头戴式受送话器与底座接合时,头戴式受送话器处于第一位置。当头戴式受送话器与底座分离时,头戴式受送话器处于第二位置。控制单元连接到头戴式受送话器且构造为从头戴式受送话器接收表示头戴式受送话器的第一位置的第一数据且将头戴式受送话器的第一位置与虚拟环境的预定第一视角相关联。控制单元还配置为从头戴式受送话器接收表示头戴式受送话器的第二位置的第二数据,确定与头戴式受送话器的第二位置对应的虚拟环境的第二视角,其中第二视角基于头戴式受送话器的第一位置与第二位置之间的差别,并且从第二视角向头戴式受送话器提供虚拟环境的视频。
在一个实施例中,底座附接到平台的部分。底座可附接到包含在平台中的台架。
在一个实施例中,头戴式受送话器在底座中的位置定向成相对于平台向前的方向。在另一实施例中,头戴式受送话器在底座中的位置可以与虚拟环境的向前看视角相关联。在又一实施例中,虚拟环境的第一视角与第二视角之间的变化等于第一位置与第二位置之间的头戴式受送话器的方位变化。
在一些实施例中,虚拟现实***包括:平台;头戴式受送话器,其具有运动感应单元和配置为显示虚拟环境的视频的显示单元;平台位置感应单元,其配置为测量平台的位置;以及控制单元,其连接到头戴式受送话器和平台位置感应单元。控制单元配置为:从平台位置感应单元接收表示平台位置的数据;基于平台位置来确定虚拟环境的参照系;从头戴式受送话器接收表示头戴式受送话器的位置的数据;基于平台位置与头戴式受送话器位置之间的差别来确定相对头戴式受送话器位置;基于相对头戴式受送话器位置来确定虚拟环境在参照系中的视角;以及从所确定的视角向头戴式受送话器提供虚拟环境的视频。在一些实施例中,视频包括渲染动画视频。
在一些实施例中,平台位置对应于平台的向前方向并且平台的向前方向与虚拟环境的向前看视角相关联。在一些实施例中,虚拟环境的向前看视角与虚拟环境的确定视角之间的差别等于平台位置与头戴式受送话器位置之间的差别。
在一些实施例中,平台位置感应单元与平台耦合。在一些实施例中,平台包括构造为接合头戴式受送话器的底座,并且所述平台位置感应单元与底座耦合。
附图说明
图1描绘了虚拟现实驾驶***的示范性的实施例。
图2A-2B描绘了示范性的虚拟现实头戴式受送话器。
图3A利用虚拟现实驾驶***描绘了处于第一位置的两个用户。
图3B描绘了虚拟环境的第一示范性的视角。
图3C描绘了虚拟环境的第二示范性的视角。
图3D利用虚拟现实驾驶***描绘了处于第二位置的两个用户。
图3E描绘了虚拟环境的第三示范性的视角。
图4A描绘了具有头戴式受送话器对准底座的示范性的虚拟现实驾驶***。
图4B描绘了图4A所示的头戴式受送话器和对准底座。
图5描绘了图4A-4B所示的用于头戴式受送话器的另一示范性的头戴式受送话器对准底座。
图6描绘了另一示范性的头戴式受送话器与对准底座。
图7描绘了用于校准和操作虚拟现实***的示范性的过程。
图8描绘了用于校准和操作虚拟现实***的另一示范性的过程。
图9描绘了虚拟现实***的实施例的框图。
图10描绘了虚拟现实***的另一实施例的框图。
图11描绘了示范性的计算***。
在图中描绘的实施例仅为示范性的。本领域技术人员将通过下面的论述容易理解,能够采用本文所描述的结构和方法的替选实施例,而不偏离本文所描述的原理。
发明详述
下面的说明阐述了具体的构造、参数等。然而,应当理解,该说明不意在限制本公开,而是提供作为示范性的实施例的说明。
图1描绘了虚拟现实驾驶***100的实施例,该虚拟现实驾驶***包括平台101以及显示虚拟环境的视频图像的虚拟现实头戴式受送话器104。平台101可包括与虚拟现实驾驶***100相关联的物理结构,诸如例如椅子、台架、垫子等。平台101还可以包括底板、墙壁、门、窗、灯或其它形成与虚拟环境关联的周围结构的特征。在图1描绘的实施例中,平台101包括座椅102,用户在通过头戴式受送话器104观看虚拟环境的同时可以就座于座椅102上。座椅102可通过振动、旋转、平移等移动,以提供与在虚拟环境中发生的事件相关联的物理感觉。
图2A-2B描绘了示范性的虚拟现实头戴式受送话器104的放大视图。头戴式受送话器104包括显示/传感器部106以及将头戴式受送话器104紧固到用户头部的绑带108。显示/传感器部106包括生成虚拟环境的二维或三维表示的显示单元。在一些实施例中,显示单元可包括CRT、LED、LCD等。光学器件可用于操作并调节从显示器呈现给用户的光。例如,图2B所示的头戴式受送话器包括用于观看显示器的双目光学器件110。
头戴式受送话器104还可包括检测头戴式受送话器的位置的位置感应和/或运动感应单元。头戴式受送话器104可包括传感器(诸如陀螺仪、加速度计等)以跟踪在一个、两个或三个维度上的平移运动以及跟踪绕一个、两个或三个轴线的旋转。在头戴式受送话器104由用户佩戴的同时,可确定用户头部的物理位置。为了本公开的目的,位置信息可包括地点(例如,线性位置,诸如对象沿着直线参照系的x、y和z轴的坐标)和/或方位(例如,相对于参照系的角位置、姿态、航向、海拔和侧向倾斜)。头戴式受送话器104还可以包括用于再校准的器件,诸如校正头戴式受送话器104中使用的陀螺仪的漂移的磁力计。
应当理解的是,本文所描述的技术可应用于其它类型的头戴式受送话器或者与其它类型的头戴式受送话器组合使用。如图2A-2B所示,头戴式受送话器104完全阻挡周围环境的用户视场。然而,在一些实施例中,头戴式受送话器允许周围的至少部分视图,这可允许用户保持周围环境的某视觉觉知。
作为另一示例,头戴式受送话器可以是增强现实头戴式受送话器。增强现实头戴式受送话器典型地提供显示,而不完全阻挡用户的视场。增强现实头戴式受送话器可以将能够同时看到的信息、图像、视频或其它内容显示为周围环境的至少一部分。在一些实施例中,增强现实头戴式受送话器包括提供周围的视频的透明显示器或一个或多个照相机。在一些实施例中,增强现实头戴式受送话器所显示的内容补充或增强周围环境。增强现实头戴式受送话器可包括上文参考虚拟现实头戴式受送话器104所描述的一些或全部特征(例如,位置感应和/或运动感应单元)。
在示范性的虚拟现实驾驶***100中,头戴式受送话器104与虚拟环境中的位置相关联并且从其虚拟位置视角显示虚拟环境的视频图像。头戴式受送话器104的物理方位可映射到确定虚拟环境距虚拟地点的视角的虚拟方位。例如,在虚拟环境中视角的观看方向可以对应于头戴式受送话器104的物理方位。用户可以通过改变头戴式受送话器的方位(例如,通过转动、倾斜、提升和/或降低他/她的头部)来改变视角或观看方向。例如,当用户向后倾斜他/她的头部时,头戴式受送话器104可在与头戴式受送话器104相关联的虚拟地点上方显示虚拟环境的图像。因此,用户可以简单地通过按他/她环视物理环境的方式相同的方式移动他/她的头部来“环视”虚拟环境,而无需单独的控制器或输入设备。
另外,与头戴式受送话器104相关联的虚拟地点可基于头戴式受送话器104的物理地点。在一些实施例中,头戴式受送话器104包括检测并跟踪平移运动的传感器,允许用户通过倚靠平台101或者绕平台101移动来改变与头戴式受送话器104相关联的虚拟地点,从而改变虚拟视角的原点。
在一些实施例中,虚拟环境可与平台101对准,使得关于平台101的特定物理位置(例如,地点和方位)对应于虚拟环境的预定视角。对准可确保显示给用户的虚拟环境的视角与用户基于他/她的物理位置所直觉地期望看到的一致。
例如,在图1描绘的示范性的虚拟现实驾驶***100中,平行于平台101的地板且垂直于座椅102的靠垫的方向可对应于虚拟环境的向前方向,或者更精确地,对应于虚拟环境中表示相对于与头戴式受送话器104关联的虚拟地点向前的方向的方向。因此,竖直就座在座椅102中且他/她的头部向前定向的用户将被显示沿虚拟环境的向前方向直视前方的竖直视角。此外,当与头戴式受送话器104相关联的虚拟地点向前移动时,用户将觉察到他/她也正向前移动。
图3A-3E描绘了示范性的虚拟现实***300,其中虚拟环境与物理平台301对准。图3A描绘了相对于平台301面向前方彼此相邻的两个用户306和308的前视图。图3B描绘了通过头戴式受送话器304A显示给用户306的虚拟环境的示范性的视图。用户306在虚拟环境中的地点(即,与用户306佩戴的头戴式受送话器304A相关联的虚拟地点)由用户306佩戴的头戴式受送话器的物理位置来确定。因为用户306位于平台301的左侧(从用户的视角看)并且朝向前,所以头戴式受送话器304A从汽车的前挡风玻璃向外看的汽车驾驶员座椅(根据美国惯例)显示虚拟环境的第一人视角。
图3C描绘了通过头戴式受送话器304B向用户308显示的虚拟环境的示范性的视图。用户308物理地位于平台301的右侧,并且因此头戴式受送话器304B显示来自汽车的前乘员座椅的视角。由于用户308也正朝前,所以头戴式受送话器304B显示通过前挡风玻璃向外看的视图。
图3D描绘了带着头戴式受送话器304A的用户306朝向用户308转动.在该位置,用户306被显示从驾驶员座椅朝向乘员座椅看的视角,并且看到了用户308的虚拟表示308V,如例如图3E所显示的。
然而,图3A-3E示出了用户在虚拟环境中的地点和视角对应于头戴式受送话器304A和304B在物理环境中的物理地点和方位。
然而,如果显示给用户的虚拟环境不与如上所述的平台301对准,则用户的虚拟环境的视图会与用户基于他/她的物理位置所期望的不一致。例如,不对准会导致视角倾斜或偏离虚拟向前方向,即使用户关于平台301直立且朝前。此外,如果在虚拟环境中不存在指示哪个方向是向前的事物(例如,图3B-3C和3D所描绘的汽车的内部),则虚拟环境中的运动会被错误地觉察(例如,在虚拟环境中的向前运动会表现为横向运动或者包含横向分量)。
甚至更小的几度的不对准对于用户而言是可觉察的。显示给用户的虚拟视角与用户基于他/她的物理位置所期望看到的视角之间的不一致会分心或迷惑并且可能导致不期望的后果,例如运动病。
为了减小虚拟环境与物理环境之间的不对准,当头戴式受送话器处于相对于平台的已知位置时,***可校准。在一些实施例中,头戴式受送话器的位置被确定且与预定的虚拟视角相关联。预定的虚拟视角限定了参照系或者虚拟环境关于物理环境的方位。虚拟环境与物理平台之间的对准因此由在校准时头戴式受送话器的位置来限定。
因此,平台与虚拟环境之间的对准的精度取决于在校准时头戴式受送话器与平台多么精确地对准。对准底座可用于将头戴式受送话器与平台精确地且准确地对准。底座可以附接到平台,使得其与平台对准且固定在相对于平台已知的位置处。
图4A描绘了具有示范性的头戴式受送话器对准底座的虚拟现实***400的实施例。***400包括平台401、头戴式受送话器404,414和底座405,415。底座405,415被放置在相对于平台401已知的位置处。在图4A中,底座405,415位于平台401上。底座405,415固定地或者可释放地附接到平台401。在图4A中,底座405,415附接到台架402,412的背面。然而,应当理解,底座405,415可放置在各个地方,包括例如座椅或台架的下面、座椅或台架的扶手上、或者在柱子、支架、机架等上。还应当认识到,底座不一定需要附接到平台。在一些实施例中,底座是处于相对于平台而言已知但是远程的位置处。
图4A还示出了与底座405,415接合的头戴式受送话器404,414。头戴式受送话器404,414与底座405,415可释放地接合,使得就座于台架402,412上例如的用户可以使用位于它们前面的头戴式受送话器404,414。例如,就座于台架412上的用户可以通过将头戴式受送话器与底座405分离来使用头戴式受送话器404。
图4B示出了头戴式受送话器404与底座405分离的情况下头戴式受送话器404和底座405的放大视图。底座405和头戴式受送话器404构造为互补的,使得头戴式受送话器404当与底座405接合时相对于底座405处于已知的位置。底座405与头戴式受送话器404的尺寸和形状相符,使得头戴式受送话器404的位置在与底座405适当地接合时受限制,但是头戴式受送话器404仍能够容易地接合和分离。在一些实施例中,底座可以不支持或构造为不与头戴式受送话器接合,直到其正确地定位。在这些情况下,头戴式受送话器与底座的接合表明,头戴式受送话器处于正确的位置。
因此,当与底座405正确地接合时,头戴式受送话器404相对于底座405的位置被精确地获知。此外,由于底座405的位置相对于平台401是已知的,所以头戴式受送话器404相对于平台401的位置也是已知的。
应当认识到,对于特定的头戴式受送话器,各种底座几何结构是可能的。例如,图5描绘了可与头戴式受送话器404一起使用的底座505的另一示范性的实施例。底座的几何结构也会基于头戴式受送话器的尺寸和形状而变化。图6描绘了底座605的又一示范性的实施例,底座605与头戴式受送话器604的几何结构相符,头戴式受送话器604具有不同于头戴式受送话器404的形状。根据底座和头戴式受送话器的几何结构,存在多种头戴式受送话器可构造为与底座接合的方式,包括放置在底座上,连接到底座上,从底座悬接,或者***底座中。而且,在一些实施例中,底座包括钩、夹子、栓钉或其它用于可释放地接合头戴式受送话器的手段。在一些实施例中,头戴式受送话器包括钩、夹子、栓钉或其他用于可释放地接合底座的手段。
在一些实施例中,底座构造为接合多于一个的头戴式受送话器。例如,底座可包括构造为接合多个头戴式受送话器用于校准的机架、支架或其它结构。例如,在图4A所描绘的示例中,不是底座405和415,***400可包括构造为保持头戴式受送话器404,414的机架,机架位于平台401的侧部或附近,使得用户能够在进入平台401时抓取头戴式受送话器404,414。
图7描绘了示出利用底座校准和操作虚拟现实***的示范性的过程700的流程图。该***包括位于平台上的底座和与所述底座能可释放地接合的头戴式受送话器。
在步骤702中,当头戴式受送话器与底座接合时,头戴式受送话器的第一位置被确定。头戴式受送话器的第一位置基于头戴式受送话器的地点和/或方位的测量来确定。该测量可通过设在头戴式受送话器内的位置传感器或运动传感器来获得。
在步骤704中,头戴式受送话器的第一位置与虚拟环境的第一视角相关联。将第一位置与第一视角关联设定了虚拟环境的参照系。在一些实施例中,第一位置(即,头戴式受送话器在底座中的位置)被定向以匹配虚拟环境中的已知状态(即,已知的参照系或方位)。例如,第一视角可被预先确定而使得头戴式受送话器在底座中的位置对应于建立与平台对准的虚拟环境参照系的视角。头戴式受送话器可将表示第一位置的数据发送到包含在虚拟现实***中的处理器以与虚拟环境的第一视角相关联。
可以在操作***之前确定平台与虚拟环境之间的期望的对准度。第一视角取决于头戴式受送话器在底座中的位置并且被选择而使得头戴式受送话器将显示直觉上与头戴式受送话器相对于平台的位置一致的视角。底座允许头戴式受送话器与平台精确地对准,从而第一虚拟视角能够与正确的物理位置相关联。通过获知头戴式受送话器相对于平台的位置,通过将头戴式受送话器的位置与得到期望对准度的虚拟视角相关联,虚拟环境可与平台对准。底座和头戴式受送话器与平台对准的精度越大,虚拟环境的对准将更好。
应当认识到,为了校准的目的,头戴式受送话器在底座中时的特定位置是不重要的,只要位置已知且***将安装位置与正确的虚拟视角相关联即可。在图4A描绘的实施例中,头戴式受送话器404在底座405中的位置定向成相对于平台401向前的方向。然而,在图5中,示范性的底座505构造为使得头戴式受送话器404的前面定向成当置于底座505中时的向下的方向。在该情况下,头戴式受送话器404在校准时的方位可映射到向正下方看的虚拟环境的视角。图5还示出了实现具有不同底座构造的上述的底座特性是可能的。
在步骤706中,当头戴式受送话器与底座分离时,头戴式受送话器的第二物理位置被确定。在一个实施例中,头戴式受送话器与底座分离且位于用户头部上以观看虚拟环境的图像。如上所述,头戴式受送话器的位置可通过包含在头戴式受送话器中的传感器来确定,传感器检测头戴式受送话器的运动。
在步骤708中,虚拟环境的对应于第二头戴式受送话器位置的第二视角被确定。可基于在步骤706中确定的头戴式受送话器的第二位置来确定第二视角。例如,第二视角可基于头戴式受送话器的第一位置与第二位置之间的差别。在一个实施例中,从第一虚拟视角到第二虚拟视角的方位或观看方向的变化基于头戴式受送话器从接合位置到分离位置的方位的变化。例如,在虚拟环境中的观看方向可以从预定视角的观看方向移动与头戴式受送话器的方位从其安装位置到其更新后的位置相同的量以及沿相同的方向。
在步骤710中,通过头戴式受送话器显示从步骤708中确定的第二视角示出虚拟环境的视频。在一个实施例中,视频包括基于虚拟环境的确定的视角以及因此头戴式受送话器的位置而渲染的动画图像。
参考图4A,现在将描述利用测得的平台的位置来对准虚拟现实***的技术。***400包括检测平台401的位置和/或运动的平台位置感应单元420。平台位置感应单元420可包括传感器(诸如陀螺仪、加速度计等),传感器跟踪平台401在一个、两个或三个维度上的平移运动和/或跟踪平台401的关于一个、两个或三个轴线的旋转。***400还可以包括用于传感器的再校准的手段,诸如校正在平台位置感应单元420中使用的陀螺仪中的漂移的磁力计。在一些实施例中,传感器位于平台401中或者附接到平台401上。例如,传感器可位于台架402或412中,位于底座405或415中,或者在平台401上或平台401中的其它地方。在一些实施例中,存在一个或多个平台位置感应单元。在一些实施例中,每个底座均包括单独的平台位置感应单元。
平台的测量位置能够用于保持虚拟环境与平台对准。这对于如下***是有益的:在该***中,虚拟环境的方位要保持相对于平台固定,但是平台很可能移动,例如在飞机上,汽车中或其它车辆中。例如,即使头戴式受送话器保持相对于平台固定,但是平台本身的旋转会导致头戴式受送话器旋转,这改变了虚拟环境的视图。因此,平台的移动改变了所显示的视图,恰似用户已经转动了他/她的头部一样,即使用户没有那样做。换个角度,平台运动会导致虚拟环境的方位漂移且变得与平台不对准(例如,平台的向前方向不再与虚拟环境中的向前看方向对准)。该效应是不期望的,尤其是对于虚拟环境的视图应唯一地由用户控制或者应当保持与平台对准的应用而言。例如,在虚拟现实中观看电影的航空乘客非常愿意电源的视图保持与他/她的座椅对准,而不是随着飞机转动而变化。
在一些实施例中,平台的位置用于保持虚拟环境与平台之间的对准。例如,平台位置感应单元420能够测量平台401的位置并且基于平台401所朝向的方向来确定相对向前方向。然后,通过设定虚拟环境的参照系与相对向前方向对准,能够校准***400。一旦校准,头戴式受送话器404,414所显示的视图基于它们相对于向前方向的位置。因此,不是基于如上所述的头戴式受送话器在底座中的已知位置来校准***,而是基于测得的平台位置来校准***。
在一些实施例中,***被周期性地(例如,每秒)再校准。任选地,再校准的频率取决于平台的期望运动(例如,具有期望移动或转动更快的平台的***被更佳频繁地再校准)。在一些实施例中,再校准频率取决于测得的平台的运动(例如,当平台位置的快速变化被检测到减小漂移量时,更频繁地执行再校准)。
图8描绘了利用测得的平台位置来校准和操作虚拟现实***的示范的过程800的流程图。该***可以为例如上述的***400或下面描述的***800或900。
在步骤802中,确定平台的位置。该位置可基于通过诸如上述的平台位置感应单元的测量。在步骤804中,基于平台位置来确定虚拟环境的参照系。例如,参照系可定向成使得预定的虚拟方向(例如,向前看方向)与平台的朝前方向对准。在步骤806中,确定头戴式受送话器的位置。头戴式受送话器的位置可如上文过程700中的步骤702所述地那样来测量。在步骤808中,相对于平台位置来确定相对头戴式受送话器位置。例如,相对头戴式受送话器位置可以是测量的头戴式受送话器位置与平台位置之间的差别。在步骤810中,虚拟环境在参照系中的视角是基于相对头戴式受送话器位置来确定的。例如,视角可以偏离虚拟环境中的向前看放心的量与头戴式受送话器位置偏离平台位置的量相同。在步骤812中,虚拟环境的视角的视频被显示。
应当认识到,过程700和800的一些特征可组合,一些特征的顺序可改变,并且一些特征可省去。还应当认识到过程700和800可应用于构造为用于一个或多个用户的***。而且,上述的虚拟现实***和过程不限于任何特定的虚拟环境。例如,虚拟现实体验可包括漫步于城市、驾驶圣诞老人的雪橇到北极、在虚拟生物的背部上飞过天空,驾驶吉普车旅行,或者其它真实的或虚拟的虚拟体验。
本文所描述的对准和校准技术可应用于除驾驶之外的其它类型的虚拟现实***,包括诸如视频游戏、模拟器(例如,飞行和车辆模拟器)等交互式***。这些***可不包括专用平台或台架,诸如上述的那些。例如,头戴式受送话器对准底座可附接到个人桌子、椅子、监视器或其它对象上以将与游戏控制器、个人计算机等联用的头戴式受送话器对准。在该情况下,对象充当了虚拟环境所要对准的平台。
现在转到图9,描述了虚拟现实***900的示范性的体系结构。虚拟现实***900可用于实现上述的过程700和800的操作中的一些或全部。图9描绘了虚拟现实***900的实施例的框图,其包括平台901、控制单元902、头戴式受送话器904、底座905和平台位置感应单元910。控制单元902包括工作站906和服务器908。每个头戴式受送话器904能够可释放地连接到底座905(如虚线连接线所指示的)且连接到工作站906。每个工作站906连接到服务器908,这将工作站906和平台位置感应单元910用网络连在一起。工作站906和/或服务器908可远离平台901或者与平台901集成,例如,在座椅下面或者在机柜中。
在一个实施例中,头戴式受送话器904将表示头戴式受送话器904的物理地点和方位的数据传送到工作站906,工作站906可将数据传递到服务器908。工作站906可包括用于渲染虚拟环境的动画视频或内容的一个或多个处理器。每个工作站906基于与其对应头戴式受送话器904相关联的虚拟位置(其基于头戴式受送话器904的物理位置)来渲染虚拟环境的视图,并且将视频提供给其对应的头戴式受送话器904。服务器908还可以包括协调工作站906的一个或多个处理器并且提供用于渲染的数据。该数据可包括虚拟环境中的元素或事件,诸如例如景色、人物、对象、人物运动等。
在图10所描绘的可选实施例中,虚拟现实***1000包括具有渲染处理器1006和服务器1008的控制单元1002,类似***900,但是头戴式受送话器1004直接连接到服务器1008,而不是渲染处理器1006。服务器1008可以在渲染处理器1006之间分配动画视频渲染处理,并且随后提供渲染视频给适合的头戴式受送话器。相爱难燃,渲染处理器1006的数量M不一定等于头戴式受送话器1004的数量N。
虽没有示出,用于接收来自平台位置感应单元的通信的各种替选配置是可能的。在一些实施例中,平台位置感应单元经由有线或无线通信链路来通信。在一些实施例中,平台位置感应单元直接与一个或多个头戴式受送话器或者一个或多个工作站或渲染处理器通信。
应当认识到,上述用于虚拟现实***的一些或全部技术能够以类似方式应用于增强现实***。增强现实***可以基于增强现实头戴式受送话器的位置来显示内容。例如,并非虚拟环境,或者除了虚拟环境之外,***可显示与周围环境关联的信息或其它内容。此外,***可以类似于上述的虚拟现实***确定要显示的虚拟环境的视角的方式的方式来基于头戴式受送话器的位置确定要显示的内容。如果增强现实***要显示的内容取决于头戴式受送话器的位置,则因此有益的是根据上述一种或多种技术来校准头戴式受送话器。
图11描绘了构造为执行任何一种上述过程的示范的计算***1100的组件。在一些实施例中,上述的工作站、渲染处理器和/或服务器可包括计算***1100的一些或全部的元件。计算***1100可包括例如处理器、存储器、存储设备和输入/输出设备(例如,监视器、键盘、触针、绘图设备、磁盘驱动器、因特网连接等)。然而,计算***1100可包括用于实施过程的一些或全部方面的电路***或其它专用硬件。在一些操作设置中,计算***1100可配置为包括一个或多个单元的***,其中每个单元配置为通过软件、硬件或它们的某组合来实施过程的一些方面。
在计算***1100中,主***1102可包括具有总线的主板1104,总线连接输入/输出(“I/O)部1106、一个或多个中央处理单元(“CPU”)1108和存储器部1110,存储器部可具有与其相关的闪存卡1112。存储器部1110可以包含用于实施过程700和800的至少部分的计算机可执行指令和/或数据。I/O部1106可以连接到显示器1124、键盘1114、磁盘存储单元1116和媒介驱动单元1118。媒介驱动单元1118能够读/写非暂态的、计算机可读存储介质1120,其可以包含程序1122和/或数据。
基于上述过程的结果的至少一些值可被保存以便随后使用。另外,非暂态的、计算机可读存储介质可用于存储(例如,有形地实施)用于借助计算机执行上述过程中的任意过程的一个或多个计算机程序。计算机程序可以用例如通用编程语言(例如Pascal,C,C++,Java等)或一些专门的专用语言来编写。
为了示例和描述的目的,已经呈现了具体实施例的前面的描述。这些描述不意在穷尽或将权利要求的范围限制为所公开的确切形式,而应当理解的是根据上述教导多种修改和变形是可能的。

Claims (21)

1.一种用于游乐园乘坐装置的虚拟现实***,包括:
头戴式受送话器,所述头戴式受送话器具有头戴式受送话器传感器单元和显示器,其中,所述头戴式受送话器传感器单元与所述头戴式受送话器的结构集成在一起;
平台传感器单元,所述平台传感器单元与所述游乐园乘坐装置的平台相关联;和
一个或多个处理器,所述一个或多个处理器连接到所述头戴式受送话器和所述平台传感器单元,所述一个或多个处理器被配置成:
校准可显示在所述头戴式受送话器的所述显示器视频中的虚拟环境的透视图,其中,校准所述透视图包括:
从所述平台传感器单元接收平台数据,所述平台数据代表指示平台位置的特性;
从所述头戴式受送话器传感器单元接收头戴式受送话器数据,所述头戴式受送话器数据代表指示头戴式受送话器位置的特性;
基于所述平台数据和所述头戴式受送话器数据确定所述虚拟环境的透视图;以及
在所述头戴式受送话器的所述显示器上以所述虚拟环境的透视图显示所述视频;以及
确定所述虚拟环境的改变的透视图,其中,确定所述改变的透视图包括:
从所述头戴式受送话器单元接收附加头戴式受送话器数据,所述附加头戴式受送话器数据代表指示附加头戴式受送话器位置的特性;
在没有来自所述平台传感器单元的附加反馈的情况下并基于所述透视图和所述附加头戴式受送话器数据,确定所述虚拟环境的所述改变的透视图;以及
在所述头戴式受送话器的所述显示器上以所述虚拟环境的所述改变的透视图显示所述视频。
2.根据权利要求1所述的虚拟现实***,其中,所述头戴式受送话器传感器单元包括陀螺仪、加速度计、磁力计或其任意组合。
3.根据权利要求1所述的虚拟现实***,其中,所述头戴式受送话器传感器单元被配置成:在代表指示所述附加头戴式受送话器位置的特性的所述附加头戴式受送话器数据中捕获所述平台的移动以及与所述平台的移动无关的所述头戴式受送话器的移动。
4.根据权利要求1所述的虚拟现实***,其中,所述一个或多个处理器被配置成:校准可显示在所述头戴式受送话器的所述显示器上的所述视频中的所述虚拟环境的重新校准透视图,其中,所述校准所述重新校准透视图包括:
从所述平台传感器单元接收重新校准平台数据,所述重新校准平台数据代表指示重新校准平台位置的特性;
从所述头戴式受送话器传感器单元接收重新校准头戴式受送话器数据,所述重新校准头戴式受送话器数据代表指示重新校准头戴式受送话器位置的特性;
基于所述重新校准平台数据和所述重新校准头戴式受送话器数据,确定所述虚拟环境的所述重新校准透视图;以及
在所述头戴式受送话器的所述显示器上以所述虚拟环境的所述重新校准透视图显示所述视频。
5.根据权利要求4所述的虚拟现实***,其中,所述校准所述透视图和所述校准所述重新校准透视图之间的持续时间取决于所述平台的预期移动。
6.根据权利要求5所述的虚拟现实***,其中,所述持续时间是由所述一个或多个处理器计算的。
7.根据权利要求1所述的虚拟现实***,其中,所述基于所述平台数据和所述头戴式受送话器数据确定所述虚拟环境的透视图包括:
基于所述平台数据确定所述虚拟环境的参考框架;
基于所述平台位置与所述头戴式受送话器位置之间的差异确定头戴式受送话器相对位置;以及
基于所述头戴式受送话器相对位置确定所述参考框架内所述虚拟环境的透视图。
8.根据权利要求1所述的虚拟现实***,其中,由所述一个或多个处理器提供给所述头戴式受送话器的所述显示器的所述视频包括增强现实内容。
9.一种用于游乐园乘坐装置的虚拟现实***的操作方法,包括:
校准可在所述虚拟现实***的头戴式受送话器的视频中和显示器上显示的虚拟环境的透视图,其中,所述校准所述透视图包括:
在所述虚拟现实***的一个或多个处理器上以及从所述虚拟现实***的平台传感器单元接收平台数据,所述平台数据代表指示所述游乐园乘坐装置的移动平台的平台位置的特性;
在所述一个或多个处理器上并从所述虚拟现实***的头戴式受送话器传感器单元接收头戴式受送话器数据,所述头戴式受送话器数据代表指示所述头戴式受送话器的头戴式受送话器位置的特性;以及
经由所述一个或多个处理器并基于所述平台数据和所述头戴式受送话器数据,确定所述虚拟环境的透视图;以及
确定所述虚拟环境的改变的透视图,其中,确定所述改变的透视图包括:
在所述一个或多个处理器上并从所述头戴式受送话器传感器单元接收附加头戴式受送话器数据,所述附加头戴式受送话器数据代表指示附加头戴式受送话器位置的特性;以及
在没有来自所述平台传感器单元的附加反馈的情况下并基于所述透视图和所述附加头戴式受送话器数据,确定所述虚拟环境的所述改变的透视图。
10.根据权利要求9所述的方法,包括:
在所述头戴式受送话器的所述显示器上以所述虚拟环境的透视图显示所述视频;并且然后
在所述头戴式受送话器的所述显示器上以所述虚拟环境的所述改变的透视图显示所述视频。
11.根据权利要求9所述的方法,其中,所述头戴式受送话器传感器单元在代表指示所述附加头戴式受送话器位置的特性的所述附加头戴式受送话器数据中捕获所述移动平台的移动以及与所述移动平台的移动无关的所述头戴式受送话器的移动。
12.根据权利要求9所述的方法,包括:校准可显示在所述头戴式受送话器的所述显示器上的所述视频中的所述虚拟环境的重新校准透视图,其中,所述校准所述重新校准透视图包括:
从所述平台传感器单元接收重新校准平台数据,所述重新校准平台数据代表指示重新校准平台位置的特性;
从所述头戴式受送话器传感器单元接收重新校准头戴式受送话器数据,所述重新校准头戴式受送话器数据代表指示重新校准头戴式受送话器位置的特性;以及
基于所述重新校准平台数据和所述重新校准头戴式受送话器数据,确定所述虚拟环境的所述重新校准透视图。
13.根据权利要求12所述的方法,包括:
在所述头戴式受送话器的所述显示器上以所述虚拟环境的透视图显示所述视频;并且然后
在所述头戴式受送话器的所述显示器上以所述虚拟环境的所述改变的透视图显示所述视频;并且然后
在所述头戴式受送话器的所述显示器上以所述虚拟环境的所述重新校准透视图显示所述视频。
14.根据权利要求12所述的方法,其中,所述校准所述透视图和所述校准所述重新校准透视图之间的持续时间取决于所述移动平台的预期移动特性。
15.根据权利要求14所述的方法,包括:计算所述持续时间。
16.根据权利要求9所述的方法,包括:将增强现实内容包含在所述视频中。
17.根据权利要求9所述的方法,其中,所述附加头戴式受送话器数据包括陀螺仪数据、加速度计数据、磁力计数据或其组合。
18.一种非暂时性计算机可读存储介质,包括计算机可执行指令,所述计算机可执行指令用于操作游乐园乘坐装置的虚拟现实***,所述计算机可执行指令包括用于以下操作的指令:
在所述游乐园乘坐装置的单次运行期间在多个实例处校准可显示在所述虚拟现实***的头戴式受送话器的视频中和显示器上的虚拟环境的透视图,其中,每个校准包括:
从平台传感器单元接收平台数据,所述平台数据代表指示所述游乐园乘坐装置的移动平台的平台位置的特性;
从头戴式受送话器传感器单元接收头戴式受送话器数据,所述头戴式受送话器数据代表指示所述头戴式受送话器的头戴式受送话器位置的特性;
基于所述平台数据和所述头戴式受送话器数据确定所述虚拟环境的透视图;以及
在所述头戴式受送话器的所述显示器上以所述虚拟环境的透视图显示所述视频;以及
在校准所述透视图的第一实例与校准所述透视图的第二实例之间确定所述虚拟环境的改变的透视图,其中,确定所述改变的透视图包括:
从所述头戴式受送话器传感器单元接收附加头戴式受送话器数据,所述附加头戴式受送话器数据代表指示附加头戴式受送话器位置的特性;
在没有来自所述平台传感器单元的附加反馈的情况下并基于所述透视图和所述附加头戴式受送话器数据,确定所述虚拟环境的所述改变的透视图;以及
在所述头戴式受送话器的所述显示器上以所述虚拟环境的所述改变的透视图显示所述视频。
19.根据权利要求18所述的计算机可读存储介质,其中,所述校准所述透视图的第一实例和所述校准所述透视图的第二实例之间的持续时间是基于所述移动平台的预期移动的。
20.根据权利要求18所述的计算机可读存储介质,其中,所述基于所述平台数据和所述头戴式受送话器数据确定所述虚拟环境的透视图包括:
基于所述平台数据确定所述虚拟环境的参考框架;
基于所述平台位置与所述头戴式受送话器位置之间的差异确定头戴式受送话器相对位置;以及
基于所述头戴式受送话器相对位置确定所述参考框架内所述虚拟环境的透视图。
21.根据权利要求18所述的计算机可读存储介质,所述计算机可执行指令包括用于将增强现实内容包含在所述视频中的指令。
CN202110179103.9A 2015-05-18 2016-05-18 用于校准虚拟现实***的方法和*** Active CN114035674B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110179103.9A CN114035674B (zh) 2015-05-18 2016-05-18 用于校准虚拟现实***的方法和***

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201562163313P 2015-05-18 2015-05-18
US62/163,313 2015-05-18
CN201610329232.0A CN106168849B (zh) 2015-05-18 2016-05-18 用于校准虚拟现实***的方法和***
CN202110179103.9A CN114035674B (zh) 2015-05-18 2016-05-18 用于校准虚拟现实***的方法和***

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201610329232.0A Division CN106168849B (zh) 2015-05-18 2016-05-18 用于校准虚拟现实***的方法和***

Publications (2)

Publication Number Publication Date
CN114035674A CN114035674A (zh) 2022-02-11
CN114035674B true CN114035674B (zh) 2023-09-15

Family

ID=56024124

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202110179103.9A Active CN114035674B (zh) 2015-05-18 2016-05-18 用于校准虚拟现实***的方法和***
CN201610329232.0A Active CN106168849B (zh) 2015-05-18 2016-05-18 用于校准虚拟现实***的方法和***

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201610329232.0A Active CN106168849B (zh) 2015-05-18 2016-05-18 用于校准虚拟现实***的方法和***

Country Status (3)

Country Link
US (2) US10176638B2 (zh)
EP (1) EP3096212B1 (zh)
CN (2) CN114035674B (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180224930A1 (en) * 2015-08-04 2018-08-09 Board Of Regents Of The Nevada System Of Higher Education, On Behalf Of The University Of Nevada, Immersive virtual reality locomotion using head-mounted motion sensors
US10528021B2 (en) 2015-10-30 2020-01-07 Rockwell Automation Technologies, Inc. Automated creation of industrial dashboards and widgets
US10657701B2 (en) * 2016-06-30 2020-05-19 Sony Interactive Entertainment Inc. Dynamic entering and leaving of virtual-reality environments navigated by different HMD users
US10545492B2 (en) 2016-09-26 2020-01-28 Rockwell Automation Technologies, Inc. Selective online and offline access to searchable industrial automation data
US10735691B2 (en) 2016-11-08 2020-08-04 Rockwell Automation Technologies, Inc. Virtual reality and augmented reality for industrial automation
US10388075B2 (en) 2016-11-08 2019-08-20 Rockwell Automation Technologies, Inc. Virtual reality and augmented reality for industrial automation
US10866631B2 (en) 2016-11-09 2020-12-15 Rockwell Automation Technologies, Inc. Methods, systems, apparatuses, and techniques for employing augmented reality and virtual reality
KR102371288B1 (ko) * 2017-07-14 2022-03-07 휴렛-팩커드 디벨롭먼트 컴퍼니, 엘.피. 가상 현실 헤드셋 스탠드들
US10445944B2 (en) * 2017-11-13 2019-10-15 Rockwell Automation Technologies, Inc. Augmented reality safety automation zone system and method
CN109029443B (zh) * 2018-06-08 2021-01-15 北京奇艺世纪科技有限公司 一种虚拟环境中的位置确定方法及装置
US10360713B1 (en) * 2018-07-17 2019-07-23 Disney Enterprises, Inc. Event enhancement using augmented reality effects
AT521937A2 (de) * 2018-12-13 2020-06-15 Cybereshoes Gmbh Automatisches kalibrieren eines sensorsystems zum best immen der bewegungsrichtung eines anwenders in einem vr-system
US12039674B2 (en) 2020-09-18 2024-07-16 Apple Inc. Inertial data management for extended reality for moving platforms
CN112270864B (zh) * 2020-11-05 2022-06-21 中电海康集团有限公司 一种基于第一人称视线位置调整的驾培教学方法及***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102566053A (zh) * 2007-01-31 2012-07-11 麦可门蒂斯公司 用于轮廓形成***的头戴式显示装置
CN103076678A (zh) * 2011-10-26 2013-05-01 索尼公司 头戴式显示器和显示控制方法
CN103149689A (zh) * 2011-12-06 2013-06-12 微软公司 扩充的现实虚拟监视器
CN103793049A (zh) * 2012-10-26 2014-05-14 波音公司 虚拟现实显示***

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8855719B2 (en) * 2009-05-08 2014-10-07 Kopin Corporation Wireless hands-free computing headset with detachable accessories controllable by motion, body gesture and/or vocal commands
AU2011232570A1 (en) * 2010-03-22 2012-11-01 Aliph, Inc. Pipe calibration of omnidirectional microphones
KR20140005127A (ko) * 2010-08-12 2014-01-14 알리프, 인크. 클램핑 시스템을 가진 조정 시스템
CN102723015A (zh) * 2012-05-29 2012-10-10 国网电力科学研究院武汉南瑞有限责任公司 配网运检仿真培训***及方法
CN102945564A (zh) * 2012-10-16 2013-02-27 上海大学 基于视频透视式增强现实的真三维建模***和方法
CN103218929B (zh) * 2013-03-19 2015-09-09 哈尔滨工业大学 一种基于头低位卧床的空间站舱内导航模拟方法及***
TWI518368B (zh) * 2013-09-11 2016-01-21 財團法人工業技術研究院 虛像顯示裝置
US9547173B2 (en) * 2013-10-03 2017-01-17 Honda Motor Co., Ltd. System and method for dynamic in-vehicle virtual reality
US9996975B2 (en) * 2014-03-18 2018-06-12 Dreamworks Animation L.L.C. Interactive multi-rider virtual reality ride system
US20160001190A1 (en) * 2014-07-07 2016-01-07 Tait Towers Manufacturing, LLC Suspended flying rig system
GB2532463B (en) * 2014-11-19 2021-05-26 Bae Systems Plc Interactive vehicle control system
CN104618712A (zh) * 2015-02-13 2015-05-13 北京维阿时代科技有限公司 一种头戴式虚拟现实设备及包括该设备的虚拟现实***

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102566053A (zh) * 2007-01-31 2012-07-11 麦可门蒂斯公司 用于轮廓形成***的头戴式显示装置
CN103076678A (zh) * 2011-10-26 2013-05-01 索尼公司 头戴式显示器和显示控制方法
CN103149689A (zh) * 2011-12-06 2013-06-12 微软公司 扩充的现实虚拟监视器
CN103793049A (zh) * 2012-10-26 2014-05-14 波音公司 虚拟现实显示***

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Griffin D. Romigh.et al.Free-Field Localization Performance With a Head-Tracked Virtual Auditory Display.《IEEE》.2015,第09卷(第5期),全文. *
严静东,郑国炎.虚拟现实在现代医学教育训练中的应用.医学信息.2000,(第05期),全文. *
郭玲.虚拟现实技术在通信实践教学中的应用.《中国优秀硕士学位论文全文数据库 信息科技辑》.2008,(第06期),全文. *

Also Published As

Publication number Publication date
US20190156584A1 (en) 2019-05-23
US10176638B2 (en) 2019-01-08
CN114035674A (zh) 2022-02-11
CN106168849A (zh) 2016-11-30
EP3096212B1 (en) 2020-01-01
EP3096212A1 (en) 2016-11-23
US10762714B2 (en) 2020-09-01
US20160343167A1 (en) 2016-11-24
CN106168849B (zh) 2021-03-09

Similar Documents

Publication Publication Date Title
CN114035674B (zh) 用于校准虚拟现实***的方法和***
US9996975B2 (en) Interactive multi-rider virtual reality ride system
US10181212B2 (en) Method and system for reducing motion sickness in virtual reality ride systems
Yao et al. Oculus vr best practices guide
US7717841B2 (en) Motion-coupled visual environment for prevention or reduction of motion sickness and simulator/virtual environment sickness
WO2017100017A1 (en) Third party holographic portal
US20080030429A1 (en) System and method of enhanced virtual reality
US9922465B2 (en) Systems and methods for changing a perceived speed of motion associated with a user
US9996149B1 (en) Method for one-touch translational navigation of immersive, virtual reality environments
US20190139436A1 (en) Virtual Reality Driving Simulator Rig
CN108572723B (zh) 一种防晕车方法及设备
KR102403915B1 (ko) 멀미를 겪지 않고 차량에서 디지털 콘텐츠 보기
KR101419044B1 (ko) 3d 가상 객체의 그림자를 표시하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
US20210082187A1 (en) Haptic simulation of motion in virtual reality
KR101507014B1 (ko) 운송장치 시뮬레이션 시스템 및 그 제어방법
ES2233201A1 (es) Sistema de simulacion de realidad mixta.
Venkatakrishnan et al. Towards an immersive driving simulator to study factors related to cybersickness
Grácio et al. Perceptual scaling of visual and inertial cues
US9679352B2 (en) Method for operating a display device and system with a display device
US11127376B2 (en) Method for rendering a current image on a head-mounted display, corresponding apparatus, computer program product, and computer readable carrier medium
US20210046391A1 (en) Virtual Reality Motion Simulator
TWM503930U (zh) 模擬實境遊戲系統
CN112308906B (zh) 视角校正方法、虚拟实境显示***与运算装置
US20240169676A1 (en) Rotational navigation in a virtual environment with a visual reference
US12062232B2 (en) Viewing digital content in a vehicle without suffering from motion sickness

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant