CN109189215A - 一种虚拟内容显示方法、装置、vr设备及介质 - Google Patents

一种虚拟内容显示方法、装置、vr设备及介质 Download PDF

Info

Publication number
CN109189215A
CN109189215A CN201810935326.1A CN201810935326A CN109189215A CN 109189215 A CN109189215 A CN 109189215A CN 201810935326 A CN201810935326 A CN 201810935326A CN 109189215 A CN109189215 A CN 109189215A
Authority
CN
China
Prior art keywords
lens
human eye
distance
screen
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810935326.1A
Other languages
English (en)
Other versions
CN109189215B (zh
Inventor
余志雄
林明田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201810935326.1A priority Critical patent/CN109189215B/zh
Publication of CN109189215A publication Critical patent/CN109189215A/zh
Application granted granted Critical
Publication of CN109189215B publication Critical patent/CN109189215B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种虚拟内容显示方法、装置、VR设备及介质,应用于VR技术领域,用以解决现有技术中存在场景漂移的问题。具体为:获取VR设备的屏幕与透镜之间的距离;根据距离确定透镜在屏幕上的可视区域,根据可视区域确定屏幕显示区域;获取人眼相对于透镜的位置;确定位置对应的用户视场角,根据用户视场角调整虚拟内容的视场角;将调整视场角后的虚拟内容显示在所述屏幕显示区域上。这样,就实现了对屏幕显示区域和虚拟内容的视场角的自适应调节,使得屏幕显示区域与可视区域一致以及虚拟内容的视场角与用户视场角一致,从而有效地降低了场景漂移出现的概率,尽可能地提高了VR设备的视觉效果。

Description

一种虚拟内容显示方法、装置、VR设备及介质
技术领域
本发明涉及虚拟现实(Virtual Reality,VR)技术领域,尤其涉及一种虚拟内容显示方法、装置、VR设备及介质。
背景技术
VR技术是仿真技术与计算机图形学、人机接口技术、多媒体技术、传感技术、网络技术等多种技术的集合,随着VR技术的不断发展,出现了VR眼罩等多种VR设备,VR设备通过运算模拟产生一个三度空间的虚拟场景,能够在视觉、听觉、触觉等感官上给用户带来身临其境的感受,从而实现一种全新体验。
然而,在实际应用中,由于VR设备的组装公差以及用户的使用偏差等原因,在用户使用VR设备的过程中,很可能存在用户视场角与虚拟内容的视场角不相符的问题,这不仅会使用户在转动视角时出现场景漂移的现象,还会严重影响VR设备的视觉效果。
发明内容
本发明实施例提供了一种虚拟内容显示方法、装置、VR设备及介质,用以解决现有技术中的VR设备可能出现场景漂移的现象,从而影响VR设备的视觉效果的问题。
本发明实施例提供的具体技术方案如下:
本发明实施例提供了一种虚拟内容显示方法,包括:
获取虚拟现实VR设备的屏幕与透镜之间的距离;
根据该距离确定该透镜在该屏幕上的可视区域,并根据该可视区域确定屏幕显示区域;
获取人眼相对于该透镜的位置;
确定该位置对应的用户视场角,并根据该用户视场角调整虚拟内容的视场角;
将调整视场角后的虚拟内容显示在该屏幕显示区域上。
在本发明实施例提供的虚拟内容显示方法中,获取VR设备的屏幕与透镜之间的距离,包括:
通过光波测距传感器,发射物理光波并接收该屏幕或者该透镜反射的该物理光波;
确定该光波测距传感器在发射该物理光波时的发射时间与该光波测距传感器在接收反射的该物理光波时的接收时间之间的时间差;
根据该时间差确定该屏幕与该透镜之间的距离。
在本发明实施例提供的虚拟内容显示方法中,获取VR设备上的屏幕与透镜之间的距离,包括:
通过信号发送端发送物理信号,并通过信号接收端接收该信号发送端发送的该物理信号;
确定该信号发送端发送该物理信号时的发送时间与该信号接收端接收该物理信号时的接收时间之间的时间差;
根据该时间差确定该屏幕与该透镜之间的距离。
在本发明实施例提供的虚拟内容显示方法中,根据该距离确定该透镜在该屏幕上的可视区域,包括:
获取该屏幕与该透镜之间的基准屏幕透镜距离;
确定该屏幕与该透镜之间的该距离和该基准屏幕透镜距离之间的距离比例;
根据该距离比例和该基准屏幕透镜距离对应的基准可视区域,获得该可视区域。
在本发明实施例提供的虚拟内容显示方法中,获取人眼相对于该透镜的位置,包括:
通过红外光发射器发射红外光;
获取红外光视觉感应器在该红外光发射器发射该红外光时拍摄的人眼图像;
根据该人眼图像中的人眼区域面积和人眼形状,确定人眼相对于该透镜的位置。
在本发明实施例提供的虚拟内容显示方法中,根据该人眼图像中的人眼区域面积和人眼形状,确定人眼相对于该透镜的位置,包括:
获取人眼相对于该透镜的基准位置;
确定该人眼图像中的人眼区域面积与该基准位置对应的基准人眼图像中的基准人眼区域面积之间的面积差值,根据该面积差值和该基准位置对应的人眼与该透镜之间的基准人眼透镜距离,确定该人眼与该透镜之间的距离;
确定该人眼图像中的人眼形状与该基准位置对应的基准人眼图像中的基准人眼形状之间的形状差异度,根据该形状差异度和该基准位置对应的人眼与该透镜之间的基准夹角,确定该人眼与该透镜之间的夹角;
根据该人眼与该透镜之间的该距离和该夹角,获得人眼相对于该透镜的位置。
在本发明实施例提供的虚拟内容显示方法中,确定该位置对应的用户视场角,包括:
获取人眼相对于该透镜的基准位置;
确定该人眼相对于该透镜的该位置和该基准位置之间的位置差异度;
根据该位置差异度和该基准位置对应的用户视场角,获得该位置对应的用户视场角。
一种虚拟内容显示装置,包括:
距离感应模块,用于获取VR设备的屏幕与透镜之间的距离;
人眼追踪模块,用于获取人眼相对于该透镜的位置;
显示控制模块,用于根据该距离感应模块获得的该距离,确定该透镜在该屏幕上的可视区域,并根据该可视区域确定屏幕显示区域;以及,确定该人眼追踪模块获得的该位置对应的用户视场角,并根据该用户视场角调整虚拟内容的视场角;以及将调整视场角后的虚拟内容显示在该屏幕显示区域上。
在本发明实施例提供的虚拟内容显示装置中,该距离感应模块包括:
光波测距传感器,用于发射物理光波并接收该屏幕或者该透镜反射的该物理光波;则,
该显示控制模块,用于确定该光波测距传感器在发射该物理光波时的发射时间与该光波测距传感器在接收反射的该物理光波时的接收时间之间的时间差,并根据该时间差确定该屏幕与该透镜之间的距离。
在本发明实施例提供的虚拟内容显示装置中,该距离感应模块包括:
信号发送端,用于发送物理信号;
信号接收端,用于接收该信号发送端发送的该物理信号;则,
该显示控制模块,用于确定该信号发送端发送该物理信号时的发送时间与该信号接收端接收该物理信号时的接收时间之间的时间差,并根据该时间差确定该屏幕与该透镜之间的距离。
在本发明实施例提供的虚拟内容显示装置中,该显示控制模块用于:
获取该屏幕与该透镜之间的基准屏幕透镜距离;
确定该屏幕与该透镜之间的该距离与该基准屏幕透镜距离之间的距离比例;
根据该距离比例和该基准屏幕透镜距离对应的基准可视区域,确定该可视区域。
在本发明实施例提供的虚拟内容显示装置中,该人眼追踪模块包括:
红外光发射器,用于发射红外光;
红外光视觉感应器,用于在该红外光发射器发射红外光时,拍摄人眼图像;则,
该显示控制模块,用于获取该红外光视觉感应器拍摄的人眼图像,并根据该人眼图像中的人眼区域面积和人眼形状,确定人眼相对于该透镜的位置。
在本发明实施例提供的虚拟内容显示装置中,该显示控制模块用于:
获取人眼相对于该透镜的基准位置;
确定该人眼图像中的人眼区域面积与该基准位置对应的基准人眼图像中的基准人眼区域面积之间的面积差值,根据该面积差值和该基准位置对应的人眼与该透镜之间的基准人眼透镜距离,确定该人眼与该透镜之间的距离;
确定该人眼图像中的人眼形状与该基准位置对应的基准人眼图像中的基准人眼形状之间的形状差异度,根据该形状差异度和该基准位置对应的人眼与该透镜之间的基准夹角,确定该人眼与该透镜之间的夹角;
根据该距离和该夹角,获得人眼相对于该透镜的位置。
在本发明实施例提供的虚拟内容显示装置中,该显示控制模块用于:
获取人眼相对于该透镜的基准位置;
确定该人眼相对于该透镜的该位置和该基准位置之间的位置差异度;
根据该位置差异度和该基准位置对应的用户视场角,获得该位置对应的用户视场角。
一种VR设备,包括:存储器、处理器和存储在该存储器上的计算机程序,该处理器执行该计算机程序时实现本发明实施例提供的虚拟内容显示方法的步骤。
本发明实施例提供了一种非易失性计算机存储介质,该非易失性计算机存储介质存储有可执行程序,该可执行程序被处理器执行实现本发明实施例提供的虚拟内容显示方法的步骤。
本发明实施例的有益效果如下:
本发明实施例中,根据屏幕与透镜之间的距离能够确定出透镜在屏幕上的可视区域,根据人眼相对于透镜的位置能够确定出用户视场角,这样,就可以根据确定出的可视区域以及用户视场角,自适应调节屏幕显示区域和虚拟内容的视场角,使得屏幕显示区域与可视区域一致以及虚拟内容的视场角与用户视场角一致,从而降低了场景漂移出现的概率,有效地提高了VR设备的视觉效果。
附图说明
图1为本发明实施例中提供的VR设备的光学架构示意图;
图2为本发明实施例中提供的当透镜和屏幕之间的距离与基准屏幕透镜距离存在偏差时,透镜在屏幕上的可视区域与屏幕显示区域的对比示意图;
图3为本发明实施例中提供的当人眼位置与预先设定的出瞳位置存在偏差时,用户视场角与虚拟内容的视场角的对比示意图;
图4为本发明实施例中提供的用户视场角和虚拟内容的视场角与场景漂移现象之间的关系示意图;
图5A为本发明实施例中提供的虚拟内容显示方法的流程示意图;
图5B为本发明实施例中提供的屏幕和透镜之间的距离与透镜在屏幕上的可视区域之间的关系示意图;
图5C为本发明实施例中提供的人眼相对于透镜的位置与用户视场角之间的关系示意图;
图6A为本发明实施例中提供的一种虚拟内容显示装置的功能结构示意图;
图6B为本发明实施例中提供的另一种虚拟内容显示装置的功能结构示意图;
图6C为本发明实施例中提供的另一种虚拟内容显示装置的功能结构示意图;
图6D为本发明实施例中提供的另一种虚拟内容显示装置的功能结构示意图;
图7为本发明实施例中提供的VR设备的硬件结构示意图。
具体实施方式
目前,VR设备主要有不可调视距和可调视距两种类型,相比于不可调视距的VR设备,可调视距的VR设备能够更好的满足近视眼、远视眼等用户的需求,然而,无论是不可调视距的VR设备还是可调视距的VR设备,都可能存在用户视场角与虚拟内容的视场角不相符的问题,主要原因有以下两点:
一、VR设备的组装公差。
参阅图1所示,大多数的VR设备的光学架构为屏幕+透镜,在实际操作时,一般会按照预先设定的屏幕与透镜之间的基准屏幕透镜距离来组装VR设备,但是,由于屏幕和透镜的规格以及安装手法等存在差异,大多数的VR设备的透镜与屏幕之间的距离相比于基准屏幕透镜距离来说都存在偏差,参阅图2所示,在使用VR设备的过程中,这种偏差可能会导致透镜在屏幕上的可视区域与屏幕显示区域不相等,此外,相比于不可调视距的VR设备,由于可调视距的VR设备可以根据用户需求来调节屏幕与透镜之间的距离,所以,可调视距的VR设备出现透镜在屏幕上的可视区域与屏幕显示区域不相等的概率更大。在实际使用过程中,若透镜在屏幕上的可视区域与屏幕显示区域不相等,则很可能会导致用户视场角与虚拟内容的视场角不相符。
二、用户的使用偏差。
通常情况下,显示给用户的虚拟内容是根据预先设定的基准视场角来获取的,其中,基准视场角是人眼在预先设定的出瞳位置上时的用户视场角,参阅图3所示,在实际使用过程中,人眼位置与预先设定的出瞳位置可能会出现偏差,这也会导致用户视场角与虚拟内容的视场角不相符。
无论是透镜在屏幕上的可视区域与屏幕显示区域不相等导致的用户视场角与虚拟内容的视场角不相符,还是人眼位置与预先设定的出瞳位置出现偏差导致的用户视场角与虚拟内容的视场角不相符,都可能会在用户转动视角时出现场景漂移的现象,参阅图4所示,当虚拟内容的视场角等于用户视场角时,不会出现场景漂移的现象,而当虚拟内容的视场角大于用户视场角时,会出现场景向后漂移的现象,当虚拟内容的视场角小于用户视场角时,会出现场景向前漂移的现象。
为此,本发明实施例通过屏幕与透镜之间的距离确定出透镜在屏幕上的可视区域,根据该可视区域确定出屏幕显示区域,以及通过人眼相对于透镜的位置确定出用户视场角,根据用户视场角调整虚拟内容的视场角,并将调整视场角后的虚拟内容显示在屏幕显示区域上,这样,在用户使用VR设备的过程中,就可以根据获得的屏幕与透镜之间的距离以及人眼相对于透镜的位置,自适应调节屏幕显示区域和虚拟内容的视场角,使得屏幕显示区域与可视区域一致以及虚拟内容的视场角与用户视场角一致,从而降低了场景漂移出现的概率,有效地提高了VR设备的视觉效果。
值得说的是,本发明实施例提供的虚拟内容显示方法可以应用于多种虚拟内容显示场景,比如,VR游戏、VR电影、VR教育、道路布防、场馆仿真、地产漫游等,需要注意的是,上述提及的应用场景仅是为了便于理解本发明的精神和原理而示出,本发明实施例在此方面不受任何限制。相反,本发明实施例可以应用于适用的任何有关虚拟内容显示的场景。
在简单的介绍了本发明实施例提供的虚拟内容显示方法和该虚拟内容显示方法的应用场景之后,接下来,结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,并不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为了便于理解本发明,首先对本发明实施例中涉及的部分技术用语进行说明。
1、VR设备,为采用VR技术呈现沉浸式感受的硬件产品,比如,VR眼罩等。
2、物理光波,为波长在0.3~3μm之间的电磁波,比如,红外线、微波、超声波等;
物理信号,为消息的载体,比如,声音信号、电信号、通信信号等。
3、屏幕与透镜之间的基准屏幕透镜距离,为在组装VR设备之前预先设置的屏幕与透镜之间的距离;
透镜在屏幕上的基准可视区域,为根据基准屏幕透镜距离确定出的可视区域。
4、人眼相对于透镜的基准位置,为预先设置的当用户使用VR设备时人眼相对于透镜的最佳位置;
基准人眼透镜距离,为人眼位于基准位置时,人眼与透镜之间的水平距离;
基准夹角,为人眼位于基准位置时,人眼与透镜所在平面之间的夹角;
基准人眼区域面积,为人眼位于基准位置时拍摄到的人眼图像中的人眼区域面积;
基准人眼形状,为人眼位于基准位置时拍摄到的人眼图像中的人眼形状;
基准用户视场角,为根据基准位置确定出的用户视场角。
其次,对本发明实施例提供的一种虚拟内容显示方法进行详细说明,具体的,参阅图5A所示,本发明示例性实施方式的虚拟内容显示方法的流程如下:
步骤501:获取VR设备的屏幕与透镜之间的距离。
具体的,在执行步骤501时,可以采用但不限于以下方式:
第一种方式:通过光波测距传感器,发射物理光波并接收屏幕或者透镜反射的物理光波;确定光波测距传感器在发射物理光波时的发射时间与光波测距传感器在接收反射的物理光波时的接收时间之间的时间差;根据时间差确定屏幕与透镜之间的距离。
例如,假设光波测距传感器与屏幕位于同一钢体结构,则可以通过光波测距传感器发射红外光和接收透镜反射的红外光,并在确定光波测距传感器在发射红外光时的发射时间与光波测距传感器在接收反射的红外光时的接收时间之间的时间差后,根据该时间差确定屏幕与透镜之间的距离。
第二种方式:通过信号发送端发送物理信号,并通过信号接收端接收信号发送端发送的物理信号;确定信号发送端发送物理信号时的发送时间与信号接收端接收物理信号时的接收时间之间的时间差;根据时间差确定屏幕与透镜之间的距离。
例如,假设信号发送端与屏幕位于同一钢体结构,信号接收端与透镜位于同一钢体结构,则可以过信号发送端发送电信号,并通过信号接收端接收信号发送端发送的电信号,并在确定信号发送端发送电信号时的发送时间与信号接收端接收电信号时的接收时间之间的时间差后,根据该时间差确定屏幕与透镜之间的距离。
步骤502:根据该距离确定透镜在屏幕上的可视区域,并根据该可视区域确定屏幕显示区域。
在实际应用中,在确定出屏幕与透镜之间的距离后,可以根据该距离确定透镜在屏幕上的可视区域,例如,参阅图5B所示,当屏幕与透镜之间的距离为距离1时,可以根据距离1确定出可视区域为可视区域1;当屏幕与透镜之间的距离为距离2时,可以根据距离2确定出可视区域为可视区域2。具体的,可以采用但不限于以下方式:先获取屏幕与透镜之间的基准屏幕透镜距离,再确定屏幕与透镜之间的距离和基准屏幕透镜距离之间的距离比例,最后,根据该距离比例和该基准屏幕透镜距离对应的基准可视区域,确定可视区域。
为了提高可视区域的精准度,还可以通过区域校准系数来校准该可视区域,即在根据距离比例和基准屏幕透镜距离对应的基准可视区域确定可视区域时,利用区域校准系数来调节可视区域的大小,使得最终确定出的可视区域能够给用户带来更好的视觉体验,其中,区域校准系数是根据经验值获得的。
进一步的,在确定透镜在屏幕上的可视区域之后,即可根据该可视区域确定屏幕显示区域,在实际应用中,可以直接将该可视区域作为屏幕显示区域来显示虚拟内容。
步骤503:获取人眼相对于透镜的位置。
在实际应用中,可以通过红外光发射器发射红外光,并获取红外光视觉感应器在红外光发射器发射红外光时拍摄的人眼图像,以及,根据人眼图像中的人眼区域面积和人眼形状,确定人眼相对于透镜的位置。
具体的,在根据人眼图像中的人眼区域面积和人眼形状,确定人眼相对于透镜的位置时,可以采用但不限于以下方式:获取人眼相对于透镜的基准位置;确定人眼图像中的人眼区域面积与基准位置对应的基准人眼图像中的基准人眼区域面积之间的面积差值,根据面积差值和基准人眼区域面积对应的基准人眼透镜距离,确定人眼与透镜之间的距离;并,确定人眼图像中的人眼形状与基准位置对应的基准人眼图像中的基准人眼形状之间的形状差异度,根据形状差异度和基准位置对应的人眼与所述透镜之间的基准夹角,确定人眼与透镜之间的夹角;以及,根据确定出的该距离和该夹角,获得人眼相对于透镜的位置。
步骤504:确定该位置对应的用户视场角,并根据该用户视场角调整虚拟内容的视场角。
在实际应用中,在确定出人眼相对于透镜的位置后,可以进一步确定出该位置对应的用户视场角,例如,参阅图5C所示,当人眼相对于透镜的位置为位置1时,可以根据位置1确定出用户视场角为直虚线组成的视场角;当人眼相对于透镜的位置为位置2时,可以根据位置2确定出用户视场角为直线组成的视场角;当人眼相对于透镜的位置为位置3时,可以根据位置3确定出用户视场角为点虚线组成的视场角。
具体的,可以先获取人眼相对于透镜的基准位置,再确定人眼相对于透镜的位置和基准位置之间的位置差异度,最后,根据位置差异度和基准位置对应的用户视场角,获得人眼相对于透镜的位置所对应的用户视场角。
为了提高获得的用户视场角的精准度,还可以通过视场角校准系数来校准用户视场角,即在根据位置差异度和基准位置对应的用户视场角获得人眼相对于透镜的位置所对应的用户视场角时,利用视场角校准系数来调节人眼相对于透镜的位置所对应的用户视场角的大小,使得最终确定出的用户视场角能够给用户带来更好的视觉体验,其中,视场角校准系数是根据经验值获得的。
进一步的,在确定用户视场角后,即可根据用户视场角调整虚拟内容的视场角,在实际应用中,可以直接将虚拟内容的视场角调整为用户视场角。
步骤505:将调整视场角后的虚拟内容显示在屏幕显示区域上。
值得说的是,在本发明示例性实施方式的虚拟内容显示方法中,屏幕显示区域的确定过程和人眼相对于透镜的位置的确定过程可以同时执行,也可以顺序执行,即步骤501-步骤502与步骤503-步骤504可以是同步执行的,也可以是顺序执行,在此不作具体限定。
基于上述实施例,本发明实施例提供了一种虚拟内容显示装置,参阅图6A所示,本发明示例性实施方式的虚拟内容显示装置至少包括:
距离感应模块610,用于获取VR设备的屏幕与透镜之间的距离;
人眼追踪模块620,用于获取人眼相对于该透镜的位置;
显示控制模块630,用于根据距离感应模块610获得的该距离,确定该透镜在该屏幕上的可视区域,并根据该可视区域确定屏幕显示区域;以及,确定人眼追踪模块620获得的该位置对应的用户视场角,并根据该用户视场角调整虚拟内容的视场角;以及将调整视场角后的虚拟内容显示在该屏幕显示区域上。
参阅图6B所示,在本发明示例性实施方式的虚拟内容显示装置中,距离感应模块610可以包括:
光波测距传感器611,用于发射物理光波并接收屏幕或者透镜反射的物理光波;则,
显示控制模块630,用于确定光波测距传感器611在发射物理光波时的发射时间与光波测距传感器611在接收反射的物理光波时的接收时间之间的时间差,并根据时间差确定屏幕与透镜之间的距离。
值得说的是,在具体实施时,光波测距传感器611可以与屏幕位于同一钢体结构,也可以与透镜位于同一钢体结构,在此不作具体限定。图6B中仅以光波测距传感器611与屏幕位于同一钢体结构为例。
参阅图6C所示,在本发明示例性实施方式的虚拟内容显示装置中,距离感应模块610可以包括:
信号发送端612,用于发送物理信号;
信号接收端613,用于接收信号发送端612发送的物理信号;则,
显示控制模块630,用于确定信号发送端612发送物理信号时的发送时间与信号接收端613接收物理信号时的接收时间之间的时间差,并根据时间差确定屏幕与透镜之间的距离。
值得说的是,在具体实施时,信号发送端612可以与屏幕位于同一钢体结构,对应的,信号接收端613可以与透镜位于同一钢体结构。当然,信号发送端612也可以与透镜位于同一钢体结构,对应的,信号接收端613可以与屏幕位于同一钢体结构,具体结构在此不作限定。图6C中仅以信号发送端612与屏幕位于同一钢体结构而信号接收端613与透镜位于同一钢体结构为例。
在具体实施时,显示控制模块630用于:
获取该屏幕与该透镜之间的基准屏幕透镜距离;
确定该屏幕与该透镜之间的该距离与该基准屏幕透镜距离之间的距离比例;
根据该距离比例和该基准屏幕透镜距离对应的基准可视区域,确定该可视区域。
参阅图6D所示,在本发明示例性实施方式的虚拟内容显示装置中,人眼追踪模块620可以包括:
红外光发射器621,用于发射红外光;
红外光视觉感应器622,用于在红外光发射器621发射红外光时,拍摄人眼图像;则,
显示控制模块630,用于获取红外光视觉感应器622拍摄的人眼图像,并根据人眼图像中的人眼区域面积和人眼形状,确定人眼相对于透镜的位置。
值得说的是,在具体实施时,红外光发射器621和红外光视觉感应器622可以作为集成器件与透镜位于同一钢体结构,也可以作为独立器件与透镜位于同一钢体结构,在此不作具体限定。图6D中仅以红外光发射器621和红外光视觉感应器622作为独立器件与透镜位于同一钢体结构为例进行说明。
在具体实施时,显示控制模块630用于:
获取人眼相对于该透镜的基准位置;
确定该人眼图像中的人眼区域面积与该基准位置对应的基准人眼图像中的基准人眼区域面积之间的面积差值,根据该面积差值和该基准位置对应的人眼与该透镜之间的基准人眼透镜距离,确定该人眼与该透镜之间的距离;
确定该人眼图像中的人眼形状与该基准位置对应的基准人眼图像中的基准人眼形状之间的形状差异度,根据该形状差异度和该基准位置对应的人眼与该透镜之间的基准夹角,确定该人眼与该透镜之间的夹角;
根据该距离和该夹角,获得人眼相对于该透镜的位置。
在具体实施时,显示控制模块630用于:
获取人眼相对于该透镜的基准位置;
确定该人眼相对于该透镜的该位置和该基准位置之间的位置差异度;
根据该位置差异度和该基准位置对应的用户视场角,获得该位置对应的用户视场角。
需要说明的是,由于上述虚拟内容显示装置解决技术问题的原理与上述虚拟内容显示方法相似,因此,上述虚拟内容显示装置的实施可以参见上述虚拟内容显示方法的实施,重复之处不再赘述。
在介绍了本发明示例性实施方式的虚拟内容显示方法和装置之后,接下来,对本发明示例性实施方式的VR设备进行简单介绍。
参阅图7所示,本发明示例性实施方式的VR设备700可以包括处理器71、存储器72和存储在存储器72上的计算机程序,处理器71执行计算机程序时实现本发明示例性实施方式的虚拟内容显示方法中的步骤。
需要说明的是,图7所示的VR设备700仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
本发明示例性实施方式的VR设备700还可以包括连接不同组件(包括处理器71和存储器72)的总线73。其中,总线73表示几类总线结构中的一种或多种,包括存储器总线、***总线、局域总线等。
存储器72可以包括易失性存储器形式的可读介质,例如随机存储器(RandomAccess Memory,RAM)721和/或高速缓存存储器722,还可以进一步包括只读存储器(ReadOnly Memory,ROM)723。
存储器72还可以包括具有一组(至少一个)程序模块724的程序工具725,程序模块724包括但不限于:操作子***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
VR设备700也可以与一个或多个外部设备74(例如键盘、遥控器等)通信,还可以与一个或者多个使得用户能与VR设备700交互的设备通信,和/或与使得该VR设备700能与一个或多个其它VR设备700进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(Input/Output,I/O)接口75进行。并且,VR设备700还可以通过网络适配器76与一个或者多个网络(例如局域网(Local Area Network,LAN),广域网(WideArea Network,WAN)和/或公共网络,例如因特网)通信。如图7所示,网络适配器76通过总线73与VR设备700的其它模块通信。应当理解,尽管图7中未示出,可以结合VR设备700使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理器、外部磁盘驱动阵列、磁盘阵列(Redundant Arrays of Independent Disks,RAID)子***、磁带驱动器以及数据备份存储子***等。
下面对本发明示例性实施方式的非易失性计算机可读存储介质进行介绍。本发明实施例提供了一种非易失性计算机可读存储介质,该非易失性计算机可读存储介质存储有计算机可执行指令,该可执行程序被处理器执行实现上述虚拟内容显示方法的步骤。具体地,该可执行程序可以内置在VR设备中,这样,VR设备就可以通过执行内置的可执行程序实现上述虚拟内容显示方法的步骤。
此外,本发明实施例提供的上述虚拟内容显示方法还可以实现为一种程序产品,该程序产品包括程序代码,当该程序产品可以在VR设备上运行时,该程序代码用于使VR设备执行上述虚拟内容显示方法的步骤。
本发明实施例提供的程序产品可以采用一个或多个可读介质的任意组合,其中,可读介质可以是可读信号介质或者可读存储介质,而可读存储介质可以是但不限于是电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合,具体地,可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、RAM、ROM、可擦式可编程只读存储器(Erasable Programmable Read Only Memory,EPROM)、光纤、便携式紧凑盘只读存储器(Compact Disc Read-Only Memory,CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
本发明实施例提供的程序产品可以采用CD-ROM并包括程序代码,还可以在计算设备上运行。然而,本发明实施例提供的程序产品不限于此,在本发明实施例中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。
可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户设备上执行,部分地在用户设备上执行,作为一个独立的软件包执行,部分在用户设备上执行、部分在远程计算设备上执行,或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络连接到用户计算设备,诸如通过LAN或WAN连接到用户计算设备;或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
应当注意,尽管在上文详细描述中提及了装置的若干单元或子单元,但是这种划分仅仅是示例性的并非强制性的。实际上,根据本发明的实施方式,上文描述的两个或更多单元的特征和功能可以在一个单元中具体化。反之,上文描述的一个单元的特征和功能可以进一步划分为由多个单元来具体化。
此外,尽管在附图中以特定顺序描述了本发明方法的操作,但是,这并非要求或者暗示必须按照该特定顺序来执行这些操作,或是必须执行全部所示的操作才能实现期望的结果。附加地或备选地,可以省略某些步骤,将多个步骤合并为一个步骤执行,和/或将一个步骤分解为多个步骤执行。
本领域内的技术人员应明白,本发明的实施例可提供为方法、***、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明实施例进行各种改动和变型而不脱离本发明实施例的精神和范围。这样,倘若本发明实施例的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (16)

1.一种虚拟内容显示方法,其特征在于,包括:
获取虚拟现实VR设备的屏幕与透镜之间的距离;
根据所述距离确定所述透镜在所述屏幕上的可视区域,并根据所述可视区域确定屏幕显示区域;
获取人眼相对于所述透镜的位置;
确定所述位置对应的用户视场角,并根据所述用户视场角调整虚拟内容的视场角;
将调整视场角后的虚拟内容显示在所述屏幕显示区域上。
2.如权利要求1所述的虚拟内容显示方法,其特征在于,获取VR设备的屏幕与透镜之间的距离,包括:
通过光波测距传感器,发射物理光波并接收所述屏幕或者所述透镜反射的所述物理光波;
确定所述光波测距传感器在发射所述物理光波时的发射时间与所述光波测距传感器在接收反射的所述物理光波时的接收时间之间的时间差;
根据所述时间差确定所述屏幕与所述透镜之间的距离。
3.如权利要求1所述的虚拟内容显示方法,其特征在于,获取VR设备上的屏幕与透镜之间的距离,包括:
通过信号发送端发送物理信号,并通过信号接收端接收所述信号发送端发送的所述物理信号;
确定所述信号发送端发送所述物理信号时的发送时间与所述信号接收端接收所述物理信号时的接收时间之间的时间差;
根据所述时间差确定所述屏幕与所述透镜之间的距离。
4.如权利要求1、2或3所述的虚拟内容显示方法,其特征在于,根据所述距离确定所述透镜在所述屏幕上的可视区域,包括:
获取所述屏幕与所述透镜之间的基准屏幕透镜距离;
确定所述屏幕与所述透镜之间的所述距离和所述基准屏幕透镜距离之间的距离比例;
根据所述距离比例和所述基准屏幕透镜距离对应的基准可视区域,获得所述可视区域。
5.如权利要求1所述的虚拟内容显示方法,其特征在于,获取人眼相对于所述透镜的位置,包括:
通过红外光发射器发射红外光;
获取红外光视觉感应器在所述红外光发射器发射所述红外光时拍摄的人眼图像;
根据所述人眼图像中的人眼区域面积和人眼形状,确定人眼相对于所述透镜的位置。
6.如权利要求5所述的虚拟内容显示方法,其特征在于,根据所述人眼图像中的人眼区域面积和人眼形状,确定人眼相对于所述透镜的位置,包括:
获取人眼相对于所述透镜的基准位置;
确定所述人眼图像中的人眼区域面积与所述基准位置对应的基准人眼图像中的基准人眼区域面积之间的面积差值,根据所述面积差值和所述基准位置对应的人眼与所述透镜之间的基准人眼透镜距离,确定所述人眼与所述透镜之间的距离;
确定所述人眼图像中的人眼形状与所述基准位置对应的基准人眼图像中的基准人眼形状之间的形状差异度,根据所述形状差异度和所述基准位置对应的人眼与所述透镜之间的基准夹角,确定所述人眼与所述透镜之间的夹角;
根据所述人眼与所述透镜之间的所述距离和所述夹角,获得人眼相对于所述透镜的位置。
7.如权利要求1-6任一项所述的虚拟内容显示方法,其特征在于,确定所述位置对应的用户视场角,包括:
获取人眼相对于所述透镜的基准位置;
确定所述人眼相对于所述透镜的所述位置和所述基准位置之间的位置差异度;
根据所述位置差异度和所述基准位置对应的用户视场角,获得所述位置对应的用户视场角。
8.一种虚拟内容显示装置,其特征在于,包括:
距离感应模块,用于获取VR设备的屏幕与透镜之间的距离;
人眼追踪模块,用于获取人眼相对于所述透镜的位置;
显示控制模块,用于根据所述距离感应模块获得的所述距离,确定所述透镜在所述屏幕上的可视区域,并根据所述可视区域确定屏幕显示区域;以及,确定所述人眼追踪模块获得的所述位置对应的用户视场角,并根据所述用户视场角调整虚拟内容的视场角;将调整视场角后的虚拟内容显示在所述屏幕显示区域上。
9.如权利要求8所述的虚拟内容显示装置,其特征在于,所述距离感应模块包括:
光波测距传感器,用于发射物理光波并接收所述屏幕或者所述透镜反射的所述物理光波;则,
所述显示控制模块,用于确定所述光波测距传感器在发射所述物理光波时的发射时间与所述光波测距传感器在接收反射的所述物理光波时的接收时间之间的时间差,并根据所述时间差确定所述屏幕与所述透镜之间的距离。
10.如权利要求8所述的虚拟内容显示装置,其特征在于,所述距离感应模块包括:
信号发送端,用于发送物理信号;
信号接收端,用于接收所述信号发送端发送的所述物理信号;则,
所述显示控制模块,用于确定所述信号发送端发送所述物理信号时的发送时间与所述信号接收端接收所述物理信号时的接收时间之间的时间差,并根据所述时间差确定所述屏幕与所述透镜之间的距离。
11.如权利要求8、9或10所述的虚拟内容显示装置,其特征在于,所述显示控制模块用于:
获取所述屏幕与所述透镜之间的基准屏幕透镜距离;
确定所述屏幕与所述透镜之间的所述距离与所述基准屏幕透镜距离之间的距离比例;
根据所述距离比例和所述基准屏幕透镜距离对应的基准可视区域,确定所述可视区域。
12.如权利要求8所述的虚拟内容显示装置,其特征在于,所述人眼追踪模块包括:
红外光发射器,用于发射红外光;
红外光视觉感应器,用于在所述红外光发射器发射红外光时,拍摄人眼图像;则,
所述显示控制模块,用于获取所述红外光视觉感应器拍摄的人眼图像,并根据所述人眼图像中的人眼区域面积和人眼形状,确定人眼相对于所述透镜的位置。
13.如权利要求12所述的虚拟内容显示装置,其特征在于,所述显示控制模块用于:
获取人眼相对于所述透镜的基准位置;
确定所述人眼图像中的人眼区域面积与所述基准位置对应的基准人眼图像中的基准人眼区域面积之间的面积差值,根据所述面积差值和所述基准位置对应的人眼与所述透镜之间的基准人眼透镜距离,确定所述人眼与所述透镜之间的距离;
确定所述人眼图像中的人眼形状与所述基准位置对应的基准人眼图像中的基准人眼形状之间的形状差异度,根据所述形状差异度和所述基准位置对应的人眼与所述透镜之间的基准夹角,确定所述人眼与所述透镜之间的夹角;
根据所述距离和所述夹角,获得人眼相对于所述透镜的位置。
14.如权利要求12或13所述的虚拟内容显示装置,其特征在于,所述显示控制模块用于:
获取人眼相对于所述透镜的基准位置;
确定所述人眼相对于所述透镜的所述位置和所述基准位置之间的位置差异度;
根据所述位置差异度和所述基准位置对应的用户视场角,获得所述位置对应的用户视场角。
15.一种虚拟现实VR设备,其特征在于,包括:存储器、处理器和存储在所述存储器上的计算机程序,所述处理器执行所述计算机程序时实现权利要求1-7任一项所述的虚拟内容显示方法的步骤。
16.一种非易失性计算机存储介质,其特征在于,所述非易失性计算机存储介质存储有可执行程序,所述可执行程序被处理器执行实现权利要求1-7任一项所述的虚拟内容显示方法的步骤。
CN201810935326.1A 2018-08-16 2018-08-16 一种虚拟内容显示方法、装置、vr设备及介质 Active CN109189215B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810935326.1A CN109189215B (zh) 2018-08-16 2018-08-16 一种虚拟内容显示方法、装置、vr设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810935326.1A CN109189215B (zh) 2018-08-16 2018-08-16 一种虚拟内容显示方法、装置、vr设备及介质

Publications (2)

Publication Number Publication Date
CN109189215A true CN109189215A (zh) 2019-01-11
CN109189215B CN109189215B (zh) 2021-08-20

Family

ID=64918409

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810935326.1A Active CN109189215B (zh) 2018-08-16 2018-08-16 一种虚拟内容显示方法、装置、vr设备及介质

Country Status (1)

Country Link
CN (1) CN109189215B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110308560A (zh) * 2019-07-03 2019-10-08 南京玛克威信息科技有限公司 Vr设备的控制方法
CN111240016A (zh) * 2020-02-18 2020-06-05 北京京东方光电科技有限公司 虚拟现实眼镜及其显示画面的调节装置、调节方法
CN111562678A (zh) * 2020-07-14 2020-08-21 深圳珑璟光电技术有限公司 一种视场角的调整方法及近眼显示设备
CN111596763A (zh) * 2020-05-15 2020-08-28 京东方科技集团股份有限公司 虚拟现实设备的控制方法及装置
CN113110908A (zh) * 2021-04-20 2021-07-13 网易(杭州)网络有限公司 显示内容调整方法、装置、计算机设备及存储介质
CN114415368A (zh) * 2021-12-15 2022-04-29 青岛歌尔声学科技有限公司 Vr设备的调控方法、调控装置、vr设备、***及存储介质
CN114648942A (zh) * 2020-12-02 2022-06-21 深圳市奥拓电子股份有限公司 Led显示屏及其局部亮度调节方法、led显示控制器

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101950550A (zh) * 2010-09-28 2011-01-19 冠捷显示科技(厦门)有限公司 基于观看者视角显示不同角度画面的显示装置
CN107037584A (zh) * 2016-02-03 2017-08-11 深圳市易瞳科技有限公司 一种智能眼镜透视方法及***
EP3240037A1 (en) * 2016-04-29 2017-11-01 LG Display Co., Ltd. Display for personal immersion apparatus
CN107610044A (zh) * 2017-08-29 2018-01-19 歌尔科技有限公司 图像处理方法、计算机可读存储介质及虚拟现实头戴设备
CN107844190A (zh) * 2016-09-20 2018-03-27 腾讯科技(深圳)有限公司 基于虚拟现实vr设备的图像展示方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101950550A (zh) * 2010-09-28 2011-01-19 冠捷显示科技(厦门)有限公司 基于观看者视角显示不同角度画面的显示装置
CN107037584A (zh) * 2016-02-03 2017-08-11 深圳市易瞳科技有限公司 一种智能眼镜透视方法及***
EP3240037A1 (en) * 2016-04-29 2017-11-01 LG Display Co., Ltd. Display for personal immersion apparatus
CN107844190A (zh) * 2016-09-20 2018-03-27 腾讯科技(深圳)有限公司 基于虚拟现实vr设备的图像展示方法及装置
CN107610044A (zh) * 2017-08-29 2018-01-19 歌尔科技有限公司 图像处理方法、计算机可读存储介质及虚拟现实头戴设备

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110308560A (zh) * 2019-07-03 2019-10-08 南京玛克威信息科技有限公司 Vr设备的控制方法
CN110308560B (zh) * 2019-07-03 2022-09-30 南京玛克威信息科技有限公司 Vr设备的控制方法
CN111240016A (zh) * 2020-02-18 2020-06-05 北京京东方光电科技有限公司 虚拟现实眼镜及其显示画面的调节装置、调节方法
CN111596763A (zh) * 2020-05-15 2020-08-28 京东方科技集团股份有限公司 虚拟现实设备的控制方法及装置
CN111596763B (zh) * 2020-05-15 2023-12-26 京东方科技集团股份有限公司 虚拟现实设备的控制方法及装置
CN111562678B (zh) * 2020-07-14 2020-12-08 深圳珑璟光电科技有限公司 一种视场角的调整方法及近眼显示设备
WO2022012068A1 (zh) * 2020-07-14 2022-01-20 深圳珑璟光电科技有限公司 一种视场角的调整方法及近眼显示设备
CN111562678A (zh) * 2020-07-14 2020-08-21 深圳珑璟光电技术有限公司 一种视场角的调整方法及近眼显示设备
US11709368B2 (en) 2020-07-14 2023-07-25 Shenzhen Lochn Optics Hi-Tech Co., Ltd. Method for adjusting field of view angle and near-eye display equipment
CN114648942A (zh) * 2020-12-02 2022-06-21 深圳市奥拓电子股份有限公司 Led显示屏及其局部亮度调节方法、led显示控制器
CN113110908A (zh) * 2021-04-20 2021-07-13 网易(杭州)网络有限公司 显示内容调整方法、装置、计算机设备及存储介质
CN113110908B (zh) * 2021-04-20 2023-05-30 网易(杭州)网络有限公司 显示内容调整方法、装置、计算机设备及存储介质
CN114415368A (zh) * 2021-12-15 2022-04-29 青岛歌尔声学科技有限公司 Vr设备的调控方法、调控装置、vr设备、***及存储介质
WO2023108744A1 (zh) * 2021-12-15 2023-06-22 歌尔股份有限公司 Vr设备的调控方法、调控装置、vr设备、***及存储介质

Also Published As

Publication number Publication date
CN109189215B (zh) 2021-08-20

Similar Documents

Publication Publication Date Title
CN109189215A (zh) 一种虚拟内容显示方法、装置、vr设备及介质
JP7335285B2 (ja) 単一深度追跡型の遠近調節-両眼転導ソリューション
US11304017B2 (en) Reverberation fingerprint estimation
CN108701371B (zh) 用于提供虚拟现实输出和增强现实输出的方法和装置
KR102164723B1 (ko) 3-d 플레놉틱 비디오 이미지들을 생성하는 시스템 및 방법
US10304446B2 (en) Self calibration for smartphone goggles
CN105916060A (zh) 数据传输的方法、装置及***
US8963956B2 (en) Location based skins for mixed reality displays
US20160349509A1 (en) Mixed-reality headset
US20210337342A1 (en) Determination of material acoustic parameters to facilitate presentation of audio content
WO2018000629A1 (zh) 一种亮度调节方法及装置
US20200402314A1 (en) Location-based platform for multiple 3d engines for delivering location-based 3d content to a user
US20160041406A1 (en) Glasses with fluid-fillable membrane for adjusting focal length of one or more lenses of the glasses
US10846901B2 (en) Conversion of 2D diagrams to 3D rich immersive content
US20240037856A1 (en) Walkthrough view generation method, apparatus and device, and storage medium
CN112272817B (zh) 用于在沉浸式现实中提供音频内容的方法和装置
US9958678B2 (en) Wearable computing eyeglasses that provide unobstructed views
CN109996060A (zh) 一种虚拟现实影院***及信息处理方法
Yang et al. Augmented system for immersive 3D expansion and interaction
JP2023505235A (ja) 仮想、拡張、および複合現実システムおよび方法
CN108986225A (zh) 虚拟现实设备显示场景时的处理方法及装置、设备
US10885613B2 (en) Real-time alteration of underwater images
WO2018027015A1 (en) Single depth tracked accommodation-vergence solutions
CN109313823A (zh) 信息处理装置、信息处理方法和程序
CN117354567A (zh) 弹幕调整方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant