CN116610213A - 虚拟现实中的交互显示方法、装置、电子设备、存储介质 - Google Patents

虚拟现实中的交互显示方法、装置、电子设备、存储介质 Download PDF

Info

Publication number
CN116610213A
CN116610213A CN202310525051.5A CN202310525051A CN116610213A CN 116610213 A CN116610213 A CN 116610213A CN 202310525051 A CN202310525051 A CN 202310525051A CN 116610213 A CN116610213 A CN 116610213A
Authority
CN
China
Prior art keywords
image
eye
control
scene
preset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310525051.5A
Other languages
English (en)
Inventor
李沛伦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
You Can See Beijing Technology Co ltd AS
Original Assignee
You Can See Beijing Technology Co ltd AS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by You Can See Beijing Technology Co ltd AS filed Critical You Can See Beijing Technology Co ltd AS
Priority to CN202310525051.5A priority Critical patent/CN116610213A/zh
Publication of CN116610213A publication Critical patent/CN116610213A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5252Changing parameters of virtual cameras using two or more virtual cameras concurrently or sequentially, e.g. automatically switching between fixed virtual cameras when a character changes room or displaying a rear-mirror view in a car-driving game
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本公开实施例公开了一种虚拟现实中的交互显示方法、装置、电子设备、存储介质,其中,方法包括:通过在第一预设位置的两个虚拟相机对预设场景进行图像采集,得到场景天空盒;其中,所述两个虚拟相机具有相同的相机参数;通过在第二预设位置的所述两个虚拟相机对控制图标进行图像采集,得到左眼控制图像和右眼控制图像;将所述左眼控制图像和所述右眼控制图像分别叠加到所述场景天空盒中,得到左眼图像和右眼图像;将所述左眼图像渲染到头戴显示设备的左视屏幕,将所述右眼图像渲染到头戴显示设备的右视屏幕,实现包括控制图标的预设场景的展示。

Description

虚拟现实中的交互显示方法、装置、电子设备、存储介质
技术领域
本公开涉及虚拟显示技术领域,尤其是一种虚拟现实中的交互显示方法、装置、电子设备、存储介质。
背景技术
目前关于VR技术,有采用数字建模的方式实现的数字VR技术,也有实景拍摄为素材的实景VR技术,数字VR技术的做法是在建好的数字场景中放入水平的两个虚拟相机,人的左右眼在场景中看到的视角就由这两个虚拟相机提供。现阶段在VR设备中进行虚拟空间的游览主要包括渲染天空盒:VR设备的两块目镜渲染同样的场景,使得人的左右眼看到的图像一模一样,此刻人脑会由于自身具备的单目深度估计能力,依旧可以还原出一个具备尺度,但是有轻微失真的场景。
发明内容
为了解决上述技术问题,提出了本公开。本公开的实施例提供了一种虚拟现实中的交互显示方法、装置、电子设备、存储介质。
根据本公开实施例的一个方面,提供了一种虚拟现实中的交互显示方法,包括:
通过在第一预设位置的两个虚拟相机对预设场景进行图像采集,得到场景天空盒;其中,所述两个虚拟相机具有相同的相机参数;
通过在第二预设位置的所述两个虚拟相机对控制图标进行图像采集,得到左眼控制图像和右眼控制图像;
将所述左眼控制图像和所述右眼控制图像分别叠加到所述场景天空盒中,得到左眼图像和右眼图像;
将所述左眼图像渲染到头戴显示设备的左视屏幕,将所述右眼图像渲染到头戴显示设备的右视屏幕,实现包括控制图标的预设场景的展示。
可选地,所述两个虚拟相机包括左眼虚拟相机和右眼虚拟相机;
所述通过在第一预设位置的两个虚拟相机对预设场景进行图像采集,得到场景天空盒,包括:
通过所述左眼虚拟相机和所述右眼虚拟相机在相同的位置对预设场景进行图像采集渲染,得到场景天空盒。
可选地,所述通过在第二预设位置的所述两个虚拟相机对控制图标进行图像采集,得到左眼控制图像和右眼控制图像之前,还包括:
调整所述左眼虚拟相机和所述右眼虚拟相机之间的平移距离为预设距离;
所述通过在第二预设位置的所述两个虚拟相机对控制图标进行图像采集,得到左眼控制图像和右眼控制图像,包括:
基于调整平移距离后的所述左眼虚拟相机和所述右眼虚拟相机分别对所述控制图标进行图像采集,得到所述左眼控制图像和所述右眼控制图像。
可选地,所述通过在第二预设位置的所述两个虚拟相机对控制图标进行图像采集,得到左眼控制图像和右眼控制图像之前,还包括:
获取控制器在世界坐标系中的真实位置信息;其中,所述控制图标为与所述控制器相对应的、具有预设形状的图标;
基于所述真实位置信息将所述控制器对应的所述控制图标添加在空白场景中;其中,所述空白场景与所述预设场景相对应,但未渲染所述场景天空盒;
所述通过在第二预设位置的所述两个虚拟相机对控制图标进行图像采集,得到左眼控制图像和右眼控制图像,包括:
通过在第二预设位置的所述两个虚拟相机对添加了所述控制图标的空白场景进行图像采集,得到左眼控制图像和右眼控制图像。
可选地,所述基于所述真实位置信息将所述控制器对应的所述控制图标添加在空白场景中,包括:
基于所述真实位置信息确定所述控制图标在所述空白场景中的图标位置;
按照所述图标位置将所述控制图标添加到所述空白场景中。
可选地,所述通过在第一预设位置的两个虚拟相机对预设场景进行图像采集,得到场景天空盒之后,还包括:
将所述场景天空盒存入存储器的第一缓冲区中;其中,所述第一缓冲区中缓存的信息不显示;
所述将所述左眼控制图像和所述右眼控制图像分别叠加到所述场景天空盒中,得到左眼图像和右眼图像之后,还包括:
将所述左眼图像和所述右眼图像存入所述第一缓冲区;其中,所述左眼图像和所述右眼图像分别对应所述第一缓冲区中的左眼区域和右眼区域。
可选地,所述存储器还包括第二缓冲区;
所述将所述左眼图像渲染到头戴显示设备的左视屏幕,将所述右眼图像渲染到头戴显示设备的右视屏幕,实现包括控制图标的预设场景的展示,包括:
将所述第一缓冲区中的左眼区域中存储的所述左眼图像交换到所述第二缓冲区中的左眼区域;
将所述第一缓冲区中的右眼区域中存储的所述右眼图像交换到所述第二缓冲区中的右眼区域;
将所述第二缓冲区的左眼区域中的左眼图像渲染到所述头戴显示设备的左视屏幕,将所述第二缓冲区的右眼区域中的右眼图像渲染到所述头戴显示设备的右视屏幕,实现包括控制图标的预设场景的展示。
根据本公开实施例的另一方面,提供了一种虚拟现实中的交互显示装置,包括:
第一图像采集模块,用于通过在第一预设位置的两个虚拟相机对预设场景进行图像采集,得到场景天空盒;其中,所述两个虚拟相机具有相同的相机参数;
第二图像采集模块,用于通过在第二预设位置的所述两个虚拟相机对控制图标进行图像采集,得到左眼控制图像和右眼控制图像;
图像叠加模块,用于将所述左眼控制图像和所述右眼控制图像分别叠加到所述场景天空盒中,得到左眼图像和右眼图像;
图像渲染模块,用于将所述左眼图像渲染到头戴显示设备的左视屏幕,将所述右眼图像渲染到头戴显示设备的右视屏幕,实现包括控制图标的预设场景的展示。
可选地,所述两个虚拟相机包括左眼虚拟相机和右眼虚拟相机;
所述第一图像采集模块,具体用于通过所述左眼虚拟相机和所述右眼虚拟相机在相同的位置对预设场景进行图像采集渲染,得到场景天空盒。
可选地,所述装置还包括:
距离调整模块,用于调整所述左眼虚拟相机和所述右眼虚拟相机之间的平移距离为预设距离;
所述第二图像采集模块,具体用于基于调整平移距离后的所述左眼虚拟相机和所述右眼虚拟相机分别对所述控制图标进行图像采集,得到所述左眼控制图像和所述右眼控制图像。
可选地,所述装置还包括:
位置获取模块,用于获取控制器在世界坐标系中的真实位置信息;其中,所述控制图标为与所述控制器相对应的、具有预设形状的图标;
图标添加模块,用于基于所述真实位置信息将所述控制器对应的所述控制图标添加在空白场景中;其中,所述空白场景与所述预设场景相对应,但未渲染所述场景天空盒;
所述第二图像采集模块,具体用于通过在第二预设位置的所述两个虚拟相机对添加了所述控制图标的空白场景进行图像采集,得到左眼控制图像和右眼控制图像。
可选地,所述图标添加模块,具体用于基于所述真实位置信息确定所述控制图标在所述空白场景中的图标位置;按照所述图标位置将所述控制图标添加到所述空白场景中。
可选地,所述装置还包括:
缓冲模块,用于将所述场景天空盒存入存储器的第一缓冲区中;其中,所述第一缓冲区中缓存的信息不显示;将所述左眼图像和所述右眼图像存入所述第一缓冲区;其中,所述左眼图像和所述右眼图像分别对应所述第一缓冲区中的左眼区域和右眼区域。
可选地,所述存储器还包括第二缓冲区;
所述图像渲染模块,具体用于将所述第一缓冲区中的左眼区域中存储的所述左眼图像交换到所述第二缓冲区中的左眼区域;将所述第一缓冲区中的右眼区域中存储的所述右眼图像交换到所述第二缓冲区中的右眼区域;将所述第二缓冲区的左眼区域中的左眼图像渲染到所述头戴显示设备的左视屏幕,将所述第二缓冲区的右眼区域中的右眼图像渲染到所述头戴显示设备的右视屏幕,实现包括控制图标的预设场景的展示。
根据本公开实施例的又一方面,提供了一种电子设备,包括:
存储器,用于存储计算机程序产品;
处理器,用于执行所述存储器中存储的计算机程序产品,且所述计算机程序产品被执行时,实现上述任一实施例所述的虚拟现实中的交互显示方法。
根据本公开实施例的还一方面,提供了一种计算机可读存储介质,其上存储有计算机程序指令,该计算机程序指令被处理器执行时,实现上述任一实施例所述的虚拟现实中的交互显示方法。
根据本公开实施例的再一方面,提供了一种计算机程序产品,包括计算机程序指令,该计算机程序指令被处理器执行时实现上述任一实施例所述的虚拟现实中的交互显示方法。
基于本公开上述实施例提供的一种虚拟现实中的交互显示方法、装置、电子设备、存储介质,通过在第一预设位置的两个虚拟相机对预设场景进行图像采集,得到场景天空盒;其中,所述两个虚拟相机具有相同的相机参数;通过在第二预设位置的所述两个虚拟相机对控制图标进行图像采集,得到左眼控制图像和右眼控制图像;将所述左眼控制图像和所述右眼控制图像分别叠加到所述场景天空盒中,得到左眼图像和右眼图像;将所述左眼图像渲染到头戴显示设备的左视屏幕,将所述右眼图像渲染到头戴显示设备的右视屏幕,实现包括控制图标的预设场景的展示;本实施例针对预设场景和交互的控制图标分别采用不同位置的虚拟相机进行图像采集,实现用户通过头戴显示设备在观看一个无视差的天空盒虚拟场景的同时,能够感知控制图标具备真实的物理空间尺度,达到用户与虚拟场景交互的目的,提升了用户的交互体验。
下面通过附图和实施例,对本公开的技术方案做进一步的详细描述。
附图说明
构成说明书的一部分的附图描述了本公开的实施例,并且连同描述一起用于解释本公开的原理。
参照附图,根据下面的详细描述,可以更加清楚地理解本公开,其中:
图1是本公开一示例性实施例提供的虚拟现实中的交互显示方法的流程示意图;
图2是本公开一示例性实施例提供的虚拟现实中的交互显示装置的结构示意图;
图3图示了根据本公开实施例的电子设备的框图。
具体实施方式
下面,将参考附图详细地描述根据本公开的示例实施例。显然,所描述的实施例仅仅是本公开的一部分实施例,而不是本公开的全部实施例,应理解,本公开不受这里描述的示例实施例的限制。
应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本公开的范围。
本领域技术人员可以理解,本公开实施例中的“第一”、“第二”等术语仅用于区别不同步骤、设备或模块等,既不代表任何特定技术含义,也不表示它们之间的必然逻辑顺序。
还应理解,在本公开实施例中,“多个”可以指两个或两个以上,“至少一个”可以指一个、两个或两个以上。
还应理解,对于本公开实施例中提及的任一部件、数据或结构,在没有明确限定或者在前后文给出相反启示的情况下,一般可以理解为一个或多个。
另外,本公开中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本公开中字符“/”,一般表示前后关联对象是一种“或”的关系。本公开中所指数据可以包括文本、图像、视频等非结构化数据,也可以是结构化数据。
还应理解,本公开对各个实施例的描述着重强调各个实施例之间的不同之处,其相同或相似之处可以相互参考,为了简洁,不再一一赘述。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本公开及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
本公开实施例可以应用于终端设备、计算机***、服务器等电子设备,其可与众多其它通用或专用计算***环境或配置一起操作。适于与终端设备、计算机***、服务器等电子设备一起使用的众所周知的终端设备、计算***、环境和/或配置的例子包括但不限于:个人计算机***、服务器计算机***、瘦客户机、厚客户机、手持或膝上设备、基于微处理器的***、机顶盒、可编程消费电子产品、网络个人电脑、小型计算机***、大型计算机***和包括上述任何***的分布式云计算技术环境,等等。
终端设备、计算机***、服务器等电子设备可以在由计算机***执行的计算机***可执行指令(诸如程序模块)的一般语境下描述。通常,程序模块可以包括例程、程序、目标程序、组件、逻辑、数据结构等等,它们执行特定的任务或者实现特定的抽象数据类型。计算机***/服务器可以在分布式云计算环境中实施,分布式云计算环境中,任务是由通过通信网络链接的远程处理设备执行的。在分布式云计算环境中,程序模块可以位于包括存储设备的本地或远程计算***存储介质上。
示例性方法
图1是本公开一示例性实施例提供的虚拟现实中的交互显示方法的流程示意图。本实施例可应用在电子设备上,如图1所示,包括如下步骤:
步骤102,通过在第一预设位置的两个虚拟相机对预设场景进行图像采集,得到场景天空盒。
其中,两个虚拟相机具有相同的相机参数。相机参数可以包括但不限于:视场角(Field of View,FOV)等;视场角显示设备所形成像中,人眼可观察到部分的边缘与人眼瞳孔中心连线的夹角,包括水平视场角、垂直视场角、对角线视场角。
本实施例中,对于预设场景的渲染可以采用普通渲染天空盒的方法,得到对于用户双眼没有视差的场景天空盒;具体的,可将两个虚拟相机设置在相同位置,即,第一预设位置为同一位置,使两个虚拟相机采集不具有视差的图像。
虚拟现实(VR)场景的立体画面包括左眼画面图像和右眼画面图像共两幅图像。左眼画面图像显示在头戴式虚拟现实显示设备的左眼显示屏区域中,右眼画面图像显示在头戴式虚拟现实显示设备的右眼显示屏区域中。三维场景立体画面绘制技术在许多文献中都有介绍,例如发表在《计算机辅助设计与图形学学报》2017年29卷7期上的论文“面向三维立体动画制作的视差可视化调节方法设计与实现”就介绍过绘制立体画面使用的各种虚拟立体相机模型。虚拟立体相机包含左眼虚拟相机和右眼虚拟相机(本实施例中为两个虚拟相机)。
步骤104,通过在第二预设位置的两个虚拟相机对控制图标进行图像采集,得到左眼控制图像和右眼控制图像。
在一实施例中,第二预设位置区别于第一预设位置,可选地,第二预设位置的两个虚拟相机之间存在一定距离(例如,人眼瞳距等),由于两个虚拟相机具有一定的间距,因此,获得的左眼控制图像和右眼控制图像不完全相同,存在一定的视差,基于左眼控制图像和右眼控制图像可以获得具备真实空间尺度的控制图标。
步骤106,将左眼控制图像和右眼控制图像分别叠加到场景天空盒中,得到左眼图像和右眼图像。
可选地,由于控制器的目的是与预设场景进行交互,因此,在得到左眼控制图像和右眼控制图像后,将左眼控制图像和右眼控制图像分别与场景天空盒叠加,以实现用户在预设场景中通过控制器进行交互的目的。
步骤108,将左眼图像渲染到头戴显示设备的左视屏幕,将右眼图像渲染到头戴显示设备的右视屏幕,实现包括控制图标的预设场景的展示。
本实施例中,VR显示通过头戴显示设备实现,头戴显示设备可以包括但不限于具有两个可视屏幕的眼镜或头盔等;通过在左视屏幕中渲染左眼图像,在右视屏幕上渲染右视图像,实现了用户在查看时,获得的显示图像中预设场景不具有视差,而控制图标具有视差,使控制器的位置不失真(具有真实尺度),实现了用户在预设场景中进行交互时,可感知到控制器的空间位置;克服了通过同样的渲染方法获得控制图标时,在虚拟场景中,用户看到的自己的手(控制器)似乎比自己身体感受到的更加遥远,彷佛自己身体被拉伸了一样,造成不好的用户体验的问题。
本公开上述实施例提供的虚拟现实中的交互显示方法,通过在第一预设位置的两个虚拟相机对预设场景进行图像采集,得到场景天空盒;其中,所述两个虚拟相机具有相同的相机参数;通过在第二预设位置的所述两个虚拟相机对控制图标进行图像采集,得到左眼控制图像和右眼控制图像;将所述左眼控制图像和所述右眼控制图像分别叠加到所述场景天空盒中,得到左眼图像和右眼图像;将所述左眼图像渲染到头戴显示设备的左视屏幕,将所述右眼图像渲染到头戴显示设备的右视屏幕,实现包括控制图标的预设场景的展示;本实施例针对预设场景和交互的控制图标分别采用不同位置的虚拟相机进行图像采集,实现用户通过头戴显示设备在观看一个无视差的天空盒虚拟场景的同时,能够感知控制图标具备真实的物理空间尺度,达到用户与虚拟场景交互的目的,提升了用户的交互体验。
在一些可选的实施例中,两个虚拟相机包括左眼虚拟相机和右眼虚拟相机;
步骤102可以包括:
通过左眼虚拟相机和右眼虚拟相机在相同的位置对预设场景进行图像采集渲染,得到场景天空盒。
本实施例中,对于预设场景采用渲染天空盒方案,渲染得到的预设场景是无视差的,基于人脑自身具备的单目深度估计能力,可以还原出一个具备尺度,但是有轻微失真的预设场景。
在一些可选的实施例中,在执行步骤104之前还可以包括:
调整左眼虚拟相机和右眼虚拟相机之间的平移距离为预设距离。
可选地,预设距离可以为人眼左右眼之间的瞳距,可根据实际情况进行设置,例如,通过测量当前用户的瞳距确定该预设距离,或者,设置为大数据统计确定的常用瞳距(例如,60毫米左右);或者根据用户自行设定该预设距离。
在本实施例中,步骤104可以包括:
基于调整平移距离后的左眼虚拟相机和右眼虚拟相机分别对控制图标进行图像采集,得到左眼控制图像和右眼控制图像。
本实施例中,在对控制图像进行图像采集时,由于左眼虚拟相机和右眼虚拟相机之间具有预设距离,因此,获得的左眼控制图像和右眼控制图像存在视差,并且,由于预设距离与人眼瞳距有关,因此,该视差符合人眼视物习惯,渲染到人眼对应的左眼屏幕和右眼屏幕时,可如同人眼直接视物,实现真实观察控制器的感受。
在一些可选的实施例中,在执行步骤104之前,还可以包括:
获取控制器在世界坐标系中的真实位置信息。
其中,控制图标为与控制器相对应的、具有预设形状的图标;可选地,控制图像为控制器投射到预设空间中的形象,控制图标可以为任意形状,例如,箭头、手掌等形状。
基于真实位置信息将控制器对应的控制图标添加在空白场景中;其中,空白场景与预设场景相对应,但未渲染场景天空盒。
在该实施例中,步骤104可以包括:
通过在第二预设位置的两个虚拟相机对添加了控制图标的空白场景进行图像采集,得到左眼控制图像和右眼控制图像。
本实施例中,用户可通过控制器实现虚拟显示中的交互,其中,控制器可以为用户的手或用户手持的具有控制功能的设备等,本实施例对控制器的形式不做限制,只需在用户的可视范围内可以移动和被控制,以实现与虚拟显示进行交互即可;可选地,通过在线虚拟现实仿真应用平台(WEBXR)可获得控制器在世界坐标系中的真实位置信息,通过该真实位置信息可确定控制图标在空白场景中的位置。
可选地,基于真实位置信息将控制器对应的控制图标添加在空白场景中,包括:
基于真实位置信息确定控制图标在空白场景中的图标位置;
按照图标位置将控制图标添加到空白场景中。
本实施例中,真实位置信息对应世界坐标系,空白场景(与预设场景对应相同坐标系)对应场景坐标系(可以为头戴显示设备中的摄像头对应的相机坐标系),因此,确定图标位置的过程为坐标系转换的过程,在确定了空白场景对应的场景坐标系后,通过旋转矩阵和平移矩阵进行处理,即可确定图标位置;在确定了图标位置后,将预设形状的控制图标添加到空白场景中,使用户感觉控制图标与自身控制的控制器是一致的,提升了用户体验。
在一些可选的实施例中,在步骤102之后,还可以包括:
将场景天空盒存入存储器的第一缓冲区中;其中,第一缓冲区中缓存的信息不显示;
在该实施例中,在步骤106之后,还可以包括:
将左眼图像和右眼图像存入第一缓冲区;其中,左眼图像和右眼图像分别对应第一缓冲区中的左眼区域和右眼区域。
本实施例中,第一缓冲区可以为后缓冲区,该后缓冲区可事先指定,例如,通过WebGL(全称Web Graphics Library,是一种3D绘图协议)默认设置;存入后缓冲区中的信息不显示(隐藏),本实施例中对于场景天空盒可以预先生成,并存入后缓冲区;在需要执行图像叠加时,可调用场景天空盒执行叠加,将叠加后的左眼图像和右眼图像分别存入后缓冲区中的左眼区域和右眼区域中;或将左眼控制图像和右眼控制图像存入后缓冲区中,在后缓冲区完成图像叠加,并将叠加后的左眼图像和右眼图像分别存入后缓冲区中的左眼区域和右眼区域中;通过左眼区域和右眼区域分别存储左眼图像和右眼图像,便于在图像渲染时可直接渲染,通过左眼区域中的图像渲染头戴可视设备的左视屏幕(例如,VR眼镜的左镜片),通过右眼区域中的图像渲染头戴可视设备的右视屏幕(例如,VR眼镜的右镜片)。
可选地,存储器还包括第二缓冲区;
步骤108可以包括:
将第一缓冲区中的左眼区域中存储的左眼图像交换到第二缓冲区中的左眼区域;
将第一缓冲区中的右眼区域中存储的右眼图像交换到第二缓冲区中的右眼区域;
将第二缓冲区的左眼区域中的左眼图像渲染到头戴显示设备的左视屏幕,将第二缓冲区的右眼区域中的右眼图像渲染到头戴显示设备的右视屏幕,实现包括控制图标的预设场景的展示。
本实施例中,在设置第一缓冲区(后缓冲区)时,还设置了对应的第二缓冲区(前缓冲区),前缓冲区中的图像可直接渲染到头戴显示设备的可视屏幕上;用户通过结合左视屏幕和右视屏幕显示的图像,即可获得无视差的场景天空盒以及具有视差的控制图标,实现了控制图标在用户视角下是被用户控制的,对应用户在控制的控制器,而不会出现失真,实现了更好的VR交互。
本公开实施例提供的任一种虚拟现实中的交互显示方法可以由任意适当的具有数据处理能力的设备执行,包括但不限于:终端设备和服务器等。或者,本公开实施例提供的任一种虚拟现实中的交互显示方法可以由处理器执行,如处理器通过调用存储器存储的相应指令来执行本公开实施例提及的任一种虚拟现实中的交互显示方法。下文不再赘述。
示例性装置
图2是本公开一示例性实施例提供的虚拟现实中的交互显示装置的结构示意图。如图2所示,本实施例提供的装置包括:
第一图像采集模块21,用于通过在第一预设位置的两个虚拟相机对预设场景进行图像采集,得到场景天空盒。
其中,两个虚拟相机具有相同的相机参数。
第二图像采集模块22,用于通过在第二预设位置的两个虚拟相机对控制图标进行图像采集,得到左眼控制图像和右眼控制图像。
图像叠加模块23,用于将左眼控制图像和右眼控制图像分别叠加到场景天空盒中,得到左眼图像和右眼图像。
图像渲染模块24,用于将左眼图像渲染到头戴显示设备的左视屏幕,将右眼图像渲染到头戴显示设备的右视屏幕,实现包括控制图标的预设场景的展示。
本公开上述实施例提供的虚拟现实中的交互显示装置,通过在第一预设位置的两个虚拟相机对预设场景进行图像采集,得到场景天空盒;其中,所述两个虚拟相机具有相同的相机参数;通过在第二预设位置的所述两个虚拟相机对控制图标进行图像采集,得到左眼控制图像和右眼控制图像;将所述左眼控制图像和所述右眼控制图像分别叠加到所述场景天空盒中,得到左眼图像和右眼图像;将所述左眼图像渲染到头戴显示设备的左视屏幕,将所述右眼图像渲染到头戴显示设备的右视屏幕,实现包括控制图标的预设场景的展示;本实施例针对预设场景和交互的控制图标分别采用不同位置的虚拟相机进行图像采集,实现用户通过头戴显示设备在观看一个无视差的天空盒虚拟场景的同时,能够感知控制图标具备真实的物理空间尺度,达到用户与虚拟场景交互的目的,提升了用户的交互体验。
可选地,两个虚拟相机包括左眼虚拟相机和右眼虚拟相机;
第一图像采集模块21,具体用于通过左眼虚拟相机和右眼虚拟相机在相同的位置对预设场景进行图像采集渲染,得到场景天空盒。
在一些可选实施例中,本实施例提供的装置还包括:
距离调整模块,用于调整左眼虚拟相机和右眼虚拟相机之间的平移距离为预设距离;
第二图像采集模块22,具体用于基于调整平移距离后的左眼虚拟相机和右眼虚拟相机分别对控制图标进行图像采集,得到左眼控制图像和右眼控制图像。
在一些可选实施例中,本实施例提供的装置还包括:
位置获取模块,用于获取控制器在世界坐标系中的真实位置信息;其中,控制图标为与控制器相对应的、具有预设形状的图标;
图标添加模块,用于基于真实位置信息将控制器对应的控制图标添加在空白场景中;其中,空白场景与预设场景相对应,但未渲染场景天空盒;
第二图像采集模块22,具体用于通过在第二预设位置的两个虚拟相机对添加了控制图标的空白场景进行图像采集,得到左眼控制图像和右眼控制图像。
可选地,图标添加模块,具体用于基于真实位置信息确定控制图标在空白场景中的图标位置;按照图标位置将控制图标添加到空白场景中。
在一些可选实施例中,本实施例提供的装置还包括:
缓冲模块,用于将场景天空盒存入存储器的第一缓冲区中;其中,第一缓冲区中缓存的信息不显示;将左眼图像和右眼图像存入第一缓冲区;其中,左眼图像和右眼图像分别对应第一缓冲区中的左眼区域和右眼区域。
可选地,存储器还包括第二缓冲区;
图像渲染模块24,具体用于将第一缓冲区中的左眼区域中存储的左眼图像交换到第二缓冲区中的左眼区域;将第一缓冲区中的右眼区域中存储的右眼图像交换到第二缓冲区中的右眼区域;将第二缓冲区的左眼区域中的左眼图像渲染到头戴显示设备的左视屏幕,将第二缓冲区的右眼区域中的右眼图像渲染到头戴显示设备的右视屏幕,实现包括控制图标的预设场景的展示。
示例性电子设备
下面,参考图3来描述根据本公开实施例的电子设备。该电子设备可以是第一设备和第二设备中的任一个或两者、或与它们独立的单机设备,该单机设备可以与第一设备和第二设备进行通信,以从它们接收所采集到的输入信号。
图3图示了根据本公开实施例的电子设备的框图。
如图3所示,电子设备包括一个或多个处理器和存储器。
处理器可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其他形式的处理单元,并且可以控制电子设备中的其他组件以执行期望的功能。
存储器可以存储一个或多个计算机程序产品,所述存储器可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序产品,处理器可以运行所述计算机程序产品,以实现上文所述的本公开的各个实施例的虚拟现实中的交互显示方法以及/或者其他期望的功能。
在一个示例中,电子装置还可以包括:输入装置和输出装置,这些组件通过总线***和/或其他形式的连接机构(未示出)互连。
此外,该输入装置还可以包括例如键盘、鼠标等等。
该输出装置可以向外部输出各种信息,包括确定出的距离信息、方向信息等。该输出装置可以包括例如显示器、扬声器、打印机、以及通信网络及其所连接的远程输出装置等等。
当然,为了简化,图3中仅示出了该电子设备中与本公开有关的组件中的一些,省略了诸如总线、输入/输出接口等等的组件。除此之外,根据具体应用情况,电子设备还可以包括任何其他适当的组件。
除了上述方法和设备以外,本公开的实施例还可以是计算机程序产品,其包括计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述部分中描述的根据本公开各种实施例的虚拟现实中的交互显示方法中的步骤。
所述计算机程序产品可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。
此外,本公开的实施例还可以是计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述部分中描述的根据本公开各种实施例的虚拟现实中的交互显示方法中的步骤。
所述计算机可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
以上结合具体实施例描述了本公开的基本原理,但是,需要指出的是,在本公开中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本公开的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本公开为必须采用上述具体的细节来实现。
本说明书中各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似的部分相互参见即可。对于***实施例而言,由于其与方法实施例基本对应,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本公开中涉及的器件、装置、设备、***的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、***。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
可能以许多方式来实现本公开的方法和装置。例如,可通过软件、硬件、固件或者软件、硬件、固件的任何组合来实现本公开的方法和装置。用于所述方法的步骤的上述顺序仅是为了进行说明,本公开的方法的步骤不限于以上具体描述的顺序,除非以其它方式特别说明。此外,在一些实施例中,还可将本公开实施为记录在记录介质中的程序,这些程序包括用于实现根据本公开的方法的机器可读指令。因而,本公开还覆盖存储用于执行根据本公开的方法的程序的记录介质。
还需要指出的是,在本公开的装置、设备和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本公开的等效方案。
提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本公开。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本公开的范围。因此,本公开不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本公开的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。

Claims (10)

1.一种虚拟现实中的交互显示方法,其特征在于,包括:
通过在第一预设位置的两个虚拟相机对预设场景进行图像采集,得到场景天空盒;其中,所述两个虚拟相机具有相同的相机参数;
通过在第二预设位置的所述两个虚拟相机对控制图标进行图像采集,得到左眼控制图像和右眼控制图像;
将所述左眼控制图像和所述右眼控制图像分别叠加到所述场景天空盒中,得到左眼图像和右眼图像;
将所述左眼图像渲染到头戴显示设备的左视屏幕,将所述右眼图像渲染到头戴显示设备的右视屏幕,实现包括控制图标的预设场景的展示。
2.根据权利要求1所述的方法,其特征在于,所述两个虚拟相机包括左眼虚拟相机和右眼虚拟相机;
所述通过在第一预设位置的两个虚拟相机对预设场景进行图像采集,得到场景天空盒,包括:
通过所述左眼虚拟相机和所述右眼虚拟相机在相同的位置对预设场景进行图像采集渲染,得到场景天空盒。
3.根据权利要求2所述的方法,其特征在于,所述通过在第二预设位置的所述两个虚拟相机对控制图标进行图像采集,得到左眼控制图像和右眼控制图像之前,还包括:
调整所述左眼虚拟相机和所述右眼虚拟相机之间的平移距离为预设距离;
所述通过在第二预设位置的所述两个虚拟相机对控制图标进行图像采集,得到左眼控制图像和右眼控制图像,包括:
基于调整平移距离后的所述左眼虚拟相机和所述右眼虚拟相机分别对所述控制图标进行图像采集,得到所述左眼控制图像和所述右眼控制图像。
4.根据权利要求1-3任一所述的方法,其特征在于,所述通过在第二预设位置的所述两个虚拟相机对控制图标进行图像采集,得到左眼控制图像和右眼控制图像之前,还包括:
获取控制器在世界坐标系中的真实位置信息;其中,所述控制图标为与所述控制器相对应的、具有预设形状的图标;
基于所述真实位置信息将所述控制器对应的所述控制图标添加在空白场景中;其中,所述空白场景与所述预设场景相对应,但未渲染所述场景天空盒;
所述通过在第二预设位置的所述两个虚拟相机对控制图标进行图像采集,得到左眼控制图像和右眼控制图像,包括:
通过在第二预设位置的所述两个虚拟相机对添加了所述控制图标的空白场景进行图像采集,得到左眼控制图像和右眼控制图像。
5.根据权利要求4所述的方法,其特征在于,所述基于所述真实位置信息将所述控制器对应的所述控制图标添加在空白场景中,包括:
基于所述真实位置信息确定所述控制图标在所述空白场景中的图标位置;
按照所述图标位置将所述控制图标添加到所述空白场景中。
6.根据权利要求1-5任一所述的方法,其特征在于,所述通过在第一预设位置的两个虚拟相机对预设场景进行图像采集,得到场景天空盒之后,还包括:
将所述场景天空盒存入存储器的第一缓冲区中;其中,所述第一缓冲区中缓存的信息不显示;
所述将所述左眼控制图像和所述右眼控制图像分别叠加到所述场景天空盒中,得到左眼图像和右眼图像之后,还包括:
将所述左眼图像和所述右眼图像存入所述第一缓冲区;其中,所述左眼图像和所述右眼图像分别对应所述第一缓冲区中的左眼区域和右眼区域。
7.根据权利要求6所述的方法,其特征在于,所述存储器还包括第二缓冲区;
所述将所述左眼图像渲染到头戴显示设备的左视屏幕,将所述右眼图像渲染到头戴显示设备的右视屏幕,实现包括控制图标的预设场景的展示,包括:
将所述第一缓冲区中的左眼区域中存储的所述左眼图像交换到所述第二缓冲区中的左眼区域;
将所述第一缓冲区中的右眼区域中存储的所述右眼图像交换到所述第二缓冲区中的右眼区域;
将所述第二缓冲区的左眼区域中的左眼图像渲染到所述头戴显示设备的左视屏幕,将所述第二缓冲区的右眼区域中的右眼图像渲染到所述头戴显示设备的右视屏幕,实现包括控制图标的预设场景的展示。
8.一种虚拟现实中的交互显示装置,其特征在于,包括:
第一图像采集模块,用于通过在第一预设位置的两个虚拟相机对预设场景进行图像采集,得到场景天空盒;其中,所述两个虚拟相机具有相同的相机参数;
第二图像采集模块,用于通过在第二预设位置的所述两个虚拟相机对控制图标进行图像采集,得到左眼控制图像和右眼控制图像;
图像叠加模块,用于将所述左眼控制图像和所述右眼控制图像分别叠加到所述场景天空盒中,得到左眼图像和右眼图像;
图像渲染模块,用于将所述左眼图像渲染到头戴显示设备的左视屏幕,将所述右眼图像渲染到头戴显示设备的右视屏幕,实现包括控制图标的预设场景的展示。
9.一种电子设备,其特征在于,包括:
存储器,用于存储计算机程序产品;
处理器,用于执行所述存储器中存储的计算机程序产品,且所述计算机程序产品被执行时,实现上述权利要求1-7任一所述的虚拟现实中的交互显示方法。
10.一种计算机可读存储介质,其上存储有计算机程序指令,其特征在于,该计算机程序指令被处理器执行时,实现上述权利要求1-7任一所述的虚拟现实中的交互显示方法。
CN202310525051.5A 2023-05-10 2023-05-10 虚拟现实中的交互显示方法、装置、电子设备、存储介质 Pending CN116610213A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310525051.5A CN116610213A (zh) 2023-05-10 2023-05-10 虚拟现实中的交互显示方法、装置、电子设备、存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310525051.5A CN116610213A (zh) 2023-05-10 2023-05-10 虚拟现实中的交互显示方法、装置、电子设备、存储介质

Publications (1)

Publication Number Publication Date
CN116610213A true CN116610213A (zh) 2023-08-18

Family

ID=87684643

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310525051.5A Pending CN116610213A (zh) 2023-05-10 2023-05-10 虚拟现实中的交互显示方法、装置、电子设备、存储介质

Country Status (1)

Country Link
CN (1) CN116610213A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115079826A (zh) * 2022-06-24 2022-09-20 平安银行股份有限公司 一种虚拟现实的实现方法、电子设备及存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115079826A (zh) * 2022-06-24 2022-09-20 平安银行股份有限公司 一种虚拟现实的实现方法、电子设备及存储介质

Similar Documents

Publication Publication Date Title
CN105704468B (zh) 用于虚拟和现实场景的立体显示方法、装置及电子设备
EP3712840A1 (en) Method and system for generating an image of a subject in a scene
US8228327B2 (en) Non-linear depth rendering of stereoscopic animated images
US7884823B2 (en) Three dimensional rendering of display information using viewer eye coordinates
JP5996814B1 (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
WO2018086295A1 (zh) 一种应用界面显示方法及装置
KR20130138177A (ko) 다중 시점 장면에서의 그래픽 표시
JP2017016577A (ja) 情報処理装置、その制御方法及びプログラム
JP2019197368A (ja) 立体映像奥行き圧縮装置および立体映像奥行き圧縮プログラム
JP2006178900A (ja) 立体画像生成装置
CN109920043B (zh) 虚拟3d对象的立体渲染
JP2011164781A (ja) 立体画像生成プログラム、情報記憶媒体、立体画像生成装置、及び立体画像生成方法
CN116610213A (zh) 虚拟现实中的交互显示方法、装置、电子设备、存储介质
US20040212612A1 (en) Method and apparatus for converting two-dimensional images into three-dimensional images
JP2018157331A (ja) プログラム、記録媒体、画像生成装置、画像生成方法
JP6618260B2 (ja) 情報処理装置、情報処理方法、プログラム
WO2019048819A1 (en) METHOD FOR MODIFYING AN IMAGE ON A COMPUTER DEVICE
Carvalho et al. Dynamic adjustment of stereo parameters for virtual reality tools
WO2017085803A1 (ja) 映像表示装置及び映像表示方法
CN108197248B (zh) 一种3d化2d网页显示的方法、装置及***
US10701345B2 (en) System and method for generating a stereo pair of images of virtual objects
KR20160128735A (ko) 디스플레이 장치 및 그의 제어 방법
CN111344744A (zh) 用于展示三维物体的方法以及相关计算机程序产品、数字存储介质和计算机***
US9547933B2 (en) Display apparatus and display method thereof
EP4030752A1 (en) Image generation system and method

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination