CN111815783A - 虚拟场景的呈现方法及装置、电子设备及存储介质 - Google Patents

虚拟场景的呈现方法及装置、电子设备及存储介质 Download PDF

Info

Publication number
CN111815783A
CN111815783A CN202010620087.8A CN202010620087A CN111815783A CN 111815783 A CN111815783 A CN 111815783A CN 202010620087 A CN202010620087 A CN 202010620087A CN 111815783 A CN111815783 A CN 111815783A
Authority
CN
China
Prior art keywords
virtual
virtual scene
space
positioning information
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202010620087.8A
Other languages
English (en)
Inventor
刘旭
侯欣如
栾青
王鼎禄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sensetime Technology Development Co Ltd
Original Assignee
Beijing Sensetime Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sensetime Technology Development Co Ltd filed Critical Beijing Sensetime Technology Development Co Ltd
Priority to CN202010620087.8A priority Critical patent/CN111815783A/zh
Publication of CN111815783A publication Critical patent/CN111815783A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本申请公开了一种虚拟场景的呈现方法及装置、电子设备,所述方法包括:获取增强现实AR设备在现实空间下的第一定位信息;将所述现实空间下的第一定位信息映射至虚拟空间下的第二定位信息;基于虚拟空间下的三维虚拟场景模型,确定所述第二定位信息对应的虚拟场景数据,所述虚拟场景数据用于呈现在所述三维虚拟场景模型的特定视角下的虚拟场景图像;基于所述第二定位信息对应的虚拟场景数据,通过所述AR设备展示所述特定视角下的虚拟场景图像。

Description

虚拟场景的呈现方法及装置、电子设备及存储介质
技术领域
本申请涉及计算机视觉技术领域,尤其涉及一种虚拟场景的呈现方法及装置、电子设备、存储介质及计算机程序产品。
背景技术
增强现实(Augmented Reality,AR)技术,通过仿真真实场景使得用户可以沉浸到虚拟的环境中,用户可以在虚拟的环境中体验到真实的感受。对AR设备呈现的虚拟场景的效果的优化,一直是AR技术追求的目标。
申请内容
为解决上述技术问题,本申请实施例提供了一种虚拟场景的呈现方法及装置、计算机程序产品、存储介质、电子设备。
本申请实施例提供的虚拟场景的呈现方法,包括:
获取AR设备在现实空间下的第一定位信息;
将所述现实空间下的第一定位信息映射至虚拟空间下的第二定位信息;
基于虚拟空间下的三维虚拟场景模型,确定所述第二定位信息对应的虚拟场景数据,所述虚拟场景数据用于呈现在所述三维虚拟场景模型的特定视角下的虚拟场景图像;
基于所述第二定位信息对应的虚拟场景数据,通过所述AR设备展示所述特定视角下的虚拟场景图像。
通过这种方法,将AR设备在现实空间下的第一定位信息映射至虚拟空间下的第二定位信息,基于该第二定位信息对应的虚拟场景数据,通过AR设备展示三维虚拟场景模型的特定视角下的虚拟场景图像。如此,实现了在现实空间下展示三维虚拟场景模型的特定视角下的虚拟场景图像,增强了用户对于虚拟场景的真实体验。
本申请一可选实施方式中,所述三维虚拟场景模型在虚拟空间下对应一个虚拟空间范围,所述第二定位信息在虚拟空间下对应一个虚拟位置;
所述基于虚拟空间下的三维虚拟场景模型,确定所述第二定位信息对应的虚拟场景数据,包括:
在所述AR设备的虚拟位置位于所述三维虚拟场景模型对应的虚拟空间范围以外的情况下,基于虚拟空间下的三维虚拟场景模型,确定所述第二定位信息对应的虚拟场景数据为第一虚拟场景数据,所述第一虚拟场景数据用于呈现所述三维虚拟场景模型在第一视角下的虚拟场景图像,所述第一视角为相对于所述三维虚拟场景模型的外部视角。
其中,所述通过所述AR设备展示所述特定视角下的虚拟场景图像,包括:
通过所述AR设备展示所述外部视角下的虚拟场景图像与现实场景图像相叠加的增强现实图像;其中,所述外部视角下的虚拟场景图像展示在所述AR设备的部分展示区域。
在上述实施方式中,AR设备的虚拟位置位于三维虚拟场景模型对应的虚拟空间范围以外的情况下,通过AR设备展示外部视角下的虚拟场景图像与现实场景图像相叠加的增强现实图像。如此,通过虚拟场景图像与现实场景图像的叠加,使得虚拟场景图像相对于现实场景图像展现出一种穿越的特殊效果,丰富了虚拟场景图像的呈现效果。
本申请一可选实施方式中,所述三维虚拟场景模型在虚拟空间下对应一个虚拟空间范围,所述第二定位信息在虚拟空间下对应一个虚拟位置;
所述基于虚拟空间下的三维虚拟场景模型,确定所述第二定位信息对应的虚拟场景数据,包括:
在所述AR设备的虚拟位置位于所述三维虚拟场景模型对应的虚拟空间范围以内的情况下,基于虚拟空间下的三维虚拟场景模型,确定所述第二定位信息对应的虚拟场景数据为第二虚拟场景数据,所述第二虚拟场景数据用于呈现所述三维虚拟场景模型在第二视角下的虚拟场景图像,所述第二视角为相对于所述三维虚拟场景模型的内部视角。
其中,所述通过所述AR设备展示所述特定视角下的虚拟场景图像,包括:
通过所述AR设备展示所述内部视角下的虚拟场景图像;其中,所述内部视角下的虚拟场景图像展示在所述AR设备的全部展示区域。
在上述实施方式中,AR设备的虚拟位置位于三维虚拟场景模型对应的虚拟空间范围以内的情况下,通过AR设备展示内部视角下的虚拟场景图像。如此,使得虚拟场景图像完全沉浸于用户的视野范围内,增强了虚拟场景图像的观感体验。
本申请一可选实施方式中,所述方法还包括:
在所述AR设备的虚拟位置位于特定虚拟空间范围内的情况下,触发所述AR设备展示所述虚拟场景图像;其中,所述特定虚拟空间范围包含所述三维虚拟场景模型对应的虚拟空间范围。
在上述实施方式中,当AR设备的虚拟位置靠近三维虚拟场景模型对应的虚拟空间范围或者位于三维虚拟场景模型对应的虚拟空间范围时,触发AR设备展示虚拟场景图像,如此,明确了展示虚拟场景图像的触发机制。
本申请一可选实施方式中,所述方法还包括:
基于所述AR设备的移动,得到所述AR设备更新后的虚拟位置;
若所述更新后的虚拟位置位于所述三维虚拟场景模型对应的虚拟空间范围以外,则触发所述AR设备展示提醒信息;或者,若所述更新后的虚拟位置距离所述三维虚拟场景模型对应的虚拟空间范围的边界小于等于距离阈值,则触发所述AR设备展示提醒信息。
在上述实施方式中,AR设备发生移动的情况下,若AR设备的虚拟位置靠近三维虚拟场景模型对应的虚拟空间范围的边界或者移出三维虚拟场景模型对应的虚拟空间范围,则触发AR设备展示提醒信息,通过该提醒信息提醒用户AR设备移动到了三维虚拟场景模型对应的虚拟空间范围以外或者边界附近。
本申请一可选实施方式中,所述方法还包括:
基于所述AR设备在现实空间下的第一定位信息的改变量确定所述AR设备在现实空间下的第一移动信息;
将所述现实空间下的第一移动信息映射至虚拟空间下的第二移动信息;
基于虚拟空间下的三维虚拟场景模型,以及所述虚拟空间下的第二移动信息,确定更新的虚拟场景数据;
基于所述更新的虚拟场景数据,对所述AR设备所展示的虚拟场景图像进行更新。
在上述实施方式中,AR设备发生移动的情况下,基于实时的移动信息,对AR设备所展示的虚拟场景图像进行更新,从而增强用户对于虚拟场景的沉浸式体验感。
本申请一可选实施方式中,所述方法还包括:
确定现实空间下的现实坐标系和虚拟空间下的虚拟坐标系之间的变换关系;
所述将所述现实空间下的第一定位信息映射至虚拟空间下的第二定位信息,包括:
基于所述变换关系,将所述现实空间下的第一定位信息映射至虚拟空间下的第二定位信息。
在上述实施方式中,基于现实坐标系和虚拟坐标系之间的变换关系,可以实现将现实空间下的第一定位信息映射至虚拟空间下的第二定位信息,从而实现了现实空间下的定位信息与虚拟空间下的定位信息之间的对齐,使得虚拟场景图像的呈现更符合现实世界,保障了用户对于虚拟场景的沉浸式体验感。
本申请实施例提供的虚拟场景的呈现装置,包括:
获取单元,用于获取AR设备在现实空间下的第一定位信息;
映射单元,用于将所述现实空间下的第一定位信息映射至虚拟空间下的第二定位信息;
确定单元,用于基于虚拟空间下的三维虚拟场景模型,确定所述第二定位信息对应的虚拟场景数据,所述虚拟场景数据用于呈现在所述三维虚拟场景模型的特定视角下的虚拟场景图像;
展示单元,用于基于所述第二定位信息对应的虚拟场景数据,通过所述AR设备展示所述特定视角下的虚拟场景图像。
本申请一可选实施方式中,所述三维虚拟场景模型在虚拟空间下对应一个虚拟空间范围,所述第二定位信息在虚拟空间下对应一个虚拟位置;
所述确定单元,用于在所述AR设备的虚拟位置位于所述三维虚拟场景模型对应的虚拟空间范围以外的情况下,基于虚拟空间下的三维虚拟场景模型,确定所述第二定位信息对应的虚拟场景数据为第一虚拟场景数据,所述第一虚拟场景数据用于呈现所述三维虚拟场景模型在第一视角下的虚拟场景图像,所述第一视角为相对于所述三维虚拟场景模型的外部视角。
本申请一可选实施方式中,所述展示单元,用于通过所述AR设备展示所述外部视角下的虚拟场景图像与现实场景图像相叠加的增强现实图像;其中,所述外部视角下的虚拟场景图像展示在所述AR设备的部分展示区域。
本申请一可选实施方式中,所述三维虚拟场景模型在虚拟空间下对应一个虚拟空间范围,所述第二定位信息在虚拟空间下对应一个虚拟位置;
所述确定单元,用于在所述AR设备的虚拟位置位于所述三维虚拟场景模型对应的虚拟空间范围以内的情况下,基于虚拟空间下的三维虚拟场景模型,确定所述第二定位信息对应的虚拟场景数据为第二虚拟场景数据,所述第二虚拟场景数据用于呈现所述三维虚拟场景模型在第二视角下的虚拟场景图像,所述第二视角为相对于所述三维虚拟场景模型的内部视角。
本申请一可选实施方式中,所述展示单元,用于通过所述AR设备展示所述内部视角下的虚拟场景图像;其中,所述内部视角下的虚拟场景图像展示在所述AR设备的全部展示区域。
本申请一可选实施方式中,所述装置还包括:触发单元,用于在所述AR设备的虚拟位置位于特定虚拟空间范围内的情况下,触发所述AR设备展示所述虚拟场景图像;其中,所述特定虚拟空间范围包含所述三维虚拟场景模型对应的虚拟空间范围。
本申请一可选实施方式中,所述获取单元,还用于基于所述AR设备的移动,得到所述AR设备更新后的虚拟位置;
所述装置还包括:提醒单元,用于若所述更新后的虚拟位置位于所述三维虚拟场景模型对应的虚拟空间范围以外,则触发所述AR设备展示提醒信息;或者,若所述更新后的虚拟位置距离所述三维虚拟场景模型对应的虚拟空间范围的边界小于等于距离阈值,则触发所述AR设备展示提醒信息。
本申请一可选实施方式中,所述确定单元,还用于基于所述AR设备在现实空间下的第一定位信息的改变量确定所述AR设备在现实空间下的第一移动信息;
所述映射单元,还用于将所述现实空间下的第一移动信息映射至虚拟空间下的第二移动信息;
所述确定单元,还用于基于虚拟空间下的三维虚拟场景模型,以及所述虚拟空间下的第二移动信息,确定更新的虚拟场景数据;
所述展示单元,还用于基于所述更新的虚拟场景数据,对所述AR设备所展示的虚拟场景图像进行更新。
本申请一可选实施方式中,所述确定单元,还用于确定现实空间下的现实坐标系和虚拟空间下的虚拟坐标系之间的变换关系;
所述映射单元,用于基于所述变换关系,将所述现实空间下的第一定位信息映射至虚拟空间下的第二定位信息。
本申请实施例提供的计算机程序产品包括计算机可执行指令,该计算机可执行指令被执行后,能够实现上述的虚拟场景的呈现方法。
本申请实施例提供的存储介质上存储有可执行指令,该可执行指令被处理器执行时实现上述的虚拟场景的呈现方法。
本申请实施例提供的电子设备,其特征在于,所述电子设备包括存储器和处理器,所述存储器上存储有计算机可执行指令,所述处理器运行所述存储器上的计算机可执行指令时可实现上述的虚拟场景的呈现方法。
关于上述虚拟场景的呈现装置、计算机程序产品、存储介质、电子设备的效果描述参见上述虚拟场景的呈现方法的说明,这里不再赘述。
为使本申请的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合附附图,作详细说明如下。
附图说明
图1为本申请实施例提供的虚拟场景的呈现方法的流程示意图;
图2为本申请实施例提供的AR设备的虚拟位置位于三维虚拟场景模型对应的虚拟空间范围以外的示意图;
图3为本申请实施例提供的增强现实图像的示意图一;
图4为本申请实施例提供的增强现实图像的示意图二;
图5为本申请实施例提供的AR设备的虚拟位置位于三维虚拟场景模型对应的虚拟空间范围以内的示意图一;
图6为本申请实施例提供的AR设备的虚拟位置位于三维虚拟场景模型对应的虚拟空间范围以内的示意图二;
图7为本申请实施例提供的AR设备的虚拟位置位于三维虚拟场景模型对应的虚拟空间范围以内的示意图三;
图8为本申请实施例提供的虚拟场景的呈现装置的结构组成示意图;
图9为本申请实施例的电子设备的结构组成示意图。
具体实施方式
现在将参照附图来详细描述本申请的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本申请的范围。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本申请及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
本申请可适用于支持AR技术的电子设备(如手机、平板电脑、游戏机、台式机、广告机、一体机、车载终端等等)或服务器,或者其组合,在本申请应用于服务器的情况下,该服务器可以与其他具有通信功能且具有摄像头的电子设备连接,其连接方式可以是有线连接或无线连接,无线连接例如可以为蓝牙连接、无线宽带(Wireless Fidelity,WIFI)连接等。
支持AR技术的电子设备也可以称为AR设备,AR设备中呈现的增强现实场景,即为在AR设备中展示融入到现实场景的虚拟对象,可以是直接将虚拟对象的呈现画面渲染出来,使之与现实场景融合,也可以是将虚拟对象的呈现画面与现实场景图像融合后,展示融合后的显示画面;具体选择何种呈现方式取决于AR设备的设备类型和采用的画面呈现技术,比如,一般地,由于从AR眼镜中可以直接看到现实场景(并非成像后的现实场景图像),因此AR眼镜可以采用直接将虚拟对象的呈现画面渲染出来的呈现方式;对于手机、平板电脑等移动终端设备,由于在移动终端设备中展示的是对现实场景成像后的画面(即现实场景图像),因此可以采用将现实场景图像与虚拟对象的呈现画面进行融合处理的方式,来展示增强现实效果。
下面对本申请实施例所涉及的一种虚拟场景的呈现方法进行详细介绍,本申请实施例所提供的虚拟场景的呈现方法的执行主体可以为上述AR设备,也可以为其它具有数据处理能力的处理装置,本申请实施例中不作限定。
参见图1所示,为本申请实施例所提供的一种虚拟场景的呈现方法的流程示意图,包括以下几个步骤:
S101、获取AR设备在现实空间下的第一定位信息。
S102、将所述现实空间下的第一定位信息映射至虚拟空间下的第二定位信息。
S103、基于虚拟空间下的三维虚拟场景模型,确定所述第二定位信息对应的虚拟场景数据,所述虚拟场景数据用于呈现在所述三维虚拟场景模型的特定视角下的虚拟场景图像。
S104、基于所述第二定位信息对应的虚拟场景数据,通过所述AR设备展示所述特定视角下的虚拟场景图像。
下面对上述S101~S104的过程进行具体分析。
针对上述S101,AR设备在现实空间下的第一定位信息是指AR设备在现实空间下的第一位姿数据,其中,第一位姿数据包括第一位置数据和/或第一姿态数据,其中,第一位置数据用于表征AR设备在现实空间下的位置,第一姿态数据用于表征AR设备在现实空间下的姿态。
AR设备在现实空间下的第一定位信息可以通过以下任意一种方式获取:
方式一:当AR设备配置有位姿传感器时,可以通过AR设备上的位姿传感器来确定AR设备在现实空间下的第一定位信息。
这里,位姿传感器可以包括用来确定AR设备的姿态的角速度传感器,比如陀螺仪、惯性测量单元(Inertial measurement unit,IMU)等;可以包括用来确定AR设备的位置的定位装置,比如基于全球定位***(Global Positioning System,GPS)、全球导航卫星***(Global Navigation Satellite System,GLONASS)、无线保真(WirelessFidelity,WiFi)定位技术的定位装置;也可以同时包括用来确定AR设备的姿态的角速度传感器和位置的定位装置。
方式二:当AR设备配置有图像采集装置,比如摄像头时,可以通过摄像头采集的现实场景图像来确定AR设备在现实空间下的第一定位信息。
本申请实施例以通过摄像头采集的现实场景图像来确定AR设备在现实空间下的第一定位信息为例,来具体说明如何获取AR设备在现实空间下的第一定位信息。
在一种实施方式中,通过摄像头采集的现实场景图像来确定AR设备在现实空间下的第一定位信息时,可以执行以下步骤:
1-1)获取AR设备拍摄的现实场景图像。
1-2)基于现实场景图像和预先存储的用于定位的神经网络模型,确定与现实场景图像对应的第一定位信息。
这里,当获取到AR设备的摄像头采集到现实场景图像后,可以将该现实场景图像输入预先训练好的用于定位的神经网络模型中,即可以得到该现实场景图像对应的第一定位信息。
在另一可选方式中,通过摄像头采集的现实场景图像来确定AR设备在现实空间下的第一定位信息时,可以执行以下步骤:
2-1)获取AR设备拍摄的现实场景图像。
2-2)基于现实场景图像和对齐后的三维样本图,确定与现实场景图像对应的第一定位信息。
这里,对齐后的三维样本图为基于预先拍摄现实场景得到的样本图库与预存的三维样本图进行特征点对齐后的三维样本图;预存的三维样本图为预存储的表征现实场景形貌特征的三维图。
这里,预存的三维样本图可以包括提前设置好的能够表征现实场景形貌特征、且带有尺寸标注的三维图,比如可以是表征现实场景形貌特征的计算机辅助设计(ComputerAided Design,CAD)三维图,比如,可以提前在CAD软件上绘制表征各种现实场景形貌特征的三维图,然后将这些三维图与对应的现实场景进行关联存储。
具体地,可以根据以下方式得到齐后的三维样本图:以不同的位姿拍摄现实场景得到多张样本图片,构成样本图库;针对每张样本图片,提取多个特征点,构成表征现实场景的特征点云;将该特征点云与预存储的表征现实场景形貌特征的三维图进行对齐,得到对齐后的三维样本图。
针对上述2-2),具体可以通过以下方式来实现:基于对齐后的三维样本图,确定与现实场景图像中的特征点匹配的三维样本图中的特征点。基于匹配的三维样本图中的特征点在对齐后的三维样本图中的坐标信息,确定样本图库中与现实场景图像匹配的目标样本图片;样本图库包括预先拍摄现实场景得到的样本图片,以及每张样本图片对应的位姿数据。将与目标样本图片对应的位姿数据,确定为现实场景图像对应的位姿数据。
针对上述S102,确定现实空间下的现实坐标系和虚拟空间下的虚拟坐标系之间的变换关系;基于所述变换关系,将所述现实空间下的第一定位信息映射至虚拟空间下的第二定位信息。
这里,AR设备所在的空间可以被理解成为现实空间,三维虚拟场景模型所在的空间可以被理解成为虚拟空间。其中,现实空间下的现实坐标系和虚拟空间下的虚拟坐标系之间的变换关系(或者称为映射关系),可以通过以下方式确定:
3-1)获取AR设备拍摄的现实场景图像以及该现实场景图像对应的虚拟场景图像。
3-2)将现实场景图像中的第一参考点与虚拟场景图像的第二参考点对齐,基于所述第一参考点的现实坐标和所述第二参考点的虚拟坐标,确定现实坐标系和虚拟坐标系之间的变换关系。
在一个示例中,将现实空间下的现实坐标系和虚拟空间下的虚拟坐标系之间的变换关系记作F,第一定位信息记作R1,则第二定位信息可以表示为:
R2=F(R1)。
针对上述S103,预先构建一个虚拟空间下的三维虚拟场景模型,基于该三维虚拟场景模型确定虚拟空间下的第二定位信息对应的虚拟场景数据,这里,所述虚拟场景数据用于呈现在所述三维虚拟场景模型的特定视角下的虚拟场景图像。
这里,在一可选方式中,所述三维虚拟场景模型可以是基于现实场景模拟出的三维虚拟场景模型。在另一可选方式中,所述三维虚拟场景模型可以是通过模型制作软件虚构出的一个三维虚拟场景模型。
例如:所述三维虚拟场景模型可以是基于真实景点模拟出的三维虚拟场景模型。再例如:所述三维虚拟场景模型可以是通过模型制作软件虚构出的房屋或者建筑物的三维虚拟场景模型。
本申请实施例中,所述三维虚拟场景模型在虚拟空间下对应一个虚拟空间范围,所述第二定位信息在虚拟空间下对应一个虚拟位置。AR设备的虚拟位置可以位于三维虚拟场景模型对应的虚拟空间范围以外,也可以位于三维虚拟场景模型对应的虚拟空间范围以内,这两种情况下AR设备所呈现的图像是不同的,以下分别进行说明。
情况一:在所述AR设备的虚拟位置位于所述三维虚拟场景模型对应的虚拟空间范围以外的情况下,基于虚拟空间下的三维虚拟场景模型,确定所述第二定位信息对应的虚拟场景数据为第一虚拟场景数据,所述第一虚拟场景数据用于呈现所述三维虚拟场景模型在第一视角下的虚拟场景图像,所述第一视角为相对于所述三维虚拟场景模型的外部视角。
这种情况下,通过所述AR设备展示所述外部视角下的虚拟场景图像与现实场景图像相叠加的增强现实图像;其中,所述外部视角下的虚拟场景图像展示在所述AR设备的部分展示区域。
本申请实施例中,三维虚拟场景模型被处理为非透明状形态,即用户在AR设备中会看到非透明形态的三维场景模型对应的虚拟场景图像,并且,虚拟场景图像的图层位于现实场景图像的图层之上,也就是说,虚拟场景图像会覆盖掉现实场景图像的至少部分。
在一个示例中,如图2所示,AR设备的虚拟位置位于三维虚拟场景模型对应的虚拟空间范围以外的情况下,AR设备展示的是三维虚拟场景模型的外部视角下的虚拟场景图像与现实场景图像相叠加的增强现实图像。
这里,外部视角基于AR设备所在的虚拟位置和维虚拟场景模型对应的虚拟空间范围确定。外部视角可以体现出观看者观看三维虚拟场景模型的视角。
以房屋对应的三维虚拟场景模型(以下简称为虚拟房屋)为例。如图3所示,AR设备的虚拟位置位于三维虚拟场景模型对应的虚拟空间范围以外的情况下,AR设备展示的是房屋门(虚拟场景图像)与建筑物(现实场景图像)相叠加的虚拟现实图像。当然,房屋门也可以处于打开状态,如图4所示,AR设备展示的是房屋内部(虚拟场景图像)与建筑物(现实场景图像)相叠加的虚拟现实图像。
情况二:在所述AR设备的虚拟位置位于所述三维虚拟场景模型对应的虚拟空间范围以内的情况下,基于虚拟空间下的三维虚拟场景模型,确定所述第二定位信息对应的虚拟场景数据为第二虚拟场景数据,所述第二虚拟场景数据用于呈现所述三维虚拟场景模型在第二视角下的虚拟场景图像,所述第二视角为相对于所述三维虚拟场景模型的内部视角。
这种情况下,通过所述AR设备展示所述内部视角下的虚拟场景图像;其中,所述内部视角下的虚拟场景图像展示在所述AR设备的全部展示区域。
本申请实施例中,三维虚拟场景模型被处理为非透明状形态,即用户在AR设备中会看到非透明形态的三维场景模型对应的虚拟场景图像,并且,虚拟场景图像的图层位于现实场景图像的图层之上,也就是说,虚拟场景图像会覆盖掉现实场景图像的全部。
在一个示例中,如图5所示,AR设备的虚拟位置位于三维虚拟场景模型对应的虚拟空间范围以内的情况下,AR设备展示的是三维虚拟场景模型的内部视角下的虚拟场景图像。
这里,内部视角基于AR设备所在的虚拟位置和维虚拟场景模型对应的虚拟空间范围确定。内部视角可以体现出观看者观看三维虚拟场景模型的视角。
本申请实施例中,需要预先构建一个虚拟空间下的三维虚拟场景模型。在一可选方式中,三维虚拟场景模型是按照以下方式生成:
4-1)获取与现实场景对应的多张现实场景图像。
4-2)基于多张现实场景图像,生成三维虚拟场景模型。
这里,在获取与现实场景对应的多种现实场景图像时,为了得到准确表征该现实场景的三维虚拟场景模型,在获取与现实场景对应的多张现实场景图像时,可以在该现实场景中预设的多个位置上,按照不同的拍摄角度对现实场景进行拍摄,比如可以通过R-GBD摄像机对现实场景进行拍摄,得到能够全面表征该现实场景样貌的大量现实场景图像,然后基于这些现实场景图像,生成三维虚拟场景模型。
具体地,在基于多张现实场景图像,生成三维虚拟场景模型时,具体可以包括以下过程:从获取的多张现实场景图像中的每张现实场景图像中提取多个特征点;基于提取的多个特征点,以及预存的与现实场景匹配的三维样本图,生成三维虚拟场景模型;其中,三维样本图为预存储的表征现实场景形貌特征的三维图。
为了得到准确度高的三维虚拟场景模型,会从获取的多种现实场景图像中的每张现实场景图像中提取多个特征点,比如构成能够表征现实场景形貌的稠密点云,然后基于该稠密点云,以及预存的与现实场景匹配的三维样本图,生成三维虚拟场景模型,这里与现实场景匹配的三维样本图在上文进行过介绍,在此不再赘述。
本申请实施例中,在所述AR设备的虚拟位置位于特定虚拟空间范围内的情况下,触发所述AR设备展示所述虚拟场景图像;其中,所述特定虚拟空间范围包含所述三维虚拟场景模型对应的虚拟空间范围。
这里,所述特定虚拟空间范围包含且大于所述三维虚拟场景模型对应的虚拟空间范围。
A)如果AR设备的虚拟位置位于特定虚拟空间范围内且位于三维虚拟场景模型对应的虚拟空间范围以外,则触发AR设备展示三维虚拟场景模型的外部视角下的虚拟场景图像与现实场景图像相叠加的增强现实图像。
B)如果AR设备的虚拟位置位于特定虚拟空间范围内且位于三维虚拟场景模型对应的虚拟空间范围以内,则触发AR设备展示三维虚拟场景模型的内部视角下的虚拟场景图像。
本申请实施例的上述虚拟场景的呈现方法是一种实时的呈现方法,AR设备发生移动的情况下,例如用户手持AR设备发生了移动,基于所述AR设备在现实空间下的第一定位信息的改变量确定所述AR设备在现实空间下的第一移动信息;将所述现实空间下的第一移动信息映射至虚拟空间下的第二移动信息;基于虚拟空间下的三维虚拟场景模型,以及所述虚拟空间下的第二移动信息,确定更新的虚拟场景数据;基于所述更新的虚拟场景数据,对所述AR设备所展示的虚拟场景图像进行更新。
在一个示例中,将现实空间下的现实坐标系和虚拟空间下的虚拟坐标系之间的变换关系记作F,第一定位信息的改变量(即第一移动信息)记作ΔR1,则第二定位信息的改变量(即第二移动信息)可以表示为:
ΔR2=F(ΔR1)。
确定AR设备在虚拟空间下的第二移动信息后,基于虚拟空间下的三维虚拟场景模型以及所述虚拟空间下的第二移动信息确定更新的虚拟场景数据,基于该更新的虚拟场景数据对AR设备所展示的虚拟场景图像进行更新。
在一个示例中,如图6所示,AR设备的姿态发生了变化,从内部视角1改变到了内部视角2,AR设备所展示的虚拟场景图像由虚拟场景图像1更新为虚拟场景图像2,其中,虚拟场景图像1为内部视角1对应的虚拟场景图像,拟场景图像2为内部视角2对应的虚拟场景图像。
在一个示例中,如图7所示,AR设备的姿态和位置均发生了变化,从虚拟位置1移动到了虚拟位置2,并且从内部视角1改变到了内部视角2,AR设备所展示的虚拟场景图像由虚拟场景图像1更新为虚拟场景图像2,其中,虚拟场景图像1为位置1和内部视角1对应的虚拟场景图像,拟场景图像2为位置2和内部视角2对应的虚拟场景图像。
在一个应用场景中,在第一阶段,用户手持AR设备位于虚拟房屋(即三维虚拟场景模型对应的虚拟空间范围)以外,这种情况下,用户通过AR设备可以观看到虚拟房屋的门和现实场景图像相叠加的增强现实图像。在第二阶段,用户手持AR设备移动至虚拟房屋的门的位置处,虚拟房屋的门自动打开,从而呈现出虚拟房屋内部的图像。在第三阶段,用户手持AR设备走入虚拟房屋内,这种情况下,用户通过AR色板可以观看到虚拟房屋内部的图像,例如房屋内部的结构、装修等等,从而给用户一种置身在真实房屋内部的感觉。在第四阶段,用户手持AR设备在房屋内部调整姿态和/或位置,从而实现对观看视角和/或观看位置的调整。需要说明的是,上述四个阶段可以单独实施,也可以结合在一起实施。
本申请实施例中,在上述任一阶段实施的过程中,基于所述AR设备的移动得到所述AR设备更新后的虚拟位置;若所述更新后的虚拟位置位于所述三维虚拟场景模型对应的虚拟空间范围以外,则触发所述AR设备展示提醒信息;或者,若所述更新后的虚拟位置距离所述三维虚拟场景模型对应的虚拟空间范围的边界小于等于距离阈值,则触发所述AR设备展示提醒信息。如此,用户可以实时的明确自身是否移出了虚拟空间范围或者是否即将靠近虚拟空间范围的边界。
本申请实施例的技术方案,将AR设备在现实空间下的第一定位信息映射至虚拟空间下的第二定位信息,基于该第二定位信息对应的虚拟场景数据,通过AR设备展示三维虚拟场景模型的特定视角下的虚拟场景图像。如此,实现了在现实空间下展示三维虚拟场景模型的特定视角下的虚拟场景图像,增强了用户对于虚拟场景的真实体验。
图8为本申请实施例提供的虚拟场景的呈现装置的结构组成示意图,如图8所示,所述装置包括:
获取单元801,用于获取AR设备在现实空间下的第一定位信息;
映射单元802,用于将所述现实空间下的第一定位信息映射至虚拟空间下的第二定位信息;
确定单元803,用于基于虚拟空间下的三维虚拟场景模型,确定所述第二定位信息对应的虚拟场景数据,所述虚拟场景数据用于呈现在所述三维虚拟场景模型的特定视角下的虚拟场景图像;
展示单元804,用于基于所述第二定位信息对应的虚拟场景数据,通过所述AR设备展示所述特定视角下的虚拟场景图像。
本申请一可选实施方式中,所述三维虚拟场景模型在虚拟空间下对应一个虚拟空间范围,所述第二定位信息在虚拟空间下对应一个虚拟位置;
所述确定单元803,用于在所述AR设备的虚拟位置位于所述三维虚拟场景模型对应的虚拟空间范围以外的情况下,基于虚拟空间下的三维虚拟场景模型,确定所述第二定位信息对应的虚拟场景数据为第一虚拟场景数据,所述第一虚拟场景数据用于呈现所述三维虚拟场景模型在第一视角下的虚拟场景图像,所述第一视角为相对于所述三维虚拟场景模型的外部视角。
本申请一可选实施方式中,所述展示单元804,用于通过所述AR设备展示所述外部视角下的虚拟场景图像与现实场景图像相叠加的增强现实图像;其中,所述外部视角下的虚拟场景图像展示在所述AR设备的部分展示区域。
本申请一可选实施方式中,所述三维虚拟场景模型在虚拟空间下对应一个虚拟空间范围,所述第二定位信息在虚拟空间下对应一个虚拟位置;
所述确定单元803,用于在所述AR设备的虚拟位置位于所述三维虚拟场景模型对应的虚拟空间范围以内的情况下,基于虚拟空间下的三维虚拟场景模型,确定所述第二定位信息对应的虚拟场景数据为第二虚拟场景数据,所述第二虚拟场景数据用于呈现所述三维虚拟场景模型在第二视角下的虚拟场景图像,所述第二视角为相对于所述三维虚拟场景模型的内部视角。
本申请一可选实施方式中,所述展示单元804,用于通过所述AR设备展示所述内部视角下的虚拟场景图像;其中,所述内部视角下的虚拟场景图像展示在所述AR设备的全部展示区域。
本申请一可选实施方式中,所述装置还包括:触发单元(图中未示出),用于在所述AR设备的虚拟位置位于特定虚拟空间范围内的情况下,触发所述AR设备展示所述虚拟场景图像;其中,所述特定虚拟空间范围包含所述三维虚拟场景模型对应的虚拟空间范围。
本申请一可选实施方式中,所述获取单元801,还用于基于所述AR设备的移动,得到所述AR设备更新后的虚拟位置;
所述装置还包括:提醒单元(图中未示出),用于若所述更新后的虚拟位置位于所述三维虚拟场景模型对应的虚拟空间范围以外,则触发所述AR设备展示提醒信息;或者,若所述更新后的虚拟位置距离所述三维虚拟场景模型对应的虚拟空间范围的边界小于等于距离阈值,则触发所述AR设备展示提醒信息。
本申请一可选实施方式中,所述确定单元803,还用于基于所述AR设备在现实空间下的第一定位信息的改变量确定所述AR设备在现实空间下的第一移动信息;
所述映射单元802,还用于将所述现实空间下的第一移动信息映射至虚拟空间下的第二移动信息;
所述确定单元803,还用于基于虚拟空间下的三维虚拟场景模型,以及所述虚拟空间下的第二移动信息,确定更新的虚拟场景数据;
所述展示单元804,还用于基于所述更新的虚拟场景数据,对所述AR设备所展示的虚拟场景图像进行更新。
本申请一可选实施方式中,所述确定单元803,还用于确定现实空间下的现实坐标系和虚拟空间下的虚拟坐标系之间的变换关系;
所述映射单元802,用于基于所述变换关系,将所述现实空间下的第一定位信息映射至虚拟空间下的第二定位信息。
本领域技术人员应当理解,图8所示的虚拟场景的呈现装置中的各单元的实现功能可参照前述虚拟场景的呈现方法的相关描述而理解。图8所示的虚拟场景的呈现装置中的各单元的功能可通过运行于处理器上的程序而实现,也可通过具体的逻辑电路而实现。
本申请实施例上述的虚拟场景的呈现装置如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台电子设备(可以是个人计算机、服务器、或者网络设备等)执行本申请各个实施例所述方法的全部或部分。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read OnlyMemory)、磁碟或者光盘等各种可以存储程序代码的介质。这样,本申请实施例不限制于任何特定的硬件和软件结合。
相应地,本申请实施例还提供一种计算机程序产品,其中存储有计算机可执行指令,该计算机可执行指令被执行时能够实现本申请实施例的上述的虚拟场景的呈现方法。
图9为本申请实施例的电子设备的结构组成示意图,如图9所示,电子设备90可以包括一个或多个(图中仅示出一个)处理器902(处理器902可以包括但不限于微处理器(MCU,Micro Controller Unit)或可编程逻辑器件(FPGA,Field Programmable GateArray)等的处理装置)、用于存储数据的存储器904、以及用于通信功能的传输装置906。本领域普通技术人员可以理解,图9所示的结构仅为示意,其并不对上述电子装置的结构造成限定。例如,电子设备90还可包括比图9中所示更多或者更少的组件,或者具有与图9所示不同的配置。
存储器904可用于存储应用软件的软件程序以及模块,如本申请实施例中的方法对应的程序指令/模块,处理器902通过运行存储在存储器904内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的方法。存储器904可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器904可进一步包括相对于处理器902远程设置的存储器,这些远程存储器可以通过网络连接至电子设备90。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
传输装置906用于经由一个网络接收或者发送数据。上述的网络具体实例可包括电子设备90的通信供应商提供的无线网络。在一个实例中,传输装置906包括一个网络适配器(NIC,Network Interface Controller),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输装置906可以为射频(RF,Radio Frequency)模块,其用于通过无线方式与互联网进行通讯。
本申请实施例所记载的技术方案之间,在不冲突的情况下,可以任意组合。
在本申请所提供的几个实施例中,应该理解到,所揭露的方法和智能设备,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个***,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元,即可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本申请各实施例中的各功能单元可以全部集成在一个第二处理单元中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。

Claims (13)

1.一种虚拟场景的呈现方法,其特征在于,所述方法包括:
获取增强现实AR设备在现实空间下的第一定位信息;
将所述现实空间下的第一定位信息映射至虚拟空间下的第二定位信息;
基于虚拟空间下的三维虚拟场景模型,确定所述第二定位信息对应的虚拟场景数据,所述虚拟场景数据用于呈现在所述三维虚拟场景模型的特定视角下的虚拟场景图像;
基于所述第二定位信息对应的虚拟场景数据,通过所述AR设备展示所述特定视角下的虚拟场景图像。
2.根据权利要求1所述的方法,其特征在于,所述三维虚拟场景模型在虚拟空间下对应一个虚拟空间范围,所述第二定位信息在虚拟空间下对应一个虚拟位置;
所述基于虚拟空间下的三维虚拟场景模型,确定所述第二定位信息对应的虚拟场景数据,包括:
在所述AR设备的虚拟位置位于所述三维虚拟场景模型对应的虚拟空间范围以外的情况下,基于虚拟空间下的三维虚拟场景模型,确定所述第二定位信息对应的虚拟场景数据为第一虚拟场景数据,所述第一虚拟场景数据用于呈现所述三维虚拟场景模型在第一视角下的虚拟场景图像,所述第一视角为相对于所述三维虚拟场景模型的外部视角。
3.根据权利要求2所述的方法,其特征在于,所述通过所述AR设备展示所述特定视角下的虚拟场景图像,包括:
通过所述AR设备展示所述外部视角下的虚拟场景图像与现实场景图像相叠加的增强现实图像;其中,所述外部视角下的虚拟场景图像展示在所述AR设备的部分展示区域。
4.根据权利要求1所述的方法,其特征在于,所述三维虚拟场景模型在虚拟空间下对应一个虚拟空间范围,所述第二定位信息在虚拟空间下对应一个虚拟位置;
所述基于虚拟空间下的三维虚拟场景模型,确定所述第二定位信息对应的虚拟场景数据,包括:
在所述AR设备的虚拟位置位于所述三维虚拟场景模型对应的虚拟空间范围以内的情况下,基于虚拟空间下的三维虚拟场景模型,确定所述第二定位信息对应的虚拟场景数据为第二虚拟场景数据,所述第二虚拟场景数据用于呈现所述三维虚拟场景模型在第二视角下的虚拟场景图像,所述第二视角为相对于所述三维虚拟场景模型的内部视角。
5.根据权利要求4所述的方法,其特征在于,所述通过所述AR设备展示所述特定视角下的虚拟场景图像,包括:
通过所述AR设备展示所述内部视角下的虚拟场景图像;其中,所述内部视角下的虚拟场景图像展示在所述AR设备的全部展示区域。
6.根据权利要求2至5中任一项所述的方法,其特征在于,所述方法还包括:
在所述AR设备的虚拟位置位于特定虚拟空间范围内的情况下,触发所述AR设备展示所述虚拟场景图像;其中,所述特定虚拟空间范围包含所述三维虚拟场景模型对应的虚拟空间范围。
7.根据权利要求2至5中任一项所述的方法,其特征在于,所述方法还包括:
基于所述AR设备的移动,得到所述AR设备更新后的虚拟位置;
若所述更新后的虚拟位置位于所述三维虚拟场景模型对应的虚拟空间范围以外,则触发所述AR设备展示提醒信息;或者,若所述更新后的虚拟位置距离所述三维虚拟场景模型对应的虚拟空间范围的边界小于等于距离阈值,则触发所述AR设备展示提醒信息。
8.根据权利要求1至5中任一项所述的方法,其特征在于,所述方法还包括:
基于所述AR设备在现实空间下的第一定位信息的改变量确定所述AR设备在现实空间下的第一移动信息;
将所述现实空间下的第一移动信息映射至虚拟空间下的第二移动信息;
基于虚拟空间下的三维虚拟场景模型,以及所述虚拟空间下的第二移动信息,确定更新的虚拟场景数据;
基于所述更新的虚拟场景数据,对所述AR设备所展示的虚拟场景图像进行更新。
9.根据权利要求1至5中任一项所述的方法,其特征在于,所述方法还包括:
确定现实空间下的现实坐标系和虚拟空间下的虚拟坐标系之间的变换关系;
所述将所述现实空间下的第一定位信息映射至虚拟空间下的第二定位信息,包括:
基于所述变换关系,将所述现实空间下的第一定位信息映射至虚拟空间下的第二定位信息。
10.一种虚拟场景的呈现装置,其特征在于,所述装置包括:
获取单元,用于获取AR设备在现实空间下的第一定位信息;
映射单元,用于将所述现实空间下的第一定位信息映射至虚拟空间下的第二定位信息;
确定单元,用于基于虚拟空间下的三维虚拟场景模型,确定所述第二定位信息对应的虚拟场景数据,所述虚拟场景数据用于呈现在所述三维虚拟场景模型的特定视角下的虚拟场景图像;
展示单元,用于基于所述第二定位信息对应的虚拟场景数据,通过所述AR设备展示所述特定视角下的虚拟场景图像。
11.一种计算机程序产品,其特征在于,所述计算机程序产品包括计算机可执行指令,该计算机可执行指令被执行后,能够实现权利要求1至9任一项所述的方法步骤。
12.一种存储介质,其特征在于,所述存储介质上存储有可执行指令,该可执行指令被处理器执行时实现权利要求1至9任一项所述的方法步骤。
13.一种电子设备,其特征在于,所述电子设备包括存储器和处理器,所述存储器上存储有计算机可执行指令,所述处理器运行所述存储器上的计算机可执行指令时可实现权利要求1至9任一项所述的方法步骤。
CN202010620087.8A 2020-06-30 2020-06-30 虚拟场景的呈现方法及装置、电子设备及存储介质 Withdrawn CN111815783A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010620087.8A CN111815783A (zh) 2020-06-30 2020-06-30 虚拟场景的呈现方法及装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010620087.8A CN111815783A (zh) 2020-06-30 2020-06-30 虚拟场景的呈现方法及装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN111815783A true CN111815783A (zh) 2020-10-23

Family

ID=72856850

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010620087.8A Withdrawn CN111815783A (zh) 2020-06-30 2020-06-30 虚拟场景的呈现方法及装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN111815783A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113421343A (zh) * 2021-05-27 2021-09-21 深圳市晨北科技有限公司 基于增强现实观测设备内部结构的方法
CN114398132A (zh) * 2022-01-14 2022-04-26 北京字跳网络技术有限公司 一种场景数据展示方法、装置、计算机设备和存储介质
CN114527880A (zh) * 2022-02-25 2022-05-24 歌尔科技有限公司 空间位置识别方法、装置、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104899920A (zh) * 2015-05-25 2015-09-09 联想(北京)有限公司 图像处理方法、图像处理装置及电子设备
CN108958469A (zh) * 2018-05-07 2018-12-07 中德(珠海)人工智能研究院有限公司 一种基于增强现实的在虚拟世界增加超链接的方法
CN110764614A (zh) * 2019-10-15 2020-02-07 北京市商汤科技开发有限公司 增强现实数据呈现方法、装置、设备及存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104899920A (zh) * 2015-05-25 2015-09-09 联想(北京)有限公司 图像处理方法、图像处理装置及电子设备
CN108958469A (zh) * 2018-05-07 2018-12-07 中德(珠海)人工智能研究院有限公司 一种基于增强现实的在虚拟世界增加超链接的方法
CN110764614A (zh) * 2019-10-15 2020-02-07 北京市商汤科技开发有限公司 增强现实数据呈现方法、装置、设备及存储介质

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113421343A (zh) * 2021-05-27 2021-09-21 深圳市晨北科技有限公司 基于增强现实观测设备内部结构的方法
CN113421343B (zh) * 2021-05-27 2024-06-04 深圳市晨北科技有限公司 基于增强现实观测设备内部结构的方法
CN114398132A (zh) * 2022-01-14 2022-04-26 北京字跳网络技术有限公司 一种场景数据展示方法、装置、计算机设备和存储介质
CN114398132B (zh) * 2022-01-14 2024-05-10 北京字跳网络技术有限公司 一种场景数据展示方法、装置、计算机设备和存储介质
CN114527880A (zh) * 2022-02-25 2022-05-24 歌尔科技有限公司 空间位置识别方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
TWI782332B (zh) 一種擴增實境資料呈現方法、設備及儲存媒體
KR102417645B1 (ko) Ar 장면 이미지 처리 방법, 장치, 전자 기기 및 저장 매체
US10204454B2 (en) Method and system for image georegistration
US9551871B2 (en) Virtual light in augmented reality
US9324298B2 (en) Image processing system, image processing apparatus, storage medium having stored therein image processing program, and image processing method
CN105046752B (zh) 用于在真实环境的视图中描绘虚拟信息的方法
US20140267234A1 (en) Generation and Sharing Coordinate System Between Users on Mobile
CN112348968B (zh) 增强现实场景下的展示方法、装置、电子设备及存储介质
CN111651051B (zh) 一种虚拟沙盘展示方法及装置
TWI783472B (zh) Ar場景內容的生成方法、展示方法、電子設備及電腦可讀儲存介質
CN111815785A (zh) 现实模型的呈现方法、装置、电子设备及存储介质
Unal et al. Distant augmented reality: Bringing a new dimension to user experience using drones
CN112729327A (zh) 一种导航方法、装置、计算机设备及存储介质
US20210118236A1 (en) Method and apparatus for presenting augmented reality data, device and storage medium
US20180239514A1 (en) Interactive 3d map with vibrant street view
US20160371885A1 (en) Sharing of markup to image data
CN111815783A (zh) 虚拟场景的呈现方法及装置、电子设备及存储介质
CN112967404A (zh) 控制虚拟对象移动的方法、装置、电子设备及存储介质
CN111569414A (zh) 虚拟飞行器的飞行展示方法、装置、电子设备及存储介质
CN111653175A (zh) 一种虚拟沙盘展示方法及装置
CN111899349B (zh) 一种模型呈现方法、装置、电子设备及计算机存储介质
TW201126451A (en) Augmented-reality system having initial orientation in space and time and method
Střelák Augmented reality tourist guide
CN114862997A (zh) 图像渲染方法和装置、介质和计算机设备
CN108235764A (zh) 信息处理方法、装置、云处理设备及计算机程序产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20201023

WW01 Invention patent application withdrawn after publication