CN116843867A - 增强现实虚实融合方法、电子设备和存储介质 - Google Patents
增强现实虚实融合方法、电子设备和存储介质 Download PDFInfo
- Publication number
- CN116843867A CN116843867A CN202310544912.4A CN202310544912A CN116843867A CN 116843867 A CN116843867 A CN 116843867A CN 202310544912 A CN202310544912 A CN 202310544912A CN 116843867 A CN116843867 A CN 116843867A
- Authority
- CN
- China
- Prior art keywords
- semantic
- information
- target scene
- map
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 42
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 23
- 238000003860 storage Methods 0.000 title claims abstract description 20
- 238000000034 method Methods 0.000 claims abstract description 53
- 230000004927 fusion Effects 0.000 claims description 40
- 238000004422 calculation algorithm Methods 0.000 claims description 17
- 238000013507 mapping Methods 0.000 claims description 14
- 230000011218 segmentation Effects 0.000 claims description 13
- 230000003993 interaction Effects 0.000 abstract description 8
- 238000000926 separation method Methods 0.000 abstract description 4
- 238000005457 optimization Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 12
- 238000001514 detection method Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 10
- 230000000007 visual effect Effects 0.000 description 9
- 238000010276 construction Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 238000013136 deep learning model Methods 0.000 description 5
- 238000013461 design Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000005520 cutting process Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 229910000831 Steel Inorganic materials 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000010959 steel Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Computer Hardware Design (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请实施例提供一种增强现实虚实融合方法、电子设备和存储介质,其中方法包括:终端设备通过相机采集目标场景的多个连续视频帧,并发送给服务端;服务端根据多个连续视频帧,为所述目标场景构建语义地图并将所述语义地图发送给终端设备;所述终端设备根据所述语义地图确定虚拟角色在所述目标场景中的位姿信息,并向用户展示包含所述虚拟角色和所述目标场景的画面。本申请实施例可以根据相机采集的未知场景的视频帧,构建出语义地图,并控制虚拟角色在目标场景中的移动路径、精确放置并展示虚拟物体,实现与未知场景的互动。同时采用端云分离的方法降低了对终端硬件设备的要求,实现节约成本的目的。
Description
技术领域
本申请涉及增强现实领域,尤其涉及一种增强现实虚实融合方法、电子设备和存储介质。
背景技术
目前增强现实应用大多面向已知场景,在已知场景中摆放虚拟角色实现人机交互相较于未知场景明显更加轻松,在面对未知场景大多数增强现实应用无能为力。并且大多数增强现实应用对设备硬件的要求很高,配置相应设备的成本高昂。
发明内容
本申请实施例的主要目的在于提供一种增强现实虚实融合方法、电子设备和存储介质,用以高效地在未知场景实现增强现实的应用。
第一方面,本申请实施例提供一种增强现实虚实融合方法,包括:
终端设备通过相机采集目标场景的多个连续视频帧,并发送给服务端;
服务端根据多个连续视频帧,为所述目标场景构建语义地图并将所述语义地图发送给终端设备,其中,所述语义地图中包括所述目标场景中关键物体的语义信息、姿态信息和位置信息;
所述终端设备根据所述语义地图确定虚拟角色在所述目标场景中的位姿信息,并向用户展示包含所述虚拟角色和所述目标场景的画面。
可选的,服务端根据多个连续视频帧,为所述目标场景构建语义地图并将所述语义地图发送给终端设备,包括:
服务端从所述多个连续视频帧中筛选出至少一个关键帧,根据所述至少一个关键帧构建语义点云地图;其中,所述语义点云地图包括所述目标场景中各个三维空间点的位置信息、姿态信息和语义信息;
根据所述多个连续视频帧和语义点云地图,确定相机位姿信息和重建网格信息;
根据所述语义点云地图、相机位姿信息和重建网格信息对所述目标场景进行重建,得到语义地图并发送给终端设备。
可选的,根据所述至少一个关键帧构建语义点云地图,包括:
用MobileNetV3代替DeeplabV3+模型中的骨干网络ResNet-101,得到改进后的DeeplabV3+模型;
将所述至少一个关键帧输入改进后的DeeplabV3+模型中进行语义分割,得到每一关键帧的三维语义点云,所述三维语义点云用于指示所述关键帧对应的三维空间点的位置信息和语义信息;
根据三维语义点云,得到所述目标场景中关键物体的姿态信息;
根据所述至少一个关键帧的语义信息与所述目标场景中关键物体的姿态信息,通过服务端的建图模块,构建出所述目标场景的语义点云地图。
可选的,根据三维语义点云,得到所述目标场景中关键物体的姿态信息,包括:
根据三维语义点云,构建基于全局描述子的特征描述;
基于全局描述子的特征描述,得到所述目标场景中关键物体的姿态信息。
可选的,根据所述多个连续视频帧和语义点云地图,确定相机位姿信息和重建网格信息,包括:
用Voxel Hashing算法来代替Bundle Fusion模型中的TSDF Fusion算法,得到改进后的Bundle Fusion模型;
根据语义点云地图得到相机位姿信息,将所述多个连续视频帧和所述相机位姿信息输入改进后Bundle Fusion模型,得到重建网格信息。
可选的,所述终端设备根据所述语义地图确定虚拟角色在所述目标场景中的位姿信息,并向用户展示包含所述虚拟角色和所述目标场景的画面,包括:
所述终端设备根据所述语义地图中关键物体的语义信息、姿态信息和位置信息,确定虚拟角色在所述目标场景中的移动路径以及操作信息,其中,所述操作信息包括所述虚拟角色操作虚拟物体时的位姿信息以及所述虚拟物体的位姿信息;
根据所述移动路径和所述操作信息,构建包含所述虚拟角色和所述虚拟物体的虚拟图像;
将所述虚拟图像与所述相机采集的图像进行融合,并向用户展示融合后的画面。
第二方面,本申请实施例提供一种增强现实虚实融合方法,应用于终端设备,所述方法包括:
通过相机采集目标场景的多个连续视频帧,并发送给服务端,以使所述服务端根据多个连续视频帧,为所述目标场景构建语义地图,其中,所述语义地图中包括所述目标场景中关键物体的语义信息、姿态信息和位置信息;
接收服务端发送的所述语义地图,根据所述语义地图确定虚拟角色在所述目标场景中的位姿信息,并向用户展示包含所述虚拟角色和所述目标场景的画面。
第三方面,本申请实施例提供一种增强现实虚实融合方法,应用于服务端,所述方法包括:
接收终端设备通过相机采集目标场景的多个连续视频帧;
根据多个连续视频帧,为所述目标场景构建语义地图并将所述语义地图发送给终端设备,以使所述终端设备根据所述语义地图确定虚拟角色在所述目标场景中的位姿信息,并向用户展示包含所述虚拟角色和所述目标场景的画面,其中,所述语义地图中包括所述目标场景中关键物体的语义信息、姿态信息和位置信息。
第四方面,本申请实施例提供一种电子设备,包括:
至少一个处理器;以及与所述至少一个处理器通信连接的存储器;
其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述电子设备执行上述任一方面所述的方法。
第五方面,本申请实施例提供一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机执行指令,当处理器执行所述计算机执行指令时,实现上述任一方面所述的方法。
本实施例提供的增强现实虚实融合方法、电子设备和存储介质,终端设备通过相机采集目标场景的多个连续视频帧,并发送给服务端;服务端根据多个连续视频帧,为所述目标场景构建语义地图并将所述语义地图发送给终端设备,其中,所述语义地图中包括所述目标场景中关键物体的语义信息、姿态信息和位置信息;所述终端设备根据所述语义地图确定虚拟角色在所述目标场景中的位姿信息,并向用户展示包含所述虚拟角色和所述目标场景的画面。本申请实施例提供的增强现实虚实融合方法,可以根据相机采集的未知场景的视频帧,构建出语义地图,语义地图中包含关键物体的语义和姿态信息,并控制虚拟角色在目标场景中的移动路径、精确放置并展示虚拟物体,实现与未知场景的互动。同时采用端云分离的方法降低了对终端硬件设备的要求,实现节约成本的目的。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
图1为本申请实施例提供的一种***架构图;
图2为本申请实施例提供的一种增强现实虚实融合方法的流程示意图;
图3为本申请实施例提供的一张稀疏点云地图;
图4为本申请实施例提供的一种改进后的Bundle Fusion模型中输出的场景重建的部分网格结果;
图5为本申请实施例为用户提供的一幅虚实融合后的画面;
图6为OBR-SLAM3的***架构图;
图7为本申请实施例提供的一种语义SLAM***工作的流程示意图;
图8为本申请实施例提供的一种增强现实虚实融合装置的结构示意图;
图9为本申请实施例提供的一种增强现实虚实融合装置的结构示意图;
图10为本申请实施例提供的一种电子设备的结构示意图。
通过上述附图,已示出本申请明确的实施例,后文中将有更详细的描述。这些附图和文字描述并不是为了通过任何方式限制本申请构思的范围,而是通过参考特定实施例为本领域技术人员说明本申请的概念。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
首先对本申请涉及的名词和技术进行解释:
增强现实(Augmented Reality):指对虚拟物体设置正确的位姿后,利用计算机渲染得到当前相机视角下的正确虚拟图像并叠加到真实图像或场景上,从而实现虚拟物体与真实场景虚实融合的视觉效果,相比于传统的文字书籍、影像视频资料等方式能够更加高效且直观地呈现信息。
三维注册技术:是增强现实技术实现虚实融合的增强现实效果的主要技术分支之一,该技术实现了对相机姿态的跟踪定位,而相机姿态是将虚拟物体渲染到真实相机下二维图像的基础,相机定位的精度和速度也将直接影响渲染效果,是增强现实诸多技术中的关键。
SLAM:全称Simultaneously Localization and Mapping,中文翻译为同步定位与建图,是三维注册的主要技术。SLAM主要原理即通过让装备相机或其他传感器的机器人等设备在环境中无任何先验信息(即未知场景)的情况下对相机姿态进行实时估计,同时对提取到的场景特征点进行估计,以此实现对周围场景地图的构建。其中以视觉传感器为主要传感器的SLAM称为视觉SLAM(Visual SLAM),视觉SLAM根据传感器的不同可划分为单目视觉SLAM、双目视觉SLAM以及RGB-D视觉SLAM;根据所依托技术的不同可划分为基于滤波器的视觉SLAM、基于关键帧的视觉SLAM以及基于直接跟踪的视觉SLAM。目前,视觉SLAM主要通过SIFT(Scale-invariant feature transform,尺度不变特征变换)、ORB(Oriented Fastand Rotated Brief,FAST关键点检测器和BRIEF描述符的融合)等传统图像特征点进行帧间匹配和跟踪并作为路标构建地图并在后端优化。
语义分割技术:是指将输入数据按照物体类别的不同进行区域划分,将标签或者类别与图片中的每个像素关联,是对真实场景的像素级语义理解。例如自动驾驶汽车需要识别车辆、行人、交通信号、人行道和其他道路特征,以及医学成像和工业检测等领域。目前语义分割技术常被用于SLAM***,由上文可知SLAM***常被用于智能机器人感知周围环境的几何信息,然而对于特定环境下,仅仅感知环境的几何信息是不够的,还必须感知其中的内容信息,即如果需要让机器人理解场景中“什么是什么”需要用到语义信息。
语义SLAM:是语义分割技术与SLAM的结合,两者相辅相成,一方面,语义信息可以帮助SLAM提高建图和定位的精度,特别是对于复杂的动态场景,即将数据关联从传统SLAM***的像素级别提升至物体级别;另一方面,借助SLAM技术计算出物体之间的位置约束,可以对同一物体在不同角度,不同时刻的识别结果进行一致性约束,从而提高语义理解的精度。
目前增强现实应用主要面向已知场景,面对未知场景时常常无能为力,而且对设备硬件的要求很高,导致配置设备的成本高昂。
有鉴于此,本申请提供了一种增强现实虚实融合方法,能够控制虚拟角色在未知场景中实现人机交互。同时本申请采用端云架构设计方案实现,即在云端服务器实现语义地图的构建,在终端只需根据语义地图控制虚拟角色的位姿,实现人机交互,可降低对终端硬件设备的要求,实现节约成本的目的。
图1为本申请实施例提供的一种***架构图。如图1所示,该***包括终端和服务端,服务端可以是云端服务端也可以是本地服务端,终端通过相机采集目标场景的视频帧并发送给服务端,服务端根据视频帧构建出语义地图并发送给终端,终端根据语义地图的信息确定虚拟角色的在目标场景中的位置、移动路径和动作姿态,并生成虚拟图像,然后与相机采集的真实图像(即上述视频帧)融合,生成虚拟融合后的图像并展示给用户。
本申请提供了一种增强现实虚实融合方法,能够在未知场景中实现当前设备在空间中的定位从而便于确定虚拟角色在空间中所摆放的位置,能够确定部分关键物体的语义和姿态信息,能使用户周围真实世界相关的信息变得数字化且可视化,增强对周围未知场景的感知能力,从而控制虚拟角色更加精确地放置所需摆放的虚拟物体,从而实现虚实融合。同时本申请采用端云架构设计方案实现,即在云端服务器部署好包括语义分割、姿态估计、同时定位与地图构建***,在终端实现虚实融合***的虚拟角色部署、人机交互、模型展示和讲解等功能,端云分离的方法可以降低对终端硬件设备的要求,实现节约成本的目的。
下面以具体地实施例对本申请的技术方案以及本申请的技术方案如何解决上述技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本申请的实施例进行描述。
图2为本申请实施例提供的一种增强现实虚实融合方法的流程示意图。如2所示,本申请实施例提供的一种增强现实虚实融合方法,可以包括:
步骤201、终端设备通过相机采集目标场景的多个连续视频帧,并发送给服务端。
其中目标场景是指要进行虚实融合的现实场景,终端设备通过带有深度模块的RGB-D相机采集目标场景的多个连续视频帧,视频帧中包含场景信息和深度信息,之后将采集到的多个连续视频帧发送给服务端。
步骤202、服务端根据多个连续视频帧,为所述目标场景构建语义地图并将所述语义地图发送给终端设备,其中,所述语义地图中包括所述目标场景中关键物体的语义信息、姿态信息和位置信息。
其中关键物体是指可区分类别的常见物体,例如目标场景是在家中时,关键物体可以是桌子、椅子、沙发和床等;当目标场景在马路上时,关键物体可以是车辆、行人、交通信息、人行道等。关键物体的语义信息是指该物体是什么种类,可以是人、桌子、椅子等;关键物体的姿态信息可以包括该物体在三维空间中的朝向信息;关键物体的位置信息是指该物体在三维空间中的位置信息。
由于采集目标场景视频帧的相机可能不止一个,多个相机采集的视频帧的格式可能存在不同,可选的,视频帧发送给服务端后可以通过预处理模块做统一分辨率裁剪、数据预处理和格式转换等。之后服务端根据统一格式后的视频帧,为目标场景构建语义地图并将其发送给终端设备。
可选的,服务端根据多个连续视频帧,为所述目标场景构建语义地图并将所述语义地图发送给终端设备,包括:
服务端从所述多个连续视频帧中筛选出至少一个关键帧,根据所述至少一个关键帧构建语义点云地图;其中,所述语义点云地图包括所述目标场景中各个三维空间点的位置信息、姿态信息和语义信息;
根据所述多个连续视频帧和语义点云地图,确定相机位姿信息和重建网格信息;
根据所述语义点云地图、相机位姿信息和重建网格信息对所述目标场景进行重建,得到语义地图并发送给终端设备。
具体的,服务端先从相机采集的多个连续视频帧中筛选出关键帧,再根据关键帧构建语义点云地图,其中关键帧是指角色或者物体运动变化中关键动作所处的那一帧,点云地图是指由一系列离散的空间点表示的地图,点云地图分为稀疏点云地图和稠密点云地图,图3为本申请实施例提供的一张稀疏点云地图,而语义点云地图是在点云地图的基础上增加了空间点的语义和姿态信息的地图;之后可以根据相机采集的视频帧和上述的语义点云地图,确定相机位姿信息和重建网格信息,其中相机位姿信息是指相机在空间中的位置和朝向信息,重建网格信息是指将点云地图重建出网格所需的信息,最后根据语义点云地图、相机位姿信息和重建网格信息重建目标场景,得到语义地图并发送给终端设备。
可选的,根据所述至少一个关键帧构建语义点云地图,包括:用MobileNetV3代替DeeplabV3+模型中的骨干网络ResNet-101,得到改进后的DeeplabV3+模型;
将所述至少一个关键帧输入改进后的DeeplabV3+模型中进行语义分割,得到每一关键帧对应的三维语义点云,所述三维语义点云用于指示所述关键帧对应的三维空间点的位置信息和语义信息;
根据至少一个关键帧对应的三维语义点云,得到所述目标场景中关键物体的姿态信息;
根据所述至少一个关键帧的语义信息与所述目标场景中关键物体的姿态信息,通过服务端的建图模块,构建出所述目标场景的语义点云地图。
其中DeeplabV3+是一种语义分割算法,采用编码器-解码器的方式进行设计,编码器部分采用骨干网络ResNet-101和空间金字塔池(ASPP)模块组成,首先通过骨干网络ResNet-101提取图像生成高级语义特征图和低级语义特征图,然后ASPP对骨干网络提取的高级语义特征图进行多尺度采样,生成多尺度的特征图,并通过1×1的卷积进行通道降维。ASPP模块采用一种多尺度结构,可以保证目标在图像中所占比例不高同时仍有好的分割效果,ASPP主要由1×1卷积、空洞率分别为6、12、18的空洞卷积、全局池化组成,对特征图进行不同感受野的特征提取,获得多尺度的特征。解码器主要对骨干网络提取的低级特征和ASPP模块输出的多尺度特征进行4倍上采样然后进行融合,最后再次通过4倍上采样输出语义分割的结果。
具体的,首先用MobileNetV3代替DeeplabV3+模型中的骨干网络ResNet-101,得到改进后的DeeplabV3+模型;将从视频帧中筛选出的关键帧输入改进后的DeeplabV3+模型中进行语义分割,得到每一关键帧的三维语义点云,其中三维语义点云包含了该关键帧对应的三维空间点的位置信息和语义信息,将多个关键帧的三维语义点云进行关连,可以得到相机位姿变化情况,之后根据三维语义点云,得到目标场景中关键物体的姿态信息;最后将关键帧的语义信息、目标场景中关键物体的姿态信息和相机的位姿信息,输入服务端的建图模块,就可以构建出目标场景的语义点云地图。
由于主干网络的ResNet-101模型大且占用显存多,无法满足SLAM的实时性和准确性要求,用MobileNetV3代替ResNet-101作为DeeplabV3+模型的骨干网络可以减轻主干网络的量级,MobileNetV3结合深度可分离卷积结构(Depthwise Separable Convolutions)和线性瓶颈逆残差结构设计轻量级骨干网络,提升了模型的分割速度,同时,采用hardversion of swish(h-swish)激活函数可以提高网络精度。
可选的,根据三维语义点云,得到所述目标场景中关键物体的姿态信息,包括:
根据三维语义点云,构建基于全局描述子的特征描述;
基于全局描述子的特征描述,得到所述目标场景中关键物体的姿态信息。
具体的,基于三维语义点云,选择全局描述子——快速点特征直方图(Fast PointFeature Histograms,FPFH)构建全局特征。其中FPFH是一种基于局部特征的全局特征描述子,它通过提取点云中的局部特征来构建全局特征。具体的构建过程如下:
(1)根据当前查询点求得其k邻域内每个点之间的三个特征元素值,然后统计成为一个SPFH(Simple Point Feature Histograms,单点特征直方图);
(2)分别对k邻域中的每个点确定其k邻域内的SPFH;
(3)对当前查询点的邻域中的各个SPFH进行加权统计,得到最终的FPFH。FPFH的计算公式如下:
其中权重ωk表示查询点Pq和其临近点Pk之间的距离。
之后以欧拉距离(Euclidean distance)作为标准,将物体点云的FPFH和场景点云的FPFH进行特征匹配,通过FLANN(Fast Library for Approximate Nearest Neighbors,最近邻查询)算法来实现最近邻查询。此外由于噪声的影响,错误的对应关系会对刚性矩阵变换估计产生错误的影响,因此需要进行RANSAC(Random Sample Consensus,随机抽样一致算法)估算剔除错误对应关系。
然后目标对齐的时候进行粗配准,将关键物体对应到对应位置,再用ICP(Iterative Closest Point,基于迭代最近点)算法在原本粗配准的基础上迭代求解上述损失函数收敛的最优解,同时在迭代过程中确立正确对应点集能够并避免迭代陷入局部极值等情况,同时实现较快的算法收敛速度和较高的配准精度,最终得到位姿估计结果,即细化后的配准矩阵。
根据ICP算法配准优化得到的配准矩阵转换到目标场景的世界坐标系下即可生成物体六自由度姿态估计,记录配准矩阵为Rw→m,关键物体的质心位移为Tw→m,则物体的六自由度姿态记作:
相较于传统的点特征直方图PFH(Point Feature Histograms)而言,FPFH采用SPFH值重新捕获临近重要点对的集合信息,将复杂度从传统的O(nk2)降低到O(nk),大大提高了计算效率,能够满足实时的性能需求。
可选的,根据所述多个连续视频帧和语义点云地图,确定相机位姿信息和重建网格信息,包括:
用Voxel Hashing算法来代替Bundle Fusion模型中的TSDF Fusion算法,得到改进后的Bundle Fusion模型;
根据语义点云地图得到相机位姿信息,将所述多个连续视频帧和所述相机位姿信息输入改进后Bundle Fusion模型,得到重建网格信息。
其中,Bundle Fusion模型可以对目标场景进行重建,用Voxel Hashing算法来代替Bundle Fusion模型中的TSDF Fusion算法,得到的改进后的Bundle Fusion模型包含以下几个步骤:
(1)根据采集的多个连续视频帧做一致性搜索,包括SIFT描述子特征检测,特征匹配以及一致性检测,将稀疏到稠密的一致性用于局部相机位姿优化的GN解析,同时采集到的多个视频帧划分成一块一块的,比如第1帧到底10帧为第1块,第11帧到第20帧为第2块,以此类推,对块内局部优化匹配,并用每一块的第一帧表示该块的特征,将每个新的块和之前所有的块匹配做相机位姿优化。
(2)全局优化过程采用的优化项包括稀疏特征优化项和稠密优化项,稀疏特征优化项的目标函数是特征3D点的欧式距离,表示如下:
其中,Esparse(X)表示稀疏匹配的误差函数,X表示某个块内的相机位姿,表示匹配帧的位姿,(pi,k,pj,l)表示匹配帧中对应的匹配点。从误差函数的定义可以看出,优化该目标函数是保证匹配的特征3D点之间的欧式距离尽可能小。
(3)在建图部分采用Voxel Hashing算法,由于每个块的相机位姿一直在做改变,因此相机位姿的改变需要映射到全局TSDF(truncated signed distance function,基于截断地带符号距离函数)中,取出相机位姿改变量最大的10个块,按照将帧融合到TSDF的相机位姿,做分解过程,将之前融合进TSDF中的数据从TSDF中减掉。然后根据优化之后的相机位姿,将块的数据重进积分到TSDF中,得到重建网格信息。
图4为本申请实施例提供的一种改进后的Bundle Fusion模型中输出的场景重建的部分网格结果。
在建图部分采用Voxel Hashing算法改进传统的基于TSDF Fusion算法的重建过程。Voxel Hashing算法能够有效的压缩T-SDF的体积,在无需分层空间的数据结构的同时,保证表面的分辨率通过***和更新操作,能够有效的把新的T-SDF数据融合到哈希表中,同时最小化哈希冲突,在清理无效的体素块时,不需要重组数据结构,避免了巨大的开销。
步骤203、所述终端设备根据所述语义地图确定虚拟角色在所述目标场景中的位姿信息,并向用户展示包含所述虚拟角色和所述目标场景的画面。
具体的,终端设备根据语义地图中的信息确定虚拟角色在目标场景中的位姿信息,其中虚拟角色在目标场景中的位姿信息可以包括位置信息和姿态信息,最后用户端可以通过AR眼镜、手机或者平板观看到虚实融合后的画面。
可选的,所述终端设备根据所述语义地图确定虚拟角色在所述目标场景中的位姿信息,并向用户展示包含所述虚拟角色和所述目标场景的画面,包括:
所述终端设备根据所述语义地图中关键物体的语义信息、姿态信息和位置信息,确定虚拟角色在所述目标场景中的移动路径以及操作信息,其中,所述操作信息包括所述虚拟角色操作虚拟物体时的位姿信息以及所述虚拟物体的位姿信息;
根据所述移动路径和所述操作信息,构建包含所述虚拟角色和所述虚拟物体的虚拟图像;
将所述虚拟图像与所述相机采集的图像进行融合,并向用户展示融合后的画面。
具体的,以在工业场景下虚拟人讲解机床切割钢板为例,终端设备在虚拟场景中的恰当位置摆放虚拟人,确立虚拟坐标系,根据语义地图建立目标场景的世界坐标系,根据相机初始位置确立相机坐标系;将虚拟坐标系与世界坐标系建立映射,之后将相机坐标系与世界坐标系建立映射,将相机视锥范围内的物体转化至相机坐标系下,虚拟人根据语义地图中关键物体的语义信息、姿态信息和位置信息可在场景中找到展台的位置并自动寻路,自动寻路是指可以自动规划好从现在的位置走到目标位置的路线,规划出的路线距离最短并且可以避开障碍物,虚拟人到达展台后找到机台及摆放虚拟雕刻头模型的位置,播放切割机切割动画并进行讲解。最终构建出包含虚拟人、雕刻头模型和切割机切割动画的虚拟图像,将虚拟图像和已有的相机图像融合,得到虚实融合的画面并展示给用户。图5为本申请实施例为用户提供的一幅虚实融合后的画面。
这样,终端设备中的虚拟角色可以根据语义地图中关键物体的语义信息、姿态信息和位置信息,在未知场景中感知自身的位置并自动寻路到设定位置,并以合理的姿态摆放虚拟物体,使虚拟角色与未知场景的交互更加合理,增强用户的观看体验。
综上,本实施例提供的增强现实虚实融合方法,包括:终端设备通过相机采集目标场景的多个连续视频帧,并发送给服务端;服务端根据多个连续视频帧,为所述目标场景构建语义地图并将所述语义地图发送给终端设备,其中,所述语义地图中包括所述目标场景中关键物体的语义信息、姿态信息和位置信息;所述终端设备根据所述语义地图确定虚拟角色在所述目标场景中的位姿信息,并向用户展示包含所述虚拟角色和所述目标场景的画面。本申请实施例提供的增强现实虚实融合方法,可以根据相机采集的未知场景的视频帧,构建出语义地图,语义地图中包含关键物体的语义和姿态信息,并控制虚拟角色在目标场景中的移动路径、精确放置并展示虚拟物体,实现与未知场景的互动。同时采用端云分离的方法降低了对终端硬件设备的要求,实现节约成本的目的。
在实际应用中,服务器中的***可以以ORB-SLAM3为基地构建语义SLAM***,ORB-SLAM3属于OBR-SLAM系列,该系列选择使用图像的ORB(Oriented FAST and RotatedBRIEF)特征,相较于SIFT、SUFT等特征,ORB特征能够更好的满足SLAM***的实时性要求,且相较于FAST特征加入了旋转属性保证ORB特征在特征匹配时能具备旋转不变性。此外,ORB-SLAM为保证特征点的均匀分布将每帧图像划分为多个Tiles并对每个Tile提取ORB特征;针对PTAM容易出现累计误差的问题设计了回环检测,使用词袋模型检索和当前帧相似的历史关键帧。在多线程设计上,ORB-SLAM在PTAM的跟踪和建图两条线程的基础上设计了回环检测和全局优化线程,跟踪线程负责提取每帧的ORB特征点并于前一帧做特征匹配从而计算粗略的相机姿态;局部匹配线程负责优化局部的相机姿态及地图特征点从而得到局部最优解。
OBR-SLAM3:图6为OBR-SLAM3的***架构图,如图6所示,包括跟踪线程、局部建图线程、回环检测&地图融合线程、全局优化线程,并且加入了Atlas地图***用于保存诸多琐碎的地图,可以避免跟踪丢失时回到丢失的位置重定位,而可以直接在Atlas所有的小地图中进行查询匹配,将相机采集的视频帧输入跟踪线程,筛选出关键帧并输入局部建图线程中进行局部地图构建,并得到局部最优解,回环检测线程利用词袋模型将存在重合部分的地图进行回环检测,地图融合线程将构建出的局部地图进行融合,最后全局优化线程对结果进行全局优化。
ORB-SLAM3的核心思想是一个最大后验估计的数学描述,如下所示: 其中,/>表示后验概率,/>表示先验概率,/>表示从第0帧到第k帧的IMU(视觉里程计)积分,/>表示在给定第k帧IMU数据的情况下,从第0帧到第k帧的可能的IMU测量值分布可能性。基于此,考虑仅惯性的MAP估计:其中/>表示从第i-1帧到第i帧的关键帧的预积分,s是整个地图的尺度,Rwg是重力加速度方向,b表示IMU的加速度和角速度偏差,/>是第i帧关键帧对应的无尺度速度。
OBR-SLAM3的主要几个线程模块:
(1)Atlas地图模块
Atlas地图模块是ORB-SLAM3***在跟踪过程中后端建图部分所需要维护的一组不相连的地图数据总和,在Atlas众多地图中始终有用于当前跟踪线程定位的活跃地图以及与之相对的非活跃地图,跟踪线程的运行会被不断持续优化并将局部映射模块中的关键帧不断加入活跃地图。此外,在Atlas模块中,ORB-SLAM3新加入了存有关键帧信息的DboW2词袋模型,用于重定位、回环检测和地图融合。
(2)跟踪线程模块
跟踪线程模块是ORB-SLAM3***的跟踪主线程部分,用于处理传感器信息并计算当前活跃地图的相机位姿,同时最小化对应地图特征的重投影误差。此外,跟踪线程还决定了当前帧是否是一个关键帧,如果在视觉-惯性模式下,还会通过惯性残差来估计本体的移动速度和IMU(视觉里程计)的偏差。而当跟踪丢失时,跟踪线程会尝试重定位并将当前丢失帧和Atlas地图模块中的关键帧进行匹配从而进行重定位,重定位成功并维持跟踪状态,必要时需要切换活跃的地图。如重定位失败,一段时间后当前活跃地图状态会转化为非活跃并激活另一张地图。
(3)局部建图模块
局部建图模块的主要功能是向活跃帧中添加关键帧和地图点,移除活跃地图中的冗余帧,同时利用视觉BA或者视觉-惯性BA来优化地图。在ORB-SLAM3中还提出了最新的方法用于初始化IMU参数并通过最大化后验估计的方法来优化。
(4)回环和地图融合模块
回环和地图融合模块检测主要功能在于以关键帧的提取频率检测活跃地图和整个Atlas地图模块之间的共同区域,如果公共区域属于当前活跃地图,***会执行回环纠正,如果公共区域属于另一张不同的地图,两张地图会合并为一张单一地图并被设置为活跃地图。最终经过回环检测后,会新建一个独立线程做全局的BA在不影响实时的情况下进一步优化地图。
图7为本申请实施例提供的一种语义SLAM***工作的流程示意图,如图7所示,将处理好的RGB图像帧和Depth图像帧输入,采用ORB-FREAK算法对图像帧进行特征提取并做帧间跟踪及特征匹配,利用词袋模型作为甄选视频关键帧的工具;将提取完的关键帧传输给语义及姿态估计模块,利用神经网络实现像素级别的语义分割及姿态估计,建立多帧语义对象关联关系,并将语义和姿态估计结果传给后端建图模块;利用ORB-SLAM3中新增加的Atlas***,其中包括DboW2关键帧数据库以及活跃状态和非活跃状态的两张地图,通过局部建图优化局部估计的相机位姿结果,将语义和姿态信息和三维点云地图进行关联,通过回环检测和融合模块实现最终地图的回环拼接和融合,之后通过语义优化后端BA得到全局优化后的相机姿态;最后将全局优化后的相机姿态、RGB图像帧和Depth图像帧输入重建模块,进行Fusion融合,对场景进行重建并生成重建网格信息。
可选的,步骤302还可以通过其他方式实现,例如可以人工对相机采集的历史连续视频帧进行标注,标注出每一历史视频帧中关键物体的语义信息、姿态信息和位置信息,然后将历史连续视频帧以及每一历史视频帧中的关键物体的语义信息、姿态信息和位置信息输入到深度学习模型中进行训练,该深度学习模型可以根据连续视频帧预测出关键物体的语义信息、姿态信息和位置信息,之后将通过相机采集目标场景的多个连续视频帧输入训练好的深度学习模型中,就可以预测出关键物体的语义信息、姿态信息和位置信息,构建出语义地图并发送给终端设备。
可选的,步骤303还可以通过其他方式实现,例如将多个历史语义地图、虚拟角色在与每一历史语义地图对应的目标场景中的位姿信息输入到深度学习模型中进行训练,该深度学习模型可以根据语义地图预测出虚拟角色在与语义地图对应的目标场景中的位姿信息,之后将构建出的语义地图输入训练好的学习模型中,就可以预测出虚拟角色在该语义地图对应的目标场景中的位姿信息,最后向用户展示包含所述虚拟角色和所述目标场景的画面。
本申请实施例提供另一种增强现实虚实融合方法,应用于终端设备,所述方法可以包括:
通过相机采集目标场景的多个连续视频帧,并发送给服务端,以使所述服务端根据多个连续视频帧,为所述目标场景构建语义地图,其中,所述语义地图中包括所述目标场景中关键物体的语义信息、姿态信息和位置信息;
接收服务端发送的所述语义地图,根据所述语义地图确定虚拟角色在所述目标场景中的位姿信息,并向用户展示包含所述虚拟角色和所述目标场景的画面。
本实施例提供的方法的具体实现原理和效果可以参考上述实施例,此处不再赘述。
本申请实施例提供又一种增强现实虚实融合方法,应用于服务端,所述方法可以包括:
接收终端设备通过相机采集目标场景的多个连续视频帧;
根据多个连续视频帧,为所述目标场景构建语义地图并将所述语义地图发送给终端设备,以使所述终端设备根据所述语义地图确定虚拟角色在所述目标场景中的位姿信息,并向用户展示包含所述虚拟角色和所述目标场景的画面,其中,所述语义地图中包括所述目标场景中关键物体的语义信息、姿态信息和位置信息。
本实施例提供的方法的具体实现原理和效果可以参考上述实施例,此处不再赘述。
对应于上述增强现实虚实融合方法,本申请实施例还提供一种增强现实虚实融合装置。图8为本申请实施例提供的一种增强现实虚实融合装置的结构示意图。如图8所示,所述装置应用于终端设备,所述装置包括:
采集模块801,用于通过相机采集目标场景的多个连续视频帧,并发送给服务端,以使所述服务端根据多个连续视频帧,为所述目标场景构建语义地图,其中,所述语义地图中包括所述目标场景中关键物体的语义信息、姿态信息和位置信息;
虚实融合模块802,用于接收服务端发送的所述语义地图,根据所述语义地图确定虚拟角色在所述目标场景中的位姿信息,并向用户展示包含所述虚拟角色和所述目标场景的画面。
对应于上述增强现实虚实融合方法,本申请实施例还提供另一种增强现实虚实融合装置。图9为本申请实施例提供的一种增强现实虚实融合装置的结构示意图。如图9所示,所述装置应用于服务端,所述装置包括:
接收模块901,用于接收终端设备通过相机采集目标场景的多个连续视频帧;
构建地图模块902,用于根据多个连续视频帧,为所述目标场景构建语义地图并将所述语义地图发送给终端设备,以使所述终端设备根据所述语义地图确定虚拟角色在所述目标场景中的位姿信息,并向用户展示包含所述虚拟角色和所述目标场景的画面,其中,所述语义地图中包括所述目标场景中关键物体的语义信息、姿态信息和位置信息。
本申请实施例提供的增强现实虚实融合装置的具体实现原理和效果可以参见前述实施例,此处不再赘述。
图10为本申请实施例提供的一种电子设备的结构示意图。如图10所示,本实施例的电子设备可以包括:
至少一个处理器1001;以及
与所述至少一个处理器通信连接的存储器1002;
其中,所述存储器1002存储有可被所述至少一个处理器1001执行的指令,所述指令被所述至少一个处理器1001执行,以使所述电子设备执行如上述任一实施例所述的方法。
可选地,存储器1002既可以是独立的,也可以跟处理器1001集成在一起。
本实施例提供的电子设备的实现原理和技术效果可以参见前述各实施例,此处不再赘述。
本申请实施例还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机执行指令,当处理器执行所述计算机执行指令时,实现前述任一实施例所述的方法。
本申请实施例还提供一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现前述任一实施例所述的方法。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。例如,以上所描述的设备实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。
上述以软件功能模块的形式实现的集成的模块,可以存储在一个计算机可读取存储介质中。上述软件功能模块存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器执行本申请各个实施例所述方法的部分步骤。
应理解,上述处理器可以是中央处理单元(Central Processing Unit,简称CPU),还可以是其它通用处理器、数字信号处理器(Digital Signal Processor,简称DSP)、专用集成电路(Application Specific Integrated Circuit,简称ASIC)等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合申请所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。存储器可能包含高速RAM存储器,也可能还包括非易失性存储NVM,例如至少一个磁盘存储器,还可以为U盘、移动硬盘、只读存储器、磁盘或光盘等。
上述存储介质可以是由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。存储介质可以是通用或专用计算机能够存取的任何可用介质。
一种示例性的存储介质耦合至处理器,从而使处理器能够从该存储介质读取信息,且可向该存储介质写入信息。当然,存储介质也可以是处理器的组成部分。处理器和存储介质可以位于专用集成电路(Application Specific Integrated Circuits,简称ASIC)中。当然,处理器和存储介质也可以作为分立组件存在于电子设备或主控设备中。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
以上仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。
Claims (10)
1.一种增强现实虚实融合方法,其特征在于,包括:
终端设备通过相机采集目标场景的多个连续视频帧,并发送给服务端;
服务端根据多个连续视频帧,为所述目标场景构建语义地图并将所述语义地图发送给终端设备,其中,所述语义地图中包括所述目标场景中关键物体的语义信息、姿态信息和位置信息;
所述终端设备根据所述语义地图确定虚拟角色在所述目标场景中的位姿信息,并向用户展示包含所述虚拟角色和所述目标场景的画面。
2.根据权利要求1所述的方法,其特征在于,服务端根据多个连续视频帧,为所述目标场景构建语义地图并将所述语义地图发送给终端设备,包括:
服务端从所述多个连续视频帧中筛选出至少一个关键帧,根据所述至少一个关键帧构建语义点云地图;其中,所述语义点云地图包括所述目标场景中各个三维空间点的位置信息、姿态信息和语义信息;
根据所述多个连续视频帧和语义点云地图,确定相机位姿信息和重建网格信息;
根据所述语义点云地图、相机位姿信息和重建网格信息对所述目标场景进行重建,得到语义地图并发送给终端设备。
3.根据权利要求2所述的方法,其特征在于,根据所述至少一个关键帧构建语义点云地图,包括:
用MobileNetV3代替DeeplabV3+模型中的骨干网络ResNet-101,得到改进后的DeeplabV3+模型;
将所述至少一个关键帧输入改进后的DeeplabV3+模型中进行语义分割,得到每一关键帧的三维语义点云,所述三维语义点云用于指示所述关键帧对应的三维空间点的位置信息和语义信息;
根据三维语义点云,得到所述目标场景中关键物体的姿态信息;
根据所述至少一个关键帧的语义信息与所述目标场景中关键物体的姿态信息,通过服务端的建图模块,构建出所述目标场景的语义点云地图。
4.根据权利要求3所述的方法,其特征在于,根据三维语义点云,得到所述目标场景中关键物体的姿态信息,包括:
根据三维语义点云,构建基于全局描述子的特征描述;
基于全局描述子的特征描述,得到所述目标场景中关键物体的姿态信息。
5.根据权利要求2所述的方法,其特征在于,根据所述多个连续视频帧和语义点云地图,确定相机位姿信息和重建网格信息,包括:
用Voxel Hashing算法来代替Bundle Fusion模型中的TSDF Fusion算法,得到改进后的Bundle Fusion模型;
根据语义点云地图得到相机位姿信息,将所述多个连续视频帧和所述相机位姿信息输入改进后Bundle Fusion模型,得到重建网格信息。
6.根据权利要求1-5任一项所述的方法,其特征在于,所述终端设备根据所述语义地图确定虚拟角色在所述目标场景中的位姿信息,并向用户展示包含所述虚拟角色和所述目标场景的画面,包括:
所述终端设备根据所述语义地图中关键物体的语义信息、姿态信息和位置信息,确定虚拟角色在所述目标场景中的移动路径以及操作信息,其中,所述操作信息包括所述虚拟角色操作虚拟物体时的位姿信息以及所述虚拟物体的位姿信息;
根据所述移动路径和所述操作信息,构建包含所述虚拟角色和所述虚拟物体的虚拟图像;
将所述虚拟图像与所述相机采集的图像进行融合,并向用户展示融合后的画面。
7.一种增强现实虚实融合方法,其特征在于,应用于终端设备,所述方法包括:
通过相机采集目标场景的多个连续视频帧,并发送给服务端,以使所述服务端根据多个连续视频帧,为所述目标场景构建语义地图,其中,所述语义地图中包括所述目标场景中关键物体的语义信息、姿态信息和位置信息;
接收服务端发送的所述语义地图,根据所述语义地图确定虚拟角色在所述目标场景中的位姿信息,并向用户展示包含所述虚拟角色和所述目标场景的画面。
8.一种增强现实虚实融合方法,其特征在于,应用于服务端,所述方法包括:
接收终端设备通过相机采集的目标场景的多个连续视频帧;
根据多个连续视频帧,为所述目标场景构建语义地图并将所述语义地图发送给终端设备,以使所述终端设备根据所述语义地图确定虚拟角色在所述目标场景中的位姿信息,并向用户展示包含所述虚拟角色和所述目标场景的画面,其中,所述语义地图中包括所述目标场景中关键物体的语义信息、姿态信息和位置信息。
9.一种电子设备,其特征在于,包括:
至少一个处理器;以及与所述至少一个处理器通信连接的存储器;
其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述电子设备执行权利要求7或8所述的方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机执行指令,当处理器执行所述计算机执行指令时,实现如权利要求7或8所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310544912.4A CN116843867A (zh) | 2023-05-15 | 2023-05-15 | 增强现实虚实融合方法、电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310544912.4A CN116843867A (zh) | 2023-05-15 | 2023-05-15 | 增强现实虚实融合方法、电子设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116843867A true CN116843867A (zh) | 2023-10-03 |
Family
ID=88164185
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310544912.4A Pending CN116843867A (zh) | 2023-05-15 | 2023-05-15 | 增强现实虚实融合方法、电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116843867A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117213468A (zh) * | 2023-11-02 | 2023-12-12 | 北京亮亮视野科技有限公司 | 飞机机外巡检方法、装置和电子设备 |
-
2023
- 2023-05-15 CN CN202310544912.4A patent/CN116843867A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117213468A (zh) * | 2023-11-02 | 2023-12-12 | 北京亮亮视野科技有限公司 | 飞机机外巡检方法、装置和电子设备 |
CN117213468B (zh) * | 2023-11-02 | 2024-04-05 | 北京亮亮视野科技有限公司 | 飞机机外巡检方法、装置和电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11030525B2 (en) | Systems and methods for deep localization and segmentation with a 3D semantic map | |
AU2022268310B2 (en) | Cloud enabled augmented reality | |
CN108564616B (zh) | 快速鲁棒的rgb-d室内三维场景重建方法 | |
CN111243093B (zh) | 三维人脸网格的生成方法、装置、设备及存储介质 | |
CN109084746A (zh) | 用于具有辅助传感器的自主平台引导***的单目模式 | |
CN108898676B (zh) | 一种虚实物体之间碰撞及遮挡检测方法及*** | |
US11842514B1 (en) | Determining a pose of an object from rgb-d images | |
CN107329962B (zh) | 图像检索数据库生成方法、增强现实的方法及装置 | |
CN100369064C (zh) | 一种基于视频内容的人体姿态变形方法 | |
US20120027371A1 (en) | Video summarization using video frames from different perspectives | |
KR20210005621A (ko) | 포인트 클라우드의 채색에 사용하기 위한 방법 및 시스템 | |
KR20200110120A (ko) | 3d-vr 멀티센서 시스템 기반의 도로 시설물 관리 솔루션을 구현하는 시스템 및 그 방법 | |
CN112991534B (zh) | 一种基于多粒度物体模型的室内语义地图构建方法及*** | |
CN112750203A (zh) | 模型重建方法、装置、设备及存储介质 | |
CN112348887A (zh) | 终端位姿确定方法以及相关装置 | |
Shalaby et al. | Algorithms and applications of structure from motion (SFM): A survey | |
CN116843867A (zh) | 增强现实虚实融合方法、电子设备和存储介质 | |
CN113592015B (zh) | 定位以及训练特征匹配网络的方法和装置 | |
Zhu et al. | Large-scale architectural asset extraction from panoramic imagery | |
CN116843754A (zh) | 一种基于多特征融合的视觉定位方法及*** | |
CN114766039A (zh) | 对象检测方法、对象检测设备、终端设备、以及介质 | |
CN113570535B (zh) | 视觉定位方法及相关装置、设备 | |
Budvytis et al. | Semantic localisation via globally unique instance segmentation | |
Salah et al. | Summarizing large scale 3D mesh for urban navigation | |
CN117115238B (zh) | 一种确定位姿的方法、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |