CN115205461B - 场景重建方法、装置、可读存储介质及车辆 - Google Patents
场景重建方法、装置、可读存储介质及车辆 Download PDFInfo
- Publication number
- CN115205461B CN115205461B CN202210837777.8A CN202210837777A CN115205461B CN 115205461 B CN115205461 B CN 115205461B CN 202210837777 A CN202210837777 A CN 202210837777A CN 115205461 B CN115205461 B CN 115205461B
- Authority
- CN
- China
- Prior art keywords
- image
- scene
- point cloud
- cloud data
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 238000006073 displacement reaction Methods 0.000 claims description 42
- 238000012549 training Methods 0.000 claims description 25
- 230000015654 memory Effects 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 8
- 238000005516 engineering process Methods 0.000 abstract description 4
- 230000008569 process Effects 0.000 description 16
- 238000004891 communication Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 8
- 230000008447 perception Effects 0.000 description 8
- 238000005259 measurement Methods 0.000 description 6
- 230000006399 behavior Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000010267 cellular communication Effects 0.000 description 3
- 239000000446 fuel Substances 0.000 description 3
- LFQSCWFLJHTTHZ-UHFFFAOYSA-N Ethanol Chemical compound CCO LFQSCWFLJHTTHZ-UHFFFAOYSA-N 0.000 description 2
- ATUOYWHBWRKTHZ-UHFFFAOYSA-N Propane Chemical compound CCC ATUOYWHBWRKTHZ-UHFFFAOYSA-N 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 2
- 238000002485 combustion reaction Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 101001093748 Homo sapiens Phosphatidylinositol N-acetylglucosaminyltransferase subunit P Proteins 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000011217 control strategy Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000003208 petroleum Substances 0.000 description 1
- 239000001294 propane Substances 0.000 description 1
- 230000000979 retarding effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本公开涉及自动驾驶技术领域,涉及一种场景重建方法、装置、可读存储介质及车辆,该方法包括获取目标场景的多个场景图像,其中,不同的场景图像由图像采集装置在不同采集视角下采集得到;获取每个场景图像对应的点云数据,得到多个点云数据集;获取每个点云数据集对应的二维图像;获取每两个二维图像之间的位姿误差,并根据所述位姿误差调整所述每两个二维图像,得到调整后的目标图像;根据调整后的目标图像重建所述目标场景。
Description
技术领域
本公开涉及自动驾驶技术领域,尤其涉及一种场景重建方法、装置、可读存储介质及车辆。
背景技术
高精度地图是自动驾驶技术的重要组成部分,是自动驾驶车辆的路径规划和决策控制的基础,基于车载激光雷达的高精度场景重建是高精度地图制作的先决条件。
在对室外场景进行重建的情况下,通常利用车载激光雷达获取场景的点云数据,然后基于点云数据帧间匹配来构建约束关系的方法来重建目标场景,但是这种方式需要把不同时刻、不同视角的雷达点云拼合在一起,对激光雷达数据有较强依赖,在利用点云拼合来重建场景的过程中会由于点云数据量过大,重建场景时间长,会导致三维重建过程复杂度高。
发明内容
为克服相关技术中存在的问题,本公开提供一种场景重建方法、装置、可读存储介质及车辆。
根据本公开实施例的第一方面,提供一种场景重建方法,包括:
获取目标场景的多个场景图像,其中,不同的场景图像由图像采集装置在不同采集视角下采集得到;
获取每个场景图像对应的点云数据,得到多个点云数据集;
获取每个点云数据集对应的二维图像;
获取每两个二维图像之间的位姿误差,并根据所述位姿误差调整所述每两个二维图像,得到调整后的目标图像;
根据调整后的目标图像重建所述目标场景。
可选地,所述获取每两个二维图像之间的位姿误差,并根据所述位姿误差调整所述每两个二维图像,得到调整后的目标图像包括:
根据每两个所述二维图像和预先训练的误差确定模型,确定每两个所述二维图像对应的位姿误差;
根据所述位姿误差,对所述每两个二维图像进行调整,得到调整后的目标图像。
可选地,所述根据每两个所述二维图像和预先训练的误差确定模型,确定每两个所述二维图像对应的位姿误差包括:
针对每两个二维图像,将两个二维图像作为所述误差确定模型的输入,得到所述误差确定模型输出的所述两个二维图像对应的所述位姿误差。
可选地,所述根据所述位姿误差,对所述每两个二维图像进行调整,得到调整后的目标图像包括:
将两个所述二维图像中的第一图像作为基准图像,根据所述位姿误差,对两个所述二维图像中的第二图像进行调整,得到第三图像;
根据所述第三图像与所述第一图像,确定目标图像。
可选地,所述位姿误差包括两个所述二维图像沿预设方向的相对位移,以及沿所述预设方向的相对偏转角度,
所述根据所述位姿误差,对两个所述二维图像中的第二图像进行调整,得到第三图像包括:
根据所述相对位移,确定所述相对位移对应的位移数值和位移方向;
将所述第二图像,按照所述位移方向移动所述位移数值,得到移动后的第二图像;
将移动后的第二图像,按照所述相对偏转角度进行偏转,得到偏转后的第二图像;
在偏转后的第二图像和所述第一图像中的像素点在相同位置存在重叠的情况下,将偏转后的第二图像中与所述第一图像重叠的像素点去除,得到第三图像。
可选地,所述根据调整后的目标图像重建所述目标场景包括:
根据所述目标图像确定所述目标点云数据;
根据所述目标点云数据重建所述目标场景。
可选地,所述获取每个场景图像对应的点云数据,得到多个点云数据集包括:
根据所述场景图像,通过预设深度估计模型,得到所述深度估计模型输出的每个所述场景图像对应的深度图;
根据多个所述深度图,确定所述目标场景对应的多个所述点云数据集。
可选地,所述获取每个点云数据集对应的二维图像包括:
按照预设点云数量将每个点云数据集划分为多个点云数据块;
针对每个所述点云数据块,通过降采样处理得到目标点云数据块,所述目标点云数据块包括预设数量个点云数据;
按照所述目标场景的高度方向,将多个所述目标点云数据块向所述高度方向投影,得到每个场景图像对应的所述二维图像。
可选地,所述误差确定模型通过以下方式训练得到:
获取训练样本,所述训练样本包括训练场景的多个样本二维图像,和与每两个样本二维图像对应的样本误差;
根据所述训练样本,对预设误差确定模型进行训练,得到所述误差确定模型。
根据本公开实施例的第二方面,提供一种场景重建装置,包括:
第一获取模块,被配置为获取目标场景的多个场景图像,其中,不同的场景图像由图像采集装置在不同采集视角下采集得到;
第二获取模块,被配置为获取每个场景图像对应的点云数据,得到多个点云数据集;
第三获取模块,被配置为获取每个点云数据集对应的二维图像;
调整模块,被配置为获取每两个二维图像之间的位姿误差,并根据所述位姿误差调整所述每两个二维图像,得到调整后的目标图像;
重建模块,被配置为根据调整后的目标图像重建所述目标场景。
可选地,所述调整模块包括:
第一确定子模块,被配置为根据每两个所述二维图像和预先训练的误差确定模型,确定每两个所述二维图像对应的位姿误差;
第二确定子模块,被配置为根据所述位姿误差,对所述每两个二维图像进行调整,得到调整后的目标图像。
可选地,所述第一确定子模块,被配置为针对每两个二维图像,将两个二维图像作为所述误差确定模型的输入,得到所述误差确定模型输出的所述两个二维图像对应的所述位姿误差。
可选地,所述第二确定子模块,被配置为将两个所述二维图像中的第一图像作为基准图像,根据所述位姿误差,对两个所述二维图像中的第二图像进行调整,得到第三图像;根据所述第三图像与所述第一图像,确定目标图像。
可选地,所述位姿误差包括两个所述二维图像沿预设方向的相对位移,以及沿所述预设方向的相对偏转角度,所述第二确定子模块,被配置为所述根据所述位姿误差,对两个所述二维图像中的第二图像进行调整,得到第三图像包括:根据所述相对位移,确定所述相对位移对应的位移数值和位移方向;将所述第二图像,按照所述位移方向移动所述位移数值,得到移动后的第二图像;将移动后的第二图像,按照所述相对偏转角度进行偏转,得到偏转后的第二图像;在偏转后的第二图像和所述第一图像中的像素点在相同位置存在重叠的情况下,将偏转后的第二图像中与所述第一图像重叠的像素点去除,得到第三图像。
可选地,所述重建模块,被配置为根据所述目标图像确定所述目标点云数据;根据所述目标点云数据重建所述目标场景。
可选地,所述第二获取模块包括:
第一获取子模块,被配置为根据所述场景图像,通过预设深度估计模型,得到所述深度估计模型输出的每个所述场景图像对应的深度图;
第二获取子模块,被配置为根据多个所述深度图,确定所述目标场景对应的多个所述点云数据集。
可选地,所述第三获取模块,被配置为按照预设点云数量将每个点云数据集划分为多个点云数据块;针对每个所述点云数据块,通过降采样处理得到目标点云数据块,所述目标点云数据块包括预设数量个点云数据;按照所述目标场景的高度方向,将多个所述目标点云数据块向所述高度方向投影,得到每个场景图像对应的所述二维图像。
可选地,所述误差确定模型通过以下方式训练得到:获取训练样本,所述训练样本包括训练场景的多个样本二维图像,和与每两个样本二维图像对应的样本误差;根据所述训练样本,对预设误差确定模型进行训练,得到所述误差确定模型。
根据本公开实施例的第三方面,本公开提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现本公开实施例第一方面中任一项所述方法的步骤。
根据本公开实施例的第四方面,本公开提供一种车辆,包括:存储器,其上存储有计算机程序;处理器,用于执行所述存储器中的所述计算机程序,以实现本公开实施例第一方面中任一项所述方法的步骤。
本公开的实施例提供的技术方案可以包括以下有益效果:
通过获取目标场景的多个场景图像,其中,不同的场景图像由图像采集装置在不同采集视角下采集得到;获取每个场景图像对应的点云数据,得到多个点云数据集;获取每个点云数据集对应的二维图像;获取每两个二维图像之间的位姿误差,并根据所述位姿误差调整所述每两个二维图像,得到调整后的目标图像;根据调整后的目标图像重建所述目标场景。这样,可以将激光雷达获取的数据转换为目标场景多个不同的二维图像,根据每两个二维图像之间的位姿误差,来对二维图像进行调整,最终根据调整后的二维图像重建目标场景,能够避免由于点云数据量过大,导致在利用点云拼合来重建场景的过程中出现重建场景时间长的问题,能够简化三维场景重建过程,提高三维场景重建效率。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是根据一示例性实施例示出的一种场景重建方法的流程图。
图2是根据一示例性实施例示出的另一种场景重建方法的流程图。
图3是根据一示例性实施例示出的一种场景重建装置的框图。
图4是根据图3所示实施例示出的一种调整模块的框图。
图5是根据图3所示实施例示出的一种第二获取模块的框图。
图6是根据一示例性实施例示出的一种车辆的功能框图示意图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
需要说明的是,本申请中所有获取信号、信息或数据的动作都是在遵照所在地国家相应的数据保护法规政策的前提下,并获得由相应装置所有者给予授权的情况下进行的。
详细介绍本公开的具体实施方式之前,首先对本公开的应用场景进行说明。目前,自动驾驶技术越来越成熟,高精度地图是自动驾驶技术的重要组成部分,是自动驾驶车辆的路径规划和决策控制的基础,基于车载激光雷达的高精度场景重建是高精度地图制作的先决条件,所以需要为对三维场景进行高精度的场景重建。
在对室外场景进行重建的情况下,通常采用的方法包括基于星载图像或机载图像建立场景的三维模型,以及基于距离的方法。
但是,基于星载图像或机载图像的方法需要进行卫星拍摄或航拍,实现成本高,且仅能获得场景的顶部数据,不能获取地面数据,观测精度有限,难以实现对场景中特定建筑物的建模;以及基于帧间匹配(ICP)构建约束关系的方法利用车载激光雷达获取场景中景物的三维几何和纹理信息,可以较为准确地获取三维场景的稠密点云。但是对于大规模场景的测量和建模,这种方式需要把不同时刻、不同视角的雷达点云拼合在一起,对激光雷达数据有较强依赖,会由于在利用点云拼合来重建场景的过程中点云数据量过大,重建场景时间长,会导致三维重建过程复杂度高。
为了克服以上相关技术中存在的技术问题,本公开提供了一种场景重建方法、装置、可读存储介质及车辆。可以将激光雷达获取的数据转换为目标场景多个不同的二维图像,根据每两个二维图像之间的位姿误差,来对二维图像进行调整,最终根据调整后的二维图像重建目标场景,能够避免由于点云数据量过大,在利用点云拼合来重建场景的过程中出现重建场景时间长的问题,能够简化三维场景重建过程,提高三维场景重建效率。
下面结合具体实施例对本公开进行说明。
图1是根据一示例性实施例示出的一种场景重建方法的流程图,如图1所示,该方法可以包括:
在步骤S101中,获取目标场景的多个场景图像。
其中,不同的场景图像由图像采集装置在不同采集视角下采集得到,设置有该图像采集装置的采集实体可以在该目标场景中,在不同采集视角下对该目标场景的场景图像进行采集,具体地,该采集实体可以为车辆,该图像采集装置,可以为激光雷达或者双目相机等采集装置。
示例地,该图像采集装置可以安装在车辆上,在获取该场景图像过程中,随着车辆在该目标场景中行驶,该图像采集装置可以采集到不同采集视角下的多个该目标场景的场景图像,该场景对象可以包括树木或者建筑物等。
例如,在该目标场景为十字路口的情况下,可以在距离其中一个路口预设距离的位置,由西向东采集该目标场景的场景图像,然后再在距离该路口的对向路口,该预设距离的位置,由东向西采集该目标场景的场景图像,可以分别在两个方向采集目标场景的多个场景图像。
在步骤S102中,获取每个场景图像对应的点云数据,得到多个点云数据集。
其中,多个点云数据集中的点云数据可以用于表示该目标场景,其中的一个点云数据集可以对应的该目标场景的子集,多个点云数据集之间存在交集,该交集用于表示点云数据集之间的重叠部分。
在本步骤中,在获取到目标场景的多个场景图像后,可以针对每个场景图像,根据预设深度估计模型,确定该深度估计模型输出的该场景图像对应的深度图,该深度图的像素值可以用于反映目标场景中的场景对象到相机的距离,示例地,可以根据不同采集视角下的多个场景图像,通过预设深度估计模型,得到该场景图像对应的多个深度图;然后根据多个该深度图,确定该目标场景对应的多个该点云数据集。
示例地,可以首先根据每个该深度图,确定该深度图的深度信息,该深度信息包括深度图上每个像素点的位置信息和与该位置信息对应的深度信息,然后根据深度信息与空间点的对应关系,确定多个空间点的三维坐标,最后根据多个空间点的三维坐标确定与该深度图对应的一个该点云数据集,在确定出多个该深度图对应的该点云数据集后,可以得到该目标场景对应的多个该点云数据集。
在步骤S103中,获取每个点云数据集对应的二维图像。
在本步骤中,可以首先按照预设点云数量将每个点云数据集划分为多个点云数据块;然后针对每个该点云数据块,通过降采样处理得到目标点云数据块,该目标点云数据块包括预设数量个点云数据;再按照该目标场景的高度方向,将多个该目标点云数据块按照该高度方向投影,得到每个场景图像对应的该二维图像。
在一些实施例中,在对点云数据集中的点云按照该目标场景的高度方向,将多个该目标点云数据块向该高度方向投影的情况下,考虑到点云数量稠密,会导致计算量大,所以可以将每个点云数据集划分为多个点云数据块,并通过降采样处理得到目标点云数据块,使得该目标点云数据块包括预设数量个点云数据,例如,在将每个点云数据集划分为多个点云数据块后,可以计算多个点云数据块中多个点云数据的平均值,得到平均点云数据,并将该平均点云数据作为该点云数据块中的点云数据。
例如,可以在通过降采样处理得到目标点云数据块之后,每个目标点云数据块中可以包括一个平均点云数据,该平均点云数据可以表示为(a,b,c),其中,a,b,c分别用于表示该点云数据块中的点云数据的在各个坐标轴的平均值;在该目标点云数据块所在位置的高度方向上有n个目标点云数据块,则在投影之后,可以得出该目标点云数据块所在位置的信息,同样地,在对点云数据集中的所有目标点云数据块向该高度方向投影之后,可以得出该点云数据集对应的二维图像,该二维图像上的每个像素点的像素值可以为该像素点所在位置的目标点云数据的数值。
在步骤S104中,获取每两个二维图像之间的位姿误差,并根据该位姿误差调整该每两个二维图像,得到调整后的目标图像。
在本步骤中,可以首先根据每两个该二维图像和预先训练的误差确定模型,确定每两个该二维图像对应的位姿误差;然后根据该位姿误差,对该每两个二维图像进行调整,得到调整后的目标图像。
示例地,可以针对每两个二维图像,将两个二维图像作为该误差确定模型的输入,得到该误差确定模型输出的该两个二维图像对应的该位姿误差。
在步骤S105中,根据调整后的目标图像重建该目标场景。
在本步骤中,可以首先根据该目标图像确定该目标点云数据,然后根据该目标点云数据重建该目标场景。
采用上述方法,通过获取目标场景的多个场景图像,其中,不同的场景图像由图像采集装置在不同采集视角下采集得到;获取每个场景图像对应的点云数据,得到多个点云数据集;获取每个点云数据集对应的二维图像;获取每两个二维图像之间的位姿误差,并根据该位姿误差调整该每两个二维图像,得到调整后的目标图像;根据调整后的目标图像重建该目标场景。这样,可以将激光雷达获取的数据转换为目标场景多个不同的二维图像,根据每两个二维图像之间的位姿误差,来对二维图像进行调整,最终根据调整后的二维图像重建目标场景,能够避免由于点云数据量过大,在利用点云拼合来重建场景的过程中出现重建场景时间长的问题,能够简化三维场景重建过程,提高三维场景重建效率。
图2是根据一示例性实施例示出的另一种场景重建方法的流程图,如图2所示,该方法可以包括:
在步骤S201中,获取目标场景的多个场景图像。
其中,不同的场景图像由图像采集装置在不同采集视角下采集得到,设置有该图像采集装置的采集实体可以在该目标场景中,在不同采集视角下对该目标场景的场景图像进行采集,具体地,该采集实体可以为车辆,该图像采集装置,可以为激光雷达或者双目相机等采集装置。
示例地,该图像采集装置可以安装在车辆,在获取该场景图像过程中,随着车辆在该目标场景中行驶,该图像采集装置可以采集到不同采集视角下的多个该目标场景的场景图像,该场景对象可以包括树木或者建筑物等。
例如,在该目标场景为十字路口的情况下,可以在距离其中一个路口预设距离的位置,由西向东采集该目标场景的场景图像,然后再在距离该路口的对向路口该预设距离的位置,由东向西采集该目标场景的场景图像,可以分别在两个方向采集目标场景的多个场景图像。
在步骤S202中,根据该场景图像,通过预设深度估计模型,得到该深度估计模型输出的每个该场景图像对应的深度图。
其中,该深度图的像素值可以用于反映目标场景中的场景对象到图像采集装置的距离。
在本步骤中,可以根据不同采集视角下的图像采集装置采集到的多个场景图像,其中每个场景图像包括两个相隔一定距离的摄像机同时获取两幅图像,通过预设深度估计模型确定两幅图像中对应的图像像素点,并根据三角原理计算出两幅图像中的视差信息,该视差信息通过转换可用于表征场景图像中的场景对象的深度信息;在获取到多个场景图像的情况下,可以根据多个场景图像,通过预设深度估计模型确定出每个该场景图像对应的深度图。
在步骤S203中,根据多个该深度图,确定该目标场景对应的多个该点云数据集。
其中,多个点云数据集中的点云数据可以用于表示该目标场景,其中的一个点云数据集可以对应的该目标场景的子集,多个点云数据集之间存在交集,该交集用于表示点云数据集之间的重叠部分。
在本步骤中,可以首先根据每个该深度图,确定该深度图的深度信息,该深度信息包括深度图上每个像素点的位置信息和与该位置信息对应的深度信息,然后根据深度信息与空间点的对应关系,确定多个空间点的三维坐标,最后根据多个空间点的三维坐标确定与该深度图对应的一个该点云数据集,在确定出多个该深度图对应的该点云数据集后,可以得到该目标场景对应的多个该点云数据集。
具体地,该深度图的深度信息可以表示为(x’,y’,D),其中,x’,y’是每个像素点的位置坐标,D为该像素点的深度值;其中,深度信息与空间点的对应关系可以通过以下公式来确定:
D=z×s;
其中,fx、fy指图像采集装置在x、y轴上的焦距,cx、cy指相机的光圈中心,s指深度图的缩放因子,x、y、z指空间点的三维坐标。
在步骤S204中,获取每个点云数据集对应的二维图像;
在本步骤中,可以首先按照预设点云数量将每个点云数据集划分为多个点云数据块;然后针对每个该点云数据块,通过降采样处理得到目标点云数据块,该目标点云数据块包括预设数量个点云数据;再按照该目标场景的高度方向,将多个该目标点云数据块向该高度方向投影,得到每个场景图像对应的该二维图像。
在一些实施例中,在对点云数据集中的点云按照该目标场景的高度方向,将多个该目标点云数据块向该高度方向投影的情况下,考虑到点云数量稠密,会导致计算量大,所以可以将每个点云数据集划分为多个点云数据块,并通过降采样处理得到目标点云数据块,使得该目标点云数据块包括预设数量个点云数据,例如,在将每个点云数据集划分为多个点云数据块后,可以计算多个点云数据块中多个点云数据的平均值,得到平均点云数据,并将该平均点云数据作为该点云数据块中的点云数据。
例如,可以在通过降采样处理得到目标点云数据块之后,每个目标点云数据块中可以包括一个平均点云数据,该平均点云数据可以表示为(a,b,c),其中,a,b,c分别用于表示该点云数据块中的点云数据的在各个坐标轴的平均值;在该目标点云数据块所在位置的高度方向上有n个目标点云数据块,则在投影之后,可以得出该目标点云数据块所在位置的信息,同样地,在对点云数据集中的所有目标点云数据块向该高度方向投影之后,可以得出该点云数据集对应的二维图像,该二维图像上的每个像素点的像素值可以为该像素点所在位置的目标点云数据的数值。
在步骤S205中,根据每两个该二维图像和预先训练的误差确定模型,确定每两个该二维图像对应的位姿误差。
其中,该位姿误差包括在不同采集视角下采集场景图像,由于图像采集装置导致的场景图像整体偏离的误差,例如,某物体在a视角采集时的三维空间数据可以表示为(xi,yi,zi),某物体在b视角采集时的三维空间数据可以表示为(xj,yj,zj),在同一三维空间坐标系下,该物体的同一位置点处的坐标向预设方向,和或预设方向偏离,在这种情况下,向预设方向,和或预设方向偏离的程度可以作为位姿误差。
其中,该误差确定模型可以通过以下方式训练得到:
获取训练样本,该训练样本包括训练场景的多个样本二维图像,和与每两个样本二维图像对应的样本误差;
根据该训练样本,对预设误差确定模型进行训练,得到该误差确定模型。
在步骤S206中,将两个该二维图像中的第一图像作为基准图像,根据该位姿误差,对两个该二维图像中的第二图像进行调整,得到第三图像。
其中,该位姿误差包括两个该二维图像沿预设方向的相对位移,以及沿该预设方向的相对偏转角度。
在一些实施例中,可以首先将两个该二维图像中的第一图像作为基准图像,根据该位姿误差,对两个该二维图像中的第二图像进行调整,得到第三图像;然后根据该第三图像与该第一图像,确定目标图像;再根据该目标图像确定该目标点云数据。
示例地,可以首先根据该相对位移,确定该相对位移对应的位移数值和位移方向;然后将该第二图像,按照该位移方向移动该位移数值,得到移动后的第二图像;再将移动后的第二图像,按照该相对偏转角度进行偏转,得到调整后的第二图像;以及在调整后的第二图像和该第一图像中的像素点在相同位置存在重叠的情况下,将调整后的第二图像中与该第一图像重叠的像素点去除,得到第三图像。
在步骤S207中,根据该第三图像与该第一图像,确定目标图像。
示例地,可以将该第三图像与该第一图像叠加,得到该目标图像。
在步骤S208中,根据调整后的目标图像重建该目标场景。
在确定该目标图像之后,可以首先根据该目标图像确定该目标点云数据;然后根据该目标点云数据重建该目标场景。
采用上述方法,通过对该目标场景的不同子集确定二维图像,并根据多个该二维图像去除重叠位置的信息,来确定该目标场景对应的目标图像,这样可以对不同局部区域的目标场景进行融合与对齐,重建全范围内的目标场景,能够由局部获取结果来重建全范围的目标场景,重建范围大,实现成本低。
图3是根据一示例性实施例示出的一种场景重建装置300的框图。参照图3,该装置包括第一获取模块301,第二获取模块302,第三获取模块303,调整模块304和重建模块305。
第一获取模块301,被配置为获取目标场景的多个场景图像,其中,不同的场景图像由图像采集装置在不同采集视角下采集得到;
第二获取模块302,被配置为获取每个场景图像对应的点云数据,得到多个点云数据集;
第三获取模块303,被配置为获取每个点云数据集对应的二维图像;
调整模块304,被配置为获取每两个二维图像之间的位姿误差,并根据该位姿误差调整该每两个二维图像,得到调整后的目标图像;
重建模块305,被配置为根据调整后的目标图像重建该目标场景。
图4是根据图3所示实施例示出的一种调整模块的框图。参照图4,该调整模块304包括:
第一确定子模块3041,被配置为根据每两个该二维图像和预先训练的误差确定模型,确定每两个该二维图像对应的位姿误差;
第二确定子模块3042,被配置为根据该位姿误差,对该每两个二维图像进行调整,得到调整后的目标图像。
可选地,该第一确定子模块3041,被配置为针对每两个二维图像,将两个二维图像作为该误差确定模型的输入,得到该误差确定模型输出的该两个二维图像对应的该位姿误差。
可选地,该第二确定子模块3042,被配置为将两个该二维图像中的第一图像作为基准图像,根据该位姿误差,对两个该二维图像中的第二图像进行调整,得到第三图像;根据该第三图像与该第一图像,确定目标图像。
可选地,该位姿误差包括两个该二维图像沿预设方向的相对位移,以及沿该预设方向的相对偏转角度,该第二确定子模块3042,被配置为该根据该位姿误差,对两个该二维图像中的第二图像进行调整,得到第三图像包括:根据该相对位移,确定该相对位移对应的位移数值和位移方向;将该第二图像,按照该位移方向移动该位移数值,得到移动后的第二图像;将移动后的第二图像,按照该相对偏转角度进行偏转,得到偏转后的第二图像;在偏转后的第二图像和该第一图像中的像素点在相同位置存在重叠的情况下,将偏转后的第二图像中与该第一图像重叠的像素点去除,得到第三图像。
可选地,该重建模块305,被配置为根据该目标图像确定该目标点云数据;根据该目标点云数据重建该目标场景。
图5是根据图3所示实施例示出的一种第二获取模块的框图。参照图5,该第二获取模块302包括:
第一获取子模块3021,被配置为根据该场景图像,通过预设深度估计模型,得到该深度估计模型输出的每个该场景图像对应的深度图;
第二获取子模块3022,被配置为根据多个该深度图,确定该目标场景对应的多个该点云数据集。
可选地,该第三获取模块303,被配置为按照预设点云数量将每个点云数据集划分为多个点云数据块;针对每个该点云数据块,通过降采样处理得到目标点云数据块,该目标点云数据块包括预设数量个点云数据;按照该目标场景的高度方向,将多个该目标点云数据块向该高度方向投影,得到每个场景图像对应的该二维图像。
可选地,该误差确定模型通过以下方式训练得到:获取训练样本,该训练样本包括训练场景的多个样本二维图像,和与每两个样本二维图像对应的样本误差;根据该训练样本,对预设误差确定模型进行训练,得到该误差确定模型。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本公开还提供一种计算机可读存储介质,其上存储有计算机程序指令,该程序指令被处理器执行时实现本公开提供的场景重建方法的步骤。
参阅图6,图6是一示例性实施例示出的一种车辆600的功能框图示意图。车辆600可以被配置为完全或部分自动驾驶模式。例如,车辆600可以通过感知***620获取其周围的环境信息,并基于对周边环境信息的分析得到自动驾驶策略以实现完全自动驾驶,或者将分析结果呈现给用户以实现部分自动驾驶。
车辆600可包括各种子***,例如,信息娱乐***610、感知***620、决策控制***630、驱动***640以及计算平台650。可选的,车辆600可包括更多或更少的子***,并且每个子***都可包括多个部件。另外,车辆600的每个子***和部件可以通过有线或者无线的方式实现互连。
在一些实施例中,信息娱乐***610可以包括通信***611,娱乐***612以及导航***613。
通信***611可以包括无线通信***,无线通信***可以直接地或者经由通信网络来与一个或多个设备无线通信。例如,无线通信***可使用3G蜂窝通信,例如CDMA、EVD0、GSM/GPRS,或者4G蜂窝通信,例如LTE。或者5G蜂窝通信。无线通信***可利用WiFi与无线局域网(wireless local area network,WLAN)通信。在一些实施例中,无线通信***可利用红外链路、蓝牙或ZigBee与设备直接通信。其他无线协议,例如各种车辆通信***,例如,无线通信***可包括一个或多个专用短程通信(dedicated short range communications,DSRC)设备,这些设备可包括车辆和/或路边台站之间的公共和/或私有数据通信。
娱乐***612可以包括显示设备,麦克风和音响,用户可以基于娱乐***在车内收听广播,播放音乐;或者将手机和车辆联通,在显示设备上实现手机的投屏,显示设备可以为触控式,用户可以通过触摸屏幕进行操作。
在一些情况下,可以通过麦克风获取用户的语音信号,并依据对用户的语音信号的分析实现用户对车辆600的某些控制,例如调节车内温度等。在另一些情况下,可以通过音响向用户播放音乐。
导航***613可以包括由地图供应商所提供的地图服务,从而为车辆600提供行驶路线的导航,导航***613可以和车辆的全球定位***621、惯性测量单元622配合使用。地图供应商所提供的地图服务可以为二维地图,也可以是高精地图。
感知***620可包括感测关于车辆600周边的环境的信息的若干种传感器。例如,感知***620可包括全球定位***621(全球定位***可以是GPS***,也可以是北斗***或者其他定位***)、惯性测量单元(inertial measurement unit,IMU)622、激光雷达623、毫米波雷达624、超声雷达625以及摄像装置626。感知***620还可包括被监视车辆600的内部***的传感器(例如,车内空气质量监测器、燃油量表、机油温度表等)。来自这些传感器中的一个或多个的传感器数据可用于检测对象及其相应特性(位置、形状、方向、速度等)。这种检测和识别是车辆600的安全操作的关键功能。
全球定位***621用于估计车辆600的地理位置。
惯性测量单元622用于基于惯性加速度来感测车辆600的位姿变化。在一些实施例中,惯性测量单元622可以是加速度计和陀螺仪的组合。
激光雷达623利用激光来感测车辆600所位于的环境中的物体。在一些实施例中,激光雷达623可包括一个或多个激光源、激光扫描器以及一个或多个检测器,以及其他***组件。
毫米波雷达624利用无线电信号来感测车辆600的周边环境内的物体。在一些实施例中,除了感测物体以外,毫米波雷达624还可用于感测物体的速度和/或前进方向。
超声雷达625可以利用超声波信号来感测车辆600周围的物体。
摄像装置626用于捕捉车辆600的周边环境的图像信息。摄像装置626可以包括单目相机、双目相机、结构光相机以及全景相机等,摄像装置626获取的图像信息可以包括静态图像,也可以包括视频流信息。
决策控制***630包括基于感知***620所获取的信息进行分析决策的计算***631,决策控制***630还包括对车辆600的动力***进行控制的整车控制器632,以及用于控制车辆600的转向***633、油门634和制动***635。
计算***631可以操作来处理和分析由感知***620所获取的各种信息以便识别车辆600周边环境中的目标、物体和/或特征。目标可以包括行人或者动物,物体和/或特征可包括交通信号、道路边界和障碍物。计算***631可使用物体识别算法、运动中恢复结构(Structure from Motion,SFM)算法、视频跟踪等技术。在一些实施例中,计算***631可以用于为环境绘制地图、跟踪物体、估计物体的速度等等。计算***631可以将所获取的各种信息进行分析并得出对车辆的控制策略。
整车控制器632可以用于对车辆的动力电池和引擎641进行协调控制,以提升车辆600的动力性能。
转向***633可操作来调整车辆600的前进方向。例如在一个实施例中可以为方向盘***。
油门634用于控制引擎641的操作速度并进而控制车辆600的速度。
制动***635用于控制车辆600减速。制动***635可使用摩擦力来减慢车轮644。在一些实施例中,制动***635可将车轮644的动能转换为电流。制动***635也可采取其他形式来减慢车轮644转速从而控制车辆600的速度。
驱动***640可包括为车辆600提供动力运动的组件。在一个实施例中,驱动***640可包括引擎641、能量源642、传动***643和车轮644。引擎641可以是内燃机、电动机、空气压缩引擎或其他类型的引擎组合,例如汽油发动机和电动机组成的混动引擎,内燃引擎和空气压缩引擎组成的混动引擎。引擎641将能量源642转换成机械能量。
能量源642的示例包括汽油、柴油、其他基于石油的燃料、丙烷、其他基于压缩气体的燃料、乙醇、太阳能电池板、电池和其他电力来源。能量源642也可以为车辆600的其他***提供能量。
传动***643可以将来自引擎641的机械动力传送到车轮644。传动***643可包括变速箱、差速器和驱动轴。在一个实施例中,传动***643还可以包括其他器件,比如离合器。其中,驱动轴可包括可耦合到一个或多个车轮644的一个或多个轴。
车辆600的部分或所有功能受计算平台650控制。计算平台650可包括至少一个处理器651,处理器651可以执行存储在例如存储器652这样的非暂态计算机可读介质中的指令653。在一些实施例中,计算平台650还可以是采用分布式方式控制车辆600的个体组件或子***的多个计算设备。
处理器651可以是任何常规的处理器,诸如商业可获得的CPU。可替换地,处理器651还可以包括诸如图像处理器(Graphic Process Unit,GPU),现场可编程门阵列(FieldProgrammable Gate Array,FPGA)、片上***(Sysem on Chip,SOC)、专用集成芯片(Application Specific Integrated Circuit,ASIC)或它们的组合。尽管图6功能性地图示了处理器、存储器、和在相同块中的计算机的其它元件,但是本领域的普通技术人员应该理解该处理器、计算机、或存储器实际上可以包括可以或者可以不存储在相同的物理外壳内的多个处理器、计算机、或存储器。例如,存储器可以是硬盘驱动器或位于不同于计算机的外壳内的其它存储介质。因此,对处理器或计算机的引用将被理解为包括对可以或者可以不并行操作的处理器或计算机或存储器的集合的引用。不同于使用单一的处理器来执行此处所描述的步骤,诸如转向组件和减速组件的一些组件每个都可以具有其自己的处理器,处理器只执行与特定于组件的功能相关的计算。
在本公开实施方式中,处理器651可以执行上述的路径规划方法。
在此处所描述的各个方面中,处理器651可以位于远离该车辆并且与该车辆进行无线通信。在其它方面中,此处所描述的过程中的一些在布置于车辆内的处理器上执行而其它则由远程处理器执行,包括采取执行单一操纵的必要步骤。
在一些实施例中,存储器652可包含指令653(例如,程序逻辑),指令653可被处理器651执行来执行车辆600的各种功能。存储器652也可包含额外的指令,包括向信息娱乐***610、感知***620、决策控制***630、驱动***640中的一个或多个发送数据、从其接收数据、与其交互和/或对其进行控制的指令。
除了指令653以外,存储器652还可存储数据,例如道路地图、路线信息,车辆的位置、方向、速度以及其它这样的车辆数据,以及其他信息。这种信息可在车辆600在自主、半自主和/或手动模式中操作期间被车辆600和计算平台650使用。
计算平台650可基于从各种子***(例如,驱动***640、感知***620和决策控制***630)接收的输入来控制车辆600的功能。例如,计算平台650可利用来自决策控制***630的输入以便控制转向***633来避免由感知***620检测到的障碍物。在一些实施例中,计算平台650可操作来对车辆600及其子***的许多方面提供控制。
可选地,上述这些组件中的一个或多个可与车辆600分开安装或关联。例如,存储器652可以部分或完全地与车辆600分开存在。上述组件可以按有线和/或无线方式来通信地耦合在一起。
可选地,上述组件只是一个示例,实际应用中,上述各个模块中的组件有可能根据实际需要增添或者删除,图6不应理解为对本公开实施例的限制。
在道路行进的自动驾驶汽车,如上面的车辆600,可以识别其周围环境内的物体以确定对当前速度的调整。物体可以是其它车辆、交通控制设备、或者其它类型的物体。在一些示例中,可以独立地考虑每个识别的物体,并且基于物体的各自的特性,诸如它的当前速度、加速度、与车辆的间距等,可以用来确定自动驾驶汽车所要调整的速度。
可选地,车辆600或者与车辆600相关联的感知和计算设备(例如计算***631、计算平台650)可以基于所识别的物体的特性和周围环境的状态(例如,交通、雨、道路上的冰、等等)来预测识别的物体的行为。可选地,每一个所识别的物体都依赖于彼此的行为,因此还可以将所识别的所有物体全部一起考虑来预测单个识别的物体的行为。车辆600能够基于预测的识别的物体的行为来调整它的速度。换句话说,自动驾驶汽车能够基于所预测的物体的行为来确定车辆将需要调整到(例如,加速、减速、或者停止)何种稳定状态。在这个过程中,也可以考虑其它因素来确定车辆600的速度,诸如,车辆600在行驶的道路中的横向位置、道路的曲率、静态和动态物体的接近度等等。
除了提供调整自动驾驶汽车的速度的指令之外,计算设备还可以提供修改车辆600的转向角的指令,以使得自动驾驶汽车遵循给定的轨迹和/或维持与自动驾驶汽车附近的物体(例如,道路上的相邻车道中的车辆)的安全横向和纵向距离。
上述车辆600可以为各种类型的行驶工具,例如,轿车、卡车、摩托车、公共汽车、船、飞机、直升飞机、娱乐车、火车等等,本公开实施例不做特别的限定。
在另一示例性实施例中,还提供一种计算机程序产品,该计算机程序产品包含能够由可编程的装置执行的计算机程序,该计算机程序具有当由该可编程的装置执行时用于执行上述的路径规划方法的代码部分。
本领域技术人员在考虑说明书及实践本公开后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (10)
1.一种场景重建方法,其特征在于,所述方法包括:
获取目标场景的多个场景图像,其中,不同的场景图像由图像采集装置在不同采集视角下采集得到;
获取每个场景图像对应的点云数据,得到多个点云数据集;
获取每个点云数据集对应的二维图像;
获取每两个二维图像之间的位姿误差,并根据所述位姿误差调整所述每两个二维图像,得到调整后的目标图像,所述位姿误差包括两个所述二维图像沿预设方向的相对位移,以及沿所述预设方向的相对偏转角度;
根据调整后的目标图像重建所述目标场景;
所述根据所述位姿误差调整所述每两个二维图像,得到调整后的目标图像包括:
将每两个所述二维图像中的第一图像作为基准图像,根据所述相对位移,确定所述相对位移对应的位移数值和位移方向;
将每两个所述二维图像中的第二图像,按照所述位移方向移动所述位移数值,得到移动后的第二图像;
将移动后的第二图像,按照所述相对偏转角度进行偏转,得到偏转后的第二图像;
在偏转后的第二图像和所述第一图像中的像素点在相同位置存在重叠的情况下,将偏转后的第二图像中与所述第一图像重叠的像素点去除,得到第三图像;
根据所述第三图像与所述第一图像,确定目标图像。
2.根据权利要求1所述的方法,其特征在于,所述获取每两个二维图像之间的位姿误差,并根据所述位姿误差调整所述每两个二维图像,得到调整后的目标图像包括:
根据每两个所述二维图像和预先训练的误差确定模型,确定每两个所述二维图像对应的位姿误差;
根据所述位姿误差,对所述每两个二维图像进行调整,得到调整后的目标图像。
3.根据权利要求2所述的方法,其特征在于,所述根据每两个所述二维图像和预先训练的误差确定模型,确定每两个所述二维图像对应的位姿误差包括:
针对每两个二维图像,将两个二维图像作为所述误差确定模型的输入,得到所述误差确定模型输出的所述两个二维图像对应的所述位姿误差。
4.根据权利要求1所述的方法,其特征在于,所述根据调整后的目标图像重建所述目标场景包括:
根据所述目标图像确定目标点云数据;
根据所述目标点云数据重建所述目标场景。
5.根据权利要求1所述的方法,其特征在于,所述获取每个场景图像对应的点云数据,得到多个点云数据集包括:
根据所述场景图像,通过预设深度估计模型,得到所述深度估计模型输出的每个所述场景图像对应的深度图;
根据多个所述深度图,确定所述目标场景对应的多个所述点云数据集。
6.根据权利要求1所述的方法,其特征在于,所述获取每个点云数据集对应的二维图像包括:
按照预设点云数量将每个点云数据集划分为多个点云数据块;
针对每个所述点云数据块,通过降采样处理得到目标点云数据块,所述目标点云数据块包括预设数量个点云数据;
按照所述目标场景的高度方向,将多个所述目标点云数据块向所述高度方向投影,得到每个场景图像对应的所述二维图像。
7.根据权利要求2、3任一项所述的方法,其特征在于,所述误差确定模型通过以下方式训练得到:
获取训练样本,所述训练样本包括训练场景的多个样本二维图像,和与每两个样本二维图像对应的样本误差;
根据所述训练样本,对预设误差确定模型进行训练,得到所述误差确定模型。
8.一种场景重建装置,其特征在于,包括:
第一获取模块,被配置为获取目标场景的多个场景图像,其中,不同的场景图像由图像采集装置在不同采集视角下采集得到;
第二获取模块,被配置为获取每个场景图像对应的点云数据,得到多个点云数据集;
第三获取模块,被配置为获取每个点云数据集对应的二维图像;
调整模块,被配置为获取每两个二维图像之间的位姿误差,并根据所述位姿误差调整所述每两个二维图像,得到调整后的目标图像,所述位姿误差包括两个所述二维图像沿预设方向的相对位移,以及沿所述预设方向的相对偏转角度;
重建模块,被配置为根据调整后的目标图像重建所述目标场景;
所述调整模块,被配置为将每两个所述二维图像中的第一图像作为基准图像,根据所述相对位移,确定所述相对位移对应的位移数值和位移方向;将每两个所述二维图像中的第二图像,按照所述位移方向移动所述位移数值,得到移动后的第二图像;将移动后的第二图像,按照所述相对偏转角度进行偏转,得到偏转后的第二图像;在偏转后的第二图像和所述第一图像中的像素点在相同位置存在重叠的情况下,将偏转后的第二图像中与所述第一图像重叠的像素点去除,得到第三图像;根据所述第三图像与所述第一图像,确定目标图像。
9.一种计算机可读存储介质,其上存储有计算机程序指令,其特征在于,该程序指令被处理器执行时实现权利要求1-7中任一项所述方法的步骤。
10.一种车辆,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
执行权利要求1-7中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210837777.8A CN115205461B (zh) | 2022-07-15 | 2022-07-15 | 场景重建方法、装置、可读存储介质及车辆 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210837777.8A CN115205461B (zh) | 2022-07-15 | 2022-07-15 | 场景重建方法、装置、可读存储介质及车辆 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115205461A CN115205461A (zh) | 2022-10-18 |
CN115205461B true CN115205461B (zh) | 2023-11-14 |
Family
ID=83581958
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210837777.8A Active CN115205461B (zh) | 2022-07-15 | 2022-07-15 | 场景重建方法、装置、可读存储介质及车辆 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115205461B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105913489A (zh) * | 2016-04-19 | 2016-08-31 | 东北大学 | 一种利用平面特征的室内三维场景重构方法 |
CN107833253A (zh) * | 2017-09-22 | 2018-03-23 | 北京航空航天大学青岛研究院 | 一种面向rgbd三维重建纹理生成的相机姿态优化方法 |
CN109003325A (zh) * | 2018-06-01 | 2018-12-14 | 网易(杭州)网络有限公司 | 一种三维重建的方法、介质、装置和计算设备 |
CN109658449A (zh) * | 2018-12-03 | 2019-04-19 | 华中科技大学 | 一种基于rgb-d图像的室内场景三维重建方法 |
CN111127524A (zh) * | 2018-10-31 | 2020-05-08 | 华为技术有限公司 | 一种轨迹跟踪与三维重建方法、***及装置 |
CN113284240A (zh) * | 2021-06-18 | 2021-08-20 | 深圳市商汤科技有限公司 | 地图构建方法及装置、电子设备和存储介质 |
CN113610702A (zh) * | 2021-08-09 | 2021-11-05 | 北京百度网讯科技有限公司 | 一种建图方法、装置、电子设备及存储介质 |
CN113936085A (zh) * | 2021-12-17 | 2022-01-14 | 荣耀终端有限公司 | 三维重建方法和装置 |
-
2022
- 2022-07-15 CN CN202210837777.8A patent/CN115205461B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105913489A (zh) * | 2016-04-19 | 2016-08-31 | 东北大学 | 一种利用平面特征的室内三维场景重构方法 |
CN107833253A (zh) * | 2017-09-22 | 2018-03-23 | 北京航空航天大学青岛研究院 | 一种面向rgbd三维重建纹理生成的相机姿态优化方法 |
CN109003325A (zh) * | 2018-06-01 | 2018-12-14 | 网易(杭州)网络有限公司 | 一种三维重建的方法、介质、装置和计算设备 |
CN111127524A (zh) * | 2018-10-31 | 2020-05-08 | 华为技术有限公司 | 一种轨迹跟踪与三维重建方法、***及装置 |
CN109658449A (zh) * | 2018-12-03 | 2019-04-19 | 华中科技大学 | 一种基于rgb-d图像的室内场景三维重建方法 |
CN113284240A (zh) * | 2021-06-18 | 2021-08-20 | 深圳市商汤科技有限公司 | 地图构建方法及装置、电子设备和存储介质 |
CN113610702A (zh) * | 2021-08-09 | 2021-11-05 | 北京百度网讯科技有限公司 | 一种建图方法、装置、电子设备及存储介质 |
CN113936085A (zh) * | 2021-12-17 | 2022-01-14 | 荣耀终端有限公司 | 三维重建方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN115205461A (zh) | 2022-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115100377B (zh) | 地图构建方法、装置、车辆、可读存储介质及芯片 | |
CN115220449B (zh) | 路径规划的方法、装置、存储介质、芯片及车辆 | |
CN115330923B (zh) | 点云数据渲染方法、装置、车辆、可读存储介质及芯片 | |
CN115265561A (zh) | 车辆定位方法、装置、车辆及介质 | |
CN115042821B (zh) | 车辆控制方法、装置、车辆及存储介质 | |
CN114842075B (zh) | 数据标注方法、装置、存储介质及车辆 | |
CN112810603B (zh) | 定位方法和相关产品 | |
CN115205365A (zh) | 车辆距离检测方法、装置、车辆、可读存储介质及芯片 | |
CN115222941A (zh) | 目标检测方法、装置、车辆、存储介质、芯片及电子设备 | |
CN115205311B (zh) | 图像处理方法、装置、车辆、介质及芯片 | |
CN114255275A (zh) | 一种构建地图的方法及计算设备 | |
EP4293630A1 (en) | Method for generating lane line, vehicle, storage medium and chip | |
CN115202234B (zh) | 仿真测试方法、装置、存储介质和车辆 | |
CN115222791B (zh) | 目标关联方法、装置、可读存储介质及芯片 | |
CN115100630B (zh) | 障碍物检测方法、装置、车辆、介质及芯片 | |
CN115164910B (zh) | 行驶路径生成方法、装置、车辆、存储介质及芯片 | |
CN115170630B (zh) | 地图生成方法、装置、电子设备、车辆和存储介质 | |
CN115221151B (zh) | 车辆数据的传输方法、装置、车辆、存储介质及芯片 | |
CN115205848A (zh) | 目标检测方法、装置、车辆、存储介质及芯片 | |
CN115205461B (zh) | 场景重建方法、装置、可读存储介质及车辆 | |
CN115205179A (zh) | 图像融合的方法、装置、车辆及存储介质 | |
CN114822216B (zh) | 生成车位地图的方法、装置、车辆、存储介质及芯片 | |
CN115082886B (zh) | 目标检测的方法、装置、存储介质、芯片及车辆 | |
CN115082573B (zh) | 参数标定方法、装置、车辆及存储介质 | |
CN115082772B (zh) | 地点识别方法、装置、车辆、存储介质及芯片 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |