CN109146938A - 动态障碍物的位置校准方法、装置、设备及存储介质 - Google Patents
动态障碍物的位置校准方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN109146938A CN109146938A CN201811002588.9A CN201811002588A CN109146938A CN 109146938 A CN109146938 A CN 109146938A CN 201811002588 A CN201811002588 A CN 201811002588A CN 109146938 A CN109146938 A CN 109146938A
- Authority
- CN
- China
- Prior art keywords
- barrier
- dimensional scenic
- frame data
- target frame
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/207—Analysis of motion for motion estimation over a hierarchy of resolutions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/02—Non-photorealistic rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Processing Or Creating Images (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Instructional Devices (AREA)
Abstract
本发明公开了一种动态障碍物的位置校准方法、装置、设备及存储介质。其中,该方法包括:获取三维场景地图,并选取与三维场景地图关联的至少一帧点云数据作为目标单帧数据,其中,三维场景地图中仅包括静态障碍物,目标单帧数据中同时包括静态障碍物以及动态障碍物;确定目标单帧数据包括的动态障碍物在三维场景地图所在坐标系中的姿态信息;将目标单帧数据与三维场景地图进行配准,并根据配准结果,确定目标单帧数据在坐标系中的姿态偏移信息;根据姿态偏移信息,对动态障碍物的姿态信息进行姿态校准后,将动态障碍物加入三维场景地图中。本发明实施例可以在进行点云数据仿真时,对障碍物的位置和朝向信息进行矫正,减小误差,提高数据精准度。
Description
技术领域
本发明实施例涉及点云数据处理技术,尤其涉及一种动态障碍物的位置校准方法、装置、设备及存储介质。
背景技术
点云数据仿真是一种基于目标场景的点云数据和计算机辅助设计模型,生成高真实感的虚拟点云数据的技术,可以用于构建大规模场景。例如,构建出多种道路情景,用于对无人驾驶的三维感知模块进行训练。一般,点云数据仿真包括三个主要模块:生成三维场景地图;模拟障碍物的状态;模拟传感器工作原理。其中,障碍物状态通常指障碍物在某一时刻的位置和朝向。
现有技术中,获取障碍物在环境中的位置和朝向的方法是从真实路跑数据中大致检测出障碍物,然后将这些障碍物的分布通过定位信息变换到三维场景地图中。
但是采用现有技术的方法获取的障碍物的位置和朝向信息与真实的障碍物的位置和朝向信息相比,在横向、纵向、以及竖向三个方向上可能有几米甚至几十米的偏移误差,同时在俯仰角、翻滚角、以及偏航角三个角度上也有不同程度的误差。所以,现有技术获取的障碍物定位信息误差较大。
发明内容
本发明实施例提供一种动态障碍物的位置校准方法、装置、设备及存储介质,以实现可以在进行点云数据仿真时,对障碍物的位置和朝向信息进行矫正。
第一方面,本发明实施例提供了一种动态障碍物的位置校准方法,包括:
获取三维场景地图,并选取与三维场景地图关联的至少一帧点云数据作为目标单帧数据,其中,三维场景地图中仅包括静态障碍物,目标单帧数据中同时包括静态障碍物以及动态障碍物;
确定目标单帧数据包括的动态障碍物在三维场景地图所在坐标系中的姿态信息;
将目标单帧数据与三维场景地图进行配准,并根据配准结果,确定目标单帧数据在坐标系中的姿态偏移信息;
根据姿态偏移信息,对动态障碍物的姿态信息进行姿态校准后,将动态障碍物加入三维场景地图中。
第二方面,本发明实施例还提供了一种动态障碍物的位置校准装置,包括:
数据获取模块,用于获取三维场景地图,并选取与三维场景地图关联的至少一帧点云数据作为目标单帧数据,其中,三维场景地图中仅包括静态障碍物,目标单帧数据中同时包括静态障碍物以及动态障碍物;
第一信息确定模块,用于确定目标单帧数据包括的动态障碍物在三维场景地图所在坐标系中的姿态信息;
第二信息确定模块,用于信息确定模块,用于将目标单帧数据与三维场景地图进行配准,并根据配准结果,确定目标单帧数据在坐标系中的姿态偏移信息;
障碍物加入模块,用于根据姿态偏移信息,对动态障碍物的姿态信息进行姿态校准后,将动态障碍物加入三维场景地图中。
第三方面,本发明实施例还提供了一种设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如本发明实施例所述的动态障碍物的位置校准方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如本发明实施例所述的动态障碍物的位置校准方法。
本发明实施例通过选取与三维场景地图关联的至少一帧点云数据作为目标单帧数据,三维场景地图中仅包括静态障碍物,目标单帧数据中同时包括静态障碍物以及动态障碍物;将目标单帧数据与三维场景地图进行配准,根据配准结果确定目标单帧数据在坐标系中的姿态偏移信息;然后根据姿态偏移信息,对目标单帧数据包括的动态障碍物在三维场景地图所在坐标系中的姿态信息进行姿态校准,可以在进行点云数据仿真时,对障碍物的位置和朝向信息进行矫正,减小误差,提高数据精准度。
附图说明
图1为本发明实施例一提供的一种动态障碍物的位置校准方法的流程图;
图2为本发明实施例二提供的一种动态障碍物的位置校准方法的流程图;
图3为本发明实施例三提供的一种动态障碍物的位置校准方法的流程图;
图4为本发明实施例四提供的一种动态障碍物的位置校准方法的流程图;
图5为本发明实施例五提供的一种动态障碍物的位置校准装置的结构示意图;
图6为本发明实施例六提供的一种设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1为本发明实施例一提供的一种动态障碍物的位置校准方法的流程图,本实施例可适用于校准动态障碍物的位置的情况,该方法可以由动态障碍物的位置校准装置来执行,该装置可以采用软件和/或硬件的方式实现,该装置可以配置于计算机设备中。如图1所示,该方法具体包括如下步骤:
步骤101、获取三维场景地图,并选取与三维场景地图关联的至少一帧点云数据作为目标单帧数据,其中,三维场景地图中仅包括静态障碍物,目标单帧数据中同时包括静态障碍物以及动态障碍物。
其中,三维场景地图为根据三维激光扫描仪扫描实际场景获取的各帧点云数据生成的三维地图。静态障碍物为场景中的不可移动物体。例如,垃圾桶、电线杆为静态障碍物。动态障碍物为场景中的可移动物体。例如,车辆、行人为动态障碍物。三维场景地图为根据场景中的不可移动物体,例如道路,墙面等,生成的地图,不包含场景中的可移动物体。三维场景地图中仅包括静态障碍物。与三维场景地图关联的至少一帧点云数据为生成三维场景地图的原始数据,或者基于用于生成该三维场景地图的实际场景扫描获取的至少一帧点云数据,该至少一帧点云数据的每一帧数据中同时包括静态障碍物以及动态障碍物。其中,获取该至少一帧点云数据的方式与获取三维场景地图的构成数据的方式可以相同,也可以不同。例如,三维场景地图的构成数据可以通过任意采集设备采集获取,至少一帧点云数据可以通过路跑扫描仪采集获取。
步骤102、确定目标单帧数据包括的动态障碍物在三维场景地图所在坐标系中的姿态信息。
其中,以三维场景地图所在坐标系为全局坐标系,将目标单帧数据通过坐标的旋转和平移转换到三维场景地图所在坐标系中,即将目标单帧数据中的静态障碍物以及动态障碍物转换到三维场景地图所在坐标系中。
确定目标单帧数据包括的动态障碍物在三维场景地图所在坐标系中的姿态信息。姿态信息为物体在坐标系中的位置和朝向。位置是动态障碍物在横向、纵向、以及竖向三个方向上的坐标信息。朝向是动态障碍物在俯仰角、翻滚角、以及偏航角三个角度上的角度信息。
将目标单帧数据包括的动态障碍物通过坐标的旋转和平移转换到三维场景地图所在坐标系中,确定的目标单帧数据包括的动态障碍物在三维场景地图所在坐标系中的姿态信息,与真实的障碍物的位置和朝向信息相比,在横向、纵向、以及竖向三个方向上可能有0-30米的偏移误差,同时在俯仰角、翻滚角、以及偏航角三个角度上也有不同程度的误差。因此,转换后确定的动态障碍物的姿态信息需要先进行矫正才可以使用。
步骤103、将目标单帧数据与三维场景地图进行配准,并根据配准结果,确定目标单帧数据在坐标系中的姿态偏移信息。
其中,三维场景地图中仅包括静态障碍物,目标单帧数据中同时包括静态障碍物以及动态障碍物。三维场景地图中没有对应的动态障碍物可以与目标单帧数据中的动态障碍物配准。但是三维场景地图中包括静态障碍物,目标单帧数据中同样包括静态障碍物。目标单帧数据中静态障碍物与动态障碍物处于同一坐标系,相对位置是固定。因此,目标单帧数据中静态障碍物在坐标系中的姿态偏移信息即为目标单帧数据中动态障碍物在坐标系中的姿态偏移信息,可以将其作为目标单帧数据在坐标系中的姿态偏移信息。
获取目标单帧数据中的静态障碍物作为参考障碍物。根据与参考障碍物匹配的静态障碍物在坐标系中的姿态信息以及目标单帧数据中的参考障碍物在坐标系中的姿态信息,对目标单帧数据与三维场景地图进行配准。具体的,将参考障碍物和与参考障碍物匹配的静态障碍物对齐,将参考障碍物的姿态信息配准至与匹配的静态障碍物的姿态信息一致。获取配准后的目标单帧数据中的参考障碍物的姿态信息。
目标单帧数据中静态障碍物在坐标系中的姿态偏移信息是配准后的参考障碍物在坐标系中的姿态信息相对于坐标变换转换后确定的参考障碍物的姿态信息的偏移信息。在获取配准后的目标单帧数据中的参考障碍物的姿态信息后,根据配准后的参考障碍物在坐标系中的姿态信息以及坐标变换转换后确定的参考障碍物的姿态信息,确定目标单帧数据在坐标系中的姿态偏移信息。
具体的,姿态偏移信息可以为配准后的参考障碍物在坐标系中的姿态信息在横向、纵向、以及竖向三个方向上,相对于坐标变换转换后确定的参考障碍物的姿态信息的位置偏移信息。姿态偏移信息可以为配准后的参考障碍物在坐标系中的姿态信息在俯仰角、翻滚角、以及偏航角三个角度上,相对于坐标变换转换后确定的参考障碍物的姿态信息的角度偏移信息。
步骤104、根据姿态偏移信息,对动态障碍物的姿态信息进行姿态校准后,将动态障碍物加入三维场景地图中。
其中,目标单帧数据中静态障碍物在坐标系中的姿态偏移信息即为目标单帧数据中动态障碍物在坐标系中的姿态偏移信息。因此,可以根据目标单帧数据中静态障碍物在坐标系中的姿态偏移信息,对转换后确定的动态障碍物的姿态信息进行姿态校准。
具体的,根据位置偏移信息对转换后确定的动态障碍物的位置进行姿态校准,根据角度偏移信息对转换后确定的动态障碍物的朝向进行姿态校准。然后根据校准后的姿态信息将动态障碍物加入三维场景地图中。
本发明实施例提供了一种动态障碍物的位置校准方法,通过选取与三维场景地图关联的至少一帧点云数据作为目标单帧数据,三维场景地图中仅包括静态障碍物,目标单帧数据中同时包括静态障碍物以及动态障碍物;将目标单帧数据与三维场景地图进行配准,根据配准结果确定目标单帧数据在坐标系中的姿态偏移信息;然后根据姿态偏移信息,对目标单帧数据包括的动态障碍物在三维场景地图所在坐标系中的姿态信息进行姿态校准,可以在进行点云数据仿真时,对障碍物的位置和朝向信息进行矫正,减小误差,提高数据精准度。
实施例二
图2为本发明实施例二提供的一种动态障碍物的位置校准方法的流程图,本实施例以上述实施例为基础进行具体化。在本实施例中,将目标单帧数据与三维场景地图进行配准,可以包括:获取目标单帧数据中的静态障碍物作为参考障碍物,将参考障碍物与三维场景地图中包括的静态障碍物进行配对,并根据配对结果将目标单帧数据在三维场景地图中进行初始配准;将初始配准后的目标单帧数据中的包括的静态障碍物使用设定尺寸的正方形进行切分,形成设定粒度的特征点;根据得到的特征点,将目标单帧数据在三维场景地图中进行第一精确配准。
如图2所示,该方法具体包括如下步骤:
步骤201、获取三维场景地图,并选取与三维场景地图关联的至少一帧点云数据作为目标单帧数据,其中,三维场景地图中仅包括静态障碍物,目标单帧数据中同时包括静态障碍物以及动态障碍物。
步骤202、确定目标单帧数据包括的动态障碍物在三维场景地图所在坐标系中的姿态信息。
步骤203、获取目标单帧数据中的静态障碍物作为参考障碍物,将参考障碍物与三维场景地图中包括的静态障碍物进行配对,并根据配对结果将目标单帧数据在三维场景地图中进行初始配准。
其中,使用障碍物检测算法在三维场景地图中识别具有指定语义信息的静态障碍物。例如,地面、电线杆、树木和墙面等具有语义信息的物体。使用障碍物检测算法在目标单帧数据中识别同样的具有指定语义信息的静态障碍物。
将从目标单帧数据中识别出的具有指定语义信息的静态障碍物作为参考障碍物。将参考障碍物与三维场景地图中包括的静态障碍物进行配对,在三维场景地图中确定与参考障碍物匹配的静态障碍物,并根据配对结果将目标单帧数据在三维场景地图中进行初始配准。具体的,将参考障碍物和与参考障碍物匹配的静态障碍物对齐,将参考障碍物的姿态信息配准至与匹配的静态障碍物的姿态信息一致。
步骤204、将初始配准后的目标单帧数据中的包括的静态障碍物使用设定尺寸的正方形进行切分,形成设定粒度的特征点。
其中,为了将目标单帧数据在三维场景地图中进行更加精确的配准。将初始配准后的目标单帧数据中的包括的每一个静态障碍物用设定尺寸的正方形进行切分,形成设定粒度的特征点。例如,20cmx20cmx20cm的正方形。相应的,将初始配准后的三维场景地图中与参考障碍物匹配的每一个静态障碍物用设定尺寸的正方形进行切分,形成设定粒度的特征点。
步骤205、根据得到的特征点,将目标单帧数据在三维场景地图中进行第一精确配准。
其中,第一精确配准是通过随机抽样一致算法(Random sample consensus,RANSAC),根据切分后得到的特征点,对参考障碍物和与参考障碍物匹配的静态障碍物进行进一步对齐,将初始配准后的目标单帧数据在三维场景地图中进行更加精确的配准。第一精确配准的误差通常小于1m。
可选的,在根据得到的特征点,将目标单帧数据在三维场景地图中进行第一精确配准之后,可以还包括:使用点到点配准技术,将经过第一精确配准后目标单帧数据在三维场景地图中进行第二精准配准。
其中,第二精准配准是使用点到点配准技术,在每一个参考障碍物的点云数据中的每一个点的设定距离范围内,例如1m内,寻找与其为相同类别的最近点,然后对每一个点及其对应的最近点进行最小二乘变换,对参考障碍物和与参考障碍物匹配的静态障碍物进行进一步对齐,即根据点云数据中的每一个点将经过第一精确配准后目标单帧数据在三维场景地图中进行更加精确的配准。
步骤206、根据配准结果,确定目标单帧数据在坐标系中的姿态偏移信息。
步骤207、根据姿态偏移信息,对动态障碍物的姿态信息进行姿态校准后,将动态障碍物加入三维场景地图中。
本发明实施例提供了一种动态障碍物的位置校准方法,通过将参考障碍物与三维场景地图中包括的静态障碍物进行配对,并根据配对结果将目标单帧数据在三维场景地图中进行初始配准;然后将初始配准后的目标单帧数据中的包括的静态障碍物使用设定尺寸的正方形进行切分,形成设定粒度的特征点;根据得到的特征点,将目标单帧数据在三维场景地图中进行第一精确配准,可以根据参考障碍物、切分后的特征点以及点云数据中的每一个点,将目标单帧数据在三维场景地图中进行更加精确的配准。
实施例三
图3为本发明实施例三提供的一种动态障碍物的位置校准方法的流程图,本实施例以上述实施例为基础进行具体化。在本实施例中,获取目标单帧数据中的静态障碍物作为参考障碍物,将参考障碍物与三维场景地图中包括的静态障碍物进行配对,并根据配对结果将目标单帧数据在三维场景地图中进行初始配准,可以包括:根据目标单帧数据中的参考障碍物在坐标系中的姿态信息,在坐标系中确定至少一个搜索区域;根据搜索区域,在三维场景地图中,搜索与参考障碍物匹配的至少一个静态障碍物作为校准障碍物;根据至少一个校准障碍物在坐标系中的姿态信息以及参考障碍物在坐标系中的姿态信息,将目标单帧数据在三维场景地图中进行初始配准。
如图3所示,该方法具体包括如下步骤:
步骤301、获取三维场景地图,并选取与三维场景地图关联的至少一帧点云数据作为目标单帧数据,其中,三维场景地图中仅包括静态障碍物,目标单帧数据中同时包括静态障碍物以及动态障碍物。
步骤302、确定目标单帧数据包括的动态障碍物在三维场景地图所在坐标系中的姿态信息。
步骤303、获取目标单帧数据中的静态障碍物作为参考障碍物,根据目标单帧数据中的参考障碍物在坐标系中的姿态信息,在坐标系中确定至少一个搜索区域。
其中,姿态信息为物体在坐标系中的位置和朝向。可以根据参考障碍物的位置在坐标系中确定至少一个搜索区域。可选的,以参考障碍物的位置为原点,按照预设距离确定的区域设定至少一个搜索区域。例如,以参考障碍物的位置为原点,以100米为半径确定一个圆圈。圆圈内部的区域即为搜索区域。
可选的,在根据目标单帧数据中的参考障碍物在坐标系中的姿态信息,在坐标系中确定至少一个搜索区域之前,还包括:删除目标单帧数据中包括的动态障碍物。
其中,本发明实施例需要获取目标单帧数据中的静态障碍物作为参考障碍物,根据与参考障碍物匹配的静态障碍物在坐标系中的姿态信息以及目标单帧数据中的参考障碍物在坐标系中的姿态信息,对目标单帧数据与三维场景地图进行配准。因此,在进行配准前,可以删除目标单帧数据中包括的动态障碍物,仅保留目标单帧数据中的静态障碍物,以减少上述动态障碍物对后续配准过程的干扰,进一步保证了配准的准确度。
步骤304、根据搜索区域,在三维场景地图中,搜索与参考障碍物匹配的至少一个静态障碍物作为校准障碍物。
其中,在三维场景地图中的搜索区域内,搜索与参考障碍物匹配的至少一个静态障碍物作为校准障碍物。将从目标单帧数据中识别出的具有指定语义信息的静态障碍物作为参考障碍物。静态障碍物可以包括:地面、电线杆、树木和墙面。将参考障碍物与三维场景地图中包括的静态障碍物进行配对,在三维场景地图中确定与参考障碍物匹配的静态障碍物。将与参考障碍物匹配的至少一个静态障碍物作为校准障碍物。校准障碍物的姿态信息是参考障碍物的理想姿态信息。
步骤305、根据至少一个校准障碍物在坐标系中的姿态信息以及参考障碍物在坐标系中的姿态信息,将目标单帧数据在三维场景地图中进行初始配准。
其中,初始配准是根据至少一个校准障碍物在坐标系中的姿态信息以及参考障碍物在坐标系中的姿态信息,将参考障碍物和校准障碍物对齐,将参考障碍物的姿态信息配准至与校准障碍物的姿态信息一致。
步骤306、将初始配准后的目标单帧数据中的包括的静态障碍物使用设定尺寸的正方形进行切分,形成设定粒度的特征点。
步骤307、根据得到的特征点,将目标单帧数据在三维场景地图中进行第一精确配准。
步骤308、根据配准结果,确定目标单帧数据在坐标系中的姿态偏移信息。
步骤309、根据姿态偏移信息,对动态障碍物的姿态信息进行姿态校准后,将动态障碍物加入三维场景地图中。
本发明实施例提供了一种动态障碍物的位置校准方法,通过根据参考障碍物在坐标系中的姿态信息,在坐标系中确定至少一个搜索区域,然后根据搜索区域,在三维场景地图中,搜索与参考障碍物匹配的至少一个静态障碍物作为校准障碍物,并根据至少一个校准障碍物在坐标系中的姿态信息以及参考障碍物在坐标系中的姿态信息,将目标单帧数据在三维场景地图中进行初始配准,可以通过设定搜索区域,快速获取与参考障碍物匹配的静态障碍物,减小计算量。
实施例四
图4为本发明实施例四提供的一种动态障碍物的位置校准方法的流程图,本实施例以上述实施例为基础进行具体化。在本实施例中,在根据姿态偏移信息,对动态障碍物的姿态信息进行姿态校准后,将动态障碍物加入三维场景地图中之后,还包括:在三维场景地图中,搜索与动态障碍物关联的平面作为贴合平面;将三维场景地图中的动态障碍物的底面与贴合平面进行贴合。
如图4所示,该方法具体包括如下步骤:
步骤401、获取三维场景地图,并选取与三维场景地图关联的至少一帧点云数据作为目标单帧数据,其中,三维场景地图中仅包括静态障碍物,目标单帧数据中同时包括静态障碍物以及动态障碍物。
步骤402、确定目标单帧数据包括的动态障碍物在三维场景地图所在坐标系中的姿态信息。
步骤403、将目标单帧数据与三维场景地图进行配准,并根据配准结果,确定目标单帧数据在坐标系中的姿态偏移信息。
步骤404、根据姿态偏移信息,对动态障碍物的姿态信息进行姿态校准后,将动态障碍物加入三维场景地图中。
步骤405、在三维场景地图中,搜索与动态障碍物关联的平面作为贴合平面。
其中,由于目标单帧数据可能有一定程度的畸变,例如,动态障碍物的底面可能没有与任意一个平面贴合,处于悬空状态。因此,将动态障碍物加入三维场景地图中后,需要在三维场景地图中,搜索与动态障碍物关联的平面作为贴合平面。
可选的,在每一个动态障碍物的下方寻找一个最接近的平面,作为贴合平面。
可选的,在三维场景地图中,搜索与动态障碍物关联的平面作为贴合平面,可以包括:如果在三维场景地图中,与同一动态障碍物关联的设定区域内包括至少两个平面,则获取与三维场景地图关联的路采设备的运动轨迹;根据路采设备的运动轨迹,在至少两个平面中确定贴合平面。
其中,在三维场景地图中,与同一动态障碍物关联的设定区域内可以包括至少两个平面。例如,动态障碍物处于立交桥或其他交叉路况。获取与三维场景地图关联的路采设备的运动轨迹,然后在至少两个平面中寻找与路采设备的运动轨迹的下面最近的平面,将该平面作为与路采设备的运动轨迹的匹配的路面,即动态障碍物对应的贴合平面。
步骤406、将三维场景地图中的动态障碍物的底面与贴合平面进行贴合。
其中,将动态障碍物的底面和对应的贴合平面贴合,以使动态障碍物不再处于悬空状态。
本发明实施例提供了一种动态障碍物的位置校准方法,通过在三维场景地图中,搜索与动态障碍物关联的平面作为贴合平面,并将三维场景地图中的动态障碍物的底面与贴合平面进行贴合,可以对动态障碍物进行进一步微调,保证每一个动态障碍物的底面与对应的平面贴合,不再处于悬空状态。
实施例五
图5为本发明实施例五提供的一种动态障碍物的位置校准装置的结构示意图,如图5所示,所述装置可以配置于计算机设备,包括:数据获取模块501、第一信息确定模块502、第二信息确定模块503和障碍物加入模块504。
其中,数据获取模块501,用于获取三维场景地图,并选取与三维场景地图关联的至少一帧点云数据作为目标单帧数据,其中,三维场景地图中仅包括静态障碍物,目标单帧数据中同时包括静态障碍物以及动态障碍物;第一信息确定模块502,用于确定目标单帧数据包括的动态障碍物在三维场景地图所在坐标系中的姿态信息;第二信息确定模块503,用于将目标单帧数据与三维场景地图进行配准,并根据配准结果,确定目标单帧数据在坐标系中的姿态偏移信息;障碍物加入模块504,用于根据姿态偏移信息,对动态障碍物的姿态信息进行姿态校准后,将动态障碍物加入三维场景地图中。
本发明实施例提供了一种动态障碍物的位置校准装置,通过选取与三维场景地图关联的至少一帧点云数据作为目标单帧数据,三维场景地图中仅包括静态障碍物,目标单帧数据中同时包括静态障碍物以及动态障碍物;将目标单帧数据与三维场景地图进行配准,根据配准结果确定目标单帧数据在坐标系中的姿态偏移信息;然后根据姿态偏移信息,对目标单帧数据包括的动态障碍物在三维场景地图所在坐标系中的姿态信息进行姿态校准,可以在进行点云数据仿真时,对障碍物的位置和朝向信息进行矫正,减小误差,提高数据精准度。
在上述各实施例的基础上,第二信息确定模块503可以包括:初始配准单元,用于获取目标单帧数据中的静态障碍物作为参考障碍物,将参考障碍物与三维场景地图中包括的静态障碍物进行配对,并根据配对结果将目标单帧数据在三维场景地图中进行初始配准;障碍物切分单元,用于将初始配准后的目标单帧数据中的包括的静态障碍物使用设定尺寸的正方形进行切分,形成设定粒度的特征点;第一精确配准单元,用于根据得到的特征点,将目标单帧数据在三维场景地图中进行第一精确配准。
在上述各实施例的基础上,第二信息确定模块503可以还包括:第二精确配准单元,用于使用点到点配准技术,将经过第一精确配准后目标单帧数据在三维场景地图中进行第二精准配准。
在上述各实施例的基础上,初始配准单元可以包括:区域确定子单元,用于根据目标单帧数据中的参考障碍物在坐标系中的姿态信息,在坐标系中确定至少一个搜索区域;障碍物搜索子单元,用于根据搜索区域,在三维场景地图中,搜索与参考障碍物匹配的至少一个静态障碍物作为校准障碍物;初始配准子单元,用于根据至少一个校准障碍物在坐标系中的姿态信息以及参考障碍物在坐标系中的姿态信息,将目标单帧数据在三维场景地图中进行初始配准。
在上述各实施例的基础上,初始配准单元可以还包括:障碍物删除子单元,用于删除目标单帧数据中包括的动态障碍物。
在上述各实施例的基础上,可以还包括:贴合平面搜索模块,用于在三维场景地图中,搜索与动态障碍物关联的平面作为贴合平面;底面贴合模块,用于将三维场景地图中的动态障碍物的底面与贴合平面进行贴合。
在上述各实施例的基础上,贴合平面搜索模块可以包括:运动轨迹获取单元,用于如果在三维场景地图中,与同一动态障碍物关联的设定区域内包括至少两个平面,则获取与三维场景地图关联的路采设备的运动轨迹;贴合平面确定单元,用于根据路采设备的运动轨迹,在至少两个平面中确定贴合平面。
本发明实施例所提供的动态障碍物的位置校准装置可执行本发明任意实施例所提供的动态障碍物的位置校准方法,具备执行方法相应的功能模块和有益效果。
实施例六
图6为本发明实施例六提供的一种设备的结构示意图。图6示出了适于用来实现本发明实施方式的示例性设备612的框图。图6显示的设备612仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图6所示,设备612以通用计算设备的形式表现。设备612的组件可以包括但不限于:一个或者多个处理器或者处理单元616,***存储器628,连接不同***组件(包括***存储器628和处理单元616)的总线618。
总线618表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,***总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及***组件互连(PCI)总线。
设备612典型地包括多种计算机***可读介质。这些介质可以是任何能够被设备612访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
***存储器628可以包括易失性存储器形式的计算机***可读介质,例如随机存取存储器(RAM)630和/或高速缓存存储器632。设备612可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机***存储介质。仅作为举例,存储***634可以用于读写不可移动的、非易失性磁介质(图6未显示,通常称为“硬盘驱动器”)。尽管图6中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线618相连。存储器628可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块642的程序/实用工具640,可以存储在例如存储器628中,这样的程序模块642包括——但不限于——操作***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块642通常执行本发明所描述的实施例中的功能和/或方法。
设备612也可以与一个或多个外部设备614(例如键盘、指向设备、显示器624等)通信,还可与一个或者多个使得用户能与该设备612交互的设备通信,和/或与使得该设备612能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口622进行。并且,设备612还可以通过网络适配器620与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器620通过总线618与设备612的其它模块通信。应当明白,尽管图6中未示出,可以结合设备612使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID***、磁带驱动器以及数据备份存储***等。
设备612可以为一种终端设备。设备612的处理单元616通过运行存储在***存储器628中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的动态障碍物的位置校准方法。该方法具体可以包括:获取三维场景地图,并选取与三维场景地图关联的至少一帧点云数据作为目标单帧数据,其中,三维场景地图中仅包括静态障碍物,目标单帧数据中同时包括静态障碍物以及动态障碍物;确定目标单帧数据包括的动态障碍物在三维场景地图所在坐标系中的姿态信息;将目标单帧数据与三维场景地图进行配准,并根据配准结果,确定目标单帧数据在坐标系中的姿态偏移信息;根据姿态偏移信息,对动态障碍物的姿态信息进行姿态校准后,将动态障碍物加入三维场景地图中。
实施例七
本发明实施例七还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明实施例所提供的动态障碍物的位置校准方法。该方法具体可以包括:获取三维场景地图,并选取与三维场景地图关联的至少一帧点云数据作为目标单帧数据,其中,三维场景地图中仅包括静态障碍物,目标单帧数据中同时包括静态障碍物以及动态障碍物;确定目标单帧数据包括的动态障碍物在三维场景地图所在坐标系中的姿态信息;将目标单帧数据与三维场景地图进行配准,并根据配准结果,确定目标单帧数据在坐标系中的姿态偏移信息;根据姿态偏移信息,对动态障碍物的姿态信息进行姿态校准后,将动态障碍物加入三维场景地图中。
本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++、Ruby、Go,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (10)
1.一种动态障碍物的位置校准方法,其特征在于,包括:
获取三维场景地图,并选取与所述三维场景地图关联的至少一帧点云数据作为目标单帧数据,其中,所述三维场景地图中仅包括静态障碍物,所述目标单帧数据中同时包括静态障碍物以及动态障碍物;
确定所述目标单帧数据包括的动态障碍物在所述三维场景地图所在坐标系中的姿态信息;
将所述目标单帧数据与所述三维场景地图进行配准,并根据配准结果,确定所述目标单帧数据在所述坐标系中的姿态偏移信息;
根据所述姿态偏移信息,对所述动态障碍物的所述姿态信息进行姿态校准后,将所述动态障碍物加入所述三维场景地图中。
2.根据权利要求1所述的方法,其特征在于,将所述目标单帧数据与所述三维场景地图进行配准,包括:
获取所述目标单帧数据中的静态障碍物作为参考障碍物,将所述参考障碍物与所述三维场景地图中包括的静态障碍物进行配对,并根据配对结果将所述目标单帧数据在所述三维场景地图中进行初始配准;
将所述初始配准后的所述目标单帧数据中的包括的静态障碍物使用设定尺寸的正方形进行切分,形成设定粒度的特征点;
根据得到的所述特征点,将所述目标单帧数据在所述三维场景地图中进行第一精确配准。
3.根据权利要求2所述的方法,其特征在于,在根据得到的所述特征点,将所述目标单帧数据在所述三维场景地图中进行第一精确配准之后,还包括:
使用点到点配准技术,将经过第一精确配准后所述目标单帧数据在所述三维场景地图中进行第二精准配准。
4.根据权利要求2或3所述的方法,其特征在于,将所述参考障碍物与所述三维场景地图中包括的静态障碍物进行配对,并根据配对结果将所述目标单帧数据在所述三维场景地图中进行初始配准,包括:
根据所述目标单帧数据中的参考障碍物在所述坐标系中的姿态信息,在所述坐标系中确定至少一个搜索区域;
根据所述搜索区域,在所述三维场景地图中,搜索与所述参考障碍物匹配的至少一个静态障碍物作为校准障碍物;
根据所述至少一个校准障碍物在所述坐标系中的姿态信息以及所述参考障碍物在所述坐标系中的姿态信息,将所述目标单帧数据在所述三维场景地图中进行初始配准。
5.根据权利要求4所述的方法,其特征在于,在根据所述目标单帧数据中的参考障碍物在所述坐标系中的姿态信息,在所述坐标系中确定至少一个搜索区域之前,还包括:
删除所述目标单帧数据中包括的动态障碍物。
6.根据权利要求1所述的方法,其特征在于,在根据所述姿态偏移信息,对所述动态障碍物的所述姿态信息进行姿态校准后,将所述动态障碍物加入所述三维场景地图中之后,还包括:
在所述三维场景地图中,搜索与所述动态障碍物关联的平面作为贴合平面;
将所述三维场景地图中的所述动态障碍物的底面与所述贴合平面进行贴合。
7.根据权利要求6所述的方法,其特征在于,在所述三维场景地图中,搜索与所述动态障碍物关联的平面作为贴合平面,包括:
如果在所述三维场景地图中,与同一动态障碍物关联的设定区域内包括至少两个平面,则获取与所述三维场景地图关联的路采设备的运动轨迹;
根据所述路采设备的运动轨迹,在所述至少两个平面中确定所述贴合平面。
8.一种动态障碍物的位置校准装置,其特征在于,包括:
数据获取模块,用于获取三维场景地图,并选取与所述三维场景地图关联的至少一帧点云数据作为目标单帧数据,其中,所述三维场景地图中仅包括静态障碍物,所述目标单帧数据中同时包括静态障碍物以及动态障碍物;
第一信息确定模块,用于确定所述目标单帧数据包括的动态障碍物在所述三维场景地图所在坐标系中的姿态信息;
第二信息确定模块,用于将所述目标单帧数据与所述三维场景地图进行配准,并根据配准结果,确定所述目标单帧数据在所述坐标系中的姿态偏移信息;
障碍物加入模块,用于根据所述姿态偏移信息,对所述动态障碍物的所述姿态信息进行姿态校准后,将所述动态障碍物加入所述三维场景地图中。
9.一种设备,其特征在于,所述设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7中任一所述的动态障碍物的位置校准方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-7中任一所述的动态障碍物的位置校准方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811002588.9A CN109146938B (zh) | 2018-08-30 | 2018-08-30 | 动态障碍物的位置校准方法、装置、设备及存储介质 |
JP2019157032A JP6830137B2 (ja) | 2018-08-30 | 2019-08-29 | 動的障害物の位置校正方法、装置、機器、及び記憶媒体 |
US16/556,772 US11087474B2 (en) | 2018-08-30 | 2019-08-30 | Method, apparatus, device, and storage medium for calibrating posture of moving obstacle |
EP19194511.2A EP3617997A1 (en) | 2018-08-30 | 2019-08-30 | Method, apparatus, device, and storage medium for calibrating posture of moving obstacle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811002588.9A CN109146938B (zh) | 2018-08-30 | 2018-08-30 | 动态障碍物的位置校准方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109146938A true CN109146938A (zh) | 2019-01-04 |
CN109146938B CN109146938B (zh) | 2020-09-15 |
Family
ID=64829466
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811002588.9A Active CN109146938B (zh) | 2018-08-30 | 2018-08-30 | 动态障碍物的位置校准方法、装置、设备及存储介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11087474B2 (zh) |
EP (1) | EP3617997A1 (zh) |
JP (1) | JP6830137B2 (zh) |
CN (1) | CN109146938B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110210280A (zh) * | 2019-03-01 | 2019-09-06 | 北京纵目安驰智能科技有限公司 | 一种超视距感知方法、***、终端和存储介质 |
CN111339996A (zh) * | 2020-03-20 | 2020-06-26 | 北京百度网讯科技有限公司 | 静态障碍物的检测方法、装置、设备及存储介质 |
CN111858979A (zh) * | 2020-07-23 | 2020-10-30 | 北京京东乾石科技有限公司 | 数据库构建方法和装置、障碍物识别方法、装置和*** |
CN113074748A (zh) * | 2021-03-29 | 2021-07-06 | 北京三快在线科技有限公司 | 一种无人驾驶设备的路径规划方法及装置 |
CN113763438A (zh) * | 2020-06-28 | 2021-12-07 | 北京京东叁佰陆拾度电子商务有限公司 | 一种点云配准方法、装置、设备及存储介质 |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111694903B (zh) * | 2019-03-11 | 2023-09-12 | 北京地平线机器人技术研发有限公司 | 地图构建方法、装置、设备以及可读存储介质 |
CN111612760B (zh) * | 2020-05-20 | 2023-11-17 | 阿波罗智联(北京)科技有限公司 | 用于检测障碍物的方法和装置 |
CN112162297B (zh) * | 2020-09-24 | 2022-07-19 | 燕山大学 | 一种剔除激光点云地图中动态障碍伪迹的方法 |
CN112597895B (zh) * | 2020-12-22 | 2024-04-26 | 阿波罗智联(北京)科技有限公司 | 基于偏移量检测的置信度确定方法、路侧设备及云控平台 |
US11796670B2 (en) | 2021-05-20 | 2023-10-24 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Radar point cloud data processing method and device, apparatus, and storage medium |
CN116088503B (zh) * | 2022-12-16 | 2024-06-25 | 深圳市普渡科技有限公司 | 动态障碍物检测方法和机器人 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8473144B1 (en) * | 2012-10-30 | 2013-06-25 | Google Inc. | Controlling vehicle lateral lane positioning |
US20160227193A1 (en) * | 2013-03-15 | 2016-08-04 | Uber Technologies, Inc. | Methods, systems, and apparatus for multi-sensory stereo vision for robotics |
CN106681331A (zh) * | 2017-02-24 | 2017-05-17 | 王红军 | 一种基于测地线理论的栅格路径规划方法 |
CN107192350A (zh) * | 2017-05-19 | 2017-09-22 | 中国人民解放军信息工程大学 | 一种三维激光扫描仪内参数标定方法及装置 |
CN108267141A (zh) * | 2016-12-30 | 2018-07-10 | 乐视汽车(北京)有限公司 | 道路点云数据处理*** |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7317456B1 (en) * | 2002-12-02 | 2008-01-08 | Ngrain (Canada) Corporation | Method and apparatus for transforming point cloud data to volumetric data |
CN103047943B (zh) * | 2012-12-31 | 2016-04-06 | 吉林大学 | 基于单投射编码结构光的车门外板形状尺寸检测方法 |
JP6432825B2 (ja) * | 2014-08-22 | 2018-12-05 | 株式会社Ihi | 3次元点群データの位置合わせ方法と装置及びその移動体システム |
CN105260988B (zh) * | 2015-09-09 | 2019-04-05 | 百度在线网络技术(北京)有限公司 | 一种高精地图数据的处理方法和装置 |
US10249030B2 (en) * | 2015-10-30 | 2019-04-02 | Hand Held Products, Inc. | Image transformation for indicia reading |
CN107958482B (zh) * | 2016-10-17 | 2021-06-18 | 杭州海康威视数字技术股份有限公司 | 一种三维场景模型构建方法及装置 |
US10535161B2 (en) * | 2017-11-09 | 2020-01-14 | Samsung Electronics Co., Ltd. | Point cloud compression using non-orthogonal projection |
-
2018
- 2018-08-30 CN CN201811002588.9A patent/CN109146938B/zh active Active
-
2019
- 2019-08-29 JP JP2019157032A patent/JP6830137B2/ja active Active
- 2019-08-30 US US16/556,772 patent/US11087474B2/en active Active
- 2019-08-30 EP EP19194511.2A patent/EP3617997A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8473144B1 (en) * | 2012-10-30 | 2013-06-25 | Google Inc. | Controlling vehicle lateral lane positioning |
US20160227193A1 (en) * | 2013-03-15 | 2016-08-04 | Uber Technologies, Inc. | Methods, systems, and apparatus for multi-sensory stereo vision for robotics |
CN108267141A (zh) * | 2016-12-30 | 2018-07-10 | 乐视汽车(北京)有限公司 | 道路点云数据处理*** |
CN106681331A (zh) * | 2017-02-24 | 2017-05-17 | 王红军 | 一种基于测地线理论的栅格路径规划方法 |
CN107192350A (zh) * | 2017-05-19 | 2017-09-22 | 中国人民解放军信息工程大学 | 一种三维激光扫描仪内参数标定方法及装置 |
Non-Patent Citations (1)
Title |
---|
FEDERICO FERRI: "Dynamic obstacles detection and 3D map updating", 《2015 IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110210280A (zh) * | 2019-03-01 | 2019-09-06 | 北京纵目安驰智能科技有限公司 | 一种超视距感知方法、***、终端和存储介质 |
CN110210280B (zh) * | 2019-03-01 | 2024-04-19 | 北京纵目安驰智能科技有限公司 | 一种超视距感知方法、***、终端和存储介质 |
CN111339996A (zh) * | 2020-03-20 | 2020-06-26 | 北京百度网讯科技有限公司 | 静态障碍物的检测方法、装置、设备及存储介质 |
CN111339996B (zh) * | 2020-03-20 | 2023-05-09 | 北京百度网讯科技有限公司 | 静态障碍物的检测方法、装置、设备及存储介质 |
CN113763438A (zh) * | 2020-06-28 | 2021-12-07 | 北京京东叁佰陆拾度电子商务有限公司 | 一种点云配准方法、装置、设备及存储介质 |
CN113763438B (zh) * | 2020-06-28 | 2024-04-19 | 北京京东叁佰陆拾度电子商务有限公司 | 一种点云配准方法、装置、设备及存储介质 |
CN111858979A (zh) * | 2020-07-23 | 2020-10-30 | 北京京东乾石科技有限公司 | 数据库构建方法和装置、障碍物识别方法、装置和*** |
CN113074748A (zh) * | 2021-03-29 | 2021-07-06 | 北京三快在线科技有限公司 | 一种无人驾驶设备的路径规划方法及装置 |
CN113074748B (zh) * | 2021-03-29 | 2022-08-26 | 北京三快在线科技有限公司 | 一种无人驾驶设备的路径规划方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
US11087474B2 (en) | 2021-08-10 |
CN109146938B (zh) | 2020-09-15 |
US20200074641A1 (en) | 2020-03-05 |
EP3617997A1 (en) | 2020-03-04 |
JP6830137B2 (ja) | 2021-02-17 |
JP2020034559A (ja) | 2020-03-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109146938A (zh) | 动态障碍物的位置校准方法、装置、设备及存储介质 | |
JP6918885B2 (ja) | 相対的位置姿勢の標定方法、相対的位置姿勢の標定装置、機器及び媒体 | |
CN109214980B (zh) | 一种三维姿态估计方法、装置、设备和计算机存储介质 | |
Bloesch et al. | Iterated extended Kalman filter based visual-inertial odometry using direct photometric feedback | |
CN109116374B (zh) | 确定障碍物距离的方法、装置、设备及存储介质 | |
CN109270545B (zh) | 一种定位真值校验方法、装置、设备及存储介质 | |
CN109285220A (zh) | 一种三维场景地图的生成方法、装置、设备及存储介质 | |
CN109345596A (zh) | 多传感器标定方法、装置、计算机设备、介质和车辆 | |
CN111121754A (zh) | 移动机器人定位导航方法、装置、移动机器人及存储介质 | |
Schenk | From point-based to feature-based aerial triangulation | |
CN109931945B (zh) | Ar导航方法、装置、设备和存储介质 | |
CN109461208B (zh) | 三维地图处理方法、装置、介质和计算设备 | |
WO2020140431A1 (zh) | 相机位姿确定方法、装置、电子设备及存储介质 | |
CN109191554B (zh) | 一种超分辨图像重建方法、装置、终端和存储介质 | |
CN109300143A (zh) | 运动向量场的确定方法、装置、设备、存储介质和车辆 | |
CN112652062A (zh) | 一种点云地图构建方法、装置、设备和存储介质 | |
JP2008506283A (ja) | カメラ・ポーズを決定する方法および装置 | |
Mehralian et al. | EKFPnP: extended Kalman filter for camera pose estimation in a sequence of images | |
CN112148033A (zh) | 无人机航线的确定方法、装置、设备及存储介质 | |
KR20220100813A (ko) | 자율주행 차량 정합 방법, 장치, 전자 기기 및 차량 | |
CN113759348B (zh) | 一种雷达标定方法、装置、设备及存储介质 | |
CN114049401A (zh) | 双目相机标定方法、装置、设备及介质 | |
CN110853098B (zh) | 机器人定位方法、装置、设备及存储介质 | |
JP7375149B2 (ja) | 測位方法、測位装置、ビジュアルマップの生成方法およびその装置 | |
CN110174892B (zh) | 车辆朝向的处理方法、装置、设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20211020 Address after: 105 / F, building 1, No. 10, Shangdi 10th Street, Haidian District, Beijing 100085 Patentee after: Apollo Intelligent Technology (Beijing) Co.,Ltd. Address before: 100085 Baidu Building, 10 Shangdi Tenth Street, Haidian District, Beijing Patentee before: BAIDU ONLINE NETWORK TECHNOLOGY (BEIJING) Co.,Ltd. |