CN108921947A - 生成电子地图的方法、装置、设备、存储介质以及采集实体 - Google Patents

生成电子地图的方法、装置、设备、存储介质以及采集实体 Download PDF

Info

Publication number
CN108921947A
CN108921947A CN201810811490.1A CN201810811490A CN108921947A CN 108921947 A CN108921947 A CN 108921947A CN 201810811490 A CN201810811490 A CN 201810811490A CN 108921947 A CN108921947 A CN 108921947A
Authority
CN
China
Prior art keywords
grid chart
grid
pose
cloud sequence
chart
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810811490.1A
Other languages
English (en)
Other versions
CN108921947B (zh
Inventor
余丽
宋适宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201810811490.1A priority Critical patent/CN108921947B/zh
Publication of CN108921947A publication Critical patent/CN108921947A/zh
Priority to US16/518,801 priority patent/US10878243B2/en
Application granted granted Critical
Publication of CN108921947B publication Critical patent/CN108921947B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • G06V20/38Outdoor scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/182Network patterns, e.g. roads or rivers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Remote Sensing (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Traffic Control Systems (AREA)

Abstract

根据本公开的示例实施例,提供了一种用于生成电子地图的方法、装置、设备、计算机可读存储介质以及采集实体。方法包括获得针对特定区域的第一点云序列和第二点云序列。方法还包括生成针对第一点云序列的第一网格图以及针对第二点云序列的第二网格图,其中第一网格图和第二网格图中的格子至少包括点云的反射值信息。方法还包括基于第一网格图和第二网格图来优化第一点云序列。本公开的实施例通过同一区域的多个点云序列之间的匹配,来优化采集到的点云序列,能够生成高精度的点云地图。

Description

生成电子地图的方法、装置、设备、存储介质以及采集实体
技术领域
本公开的实施例总体上涉及计算机技术领域,并且更具体地涉及用于生成电子地图的方法、装置、设备、计算机可读存储介质以及采集实体。
背景技术
电子地图是指利用计算技术生成的数字形式的地图,其可以广泛用于查询、定位以及导航等场景。电子地图一般分为普通导航地图和高精地图,普通导航地图是面向用户的地图,其提供可视化的界面供用户查询和显示;而高精地图是一种面向机器的地图数据,其可以用于例如自动驾驶、机器人导航和定位等。普通导航地图通常通过卫星地图测绘而获得,其精度通常不高(例如误差可能达到几米甚至几十米)。高精地图是一种高精确度的地图形式,其不仅精度较高,而且包括可用于精确导航和定位的其他信息,例如车道线信息、对象高度信息、道路形状信息,等等。
高精地图在无人车自动驾驶***中起着重要作用。整个无人驾驶***中,无论是感知或路径规划,还是定位***,都不同程度依赖高精地图来工作。高精地图的准确性更是直接影响无人驾驶的成败。因此,高精地图的量产是自动驾驶技术能够商用的一个前提,是自动驾驶***的核心技术之一。通常,通过激光雷达采集点云数据来构建高精地图,如果激光雷达的位姿不能够准确获得,则会造成所生成的高精地图也不够准确。
发明内容
根据本公开的示例实施例,提供了一种用于生成电子地图的方法、装置、设备、计算机可读存储介质以及采集实体。
在本公开的第一方面中,提供了一种用于生成电子地图的方法。该方法包括:获得针对特定区域的第一点云序列和第二点云序列;生成针对第一点云序列的第一网格图以及针对第二点云序列的第二网格图,其中第一网格图和第二网格图中的格子至少包括点云的反射值信息;以及基于第一网格图和第二网格图,优化第一点云序列。
在本公开的第二方面中,提供了一种用于生成电子地图的装置。该装置包括:点云序列获得模块,被配置为获得针对特定区域的第一点云序列和第二点云序列;网格图生成模块,被配置为生成针对第一点云序列的第一网格图以及针对第二点云序列的第二网格图,第一网格图和第二网格图中的格子至少包括点云的反射值信息;以及点云序列优化模块,被配置为基于第一网格图和第二网格图,优化第一点云序列。
在本公开的第三方面中,提供了一种电子设备,其包括一个或多个处理器以及存储装置,存储装置用于存储一个或多个程序。一个或多个程序当被一个或多个处理器执行,使得电子设备实现根据本公开的实施例的方法或过程。
在本公开的第四方面中,提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现根据本公开的实施例的方法或过程。
在本公开的第五方面中,提供了一种采集实体,其包括根据本公开的实施例的电子设备。
应当理解,本发明内容部分中所描述的内容并非旨在限定本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的描述而变得容易理解。
附图说明
结合附图并参考以下详细说明,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。在附图中,相同或相似的附图标记表示相同或相似的元素,其中:
图1示出了本公开的实施例能够实现在其中的示例环境的示意图;
图2示出了根据本公开的实施例的用于生成电子地图的方法的流程图;
图3示出了根据本公开的实施例的投影到二维区域的示例反射值图;
图4示出了根据本公开的实施例的示例网格图;
图5示出了根据本公开的实施例的多次采集同一区域的示意图;
图6示出了根据本公开的实施例的用于优化点云序列的方法的流程图;
图7A-7C示出了根据本公开的实施例的由粗到精的匹配过程的示意图;
图8示出了根据本公开的实施例的用于生成电子地图的装置的框图;以及
图9示出了能够实施本公开的实施例的电子设备的框图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
在本公开的实施例的描述中,术语“包括”及其类似用语应当理解为开放性包含,即“包括但不限于”。术语“基于”应当理解为“至少部分地基于”。术语“一个实施例”或“该实施例”应当理解为“至少一个实施例”。术语“位姿(pose)”通常包括位置和姿态。下文还可能包括其他明确的和隐含的定义。
通常,对于大规模的城市三维地图构建,可能需要多个采集设备、多个采集路径、多天、多批次点云拼接,对于这种超大体量的点云数据,特别是在初始姿态不准确的情况,传统的衍生算法通常拼接累计误差大,并且效率低。由于弱定位***导致初始激光雷达位姿的误差很大,可能达到几米的位置误差,和/或几度的姿态角误差,因此传统的衍生算法在弱定位***的场景中可能无法得到正确的点云拼接结果。
传统的地图生成方法主要是依赖全球导航卫星***(GNSS)/船舶惯性导航***(SINS)组合导航***提供的高精度全球定位结果来构建地图,该***在空旷的高速公路等地能够提供厘米级的精度,但是在城市高楼或隧道等场景中,较弱或者缺失定位信号让这种***无法正常运行。针对地理定位***的信号较弱或缺失,通常有两种地图构建方案。一种方案是结合三维激光扫描仪和导线控制测量技术,根据导线控制测量获得激光扫描仪的三维坐标,然后通过点云匹配算法求解各站激光扫描仪的姿态,将多站扫描仪的点云数据拼接还原三维场景。然而,由于导线测量和扫描非常耗时,因而在开放道路上实施难度较大。另一种方案是通过实时定位与地图重建技术(SLAM),通过逐帧点云/图像匹配推导估算出车载激光雷达相对初始位置的位置和姿态,但是这种方法是通过帧间的点云匹配来逐帧推导雷达位姿,误差随距离增加而增加,在多次经过同一个地方也会有较大偏差,不能满足高精度的需求。
为此,本公开的实施例提出了一种用于生成电子地图的方案。本公开的实施例获得针对同一区域的多个点云序列,并且将多个点云序列转换成多个网格图并进行匹配,以便优化点云序列,从而能够构建高精度的点云地图。本公开的实施例的地图构建方法具有精度高、鲁棒性高、全天候等诸多优异性能。此外,本公开的实施例能够解决城市高楼、隧道等场景的制图问题,通过优化单圈车载激光雷达数据和多圈之间的基于反射值等的匹配,解决地理定位***信号较弱或者缺失情况下的高精度地图重建。以下将参考附图1-8详细描述本公开的一些示例实施例。
图1示出了本公开的实施例能够实现在其中的示例环境100的示意图。示例环境100能够用于生成高精度的点云地图。如所示出的,示例环境100包括在道路上行驶的采集实体110和120、以及采集实体110的激光雷达115和采集实体120的激光雷达125。
采集实体110和120可以是驾驶***,例如自动驾驶***或非自动驾驶***。驾驶***可以是一般的个人车辆,也可以为专用的采集车辆,或者任何其他适当车辆。在下文中,以车辆为例来讨论本公开的实施例,然而应当理解,本公开的方案也可以被类似地应用于其他类型的采集实体。需要注意的是,此处“采集实体”是指借助于激光雷达采集点云的载体,而其本身可以包括或不包括激光雷达。在本公开的实施例中,“采集实体的激光雷达”可以是固定在采集实体上的激光雷达,例如以固定方式而被设置于采集实体上或采集实体中。替代地,“采集实体的激光雷达”也可以是由采集实体以非固定方式所承载的激光雷达。
如图1所示,采集实体110正行驶在道路上,激光雷达115能够在采集实体110运动的过程中采集道路及其周边环境的点云数据。应当理解,可以按照预定的路线和/或采集周期采集道路中的点云数据,当然,也可以由驾驶员自主地决定采集的线路和/或采集周期。应当理解,此处“激光雷达”是指以发射激光束探测目标的位置和/或速度等特征量的雷达装置,其工作原理是向目标发射探测信号(激光束),然后将接收到的从目标反射回来的信号(目标回波)与发射信号进行比较,作适当处理后,就可获得目标的相关信息,例如目标距离、方位、高度、速度、姿态、甚至形状等参数中的一个或多个。通过激光雷达采集的数据,可以生成点云数据,点云是指目标表面(例如道路上以及周边环境的)特性的海量点集合。
在一些实施例中,激光雷达115在采集点云时,可以利用全球定位***(GPS)和惯性测量装置(IMU)来测量环境中对象的三维坐标,此外,定位***也不限于GPS,欧洲的伽利略卫星定位***,中国的北斗卫星定位***等,均可与本公开的实施例结合使用。本公开的实施例通过GPS和IMU得到精度不高的初始激光雷达位姿,分析得到可信度较高(GPS信号好精度高)的路段和可信度较低(GPS信号差误差大)的路段,分别处理这两种情况的位姿。对于信号好的路段,本公开的实施例可以直接使用准确测量位姿作为激光雷达的位姿,对于信号不好的路段,本公开的实施例通过基于激光雷达特征提取的SLAM方法来实现局部平滑。此外,可以将信号较好和信号不好的位姿进行融合,得到进一步优化的位姿,然后基于该位姿来进一步执行根据本公开的实施例的点云优化方法。
继续参考图1,激光雷达115采集道路相关的点云数据,得到第一点云序列111,然后可以通过投影来将第一点云序列111转换成第一网格图121,网格图是指包括多个格子的图,每个格子的属性可以包括格子中的点云相关数据。例如,当一束激光照射到目标表面时,所反射的激光会携带方位、距离、反射值等信息。若将激光束按照某种轨迹进行扫描,便会边扫描边记录到反射的激光点信息,由于扫描极为精细,因而能够得到大量的激光点,从而形成点云。
激光雷达125可以采集同一道路相关的点云数据。例如,采集实体110和采集实体120为不同的采集实体,它们可以对同一区域或同一道路分别进行激光采集。采集实体120通过激光雷达125获得第二点云序列112,然后可以通过投影来将第二点云序列112转换成第二网格图122。应当理解,虽然图1中示出了使用不同的采集实体来对同一区域或道路进行分别采集,但是也可以使用同一采集实体对同一区域或道路进行不同时刻的多次采集,从而也能够获得针对同一区域的多个点云序列。
继续参考图1,在框130,可以通过第一网格图121和第二网格图122之间的匹配,来对点云序列(例如点云序列111和/或点云序列112)进行优化。以下参考图2-图8详细描述了基于网格图的匹配来优化点云序列的一些示例性实施例。
图2示出了根据本公开的实施例的用于生成电子地图的方法200的流程图。为了便于清楚说明,以下参考图1的环境100来描述本公开的实施例。然而,应当理解,图1中所示出的环境100仅仅是本公开的实施例的一个示例环境,而不用于限制本公开的实施例的范围。
在框202,获得针对特定区域的第一点云序列和第二点云序列。例如,通过采集实体110获得第一点云序列111,通过采集实体120获得第二点云序列112。在一些实施例中,第一点云序列和第二点云序列可以是在地理定位***的信号较弱或者缺失的情况下被获得。在一些实施例中,可以划分二维区域投影块(称为“map_node”)。例如,按照采集轨迹的时间顺序,自动划分一系列的二维矩形区域,每个区域覆盖一定的范围(例如128m×128m区域,但是本公开的实施例不限于这个大小)。
在框204,生成针对第一点云序列的第一网格图以及针对第二点云序列的第二网格图,其中第一网格图和第二网格图中的格子至少包括点云的反射值信息。例如,基于第一点云序列111生成第一网格图121,基于第二点云序列112生成第一网格图122。每个区域覆盖一段时间上连续的位姿序列,将这些位姿序列对应的激光点云投影到全局坐标系,根据激光反射值生成一个0.125m分辨率的网格图,其例如可以包括1024×1024个格子(也称为“像素”),每个格子为0.125m×0.125m的大小。
例如,可以将激光点云序列坐标转换并投影到同一map_node中来生成第一网格图和第二网格图。采集实体在行驶过程中,会通过激光雷达不断扫描周围环境,生成点云数据。以激光雷达为中心,将扫描到的点云数据从采集实体坐标系转换成世界坐标系。例如,令X为点云中的一个三维点,则通过公式(1)可以将其转换成世界坐标系中的点X’。
X'=RX+T (1)
其中R和T表示从采集实体坐标系转换到世界坐标系的旋转矩阵和平移矩阵。
接下来,通过公式(2)可以将点X’投影到map_node中生成点X”。
X”=SX' (2)
其中S表示投影矩阵。
由于激光的点云数据包括大量的激光点,如果将其全部存入网格图中,则数据量可能非常大,并且后续的匹配效率也会较低。在一些实施例中,可以将每个map_node划分成预定数目(例如,1024×1024)个格子(即map_cell),并且对落入每个格子的点云数据做聚合(可以基于激光点的坐标来确定其落入哪个格子)。接下来,可以存储落入该格子中的激光点的数目、激光反射值的均值和方差、高度值的均值和方差。以这种方式,每个格子中可以存储聚合后的数据,这样无论激光点有多少,每个网格图中的数据量都是固定的,因而能够优化存储的效率以及后续匹配的效率。在某些实施例中,每个格子中也可以仅存储激光反射值信息,而不存储高度值信息。
在框206,基于第一网格图和第二网格图,优化第一点云序列。例如,将针对同一区域而生成的多个网格图两两成对,并且对每对进行几何变换和匹配。例如,在第一网格图与第二网格图匹配的过程中,可以将第二网格图设置为目标,而将第一网格图设置为源,因此需要固定第二网格图来优化第一网格图。以下参考图6进一步描述了通过网格图匹配来优化点云序列的示例实现。
因此,根据本公开的实施例的方法200,通过同一区域的多个点云序列之间的匹配,能够优化点云序列,从而构建高精度的点云地图。此外,在例如地理定位***的信号较弱或者缺失的情况下,本公开的实施例的方法200仍然能够生成高精度的点云地图,由此拓展无人驾驶的适用场景。
图3示出了根据本公开的实施例的投影到二维区域的示例反射值图300。反射值图为二维图片,但是其可以包括每个像素的反射信息(例如rgb值)以及像素所在地面的高度信息(z值),因此,根据本公开的实施例的反射值图中每个像素具有高度值的属性。图300为投影到二维区域的反射值图的示例,其为道路上方的鸟瞰图,其中310指示了一个示例预定大小的二维矩形区域。
图4示出了根据本公开的实施例的示例网格图400。例如,网格图400可以覆盖一定的范围(诸如128m×128m,但是其他的大小也是可能的)。网格图400可以被划分成预定数目(诸如1024×1024个)的格子(例如格子410),即每个格子的大小为0.125m×0.125m。如图4所示,格子410包括属性415,属性415可以包括格子410中的激光点的数目、激光点的反射值的均值和方差、以及激光点的高度值的均值和方差。在一些实施例中,可以将点云序列投影到网格图中的多个格子中,聚合每个格子中的点云数据,然后在网格图中存储每个格子的属性。
图5示出了根据本公开的实施例的多次采集同一区域的示意图500。如图5所示,针对同一区域进行了多次激光采集,例如,圆圈510中的道路被采集过例如五次,得到了多个不完全相同的点云序列。在一些实施例中,针对同一个二维矩形区域map_node的多个点云序列两两成对(pair),分别对每对进行匹配,可以生成个对,其中n为同一区域采集的次数。例如,假设某个区域被采集了五次,则可以生成五个网格图。五个网格图的区别就是,其每个格子里记录属性不同。五个网格图两两成对,就总共有10对,然后可以分别对每对两个网格图进行匹配以用于优化点云序列。
图6示出了根据本公开的实施例的用于优化点云序列的方法600的流程图。应当理解,方法600可以为以上参考图2所描述的动作206的示例实现。例如,针对一对网格图(即第一网格图和第二网格图)之间的匹配,可以将第二网格图设置为目标,而将第一网格图设置为源,则需要固定第二网格图来优化第一网格图。
在框602,对第一网格图执行预定范围内的几何变换,其中几何变换可以包括平移和/或旋转中。例如,在通过初始位姿投影到一起之后,两个网格图在一定范围内格子重合,在初始状态下,可以将第一网格图的中心和第二网格图的中心重合。
在框604,将变换后的第一网格图与第二网格图之间的匹配概率最大时的几何变换幅度确定为第一位姿差。例如,在预定范围内变换第一网格图时,计算变换后的第一网格图和第二网格图的整体匹配概率,在整体匹配概率最大的时候,即为第一网格图和第二网格图的最佳匹配位置。假设经过变换第一网格图的中心与第二网格图中的(x,y)格子重合,则根据公式(3)可以确定此时第一网格图与第二网格图的整体匹配概率为:
其中z表示全部当前帧测量值,其包含全部地图及在线激光采集的信息,表示第一网格图中(i,j)格子的反射值均值,表示第一网格图中(i,j)格子的激光点的数目,表示第二网格图中对应格子的反射值均值,α是常数参数。通过公式(3),可以分别计算第一网格图的中心和第二网格图中搜索范围内的所有(x,y)格子重合时的整体匹配概率(对应的格子之间的匹配概率之和)。
在一些实施例中,除了反射值之外,还可以同时考虑高度值的匹配。例如,通过公式(4)计算两个网格图之间的反射值和高度值二者的联合匹配概率。
其中zr和za分别代表反射值信息和高度值信息,η是经验值,γ表示权重,m表示地图,公式(4)整体表示跟地图上匹配的联合概率。
在框606,基于第一位姿差,优化所述第一点云序列。在一些实施例中,还可以基于针对特定区域的第三点云序列来生成第三网格图,然后,确定第二网格图与第三网格图之间的第二位姿差,并且确定第三网格图与第一网格图之间的第三位姿差。
在获得每对网格图之间的位姿差(例如pair1:Δp1,pair2:Δp2…)之后,可以执行全局的位姿图优化。例如,可以将每个网格图抽象为图谱中的一个节点,已经确定的网格图之间的位姿差则为节点之间的边,此时需要优化的是每个节点的位姿。可以作为全局优化中两个点的约束,根据约束条件来确定目标函数(5),此外,加上GPS+IMU提供的先验位姿约束,本公开的实施例可以构建残差方程,并且最小化这个目标函数。
其中Δpi表示第i对的位姿差,表示第i对的先验位姿约束,Xi 1和Xi 2分别表示第i对的目标位姿和源位姿。
通过最小化上述目标函数,可得到每个网格图最终的位姿,每个网格图的位姿即为网格图中心点的位姿。然后,可以基于网格图的位姿来调整网格图所涉及的点云序列点,从而优化点云序列并且生成高精度的点云地图
在一些实施例中,可以通过由粗到精的匹配方式来匹配两个网格图。例如,在第一范围内以第一变换单位对第一网格图执行几何变换,然后在第二范围内以第二变换单位对第一网格图执行几何变换,其中第二范围小于第一范围并且第二变换单位小于第一变换单位。图7A-7C示出了根据本公开的实施例的由粗到精的匹配过程的示意图710-730,其中搜索范围由大到小,匹配精度由粗到精。如图7A-7C所示,分别对x坐标、y坐标、yaw角度(航向角)三个自由度进行几何变换,图7A-7C示出了由粗到精的三次搜索匹配示例。
如图7A所示,首先以较大搜索范围和较大变换单位(即分辨率)进行几何变换。在图7A中,每个格子的大小为0.5m×0.5m,x和y的搜索范围为正负10米,x和y的变换单位为0.5m,yaw角的搜索范围为正负2°,yaw角的变换单位为0.2°,则在图7A的过程710中,总共需要迭代41×41×21次。
在经过粗精度匹配之后,如图7B所示,以较小搜索范围和较精细变换单位进行几何变换。在图7B中,每个格子的大小为0.25m×0.25m,x和y的搜索范围为正负2米,x和y的变换单位为0.25m,yaw角的搜索范围为正负0.4°,yaw角的变换单位为0.05°,则在图7B的过程720中,总共需要迭代17×17×17次。
接下来,如图7C所示,以更小搜索范围和更精细变换单位进行几何变换。在图7C中,每个格子的大小为0.125m×0.125m,x和y的搜索范围为正负0.5米,x和y的变换单位为0.125m,yaw角的搜索范围为正负0.1°,yaw角的变换单位为0.025°,则在图7C的过程730中,总共需要迭代9×9×9次。
如箭头715和725所示,图7A-7C示出了由粗到精的匹配方式,能够解决地理定位***信号较弱或者缺失时多个点云序列之间偏差较大(例如大于5m)的情况。此外,还能够提高匹配的效率,减少匹配的用时。
图8示出了根据本公开的实施例的用于生成电子地图的装置800的框图。如图8所示,装置800包括点云序列获得模块810、网格图生成模块820以及点云序列优化模块830。点云序列获得模块810被配置为获得针对特定区域的第一点云序列和第二点云序列。网格图生成模块820被配置为生成针对第一点云序列的第一网格图以及针对第二点云序列的第二网格图,其中第一网格图和第二网格图中的格子至少包括点云的反射值信息。点云序列优化模块830被配置为基于第一网格图和第二网格图,优化第一点云序列。
在一些实施例中,其中点云序列获得模块810包括:点云获得模块,被配置为在地理定位***的信号较弱或者缺失的情况下,获得第一点云序列和第二点云序列。
在一些实施例中,其中网格图生成模块820包括:投影模块,被配置为将第一点云序列投影到第一网格图中的多个格子中;聚合模块,被配置为聚合多个格子中的每个格子中的点云数据;以及存储模块,被配置为在第一网格图中存储每个格子的属性,属性包括激光点的数目、激光点的反射值的均值和方差、以及激光点的高度值的均值和方差。
在一些实施例中,其中点云序列优化模块830包括:几何变换模块,被配置为对第一网格图执行预定范围内的几何变换,几何变换包括平移和旋转中的至少一项;位姿差确定模块,被配置为将变换后的第一网格图与第二网格图之间的匹配概率最大时的几何变换幅度确定为第一位姿差;以及点云优化模块,被配置为基于第一位姿差,优化第一点云序列。
在一些实施例中,其中几何变换模块包括:第一几何变换模块,被配置为在第一范围内以第一变换单位对第一网格图执行几何变换;以及第二几何变换模块,被配置为在第二范围内以第二变换单位对第一网格图执行几何变换,第二范围小于第一范围并且第二变换单位小于第一变换单位。
在一些实施例中,其中位姿差确定模块包括:联合匹配概率确定模块,被配置为确定变换后的第一网格图与第二网格图之间的反射值和高度值二者的联合匹配概率。
在一些实施例中,其中点云序列优化模块830还包括:第二网格图生成模块,被配置为基于针对特定区域的第三点云序列,生成第三网格图;第二位姿差确定模块,被配置为确定第二网格图与第三网格图之间的第二位姿差;以及第三位姿差确定模块,被配置为确定第三网格图与第一网格图之间的第三位姿差。
在一些实施例中,其中点云序列优化模块830还包括:位姿确定模块,被配置为基于第一位姿差、第二位姿差以及第三位姿差,确定第一网格图的第一位姿、第二网格图的第二位姿以及第三网格图的第三位姿;以及点云序列调整模块,被配置为基于第一位姿,调整第一点云序列。
应当理解,图8中所示出的点云序列获得模块810、网格图生成模块820以及点云序列优化模块830可以被包括在一个或多个电子设备中,也可以被包括在采集实体中。而且,应当理解,图8中所示出的模块可以执行参考本公开的实施例的方法或过程中的步骤或动作。
图9示出了可以用来实施本公开的实施例的示例设备900的示意性框图。应当理解,设备900可以用于实现本公开所描述的用于生成电子地图的装置800。如图所示,设备900包括中央处理单元(CPU)901,其可以根据存储在只读存储器(ROM)902中的计算机程序指令或者从存储单元908加载到随机访问存储器(RAM)903中的计算机程序指令,来执行各种适当的动作和处理。在RAM 903中,还可存储设备900操作所需的各种程序和数据。CPU901、ROM 902以及RAM 903通过总线904彼此相连。输入/输出(I/O)接口905也连接至总线904。
设备900中的多个部件连接至I/O接口905,包括:输入单元906,例如键盘、鼠标等;输出单元907,例如各种类型的显示器、扬声器等;存储单元908,例如磁盘、光盘等;以及通信单元909,例如网卡、调制解调器、无线通信收发机等。通信单元909允许设备900通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
处理单元901执行上文所描述的各个方法和过程,例如方法200和600。例如,在一些实施例中,方法200和600可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元908。在一些实施例中,计算机程序的部分或者全部可以经由ROM 902和/或通信单元909而被载入和/或安装到设备900上。当计算机程序加载到RAM 903并由CPU 901执行时,可以执行上文描述的方法200和600的一个或多个动作或步骤。备选地,在其他实施例中,CPU 901可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行方法200和/或方法600。
应当理解,根据本公开的实施例的采集实体110和120(诸如车辆或机器人等)可以包括根据图9所示出的设备900。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上***的***(SOC)、负载可编程逻辑设备(CPLD),等等。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行***、装置或设备使用或与指令执行***、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体***、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
此外,虽然采用特定次序描绘了各动作或步骤,但是这应当理解为要求这样动作或步骤以所示出的特定次序或以顺序次序执行,或者要求所有图示的动作或步骤应被执行以取得期望的结果。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实现中。相反地,在单个实现的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实现中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本公开的实施例,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。

Claims (20)

1.一种用于生成电子地图的方法,包括:
获得针对特定区域的第一点云序列和第二点云序列;
生成针对所述第一点云序列的第一网格图以及针对所述第二点云序列的第二网格图,所述第一网格图和所述第二网格图中的格子至少包括点云的反射值信息;以及
基于所述第一网格图和所述第二网格图,优化所述第一点云序列。
2.根据权利要求1所述的方法,其中获得针对特定区域的第一点云序列和第二点云序列包括:
在地理定位***的信号较弱或者缺失的情况下,获得所述第一点云序列和所述第二点云序列。
3.根据权利要求1所述的方法,其中生成针对第一点云序列的第一网格图包括:
将所述第一点云序列投影到所述第一网格图中的多个格子中;
聚合所述多个格子中的每个格子中的点云数据;以及
在所述第一网格图中存储每个格子的属性,所述属性包括激光点的数目、所述激光点的反射值的均值和方差、以及所述激光点的高度值的均值和方差。
4.根据权利要求1所述的方法,其中优化所述第一点云序列包括:
对所述第一网格图执行预定范围内的几何变换,所述几何变换包括平移和旋转中的至少一项;
将变换后的所述第一网格图与所述第二网格图之间的匹配概率最大时的几何变换幅度确定为第一位姿差;以及
基于所述第一位姿差,优化所述第一点云序列。
5.根据权利要求4所述的方法,其中对所述第一网格图执行预定范围内的几何变换包括:
在第一范围内以第一变换单位对所述第一网格图执行几何变换;以及
在第二范围内以第二变换单位对所述第一网格图执行几何变换,所述第二范围小于所述第一范围并且所述第二变换单位小于所述第一变换单位。
6.根据权利要求4所述的方法,其中确定为第一位姿差包括:
确定变换后的所述第一网格图与所述第二网格图之间的反射值和高度值二者的联合匹配概率。
7.根据权利要求4所述的方法,其中优化所述第一点云序列还包括:
基于针对所述特定区域的第三点云序列,生成第三网格图;
确定所述第二网格图与所述第三网格图之间的第二位姿差;以及
确定所述第三网格图与所述第一网格图之间的第三位姿差。
8.根据权利要求7所述的方法,其中优化所述第一点云序列还包括:
基于所述第一位姿差、所述第二位姿差以及所述第三位姿差,确定所述第一网格图的第一位姿、所述第二网格图的第二位姿以及所述第三网格图的第三位姿;以及
基于所述第一位姿,调整所述第一点云序列。
9.一种用于生成电子地图的装置,包括:
点云序列获得模块,被配置为获得针对特定区域的第一点云序列和第二点云序列;
网格图生成模块,被配置为生成针对所述第一点云序列的第一网格图以及针对所述第二点云序列的第二网格图,所述第一网格图和所述第二网格图中的格子至少包括点云的反射值信息;以及
点云序列优化模块,被配置为基于所述第一网格图和所述第二网格图,优化所述第一点云序列。
10.根据权利要求9所述的装置,其中所述点云序列获得模块包括:
点云获得模块,被配置为在地理定位***的信号较弱或者缺失的情况下,获得所述第一点云序列和所述第二点云序列。
11.根据权利要求9所述的装置,其中所述网格图生成模块包括:
投影模块,被配置为将所述第一点云序列投影到所述第一网格图中的多个格子中;
聚合模块,被配置为聚合所述多个格子中的每个格子中的点云数据;以及
存储模块,被配置为在所述第一网格图中存储每个格子的属性,所述属性包括激光点的数目、所述激光点的反射值的均值和方差、以及所述激光点的高度值的均值和方差。
12.根据权利要求9所述的装置,其中所述点云序列优化模块包括:
几何变换模块,被配置为对所述第一网格图执行预定范围内的几何变换,所述几何变换包括平移和旋转中的至少一项;
第一位姿差确定模块,被配置为将变换后的所述第一网格图与所述第二网格图之间的匹配概率最大时的几何变换幅度确定为第一位姿差;以及
点云优化模块,被配置为基于所述第一位姿差,优化所述第一点云序列。
13.根据权利要求12所述的装置,其中所述几何变换模块包括:
第一几何变换模块,被配置为在第一范围内以第一变换单位对所述第一网格图执行几何变换;以及
第二几何变换模块,被配置为在第二范围内以第二变换单位对所述第一网格图执行几何变换,所述第二范围小于所述第一范围并且所述第二变换单位小于所述第一变换单位。
14.根据权利要求12所述的装置,其中所述位姿差确定模块包括:
联合匹配概率确定模块,被配置为确定变换后的所述第一网格图与所述第二网格图之间的反射值和高度值二者的联合匹配概率。
15.根据权利要求12所述的装置,其中所述点云序列优化模块还包括:
第二网格图生成模块,被配置为基于针对所述特定区域的第三点云序列,生成第三网格图;
第二位姿差确定模块,被配置为确定所述第二网格图与所述第三网格图之间的第二位姿差;以及
第三位姿差确定模块,被配置为确定所述第三网格图与所述第一网格图之间的第三位姿差。
16.根据权利要求15所述的装置,其中所述点云序列优化模块还包括:
位姿确定模块,被配置为基于所述第一位姿差、所述第二位姿差以及所述第三位姿差,确定所述第一网格图的第一位姿、所述第二网格图的第二位姿以及所述第三网格图的第三位姿;以及
点云序列调整模块,被配置为基于所述第一位姿,调整所述第一点云序列。
17.一种电子设备,所述电子设备包括:
一个或多个处理器;以及
存储装置,用于存储一个或多个程序,所述一个或多个程序当被所述一个或多个处理器执行,使得所述电子设备实现根据权利要求1-8中任一项所述的方法。
18.一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现根据权利要求1-8中任一项所述的方法。
19.一种采集实体,其包括根据权利要求17所述的电子设备。
20.根据权利要求19所述的采集实体,其中所述采集实体为车辆。
CN201810811490.1A 2018-07-23 2018-07-23 生成电子地图的方法、装置、设备、存储介质以及采集实体 Active CN108921947B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201810811490.1A CN108921947B (zh) 2018-07-23 2018-07-23 生成电子地图的方法、装置、设备、存储介质以及采集实体
US16/518,801 US10878243B2 (en) 2018-07-23 2019-07-22 Method, device and apparatus for generating electronic map, storage medium, and acquisition entity

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810811490.1A CN108921947B (zh) 2018-07-23 2018-07-23 生成电子地图的方法、装置、设备、存储介质以及采集实体

Publications (2)

Publication Number Publication Date
CN108921947A true CN108921947A (zh) 2018-11-30
CN108921947B CN108921947B (zh) 2022-06-21

Family

ID=64417014

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810811490.1A Active CN108921947B (zh) 2018-07-23 2018-07-23 生成电子地图的方法、装置、设备、存储介质以及采集实体

Country Status (2)

Country Link
US (1) US10878243B2 (zh)
CN (1) CN108921947B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111461980A (zh) * 2020-03-30 2020-07-28 北京百度网讯科技有限公司 点云拼接算法的性能估计方法和装置
CN111638528A (zh) * 2020-05-26 2020-09-08 北京百度网讯科技有限公司 定位方法、装置、电子设备和存储介质
CN111681163A (zh) * 2020-04-23 2020-09-18 北京三快在线科技有限公司 构建点云地图的方法、装置、电子设备和存储介质
CN111947672A (zh) * 2020-03-02 2020-11-17 北京百度网讯科技有限公司 用于检测环境变化的方法、装置、设备和介质
WO2021042286A1 (zh) * 2019-09-04 2021-03-11 深圳市大疆创新科技有限公司 点云处理方法、***、可移动平台及存储介质
CN113671460A (zh) * 2021-08-20 2021-11-19 上海商汤临港智能科技有限公司 一种地图生成方法、装置、计算机设备及存储介质
CN115239899A (zh) * 2022-06-29 2022-10-25 北京百度网讯科技有限公司 位姿图生成方法、高精地图生成方法和装置
CN115257807A (zh) * 2022-07-27 2022-11-01 武汉大学 基于知识图谱的城区路上场景自动驾驶决策方法及设备
WO2023045224A1 (zh) * 2021-09-26 2023-03-30 北京三快在线科技有限公司 地图生成
CN116228089A (zh) * 2023-05-08 2023-06-06 成都运荔枝科技有限公司 一种基于最短里程的门店配送路径规划方法

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11520331B2 (en) * 2018-12-28 2022-12-06 Intel Corporation Methods and apparatus to update autonomous vehicle perspectives
US11167207B2 (en) * 2019-12-13 2021-11-09 Niantic, Inc. Region division with cell merging using spanning tree
US10907960B1 (en) * 2020-01-06 2021-02-02 Outsight SA Calibration system for combined depth and texture sensor
CN111427060B (zh) * 2020-03-27 2023-03-07 深圳市镭神智能***有限公司 一种基于激光雷达的二维栅格地图构建方法和***
CN111651547B (zh) * 2020-06-04 2023-07-18 北京四维图新科技股份有限公司 高精度地图数据的获取方法、装置及可读存储介质
CN112700479B (zh) * 2020-12-23 2024-02-23 北京超星未来科技有限公司 一种基于cnn点云目标检测的配准方法
CN112700455A (zh) * 2020-12-28 2021-04-23 北京超星未来科技有限公司 一种激光点云数据生成方法、装置、设备及介质
CN113503883B (zh) * 2021-06-22 2022-07-19 北京三快在线科技有限公司 采集用于构建地图的数据的方法、存储介质及电子设备
US11999352B2 (en) * 2021-12-15 2024-06-04 Industrial Technology Research Institute Method and system for extracting road data and method and system for controlling self-driving car
CN114549605B (zh) * 2021-12-31 2023-08-04 广州景骐科技有限公司 基于点云匹配的图像优化方法、装置、设备及存储介质
CN114581621A (zh) * 2022-03-07 2022-06-03 北京百度网讯科技有限公司 地图数据处理方法、装置、电子设备和介质
CN115080680B (zh) * 2022-07-19 2022-11-25 高德软件有限公司 用于高精地图的激光点云数据处理方法、装置及设备
CN115685133B (zh) * 2022-12-30 2023-04-18 安徽蔚来智驾科技有限公司 自动驾驶车辆的定位方法、控制装置、存储介质及车辆
CN116228870B (zh) * 2023-05-05 2023-07-28 山东省国土测绘院 一种基于二维码slam精度控制的建图方法及***

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160266256A1 (en) * 2015-03-11 2016-09-15 The Boeing Company Real Time Multi Dimensional Image Fusing
CN106023210A (zh) * 2016-05-24 2016-10-12 百度在线网络技术(北京)有限公司 无人车、无人车定位方法、装置和***
CN106052697A (zh) * 2016-05-24 2016-10-26 百度在线网络技术(北京)有限公司 无人车、无人车定位方法、装置和***
CN106097444A (zh) * 2016-05-30 2016-11-09 百度在线网络技术(北京)有限公司 高精地图生成方法和装置
CN108230379A (zh) * 2017-12-29 2018-06-29 百度在线网络技术(北京)有限公司 用于融合点云数据的方法和装置
CN108267141A (zh) * 2016-12-30 2018-07-10 乐视汽车(北京)有限公司 道路点云数据处理***

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104008571B (zh) * 2014-06-12 2017-01-18 深圳奥比中光科技有限公司 基于深度相机的人体模型获取方法及网络虚拟试衣***
US10313639B2 (en) * 2015-11-20 2019-06-04 Magic Leap, Inc. Methods and systems for large-scale determination of RGBD camera poses
US10043076B1 (en) * 2016-08-29 2018-08-07 PerceptIn, Inc. Visual-inertial positional awareness for autonomous and non-autonomous tracking
CN111108342B (zh) * 2016-12-30 2023-08-15 辉达公司 用于高清地图创建的视觉测程法和成对对准
WO2018205164A1 (en) * 2017-05-10 2018-11-15 Shanghaitech University Method and system for three-dimensional model reconstruction
US10438408B2 (en) * 2017-07-28 2019-10-08 The Boeing Company Resolution adaptive mesh for performing 3-D metrology of an object
US10671862B2 (en) * 2018-01-30 2020-06-02 Wipro Limited Method and system for detecting obstacles by autonomous vehicles in real-time
US11500099B2 (en) * 2018-03-14 2022-11-15 Uatc, Llc Three-dimensional object detection
CN108764187B (zh) * 2018-06-01 2022-03-08 百度在线网络技术(北京)有限公司 提取车道线的方法、装置、设备、存储介质以及采集实体
US10948297B2 (en) * 2018-07-09 2021-03-16 Samsung Electronics Co., Ltd. Simultaneous location and mapping (SLAM) using dual event cameras

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160266256A1 (en) * 2015-03-11 2016-09-15 The Boeing Company Real Time Multi Dimensional Image Fusing
CN106023210A (zh) * 2016-05-24 2016-10-12 百度在线网络技术(北京)有限公司 无人车、无人车定位方法、装置和***
CN106052697A (zh) * 2016-05-24 2016-10-26 百度在线网络技术(北京)有限公司 无人车、无人车定位方法、装置和***
CN106097444A (zh) * 2016-05-30 2016-11-09 百度在线网络技术(北京)有限公司 高精地图生成方法和装置
CN108267141A (zh) * 2016-12-30 2018-07-10 乐视汽车(北京)有限公司 道路点云数据处理***
CN108230379A (zh) * 2017-12-29 2018-06-29 百度在线网络技术(北京)有限公司 用于融合点云数据的方法和装置

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021042286A1 (zh) * 2019-09-04 2021-03-11 深圳市大疆创新科技有限公司 点云处理方法、***、可移动平台及存储介质
US11466992B2 (en) 2020-03-02 2022-10-11 Beijing Baidu Netcom Science And Technology Co., Ltd. Method, apparatus, device and medium for detecting environmental change
CN111947672A (zh) * 2020-03-02 2020-11-17 北京百度网讯科技有限公司 用于检测环境变化的方法、装置、设备和介质
CN111461980B (zh) * 2020-03-30 2023-08-29 北京百度网讯科技有限公司 点云拼接算法的性能估计方法和装置
CN111461980A (zh) * 2020-03-30 2020-07-28 北京百度网讯科技有限公司 点云拼接算法的性能估计方法和装置
CN111681163A (zh) * 2020-04-23 2020-09-18 北京三快在线科技有限公司 构建点云地图的方法、装置、电子设备和存储介质
CN111638528A (zh) * 2020-05-26 2020-09-08 北京百度网讯科技有限公司 定位方法、装置、电子设备和存储介质
CN113671460A (zh) * 2021-08-20 2021-11-19 上海商汤临港智能科技有限公司 一种地图生成方法、装置、计算机设备及存储介质
WO2023019898A1 (zh) * 2021-08-20 2023-02-23 上海商汤智能科技有限公司 用于地图生成的方法、装置、计算机设备及存储介质
CN113671460B (zh) * 2021-08-20 2024-03-22 上海商汤临港智能科技有限公司 一种地图生成方法、装置、计算机设备及存储介质
WO2023045224A1 (zh) * 2021-09-26 2023-03-30 北京三快在线科技有限公司 地图生成
CN115239899A (zh) * 2022-06-29 2022-10-25 北京百度网讯科技有限公司 位姿图生成方法、高精地图生成方法和装置
CN115239899B (zh) * 2022-06-29 2023-09-05 北京百度网讯科技有限公司 位姿图生成方法、高精地图生成方法和装置
CN115257807A (zh) * 2022-07-27 2022-11-01 武汉大学 基于知识图谱的城区路上场景自动驾驶决策方法及设备
CN115257807B (zh) * 2022-07-27 2024-01-30 武汉大学 基于知识图谱的城区路上场景自动驾驶决策方法及设备
CN116228089B (zh) * 2023-05-08 2023-07-04 成都运荔枝科技有限公司 一种基于最短里程的门店配送路径规划方法
CN116228089A (zh) * 2023-05-08 2023-06-06 成都运荔枝科技有限公司 一种基于最短里程的门店配送路径规划方法

Also Published As

Publication number Publication date
US10878243B2 (en) 2020-12-29
US20200026925A1 (en) 2020-01-23
CN108921947B (zh) 2022-06-21

Similar Documents

Publication Publication Date Title
CN108921947A (zh) 生成电子地图的方法、装置、设备、存储介质以及采集实体
US10962366B2 (en) Visual odometry and pairwise alignment for high definition map creation
WO2020181153A1 (en) Distributed processing of pose graphs for generating high definition maps for navigating autonomous vehicles
CN108764187A (zh) 提取车道线的方法、装置、设备、存储介质以及采集实体
US20090154793A1 (en) Digital photogrammetric method and apparatus using intergrated modeling of different types of sensors
Suveg et al. 3D reconstruction of building models
CN114549738A (zh) 无人车室内实时稠密点云重建方法、***、设备及介质
Kwak Automatic 3D building model generation by integrating LiDAR and aerial images using a hybrid approach
Özdemir et al. A multi-purpose benchmark for photogrammetric urban 3D reconstruction in a controlled environment
CN114577196A (zh) 使用光流的激光雷达定位
CN113960614A (zh) 一种基于帧-地图匹配的高程图构建方法
Wolfart et al. Mobile 3D Laser Scanning for Nuclear Safeguards
Pfeifer et al. Early stages of LiDAR data processing
CN116698017B (zh) 面向室内大尺度复杂场景的物体级环境建模方法及***
Wang et al. Updating Smartphone's Exterior Orientation Parameters by Image-based Localization Method Using Geo-tagged Image Datasets and 3D Point Cloud as References
Hamieh Road surface feature extraction and reconstruction of laser point clouds for urban environment
Geitner et al. Spatial Grid-Based Object Localization from A Single Passive Sensor: A Deep Learning-Integrated Approach
iota Psaltakis et al. Developing an H-BIM-Ready Model by Fusing Data from Different Sensors
Xiang Fast and lightweight loop closure detection in LiDAR-based simultaneous localization and mapping
Psaltakis et al. Developing an H-BIM-Ready Model by Fusing Data from Different Sensors
Huang et al. Three-dimensional Map Construction of Indoor Environment Based on RGB-D SLAM Scheme
Jelacic Terrestrial laser scanner for 3D modelling of USQ Toowoomba campus
CN118135168A (zh) 室内移动扫描点云的精度修正方法、装置、设备及介质
Zhou Automated Extraction of 3D Building Windows from Mobile LiDAR Data
NICOTRA Visual odometry for real time SLAM in indoor environments applied to the digitalization of cultural heritage

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant