CN109297510B - 相对位姿标定方法、装置、设备及介质 - Google Patents
相对位姿标定方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN109297510B CN109297510B CN201811133716.3A CN201811133716A CN109297510B CN 109297510 B CN109297510 B CN 109297510B CN 201811133716 A CN201811133716 A CN 201811133716A CN 109297510 B CN109297510 B CN 109297510B
- Authority
- CN
- China
- Prior art keywords
- point cloud
- cloud data
- scene
- data
- pose
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000012545 processing Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 5
- 230000006870 function Effects 0.000 description 20
- 238000004422 calculation algorithm Methods 0.000 description 14
- 238000006243 chemical reaction Methods 0.000 description 9
- 238000009616 inductively coupled plasma Methods 0.000 description 9
- 230000011218 segmentation Effects 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000004927 fusion Effects 0.000 description 4
- 238000013519 translation Methods 0.000 description 3
- 230000014616 translation Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C25/00—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
- G01S7/4972—Alignment of sensor
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/87—Combinations of systems using electromagnetic waves other than radio waves
- G01S17/875—Combinations of systems using electromagnetic waves other than radio waves for determining attitude
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4817—Constructional features, e.g. arrangements of optical elements relating to scanning
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Manufacturing & Machinery (AREA)
- Automation & Control Theory (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Abstract
本发明实施例公开了一种相对位姿标定方法、装置、设备及介质。其中,该方法包括:获取自动驾驶移动载体中激光雷达采集的场景的第一点云数据,以及自动驾驶移动载体中组合导航定位***采集的第一位姿数据;依据所述第一点云数据、所述第一位姿数据,以及预先通过激光扫描仪和定位设备在所述场景中进行采集得到的第二点云数据和第二位姿数据,确定所述激光雷达和所述组合导航定位***间的相对位姿。通过本发明的技术方案,能够准确标定出激光雷达和组合导航定位***间的相对位姿。
Description
技术领域
本发明实施例涉及计算机技术领域,尤其涉及一种相对位姿标定方法、装置、设备及介质。
背景技术
随着传感器技术及导航定位技术的发展,激光雷达和导航定位***(导航定位***又称组合导航)两者通常被用于高精地图制作方案中。
目前,在基于激光雷达和导航定位***制作高精地图的过程中,对激光雷达和导航定位***间6个自由度的外参即三个平移和三个旋转均有较严格的精度要求。但是因为无人驾驶汽车只能在一个地平面上行驶,因此激光雷达和导航定位***所采集的数据中均没有竖直方向的约束,从而造成目前常用的标定算法不能准确标定出激光雷达和导航定位***之间的相对位姿。
发明内容
本发明实施例提供一种相对位姿标定方法、装置、设备及介质,能够准确标定出激光雷达和导航定位***之间的相对位姿。
第一方面,本发明实施例提供了一种激光雷达与导航定位***间相对位姿标定方法,包括:
获取自动驾驶移动载体中激光雷达采集的场景的第一点云数据,以及自动驾驶移动载体中导航定位***采集的第一位姿数据;
依据所述第一点云数据、所述第一位姿数据,以及预先通过激光扫描仪和定位设备在所述场景中进行采集得到的第二点云数据和第二位姿数据,确定所述激光雷达和所述导航定位***之间的相对位姿。
第二方面,本发明实施例还提供了一种激光雷达与导航定位***间相对位姿标定装置,该装置包括:
数据获取模块,用于获取自动驾驶移动载体中激光雷达采集的场景的第一点云数据,以及自动驾驶移动载体中导航定位***采集的第一位姿数据;
相对位姿确定模块,用于依据所述第一点云数据、所述第一位姿数据,以及预先通过激光扫描仪和定位设备在所述场景中进行采集得到的第二点云数据和第二位姿数据,确定所述激光雷达和所述导航定位***之间的相对位姿。
第三方面,本发明实施例还提供了一种设备,该设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现第一方面中任意所述的激光雷达与导航定位***间相对位姿标定方法。
第四方面,本发明实施例还提供了一种介质,其上存储有计算机程序,该程序被处理器执行时实现第一方面中任意所述的激光雷达与导航定位***间相对位姿标定方法。
本发明实施例提供的相对位姿标定方法、装置、设备及介质,通过以激光扫描仪和定位设备在场景中进行采集得到的第二点云数据和第二位姿数据为基准,依据自动驾驶移动载体中激光雷达采集的相同场景的第一点云数据、自动驾驶移动载体中导航定位***采集的第一位姿数据与第二点云数据和第二位姿数据之间的对应关系,可以确定激光雷达和导航定位***之间的相对位姿。从而能够准确标定出激光雷达和导航定位***之间的相对位姿,为激光雷达和导航定位***之间相对位姿的标定提供了一种新思路。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1是本发明实施例一中的一种激光雷达与导航定位***间相对位姿标定方法的流程图;
图2是本发明实施例二中的一种激光雷达与导航定位***间相对位姿标定方法的流程图;
图3是本发明实施例三中的一种激光雷达与导航定位***间相对位姿标定方法的流程图;
图4是本发明实施例四中的一种激光雷达与导航定位***间相对位姿标定方法的流程图;
图5是本发明实施例五中的一种激光雷达与导航定位***间相对位姿标定装置的结构示意图;
图6是本发明实施例六中的一种设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本发明的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
实施例一
图1为本发明实施例一提供的一种激光雷达与导航定位***间相对位姿标定方法的流程图,本实施例适用于如何准确标定出激光雷达与导航定位***之间的相对位姿的情况。该方法可以由本发明实施例中的激光雷达与导航定位***间相对位姿标定装置来执行,该装置可采用软件和/或硬件的方式实现,该装置可配置于自动驾驶移动载体如自动驾驶车辆上。如图1所示,该方法具体包括如下步骤:
S110,获取自动驾驶移动载体中激光雷达采集的场景的第一点云数据,以及自动驾驶移动载体中导航定位***采集的第一位姿数据。
其中,自动驾驶移动载体是一种无人驾驶的移动设备,可以是自动驾驶车辆等。点云数据是指一组由包含三维坐标的点所组成的点集,可以用来表征一个物体的外表面形状。其中,每个点的三维空间几何位置信息可用(x,y,z)表示,除此之外点云数据还可以表示一个点的RGB颜色,灰度值,深度,分割结果等。本实施例中,第一点云数据是指由自动驾驶移动载体中激光雷达所采集的行驶道路场景的点云数据,可以包括道路上的物体如树木、灯及车辆等的点云数据、以及道路路面的点云数据等。
导航定位***是指由至少一个具有定位功能的单元或***等组合而成,例如,可以由惯性导航***(Inertial Navigation System,INS)、惯性测量单元(Inertialmeasurement unit,IMU)、全球定位***(Global Positioning System,GPS)和北斗卫星导航***(BeiDou Navigation Satellite System,BDS)中的至少一个组合而成。需要说明的是,由多个具有定位功能的单元或***等组合而成的导航定位***的定位精度相比于单独的定位单元或***更高。导航定位***可以采集物体的位置、姿态、速度、加速度等信息,而本实施例中,第一位姿数据是指由自动驾驶移动载体中导航定位***所采集的定位数据,可以包括位置和姿态即三个维度的平移和旋转量。
需要说明的是,由于激光雷达和导航定位***均设置于自动驾驶移动载体上,在激光雷达采集某一场景的点云数据的同时,导航定位***也会对相同的场景进行定位获取定位数据。也就是说,第一点云数据和第一位姿数据是同步采集的。因此,相同场景下,第一点云数据与第一位姿数据相关联,第一点云数据中的每个点云都有其对应的第一位姿数据。
具体的,当自动驾驶移动载体在某一道路上行驶的过程中,通过其上设置的激光雷达对该道路场景进行扫描,得到该道路场景的第一点云数据;同时通过其上设置的导航定位***采集该道路场景的第一位姿数据。
S120,依据第一点云数据、第一位姿数据,以及预先通过激光扫描仪和定位设备在场景中进行采集得到的第二点云数据和第二位姿数据,确定激光雷达和导航定位***之间的相对位姿。
其中,激光扫描仪是一种具有定位功能的高精度的激光扫描设备,如可以是Riegl激光扫描仪;定位设备是指用于采集物体定位数据的设备;本实施例中激光扫描仪可以通过特定的接口与定位设置刚性连接,也就是说激光扫描仪和定位设备之间的相对位姿是确定的。采用激光扫描仪和定位设备采集的数据作为基准,提前在与激光雷达采集第一点云数据的相同场景进行扫描得到第二点云数据和第二位姿数据。并且,相同场景下,第二点云数据与第二位姿数据相关联,第二点云数据中的每个点云都有其对应的第二位姿数据。
相对位姿可以包括z轴方向的相对高度差,还可以包括x和y轴方向的平移量和旋转角度。
具体的,可以以激光扫描仪采集的第二点云数据和定位设备采集的第二位姿数据为基准,依据预先确定的转换规则,将激光雷达采集的第一点云数据和导航定位***采集的第一位姿数据转换到相同的坐标系下,分别提取激光雷达和导航定位***在该坐标系下的位姿数据,依据激光雷达的高度和导航定位***的位姿数据得到两者的相对位姿,依据该相对位姿即可准确实现对激光雷达与导航定位***间相对位姿的标定。其中,转换规则可以包括不同坐标系之间的转换算法,还可以包括相同坐标系下不同点集之间的转换算法等。
本发明实施例提供的技术方案,通过以激光扫描仪和定位设备在场景中进行采集得到的第二点云数据和第二位姿数据为基准,依据自动驾驶移动载体中激光雷达采集的相同场景的第一点云数据、自动驾驶移动载体中导航定位***采集的第一位姿数据与第二点云数据和第二位姿数据之间的对应关系,可以确定激光雷达和导航定位***的相对位姿。从而能够准确标定出激光雷达和导航定位***之间的相对位姿,为激光雷达和导航定位***之间相对位姿的标定提供了一种新思路。
实施例二
图2为本发明实施例二中的一种激光雷达与导航定位***间相对位姿标定方法的流程图,本实施例以上述实施例为基础,提供了一种依据第一点云数据、第一位姿数据,以及预先通过激光扫描仪和定位设备在场景中进行采集得到的第二点云数据和第二位姿数据,确定激光雷达和导航定位***之间的相对位姿的方式。如图2所示,本实施例的方法具体包括如下步骤:
S210,获取自动驾驶移动载体中激光雷达采集的场景的第一点云数据,以及自动驾驶移动载体中导航定位***采集的第一位姿数据。
S220,依据激光雷达和导航定位***之间的相对位姿参数,导航定位***在全局坐标系中的第一位姿数据,以及激光扫描仪在全局坐标系中的第二位姿数据,将场景中空间点在激光雷达坐标系的第一点云数据转换到激光扫描仪坐标系下,得到场景中空间点在激光扫描仪坐标系下的第三点云数据。
其中,相对位姿参数是指用于描述相对位姿变化的变量;全局坐标系也称世界坐标系,是指***的绝对坐标系,在没有建立用户坐标系之前画面上所有点的坐标都是以该坐标系的原点来确定各自的位置的。此处的,第一位姿数据是将自动驾驶移动载体中的导航定位***采集的第一位姿数据转换到全局坐标系下得到的;对应的,将定位设备采集的第二位姿数据转换到全局坐标下可得到定位设备在全局坐标系中的第二位姿数据。由于激光扫描仪和定位设备之间刚性连接关系,因此可借助定位设备在全局坐标系中的第二位姿数据确定激光扫描仪在全局坐标系中的第二位姿数据。示例性的,激光扫描仪在全局坐标系中的第二位姿数据可通过如下方式确定:依据定位设备在场景中进行采集得到的在定位设备坐标系下的第二位姿数据,以及定位设备和激光扫描仪之间的相对位姿,确定激光扫描仪在全局坐标系中的第二位姿数据。
需要说明的是,激光雷达在场景中采集的点云数据,可以包括空间和时间等多种维度的信息,而时间维度在确定激光雷达和导航定位***间相对位姿场景下,影响比较小,可以忽略不计。因此,本实施例中只考虑场景中空间维度的信息。
具体的,由于激光扫描仪和定位设备之间的相对位姿确定,因此可以将激光雷达采集的第一点云数据转换到激光扫描仪坐标系下或定位设备坐标系下,借助确定量来计算激光雷达和导航点各位***的相对位姿。本实施例中将激光雷达采集的第一点云数据转换到激光扫描仪坐标系下,得到第三点云数据。具体的,可以依据激光雷达和导航定位***之间的相对位姿参数及导航定位***在全局坐标系中的第一位姿数据,得到激光雷达在全局坐标系中的第一点云数据;激光扫描仪在全局坐标系中的第二位姿数据,得到全局坐标系和激光扫描仪坐标系之间的转换关系;依据激光雷达在全局坐标系中的第一点云数据和激光扫描仪在全局坐标系中的第二位姿数据,得到激光雷达采集的场景中空间点的第一点云数据在激光扫描仪坐标系下的第三点云数据。
S230,对场景中空间点在激光扫描仪坐标系下的第三点云数据,与通过激光扫描仪在场景中进行采集得到的第二点云数据进行匹配,并依据匹配结果确定激光雷达和导航定位***之间的相对位姿。
具体的,可以将场景中空间点在激光扫描仪坐标系下的第三点云数据和激光扫描仪在场景中进行采集得到的第二点云数据用迭代最近点算法(Iterative ClosestPoints,ICP)算法或遗传迭代最近点算法(Genetic Iterative Closest Points,GICP)算法进行离线配准,在两者之间距离、距离均值或距离方差中任意一个最小的情况下,所确定的激光雷达和导航定位***之间的相对位姿参数的取值即为激光雷达和导航定位***之间的相对位姿。
例如,激光雷达和导航定位***之间的相对位姿参数为T,激光雷达在场景中采集的第一点云数据为X,导航定位***在全局坐标系中的第一位姿数据为P,激光扫描仪在全局坐标系中的第二位姿数据R,激光雷达采集的场景中空间点的第一点云数据在激光扫描仪坐标系下的第三点云数据为X/,可X/可以用数学表达式表示为:X/=R*P*T*X;采用ICP算法将X和X/进行迭代配准,在两者之间距离的最小时,求解得到的T为激光雷达和导航定位***之间的相对位姿。
本发明实施例提供的技术方案,通过以激光扫描仪和定位设备在场景中进行采集得到的第二点云数据和第二位姿数据为基准,依据自动驾驶移动载体中激光雷达采集的相同场景的第一点云数据、自动驾驶移动载体中导航定位***采集的第一位姿数据与第二点云数据和第二位姿数据之间的对应关系,可以确定激光雷达和导航定位***之间的相对位姿。从而能够准确标定出激光雷达和导航定位***之间的相对位姿,为激光雷达和导航定位***之间相对位姿的标定提供了一种新思路。
实施例三
图3为本发明实施例三中的一种激光雷达与导航定位***间相对位姿标定方法的流程图,本实施例以上述实施例为基础,进一步的对依据第一点云数据、第一位姿数据,以及预先通过激光扫描仪和定位设备在场景中进行采集得到的第二点云数据和第二位姿数据,确定激光雷达和导航定位***之间的相对位姿的方式进行详细的解释说明。如图3所示,本实施例的方法具体包括如下步骤:
S310,获取自动驾驶移动载体中激光雷达采集的场景的第一点云数据,以及自动驾驶移动载体中导航定位***采集的第一位姿数据。
S320,依据激光雷达和导航定位***之间的相对位姿参数,导航定位***在全局坐标系中的第一位姿数据,以及激光扫描仪在全局坐标系中的第二位姿数据,将场景中空间点在激光雷达坐标系的第一点云数据转换到激光扫描仪坐标系下,得到场景中空间点在激光扫描仪坐标系下的第三点云数据。
S330,依据在不同时刻场景中各空间点的第三点云数据和第二点云数据之间的匹配关系,构建匹配能量函数。
其中,匹配能量函数能够用于表征第三点云数据和第二点云数据之间的距离均值。
具体的,可以采用ICP或GICP算法,对不同时刻场景中各空间点的第三点云数据和第二点云数据进行配准,从而构建第三点云数据和第二点云数据之间距离的匹配误差函数,基于匹配误差函数求解均值得到匹配能量函数。
S340,对匹配能量函数做最小化处理,以确定激光雷达和导航定位***之间的相对位姿。
其中,最小化处理是指求解匹配能量函数,使之取最小值的处理方式。例如可以采用最小二乘法或求取极限等方式来进行最小化处理,本实施例中对匹配能量函数做最小化处理的方式不限,只要能够使匹配能量函数取得最小值即可。
具体的,可以对匹配能量函数做最小二乘法或求取极限等最小化处理方式进行处理,在匹配能量函数取最小值时,激光雷达和导航定位***之间的相对位姿参数的取值即为激光雷达和导航定位***之间的相对位姿。
本发明实施例提供的技术方案,通过以激光扫描仪和定位设备在场景中进行采集得到的第二点云数据和第二位姿数据为基准,依据自动驾驶移动载体中激光雷达采集的相同场景的第一点云数据、自动驾驶移动载体中导航定位***采集的第一位姿数据与第二点云数据和第二位姿数据之间的对应关系,可以确定激光雷达和导航定位***之间的相对位姿。从而能够准确标定出激光雷达和导航定位***之间的相对位姿,为激光雷达和导航定位***之间相对位姿的标定提供了一种新思路。
若需要获取激光雷达和导航定位***之间的相对位姿中的相对高度差,示例性的,对场景中空间点在激光扫描仪坐标系下的第三点云数据,与通过激光扫描仪在场景中进行采集得到的第二点云数据进行匹配,并依据匹配结果确定所述激光雷达和所述导航定位***之间的相对位姿还可以包括:
A、对场景中空间点在激光扫描仪坐标系下的第三点云数据,与通过激光扫描仪在所述场景中进行采集得到的第二点云数据进行匹配,确定第三点云数据和第二点云数据的重合点集。
其中,第三点云数据和第二点云数据的重合点集是指第三点云数据和第二点云数据之间相同部分组成的点集,可以是两者的交集;具体的,可以根据特征点匹配来确定第三点云数据和第二点云数据之间的重合点集。
由于点云数据包括场景中激光所能扫描到的所有物体的点云数据,为了减少计算量,可以选择场景中任一位置固定且具有代表性的物体如路面来标定确定激光雷达和导航定位***的高度差。优选的,本实施例中将场景中路面对应的第三点云数据和第二点云数据的重合点集作为场景的第三点云数据和第二点云数据的重合点集。
B、依据重合点集关联的第一位姿数据和所述重合点集关联的第二位姿数据,确定激光雷达与导航定位***之间的高度差。
具体的,可以依据重合点集关联的第一位姿数据和第二位姿数据,分别将重合点集通过第一位姿数据和第二位姿数据转换到相同的坐标系下,分别提取激光雷达和导航定位***在该坐标系下的高度即z值,依据激光雷达的高度和导航定位***的高度得到两者的高度差,依据该高度差即可准确实现对激光雷达与导航定位***间高度的标定。
实施例四
图4为本发明实施例四中的一种激光雷达与导航定位***间相对位姿标定方法的流程图,本实施例以上述实施例为基础,对依据第一点云数据、第一位姿数据,以及预先通过激光扫描仪和定位设备在场景中进行采集得到的第二点云数据和第二位姿数据,确定激光雷达和导航定位***之间的相对位姿进行解释说明,本实施例中给出了一种基于重合点集来确定激光雷达和导航定位***之间相对位姿中相对高度差的确定方式。如图4所示,本实施例的方法具体包括如下步骤:
S410,获取自动驾驶移动载体中激光雷达采集的场景的第一点云数据,以及自动驾驶移动载体中导航定位***采集的第一位姿数据。
S420,依据激光雷达和导航定位***之间的相对位姿参数,导航定位***在全局坐标系中的第一位姿数据,以及激光扫描仪在全局坐标系中的第二位姿数据,将场景中空间点在激光雷达坐标系的第一点云数据转换到激光扫描仪坐标系下,得到场景中空间点在激光扫描仪坐标系下的第三点云数据。
S430,对第三点云数据进行三维场景重建得到第一场景图像,从第一场景图像中分割得到第一路面。
其中,三维场景重建是指对第三点云数据进行点云融合,重现道路场景的画面;其中,可以采用ICP算法进行点云数据的融合;还可以基于实时定位数据如GPS数据进行点云数据的融合。第一场景图像是指依据激光雷达采集的第一点云数据在激光扫描仪下的第三点云数据进行三维场景重建得到的三维场景图像即三维点云图。
第一路面在三维场景中也可以称为第一路面点云,是由路面中的点云数据形成的。示例性的,可以通过如下方式得到第一路面:1)依据第一场景图像及第三点云数据等确定点云分割阈值,依据点云分割阈值对第一场景图像进行分割,从第三点云数据中去除路面之外的其它道路场景中的点云数据如场景中的树木、灯及车辆等点云数据,得到第一路面;2)采用建模的方式对第一场景图像进行分割得到路面,如可以采用高斯混合背景模型直接从第一场景图像中提取得到;3)也可以采用其它的算法,如RANSAC算法(RANdomSAmple Consensus,随机抽样一致性)对第一场景图像进行分割得到第一路面。
具体的,依据采集的第三点云数据及实际道路信息等,采用ICP算法进行点云数据融合,第一场景图像;依据第一场景图像及第三点云数据等确定点云分割阈值,依据点云分割阈值对第一场景图像进行分割,从第三点云数据中去除路面之外的其它道路场景中的点云数据如场景中的树木、灯及车辆等点云数据,得到第一路面。
S440,对第二点云数据进行三维场景重建得到第二场景图像,从第二场景图像中分割得到第二路面。
其中,第二场景图像是指依据激光扫描仪采集的第二点云数据进行三维场景重建得到的三维场景图像。需要说明的是,由于第一场景图像和第二场景图像是依据不同的激光扫描设备对相同场景采集的点云数据进行三维重建得到的,且不同的激光扫描设备的精度不同,因此第一场景图像和第二场景图像两者之间可能存在不同的部分,也可能两者相同。
第二路面在三维场景中也可以称为第二路面点云,是对第二场景图像进行分割得到的;具体的,可以采用与上述步骤S430相同的实现方式得到第二路面。
具体的,依据采集的第二点云数据及实际道路信息等,采用ICP算法进行点云数据融合,第二场景图像;依据第二场景图像及第二点云数据等确定点云分割阈值,依据点云分割阈值对第二场景图像进行分割,从第二点云数据中去除路面之外的其它道路场景中的点云数据如场景中的树木、灯及车辆等点云数据,得到第二路面。
S450,确定第一路面和第二路面的重合点集,作为第三点云数据和第二点云数据的重合点集。
其中,第一路面和第二路面的重合点集是指将第一路面和第二路面进行匹配得到的重合区域所对应的点云数据的集合。
具体的,将第一路面和第二路面进行特征匹配,依据特征匹配关系,确定第一路面和第二路面的重合区域,将重合区域所对应的点云数据的集合作为第一路面和第二路面的重合点集。为了减少计算量,可以将该重合点集作为第三点云数据和第二点云数据的重合点集。
S460,依据重合点集关联的第一位姿数据和重合点集关联的第二位姿数据,确定激光雷达与导航定位***之间的高度差。
其中,第一数据是导航定位***在全局坐标系中的第一位姿数据;第二位姿数据是激光扫描仪在全局坐标系中的第二位姿数据。
具体的,可以依据重合点集确定与重合点集关联的第二位姿数据;依据激光扫描仪在全局坐标系中的第二位姿数据,得到激光扫描仪坐标系与全局坐标系之间的转换关系;依据该转换关系将重合点转换到全局坐标系下,在该坐标系下提取z值即为激光雷达的高度。依据重合点集确定与重合点集关联的第一位姿数据,在全局坐标系下提取z值即为导航定位***的高度。
也可以依据重合点集确定与重合点集关联的第一位姿数据;依据激光扫描仪在全局坐标系中的第二位姿数据,得到激光扫描仪坐标系与全局坐标系之间的转换关系;依据该转换关系将重合点集关联的第一位姿数据转换到激光扫描仪坐标系下,在该坐标系下提取z值即为导航定位***的高度。由于重合点集是激光雷达和激光扫描仪在激光扫描仪下的重合点集,因此,依据重合点,在激光扫描仪坐标系下提取z值即为激光雷达的高度。
采用激光雷达在全局坐标系下的高度与导航定位***在全局坐标系下的高度作差,将差值作为激光雷达与导航定位***之间的高度差,即激光雷达和导航定位***对于同一路面的高度的相对差值。
本发明实施例提供的技术方案,通过分别对自动驾驶移动载体中的激光雷达采集的第一点云数据在激光扫描仪坐标系下的第三点云数据和激光扫描仪对相同场景采集的第二点云数据进行三维场景重建,得到第一场景图像和第二场景图像,并分别依据第一场景图像和第二场景图像确定第一路面和第二路面;依据第一路面和第二路面的重合点集可确定第三点云数据和第二点云数据的重合点集;依据重合点集关联的第一位姿数据和第二位姿数据,分别将重合点集通过第一位姿数据和第二位姿数据转换到相同的坐标系下,分别提取激光雷达和导航定位***在该坐标系下的高度,依据激光雷达的高度和导航定位***的高度得到两者的高度差,依据该高度差即可准确实现对激光雷达与导航定位***间高度的标定。该方案为激光雷达和导航定位***之间高度的标定提供了一种新思路。
实施例五
图5为本发明实施例五提供的一种激光雷达与导航定位***间相对位姿标定装置的结构示意图。该装置可执行本发明任意实施例所提供的激光雷达与导航定位***间相对位姿标定方法,具备执行方法相应的功能模块和有益效果。如图5所示,该装置具体包括:数据获取模块510和相对位姿确定模块520。
其中,数据获取模块510,用于获取自动驾驶移动载体中激光雷达采集的场景的第一点云数据,以及自动驾驶移动载体中导航定位***采集的第一位姿数据;
相对位姿确定模块520,用于依据第一点云数据、第一位姿数据,以及预先通过激光扫描仪和定位设备在场景中进行采集得到的第二点云数据和第二位姿数据,确定激光雷达和导航定位***之间的相对位姿。
本发明实施例提供的技术方案,通过以激光扫描仪和定位设备在场景中进行采集得到的第二点云数据和第二位姿数据为基准,依据自动驾驶移动载体中激光雷达采集的相同场景的第一点云数据、自动驾驶移动载体中导航定位***采集的第一位姿数据与第二点云数据和第二位姿数据之间的对应关系,可以确定激光雷达和导航定位***的相对位姿。从而能够准确标定出激光雷达和导航定位***之间的相对位姿,为激光雷达和导航定位***之间相对位姿的标定提供了一种新思路。
示例性的,相对位姿确定模块520可以包括:
第三点云确定单元,用于依据激光雷达和导航定位***之间的相对位姿参数,导航定位***在全局坐标系中的第一位姿数据,以及激光扫描仪在全局坐标系中的第二位姿数据,将场景中空间点在激光雷达坐标系的第一点云数据转换到激光扫描仪坐标系下,得到场景中空间点在激光扫描仪坐标系下的第三点云数据;
相对位姿确定单元,用于对场景中空间点在激光扫描仪坐标系下的第三点云数据,与通过激光扫描仪在所述场景中进行采集得到的第二点云数据进行匹配,并依据匹配结果确定激光雷达和导航定位***之间的相对位姿。
示例性的,相对位姿确定单元具体用于:
依据在不同时刻场景中各空间点的第三点云数据和第二点云数据之间的匹配关系,构建匹配能量函数;
对匹配能量函数做最小化处理,以确定激光雷达和导航定位***之间的相对位姿。
示例性的,上述装置还可以包括:
第二位姿确定模块,用于依据定位设备在场景中进行采集得到的在定位设备坐标系下的第二位姿数据,以及定位设备和激光扫描仪之间的相对位姿,确定激光扫描仪在全局坐标系中的第二位姿数据。
示例性的,相对位姿确定单元可以包括:
重合点确定子单元,用于对场景中空间点在激光扫描仪坐标系下的第三点云数据,与通过激光扫描仪在所述场景中进行采集得到的第二点云数据进行匹配,确定第三点云数据和第二点云数据的重合点集;
高度差确子单元,用于依据重合点集关联的第一位姿数据和重合点集关联的第二位姿数据,确定激光雷达与导航定位***之间的高度差。
示例性的,重合点集确定子单元具体用于:
对第三点云数据进行三维场景重建得到第一场景图像,从第一场景图像中分割得到第一路面;
对第二点云数据进行三维场景重建得到第二场景图像,从第二场景图像中分割得到第二路面;
确定第一路面和第二路面的重合点集,作为第三点云数据和第二点云数据的重合点集。
实施例六
图6为本发明实施例六中的一种设备的结构示意图。图6示出了适于用来实现本发明实施方式的示例性设备12的框图。图6显示的设备12仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图6所示,设备12以通用计算设备的形式表现。设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,***存储器28,连接不同***组件(包括***存储器28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,***总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及***组件互连(PCI)总线。
设备12典型地包括多种计算机***可读介质。这些介质可以是任何能够被设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
***存储器28可以包括易失性存储器形式的计算机***可读介质,例如随机存取存储器(RAM)30和/或高速缓存存储器32。设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机***存储介质。仅作为举例,存储***34可以用于读写不可移动的、非易失性磁介质(图6未显示,通常称为“硬盘驱动器”)。尽管图6中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。***存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如***存储器28中,这样的程序模块42包括——但不限于——操作***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明所描述的实施例中的功能和/或方法。
设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该设备12交互的设备通信,和/或与使得该设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。另外,本实施例中的设备12,显示器24不是作为独立个体存在,而是嵌入镜面中,在显示器24的显示面不予显示时,显示器24的显示面与镜面从视觉上融为一体。并且,设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器20通过总线18与设备12的其它模块通信。应当明白,尽管图中未示出,可以结合设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID***、磁带驱动器以及数据备份存储***等。
处理单元16通过运行存储在***存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的激光雷达与导航定位***间相对位姿标定方法。
实施例七
本发明实施例七提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本申请所有发明实施例提供的激光雷达与导航定位***间相对位姿标定方法。
可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (12)
1.一种激光雷达与导航定位***间相对位姿标定方法,其特征在于,包括:
获取自动驾驶移动载体中激光雷达采集的场景的第一点云数据,以及自动驾驶移动载体中导航定位***采集的第一位姿数据;
依据所述第一点云数据、所述第一位姿数据,以及预先通过激光扫描仪和定位设备在所述场景中进行采集得到的第二点云数据和第二位姿数据,确定所述激光雷达和所述导航定位***之间的相对位姿;其中,依据所述第一点云数据、所述第一位姿数据,以及预先通过激光扫描仪和定位设备在所述场景中进行采集得到的第二点云数据和第二位姿数据,确定所述激光雷达和所述导航定位***之间的相对位姿,包括:依据激光雷达和导航定位***之间的相对位姿参数,导航定位***在全局坐标系中的第一位姿数据,以及激光扫描仪在全局坐标系中的第二位姿数据,将场景中空间点在激光雷达坐标系的第一点云数据转换到激光扫描仪坐标系下,得到场景中空间点在激光扫描仪坐标系下的第三点云数据;对场景中空间点在激光扫描仪坐标系下的第三点云数据,与通过激光扫描仪在所述场景中进行采集得到的第二点云数据进行匹配,并依据匹配结果确定所述激光雷达和所述导航定位***之间的相对位姿。
2.根据权利要求1所述的方法,其特征在于,对场景中空间点在激光扫描仪坐标系下的第三点云数据,与通过激光扫描仪在所述场景中进行采集得到的第二点云数据进行匹配,并依据匹配结果确定所述激光雷达和所述导航定位***之间的相对位姿,包括:
依据在不同时刻场景中各空间点的第三点云数据和第二点云数据之间的匹配关系,构建匹配能量函数;
对所述匹配能量函数做最小化处理,以确定所述激光雷达和所述导航定位***之间的相对位姿。
3.根据权利要求1所述的方法,其特征在于,所述激光扫描仪在全局坐标系中的第二位姿数据通过如下方式确定:
依据定位设备在场景中进行采集得到的在定位设备坐标系下的第二位姿数据,以及定位设备和激光扫描仪之间的相对位姿,确定激光扫描仪在全局坐标系中的第二位姿数据。
4.根据权利要求1所述的方法,其特征在于,对场景中空间点在激光扫描仪坐标系下的第三点云数据,与通过激光扫描仪在所述场景中进行采集得到的第二点云数据进行匹配,并依据匹配结果确定所述激光雷达和所述导航定位***之间的相对位姿,包括:
对场景中空间点在激光扫描仪坐标系下的第三点云数据,与通过激光扫描仪在所述场景中进行采集得到的第二点云数据进行匹配,确定第三点云数据和第二点云数据的重合点集;
依据所述重合点集关联的第一位姿数据和所述重合点集关联的第二位姿数据,确定所述激光雷达与所述导航定位***之间的高度差。
5.根据权利要求4所述的方法,其特征在于,对场景中空间点在激光扫描仪坐标系下的第三点云数据,与通过激光扫描仪在所述场景中进行采集得到的第二点云数据进行匹配,确定第三点云数据和第二点云数据的重合点集,包括:
对第三点云数据进行三维场景重建得到第一场景图像,从第一场景图像中分割得到第一路面;
对第二点云数据进行三维场景重建得到第二场景图像,从第二场景图像中分割得到第二路面;
确定第一路面和第二路面的重合点集,作为第三点云数据和第二点云数据的重合点集。
6.一种激光雷达与导航定位***间相对位姿标定装置,其特征在于,包括:
数据获取模块,用于获取自动驾驶移动载体中激光雷达采集的场景的第一点云数据,以及自动驾驶移动载体中导航定位***采集的第一位姿数据;
相对位姿确定模块,用于依据所述第一点云数据、所述第一位姿数据,以及预先通过激光扫描仪和定位设备在所述场景中进行采集得到的第二点云数据和第二位姿数据,确定所述激光雷达和所述导航定位***之间的相对位姿;其中,所述相对位姿确定模块包括:第三点云确定单元,用于依据激光雷达和导航定位***之间的相对位姿参数,导航定位***在全局坐标系中的第一位姿数据,以及激光扫描仪在全局坐标系中的第二位姿数据,将场景中空间点在激光雷达坐标系的第一点云数据转换到激光扫描仪坐标系下,得到场景中空间点在激光扫描仪坐标系下的第三点云数据;相对位姿确定单元,用于对场景中空间点在激光扫描仪坐标系下的第三点云数据,与通过激光扫描仪在所述场景中进行采集得到的第二点云数据进行匹配,并依据匹配结果确定所述激光雷达和所述导航定位***之间的相对位姿。
7.根据权利要求6所述的装置,其特征在于,所述相对位姿确定单元具体用于:
依据在不同时刻场景中各空间点的第三点云数据和第二点云数据之间的匹配关系,构建匹配能量函数;
对所述匹配能量函数做最小化处理,以确定所述激光雷达和所述导航定位***之间的相对位姿。
8.根据权利要求6所述的装置,其特征在于,还包括:
第二位姿确定模块,用于依据定位设备在场景中进行采集得到的在定位设备坐标系下的第二位姿数据,以及定位设备和激光扫描仪之间的相对位姿,确定激光扫描仪在全局坐标系中的第二位姿数据。
9.根据权利要求6所述的装置,其特征在于,所述相对位姿确定单元包括:
重合点确定子单元,用于对场景中空间点在激光扫描仪坐标系下的第三点云数据,与通过激光扫描仪在所述场景中进行采集得到的第二点云数据进行匹配,确定第三点云数据和第二点云数据的重合点集;
高度差确子单元,用于依据所述重合点集关联的第一位姿数据和所述重合点集关联的第二位姿数据,确定所述激光雷达与所述导航定位***之间的高度差。
10.根据权利要求9所述的装置,其特征在于,所述重合点确定子单元具体用于:
对第三点云数据进行三维场景重建得到第一场景图像,从第一场景图像中分割得到第一路面;
对第二点云数据进行三维场景重建得到第二场景图像,从第二场景图像中分割得到第二路面;
确定第一路面和第二路面的重合点集,作为第三点云数据和第二点云数据的重合点集。
11.一种设备,其特征在于,所述设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-5中任一所述的激光雷达与导航定位***间相对位姿标定方法。
12.一种介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-5中任一所述的激光雷达与导航定位***间相对位姿标定方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811133716.3A CN109297510B (zh) | 2018-09-27 | 2018-09-27 | 相对位姿标定方法、装置、设备及介质 |
US16/582,754 US11480443B2 (en) | 2018-09-27 | 2019-09-25 | Method for calibrating relative pose, device and medium |
EP19200075.0A EP3629057B1 (en) | 2018-09-27 | 2019-09-27 | Method and apparatus for calibrating relative pose and medium |
JP2019177449A JP6918885B2 (ja) | 2018-09-27 | 2019-09-27 | 相対的位置姿勢の標定方法、相対的位置姿勢の標定装置、機器及び媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811133716.3A CN109297510B (zh) | 2018-09-27 | 2018-09-27 | 相对位姿标定方法、装置、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109297510A CN109297510A (zh) | 2019-02-01 |
CN109297510B true CN109297510B (zh) | 2021-01-01 |
Family
ID=65164809
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811133716.3A Active CN109297510B (zh) | 2018-09-27 | 2018-09-27 | 相对位姿标定方法、装置、设备及介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11480443B2 (zh) |
EP (1) | EP3629057B1 (zh) |
JP (1) | JP6918885B2 (zh) |
CN (1) | CN109297510B (zh) |
Families Citing this family (66)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109856990B (zh) * | 2019-01-17 | 2021-09-03 | 同济大学 | 一种gnss/ins组合导航控制器的在环仿真*** |
CN109668742B (zh) * | 2019-02-20 | 2020-04-28 | 苏州风图智能科技有限公司 | 基于激光雷达的无人车辆的测试方法及装置 |
CN111678533A (zh) * | 2019-03-11 | 2020-09-18 | 武汉小狮科技有限公司 | 一种惯性导航设备与激光雷达的标定方法 |
CN110082779A (zh) * | 2019-03-19 | 2019-08-02 | 同济大学 | 一种基于3d激光雷达的车辆位姿定位方法及*** |
CN110007300B (zh) * | 2019-03-28 | 2021-08-06 | 东软睿驰汽车技术(沈阳)有限公司 | 一种得到点云数据的方法及装置 |
CN110223223A (zh) * | 2019-04-28 | 2019-09-10 | 北京清城同衡智慧园高新技术研究院有限公司 | 街道扫描方法、装置及扫描仪 |
CN110109143B (zh) * | 2019-04-30 | 2021-10-26 | 北京云迹科技有限公司 | 多线激光雷达与imu的位姿标定方法及装置 |
CN110109146B (zh) * | 2019-04-30 | 2021-05-14 | 北京云迹科技有限公司 | 基于多线激光雷达的路面检测方法及装置 |
CN110095752B (zh) * | 2019-05-07 | 2021-08-10 | 百度在线网络技术(北京)有限公司 | 定位方法、装置、设备和介质 |
CN111699410B (zh) * | 2019-05-29 | 2024-06-07 | 深圳市卓驭科技有限公司 | 点云的处理方法、设备和计算机可读存储介质 |
CN110221276B (zh) * | 2019-05-31 | 2023-09-29 | 文远知行有限公司 | 激光雷达的标定方法、装置、计算机设备和存储介质 |
CN110246167A (zh) * | 2019-06-14 | 2019-09-17 | 北京百度网讯科技有限公司 | 用于处理点云数据的方法和装置 |
CN110501712B (zh) * | 2019-09-05 | 2022-06-28 | 北京百度网讯科技有限公司 | 无人驾驶中用于确定位置姿态数据的方法、装置和设备 |
EP3819673A4 (en) * | 2019-09-12 | 2021-07-21 | Huawei Technologies Co., Ltd. | POSITIONING METHOD, DEVICE AND SYSTEM |
CN110673115B (zh) * | 2019-09-25 | 2021-11-23 | 杭州飞步科技有限公司 | 雷达与组合导航***的联合标定方法、装置、设备及介质 |
CN110728693B (zh) * | 2019-09-27 | 2022-12-23 | 上海维智卓新信息科技有限公司 | 大规模行车路面三维点云的生成方法及*** |
CN110686704A (zh) * | 2019-10-18 | 2020-01-14 | 深圳市镭神智能***有限公司 | 激光雷达与组合惯导的位姿标定方法、***及介质 |
CN110780285B (zh) * | 2019-10-24 | 2022-10-18 | 深圳市镭神智能***有限公司 | 激光雷达与组合惯导的位姿标定方法、***及介质 |
CN112904395B (zh) * | 2019-12-03 | 2022-11-25 | 青岛慧拓智能机器有限公司 | 一种矿用车辆定位***及方法 |
CN110849363B (zh) * | 2019-12-03 | 2021-09-21 | 深圳市镭神智能***有限公司 | 激光雷达与组合惯导的位姿标定方法、***及介质 |
CN110988848B (zh) * | 2019-12-23 | 2022-04-26 | 潍柴动力股份有限公司 | 车载激光雷达相对位姿监测方法及设备 |
CN110988849B (zh) * | 2019-12-25 | 2022-07-08 | 北京万集科技股份有限公司 | 雷达***的标定方法、装置、电子设备及存储介质 |
CN111442722B (zh) * | 2020-03-26 | 2022-05-17 | 达闼机器人股份有限公司 | 定位方法、装置、存储介质及电子设备 |
CN111443713B (zh) * | 2020-04-14 | 2023-07-18 | 三一机器人科技有限公司 | 融合定位导航***和方法 |
WO2021207999A1 (zh) * | 2020-04-16 | 2021-10-21 | 华为技术有限公司 | 车辆定位的方法和装置、定位图层生成的方法和装置 |
CN113870343B (zh) * | 2020-06-30 | 2024-05-28 | 长沙智能驾驶研究院有限公司 | 相对位姿标定方法、装置、计算机设备和存储介质 |
CN112835085B (zh) * | 2020-07-09 | 2022-04-12 | 北京京东乾石科技有限公司 | 确定车辆位置的方法和装置 |
CN114002687A (zh) * | 2020-07-14 | 2022-02-01 | 北醒(北京)光子科技有限公司 | 一种基于激光雷达的探测方法 |
CN111812668B (zh) * | 2020-07-16 | 2023-04-14 | 南京航空航天大学 | 绕机检查装置及其定位方法、存储介质 |
CN114063091A (zh) * | 2020-07-30 | 2022-02-18 | 北京四维图新科技股份有限公司 | 高精度的定位方法及产品 |
CN111965624B (zh) * | 2020-08-06 | 2024-04-09 | 阿波罗智联(北京)科技有限公司 | 激光雷达与相机的标定方法、装置、设备和可读存储介质 |
CN112344933B (zh) * | 2020-08-21 | 2023-04-07 | 北京京东乾石科技有限公司 | 一种信息生成的方法、装置和存储介质 |
CN112034438B (zh) * | 2020-08-27 | 2024-04-09 | 江苏智能网联汽车创新中心有限公司 | 一种雷达标定方法、装置、电子设备及存储介质 |
CN112051591B (zh) * | 2020-08-31 | 2022-11-29 | 广州文远知行科技有限公司 | 一种激光雷达与惯性测量单元的检测方法及相关装置 |
CN112230241B (zh) * | 2020-10-23 | 2021-07-20 | 湖北亿咖通科技有限公司 | 基于随机扫描型雷达的标定方法 |
CN112308928B (zh) * | 2020-10-27 | 2022-11-15 | 北京航空航天大学 | 一种无标定装置的相机与激光雷达自动标定方法 |
CN112305521B (zh) * | 2020-11-03 | 2021-11-30 | 福勤智能科技(昆山)有限公司 | 双激光雷达相对位置标定方法、装置、设备和存储介质 |
CN112558087B (zh) * | 2020-11-20 | 2023-06-23 | 东风汽车集团有限公司 | 一种自动驾驶车辆的定位***及方法 |
CN112365542A (zh) * | 2020-11-26 | 2021-02-12 | 上海禾赛科技股份有限公司 | 位姿标定方法及位姿标定设备、自动控制*** |
CN112362054B (zh) * | 2020-11-30 | 2022-12-16 | 上海商汤临港智能科技有限公司 | 一种标定方法、装置、电子设备及存储介质 |
CN112465908B (zh) * | 2020-11-30 | 2023-09-22 | 深圳市优必选科技股份有限公司 | 一种物体定位方法、装置、终端设备及存储介质 |
CN112731354B (zh) * | 2020-12-24 | 2024-04-05 | 芜湖哈特机器人产业技术研究院有限公司 | Agv上激光雷达位姿的自标定方法 |
WO2022141911A1 (zh) * | 2021-01-01 | 2022-07-07 | 杜豫川 | 一种基于路侧感知单元的动态目标点云快速识别及点云分割方法 |
CN113009505A (zh) * | 2021-02-01 | 2021-06-22 | 武汉珞珈新空科技有限公司 | 机载激光雷达数据采集设备、***及无人机飞行器 |
CN113034593B (zh) * | 2021-03-09 | 2023-12-12 | 深圳市广宁股份有限公司 | 6d位姿标注方法、***及存储介质 |
CN112799096B (zh) * | 2021-04-08 | 2021-07-13 | 西南交通大学 | 基于低成本车载二维激光雷达的地图构建方法 |
CN113295142B (zh) * | 2021-05-14 | 2023-02-21 | 上海大学 | 一种基于faro扫描仪和点云的地形扫描分析方法和装置 |
CN113495281B (zh) * | 2021-06-21 | 2023-08-22 | 杭州飞步科技有限公司 | 可移动平台的实时定位方法及装置 |
CN113534110B (zh) * | 2021-06-24 | 2023-11-24 | 香港理工大学深圳研究院 | 一种多激光雷达***静态标定方法 |
CN113554759B (zh) * | 2021-07-26 | 2024-05-14 | 河南德拓信息科技有限公司 | 一种煤炭运输遗撒智能监测分析方法、装置和设备 |
CN113759390B (zh) * | 2021-07-27 | 2023-07-14 | 华能伊敏煤电有限责任公司 | 基于自动驾驶矿卡车辆中虚拟激光雷达技术的应用方法 |
CN113721248B (zh) * | 2021-08-30 | 2024-05-14 | 浙江吉利控股集团有限公司 | 一种基于多源异构传感器的融合定位方法及*** |
CN113759349B (zh) * | 2021-09-22 | 2022-10-04 | 阿波罗智能技术(北京)有限公司 | 激光雷达与定位设备的标定方法、设备及自动驾驶车辆 |
CN113848541B (zh) * | 2021-09-22 | 2022-08-26 | 深圳市镭神智能***有限公司 | 一种标定的方法、装置、无人机及计算机可读存储介质 |
CN113985429A (zh) * | 2021-09-23 | 2022-01-28 | 天津大学 | 基于三维激光雷达的无人机环境扫描与重构方法 |
CN114018236B (zh) * | 2021-09-30 | 2023-11-03 | 哈尔滨工程大学 | 一种基于自适应因子图的激光视觉强耦合slam方法 |
CN114152201B (zh) * | 2021-11-04 | 2023-10-17 | 深圳橙子自动化有限公司 | 激光测高仪标定方法和装置、电子设备及存储介质 |
CN114166219B (zh) * | 2021-12-01 | 2024-06-14 | 珠海一微半导体股份有限公司 | 一种校正惯导误差的方法、芯片及机器人 |
CN114419564B (zh) * | 2021-12-24 | 2023-09-01 | 北京百度网讯科技有限公司 | 车辆位姿检测方法、装置、设备、介质及自动驾驶车辆 |
CN114279468B (zh) * | 2021-12-31 | 2022-06-14 | 北京理工大学 | 一种基于统计分析的毫米波雷达与视觉相机动态标定方法 |
CN115082570B (zh) * | 2022-07-01 | 2024-03-19 | 中国科学院宁波材料技术与工程研究所 | 一种激光雷达与全景相机的标定方法 |
CN114994648B (zh) * | 2022-08-05 | 2022-11-08 | 聚时科技(深圳)有限公司 | 一种直线运动机构上2d激光雷达的外参标定方法 |
CN115435773B (zh) * | 2022-09-05 | 2024-04-05 | 北京远见知行科技有限公司 | 室内停车场高精度地图采集装置 |
CN115712298B (zh) * | 2022-10-25 | 2023-05-09 | 太原理工大学 | 基于单线激光雷达的机器人在通道中行驶的自主导航方法 |
CN115494484A (zh) * | 2022-10-26 | 2022-12-20 | 上海擎朗智能科技有限公司 | 机器人传感器***自检的方法及机器人 |
CN116973895B (zh) * | 2023-09-22 | 2023-12-12 | 山东科技大学 | 一种激光点云匹配的实时位姿校正方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4486737B2 (ja) | 2000-07-14 | 2010-06-23 | アジア航測株式会社 | モービルマッピング用空間情報生成装置 |
GB201116961D0 (en) | 2011-09-30 | 2011-11-16 | Bae Systems Plc | Fast calibration for lidars |
GB2507560A (en) * | 2012-11-05 | 2014-05-07 | Univ Oxford | Extrinsic calibration of mobile camera and lidar |
US9523772B2 (en) * | 2013-06-14 | 2016-12-20 | Microsoft Technology Licensing, Llc | Object removal using lidar-based classification |
US9476730B2 (en) | 2014-03-18 | 2016-10-25 | Sri International | Real-time system for multi-modal 3D geospatial mapping, object recognition, scene annotation and analytics |
US9286538B1 (en) * | 2014-05-01 | 2016-03-15 | Hrl Laboratories, Llc | Adaptive 3D to 2D projection for different height slices and extraction of robust morphological features for 3D object recognition |
JP6442193B2 (ja) | 2014-08-26 | 2018-12-19 | 株式会社トプコン | 点群位置データ処理装置、点群位置データ処理システム、点群位置データ処理方法およびプログラム |
CN105953798B (zh) * | 2016-04-19 | 2018-09-18 | 深圳市神州云海智能科技有限公司 | 移动机器人的位姿确定方法和设备 |
CN106405555B (zh) * | 2016-09-23 | 2019-01-01 | 百度在线网络技术(北京)有限公司 | 用于车载雷达***的障碍物检测方法和装置 |
CN106918830A (zh) * | 2017-03-23 | 2017-07-04 | 安科机器人有限公司 | 一种基于多导航模块的定位方法及移动机器人 |
CN109214248B (zh) * | 2017-07-04 | 2022-04-29 | 阿波罗智能技术(北京)有限公司 | 用于识别无人驾驶车辆的激光点云数据的方法和装置 |
US10509413B2 (en) | 2017-09-07 | 2019-12-17 | GM Global Technology Operations LLC | Ground reference determination for autonomous vehicle operations |
CN108337915A (zh) * | 2017-12-29 | 2018-07-27 | 深圳前海达闼云端智能科技有限公司 | 三维建图方法、装置、***、云端平台、电子设备和计算机程序产品 |
WO2019127445A1 (zh) * | 2017-12-29 | 2019-07-04 | 深圳前海达闼云端智能科技有限公司 | 三维建图方法、装置、***、云端平台、电子设备和计算机程序产品 |
-
2018
- 2018-09-27 CN CN201811133716.3A patent/CN109297510B/zh active Active
-
2019
- 2019-09-25 US US16/582,754 patent/US11480443B2/en active Active
- 2019-09-27 JP JP2019177449A patent/JP6918885B2/ja active Active
- 2019-09-27 EP EP19200075.0A patent/EP3629057B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP6918885B2 (ja) | 2021-08-11 |
US11480443B2 (en) | 2022-10-25 |
EP3629057B1 (en) | 2023-09-20 |
EP3629057A3 (en) | 2020-07-01 |
JP2020050337A (ja) | 2020-04-02 |
CN109297510A (zh) | 2019-02-01 |
EP3629057A2 (en) | 2020-04-01 |
US20200103249A1 (en) | 2020-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109297510B (zh) | 相对位姿标定方法、装置、设备及介质 | |
CN110780285B (zh) | 激光雷达与组合惯导的位姿标定方法、***及介质 | |
CN109270545B (zh) | 一种定位真值校验方法、装置、设备及存储介质 | |
CN109521403B (zh) | 多线激光雷达的参数标定方法及装置、设备及可读介质 | |
CN109059906B (zh) | 车辆定位方法、装置、电子设备、存储介质 | |
US11002840B2 (en) | Multi-sensor calibration method, multi-sensor calibration device, computer device, medium and vehicle | |
CN110595494B (zh) | 地图误差确定方法和装置 | |
CN111812658B (zh) | 位置确定方法、装置、***和计算机可读存储介质 | |
CN110095752B (zh) | 定位方法、装置、设备和介质 | |
CN109752003B (zh) | 一种机器人视觉惯性点线特征定位方法及装置 | |
CN110686704A (zh) | 激光雷达与组合惯导的位姿标定方法、***及介质 | |
CN113048980B (zh) | 位姿优化方法、装置、电子设备及存储介质 | |
CN111680596B (zh) | 基于深度学习的定位真值校验方法、装置、设备及介质 | |
CN111462029A (zh) | 视觉点云与高精地图融合方法、装置和电子设备 | |
KR102490521B1 (ko) | 라이다 좌표계와 카메라 좌표계의 벡터 정합을 통한 자동 캘리브레이션 방법 | |
CN114187589A (zh) | 一种目标检测方法、装置、设备和存储介质 | |
CN114187357A (zh) | 一种高精地图的生产方法、装置、电子设备及存储介质 | |
KR102249381B1 (ko) | 3차원 영상 정보를 이용한 모바일 디바이스의 공간 정보 생성 시스템 및 방법 | |
CN113759348A (zh) | 一种雷达标定方法、装置、设备及存储介质 | |
KR102130687B1 (ko) | 다중 센서 플랫폼 간 정보 융합을 위한 시스템 | |
CN114266876B (zh) | 定位方法、视觉地图的生成方法及其装置 | |
CN114842224A (zh) | 一种基于地理底图的单目无人机绝对视觉匹配定位方案 | |
CN114926542A (zh) | 基于光学定位***的混合现实固定参考系校准方法 | |
CN113759384A (zh) | 一种传感器位姿转换关系确定方法、装置、设备和介质 | |
Wang et al. | Updating Smartphone's Exterior Orientation Parameters by Image-based Localization Method Using Geo-tagged Image Datasets and 3D Point Cloud as References |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20211019 Address after: 105 / F, building 1, No. 10, Shangdi 10th Street, Haidian District, Beijing 100085 Patentee after: Apollo Intelligent Technology (Beijing) Co.,Ltd. Address before: 100085 Baidu Building, 10 Shangdi Tenth Street, Haidian District, Beijing Patentee before: BAIDU ONLINE NETWORK TECHNOLOGY (BEIJING) Co.,Ltd. |
|
TR01 | Transfer of patent right |