CN117872330A - 面向复杂环境的无人驾驶多激光雷达标定与融合建图方法 - Google Patents

面向复杂环境的无人驾驶多激光雷达标定与融合建图方法 Download PDF

Info

Publication number
CN117872330A
CN117872330A CN202410268553.9A CN202410268553A CN117872330A CN 117872330 A CN117872330 A CN 117872330A CN 202410268553 A CN202410268553 A CN 202410268553A CN 117872330 A CN117872330 A CN 117872330A
Authority
CN
China
Prior art keywords
point cloud
laser radar
calibration
calibration plate
cloud data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202410268553.9A
Other languages
English (en)
Other versions
CN117872330B (zh
Inventor
宋军
宋志龙
邓京辉
毛俊迪
黄果明
张良
余涛
何舒平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui University
Original Assignee
Anhui University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui University filed Critical Anhui University
Priority to CN202410268553.9A priority Critical patent/CN117872330B/zh
Publication of CN117872330A publication Critical patent/CN117872330A/zh
Application granted granted Critical
Publication of CN117872330B publication Critical patent/CN117872330B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

本发明涉及无人驾驶技术领域,尤其涉及一种面向复杂环境的无人驾驶多激光雷达标定与融合建图方法。通过建立特定的标定场地,分割标定板点云,提取特征。通过平面拟合以及提取标定板平面数据以及标定板边界数据。首先使用icp点云配准技术进行标定求得变换矩阵T1,再通过对平面与边界参数的约束求解得到变换矩阵T2,两者进行均值融合实现多激光雷达标定,最后基于LEGO‑LOAM实现多激光雷达融合建图。适用于室外路面崎岖环境无人驾驶车辆标定,提升效率,从而解决了现有技术中在室外崎岖环境下标定过程精度差,全局优化和扩展性不足等问题,提高了后续基于多激光雷达的融合与建图效果。

Description

面向复杂环境的无人驾驶多激光雷达标定与融合建图方法
技术领域
本发明涉及无人驾驶技术领域,尤其涉及一种面向复杂环境的无人驾驶多激光雷达标定与融合建图方法。
背景技术
无人驾驶车辆安全可靠地自动驾驶,需要对环境有全面和精细的感知。单传感器无法获得车辆周边360度的覆盖,因此需要安装多个激光雷达对周围进行全方位扫描。无人驾驶需要实时定位和地图构建。单激光雷达的视野范围和精度都有限。将多激光雷达的数据融合可以构建更精确、信息更丰富的高清点云地图。
同时多激光雷达标定是一种通过算法来调整激光雷达传感器之间的相对位置和方向关系的标定方法。现有技术标定的不足在于精度差,全局优化和扩展性都存在一定问题,会影响后续基于多激光雷达的融合与建图效果,仍需要与其它手段结合来获得更好的标定效果。
发明内容
有鉴于此,本发明的目的在于提出一种面向复杂环境的无人驾驶多激光雷达标定与融合建图方法,以解决现有激光雷达标定技术精度差、影响建图效果的问题。
基于上述目的,本发明提供了一种面向复杂环境的无人驾驶多激光雷达标定与融合建图方法,方法包括:
S1、在各个激光雷达扫描到标定板的前提下,移动车辆获取一段时间激光雷达扫描到的点云数据包,其中标定板为依据预设点位在室外路面目标环境中布置,标定板通过支撑架安置于地面上,且标定板与支撑架不处于同一平面
S2、对点云数据包进行预处理,得到标定板N帧点云数据;
S3、对N帧点云数据进行ICP算法点云配准求得变换矩阵T1
S4、构建建立激光雷达对同一块标定板N帧点云集的约束关系,并进行优化求解变换矩阵T2
S5、将变换矩阵T1和变换矩阵T2进行均值融合,得到变换矩阵T;
S6、配合均值融合得到的变换矩阵T,基于LEGO-LOAM算法实现多激光雷达融合建图。
其中步骤S4具体包括以下子步骤:
S41、同时对得到的N帧标定板点云数据使用RANSAC算法,对N帧的标定板点云数据进行平面拟合;
S42、同时确认各激光雷达对各自拟合过的N帧标定板平面的参数单位长度法线、平面截距/>与平面点数据/>,得到多激光雷达对于标定板平面的转换关系为
其中Rij表示雷达ij之间的旋转矩阵,tij表示雷达ij之间的平移向量;
S43、同时对拟合的对标定板点云数据,对标定板边界线进行边界线直线拟合,去除异常点,,并确认各激光雷达对各自的/>帧标定板平面的边界线的参数方向向量/>,以及线上的一个点的坐标数据/>,得到多激光雷达对于标定板平面边界的转换关系为:
其中I表示单位矩阵,推导出最小二乘代价函数的公式为:
S44、通过LM算法,迭代优化求解旋转估计旋转矩阵
给定,将式(2)和(4)作为约束,使用平面点/>和线的点/>估计/>,得到
其中表示/>的估计值;
S45、通过LM算法,迭代优化求解平移估计平移矩阵,得到变换矩阵/>
优选地,步骤S2中,对点云数据包进行预处理包括:
对于点云数据包,分解出N帧点云集,通过欧式聚类实现点云聚类,选择点云面积约等于标定板面积的点云群,即去除非标定板点云数据;
根据支撑架与标定板在雷达坐标系的距离,去除支撑架的点云数据,提取出N帧标定板点云数据。
优选地,步骤S6具体包括以下子步骤:
S61、融合建图:每个激光雷达节点在自己的帧坐标上执行LEGO-LOAM算法,同时订阅其他帧发布的点云数据;
S62、时空同步:获取每个激光雷达的数据的时间戳,按照时间戳进行排序,配对出不同传感器时间上对应的帧,通过外插或者删除方式使不同传感器对应帧的时间戳一致,通过均值融合得到的变换矩阵T,将所有的点云数据变换到统一的车体坐标系下;
S63、地图对齐:将所有激光雷达经过位姿优化后的当前帧点云合并到一个总点云中,对总点云进行离群点过滤,去除动态物体等错误点,对滤波后的点云进行体素栅格化,统一点云分布密度,将处理后的当前帧点云投影到全局MAP中,通过指数移动平均的方式更新地图,保存点云PCD地图。
本发明的有益效果:
1、通过建立特定的标定场地,分割标定板点云,提取特征。通过平面拟合以及提取标定板平面数据以及标定板边界数据。首先使用icp点云配准技术进行标定求得变换矩阵T1,再通过对平面与边界参数的约束求解得到变换矩阵T2,两者进行均值融合实现多激光雷达标定,最后基于LEGO-LOAM实现多激光雷达融合建图。
2、对平面多激光雷达标定,适用于室外路面崎岖环境无人驾驶车辆标定,提升效率,从而解决了现有技术中在室外崎岖环境下标定过程精度差,全局优化和扩展性不足等问题,提高了后续基于多激光雷达的融合与建图效果。
附图说明
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例的多激光雷达标定与融合建图方法流程示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,对本发明进一步详细说明。
需要说明的是,除非另外定义,本发明使用的技术术语或者科学术语应当为本发明所属领域内具有一般技能的人士所理解的通常意义。本发明中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。“包括”或者“包含”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。“连接”或者“相连”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电性的连接,不管是直接的还是间接的。“上”、“下”、“左”、“右”等仅用于表示相对位置关系,当被描述对象的绝对位置改变后,则该相对位置关系也可能相应地改变。
如图1所示,本说明书实施例提供一种面向复杂环境的无人驾驶多激光雷达标定与融合建图方法,包括以下步骤:
步骤S1、在各个激光雷达扫描到标定板的前提下,移动车辆获取一段时间激光雷达扫描到的点云数据包,其中标定板为依据预设点位在室外路面目标环境中布置,标定板通过支撑架安置于地面上,且标定板与支撑架不处于同一平面,即在进行标定和融合建图前,先在室外路面崎岖复杂环境中按预设点位布置好标定板;
步骤S2、对于多激光雷达扫描得到的点云数据包,分解出N帧点云集,通过欧式聚类实现点云聚类,选择点云面积约等于标定板面积的点云群,即去除非标定板点云数据;
根据支撑架与标定板在雷达坐标系的距离,去除支撑架的点云数据,提取出N帧标定板点云数据。
步骤S3、并且对帧点云数据进行ICP算法点云配准,并将求得的/>个变化矩阵平均求值,获得变换矩阵T1
步骤S41、同时对得到的帧标定板点云数据使用RANSAC算法,对/>对标定板点云数据进行平面拟合;
步骤S42、同时确认各激光雷达对各自拟合过的帧标定板平面的参数单位长度法线/>、平面截距/>与平面点数据/>
多激光雷达对于标定板平面的转换关系有
其中Rij表示雷达ij之间的旋转矩阵,tij表示雷达ij之间的平移向量。
步骤S43、同时对拟合的对标定板点云数据,对标定板边界线进行边界线直线拟合,同时去除异常点,并且确认各激光雷达对各自的/>帧标定板平面的边界线的参数方向向量/>,以及线上的一个点的坐标数据/>
多激光雷达对于标定板平面边界的转换关系有
其中,I表示单位矩阵。
由上述(1)(3)公式,由于测得的数据存在噪声可推导出最小二乘代价函数的公式为
步骤S44、通过LM算法,迭代优化求解旋转估计旋转矩阵
给定,/>,可以通过约束 (2) 和(4) 来解决。边界上的点远小于平面上的点。为了避免偏差,本实施例使用平面点/>和线的点/>来估计/>
步骤S45、通过LM算法,迭代优化求解平移估计平移矩阵,既得变换矩阵T2;
步骤S5、最后将ICP点云配准得来的T1与T2进行均值融合,得到变换矩阵得到变换矩阵
步骤S61、融合建图:每个LiDAR节点在自己的帧坐标上执行LEGO-LOAM算法,同时订阅其他帧发布的点云数据;
步骤S62、时空同步:获取每个激光雷达的数据的时间戳,按照时间戳进行排序,配对出不同传感器时间上对应的帧,通过外插或者删除方式使不同传感器对应帧的时间戳一致。通过变换矩阵,将所有的点云数据变换到统一的车体坐标系下,如统一到主激光雷达坐标系;
步骤S63、地图对齐:将所有激光雷达经过位姿优化后的当前帧点云合并到一个总点云中。对总点云进行离群点过滤,去除动态物体等错误点。对滤波后的点云进行体素栅格化(voxel grid),统一点云分布密度。将处理后的当前帧点云投影到全局MAP中,通过指数移动平均的方式更新地图,最后保存点云PCD地图;
本实施例中,通过上述方法进行标定,平面拟合标定板特征,自动求解多激光雷达之间的变化矩阵。标定板提取不受激光雷达安装误差影响,适合大型车辆上的激光雷达标定,同时使用ICP算法和线面约束相结合使得标定过程既考虑了所有标定板的点云数据,也有足够约束,使得在室外路面崎岖环境下标定结果更加精确,最后配合标定得到的变换矩阵,基于LEGO-LOAM实现多激光雷达融合建图。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本发明的范围(包括权利要求)被限于这些例子;在本发明的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本发明的不同方面的许多其它变化,为了简明它们没有在细节中提供。
本发明旨在涵盖落入所附权利要求的宽泛范围之内的所有这样的替换、修改和变型。因此,凡在本发明的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (3)

1.一种面向复杂环境的无人驾驶多激光雷达标定与融合建图方法,其特征在于,所述方法包括:
S1、在各个激光雷达扫描到标定板的前提下,移动车辆获取一段时间激光雷达扫描到的点云数据包,其中标定板为依据预设点位在室外路面目标环境中布置,标定板通过支撑架安置于地面上,且标定板与支撑架不处于同一平面;
S2、对点云数据包进行预处理,得到标定板N帧点云数据;
S3、对N帧点云数据进行ICP算法点云配准求得变换矩阵T1
S4、构建建立激光雷达对同一块标定板N帧点云集的约束关系,并进行优化求解变换矩阵T2
S5、将变换矩阵T1和变换矩阵T2进行均值融合,得到变换矩阵T;
S6、配合均值融合得到的变换矩阵T,基于LEGO-LOAM算法实现多激光雷达融合建图;
其中步骤S4具体包括以下子步骤:
S41、同时对得到的N帧标定板点云数据使用RANSAC算法,对N帧的标定板点云数据进行平面拟合;
S42、同时确认各激光雷达对各自拟合过的N帧标定板平面的参数单位长度法线、平面截距/>与平面点数据/>,得到多激光雷达对于标定板平面的转换关系为
其中Rij表示雷达ij之间的旋转矩阵,tij表示雷达ij之间的平移向量;
S43、同时对拟合的对标定板点云数据,对标定板边界线进行边界线直线拟合,去除异常点,并确认各激光雷达对各自的/>帧标定板平面的边界线的参数方向向量/>,以及线上的一个点的坐标数据/>,得到多激光雷达对于标定板平面边界的转换关系为:
其中I表示单位矩阵,推导出最小二乘代价函数的公式为:
S44、通过LM算法,迭代优化求解旋转估计旋转矩阵
给定,将式(2)和(4)作为约束,使用平面点/>和线的点/>估计/>,得到
其中表示/>的估计值;
S45、通过LM算法,迭代优化求解平移估计平移矩阵,得到变换矩阵/>
2.根据权利要求1所述的面向复杂环境的无人驾驶多激光雷达标定与融合建图方法,其特征在于,步骤S2中,对点云数据包进行预处理包括:
对于点云数据包,分解出N帧点云集,通过欧式聚类实现点云聚类,选择点云面积约等于标定板面积的点云群,即去除非标定板点云数据;
根据支撑架与标定板在雷达坐标系的距离,去除支撑架的点云数据,提取出N帧标定板点云数据。
3.根据权利要求1所述的面向复杂环境的无人驾驶多激光雷达标定与融合建图方法,其特征在于,步骤S6具体包括以下子步骤:
S61、融合建图:每个激光雷达节点在自己的帧坐标上执行LEGO-LOAM算法,同时订阅其他帧发布的点云数据;
S62、时空同步:获取每个激光雷达的数据的时间戳,按照时间戳进行排序,配对出不同传感器时间上对应的帧,通过外插或者删除方式使不同传感器对应帧的时间戳一致,通过均值融合得到的变换矩阵T,将所有的点云数据变换到统一的车体坐标系下;
S63、地图对齐:将所有激光雷达经过位姿优化后的当前帧点云合并到一个总点云中,对总点云进行离群点过滤,去除动态物体等错误点,对滤波后的点云进行体素栅格化,统一点云分布密度,将处理后的当前帧点云投影到全局MAP中,通过指数移动平均的方式更新地图,保存点云PCD地图。
CN202410268553.9A 2024-03-11 2024-03-11 面向复杂环境的无人驾驶多激光雷达标定与融合建图方法 Active CN117872330B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410268553.9A CN117872330B (zh) 2024-03-11 2024-03-11 面向复杂环境的无人驾驶多激光雷达标定与融合建图方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410268553.9A CN117872330B (zh) 2024-03-11 2024-03-11 面向复杂环境的无人驾驶多激光雷达标定与融合建图方法

Publications (2)

Publication Number Publication Date
CN117872330A true CN117872330A (zh) 2024-04-12
CN117872330B CN117872330B (zh) 2024-05-31

Family

ID=90588726

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410268553.9A Active CN117872330B (zh) 2024-03-11 2024-03-11 面向复杂环境的无人驾驶多激光雷达标定与融合建图方法

Country Status (1)

Country Link
CN (1) CN117872330B (zh)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112785702A (zh) * 2020-12-31 2021-05-11 华南理工大学 一种基于2d激光雷达和双目相机紧耦合的slam方法
CN113050074A (zh) * 2021-03-16 2021-06-29 成都信息工程大学 无人驾驶环境感知中相机与激光雷达标定***及标定方法
US20210333397A1 (en) * 2018-09-11 2021-10-28 Renault S.A.S. Method of road detection for an automotive vehicle fitted with a lidar sensor
CN113781582A (zh) * 2021-09-18 2021-12-10 四川大学 基于激光雷达和惯导联合标定的同步定位与地图创建方法
KR20220042833A (ko) * 2020-09-28 2022-04-05 고려대학교 산학협력단 라이다 스캐너에서 획득한 점군 정합 방법
CN114325664A (zh) * 2021-12-28 2022-04-12 浙江大学 一种鲁棒的激光雷达-惯导标定方法
CN114755662A (zh) * 2022-03-21 2022-07-15 北京航空航天大学 一种路车融合感知的激光雷达和gps的标定方法和装置
KR20230003803A (ko) * 2021-06-30 2023-01-06 주식회사 모빌테크 라이다 좌표계와 카메라 좌표계의 벡터 정합을 통한 자동 캘리브레이션 방법
WO2023027268A1 (ko) * 2021-08-26 2023-03-02 한국로봇융합연구원 카메라-라이다 캘리브레이션 장치 및 방법
CN116520295A (zh) * 2023-03-04 2023-08-01 上海友道智途科技有限公司 一种基于自动建图的多激光雷达标定方法
CN116560382A (zh) * 2023-07-11 2023-08-08 安徽大学 一种基于混合智能算法的移动机器人路径规划方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210333397A1 (en) * 2018-09-11 2021-10-28 Renault S.A.S. Method of road detection for an automotive vehicle fitted with a lidar sensor
KR20220042833A (ko) * 2020-09-28 2022-04-05 고려대학교 산학협력단 라이다 스캐너에서 획득한 점군 정합 방법
CN112785702A (zh) * 2020-12-31 2021-05-11 华南理工大学 一种基于2d激光雷达和双目相机紧耦合的slam方法
CN113050074A (zh) * 2021-03-16 2021-06-29 成都信息工程大学 无人驾驶环境感知中相机与激光雷达标定***及标定方法
KR20230003803A (ko) * 2021-06-30 2023-01-06 주식회사 모빌테크 라이다 좌표계와 카메라 좌표계의 벡터 정합을 통한 자동 캘리브레이션 방법
WO2023027268A1 (ko) * 2021-08-26 2023-03-02 한국로봇융합연구원 카메라-라이다 캘리브레이션 장치 및 방법
CN113781582A (zh) * 2021-09-18 2021-12-10 四川大学 基于激光雷达和惯导联合标定的同步定位与地图创建方法
CN114325664A (zh) * 2021-12-28 2022-04-12 浙江大学 一种鲁棒的激光雷达-惯导标定方法
CN114755662A (zh) * 2022-03-21 2022-07-15 北京航空航天大学 一种路车融合感知的激光雷达和gps的标定方法和装置
CN116520295A (zh) * 2023-03-04 2023-08-01 上海友道智途科技有限公司 一种基于自动建图的多激光雷达标定方法
CN116560382A (zh) * 2023-07-11 2023-08-08 安徽大学 一种基于混合智能算法的移动机器人路径规划方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
FARAZ M MIRZAEI 等: "3D LIDAR–camera intrinsic and extrinsic calibration: Identifiability and analytical least-squares-based initialization", THE INTERNATIONAL JOURNAL OF ROBOTICS RESEARCH, vol. 31, no. 4, 4 April 2012 (2012-04-04), pages 452 - 467 *
唐小林 等: "基于点特征的车载LiDAR与GNSS/IMU联合标定方法研究", 中国公路学报, vol. 35, no. 10, 31 October 2022 (2022-10-31), pages 299 - 307 *
程金龙 等: "车载激光雷达外参数的标定方法", 光电工程, vol. 40, no. 12, 15 December 2013 (2013-12-15), pages 89 - 94 *
达兴鹏 等: "移动机器人里程计***误差及激光雷达安装误差在线标定", 机器人, vol. 39, no. 02, 15 March 2017 (2017-03-15), pages 205 - 213 *

Also Published As

Publication number Publication date
CN117872330B (zh) 2024-05-31

Similar Documents

Publication Publication Date Title
CN108932736B (zh) 二维激光雷达点云数据处理方法以及动态机器人位姿校准方法
CN110006408B (zh) LiDAR数据“云控制”航空影像摄影测量方法
CN111060888A (zh) 一种融合icp和似然域模型的移动机器人重定位方法
CN111105496A (zh) 一种基于机载激光雷达点云数据的高精dem构建方法
CN113947639B (zh) 基于多雷达点云线特征的自适应在线估计标定***及方法
CN114862932B (zh) 基于bim全局定位的位姿修正方法及运动畸变矫正方法
CN110197173B (zh) 一种基于双目视觉的路沿检测方法
CN112762899B (zh) 一种激光点云加bim模型在可视化变电站中与视频信息的融合方法
CN111369600B (zh) 一种基于参照物的激光雷达点云数据配准方法
CN112465732A (zh) 一种车载激光点云与序列全景影像的配准方法
KR102490521B1 (ko) 라이다 좌표계와 카메라 좌표계의 벡터 정합을 통한 자동 캘리브레이션 방법
CN114283070B (zh) 融合无人机影像与激光点云的地形断面制作方法
CN112669458A (zh) 基于激光点云进行地面滤波的方法、设备和程序载体
CN113255162A (zh) 基于非刚性概率模型的车载激光点云自动误差纠正方法
CN113534110B (zh) 一种多激光雷达***静态标定方法
CN117237543B (zh) 一种前端Web多源异构三维模型与三维地形融合方法
CN117872330B (zh) 面向复杂环境的无人驾驶多激光雷达标定与融合建图方法
CN110554405B (zh) 一种基于组合聚类的正态扫描配准方法和***
CN116863357A (zh) 一种无人机遥感堤坝影像定标与智能分割变化检测方法
CN116540206A (zh) 一种足式机器人高程估计方法、装置及***
CN116400349A (zh) 一种低分辨率毫米波雷达与光学相机的标定方法
CN111736137B (zh) LiDAR外部参数标定方法、***、计算机设备及可读存储介质
CN114004949A (zh) 机载点云辅助的移动测量***安置参数检校方法及***
CN115100287A (zh) 外参标定方法及机器人
CN114089376A (zh) 一种基于单激光雷达的负障碍物检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant