CN115063465A - 一种基于激光雷达的无人车行驶路况建模方法 - Google Patents

一种基于激光雷达的无人车行驶路况建模方法 Download PDF

Info

Publication number
CN115063465A
CN115063465A CN202210675734.4A CN202210675734A CN115063465A CN 115063465 A CN115063465 A CN 115063465A CN 202210675734 A CN202210675734 A CN 202210675734A CN 115063465 A CN115063465 A CN 115063465A
Authority
CN
China
Prior art keywords
point cloud
information
point
unmanned vehicle
vehicle driving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210675734.4A
Other languages
English (en)
Other versions
CN115063465B (zh
Inventor
肖国权
罗奕滔
许申傲
杨睿浩
潘水清
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN202210675734.4A priority Critical patent/CN115063465B/zh
Publication of CN115063465A publication Critical patent/CN115063465A/zh
Application granted granted Critical
Publication of CN115063465B publication Critical patent/CN115063465B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明公开了一种基于激光雷达的无人车行驶路况建模方法:通过激光雷达获取车辆行驶道路及周围环境的点云信息,获取的点云数据经存储和邻域划分后构建出点云间的拓扑关系,并通过点云空间拓扑关系估算出点云的法向量、曲率等特征信息,进一步对点云滤波去噪后存储,并对多帧的点云信息进行配准并放入虚拟空间中进行三维网格重建,获得障碍物的三维模型并在虚拟地图中进行路况重建,对对应路况进行实时分析,采用本方法能够提升车辆性能虚拟测试与路径规划的准确性和效率。

Description

一种基于激光雷达的无人车行驶路况建模方法
技术领域
本发明涉及无人车行驶路况建模领域,尤其涉及一种基于激光雷达的无人车行驶路况建模方法。
背景技术
近年来,自动驾驶技术已经成为全世界汽车产业的最新发展方向。
与传统汽车相比,自动驾驶汽车能够有效地提升车辆的安全性、通行效率和舒适性。无人驾驶车辆不仅可以减少交通事故的发生率,还可以提高汽车出行的效率。
无人车的行驶过程中的很多决策都是依赖于无人车的行驶路况。
专利号为202111088984.X的自动驾驶路径规划方法、装置、设备及存储介质可以自动规划无人车的行驶路径;但是无法做到比较完善的无人车行驶路况的三维模型。而无人车行驶路况的建模多使用的雷达和摄像头。通过雷达和摄像机所获得的点云数据进行处理分析,以处理后的点云数据构建车辆行驶路况的三维模型。基于车辆行驶路况的三维模型,提升无人车性能虚拟测试与路径规划的准确性和效率。
发明内容
本发明的目的在于克服上述现有技术的缺点和不足,提供一种基于激光雷达的无人车行驶路况建模方法。本发明能实时地对行驶中的无人车使用激光雷达进行路况的数据采集、存储和建模,以此得到较高精度的无人车行驶路况的模型,提高无人车的控制精度。
本发明通过下述技术方案实现:
一种基于激光雷达的无人车行驶路况建模方法,包括如下步骤:
S101接收云端指令,使用车载激光雷达进行扫描,从而获取车辆行驶道路及周围环境的点云信息;
S102对点云数据进行邻域划分,构建点云间的拓扑关系,通过点云空间拓扑关系估算出点云的法向量、曲率等特征信息,再采用点云滤波方法对上述点云信息进行过滤;
S103基于过滤后的点云信息,根据激光雷达的采样频率确定配准时选择的帧数,对多帧的点云信息进行配准;
S104基于上述配准后的点云,利用点云信息特征,利用局部曲面拟合的方法构建车辆行驶环境的三维模型。
步骤S101中,所述点云信息包括:无人车的位姿信息,即无人车的全局定位坐标及行驶方向、车身的俯仰角,无人车行驶的车道信息,交通地面标线信息,无人车四周的行驶车辆尺寸信息,隔离护栏及人行道信息。
步骤S102中,所述采用点云滤波方法对上述点云信息进行过滤包括:
首先,需要对点云信息中的每个点的邻域进行统计分析,而统计分析是基于该点到所有邻近点的距离分布特征;过程中需要对整个输入进行两次迭代:第一次迭代,需要计算每个点到最近k个近邻点的平均距离,得到的结果需要符合高斯分布;接下来,计算所有距离的平均值μ和标准差σ以确定距离阈值d,且满足:
d=μ+k·σ
其中k为标准差乘数;而第二次迭代,若这些点的平均邻域距离低于该阈值,则这些点将被定义为内点;若高于,则定义为离群点。
步骤S103中,所述对多帧的点云信息进行配准是指,基于无人车位姿信息,确定点云进行刚体变换的旋转矩阵,将激光雷达采集的点云数据通过上述旋转矩阵变换至同一坐标系;其中每一帧点云的旋转矩阵存在相同和不相同两种可能,每一帧配准都需要计算旋转矩阵。
步骤S104基于上述配准后的点云,利用点云信息特征,利用局部曲面拟合的方法构建车辆行驶环境的三维模型,具体是指:在确定配准后点云中显示的实体的信息后,利用平面拟合、曲面拟合等方式进行虚拟环境下的三维建模,实现环境信息的还原。
步骤S103中,所述点云信息进行配准,是为了构建完整的车辆行驶环境模型,即构建高精度地图;
输入初始状态的点云P以及车辆行驶到t时刻时获得的环境点云Q,提取点云的主干部分,包括道路地面标识、隔离护栏等相对固定部分,通过公式:q′i=Rt×qi+tt对主干部分进行配准,得到旋转矩阵以及平移矩阵t,使用公式:
Figure BDA0003696464210000031
对、t进行误差分析,使误差值E达到最小的矩阵即为所需矩阵;
其中Rt为3×3的旋转矩阵,tt为3×1的平移矩阵;将各时刻的点云经配准及拼接后融合至同一点云集中,即可形成高精地图。
上述步骤S104中,所述三维模型具体为:
将处理后的点云数据经格式转换后导入三维几何处理***的软件中,在软件中直观显示三维点云集;
以步骤S103中获得的多帧进行配准后的点云集为对象,分别对每一个集合进行三维重建,点云集合的具体大小而根据激光雷达的收集能力而定。
为了进行平面重建,需要进行点云数据法向量的计算,选择调整相邻的点云数量,及以所设置的数量的点云为点集,以公式求该点集的平滑法线;基于点云的法向量,由泊松平面重建方法,对点云进行重建。
对每个点云计算法向量,选择其周围的点云数量为定值;
计算这些点最小二乘意义上的局部剖平面P,其表示式子为:
Figure BDA0003696464210000041
式中,
Figure BDA0003696464210000042
为平面P的法向量,d为P到坐标原点的距离,k为相邻点个数;
对于每一个点Pi,构建对应的协方差矩阵C;
Figure BDA0003696464210000043
对协方差矩阵进行特征值分解得到最小特征值对应的特征向得法向量ni
本发明相对于现有技术,具有如下的优点及效果:
本发明基于激光雷达获得车辆行驶道路及周围环境的点云信息,采用点云滤波方法对上述点云信息进行过滤,再基于过滤后的点云信息,对多帧的点云信息进行配准,以确定雷达识别范围内的每个实体的形状、大小、位置等信息,最后基于上述配准后的点云,构建车辆行驶环境的三维模型。
相较于现有通过地图服务软件获得历史道路数据进行建模的技术,本申请实例使用激光雷达获得的点云数据,经滤波以及配准处理,并在处理后的点云基础上利用近似曲面或平面重建实现三维建模。此方法能够更加精准的还原车辆行驶环境,更加接近真实状况,为后续无人车动态避障以及路径规划提供了精准的图像,有助于提升无人车的行驶安全性以及平顺性,以满足更多行驶工况。
附图说明
图1为本发明基于激光雷达的无人车行驶路况建模方法,实施例流程示意图。
图2为本发明实施例提供的点云滤波前示意图。
图3为本发明实施例提供的点云滤波后示意图。
图4为本发明实施例提供的点云配准前示意图。
图5为本发明实施例提供的点云配准后示意图。
图6为本发明实施例提供的构建车辆行驶环境三维模型的示意图。
具体实施方式
下面结合具体实施例对本发明作进一步具体详细描述。
本发明公开了一种基于激光雷达的无人车行驶路况建模方法;
本发明通过激光雷达获取车辆行驶道路及周围环境的点云信息,获取的点云数据经存储和邻域划分后构建出点云间的拓扑关系,并通过点云空间拓扑关系估算出点云的法向量、曲率等特征信息,进一步对点云滤波去噪后存储,并对多帧的点云信息进行配准并放入虚拟空间中进行三维网格重建,获得障碍物的三维模型并在虚拟地图中进行路况重建,对对应路况进行实时分析,采用本方法能够提升车辆性能虚拟测试与路径规划的准确性和效率。
具体实现步骤如下:
S101接收云端指令,使用车载激光雷达进行扫描,从而获取车辆行驶道路及周围环境的点云信息;
S102对点云数据进行邻域划分,构建点云间的拓扑关系,通过点云空间拓扑关系估算出点云的法向量、曲率等特征信息,再采用点云滤波方法对上述点云信息进行过滤;
S103基于过滤后的点云信息,根据激光雷达的采样频率确定配准时选择的帧数,对多帧的点云信息进行配准;
S104基于上述配准后的点云,利用点云信息特征,利用局部曲面拟合的方法构建车辆行驶环境的三维模型;
所述激光雷达获取道路及周围环境的点云信息,包括但不限于:无人车的位姿信息,包括无人车的全局定位坐标及行驶方向、车身的俯仰角,无人车行驶的车道信息,交通地面标线信息,无人车四周的行驶车辆尺寸信息,隔离护栏及人行道信息。
本申请实施例中,采用了StatisticalOutlierRemoval算法,即统计学滤波方法进行滤波处理。首先,需要对点云信息中的每个点的邻域进行统计分析,而统计分析是基于该点到所有邻近点的距离分布特征。过程中需要对整个输入进行两次迭代:第一次迭代,需要计算每个点到最近k个近邻点的平均距离,得到的结果需要符合高斯分布。接下来,计算所有这些距离的平均值μ和标准差σ以确定距离阈值d,且满足:
d=μ+k·σ (4)
其中k为标准差乘数。而第二次迭代,若这些点的平均邻域距离低于该阈值,则这些点将被定义为内点;若高于,则定义为离群点。
所述基于过滤后的点云进行配准,是基于所述无人车位姿信息,确定点云进行刚体变换的旋转矩阵,将激光雷达采集的点云数据通过上述旋转矩阵变换至同一坐标系。其中每一帧点云的旋转矩阵存在相同和不相同两种可能,每一帧配准都需要计算旋转矩阵。
所述基于配准后点云构建车辆行驶环境的三维点云,是在确定配准后点云中显示的实体的信息后,利用平面拟合、曲面拟合等方式进行虚拟环境下的三维建模,实现环境信息的还原。图1是三维重建的流程图。
本申请实施例中,采取了ICP算法进行点云配准。点云配准的目的是为了构建完整的车辆行驶环境模型,即构建高精度地图。输入初始状态的点云P以及车辆行驶到t时刻时获得的环境点云Q,提取点云的主干部分,包括但不限于道路地面标识、隔离护栏等相对固定部分,通过公式:q′i=Rt×qi+tt,对主干部分进行配准,得到旋转矩阵以及平移矩阵t,使用公式:
Figure BDA0003696464210000071
对、t进行误差分析,使误差值达到最小的矩阵即为所需矩阵。
其中Rt为3×3的旋转矩阵,tt为3×1的平移矩阵;将各时刻的点云经配准及拼接后融合至同一点云集中,即可形成高精地图。
在本申请实施例中,构建环境和无人车模型都需要用到点云三维重建的方法。
将处理后的点云数据经格式转换后导入三维几何处理***的软件中,在软件中直观显示三维点云集。
以步骤S103中获得的多帧进行配准后的点云集为对象,分别对每一个集合进行三维重建,点云集合的具体大小而根据激光雷达的收集能力而定。
为了进行平面重建,需要进行点云数据法向量的计算。
本申请实例使用一种点云平滑法线的计算方法,可以选择调整相邻的点云数量,及以所设置的数量的点云为点集,以公式求该点集的平滑法线。
对每个点云计算法向量,选择其周围的点云数量为定值。
计算这些点最小二乘意义上的局部剖平面P,其表示式子为:
Figure BDA0003696464210000081
式中,
Figure BDA0003696464210000082
为平面P的法向量,d为P到坐标原点的距离,k为相邻点个数。
对于每一个点Pi,构建对应的协方差矩阵C。
Figure BDA0003696464210000083
对协方差矩阵进行特征值分解得到最小特征值对应的特征向得法向量ni。需要注意法向量的方向,可规定一个法向量的方向,其余法向量只需与其做内积即可的该法向量的反向。
另外,基于点云的法向量,本实施例中采用泊松平面重建方法,对点云进行重建。泊松重建的核心思想是通过将物体表面的离散样本点信息转化到连续表面函数上,从而构造出水密网格的隐式表面。对于步骤S103中配准后的点云中的任意物体M,其边界为
Figure BDA0003696464210000084
设定指示函数:
XM:R3→{0,1}
其中物体M内函数取值为1,其余则为0。由于XM的不连续性,此处采用间接的方式来求取。先用平滑滤波函数
Figure BDA0003696464210000085
来平滑XM,通过散度定理可证明,平滑过的指示函数的梯度场,等于平滑过的表面法向量场:
Figure BDA0003696464210000086
其中*为卷积符号,此处即为平滑操作,
Figure BDA0003696464210000087
为表面处的法向量(指向内侧)。对于平滑函数
Figure BDA0003696464210000088
需要限制其范围防止其产生过度平滑误差,或者使得离样本点较远时插值不可靠。本申请实施例中采用了3阶盒式滤波器进行近似。
由于样本点的离散性,
Figure BDA0003696464210000089
并不对于表面附近每一点q都已知,需要对其分段近似:
Figure BDA0003696464210000091
s是初始已知样本点集合S中的一点,包含了s.p位置和
Figure BDA0003696464210000092
法向量信息,
Figure BDA0003696464210000093
是按照空间划分的s附近的表面区域。由于
Figure BDA0003696464210000094
的范围限制,平滑后的结果是一定范围内的样本信息的线性组合。
本申请实例在通过离散近似得到了式中
Figure BDA0003696464210000095
Figure BDA0003696464210000096
等式右边的向量场
Figure BDA0003696464210000097
即转化为:
Figure BDA0003696464210000098
此处因
Figure BDA0003696464210000099
的存在不可积可能性的特性,选择求解其最小二乘近似:
Figure BDA00036964642100000910
其中Δ为拉普拉斯算子,
Figure BDA00036964642100000911
为散度算子,
Figure BDA00036964642100000912
Figure BDA00036964642100000913
式即为泊松方程。
本申请实施例采用了一种自适应性的八叉树
Figure BDA00036964642100000914
其自适应性体现于,只在物体表面附近处提高采样分辨率,即节点深度,以满足移动立方体算法。八叉树的最大深度D使得每个初始样本点都能落入不同的叶子节点中。对应上述八叉树的每一个节点
Figure BDA00036964642100000915
此处定义一个以节点中心为原点的平滑函数Fo,并按不同节点深度调节了影响范围:
Figure BDA00036964642100000916
其中
Figure BDA00036964642100000917
所有的Fo张成了
Figure BDA00036964642100000918
叠加可得到一个
Figure BDA00036964642100000919
维的向量
Figure BDA00036964642100000920
由式:
Figure BDA00036964642100000921
Figure BDA0003696464210000101
可知,平滑操作是为了让定义域内离散的样本点之外的点q处的函数值(此处即为向量场)可以被(线性)插值得到。把指示函数
Figure BDA0003696464210000102
投影到基函数上:
Figure BDA0003696464210000103
由此对
Figure BDA0003696464210000104
的求解等效为对其在基函数上的投影
Figure BDA0003696464210000105
的求解,同时
Figure BDA0003696464210000106
以同样的形式也完成了投影。为达到次像素级精度,本申请实例使用了邻近8个八叉树子节点的三线性插值。由于平滑函数的范围限制,可再将
Figure BDA0003696464210000107
Figure BDA0003696464210000108
投影到基函数上,即在
Figure BDA0003696464210000109
上最小化:
Figure BDA00036964642100001010
此处的||·||和<·>是对连续定义域上的所有q积分。由上式推导,可以得到指示函数
Figure BDA00036964642100001011
而拉普拉斯系数矩阵可使用共轭梯度法求解。得到了之后就可以用移动立方体算法提取表面,梯度根据
Figure BDA00036964642100001012
在所有S上的平均值选取。将所获得表面进行拼接可得到一个粗糙的三维模型,结束该部分的步骤。
本申请实施例采用的激光雷达是德国SICK公司的LMS-200,位姿信息的测量选用全球导航卫星***(Global Navigation Satellite System)接收机和航姿参考***,其中接收机为美国Trimble公司的BD970,并按NMEA0183协议输出;而航姿参考***选用江苏慧联科技的HEC295姿态传感器,数据传输使用的是CAN总线,而无人车与外部控制平台之间的通信***是由北京易捷科技公司的YJ-43H数传电台组成。通过远程操作驾驶车辆采集道路环境信息,导入点云处理软件CloudCompare进行点云滤波以及点云配准工作,将处理后的点云信息导入三维建模软件Mashlab进行粗糙模型构建,获得环境三维模型。
综上所述,本发明基于激光雷达获得车辆行驶道路及周围环境的点云信息,采用点云滤波方法对上述点云信息进行过滤,再基于过滤后的点云信息,对多帧的点云信息进行配准,以确定雷达识别范围内的每个实体的形状、大小、位置等信息,最后基于上述配准后的点云,构建车辆行驶环境的三维模型。
相较于现有通过地图服务软件获得历史道路数据进行建模的技术,本申请实例使用激光雷达获得的点云数据,经滤波以及配准处理,并在处理后的点云基础上利用近似曲面或平面重建实现三维建模。此方法能够更加精准的还原车辆行驶环境,更加接近真实状况,为后续无人车动态避障以及路径规划提供了精准的图像,有助于提升无人车的行驶安全性以及平顺性,以满足更多行驶工况。
如上所述,便可较好地实现本发明。
本发明的实施方式并不受上述实施例的限制,其他任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (9)

1.一种基于激光雷达的无人车行驶路况建模方法,其特征在于包括如下步骤:
S101接收云端指令,使用车载激光雷达进行扫描,从而获取车辆行驶道路及周围环境的点云信息;
S102对点云数据进行邻域划分,构建点云间的拓扑关系,通过点云空间拓扑关系估算出点云特征信息,再采用点云滤波方法对上述点云信息进行过滤;
S103基于过滤后的点云信息,根据激光雷达的采样频率确定配准时选择的帧数,对多帧的点云信息进行配准;
S104基于上述配准后的点云,利用点云信息特征,利用局部曲面拟合的方法构建车辆行驶环境的三维模型。
2.根据权利要求1所述基于激光雷达的无人车行驶路况建模方法,其特征在于,步骤S101中,所述点云信息包括:无人车的位姿信息,即无人车的全局定位坐标及行驶方向、车身的俯仰角,无人车行驶的车道信息,交通地面标线信息,无人车四周的行驶车辆尺寸信息,隔离护栏及人行道信息。
3.根据权利要求2所述基于激光雷达的无人车行驶路况建模方法,其特征在于,步骤S102中,所述采用点云滤波方法对上述点云信息进行过滤包括:
首先,需要对点云信息中的每个点的邻域进行统计分析,而统计分析是基于该点到所有邻近点的距离分布特征;过程中需要对整个输入进行两次迭代:第一次迭代,需要计算每个点到最近k个近邻点的平均距离,得到的结果需要符合高斯分布;接下来,计算所有距离的平均值μ和标准差σ以确定距离阈值d,且满足:
d=μ+k·σ
其中k为标准差乘数;而第二次迭代,若这些点的平均邻域距离低于该阈值,则这些点将被定义为内点;若高于,则定义为离群点。
4.根据权利要求3所述基于激光雷达的无人车行驶路况建模方法,其特征在于,步骤S103中,所述对多帧的点云信息进行配准是指,基于无人车位姿信息,确定点云进行刚体变换的旋转矩阵,将激光雷达采集的点云数据通过上述旋转矩阵变换至同一坐标系。
5.根据权利要求4所述基于激光雷达的无人车行驶路况建模方法,其特征在于,步骤S104基于上述配准后的点云,利用点云信息特征,利用局部曲面拟合的方法构建车辆行驶环境的三维模型,具体是指:在确定配准后点云中显示的实体的信息后,利用平面拟合、曲面拟合方式进行虚拟环境下的三维建模,实现环境信息的还原。
6.根据权利要求5所述基于激光雷达的无人车行驶路况建模方法,其特征在于,步骤S103中,所述点云信息进行配准,是为了构建完整的车辆行驶环境模型,即构建高精度地图;
输入初始状态的点云P以及车辆行驶到t时刻时获得的环境点云Q,提取点云的主干部分,通过公式:q′i=Rt×qi+tt对主干部分进行配准,得到旋转矩阵以及平移矩阵t,使用公式:
Figure FDA0003696464200000021
对、t进行误差分析,使误差值达到最小的矩阵即为所需矩阵;
其中Rt为3×3的旋转矩阵,tt为3×1的平移矩阵;将各时刻的点云经配准及拼接后融合至同一点云集中,即可形成高精地图。
7.根据权利要求6所述基于激光雷达的无人车行驶路况建模方法,其特征在于,S104中,所述三维模型具体为:
将处理后的点云数据经格式转换后导入三维几何处理***的软件中,在软件中直观显示三维点云集;
以步骤S103中获得的多帧进行配准后的点云集为对象,分别对每一个集合进行三维重建;
为了进行平面重建,需要进行点云数据法向量的计算。
8.根据权利要求7所述基于激光雷达的无人车行驶路况建模方法,其特征在于,所述点云数据法向量的计算是指,选择调整相邻的点云数量,及以所设置的数量的点云为点集,以公式求该点集的平滑法线;
对每个点云计算法向量,选择其周围的点云数量为定值;
计算这些点最小二乘意义上的局部剖平面P,其表示式子为:
Figure FDA0003696464200000031
式中,
Figure FDA0003696464200000032
为平面P的法向量,d为P到坐标原点的距离,k为相邻点个数;
对于每一个点Pi,构建对应的协方差矩阵C;
Figure FDA0003696464200000033
对协方差矩阵进行特征值分解得到最小特征值对应的特征向得法向量ni
9.根据权利要求7所述基于激光雷达的无人车行驶路况建模方法,其特征在于,所述点云数据法向量的计算,是基于点云的法向量,由泊松平面重建方法,对点云进行重建。
CN202210675734.4A 2022-06-15 2022-06-15 一种基于激光雷达的无人车行驶路况建模方法 Active CN115063465B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210675734.4A CN115063465B (zh) 2022-06-15 2022-06-15 一种基于激光雷达的无人车行驶路况建模方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210675734.4A CN115063465B (zh) 2022-06-15 2022-06-15 一种基于激光雷达的无人车行驶路况建模方法

Publications (2)

Publication Number Publication Date
CN115063465A true CN115063465A (zh) 2022-09-16
CN115063465B CN115063465B (zh) 2023-07-18

Family

ID=83200290

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210675734.4A Active CN115063465B (zh) 2022-06-15 2022-06-15 一种基于激光雷达的无人车行驶路况建模方法

Country Status (1)

Country Link
CN (1) CN115063465B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115327553A (zh) * 2022-10-12 2022-11-11 湖南仕博测试技术有限公司 一种诱导变异的快速激光雷达样本生成方法
CN116092038A (zh) * 2023-04-07 2023-05-09 中国石油大学(华东) 一种基于点云的大件运输关键道路空间通行性判定方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130242284A1 (en) * 2012-03-15 2013-09-19 GM Global Technology Operations LLC METHODS AND APPARATUS OF FUSING RADAR/CAMERA OBJECT DATA AND LiDAR SCAN POINTS
CN105574929A (zh) * 2015-12-15 2016-05-11 电子科技大学 一种基于地面LiDAR点云数据的单株植被三维建模方法
CN110415342A (zh) * 2019-08-02 2019-11-05 深圳市唯特视科技有限公司 一种基于多融合传感器的三维点云重建装置与方法
CN110796728A (zh) * 2019-09-20 2020-02-14 南京航空航天大学 一种基于扫描式激光雷达的非合作航天器三维重建方法
CN111915661A (zh) * 2020-07-24 2020-11-10 广州大学 基于ransac算法的点云配准方法、***及计算机可读存储介质
US20210334988A1 (en) * 2019-01-30 2021-10-28 Baidu Usa Llc A rgb point clouds based map generation system for autonomous vehicles

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130242284A1 (en) * 2012-03-15 2013-09-19 GM Global Technology Operations LLC METHODS AND APPARATUS OF FUSING RADAR/CAMERA OBJECT DATA AND LiDAR SCAN POINTS
CN105574929A (zh) * 2015-12-15 2016-05-11 电子科技大学 一种基于地面LiDAR点云数据的单株植被三维建模方法
US20210334988A1 (en) * 2019-01-30 2021-10-28 Baidu Usa Llc A rgb point clouds based map generation system for autonomous vehicles
CN110415342A (zh) * 2019-08-02 2019-11-05 深圳市唯特视科技有限公司 一种基于多融合传感器的三维点云重建装置与方法
CN110796728A (zh) * 2019-09-20 2020-02-14 南京航空航天大学 一种基于扫描式激光雷达的非合作航天器三维重建方法
CN111915661A (zh) * 2020-07-24 2020-11-10 广州大学 基于ransac算法的点云配准方法、***及计算机可读存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
薛萍等: "基于法矢修正的点云数据去噪平滑算法", 《哈尔滨理工大学学报》 *
薛萍等: "基于法矢修正的点云数据去噪平滑算法", 《哈尔滨理工大学学报》, vol. 23, no. 05, 31 October 2018 (2018-10-31), pages 1 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115327553A (zh) * 2022-10-12 2022-11-11 湖南仕博测试技术有限公司 一种诱导变异的快速激光雷达样本生成方法
CN116092038A (zh) * 2023-04-07 2023-05-09 中国石油大学(华东) 一种基于点云的大件运输关键道路空间通行性判定方法

Also Published As

Publication number Publication date
CN115063465B (zh) 2023-07-18

Similar Documents

Publication Publication Date Title
CN111551958B (zh) 一种面向矿区无人驾驶的高精地图制作方法
CN106023210B (zh) 无人车、无人车定位方法、装置和***
CN115063465B (zh) 一种基于激光雷达的无人车行驶路况建模方法
CN105300403B (zh) 一种基于双目视觉的车辆里程计算法
CN108759833A (zh) 一种基于先验地图的智能车辆定位方法
CN104677361B (zh) 一种综合定位的方法
CN107314763B (zh) 一种基于制约函数非线性估计的卫星影像区域网平差方法
JP2022542289A (ja) 地図作成方法、地図作成装置、電子機器、記憶媒体及びコンピュータプログラム製品
Gikas et al. A novel geodetic engineering method for accurate and automated road/railway centerline geometry extraction based on the bearing diagram and fractal behavior
CN114526745A (zh) 一种紧耦合激光雷达和惯性里程计的建图方法及***
CN115372989A (zh) 基于激光雷达的越野自动小车长距离实时定位***及方法
JP2016109650A (ja) 位置推定装置、位置推定方法、位置推定プログラム
CN102519481A (zh) 一种双目视觉里程计实现方法
CN110046563B (zh) 一种基于无人机点云的输电线路断面高程修正方法
CN103761739A (zh) 一种基于半全局能量优化的影像配准方法
CN114396957B (zh) 基于视觉与地图车道线匹配的定位位姿校准方法及汽车
CN111829514B (zh) 一种适用于车辆底盘集成控制的路面工况预瞄方法
CN112805766A (zh) 用于更新详细地图的装置和方法
Dawood et al. Harris, SIFT and SURF features comparison for vehicle localization based on virtual 3D model and camera
CN114283070B (zh) 融合无人机影像与激光点云的地形断面制作方法
CN114659514A (zh) 一种基于体素化精配准的LiDAR-IMU-GNSS融合定位方法
CN114565616A (zh) 一种非结构化道路状态参数估计方法及***
CN113514829A (zh) 面向InSAR的初始DSM的区域网平差方法
CN116399324A (zh) 建图方法、装置及控制器、无人驾驶车辆
CN103513247B (zh) 合成孔径雷达图像和光学图像同名点匹配的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant