CN116524219A - 一种基于激光雷达点云聚类的障碍物检测方法 - Google Patents

一种基于激光雷达点云聚类的障碍物检测方法 Download PDF

Info

Publication number
CN116524219A
CN116524219A CN202310059217.9A CN202310059217A CN116524219A CN 116524219 A CN116524219 A CN 116524219A CN 202310059217 A CN202310059217 A CN 202310059217A CN 116524219 A CN116524219 A CN 116524219A
Authority
CN
China
Prior art keywords
point cloud
points
obstacle
clustering
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310059217.9A
Other languages
English (en)
Inventor
张飞虎
周西军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN202310059217.9A priority Critical patent/CN116524219A/zh
Publication of CN116524219A publication Critical patent/CN116524219A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/72Data preparation, e.g. statistical preprocessing of image or video features
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种基于激光雷达点云聚类的障碍物检测方法,首先是进行点云预处理,主要是通过离群值去除及降采样对点云进行过滤,然后采用了线性拟合算法分离地面点云与障碍物点云,之后采用欧式聚类实现了对障碍物的分离,提高障碍物检测的准确性,最后对聚类后的点云进行3D包围盒拟合,方便了对障碍物感知后的无人车的进一步行驶控制,用以后继的避障、跟踪之类工作。

Description

一种基于激光雷达点云聚类的障碍物检测方法
技术领域
本发明属于无人驾驶领域,涉及一种基于激光雷达点云聚类的障碍物检测方法,具体为对激光雷达点云数据进行分割、聚类从而实现对障碍物的检测。
背景技术
无人驾驶领域环境感知传感器包括相机、激光雷达、毫米波雷达,相机更为接近人眼,且由于图像处理技术结合智能AI发展越发成熟,相机逐渐在无人驾驶领域占有更为重要的比例,如著名车企特斯拉早期更是宣称只会使用相机作为无人驾驶的“眼睛”,相机的优点在于能够获取环境的光学颜色信息且价格低廉,但容易受光照影响,无法适应全天候的工作时间,且无法获取环境的三维信息,而毫米波雷达虽然能获取环境的三维信息,但其点云过于稀疏往往难以用于成像,相比之下,激光雷达拥有稠密点云数据可详细描述环境三维信息,且不易受干扰,能够适应全天候的工作时间,随着科技的不断发展,激光雷达价格也越发低廉,可以预见的是激光雷达将会成为无人驾驶毫无争议的“眼睛”。
激光雷达能够感知周围的环境信息,以点云的形式呈现出周围的环境信息,由于实际环境中存在粉尘,且由于遮挡等原因,我们实际获取到的数据并不全是有效的,而且激光雷达在采集数据时天然性的不会对数据进行过滤,对于无人驾驶来说,我们需要对点云做进一步的处理以标明障碍物,用以后继的避障、跟踪之类工作。
障碍物检测是环境感知的重要组成部分,它是经过点云过滤、地面分割和聚类等操作,将障碍物从散乱无序的大量点云数据中检测出来,
发明内容
要解决的技术问题
为了避免现有技术的不足之处,本发明提出一种基于激光雷达点云聚类的障碍物检测方法,基于雷达点云,通过对点云进行预处理、地面分割、聚类,提出了一种点云障碍物检测的方法,从而便于后继避障及目标跟踪。
技术方案
一种基于激光雷达点云聚类的障碍物检测方法,其特征在于步骤如下:
步骤1:对无人车的激光雷达获得的点云进行过滤,去除ROI区域之外的点、离群噪声点和点云的降采样:
采用概率统计滤波器对原点云里的离群值进行去除;
采用体素网格滤波器对离群值去除后的点云进行降采样;
通过PCL库中的CropBoxFillter进行圈定ROI区域;
步骤2:采用基于线性拟合的地面分割算法,将原始数据分割为地面点云与障碍物点云,一帧点云数据中仅剩下障碍物点云;
步骤3:采用欧式聚类识别出属于相同障碍物的点云,以确定其几何特征及位置信息;
步骤4:采用长方体作为边界框,以最小面积矩形的方法应用于每个聚类对象,得到一个2D框,以三维点云最高最低点为高度信息,2D框为长、宽信息,生成包含有长、宽、高信息的3D框,得到包围障碍物点云数据3D边界框;
所述3D框的底部矩形面包含点云最低点,顶部矩形面包含点云最高点;
步骤5:以3D边界框对齐PCL库中的OBB包围盒,在无人车行进中,OBB随着无人车朝向而不断改变计算自身方向,以及自身方向前的障碍物。
所述步骤1的采用概率统计滤波器对原点云里的离群值进行去除,是对每一个点的邻域进行一个统计分析,计算它到所有临近点的平均距离,平均距离在标准范围之外的点,被定义为离群点并从数据中去除。
所述标准范围根据由全局距离平均值和方差定义确定。
所述采用体素网格滤波器进行降采样的步骤:对点云数据创建三维体素栅格,设置栅格的大小,计算每个体素内点的数量,如果达到设定的数量,就输出体素中所有点的中心点或重心点。
所述通过PCL库中的CropBoxFillter圈定ROI区域,以原点为中心其大小则由两个顶点决定,分别为xyz正方向的最大值即最大x坐标、最大y坐标、最大z坐标,及xyz负方向最小值即最小x坐标、最小y坐标、最小z坐标。
所述3D框通过调用PCL库中的OBB即Oriented bounding Box,有向包围盒生成。
所述3D框调用PCL库中的OBB函数获取聚类后点云所需要的3D边界框。
有益效果
本发明提出的一种基于激光雷达点云聚类的障碍物检测方法,首先是进行点云预处理,主要是通过离群值去除及降采样对点云进行过滤,然后采用了线性拟合算法分离地面点云与障碍物点云,之后采用欧式聚类实现了对障碍物的分离,提高障碍物检测的准确性,最后对聚类后的点云进行3D包围盒拟合,方便了对障碍物感知后的无人车的进一步行驶控制,用以后继的避障、跟踪之类工作。
附图说明
图1:本方法流程图
图2:原始点云
图3:离群值去除后的点云
图4:降采样栅格0.2
图5:降采样栅格0.5
图6:ROI区域选定120X120X30
图7:将三维空间划分为同等大小的小segment
图8:点pi被映射到一个segment下的bin中,最终映射为一条直线中的pi
图9a:地面分割出来的点云
图9b:地面去除后的点云,也就是障碍物点云
图9c:地面分割与障碍物点云
图10:欧式聚类后的结果
图11:PCL库中也内置有AABB包围盒(Axis-Aligned Bounding Box,轴对齐包围盒)和OBB包围盒(Oriented Bounding Box,有向包围盒)
图12:OBB包围盒
图13:AABB包围盒
具体实施方式
现结合实施例、附图对本发明作进一步描述:
本发明基于雷达点云,通过对点云进行预处理、地面分割、聚类,提出了一种点云障碍物检测的方法,从而便于后继避障及目标跟踪。
首先是进行点云预处理,主要是通过离群值去除及降采样对点云进行过滤,然后采用了线性拟合算法分离地面点云与障碍物点云,之后采用欧式聚类实现了对障碍物的分离,提高障碍物检测的准确性,最后对聚类后的点云进行3D包围盒拟合,方便了对障碍物感知后的更进一步的操作,流程图如图1所示:
具体步骤如下:
一、点云数据预处理
速腾32线激光雷达每秒获得640000个点,如果直接对这些点进行操作,会浪费大量的计算资源,影响***的实时性。因此需要对数据进行预处理操作,主要是对点云进行过滤。保留障碍物基本特征的同时,降低点云数量,缓解***的计算压力,其步骤包括去除ROI区域之外的点、离群噪声点和点云的降采样。
1.1离群值去除
激光雷达与车体刚性连接,由于车辆自身的振动、路面不平、激光雷达设备特性的干扰、飞虫、悬浮的落叶、灰尘以及恶劣天气等,使检测的点云数据中产生了一些孤立的噪声点和距离车辆较远的离群点。这些噪声点的测量数据是无用的,如果被误认为障碍物,会导致***误报警,影响车辆的正常行驶,且给***带来不必要的计算负担,降低数据处理的实时性。因此,进行后续点云数据处理之前需要去除噪声点,以确保数据的有效可靠性。
图2为原始点云数据,可以明显发现图中存在大量离散的杂点,这些杂点本身数量并不占优,但仍然会对探测造成影响。
这里采用概率统计滤波器对原点云里的离群值进行去除,该滤波器主要用来剔除离群点,或者测量误差导致的粗差点。其原理为对每一个点的邻域进行一个统计分析,计算它到所有临近点的平均距离,假设得到的结果是一个高斯分布,其形状是由均值和标准差决定,那么平均距离在标准范围(由全局距离平均值和方差定义)之外的点,可以被定义为离群点并从数据中去除。
离群值去除后的点云数据如图3,可以明显发现整体影像变得更为清晰且远距离处离散的点也全部去除了,下一步就是对离群值去除后的点云进行降采样。
1.2降采样
激光雷达的工作频率一般为10Hz,每秒返回几十万个激光点。如此多的数据会消耗大量的计算资源,降低数据处理的实时性。因此,保证足够多有用信息的前提下,对点云进行下采样,以加快算法的运行速度。本文点云下采样的方法采用体素网格滤波器(VoxelGrid Filter)。体素网格滤波的步骤:对点云数据创建三维体素栅格,设置栅格的大小,在代码中用set Leaf Size(%f,%f,%f)表示,计算每个体素内点的数量,如果达到指定的数量,就输出体素中所有点的中心点或重心点,这也就意味着所设置的栅格越大滤除的点就越多,滤波效果越明显。使用中心点近似代表体素中所有点的方法要更快,但是对于采样点对应的曲面表示不准确。
为了更为清晰的展示体素滤波的效果,这里提供了两个具有不同栅格大小的结果。
图4为降采样栅格设置为0.2后的结果,尽管从图像上看不出太大差别,但实际上原本53295个点的点云经过降采样后剩下19111个点,为了更进一步凸显降采样的效果,将栅格大小进一步增大到0.5,其结果如图5,此时点云中只剩下7510个点,从图像上看已经非常明显了,相比原图变的更为稀疏,但一些特征仍然被保留着,像是树干、墙壁、路面之类的。
值得一提的是设置更大的栅格会滤除更多的点云,相对而言,计算量就会大大节约,但并不是越大越好,实际应用中还是应当与环境结合。
1.3圈定ROI区域
ROI(Region of Interest)意为感兴趣区域,在机器视觉、图像处理中,从被处理的图像以方框、圆、椭圆、不规则多边形等方式勾勒出需要处理的区域,称为感兴趣区域,即ROI。尽管自动驾驶中视野越广阔越好,更广阔的视野才能更早的探测到一些目标,从而能够给无人车留下更充足的时间进行决策,但大部分时候其实只要求XY平面的广阔而非Z轴上的广阔,无人车探测到的很多高空目标并没有意义,此外雷达最长探测范围可达200米,但实际上因为各种遮挡原因,在远距离时点云已经非常稀疏,基本不成特征,无法用于识别或探测,这类点数据的存在反而会影响探测,误导感知,即便是从节约算力的角度来看,我们也应该对点云数据的范围进行限定。
ROI区域可以通过PCL库中的CropBoxFillter来实现,它会过滤指定立方体内的点,该立方体以原点为中心其大小则由两个顶点决定,分别为xyz正方向的最大值(最大x坐标、最大y坐标、最大z坐标),及xyz负方向最小值(最小x坐标、最小y坐标、最小z坐标),CropBoxFillter本质是由直通滤波器实现的,通过限制三个坐标轴方向的最大值进而滤除部分点,故也可以直接使用PCL中的PassThrough实现立方体ROI区域的圈定。
这里设置ROI区域为120X120X30范围的大小,即x轴、y轴最大最小距离分别为60m和-60m,z轴最大最小距离为15m和-15m,结果如图6所示:
与图5相比,最上方和最左边一些点被去除了,这些距离较远的点比较稀疏又不成规模,难以分辨,不如去除。
二、地面分割
激光雷达旋转一圈得的一帧点云数据中存在大量的地面点云,它不是障碍物检测的主要对象,同时会影响***的实时性。因此,要准确的将原始数据分割为地面点云与障碍物点云,减小后续聚类过程的难度并提高计算效率。若产生过分割,将障碍物点云数据分割为地面点云,会导致障碍物漏检,影响车辆行驶的安全性;若产生欠分割,地面点云未完全去除,会造成障碍物过检,影响车辆的正常行驶。常用的地面分割方法有:
2.1基于线性拟合的地面分割算法
之前已经谈论过,RANSAC基于平面的拟合是对整个点云数据随机采样然后计算拟合方程,最后在多次迭代中选取最佳结果,这种方法一方面需要多次迭代如200次,才能一定程度上摆脱随机性得到真正的方程,另一方面平面方程只能表示平面,而实际雷达点云存在噪声等因素并不会呈现出平面的效果,最重要的是我们实际生活中的地面为了利于排水行走之类,都是经过特别设计的,并不是我们以为的平面,而是呈拱形的曲面,即便放宽平面约束的参数,可以使RANSAC成功滤除地面,但非地面物体也会被当作地面滤除,为了适应这种具有一定曲面的情形,基于线性拟合的地面分割算法被提出来了[54],由于该算法所需调节参数较多,故下面将结合论文与程序详细介绍该算法原理及部分重要参数。
1、点云获取
首先将整个的三维笛卡尔坐标系进行另一种类似极坐标形式的表示进行点云的划分,将其从无序的点云划分为有序的点云。划分的标准有以下两个:segment,bins。图7
segment:
将整个笛卡尔坐标系中的x-y平面转变为一个无穷长半径的圆面。设定一个弧度参数Δα。然后我们可以将整个x-y平面转变为一个被弧度参数Δα划分为M份扇面的圆面。
也就是将整个x-y平面划分为M个segment,为了能够很好的将点进行segment的定位,使用以下的方式:
这样就可以将每一个点都映射到segment里初步实现有序化,对于所给的点云其划分结果如下:
Ps={pi∈P|segmentp(i)=s} (1-3)
其中,s是代表segment s;P代表所有的点云;p(i)代表的是点云i。Ps代表的是属于segment s的点云集合。这样的话,就将整个的无序点云转化为有segment划分的有序点云了。
Bins:
在前面,已经进行了segment的划分,也就是说,将整个点云划分为M个segment,为了能够进一步的进行点云的有序化划分,这里使用了bins的划分,针对于segment s中的点云Ps来处理。
可以设定两个距离参数rmin和rmax来进行第j个bins的限制。所以,对于每一个点通过以下的条件进行划分:
因此,可以对该点在x-y平面上的投影来进行pi∈P的判断,通过该操作,就可以将一个扇面划分为多个扇环,这样,无序点云就被有序化处理了如图8,原本在内存中无序索引,此时可以通过segment和bins来对点进行索引,只不过不是唯一索引。
需要注意的是此前说的是通过Δα将空间划分为segmen,而程序中实际上是直接在参数表中选定数量的segmens和bins,显然这两项参数设置的越大空间被划分的越细致,分割效果无疑会更好,但后继需要对每一个bins进行处理,故参数越大同样意味着运算量的增加,具体设置应当在考虑自身算力的前提下尽可能的大。
在前面进行了点云的有序化处理,现在需要进行最低点也就是最小z点的选取,来进行地面点的筛选,这里的数据处理都是在一个segment中进行的。
前面已经进行了x-y平面的投影,但是,却保留了该点的z坐标,也就是将一个三维坐标点,转变为一个二维坐标点,外加一个x-y平面的角度信息。
{x,y,z}={d,z}+θ (1-5)
上式中θ就是对空间进行segment划分时获得的角度,其中这样的话,就实现了降维的操作,将一个三维数据{x,y,z}转化为了二维数据{d,z},与此同时,其下标是连接三维坐标和二维坐标的桥梁,这为后面得到对应的二维地面点转化为三维地面点,提供了理论支撑。
经过这一步的操作后,可以将三维点云转化为二维点云,实现降维操作。但是这一步和普通的降维操作不一样,它并不是单纯的减少一个维度,而是将水平方向的平方根作为维度,实现的降维操作。该操作可以保留竖直维度的信息,同时又不损失水平维度的信息,是一种不错的降维方法,接下来就可以进行直线拟合了。
在前面一步得到了{d,z}的数据,可以构建出d-z平面的离散点。针对于这些离散点,我们设定了四个条件来进行直线拟合的判断,其中直线表示为y=kx+b;
直线的斜率的绝对值不应该超过一个设定的阈值因为,这个是一个d-z的平面,所以直线的斜率代表的是z轴到x-y平面的值。斜率不能过大。因为过大的斜率会呈现出垂直结构。而我们进行的是地面点的拟合,所以,需要对斜率进行某种程度的阈值设定。
当斜率k的绝对值比较小的时候,y-b不应该超过一个一个特定的阈值Tb,因为,当斜率绝对值很小的时候,说明基本上地面是平整的,不是上下坡这种情况,而截距y-b则表明了其距离地面的值,而前面也说明了此时应当是一个平整的路面不应出现较大截距,所以,应该设定其不大于一个设定的竖直维度阈值Tb。这样的话,就不会把高出地面的点云认为是地面了。
这里的斜率k对应于程序参数列表中的max_slope,结果实际测试大小一般不超过0.5即可。
拟合一般都有误差,拟合直线的均方根误差不应该超过设定的误差阈值TRMSE,对应于程序的参数列表中的max_fit_error,这个是直线拟合,也就是最小二乘法的必要过程,需要对于拟合的直线进行拟合程度的判断来确保是否对于离散点拟合成功。
接下来梳理整个过程,对于一条直线的拟合,首先我们找到segment中bins的第一个点,然后,判断该点之前是否已经存在直线,如果不存在则将该店作为直线拟合的起点,否则计算该点到已经存在的直线的距离,这个距离不能超过设定的一个阈值,如果不超过这个距离,则我们就认为这个点时可以被拟合到直线上的,如果超过这个距离,则就以该点为基准,重新开始一条直线,同样的斜率也不能超过阈值,这样的话,就可以进行不同直线的拟合,一个segment中往往存在多条直线。
在前面,我们拟合了许多条直线,其中这些直线,是在一个segment中按照bins的顺序进行处理的。我们可以看到的是一条直线可能不止一条bins,但是直线之间是不会出现重叠的。因此,我们就可以通过拟合到的直线来进行地面点的筛选。
根据筛选出来的直线和自己设定的参数,来进行点到直线的z轴的距离。这样的话,算出来的就是同d情况下的z的差距。这样的话,是可以进行地面点的筛选的,在阈值范围内的点就是我们挑选出来的地面点。
在前面进行地面点的筛选,得到的是d-z平面的数据。因此,我们需要转化到三维笛卡尔坐标系下的距离。通过前面的点的筛选,然后再通过最开始的点云的索引index,我们可以从这里逆推回去,得到属于地面点的三维数据点,这样的话,就得到了最终的三维地面数据点。
接下来是实际数据的测试阶段,首先完成程序中参数列表中各个参数的设置,先是最近最远点分别设置为0.5和60,这里我的最远点设置是与之前ROI区域的选取相匹配的,接下来设置设置bin和segmen的数量,为了更准确的提取地面,这里分别设置为300及360,然后是斜率及搜索角度,斜率设置为0.5,而搜索角度直接设置为1,需要注意的是这里的搜索角度必须大于划分segment后每个segment的角度,不然就不会搜索周围点,结果如图9a所示,图9b为去除地面后的点云,也就是障碍物点云,图9c是地面点云与障碍物点云的集合,蓝色为地面点云,红色为障碍物点云。
三、点云聚类
经过点云数据预处理及地面分割之后,一帧点云数据中仅剩下障碍物点云,但它仍是个离散的点云集,人眼能直接分辨出可视化之后的障碍物点云,而***无法判断,需依据一定的聚类算法识别出属于相同障碍物的点云,以确定其几何特征及位置信息。点云聚类是通过点云数据的相似属性特征进行分类处理,使得聚类之后同个类之间的数据有很大的相似性,不同类之间的数据有着很大差异。障碍物聚类之后的处理效率比遍历所有点的处理效率更高,能减小***运行压力,提高算法的实时性。聚类之后能够提取其位置、轮廓尺寸和运动状态等信息,方便后续对障碍物进行跟踪。常见的聚类方法有基于划分、层次、密度和网格的聚类等。
3.1欧式聚类
欧式聚类是一种基于欧氏距离度量的聚类算法,基于KD-Tree的近邻查询算法是加速欧式聚类算法的重要预处理方法。
3.2欧式聚类原理
欧式聚类实现方法大致是:
1、找到空间中某点p11,用KD-Tree找到离他最近的n个点,判断这n个点到p11的距离。将距离小于阈值r的点放在类Q里。
2、在Q(p11)里找到一点p12,重复步骤1。
3、在Q(p11,p12)里找到一点,重复步骤1,找到p12,p12,p12...全部放进Q里。
4、当Q再也不能有新点加入了,则完成搜索了。
3.3实测结果
将欧式距离阈值设置为0.5,最小聚类点数目设置为10,最大点数目设置为10000,其中最大点一般不需要特别设置,只需要维持一个较大值即可,图10为对完成地面分割后的点云进行聚类的实际结果。
四、包围盒拟合
聚类完成之后得到了待跟踪的候选对象,为了描述障碍物的位置、大小和朝向等信息,增强可视化特征,用3D边界框包围障碍物点云数据,使其具有统一的维度信息和朝向,边界框也称最小外接3D框,用来确定离散数据点的最小包围空间。考虑到道路环境中人车较多,形状复杂的物体相对较少,同时考虑激光点云数据的实时处理,选择易于创建的长方体作为边界框。通常最小面积矩形(MinIMUmArea Rectangle,MAR)的方法被应用于每个聚类对象,得到一个2D框,结合高度信息形成一个3D边界框。
此外PCL库中也内置有AABB包围盒(Axis-Aligned Bounding Box,轴对齐包围盒)和OBB包围盒(Oriented Bounding Box,有向包围盒),区别如图11所示。
显然OBB会更符合需求,因为现实中无人车方向并不总是朝向某一个固定方向,而是不断在变化,这样不随时调整包围盒的方向就会出现图10中AABB的情况,包围盒远远大于实际点云所占空间,这无疑会给后继的规划控制带来干扰,而OBB会不断计算自身方向,随着无人车朝向而不断改变,显然更符合需求,图12为OBB包围盒的结果,而为了与AABB形成对比,我们同样测试AABB的效果,如图13,显然出现了图12中情况。

Claims (7)

1.一种基于激光雷达点云聚类的障碍物检测方法,其特征在于步骤如下:
步骤1:对无人车的激光雷达获得的点云进行过滤,去除ROI区域之外的点、离群噪声点和点云的降采样:
采用概率统计滤波器对原点云里的离群值进行去除;
采用体素网格滤波器对离群值去除后的点云进行降采样;
通过PCL库中的CropBoxFillter进行圈定ROI区域;
步骤2:采用基于线性拟合的地面分割算法,将原始数据分割为地面点云与障碍物点云,一帧点云数据中仅剩下障碍物点云;
步骤3:采用欧式聚类识别出属于相同障碍物的点云,以确定其几何特征及位置信息;
步骤4:采用长方体作为边界框,以最小面积矩形的方法应用于每个聚类对象,得到一个2D框,以三维点云最高最低点为高度信息,2D框为长、宽信息,生成包含有长、宽、高信息的3D框,得到包围障碍物点云数据3D边界框;
所述3D框的底部矩形面包含点云最低点,顶部矩形面包含点云最高点;
步骤5:以3D边界框对齐PCL库中的OBB包围盒,在无人车行进中,OBB随着无人车朝向而不断改变计算自身方向,以及自身方向前的障碍物。
2.根据权利要求1所述基于激光雷达点云聚类的障碍物检测方法,其特征在于:所述步骤1的采用概率统计滤波器对原点云里的离群值进行去除,是对每一个点的邻域进行一个统计分析,计算它到所有临近点的平均距离,平均距离在标准范围之外的点,被定义为离群点并从数据中去除。
3.根据权利要求2所述基于激光雷达点云聚类的障碍物检测方法,其特征在于:所述标准范围根据由全局距离平均值和方差定义确定。
4.根据权利要求1所述基于激光雷达点云聚类的障碍物检测方法,其特征在于:所述采用体素网格滤波器进行降采样的步骤:对点云数据创建三维体素栅格,设置栅格的大小,计算每个体素内点的数量,如果达到设定的数量,就输出体素中所有点的中心点或重心点。
5.根据权利要求1所述基于激光雷达点云聚类的障碍物检测方法,其特征在于:所述通过PCL库中的CropBoxFillter圈定ROI区域,以原点为中心其大小则由两个顶点决定,分别为xyz正方向的最大值即最大x坐标、最大y坐标、最大z坐标,及xyz负方向最小值即最小x坐标、最小y坐标、最小z坐标。
6.根据权利要求1所述基于激光雷达点云聚类的障碍物检测方法,其特征在于:所述3D框通过调用PCL库中的OBB即Oriented bounding Box,有向包围盒生成。
7.根据权利要求1所述基于激光雷达点云聚类的障碍物检测方法,其特征在于:所述3D框调用PCL库中的OBB函数获取聚类后点云所需要的3D边界框。
CN202310059217.9A 2023-01-16 2023-01-16 一种基于激光雷达点云聚类的障碍物检测方法 Pending CN116524219A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310059217.9A CN116524219A (zh) 2023-01-16 2023-01-16 一种基于激光雷达点云聚类的障碍物检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310059217.9A CN116524219A (zh) 2023-01-16 2023-01-16 一种基于激光雷达点云聚类的障碍物检测方法

Publications (1)

Publication Number Publication Date
CN116524219A true CN116524219A (zh) 2023-08-01

Family

ID=87406993

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310059217.9A Pending CN116524219A (zh) 2023-01-16 2023-01-16 一种基于激光雷达点云聚类的障碍物检测方法

Country Status (1)

Country Link
CN (1) CN116524219A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117152719A (zh) * 2023-11-01 2023-12-01 锐驰激光(深圳)有限公司 除草障碍物检测方法、设备、存储介质及装置
CN117849760A (zh) * 2024-03-07 2024-04-09 云南云金地科技有限公司 一种激光雷达点云数据处理方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117152719A (zh) * 2023-11-01 2023-12-01 锐驰激光(深圳)有限公司 除草障碍物检测方法、设备、存储介质及装置
CN117152719B (zh) * 2023-11-01 2024-03-26 锐驰激光(深圳)有限公司 除草障碍物检测方法、设备、存储介质及装置
CN117849760A (zh) * 2024-03-07 2024-04-09 云南云金地科技有限公司 一种激光雷达点云数据处理方法
CN117849760B (zh) * 2024-03-07 2024-05-14 云南云金地科技有限公司 一种激光雷达点云数据处理方法

Similar Documents

Publication Publication Date Title
CN110781827B (zh) 一种基于激光雷达与扇状空间分割的路沿检测***及其方法
CN108509918B (zh) 融合激光点云与图像的目标检测与跟踪方法
Zermas et al. Fast segmentation of 3d point clouds: A paradigm on lidar data for autonomous vehicle applications
CN112070769B (zh) 一种基于dbscan的分层点云分割方法
CN116524219A (zh) 一种基于激光雷达点云聚类的障碍物检测方法
CN111325138B (zh) 一种基于点云局部凹凸特征的道路边界实时检测方法
CN115049700A (zh) 一种目标检测方法及装置
CN113920134B (zh) 一种基于多线激光雷达的斜坡地面点云分割方法及***
CN113640826B (zh) 一种基于3d激光点云的障碍物识别方法及***
CN111524127B (zh) 面向低空机载激光雷达数据的城市道路面提取方法
CN115063555A (zh) 高斯分布区域生长的车载LiDAR点云行道树提取方法
CN111783722B (zh) 一种激光点云的车道线提取方法和电子设备
CN116109601A (zh) 一种基于三维激光雷达点云的实时目标检测方法
CN115293287A (zh) 一种基于车载雷达的对目标进行聚类的方法、存储器及电子装置
CN116258857A (zh) 一种面向室外树木激光点云分割与提取方法
Chang et al. Automatic classification of lidar data into ground and non-ground points
Bulatov et al. Automatic tree-crown detection in challenging scenarios
CN113345072A (zh) 一种多视角遥感地形影像点云重建方法及***
Sun et al. Automated segmentation of LiDAR point clouds for building rooftop extraction
CN117292076A (zh) 工程机械局部作业场景动态三维重构方法及***
CN116958837A (zh) 基于无人机的市政设施故障检测***
Wang et al. An individual tree segmentation method from mobile mapping point clouds based on improved 3-D morphological analysis
CN112907574B (zh) 一种飞行器的降落点寻找方法、装置、***及存储介质
CN115760898A (zh) 一种混合高斯域下道路抛洒物的世界坐标定位方法
Yang et al. Extraction of straight field roads between farmlands based on agricultural vehicle-mounted LiDAR

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination