CN111551957B - 基于激光雷达感知的园区低速自动巡航及紧急制动*** - Google Patents

基于激光雷达感知的园区低速自动巡航及紧急制动*** Download PDF

Info

Publication number
CN111551957B
CN111551957B CN202010248061.5A CN202010248061A CN111551957B CN 111551957 B CN111551957 B CN 111551957B CN 202010248061 A CN202010248061 A CN 202010248061A CN 111551957 B CN111551957 B CN 111551957B
Authority
CN
China
Prior art keywords
point cloud
laser
distance
image
emergency braking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010248061.5A
Other languages
English (en)
Other versions
CN111551957A (zh
Inventor
黄瑜岳
徐江
高传宝
高宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Fujie Technology Co ltd
Original Assignee
Shanghai Fujie Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Fujie Technology Co ltd filed Critical Shanghai Fujie Technology Co ltd
Priority to CN202010248061.5A priority Critical patent/CN111551957B/zh
Publication of CN111551957A publication Critical patent/CN111551957A/zh
Application granted granted Critical
Publication of CN111551957B publication Critical patent/CN111551957B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T7/00Brake-action initiating means
    • B60T7/12Brake-action initiating means for automatic initiation; for initiation not subject to will of driver or passenger
    • B60T7/22Brake-action initiating means for automatic initiation; for initiation not subject to will of driver or passenger initiated by contact of vehicle, e.g. bumper, with an external object, e.g. another vehicle, or by means of contactless obstacle detectors mounted on the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • G01S17/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/155Segmentation; Edge detection involving morphological operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明公开了一种基于激光雷达感知的园区低速自动巡航及紧急制动***,包括1)激光点云的特征提取,2)激光距离灰度图闭运算,采用了八邻域插值法和图像闭运算操作进行对比修正;3)激光灰度图特征提取,使用Sobel算子对强度灰度图进行边缘提取,从而保留使用由激光点云强度反映出的物体的轮廓特征,并利用强度边缘图进行融合和训练;4)车道估算,通过道面总宽度,区分有应急车道及没有应急车道以及车道数量;5)计算PID车辆横向控制公式参数。本发明可以避免阴影、天气、光强等造成的影响,并且利用激光雷达同样可以完成视觉感知实现的对任意场景下的道路进行语义分割检测,进而识别出可行驶区域。

Description

基于激光雷达感知的园区低速自动巡航及紧急制动***
技术领域
本发明涉及自动驾驶领域,尤其涉及一种基于激光雷达(机器学习)的低 速园区无人车巡航及紧急制动***。
背景技术
激光雷达定位,机器人定位的目的是知道其本身所在位置。目前,机器人 定位方法可分为自主定位和非自主定位两大类。所谓的非自主定位在定位的机 器人的过程中需要使用机器人本身以外的装置,如全球定位***(GPS)的帮 助下,找到自身的位置;自主定位是一个机器人定位只取决于机器人自身携带 的传感器。由于在室内环境中无法使用GPS,安装其他辅助定位***又非常不 便。由此可知,自主定位是更适用于机器人的方法。位姿跟踪是机器人在已知 初始位置的情况下,随着机器人的不断移动,对地图中提取的特征和所观测到 的特征进行匹配并计算它们之间的关系,进而更新机器人的姿态。SLAM基本思想是在同一时间使用已经建立的地图,纠正基于运动模型的机器人姿态估计 误差,更准确的地图创建基于可靠的机器人位姿。
SLAM方法有很多种,目前大致可分为两类:一类为基于概率模型的方法,另 一类为非概率模型方法。许多基于卡尔曼滤波的SLAM方法如EKF SLAM、 FastSLAM就属于概率模型方法。非概率模型方法有主要有扫描匹配(本发明 方法)、数据融合(dataassociation)、基于模糊逻辑等。
三维目标匹配框架能够将代表模板点云的一组特征点匹配到代表场景点云的一组特征点上。对于模板和场景的三维点云数据,本节采用基于体素的采样方法 对其进行特征点采样,分别从模板和场景的三维点云数据中采样出一系列特征 点。首先,利用八叉树索引结构,将模板和场景的三维点云数据分别以体素宽 度VT和K进行体素化。然后,对于划分后的每一个体素,将距离该体素的质 心位置最近的点作为特征点。最后,将本章所提出的三维目标匹配框架应用于 采样出的模板特征点和场景特征点,并计算这两组特征点之间的同源匹配关系 。从采集到的车载激光点云数据中共选取了七组包含不同三维目标的测试数据 。对特征匹配代价项和几何匹配代价项赋以相同的权重。通常情况下,当场景 点云中的实例与模板点云存在较大的形态差异时,可以将A的值设置的大一些 ,即:炒1.0。此时,几何匹配代价项获得了更高的权重,可以有效地应对模 板点云与场景点云中对应实例之间的形态差异,能够得到更佳的三维目标匹配 结果。而当场景点云中的实例与模板点云之间的形态差异不大时,可以将A的 值设置的稍微小一些,即:压1.O。
常欢.无人车基于三维点云场景理解的语义地图构建[d].大连理工大学,2016 ,采用了对ODVL图进行超像素分割,把分割后得到的超像素块作为分类的最 小单元,提取其20维纹理特征。无法实现对目标物的多样化分类。孙文静.基 于视频和激光点云结合的行人检测方法[D].武汉理工大学.2013,采用3D激光 扫描仪和摄像机协同工作,利用激光点云对视频图像进行初步目标区域提取, 减小计算范围,采集行人的反射强度信息,扩充视频图像的HOG特征,并利 用线性SVM进行训练得到行人检测分类器,从而进行行人检测。但是需要对 激光雷达数据与视频数据进行双重处理,提升了对***运算性能的要求。
上述所认证的方法无法实现利用单个传感器对车辆行驶环境的目标及距离感知 。
发明内容
1、本发明的目的
本发明为了解决利用单个传感器对车辆行驶环境的目标及距离感知的问题, 提出了一种基于激光雷达(机器学习)的低速园区无人车巡航及紧急制动***。
2、本发明所采用的技术方案
本发明公开了一种基于激光雷达感知的园区低速自动巡航及紧急制动***, 包括:
1)激光点云的特征提取,激光点云点云映射到二维图像上后,每个像素对 应多个激光点,取值最大的激光点作为该像素对应的激光点;采用线性变换方 式将激光点云的距离和反射强度之转化成灰度值;经计算,生成的距离灰度图 和反射强度图;
2)激光距离灰度图闭运算
采用了八邻域插值法和图像闭运算操作进行对比修正;
3)激光灰度图特征提取
使用Sobel算子对强度灰度图进行边缘提取,从而保留使用由激光点云强 度反映出的物体的轮廓特征,并利用强度边缘图进行融合和训练;
4)车道估算
通过道面总宽度,区分有应急车道及没有应急车道以及车道数量;
5)计算PID车辆横向控制公式参数
5.1PID横向控制公式:
y=y_+p*(o1-o2)+i*o1+d*(o1-2*o2+o3)
o1:当前帧的车辆偏移距离offset,o2:上一帧的偏移距离;o3:上上一帧 的偏移距离;y:当前帧的方向盘转角;y_:上一帧的方向盘转角;P、i、d:系数;
5.2根据激光雷达探测的目标的距离变化率判断是否需要启动紧急制动以及 是启动缓刹还是启动急刹。
优选的,1)激光点云的特征提取中:
距离灰度计算公式如下所示,R(x,y)表示像素(x,y)对应的激光点到扫描 仪的距离,计算二维图像内所有激光点距离的最大值Rmax和最小值Rmin; G(x,y)表示像素(x,y)对应的灰度值;距离值换成反射强度值I(x,y):
Figure RE-GDA0002546622850000031
Figure RE-GDA0002546622850000032
经计算,生成的距离灰度图和反射强度图。
优选的,2)激光距离灰度图闭运算:
采用了八邻域插值法和图像闭运算操作进行对比修正;八邻域插值即对于 灰度图中灰度为零的像素,取邻域的八个像素点的灰度值的平均值作为该点的 灰度网值;图像闭运算即先对图像进行先膨胀再腐蚀操作;膨胀操作可以将与 物体接触的一定范围内的背景点合并到物体中,扩张物体的边界,连接近邻物 体,填充物体内细小的空洞;膨胀操作后,为了消除边界噪点,平滑边界,对 反射强度灰度图进行腐蚀操作。
优选的,4)车道估算:
L1为激光雷达检测的车体到左侧路沿的距离,L2为激光雷达检测的车 体到右侧激光雷达的距离,设道面总宽度L,则L可由公式(2)得到:
L=L1+L2 (2)
考虑到并非所有的所有道路均设置紧急车道,使用求模运算进行估计,设余数 为M,则余数M可由公式(3)得到:
M=L%3.75 (3)
如果M约等于2.5,则认为存在应急车道,否则认为不存在;若存在时,路 面宽度由公式(4)得到:
L=L-2.5 (4)
设车道数为N,使用路面宽度除以3.75,并向下取整,因为在道路设计中,路 面与路沿之间
存在一小段距离,则车道数可有公式(5)得到:
Figure BDA0002434475890000041
得到车道数量以后就可以对路面进行大致的划分。
优选的,5.2根据激光雷达探测的目标的距离变化率判断是否需要启动紧急 制动以及是启动缓刹还是启动急刹的具体判定依据:
(1)若距离小于最小阈值m:急刹;
(2)若距离在最小最大预设值之间,计算距离区间内的物体的速度,若最 快速度大于最大速度阈值n:急刹,否则:缓刹。
优选的,还包括点云融合处理步骤:
N帧点云数据以队列的形式进行存储,当新一帧点云数据到达时,将其压 入队列尾部,同时删除队列头部的点云帧数据。
优选的,还包括点云目标识别步骤:提取目标特征构造样本对象的多维特 征向量,通过SVM分类器分类后,Adaboost算法对大量的样本数据进行训练, 从而获得多个对象的判别函数。
优选的,还包括三维正态分布变换步骤:通过获取车体坐标系下的三位点 云,进行地面点分割、障碍物的聚类、动态点云检测与去除、三维点云配准即 正态分布变换表示曲面。
优选的,还包括路点跟随步骤:
将路径分解为多个航点,这些航点是路径的离散表示;在每个控制周期期 间,在自我车辆的前进方向上搜索下一个最近的航路点;航点是在阈值距离下 搜索。
优选的,还包括运动控制调节步骤:根据速度和角度命令启动转向和油门, 采用PID控制器控制。
3、本发明所采用的有益效果
本发明通过将运用在图像处理中的深度学习方法移植至对激光点云处理中, 实现对点云目标的分类和深度感知。可以避免阴影、天气、光强等造成的影响, 并且利用激光雷达同样可以完成视觉感知实现的对任意场景下的道路进行语义 分割检测,进而识别出可行驶区域。
附图说明
图1为***框架图;
图2为点云融合处理流程图;
图3为点云目标识别流程图;
图4为三维点云配准算法流程图;
图5为路点跟随示意图;
图6为运动控制调节示意图;
图7为运动控制调节图;
图8为点云探测目标轮廓效果图;
图9为点云路沿及障碍物识别仿真图;
图10为点云障碍物识别及距离探测仿真图。
具体实施方式
下面结合本发明实例中的附图,对本发明实例中的技术方案进行清楚、完 整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的 实施例。基于本发明的实施例,本领域技术人员在没有做创造性劳动前提下所 获得的所有其他实施例,都属于本发明的保护范围。
下面将结合附图对本发明实例作进一步地详细描述。
如图1所示为框架概要;本***是基于机器人操作***(ROS),点云库 (PCL)主要用于管理LiDAR扫描和3D映射数据。
1、点云融合处理
如图2所示,上述方法中,N帧点云数据以队列的形式进行存储,当新一 帧点云数据到达时,将其压入队列尾部,同时删除队列头部的点云帧数据。队 列长度的选取直接反应了点云数据融合的帧数,如果队列长度过长,融合算法 的处理速度会相应变慢,同时很容致使场景中的高速运动目标经过数据融合后 留下运动拖影,即目标物体被严重拉长;队列长度过短,融合后的点云数据分 辨率将得不到显著提升。由于本发明的雷达工作在10Hz的旋转频率下,点云 视频流的帧率较高,且场景中低速运动的物体较多,运动拖影对后续目标检测 与识别算法造成的影响较小,因此本发明选取了长度为4的队列大小,对4帧 点云数据进行融合处理,既提高了点云数据的分辨率,同时不会对场景中运动 目标的点云分布造成严重影响。
2、点云目标识别
如图3所示,由于Velodyne雷达本身的成像特点,其采集的目标点云通常 只能反映物体某一表面的轮廓,不能反映物体的完整三维信息,且由于 Velodyne雷达的原始点云模型库较少,不适合使用模板匹配的方法对点云目标 进行识别,因此本发明选择基于机器学习的识别方法。使用机器学习的方法对 点云目标进行识别,需要构造一个分类性能较好分类器。构造分类器有两个关 键性问题需要解决,目标的特征提取方法与符合目标样本集特征的机器学习方 法。提取目标特征的目的是为了构造样本对象的多维特征向量,便于机器学习 算法对大量的样本数据进行训练,从而获得多个对象的判别函数。
3、三维正态分布变换
如图4所示,激光雷达采集的空间点云通常表示某个具体的曲面,例如建 筑物的墙面和汽车的侧面,或者近似的表示一个曲面或多个曲面的组合,例如 行人和树冠。然而只针对具体点的ICP算法在表示物体表面时存在很多限制。 如曲面的法方向、平滑度、曲率和是否有空洞。虽然在查找点对时选择点到平 面的距离度量方式在一定程度上考虑了点所在平面朝向的情况,但依然不足以 表示和利用点云的曲面属性。正态分布变换是一种致密的曲面表示方法。
4、路点跟随
如图5所示,纯追踪算法用于生成自我车辆的致动命令。该方法将路径分 解为多个航点,这些航点是路径的离散表示。在每个控制周期期间,算法在自 我车辆的前进方向上搜索下一个最近的航路点。航点是在阈值距离下搜索。这 减少了突然转弯或跟随时可能出现的角度变化偏离路径。
5、运动控制调节
如图6所示,目标航点不断更新,直到达到目标。然而,如果根据纯追踪 算法产生的速度和角度输出没有成功地控制自我车辆的转向和节气门,则车辆 可以暂时偏离计划的轨迹。为了根据速度和角度命令启动转向和油门,通常应 用PID控制器。PID控制器的参数高度依赖于给定的车辆平台。在某些情况下, 参数不正确调谐后,PID控制器将无法控制车辆稳定。
实施例
车辆巡航功能及紧急制动
1)激光点云的特征提取
如图7所示,激光点云非常密集,点云映射到二维图像上后,每个像素对 应多个激光点,取值最大的激光点作为该像素对应的激光点,本发明采用线性 变换方式将激光点云的距离和反射强度之转化成灰度值。距离灰度计算公式如 下所示,R(x,y)表示像素(X,y)对应的激光点到扫描仪的距离,计算二维图像 内所有激光点距离的最大值Rmax和最小值Rmin。生成的灰度图像的灰度区间 本发明设定为[o,255],G(x,y)表示像素(x,y)对应的灰度值;其中距离值换 成反射强度值I(x,y):
Figure RE-GDA0002546622850000071
经计算,生成的距离灰度图和反射强度图;
2)激光距离灰度图闭运算
由于激光点云的离散性,灰度图像的很多区域没有灰度值,行人也是由一 系列非连续的灰度值描述,本发明直接将此灰度图进行HOG特征进行检测时, 发现效果基本上为零。因此为了连通反射强度灰度图中的物体,本发明分别采 用了八邻域插值法和图像闭运算操作进行对比修正。八邻域插值是指对于灰度 图中灰度为零的像素,取邻域的八个像素点的灰度值的平均值作为该点的灰度 网值。图像闭运算即先对图像进行先膨胀再腐蚀操作。膨胀操作可以将与物体 接触的一定范围内的背景点合并到物体中,扩张物体的边界,连接近邻物体, 填充物体内细小的空洞。膨胀操作后,为了消除边界噪点,平滑边界,对反射 强度灰度图进行腐蚀操作。
3)激光灰度图特征提取
如图8所示,按照以上两步对激光强度灰度图进行预处理后,在利用强度 灰度图进行行人检测时本发明发现强度灰度图检测率基本为0,而对强度灰度 图进行边缘提取后,行人检测效果大大提高,分析原因发现,由于以上激光点 云灰度图的闭运算,虽然解决了灰度图中的轮廓问题,但是也平滑模糊了强度 灰度轮廓,因此本发明使用Sobel算子对强度灰度图进行边缘提取,从而保留 使用由激光点云强度反映 出的物体的轮廓特征,并利用强度边缘图进行融合和训练
4)车道估算
L1为激光雷达检测的车体到左侧路沿的距离,L2为激光雷达检测的车 体到右侧激光雷达的距离,设道面总宽度L,则L可由公式(2)得到:
L=L1+L2 (2)
考虑到并非所有的所有道路均设置紧急车道,使用求模运算进行估计,设余数 为M,则余数M可由公式(3)得到:
M=L%3.75 (3)
如果M约等于2.5,则认为存在应急车道,否则认为不存在。若存在时,路 面宽度由公式(4)得到:
L=L-2.5 (4)
设车道数为N,使用路面宽度除以3.75,并向下取整,因为在道路设计中,路 面与路沿之间
存在一小段距离,则车道数可有公式(5)得到:
Figure BDA0002434475890000091
得到车道数量以后就可以对路面进行大致的划分。
5)计算PID车辆横向控制公式参数
5.1PID横向控制公式:
y=y_+p*(o1-o2)+i*o1+d*(o1-2*o2+o3)
o1:当前帧的车辆偏移距离offset,o2:上一帧的偏移距离;o3:上上一帧 的偏移距离。
y:当前帧的方向盘转角;y_:上一帧的方向盘转角。
P、i、d:系数。
5.1根据激光雷达探测的目标的距离变化率判断是否需要启动紧急制动以及 是启动缓刹还是启动急刹。
具体判定依据:
①若距离小于2m:急刹;
②若距离大于2m小于5m:
计算距离区间内的物体的速度,若最快速度大于40km/h:急刹,否则:缓 刹。
如图9-10所示,通过本发明的方法,可以实现路沿和障碍物、以及距离 的精确识别。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局 限于此,任何熟悉本技术领域的技术人员在本发明披露的技术范围内,可轻易 想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护 范围应该以权利要求书的保护范围为准。

Claims (10)

1.一种基于激光雷达感知的园区低速自动巡航及紧急制动***,其特征在于:
1)激光点云的特征提取,激光点云映射到二维图像上后,每个像素对应多个激光点,取值最大的激光点作为该像素对应的激光点;采用线性变换方式将激光点云的距离和反射强度转化成灰度值;经计算,生成距离灰度图和反射强度图;
2)激光距离灰度图闭运算
采用了八邻域插值法和图像闭运算操作进行对比修正;
3)激光灰度图特征提取
使用Sobel算子对强度灰度图进行边缘提取,从而保留使用由激光点云强度反映出的物体的轮廓特征,并利用强度边缘图进行融合和训练;
4)车道估算
通过道面总宽度,区分有应急车道及没有应急车道以及车道数量;
5)计算PID车辆横向控制公式参数
5.1 PID横向控制公式:
y=y_+p*(o1-o2)+i*o1+d*(o1-2*o2+o3)
o1:当前帧的车辆偏移距离offset,o2:上一帧的偏移距离;o3:上上一帧的偏移距离;y:当前帧的方向盘转角;y_:上一帧的方向盘转角;P、i、d:系数;
5.2根据激光雷达探测的目标的距离变化率判断是否需要启动紧急制动以及是启动缓刹还是启动急刹。
2.根据权利要求1所述的基于激光雷达感知的园区低速自动巡航及紧急制动***,其特征在于1)激光点云的特征提取中:
距离灰度计算公式如下所示,R(x,y)表示像素(x,y)对应的激光点到扫描仪的距离,计算二维图像内所有激光点距离的最大值Rmax和最小值Rmin;G(x,y)表示像素(x,y)对应的灰度值;距离值换成反射强度值I(x,y):
Figure FDA0003943985700000011
经计算,生成的距离灰度图和反射强度图。
3.根据权利要求1所述的基于激光雷达感知的园区低速自动巡航及紧急制动***,其特征在于:2)激光距离灰度图闭运算:
采用了八邻域插值法和图像闭运算操作进行对比修正;八邻域插值即对于灰度图中灰度为零的像素,取邻域的八个像素点的灰度值的平均值作为该点的灰度网值;图像闭运算即先对图像进行先膨胀再腐蚀操作;膨胀操作可以将与物体接触的背景点合并到物体中,扩张物体的边界,连接物体,填充物体内细小的空洞;膨胀操作后,为了消除边界噪点,平滑边界,对反射强度灰度图进行腐蚀操作。
4.根据权利要求1所述的基于激光雷达感知的园区低速自动巡航及紧急制动***,其特征在于4)车道估算:
L1为激光雷达检测的车体到左侧路沿的距离,L2为激光雷达检测的车体到右侧激光雷达的距离,设道面总宽度L,则L可由公式(2)得到:
L=L1+L2 (2)
考虑到并非所有的所有道路均设置紧急车道,使用求模运算进行估计,设余数为M,则余数M可由公式(3)得到:
M=L%3.75 (3)
如果M约等于2.5,则认为存在应急车道,否则认为不存在;若存在时,路面宽度由公式(4)得到:
L=L-2.5 (4)
设车道数为N,使用路面宽度除以3.75,并向下取整,因为在道路设计中,路面与路沿之间
存在一小段距离,则车道数可有公式(5)得到:
Figure FDA0003943985700000021
得到车道数量以后就可以对路面进行划分。
5.根据权利要求1所述的基于激光雷达感知的园区低速自动巡航及紧急制动***,其特征在于:5.2根据激光雷达探测的目标的距离变化率判断是否需要启动紧急制动以及是启动缓刹还是启动急刹的具体判定依据:
(1)若距离小于最小阈值m:急刹;
(2)若距离在最小最大预设值之间,计算距离区间内的物体的速度,若最快速度大于最大速度阈值n:急刹,否则:缓刹。
6.根据权利要求1所述的基于激光雷达感知的园区低速自动巡航及紧急制动***,其特征在于还包括点云融合处理步骤:
N帧点云数据以队列的形式进行存储,当新一帧点云数据到达时,将其压入队列尾部,同时删除队列头部的点云帧数据。
7.根据权利要求6所述的基于激光雷达感知的园区低速自动巡航及紧急制动***,其特征在于还包括点云目标识别步骤:提取目标特征构造样本对象的多维特征向量,通过SVM分类器分类后,Adaboost算法对大量的样本数据进行训练,从而获得多个对象的判别函数。
8.根据权利要求7所述的基于激光雷达感知的园区低速自动巡航及紧急制动***,其特征在于还包括三维正态分布变换步骤:通过获取车体坐标系下的三维点云,进行地面点分割、障碍物的聚类、动态点云检测与去除、三维点云配准即正态分布变换表示曲面。
9.根据权利要求8所述的基于激光雷达感知的园区低速自动巡航及紧急制动***,其特征在于还包括路点跟随步骤:
将路径分解为多个航点,这些航点是路径的离散表示;在每个控制周期期间,在自我车辆的前进方向上搜索下一个最近的航路点;航点是在阈值距离下搜索。
10.根据权利要求9所述的基于激光雷达感知的园区低速自动巡航及紧急制动***,其特征在于还包括运动控制调节步骤:根据速度和角度命令启动转向和油门,采用PID控制器控制。
CN202010248061.5A 2020-04-01 2020-04-01 基于激光雷达感知的园区低速自动巡航及紧急制动*** Active CN111551957B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010248061.5A CN111551957B (zh) 2020-04-01 2020-04-01 基于激光雷达感知的园区低速自动巡航及紧急制动***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010248061.5A CN111551957B (zh) 2020-04-01 2020-04-01 基于激光雷达感知的园区低速自动巡航及紧急制动***

Publications (2)

Publication Number Publication Date
CN111551957A CN111551957A (zh) 2020-08-18
CN111551957B true CN111551957B (zh) 2023-02-03

Family

ID=72002412

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010248061.5A Active CN111551957B (zh) 2020-04-01 2020-04-01 基于激光雷达感知的园区低速自动巡航及紧急制动***

Country Status (1)

Country Link
CN (1) CN111551957B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111985555B (zh) * 2020-08-19 2021-04-13 中国科学院上海微***与信息技术研究所 毫米波三维全息图像去噪方法
WO2022067647A1 (zh) * 2020-09-30 2022-04-07 华为技术有限公司 一种路面要素确定方法及装置
CN112433228B (zh) * 2021-01-05 2023-02-03 中国人民解放军国防科技大学 用于行人检测的多激光雷达决策级融合方法和装置
CN112634269B (zh) * 2021-01-14 2023-12-26 华东交通大学 一种轨道车辆车体检测方法
CN112841742B (zh) * 2021-01-18 2023-11-21 河南中烟工业有限责任公司 基于预抽吸动作捕捉的加热使能控制方法
CN112735187A (zh) * 2021-01-29 2021-04-30 重庆长安汽车股份有限公司 一种自动识别应急车道的***和方法
CN112488112B (zh) * 2021-02-04 2021-11-09 深兰人工智能芯片研究院(江苏)有限公司 目标对象识别方法、装置、电子设备及存储介质
CN113408413B (zh) * 2021-06-18 2023-03-24 苏州科达科技股份有限公司 应急车道的识别方法、***及装置
CN114898321A (zh) * 2022-06-02 2022-08-12 重庆交通职业学院 道路可行驶区域检测方法、装置、设备、介质及***

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102508255A (zh) * 2011-11-03 2012-06-20 广东好帮手电子科技股份有限公司 车载四线激光雷达***及其电路、方法
US9420958B2 (en) * 2013-03-15 2016-08-23 Honda Motor Co., Ltd. System and method for determining changes in a body state
JP6278464B2 (ja) * 2014-09-19 2018-02-14 オムロンオートモーティブエレクトロニクス株式会社 レーザレーダ装置および制御方法
CN110320531B (zh) * 2018-03-30 2021-09-03 郑州宇通客车股份有限公司 基于激光雷达的障碍物识别方法、地图创建方法及装置
CN109886215B (zh) * 2019-02-26 2021-10-19 常熟理工学院 基于机器视觉的低速园区无人车巡航及紧急制动***
CN110244321B (zh) * 2019-04-22 2023-09-26 武汉理工大学 一种基于三维激光雷达的道路可通行区域检测方法

Also Published As

Publication number Publication date
CN111551957A (zh) 2020-08-18

Similar Documents

Publication Publication Date Title
CN111551957B (zh) 基于激光雷达感知的园区低速自动巡航及紧急制动***
CN111126269B (zh) 三维目标检测方法、装置以及存储介质
CN108647646B (zh) 基于低线束雷达的低矮障碍物的优化检测方法及装置
CN106096525B (zh) 一种复合型车道识别***及方法
EP2574958B1 (en) Road-terrain detection method and system for driver assistance systems
CN112665556B (zh) 使用被动和主动测量生成场景的三维地图
CN112101128B (zh) 一种基于多传感器信息融合的无人方程式赛车感知规划方法
US8605947B2 (en) Method for detecting a clear path of travel for a vehicle enhanced by object detection
CN110674705B (zh) 基于多线激光雷达的小型障碍物检测方法及装置
CN110568861B (zh) 一种人机运动障碍物监测方法、可读存储介质和无人机
US11361484B1 (en) Methods and systems for ground segmentation using graph-cuts
JP6906471B2 (ja) 点群から対象の向きを推定する対象情報推定装置、プログラム及び方法
CN112674646B (zh) 基于多算法融合的自适应贴边作业方法及机器人
CN117058646B (zh) 基于多模态融合鸟瞰图的复杂道路目标检测方法
Jun et al. Autonomous driving system design for formula student driverless racecar
CN116576857A (zh) 一种基于单线激光雷达的多障碍物预测导航避障方法
CN115923839A (zh) 一种车辆路径规划方法
CN112666573A (zh) 一种矿区卸载区车后方挡土墙及障碍物的检测方法
CN114495066A (zh) 一种辅助倒车的方法
CN115083199B (zh) 一种车位信息确定方法及其相关设备
CN114821517A (zh) 用于学习神经网络以确定环境中车辆姿态的方法和***
CN117284320A (zh) 一种点云数据的车辆特征识别方法及***
Zheng et al. Automatic detection technique of preceding lane and vehicle
Vatavu et al. Environment perception using dynamic polylines and particle based occupancy grids
Charaya LiDAR for Object Detection in Self Driving Cars

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant