CN112083725A - 一种面向自动驾驶车辆的结构共用多传感器融合定位*** - Google Patents
一种面向自动驾驶车辆的结构共用多传感器融合定位*** Download PDFInfo
- Publication number
- CN112083725A CN112083725A CN202010923469.8A CN202010923469A CN112083725A CN 112083725 A CN112083725 A CN 112083725A CN 202010923469 A CN202010923469 A CN 202010923469A CN 112083725 A CN112083725 A CN 112083725A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- pose
- module
- laser
- point cloud
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 23
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 42
- 238000005457 optimization Methods 0.000 claims abstract description 37
- 230000033001 locomotion Effects 0.000 claims abstract description 30
- 238000001914 filtration Methods 0.000 claims abstract description 21
- 238000005516 engineering process Methods 0.000 claims abstract description 9
- 239000011159 matrix material Substances 0.000 claims description 47
- 238000000034 method Methods 0.000 claims description 26
- 238000004364 calculation method Methods 0.000 claims description 14
- 238000010276 construction Methods 0.000 claims description 13
- 230000009466 transformation Effects 0.000 claims description 10
- 238000009795 derivation Methods 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 8
- 238000000546 chi-square test Methods 0.000 claims description 5
- 238000012937 correction Methods 0.000 claims description 5
- 238000011478 gradient descent method Methods 0.000 claims description 5
- 230000005540 biological transmission Effects 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 230000007704 transition Effects 0.000 claims description 3
- 238000009825 accumulation Methods 0.000 claims description 2
- 238000007689 inspection Methods 0.000 claims description 2
- 230000010354 integration Effects 0.000 description 9
- 238000005259 measurement Methods 0.000 description 9
- 238000001514 detection method Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000006872 improvement Effects 0.000 description 5
- 238000012795 verification Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000012847 principal component analysis method Methods 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Traffic Control Systems (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了一种面向自动驾驶车辆的结构共用多传感器融合定位***,包括:车辆运动学模型模块,根据车辆运动学模型预测车辆运动状态;激光SLAM算法模块;扩展卡尔曼滤波模块,利用扩展卡尔曼滤波技术融合车辆运动学模型提供的车辆预测位姿和激光SLAM算法提供的车辆优化位姿,从而获取准确的车辆位姿信息。本发明的面向自动驾驶车辆的结构共用多传感器融合定位***,通过车辆运动学模型模块、激光SLAM算法模块和扩展卡尔曼滤波模块的设置,便可有效的实现进行定位了。
Description
技术领域
本发明涉及自动驾驶车辆定位方法,特别是关于一种面向自动驾驶车辆的结构共用多传感器融合定位***。
背景技术
近年来,自动驾驶技术研究已成为热点和趋势。自动驾驶技术包含环境感知、定位导航、路径规划和决策控制,其中定位导航是自动驾驶的关键。准确、鲁棒的实时定位是自动驾驶车辆安全行驶的基础,确定车辆在全局坐标系中的位置信息为规划和控制模块提供依据。自动驾驶车辆通过传感器获得自身运动状态和周围地形环境信息,实现车辆位姿的准确估计。
目前,自动驾驶车辆常用定位技术分为两类:1)基于全球卫星导航***(GNSS)定位。2)基于自主式传感器定位。GNSS定位精度较高,但容易受到高楼、隧道、高架和地下车库等使用环境的遮蔽影响而失效。基于自主式传感器的定位主要利用激光雷达、惯性测量单元或者里程计。利用里程计或IMU传感器进行航迹推算是一种低成本、自主的车辆定位方式,其优点在于抗干扰能力强,同时能根据传感器数据在短时间内提供较高精度的车辆定位信息,但航迹推算定位算法的误差会随时间不断累积,因此并不适合长时间单独定位。SLAM算法利用激光雷达或相机实现自动驾驶车辆实时定位。大多数情况下,自动驾驶车辆以平面运动为主,而SLAM算法并未考虑激光雷达受安装平台的约束影响,导致车辆优化位姿出现偏差。综上所述,使用单一传感器进行定位难以满足自动驾驶车辆的定位精度要求。因此,设计一种面向自动驾驶车辆的结构共用多传感器融合定位***,通过融合多种传感器数据提高自动驾驶车辆定位精度和鲁棒性。
发明内容
针对现有技术存在的不足,本发明的目的在于提供一种面向自动驾驶车辆的结构共用多传感器融合定位***,通过车辆运动学模型预测车辆运动状态,并利用激光SLAM算法优化车辆位姿。采用扩展卡尔曼滤波技术实现车辆运动学模型和激光SLAM算法的位姿融合,以期提高自动驾驶车辆定位精度与鲁棒性。为实现上述目的,本发明提供了如下技术方案:一种面向自动驾驶车辆的结构共用多传感器融合定位***,包括:
车辆运动学模型模块,以在新一帧激光点云数据还未到达之前,通过轮速传感器和方向盘转角传感器数据构建车辆运动学模型,根据车辆运动学模型预测车辆运动状态;
激光SLAM算法模块,分为前端匹配和后端图优化部分,前端匹配完成:基于车辆预测状态,矫正激光点云运动畸变,通过邻域点信息计算点云局部光滑度,采用双邻域策略提取角点和平面点特征,并与上一帧点云进行匹配,后端优化完成:基于点云强度和局部光滑度构建全局描述符,利用卡方检验计算扫描相似性并根据特征点进行验证,通过帧与局部地图匹配优化车辆位姿,基于当前帧与历史回环帧的位姿转换,构建位姿图优化,降低车辆位姿累计误差;
扩展卡尔曼滤波模块,利用扩展卡尔曼滤波技术融合车辆运动学模型提供的车辆预测位姿和激光SLAM算法提供的车辆优化位姿,从而获取准确的车辆位姿信息。
作为本发明的进一步改进,所述车辆运动模型模块构建车辆运动学模型和预测车辆状态的具体步骤如下:
步骤1,通过轮速传感器直接提供车辆纵向速度v和通过方向盘转角传感器提供车辆横摆角速度ω计算所需的方向盘转角δs;
步骤2,基于速度v、方向盘转角δs、转向器角传动比η以及轴距L计算车辆横摆角速度ω:
步骤3,以上一时刻车辆坐标系作为参考坐标系,两时刻间车辆始终运行在平面上,根据车辆运动学模型预测两时刻间车辆位姿变化量:
作为本发明的进一步改进,所述激光SLAM算法模块包括前端匹配模块、后端优化模块,其中前端匹配模块包括:
点云畸变矫正模块,接收最新时刻激光点云数据,根据车辆预测状态矫正点云运动畸变;
点云特征提取模块,根据邻域点信息计算点云局部光滑度,采用双邻域策略提取角点和平面点特征;
帧间匹配模块,基于车辆位姿初始估计,利用当前帧与上一帧点云匹配,获取车辆优化位姿;
所述后端优化模块包括:
描述符构建模块,利用点云强度和局部光滑度构建全局描述符;
相似性计算模块,利用卡方检验计算扫描相似性;
特征点验证,利用特征点匹配数量验证回环正确性;
回环帧匹配,利用回环帧对应位姿构建局部地图,进行帧与局部地图匹配,获取车辆优化位姿。
位姿图优化,根据当前帧与对应回环帧的位姿变换、回环中相邻两帧的位姿变换,构建车辆位姿图优化,降低车辆位姿的累计误差。
作为本发明的进一步改进,所述位姿优化模块根据激光里程计残差和激光回环残差构建代价函数,利用梯度下降法进行联合非线性优化以获得基于激光SLAM算法的车辆优化位姿。
作为本发明的进一步改进,所述扩展卡尔曼滤波模块中的算法分为两个阶段:预测阶段:根据上一时刻优化状态量和***协方差矩阵预测当前时刻车辆位姿和协方差矩阵,即:
其中,Σ表示***协方差矩阵,Mj表示***噪声协方差矩阵。g(·)表示状态方程,G表示状态转移矩阵,其推导公式如下:
其中,θa表示旋转矩阵R对应旋转向量,θ表示旋转角度,a表示旋转轴。∧为反对称符号,∨为解反对称符号;
更新阶段:计算卡尔曼增益并根据测量值和预测值更新车辆当前位姿和协方差矩阵,即:
其中,Kj表示卡尔曼增益。Nj表示观测噪声协方差矩阵。Hj表示***观测矩阵,该矩阵为6×6的单位矩阵。
本发明的有益效果,1)本发明提出一种面向自动驾驶车辆的结构共用多传感器融合定位方法,实现激光雷达、轮速传感器以及方向盘转角传感器三者的数据融合,解决单一传感器定位精度和鲁棒性难以满足自动驾驶车辆安全行驶要求的问题。2)本发明通过车辆运动学模型预测车辆运动状态,并利用激光SLAM算法优化车辆位姿,采用扩展卡尔曼滤波技术融合车辆运动学模型和激光SLAM算法,提高自动驾驶车辆定位精度与鲁棒性。3)本发明通过考虑车辆空间朝向实现三维空间下车辆运动学模型的使用,提高面向自动驾驶车辆的结构共用多传感器融合定位方法适用性。4)本发明通过车辆运动学模型状态预测为点云的运动畸变矫正提供依据,基于线性插值方法获取准确激光点云,利于激光点云数据关联的准确性。5)本发明通过邻域点信息计算点云局部光滑度,采用双邻域策略提取角点和平面点特征,降低邻域尺寸对局部光滑度计算的影响,提高特征提取的精度和鲁棒性。6)本发明实现激光雷达、轮速传感器以及方向盘转角传感器三者的数据融合,解决单一传感器定位精度和鲁棒性难以满足自动驾驶车辆安全行驶要求的问题。利用车辆运动学模型提供的车辆预测状态作为预测值,同时以激光SLAM算法提供的车辆优化位姿为测量值,采用扩展卡尔曼滤波技术融合两类车辆位姿。***计算复杂度较低,实时性强,且能保证自动驾驶车辆定位精度与鲁棒性。7)本发明基于点云强度和局部光滑度构建全局描述符并利用卡方检验计算描述符相似性,准确提取回环帧并构建位姿图优化,减小车辆定位累计误差。点云强度信息的直接利用和局部光滑度的一物两用提高特征利用效率并降低计算量,保证实时重定位。8)本发明实现共用原车传感器,无需增加额外传感器,实现成本节约、复杂度降低的同时提升可靠性。使用少量传感器完成数据融合,无需使用IMU、GNSS等复杂、昂贵传感器,易于工程实践的同时更利于通过车规级测试,9)本发明使用预积分技术同步多个信息源不同帧率的数据,避免了优化过程中的重复积分操作,节省计算量。
附图说明
图1是本发明面向自动驾驶车辆的结构共用多传感器融合定位算法架构图;
图2是本发明车辆运动学模型预积分示意图;
图3是本发明车辆运动学模型示意图;
图4是本发明激光SLAM算法架构图。
具体实施方式
下面将结合附图所给出的实施例对本发明做进一步的详述。
如图1所示,面向自动驾驶车辆的结构共用多传感器融合定位算法架构图包含三个模块:车辆运动学模型模块、激光SLAM算法模块和扩展卡尔曼滤波模块。
该定位***的输入包含三种传感器:多线激光雷达、轮速传感器和方向盘转角传感器。基于上一时刻扩展卡尔曼滤波模块提供的车辆优化位姿,利用激光点云数据和两帧点云对应时刻间的轮速传感器和方向盘转角传感器数据优化自动驾驶车辆位姿。在j时刻,待优化***状态量定义如下:
R=exp(φ∧)
1、车辆运动学模型模块
在新一帧激光点云数据还未到达之前,利用轮速传感器和方向盘转角传感器数据构建车辆运动学模型,根据车辆运动学模型预测车辆运动状态。车辆运动学模型包含两个输入:1)轮速传感器直接提供车辆纵向速度v。2)方向盘转角传感器用于提供车辆横摆角速度ω计算所需的方向盘转角δs。
车辆横摆角速度ω由速度v、方向盘转角δs、转向器角传动比η以及轴距L共同决定,即:
车辆运动学模型基于平面运动假设,因此以上一时刻车辆坐标系作为参考坐标系,两时刻间车辆始终运行在平面上,根据车辆运动学模型预测两时刻间车辆位姿变化量:
基于车辆运动学模型的状态预测为扩展卡尔曼滤波算法提供预测值,同时兼作激光SLAM优化求解问题的初值。
2、激光SLAM算法模块
激光SLAM算法模块包含三个部分:激光里程计模块、激光回环检测模块和位姿优化模块。
激光里程计模块包含四个部分:点云畸变矫正、点云特征提取、局部地图构建和帧与地图匹配。这四个部分分别完成:1)接收最新时刻激光点云数据,根据车辆预测状态矫正点云运动畸变。2)根据邻域点信息计算点云局部光滑度,采用双邻域策略提取角点和平面点特征。3)基于上一时刻滤波模块提供的车辆优化位姿,构建局部点云地图。4)基于车辆位姿初始估计,利用帧与局部地图匹配算法构建用于联合优化的激光里程计残差。
激光回环检测模块包含四个部分:描述符构建、相似性计算、特征点验证和回环帧匹配。这四个部分分别完成:1)利用点云强度和局部光滑度构建全局描述符。2)利用卡方检验计算扫描相似性。3)利用特征点匹配数量验证回环正确性。4)利用回环帧对应位姿构建局部地图,进行帧与局部地图匹配。
位姿优化模块根据激光里程计残差和激光回环残差构建代价函数,利用梯度下降法进行联合非线性优化以获得基于激光SLAM算法的车辆优化位姿。自动驾驶车辆的联合优化位姿将传递给扩展卡尔曼滤波模块用作测量值。
3、扩展卡尔曼滤波模块
融合激光雷达、轮速传感器以及方向盘转角传感器三种测量数据,采用扩展卡尔曼滤波技术融合车辆运动学模型和激光SLAM算法,以期提高自动驾驶车辆定位精度和鲁棒性。扩展卡尔曼滤波模块利用车辆运动学模型的车辆状态预测作为预测值,而激光SLAM模块的车辆优化位姿作为观测值。
扩展卡尔曼滤波算法分为两个阶段:预测和更新。
预测阶段:根据上一时刻优化状态量和***协方差矩阵预测当前时刻车辆位姿和协方差矩阵,即:
其中,Σ表示***协方差矩阵,Mj表示***噪声协方差矩阵。g(·)表示状态方程,G表示状态转移矩阵,其推导公式如下:
其中,θa表示旋转矩阵R对应旋转向量,θ表示旋转角度,a表示旋转轴。∧为反对称符号,∨为解反对称符号。
更新阶段:计算卡尔曼增益并根据测量值和预测值更新车辆当前位姿和协方差矩阵,即:
其中,Kj表示卡尔曼增益。Nj表示观测噪声协方差矩阵。Hj表示***观测矩阵,该矩阵为6×6的单位矩阵。
通过滤波模块的多次迭代获取车辆准确位姿,用于下一时刻激光SLAM模块中的局部地图构建和车辆运动学模型模块中的车辆状态预测。
初次利用面向自动驾驶车辆的结构共用多传感器融合定位方法估计车辆位姿需进行初始化操作。其初始化分三个部分:1)通过线性插值实现激光雷达数据、轮速传感器数据以及方向盘转角传感器数据的时间戳对齐。2)通过测量更新激光雷达坐标系和车辆坐标系间的平移变换pbl。3)利用旋转约束优化激光雷达坐标系和车辆坐标系间的旋转变换qbl。4)设定初始***噪声协方差矩阵和观测噪声协方差矩阵,即:
其中,q表示四元数。
推导可得:
其中,[·]L,[·]R分别表示四元数的左乘和右乘。
累计多个时刻线性方程并添加鲁棒核权重获取联合线性方程:
其中:
由旋转矩阵和轴角间变换关系tr(R)=1+2cosθ,获得角度误差r的计算公式:
利用SVD分解进行联合线性方程的求解,最小奇异值对应奇异向量为激光雷达坐标系和车辆坐标系之间的旋转变换qbl。
图2为车辆运动学模型预积分示意图。相对于激光雷达帧率,轮速传感器和方向盘转角传感器的频率较高,因此需进行车辆运动学模型预积分,以获取相邻激光帧之间的车辆运动状态预测。
将相邻激光帧之间的多个车辆底层数据进行预积分,以获取对应时刻间的车辆运动学模型预积分量。利用中值法计算车辆运动学模型预积分量,即利用相邻底层数据间平均测量值计算相对位姿变化:
图3为车辆运动学模型示意图。车辆运动学模型简化为两自由度自行车模型,前后轮均用单轮替代。以车辆后轴中心B为原点建立车辆坐标系,沿车辆前进方向为Xb轴方向,垂直Xb轴指向车体左侧为Yb轴方向。表示相邻时刻间车辆横摆角增量,L表示轴距,δf为前轮转角。为保证安全,自动驾驶***不会进入极限工况,因此质心侧偏角较小,可忽略不计。通常情况下,汽车后轮不可控,故可认为自行车模型中后轮转角控制输入δr=0。利用方向盘转角δs和转向器角传动比η可获得前轮转角δf,即:δf=δs/η。
车辆运动学模型建立原则是保证模型简单的同时应尽可能反映车辆真实运动特性。过于严格的车辆运动学模型不利于保证实时性。基于车辆结构和运动特点,前轮转向四轮车简化为两轮自行车模型。自行车模型基于以下假设:1)不考虑车辆在Z轴方向的运动,只考虑XY水平面的运动。2)左右侧车轮转角一致,将左右侧轮胎合并为一个轮胎。3)车辆转向只由前轮控制。
车辆运动学模型有两个输入:轮速传感器提供的车辆速度v和方向盘转角传感器提供的前轮转角δf。以前一时刻车辆坐标系作为参考坐标系,当前时刻车辆运动学模型表达式如下:
其中,vx和vy分别表示自动驾驶车辆在参考坐标系下X轴方向的速度、Y轴方向的速度。
如图4所示,激光SLAM算法架构图包含三个模块:激光里程计模块、激光回环检测模块和位姿优化模块。
1、激光里程计模块
激光里程计模块包含四个部分:点云畸变矫正、点云特征提取、局部地图构建和帧与地图匹配。
(1)点云畸变矫正
为保证点云匹配准确性需矫正点云畸变。基于匀速运动假设,通过线性插值方法矫正激光点云的运动畸变。去畸变点云用于后续局部光滑度计算和点云匹配。
(2)点云特征提取
利用去畸变点云的角度信息进行点云线束划分。每条激光扫描线上点云按下式计算局部光滑度:
本实施例中的局部光滑度阈值定为0.1。排序点云光滑度并通过局部光滑度和邻域点分布提取两类特征点:1)角点:局部光滑度大于阈值的同时邻域点未发生突变。2)平面点:局部光滑度小于阈值的同时邻域点未发生突变。在双重邻域范围内计算局部光滑度并依此提取同时满足阈值的角点和平面点特征。双邻域特征提取算法避免邻域尺寸对局部光滑度的影响,提高特征提取的精度和鲁棒性。
为实现特征点云的均匀分布,将每条线束均分为4个独立区域。每个区域最多提供20个角点和40个平面点,构成角点集合和平面点集合在选择特征点时希望避免选取以下几类点:1)可能被遮挡的点。2)已经选过点周围的点。3)位于激光线接***行的平面点。
(3)局部地图构建
局部点云地图用于确定准确的特征对应关系。基于先前优化的车辆位姿,利用固定数量的历史激光帧构建稠密局部点云地图。将{j-m,…,j-1}时间段内对应角点特征和平面点特征根据不同时刻间相对位姿统一变换到关键帧k对应激光雷达坐标系,实现角点局部地图和平面点局部地图的构建。其中,m为偶数。
(4)帧与地图匹配
基于已构建局部地图和车辆位姿初始估计,采用帧与局部地图匹配构建激光里程计残差。当前时刻特征点云集合和中的点云根据相对位姿关系实现点云投影,即,特征点云转换到k时刻对应激光雷达坐标系。基于两类局部地图中的特征点云,构建对应kd树并寻找角点对应的特征线和平面点对应的特征面,即,1)点线ICP:使用kd树算法快速寻找每个角点的两个最近点,利用最近点构造直线并计算点到直线的垂足坐标2)点面ICP:使用kd树算法快速寻找每个平面点的三个最近点,利用最近点构造平面并计算点到平面的垂足坐标
对于j时刻激光点云中的特征点,将其投影到k时刻激光雷达坐标系下的值为:
其中,下标l表示激光雷达坐标系。表示j时刻激光特征点在激光雷达坐标系下的三维坐标。表示将j时刻激光特征点转换到k时刻激光雷达坐标系下的理论值。T表示两个坐标系间的变换矩阵,包含旋转矩阵和平移向量,即:
三维坐标形式为:
通过约束同一时刻激光雷达的测量值构建激光里程计残差。利用点到直线和点到平面的距离表示激光里程计残差rl:
即:
其中,c表示通过帧与局部地图匹配确定的特征点云对应关系。
通过激光里程计残差对***状态量求偏导构建雅克比矩阵Jl:
推导可得:
2、激光回环检测模块
激光回环检测模块包含四个部分:描述符构建、相似性计算、特征点验证和回环帧匹配。
(1)描述符构建
使用主成分分析法进行坐标轴划分。获得参考框架后,对齐边界和坐标轴,从而获取对应的划分坐标轴。基于点云强度和局部光滑度的全局描述符由m个不互相重叠区域组成,即,以激光雷达为中心,定义外球半径和内球半径,球体划分为上下两部分,每个半球体均分为四个区域,由此,m=16。利用相应直方图进行区域描述,即,落入该区域的k个激光点对应激光点云强度和局部光滑度被计算成直方图,该直方图具有n个划分区域。
(2)相似性计算
以车辆位姿初始估计作为中心点,设定候选区域尺寸为40×40×10m。在满足时间间隔条件下,利用描述符匹配寻找满足相似度阈值且相似度最低的激光帧。利用卡方检验定义描述符A第i个区域与描述符B第i个区域的相似性度量,即:
利用区域相似性计算两个描述符的相似性,如下所示:
利用主成分分析法确定坐标轴存在歧义,为消除该过程造成的干扰,需通过分类讨论,实现坐标轴正确对齐。根据x轴和z轴的划分,共有4种情况。使用上式计算A和B的相似性时,出现四个不同的值,取最小值作为描述符匹配结果。即:
SAB=min{SAB1,SAB2,SAB3,SAB4}
(3)特征点验证
选择相似度最高且满足阈值的激光帧作为回环候选帧。为保证回环检测准确性,需利用特征点进一步验证。基于回环候选帧的对应车辆位姿,利用k近邻算法寻找k个历史帧,将历史帧对应特征点云投影到回环候选帧所对应激光雷达的坐标系,实现局部地图构建。基于车辆位姿初始估计,投影当前帧中的特征点云到回环候选帧。利用k近邻算法寻找角点对应直线和平面点对应平面,计算点到线以及点到面的距离。满足最小距离阈值的点云为匹配点,统计匹配点数量并计算匹配点与特征点数量的比值。若比值满足设定阈值,则回环检测正确。反之,回环检测错误,不构建激光回环残差。
(4)回环帧匹配
对于j时刻激光特征点云,将其投影到o时刻(回环帧对应时刻)激光雷达坐标系下的值为:
三维坐标形式为:
对于角点特征,使用kd树算法快速寻找每个特征点的两个最近点。利用最近点构造直线并计算点到直线的垂足坐标对于平面点特征,使用kd树算法快速寻找每个特征点的三个最近点,利用最近点构造平面并计算点到平面的垂足坐标
对于角点,利用点到线的距离表示激光回环残差。对于平面点,利用点到平面的距离表示激光回环残差。通过约束同一时刻激光雷达的测量值构建激光回环残差ro:
即:
其中,d表示通过帧与局部地图匹配确定的特征点云对应关系。
通过激光回环残差对***状态量求偏导构建雅克比矩阵Jo:
推导可得:
3、位姿优化模块
位姿优化模块根据激光里程计残差和激光回环残差构建代价函数,利用梯度下降法进行联合非线性优化以获得基于激光SLAM算法的车辆优化位姿。在梯度下降法执行过程中需要用到代价函数的雅克比矩阵,在前述内容中已进行相关推导和描述,此处不再赘述。自动驾驶车辆的联合优化位姿将传递给扩展卡尔曼滤波模块用作测量值。
通过计算***代价函数最小值获取待优化***状态量X的最大后验估计。面向自动驾驶车辆的结构共用多传感器融合定位***代价函数构建如下:
其中,两种残差均用马氏距离表示。rl(c,X)表示激光里程计残差,ro(d,X)表示激光回环残差,协方差矩阵ΣL由激光雷达准确性决定。
以上所述仅是本发明的优选实施方式,本发明的保护范围并不仅局限于上述实施例,凡属于本发明思路下的技术方案均属于本发明的保护范围。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理前提下的若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (6)
1.一种面向自动驾驶车辆的结构共用多传感器融合定位***,其特征在于:包括:
车辆运动学模型模块,以在新一帧激光点云数据还未到达之前,通过轮速传感器和方向盘转角传感器数据构建车辆运动学模型,根据车辆运动学模型预测车辆运动状态;
激光SLAM算法模块,分为前端匹配和后端图优化部分,前端匹配完成:基于车辆预测状态,矫正激光点云运动畸变,通过邻域点信息计算点云局部光滑度,采用双邻域策略提取角点和平面点特征,并与上一帧点云进行匹配,后端优化完成:基于点云强度和局部光滑度构建全局描述符,利用卡方检验计算扫描相似性并根据特征点进行验证,通过帧与局部地图匹配优化车辆位姿,基于当前帧与历史回环帧的位姿转换,构建位姿图优化,降低车辆位姿累计误差;
扩展卡尔曼滤波模块,利用扩展卡尔曼滤波技术融合车辆运动学模型提供的车辆预测位姿和激光SLAM算法提供的车辆优化位姿,从而获取准确的车辆位姿信息。
2.根据权利要求1所述的面向自动驾驶车辆的结构共用多传感器融合定位***,其特征在于:所述车辆运动模型模块构建车辆运动学模型和预测车辆状态的具体步骤如下:
步骤1,通过轮速传感器直接提供车辆纵向速度v和通过方向盘转角传感器提供车辆横摆角速度ω计算所需的方向盘转角δs;
步骤2,基于速度v、方向盘转角δs、转向器角传动比η以及轴距L计算车辆横摆角速度ω:
步骤3,以上一时刻车辆坐标系作为参考坐标系,两时刻间车辆始终运行在平面上,根据车辆运动学模型预测两时刻间车辆位姿变化量:
4.根据权利要求1至3任意一项所述的面向自动驾驶车辆的结构共用多传感器融合定位***,其特征在于:所述激光SLAM算法模块包括前端匹配模块、后端优化模块,其中前端匹配模块包括:
点云畸变矫正模块,接收最新时刻激光点云数据,根据车辆预测状态矫正点云运动畸变;
点云特征提取模块,根据邻域点信息计算点云局部光滑度,采用双邻域策略提取角点和平面点特征;
帧间匹配模块,基于车辆位姿初始估计,利用当前帧与上一帧点云匹配,获取车辆优化位姿;
所述后端优化模块包括:
描述符构建模块,利用点云强度和局部光滑度构建全局描述符;
相似性计算模块,利用卡方检验计算扫描相似性;
特征点验证,利用特征点匹配数量验证回环正确性;
回环帧匹配,利用回环帧对应位姿构建局部地图,进行帧与局部地图匹配,获取车辆优化位姿。
位姿图优化,根据当前帧与对应回环帧的位姿变换、回环中相邻两帧的位姿变换,构建车辆位姿图优化,降低车辆位姿的累计误差。
5.根据权利要求4所述的面向自动驾驶车辆的结构供用多传感器融合定位***,其特征在于:所述位姿优化模块根据激光里程计残差和激光回环残差构建代价函数,利用梯度下降法进行联合非线性优化以获得基于激光SLAM算法的车辆优化位姿。
6.根据权利要求1至3任意一项所述的面向自动驾驶车辆的结构供用多传感器融合定位***,其特征在于:所述扩展卡尔曼滤波模块中的算法分为两个阶段:预测阶段:根据上一时刻优化状态量和***协方差矩阵预测当前时刻车辆位姿和协方差矩阵,即:
其中,Σ表示***协方差矩阵,Mj表示***噪声协方差矩阵。g(·)表示状态方程,G表示状态转移矩阵,其推导公式如下:
其中,θa表示旋转矩阵R对应旋转向量,θ表示旋转角度,a表示旋转轴。∧为反对称符号,∨为解反对称符号;
更新阶段:计算卡尔曼增益并根据测量值和预测值更新车辆当前位姿和协方差矩阵,即:
其中,Kj表示卡尔曼增益。Nj表示观测噪声协方差矩阵。Hj表示***观测矩阵,该矩阵为6×6的单位矩阵。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010923469.8A CN112083725B (zh) | 2020-09-04 | 2020-09-04 | 一种面向自动驾驶车辆的结构共用多传感器融合定位*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010923469.8A CN112083725B (zh) | 2020-09-04 | 2020-09-04 | 一种面向自动驾驶车辆的结构共用多传感器融合定位*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112083725A true CN112083725A (zh) | 2020-12-15 |
CN112083725B CN112083725B (zh) | 2021-11-30 |
Family
ID=73732396
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010923469.8A Active CN112083725B (zh) | 2020-09-04 | 2020-09-04 | 一种面向自动驾驶车辆的结构共用多传感器融合定位*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112083725B (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112596089A (zh) * | 2021-03-02 | 2021-04-02 | 腾讯科技(深圳)有限公司 | 融合定位方法、装置、电子设备及存储介质 |
CN112712549A (zh) * | 2020-12-31 | 2021-04-27 | 上海商汤临港智能科技有限公司 | 数据处理方法、装置、电子设备以及存储介质 |
CN113063414A (zh) * | 2021-03-27 | 2021-07-02 | 上海智能新能源汽车科创功能平台有限公司 | 一种用于视觉惯性slam的车辆动力学预积分构建方法 |
CN113267178A (zh) * | 2021-03-25 | 2021-08-17 | 浙江大学 | 一种基于多传感器融合的模型位姿测量***与方法 |
CN113299158A (zh) * | 2021-05-10 | 2021-08-24 | 易显智能科技有限责任公司 | 一种驾驶操稳教学方法和*** |
CN113654555A (zh) * | 2021-09-14 | 2021-11-16 | 上海智驾汽车科技有限公司 | 一种基于多传感器数据融合的自动驾驶车辆高精定位方法 |
CN113758491A (zh) * | 2021-08-05 | 2021-12-07 | 重庆长安汽车股份有限公司 | 基于多传感器融合无人车的相对定位方法、***及车辆 |
CN113781569A (zh) * | 2021-01-04 | 2021-12-10 | 北京京东乾石科技有限公司 | 一种回环检测方法和装置 |
CN113804183A (zh) * | 2021-09-17 | 2021-12-17 | 广东汇天航空航天科技有限公司 | 一种实时地形测绘方法和*** |
CN114120252A (zh) * | 2021-10-21 | 2022-03-01 | 阿波罗智能技术(北京)有限公司 | 自动驾驶车辆状态的识别方法、装置、电子设备及车辆 |
CN114170320A (zh) * | 2021-10-29 | 2022-03-11 | 广西大学 | 一种基于多传感器融合的打桩机自动定位和工况自适应方法 |
CN114612500A (zh) * | 2022-01-28 | 2022-06-10 | 广州文远知行科技有限公司 | 基于点云的车辆速度估计方法、装置、设备及存储介质 |
CN114742884A (zh) * | 2022-06-09 | 2022-07-12 | 杭州迦智科技有限公司 | 一种基于纹理的建图、里程计算、定位方法及*** |
WO2023050586A1 (zh) * | 2021-09-28 | 2023-04-06 | 中国科学院深圳先进技术研究院 | 定位传感器的异常检测方法、装置及终端设备 |
CN117115759A (zh) * | 2023-04-12 | 2023-11-24 | 盐城工学院 | 一种基于类别引导的路侧交通目标检测***及方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105172793A (zh) * | 2015-09-25 | 2015-12-23 | 广州橙行智动汽车科技有限公司 | 自动驾驶汽车的位姿估算方法 |
CN106272423A (zh) * | 2016-08-31 | 2017-01-04 | 哈尔滨工业大学深圳研究生院 | 一种针对大尺度环境的多机器人协同制图与定位的方法 |
CN106840179A (zh) * | 2017-03-07 | 2017-06-13 | 中国科学院合肥物质科学研究院 | 一种基于多传感器信息融合的智能车定位方法 |
CN109781120A (zh) * | 2019-01-25 | 2019-05-21 | 长安大学 | 一种基于同步定位构图的车辆组合定位方法 |
CN110320912A (zh) * | 2019-07-10 | 2019-10-11 | 苏州欧博智慧机器人有限公司 | 激光与视觉slam融合的agv定位导航装置及方法 |
CN110967011A (zh) * | 2019-12-25 | 2020-04-07 | 苏州智加科技有限公司 | 一种定位方法、装置、设备及存储介质 |
CN111220154A (zh) * | 2020-01-22 | 2020-06-02 | 北京百度网讯科技有限公司 | 车辆定位方法、装置、设备和介质 |
CN111240331A (zh) * | 2020-01-17 | 2020-06-05 | 仲恺农业工程学院 | 基于激光雷达和里程计slam的智能小车定位导航方法及*** |
CN111540013A (zh) * | 2020-04-22 | 2020-08-14 | 数字孪生(镇江)装备科技有限公司 | 一种基于多相机视觉slam的室内AGV小车定位方法 |
-
2020
- 2020-09-04 CN CN202010923469.8A patent/CN112083725B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105172793A (zh) * | 2015-09-25 | 2015-12-23 | 广州橙行智动汽车科技有限公司 | 自动驾驶汽车的位姿估算方法 |
CN106272423A (zh) * | 2016-08-31 | 2017-01-04 | 哈尔滨工业大学深圳研究生院 | 一种针对大尺度环境的多机器人协同制图与定位的方法 |
CN106840179A (zh) * | 2017-03-07 | 2017-06-13 | 中国科学院合肥物质科学研究院 | 一种基于多传感器信息融合的智能车定位方法 |
CN109781120A (zh) * | 2019-01-25 | 2019-05-21 | 长安大学 | 一种基于同步定位构图的车辆组合定位方法 |
CN110320912A (zh) * | 2019-07-10 | 2019-10-11 | 苏州欧博智慧机器人有限公司 | 激光与视觉slam融合的agv定位导航装置及方法 |
CN110967011A (zh) * | 2019-12-25 | 2020-04-07 | 苏州智加科技有限公司 | 一种定位方法、装置、设备及存储介质 |
CN111240331A (zh) * | 2020-01-17 | 2020-06-05 | 仲恺农业工程学院 | 基于激光雷达和里程计slam的智能小车定位导航方法及*** |
CN111220154A (zh) * | 2020-01-22 | 2020-06-02 | 北京百度网讯科技有限公司 | 车辆定位方法、装置、设备和介质 |
CN111540013A (zh) * | 2020-04-22 | 2020-08-14 | 数字孪生(镇江)装备科技有限公司 | 一种基于多相机视觉slam的室内AGV小车定位方法 |
Non-Patent Citations (3)
Title |
---|
HONG HE 等: "Simultaneous Location and Map Construction Based on RBPF-SLAM Algorithm", 《2018 CHINESE CONTROL AND DECISION CONFERENCE (CCDC)》 * |
刘丹: "智能车辆同时定位与建图关键技术研究", 《中国博士学位论文全文数据库(电子期刊)》 * |
孙宁 等: "基于多传感器信息融合的车辆目标识别方法", 《汽车工程》 * |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112712549A (zh) * | 2020-12-31 | 2021-04-27 | 上海商汤临港智能科技有限公司 | 数据处理方法、装置、电子设备以及存储介质 |
CN113781569B (zh) * | 2021-01-04 | 2024-04-05 | 北京京东乾石科技有限公司 | 一种回环检测方法和装置 |
CN113781569A (zh) * | 2021-01-04 | 2021-12-10 | 北京京东乾石科技有限公司 | 一种回环检测方法和装置 |
CN112596089B (zh) * | 2021-03-02 | 2021-05-18 | 腾讯科技(深圳)有限公司 | 融合定位方法、装置、电子设备及存储介质 |
CN112596089A (zh) * | 2021-03-02 | 2021-04-02 | 腾讯科技(深圳)有限公司 | 融合定位方法、装置、电子设备及存储介质 |
CN113267178A (zh) * | 2021-03-25 | 2021-08-17 | 浙江大学 | 一种基于多传感器融合的模型位姿测量***与方法 |
CN113063414A (zh) * | 2021-03-27 | 2021-07-02 | 上海智能新能源汽车科创功能平台有限公司 | 一种用于视觉惯性slam的车辆动力学预积分构建方法 |
CN113299158A (zh) * | 2021-05-10 | 2021-08-24 | 易显智能科技有限责任公司 | 一种驾驶操稳教学方法和*** |
CN113758491A (zh) * | 2021-08-05 | 2021-12-07 | 重庆长安汽车股份有限公司 | 基于多传感器融合无人车的相对定位方法、***及车辆 |
CN113758491B (zh) * | 2021-08-05 | 2024-02-23 | 重庆长安汽车股份有限公司 | 基于多传感器融合无人车的相对定位方法、***及车辆 |
CN113654555A (zh) * | 2021-09-14 | 2021-11-16 | 上海智驾汽车科技有限公司 | 一种基于多传感器数据融合的自动驾驶车辆高精定位方法 |
CN113804183A (zh) * | 2021-09-17 | 2021-12-17 | 广东汇天航空航天科技有限公司 | 一种实时地形测绘方法和*** |
CN113804183B (zh) * | 2021-09-17 | 2023-12-22 | 广东汇天航空航天科技有限公司 | 一种实时地形测绘方法和*** |
WO2023050586A1 (zh) * | 2021-09-28 | 2023-04-06 | 中国科学院深圳先进技术研究院 | 定位传感器的异常检测方法、装置及终端设备 |
CN114120252B (zh) * | 2021-10-21 | 2023-09-01 | 阿波罗智能技术(北京)有限公司 | 自动驾驶车辆状态的识别方法、装置、电子设备及车辆 |
CN114120252A (zh) * | 2021-10-21 | 2022-03-01 | 阿波罗智能技术(北京)有限公司 | 自动驾驶车辆状态的识别方法、装置、电子设备及车辆 |
CN114170320A (zh) * | 2021-10-29 | 2022-03-11 | 广西大学 | 一种基于多传感器融合的打桩机自动定位和工况自适应方法 |
CN114612500A (zh) * | 2022-01-28 | 2022-06-10 | 广州文远知行科技有限公司 | 基于点云的车辆速度估计方法、装置、设备及存储介质 |
CN114742884B (zh) * | 2022-06-09 | 2022-11-22 | 杭州迦智科技有限公司 | 一种基于纹理的建图、里程计算、定位方法及*** |
CN114742884A (zh) * | 2022-06-09 | 2022-07-12 | 杭州迦智科技有限公司 | 一种基于纹理的建图、里程计算、定位方法及*** |
CN117115759A (zh) * | 2023-04-12 | 2023-11-24 | 盐城工学院 | 一种基于类别引导的路侧交通目标检测***及方法 |
CN117115759B (zh) * | 2023-04-12 | 2024-04-09 | 盐城工学院 | 一种基于类别引导的路侧交通目标检测***及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112083725B (zh) | 2021-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112083725B (zh) | 一种面向自动驾驶车辆的结构共用多传感器融合定位*** | |
CN111707272B (zh) | 一种地下车库自动驾驶激光定位*** | |
CN112083726B (zh) | 一种面向园区自动驾驶的双滤波器融合定位*** | |
CN113945206B (zh) | 一种基于多传感器融合的定位方法及装置 | |
CN113819914B (zh) | 一种地图构建方法及装置 | |
CN111272165B (zh) | 一种基于特征点标定的智能车定位方法 | |
CN104180818B (zh) | 一种单目视觉里程计算装置 | |
KR102581263B1 (ko) | 위치 추적 방법, 장치, 컴퓨팅 기기 및 컴퓨터 판독 가능한 저장 매체 | |
CN112347840A (zh) | 视觉传感器激光雷达融合无人机定位与建图装置和方法 | |
CN114526745A (zh) | 一种紧耦合激光雷达和惯性里程计的建图方法及*** | |
US11158065B2 (en) | Localization of a mobile unit by means of a multi hypothesis kalman filter method | |
CN113819905B (zh) | 一种基于多传感器融合的里程计方法及装置 | |
CN114018248B (zh) | 一种融合码盘和激光雷达的里程计方法与建图方法 | |
CN114966734A (zh) | 一种结合多线激光雷达的双向深度视觉惯性位姿估计方法 | |
CN113223161B (zh) | 一种基于imu和轮速计紧耦合的鲁棒全景slam***和方法 | |
CN113188557B (zh) | 一种融合语义特征的视觉惯性组合导航方法 | |
CN114019552A (zh) | 一种基于贝叶斯多传感器误差约束的定位置信度优化方法 | |
CN111402328A (zh) | 一种基于激光里程计的位姿计算方法及装置 | |
CN113129377B (zh) | 一种三维激光雷达快速鲁棒slam方法和装置 | |
Campa et al. | A comparison of pose estimation algorithms for machine vision based aerial refueling for UAVs | |
CN116774247A (zh) | 基于ekf的多源信息融合的slam前端策略 | |
CN112923934A (zh) | 一种适用于非结构化场景中结合惯导的激光slam技术 | |
Ye et al. | Robust and efficient vehicles motion estimation with low-cost multi-camera and odometer-gyroscope | |
CN114690230A (zh) | 一种基于视觉惯性slam的自动驾驶车辆导航方法 | |
CN117584989B (zh) | 一种激光雷达/imu/车辆运动学约束紧耦合slam***及算法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |