CN115061139A - 一种面向智能驾驶车辆的多传感器融合方法及*** - Google Patents
一种面向智能驾驶车辆的多传感器融合方法及*** Download PDFInfo
- Publication number
- CN115061139A CN115061139A CN202210768001.5A CN202210768001A CN115061139A CN 115061139 A CN115061139 A CN 115061139A CN 202210768001 A CN202210768001 A CN 202210768001A CN 115061139 A CN115061139 A CN 115061139A
- Authority
- CN
- China
- Prior art keywords
- target
- information
- state
- module
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/865—Combination of radar systems with lidar systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明属于智能驾驶车辆技术领域,具体涉及一种面向智能驾驶车辆的多传感器融合方法及***;该方法包括:根据GM‑PHD算法和探测物体的矩形目标模型构建扩展目标***;采用扩展目标***对毫米波雷达的探测信息进行处理,得到探测物体的毫米波雷达航迹信息;采用构建的边界框探测器和配置有IMM‑UKF的JPDA***对激光雷达的探测信息进行处理,得到探测物体的激光雷达航迹信息;采用时空间转换将毫米波雷达航迹信息和激光雷达航迹信息进行处理,得到中心融合节点;采用IMF算法对中心融合节点进行处理,得到全局航迹信息;本发明解决了数据关联方法引入的组合***以及由不同传感器局部航迹信息错序导致的时序问题。
Description
技术领域
本发明属于智能驾驶车辆技术领域,具体涉及一种面向智能驾驶车辆的多传感器融合方法及***。
背景技术
近年来随着汽车智能化的不断演进,智能驾驶车辆技术受到越来越多的关注。感知认知是智能驾驶车辆的关键所在,它为驾驶过程的决策过程提供判断依据,其性能的优劣直接关系到整车的控制效果。
常见的传感器有基于毫米波雷达的和基于激光雷达的;基于毫米波雷达的传感器,由于毫米波雷达航向角偏差较大,横向位置偏差大且无法获得目标体积信息。基于激光雷达的传感器在雨、雪天气下感知精度受到极大的干扰,同时激光雷达无法直接获得目标的速度信息,因此对目标速度变化不够敏感。
由于配置有单传感器的智能驾驶车辆已经无法满足复杂的驾驶环境,为提高整车的感知认知能力,多传感器配置已成为智能驾驶车辆标配。但是随着检测目标的数目变化以及不同传感器量测信息的差异,给多传感器融合又带来了新的挑战。一方面,随着传感器技术的提升,扩展目标可以占据传感器多个分辨率单元,会给数据关联方法引入组合***问题;另一方面,由于毫米波雷达和激光雷达测量得到的数据在传递过程中可能存在处理时间延迟和通信延迟,进而引发由局部航迹信息错序导致的时序问题。
发明内容
针对现有技术存在的不足,本发明提出了一种面向智能驾驶车辆的多传感器融合方法及***,该方法包括:
S1:根据GM-PHD算法和探测物体的矩形目标模型构建扩展目标***;采用扩展目标***对毫米波雷达的2维探测信息进行处理,得到探测物体的毫米波雷达航迹信息;
S2:构建边界框探测器和配置有IMM-UKF的JPDA***;采用边界框探测器和配置有IMM-UKF的JPDA***对激光雷达的3维探测信息进行处理,得到探测物体的激光雷达航迹信息;
S3:采用时空间转换将毫米波雷达航迹信息和激光雷达航迹信息进行处理,得到中心融合节点;采用IMF算法对中心融合节点进行处理,得到全局航迹信息;根据全局航迹信息实现对探测物体的跟踪。
优选的,构建扩展目标***的过程包括:
根据探测物体的矩形目标模型得到探测物体的矩形扩展目标状态;
根据探测物体的矩形扩展目标状态,采用GM-PHD算法计算k时刻多目标预测PHD和k时刻多目标后验PHD,得到扩展目标***。
进一步的,矩形扩展目标状态表示为:
ξ=(γ,x,X)
其中,ξ表示探测物体扩展目标的状态向量,γ表示探测物体扩展目标的量测率状态,x表示探测物体扩展目标的运动状态,X表示探测物体扩展目标的扩展状态。
优选的,构建边界框探测器的过程包括:采用基于RANSAC平面拟合算法对激光雷达数据进行预处理,得到目标点云;采用欧几里得算法对目标点云进行聚类;根据聚类的目标点云构建边界框探测器的状态向量,进而得到边界框探测器。
进一步的,边界框探测器的状态向量为:
其中,x′表示状态向量,x表示探测目标的横坐标,y表示探测目标的纵坐标,v表示探测目标的速度,θ表示探测目标的方向角,ω表示探测目标的角速度,z表示探测目标的垂向坐标,表示探测目标的垂向速度,L表示探测目标的长度,W表示探测目标的宽度,H表示探测目标的高度。
优选的,构建配置有IMM-UKF的JPDA***的过程包括:
配置有IMM-UKF的JPDA***由输入交互模块、UKF滤波模块、概率更新模块、JPDA数据关联模块以及输出融合模块构成;
输入交互模块根据UKF滤波模块中的UKF滤波器在k时刻的第一状态估计和第一协方差矩阵计算第二状态估计和第二协方差矩阵并输出;
UKF滤波模块中的UKF滤波器根据输入交互模块的输出和k时刻的有效观测向量,输出k+1时刻的第三状态估计和第三协方差矩阵;
概率更新模块根据UKF滤波模块的残差信息,计算k+1时刻运动模型的条件概率;
JPDA数据关联模块根据第三状态估计、第三协方差矩阵和目标在运动模型下的第一测量信息,计算目标k+1时刻在运动模型下的第二测量信息;
输出融合模块根据k+1时刻运动模型的条件概率、第二测量信息、第三状态估计和第三协方差矩阵计算融合后的状态估计和协方差矩阵。
优选的,采用IMF算法对中心融合节点进行处理的公式包括:
更新协方差:
更新状态估计:
其中,P(k|k)表示传感器从0到k时刻的全局协方差,P(k|k-1)表示传感器从0到k-1时刻的全局协方差,Pi(k|k)表示第i个传感器从0到k时刻的局部协方差,Pi(k|k-1)表示第i个传感器从0到k-1时刻的局部协方差,Nk表示传感器数量,表示传感器从0到k时刻的全局状态估计,表示传感器从0到k-1时刻的全局状态估计,表示第i个传感器从0到k时刻的局部状态估计,表示第i个传感器从0到k-1时刻的局部状态估计。
一种面向智能驾驶车辆的多传感器融合***,该***用于执行面向智能驾驶车辆的多传感器融合方法,包括:扩展目标跟踪模块、边界探测器模块、点目标跟踪模块和航迹融合模块;
所述扩展目标跟踪模块用于根据GM-PHD算法和探测物体的矩形目标模型对毫米波雷达的2维探测信息进行处理,得到探测物体的毫米波雷达航迹信息;
所述边界框探测器模块用于根据基于RANSAC平面拟合算法和欧几里得算法对激光雷达的3维探测信息进行处理,得到探测物体的3维信息;
所述点目标跟踪模块用于,采用配置有IMM-UKF的JPDA***对探测物体的3维信息进行处理,得到探测物体的激光雷达航迹信息;
所述航迹融合模块用于融合探测物体的毫米波雷达航迹信息和探测物体的激光雷达航迹信息,得到全局航迹信息。
本发明的有益效果为:本发明针对毫米波雷达2维探测信息,采用GM-PHD算法构建扩展目标***,以实现对探测物体航迹的跟踪;针对激光雷达3维点云信息,基于RANSAC算法对激光雷达数据进行预处理以移除多余点云,基于欧几里得距离聚类算法构建边界框探测器,进一步,构建配置有IMM-UKF的JPDA***,以实现对所探测物体航迹的跟踪,解决了数据关联方法引入的组合***问题;基于激光雷达的状态空间构建航迹融合的状态空间,并完成毫米波雷达状态空间到航迹状态空间的转换,进一步,基于IMF算法实现对激光雷达和毫米波雷达的航迹融合,进而形成全局航迹,解决了由不同传感器局部航迹信息错序导致的时序问题;与现有技术相比,本发明可提升整体感知精度,降低带宽需求和计算成本,并且当某一传感器出错或者失效时可以使用另一传感器进行补偿,实用性高。
附图说明
图1为本发明中面向智能驾驶车辆的多传感器融合方法的流程图;
图2为本发明中矩形目标模型示意图;
图3为本发明中配置有IMM-UKF的JPDA***框架示意图;
图4为本发明中航迹融合更新过程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提出了一种面向智能驾驶车辆的多传感器融合方法,如图1所示,所述方法包括以下内容:
S1:根据高斯混合概率假设密度(Gaussian mixture probability hypothesisdensity,GM-PHD)算法和探测物体的矩形目标模型构建扩展目标***;采用扩展目标***对毫米波雷达的2维探测信息进行处理,得到探测物体的毫米波雷达航迹信息;
毫米波雷达极易将单个检测目标检测为多个目标,为解决此问题,本发明根据GM-PHD算法和探测物体的矩形目标模型构建扩展目标***,以实现对探测物体即智能驾驶车辆的跟踪,构建扩展目标***的过程包括:
获取探测物体的矩形目标模型,如图2所示,根据探测物体的矩形目标模型得到探测物体的矩形扩展目标状态;矩形扩展目标状态表示为:
ξ=(γ,x,X)
其中,ξ表示探测物体扩展目标的状态向量,γ表示探测物体扩展目标的量测率状态,它是一种服从伽马分布的标量;x表示探测物体扩展目标的运动状态,向量x可建模为x=[x,y,v,θ,ω,L,W]T,[x,y]T表示探测目标的二维坐标位置信息,v,θ,ω分别表示探测目标的速度、方向角和角速度,L和W分别表示探测目标的长度和宽度;X表示探测物体扩展目标扩展状态,即单个量测信息扩展之后的状态,当扩展目标量测杂乱无序分布在一定空间,通常可以用一个矩形来近似描述该扩展目标的扩展状态。
根据探测物体的矩形扩展目标状态构建GM-PHD滤波器;GM-PHD滤波器通过带权值的高斯分量近似多目标概率假设密度,假设k-1时刻多目标后验PHD可用高斯混合形式表示为:
k时刻多目标预测PHD和k时刻多目标后验PHD也可用高斯混合形式表示,它们分别为:
其中,x表示探测物体的矩形扩展目标状态的运动状态,Dk|k-1(x)表示k时刻多目标预测PHD,DS,k|k-1(x)表示k时刻存活高斯分量的PHD,γk(x)表示k时刻新生目标即指传感器获取到的新观测点PHD,表示k时刻第i个高斯分量的权值;表示均值为协方差为的高斯分量,Jk|k-1表示预测k时刻高斯分量的数量,Dk|k(x)表示k时刻后验多目标PHD;pD,k表示目标检测概率,指当雷达输入端确实有信号时,由于噪声原因,可能得出“有信号”或“无信号”两种判决结果,当有信号,并作出“有信号”的正确判决的概率;表示第j个更新分量的权值,zk表示k时刻目标量测值,指雷达获取到的目标坐标等物理信息值;表示均值为协方差为的高斯分量。
通过GM-PHD算法预测Dk|k-1(x)和更新Dk|k(x)完成GM-PHD滤波器的构建,进而得到适用于毫米波雷达的2-D局部***即扩展目标***。
采用扩展目标***对毫米波雷达的2维探测信息进行处理,即可得到探测物体的毫米波雷达航迹信息。
联合概率数据关联(JPDA)等传统***普遍假设传感器每次扫描单个目标最多输出一个量测信息,进而导致配置有传统***的高分辨率传感器在进行数据关联输出量测信息之前必须进行聚类处理,这不但增加了计算成本,而且严重影响测量精度。采用GM-PHD算法和矩形目标模型构建扩展目标***,可以同时处理聚类和数据关联,不但可以降低计算开销,而且能够提供测量精度。
S2:构建边界框探测器和配置有IMM-UKF的JPDA***;采用边界框探测器和配置有IMM-UKF的JPDA***对激光雷达的3维探测信息进行处理,得到探测物体的激光雷达航迹信息。
激光雷达测量得到每个目标的量测信息数量远远多于毫米波雷达,而且它还会得到地面量测信息,其输出的数据量相较毫米波雷达不是同一个数量级。若直接采用扩展目标***进行处理,会由于计算复杂度过高导致输出信号严重滞后。鉴于此,本发明构建边界框探测器对激光雷达的3维探测信息进行处理,构建边界框探测器的过程包括:
采用基于随机抽样一致性(Random Sample Consensus,RANSAC)平面拟合算法对激光雷达数据进行预处理,以移除地面等多余点云信息,进而得到目标点云,减小计算开销;具体的,首选在初始点云中随机挑选三个点,并计算三点形成的采样平面;其次,计算所有点云至该采样平面的距离,设置距离阈值,并根据阈值将诸多点云分为内点(正常数据)和外点(异常数据);然后,统计内点和外点数量,重复上述过程至最大迭代次数,选取内点最多平面;最后,基于内点最多平面,以它的所有内点重新拟合平面,获取最终拟合平面方程,根据最终拟合平面方程移除地面点等多余点云,得到目标点云。
将多余点云移除后,属于各类主要目标的点云在空间中会以浮空分离的状态呈现,探测物体采用长方体边界框探测器。首先使用欧几里得算法进行该状态下目标点云的聚类,根据聚类结果得到边界框探测器的状态向量,边界框探测器的状态向量表示为:
如图3所示,构建配置有交互式多模型无迹卡尔曼滤波器(Interacting MultipleModel-Unscented Kalman Filter,IMM-UKF)的联合概率数据关联(Joint ProbabilisticData Association,JPDA)***即点目标***的过程包括:配置有IMM-UKF的JPDA***由输入交互模块、UKF滤波模块、概率更新模块、JPDA数据关联模块以及输出融合模块构成,用于实现对激光雷达所探测物体的航迹跟踪;
输入交互模块根据UKF滤波模块中的UKF滤波器在k时刻的第一状态估计和第一协方差矩阵计算多个目标交互后的第二状态估计和第二协方差矩阵并输出,其中j表示运动模型,它是根据目标的运动状态构建的速度模型,i=1,2,…,r,r为UKF滤波器数量;
输出融合模块根据k+1时刻运动模型j的条件概率第二测量信息第三状态估计和第三协方差矩阵计算融合后的状态估计和协方差矩阵,即使估计误差小的UKF滤波器输出成为融合跟踪输出,进而得到融合后的状态估计和协方差矩阵P(k+1)。
经过上述步骤,可得到得到适用于激光雷达的3-D局部***即配置有IMM-UKF的JPDA***。
采用边界框探测器和配置有IMM-UKF的JPDA***对激光雷达的3维探测信息进行处理,可得到探测物体的激光雷达航迹信息。该方法可以在不增加硬件成本的条件下,减小计算开销,进而有效改善激光雷达航迹信息的输出滞后现象。
S3:采用时空间转换将毫米波雷达航迹信息和激光雷达航迹信息进行处理,得到中心融合节点;采用IMF算法对中心融合节点进行处理,得到全局航迹信息;根据全局航迹信息实现对探测物体的跟踪。
毫米波雷达和激光雷达的测量信息分别经2-D局部***和3-D局部***处理后,形成两个局部航迹,即探测物体的毫米波雷达航迹信息和探测物体的毫米波雷达航迹信息;采用时空间转换将局部航迹信息统一至相同的坐标系及时间节点,进而构建融合中心节点,以实现不同航迹信息的数据关联。由于毫米波雷达和激光雷达测量得到的数据在传递过程中可能存在延迟处理时间和通信延迟,进而引发局部航迹信息错序导致的时序问题。为了解决该问题,需要将两个传感器之间的协方差计算出来,然后减去重复值。鉴于此,融合中心节点采用基于信息矩阵融合(Information Matrix Fusion,IMF)算法实现对2-D局部航迹和3-D局部航迹的更新。
航迹更新过程如图4所示。在k-2时刻,全局航迹信息仅含有从0到ki-1时刻的2-D局部航迹信息。在k-1时刻,全局航迹信息在已有信息基础上又融合了从0到kj时刻的3-D局部航迹信息,换言之,全局航迹信息含有0到kj时刻的2-D和3-D局部航迹信息。然而,在k时刻,若全局航迹信息直接融合ki时刻的2-D局部航迹信息,会造成信息的重复融合。因为上述被融合信息除了真正需要的ki-1到ki时刻的2-D局部航迹信息外,还有重复的0到ki-1时刻的2-D局部航迹信息。
IMF算法可避免航迹信息的在更新过程中重复融合,通过对协方差和状态估计的更新实现对融合后的航迹数据的更新,避免旧数据进入新目标从而避免重复融合,其算法流程如下:
更新协方差:
更新状态估计:
其中,P(k|k)表示传感器从0到k时刻的全局协方差,对应全局航迹信息;P(k|k-1)表示传感器从0到k-1时刻的全局协方差;Pi(k|k)表示第i个传感器从0到k时刻的局部协方差,对应局部航迹信息;Pi(k|k-1)表示第i个传感器从0到k-1时刻的局部协方差,Nk表示传感器数量,表示传感器从0到k时刻的全局状态估计,表示传感器从0到k-1时刻的全局状态估计,表示第i个传感器从0到k时刻的局部状态估计,表示第i个传感器从0到k-1时刻的局部状态估计;其中,传感器指毫米波雷达或激光雷达。
采用IMF算法融合两局部航迹,得到全局航迹信息,用户可根据全局航迹信息实现对智能驾驶车辆的跟踪。
本发明还提供一种面向智能驾驶车辆的多传感器融合***,该***用于执行面向智能驾驶车辆的多传感器融合方法,包括:扩展目标跟踪模块、边界探测器模块、点目标跟踪模块和航迹融合模块;
所述扩展目标跟踪模块用于根据GM-PHD算法和探测物体的矩形目标模型对毫米波雷达的2维探测信息进行处理,得到探测物体的毫米波雷达航迹信息;
所述边界框探测器模块用于根据基于RANSAC平面拟合算法和欧几里得算法对激光雷达的3维探测信息进行处理,得到探测物体的3维信息;
所述点目标跟踪模块用于,采用配置有IMM-UKF的JPDA***对对探测物体的3维信息进行处理,得到探测物体的激光雷达航迹信息;
所述航迹融合模块用于融合探测物体的毫米波雷达航迹信息和探测物体的激光雷达航迹信息,得到全局航迹信息。
以上所举实施例,对本发明的目的、技术方案和优点进行了进一步的详细说明,所应理解的是,以上所举实施例仅为本发明的优选实施方式而已,并不用以限制本发明,凡在本发明的精神和原则之内对本发明所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种面向智能驾驶车辆的多传感器融合方法,其特征在于,包括:
S1:根据GM-PHD算法和探测物体的矩形目标模型构建扩展目标***;采用扩展目标***对毫米波雷达的2维探测信息进行处理,得到探测物体的毫米波雷达航迹信息;
S2:构建边界框探测器和配置有IMM-UKF的JPDA***;采用边界框探测器和配置有IMM-UKF的JPDA***对激光雷达的3维探测信息进行处理,得到探测物体的激光雷达航迹信息;
S3:采用时空间转换将毫米波雷达航迹信息和激光雷达航迹信息进行处理,得到中心融合节点;采用IMF算法对中心融合节点进行处理,得到全局航迹信息;根据全局航迹信息实现对探测物体的跟踪。
2.根据权利要求1所述的一种面向智能驾驶车辆的多传感器融合方法,其特征在于,构建扩展目标***的过程包括:
根据探测物体的矩形目标模型得到探测物体的矩形扩展目标状态;
根据探测物体的矩形扩展目标状态,采用GM-PHD算法计算k时刻多目标预测PHD和k时刻多目标后验PHD,得到扩展目标***。
3.根据权利要求2所述的一种面向智能驾驶车辆的多传感器融合方法,其特征在于,矩形扩展目标状态表示为:
ξ=(γ,x,X)
其中,ξ表示探测物体扩展目标的状态,γ表示探测物体扩展目标的量测率状态,x表示探测物体扩展目标的运动状态,X表示探测物体扩展目标的扩展状态。
4.根据权利要求1所述的一种面向智能驾驶车辆的多传感器融合方法,其特征在于,构建边界框探测器的过程包括:采用基于RANSAC平面拟合算法对激光雷达数据进行预处理,得到目标点云;采用欧几里得算法对目标点云进行聚类;根据聚类的目标点云构建边界框探测器的状态向量,进而得到边界框探测器。
6.根据权利要求1所述的一种面向智能驾驶车辆的多传感器融合方法,其特征在于,构建配置有IMM-UKF的JPDA***的过程包括:
配置有IMM-UKF的JPDA***由输入交互模块、UKF滤波模块、概率更新模块、JPDA数据关联模块以及输出融合模块构成;
输入交互模块根据UKF滤波模块中的UKF滤波器在k时刻的第一状态估计和第一协方差矩阵计算第二状态估计和第二协方差矩阵并输出;
UKF滤波模块中的UKF滤波器根据输入交互模块的输出和k时刻的有效观测向量,输出k+1时刻的第三状态估计和第三协方差矩阵;
概率更新模块根据UKF滤波模块的残差信息,计算k+1时刻运动模型的条件概率;
JPDA数据关联模块根据第三状态估计、第三协方差矩阵和目标在运动模型下的第一测量信息,计算目标k+1时刻在运动模型下的第二测量信息;
输出融合模块根据k+1时刻运动模型的条件概率、第二测量信息、第三状态估计和第三协方差矩阵计算融合后的状态估计和协方差矩阵。
8.一种面向智能驾驶车辆的多传感器融合***,该***用于执行权利要求1~7中任意一项面向智能驾驶车辆的多传感器融合方法,其特征在于,包括:扩展目标跟踪模块、边界探测器模块、点目标跟踪模块和航迹融合模块;
所述扩展目标跟踪模块用于根据GM-PHD算法和探测物体的矩形目标模型对毫米波雷达的2维探测信息进行处理,得到探测物体的毫米波雷达航迹信息;
所述边界框探测器模块用于根据基于RANSAC平面拟合算法和欧几里得算法对激光雷达的3维探测信息进行处理,得到探测物体的3维信息;
所述点目标跟踪模块用于,采用配置有IMM-UKF的JPDA***对探测物体的3维信息进行处理,得到探测物体的激光雷达航迹信息;
所述航迹融合模块用于融合探测物体的毫米波雷达航迹信息和探测物体的激光雷达航迹信息,得到全局航迹信息。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210768001.5A CN115061139A (zh) | 2022-07-01 | 2022-07-01 | 一种面向智能驾驶车辆的多传感器融合方法及*** |
PCT/CN2023/096478 WO2024001629A1 (zh) | 2022-07-01 | 2023-05-26 | 一种面向智能驾驶车辆的多传感器融合方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210768001.5A CN115061139A (zh) | 2022-07-01 | 2022-07-01 | 一种面向智能驾驶车辆的多传感器融合方法及*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115061139A true CN115061139A (zh) | 2022-09-16 |
Family
ID=83204431
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210768001.5A Pending CN115061139A (zh) | 2022-07-01 | 2022-07-01 | 一种面向智能驾驶车辆的多传感器融合方法及*** |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN115061139A (zh) |
WO (1) | WO2024001629A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117109588A (zh) * | 2023-08-25 | 2023-11-24 | 中国船舶集团有限公司第七零七研究所九江分部 | 一种面向智能航行的多源探测多目标信息融合方法 |
CN117278941A (zh) * | 2023-09-15 | 2023-12-22 | 广东省机场管理集团有限公司工程建设指挥部 | 基于5g网络和数据融合的车辆驾驶辅助定位方法及装置 |
WO2024001629A1 (zh) * | 2022-07-01 | 2024-01-04 | 重庆邮电大学 | 一种面向智能驾驶车辆的多传感器融合方法及*** |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118033409B (zh) * | 2024-04-15 | 2024-06-14 | 三峡金沙江川云水电开发有限公司 | 一种gcb灭弧室开关电阻测试方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104778358B (zh) * | 2015-04-09 | 2017-11-10 | 西安工程大学 | 多传感器存在监测区域部分重叠的扩展目标跟踪方法 |
CN108490927A (zh) * | 2018-01-24 | 2018-09-04 | 天津大学 | 一种应用于无人驾驶汽车的目标跟踪***及跟踪方法 |
KR102311227B1 (ko) * | 2019-07-23 | 2021-10-13 | 충북대학교 산학협력단 | 확장 칼만필터를 이용한 차량 위치 추적 방법 및 장치 |
CN110596693B (zh) * | 2019-08-26 | 2021-10-22 | 杭州电子科技大学 | 一种迭代更新的多传感器gmphd自适应融合方法 |
CN112285700B (zh) * | 2020-08-24 | 2023-12-15 | 江苏大学 | 基于激光雷达与毫米波雷达融合的机动目标跟踪方法 |
GB2607299A (en) * | 2021-06-01 | 2022-12-07 | Daimler Ag | Track fusion for an autonomous vehicle |
CN114325635A (zh) * | 2021-12-30 | 2022-04-12 | 上海埃威航空电子有限公司 | 一种激光雷达和导航雷达目标融合方法 |
CN115061139A (zh) * | 2022-07-01 | 2022-09-16 | 重庆邮电大学 | 一种面向智能驾驶车辆的多传感器融合方法及*** |
-
2022
- 2022-07-01 CN CN202210768001.5A patent/CN115061139A/zh active Pending
-
2023
- 2023-05-26 WO PCT/CN2023/096478 patent/WO2024001629A1/zh unknown
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024001629A1 (zh) * | 2022-07-01 | 2024-01-04 | 重庆邮电大学 | 一种面向智能驾驶车辆的多传感器融合方法及*** |
CN117109588A (zh) * | 2023-08-25 | 2023-11-24 | 中国船舶集团有限公司第七零七研究所九江分部 | 一种面向智能航行的多源探测多目标信息融合方法 |
CN117109588B (zh) * | 2023-08-25 | 2024-04-30 | 中国船舶集团有限公司第七零七研究所九江分部 | 一种面向智能航行的多源探测多目标信息融合方法 |
CN117278941A (zh) * | 2023-09-15 | 2023-12-22 | 广东省机场管理集团有限公司工程建设指挥部 | 基于5g网络和数据融合的车辆驾驶辅助定位方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2024001629A1 (zh) | 2024-01-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115061139A (zh) | 一种面向智能驾驶车辆的多传感器融合方法及*** | |
Bar-Shalom et al. | Tracking with classification-aided multiframe data association | |
CN1940591B (zh) | 使用传感器融合进行目标跟踪的***和方法 | |
US10527705B2 (en) | System and method for multi-sensor multi-target 3D fusion using an unbiased measurement space | |
CN113781582A (zh) | 基于激光雷达和惯导联合标定的同步定位与地图创建方法 | |
US20140372073A1 (en) | Two-stage filtering based method for multiple target tracking | |
JP3179355B2 (ja) | 多目標追尾方法及び多目標追尾装置 | |
CN110187337B (zh) | 一种基于ls和neu-ecef时空配准的高机动目标跟踪方法及*** | |
Agate et al. | Road-constrained target tracking and identification using a particle filter | |
Kwon et al. | A robust mobile target localization method for cooperative unmanned aerial vehicles using sensor fusion quality | |
Helgesen et al. | Sensor combinations in heterogeneous multi-sensor fusion for maritime target tracking | |
CN111007880B (zh) | 一种基于汽车雷达的扩展目标跟踪方法 | |
Ebert et al. | Deep radar sensor models for accurate and robust object tracking | |
CN116047495B (zh) | 一种用于三坐标雷达的状态变换融合滤波跟踪方法 | |
CN116222541A (zh) | 利用因子图的智能多源组合导航方法及装置 | |
Chen et al. | IMM tracking of a 3D maneuvering target with passive TDOA system | |
CN115471526A (zh) | 基于多源异构信息融合的自动驾驶目标检测与跟踪方法 | |
CN114861725A (zh) | 一种目标感知跟踪的后处理方法、装置、设备及介质 | |
CN113511194A (zh) | 一种纵向避撞预警方法及相关装置 | |
CN114740467A (zh) | 基于幅度点迹的集群目标跟踪及数量、轮廓动态估计方法 | |
Lu et al. | A new performance index for measuring the effect of single target tracking with Kalman particle filter | |
CN114088086B (zh) | 一种抗测量野值干扰的多目标鲁棒定位方法 | |
CN102426357B (zh) | 一种具有图像确认的多目标跟踪方法 | |
Schuster et al. | Target tracking in marine environment using automotive radar and laser range sensor | |
EP0580140B1 (en) | Covert ranging method and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |