CN109212521B - 一种基于前视相机与毫米波雷达融合的目标跟踪方法 - Google Patents

一种基于前视相机与毫米波雷达融合的目标跟踪方法 Download PDF

Info

Publication number
CN109212521B
CN109212521B CN201811125678.7A CN201811125678A CN109212521B CN 109212521 B CN109212521 B CN 109212521B CN 201811125678 A CN201811125678 A CN 201811125678A CN 109212521 B CN109212521 B CN 109212521B
Authority
CN
China
Prior art keywords
target
millimeter wave
wave radar
tracking
fusion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811125678.7A
Other languages
English (en)
Other versions
CN109212521A (zh
Inventor
陈文博
余卓平
熊璐
张培志
严森炜
夏浪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tongji University
Original Assignee
Tongji University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tongji University filed Critical Tongji University
Priority to CN201811125678.7A priority Critical patent/CN109212521B/zh
Publication of CN109212521A publication Critical patent/CN109212521A/zh
Application granted granted Critical
Publication of CN109212521B publication Critical patent/CN109212521B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明涉及一种基于前视相机与毫米波雷达融合的目标跟踪方法,包括以下步骤:1)对前视相机以及毫米波雷达进行联合标定;2)根据毫米波雷达测量对动态目标进行跟踪,采用卡尔曼滤波对检测到的目标状态进行状态更新,获取毫米波雷达对目标的跟踪航迹;3)通过前视相机获取目标的位置和速度信息,对动态目标进行跟踪,采用卡尔曼滤波对检测到的目标状态进行状态更新,获取前视相机对目标的跟踪航迹;4)将毫米波雷达和前视相机的跟踪目标状态进行融合。与现有技术相比,本发明利用两种不同传感器探测到的目标进行跟踪,弥补了单个传感器漏检、误检、跟踪失败、状态探测不精确等缺陷,利用冗余的信息增加了智能汽车的安全性。

Description

一种基于前视相机与毫米波雷达融合的目标跟踪方法
技术领域
本发明涉及智能汽车技术领域,尤其是涉及一种基于前视相机与毫米波雷达融合的目标跟踪方法。
背景技术
智能汽车是一个综合的***,整体可分为环境感知、决策规划和运动控制。环境感知作为智能汽车与周围环境进行信息交换的关键环节,可以让智能汽车更了解其所处的环境,这对之后的决策、规划和控制都至关重要。
传统的跟踪方法大都基于单个传感器。作为智能汽车的主要传感器,前视相机和毫米波雷达各有优缺点。相机如人眼一样可以得到丰富的环境信息,通过算法可以得到物体的形状和大小,但单一特征算法受天气、光照等因素影响较大,并且所得像素信息不能体现距离。毫米波雷达可以精确测量物体的距离和相对速度,并且抗干扰能力强,但无法测量物体的形状和大小。这些问题都有可能会造成传感器在物体跟踪过程中的跟踪丢失或者跟踪错误,从而造成交通事故,引发人员伤亡和财产损失。
因此,如何融合多传感器,利用互补的信息进行物体跟踪,使得跟踪更安全准确,这个问题亟待解决。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于前视相机与毫米波雷达融合的目标跟踪方法。
本发明的目的可以通过以下技术方案来实现:
一种基于前视相机与毫米波雷达融合的目标跟踪方法,包括以下步骤:
1)对设置在前挡风玻璃后视镜位置处的前视相机以及设置在前进气栅位置处的毫米波雷达进行联合标定,使前视相机和毫米波雷达在空间和时间上对准;
2)根据毫米波雷达测量得到的相对速度,并通过阈值区分动态目标和静态障碍物后,对动态目标进行跟踪,通过独立空间中的可行事件的概率滤除极小概率事件后,采用卡尔曼滤波对检测到的目标状态进行状态更新,获取毫米波雷达对目标的跟踪航迹;
3)通过前视相机获取目标的位置和速度信息,区分动态目标和静态障碍物后对动态目标进行跟踪,通过独立空间中的可行事件的概率滤除极小概率事件后,采用卡尔曼滤波对检测到的目标状态进行状态更新,获取前视相机对目标的跟踪航迹;
4)将毫米波雷达和前视相机的跟踪目标状态进行融合,最终获取融合后的目标状态。
所述的步骤2)具体包括以下步骤:
21)对毫米波雷达探测到的动态目标进行跟踪,对于测量值落入不同的波门或同一波门包含多个目标的测量值,根据联合概率数据关联生成确认矩阵Ω,用以表示观测与目标之间的关系:
Figure GDA0002717770580000021
其中,t为目标,j为观测,m为目标总数,T为观测总数,ωjt为1时表示目标t和观测j之间存在关联,为0时表示目标t和观测j之间不存在关联;
22)对确认矩阵Ω进行空间划分,获取每个独立空间中对应的确认矩阵Ωi,i=1,2,...,n,n为空间划分后独立空间的个数;
23)对每个独立空间中对应的确认矩阵Ωi计算关联概率,并设置阈值剔除极小概率事件;
24)根据毫米波雷达关联上的目标建立航迹;
25)对关联上的目标采用扩展卡尔曼滤波进行状态更新,毫米波探测到的目标状态为相对距离、水平角度和相对速度,将毫米波探测到的目标状态转换为横向和纵向的相对距离及相对速度。
所述的步骤22)具体包括以下步骤:
对确认矩阵Ω中分别对同一目标为1的行向量进行或运算,并将或运算结果中相等的行向量只保留一个,将剩余不能消除的向量重新组成一个新矩阵,新矩阵的行数n即为独立空间的个数,新矩阵每行中的值为1代表所在列数的目标相交区域。
所述的步骤23)具体包括以下步骤:
对确认矩阵Ωi进行逐行扫描,每行中仅选出第一个为1的值作为可行矩阵的元素,保证除第一列之外,可行矩阵中每一列只有一个值为1,并且计算关联概率βjt,并根据关联概率判断是否关联:
Figure GDA0002717770580000031
Figure GDA0002717770580000032
其中,Zk为全部有效回波的集合,θ为事件,即观测与目标的匹配,
Figure GDA0002717770580000033
为1时表示事件θ为可行事件,为0时表示事件θ不为可行事件,P{θ/Zk}为关联事件的后验概率。
所述的步骤24)具体包括以下步骤:
若连续三次跟踪关联上同一目标物体,或者在已经连续两次关联上后,并且在之后的三次跟踪中至少关联上一次的目标物体,对其建立初始航迹,未关联上的目标物体采用上一时刻的速度按照匀速推算当前时刻的位置,若之后的三次关联都未关联上,则放弃建立航迹。
所述的步骤25)中,对于已经确认的航迹,当连续两次没有出现点迹,则在第三次探测中扩大波门捕获丢失的目标,若未捕获到,则判断跟踪目标消失,撤销航迹。
所述的步骤4)具体包括以下步骤:
41)分别获取毫米波雷达和前视相机跟踪目标状态的协方差,并计算每个时刻各个状态的马氏距离,将各个状态的马氏距离小于设定阈值且加权和最小的两个目标认定为同一目标;
42)对毫米波雷达和前视相机跟踪目标状态根据协方差加权,获取跟踪融合后的目标状态,并存入数据库。
所述的步骤41)中,认定为同一目标的具体表达式为:
Figure GDA0002717770580000034
其中,Mx,My,Mvx,Mvy分别为x和y方向上距离和速度的马氏距离,Mx0,My0,Mvx0,Mvy0,M0分别为阈值,a,b,c,d分别为权重。
所述的步骤42)中,加权融合的具体表达式为:
Figure GDA0002717770580000041
其中,x,y,vx,vy分别为融合后的x,y方向上的距离和速度,xr,yr,vxr,vyr分别为毫米波雷达得到的目标在x,y方向上的距离和速度,xc,yc,vxc,vyc分别为前视相机得到的目标在x,y方向上的距离和速度,e,f分别为权重。
所述的步骤4)中,若毫米波雷达和前视相机中仅有一个检测到目标,则直接将该被毫米波雷达或前视相机检测到的目标状态存入数据库。
与现有技术相比,本发明具有以下优点:
一、多传感器跟踪:相比单个传感器跟踪,多传感器融合弥补了单个传感器漏检、误检、跟踪失败、状态探测不精确等缺陷,利用冗余的信息增加了智能汽车的安全性;
二、减少计算量:相比传统的联合概率数据关联方法,增加了空间划分的方法,在每个独立空间中拆分确认矩阵,并删除小概率事件,可以减少计算量。
附图说明
图1为本发明的方法流程图。
图2为跟踪过程流程图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。
实施例:
本例主要采用的传感器是前视相机和毫米波雷达,分别安装在车辆挡风玻璃后视镜位置和前进气栅位置。采用一种分布式融合的方式,对两种传感器分别跟踪的物体进行融合。本发明的关键在于如何利用单个传感器对多目标进行跟踪,以及如何将相机的跟踪目标和雷达的跟踪目标进行融合。
本发明提供了一种基于空间划分的联合概率数据关联的跟踪方法,利用卡尔曼滤波进行状态估计,生成单个传感器对目标的局部跟踪航迹,再对两个局部航迹计算马氏距离,进行融合,如图1和图2所示,具体包括以下步骤:
步骤1:对安装前挡风玻璃上后视镜位置的前视相机和前进气栅位置的毫米波雷达进行联合标定,使两个传感器在空间和时间上对准;
步骤2:对毫米波输入当前车速和横摆角速度信息,过滤掉空信号、虚假信号,再根据测量得到的相对速度,设置阈值,区分动态和静态障碍物;
步骤3:对毫米波雷达探测到的动态目标进行跟踪,对测量值落入不同的波门或者某个波门含有多个其他目标的测量值,根据联合概率数据关联生成确认矩阵Ω,来表达测量与目标之间的关系:
Figure GDA0002717770580000051
其中
Figure GDA0002717770580000052
其中,ωjt代表目标和观测的对应关系;
步骤4:对多目标跟踪***中的有效量测与目标之间进行空间划分,针对每一个目标的确认矩阵中为1的行向量进行或运算,再将结果中相等的行向量消除,只保留一个,不能消除的重新组成一个新的矩阵,行数n表示独立空间的个数,每行中的1代表所在列数的目标相交区域;
步骤5:在每个独立空间中生成各自的确认矩阵Ωi(i=1,2,...,n),对Ωi进行拆分,得到可行矩阵;
具体拆分的方法为:
对确认矩阵Ωi进行逐行扫描,每行仅选出一个1作为可行矩阵的元素,除第一列之外,可行矩阵中每一列只能有一个1;并计算关联概率:
Figure GDA0002717770580000053
Figure GDA0002717770580000054
其中,βjt代表第j个测量和第t个目标的关联概率,Zk代表全部有效回波的集合;为了避免确认矩阵的拆分导致计算量过大,设置概率阈值,舍弃概率小于阈值的事件;
步骤6:若连续三次关联上同一物体,或者已经连续两次关联上,在之后的三次跟踪中至少关联上一次的,建立初始航迹,未关联上的用上一时刻的速度按照匀速推算这一时刻的位置,若之后三次都未关联上则不建立航迹;
步骤7:毫米波探测到目标的状态是相对距离、水平角度和相对速度,对关联上的目标用扩展卡尔曼滤波进行状态更新,转换为横向和纵向的相对距离和相对速度;
Figure GDA0002717770580000061
Zt=HtXt+Vt
Figure GDA0002717770580000062
步骤8:对于一条已经确认的航迹,若已经连续两次没有出现点迹,则在第三次探测中扩大波门去捕获丢失的目标,若还未捕获到,则判断跟踪目标消失,撤销航迹,把目标从数据库中删除,其中未探测到的用上一时刻的速度按照匀速推算这一时刻的位置;
步骤9:假设前视相机已经能够检测目标,并获得目标的位置和速度信息,对前视相机探测到的目标进行滤波,过滤掉虚假信号和跳动过大的目标,再区分动态和静态目标;
步骤10:对相机过滤之后的目标做如步骤3~步骤8,对关联上的目标用卡尔曼滤波进行状态更新,得到横向和纵向的距离和速度;
步骤11:通过步骤7和步骤10分别得到两种传感器下跟目标状态的协方差,分别计算每个时刻各个状态的马氏距离,选取各个状态的马氏距离小于一定阈值且加权和最小的两个目标,认为是两个传感器探测到同一物体,即两个局部航迹的匹配;
步骤12:对步骤11中关联上的两个传感器探测到的状态,按照协方差加权,得到两个传感器跟踪融合的目标状态,存入数据库;
步骤13:若步骤11中的判断条件不满足,即两个传感器中有一个未检测到该目标,直接把该被单个传感器检测到的目标信息存入数据库。

Claims (6)

1.一种基于前视相机与毫米波雷达融合的目标跟踪方法,其特征在于,包括以下步骤:
1)对设置在前挡风玻璃后视镜位置处的前视相机以及设置在前进气栅位置处的毫米波雷达进行联合标定,使前视相机和毫米波雷达在空间和时间上对准;
2)根据毫米波雷达测量得到的相对速度,并通过阈值区分动态目标和静态障碍物后,对动态目标进行跟踪,通过独立空间中的可行事件的概率滤除极小概率事件后,采用卡尔曼滤波对检测到的目标状态进行状态更新,获取毫米波雷达对目标的跟踪航迹;
3)通过前视相机获取目标的位置和速度信息,区分动态目标和静态障碍物后对动态目标进行跟踪,通过独立空间中的可行事件的概率滤除极小概率事件后,采用卡尔曼滤波对检测到的目标状态进行状态更新,获取前视相机对目标的跟踪航迹;
4)将毫米波雷达和前视相机的跟踪目标状态进行融合,最终获取融合后的目标状态,若毫米波雷达和前视相机中仅有一个检测到目标,则直接将该被毫米波雷达或前视相机检测到的目标状态存入数据库,具体包括以下步骤:
41)分别获取毫米波雷达和前视相机跟踪目标状态的协方差,并计算每个时刻各个状态的马氏距离,将各个状态的马氏距离小于设定阈值且加权和最小的两个目标认定为同一目标,认定为同一目标的具体表达式为:
Figure FDA0002717770570000011
其中,Mx,My,Mvx,Mvy分别为x和y方向上距离和速度的马氏距离,Mx0,My0,Mvx0,Mvy0,M0分别为阈值,a,b,c,d分别为权重;
42)对毫米波雷达和前视相机跟踪目标状态根据协方差加权,获取跟踪融合后的目标状态,并存入数据库,加权融合的具体表达式为:
Figure FDA0002717770570000021
其中,x,y,vx,vy分别为融合后的x,y方向上的距离和速度,xr,yr,vxr,vyr分别为毫米波雷达得到的目标在x,y方向上的距离和速度,xc,yc,vxc,vyc分别为前视相机得到的目标在x,y方向上的距离和速度,e,f分别为权重。
2.根据权利要求1所述的一种基于前视相机与毫米波雷达融合的目标跟踪方法,其特征在于,所述的步骤2)具体包括以下步骤:
21)对毫米波雷达探测到的动态目标进行跟踪,对于测量值落入不同的波门或同一波门包含多个目标的测量值,根据联合概率数据关联生成确认矩阵Ω,用以表示观测与目标之间的关系:
Figure FDA0002717770570000022
其中,t为目标,j为观测,m为目标总数,T为观测总数,ωjt为1时表示目标t和观测j之间存在关联,为0时表示目标t和观测j之间不存在关联;
22)对确认矩阵Ω进行空间划分,获取每个独立空间中对应的确认矩阵Ωi,i=1,2,...,n,n为空间划分后独立空间的个数;
23)对每个独立空间中对应的确认矩阵Ωi计算关联概率,并设置阈值剔除极小概率事件;
24)根据毫米波雷达关联上的目标建立航迹;
25)对关联上的目标采用扩展卡尔曼滤波进行状态更新,毫米波探测到的目标状态为相对距离、水平角度和相对速度,将毫米波探测到的目标状态转换为横向和纵向的相对距离及相对速度。
3.根据权利要求2所述的一种基于前视相机与毫米波雷达融合的目标跟踪方法,其特征在于,所述的步骤22)具体包括以下步骤:
对确认矩阵Ω中分别对同一目标为1的行向量进行或运算,并将或运算结果中相等的行向量只保留一个,将剩余不能消除的向量重新组成一个新矩阵,新矩阵的行数n即为独立空间的个数,新矩阵每行中的值为1代表所在列数的目标相交区域。
4.根据权利要求3所述的一种基于前视相机与毫米波雷达融合的目标跟踪方法,其特征在于,所述的步骤23)具体包括以下步骤:
对确认矩阵Ωi进行逐行扫描,每行中仅选出第一个为1的值作为可行矩阵的元素,保证除第一列之外,可行矩阵中每一列只有一个值为1,并且计算关联概率βjt,并根据关联概率判断是否关联:
Figure FDA0002717770570000031
Figure FDA0002717770570000032
其中,Zk为全部有效回波的集合,θ为事件,即观测与目标的匹配,
Figure FDA0002717770570000033
为1时表示事件θ为可行事件,为0时表示事件θ不为可行事件,P{θ/Zk}为关联事件的后验概率。
5.根据权利要求2所述的一种基于前视相机与毫米波雷达融合的目标跟踪方法,其特征在于,所述的步骤24)具体包括以下步骤:
若连续三次跟踪关联上同一目标物体,或者在已经连续两次关联上后,并且在之后的三次跟踪中至少关联上一次的目标物体,对其建立初始航迹,未关联上的目标物体采用上一时刻的速度按照匀速推算当前时刻的位置,若之后的三次关联都未关联上,则放弃建立航迹。
6.根据权利要求2所述的一种基于前视相机与毫米波雷达融合的目标跟踪方法,其特征在于,所述的步骤25)中,对于已经确认的航迹,当连续两次没有出现点迹,则在第三次探测中扩大波门捕获丢失的目标,若未捕获到,则判断跟踪目标消失,撤销航迹。
CN201811125678.7A 2018-09-26 2018-09-26 一种基于前视相机与毫米波雷达融合的目标跟踪方法 Active CN109212521B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811125678.7A CN109212521B (zh) 2018-09-26 2018-09-26 一种基于前视相机与毫米波雷达融合的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811125678.7A CN109212521B (zh) 2018-09-26 2018-09-26 一种基于前视相机与毫米波雷达融合的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN109212521A CN109212521A (zh) 2019-01-15
CN109212521B true CN109212521B (zh) 2021-03-26

Family

ID=64981556

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811125678.7A Active CN109212521B (zh) 2018-09-26 2018-09-26 一种基于前视相机与毫米波雷达融合的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN109212521B (zh)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109886308B (zh) * 2019-01-25 2023-06-23 中国汽车技术研究中心有限公司 一种基于目标级别的双传感器数据融合方法和装置
CN109752719A (zh) * 2019-01-27 2019-05-14 南昌航空大学 一种基于多传感器的智能汽车环境感知方法
CN109858440A (zh) * 2019-01-30 2019-06-07 苏州昆承智能车检测科技有限公司 基于测距雷达和机器视觉数据融合的前方车辆检测***
CN109975798B (zh) * 2019-03-26 2022-11-18 武汉理工大学 一种基于毫米波雷达与摄像头的目标检测方法
CN110208793B (zh) * 2019-04-26 2022-03-11 纵目科技(上海)股份有限公司 基于毫米波雷达的辅助驾驶***、方法、终端和介质
CN112415516B (zh) * 2019-08-05 2023-09-08 宇通客车股份有限公司 一种车辆前方障碍区域感知方法及装置
CN110579764B (zh) * 2019-08-08 2021-03-09 北京三快在线科技有限公司 深度相机和毫米波雷达的配准方法、装置、电子设备
CN110794867B (zh) 2019-10-18 2020-10-30 合肥工业大学 通信干扰下无人机编队信息交互拓扑智能决策方法和装置
CN110749322B (zh) * 2019-10-22 2021-05-14 北京航空航天大学 一种基于测速信息的目标跟踪方法
CN110866544B (zh) * 2019-10-28 2022-04-15 杭州飞步科技有限公司 传感器数据的融合方法、装置及存储介质
CN110850413A (zh) * 2019-11-26 2020-02-28 奇瑞汽车股份有限公司 一种汽车前方障碍物检测方法和***
CN113449541A (zh) * 2020-03-24 2021-09-28 阿里巴巴集团控股有限公司 一种数据处理方法、设备及***
CN111505624B (zh) * 2020-04-30 2022-07-01 中国汽车工程研究院股份有限公司 一种基于机器视觉和毫米波雷达数据融合的环境感知方法
CN111708021B (zh) * 2020-07-15 2022-04-15 四川长虹电器股份有限公司 一种基于毫米波雷达的人员跟踪与识别算法
CN111965636A (zh) * 2020-07-20 2020-11-20 重庆大学 一种基于毫米波雷达和视觉融合的夜间目标检测方法
CN112033429B (zh) * 2020-09-14 2022-07-19 吉林大学 一种智能汽车的目标级多传感器融合方法
CN112363167A (zh) * 2020-11-02 2021-02-12 重庆邮电大学 一种基于毫米波雷达与单目相机融合的扩展目标跟踪方法
CN112356848A (zh) * 2020-11-06 2021-02-12 北京经纬恒润科技股份有限公司 目标监测方法及自动驾驶***
CN112560580B (zh) * 2020-11-20 2022-01-28 腾讯科技(深圳)有限公司 障碍物识别方法、装置、***、存储介质和电子设备
CN112731371B (zh) * 2020-12-18 2024-01-23 重庆邮电大学 一种激光雷达与视觉融合的集成化目标跟踪***及方法
CN112859059A (zh) * 2021-03-26 2021-05-28 江西商思伏沌科技有限公司 目标检测与跟踪***和方法
CN113030901B (zh) * 2021-04-01 2022-09-20 中国石油大学(华东) 一种结合姿态仪与毫米波雷达的无人船前方多目标跟踪检测方法
CN113325415B (zh) * 2021-04-20 2023-10-13 武汉光庭信息技术股份有限公司 车辆雷达数据和相机数据的融合方法及***
CN113511194A (zh) * 2021-04-29 2021-10-19 无锡物联网创新中心有限公司 一种纵向避撞预警方法及相关装置
CN113296088A (zh) * 2021-05-11 2021-08-24 雄狮汽车科技(南京)有限公司 车辆的动态目标跟踪方法、装置、及车辆
CN115144828B (zh) * 2022-07-05 2024-04-12 同济大学 一种智能汽车多传感器时空融合的自动在线标定方法
CN115407273B (zh) * 2022-08-29 2024-01-05 哈尔滨工业大学(威海) 一种特定安防区域监控提醒报警装置及方法
CN115542308B (zh) * 2022-12-05 2023-03-31 德心智能科技(常州)有限公司 基于毫米波雷达的室内人员探测方法、装置、设备及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105093197A (zh) * 2015-07-27 2015-11-25 电子科技大学 一种并行的雷达多目标关联方法
CN105866779A (zh) * 2016-04-06 2016-08-17 浙江大学 基于双目相机与毫米波雷达的可穿戴避障装置及避障方法
CN106872955A (zh) * 2017-01-24 2017-06-20 西安电子科技大学 基于联合概率数据关联算法的雷达多目标跟踪优化方法
CN107561528A (zh) * 2017-08-11 2018-01-09 中国人民解放军63870部队 一种抗航迹合并的联合概率数据关联算法
CN107966700A (zh) * 2017-11-20 2018-04-27 天津大学 一种用于无人驾驶汽车的前方障碍物检测***及方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6642399B2 (ja) * 2016-12-07 2020-02-05 トヨタ自動車株式会社 車両走行制御装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105093197A (zh) * 2015-07-27 2015-11-25 电子科技大学 一种并行的雷达多目标关联方法
CN105866779A (zh) * 2016-04-06 2016-08-17 浙江大学 基于双目相机与毫米波雷达的可穿戴避障装置及避障方法
CN106872955A (zh) * 2017-01-24 2017-06-20 西安电子科技大学 基于联合概率数据关联算法的雷达多目标跟踪优化方法
CN107561528A (zh) * 2017-08-11 2018-01-09 中国人民解放军63870部队 一种抗航迹合并的联合概率数据关联算法
CN107966700A (zh) * 2017-11-20 2018-04-27 天津大学 一种用于无人驾驶汽车的前方障碍物检测***及方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
多源数据关联与融合算法研究;王海颖;《中国优秀硕士学位论文全文数据库信息科技辑》;20170215;论文正文第3章,第五章 *

Also Published As

Publication number Publication date
CN109212521A (zh) 2019-01-15

Similar Documents

Publication Publication Date Title
CN109212521B (zh) 一种基于前视相机与毫米波雷达融合的目标跟踪方法
US11353553B2 (en) Multisensor data fusion method and apparatus to obtain static and dynamic environment features
CN1940591B (zh) 使用传感器融合进行目标跟踪的***和方法
CN109086788B (zh) 用于从异构装置感测的多种不同格式的数据的多模式融合处理的设备、方法和***
Mohajerin et al. Multi-step prediction of occupancy grid maps with recurrent neural networks
Aeberhard et al. High-level sensor data fusion architecture for vehicle surround environment perception
CN110850403A (zh) 一种多传感器决策级融合的智能船水面目标感知识别方法
CN112285700A (zh) 基于激光雷达与毫米波雷达融合的机动目标跟踪方法
CN110781949B (zh) 基于异步式串行多传感器的航迹数据融合方法及存储介质
CN110132305A (zh) 一种实时校准方法及装置
JP6239047B1 (ja) 物体認識統合装置および物体認識統合方法
JP2004037239A (ja) 同一対象物判断方法および装置、並びに、位置ずれ補正方法および装置
CN110929796B (zh) 基于多源传感器决策层数据融合方法、***及存储介质
EP3671272A1 (en) Vehicle sensor fusion based on fuzzy sets
CN108960083B (zh) 基于多传感器信息融合的自动驾驶目标分类方法及***
CN114170274B (zh) 目标跟踪方法和装置、电子设备和存储介质
US11748593B2 (en) Sensor fusion target prediction device and method for vehicles and vehicle including the device
AU2020103979A4 (en) Multi-sensor cooperative target tracking system
CN113269811A (zh) 数据融合方法、装置及电子设备
EP3467545A1 (en) Object classification
Thomaidis et al. Multiple hypothesis tracking for automated vehicle perception
KR20070067095A (ko) 옵트로닉 감시 시스템에서, 포인트형 타겟들을 검출 및추적하는 방법
US20220281476A1 (en) Aiming device, driving control system, and method for calculating correction amount for sensor data
Amditis et al. Fusion of infrared vision and radar for estimating the lateral dynamics of obstacles
CN109270523B (zh) 多传感器数据融合方法和装置,车辆

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant