CN111612818A - 新型双目视觉多目标跟踪方法及*** - Google Patents

新型双目视觉多目标跟踪方法及*** Download PDF

Info

Publication number
CN111612818A
CN111612818A CN202010384346.1A CN202010384346A CN111612818A CN 111612818 A CN111612818 A CN 111612818A CN 202010384346 A CN202010384346 A CN 202010384346A CN 111612818 A CN111612818 A CN 111612818A
Authority
CN
China
Prior art keywords
probability
vehicle motion
target
tracking
binocular vision
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202010384346.1A
Other languages
English (en)
Inventor
胡广地
李孝哲
黎康杰
顾丽军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Xintongda Electronic Technology Co ltd
Original Assignee
Jiangsu Xintongda Electronic Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu Xintongda Electronic Technology Co ltd filed Critical Jiangsu Xintongda Electronic Technology Co ltd
Priority to CN202010384346.1A priority Critical patent/CN111612818A/zh
Publication of CN111612818A publication Critical patent/CN111612818A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于自动驾驶的多目标跟踪技术领域,具体涉及一种新型双目视觉多目标跟踪方法及***,其中新型双目视觉多目标跟踪方法包括:通过双目视觉获取图像;根据图像获取移动目标;构建车辆运动空间和车辆运动模型;以及通过改进的联合概率数据关联根据车辆运动空间和车辆运动模型对移动目标进行跟踪,实现了智能车多目标跟踪,大幅度提升驾驶***的自动化和智能化水平,提高了跟踪精度和速度,且在跟踪车辆时不会产生明显的偏移、不会遗漏对行人的跟踪。

Description

新型双目视觉多目标跟踪方法及***
技术领域
本发明属于自动驾驶的多目标跟踪技术领域,具体涉及一种新型双目视觉多目标跟踪方法及***。
背景技术
在各种不确定条件下实现周围环境的可靠感知是几乎任何辅助或自治***应用中的基本任务,尤其是随着自动驾驶研究的不断兴起,学术界和各大科技公司正在积极开发先进的驾驶辅助***。驾驶辅助***的核心技术包括自适应巡航、避免碰撞、变道辅助、交通标志识别和停车辅助等功能,其目标是实现车辆驾驶的完全自动化,并在提高安全性的同时减少导致道路事故的人为错误。在各种技术中,移动物体跟踪是驾驶辅助***的关键任务,当车辆可以检测其所处环境中的动态物体并预测其未来行为时,可以大大是提升车辆的智能化水平。
由于需要在不同环境条件下的实现各类物体的实时、准确跟踪,目前还没有一种传感***可以完全提供目标跟踪所需的全部信息。鉴于此,驾驶辅助***通常借助包括毫米波雷达、激光测距仪、视觉***等设备的复合感测***来实现移动目标的准确检测。雷达装置能够精确测量物体的相对速度和距离。激光测距仪具有比雷达更高的横向分辨率,而且除了可以精确地检测物距外,还可以检测物体的占用面积并提供详细的场景表示。基于视觉的传感***可以提供精确的横向测量和丰富的图像信息,从而为基于测距的传感器道路场景分析提供有效补充。其中,立体视觉传感器可以提供具有高横向分辨率和较小确定范围的目标检测,同时通常为物体的识别和分类提供足够的信息。
无论使用哪种传感器,在交通场景中都必须解决多目标跟踪的问题。此时需要跟踪每个目标的状态,同时在杂乱环境中处理测量值,进而解决跟踪目标数据关联的问题。
因此,基于上述技术问题,需要设计一种新的新型双目视觉多目标跟踪方法及***。
发明内容
本发明的目的是提供一种新型双目视觉多目标跟踪方法及***。
为了解决上述技术问题,本发明提供了一种新型双目视觉多目标跟踪方法,包括:
通过双目视觉获取图像;
根据图像获取移动目标;
构建车辆运动空间和车辆运动模型;以及
通过改进的联合概率数据关联根据车辆运动空间和车辆运动模型对移动目标进行跟踪。
进一步,所述根据图像获取移动目标的方法包括:
对图像进行校正后,根据视觉立体测距算法估计中间车辆的位移,以获取移动目标。
进一步,所述构建车辆运动空间的方法包括:
基于刚体等速运动模型的等效原则,将车辆运动空间GL构造为两个矩阵 Lie群S的笛卡尔积S1×S2
其中:S1为位置分量;S2为速度分量。
进一步,所述构建车辆运动模型的方法包括:
构建车辆运动模型并更新,即
所述车辆运动模型为:
Xk+1=Xk·exp(αkk);
其中,Xk∈GL,为***在k时刻的运动状态;αk为非线性函数;βk为高斯白噪声;
当第k-1步的后验分布满足Lie群上的高斯分布,则根据
Xk+1=Xkexp(log(αk))对车辆运动模型所示的运动状态进行预测,以将车辆运动模型更新为:
Figure RE-GDA0002549985270000031
其中,v1k、v2k、ωk分别为纵向、横向和旋转速度;β1k、β2k、βωk分别为高斯噪声在纵向、横向和旋转三个方向上的分量;T为矩阵的转置符号。
进一步,所述通过改进的联合概率数据关联根据车辆运动空间和车辆运动模型对移动目标进行跟踪的方法包括:
当移动目标的数量为k时,则多个移动目标表示为{T1,...,Tn};
Yk表示k时刻所有检测的集合
Figure RE-GDA0002549985270000032
Y1:k表示所有度量的历史Y1:k={Y1,…,Yk};
根据联合概率数据关联预测各移动目标Ti(i=1,2,...,n)的后验密度,即
Figure RE-GDA0002549985270000033
其中,
Figure RE-GDA0002549985270000034
为目标状态的密度;
Figure RE-GDA0002549985270000035
为目标的存在性的密度;P为概率;
目标状态的密度
Figure RE-GDA0002549985270000036
及其存在性
Figure RE-GDA0002549985270000037
为所有Yk的测量;
根据马尔可夫链模型描述移动目标存在的概率,即
Figure RE-GDA0002549985270000041
其中:ρ为移动目标在k-1时刻存在时,其在k时刻仍然存在的概率;
根据测量值Yk通过总概率公式预测k时刻扫描到移动目标Ti的后验密度:
Figure RE-GDA0002549985270000042
其中,
Figure RE-GDA0002549985270000043
为物体存在的后验数据关联概率;
Figure RE-GDA0002549985270000044
为概率假设;
被测目标存在的概率为:
Figure RE-GDA0002549985270000045
Figure RE-GDA0002549985270000046
由所有关节事件F构成时,其中每个轨迹具有零个或一个测量,并且每个测量被分配到零个或一个轨迹,则
Figure RE-GDA0002549985270000047
Figure RE-GDA0002549985270000048
Ti存在但没有被集群内的测量检测到的概率为:
Figure RE-GDA0002549985270000049
其中,
Figure RE-GDA00025499852700000410
为0个测量的概率假设;
Figure RE-GDA00025499852700000411
为0个测量的概率;
则计算各关节事件F对应的P(F∣Y1:k)时,分配测量的目标集合C,以及分配一组测量的轨道集合D,以获取:
Figure RE-GDA00025499852700000412
其中,i为第i个移动目标;Pd为Ti被检测到的概率;Pq为修正后度量在 Ti的门限阈值范围内的概率;
Figure RE-GDA0002549985270000051
为旋转概率;ρk为杂波先验度量密度;τ为在关节事件F下分配给Ti的度量的索引;
旋转概率为:
Figure RE-GDA0002549985270000052
目标存在的概率为:
Figure RE-GDA0002549985270000053
则联合数据概率为:
Figure RE-GDA0002549985270000054
根据联合数据概率实现多个移动目标的准确跟踪。
另一方面,本发明还提供一种新型双目视觉多目标跟踪***,包括:
采集模块,通过双目视觉获取图像;
移动目标获取模块,根据图像获取移动目标;
构建模块,构建车辆运动空间和车辆运动模型;以及
跟踪模块,通过改进的联合概率数据关联根据车辆运动空间和车辆运动模型对移动目标进行跟踪。
本发明的有益效果是,本发明通过双目视觉获取图像;根据图像获取移动目标;构建车辆运动空间和车辆运动模型;以及通过改进的联合概率数据关联根据车辆运动空间和车辆运动模型对移动目标进行跟踪,实现了智能车多目标跟踪,大幅度提升驾驶***的自动化和智能化水平,提高了跟踪精度和速度,且在跟踪车辆时不会产生明显的偏移、不会遗漏对行人的跟踪。
本发明的其他特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点在说明书、权利要求书以及附图中所特别指出的结构来实现和获得。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明所涉及的新型双目视觉多目标跟踪方法的流程图;
图2是本发明所涉及的新型双目视觉多目标跟踪方法的具体流程图;
图3是本发明所涉及的新型双目视觉多目标跟踪***的原理框图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
图1是本发明所涉及的新型双目视觉多目标跟踪方法的流程图。
如图1所示,本实施例1提供了一种新型双目视觉多目标跟踪方法,包括:通过双目视觉获取图像;根据图像获取移动目标;构建车辆运动空间和车辆运动模型;以及通过改进的联合概率数据关联(joint probabilistic data association, JPDA)根据车辆运动空间和车辆运动模型对移动目标进行跟踪,实现了智能车多目标跟踪,大幅度提升驾驶***的自动化和智能化水平,提高了跟踪精度和速度,且在跟踪车辆时不会产生明显的偏移、不会遗漏对行人的跟踪。
图2是本发明所涉及的新型双目视觉多目标跟踪方法的具体流程图。
如图2所示,在本实施例中,所述通过双目视觉获取图像的方法包括:利用立体视觉摄像头采集车辆及行人图像、视频;在Lie群下对传感器的不确定性进行建模,并采用欧几里德群算法对预处理的图像进行状态滤波;在可能存在车辆的区域内利用双目视觉去除误检,以校正图像。
在本实施例中,所述根据图像获取移动目标的方法包括:对图像进行校正后,通过卡尔曼滤波器对测量的不确定度和预测目标运动的轨迹进行确认,利用视觉立体测距算法估计中间车辆的位移,将不符合特征的物体视为移动目标,这个过程中需要进行移动目标立体检测,具体过程如下:
首先,在对图像进行校正后,所有来自前一帧的特征点通过标准针孔照相机模型投影到3D世界帧中,然后将该位置与获得的运动矩阵进行复合反投影到当前相机帧中,并连接到来自当前帧的,对应前一帧的3D点形成矢量场,其中每个矢量表示相对于世界帧的对应3D点的运动;其次,由于在3D空间中测量不确定度具有高度异向性,因此难以精确确定沿着光轴方向的运动强度,而将矢量投影到不确定性均匀分布的图像平面上,并将阈值赋值给每个点的运动幅度,然后根据平移和旋转参数将剩余的矢量连接成簇;最后,如果至少有3个向量出现在其中,那么每个簇就对应一个移动对象(移动目标),并用所有相应点的质心点描述该移动对象。
在本实施例中,基于Lie群中的扩展卡尔曼滤波器构造状态不确定性表示和运动模型,即需要构建车辆运动空间和车辆运动模型。
在本实施例中,所述构建车辆运动空间的方法包括:车辆是典型的刚体,因此需要运用刚体运动方程组描述车辆的状态;此外,当考虑车辆的速度时,也可以通过相同的运动方程组来表示高阶的状态变化;基于刚体等速运动模型的等效原则,将车辆运动空间GL构造为两个矩阵Lie群S的笛卡尔积S1×S2;其中:S1为位置分量;S2为速度分量。
在本实施例中,所述构建车辆运动模型的方法包括:
构建车辆运动模型并更新,即
所述车辆运动模型为:
Xk+1=Xk·exp(αkk);
其中,Xk∈GL,为***在k时刻的运动状态;αk为非线性函数;βk为高斯白噪声;
如果第k-1步的后验分布满足Lie群上的高斯分布,则可以根据 Xk+1=Xkexp(log(αk))对车辆运动模型所示的运动状态进行预测,以将车辆运动模型更新(将车辆运动模型的方程重新建模)为:
Figure RE-GDA0002549985270000081
其中,v1k、v2k、ωk分别为纵向、横向和旋转速度;β1k、β2k、βωk分别为高斯噪声在纵向、横向和旋转三个方向上的分量;T为矩阵的转置符号。
在本实施例中,所述通过改进的联合概率数据关联根据车辆运动空间和车辆运动模型对移动目标进行跟踪的方法包括:
设移动目标的数量为k时,则多个移动目标表示为{T1,...,Tn},所需跟踪的移动目标的数量k随时间而变化,也就是说移动目标可能从传感器的视野中随时出现或者消失;
定义Yk表示k时刻所有检测的集合,即
Figure RE-GDA0002549985270000091
定义Y1:k表示所有度量的历史,即
Y1:k={Y1,…,Yk} (2);
根据联合概率数据关联预测(估计)各移动目标Ti(i=1,2,...,n)的后验密度来解决这一问题,即
Figure RE-GDA0002549985270000092
其中,
Figure RE-GDA0002549985270000093
为目标状态的密度(可能性);
Figure RE-GDA0002549985270000094
为目标的存在性的密度(可能性);P为概率;
式(3)表示目标状态的密度
Figure RE-GDA0002549985270000095
及其存在性
Figure RE-GDA0002549985270000098
(目标的存在性的密度)为所有 Yk的测量,并且与k相关;
根据马尔可夫链模型描述移动目标存在的概率,即
Figure RE-GDA0002549985270000096
其中:ρ为移动目标在k-1时刻存在时,其在k时刻仍然存在的概率;
根据测量值Yk通过总概率公式预测k时刻扫描到移动目标Ti的后验密度为:
Figure RE-GDA0002549985270000097
其中,
Figure RE-GDA0002549985270000101
为物体存在的后验数据关联概率;
Figure RE-GDA0002549985270000102
为概率假设;nk为数量
被测目标存在的概率为:
Figure RE-GDA0002549985270000103
为了计算
Figure RE-GDA0002549985270000104
需要在对象集合中考虑测量到对象的关联事件;此时假设
Figure RE-GDA0002549985270000105
由所有关节事件F构成,其中每个轨迹具有零个或一个测量,并且每个测量被分配到零个或一个轨迹,则
Figure RE-GDA0002549985270000106
Figure RE-GDA0002549985270000107
Ti存在但没有被集群内的测量检测到的概率为:
Figure RE-GDA0002549985270000108
其中,
Figure RE-GDA0002549985270000109
为0个测量的概率假设;
Figure RE-GDA00025499852700001010
为0个测量的概率;为计算各关节事件F对应的P(F∣Y1:k)时,需要分配测量的目标集合C,以及分配一组测量的轨道集合D,此时可得:
Figure RE-GDA00025499852700001011
其中,i为第i个移动目标;Pd为Ti被检测到的概率;Pq为修正后度量在 Ti的门限阈值范围内的概率;
Figure RE-GDA00025499852700001012
为旋转概率;ρk为杂波先验度量密度;τ为在关节事件F下分配给Ti的度量的索引;
根据式(10)可以计算旋转概率为:
Figure RE-GDA0002549985270000111
上述公示可以得到所有要素来确定目标存在的概率为:
Figure RE-GDA0002549985270000112
则联合数据概率为:
Figure RE-GDA0002549985270000113
根据联合数据概率实现多个移动目标的准确跟踪。
实施例2
图3是本发明所涉及的新型双目视觉多目标跟踪***的原理框图。
如图3所示,在实施例1的基础上,本实施例2还提供一种新型双目视觉多目标跟踪***,包括:采集模块,通过双目视觉获取图像;移动目标获取模块,根据图像获取移动目标;构建模块,构建车辆运动空间和车辆运动模型;以及跟踪模块,通过改进的联合概率数据关联根据车辆运动空间和车辆运动模型对移动目标进行跟踪。
在本实施例中采集模块通过双目视觉获取图像的方法,移动目标获取模块根据图像获取移动目标的方法,构建模块构建车辆运动空间和车辆运动模型;以及跟踪模块通过改进的联合概率数据关联根据车辆运动空间和车辆运动模型对移动目标进行跟踪的方法均在实施例1中已经进行了详细阐述,在本实施例中不再赘述。
综上所述,本发明通过双目视觉获取图像;根据图像获取移动目标;构建车辆运动空间和车辆运动模型;以及通过改进的联合概率数据关联根据车辆运动空间和车辆运动模型对移动目标进行跟踪,实现了智能车多目标跟踪,大幅度提升驾驶***的自动化和智能化水平,提高了跟踪精度和速度,且在跟踪车辆时不会产生明显的偏移、不会遗漏对行人的跟踪。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本发明的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本发明各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上述依据本发明的理想实施例为启示,通过上述的说明内容,相关工作人员完全可以在不偏离本项发明技术思想的范围内,进行多样的变更以及修改。本项发明的技术性范围并不局限于说明书上的内容,必须要根据权利要求范围来确定其技术性范围。

Claims (6)

1.一种新型双目视觉多目标跟踪方法,其特征在于,包括:
通过双目视觉获取图像;
根据图像获取移动目标;
构建车辆运动空间和车辆运动模型;以及
通过改进的联合概率数据关联根据车辆运动空间和车辆运动模型对移动目标进行跟踪。
2.如权利要求1所述的新型双目视觉多目标跟踪方法,其特征在于,
所述根据图像获取移动目标的方法包括:
对图像进行校正后,根据视觉立体测距算法估计中间车辆的位移,以获取移动目标。
3.如权利要求2所述的新型双目视觉多目标跟踪方法,其特征在于,
所述构建车辆运动空间的方法包括:
基于刚体等速运动模型的等效原则,将车辆运动空间GL构造为两个矩阵Lie群笛卡尔积S1×S2
其中:S1为位置分量;S2为速度分量。
4.如权利要求3所述的新型双目视觉多目标跟踪方法,其特征在于,
所述构建车辆运动模型的方法包括:
构建车辆运动模型并更新,即
所述车辆运动模型为:
Xk+1=Xk·exp(αkk);
其中,Xk∈GL,为k时刻的运动状态;αk为非线性函数;βk为高斯白噪声;
当第k-1步的后验分布满足Lie群上的高斯分布,则根据Xk+1=Xkexp(log(αk))对车辆运动模型所示的运动状态进行预测,以将车辆运动模型更新为:
Figure FDA0002480743360000021
其中,v1k、v2k、ωk分别为纵向、横向和旋转速度;β1k、β2k、βωk分别为高斯噪声在纵向、横向和旋转三个方向上的分量;T为矩阵的转置符号。
5.如权利要求4所述的新型双目视觉多目标跟踪方法,其特征在于,
所述通过改进的联合概率数据关联根据车辆运动空间和车辆运动模型对移动目标进行跟踪的方法包括:
当移动目标的数量为n时,则多个移动目标表示为{T1,...,Tn};
Yk表示k时刻所有检测的集合
Figure FDA0002480743360000022
Y1:k表示所有度量的历史Y1:k={Y1,…,Yk};
根据联合概率数据关联预测各移动目标Ti(i=1,2,...,n)的后验密度,即
Figure FDA0002480743360000023
其中,
Figure FDA0002480743360000024
为目标状态的密度;
Figure FDA0002480743360000025
为目标的存在性的密度;P为概率;
目标状态的密度
Figure FDA0002480743360000026
及其存在性
Figure FDA0002480743360000027
为所有Yk的测量;
根据马尔可夫链模型描述移动目标存在的概率,即
Figure FDA0002480743360000028
其中:ρ为移动目标在k-1时刻存在时,其在k时刻仍然存在的概率;
根据测量值Yk通过总概率公式预测k时刻扫描到移动目标Ti的后验密度:
Figure FDA0002480743360000029
其中,
Figure FDA00024807433600000210
为物体存在的后验数据关联概率;
Figure FDA00024807433600000211
为概率假设;
被测目标存在的概率为:
Figure FDA00024807433600000212
Figure FDA0002480743360000031
由所有关节事件F构成时,其中每个轨迹具有零个或一个测量,并且每个测量被分配到零个或一个轨迹,则
Figure FDA0002480743360000032
Figure FDA0002480743360000033
Ti存在但没有被集群内的测量检测到的概率为:
Figure FDA0002480743360000034
其中,
Figure FDA0002480743360000035
为0个测量的概率假设;
Figure FDA0002480743360000036
为0个测量的概率;
则计算各关节事件F对应的P(F∣Y1:k)时,分配测量的目标集合C,以及分配一组测量的轨道集合D,以获取:
Figure FDA0002480743360000037
其中,i为第i个移动目标;Pd为Ti被检测到的概率;Pq为修正后度量在Ti的门限阈值范围内的概率;
Figure FDA0002480743360000038
为旋转概率;ρk为杂波先验度量密度;τ为在关节事件F下分配给Ti的度量的索引;
旋转概率为:
Figure FDA0002480743360000039
目标存在的概率为:
Figure FDA00024807433600000310
则联合数据概率为:
Figure FDA00024807433600000311
根据联合数据概率实现多个移动目标的准确跟踪。
6.一种新型双目视觉多目标跟踪***,其特征在于,包括:
采集模块,通过双目视觉获取图像;
移动目标获取模块,根据图像获取移动目标;
构建模块,构建车辆运动空间和车辆运动模型;以及
跟踪模块,通过改进的联合概率数据关联根据车辆运动空间和车辆运动模型对移动目标进行跟踪。
CN202010384346.1A 2020-05-07 2020-05-07 新型双目视觉多目标跟踪方法及*** Withdrawn CN111612818A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010384346.1A CN111612818A (zh) 2020-05-07 2020-05-07 新型双目视觉多目标跟踪方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010384346.1A CN111612818A (zh) 2020-05-07 2020-05-07 新型双目视觉多目标跟踪方法及***

Publications (1)

Publication Number Publication Date
CN111612818A true CN111612818A (zh) 2020-09-01

Family

ID=72196782

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010384346.1A Withdrawn CN111612818A (zh) 2020-05-07 2020-05-07 新型双目视觉多目标跟踪方法及***

Country Status (1)

Country Link
CN (1) CN111612818A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112304250A (zh) * 2020-10-15 2021-02-02 天目爱视(北京)科技有限公司 一种移动物体之间的三维匹配设备及方法
US20220135074A1 (en) * 2020-11-02 2022-05-05 Waymo Llc Classification of objects based on motion patterns for autonomous vehicle applications
CN118115755A (zh) * 2024-04-28 2024-05-31 四川盎智未来科技有限公司 一种多目标跟踪方法、***及存储介质
CN118115755B (zh) * 2024-04-28 2024-06-28 四川盎智未来科技有限公司 一种多目标跟踪方法、***及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102799900A (zh) * 2012-07-04 2012-11-28 西南交通大学 一种基于检测中支持在线聚类学习的对象跟踪方法
CN109447121A (zh) * 2018-09-27 2019-03-08 清华大学 一种视觉传感器网络多目标跟踪方法、装置及***

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102799900A (zh) * 2012-07-04 2012-11-28 西南交通大学 一种基于检测中支持在线聚类学习的对象跟踪方法
CN109447121A (zh) * 2018-09-27 2019-03-08 清华大学 一种视觉传感器网络多目标跟踪方法、装置及***

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张琦等: "Lie群下利用改进JPDA 滤波器的智能车立体视觉多目标跟踪方法" *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112304250A (zh) * 2020-10-15 2021-02-02 天目爱视(北京)科技有限公司 一种移动物体之间的三维匹配设备及方法
US20220135074A1 (en) * 2020-11-02 2022-05-05 Waymo Llc Classification of objects based on motion patterns for autonomous vehicle applications
CN118115755A (zh) * 2024-04-28 2024-05-31 四川盎智未来科技有限公司 一种多目标跟踪方法、***及存储介质
CN118115755B (zh) * 2024-04-28 2024-06-28 四川盎智未来科技有限公司 一种多目标跟踪方法、***及存储介质

Similar Documents

Publication Publication Date Title
EP3745158B1 (en) Methods and systems for computer-based determining of presence of dynamic objects
Wang et al. Robust road modeling and tracking using condensation
CN112132896B (zh) 一种轨旁设备状态检测方法及***
CN110738121A (zh) 一种前方车辆检测方法及检测***
Erbs et al. Moving vehicle detection by optimal segmentation of the dynamic stixel world
CN110794406A (zh) 多源传感器数据融合***和方法
CN114495064A (zh) 一种基于单目深度估计的车辆周围障碍物预警方法
CN114758504B (zh) 一种基于滤波校正的网联车超速预警方法及***
CN116310679A (zh) 多传感器融合目标检测方法、***、介质、设备及终端
CN111612818A (zh) 新型双目视觉多目标跟踪方法及***
Muresan et al. Multimodal sparse LIDAR object tracking in clutter
Hartmann et al. Towards autonomous self-assessment of digital maps
CN114296095A (zh) 自动驾驶车辆的有效目标提取方法、装置、车辆及介质
EP3985411A1 (en) Method and device for detecting objects
An et al. Multi-object tracking based on a novel feature image with multi-modal information
Meuter et al. 3D traffic sign tracking using a particle filter
Christiansen et al. Monocular vehicle distance sensor using HOG and Kalman tracking
US20220309776A1 (en) Method and system for determining ground level using an artificial neural network
Lu et al. Monocular multi-kernel based lane marking detection
CN115471526A (zh) 基于多源异构信息融合的自动驾驶目标检测与跟踪方法
Zeisler et al. Analysis of the performance of a laser scanner for predictive automotive applications
CN116433715A (zh) 基于多传感器前融合结果的时序追踪方法、装置及介质
CN116433712A (zh) 基于多传感器时序感知结果前融合的融合追踪方法及装置
CN113511194A (zh) 一种纵向避撞预警方法及相关装置
US20200250838A1 (en) Method and device for checking the plausibility of a flow vector hypothesis

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20200901

WW01 Invention patent application withdrawn after publication