CN113470070A - 驾驶场景目标跟踪方法、装置、设备及存储介质 - Google Patents
驾驶场景目标跟踪方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN113470070A CN113470070A CN202110708213.XA CN202110708213A CN113470070A CN 113470070 A CN113470070 A CN 113470070A CN 202110708213 A CN202110708213 A CN 202110708213A CN 113470070 A CN113470070 A CN 113470070A
- Authority
- CN
- China
- Prior art keywords
- driving
- data
- target
- model
- predicted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 230000002452 interceptive effect Effects 0.000 claims abstract description 44
- 230000003068 static effect Effects 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 11
- 238000001914 filtration Methods 0.000 claims description 10
- 230000001133 acceleration Effects 0.000 claims description 6
- 238000012546 transfer Methods 0.000 claims description 3
- 238000012821 model calculation Methods 0.000 claims 2
- 238000010586 diagram Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 5
- 230000004927 fusion Effects 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000004083 survival effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Traffic Control Systems (AREA)
Abstract
本申请实施例提供了一种驾驶场景目标跟踪方法、装置、设备及存储介质,该方法包括:获取多传感器采集的目标对象的行驶数据;将目标对象的行驶数据输入第一滤波器进行行驶数据预测,输出第一预测行驶数据;将第一预测行驶数据输入权重生成模型进行各预设行驶类型权重确定,输出各预设行驶类型的权重值;将第一预测行驶数据输入交互式多模型进行行驶数据预测,输出目标预测行驶数据,并将目标预测行驶数据确定为目标对象的跟踪结果;交互式多模型的参数设置为各预设行驶类型的权重值;本申请实施例能够解决现有通过传感器采集的车辆行驶数据预测车辆行驶数据的准度较低的问题。
Description
技术领域
本申请属于自动驾驶领域,尤其涉及一种驾驶场景目标跟踪方法、装置、设备及存储介质。
背景技术
随着人工智能技术发展迅速,智能化机器在很多行业辅助或者代替人进行高效、精准地工作。自动驾驶汽车通过车载传感器以及信息通信技术来获得车辆周围的行驶场景数据,并基于行驶场景数据对周围的交通参与者进行运动预测,进而将目标信息提供给驾驶操作辅助***或者自动驾驶***中的决策、规划环节。
行驶场景数据应用逐渐成为智能网联汽车开发的重要一环,行驶***也由以前的“道路+交通+驾驶员”转变为了“道路+交通+行驶场景数据”。不同的传感器诸如摄像头,激光雷达和毫米波雷达均可采集到行驶场景数据,但是由于传感器采集的行驶场景数据与真实行驶场景数据具有差异性、不同类型传感器采集的行驶场景数据也具有差异性、且采集到的行驶场景数据存在信息噪音,导致现有通过传感器采集的行驶场景数据预测车辆行驶数据的准度较低。
发明内容
本申请实施例提供一种驾驶场景目标跟踪方法、装置、设备及存储介质,能够解决现有通过传感器采集的车辆行驶数据预测车辆行驶数据的准度较低的问题。
第一方面,本申请实施例提供一种驾驶场景目标跟踪方法,包括:
获取多传感器采集的目标对象的行驶数据;
将目标对象的行驶数据输入第一滤波器进行行驶数据预测,输出第一预测行驶数据;
将第一预测行驶数据输入权重生成模型进行各预设行驶类型权重确定,输出各预设行驶类型的权重值;
将第一预测行驶数据输入交互式多模型进行行驶数据预测,输出目标预测行驶数据,并将目标预测行驶数据确定为目标对象的跟踪结果;交互式多模型的参数设置为各预设行驶类型的权重值。
进一步地,在一种实施例中,权重生成模型包括拓展卡尔曼滤波模型,拓展卡尔曼滤波模型包括匀速子模型,恒定转弯率和速度幅度子模型以及静止子模型;
将第一预测行驶数据输入权重生成模型进行各预设行驶类型权重确定,输出各预设行驶类型的权重值,包括:
将第一预测行驶数据分别输入匀速子模型,恒定转弯率和速度幅度子模型以及静止子模型,分别输出匀速行驶权重值,加速度行驶权重值,静止权重值。
进一步地,在一种实施例中,将第一预测行驶数据输入交互式多模型进行行驶数据预测,输出目标预测行驶数据,包括:
将第一预测行驶数据输入交互式多模型计算交互式多模型的更新参数;
根据更新参数计算目标预测行驶数据。
进一步地,在一种实施例中,方法还包括:
将目标预测行驶数据输入OpenCV库进行驾驶场景生成,输出目标对象的驾驶场景图。
进一步地,在一种实施例中,目标对象的行驶数据,包括:
目标对象的车辆类别、目标对象的横向速度、目标对象的纵向速度、目标相对安装有多传感器车辆的位置、目标对象的航向角、以及目标对象的标识ID中的至少一项。
第二方面,本申请实施例提供一种驾驶场景目标跟踪装置,包括:
获取模块,用于获取多传感器采集的目标对象的行驶数据;
输出模块,用于将目标对象的行驶数据输入第一滤波器进行行驶数据预测,输出第一预测行驶数据;
输出模块,还用于将第一预测行驶数据输入权重生成模型进行各预设行驶类型权重确定,输出各预设行驶类型的权重值;
输出模块,还用于将第一预测行驶数据输入交互式多模型进行行驶数据预测,输出目标预测行驶数据,并将目标预测行驶数据确定为目标对象的跟踪结果;交互式多模型的参数设置为各预设行驶类型的权重值。
进一步地,在一种实施例中,权重生成模型包括拓展卡尔曼滤波模型,拓展卡尔曼滤波模型包括匀速子模型,恒定转弯率和速度幅度子模型以及静止子模型;
输出模块,具体用于:
将第一预测行驶数据分别输入匀速子模型,恒定转弯率和速度幅度子模型以及静止子模型,分别输出匀速行驶权重值,加速度行驶权重值,静止权重值。
进一步地,在一种实施例中,输出模块,具体用于:
将第一预测行驶数据输入交互式多模型计算交互式多模型的更新参数;
根据更新参数计算目标预测行驶数据。
第三方面,本申请实施例提供一种驾驶场景目标跟踪设备,包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,计算机程序被处理器执行时实现驾驶场景目标跟踪方法。
第四方面,本申请实施例提供一种计算机可读存储介质,计算机可读存储介质上存储有信息传递的实现程序,程序被处理器执行时实现驾驶场景目标跟踪方法。
本申请实施例的驾驶场景目标跟踪方法、装置、设备及存储介质,通过将目标对象的行驶数据输入第一滤波器进行行驶数据预测,输出第一预测行驶数据,第一滤波器能够对多传感器采集的目标对象的行驶数据进行融合、降噪,然后将第一预测行驶数据输入权重生成模型进行各预设行驶类型权重确定,输出各预设行驶类型的权重值,将第一预测行驶数据输入参数设置有各预设行驶类型的权重值的交互式多模型进行行驶数据预测,输出目标预测行驶数据,由于各预设行驶类型的权重是基于目标对象的第一预测行驶数据确定的,使得各预设行驶类型的权重值能够符合目标对象的真实行驶状态,进而使得设置有各预设行驶类型的权重值的交互式多模型预测的目标预测行驶数据较为准确。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单的介绍,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种驾驶场景目标跟踪方法的流程示意图;
图2是本申请实施例提供的一组实验生成的目标预测行驶数据中的部分数据;
图3是本申请实施例提供的一种目标对象的驾驶场景图;
图4是本申请实施例提供的一种驾驶场景目标跟踪装置的结构示意图;
图5是本申请实施例提供的一种驾驶场景目标跟踪设备的结构示意图。
具体实施方式
下面将详细描述本申请的各个方面的特征和示例性实施例,为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及具体实施例,对本申请进行进一步详细描述。应理解,此处所描述的具体实施例仅被配置为解释本申请,并不被配置为限定本申请。对于本领域技术人员来说,本申请可以在不需要这些具体细节中的一些细节的情况下实施。下面对实施例的描述仅仅是为了通过示出本申请的示例来提供对本申请更好的理解。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
不同的传感器诸如摄像头,激光雷达和毫米波雷达均可采集到行驶场景数据,但是由于传感器采集的行驶场景数据与真实行驶场景数据具有差异性、不同类型传感器采集的行驶场景数据也具有差异性、且采集到的行驶场景数据存在信息噪音,导致现有通过传感器采集的行驶场景数据预测车辆行驶数据的准度较低。
为了解决现有技术问题,本申请实施例提供了一种驾驶场景目标跟踪方法、装置、设备及存储介质。本申请实施例通过将目标对象的行驶数据输入第一滤波器进行行驶数据预测,输出第一预测行驶数据,第一滤波器能够对多传感器采集的目标对象的行驶数据进行融合、降噪,然后将第一预测行驶数据输入权重生成模型进行各预设行驶类型权重确定,输出各预设行驶类型的权重值,将第一预测行驶数据输入参数设置有各预设行驶类型的权重值的交互式多模型进行行驶数据预测,输出目标预测行驶数据,由于各预设行驶类型的权重是基于目标对象的第一预测行驶数据确定的,使得各预设行驶类型的权重值能够符合目标对象的真实行驶状态,进而使得设置有各预设行驶类型的权重值的交互式多模型预测的目标预测行驶数据较为准确。下面首先对本申请实施例所提供的驾驶场景目标跟踪方法进行介绍。
图1示出了本申请一个实施例提供的驾驶场景目标跟踪方法的流程示意图。如图1所示,该方法可以包括以下步骤:
S110,获取多传感器采集的目标对象的行驶数据。
汽车安装有激光雷达、全球定位***GPS定位***、工控机等传感器,这些传感器在汽车行驶过程中会采集目标对象的行驶数据,与上述各类传感器进行数据传输即可获取到目标对象的行驶数据。
在不同的交通场景流中可以采集到不同类型的目标对象的行驶数据,例如:图像数据,点云数据,毫米波数据,车辆底层控制器局域网络CAN数据等。
S120,将目标对象的行驶数据输入第一滤波器进行行驶数据预测,输出第一预测行驶数据。
第一滤波器能够基于输入的数据进行数据的预测。
由于多目标跟踪时经常会出现目标对象的新生、衍生以及消失等现象,目标对象数及目标对象状态随时间不断变化。同时由于行驶环境及传感器特性的影响,量测中会出现杂波、虚警等干扰信息,考虑到GM-PHD滤波器能够很好地应对上述情况,在一种实施例中,第一滤波器可以选用为GM-PHD滤波器。
GM-PHD滤波器能够基于目标对象的行驶数据生成目标对象的状态集,以及目标对象测量集合;其中,k-1时刻的目标对象的状态集可表示为:
Sk|k-1(X(k-1))∪Bk|k-1(X(k-1))∪νk
其中,Sk|k-1(X(k-1)),表示k-1时刻的目标对象状态集在k时刻仍然存在的状态集;Bk|k-1(X(k-1))表示k-1时刻的目标衍生出的新的目标对象状态集;νk表示k时刻监视空域新生的目标对象状态集。
目标对象测量集合为:
其中Kk表示虚警或杂波构成的集合,Θk表示由目标对象状态集X(k)产生的观测随机集。
GM-PHD滤波器以高斯和的形式来近似多目标概率假设密度PHD,假设检测概率和存活概率与状态无关,且衍生目标有限集和新生目标有限集的PHD均具有高斯和形式,则通过对PHD的预测更新可得到PHD。
根据多目标跟踪的贝叶斯递推式可推导出Dk时刻,PHD滤波的递推公式为:
其中,Dk|k(X)表示K时刻的概率假设密度,pD,k(x)表示K时刻状态为x的目标的检测概率,gk(x)表示单传感器单目标似然函数,τ为目标,Kk(z)表示虚警或杂波构成的集合概率密度,通过对该式的不断迭代可求得各个状态时刻的PHD算子,将PHD算子确定为第一预测行驶数据。
本申请实施例采用GM-PHD模型对目标对象进行追踪,避免了传统跟踪算法目标对象过多后相互关联带来的组合***,计算量呈指数型增长的问题。
在一种实施例中,将目标对象的行驶数据输入第一滤波器进行行驶数据预测前,该方法还可以包括:
根据预设的场景特征数据对目标对象的行驶数据进行行驶场景划分,将不符合预设的场景特征数据的目标对象的行驶数据剔除。预设的场景特征数据表征车辆通常处于的行驶场景的行驶数据的数值区间,目标对象的行驶数据属于某数值区间即表明该目标对象的行驶数据应划分到某数据区间对应的行驶场景。
车辆通常处于的行驶场景包括自车切入、自车切出、变道、跟车等。
S130,将第一预测行驶数据输入权重生成模型进行各预设行驶类型权重确定,输出各预设行驶类型的权重值。
权重生成模型可以基于输入数据计算各预设数据类型的权重。在一种实施例中,权重生成模型可以选用为拓展卡尔曼滤波模型EKF,拓展卡尔曼滤波模型可以包括匀速子模型CV,恒定转弯率和速度幅度子模型CTRV以及静止子模型RDM,S130可以包括:
将第一预测行驶数据分别输入匀速子模型,恒定转弯率和速度幅度子模型以及静止子模型,分别输出匀速行驶权重值,加速度行驶权重值,静止权重值。
本申请实施例通过使用不同的EKF模型确定了各预设行驶类型权重。
S140,将第一预测行驶数据输入交互式多模型进行行驶数据预测,输出目标预测行驶数据,并将目标预测行驶数据确定为目标对象的跟踪结果。
其中,交互式多模型IMM的参数设置为各预设行驶类型的权重值。
在一种实施例中,将第一预测行驶数据输入交互式多模型进行行驶数据预测,输出目标预测行驶数据,可以包括:
将第一预测行驶数据输入交互式多模型计算交互式多模型的更新参数。交互式多模型的更新参数可以是模型的更新概率。
将第一预测行驶数据输入交互式多模型后,交互式多模型能够对第一预测行驶数据进行混合,并计算出第一预测行驶数据混合后的混合概率、混合估计值和协方差;并基于混合概率、混合估计值和协方差计算模型的更新概率。
根据更新参数计算目标预测行驶数据。目标预测行驶数据,可以包括:
Time---Linux***时间计数方式
FrameID---算法中使用的第几帧数据
ObjectType---代表目标对象类型(可根据自己需求设定)
ObjectPosE---ENU坐标系距离
ObjectPosN---ENU坐标系距离
ObjectAbsVel---目标对象与自车相对速度
ObjectAbsHeadingAngle---目标对象航向角
ObjectYawRate---目标对象横摆角速度。
图2示出了一组实验生成的目标预测行驶数据中的部分数据。
在一种实施例中,目标预测行驶数据可以通过如下算式求取:
本申请实施例通过将交互式多模型的参数设置为各预设行驶类型的权重值,区分了真实驾驶场景中目标车辆行驶的不确定性导致的追踪误差。
在一种实施例中,该方法还可以包括:
将目标预测行驶数据输入OpenCV库进行驾驶场景生成,输出目标对象的驾驶场景图。如图3所示,其中,箭头长短表示目标预测行驶数据的大小,例如,V表示ObjectAbsVel---目标对象与自车相对速度,Y表示ObjectYawRate---目标对象横摆角速度。
本申请实施例生成的目标对象的驾驶场景图可直观展示目标对象的架势场景。
在一种实施例中,目标对象的行驶数据,可以包括:
目标对象的车辆类别、目标对象的横向速度、目标对象的纵向速度、目标相对安装有多传感器车辆的位置、目标对象的航向角、以及目标对象的标识ID中的至少一项。
本申请实施例通过将目标对象的行驶数据输入第一滤波器进行行驶数据预测,输出第一预测行驶数据,第一滤波器能够对多传感器采集的目标对象的行驶数据进行融合、降噪,然后将第一预测行驶数据输入权重生成模型进行各预设行驶类型权重确定,输出各预设行驶类型的权重值,将第一预测行驶数据输入参数设置有各预设行驶类型的权重值的交互式多模型进行行驶数据预测,输出目标预测行驶数据,由于各预设行驶类型的权重是基于目标对象的第一预测行驶数据确定的,使得各预设行驶类型的权重值能够符合目标对象的真实行驶状态,进而使得设置有各预设行驶类型的权重值的交互式多模型预测的目标预测行驶数据较为准确。
图1-3描述了驾驶场景目标跟踪方法,下面结合附图4和附图5描述本申请实施例提供的装置。
图4示出了本申请一个实施例提供的驾驶场景目标跟踪装置的结构示意图,图4所示装置中各模块具有实现图1中各个步骤的功能,并能达到其相应技术效果。如图4所示,该装置可以包括:
获取模块410,用于获取多传感器采集的目标对象的行驶数据。
输出模块420,用于将目标对象的行驶数据输入第一滤波器进行行驶数据预测,输出第一预测行驶数据。
输出模块420,还用于将第一预测行驶数据输入权重生成模型进行各预设行驶类型权重确定,输出各预设行驶类型的权重值。
输出模块420,还用于将第一预测行驶数据输入交互式多模型进行行驶数据预测,输出目标预测行驶数据,并将目标预测行驶数据确定为目标对象的跟踪结果。交互式多模型的参数设置为各预设行驶类型的权重值。
本申请实施例通过将目标对象的行驶数据输入第一滤波器进行行驶数据预测,输出第一预测行驶数据,第一滤波器能够对多传感器采集的目标对象的行驶数据进行融合、降噪,然后将第一预测行驶数据输入权重生成模型进行各预设行驶类型权重确定,输出各预设行驶类型的权重值,将第一预测行驶数据输入参数设置有各预设行驶类型的权重值的交互式多模型进行行驶数据预测,输出目标预测行驶数据,由于各预设行驶类型的权重是基于目标对象的第一预测行驶数据确定的,使得各预设行驶类型的权重值能够符合目标对象的真实行驶状态,进而使得设置有各预设行驶类型的权重值的交互式多模型预测的目标预测行驶数据较为准确。
在一种实施例中,权重生成模型可以包括拓展卡尔曼滤波模型,拓展卡尔曼滤波模型可以包括匀速子模型,恒定转弯率和速度幅度子模型以及静止子模型。
输出模块420,可以具体用于:
将第一预测行驶数据分别输入匀速子模型,恒定转弯率和速度幅度子模型以及静止子模型,分别输出匀速行驶权重值,加速度行驶权重值,静止权重值。
在一种实施例中,输出模块420,还可以具体用于:
将第一预测行驶数据输入交互式多模型计算交互式多模型的更新参数。
根据更新参数计算目标预测行驶数据。
在一种实施例中,输出模块420还可以具体用于:
将目标预测行驶数据输入OpenCV库进行驾驶场景生成,输出目标对象的驾驶场景图。
在一种实施例中,目标对象的行驶数据,可以包括:
目标对象的车辆类别、目标对象的横向速度、目标对象的纵向速度、目标相对安装有多传感器车辆的位置、目标对象的航向角、以及目标对象的标识ID中的至少一项。
本申请实施例通过将目标对象的行驶数据输入第一滤波器进行行驶数据预测,输出第一预测行驶数据,第一滤波器能够对多传感器采集的目标对象的行驶数据进行融合、降噪,然后将第一预测行驶数据输入权重生成模型进行各预设行驶类型权重确定,输出各预设行驶类型的权重值,将第一预测行驶数据输入参数设置有各预设行驶类型的权重值的交互式多模型进行行驶数据预测,输出目标预测行驶数据,由于各预设行驶类型的权重是基于目标对象的第一预测行驶数据确定的,使得各预设行驶类型的权重值能够符合目标对象的真实行驶状态,进而使得设置有各预设行驶类型的权重值的交互式多模型预测的目标预测行驶数据较为准确。
图5示出了本申请一个实施例提供的驾驶场景目标跟踪设备的结构示意图。如图5所示,该设备可以包括处理器501以及存储有计算机程序指令的存储器502。
具体地,上述处理器501可以包括中央处理器(Central Processing Unit,CPU),或者特定集成电路(Application Specific Integrated Circuit,ASIC),或者可以被配置成实施本申请实施例的一个或多个集成电路。
存储器502可以包括用于数据或指令的大容量存储器。举例来说而非限制,存储器502可包括硬盘驱动器(Hard Disk Drive,HDD)、软盘驱动器、闪存、光盘、磁光盘、磁带或通用串行总线(Universal Serial Bus,USB)驱动器或者两个或更多个以上这些的组合。在一个实例中,存储器502可以包括可移除或不可移除(或固定)的介质,或者存储器502是非易失性固态存储器。存储器502可在综合网关容灾设备的内部或外部。
在一个实例中,存储器502可以是只读存储器(Read Only Memory,ROM)。在一个实例中,该ROM可以是掩模编程的ROM、可编程ROM(PROM)、可擦除PROM(EPROM)、电可擦除PROM(EEPROM)、电可改写ROM(EAROM)或闪存或者两个或更多个以上这些的组合。
处理器501通过读取并执行存储器502中存储的计算机程序指令,以实现图1所示实施例中的方法,并达到图1所示实例执行其方法达到的相应技术效果,为简洁描述在此不再赘述。
在一个示例中,该驾驶场景目标跟踪设备还可包括通信接口503和总线510。其中,如图5所示,处理器501、存储器502、通信接口503通过总线510连接并完成相互间的通信。
通信接口503,主要用于实现本申请实施例中各模块、装置、单元和/或设备之间的通信。
总线510包括硬件、软件或两者,将在线数据流量计费设备的部件彼此耦接在一起。举例来说而非限制,总线可包括加速图形端口(Accelerated Graphics Port,AGP)或其他图形总线、增强工业标准架构(Extended Industry Standard Architecture,EISA)总线、前端总线(Front Side Bus,FSB)、超传输(Hyper Transport,HT)互连、工业标准架构(Industry Standard Architecture,ISA)总线、无限带宽互连、低引脚数(LPC)总线、存储器总线、微信道架构(MCA)总线、***组件互连(PCI)总线、PCI-Express(PCI-X)总线、串行高级技术附件(SATA)总线、视频电子标准协会局部(VLB)总线或其他合适的总线或者两个或更多个以上这些的组合。在合适的情况下,总线510可包括一个或多个总线。尽管本申请实施例描述和示出了特定的总线,但本申请考虑任何合适的总线或互连。
该驾驶场景目标跟踪设备可以执行本申请实施例中的驾驶场景目标跟踪方法,从而实现图1描述的驾驶场景目标跟踪方法的相应技术效果。
另外,结合上述实施例中的驾驶场景目标跟踪方法,本申请实施例可提供一种计算机存储介质来实现。该计算机存储介质上存储有计算机程序指令;该计算机程序指令被处理器执行时实现上述实施例中的任意一种驾驶场景目标跟踪方法。
需要明确的是,本申请并不局限于上文所描述并在图中示出的特定配置和处理。为了简明起见,这里省略了对已知方法的详细描述。在上述实施例中,描述和示出了若干具体的步骤作为示例。但是,本申请的方法过程并不限于所描述和示出的具体步骤,本领域的技术人员可以在领会本申请的精神后,作出各种改变、修改和添加,或者改变步骤之间的顺序。
以上所述的结构框图中所示的功能块可以实现为硬件、软件、固件或者它们的组合。当以硬件方式实现时,其可以例如是电子电路、专用集成电路(Application SpecificIntegrated Circuit,ASIC)、适当的固件、插件、功能卡等等。当以软件方式实现时,本申请的元素是被用于执行所需任务的程序或者代码段。程序或者代码段可以存储在机器可读介质中,或者通过载波中携带的数据信号在传输介质或者通信链路上传送。“机器可读介质”可以包括能够存储或传输信息的任何介质。机器可读介质的例子包括电子电路、半导体存储器设备、ROM、闪存、可擦除ROM(EROM)、软盘、CD-ROM、光盘、硬盘、光纤介质、射频(RadioFrequency,RF)链路,等等。代码段可以经由诸如因特网、内联网等的计算机网络被下载。
还需要说明的是,本申请中提及的示例性实施例,基于一系列的步骤或者装置描述一些方法或***。但是,本申请不局限于上述步骤的顺序,也就是说,可以按照实施例中提及的顺序执行步骤,也可以不同于实施例中的顺序,或者若干步骤同时执行。
上面参考根据本申请的实施例的方法、装置(***)和计算机程序产品的流程图和/或框图描述了本申请的各方面。应当理解,流程图和/或框图中的每个方框以及流程图和/或框图中各方框的组合可以由计算机程序指令实现。这些计算机程序指令可被提供给通用计算机、专用计算机、或其它可编程数据处理装置的处理器,以产生一种机器,使得经由计算机或其它可编程数据处理装置的处理器执行的这些指令使能对流程图和/或框图的一个或多个方框中指定的功能/动作的实现。这种处理器可以是但不限于是通用处理器、专用处理器、特殊应用处理器或者现场可编程逻辑电路。还可理解,框图和/或流程图中的每个方框以及框图和/或流程图中的方框的组合,也可以由执行指定的功能或动作的专用硬件来实现,或可由专用硬件和计算机指令的组合来实现。
以上所述,仅为本申请的具体实施方式,所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的***、模块和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。应理解,本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本申请的保护范围之内。
Claims (10)
1.一种驾驶场景目标跟踪方法,其特征在于,包括:
获取多传感器采集的目标对象的行驶数据;
将所述目标对象的行驶数据输入第一滤波器进行行驶数据预测,输出第一预测行驶数据;
将所述第一预测行驶数据输入权重生成模型进行各预设行驶类型权重确定,输出各预设行驶类型的权重值;
将所述第一预测行驶数据输入交互式多模型进行行驶数据预测,输出目标预测行驶数据,并将所述目标预测行驶数据确定为目标对象的跟踪结果;所述交互式多模型的参数设置为所述各预设行驶类型的权重值。
2.如权利要求1所述的驾驶场景目标跟踪方法,其特征在于,所述权重生成模型包括拓展卡尔曼滤波模型,所述拓展卡尔曼滤波模型包括匀速子模型,恒定转弯率和速度幅度子模型以及静止子模型;
所述将所述第一预测行驶数据输入权重生成模型进行各预设行驶类型权重确定,输出各预设行驶类型的权重值,包括:
将所述第一预测行驶数据分别输入所述匀速子模型,所述恒定转弯率和速度幅度子模型以及所述静止子模型,分别输出匀速行驶权重值,加速度行驶权重值,静止权重值。
3.如权利要求1所述的驾驶场景目标跟踪方法,其特征在于,所述将所述第一预测行驶数据输入交互式多模型进行行驶数据预测,输出目标预测行驶数据,包括:
将所述第一预测行驶数据输入交互式多模型计算交互式多模型的更新参数;
根据所述更新参数计算所述目标预测行驶数据。
4.如权利要求1所述的驾驶场景目标跟踪方法,其特征在于,所述方法还包括:
将所述目标预测行驶数据输入OpenCV库进行驾驶场景生成,输出目标对象的驾驶场景图。
5.如权利要求1所述的驾驶场景目标跟踪方法,其特征在于,所述目标对象的行驶数据,包括:
目标对象的车辆类别、目标对象的横向速度、目标对象的纵向速度、目标相对安装有多传感器车辆的位置、目标对象的航向角、以及目标对象的标识ID中的至少一项。
6.一种驾驶场景目标跟踪装置,其特征在于,包括:
获取模块,用于获取多传感器采集的目标对象的行驶数据;
输出模块,用于将所述目标对象的行驶数据输入第一滤波器进行行驶数据预测,输出第一预测行驶数据;
所述输出模块,还用于将所述第一预测行驶数据输入权重生成模型进行各预设行驶类型权重确定,输出各预设行驶类型的权重值;
所述输出模块,还用于将所述第一预测行驶数据输入交互式多模型进行行驶数据预测,输出目标预测行驶数据,并将所述目标预测行驶数据确定为目标对象的跟踪结果;所述交互式多模型的参数设置为所述各预设行驶类型的权重值。
7.如权利要求6所述的驾驶场景目标跟踪装置,其特征在于,所述权重生成模型包括拓展卡尔曼滤波模型,所述拓展卡尔曼滤波模型包括匀速子模型,恒定转弯率和速度幅度子模型以及静止子模型;
所述输出模块,具体用于:
将所述第一预测行驶数据分别输入所述匀速子模型,所述恒定转弯率和速度幅度子模型以及所述静止子模型,分别输出匀速行驶权重值,加速度行驶权重值,静止权重值。
8.如权利要求6所述的驾驶场景目标跟踪装置,其特征在于,所述输出模块,具体用于:
将所述第一预测行驶数据输入交互式多模型计算交互式多模型的更新参数;
根据所述更新参数计算所述目标预测行驶数据。
9.一种驾驶场景目标跟踪设备,其特征在于,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至5中任一项所述的驾驶场景目标跟踪方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有信息传递的实现程序,所述程序被处理器执行时实现如权利要求1至5中任一项所述的驾驶场景目标跟踪方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110708213.XA CN113470070A (zh) | 2021-06-24 | 2021-06-24 | 驾驶场景目标跟踪方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110708213.XA CN113470070A (zh) | 2021-06-24 | 2021-06-24 | 驾驶场景目标跟踪方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113470070A true CN113470070A (zh) | 2021-10-01 |
Family
ID=77872834
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110708213.XA Pending CN113470070A (zh) | 2021-06-24 | 2021-06-24 | 驾驶场景目标跟踪方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113470070A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114858200A (zh) * | 2022-04-19 | 2022-08-05 | 合众新能源汽车有限公司 | 车辆传感器检测到的对象的质量评价方法及装置 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130245929A1 (en) * | 2012-03-13 | 2013-09-19 | Robert Bosch Gmbh | Filtering method and filter device for sensor data |
CN103345577A (zh) * | 2013-06-27 | 2013-10-09 | 江南大学 | 变分贝叶斯概率假设密度多目标跟踪方法 |
CN105372659A (zh) * | 2015-11-20 | 2016-03-02 | 上海无线电设备研究所 | 道路交通监控多目标探测跟踪方法及跟踪*** |
CN107193012A (zh) * | 2017-05-05 | 2017-09-22 | 江苏大学 | 基于imm‑mht算法的智能车激光雷达机动多目标跟踪方法 |
CN109572694A (zh) * | 2018-11-07 | 2019-04-05 | 同济大学 | 一种考虑不确定性的自动驾驶风险评估方法 |
CN111127523A (zh) * | 2019-12-04 | 2020-05-08 | 杭州电子科技大学 | 基于量测迭代更新的多传感器gmphd自适应融合方法 |
CN111722180A (zh) * | 2020-07-02 | 2020-09-29 | 广东工业大学 | 一种基于卡尔曼滤波的室内行人定位方法、装置及*** |
CN112068121A (zh) * | 2020-09-09 | 2020-12-11 | 中国航空工业集团公司雷华电子技术研究所 | 基于随机有限集的编队目标跟踪方法 |
CN112215071A (zh) * | 2020-09-10 | 2021-01-12 | 华蓝设计(集团)有限公司 | 异质交通流下自动驾驶车载多目标耦合识别与追踪方法 |
-
2021
- 2021-06-24 CN CN202110708213.XA patent/CN113470070A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130245929A1 (en) * | 2012-03-13 | 2013-09-19 | Robert Bosch Gmbh | Filtering method and filter device for sensor data |
CN103368527A (zh) * | 2012-03-13 | 2013-10-23 | 罗伯特·博世有限公司 | 用于传感器数据的滤波方法和滤波设备 |
CN103345577A (zh) * | 2013-06-27 | 2013-10-09 | 江南大学 | 变分贝叶斯概率假设密度多目标跟踪方法 |
CN105372659A (zh) * | 2015-11-20 | 2016-03-02 | 上海无线电设备研究所 | 道路交通监控多目标探测跟踪方法及跟踪*** |
CN107193012A (zh) * | 2017-05-05 | 2017-09-22 | 江苏大学 | 基于imm‑mht算法的智能车激光雷达机动多目标跟踪方法 |
CN109572694A (zh) * | 2018-11-07 | 2019-04-05 | 同济大学 | 一种考虑不确定性的自动驾驶风险评估方法 |
CN111127523A (zh) * | 2019-12-04 | 2020-05-08 | 杭州电子科技大学 | 基于量测迭代更新的多传感器gmphd自适应融合方法 |
CN111722180A (zh) * | 2020-07-02 | 2020-09-29 | 广东工业大学 | 一种基于卡尔曼滤波的室内行人定位方法、装置及*** |
CN112068121A (zh) * | 2020-09-09 | 2020-12-11 | 中国航空工业集团公司雷华电子技术研究所 | 基于随机有限集的编队目标跟踪方法 |
CN112215071A (zh) * | 2020-09-10 | 2021-01-12 | 华蓝设计(集团)有限公司 | 异质交通流下自动驾驶车载多目标耦合识别与追踪方法 |
Non-Patent Citations (3)
Title |
---|
WEIHUA WU等: ""GM-PHD filter-based multi-target tracking in the presence of Doppler blind zone"", 《DIGITAL SIGNAL PROCESSING》, pages 1 - 12 * |
叶瑾: ""一种基于多传感器的复合量测IMM-EKF数据融合算法"", 《电子学报》, pages 2326 - 2330 * |
葛建良等: ""一种结合交互多模型的多机动扩展目标跟踪算法"", 《小型微型计算机***》, pages 334 - 339 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114858200A (zh) * | 2022-04-19 | 2022-08-05 | 合众新能源汽车有限公司 | 车辆传感器检测到的对象的质量评价方法及装置 |
CN114858200B (zh) * | 2022-04-19 | 2023-06-27 | 合众新能源汽车股份有限公司 | 车辆传感器检测到的对象的质量评价方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109521756B (zh) | 用于无人驾驶车辆的障碍物运动信息生成方法和装置 | |
CN112597822B (zh) | 车辆的轨迹确定方法、装置、电子设备及计算机存储介质 | |
CN111666891B (zh) | 用于估计障碍物运动状态的方法和装置 | |
CN110654381B (zh) | 用于控制车辆的方法和装置 | |
CN110803163B (zh) | 车辆行驶轨迹的预测、车辆跟随目标的选择方法及设备 | |
Trehard et al. | Tracking both pose and status of a traffic light via an interacting multiple model filter | |
CN113228040A (zh) | 多级对象行进方向估计 | |
WO2018062291A1 (ja) | 他車線監視装置 | |
EP3511740B1 (en) | Method, system, and computer program product for determining a blockage of a sensor of a plurality of sensors of an ego vehicle | |
CN111402293B (zh) | 面向智能交通的一种车辆跟踪方法及装置 | |
JP2021504222A (ja) | 状態推定器 | |
CN113933858A (zh) | 定位传感器的异常检测方法、装置及终端设备 | |
CN111707258B (zh) | 一种外部车辆监测方法、装置、设备及存储介质 | |
Li et al. | Cooperative perception for estimating and predicting microscopic traffic states to manage connected and automated traffic | |
JP2021504218A (ja) | 状態推定器 | |
CN114730494A (zh) | 用于对交通场景的空间的覆盖进行估计的方法 | |
JP2021162366A (ja) | センサ遅延時間推定装置 | |
CN113470070A (zh) | 驾驶场景目标跟踪方法、装置、设备及存储介质 | |
CN115115790A (zh) | 预测模型的训练方法、地图预测方法及装置 | |
CN113176562B (zh) | 多目标跟踪方法、装置、电子设备及可读存储介质 | |
JP2021190119A (ja) | 交通参加者の経路を予測するための方法およびデバイス、ならびにセンサシステム | |
CN112615604A (zh) | 智能驾驶感知***的滤波方法、装置及电子设备 | |
CN114119744A (zh) | 一种构建点云地图的方法、装置、设备及存储介质 | |
CN116224317A (zh) | 非机动车运动轨迹的预测方法、装置及相关设备 | |
CN115817466A (zh) | 一种碰撞风险评估方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |