CN113850237A - 基于视频和轨迹数据的网联车目标检测评价方法及*** - Google Patents
基于视频和轨迹数据的网联车目标检测评价方法及*** Download PDFInfo
- Publication number
- CN113850237A CN113850237A CN202111430712.3A CN202111430712A CN113850237A CN 113850237 A CN113850237 A CN 113850237A CN 202111430712 A CN202111430712 A CN 202111430712A CN 113850237 A CN113850237 A CN 113850237A
- Authority
- CN
- China
- Prior art keywords
- acquiring
- vehicle
- data
- detected
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 118
- 238000011156 evaluation Methods 0.000 title claims description 10
- 238000000034 method Methods 0.000 claims abstract description 44
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 37
- 230000008447 perception Effects 0.000 claims abstract description 36
- 238000012545 processing Methods 0.000 claims abstract description 29
- 230000004044 response Effects 0.000 claims description 45
- 238000012360 testing method Methods 0.000 claims description 19
- 238000007781 pre-processing Methods 0.000 claims description 14
- 230000009466 transformation Effects 0.000 claims description 9
- 238000004891 communication Methods 0.000 claims description 7
- 238000013507 mapping Methods 0.000 claims description 5
- 150000001875 compounds Chemical class 0.000 claims description 4
- 238000013459 approach Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000004590 computer program Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 11
- 238000003860 storage Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/017—Detecting movement of traffic to be counted or controlled identifying vehicles
- G08G1/0175—Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明提供的基于视频和轨迹数据的网联车目标检测评价方法及***,方法包括以下步骤:获取多车辆的视频数据,并通过目标检测算法对多车辆的视频数据进行数据处理,获取满足识别精度的多目标车辆和待测***的检测结果;获取多目标车辆的轨迹数据;根据获取的待测***的检测结果和轨迹数据,获取待测***的感知范围;获取待测***的感知时延;根据获取的感知范围和感知时延,分析待测***的目标检测算法的性能。本发明提供的基于视频和轨迹数据的网联车目标检测评价方法,通过获取待测***的感知范围,获取待测***的目标检测算法的高精度感知范围,并通过获取待测***的感知时延,评价待测***的目标检测算法的性能。
Description
技术领域
本发明涉及网联车目标检测算法技术领域,具体是涉及基于视频和轨迹数据的网联车目标检测评价方法及***。
背景技术
视频多目标跟踪作为计算机视觉领域的一个研究热点,在视频监控、自动驾驶等领域有很好的应用前景。由于遮挡,光照,摄像机移动等原因,可能导致跟踪算法得到的轨迹数据出现错误,研究人员需要排查分析这些错误的轨迹数据从而改进跟踪算法,最后与ground truth(车辆的真实定位信息)对比,评估算法性能。但是,目前尚没有比较完善的轨迹分析技术体系。因此,研究与视频多目标跟踪中轨迹分析相关的技术是必要且迫切的。
基于视频数据对目标检测进行研究,通过视频数据可以准确识别出车辆类别以及在摄像头视觉范围内的车辆排队数量,可简单地判断出信号交叉口存在排队现象。但摄像头的检测范围与拍摄角度、光照、摄像头分辨率等客观因素有关,因此,摄像头的视频检测范围有限。当车辆距离摄像头较远时,存在车辆误识别、错识别等现象,对车辆跟踪算法的准确性和精确性存在影响。当车辆距离摄像头近时,可准确识别出车辆类别,但当车辆距离摄像头较远时,识别效果不明显且存在误识别现象。
基于轨迹数据对目标感知进行研究。车辆的实时出行轨迹是随着电子警察及卡口设备在交通***中普及应用而衍生的一种大数据产品。车辆在经过城市路口设置的检测设备时,其过车数据可以被记录。过车数据蕴含着丰富的时空信息(如:车辆ID、摄像头朝向、拍摄时间、行驶方向等),通过分析过车数据可以挖掘用户出行模式、研究微观交通流消息业务的特点,有利于提高城市交通规划与管理的水平,降低城市道路的拥堵程度、提高交通***的运行效率。在一些获取车辆出行轨迹的实现中,通过车辆配置的GPS (GlobalPositioning System)***采集车辆轨迹,然后采用谱聚类方法从卡口数据的时空特性角度实现车辆出行链的自动拆分,从而识别出车辆单次出行轨迹的起点、途经点位、终点。
随着智能网联汽车的发展,获取轨迹数据的途径已有所提升,可通过车载设备(On-board Unit, OBU)采集真值车轨迹数据,避免从复杂的卡口的数据中提取特定车辆的出行数据。轨迹数据的特点是连续且高频,且采集范围可根据需求进行调整。无论是用GPS***采集车辆轨迹还是利用OBU设备对单车的轨迹进行采集,都无法避免因信号中断、遮挡所引起的轨迹缺失、漂移等问题。一旦轨迹数据有缺失、漂移等问题,所采取的轨迹数据作用将大大降低。
发明内容
本发明的目的是为了克服当车辆距离摄像头较远时,摄像头识别效果不明显且存在误识别现象以及无法避免因信号中断、遮挡所引起的轨迹缺失、漂移等问题导致所采取的轨迹数据精度大大降低的技术问题,提供基于视频和轨迹数据的网联车目标检测评价方法及***。
第一方面,本发明提供基于视频和轨迹数据的网联车目标检测评价方法,包括以下步骤:
获取多车辆的视频数据,并通过目标检测算法对多车辆的视频数据进行数据处理,获取满足识别精度的多目标车辆和待测***的检测结果;
获取多目标车辆的轨迹数据;
根据获取的待测***的检测结果和轨迹数据,获取待测***的感知范围;
获取待测***的感知时延;
根据获取的感知范围和感知时延,分析待测***的目标检测算法的性能。
根据第一方面,在第一方面的第一种可能的实现方式中,所述“根据获取的待测***的检测结果和轨迹数据,获取待测***的感知范围”步骤,具体包括以下步骤:
根据获取的待测***的检测结果和轨迹数据,获取待测***多方位的最远感知距离;
根据获取的待测***多方位的最远感知距离,获取待测***的感知范围。
根据第一方面的第一种可能的实现方式,在第一方面的第二种可能的实现方式中,所述“根据获取的待测***的检测结果和轨迹数据,获取待测***多方位的最远感知距离”步骤,具体包括如下步骤:
控制多车辆依次从不同方向、不同车道驶入并通过测试区域的路口,获取视频数据;
将获取的视频数据通过目标识别算法进行数据处理,获取多目标车辆和待测***的定位数据;
获取多目标车辆的轨迹数据;
比对待测***的定位数据和轨迹数据,获取待测***满足精度要求的连续多帧画面的第一帧画面的第一定位信息;
控制车辆靠近或远离摄像头,获取车辆离开摄像头的检测范围时刻的第二定位信息;
根据第一定位信息和第二定位信息,获取当前方位待测***的最远感知距离。
根据第一方面的第二种可能的实现方式,在第一方面的第三种可能的实现方式中,所述“根据第一定位信息和第二定位信息,获取当前方位待测***的最远感知距离”包括以下步骤:
将第一定位信息和第二定位信息根据式(1)和式(2)转化为平面坐标系的坐标:
将第一定位信息和第二定位信息转化的平面坐标系的坐标,根据欧拉距离计算公式式(3)进行变换,获取当前方位待测***的最远感知距离D:
根据第一方面,在第一方面的第四种可能的实现方式中,所述“获取待测***的感知时延”步骤,具体包括以下步骤:
获取待测***的检测结果输出时间t1;
获取视频数据采集设备的水印时间t0;
获取视频数据采集设备和轨迹数据采集设备之间的设备响应时间t2;
获取待测***的数据预处理时间t3;
将获取的t0、t1、t2、t3根据式(4)进行参数变换,获取待测***的感知时延t。
t= t1-t0-t2-t3 式(4)。
根据第一方面的第四种可能的实现方式,在第一方面的第五种可能的实现方式中,所述“获取视频数据采集设备和轨迹数据采集设备之间的设备响应时间t2”步骤,具体包括以下步骤:
在检测区域内以一目标车辆为起点划定两参考线,两参考线相互垂直,两参考线的另一端点分别位于检测区域的车道内和路口范围内;
获取检测区域内的车辆定位信息、两参考线的另一端点的定位信息;
控制车辆以满足限速规定的车速驶过参考线,通过轨迹数据采集设备获取车辆中心点触发参考线的第一时间t21;
通过视频数据采集设备获取车辆以满足限速规定的车速驶过参考线的视频数据;
将该视频数据通过目标检测算法进行数据处理获取待测***的检测结果,获取检测结果中对应车辆触发参考线的第二时间t22;
将获取的t21和t22根据式(6)进行参数变换,获取响应时间差t20;
t20= t22 -t21 式(6);
获取测试区域内的多个车辆的响应时间差t20,获取当前车辆所处的车流状态;
根据当前车辆所处的车流状态,获取待测***的设备响应时间t2。
根据第一方面的第五种可能的实现方式,在第一方面的第六种可能的实现方式中,所述“根据当前车辆所处的车流状态,获取待测***的设备响应时间t2”步骤,具体包括以下步骤:
比对响应时间方差和方差阈值,获取当前车辆所处的车流状态;
根据当前车辆所处的车流状态以及车流状态和设备响应时间的对应映射表,获取与当前车辆所处的车流状态对应的待测***的设备响应时间t2。
根据第一方面的第四种可能的实现方式,在第一方面的第七种可能的实现方式中,所述“获取待测***的数据预处理时间t3”步骤,具体包括以下步骤:
获取待测***开始新的一帧数据采集的数据开始采集时间t31;
获取待测***获取该帧数据并完成后续处理获得结构化信息的数据预处理完成时间t32;
将t31和t32根据式(7)进行参数变换,获取待测***的数据预处理时间t3:
t3=t32- t31 式(7)。
第二方面,本发明提供了一种基于视频和轨迹数据的网联车目标检测评价***,其特征在于,包括:
感知范围获取模块,用于获取多车辆的视频数据,并通过目标检测算法对多车辆的视频数据进行数据处理,获取满足识别精度的多目标车辆和待测***的检测结果;获取多目标车辆的轨迹数据;根据获取的待测***的检测结果和轨迹数据,获取待测***的感知范围;
感知时延获取模块,用于获取待测***的感知时延;
评价模块,与所述感知范围获取模块和感知时延获取模块通信连接,用于根据获取的感知范围和感知时延,分析待测***的目标检测算法的性能。
根据第二方面,在第二方面的第一种可能的实现方式中,所述感知范围获取模块包括:
待测***的检测结果获取模块,用于获取多车辆的视频数据,并通过目标检测算法对多车辆的视频数据进行数据处理,获取满足识别精度的多目标车辆和待测***的检测结果;
轨迹数据获取模块,用于获取多目标车辆的轨迹数据;
最远感知距离获取模块,与待测***的检测结果获取模块和轨迹数据获取模块通信连接,用于根据获取的待测***的检测结果和轨迹数据,获取待测***多方位的最远感知距离;
感知范围获取模块,与所述最远感知距离获取模块通信连接,用于根据获取的待测***多方位的最远感知距离,获取待测***的感知范围。
与现有技术相比,本发明的优点如下:
本发明提供的基于视频和轨迹数据的网联车目标检测评价方法,通过获取待测***的感知范围,获取待测***的目标检测算法的高精度感知范围,并通过获取待测***的感知时延,评价待测***的目标检测算法的性能。
附图说明
图1是本发明实施例提供的基于视频和轨迹数据的网联车目标检测评价方法的方法流程示意图;
图2是本发明实施例提供的基于视频和轨迹数据的网联车目标检测评价方法的另一方法流程示意图;
图3是本发明实施例提供的基于视频和轨迹数据的网联车目标检测评价方法中车辆触发参考线的场景示意图;
图4是本发明实施例提供的基于视频和轨迹数据的网联车目标检测评价方法的***的功能模块框图;
图5是本发明实施例提供的基于视频和轨迹数据的网联车目标检测评价方法的***的另一功能模块框图。
100、感知范围获取模块;110、待测***的检测结果获取单元;120、轨迹数据获取单元;130、最远感知距离获取单元;140、感知范围获取单元;200、感知时延获取模块;300、评价模块。
具体实施方式
现在将详细参照本发明的具体实施例,在附图中例示了本发明的例子。尽管将结合具体实施例描述本发明,但将理解,不是想要将本发明限于所述的实施例。相反,想要覆盖由所附权利要求限定的在本发明的精神和范围内包括的变更、修改和等价物。应注意,这里描述的方法步骤都可以由任何功能块或功能布置来实现,且任何功能块或功能布置可被实现为物理实体或逻辑实体、或者两者的组合。
为了使本领域技术人员更好地理解本发明,下面结合附图和具体实施方式对本发明作进一步详细说明。
注意:接下来要介绍的示例仅是一个具体的例子,而不作为限制本发明的实施例必须为如下具体的步骤、数值、条件、数据、顺序等等。本领域技术人员可以通过阅读本说明书来运用本发明的构思来构造本说明书中未提到的更多实施例。
请参考图1,本发明提供基于视频和轨迹数据的网联车目标检测评价方法,包括以下步骤:
S110、获取多车辆的视频数据,并通过目标检测算法对多车辆的视频数据进行数据处理,获取满足识别精度的多目标车辆和待测***的检测结果;
S120、获取多目标车辆的轨迹数据;
S130、根据获取的待测***的检测结果和轨迹数据,获取待测***的感知范围;
S200、获取待测***的感知时延;
S300、根据获取的感知范围和感知时延,分析待测***的目标检测算法的性能。
在一实施例中,所述视频数据通过视频数据采集设备获取,所述轨迹数据通过轨迹数据采集设备获取。
在一较具体实施例中,所述视频数据通过检测区域内的摄像头获取,所述轨迹数据通过车辆上的OBU设备获取。
本发明提供的基于视频和轨迹数据的网联车目标检测评价方法,通过获取待测***的感知范围,获取待测***的目标检测算法的高精度感知范围,并通过获取待测***的感知时延,评价待测***的目标检测算法的性能;
摄像头采集的视频数据的水印时间为秒级,而OBU设备采集车辆的轨迹数据可以实现为毫秒级精度,将视频数据和轨迹数据进行融合分析,可实现毫秒级的感知和响应,提高了待测***感知和响应的精度;
基于目标跟踪检测算法识别视频数据中的跟踪车辆,选取满足精度要求的目标进行计数输出,避免目标跟踪过程中ID Switch的现象导致目标丢失或者重复计数的现象,该方法具有普适性。
所述待测***为对视频数据进行目标识别、目标跟踪和目标检测的***,所述目标识别为对视频数据进行识别多目标车辆,所述目标跟踪和目标检测为对视频数据的多目标车辆进行目标跟踪并通过目标检测算法获取多目标车辆的定位信息。待测***为通过感知范围和感知时延评测的对象。
在一实施例中,所述“根据获取的待测***的检测结果和轨迹数据,获取待测***的感知范围”步骤,具体包括以下步骤:
S131、根据获取的待测***的检测结果和轨迹数据,获取待测***多方位的最远感知距离;
S132、根据获取的待测***多方位的最远感知距离,获取待测***的感知范围。
在一实施例中,所述“S131、根据获取的待测***的检测结果和轨迹数据,获取待测***多方位的最远感知距离”步骤,具体包括如下步骤:
S1311、控制多车辆依次从不同方向、不同车道驶入并通过测试区域的路口,获取视频数据;
S1312、将获取的视频数据通过目标识别算法进行数据处理,获取多目标车辆和待测***的定位数据;
S1313、获取多目标车辆的轨迹数据;
S1314、比对待测***的定位数据和轨迹数据,获取待测***满足精度要求的连续多帧画面的第一帧画面的第一定位信息;
S1315、控制车辆靠近或远离摄像头,通过OBU设备获取车辆离开摄像头的检测范围时刻的第二定位信息;
S1316、根据第一定位信息和第二定位信息,获取当前方位待测***的最远感知距离。
其中,所述摄像头的检测范围由摄像头的性能所限定。
在一实施例中,所述“S1316、根据第一定位信息和第二定位信息,获取当前方位待测***的最远感知距离”包括以下步骤:
将第一定位信息和第二定位信息转化的平面坐标系的坐标,根据欧拉距离计算公式式(3)进行变换,获取当前方位待测***的最远感知距离D:
由于待测***的检测结果输出时间包括视频数据采集设备和轨迹数据采集设备的时间不同步的时间差、待测***的数据预处理时间和视频数据的水印时间,因此,待测***的感知时延应消除两数据采集设备不同步时间差和待测***的数据预处理时间后再与视频数据的水印时间进行差值比对获取,因此,所述“S200、获取待测***的感知时延”步骤,具体包括以下步骤:
S210、获取待测***的检测结果输出时间t1;
S220、获取视频数据采集设备的水印时间t0;
S230、获取视频数据采集设备和轨迹数据采集设备之间的设备响应时间t2;
S240、获取待测***的数据预处理时间t3;
S250、将获取的t0、t1、t2、t3根据式(4)进行参数变换,获取待测***的感知时延t:
t= t1-t0-t2-t3 式(4)。
在一实施例中,所述“S230、获取视频数据采集设备和轨迹数据采集设备之间的设备响应时间t2”步骤,具体包括以下步骤:
S231、在检测区域内以一目标车辆为起点划定两参考线,两参考线相互垂直,两参考线的另一端点分别位于检测区域的车道内和路口范围内,一条参考线位于车道内,另一条参考线与之共目标车辆位置为起始端点,另一端点位于检测区域的路口范围内;
S232、获取检测区域内的车辆定位信息、两参考线的另一端点的定位信息;
S233、控制车辆以满足限速规定的车速驶过参考线,通过轨迹数据采集设备获取车辆中心点触发参考线的第一时间t21;
S234、通过视频数据采集设备获取车辆以满足限速规定的车速驶过参考线的视频数据;
S235、将该视频数据通过目标检测算法进行数据处理获取待测***的检测结果,获取检测结果中对应车辆触发参考线的第二时间t22;
S236、将获取的t21和t22根据式(6)进行参数变换,获取响应时间差t20;
t20= t22 -t21 式(6);
S237、通过多次测试,获取测试区域内的多个车辆的响应时间差t20,根据获取的多个响应时间差t20获取当前车辆所处的车流状态;
S238、根据当前车辆所处的车流状态,获取待测***的设备响应时间t2。
在一实施例中,车辆沿着车道行驶驶过参考线定义为车辆触发P1P2连线。
在一较具体实施例中,在检测区域内沿垂直于车道线的方向划定两条参考线,一条参考线在车道内,一条参考线在路口范围内,两参考线共目标车辆位置为一端点位置,离散采集两个参考线的另一端点的经纬度以及车辆中心点的经纬度,交通参与者中心点为能够包住交通参与者的最小立方体的几何中心;车辆以满足检测区域现场限速规定的速度驶过参考线,由目标车辆的轨迹数据采集设备记录车辆中心点触发参考线的第一时间t21;由视频数据采集设备获取目标车辆驶过参考线的视频数据,将视频数据经过目标检测算法进行数据处理,获取待测***的检测结果;在检测结果出找出目标车辆触发参考线的点对应的第二时间t22;将t22和t21之差计为待测***对该目标车辆在当前车流状态下的响应时间。
在一实施例中,由于视频数据采集设备的采集频率较低,导致在待测***的检测结果中没有目标车辆刚刚触发参考线的时刻采集数据,此种情况下,可以选择离目标车辆触发参考线的时刻最近的一帧数据,根据该帧视频数据给出的目标车辆位置,调整t20。
在一实施例中,目标车辆于检测区域内每个行驶方向行驶一次,例如从8个方向行驶触发参考线,并测算待测***对该目标车辆不同方向行驶触发参考线的响应时间。
在一实施例中,如图3所示,所述目标车辆和两参考线的另一端点围合成的一三角形,目标车辆Pv,两参考线的另一端点为标定点P1和标定点P2,利用海伦公式求得该三角形P1P2Pv的面积S,当S最小时即认为目标车辆触发了参考线。
其中,S最小为预设最小面积阈值,在理想状态下,S最小为0。
式中,为标定点P1的GPS定位经纬度坐标,为标定点P2的GPS定位经纬度坐标,为标定点Pv的GPS定位经纬度坐标,r为地球半径,为标定点P1的GPS定位经纬度坐标转化的平面坐标系的坐标,为标定点P2的GPS定位经纬度坐标转化的平面坐标系的坐标,为标定点P3的GPS定位经纬度坐标转化的平面坐标系的坐标,P为三角形P1P2Pv的周长的一半,S为三角形P1P2Pv的面积。
在一实施例中,所述“S238、根据当前车辆所处的车流状态,获取待测***的设备响应时间t2”步骤,具体包括以下步骤:
S2381、获取测试区域内的多个车辆的响应时间差,获取响应时间方差;
S2382、比对响应时间方差和方差阈值,获取当前车辆所处的车流状态;
S2383、根据当前车辆所处的车流状态以及车流状态和设备响应时间的对应映射表,获取与当前车辆所处的车流状态对应的待测***的设备响应时间t2。
所述“S2382、比对响应时间方差和方差阈值,获取当前车辆所处的车流状态”步骤,具体包括以下步骤:
S23821、当响应时间方差大于方差阈值时,判定当前车辆处于高峰车流状态;
S23822、当响应时间方差不大于方差阈值时,判定当前车辆处于平峰状态。
在一实施例中,所述“S2383、根据当前车辆所处的车流状态以及车流状态和设备响应时间的对应映射表,获取与当前车辆所处的车流状态对应的待测***的设备响应时间t2”步骤,具体包括以下步骤:
S23831、当当前车辆属于平峰车流状态时,根据表1将t2a作为当前车辆所处的车流状态对应的待测***的设备响应时间t2;
S23832、当当前车辆属于高峰车流状态时,根据表1将t2b作为当前车辆所处的车辆状态对应的待测***的设备响应时间t2。
表1 车流状态和设备响应时间的对应映射表
车流状态 | 平峰 | 高峰 |
响应时间 | t<sub>2a</sub> | t<sub>2b</sub> |
表中,t2b> t2a。
在一实施例中,所述“S240、获取待测***的数据预处理时间t3”步骤,具体包括以下步骤:
S241、获取待测***开始新的一帧数据采集的数据开始采集时间t31;
S242、获取待测***获取该帧数据并完成后续处理获得结构化信息的数据预处理完成时间t32;
S243、将t31和t32根据式(7)进行参数变换,获取待测***的数据预处理时间t3:
t3=t32- t31 式(7)。
基于同一发明构思,请参考图4,本发明提供了一种基于视频和轨迹数据的网联车目标检测评价***,包括:
感知范围获取模块100,用于获取多车辆的视频数据,并通过目标检测算法对多车辆的视频数据进行数据处理,获取满足识别精度的多目标车辆和待测***的检测结果;获取多目标车辆的轨迹数据;根据获取的待测***的检测结果和轨迹数据,获取待测***的感知范围;
感知时延获取模块200,用于获取待测***的感知时延;
评价模块300,与所述感知范围获取模块和感知时延获取模块通信连接,用于根据获取的感知范围和感知时延,分析待测***的目标检测算法的性能。
在一实施例中,请参考图5,所述感知范围获取模块包括:
待测***的检测结果获取单元110,用于获取多车辆的视频数据,并通过目标检测算法对多车辆的视频数据进行数据处理,获取满足识别精度的多目标车辆和待测***的检测结果;
轨迹数据获取单元120,用于获取多目标车辆的轨迹数据;
最远感知距离获取单元130,与待测***的检测结果获取单元110和轨迹数据获取单元120通信连接,用于根据获取的待测***的检测结果和轨迹数据,获取待测***多方位的最远感知距离;
感知范围获取单元140,与所述最远感知距离获取单元130通信连接,用于根据获取的待测***多方位的最远感知距离,获取待测***的感知范围。
基于同一发明构思,本申请实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述方法的所有方法步骤或部分方法步骤。
本发明实现上述方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,计算机程序包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
基于同一发明构思,本申请实施例还提供一种电子设备,包括存储器和处理器,存储器上储存有在处理器上运行的计算机程序,处理器执行计算机程序时实现上述方法中的所有方法步骤或部分方法步骤。
所称处理器可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,处理器是计算机装置的控制中心,利用各种接口和线路连接整个计算机装置的各个部分。
存储器可用于存储计算机程序和/或模块,处理器通过运行或执行存储在存储器内的计算机程序和/或模块,以及调用存储在存储器内的数据,实现计算机装置的各种功能。存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需的应用程序(例如声音播放功能、图像播放功能等);存储数据区可存储根据手机的使用所创建的数据(例如音频数据、视频数据等)。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(SmartMedia Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
本领域内的技术人员应明白,本发明的实施例可提供为方法、***、服务器或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(***)、服务器和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (10)
1.基于视频和轨迹数据的网联车目标检测评价方法,其特征在于,包括以下步骤:
获取多车辆的视频数据,并通过目标检测算法对多车辆的视频数据进行数据处理,获取满足识别精度的多目标车辆和待测***的检测结果;
获取多目标车辆的轨迹数据;
根据获取的待测***的检测结果和轨迹数据,获取待测***的感知范围;
获取待测***的感知时延;
根据获取的感知范围和感知时延,分析待测***的目标检测算法的性能。
2.如权利要求1所述的基于视频和轨迹数据的网联车目标检测评价方法,其特征在于,所述“根据获取的待测***的检测结果和轨迹数据,获取待测***的感知范围”步骤,具体包括以下步骤:
根据获取的待测***的检测结果和轨迹数据,获取待测***多方位的最远感知距离;
根据获取的待测***多方位的最远感知距离,获取待测***的感知范围。
3.如权利要求2所述的基于视频和轨迹数据的网联车目标检测评价方法,其特征在于,所述“根据获取的待测***的检测结果和轨迹数据,获取待测***多方位的最远感知距离”步骤,具体包括如下步骤:
控制多车辆依次从不同方向、不同车道驶入并通过测试区域的路口,获取视频数据;
将获取的视频数据通过目标识别算法进行数据处理,获取多目标车辆和待测***的定位数据;
获取多目标车辆的轨迹数据;
比对待测***的定位数据和轨迹数据,获取待测***满足精度要求的连续多帧画面的第一帧画面的第一定位信息;
控制车辆靠近或远离摄像头,获取车辆离开摄像头的检测范围时刻的第二定位信息;
根据第一定位信息和第二定位信息,获取当前方位待测***的最远感知距离。
5.如权利要求1所述的基于视频和轨迹数据的网联车目标检测评价方法,其特征在于,所述“获取待测***的感知时延”步骤,具体包括以下步骤:
获取待测***的检测结果输出时间t1;
获取视频数据采集设备的水印时间t0;
获取视频数据采集设备和轨迹数据采集设备之间的设备响应时间t2;
获取待测***的数据预处理时间t3;
将获取的t0、t1、t2、t3根据式(4)进行参数变换,获取待测***的感知时延t:
t= t1-t0-t2-t3 式(4)。
6.如权利要求5所述的基于视频和轨迹数据的网联车目标检测评价方法,其特征在于,所述“获取视频数据采集设备和轨迹数据采集设备之间的设备响应时间t2”步骤,具体包括以下步骤:
在检测区域内以一目标车辆为起点划定两参考线,两参考线相互垂直,两参考线的另一端点分别位于检测区域的车道内和路口范围内;
获取检测区域内的车辆定位信息、两参考线的另一端点的定位信息;
控制车辆以满足限速规定的车速驶过参考线,通过轨迹数据采集设备获取车辆中心点触发参考线的第一时间t21;
通过视频数据采集设备获取车辆以满足限速规定的车速驶过参考线的视频数据;
将该视频数据通过目标检测算法进行数据处理获取待测***的检测结果,获取检测结果中对应车辆触发参考线的第二时间t22;
将获取的t21和t22根据式(6)进行参数变换,获取响应时间差t20;
t20= t22 -t21 式(6);
获取测试区域内的多个车辆的响应时间差t20,根据获取的多个响应时间差t20获取当前车辆所处的车流状态;
根据当前车辆所处的车流状态,获取待测***的设备响应时间t2。
7.如权利要求6所述的基于视频和轨迹数据的网联车目标检测评价方法,其特征在于,所述“根据当前车辆所处的车流状态,获取待测***的设备响应时间t2”步骤,具体包括以下步骤:
获取测试区域内的多个车辆的响应时间差,获取响应时间方差;
比对响应时间方差和方差阈值,获取当前车辆所处的车流状态;
根据当前车辆所处的车流状态以及车流状态和设备响应时间的对应映射表,获取与当前车辆所处的车流状态对应的待测***的设备响应时间t2。
8.如权利要求5所述的基于视频和轨迹数据的网联车目标检测评价方法,其特征在于,所述“获取待测***的数据预处理时间t3”步骤,具体包括以下步骤:
获取待测***开始新的一帧数据采集的数据开始采集时间t31;
获取待测***获取该帧数据并完成后续处理获得结构化信息的数据预处理完成时间t32;
将t31和t32根据式(7)进行参数变换,获取待测***的数据预处理时间t3:
t3=t32- t31 式(7)。
9.一种基于视频和轨迹数据的网联车目标检测评价***,其特征在于,包括:
感知范围获取模块,用于获取多车辆的视频数据,并通过目标检测算法对多车辆的视频数据进行数据处理,获取满足识别精度的多目标车辆和待测***的检测结果;获取多目标车辆的轨迹数据;根据获取的待测***的检测结果和轨迹数据,获取待测***的感知范围;
感知时延获取模块,用于获取待测***的感知时延;
评价模块,与所述感知范围获取模块和感知时延获取模块通信连接,用于根据获取的感知范围和感知时延,分析待测***的目标检测算法的性能。
10.如权利要求9所述的基于视频和轨迹数据的网联车目标检测评价***,其特征在于,所述感知范围获取模块包括:
待测***的检测结果获取模块,用于获取多车辆的视频数据,并通过目标检测算法对多车辆的视频数据进行数据处理,获取满足识别精度的多目标车辆和待测***的检测结果;
轨迹数据获取模块,用于获取多目标车辆的轨迹数据;
最远感知距离获取模块,与待测***的检测结果获取模块和轨迹数据获取模块通信连接,用于根据获取的待测***的检测结果和轨迹数据,获取待测***多方位的最远感知距离;
感知范围获取模块,与所述最远感知距离获取模块通信连接,用于根据获取的待测***多方位的最远感知距离,获取待测***的感知范围。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111430712.3A CN113850237B (zh) | 2021-11-29 | 2021-11-29 | 基于视频和轨迹数据的网联车目标检测评价方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111430712.3A CN113850237B (zh) | 2021-11-29 | 2021-11-29 | 基于视频和轨迹数据的网联车目标检测评价方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113850237A true CN113850237A (zh) | 2021-12-28 |
CN113850237B CN113850237B (zh) | 2022-02-22 |
Family
ID=78982221
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111430712.3A Active CN113850237B (zh) | 2021-11-29 | 2021-11-29 | 基于视频和轨迹数据的网联车目标检测评价方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113850237B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114550450A (zh) * | 2022-02-15 | 2022-05-27 | 云控智行科技有限公司 | 一种验证路侧感知设备感知精度的方法、装置及电子设备 |
CN116824869A (zh) * | 2023-08-31 | 2023-09-29 | 国汽(北京)智能网联汽车研究院有限公司 | 车路云一体化交通融合感知测试方法、装置、***及介质 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105336207A (zh) * | 2015-12-04 | 2016-02-17 | 黄左宁 | 车辆记录仪和公安综合监管*** |
US9604648B2 (en) * | 2011-10-11 | 2017-03-28 | Lytx, Inc. | Driver performance determination based on geolocation |
CN109617967A (zh) * | 2018-12-14 | 2019-04-12 | 深圳市曹操货的科技有限公司 | 一种基于大数据智能物联网管控平台 |
CN110264783A (zh) * | 2019-06-19 | 2019-09-20 | 中设设计集团股份有限公司 | 基于车路协同的车辆防碰撞预警***及方法 |
US10685244B2 (en) * | 2018-02-27 | 2020-06-16 | Tusimple, Inc. | System and method for online real-time multi-object tracking |
CN112347993A (zh) * | 2020-11-30 | 2021-02-09 | 吉林大学 | 一种基于车辆-无人机协同的高速公路车辆行为和轨迹预测方法 |
CN111723672B (zh) * | 2020-05-25 | 2021-03-30 | 华南理工大学 | 一种视频识别行车轨迹获取方法、装置及存储介质 |
US11017661B1 (en) * | 2019-11-27 | 2021-05-25 | B&H Licensing Inc. | Method and system for pedestrian-to-vehicle collision avoidance based on amplified and reflected wavelength |
CN113139410A (zh) * | 2020-01-19 | 2021-07-20 | 杭州海康威视***技术有限公司 | 路面检测方法、装置、设备及存储介质 |
CN113261006A (zh) * | 2018-12-26 | 2021-08-13 | 祖克斯有限公司 | 碰撞避免*** |
CN113259900A (zh) * | 2021-05-27 | 2021-08-13 | 华砺智行(武汉)科技有限公司 | 一种分布式多源异构交通数据融合方法及装置 |
CN113313154A (zh) * | 2021-05-20 | 2021-08-27 | 四川天奥空天信息技术有限公司 | 一体化融合多传感器自动驾驶智能感知装置 |
CN113347254A (zh) * | 2021-06-02 | 2021-09-03 | 安徽工程大学 | 基于v2x的智能交通控制车联网***及其控制方法 |
CN113362606A (zh) * | 2021-07-23 | 2021-09-07 | 重庆智和慧创科技有限公司 | 一种基于车联网的车路协同防碰撞综合控制*** |
-
2021
- 2021-11-29 CN CN202111430712.3A patent/CN113850237B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9604648B2 (en) * | 2011-10-11 | 2017-03-28 | Lytx, Inc. | Driver performance determination based on geolocation |
CN105336207A (zh) * | 2015-12-04 | 2016-02-17 | 黄左宁 | 车辆记录仪和公安综合监管*** |
US10685244B2 (en) * | 2018-02-27 | 2020-06-16 | Tusimple, Inc. | System and method for online real-time multi-object tracking |
CN109617967A (zh) * | 2018-12-14 | 2019-04-12 | 深圳市曹操货的科技有限公司 | 一种基于大数据智能物联网管控平台 |
CN113261006A (zh) * | 2018-12-26 | 2021-08-13 | 祖克斯有限公司 | 碰撞避免*** |
CN110264783A (zh) * | 2019-06-19 | 2019-09-20 | 中设设计集团股份有限公司 | 基于车路协同的车辆防碰撞预警***及方法 |
US11017661B1 (en) * | 2019-11-27 | 2021-05-25 | B&H Licensing Inc. | Method and system for pedestrian-to-vehicle collision avoidance based on amplified and reflected wavelength |
CN113139410A (zh) * | 2020-01-19 | 2021-07-20 | 杭州海康威视***技术有限公司 | 路面检测方法、装置、设备及存储介质 |
CN111723672B (zh) * | 2020-05-25 | 2021-03-30 | 华南理工大学 | 一种视频识别行车轨迹获取方法、装置及存储介质 |
CN112347993A (zh) * | 2020-11-30 | 2021-02-09 | 吉林大学 | 一种基于车辆-无人机协同的高速公路车辆行为和轨迹预测方法 |
CN113313154A (zh) * | 2021-05-20 | 2021-08-27 | 四川天奥空天信息技术有限公司 | 一体化融合多传感器自动驾驶智能感知装置 |
CN113259900A (zh) * | 2021-05-27 | 2021-08-13 | 华砺智行(武汉)科技有限公司 | 一种分布式多源异构交通数据融合方法及装置 |
CN113347254A (zh) * | 2021-06-02 | 2021-09-03 | 安徽工程大学 | 基于v2x的智能交通控制车联网***及其控制方法 |
CN113362606A (zh) * | 2021-07-23 | 2021-09-07 | 重庆智和慧创科技有限公司 | 一种基于车联网的车路协同防碰撞综合控制*** |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114550450A (zh) * | 2022-02-15 | 2022-05-27 | 云控智行科技有限公司 | 一种验证路侧感知设备感知精度的方法、装置及电子设备 |
CN116824869A (zh) * | 2023-08-31 | 2023-09-29 | 国汽(北京)智能网联汽车研究院有限公司 | 车路云一体化交通融合感知测试方法、装置、***及介质 |
CN116824869B (zh) * | 2023-08-31 | 2023-11-24 | 国汽(北京)智能网联汽车研究院有限公司 | 车路云一体化交通融合感知测试方法、装置、***及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113850237B (zh) | 2022-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109272756B (zh) | 一种信控交叉口排队长度估计方法 | |
CN112069944B (zh) | 一种道路拥堵等级确定方法 | |
CN112069643B (zh) | 一种自动驾驶仿真场景生成方法及装置 | |
CN113850237B (zh) | 基于视频和轨迹数据的网联车目标检测评价方法及*** | |
KR102350711B1 (ko) | 궤적 분류 모델의 트레이닝 방법 및 장치, 및 전자 기기 | |
CN107885795B (zh) | 一种卡口数据的数据校验方法、***和装置 | |
CN109359690B (zh) | 基于卡口数据的车辆出行轨迹识别方法 | |
WO2019205020A1 (zh) | 一种路况识别方法、装置及设备 | |
CN113570864B (zh) | 一种电动自行车行驶路径匹配方法、设备及存储介质 | |
CN113847925A (zh) | 基于轨迹数据检测车辆偏航的方法、装置、设备及介质 | |
CN107590999B (zh) | 一种基于卡口数据的交通状态判别方法 | |
CN111275975B (zh) | 一种交叉口转向流量数据的获取方法、装置和存储介质 | |
CN110322687B (zh) | 确定目标交叉口运行状态信息的方法和装置 | |
EP4020428A1 (en) | Method and apparatus for recognizing lane, and computing device | |
CN110851490B (zh) | 一种基于过车数据的车辆出行常用停留点挖掘方法及装置 | |
CN111144179A (zh) | 场景检测装置及方法 | |
CN112434566A (zh) | 客流统计方法、装置、电子设备及存储介质 | |
CN113205691A (zh) | 一种识别车辆位置的方法及装置 | |
CN114771548A (zh) | 用于高级驾驶辅助***测试和验证的数据记录 | |
CN110109159A (zh) | 行驶管理方法、装置、电子设备及存储介质 | |
CN114241373A (zh) | 一种端到端的车辆行为检测方法、***、设备及存储介质 | |
CN111741267B (zh) | 一种车辆延误的确定方法、装置、设备及介质 | |
CN112419751B (zh) | 基于单截面电警数据的信号交叉口车道排队长度估计方法 | |
CN113048988B (zh) | 一种导航地图对应场景的变化元素检测方法及装置 | |
CN113220805A (zh) | 地图生成装置、记录介质以及地图生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
PE01 | Entry into force of the registration of the contract for pledge of patent right |
Denomination of invention: A Method and System for Target Detection and Evaluation of Connected Vehicles Based on Video and Trajectory Data Effective date of registration: 20231010 Granted publication date: 20220222 Pledgee: Bank of China Limited Wuhan Economic and Technological Development Zone sub branch Pledgor: ISMARTWAYS (WUHAN) TECHNOLOGY Co.,Ltd. Registration number: Y2023980060478 |
|
PE01 | Entry into force of the registration of the contract for pledge of patent right |