CN109584558A - 一种面向城市交通信号配时的交通流统计方法 - Google Patents
一种面向城市交通信号配时的交通流统计方法 Download PDFInfo
- Publication number
- CN109584558A CN109584558A CN201811540864.7A CN201811540864A CN109584558A CN 109584558 A CN109584558 A CN 109584558A CN 201811540864 A CN201811540864 A CN 201811540864A CN 109584558 A CN109584558 A CN 109584558A
- Authority
- CN
- China
- Prior art keywords
- frame
- information
- target
- track
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0137—Measuring and analyzing of parameters relative to traffic conditions for specific applications
- G08G1/0145—Measuring and analyzing of parameters relative to traffic conditions for specific applications for active traffic flow control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Multimedia (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明属于智能交通领域,具体涉及一种面向城市交通信号配时的交通流统计方法,采用图像处理技术对视频中的交通目标进行检测及跟踪,获取其轨迹信息,然后通过对轨迹信息和视频场景信息进行分析处理,提取出每条轨迹的起终点坐标进行聚类,获取场景的分区信息,最终获取详细的交通流信息。本发明具有更好的精度和数据的丰富度,提供更丰富的交通参数信息,能用于事故的预警、预防拥堵和自动路径规划,尤其是针对车流量较大场景复杂的情形,本发明提出的方法仍然有较好的效果。同时,通过获得十字路口不同时段的交通流信息还可以进行信号配时,带来了显著的经济效益并且能够提高交通通行效率。
Description
技术领域
本发明属于智能交通领域,具体涉及一种面向城市交通信号配时的交通流统计方法。
背景技术
估计交通视频序列中的车辆数量是智能交通***中的一项重要任务,可以为交通管理和控制提供可靠的信息。在传统的智能交通***中,车辆计数是通过特殊的传感器完成的,如磁环、微波或超声波探测器。然而这些传感器有一些局限性,例如采集的数据过于简单且安装成本高。随着图像处理技术的发展,相比于传统的传感器方法,基于视频的车辆计数方法开始被人们关注和重视。
使用机器视觉的车辆计数方法包括:检测,跟踪和轨迹处理。目前现存的计数方法主要可以分为三类:基于回归的方法、基于聚类的方法和基于检测的(匹配)方法。其中,基于回归的方法旨在利用检测区域的特征来学习回归函数,基于聚类的方法跟踪目标的特征得到轨迹,并对轨迹进行聚类从而对目标计数。而在上述提到的计数方法中,都有一些常见的问题:视频角度受限制、车辆轨迹复杂具有不确定性无法处理复杂场景等。
发明内容
针对现有技术中存在的视频角度受限制、计算速度慢和无法处理复杂场景的问题,本发明提供了一种面向城市交通信号配时的交通流统计方法,包括如下步骤:
步骤1:采集交通场景的视频,获得视频截图,对视频截图进行分类标注,把标注后的视频截图作为样本集;
步骤2:将步骤1获得的样本集利用YOLO V3算法进行训练,得到检测模型,将交通场景的视频输入检测模型,得到每一帧中图像的像素信息和目标的检测结果信息,其中,视频的第t帧表示为Framet,t表示帧号取值为正整数;
步骤3:创建临时轨迹列表Ts,此时Ts为空,读取步骤2获得的交通场景的视频的Frame1作为当前帧,对Frame1中检测到的每个目标建立新轨迹,并将所有新轨迹加入Ts,更新Frame2作为当前帧,将Frame1中每个目标的检测结果信息作为当前帧Frame2的对应的轨迹终点信息,进入步骤4;
步骤4:设当前帧为Framet,则下一帧为Framet+1,将Framet中每条轨迹终点信息与Framet的目标的检测结果信息进行匹配:将Framet中匹配成功的目标的检测结果信息作为Framet+1中对应的轨迹终点信息,延续轨迹;将Framet中目标检测结果匹配失败的目标的检测结果信息作为新轨迹的起点,创建新轨迹添加至Ts中,此时Framet中新轨迹的起点为Framet+1的轨迹终点信息;将Framet中轨迹终点信息匹配失败的目标利用KCF算法获得Framet中目标对应在Framet+1中对应目标的预测位置信息,延续轨迹,并将轨迹置信度Timer+1;当Framet不是视频的最后一帧时,更新Framet+1作为当前帧执行步骤4,否则执行步骤5;
步骤5:对Ts中的轨迹进行筛选,获得完整轨迹列表TA,设定路口个数并对TA中每条轨迹的起终点进行聚类,获得聚类中心点集合和道路中心点;
步骤6:根据步骤5得到的聚类中心点集合和道路中心点,对路口进行分区,然后计算每条轨迹的角度并根据路口的分区对每条轨迹编码,获得有方向信息的完整轨迹列表TB,对TB进行计数统计;
步骤7:对步骤6得到的计数统计结果,使用Webster配时法进行计算出总周期时间以及各向信号灯时间,从而获取交通场景视频的交通流信息。
进一步的,步骤1包括如下子步骤:
步骤1.1:采集交通场景的视频,获得5000张包含公交车、卡车、小汽车、摩托车、自行车、行人等目标的样本图像的视频截图;
步骤1.2:采用图像标注工具对视频截图标注,所述标注包括对图像中的目标进行目标类别以及图像中的目标位置进行标注,标注后的视频截图作为样本集。
进一步的,步骤2包括如下子步骤:
将步骤1获得的样本集利用YOLOV3算法进行训练,得到检测模型,将交通场景的视频输入检测模型,得到每一帧中图像的像素信息和目标的检测结果信息,其中,视频的第t帧表示为Framet,t表示帧号取值为正整数,It表示t帧的图像的像素信息,所述It包括图片的宽度、高度、和面积以及像素信息,DBt表示t帧的检测结果,且DBt={BBi,i=1,2,…,n},其中BBi表示t帧检测到第i个目标信息,得到每一帧中目标的检测结果信息,所述目标的检测结果信息包括,目标检测包络框的中点坐标,目标检测包络框的宽度、高度、面积。
进一步的,步骤4中匹配的过程为:计算每条轨迹Ti的终点信息Blast和当前帧中对应目标的检测结果信息BBi的重叠率Overlap,重叠率为Blast和BBi所对应的两个矩形框重叠区域的面积与总占有面积的比值,然后计算两个外接矩形框的中心点的像素距离Dis,最后通过Overlap与Dis的加权结果计算Blast和BBi被认为是同一个目标的匹配度MatchValue,若匹配度大于等于阈值则匹配成功,否则匹配失败,所述MatchValue的取值范围为[0,1]。
更进一步的,步骤4中所述MatchValue设置为0.7。
进一步的,步骤4中轨迹终点信息匹配失败,利用KCF算法获得Framet中目标对应在Framet+1中对应目标的预测位置信息包括以下两种情况:
若获得了Framet+1中目标的预测位置信息,则将已有目标的预测位置信息更新为Framet+1中轨迹终点信息,延续轨迹,并将Timer+1;
若未获得Framet+1中目标的预测位置信息,则复制Framet的轨迹终点信息作为Framet+1的轨迹终点信息,延续轨迹,并将Timer+1。
进一步的,步骤5具体包括如下子步骤:
步骤5.1:对Ts中的轨迹进行筛选,所述筛选条件为:当所选轨迹的Timer>30或轨迹终点信息的目标检测包络框的中点坐标位于视频边界时,将所选轨迹从临时轨迹列表Ts中删除,并将所选轨迹保存到完整轨迹列表TA中,获得完整轨迹列表TA;
步骤5.2:设定路口个数为聚类个数k,并将TA中每条轨迹的起终点输入K-means算法进行聚类,输出聚类中心点集合PA={Pw,w=1,..,k},Pw是第w个聚类中心点,取聚类中心集合PA的中心点为道路中心点PCent。
进一步的,步骤6包括如下子步骤:
步骤6.1:根据步骤5得到的聚类中心点集合PA和道路中心点PCent,建立极坐标系,以PCent为极坐标系的极点且PCent=(x1,y1),以水平向右的方向引一条射线作为极轴,取逆时针方向为角度的正方向,极角坐标θ单位为度,范围为(0,360),设极坐标内另一点P=(x2,y2)通过以下公式计算P的θ值:
当x2>x1并且y2>y1时,θ=360-180/pi*arctan((y2-y1)/(x2-x1));
当x2=x1并且y2>y1时,θ=270;
当x2<x1并且y2>y1时,θ=180-180/pi*arctan((y2-y1)/(x2-x1));
当x2<x1并且y2=y1时,θ=180;
当x2<x1并且y2<y1时,θ=180-180/pi*arctan((y2-y1)/(x2-x1));
当x2=x1并且y2<y1时,θ=90;
当x2>x1并且y2<y1时,θ=-180/pi*arctan((y2-y1)/(x2-x1));
当x2>x1并且y2=y1时,θ=0;
步骤6.2:取P∈PA,利用步骤6.1中的公式,得到PA中每个聚类中心点的θ值,通过对每个聚类中心点的θ值进行排序完成对路口进行分区;
步骤6.3:取P∈每条轨迹的起终点信息,利用步骤6.1中的公式计算每条轨迹的角度并根据路口的分区对每条轨迹编码,获得有方向信息的完整轨迹列表TB,对TB按照左转、右转和直行三个方进行计数统计。
更进一步的,步骤6.2中的交通场景为十字路口,聚类中心点个数k=4,计算出四个聚类中心点对应角度θ1、θ2、θ3、θ4,对θ1、θ2、θ3、θ4从小到大进行排序:0<=θ1<θ2<θ3<θ4<=360,然后计算 其中θ1′、θ2′、θ3′、θ4′是对当前场景环境做分区的一次参数,并对θ′从小到大进行排序:0<=θ′1<θ′2<θ′3<θ′4<=360,将(θ′1,θ′2)划分为A区,(θ′2,θ3)划分为B区,(θ′3,θ′4)划分为C区,(θ′4,360)并(0,θ′1)划分为D区,完成对路口进行分区。
本发明能够带来以下有益效果:
本发明具有更好的精度和数据的丰富度,提供更丰富的交通参数信息,如检测车辆类型、密度、速度以及交通事故,并且实现成本低,安装维修简单,本发明能用于事故的预警、预防拥堵和自动路径规划,尤其是针对车流量较大场景复杂的情形,本发明提出的方法仍然有较好的效果。同时,通过获得十字路口不同时段的交通流信息还可以进行信号配时,带来了显著的经济效益并且能够提高交通通行效率。
附图说明
图1为交通场景的区域编码样本图像;
图2为交通场景样本图像;
图3为样本标注示例图像;
图4为深度学习训练过程损失曲线图像;
图5为深度学习检测结果图像。
图6为目标检测跟踪结果轨迹显示图像;
图7(a)为十字路口的区域划分样本示例图;
图7(b)为丁字路口的区域划分样本示例图;
图8为实际交通流场景模型图;
图9为实际交通场景参数输入图;
图10为不区分路口车流行驶方向的配时方案;
图11为区分路口车流行驶方向的配时方案;
图12为不区分路口车流行驶方向的配时方案评估结果1;
图13为不区分路口车流行驶方向的配时方案评估结果2;
图14为区分路口车流行驶方向的配时方案评估结果1;
图15为区分路口车流行驶方向的配时方案评估结果2。
具体实施方式
以下给出本发明的具体实施方式,需要说明的是本发明并不局限于以下具体实施例,凡在本申请技术方案基础上做的等同变换均落入本发明的保护范围。
一种面向城市交通信号配时的交通流统计方法,包括如下步骤:
步骤1:采集交通场景的视频,获得视频截图,对视频截图进行分类标注,把标注后的视频截图作为样本集;
步骤2:将步骤1获得的样本集利用YOLO V3算法进行训练,得到检测模型,将交通场景的视频输入检测模型,得到每一帧中图像的像素信息和目标的检测结果信息,其中,视频的第t帧表示为Framet,t表示帧号取值为正整数;
步骤3:创建临时轨迹列表Ts,此时Ts为空,读取步骤2获得的交通场景的视频的Frame1作为当前帧,对Frame1中检测到的每个目标建立新轨迹,并将所有新轨迹加入Ts,更新Frame2作为当前帧,将Frame1中每个目标的检测结果信息作为当前帧Frame2的对应的轨迹终点信息,进入步骤4;
步骤4:设当前帧为Framet,则下一帧为Framet+1,将Framet中每条轨迹终点信息与Framet的目标的检测结果信息进行匹配:将Framet中匹配成功的目标的检测结果信息作为Framet+1中对应的轨迹终点信息,延续轨迹;将Framet中目标检测结果匹配失败的目标的检测结果信息作为新轨迹的起点,创建新轨迹添加至Ts中,此时Framet中新轨迹的起点为Framet+1的轨迹终点信息;将Framet中轨迹终点信息匹配失败的目标利用KCF算法获得Framet中目标对应在Framet+1中对应目标的预测位置信息,延续轨迹,并将轨迹置信度Timer+1;当Framet不是视频的最后一帧时,更新Framet+1作为当前帧执行步骤4,否则执行步骤5;
步骤5:对Ts中的轨迹进行筛选,获得完整轨迹列表TA,设定路口个数并对TA中每条轨迹的起终点进行聚类,获得聚类中心点集合和道路中心点;
步骤6:根据步骤5得到的聚类中心点集合和道路中心点,对路口进行分区,然后计算每条轨迹的角度并根据路口的分区对每条轨迹编码,获得有方向信息的完整轨迹列表TB,对TB进行计数统计;
步骤7:对步骤6得到的计数统计结果,使用Webster配时法进行计算出总周期时间以及各向信号灯时间,从而获取交通场景视频的交通流信息。
具体的,步骤1包括如下子步骤:
步骤1.1:如图2和图3所示,采集交通场景的视频,获得5000张包含公交车、卡车、小汽车、摩托车、自行车、行人等目标的样本图像的视频截图;
步骤1.2:采用图像标注工具对视频截图标注,标注包括对图像中的目标进行目标类别以及图像中的目标位置进行标注,标注后的视频截图作为样本集。
优选的,将标注后的视频截图缩放成720×480大小的尺寸,方便处理。
具体的,步骤2包括如下子步骤:
如图4所示和图5所示,将步骤1获得的样本集利用YOLOV3算法进行训练,得到检测模型,将交通场景的视频输入检测模型,得到每一帧中图像的像素信息和目标的检测结果信息,其中,视频的第t帧表示为Framet,t表示帧号取值为正整数,It表示t帧的图像的像素信息,所述It包括图片的宽度、高度、和面积以及像素信息,为目标的特征提取提供基础,DBt表示t帧的检测结果,且DBt={BBi,i=1,2,…,n},其中BBi表示t帧检测到第i个目标信息,得到每一帧中目标的检测结果信息,所述目标的检测结果信息包括,目标检测包络框的中点坐标(Centx,Centy),目标检测包络框的宽度、高度、面积;
DBt可以为空,代表在当前图像帧中没有检测到目标。
最终我们将It与DBt绑定给Framet作为检测阶段的结果输出,用于后续阶段继续处理,得到检测模型。
具体的,步骤4中匹配的过程为:计算每条轨迹Ti的终点信息Blast和当前帧中对应目标的检测结果信息BBi的重叠率Overlap,重叠率为Blast和BBi所对应的两个矩形框重叠区域的面积与总占有面积的比值,然后计算两个外接矩形框的中心点的像素距离Dis,最后通过Overlap与Dis的加权结果计算Blast和BBi被认为是同一个目标的匹配度MatchValue,若匹配度大于等于阈值则匹配成功,否则匹配失败,所述MatchValue的取值范围为[0,1]。
优选的,步骤4中MatchValue的阈值设置为0.7。
具体的,步骤4中轨迹终点信息匹配失败,利用KCF算法获得Framet中目标对应在Framet+1中对应目标的预测位置信息包括以下两种情况:
若获得了Framet+1中目标的预测位置信息,则将已有目标的预测位置信息更新为Framet+1中轨迹终点信息,延续轨迹,并将Timer+1;
若未获得Framet+1中目标的预测位置信息,则复制Framet的轨迹终点信息作为Framet+1的轨迹终点信息,延续轨迹,并将Timer+1。
具体的,步骤5具体包括如下子步骤:
步骤5.1:对Ts中的轨迹进行筛选,所述筛选条件为:当所选轨迹的Timer>30或轨迹终点信息的目标检测包络框的中点坐标位于视频边界时,将所选轨迹从临时轨迹列表Ts中删除,并将所选轨迹保存到完整轨迹列表TA中,获得完整轨迹列表TA,如图1所示得到车辆轨迹;
步骤5.2:设定路口个数为聚类个数k,并将TA中每条轨迹的起终点输入K-means算法进行聚类,输出聚类中心点集合PA={Pw,w=1,..,k},Pw是第w个聚类中心点,取聚类中心集合PA的中心点为道路中心点PCent。
优选的,如图7所示,步骤5.2中有以下情况当交通场景分别为:十字路口、丁字路口和道路时,设定分别为k=4、k=3和k=2,然后通过获得的k个聚类中心PA,根据三种不同的情况获取其视频场景中道路的中心点,若为十字路口,取其四个聚类中心点构成的四边形的对角线交点;若为丁字路口,取其三个聚类中心点构成的三角形的几何中心;若为道路路口,取其两个聚类中心点连成线段的中点。
具体的,步骤6包括如下子步骤:
步骤6.1:根据步骤5得到的聚类中心点集合PA和道路中心点PCent,建立极坐标系,以PCent为极坐标系的极点且PCent=(x1,y1),以水平向右的方向引一条射线作为极轴,取逆时针方向为角度的正方向,极角坐标θ单位为度,范围为(0,360),设极坐标内另一点P=(x2,y2)通过以下公式计算P的θ值:
当x2>x1并且y2>y1时,θ=360-180/pi*arctan((y2-y1)/(x2-x1));
当x2=x1并且y2>y1时,θ=270;
当x2<x1并且y2>y1时,θ=180-180/pi*arctan((y2-y1)/(x2-x1));
当x2<x1并且y2=y1时,θ=180;
当x2<x1并且y2<y1时,θ=180-180/pi*arCtan((y2-y1)/(x2-x1));
当x2=x1并且y2<y1时,θ=90;
当x2>x1并且y2<y1时,θ=-180/pi*arctan((y2-y1)/(x2-x1));
当x2>x1并且y2=y1时,θ=0;
步骤6.2:取P∈PA,利用步骤6.1中的公式,得到PA中每个聚类中心点的θ值,通过对每个聚类中心点的θ值进行排序完成对路口进行分区;
步骤6.3:取P∈每条轨迹的起终点信息,利用步骤6.1中的公式计算每条轨迹的角度并根据路口的分区对每条轨迹编码,获得有方向信息的完整轨迹列表TB,对TB按照左转、右转和直行三个方进行计数统计。
优选的,步骤6.2中的交通场景为十字路口,聚类中心点个数k=4,计算出四个聚类中心点对应角度θ1、θ2、θ3、θ4,对θ1、θ2、θ3、θ4从小到大进行排序:0<=θ1<θ2<θ3<θ4<=360,然后计算其中θ1′、θ2′、θ3′、θ4′是对当前场景环境做分区的一次参数,并对θ′从小到大进行排序:0<=θ′1<θ′2<θ′3<θ′4<=360,将(θ′1,θ′2)划分为A区,(θ′2,θ′3)划分为B区,(θ′3,θ′4)划分为C区,(θ′4,360)并(0,θ′1)划分为D区,完成对路口进行分区。优选的,如图1所示可依此类推,丁字路口划分为三个区(ABC)和道路划分为两个区(AB)。
表1是一个小时内的交通视频获得的详细交通流统计结果的样本示例
实施例:
如图8为通过Synchro对实际场景交通流模型的创建以及仿真。十字路口每个车道的车流量数值是通过人工计数实现,按照实际交通场景下的道路情况将饱和交通流量、道路渠化方案、各路口不同方向车流量等输入***中,如图9所示。
将十字路口各相车道小时车流量结合车道口实际情况应用于路口信号灯配时方案的设计,通过目前信号配时领域效果显著的Webster法进行信号的计算,采用Webster法时必须知道各相信号相关参数。由于右转的车辆不受信号灯的控制且传统的计数方法无法明确区分车道口行驶各向车流量,只有该车道行驶车量总数。因此假设目前只知道各相车道行驶车流量总数,通过Webster法进行信号配时方案的设计,设计结果如图10所示。紧接着采用本专利模型计数结果,忽略右转车辆后通过Webster法进行信号配时方案的设计,设计结果如图11所示。
最后,为了说明本专利方案的优点将上述两种情况下模型的仿真结果进行***评估,输出评估报告,部分报告如图12、13、14和15所示。
图14、15为通过本专利模型区分路口车辆行驶方向,即各行驶方向车流量均知晓的情况下进行的评估结果。美国交通能力通行手册按照路口的车辆行驶情况将LOS(服务水平)分为A~H共8个等级。
通过图12和图14对比发现,经过区分路口车辆行驶方向后的配时方案结果中个车道的LOS等级明显提高。并且经过对比明显经过区分路口车辆行驶方向的配时方案中各Total Delay(车辆延误)显著降低,平均延误降低了2.2s。通过专利模型的优化,使得整个路口内部的评级也提高了一个等级,由B级提升至A级,结果通过图13和图15中的Ihtersection LOS等级对比可以看出。
Claims (9)
1.一种面向城市交通信号配时的交通流统计方法,包括如下步骤:
步骤1:采集交通场景的视频,获得视频截图,对视频截图进行分类标注,把标注后的视频截图作为样本集;
步骤2:将步骤1获得的样本集利用YOLO V3算法进行训练,得到检测模型,将交通场景的视频输入检测模型,得到每一帧中图像的像素信息和目标的检测结果信息,其中,视频的第t帧表示为Framet,t表示帧号取值为正整数;
其特征在于,还包括以下步骤:
步骤3:创建临时轨迹列表Ts,此时Ts为空,读取步骤2获得的交通场景的视频的Frame1作为当前帧,对Frame1中检测到的每个目标建立新轨迹,并将所有新轨迹加入Ts,更新Frame2作为当前帧,将Frame1中每个目标的检测结果信息作为当前帧Frame2的对应的轨迹终点信息,进入步骤4;
步骤4:设当前帧为Framet,则下一帧为Framet+1,将Framet中每条轨迹终点信息与Framet的目标的检测结果信息进行匹配:将Framet中匹配成功的目标的检测结果信息作为Framet+1中对应的轨迹终点信息,延续轨迹;将Framet中目标检测结果匹配失败的目标的检测结果信息作为新轨迹的起点,创建新轨迹添加至Ts中,此时Framet中新轨迹的起点为Framet+1的轨迹终点信息;将Framet中轨迹终点信息匹配失败的目标利用KCF算法获得Framet中目标对应在Framet+1中对应目标的预测位置信息,延续轨迹,并将轨迹置信度Timer+1;当Framet不是视频的最后一帧时,更新Framet+1作为当前帧执行步骤4,否则执行步骤5;
步骤5:对Ts中的轨迹进行筛选,获得完整轨迹列表TA,设定路口个数并对TA中每条轨迹的起终点进行聚类,获得聚类中心点集合和道路中心点;
步骤6:根据步骤5得到的聚类中心点集合和道路中心点,对路口进行分区,然后计算每条轨迹的角度并根据路口的分区对每条轨迹编码,获得有方向信息的完整轨迹列表TB,对TB进行计数统计;
步骤7:对步骤6得到的计数统计结果,使用Webster配时法进行计算出总周期时间以及各向信号灯时间,从而获取交通场景视频的交通流信息。
2.如权利要求1所述的面向城市交通信号配时的交通流统计方法,其特在于,步骤1包括如下子步骤:
步骤1.1:采集交通场景的视频,获得5000张包含公交车、卡车、小汽车、摩托车、自行车、行人等目标的样本图像的视频截图;
步骤1.2:采用图像标注工具对视频截图标注,所述标注包括对图像中的目标进行目标类别以及图像中的目标位置进行标注,标注后的视频截图作为样本集。
3.如权利要求1所述的面向城市交通信号配时的交通流统计方法,其特在于,步骤2包括如下子步骤:
将步骤1获得的样本集利用YOLOV3算法进行训练,得到检测模型,将交通场景的视频输入检测模型,得到每一帧中图像的像素信息和目标的检测结果信息,其中,视频的第t帧表示为Framet,t表示帧号取值为正整数,It表示t帧的图像的像素信息,所述It包括图片的宽度、高度、和面积以及像素信息,DBt表示t帧的检测结果,且DBt={BBi,i=1,2,…,n},其中BBi表示t帧检测到第i个目标信息,得到每一帧中目标的检测结果信息,所述目标的检测结果信息包括,目标检测包络框的中点坐标,目标检测包络框的宽度、高度、面积。
4.如权利要求1所述的面向城市交通信号配时的交通流统计方法,其特在于,步骤4中匹配的过程为:计算每条轨迹Ti的终点信息Blast和当前帧中对应目标的检测结果信息BBi的重叠率Overlap,重叠率为Blast和BBi所对应的两个矩形框重叠区域的面积与总占有面积的比值,然后计算两个外接矩形框的中心点的像素距离Dis,最后通过Overlap与Dis的加权结果计算Blast和BBi被认为是同一个目标的匹配度MatchValue,若匹配度大于等于阈值则匹配成功,否则匹配失败,所述MatchValue的取值范围为[0,1]。
5.如权利要求4所述的面向城市交通信号配时的交通流统计方法,其特在于,步骤4中所述MatchValue设置为0.7。
6.如权利要求1所述的面向城市交通信号配时的交通流统计方法,其特在于,步骤4中轨迹终点信息匹配失败,利用KCF算法获得Framet中目标对应在Framet+1中对应目标的预测位置信息包括以下两种情况:
若获得了Framet+1中目标的预测位置信息,则将已有目标的预测位置信息更新为Framet+1中轨迹终点信息,延续轨迹,并将Timer+1;
若未获得Framet+1中目标的预测位置信息,则复制Framet的轨迹终点信息作为Framet+1的轨迹终点信息,延续轨迹,并将Timer+1。
7.如权利要求1所述的面向城市交通信号配时的交通流统计方法,其特在于,步骤5具体包括如下子步骤:
步骤5.1:对Ts中的轨迹进行筛选,所述筛选条件为:当所选轨迹的Timer>30或轨迹终点信息的目标检测包络框的中点坐标位于视频边界时,将所选轨迹从临时轨迹列表Ts中删除,并将所选轨迹保存到完整轨迹列表TA中,获得完整轨迹列表TA;
步骤5.2:设定路口个数为聚类个数k,并将TA中每条轨迹的起终点输入K-means算法进行聚类,输出聚类中心点集合PA={Pw,w=1,..,k},Pw是第w个聚类中心点,取聚类中心集合PA的中心点为道路中心点PCent。
8.如权利要求1所述的面向城市交通信号配时的交通流统计方法,其特在于,步骤6包括如下子步骤:
步骤6.1:根据步骤5得到的聚类中心点集合PA和道路中心点PCent,建立极坐标系,以PCent为极坐标系的极点且PCent=(x1,y1),以水平向右的方向引一条射线作为极轴,取逆时针方向为角度的正方向,极角坐标θ单位为度,范围为(0,360),设极坐标内另一点P=(x2,y2)通过以下公式计算P的θ值:
当x2>x1并且y2>y1时,θ=360-180/pi*arctan((y2-y1)/(x2-x1));
当x2=x1并且y2>y1时,θ=270;
当x2<x1并且y2>y1时,θ=180-180/pi*arctan((y2-y1)/(x2-x1));
当x2<x1并且y2=y1时,θ=180;
当x2<x1并且y2<y1时,θ=180-180/pi*arctan((y2-y1)/(x2-x1));
当x2=x1并且y2<y1时,θ=90;
当x2>x1并且y2<y1时,θ=-180/pi*arctan((y2-y1)/(x2-x1));
当x2>x1并且y2=y1时,θ=0;
步骤6.2:取P∈PA,利用步骤6.1中的公式,得到PA中每个聚类中心点的θ值,通过对每个聚类中心点的θ值进行排序完成对路口进行分区;
步骤6.3:取P∈每条轨迹的起终点信息,利用步骤6.1中的公式计算每条轨迹的角度并根据路口的分区对每条轨迹编码,获得有方向信息的完整轨迹列表TB,对TB按照左转、右转和直行三个方进行计数统计。
9.如权利要求8所述的面向城市交通信号配时的交通流统计方法,其特在于,步骤6.2中的交通场景为十字路口,聚类中心点个数k=4,计算出四个聚类中心点对应角度θ1、θ2、θ3、θ4,对θ1、θ2、θ3、θ4从小到大进行排序:0<=θ1<θ2<θ3<θ4<=360,然后计算其中θ1'、θ2'、θ3'、θ4'是对当前场景环境做分区的一次参数,并对θ'从小到大进行排序:0<=θ'1<θ'2<θ'3<θ'4<=360,将(θ'1,θ'2)划分为A区,(θ'2,θ'3)划分为B区,(θ'3,θ'4)划分为C区,(θ'4,360)并(0,θ'1)划分为D区,完成对路口进行分区。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811540864.7A CN109584558A (zh) | 2018-12-17 | 2018-12-17 | 一种面向城市交通信号配时的交通流统计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811540864.7A CN109584558A (zh) | 2018-12-17 | 2018-12-17 | 一种面向城市交通信号配时的交通流统计方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109584558A true CN109584558A (zh) | 2019-04-05 |
Family
ID=65929718
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811540864.7A Pending CN109584558A (zh) | 2018-12-17 | 2018-12-17 | 一种面向城市交通信号配时的交通流统计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109584558A (zh) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109935080A (zh) * | 2019-04-10 | 2019-06-25 | 武汉大学 | 一种交通线路上的车流量实时计算的监测***及方法 |
CN110033479A (zh) * | 2019-04-15 | 2019-07-19 | 四川九洲视讯科技有限责任公司 | 基于交通监控视频的交通流参数实时检测方法 |
CN110319844A (zh) * | 2019-06-14 | 2019-10-11 | 武汉理工大学 | 用于车路协同环境下交叉路口表达及车路目标匹配的方法 |
CN110633678A (zh) * | 2019-09-19 | 2019-12-31 | 北京同方软件有限公司 | 一种基于视频图像的快速高效的车流量计算方法 |
CN110706266A (zh) * | 2019-12-11 | 2020-01-17 | 北京中星时代科技有限公司 | 一种基于YOLOv3的空中目标跟踪方法 |
CN110728842A (zh) * | 2019-10-23 | 2020-01-24 | 江苏智通交通科技有限公司 | 基于路口车辆合理行驶范围的异常行驶预警方法 |
CN111223310A (zh) * | 2020-01-09 | 2020-06-02 | 阿里巴巴集团控股有限公司 | 一种信息处理方法、装置及电子设备 |
CN111554105A (zh) * | 2020-05-29 | 2020-08-18 | 浙江科技学院 | 一种复杂交通路口的智能流量识别与统计方法 |
CN111738056A (zh) * | 2020-04-27 | 2020-10-02 | 浙江万里学院 | 一种基于改进YOLO v3的重卡盲区目标检测方法 |
CN111882861A (zh) * | 2020-06-06 | 2020-11-03 | 浙江工业大学 | 一种基于边云融合的在线交通事件感知*** |
CN111915904A (zh) * | 2019-05-07 | 2020-11-10 | 阿里巴巴集团控股有限公司 | 一种轨迹处理方法、装置及电子设备 |
CN112258745A (zh) * | 2020-12-21 | 2021-01-22 | 上海富欣智能交通控制有限公司 | 移动授权终点确定方法、装置、车辆和可读存储介质 |
CN112652161A (zh) * | 2019-10-12 | 2021-04-13 | 阿里巴巴集团控股有限公司 | 一种车流路径分布信息的处理方法、装置、及电子设备 |
CN113052118A (zh) * | 2021-04-07 | 2021-06-29 | 上海浩方信息技术有限公司 | 基于高速快球摄像机实现场景变换视频分析检测的方法、***、装置、处理器及存储介质 |
CN113112827A (zh) * | 2021-04-14 | 2021-07-13 | 深圳市旗扬特种装备技术工程有限公司 | 一种智能交通调控方法及智能交通调控*** |
CN113327248A (zh) * | 2021-08-03 | 2021-08-31 | 四川九通智路科技有限公司 | 一种基于视频的隧道车流量统计方法 |
CN113593219A (zh) * | 2021-06-30 | 2021-11-02 | 北京百度网讯科技有限公司 | 车流的统计方法、装置、电子设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103049751A (zh) * | 2013-01-24 | 2013-04-17 | 苏州大学 | 一种改进的加权区域匹配高空视频行人识别方法 |
CN104966045A (zh) * | 2015-04-02 | 2015-10-07 | 北京天睿空间科技有限公司 | 一种基于视频的飞机进出泊位自动检测方法 |
AU2011352412B2 (en) * | 2010-12-30 | 2016-07-07 | Pelco Inc. | Scene activity analysis using statistical and semantic feature learnt from object trajectory data |
CN108320510A (zh) * | 2018-04-03 | 2018-07-24 | 深圳市智绘科技有限公司 | 一种基于无人机航拍视频交通信息统计方法及*** |
CN108846854A (zh) * | 2018-05-07 | 2018-11-20 | 中国科学院声学研究所 | 一种基于运动预测与多特征融合的车辆跟踪方法 |
CN108960286A (zh) * | 2018-06-01 | 2018-12-07 | 深圳市茁壮网络股份有限公司 | 一种目标跟踪定位方法及装置 |
CN109005409A (zh) * | 2018-07-27 | 2018-12-14 | 浙江工业大学 | 一种基于目标检测与跟踪的智能视频编码方法 |
-
2018
- 2018-12-17 CN CN201811540864.7A patent/CN109584558A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2011352412B2 (en) * | 2010-12-30 | 2016-07-07 | Pelco Inc. | Scene activity analysis using statistical and semantic feature learnt from object trajectory data |
CN103049751A (zh) * | 2013-01-24 | 2013-04-17 | 苏州大学 | 一种改进的加权区域匹配高空视频行人识别方法 |
CN104966045A (zh) * | 2015-04-02 | 2015-10-07 | 北京天睿空间科技有限公司 | 一种基于视频的飞机进出泊位自动检测方法 |
CN108320510A (zh) * | 2018-04-03 | 2018-07-24 | 深圳市智绘科技有限公司 | 一种基于无人机航拍视频交通信息统计方法及*** |
CN108846854A (zh) * | 2018-05-07 | 2018-11-20 | 中国科学院声学研究所 | 一种基于运动预测与多特征融合的车辆跟踪方法 |
CN108960286A (zh) * | 2018-06-01 | 2018-12-07 | 深圳市茁壮网络股份有限公司 | 一种目标跟踪定位方法及装置 |
CN109005409A (zh) * | 2018-07-27 | 2018-12-14 | 浙江工业大学 | 一种基于目标检测与跟踪的智能视频编码方法 |
Non-Patent Citations (1)
Title |
---|
孙亚等: "基于视频的交通参数智能提取方法研究", 《科技创新导报》 * |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109935080A (zh) * | 2019-04-10 | 2019-06-25 | 武汉大学 | 一种交通线路上的车流量实时计算的监测***及方法 |
CN109935080B (zh) * | 2019-04-10 | 2021-07-16 | 武汉大学 | 一种交通线路上的车流量实时计算的监测***及方法 |
CN110033479A (zh) * | 2019-04-15 | 2019-07-19 | 四川九洲视讯科技有限责任公司 | 基于交通监控视频的交通流参数实时检测方法 |
CN110033479B (zh) * | 2019-04-15 | 2023-10-27 | 四川九洲视讯科技有限责任公司 | 基于交通监控视频的交通流参数实时检测方法 |
CN111915904A (zh) * | 2019-05-07 | 2020-11-10 | 阿里巴巴集团控股有限公司 | 一种轨迹处理方法、装置及电子设备 |
CN110319844A (zh) * | 2019-06-14 | 2019-10-11 | 武汉理工大学 | 用于车路协同环境下交叉路口表达及车路目标匹配的方法 |
CN110319844B (zh) * | 2019-06-14 | 2022-12-27 | 武汉理工大学 | 用于车路协同环境下交叉路口表达及车路目标匹配的方法 |
CN110633678A (zh) * | 2019-09-19 | 2019-12-31 | 北京同方软件有限公司 | 一种基于视频图像的快速高效的车流量计算方法 |
CN110633678B (zh) * | 2019-09-19 | 2023-12-22 | 北京同方软件有限公司 | 一种基于视频图像的快速高效的车流量计算方法 |
CN112652161A (zh) * | 2019-10-12 | 2021-04-13 | 阿里巴巴集团控股有限公司 | 一种车流路径分布信息的处理方法、装置、及电子设备 |
CN110728842A (zh) * | 2019-10-23 | 2020-01-24 | 江苏智通交通科技有限公司 | 基于路口车辆合理行驶范围的异常行驶预警方法 |
CN110728842B (zh) * | 2019-10-23 | 2021-10-08 | 江苏智通交通科技有限公司 | 基于路口车辆合理行驶范围的异常行驶预警方法 |
CN110706266A (zh) * | 2019-12-11 | 2020-01-17 | 北京中星时代科技有限公司 | 一种基于YOLOv3的空中目标跟踪方法 |
CN110706266B (zh) * | 2019-12-11 | 2020-09-15 | 北京中星时代科技有限公司 | 一种基于YOLOv3的空中目标跟踪方法 |
CN111223310A (zh) * | 2020-01-09 | 2020-06-02 | 阿里巴巴集团控股有限公司 | 一种信息处理方法、装置及电子设备 |
CN111223310B (zh) * | 2020-01-09 | 2022-07-15 | 阿里巴巴集团控股有限公司 | 一种信息处理方法、装置及电子设备 |
CN111738056B (zh) * | 2020-04-27 | 2023-11-03 | 浙江万里学院 | 一种基于改进YOLO v3的重卡盲区目标检测方法 |
CN111738056A (zh) * | 2020-04-27 | 2020-10-02 | 浙江万里学院 | 一种基于改进YOLO v3的重卡盲区目标检测方法 |
CN111554105B (zh) * | 2020-05-29 | 2021-08-03 | 浙江科技学院 | 一种复杂交通路口的智能流量识别与统计方法 |
CN111554105A (zh) * | 2020-05-29 | 2020-08-18 | 浙江科技学院 | 一种复杂交通路口的智能流量识别与统计方法 |
CN111882861A (zh) * | 2020-06-06 | 2020-11-03 | 浙江工业大学 | 一种基于边云融合的在线交通事件感知*** |
CN112258745A (zh) * | 2020-12-21 | 2021-01-22 | 上海富欣智能交通控制有限公司 | 移动授权终点确定方法、装置、车辆和可读存储介质 |
CN113052118A (zh) * | 2021-04-07 | 2021-06-29 | 上海浩方信息技术有限公司 | 基于高速快球摄像机实现场景变换视频分析检测的方法、***、装置、处理器及存储介质 |
CN113112827A (zh) * | 2021-04-14 | 2021-07-13 | 深圳市旗扬特种装备技术工程有限公司 | 一种智能交通调控方法及智能交通调控*** |
CN113593219A (zh) * | 2021-06-30 | 2021-11-02 | 北京百度网讯科技有限公司 | 车流的统计方法、装置、电子设备及存储介质 |
CN113593219B (zh) * | 2021-06-30 | 2023-02-28 | 北京百度网讯科技有限公司 | 车流的统计方法、装置、电子设备及存储介质 |
CN113327248A (zh) * | 2021-08-03 | 2021-08-31 | 四川九通智路科技有限公司 | 一种基于视频的隧道车流量统计方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109584558A (zh) | 一种面向城市交通信号配时的交通流统计方法 | |
US11436919B2 (en) | Method and apparatus for determining driving strategy of a vehicle | |
CN108550269B (zh) | 基于毫米波雷达的交通流量检测***及其检测方法 | |
EP0454166B1 (en) | Traffic flow measuring method and apparatus | |
Yang et al. | Generating lane-based intersection maps from crowdsourcing big trace data | |
CN106297330B (zh) | 减少行人过街对平面感知信号控制效率影响的方法及*** | |
CN109993969A (zh) | 一种路况判定信息获取方法、装置及设备 | |
CN105046985A (zh) | 基于大数据的主干道全路段的交通控制*** | |
CN114333330B (zh) | 一种基于路侧边缘全息感知的交叉口事件检测*** | |
CN109697420A (zh) | 一种面向城市交通的移动目标检测及跟踪方法 | |
US20240013553A1 (en) | Infrastructure element state model and prediction | |
CN112069944A (zh) | 一种道路拥堵等级确定方法 | |
CN109712401B (zh) | 一种基于浮动车轨迹数据的复合路网瓶颈点识别方法 | |
CN108877269A (zh) | 一种交叉路口车辆状态检测及v2x广播方法 | |
CN108154146A (zh) | 一种基于图像识别的车辆追踪方法 | |
CN110379168A (zh) | 一种基于Mask R-CNN的交通车辆信息获取方法 | |
Wang et al. | A roadside camera-radar sensing fusion system for intelligent transportation | |
US20240046787A1 (en) | Method And System For Traffic Clearance At Signalized Intersections Based On Lidar And Trajectory Prediction | |
CN109272482A (zh) | 一种基于序列图像的城市路口车辆排队检测*** | |
CN106778484A (zh) | 交通场景下的运动车辆跟踪方法 | |
Xiong et al. | Vehicle re-identification with image processing and car-following model using multiple surveillance cameras from urban arterials | |
Minnikhanov et al. | Detection of traffic anomalies for a safety system of smart city | |
Ruan et al. | A review of occluded objects detection in real complex scenarios for autonomous driving | |
CN109410608B (zh) | 基于卷积神经网络的图片自学习交通信号控制方法 | |
CN106448191A (zh) | 一种能兼顾行人的平面感知路***通信号控制方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190405 |