CN109766846B - 一种基于视频的自适应多车道车流检测方法及*** - Google Patents
一种基于视频的自适应多车道车流检测方法及*** Download PDFInfo
- Publication number
- CN109766846B CN109766846B CN201910034729.3A CN201910034729A CN109766846B CN 109766846 B CN109766846 B CN 109766846B CN 201910034729 A CN201910034729 A CN 201910034729A CN 109766846 B CN109766846 B CN 109766846B
- Authority
- CN
- China
- Prior art keywords
- lane
- image
- video image
- background model
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于视频的自适应多车道车流检测方法及***,所述方法包括:步骤1,根据获取的车道视频图像建立车道模型和背景模型;步骤2,利用建立的车道模型和背景模型对车道视频图像中的车辆进行识别。本发明通过建立背景模型进行车辆检测的同时,通过建立车道模型实现了分车道的车辆检测。
Description
技术领域
本发明涉及交通流检测领域,尤其是一种基于视频的自适应多车道车流检测方法及***。
背景技术
车流数据采集是智能交通***的基础,而基于视频的采集***应用广泛。采集***输入交通监控摄像头的视频数据,从画面中识别道路中的车辆,进行计数,输出时序数据。现有的采集***只能针对道路整体车流情况进行采集。对于有多条车道的情况,不能分别采集各车道的车流数据,而分车道的车流数据对于有智能交通***更加有用。此外,现有的***对于道路环境光照变化的可抗性较低,影响车流统计的准确率。
发明内容
本发明所要解决的技术问题是:针对上述存在的问题,提供一种基于视频的自适应多车道车流检测方法及***,对多车道车流数据进行分别采集。
本发明采用的技术方案如下:
一种基于视频的自适应多车道车流检测方法,包括:
步骤1,根据获取的车道视频图像建立车道模型和背景模型;
步骤2,利用建立的车道模型和背景模型对车道视频图像中的车辆进行识别。
进一步地,步骤1中,根据获取的车道视频图像建立车道模型的方法具体为:
步骤1.1.1,根据车道线颜色在HLS颜色空间中对车道视频图像进行过滤;
步骤1.1.2,将经步骤1.1.1过滤后的车道视频图像通过形态学操作去除噪声,得到候选像素;
步骤1.1.3,对候选像素采用Hough变换进行直线拟合,得到候选直线;
步骤1.1.4,对候选直线采用计算直线消失点的方式,提取出车道线;
步骤1.1.5,通过使用提取出的车道线将车道视频图像划分为对应不同车道的纵向区域,建立车道模型。
进一步地,步骤1中,根据获取的车道视频图像建立背景模型的方法具体为:
步骤1.2.1,获取车道视频图像的前T帧图像;
步骤1.2.2,累加前T帧图像后,计算像素值平均值avg;累加前T帧图像的帧差后,计算帧差平均值diff;
步骤1.2.3,以在(avg-diff)~(avg+diff)范围内的像素值建立背景模型。
进一步地,步骤1中,在建立背景模型后,通过评估平均亮度更新背景模型,具体包括:
步骤1.3.1,在建立背景模型后,计算并存储建立的背景模型的平均亮度;
步骤1.3.2,计算后续获取的车道视频图像的平均亮度;
步骤1.3.3,比较当前的背景模型的平均亮度与后续获取的车道视频图像的平均亮度的差值,若差值大于平均亮度设定阈值,则更新背景模型。
进一步地,所述平均亮度的计算方法具体为:
步骤1.4.1,将图像转换到YUV色彩空间,并提取出Y通道灰度图像;
步骤1.4.2,计算Y通道灰度图像的灰度直方图,并判断所述灰度直方图的亮度值大于光斑亮度设定阈值的比例是否超过光斑比例设定阈值:若未超过,则将所述灰度直方图的均值作为平均亮度;若超过,则使用最大亮度值作为种子在Y通道灰度图像中寻找连通域,并从Y通道灰度图像中剔除找到的连通域,然后将剔除连通域后的Y通道灰度图像的灰度直方图的均值作为平均亮度。
进一步地,步骤2中,利用建立的车道模型和背景模型对车道视频图像中的车辆进行识别的方法具体为:
步骤2.1,将车道视频图像的当前帧与背景模型进行背景差分,得到前景目标图像;
步骤2.2,对所述前景目标图像进行形态学操作,然后查找连通区域,并将查找到的连通区域作为候选目标;
步骤2.3,对候选目标进行车辆识别;
步骤2.4,利用车道模型判断识别到的车辆所在车道,并以分车道的车辆识别结果进行输出。
进一步地,步骤2.3,对候选目标进行车辆识别的方法具体为:在图像的一定位置设置虚拟线圈,若候选目标进入虚拟线圈则根据车辆的形态特征和候选目标在虚拟线圈中的持续时间判断候选目标是否为车辆。
一种自适应多车道车流检测***,连接有用于获取车道视频图像的交通监控摄像头;所述自适应多车道车流检测***包括:
车道检测模块,用于根据获取的车道视频图像建立车道模型;
背景检测模块,用于根据获取的车道视频图像建立背景模型;
车辆检测模块,用于利用建立的车道模型和背景模型对车道视频图像中的车辆进行识别。
进一步地,所述自适应多车道车流检测***,还包括:
背景更新模块,用于在所述背景检测模块建立背景模型后,通过评估平均亮度更新背景模型。
综上所述,由于采用了上述技术方案,本发明的有益效果是:
本发明通过建立背景模型进行车辆检测的同时,通过建立车道模型实现了分车道的车辆检测;同时,采用平均背景法建立背景模型,并通过评估平均亮度更新背景模型,在减小了计算量的同时,保证***鲁棒性,对于随时间变化的光照可抗。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明的自适应多车道车流检测方法流程图。
图2为本发明的建立车道模型的方法流程图。
图3为本发明的建立背景模型的方法流程图。
图4为本发明的更新背景模型的判断流程图。
图5为本发明的利用背景模型和车道模型进行车辆识别的方法流程图。
图6为本发明的自适应多车道车流检测***结构框图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明,即所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
以下结合实施例对本发明的特征和性能作进一步的详细描述。
实施例1
本实施例提供的一种基于视频的自适应多车道车流检测方法,如图1所示,包括:
步骤1,根据获取的车道视频图像建立车道模型和背景模型;
步骤2,利用建立的车道模型和背景模型对车道视频图像中的车辆进行识别。
其中,如图2所示,所述步骤1,根据获取的车道视频图像建立车道模型的方法具体为:
步骤1.1.1,根据车道线颜色在HLS颜色空间中对车道视频图像进行过滤;
常见的车道线颜色采用白、黄两种颜色,由此,将获取的车道视频图像在HLS颜色空间中进行颜色过滤。
首先,设置白、黄颜色各自在HLS颜色空间的颜色范围:
hmin 1≤Hyellow≤hmax 1,smin 1≤Syellow≤smax 1,lmin 1≤Lyellow≤lmax 1;
hmin 2≤Hwhite≤hmax 2,smin 2≤Swhite≤smax 2,lmin 2≤Lwhite≤lmax 2;
然后,在白、黄颜色各自的颜色范围内,对获取的车道视频图像进行二值化,将得到的两幅二值图像通过或操作合并为一副过滤了白、黄颜色的二值图像。在实际实施中,
黄颜色在HLS颜色空间的颜色范围可取:
30≤Hyellow≤60,0.75≤Syellow≤1.0,0.5≤Lyellow≤0.7;
白颜色在HLS颜色空间的颜色范围可取:
0≤Hwhite≤360,0.0≤Swhite≤0.2,0.95≤Lyellow≤1.0。
步骤1.1.2,将经步骤1.1.1过滤后的车道视频图像通过形态学操作去除噪声,得到候选像素;具体将步骤1.1.1得到的过滤了白、黄颜色的二值图像先进行腐蚀操作,去除噪点;然后进行图像膨胀,减少对车道线的影响。此过程可以根据需要重复进行多次。
步骤1.1.3,对候选像素采用Hough变换进行直线拟合,得到候选直线;具体地,在经过步骤1.1.2处理后的具有候选像素的图像中,通过设置虚拟线的方式划分出感兴趣区域,排除其他道路的干扰。根据车道上的摄像头的不同位置,虚拟线与图像边缘的夹角在15-20度之间。然后使用Hough变换,在感兴趣区域中对候选像素进行直线拟合,得到一簇候选直线。
步骤1.1.4,对候选直线采用计算直线消失点的方式,提取出车道线;具体地,计算步骤1.1.3得到的一簇候选直线的消失点,即图像上方的交点。而考虑可能受到其他非车道线直线的干扰,得到的可能有多个交点,设得到的多个交点为(xn,yn),选取离图像中心最近的交点,即其中,width为图像的宽度,以通过所选取的离图像中心最近的交点的直线作为车道线。
步骤1.1.5,通过使用提取出的车道线将车道视频图像划分为对应不同车道的纵向区域,建立车道模型。
其中,如图3所示,步骤1,根据获取的车道视频图像建立背景模型的方法具体为:
步骤1.2.1,获取车道视频图像的前T帧图像;
步骤1.2.2,累加前T帧图像后,计算像素值平均值avg;累加前T帧图像的帧差后,计算帧差平均值diff;
步骤1.2.3,以在(avg-diff)~(avg+diff)范围内的像素值建立背景模型。
进一步地,如图4所示,步骤1中,在建立背景模型后,通过评估平均亮度更新背景模型,具体包括:
步骤1.3.1,在建立背景模型后,计算并存储建立的背景模型的平均亮度;
步骤1.3.2,计算后续获取的车道视频图像的平均亮度;
步骤1.3.3,比较当前的背景模型的平均亮度与后续获取的车道视频图像的平均亮度的差值,若差值大于平均亮度设定阈值,则更新背景模型。更新背景模型时的背景模型的生成方法与上述步骤1中,根据获取的车道视频图像建立背景模型的方法一致。
在实际使用时,可以每隔一定帧数后计算当前图像帧的平均亮度,间隔的一定帧数影响背景模型的更新频率,依据实际采用的器件的性能,可以每一帧均进行平均亮度的重新评估,也可以根据实际光照变化、硬件性能等因素适当的设置。同理,平均亮度设定阈值影响使用背景模型进行车辆检测的检测精度,也可以根据实际需要进行设置。
其中,所述平均亮度的计算方法具体为:
步骤1.4.1,将图像(当前的背景模型或后续的车道视频图像)转换到YUV色彩空间,并提取出Y通道灰度图像;
步骤1.4.2,计算Y通道灰度图像的灰度直方图,并判断所述灰度直方图的亮度值大于光斑亮度设定阈值的比例是否超过光斑比例设定阈值:若未超过,则将所述灰度直方图的均值作为平均亮度;若超过,则使用最大亮度值作为种子在Y通道灰度图像中寻找连通域,并从Y通道灰度图像中剔除找到的连通域,然后将剔除连通域后的Y通道灰度图像的灰度直方图的均值作为平均亮度。
其中,如图5所示,步骤2,利用建立的车道模型和背景模型对车道视频图像中的车辆进行识别的方法具体为:
步骤2.1,将车道视频图像的当前帧与背景模型进行背景差分,得到前景目标图像;
步骤2.2,对所述前景目标图像进行形态学操作,然后查找连通区域,并将查找到的连通区域作为候选目标;具体地,对所述前景目标图像进行开操作和闭操作后,再进行二值化,以相同像素值的区域作为连通区域。
步骤2.3,对候选目标进行车辆识别;具体地,在图像的一定位置设置虚拟线圈,若候选目标进入虚拟线圈则根据车辆的形态特征(车辆在处理过的图像中呈团块状,一般类似为矩形)和候选目标在虚拟线圈中的持续时间(可根据图像帧数进行计算,一般取值5~10帧)判断候选目标是否为车辆。
步骤2.4,利用车道模型判断识别到的车辆所在车道,并以分车道的车辆识别结果进行输出。
实施例2
基于实施例1提供的一种自适应多车道车流检测方法,本实施例提供的一种自适应多车道车流检测***,如图6所示,连接有用于获取车道视频图像的交通监控摄像头;为保证车辆识别精度,优选所述交通监控摄像头获取的车道视频图像为彩色图像,分辨率优选高于640x480,帧率优选大于20FPS。所述交通监控摄像头与地面的夹角为30~60°,与道路方向的夹角不超过15°。
所述自适应多车道车流检测***包括:
车道检测模块,用于根据获取的车道视频图像建立车道模型;由于交通监控摄像头固定放置,车道检测模块只需要在***初始化时运行一次。需要注意的是,若交通监控摄像头因检修、维护、更换等因素造成位置变动,均需要重新运行车道检测模块;
背景检测模块,用于根据获取的车道视频图像建立背景模型;
车辆检测模块,用于利用建立的车道模型和背景模型对车道视频图像中的车辆进行识别。
进一步地,所述自适应多车道车流检测***,还包括:
背景更新模块,用于在所述背景检测模块建立背景模型后,通过评估平均亮度更新背景模型。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的自适应多车道车流检测***以及其各功能模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (7)
1.一种基于视频的自适应多车道车流检测方法,其特征在于,包括:
步骤1,根据获取的车道视频图像建立车道模型和背景模型;
步骤2,利用建立的车道模型和背景模型对车道视频图像中的车辆进行识别;
根据获取的车道视频图像建立车道模型的方法具体为:
步骤1.1.1,根据车道线颜色在HLS颜色空间中对车道视频图像进行过滤:
首先,设置白、黄颜色各自在HLS颜色空间的颜色范围:
hmin1≤Hyellow≤hmax1,smin1≤Syellow≤smax1,lmin1≤Lyellow≤lmax1;
hmin2≤Hwhite≤hmax2,smin2≤Swhite≤smax2,lmin2≤Lwhite≤lmax2;
然后,在白、黄颜色各自的颜色范围内,对获取的车道视频图像进行二值化,将得到的两幅二值图像通过或操作合并为一副过滤了白、黄颜色的二值图像;
黄颜色在HLS颜色空间的颜色范围取:
30≤Hyellow≤60,0.75≤Syellow≤1.0,0.5≤Lyellow≤0.7;
白颜色在HLS颜色空间的颜色范围取:
0≤Hwhite≤360,0.0≤Swhite≤0.2,0.95≤Lyellow≤1.0;
步骤1.1.2,将经步骤1.1.1过滤后的车道视频图像通过形态学操作去除噪声,得到候选像素:将步骤1.1.1得到的过滤了白、黄颜色的二值图像先进行腐蚀操作,去除噪点;然后进行图像膨胀,减少对车道线的影响;此过程重复进行多次;
步骤1.1.3,对候选像素采用Hough变换进行直线拟合,得到候选直线:在经过步骤1.1.2处理后的具有候选像素的图像中,通过设置虚拟线的方式划分出感兴趣区域,排除其他道路的干扰;根据车道上的摄像头的不同位置,虚拟线与图像边缘的夹角在15-20度之间;然后使用Hough变换,在感兴趣区域中对候选像素进行直线拟合,得到一簇候选直线;
步骤1.1.4,对候选直线采用计算直线消失点的方式,提取出车道线:计算步骤1.1.3得到的一簇候选直线的消失点,即图像上方的交点;而考虑可能受到其他非车道线直线的干扰,得到的可能有多个交点,设得到的多个交点为(xn,yn),选取离图像中心最近的交点,即其中,width为图像的宽度,以通过所选取的离图像中心最近的交点的直线作为车道线;
步骤1.1.5,通过使用提取出的车道线将车道视频图像划分为对应不同车道的纵向区域,建立车道模型;
步骤1中,在建立背景模型后,通过评估平均亮度更新背景模型,具体包括:
步骤1.3.1,在建立背景模型后,计算并存储建立的背景模型的平均亮度;每隔一定帧数后计算当前图像帧的平均亮度;
步骤1.3.2,计算后续获取的车道视频图像的平均亮度;
步骤1.3.3,比较当前的背景模型的平均亮度与后续获取的车道视频图像的平均亮度的差值,若差值大于平均亮度设定阈值,则更新背景模型。
2.根据权利要求1所述的自适应多车道车流检测方法,其特征在于,步骤1中,根据获取的车道视频图像建立背景模型的方法具体为:
步骤1.2.1,获取车道视频图像的前T帧图像;
步骤1.2.2,累加前T帧图像后,计算像素值平均值avg;累加前T帧图像的帧差后,计算帧差平均值diff;
步骤1.2.3,以在(avg-diff)~(avg+diff)范围内的像素值建立背景模型。
3.根据权利要求1所述的自适应多车道车流检测方法,其特征在于,所述平均亮度的计算方法具体为:
步骤1.4.1,将图像转换到YUV色彩空间,并提取出Y通道灰度图像;
步骤1.4.2,计算Y通道灰度图像的灰度直方图,并判断所述灰度直方图的亮度值大于光斑亮度设定阈值的比例是否超过光斑比例设定阈值:若未超过,则将所述灰度直方图的均值作为平均亮度;若超过,则使用最大亮度值作为种子在Y通道灰度图像中寻找连通域,并从Y通道灰度图像中剔除找到的连通域,然后将剔除连通域后的Y通道灰度图像的灰度直方图的均值作为平均亮度。
4.根据权利要求1所述的自适应多车道车流检测方法,其特征在于,步骤2中,利用建立的车道模型和背景模型对车道视频图像中的车辆进行识别的方法具体为:
步骤2.1,将车道视频图像的当前帧与背景模型进行背景差分,得到前景目标图像;
步骤2.2,对所述前景目标图像进行形态学操作,然后查找连通区域,并将查找到的连通区域作为候选目标;
步骤2.3,对候选目标进行车辆识别;
步骤2.4,利用车道模型判断识别到的车辆所在车道,并以分车道的车辆识别结果进行输出。
5.根据权利要求4所述的自适应多车道车流检测方法,其特征在于,步骤2.3,对候选目标进行车辆识别的方法具体为:在图像的一定位置设置虚拟线圈,若候选目标进入虚拟线圈则根据车辆的形态特征和候选目标在虚拟线圈中的持续时间判断候选目标是否为车辆。
6.一种自适应多车道车流检测***,连接有用于获取车道视频图像的交通监控摄像头,其特征在于,所述自适应多车道车流检测***用于实现如权利要求1-5任一项所述的自适应多车道车流检测方法,所述自适应多车道车流检测***包括:
车道检测模块,用于根据获取的车道视频图像建立车道模型;
背景检测模块,用于根据获取的车道视频图像建立背景模型;
车辆检测模块,用于利用建立的车道模型和背景模型对车道视频图像中的车辆进行识别。
7.根据权利要求6所述的自适应多车道车流检测***,其特征在于,还包括:
背景更新模块,用于在所述背景检测模块建立背景模型后,通过评估平均亮度更新背景模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910034729.3A CN109766846B (zh) | 2019-01-15 | 2019-01-15 | 一种基于视频的自适应多车道车流检测方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910034729.3A CN109766846B (zh) | 2019-01-15 | 2019-01-15 | 一种基于视频的自适应多车道车流检测方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109766846A CN109766846A (zh) | 2019-05-17 |
CN109766846B true CN109766846B (zh) | 2023-07-18 |
Family
ID=66453961
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910034729.3A Active CN109766846B (zh) | 2019-01-15 | 2019-01-15 | 一种基于视频的自适应多车道车流检测方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109766846B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112150828B (zh) * | 2020-09-21 | 2021-08-13 | 大连海事大学 | 基于图像识别技术的防抖动干扰动态调控红绿灯的方法 |
CN112562330A (zh) * | 2020-11-27 | 2021-03-26 | 深圳市综合交通运行指挥中心 | 评估道路运行指数的方法和装置、电子设备、存储介质 |
CN112950662B (zh) * | 2021-03-24 | 2022-04-01 | 电子科技大学 | 一种交通场景空间结构提取方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002123820A (ja) * | 2000-10-17 | 2002-04-26 | Meidensha Corp | 路上静止障害物検出方法及び装置 |
TW201349131A (zh) * | 2012-05-31 | 2013-12-01 | Senao Networks Inc | 移動偵測裝置及移動偵測方法 |
CN103886598A (zh) * | 2014-03-25 | 2014-06-25 | 北京邮电大学 | 一种基于视频图像处理的隧道烟雾检测装置与方法 |
CN107895492A (zh) * | 2017-10-24 | 2018-04-10 | 河海大学 | 一种基于传统视频的高速公路智能分析方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009076182A1 (en) * | 2007-12-13 | 2009-06-18 | Clemson University | Vision based real time traffic monitoring |
CN101621615A (zh) * | 2009-07-24 | 2010-01-06 | 南京邮电大学 | 一种自适应背景建模及运动目标检测方法 |
JP5887067B2 (ja) * | 2011-05-20 | 2016-03-16 | 東芝テリー株式会社 | 全方位監視画像処理システム |
-
2019
- 2019-01-15 CN CN201910034729.3A patent/CN109766846B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002123820A (ja) * | 2000-10-17 | 2002-04-26 | Meidensha Corp | 路上静止障害物検出方法及び装置 |
TW201349131A (zh) * | 2012-05-31 | 2013-12-01 | Senao Networks Inc | 移動偵測裝置及移動偵測方法 |
CN103886598A (zh) * | 2014-03-25 | 2014-06-25 | 北京邮电大学 | 一种基于视频图像处理的隧道烟雾检测装置与方法 |
CN107895492A (zh) * | 2017-10-24 | 2018-04-10 | 河海大学 | 一种基于传统视频的高速公路智能分析方法 |
Non-Patent Citations (2)
Title |
---|
Adaptive Multicue Background Subtraction for Robust Vehicle Counting and Classification;Luis Unzueta 等;《IEEE Transactions on Intelligent Transportation Systems》;第13卷(第2期);527-540 * |
基于背景重建的运动目标检测与阴影抑制;刘超 等;《计算机工程与应用》;第46卷(第16期);197-199,209 * |
Also Published As
Publication number | Publication date |
---|---|
CN109766846A (zh) | 2019-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI607901B (zh) | 影像修補系統及其方法 | |
US11700457B2 (en) | Flicker mitigation via image signal processing | |
Wu et al. | Lane-mark extraction for automobiles under complex conditions | |
CN104778444B (zh) | 道路场景下车辆图像的表观特征分析方法 | |
CN109635758B (zh) | 智慧工地基于视频的高空作业人员安全带穿戴检测方法 | |
CN109766846B (zh) | 一种基于视频的自适应多车道车流检测方法及*** | |
CN111860120B (zh) | 车载相机自动遮挡检测方法和装置 | |
CN110450706B (zh) | 一种自适应远光灯控制***及图像处理算法 | |
CN106991707B (zh) | 一种基于昼夜成像特征的交通信号灯图像强化方法及装置 | |
US9030559B2 (en) | Constrained parametric curve detection using clustering on Hough curves over a sequence of images | |
CN110427979B (zh) | 基于K-Means聚类算法的道路水坑识别方法 | |
CN107346547A (zh) | 基于单目平台的实时前景提取方法及装置 | |
CN111046741A (zh) | 车道线识别的方法和装置 | |
CN110276318A (zh) | 夜间公路下雨识别方法、装置、计算机设备及存储介质 | |
CN107122732B (zh) | 一种监控场景下高鲁棒性的快速车牌定位方法 | |
KR101026778B1 (ko) | 차량 영상 검지 장치 | |
CN113781421A (zh) | 基于水下的目标识别方法、装置及*** | |
CN110060221B (zh) | 一种基于无人机航拍图像的桥梁车辆检测方法 | |
Vajak et al. | A rethinking of real-time computer vision-based lane detection | |
CN112863194B (zh) | 一种图像处理方法、装置、终端及介质 | |
CN107977608B (zh) | 一种应用于公路视频图像道路区域提取的方法 | |
CN113989771A (zh) | 一种基于数字图像处理的交通信号灯识别方法 | |
US11354794B2 (en) | Deposit detection device and deposit detection method | |
Xiaolin et al. | Unstructured road detection based on region growing | |
US20210089818A1 (en) | Deposit detection device and deposit detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |