CN111091061B - 一种基于视频分析的车辆刮蹭检测方法 - Google Patents

一种基于视频分析的车辆刮蹭检测方法 Download PDF

Info

Publication number
CN111091061B
CN111091061B CN201911144384.3A CN201911144384A CN111091061B CN 111091061 B CN111091061 B CN 111091061B CN 201911144384 A CN201911144384 A CN 201911144384A CN 111091061 B CN111091061 B CN 111091061B
Authority
CN
China
Prior art keywords
vehicle
vehicles
passing
area
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911144384.3A
Other languages
English (en)
Other versions
CN111091061A (zh
Inventor
高飞
葛逸凡
卢书芳
陆佳炜
程振波
肖刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN201911144384.3A priority Critical patent/CN111091061B/zh
Publication of CN111091061A publication Critical patent/CN111091061A/zh
Application granted granted Critical
Publication of CN111091061B publication Critical patent/CN111091061B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明提出了一种基于视频分析的车辆刮蹭检测方法,具体为基于视频语义分割技术的车辆刮蹭的检测方法,它是通过监控摄像机采集监控视频,采用语义分割方法检测并获取监控视频中的车辆,根据获取到的车辆的位置信息划分为过车车辆、停车车辆两类,接着通过本发明所述的刮蹭判断算法判断过车车辆与停车车辆的位置关系来进行车辆刮蹭的检测。本发明以语义分割网络和跟踪算法作为依据,通过视频分析来检测视频中的车辆,并对其跟踪和刮蹭判断,用于解决现有技术中检测效率低、误检率大的问题。

Description

一种基于视频分析的车辆刮蹭检测方法
技术领域
本发明涉及视频语义分割技术领域,具体涉及一种通过视频语义分割技术的基于视频分析的车辆刮蹭检测方法。
背景技术
随着时代的发展,科技的进步,汽车已经逐渐成为每家每户必备的出行工具。但是,随着车辆数量的大量增加,路边的停车位数量随之增加,道路宽度变窄,给停车车辆被过往车辆刮蹭带来了隐患。通过人为的查看监控录像来找出刮蹭车辆的信息,浪费了时间和人力,成本过高。因此,一种基于视频分析的车辆跟踪、车辆刮蹭检测并保存车辆刮蹭信息的方法必不可少。
目前,在有关检测车辆刮蹭的领域,常用下面的方法进行检测:如使用一种用于目标检测的卷积神经网络来对视频下的车辆进行检测及车辆刮蹭的判断,这种方法检测效率高,提高了检测操作的灵活性,但是仅仅用矩形选择框来框取车辆的位置不能反应车辆的轮廓信息,进一步地导致车辆刮蹭的判断的误检率非常高。同时,现有技术中使用的卷积神经网络较为落后,效率还是较为低下,不适合大量的图片训练和使用。
发明内容
为克服现有技术上的不足,本发明的目的在于提供一种基于视频分析的车辆刮蹭检测方法。它以语义分割网络和跟踪算法作为依据,通过视频分析来检测视频中的车辆,并对其跟踪和刮蹭判断,用于解决现有技术中检测效率低、误检率大的问题。
所述的一种基于视频分析的车辆刮蹭检测方法,其特征在于包括如下步骤:
步骤1:用矩形框标定监控视频中的停车区域和过车区域;
步骤2:定义停车车辆集合S={si|i=1,2,…,I},过车车辆集合G={gj|j=1,2,…,J},其中,si表示S中第i辆车的最小外接矩形,I表示停车车辆集合中车辆的数量,gj表示G中第j辆车的最小外接矩形,J表示过车车辆集合中车辆的数量;初始时S和G均为空集合;
步骤3:从监控视频缓存队列中获一帧图像;
步骤4:采用基于深度学习技术的语义分割方法从步骤3的图像中检测出在过车区域内的车辆,并将结果记为C={ck|k=1,2,...,K},其中,ck表示检测到的第k辆车的最小外接矩形,K表示检测到的车辆数;针对每个ck,按如下逻辑处理:若ck完全包含于停车区域内且与所有si满足式(1),则将ck加入S中;否则,若ck不完全包含于停车区域且与所有gj满足式(2),则将ck加入G中;
Figure GDA0003387976550000021
Figure GDA0003387976550000022
其中,A表示面积计算函数;
步骤5:对步骤4中的停车车辆集合S中的每辆车进行跟踪并更新S,若该车辆超出停车区域的范围,则将其从S中移出;
步骤6:对步骤4中的过车车辆集合G中的每辆车进行跟踪并更新G,若该车辆超出过车区域的范围,则将其从G中移出;
步骤7:针对S中的任意车辆si和G中的任意车辆gj做刮蹭判定,具体步骤为:
步骤7.1:若si和gj未相交,则判定为si和gj未刮蹭;若si和gj相交,则进入步骤7.2进行下一步判定;
步骤7.2:定义si的边界点集为SPi={spil|l=1,2,…,Li},其中,spil表示si的第l个边界点,Li表示si的边界点的数量;定义gj的边界点集为GPj={gpjt|t=1,2,…,Mj},其中,gpjt表示gj的第t个边界点,Mj表示gj的边界点的数量;若SPi与GPj中没有相同的元素,则判定si和gj未刮蹭;若SPi与GPj中有相同的元素,则判定为si和gj刮蹭,并记录si和gj各自中心点之间的距离,记为dij,保存此帧图像;
步骤7.3:重复步骤7.1-7.2,定义上一帧中的si和gj各自中心点之间的距离为
Figure GDA0003387976550000031
在新的一帧中,比较dij
Figure GDA0003387976550000032
的大小,若
Figure GDA0003387976550000033
则将dij的数值更新为
Figure GDA0003387976550000034
并保存此帧图像;若
Figure GDA0003387976550000035
则不更新dij的数值和保存的图像。
通过采用上述方法,与现有方法比起来,本发明的有益效果有:
本发明以语义分割技术作为车辆检测的依据,能够描述车辆轮廓信息而非简单的矩形的选择框,能够提高判断是否刮蹭的准确性;本发明保存刮蹭车辆信息时,通过迭代的方式保存最优图像,保证了有更好的可视化效果。
附图说明
图1为监控视频中停车检测区和过车检测区的定位信息的标定图像。
图中:1-停车检测区,2-过车检测区。
具体实施方式
下面结合实施例来详细阐述本发明的通过视频语义分割技术的车辆刮蹭的检测方法的具体实施方法。
本发明的基于视频分析的车辆刮蹭检测方法,即通过视频语义分割技术的车辆刮蹭的检测方法,具体包括如下步骤:
步骤1:用矩形框标定监控视频中的停车检测区1和过车检测区2,标定情况如图1;
步骤2:定义停车车辆集合S={si|i=1,2,…,I},过车车辆集合G={gj|j=1,2,…,J},其中,si表示S中第i辆车的最小外接矩形,I表示停车车辆集合中元素的个数,gj表示G中第j辆车的最小外接矩形,J表示过车车辆集合中元素的个数;初始时S和G均为空集合;
步骤3:从监控视频缓存队列中获一帧图像;
步骤4:采用基于深度学习技术的语义分割方法从步骤3的图像中检测出在过车区域内的车辆,并将结果记为C={ck|k=1,2,...,K},其中,ck表示检测到的第k辆车的最小外接矩形,K表示检测到的车辆数;针对每个ck,按如下逻辑处理:若ck完全包含于停车区域内且与所有si满足式(1),则将ck加入S中;否则,若ck不完全包含于停车区域且与所有gj满足式(2),则将ck加入G中;
Figure GDA0003387976550000041
Figure GDA0003387976550000051
其中,A表示面积计算函数;
所诉基于语义分割的车辆检测方法,具体为:
步骤4.1:获取大量监控视角下的图片,在取到的图片中的车辆对其轮廓信息进行标注,得到车辆语义分割数据集,以3:1的数量比将所述数据集划分为训练集和测试集;
步骤4.2:将划分后的训练集输入第一卷积神经网络进行特征提取,将所提取的特征输入第二卷积神经网络实现语义分割的参数训练;将划分后的测试集输入第一和第二卷积神经网络,对比通过训练得到参数的检测效果与测试集图片标定信息,实现参数的优化;
步骤4.3:作为本发明的一种优选方案,选取10层卷积神经网络作为进行特征提取的第一卷积神经网络,依次包括第一卷积层、第二瓶颈层、第三瓶颈层、第四瓶颈层、第五瓶颈层、第六瓶颈层、第七瓶颈层、第八瓶颈层、第九卷积层、第十池化层;所述第一卷积神经网络的图片输入维度为224×224×3,所述第一卷积神经网络的图片输出维度为1×1×1280,第一卷积层的图片输出维度为112×112×32,第二瓶颈层的图片输出维度为112×112×16,第三瓶颈层的图片输出维度为56×56×24,第四瓶颈层的图片输出维度为28×28×32,第五瓶颈层的图片输出维度为14×14×64,第六瓶颈层的图片输出维度为14×14×96,第七瓶颈层的图片输出维度为7×7×160,第八瓶颈层的图片输出维度为7×7×320,第九卷积层的图片输出维度为7×7×1280,第十池化层的图片输出维度为1×1×1280;所述的瓶颈层区别于其他非线性层,包含了所有必要信息,当使用到ReLU等激活函数时不会出现信息丢失的情况;
步骤4.4:作为本发明的一种优选方案,第二卷积神经网络采用编码器-解码器对称结构,实现端到端的像素级别图像分割;所述的第二卷积神经网络将第一卷积神经网络作为预训练的网络,将带有步幅的三个卷积层作为空间路径,接着通过特征融合模块融合这两个组件的输出特征做出最后的预测;在特征表示的层面上,两路网络的特征并不相同:所述以第一卷积神经网络作为预训练的网络输出的特征主要编码语境信息,所述空间路径捕获到的空间信息编码了绝大多数的细节信息,两种特征信息不能简单的加权;为解决该问题,所述第二卷积神经网络特征融合模块在特征的不同层级给定的情况下,首先连接第一卷积神经网络作为预训练网络输出的特征和空间路径输出的特征,接着通过批归一化平衡特征的尺度,下一步把相连接的特征池化为一个特征向量,并计算一个权重向量,所述的权重向量可以重新加权特征,起到特征选择和结合的作用;第二卷积神经网络通过辅助损失函数监督模型的训练,通过主损失函数监督整个第二卷积神经网络的输出,另外还通过添加两个特殊的辅助损失函数监督第一卷积神经网络的输出,就像多层监督一样,借助公式(3)以平衡主损失函数与辅助损失函数的权重,主损失函数和辅助损失函数都使用公式(4):
Figure GDA0003387976550000061
其中,X、W分别为主损失函数和辅助损失函数的权重,K表示全部样本的数量,lp为整个第二卷积神经网络的输出函数,li为辅助损失函数的监督函数,Xi为第i个样本的主损失函数的权重,Wi为第i个辅助损失函数的权重,α为平衡主损失函数与辅助损失函数的权重值。
Figure GDA0003387976550000071
其中,N表示输入样本的编号,y表示第二卷积神经网络的期望输出,a表示第二卷积神经网络的实际输出,ln表示取对数操作,当loss<0.001,完成对输入图像的训练。
步骤4.5:将所述的训练集和测试集输入卷积神经网络中,完成对车辆检测的参数训练;
步骤5:对所述步骤4中的停车车辆集合S中的每辆车进行跟踪并更新S,若该车辆超出停车区域的范围,则将其从S中移出;
步骤6:对所述步骤4中的过车车辆集合G中的每辆车进行跟踪并更新G,若该车辆超出过车区域的范围,则将其从G中移出;
步骤7:针对S中的任意车辆si和G中的任意车辆gj做刮蹭判定,具体步骤为:
步骤7.1:若si和gj未相交,则判定为si和gj未刮蹭;若si和gj相交,则进入步骤7.2进行下一步判定;
步骤7.2:定义si的边界点集为SPi={spil|l=1,2,…,Li},其中,spil表示si的第l个边界点,Li表示si的边界点的数量;定义gj的边界点集为GPj={gpjt|t=1,2,…,Mj},其中,gpjt表示gj的第t个边界点,Mj表示gj的边界点的数量;若SPi与GPj中没有相同的元素,则判定si和gj未刮蹭;若SPi与GPj中有相同的元素,则判定为si和gj刮蹭,并记录si和gj各自中心点之间的距离,记为dij,保存此帧图像;
步骤7.3:重复步骤7.1-7.2,定义上一帧中的si和gj各自中心点之间的距离为
Figure GDA0003387976550000081
在新的一帧中,比较dij
Figure GDA0003387976550000082
的大小,若
Figure GDA0003387976550000083
则将dij的数值更新为
Figure GDA0003387976550000084
并保存此帧图像;若
Figure GDA0003387976550000085
则不更新dij的数值和保存的图像。
本说明书实例所述的内容尽例示性说明本发明的原理及其功效,而非用于限制本发明。任何熟知相关技术的人士皆可在不违背发明的精神及范畴下,对上述实施例进行修饰或改变。因此,举凡所属技术领域中具有通常知识者在未脱离本发明所揭示的精神与技术思想下所完成的一切等效修饰或改变,仍应由本发明的权利要求所涵盖。

Claims (1)

1.一种基于视频分析的车辆刮蹭检测方法,其特征在于包括如下步骤:
步骤1:用矩形框标定监控视频中的停车区域和过车区域;
步骤2:定义停车车辆集合S={si|i=1,2,…,I},过车车辆集合G={gj|j=1,2,…,J},其中,si表示S中第i辆车的最小外接矩形,I表示停车车辆集合中车辆的数量,gj表示G中第j辆车的最小外接矩形,J表示过车车辆集合中车辆的数量;初始时S和G均为空集合;
步骤3:从监控视频缓存队列中获一帧图像;
步骤4:采用基于深度学习技术的语义分割方法从步骤3的图像中检测出在过车区域内的车辆,并将结果记为C={ck|k=1,2,...,K},其中,ck表示检测到的第k辆车的最小外接矩形,K表示检测到的车辆数;针对每个ck,按如下逻辑处理:若ck完全包含于停车区域内且与所有si满足式(1),则将ck加入S中;否则,若ck不完全包含于停车区域且与所有gj满足式(2),则将ck加入G中;
Figure FDA0003387976540000011
Figure FDA0003387976540000012
其中,A表示面积计算函数;
步骤5:对步骤4中的停车车辆集合S中的每辆车进行跟踪并更新S,若该车辆超出停车区域的范围,则将其从S中移出;
步骤6:对步骤4中的过车车辆集合G中的每辆车进行跟踪并更新G,若该车辆超出过车区域的范围,则将其从G中移出;
步骤7:针对S中的任意车辆si和G中的任意车辆gj做刮蹭判定,具体步骤为:
步骤7.1:若si和gj未相交,则判定为si和gj未刮蹭;若si和gj相交,则进入步骤7.2进行下一步判定;
步骤7.2:定义si的边界点集为SPi={spil|l=1,2,…,Li},其中,spil表示si的第l个边界点,Li表示si的边界点的数量;定义gj的边界点集为GPj={gpjt|t=1,2,…,Mj},其中,gpjt表示gj的第t个边界点,Mj表示gj的边界点的数量;若SPi与GPj中没有相同的元素,则判定si和gj未刮蹭;若SPi与GPj中有相同的元素,则判定为si和gj刮蹭,并记录si和gj各自中心点之间的距离,记为dij,保存此帧图像;
步骤7.3:重复步骤7.1-7.2,定义上一帧中的si和gj各自中心点之间的距离为
Figure FDA0003387976540000021
在新的一帧中,比较dij
Figure FDA0003387976540000022
的大小,若
Figure FDA0003387976540000023
则将dij的数值更新为
Figure FDA0003387976540000024
并保存此帧图像;若
Figure FDA0003387976540000025
则不更新dij的数值和保存的图像。
CN201911144384.3A 2019-11-20 2019-11-20 一种基于视频分析的车辆刮蹭检测方法 Active CN111091061B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911144384.3A CN111091061B (zh) 2019-11-20 2019-11-20 一种基于视频分析的车辆刮蹭检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911144384.3A CN111091061B (zh) 2019-11-20 2019-11-20 一种基于视频分析的车辆刮蹭检测方法

Publications (2)

Publication Number Publication Date
CN111091061A CN111091061A (zh) 2020-05-01
CN111091061B true CN111091061B (zh) 2022-02-15

Family

ID=70394035

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911144384.3A Active CN111091061B (zh) 2019-11-20 2019-11-20 一种基于视频分析的车辆刮蹭检测方法

Country Status (1)

Country Link
CN (1) CN111091061B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111653103A (zh) * 2020-05-07 2020-09-11 浙江大华技术股份有限公司 一种目标对象的识别方法及装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103226891B (zh) * 2013-03-26 2015-05-06 中山大学 一种基于视频的车辆碰撞事故检测方法及***
CN107657237B (zh) * 2017-09-28 2020-03-31 东南大学 基于深度学习的汽车碰撞检测方法及***
CN107945566A (zh) * 2017-11-17 2018-04-20 张慧 基于多目标跟踪与深度学习的路边停车管理***及方法
CN108898054B (zh) * 2018-05-24 2020-08-07 合肥工业大学 一种基于语义分割的安全带检测方法
CN109190523B (zh) * 2018-08-17 2021-06-04 武汉大学 一种基于视觉的车辆检测跟踪预警方法
CN109829403B (zh) * 2019-01-22 2020-10-16 淮阴工学院 一种基于深度学习的车辆防碰撞预警方法及***

Also Published As

Publication number Publication date
CN111091061A (zh) 2020-05-01

Similar Documents

Publication Publication Date Title
CN111091105B (zh) 基于新的边框回归损失函数的遥感图像目标检测方法
CN111598030B (zh) 一种航拍图像中车辆检测和分割的方法及***
CN106682697B (zh) 一种基于卷积神经网络的端到端物体检测方法
CN112750150B (zh) 基于车辆检测和多目标跟踪的车流量统计方法
CN113780296B (zh) 基于多尺度信息融合的遥感图像语义分割方法及***
CN109858389B (zh) 基于深度学习的直梯人数统计方法及***
CN110189304B (zh) 基于人工智能的光学遥感图像目标在线快速检测方法
CN112633149B (zh) 一种域自适应雾天图像目标检测方法和装置
CN112418212B (zh) 一种基于EIoU改进的YOLOv3算法
CN111126359A (zh) 基于自编码器与yolo算法的高清图像小目标检测方法
CN108428248B (zh) 车窗定位方法、***、设备及存储介质
CN113052159A (zh) 一种图像识别方法、装置、设备及计算机存储介质
CN111738114A (zh) 基于无锚点精确采样遥感图像车辆目标检测方法
CN111611925A (zh) 一种建筑物检测与识别方法及装置
CN110909656B (zh) 一种雷达与摄像机融合的行人检测方法和***
CN117079132A (zh) 基于高斯距离损失的遥感图像目标检测方法
CN115424237A (zh) 一种基于深度学习的前向车辆识别与距离检测方法
CN112101114A (zh) 一种视频目标检测方法、装置、设备以及存储介质
CN115527096A (zh) 一种基于改进YOLOv5的小目标检测方法
CN111091061B (zh) 一种基于视频分析的车辆刮蹭检测方法
CN112085001B (zh) 一种基于多尺度边缘特征检测的隧道识别模型及方法
CN116861262B (zh) 一种感知模型训练方法、装置及电子设备和存储介质
CN111833353A (zh) 一种基于图像分割的高光谱目标检测方法
CN111666988A (zh) 一种基于多层信息融合的目标检测算法
CN116758363A (zh) 一种权重自适应与任务解耦的旋转目标检测器

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant