CN110414386B - 基于改进scnn网络的车道线检测方法 - Google Patents

基于改进scnn网络的车道线检测方法 Download PDF

Info

Publication number
CN110414386B
CN110414386B CN201910628882.9A CN201910628882A CN110414386B CN 110414386 B CN110414386 B CN 110414386B CN 201910628882 A CN201910628882 A CN 201910628882A CN 110414386 B CN110414386 B CN 110414386B
Authority
CN
China
Prior art keywords
lane line
lane
scnn
improved
candidate points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910628882.9A
Other languages
English (en)
Other versions
CN110414386A (zh
Inventor
石英
万方颖
谢长君
刘子伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University of Technology WUT
Original Assignee
Wuhan University of Technology WUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University of Technology WUT filed Critical Wuhan University of Technology WUT
Priority to CN201910628882.9A priority Critical patent/CN110414386B/zh
Publication of CN110414386A publication Critical patent/CN110414386A/zh
Application granted granted Critical
Publication of CN110414386B publication Critical patent/CN110414386B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于改进SCNN网络的车道线检测方法,通过选取CULane车道线数据集,作为用于改进后SCNN网络训练的训练数据集;构建改进后的SCNN网络,对不同的车道线特征进行分类,输出车道线候选点;采用车道线种子点归类方法,进行车道线的归类;基于车道线种子点归类方法所得的已归类好的车道线候选点,使用加权最小二乘法分车道线容器进行拟合,得到各车道线容器的车道线模型,实现车道线的精确定位。本发明在不丢失SCNN网络框架准确性的前提下提升了网络结构的处理速度,具有良好的鲁棒性与实时性,可以推广应用在驾驶辅助***等***中,具有广泛的实用性。

Description

基于改进SCNN网络的车道线检测方法
技术领域
本发明涉及道路交通的图像识别技术领域,具体地指一种基于改进SCNN网络的车道线检测方法。
背景技术
随着汽车成为人们出行的主要工具之一,汽车数量增长也伴随着相关社会问题的发生,交通事故的频发,也使人们越来越重视交通安全问题。目前,相对成熟的时高级辅助驾驶技术包括车道偏离预警、自适应巡航、前车碰撞预警、行人检测、车道保持辅助等。其中,车道检测***是实现辅助驾驶的相关功能的重要基础。在结构化道路环境下,在车道内驾驶车辆可以保证车辆的有序行驶,而能否快速、准确稳定的检测车道线对辅助驾驶功能的实现至关重要的作用,车道线检测的准确性,实时性也成为了现在车道线检测不断研究的重点。
鉴于车道线明显的外观特征,车道线检测算法通常利用车道线的颜色、纹理、几何等特征。基于颜色特征的检测算法,通常对车道线的颜色建立先验模型,而后采用分割的方法对车道线进行前背景分割;基于纹理特征的检测方法,一般采用分类器对车道线的结构纹理特征进行训练,然后区分车道线与其他区域;基于几何特征的检测方法,一般假设车道线模型为直线模型或曲线模型,然后提取车道线的边缘,对模型进行拟合,从而确定参数,检测车道线。传统算法大多依赖于底层的人工设计特征,模型难以在恶劣条件下工作。
基于深度学习的方法检测车道线,通常对于检测任务,深度学习方法采用边界框确定目标的大致位置,然后用与标定框的重合度评价检测结果的好坏。由于车道线细长的形状特性,如果采用检测方式,存在以下问题:检测车道线需要对其精确定位,检测的边界框无法满足应用要求;检测网络训练的样本标定框中车道线信息相对于其他区域信息量较少,不能充分地学习车道线特征。因而,考虑采用精确定位的分割算法提取车道线候选点,而后进行拟合处理。对于分割任务,基于FCN的语义分割方案已经相当成熟,并取得了巨大的成功。然而,对于类似车道线的细长目标,空间形状特征明显,而外观特征较少,分割效果仍有待提高。
发明内容
本发明的目的是为了解决上述背景技术存在的问题,而提出的一种基于改进SCNN网络的车道线检测方法,通过改进的SCNN网络提取车道线候选点,利用种子归类法对车道线候选点进行归类,使用加权最小二乘法进行车道线拟合,得到车道线模型,实现车道线的精确检测。
为实现上述目的,本发明所设计的基于改进SCNN网络的车道线检测方法,其特殊之处在于,所述方法包括以下步骤:
步骤1:选取CULane车道线数据集,作为用于改进后SCNN网络训练的训练数据集;
步骤2:构建改进后的SCNN网络,对不同的车道线特征进行分类,输出车道线候选点;
步骤3:基于输出的车道线候选点,采用车道线种子点归类方法,进行车道线的归类;
步骤4:基于车道线种子点归类方法所得的已归类好的车道线候选点,使用加权最小二乘法分车道线容器进行拟合,得到各车道线容器的车道线模型;
步骤5:将车道线测试集输入车道线模型,实现车道线的精确定位。
优选地,所述步骤2包括以下子步骤:
步骤2.1:以VGG16网络结构为基础,将全连接层fc6替换为rate=4,size=3,channels=1024的带孔卷积层,其中rate表示膨胀率,size表示卷积核的大小,channels表示通道数;
步骤2.2,将全连接层fc7替换为size=1,channels=128的普通卷积层;
步骤2.3,在fc7层之后添加SCNN结构;
步骤2.4,将全连接层fc8替换为size=1,channels=2的卷积层,softmax层保持不变;
步骤2.5,输入的训练数据集RGB图像通过改进的改进SCNN网络提取特征,而后经softmax层输出车道线候选点的概率,再经上采样,恢复到原图像的尺寸。
优选地,所述步骤3包括以下子步骤:
步骤3.1:设置1个车道线容器,在其内部存储车道线的候选点及其概率,自下向上扫描步骤2得到的车道线候选点,每次按照固定行数从左到右进行扫描;
步骤3.2,第一次行扫描,遇到第一个候选点时,表明出现了一条车道线,将其存入第1个车道线容器,继续进行行扫描;
步骤3.3,如果遇到第二个候选点,判断其与上一个候选点的横坐标差值是否在设定的阈值内,是则存入当前车道线容器内,否则添加新车道线容器并存入;
步骤3.4,第二次扫描开始,对扫描的第一个车道线候选点进行列比较,即与所有车道线容器中上一次存入的车道线候选点的横坐标进行比较,判断是否在设定的阈值内,是则存入同一车道线容器内,否则添加新车道线容器并存入;
步骤3.5,如果遇到第二个候选点,先进行步骤3.3的行比较,如不属于同一车道线,则进行步骤3.4中的列比较,如归类成功,则完成该点的归类,否则存入一个新的车道线容器中。
优选地,所述步骤4包括以下子步骤:
步骤4.1,采用二次曲线模型对车道线进行拟合,将对车道线的预测因素加入参数拟合的过程中,使用加权最小二乘法对各参数进行估计;
步骤4.2,构建损失函数为
Figure BDA0002128043630000041
其中,ai(i=0,1,2)为车道线模型的参数,wi为像素点(xi,yi)被预测为车道线上点的概率,n为该被拟合的车道线容器内车道线候选点的总个数。
步骤4.3,运用矩阵求解最小二乘解的方法,求得参数的解,由此可得到车道线的模型参数。
优选地,所述CULane车道线数据集为对车道线进行标注的车道线数据集。
优选地,所述步骤5中先将车道线验证集输入车道线模型,输出的车道线定位结果大于验证合格率则输入车道线测试集,实现车道线的精确定位,否则返回步骤1。
相对于现有技术,本发明所提供的一种基于改进SCNN网络的车道线检测方法,采用了改进的SCNN结构具有很高的计算效率,并且能够充分利用图像行与列之间的关系;使用种子归类法对车道线候选点归类,增加了归类的实时性;最后利用二次曲线对车道线容器进行拟合,并在计算参数时,使用加权最小二乘法求参,得到车道线模型,提升了算法的准确性。本发明在不丢失SCNN网络框架准确性的前提下提升了网络结构的处理速度,具有良好的鲁棒性与实时性,可以推广应用在驾驶辅助***等***中,具有广泛的实用性。
附图说明
图1为本发明实施例基于改进SCNN网络的车道线检测方法的流程图。
图2为本发明实施例构建的改进SCNN主干网络图。
图3为本发明实施例基于种子归类法对车道线候选点提取结果示意图。
图4为本发明实施例基于加权最小二乘法的车道线拟合结果示例图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
本发明的基本流程如图1所示,本发明实施例提供的一种基于改进SCNN网络的车道线检测方法,包括以下步骤:
步骤1:选取CULane这类包括了对被遮挡及因模糊不可见的车道线进行标注的车道线数据集,作为用于改进后SCNN网络训练的训练数据集;
本发明采用CULane数据集作为用于改进后SCNN网络训练的训练数据集,CULane数据集,包含了从由6种不同交通工具拍摄的、超过55个小时的视频中提取的133235张道路图像。这些图像被分成训练集、验证集、测试集,分别包含88880、9675以及34680张图像。其中,训练集对被遮挡及因模糊不可见的车道线进行了标注,验证集和测试集未经过标注,测试集包含了正常、拥挤、夜间、没有车道线、阴影、箭头、昏暗灯光、曲线、路口共9个类别的道路场景,种类齐全,涵盖的特殊情况较多。
步骤2:构建改进后的SCNN网络,对不同的车道线特征进行分类,输出车道线候选点;
SCNN网络设计的空间信息传递结构有效捕获了空间关系,但该网络添加了额外的子网络对车道线的存在与否进行了预测,相对增加了网络的复杂性。为简化网络,本发明对其进行了改进,改进后主干网络如图2所示。相比较原主网络有两点改进,1)去除了子网络,修改了最后一层卷积核大小,使其通道数由5减小为2,softmax层的输出为车道线和背景概率,2)采用后处理的方式对属于不同车道线的特征点进行分类,然后对各车道线进行拟合。使用改进后的SCNN网络输出车道线候选点的具体步骤如下:
步骤2.1,以VGG16为基础,VGG16包括13个卷积层、3个全连接层、5个池化层,将全连接层fc6替换为rate=4,size=3,channels=1024的带孔卷积层,其中rate表示膨胀率,size表示卷积核的大小,channels表示通道数;
步骤2.2,将全连接层fc7替换为size=1,channels=128的普通卷积层;
步骤2.3,在全连接层fc7层之后添加改进的SCNN结构;
步骤2.4,将全连接层fc8替换为size=1,channels=2的卷积层,softmax层保持不变;
步骤2.5,输入的车道线数据集RGB图像通过改进的VGG网络提取特征,而后经softmax层输出车道线候选点的概率,再经上采样,恢复到原图像的尺寸。
步骤3:基于改进后的SCNN网络输出的车道线候选点,采用车道线种子点归类方法,进行车道线的归类;
对于提取的车道线候选点,采用葛平淑在2008年提出的车道线种子点归类思想。该文献为提取二值化图像中的车道线模型,通过自下而上、自左向右的方式扫描行,提取连续的白像素的中心点作为车道线种子点;然后,利用车道线通过将当前行的车道线种子点与上一扫描行的种子点的阈值比较,确定种子点属于哪一车道线或是否存在新的车道线。与葛平淑方法不同的是,本发明以SCNN网络输出的车道线候选点均作为种子点,并未对其采用提取中心线的提取方式。其具体步骤如下:
步骤3.1,设置1个车道线容器,在其内部存储车道线的点及其概率。自下向上扫描步骤2得到的车道线候选点,为了提高检测速度,每隔20行从左到右进行一次扫描;
步骤3.2,第一次行扫描,遇到第一个候选点时,表明出现了一条车道线,将其存入第1个车道线容器,继续进行行扫描;
步骤3.3,如果遇到第二个候选点,判断其与上一个候选点的横坐标差值是否在设定的阈值内,是则存入当前车道线容器内,否则添加新车道线容器并存入;
步骤3.4,第二次扫描开始,对扫描的第一个车道线候选点进行列比较,即与所有车道线容器中上一次存入的车道线候选点的横坐标进行比较,判断是否在设定的阈值内,是则存入同一车道线容器内,否则添加新车道线容器并存入;
步骤3.5,如果遇到第二个候选点,先进行步骤3.3的行比较,如不属于同一车道线,则进行步骤3.4中的列比较,如归类成功,则完成该点的归类,否则存入一个新的车道线容器中。
步骤4:基于车道线种子点归类方法所得的已归类好的车道线候选点,使用加权最小二乘法分车道线容器进行拟合,得到各车道线容器的车道线模型,实现车道线的精确定位;
通常,由于道路设计标准的要求,车道线的曲线半径一般较大,尤其在高速公路中,一般情况下曲线半径不低于600米,且道路的曲线转角一般小于30°,在一定范围内,可将车道线视为直线。因而,很多算法采用直线模型对车道线进行拟合,本发明为了提高车道线的检测的精确度,采用二次曲线模型。考虑归类后候选点的分布,本发明采用的模型表达式为:
x=a0+a1y+a2y2 (1)
其中,ai(i=0,1,2)为二次曲线的系数。为获得车道线二次曲线模型的参数,需要采用参数估计方法。
最小二乘法常被应用于模型参数的估计,通过构建误差平方和目标函数,使其最小化,从而得到符合实际数据的最佳函数模型。一般最小二乘法认为所有数据的重要性都同等重要,然而,本发明中基于SCNN网络输出的车道线候选点其每个像素点的预测概率不一,在参与车道线拟合时其对模型的重要程度不一。考虑车道线候选点的概率,本发明采用加权最小二乘法对已经归类的车道线进行拟合。首先,采用横向加权距离平方差构建目标函数,如公式(2)所示。
Figure BDA0002128043630000081
其中,wi为像素点(xi,yi)被预测为车道线点的概率,n为车道线容器内车道线候选点的个数。为获得使目标函数S最小时的车道线模型的参数ai(i=0,1,2),可采用极值法,即对各参数求偏导,并使其偏导数为0。可得到
Figure BDA0002128043630000082
上式可用矩阵求解方式获得参数的解,其结果如下式所示,
a=(YTWY)-1YTWx (4)
其中a=(a0,a1,a2)T,W=diag(w1,w2,...,wn),x=(x1,x2,...,xn)T,
Figure BDA0002128043630000083
步骤5:将没有经过标注的车道线验证集输入车道线模型,输出的车道线定位结果大于验证合格率则输入车道线测试集,实现车道线的精确定位,否则返回步骤1
由此,可获得车道线的模型参数,完成车道线拟合,实现车道线精准定位。
应当理解的是,本说明书并未详细阐述的部分均属于现有技术。上述针对较佳实施例的较为详细,并不能因此而认为是对本发明专利保护范围的限制,本领域的普通技术人员在本发明的启示下,在不脱离本发明权利要求所保护的范围情况下,还可以做出替换或变形,均落入本发明的保护范围内,本发明的请求保护范围应以所附权利要求为准。

Claims (5)

1.一种基于改进SCNN网络的车道线检测方法,其特征在于:所述方法包括以下步骤:
步骤1:选取CULane车道线数据集,作为用于改进后SCNN网络训练的训练数据集;
步骤2:构建改进后的SCNN网络,对不同的车道线特征进行分类,输出车道线候选点;
步骤3:基于输出的车道线候选点,采用车道线种子点归类方法,进行车道线的归类;
步骤4:基于车道线种子点归类方法所得的已归类好的车道线候选点,使用加权最小二乘法分车道线容器进行拟合,得到各车道线容器的车道线模型;包括以下子步骤:
步骤4.1,采用二次曲线模型对车道线进行拟合,将对车道线的预测因素加入参数拟合的过程中,使用加权最小二乘法对各参数进行估计;
步骤4.2,构建目标函数为
Figure FDA0003219374910000011
其中,ai为车道线模型的参数,wi为像素点(xi,yi)被预测为车道线上点的概率,n为该被拟合的车道线容器内车道线候选点的总个数;
步骤4.3,运用矩阵求解最小二乘解的方法,求得参数的解,由此可得到车道线的模型参数;
步骤5:将车道线测试集输入车道线模型,实现车道线的精确定位。
2.根据权利要求1所述的基于改进SCNN网络的车道线检测方法,其特征在于:所述步骤2包括以下子步骤:
步骤2.1:以VGG16网络结构为基础,将全连接层fc6替换为rate=4,size=3,channels=1024的带孔卷积层,其中rate表示膨胀率,size表示卷积核的大小,channels表示通道数;
步骤2.2,将全连接层fc7替换为size=1,channels=128的普通卷积层;
步骤2.3,在全连接层fc7层之后添加SCNN结构;
步骤2.4,将全连接层fc8替换为size=1,channels=2的卷积层,softmax层保持不变;
步骤2.5,输入的训练数据集RGB图像通过改进的改进SCNN网络提取特征,而后经softmax层输出车道线候选点的概率,再经上采样,恢复到原图像的尺寸。
3.根据权利要求2所述的基于改进SCNN网络的车道线检测方法,其特征在于:所述步骤3包括以下子步骤:
步骤3.1:设置1个车道线容器,在其内部存储车道线的候选点及其概率,自下向上扫描步骤2得到的车道线候选点,每次按照固定行数从左到右进行扫描;
步骤3.2,第一次行扫描,遇到第一个候选点时,表明出现了一条车道线,将其存入第1个车道线容器,继续进行行扫描;
步骤3.3,如果遇到第二个候选点,判断其与上一个候选点的横坐标差值是否在设定的阈值内,是则存入当前车道线容器内,否则添加新车道线容器并存入;
步骤3.4,第二次扫描开始,对扫描的第一个车道线候选点进行列比较,即与所有车道线容器中上一次存入的车道线候选点的横坐标进行比较,判断是否在设定的阈值内,是则存入同一车道线容器内,否则添加新车道线容器并存入;
步骤3.5,如果遇到第二个候选点,先进行步骤3.3的行比较,如不属于同一车道线,则进行步骤3.4中的列比较,如归类成功,则完成该点的归类,否则存入一个新的车道线容器中。
4.根据权利要求1所述的基于改进SCNN网络的车道线检测方法,其特征在于:所述CULane车道线数据集为对车道线进行标注的车道线数据集。
5.根据权利要求1所述的基于改进SCNN网络的车道线检测方法,其特征在于:所述步骤5中先将车道线验证集输入车道线模型,输出的车道线定位结果大于验证合格率则输入车道线测试集,实现车道线的精确定位,否则返回步骤1。
CN201910628882.9A 2019-07-12 2019-07-12 基于改进scnn网络的车道线检测方法 Active CN110414386B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910628882.9A CN110414386B (zh) 2019-07-12 2019-07-12 基于改进scnn网络的车道线检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910628882.9A CN110414386B (zh) 2019-07-12 2019-07-12 基于改进scnn网络的车道线检测方法

Publications (2)

Publication Number Publication Date
CN110414386A CN110414386A (zh) 2019-11-05
CN110414386B true CN110414386B (zh) 2022-01-21

Family

ID=68361209

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910628882.9A Active CN110414386B (zh) 2019-07-12 2019-07-12 基于改进scnn网络的车道线检测方法

Country Status (1)

Country Link
CN (1) CN110414386B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113033572B (zh) * 2021-04-23 2024-04-05 上海海事大学 一种基于usv的障碍物分割网络及其生成方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104112118A (zh) * 2014-06-26 2014-10-22 大连民族学院 用于车道偏离预警***的车道线检测方法
CN105160309A (zh) * 2015-08-24 2015-12-16 北京工业大学 基于图像形态学分割及区域生长的三车道检测方法
CN107066992A (zh) * 2017-05-11 2017-08-18 南宁市正祥科技有限公司 一种非平坦路面车道线检测方法
CN108009524A (zh) * 2017-12-25 2018-05-08 西北工业大学 一种基于全卷积网络的车道线检测方法
CN109242776A (zh) * 2018-09-11 2019-01-18 江苏君英天达人工智能研究院有限公司 一种基于视觉***的双车道线检测方法
US10223614B1 (en) * 2018-09-04 2019-03-05 StradVision, Inc. Learning method, learning device for detecting lane through classification of lane candidate pixels and testing method, testing device using the same
CN109543498A (zh) * 2017-10-16 2019-03-29 浙江工商大学 一种基于多任务网络的车道线检测方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104112118A (zh) * 2014-06-26 2014-10-22 大连民族学院 用于车道偏离预警***的车道线检测方法
CN105160309A (zh) * 2015-08-24 2015-12-16 北京工业大学 基于图像形态学分割及区域生长的三车道检测方法
CN107066992A (zh) * 2017-05-11 2017-08-18 南宁市正祥科技有限公司 一种非平坦路面车道线检测方法
CN109543498A (zh) * 2017-10-16 2019-03-29 浙江工商大学 一种基于多任务网络的车道线检测方法
CN108009524A (zh) * 2017-12-25 2018-05-08 西北工业大学 一种基于全卷积网络的车道线检测方法
US10223614B1 (en) * 2018-09-04 2019-03-05 StradVision, Inc. Learning method, learning device for detecting lane through classification of lane candidate pixels and testing method, testing device using the same
CN109242776A (zh) * 2018-09-11 2019-01-18 江苏君英天达人工智能研究院有限公司 一种基于视觉***的双车道线检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Spatial As Deep: Spatial CNN for Traffic Scene Understanding;Xingang Pan et al;《arXiv:1712.06080v1》;20171219;正文第2-4页 *
一种鲁棒的非平坦路面车道线检测算法;高志峰等;《北京理工大学学报》;20130131;第33卷(第1期);第73-78页 *
车道偏离预警视觉***算法改进研究;葛平淑;《中国优秀硕士学位论文全文数据库信息科技辑》;20081115;正文第3.4.1节 *

Also Published As

Publication number Publication date
CN110414386A (zh) 2019-11-05

Similar Documents

Publication Publication Date Title
CN109977812B (zh) 一种基于深度学习的车载视频目标检测方法
CN111368687B (zh) 一种基于目标检测和语义分割的人行道车辆违停检测方法
CN111274976B (zh) 基于视觉与激光雷达多层次融合的车道检测方法及***
CN109740465B (zh) 一种基于实例分割神经网络框架的车道线检测算法
CN110363182B (zh) 基于深度学习的车道线检测方法
CN106845478B (zh) 一种字符置信度的二次车牌识别方法及装置
CN106599792B (zh) 一种手部驾驶违规行为的检测方法
CN111563412B (zh) 一种基于参数空间投票和贝塞尔拟合的快速车道线检测方法
CN110866430B (zh) 一种车牌识别方法及装置
CN105809184B (zh) 一种适用于加油站的车辆实时识别跟踪与车位占用判断的方法
CN110619327A (zh) 一种复杂场景下基于深度学习的实时车牌识别方法
CN101901343A (zh) 基于立体约束的遥感影像道路提取方法
CN107944354B (zh) 一种基于深度学习的车辆检测方法
CN113516853B (zh) 一种针对复杂监控场景的多车道车流量检测方法
CN112766056B (zh) 一种基于深度神经网络的弱光环境车道线检测方法、装置
CN111160205A (zh) 一种交通场景嵌入式多类目标端对端统一检测方法
CN113313031B (zh) 一种基于深度学习的车道线检测和车辆横向定位方法
CN112613392B (zh) 基于语义分割的车道线检测方法、装置、***及存储介质
CN111915583A (zh) 复杂场景中基于车载红外热像仪的车辆和行人检测方法
CN111259796A (zh) 一种基于图像几何特征的车道线检测方法
CN114332921A (zh) 基于改进聚类算法的Faster R-CNN网络的行人检测方法
CN114693716A (zh) 一种面向复杂交通条件下的驾驶环境综合识别信息提取方法
CN114387592B (zh) 一种复杂背景下字符定位和识别方法
CN112836573A (zh) 一种基于对抗生成网络的车道线图像增强与补全方法
CN112801021B (zh) 基于多级语义信息的车道线检测方法及***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant