CN115100615A - 一种基于深度学习的端到端车道线检测方法 - Google Patents
一种基于深度学习的端到端车道线检测方法 Download PDFInfo
- Publication number
- CN115100615A CN115100615A CN202210717329.4A CN202210717329A CN115100615A CN 115100615 A CN115100615 A CN 115100615A CN 202210717329 A CN202210717329 A CN 202210717329A CN 115100615 A CN115100615 A CN 115100615A
- Authority
- CN
- China
- Prior art keywords
- lane line
- loss
- lane
- coordinate system
- picture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习的车道线检测方法,属于语义分割领域。本发明首先将由相机拍摄到的待检测车道线图片输入预先经过训练的车道线检测模型中,先由主干网络提取图像特征,再将提取的图像特征输入Transformer网络中提取全局特征,最后将提取的全局特征通过输出层得到待检测车道线图片中每条车道线的拟合参数集;所述拟合参数集包括车道线拟合多项式系数、车道线起始点高度以及车道线消失点高度;根据得到的所述拟合参数集,在待检测车道线图片中定位出每一条车道线,并获取所述相机的内参和外参,将图像坐标系下的车道线转换为世界坐标系下的车道线。利用本发明能保证车辆实际行驶过程中对于车道线检测所需的精度和速度。
Description
技术领域
本申请涉及自动驾驶技术领域,具体为一种基于深度学习的端到端的车道线检测方法。
背景技术
车道线检测是自动驾驶行车模块中一个相当重要的功能,它可以帮助车辆识别车道线,从而使得车辆保持在正确的车道上行驶,对于自动驾驶车辆的安全起着至关重要的作用,而安全问题也是自动驾驶最重要的问题,这就要求车道线检测具有高精度、实时性和鲁棒性的特点。
在深度学习兴起之前,车道线检测主要使用传统图像处理的方法。主要步骤是图像前处理、特征提取和曲线拟合。图像前处理包括去除噪声、处理光线、提取ROI以及色彩空间变换。去除噪声主要使用各种滤波如均值滤波、中值滤波、高斯滤波以及FIR滤波等。而对于车辆行驶中遇到的各种光线问题,如光线昏暗或者强光照主要采用阈值分割、otsu算法。提取ROI主要去除图像中不包含车道线的部分如天空。色彩空间变换是通过将RGB图像转换为HLS图像或者YCbCr图像从而更方便处理。特征提取主要通过Canny边缘检测、FIR滤波以及霍夫变换。最后是对处理后的图像进行曲线拟合,曲线拟合的方法有抛物线拟合、Catmull-Rom spline、Cubic B-spline以及螺旋曲线等。
基于图像处理的传统方法运行效率较高,然而实际汽车行驶的环境非常复杂,如光线、遮挡、磨损等各类干扰因素使得该类方法精度较低。而近年来兴起的深度学习为车道线检测提供了新的思路。从算法流程的角度目前目前基于深度学习的车道线检测算法分为one-step和two-step两种,two-step的主要步骤是特征提取和后处理(拟合、聚类),而one-step少了后处理部分。而根据算法思想的不同又可以分为基于图像分类、目标检测和语义分割三种不同的检测算法。
图像分类通常用来区分输入对象是什么,无法定位车道线的位置,所以需要结合先验信息,故通过图像分类进行检测有较大局限性。图像分类对于高级别任务来说显得有所不足,通过车道线上坐标点的回归显得更加可行。
对于目标检测主要的任务有两个:定位与识别。在EELane中输出了车道线两个端点的坐标与深度信息。而在VPGNet中提出了一种改进的定位消失点的方法,在后处理中使用点采样、聚类以及车道回归。而在STLNet中采用了前处理,利用深度学习对边界进行分类以及回归,而后进行车道拟合。
基于语义分割的车道线检测方法通过对像素点的分类获取车道线信息。
发明内容
本发明的目的在于解决现有技术中存在的问题,并提供一种基于深度学习的端到端的车道线检测方法。该方法不仅有较高的检测精度,检测速度也能得到保证,且输入图片经过网络运算之后直接输出拟合每条车道线在地面坐标系下的多项式,从而使得车辆规划控制模块直接使用输出结果来进行路径的规划以及车辆的控制。
为实现上述发明目的,本发明拟采用的技术方案如下:
一种基于深度学习的端到端的车道线检测方法,其包括以下步骤:
S1、获取由相机拍摄到的待检测车道线图片;
S2、将待检测车道线图片输入预先经过训练的车道线检测模型中,先由主干网络提取图像特征,再将提取的图像特征输入Transformer网络中提取全局特征,最后将提取的全局特征通过输出层得到待检测车道线图片中每条车道线的拟合参数集;所述拟合参数集包括车道线拟合多项式系数、车道线起始点高度以及车道线消失点高度;
S3、根据得到的所述拟合参数集,在待检测车道线图片中定位出每一条车道线,并获取所述相机的内参和外参,将图像坐标系下的车道线转换为世界坐标系下的车道线。
作为优选,所述车道线检测模型中的主干网络采用ResNet50。
作为优选,所述输出层由全连接层和sigmoid层组成。
作为优选,所述车道线检测模型预先利用训练数据集进行训练,其中每一个车道线图片样本均带有图片中每条车道线的标注点集;在训练时,将训练数据集分批次输入车道线检测模型,由输出层输出车道线图片样本中每条车道线的拟合参数集,通过最小化总损失函数对模型参数进行优化,使基于车道线检测模型输出的拟合参数集定位的车道线接近其实际值。
作为优选,所述车道线检测模型训练所采用的总损失函数为三部分损失组成的多任务损失loss,其形式为:
loss=W1loss1+W2loss2+W3loss3
式中:W1、W2、W3分别三个损失项的权重;loss1、loss2、loss3分别为三个不同的损失项,其中:
第一个损失项loss1为多项式损失,其计算公式为:
式中:n表示车道线图片样本中的车道线标注点数量,第j条车道线标注点的像素坐标为uj表示将第j条车道线标注点的纵坐标vj输入对应的车道线拟合多项式后得到的横坐标;所述车道线拟合多项式根据当前车道线检测模型输出的拟合参数集确定;
第二个损失项loss2为车道线起始点高度损失,其计算公式为:
第三个损失项loss3为车道线消失点高度损失,其计算公式为:
loss3=(h-h*)2
式中:h和h*分别表示车道线图片样本中的车道线消失点高度的预测值和标签值。
作为优选,所述车道线拟合多项式为三次多项式,其形式为:
v=a*u3+b*u2+c*u+d
式中:a、b、c、d分别为车道线拟合多项式系数,u和v为车道线上一个点在图像坐标系下的横坐标和纵坐标。
作为优选,所述相机为单目相机。
作为优选,所述将图像坐标系下的车道线转换为世界坐标系下的车道线的做法为:
针对待检测车道线图片中定位出每一条车道线,沿车道线上均匀采样若干个采样点;然后利用所述相机的内参将图像坐标下的采样点坐标转化为相机坐标系下的采样点坐标;再利用所述相机的外参将相机坐标系下的采样点坐标转化为世界坐标系下的采样点坐标;最后基于每条车道线在世界坐标系下的各采样点坐标,重新对车道线进行拟合。
与现有技术相比,本发明具有以下有益效果:
1、本发明提出的基于深度学习的车道线检测方法能够在可视范围内较为精准地检测车道线的位置。
2、本发明的车道线检测方法仅需使用一个单目相机检测车道线图片,对于传感器要求较低,极大减少了车辆量产的成本。
3、本发明使用的车道线检测模型网络结构较为简单,对车载芯片的算力要求较低,在保证的精确度的同时具有较好的实时性。
附图说明
图1为本发明中基于深度学习的端到端的车道线检测方法的流程图。
图2为本发明中一个车道线图片示例中的参数标注示意图;
图3为本发明基于深度学习的车道线检测模型的框架示意图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图对本发明的具体实施方式做详细的说明。在下面的描述中阐述了很多具体细节以便于充分理解本发明。但是本发明能够以很多不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本发明内涵的情况下做类似改进,因此本发明不受下面公开的具体实施例的限制。本发明各个实施例中的技术特征在没有相互冲突的前提下,均可进行相应组合。
如图1所示,在本发明的一个较佳实施例中,提供了一种基于深度学习的端到端的车道线检测方法,其包括以下步骤:
S1、获取由相机拍摄到的待检测车道线图片。
S2、将待检测车道线图片输入预先经过训练的车道线检测模型中,先由主干网络提取图像特征,再将提取的图像特征输入Transformer网络中提取全局特征,最后将提取的全局特征通过输出层得到待检测车道线图片中每条车道线的拟合参数集;所述拟合参数集包括车道线拟合多项式系数、车道线起始点高度以及车道线消失点高度。
需要说明的是,本发明中的车道线图片是指包含了车道线的图片,获取此类图片的相机形式不限。车道线检测常见用于车辆自动驾驶的辅助功能中,因此作为本发明实施例的一种较佳实现方式,本发明中拍摄的车道线图片由车载的相机或者图像传感器获取。为了降低成本,车载相机优选采用单目相机。
常见的车道线图片中上半部分为天空,下半部分为具有车道线的道路。根据空间视觉关系,车道线起点位于图片的下方,逐渐向图片上部延伸,最终在图片中上部消失在地平线上。为了便于叙述,本发明中将每一条车道线开始的位置称为车道线起始点,将车道线在地平线上消失的位置称为车道线消失点。当车道线由多条时,根据空间视觉关系,每一条车道线都会有一个车道线起始点,但车道线消失点会逐渐汇聚至一点,因此可默认同一张图片中的所有车道线共享一个消失点。如图2所示,展示了一张车道线图片的示意图,其中在外边框内存在三条车道线,两条实线和一条虚线,以参数s表示车道线起始点高度,以参数h表示车道线消失点高度。图2中一共标出了三个车道线起始点高度,分别记为s1、s2、s3,同时标出了一个车道线消失点高度h。需要注意的是,由于车道线起始点高度和车道线消失点高度都是一个高度值,因此计算其高度值的基准高度可以根据实际进行调整,在图2中是以图片的下边缘作为基准高度的,但是实际上也可以以图片的上边缘或者其他高度为基准高度,对此可不作限定。
本发明中,车道线的具体形状需要根据前方道路的延伸方向而定,可能是直线,也可能是曲线,但大部分情况下是曲线。图2中展示的车道线也为曲线形式。因此作为本发明实施例的一种较佳实现方式,车道线拟合多项式可采用三次多项式,其形式为:
v=a*u3+b*u2+c*u+d
式中:a、b、c、d分别为车道线拟合多项式系数,u和v为车道线上一个点在图像坐标系下的横坐标和纵坐标。
另外,上述车道线检测模型中,具体的主干网络和输出层形式可根据实际进行调整。作为本发明实施例的一种较佳实现方式,上述车道线检测模型中的主干网络采用ResNet50,而上述输出层由全连接层和sigmoid层组成。
如图3所示,展示了上述基于深度学习的车道线检测模型的框架,是一个端到端训练的网络模型。待检测车道线图片输入后,以ResNet50作为Backbone进行特征提取,进一步在Backbone层后使用一个编码器-解码器(Encode-Decode)结构的Transformer网络提取全局信息。由于车道线的形状狭长,提取全局信息能够更好地预测车道线位置,并且可以有效改善由于车道线磨损、遮挡等引起的检测精度下降。输出层(Output Layer)输出代表每条车道线的拟合参数,包括车道线拟合多项式系数、车道线起始点高度s以及车道线消失点高度h。根据车道线拟合多项式系数可以拟合出图片坐标系下的车道线所在空间曲线,而根据车道线起始点高度s以及车道线消失点高度h则可以确定车道线的起始点。
需要说明的是,上述车道线检测模型在实际应用前,需要进行训练,直至其对于拟合参数集的预测准确性满足要求。
作为本发明实施例的一种较佳实现方式,上述车道线检测模型预先利用训练数据集进行训练,其中每一个车道线图片样本均带有图片中每条车道线的标注点集;在训练时,将训练数据集分批次输入车道线检测模型,由输出层输出车道线图片样本中每条车道线的拟合参数集,通过最小化总损失函数对模型参数进行优化,使基于车道线检测模型输出的拟合参数集定位的车道线接近其实际值。
在训练过程中,总损失函数的设置会直接影响到网络参数的优化效果。本发明中的模型预测结果是一个包含了多类参数的拟合参数集,其中车道线拟合多项式系数、车道线起始点高度以及车道线消失点高度实际上是三类不同的参数。因此,作为本发明实施例的一种较佳实现方式,上述车道线检测模型训练所采用的总损失函数为三部分损失组成的多任务损失loss,其形式为:
loss=W1loss1+W2loss2+W3loss3
式中:W1、W2、W3分别三个损失项的权重;loss1、loss2、loss3分别为三个不同的损失项,其中:
第一个损失项loss1为多项式损失,其计算公式为:
式中:n表示车道线图片样本中的车道线标注点数量,第j条车道线标注点的像素坐标为uj表示将第j条车道线标注点的纵坐标vj输入对应的车道线拟合多项式后得到的横坐标;所述车道线拟合多项式根据当前车道线检测模型输出的拟合参数集确定;
第二个损失项loss2为车道线起始点高度损失,其计算公式为:
第三个损失项loss3为车道线消失点高度损失,其计算公式为:
loss3=(h-h*)2
式中:h和h*分别表示车道线图片样本中的车道线消失点高度的预测值和标签值。
基于上述总损失函数形式,下面通过一个具体实施例说明上述车道线检测模型的训练过程:
步骤(1):将采集到的车道线图片数据通过手工的方式在图片上以一定间隔打上标注点,然后在标注文件中输入每条车道线的标注点集,从而得到训练数据集。
步骤(2):利用训练数据集对车道线检测模型进行训练:
(2-1):将训练数据集以预先设定好的批大小(BatchSize)的图片数目输入车道线检测模型,通过输出层输出各条车道线的拟合参数集;
(2-2):根据得到的拟合参数集计算上述的三个损失项并加权得到总损失函数loss,通过优化器基于总损失函数loss对网络参数进行优化;
(2-3)重复步骤(2-1)~(2-2)达到预设训练次数后结束训练。车道线检测模型收敛后,即可用于实际检测应用。
S3、根据得到的所述拟合参数集,在待检测车道线图片中定位出每一条车道线,并获取所述相机的内参和外参,将图像坐标系下的车道线转换为世界坐标系下的车道线。
需要说明的是,图像坐标系和世界坐标系的转换属于现有技术,可通过相机的内参和外参进行转换。
作为本发明实施例的一种较佳实现方式,将图像坐标系下的车道线转换为世界坐标系下的车道线的做法为:
针对待检测车道线图片中定位出每一条车道线,沿车道线上均匀采样若干个采样点;然后利用所述相机的内参将图像坐标下的采样点坐标转化为相机坐标系下的采样点坐标;再利用所述相机的外参将相机坐标系下的采样点坐标转化为世界坐标系下的采样点坐标;最后基于每条车道线在世界坐标系下的各采样点坐标,重新对车道线进行拟合。
在一实施例中,车道线上的一个采样点坐标由图像坐标系下转换到世界坐标系下的过程如下:
首先,获取相机内参,将图像坐标系下的点(u,v)坐标转化为相机坐标系下的坐标:
其中:fx,fy,cx,cy为相机内参,可直接通过读取相机得到;xc,yc,zc为图像坐标系下点(u,v)在相机坐标系上的投影的坐标;
然后,将相机坐标系下的点坐标(xc,yc,zc)投影到世界坐标系上,则有:
其中:R,T分别为一个3×3的旋转矩阵和一个3×1的平移矩阵,可通过对相机外参的标定得到;(xw,yw,zw)为相机坐标系下点(xc,yc,zc)在世界坐标系上的投影的坐标。
将一张车道线图片中所有图像坐标系下的采样点点集按照以上方法投影到世界坐标系后,即可将投影得到的世界坐标系下的点集重新拟合为车道线对应的多项式,便完成了多项式的投影变换。
需要说明的是,对于每一个相机,其内参和外参预先预先根据实际进行标定。例如,对于车主的前视单目相机而言,标定其内参和外参后,即可根据车道线检测模型输出的结果确定世界坐标系下的车道线多项式。世界坐标系下的车道线多项式可用于实际的车辆行车时候使用,以便于感知前方道路方向。
综上所述,本发明提供了一种基于深度学习的车道线检测方法,该方法通过使用单目相机作为传感器,成本较低,而且随着深度学习的发展,在可视范围内对车道线检测的误差较小。
以上所述的实施例对本发明的技术方案和有益效果进行了详细说明,应理解的是以上所述仅为本发明的具体实施例,并不用于限制本发明,凡在本发明的原则范围内所做的任何修改、补充和等同替换,均应包含在本发明的保护范围之内。
Claims (8)
1.一种基于深度学习的端到端的车道线检测方法,其特征在于,包括以下步骤:
S1、获取由相机拍摄到的待检测车道线图片;
S2、将待检测车道线图片输入预先经过训练的车道线检测模型中,先由主干网络提取图像特征,再将提取的图像特征输入Transformer网络中提取全局特征,最后将提取的全局特征通过输出层得到待检测车道线图片中每条车道线的拟合参数集;所述拟合参数集包括车道线拟合多项式系数、车道线起始点高度以及车道线消失点高度;
S3、根据得到的所述拟合参数集,在待检测车道线图片中定位出每一条车道线,并获取所述相机的内参和外参,将图像坐标系下的车道线转换为世界坐标系下的车道线。
2.如权利要求1所述的基于深度学习的端到端的车道线检测方法,其特征在于,所述车道线检测模型中的主干网络采用ResNet50。
3.如权利要求1所述的基于深度学习的端到端的车道线检测方法,其特征在于,所述输出层由全连接层和sigmoid层组成。
4.如权利要求1所述的基于深度学习的端到端的车道线检测方法,其特征在于,所述车道线检测模型预先利用训练数据集进行训练,其中每一个车道线图片样本均带有图片中每条车道线的标注点集;在训练时,将训练数据集分批次输入车道线检测模型,由输出层输出车道线图片样本中每条车道线的拟合参数集,通过最小化总损失函数对模型参数进行优化,使基于车道线检测模型输出的拟合参数集定位的车道线接近其实际值。
5.如权利要求1所述的基于深度学习的端到端的车道线检测方法,其特征在于,所述车道线检测模型训练所采用的总损失函数为三部分损失组成的多任务损失loss,其形式为:
loss=W1loss1+W2loss2+W3loss3
式中:W1、W2、W3分别三个损失项的权重;loss1、loss2、loss3分别为三个不同的损失项,其中:
第一个损失项loss1为多项式损失,其计算公式为:
式中:n表示车道线图片样本中的车道线标注点数量,第j条车道线标注点的像素坐标为uj表示将第j条车道线标注点的纵坐标vj输入对应的车道线拟合多项式后得到的横坐标;所述车道线拟合多项式根据当前车道线检测模型输出的拟合参数集确定;
第二个损失项loss2为车道线起始点高度损失,其计算公式为:
第三个损失项loss3为车道线消失点高度损失,其计算公式为:
loss3=(h-h*)2
式中:h和h*分别表示车道线图片样本中的车道线消失点高度的预测值和标签值。
6.如权利要求1所述的基于深度学习的端到端的车道线检测方法,其特征在于,所述车道线拟合多项式为三次多项式,其形式为:
v=a*u3+b*u2+c*u+d
式中:a、b、c、d分别为车道线拟合多项式系数,u和v为车道线上一个点在图像坐标系下的横坐标和纵坐标。
7.如权利要求1所述的基于深度学习的端到端的车道线检测方法,其特征在于,所述相机为单目相机。
8.如权利要求1所述的基于深度学习的端到端的车道线检测方法,其特征在于,所述将图像坐标系下的车道线转换为世界坐标系下的车道线的做法为:
针对待检测车道线图片中定位出每一条车道线,沿车道线上均匀采样若干个采样点;然后利用所述相机的内参将图像坐标下的采样点坐标转化为相机坐标系下的采样点坐标;再利用所述相机的外参将相机坐标系下的采样点坐标转化为世界坐标系下的采样点坐标;最后基于每条车道线在世界坐标系下的各采样点坐标,重新对车道线进行拟合。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210717329.4A CN115100615A (zh) | 2022-06-23 | 2022-06-23 | 一种基于深度学习的端到端车道线检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210717329.4A CN115100615A (zh) | 2022-06-23 | 2022-06-23 | 一种基于深度学习的端到端车道线检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115100615A true CN115100615A (zh) | 2022-09-23 |
Family
ID=83293842
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210717329.4A Pending CN115100615A (zh) | 2022-06-23 | 2022-06-23 | 一种基于深度学习的端到端车道线检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115100615A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116385529A (zh) * | 2023-04-14 | 2023-07-04 | 小米汽车科技有限公司 | 确定减速带位置的方法、装置、存储介质以及车辆 |
CN117928575A (zh) * | 2024-03-22 | 2024-04-26 | 四川省公路规划勘察设计研究院有限公司 | 车道信息提取方法、***、电子设备以及存储介质 |
-
2022
- 2022-06-23 CN CN202210717329.4A patent/CN115100615A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116385529A (zh) * | 2023-04-14 | 2023-07-04 | 小米汽车科技有限公司 | 确定减速带位置的方法、装置、存储介质以及车辆 |
CN116385529B (zh) * | 2023-04-14 | 2023-12-26 | 小米汽车科技有限公司 | 确定减速带位置的方法、装置、存储介质以及车辆 |
CN117928575A (zh) * | 2024-03-22 | 2024-04-26 | 四川省公路规划勘察设计研究院有限公司 | 车道信息提取方法、***、电子设备以及存储介质 |
CN117928575B (zh) * | 2024-03-22 | 2024-06-18 | 四川省公路规划勘察设计研究院有限公司 | 车道信息提取方法、***、电子设备以及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111274976B (zh) | 基于视觉与激光雷达多层次融合的车道检测方法及*** | |
CN108304873B (zh) | 基于高分辨率光学卫星遥感影像的目标检测方法及其*** | |
CN112464883B (zh) | 一种自然场景下船舶目标自动检测识别方法与*** | |
CN109657632B (zh) | 一种车道线检测识别方法 | |
CN115100615A (zh) | 一种基于深度学习的端到端车道线检测方法 | |
CN111914698B (zh) | 图像中人体的分割方法、分割***、电子设备及存储介质 | |
CN103971128A (zh) | 一种面向无人驾驶车的交通标志识别方法 | |
CN112488046B (zh) | 一种基于无人机高分辨率影像的车道线提取方法 | |
CN112907519A (zh) | 一种基于深度学习的金属曲面缺陷分析***及方法 | |
CN110363160B (zh) | 一种多车道线识别方法及装置 | |
CN107944354B (zh) | 一种基于深度学习的车辆检测方法 | |
CN107895375A (zh) | 基于视觉多特征的复杂道路线提取方法 | |
CN116109637B (zh) | 基于视觉的涡轮增压器叶轮外观缺陷检测的***及其方法 | |
CN110427979B (zh) | 基于K-Means聚类算法的道路水坑识别方法 | |
CN114331986A (zh) | 一种基于无人机视觉的坝体裂纹识别与测量方法 | |
CN115797813B (zh) | 基于航拍图像的水环境污染检测方法 | |
CN110969164A (zh) | 基于深度学习端对端的低照度成像车牌识别方法及装置 | |
CN116740758A (zh) | 一种防止误判的鸟类图像识别方法及*** | |
CN110458019B (zh) | 稀缺认知样本条件下的排除倒影干扰的水面目标检测方法 | |
CN113239733A (zh) | 一种多车道车道线检测方法 | |
CN116883868A (zh) | 基于自适应图像去雾的无人机智能巡航检测方法 | |
CN114648734A (zh) | 基于图像处理的摄像机工作异常检测方法 | |
CN114241438A (zh) | 一种基于先验信息的交通信号灯快速精确的识别方法 | |
CN113053164A (zh) | 一种利用环视图像的车位识别方法 | |
CN109840498B (zh) | 一种实时行人检测方法及神经网络、目标检测层 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |