CN112364800A - 一种基于人工智能的自动驾驶偏离处理方法 - Google Patents

一种基于人工智能的自动驾驶偏离处理方法 Download PDF

Info

Publication number
CN112364800A
CN112364800A CN202011298591.7A CN202011298591A CN112364800A CN 112364800 A CN112364800 A CN 112364800A CN 202011298591 A CN202011298591 A CN 202011298591A CN 112364800 A CN112364800 A CN 112364800A
Authority
CN
China
Prior art keywords
vehicle
driving
module
lane
artificial intelligence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011298591.7A
Other languages
English (en)
Other versions
CN112364800B (zh
Inventor
杨忠
李世华
杨俊�
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jinling Institute of Technology
Original Assignee
Jinling Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jinling Institute of Technology filed Critical Jinling Institute of Technology
Priority to CN202011298591.7A priority Critical patent/CN112364800B/zh
Publication of CN112364800A publication Critical patent/CN112364800A/zh
Application granted granted Critical
Publication of CN112364800B publication Critical patent/CN112364800B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

一种基于人工智能的自动驾驶偏离处理方法,该方法包括以下步骤:步骤1,获取车辆行驶数据,步骤2模拟行车的恶劣环境,步骤3识别车道线和其他非道路物体,步骤4实时校准车辆偏航,步骤5匹配车辆速度及安全距离,步骤6开启自动驾驶中断,处理行驶异常。本发明在人工智能算法的基础上,基于人工智能的自动驾驶偏离处理方法。本发明改进了YOLOv3算法实现了行车图像的检测,并提出了车辆自动行驶的偏航校正模型,为尽可能的降低环境噪声对传感器采集数据的影响,本发明通过模拟噪声环境对传感器采集数据的影响,增强训练得到的模型的可靠性和鲁棒性。

Description

一种基于人工智能的自动驾驶偏离处理方法
技术领域
本发明涉及人工智能领域,特别是涉及基于人工智能的自动驾驶偏离处理方法。
背景技术
智能驾驶是指机器帮助人进行驾驶以及在特殊情况下完全取代人进行驾驶。智能驾驶作为各个国家重点发展智能交通***中的一部分,仍在不断的探索与实验中。智能驾驶对各国经济和科技发展及综合国力提升有着重大的作用。无人驾驶是汽车产业未来发展的方向,作为智能驾驶的核心其意义重大。无人驾驶是指通过搭载先进传感器等多种感知设备对汽车行驶中的周围环境进行感知和判断,从而获得车辆状态和周围环境信息并自动规划行车路线,控制车辆到达目的地的技术。
无人驾驶汽车能根据视觉信息正确识别道路、进行行驶路线规划及行驶安全性监测;而车道线检测与识别是整个***的核心部分。基于视觉***获取的图像信息需经过一系列处理才能保证规划出规范、迅速、安全的行驶路径。故对车道线检测识别等核心技术的研究意义重大。
发明内容
为解决上述问题,本发明在人工智能的基础上,提出了种基于人工智能的自动驾驶偏离处理方法。为提高行驶过程中物体识别的准确率,提出了一种改进的YOLOv3算法,本发明通过调整网络的锚框,获得检测目标的先验知识,另外,为了增强所提特征的重要性,在主干块中加入多感受野机制来提取监控图像的高级特征。同时对于智能驾驶的偏航以及异常处理情况进行建模,为达此目的,本发明提供一种基于人工智能的自动驾驶偏离处理方法,具体步骤如下,其特征在于:
步骤1,获取车辆行驶数据,包括:行车图像、海拔高度、车速、经度、维度和方向仰角等数据;
步骤2,模拟行车的恶劣环境,为增加自动驾驶模型的稳定性和鲁棒性,在获取的数据的基础上叠加高斯白噪声,信噪比范围控制在30~40dB;
步骤3,识别车道线和其他非道路物体,将行车图像中的识别目标划分为:车道线和其他非道路物体,并通过改进的YOLOv3模型对其检测;
步骤4,实时校准车辆偏航,通过步骤1至步骤3对车道线进行检测和跟踪,将车道线图像中心记为坐标原点,建立行车偏航角度模型,校准行车行驶路线;
步骤5,匹配车辆速度及安全距离,通过实时监测的车辆速度和YOLOv3检测结果匹配车辆的安全距离;
步骤6,开启自动驾驶中断,当安全距离内出现异常,***启动中断处理机制,同时向司机播报预警信息,日志模块记录车载终端的异常情况。
进一步,步骤2中模拟行车的恶劣环境的过程可以表示为:
xs=xn+x (1)
式中,x为原始车辆行驶数据,xn为高斯白噪声数据,xs表示得到的模拟噪声环境下采集的数据。
信噪比的定义如下:
Figure BDA0002786116870000021
式中,Ps表示信号的功率,Pn表示噪声的功率。
进一步,步骤3中识别车道线和其他非道路物体过程可以表示为:
建立两个YOLOv3模型,分别检测车道线和其他非道路物体,每个模型包含三部分:主干模块、特征融合模块和预测模块;为减小检测框的回归难度,通过K-means得到训练集上的聚类中心,对原始YOLOv3网络的锚框重新设置,并使用下式的距离度量:
d=1-IOU(b,a) (3)
其中,b和a分别表示标签和聚类中心框,d表示标签框与聚类中心框的重叠度,d越小,表示标签框与聚类中心框的重叠度越高,使用聚类中心设置所有的YOLO锚框,大分辨率特征图对应的YOLO层使用较小的2个锚框,小分辨率特征图对应的YOLO层使用较大的3个锚框。
在主干模块中加入多感受野机制来学习丰富的特征,提高主干模块的学习能力,为获得不同感受野特征,分别使用卷积核大小为1×1和5×5的CBLP模块与原始的CBLP模块并行连接,CBLP模块和多感受野模块的映射关系表示为下式:
xCBLP=H(xi) (4)
xmulti=H1(xi)+H3(xi)+H5(xi) (5)
其中xCBLP和xmulti分别表示CBLP模块和多感受野模块的输出;H1(·)、H3(·)和H5(·)分别表示卷积核大小分别为:1×1、3×3和5×5的映射;xi表示输入特征图,使用训练样本集训练YOLOv3网络,得到两个可以检测车道线和其他非道路物体的改进YOLOv3网络。
进一步,步骤4中校准行车行驶路线过程可以表示为:
步骤4.1,建立车道线模型,将步骤3检测到的车道线图像中心记为坐标原点,水平轴为x轴,垂直轴为y轴,建立车道线模型,同时将行车图像中的左右车道线在坐标轴中用两条直线函数进行表示:
Figure BDA0002786116870000031
式中,(x1,y1)、(x2,y2)分别是左右车道线在坐标轴中的坐标,k1、k2分别是左右车道线模型的斜率,b1、b2分别是左右车道线模型的截距。
步骤4.2,计算行车偏移角值,将步骤4.1坐标系中的y轴作为车辆行驶方向,计算车辆行驶方向和左右车道角平分线的夹角,其中左右角平分线的斜率k3为:
Figure BDA0002786116870000032
通过左右车道角平分线斜率的反三角函数计算,可得左右角平分线和车辆行驶方向的偏移角θ,设置阈值θ1和θ2,当偏移角小于θ1时,认为行车左偏,需要向右修正,当偏移角大于θ2时,认为行车右偏,需要向左修正;
步骤4.3,对偏航角修正后,继续执行步骤4.1和4.2,直到车辆达到目的地或出现异常情况。
进一步,步骤5中匹配车辆的安全距离的过程可以表示为:
车辆在行驶过程中,按当前速度将会碰撞的物体作为安全距离参照物,当与参照物的距离为100米以上时,将速度上限设为100km/h,当距离为60千米以上时,将速度上限设为60km/h,计算公式为:
v≤d/10 (8)
其中,v是行车最大速度,d是行车与物体的距离。
本发明一种基于人工智能的自动驾驶偏离处理方法,本发明的技术有益效果在于:
1.本发明模拟了行车时的恶劣环境,在受到的噪声环境的干扰下,实现自动驾驶功能,增强了自动驾驶功能的稳定性、可靠性和鲁棒性;
2.本发明采用为减小检测框的回归难度,结合K-means训练得到的聚类中心来调整YOLOv3模型的锚框;
3.本发明在YOLOv3模型的主干模块中加入多感受野机制来学习丰富的特征,提高主干模块的学习能力;
4.本发明为人工智能驾驶提供了一种重要的技术手段。
附图说明
图1为本发明的流程图;
图2为本发明行车偏移角模型图。
具体实施方式
下面结合附图与具体实施方式对本发明作进一步详细描述:
本发明提出了一种基于人工智能的自动驾驶偏离处理方法,旨在实现人工智能替代人工驾驶的人工智能驾驶技术。图1为本发明的流程图。下面结合流程图对本发明的步骤作详细介绍。
步骤1,获取车辆行驶数据,包括:行车图像、海拔高度、车速、经度、维度和方向仰角等数据;
步骤2,模拟行车的恶劣环境,为增加自动驾驶模型的稳定性和鲁棒性,在获取的数据的基础上叠加高斯白噪声,信噪比范围控制在30~40dB;
步骤2中模拟行车的恶劣环境的过程可以表示为:
xs=xn+x (1)
式中,x为原始车辆行驶数据,xn为高斯白噪声数据,xs表示得到的模拟噪声环境下采集的数据。
信噪比的定义如下:
Figure BDA0002786116870000041
式中,Ps表示信号的功率,Pn表示噪声的功率。
步骤3,识别车道线和其他非道路物体,将行车图像中的识别目标划分为:车道线和其他非道路物体,并通过改进的YOLOv3模型对其检测;
步骤3中识别车道线和其他非道路物体过程可以表示为:
通过步骤1采集的数据建立行车图像训练数据集,并建立两个YOLOv3模型,分别检测车道线和其他非道路物体,每个模型包含三部分:主干模块、特征融合模块和预测模块;为减小检测框的回归难度,通过K-means得到训练集上的聚类中心,对原始YOLOv3网络的锚框重新设置,并使用下式的距离度量:
d=1-IOU(b,a) (3)
其中,b和a分别表示行车图像训练数据的标签和聚类中心框,d表示标签框与聚类中心框的重叠度,d越小,表示行车图像训练数据标签框与聚类中心框的重叠度越高,使用聚类中心设置所有的YOLO锚框,大分辨率特征图对应的YOLO层使用较小的2个锚框,小分辨率特征图对应的YOLO层使用较大的3个锚框。
在主干模块中加入多感受野机制来学习丰富的特征,提高主干模块的学习能力,为获得不同感受野特征,分别使用卷积核大小为1×1和5×5的CBLP模块与原始的CBLP模块并行连接,CBLP模块和多感受野模块的映射关系表示为下式:
xCBLP=H(xi) (4)
xmulti=H1(xi)+H3(xi)+H5(xi) (5)
其中xCBLP和xmulti分别表示CBLP模块和多感受野模块的输出;H1(·)、H3(·)和H5(·)分别表示卷积核大小分别为:1×1、3×3和5×5的映射;xi表示输入的行车图像,使用训练样本集训练YOLOv3网络,得到两个可以检测车道线和其他非道路物体的改进YOLOv3网络。
步骤4,实时校准车辆偏航,通过步骤1至步骤3对车道线进行检测和跟踪,将车道线图像中心记为坐标原点,建立行车偏航角度模型,校准行车行驶路线;
步骤4中校准行车行驶路线过程可以表示为:
步骤4.1,建立车道线模型,将步骤3中YOLOv3网络检测到的车道线图像中心记为坐标原点,水平轴为x轴,垂直轴为y轴,如图2所示,图中L1是左车道线,L2是左车道线,L3是左右车道线角平分线,建立车道线坐标系和模型,同时将行车图像中的左右车道线在坐标轴中用两条直线函数进行表示:
Figure BDA0002786116870000051
式中,(x1,y1)、(x2,y2)分别是左右车道线在坐标轴中的坐标,k1、k2分别是左右车道线模型的斜率,b1、b2分别是左右车道线模型的截距。
步骤4.2,计算行车偏移角值,将步骤4.1坐标系中的y轴作为车辆行驶方向,计算车辆行驶方向和左右车道角平分线的夹角,其中左右角平分线的斜率k3为:
Figure BDA0002786116870000052
通过左右车道角平分线斜率的反三角函数计算,可得左右角平分线和车辆行驶方向的偏移角θ,设置阈值θ1和θ2,当偏移角小于θ1时,认为行车左偏,需要向右修正,当偏移角大于θ2时,认为行车右偏,需要向左修正;
步骤4.3,对偏航角修正后,继续执行步骤4.1和4.2,直到车辆达到目的地或出现异常情况。
步骤5,匹配车辆速度及安全距离,通过实时监测的车辆速度和YOLOv3检测结果匹配车辆的安全距离;
步骤5中匹配车辆的安全距离的过程可以表示为:
车辆在行驶过程中,按当前速度将会碰撞的物体作为安全距离参照物,当与参照物的距离为100米以上时,将速度上限设为100km/h,当距离为60千米以上时,将速度上限设为60km/h,计算公式为:
v≤d/10 (8)
其中,v是行车最大速度,d是行车与物体的距离。
步骤6,开启自动驾驶中断,当安全距离内出现异常,***启动中断处理机制,同时向司机播报预警信息,日志模块记录车载终端的异常情况。
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作任何其他形式的限制,而依据本发明的技术实质所作的任何修改或等同变化,仍属于本发明所要求保护的范围。

Claims (5)

1.一种基于人工智能的自动驾驶偏离处理方法,具体步骤如下,其特征在于:
步骤1,获取车辆行驶数据,包括:行车图像、海拔高度、车速、经度、维度和方向仰角等数据;
步骤2,模拟行车的恶劣环境,为增加自动驾驶模型的稳定性和鲁棒性,在获取的数据的基础上叠加高斯白噪声,信噪比范围控制在30~40dB;
步骤3,识别车道线和其他非道路物体,将行车图像中的识别目标划分为:车道线和其他非道路物体,并通过改进的YOLOv3模型对其检测;
步骤4,实时校准车辆偏航,通过步骤1至步骤3对车道线进行检测和跟踪,将车道线图像中心记为坐标原点,建立行车偏航角度模型,校准行车行驶路线;
步骤5,匹配车辆速度及安全距离,通过实时监测的车辆速度和YOLOv3检测结果匹配车辆的安全距离;
步骤6,开启自动驾驶中断,当安全距离内出现异常,***启动中断处理机制,同时向司机播报预警信息,日志模块记录车载终端的异常情况。
2.根据权利要求1所述的一种基于人工智能的自动驾驶偏离处理方法,其特征在于:骤2中模拟行车的恶劣环境的过程可以表示为:
xs=xn+x (1)
式中,x为原始车辆行驶数据,xn为高斯白噪声数据,xs表示得到的模拟噪声环境下采集的数据;
信噪比的定义如下:
Figure FDA0002786116860000011
式中,Ps表示信号的功率,Pn表示噪声的功率。
3.根据权利要求1所述的一种基于人工智能的自动驾驶偏离处理方法,其特征在于:步骤3中识别车道线和其他非道路物体过程可以表示为:
建立两个YOLOv3模型,分别检测车道线和其他非道路物体,每个模型包含三部分:主干模块、特征融合模块和预测模块;为减小检测框的回归难度,通过K-means得到训练集上的聚类中心,对原始YOLOv3网络的锚框重新设置,并使用下式的距离度量:
d=1-IOU(b,a) (3)
其中,b和a分别表示标签和聚类中心框,d表示标签框与聚类中心框的重叠度,d越小,表示标签框与聚类中心框的重叠度越高,使用聚类中心设置所有的YOLO锚框,大分辨率特征图对应的YOLO层使用较小的2个锚框,小分辨率特征图对应的YOLO层使用较大的3个锚框;
在主干模块中加入多感受野机制来学习丰富的特征,提高主干模块的学习能力,为获得不同感受野特征,分别使用卷积核大小为1×1和5×5的CBLP模块与原始的CBLP模块并行连接,CBLP模块和多感受野模块的映射关系表示为下式:
xCBLP=H(xi) (4)
xmulti=H1(xi)+H3(xi)+H5(xi) (5)
其中xCBLP和xmulti分别表示CBLP模块和多感受野模块的输出;H1(·)、H3(·)和H5(·)分别表示卷积核大小分别为:1×1、3×3和5×5的映射;xi表示输入特征图,使用训练样本集训练YOLOv3网络,得到两个可以检测车道线和其他非道路物体的改进YOLOv3网络。
4.根据权利要求1所述的一种基于人工智能的自动驾驶偏离处理方法,其特征在于:步骤4中校准行车行驶路线过程可以表示为:
步骤4.1,建立车道线模型,将步骤3检测到的车道线图像中心记为坐标原点,水平轴为x轴,垂直轴为y轴,建立车道线模型,同时将行车图像中的左右车道线在坐标轴中用两条直线函数进行表示:
Figure FDA0002786116860000021
式中,k1、k2分别是左右车道线模型的斜率,b1、b2分别是左右车道线模型的截距;
步骤4.2,计算行车偏移角值,将步骤4.1坐标系中的y轴作为车辆行驶方向,计算车辆行驶方向和左右车道角平分线的夹角,其中左右角平分线的斜率k3为:
Figure FDA0002786116860000022
通过左右车道角平分线斜率的反三角函数计算,可得左右角平分线和车辆行驶方向的偏移角θ,设置阈值θ1和θ2,当偏移角小于θ1时,认为行车左偏,需要向右修正,当偏移角大于θ2时,认为行车右偏,需要向左修正;
步骤4.3,对偏航角修正后,继续执行步骤4.1和4.2,直到车辆达到目的地或出现异常情况。
5.根据权利要求1所述的一种基于人工智能的自动驾驶偏离处理方法,其特征在于:骤5中匹配车辆的安全距离的过程可以表示为:
车辆在行驶过程中,按当前速度将会碰撞的物体作为安全距离参照物,当与参照物的距离为100米以上时,将速度上限设为100km/h,当距离为60千米以上时,将速度上限设为60km/h,计算公式为:
v≤d/10 (8)
其中,v是行车最大速度,d是行车与物体的距离。
CN202011298591.7A 2020-11-19 2020-11-19 一种基于人工智能的自动驾驶偏离处理方法 Active CN112364800B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011298591.7A CN112364800B (zh) 2020-11-19 2020-11-19 一种基于人工智能的自动驾驶偏离处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011298591.7A CN112364800B (zh) 2020-11-19 2020-11-19 一种基于人工智能的自动驾驶偏离处理方法

Publications (2)

Publication Number Publication Date
CN112364800A true CN112364800A (zh) 2021-02-12
CN112364800B CN112364800B (zh) 2023-07-14

Family

ID=74532976

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011298591.7A Active CN112364800B (zh) 2020-11-19 2020-11-19 一种基于人工智能的自动驾驶偏离处理方法

Country Status (1)

Country Link
CN (1) CN112364800B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104112118A (zh) * 2014-06-26 2014-10-22 大连民族学院 用于车道偏离预警***的车道线检测方法
US20180089515A1 (en) * 2016-09-12 2018-03-29 Kennesaw State University Research And Service Foundation, Inc. Identification and classification of traffic conflicts using live video images
US20180261095A1 (en) * 2017-03-08 2018-09-13 GM Global Technology Operations LLC Method and apparatus of networked scene rendering and augmentation in vehicular environments in autonomous driving systems
CN108537197A (zh) * 2018-04-18 2018-09-14 吉林大学 一种基于深度学习的车道线检测预警装置及预警方法
CN110443208A (zh) * 2019-08-08 2019-11-12 南京工业大学 一种基于YOLOv2的车辆目标检测方法、***及设备
CN110796168A (zh) * 2019-09-26 2020-02-14 江苏大学 一种基于改进YOLOv3的车辆检测方法
CN111259706A (zh) * 2018-12-03 2020-06-09 初速度(苏州)科技有限公司 一种车辆的车道线压线判断方法和***
CN111582083A (zh) * 2020-04-25 2020-08-25 华南理工大学 一种基于消失点估计与语义分割的车道线检测方法
CN111898491A (zh) * 2020-07-15 2020-11-06 上海高德威智能交通***有限公司 一种车辆逆向行驶的识别方法、装置及电子设备

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104112118A (zh) * 2014-06-26 2014-10-22 大连民族学院 用于车道偏离预警***的车道线检测方法
US20180089515A1 (en) * 2016-09-12 2018-03-29 Kennesaw State University Research And Service Foundation, Inc. Identification and classification of traffic conflicts using live video images
US20180261095A1 (en) * 2017-03-08 2018-09-13 GM Global Technology Operations LLC Method and apparatus of networked scene rendering and augmentation in vehicular environments in autonomous driving systems
CN108537197A (zh) * 2018-04-18 2018-09-14 吉林大学 一种基于深度学习的车道线检测预警装置及预警方法
CN111259706A (zh) * 2018-12-03 2020-06-09 初速度(苏州)科技有限公司 一种车辆的车道线压线判断方法和***
CN110443208A (zh) * 2019-08-08 2019-11-12 南京工业大学 一种基于YOLOv2的车辆目标检测方法、***及设备
CN110796168A (zh) * 2019-09-26 2020-02-14 江苏大学 一种基于改进YOLOv3的车辆检测方法
CN111582083A (zh) * 2020-04-25 2020-08-25 华南理工大学 一种基于消失点估计与语义分割的车道线检测方法
CN111898491A (zh) * 2020-07-15 2020-11-06 上海高德威智能交通***有限公司 一种车辆逆向行驶的识别方法、装置及电子设备

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
DEEPIKA SIROHI 等: "Convolutional neural networks for 5G-enabled Intelligent Transportation System : A systematic review", 《COMPUTER COMMUNICATIONS》, pages 459 - 498 *
ZHISHUAI ZHANG: "ROBUST DEEP LEARNING FRAMEWORKS FOR RECOGNIZING AND LOCALIZING OBJECTS ACCURATELY AND RELIABLY", 《JOHNS HOPKINS SHERIDAN LIBRARIES》, pages 1 - 174 *
张剑锋: "基于深度学习的车道线检测与车道偏离预警***研究", 《中国优秀硕士学位论文全文数据库工程科技Ⅱ辑》, no. 2020, pages 035 - 383 *
李文琳: "基于车载自组织网络的智能停车导航***研究", 《中国优秀硕士学位论文全文数据库工程科技Ⅱ辑》, no. 2016, pages 034 - 645 *

Also Published As

Publication number Publication date
CN112364800B (zh) 2023-07-14

Similar Documents

Publication Publication Date Title
CN112700470B (zh) 一种基于交通视频流的目标检测和轨迹提取方法
CN108537197B (zh) 一种基于深度学习的车道线检测预警装置及预警方法
CN106919915B (zh) 基于adas***的地图道路标记及道路质量采集装置及方法
WO2022141910A1 (zh) 一种基于行车安全风险场的车路激光雷达点云动态分割及融合方法
WO2020253010A1 (zh) 一种泊车定位中的停车场入口定位方法、装置及车载终端
CN105512623A (zh) 基于多传感器雾天行车视觉增强与能见度预警***及方法
CN111524365B (zh) 一种利用多地磁传感器进行车型分类的方法
CN113885062A (zh) 基于v2x的数据采集融合设备、方法和***
CN112419773A (zh) 一种基于云控平台的车路协同无人驾驶控制***
CN112654998B (zh) 一种车道线检测方法和装置
CN113532499B (zh) 无人***的传感器安全性检测方法、设备及存储介质
CN111649740A (zh) 一种基于imu进行车辆高精度定位的方法及***
CN111160132B (zh) 障碍物所在车道的确定方法、装置、电子设备和存储介质
Kamble et al. Lane departure warning system for advanced drivers assistance
CN112009491B (zh) 一种基于交通元素视觉增强的深度学习的自动驾驶方法及***
Ijaz et al. Automatic steering angle and direction prediction for autonomous driving using deep learning
CN112419345A (zh) 基于回声状态网络的巡逻车高精度循迹方法
CN112364800B (zh) 一种基于人工智能的自动驾驶偏离处理方法
CN114842660B (zh) 一种无人车道路轨迹预测方法、装置和电子设备
CN116486359A (zh) 一种面向全天候的智能车环境感知网络自适应选择方法
CN104408942A (zh) 车辆智能测速装置与方法
CN111832365A (zh) 车道标记确定方法及装置
TWI619099B (zh) Intelligent multifunctional driving assisted driving recording method and system
CN114821498A (zh) 一种基于深度学习的激光点云目标检测识别装置及方法
Lee et al. Traffic light recognition for autonomous driving vehicle: Using mono camera and its

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant