CN115273005A - 一种基于改进yolo算法的视觉导航车环境感知方法 - Google Patents

一种基于改进yolo算法的视觉导航车环境感知方法 Download PDF

Info

Publication number
CN115273005A
CN115273005A CN202210838593.3A CN202210838593A CN115273005A CN 115273005 A CN115273005 A CN 115273005A CN 202210838593 A CN202210838593 A CN 202210838593A CN 115273005 A CN115273005 A CN 115273005A
Authority
CN
China
Prior art keywords
target detection
segmentation
task
line
loss
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210838593.3A
Other languages
English (en)
Inventor
于军
王啸天
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin University of Science and Technology
Original Assignee
Harbin University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin University of Science and Technology filed Critical Harbin University of Science and Technology
Priority to CN202210838593.3A priority Critical patent/CN115273005A/zh
Publication of CN115273005A publication Critical patent/CN115273005A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3446Details of route searching algorithms, e.g. Dijkstra, A*, arc-flags, using precalculated routes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于改进YOLO的视觉导航车环境感知方法。所述方法包括如下步骤,步骤一:将YOLOv5目标检测算法的Head结构改进为三任务头分支结构,并增加多头自注意力机制抑制不同任务之间的权重参数干扰;步骤二:在自动驾驶公开数据集BDD100K训练,完成目标检测、车道线分割和可行驶区域分割三个任务;步骤三:检测图像或视频中车辆行驶前方的道路消失点,计算当前相机的姿态角变化,对步骤一检测到的目标进行测距。本发明可完成车辆行驶环境的目标检测、车道线分割、可行驶区域分割和目标测距功能,在自动驾驶***中有一定实用性。

Description

一种基于改进YOLO算法的视觉导航车环境感知方法
技术领域
本发明设计计算机视觉领域和自动驾驶技术,具体是一种基于改进YOLO算法的视觉导航车环境感知方法。
背景技术
自动驾驶是机器视觉的重要应用领域之一,由智能交通引出的车辆的环境感知***开发设计已成为热门研究方向。环境感知处在智能驾驶车辆和周边环境信息交互的关键位置,在实际应用中车辆周围路况复杂多变,环境感知***需要帮助车辆模拟人类驾驶员的感知能力,保证自动驾驶的安全性和实时性,以便自动驾驶模块把周边环境信息和自身定位相结合,依据行驶计划制定最优路径,并控制车辆按照行驶路线转向和避障。
目标检测是对车辆行驶时周边环境的重要目标进行定位和分类,最主要的就是行人和车辆的检测,并且希望对周边环境其他多种目标也能定位和分类,达到更全面的感知效果。视觉感知在自动驾驶中发挥着重要作用,视觉导航自动驾驶就是从摄像头拍摄的图像中获得和提取视觉信息,辅助决策***控制车辆的动作。当前主流的目标检测算法在检测精度和速度上精益求精,而应用到自动驾驶车辆的环境感知***则需要增加对场景的理解,例如定位障碍物位置,车道线位置,区域是否可行驶等。同样还要考虑是否容易实际部署的问题,嵌入式设备普遍计算资源不足,深度学习模型的研究成果较少能转化为实际经济效益。功能单一和部署成本昂贵是目标检测算法在车辆环境感知***中应用的两大难题。
在自动驾驶和辅助驾驶中对周围环境的感知任务,只是得到周围目标的类别和位置信息是不够的,对一个目标的精确定位还应包括距离信息,这对行驶安全至关重要。常用的单目相机测距方法有相机内参集合标定和透视变化数据回归建模等,这些方法的测距效果容易受到相机姿态角的影响,在实际的行驶过程由于车辆本身震动和路况变化相机的姿态角是不断变化的,所以需要一种能够考虑修正相机姿态角的测距方法。为了和目标检测的输出结果配合,自动驾驶车辆的测距模块可以使用单目相机根据目标已有的定位和分类进行测距。目前相关测距算法已发展成熟,但由于车辆行驶场景的复杂性,面对各种不同路况、气候、光线等不可预测的因素,测距结果总是伴随着较大误差,测距算法应跟随实际的应用领域做出合适的改进,在车辆行驶环境的目标测距,应当考虑目标位置的不同情况,例如上下坡和斜向测距。
发明内容
(一)解决的技术问题
针对现有的车辆环境感知技术的不足,本发明提供了一种基于改进YOLO的三任务目标检测和图像分割算法,对于现有的测距算法在交通目标测距不准确问题,本发明提供了用道路消失点估测摄像机姿态角变化的方法,减少摄像机姿态角变化对测距结果的影响,使测距更准确。
(二)技术方案
为实现上述目的,本发明提供了如下技术方案:
一种基于改进YOLO的视觉导航车环境感知方法,包括以下步骤:
1.基于改进YOLO的视觉导航车环境识别方法包括以下步骤:
步骤一、把YOLOv5目标检测算法的结构改进为具有三个Head部分,以便能进行目标检测任务、车道线分割任务和可行驶区域分割任务。
步骤二、在自动驾驶数据集BDD100K训练,完成对车辆行驶时周围环境的目标检测任务、车道线分割任务和可行驶区域分割任务。
步骤三、检测图像或视频中车辆行驶前方的道路消失点,计算当前相机的姿态角变化,对步骤一检测到的目标进行测距。
2.根据权利要求1所述的基于改进YOLO算法的视觉导航车环境感知***设计与实现,其特征在于所述步骤一中基于YOLOv5的多任务检测算法包含以下步骤:
步骤一一:具有三个任务头部分,分别是目标检测头,车道线分割头和可行驶区域分割头。整个改进的YOLOv5的损失函数是目标检测损失、车道线分割损失和可行驶区域分割损失的和。目标检测头部分损失函数是YOLOv5原本的损失函数,车道线分割头的损失函数是交叉熵损失加IOU损失,可行驶区域分割头的损失函数是交叉熵损失。输入图像经过5次下采样后把不同层次的特征图作为三个任务头的输入,同时完成目标检测和图像分割任务,最后由每个任务头输出层的损失函数计算最终输出结果,目标检测算法的输出包括:自动驾驶数据集 BDD100K标记的10类目标、车道线分割结果和可行驶区域分割结果。
步骤一二:在Neck部分,改进之处是把原有的空间金字塔结构(Spatial PyramidPooling)替换为空洞空间金字塔池化结构(Atrous Spatial Pyramid Pooling),这样做可以增大卷积核的感受野,加快计算速度。
3.根据权利要求1所述的基于ARM的视觉导航车环境感知***设计与实现方法,其特征在于所述步骤三中采用基于opencv的道路消失点提取算法进行道路目标测距,具体步骤为:
步骤三一:根据LSD(Line Segment Detect)方法提取图像中的直线,使用梯度和水平线信息快速提取图像中局部直线轮廓,这些轮廓是图像中灰度亮暗快速变化的区域。
步骤三二:过滤掉和道路消失点不相关的直线。过滤掉水平或近似水平核垂直或近似垂直的直线,线段与水平方向的角度计算公式为:
Figure RE-GDA0003867668700000021
其中
Figure RE-GDA0003867668700000022
I(x,y)是输入图像在(x,y)点的灰度值,gx(x,y)和gy(x,y)分别是像素(x,y)在水平和垂直方向的梯度。
步骤三三:过滤一侧像素是绿色的线段,这类线段可能来自图像中的植物,这些线段数量多,对计算道路消失点有较大干扰。这里定义Color(Z)函数判断像素的颜色是否是绿色:
Figure RE-GDA0003867668700000031
步骤三四:权重投票,对于线段不同的特征,根据长度、角度和空间位置对所有线段进行投票获得道路消失点。长度权重定义为:WL=Lline/LD,Lline是原始线段的长度,LD是图像对角线长度。角度权重的设计是希望保留靠近45度和135度角的线段:
Figure RE-GDA0003867668700000032
高斯空间权重对空间不同位置给出不同权重:
Figure RE-GDA0003867668700000033
在点(i,j)的邻域空间,中心点是最大权重点,远离中心点的点权重较小。
步骤三五:消失点提取,每个像素对长度、角度和高斯权重空间加权求和,:M(x+i,y+i)=M(x+i,y+i)+V0(x,y)×WL×WO×WS(i,j)。其中V0(x,y)= 1.0是基本分数,投票中得分最高的点就是道路消失点。
本发明与现有的技术相比,改进的YOLO算法能够同时完成三个任务,并且结合测距算法后能够较为全名的对车辆行驶环境进行感知,避免使用复杂昂贵的传感器,在自动驾驶***中有一定的使用性。
附图说明
图1 aspp结构原理图
图2 aspp输入和输出
图3改进的YOLO算法结构图
图4改进的YOLO算法在BDD100K测试集的评价指标
图5目标位置在x轴有分量的情况
图6目标位置在y轴有分量的情况
图7道路消失点提取结果
图8道路消失点的偏移
图9引入道路消失点后的测距结果
下面结合本发明实施例的附图,对本发明中的技术方案进行清晰完整的描述,
具体实施方式一:
本实施例模型进行深度学***台配置如下:
Figure RE-GDA0003867668700000041
表一训练平台配置
自动驾驶数据集BDD100K有10万张图片,其中训练集有7万张,验证集1 万张,测试集2万张,本实施例在BDD00K的训练集进行训练,在其测试集进行测试。
本发明的步骤为:
步骤一:改进YOLOv5的Neck部分,把原有的空间金字塔结构(Spatial PyramidPooling)替换为空洞空间金字塔池化结构(Atrous Spatial Pyramid Pooling),图1即为ASPP模块示意:对Input Feature Map以不同采样率的空洞卷积并行采样;然后将得到的结果concat到一起,扩大通道数;最后通过 1×1的卷积将通道数降低到预期的数值。相当于以多个比例捕捉图像的上下文。就是将feature map通过并联的采用不同膨胀速率的空洞卷积层用于捕获多尺度信息,并将输出结果融合得到图像的分割结果。如图2所示,这是在deeplab v3中改进后的ASPP。用了一个1×1的卷积和3个3×3的空洞卷积,每个卷积核有256个且都有BN层。事实上,1×1的卷积相当于rate很大的空洞卷积,因为rate越大,卷积核的有效参数就越小,这个1×1的卷积核就相当于大rate 卷积核的中心的参数。ASPP结构主要的作用是扩大了卷积核的感受野,加快了卷积速度。
步骤二:将YOLO的Head部分增加为三个,即整个算法将有三个输出。三个 Head分别是目标检测头、车道线分割头和可行驶区域分割头。整个改进YOLO的损失函数是三个头的损失和,其中目标检测头的损失函数Ldet是置信度损失、位置损失、分类损失以及GIOUloss损失的和;车道线分割头的损失函数是
Figure RE-GDA0003867668700000042
Figure RE-GDA0003867668700000043
即IOU损失与交叉熵损失的和,tk只有在预测正确时是1,其他均为0;可行驶区域分割头的损失函数Ldri也是交叉熵损失。改进的 YOLO算法的结构如图3所示,包含Backbone+Neck+3个Head结构。整个改进 YOLO算法的损失函数是:
Loss=α1Ldet2Llane3Ldri
步骤三:模型训练,本实施例将改进的YOLO算法在开源自动驾驶数据集 BDD100K的训练集部分进行训练。设置初始学习率是0.0005,如果在初始的几个 epochs过程中loss值不下降,则需减少学习率1%。把训练集的7万张图片都作为输入。本实施例的输出包含目标检测结果和图像分割结果,目标检测的评价指标是mAP、推理速度、准确率P(precision)和召回率R(Recall),计算公式如下:
Figure RE-GDA0003867668700000051
Figure RE-GDA0003867668700000052
AP=∫Pd(R)
TP表示预测框把实际是正样本的目标正确的分类为正样本的情况的数量,FP表示预测框把实际为负样本的目标错误的分类为正样本的情况的数量,FN表示预测框把实际是正样本的目标错误的分类为负样本的情况的数量,TN表示预测框把实际是负样本的目标正确的分类为负样本的情况的数量。
对于图像分割部分,评价指标是精确度Acc(accuracy)、IOU和mIOU,相关指标计算公式如下:
Figure RE-GDA0003867668700000053
Figure RE-GDA0003867668700000054
Figure RE-GDA0003867668700000055
其中i表示真实值,j是预测值,FN+TP表示i的所有预测结果,FP+TP是所有预测为i的值。
改进的YOLO算法在开源自动驾驶数据集的测试集部分测试结果如图4所示,目标检测部分mAP值0.307,检测速度约11fps;可行驶区域分割部分Accuracy= 0.96,IOU=0.839,mIOU=0.901;车道线分割,accuary=0.670,IOU=0.260,mIOU= 0.622。
相比于常见的目标检测和图像分割算法,本文算法在指标上优势不大,只在可行驶区域分割任务中表现优异,在目标检测和车道线分割任务均表现普通,但这部分改进依然有其实际意义,在实际部署时,单个算法完成三个任务,将大大减少对嵌入式平台硬件计算资源的要求,可显著降低成本。
步骤四:首先对目标测距建立数学模型,如图5和图6所示,分为目标位置在x轴有分量、在y轴有分量和在两个轴都有分量三种,数学推导过程不在此赘述,图5情况时测距为
Figure RE-GDA0003867668700000056
图6情况时测距为
Figure RE-GDA0003867668700000057
步骤五:用LSD(Line Segment Detect)直线驾车呢方法检测图像中直线, LSD的具体算法和实施细节可参考Grompone的论文。之后按照公式
Figure RE-GDA0003867668700000058
Figure RE-GDA0003867668700000059
原理求出所有直线相对于水平方向的角度大小,过滤掉水平或近似水平核垂直或近似垂直的直线;再按照公式
Figure RE-GDA0003867668700000061
(补充编号)原理检查直线附近绿色像素是否较多,这里要过滤掉一侧像素是绿色的线段;高斯空间投票,按照公式
Figure RE-GDA0003867668700000062
对线段5×5领域的点进行加权计算,对于点 (i,j)的领域空间,-2≤i,j≤2,σs=1.5,二维空间高斯权重分布如图所示,中心 (0,0)是线段权重最大的点,远离中心点的点权重较小。
步骤六:消失点提取和测距,按照公式M(x+i,y+i)=M(x+i,y+i)+V0(x,y)× WL×WO×WS(j,i)对所有点进行投票,得分最高的点认为是道路消失点。效果如图7所示。再根据道路消失点相对于相机无姿态角时的道路消失点偏移情况计算相机姿态角变化,如图8所示,相机姿态角计算公式是偏航角:
Figure RE-GDA0003867668700000063
Figure RE-GDA0003867668700000064
俯仰角:
Figure RE-GDA0003867668700000065
再根据公式和公式测距,测距结果如图9,测距准确度相比不引入道路消失点有所提升。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

Claims (3)

1.一种基于改进YOLO算法的视觉导航车环境感知方法包括以下步骤:
步骤一、把YOLOv5目标检测算法的结构改进为具有三个Head部分,以便能进行目标检测任务、车道线分割任务和可行驶区域分割任务。
步骤二、在自动驾驶数据集BDD100K训练,完成对车辆行驶时周围环境的目标检测任务、车道线分割任务和可行驶区域分割任务。
步骤三、检测图像或视频中车辆行驶前方的道路消失点,计算当前相机的姿态角变化,对步骤一检测到的目标进行测距。
2.根据权利要求1所述的基于ARM的视觉导航车环境感知***设计与实现,其特征在于所述步骤一中基于YOLOv5的多任务检测算法包含以下步骤:
步骤一一:具有三个任务头部分,分别是目标检测头,车道线分割头和可行驶区域分割头。整个改进的YOLOv5的损失函数是目标检测损失、车道线分割损失和可行驶区域分割损失的和。目标检测头部分损失函数是YOLOv5原本的损失函数,车道线分割头的损失函数是交叉熵损失加IOU损失,可行驶区域分割头的损失函数是交叉熵损失。输入图像经过5次下采样后把不同层次的特征图作为三个任务头的输入,同时完成目标检测和图像分割任务,最后由每个任务头输出层的损失函数计算最终输出结果,目标检测算法的输出包括:自动驾驶数据集BDD100K标记的10类目标、车道线分割结果和可行驶区域分割结果。
步骤一二:在Neck部分,改进之处是把原有的空间金字塔结构(Spatial PyramidPooling)替换为空洞空间金字塔池化结构(Atrous Spatial Pyramid Pooling),这样做可以增大卷积核的感受野,加快计算速度。
3.根据权利要求1所述的基于ARM的视觉导航车环境感知***设计与实现方法,其特征在于所述步骤三中采用基于opencv的道路消失点提取算法进行道路目标测距,具体步骤为:
步骤三一:根据LSD(Line Segment Detect)方法提取图像中的直线,使用梯度和水平线信息快速提取图像中局部直线轮廓,这些轮廓是图像中灰度亮暗快速变化的区域。
步骤三二:过滤掉和道路消失点不相关的直线。过滤掉水平或近似水平核垂直或近似垂直的图片,线段与水平方向的角度计算公式为:
Figure FDA0003749387680000011
其中
Figure FDA0003749387680000012
I(x,y)是输入图像在(x,y)点的灰度值,gx(x,y)和gy(x,y)分别是像素(x,y)在水平和垂直方向的梯度。
步骤三三:过滤一侧像素是绿色的线段,这类线段可能来自图像中的植物,这些线段数量多,对计算道路消失点有较大干扰。这里定义Color(Z)函数判断像素的颜色是否是绿色:
Figure FDA0003749387680000021
步骤三四:权重投票,对于线段不同的特征,根据长度、角度和空间位置对所有线段进行投票获得道路消失点。长度权重定义为:WL=Lline/LD,Lline是原始线段的长度,LD是图像对角线长度。角度权重的设计是希望保留靠近45度和135度角的线段:
Figure FDA0003749387680000022
高斯空间权重对空间不同位置给出不同权重:
Figure FDA0003749387680000023
在点(i,j)的邻域空间,中心点是最大权重点,远离中心点的点权重较小。
步骤三五:消失点提取,每个像素对长度、角度和高斯权重空间加权求和,:M(x+i,y+i)=M(x+i,y+i)+V0(x,y)×WL×WO×WS(i,j)。其中V0(x,y)=1.0是基本分数,投票中得分最高的点就是道路消失点。
CN202210838593.3A 2022-07-15 2022-07-15 一种基于改进yolo算法的视觉导航车环境感知方法 Pending CN115273005A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210838593.3A CN115273005A (zh) 2022-07-15 2022-07-15 一种基于改进yolo算法的视觉导航车环境感知方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210838593.3A CN115273005A (zh) 2022-07-15 2022-07-15 一种基于改进yolo算法的视觉导航车环境感知方法

Publications (1)

Publication Number Publication Date
CN115273005A true CN115273005A (zh) 2022-11-01

Family

ID=83765203

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210838593.3A Pending CN115273005A (zh) 2022-07-15 2022-07-15 一种基于改进yolo算法的视觉导航车环境感知方法

Country Status (1)

Country Link
CN (1) CN115273005A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117710755A (zh) * 2024-02-04 2024-03-15 江苏未来网络集团有限公司 一种基于深度学习的车辆属性识别***及方法
CN117854028A (zh) * 2024-03-07 2024-04-09 南京信息工程大学 一种自动驾驶多任务场景分析方法及***

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117710755A (zh) * 2024-02-04 2024-03-15 江苏未来网络集团有限公司 一种基于深度学习的车辆属性识别***及方法
CN117710755B (zh) * 2024-02-04 2024-05-03 江苏未来网络集团有限公司 一种基于深度学习的车辆属性识别***及方法
CN117854028A (zh) * 2024-03-07 2024-04-09 南京信息工程大学 一种自动驾驶多任务场景分析方法及***
CN117854028B (zh) * 2024-03-07 2024-05-24 南京信息工程大学 一种自动驾驶多任务场景分析方法及***

Similar Documents

Publication Publication Date Title
WO2021004548A1 (zh) 一种基于双目立体视觉***的车辆智能测速方法
CN106919915B (zh) 基于adas***的地图道路标记及道路质量采集装置及方法
CN112700470B (zh) 一种基于交通视频流的目标检测和轨迹提取方法
CN102222236B (zh) 图像处理***及位置测量***
CN104700414B (zh) 一种基于车载双目相机的前方道路行人快速测距方法
CN111856963B (zh) 一种基于车载环视***的泊车仿真方法及装置
CN110285793A (zh) 一种基于双目立体视觉***的车辆智能测轨迹方法
CN101941438B (zh) 安全车距智能检控装置与方法
CN111169468B (zh) 一种自动泊车的***及方法
CN108764187A (zh) 提取车道线的方法、装置、设备、存储介质以及采集实体
CN109460709A (zh) 基于rgb和d信息融合的rtg视觉障碍物检测的方法
CN106774313A (zh) 一种基于多传感器的室外自动避障agv导航方法
CN115273005A (zh) 一种基于改进yolo算法的视觉导航车环境感知方法
CN107389084A (zh) 行车路径规划方法及存储介质
CN108645375B (zh) 一种用于车载双目***快速车辆测距优化方法
KR102308456B1 (ko) 라이다 및 카메라 수집정보 기반 수종탐지 시스템 및 이를 이용한 수종탐지방법, 수종탐지방법을 수행하는 프로그램이 수록된 기록매체
CN110525342A (zh) 一种基于深度学习的ar-hud车载辅助驾驶方法及其***
CN105608417A (zh) 交通信号灯检测方法及装置
CN106446785A (zh) 基于双目视觉的可行道路检测方法
CN113592905A (zh) 基于单目摄像头的车辆行驶轨迹预测方法
US20210237737A1 (en) Method for Determining a Lane Change Indication of a Vehicle
Zhang et al. Deep learning based object distance measurement method for binocular stereo vision blind area
CN111931683A (zh) 图像识别方法、装置及计算机可读存储介质
Hartmann et al. Towards autonomous self-assessment of digital maps
Hara et al. Vehicle localization based on the detection of line segments from multi-camera images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination