CN117593717B - 一种基于深度学习的车道追踪方法及*** - Google Patents

一种基于深度学习的车道追踪方法及*** Download PDF

Info

Publication number
CN117593717B
CN117593717B CN202410070092.4A CN202410070092A CN117593717B CN 117593717 B CN117593717 B CN 117593717B CN 202410070092 A CN202410070092 A CN 202410070092A CN 117593717 B CN117593717 B CN 117593717B
Authority
CN
China
Prior art keywords
lane
information
identification
result
incremental
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202410070092.4A
Other languages
English (en)
Other versions
CN117593717A (zh
Inventor
韩畑州
何发智
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN202410070092.4A priority Critical patent/CN117593717B/zh
Publication of CN117593717A publication Critical patent/CN117593717A/zh
Application granted granted Critical
Publication of CN117593717B publication Critical patent/CN117593717B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于深度学习的车道追踪方法及***,涉及信息智能处理技术领域。该方法对道路视频集进行场景分类获取分类视频集,确定车辆坐标位置并进行转换确定坐标转换信息,对分类视频集中各类视频进行特征分析,确定各类场景图像特征,对其进行预处理与特征标识获得车道特征标识信息集,通过进行网络模型深度学习获得车道检测模型,采集车辆预设角度的视频流信息进行模型分析,基于车道检测结果进行车道跟踪,解决现有技术由于当前的车道追踪方法智能度不足,针对不同路况的局限性较差,易受到自然环境的干扰,造成检测追踪精准度较低,适应性较差的技术问题,通过提高数据分析维度,优化模型运行机制,实现高速度、高精度的道路追踪。

Description

一种基于深度学习的车道追踪方法及***
技术领域
本发明涉及信息智能处理技术领域,具体涉及一种基于深度学习的车道追踪方法及***。
背景技术
具体而言,车道线作为自动驾驶技术中的关键性切入问题,属于无人驾驶领域中的热点研究技术,为了保障车辆行驶进程的安全性与稳定性,需严格把控车道线的检测识别精准度,以进行车道的精准追踪,现如今,传统的车道线检测方法主要通过进行车道检测图像的形态学计算与轮廓查找等方法,提取车道线点位进行拟合来进行确定,为实现高精度、高效率、便捷地进行车道追踪,当前的车道追踪技术还有待加强,尽可能避免造成检测失败,提升车道追踪技术的实际商业价值。
现有技术中,由于当前的车道追踪方法智能度不足,针对不同路况的局限性较差,易受到自然环境的干扰,造成检测追踪精准度较低,适应性较差。
发明内容
针对上述技术问题,本申请提供了一种基于深度学习的车道追踪方法及***,用于针对解决现有技术中存在的由于当前的车道追踪方法智能度不足,针对不同路况的局限性较差,易受到自然环境的干扰,造成检测追踪精准度较低,适应性较差的技术问题。
鉴于上述问题,本申请提供了一种基于深度学习的车道追踪方法及***。
第一方面,本申请提供了一种基于深度学习的车道追踪方法,所述方法包括:
按照预设条件要求进行道路视频采集,获得道路视频集;
基于道路视频集进行场景分类,得到分类视频集;
根据所述分类视频集的采集位置信息,进行车辆坐标位置转换,确定坐标转换信息;
基于坐标转换信息,分别对所述分类视频集中各类视频进行特征分析,确定各类场景图像特征;
对所述各类场景图像特征进行预处理、特征标识,获得车道特征标识信息集;
利用车道特征标识信息集进行网络模型深度学习,获得车道检测模型;
收集车道识别约束信息,建立车道识别记录数据库,利用车道识别记录数据库对车道检测模型进行增量学习,获得增量车道检测模型;
获取道路类型结果、车道识别约束信息,对增量车道检测模型进行修正;
采集车辆预设角度的视频流信息,其中,所述车辆预设角度与所述坐标转换信息中的车辆坐标位置相匹配,通过增量车道检测模型对所述视频流信息进行识别检测,获得车道检测结果,再基于所述车道检测结果进行车道跟踪。
第二方面,本申请提供了一种基于深度学习的车道追踪***,所述***包括:
视频采集模块,所述视频采集模块用于按照预设条件要求进行道路视频采集,获得道路视频集;
视频集分类模块,所述视频集分类模块用于基于道路视频集进行场景分类,得到分类视频集;
坐标转换模块,所述坐标转换模块用于根据所述分类视频集的采集位置信息,进行车辆坐标位置转换,确定坐标转换信息;
特征分析模块,所述特征分析模块用于基于坐标转换信息,分别对所述分类视频集中各类视频进行特征分析,确定各类场景图像特征;
信息集获取模块,所述信息集获取模块用于对所述各类场景图像特征进行预处理、特征标识,获得车道特征标识信息集;
模型获取模块,所述模型获取模块用于利用车道特征标识信息集进行网络模型深度学习,获得车道检测模型;
增量学习模块,所述增量学习模块用于收集车道识别约束信息,建立车道识别记录数据库,利用车道识别记录数据库对车道检测模型进行增量学习,获得增量车道检测模型;
模型修正模块,所述模型修正模块用于获取道路类型结果、车道识别约束信息,对增量车道检测模型进行修正;
信息检测跟踪模块,所述信息检测跟踪模块用于采集车辆预设角度的视频流信息,其中,所述车辆预设角度与所述坐标转换信息中的车辆坐标位置相匹配,通过增量车道检测模型对所述视频流信息进行识别检测,获得车道检测结果,再基于所述车道检测结果进行车道跟踪。
本申请中提供的一个或多个技术方案,有益效果如下:
本申请提供的一种基于深度学习的车道追踪方法,解决了现有技术中存在的由于当前的车道追踪方法智能度不足,针对不同路况的局限性较差,易受到自然环境的干扰,造成检测追踪精准度较低,适应性较差的技术问题,通过提高数据分析维度,优化模型运行机制,实现高速度、高精度的道路追踪。
本申请提供的一种基于深度学习的车道追踪方法,通过对实时道路视频进行多元化分析处理,保障信息的精准有序,进一步训练车道检测模型,对采集的实时视频流进行识别分析输出车道检测结果,保障检测结果的准确性与客观性,获取道路类型信息与车道状态信息,对两者分别进行对应关联确定预设条件要求,即进行不同道路的视频采集要求,基于所述预设采集要求对道路进行视频采集,对视频采集结果基于道路类型进行划分整合,生成所述道路视频集,将所述道路视频集作为源数据,为后续进行车道特征识别分析提供了基本依据。
附图说明
图1为本申请提供了一种基于深度学习的车道追踪方法流程示意图;
图2为本申请提供了一种基于深度学习的车道追踪方法中预设条件要求获取流程示意图;
图3为本申请提供了一种基于深度学习的车道追踪方法中车道特征标识信息集获取流程示意图;
图4为本申请提供了一种基于深度学习的车道追踪***结构示意图。
附图标记说明:视频采集模块11,视频集分类模块12,坐标转换模块13,特征分析模块14,信息集获取模块15,模型获取模块16,增量学习模块17,模型修正模块18,信息检测跟踪模块19。
具体实施方式
下面结合具体实施对本发明的内容进一步说明,本发明的内容完全不限于此。
本申请通过提供一种基于深度学习的车道追踪方法及***,对道路视频集进行场景分类获取分类视频集,确定车辆坐标位置并进行转换确定坐标转换信息,对分类视频集中各类视频进行特征分析,确定各类场景图像特征,对其进行预处理与特征标识获得车道特征标识信息集,通过进行网络模型深度学习获得车道检测模型,采集车辆预设角度的视频流信息进行模型分析,基于车道检测结果进行车道跟踪,用于解决现有技术中存在的由于当前的车道追踪方法智能度不足,针对不同路况的局限性较差,易受到自然环境的干扰,造成检测追踪精准度较低,适应性较差的技术问题。
实施例一
如图1所示,本申请提供了一种基于深度学习的车道追踪方法,所述方法包括:
步骤S100:按照预设条件要求进行道路视频采集,获得道路视频集;
如图2所示,所述按照预设条件要求进行道路视频采集之前,本申请步骤S100还包括:
步骤S110:获得道路类型信息、车道状态信息;
所述道路类型信息为至少包括快速路、主干路、次干路及支路的多种道路类型;车道状态基于所述道路类型信息确定,例如道路尺寸、车道数量、行车限制等。
步骤S120:基于道路类型信息、车道状态信息进行组合排列,获得类型-车道参数组合;
匹配各道路类型信息对应的车道状态,并进行映射关联组合,即表征为类型-车道参数组合。
示例性的,对于快速路,主要设置在特大城市或大城市中,道路中央存在分隔带,将上行车辆与下行车辆分开,包含多种道路尺寸,其车道线的设定也存在差异性,对相关车道状态进行规整,作为所述车道状态信息,进一步对所述道路类型信息与所述车道状态信息进行关联对应,基于对应结果确定多个车道序列,获得类型-车道参数组合。
步骤S130:将类型-车道参数组合进行汇总、分类,以确定所述预设条件要求,其中,所述所述预设条件要求为各道路类型的数据采集要求。
对所述类型-车道参数组合进行汇总,基于车道类型进行组合分类,不同分类组对应的道路视频采集要求不同,例如干路、支路需考虑高光、阴影、人流等的影响,保障外环境影响下的图像清晰度,对于采集角度等有所要求,分别确定各分类组的采集要求,并进行对应标识,即,作为所述预设条件要求,以便保障视频采集结果的针对性与精准度。
步骤S200:基于道路视频集进行场景分类,得到分类视频集;
具体而言,其中,所述道路视频集包括不同道路类型于多场景下的采集视频,其中,直行道、弯道、环境明暗度、车道线完整度等为场景影响指标,以此为基准对所述道路视频集进行分类。
优选的,将道路类型作为初级分类标准,划分为以各道路类型为单项类别的初级分类结果。对所述初级分类结果,基于所述场景影响指标分别进行二次分类,作为次级分类结果,对所述初级分类结果与次级分类结果进行映射关联,生成视频集分类树,作为所述分类视频集,通过进行视频集分类,可提高信息的有序性,可快速进行需求信息提取。
步骤S300:根据所述分类视频集的采集位置信息,进行车辆坐标位置转换,确定坐标转换信息;
具体的,对所述分类视频集进行位置定位,获取所述采集位置信息,为了保障位置参数的清晰度与物理意义,需将视频集对应的采集位置信息转换为车体坐标系下的位置坐标,分别对所述分类视频集进行逐帧位置定位与坐标转换,对转换坐标进行标识,生成所述坐标转换信息,便于车辆直接基于位置坐标进行定位分析。
步骤S400:基于坐标转换信息,分别对所述分类视频集中各类视频进行特征分析,确定各类场景图像特征;
具体而言,基于所述分类视频集随机提取一分类视频,进行视频分割确定多个视频镜头序列,分别进行序列起始帧识别,将其作为关键帧,对所述分类视频集中各类视频分别进行关键帧提取,确定多组关键帧,对所述多组关键帧分别进行图像特征识别,对图像特征识别结果进行归类整合,生成所述各类场景图像特征。再基于卷积学习模型进行所述关键帧的图像特征识别。
进一步而言,所述分别对所述分类视频集中各类视频进行特征分析,确定各类场景图像特征,本申请步骤S400还包括:
步骤S410:对所述各类视频利用镜头边界算法,确定关键帧;
步骤S420:对各类视频集进行类别约束条件分析,确定类别约束信息;
步骤S430:基于所述类别约束信息进行卷积模型深度学习,利用卷积学习模型对所述关键帧进行特征分析,确定所述各类场景图像特征。
具体而言,通过进行视频集分类获取所述分类视频集,对所述分类视频中各类视频,随机提取一视频,基于视频时序进行相邻两帧图像位移值确定,设定位移值偏离阈值,当图像位移值大于等于所述位移值偏离阈值时,确定视频分割点,确定多个镜头序列,分别进行起始帧识别提取,基于镜头边界算法进行视频解析,将镜头的起始帧作为所述关键帧。
进一步,对所述各类视频集进行类别约束条件分析,例如,车道类型、车道线型、外环境参数等,通过识别图像基色调与纹理进行判定,确定相应的参数信息作为所述类别约束信息,并与所述各类视频集进行对应标识,便于进行识别区分。进一步的,基于所述类别约束信息进行卷积神经网络训练,通过进行卷积模型深度学习进行多层级隐含层的完善。其中,可结合关键帧筛查公式进行自适应提取:,其中,/>基于上次提取关键帧图像的帧频间距,/>为第i项约束条件,/>为第i项约束条件的配置权重,进一步将所述关键帧图像输入卷积学习模型中,所述卷积学习模型的主体架构为卷积神经网络结构,基于所述卷积学习模型进行所述关键帧的图像特征识别,确定所述关键帧蕴含的图像基色调特征与纹理特征等,不同场景对应的特征具化信息不同,例如城市街道可能有更多的直线或者矩形结构,而农村地区可能有更多曲线和不规则纹理,或是在清晨或傍晚时分,光线的强度和角度会导致不同的图像亮度和对比度等,基于这些信息进行特征匹配与规整,生成所述各类场景图像特征,包括图像特征与对应的特征值,可有效保障所述各类场景图像特征的识别准确度。
步骤S500:对所述各类场景图像特征进行预处理、特征标识,获得车道特征标识信息集;
进一步的,对所述各类场景图像特征进行特征相关性分析,通过计算目标最大信息系数进行特征排序,对不满足预设排名阈值的特征进行剔除,以进行特征降维处理,同时保障需求特征的存在必要性,进一步对满足预设排名阈值的特征进行标识整合,生成所述车道特征标识信息集,所述车道特征标识信息集的获取为后续进行模型构建夯实了基础。
进一步而言,如图3所示,对所述各类场景图像特征进行预处理、特征标识,获得车道特征标识信息集,本申请步骤S500还包括:
步骤S510:设定标注规则信息;
步骤S520:依次从各类场景图像特征中任意提取一个特征,遍历所述各类场景图像特征,得到多个特征集;
步骤S530:基于所述多个特征集构建目标散点图集合;
步骤S540:根据所述目标散点图集合,组建网格化方案集;
步骤S550:依次基于所述网格化方案集对所述目标散点图集合进行分区,对多个分区结果依次进行互信息值计算,得到多个最大互信息值;
步骤S560:基于所述多个最大互信息值确定多个目标最大信息系数;
步骤S570:将所述多个目标最大信息系数进行降序排列,并反向匹配得到因素特征序列;
步骤S580:提取所述因素特征序列中预设排名阈值的因素特征,组成所述目标因素特征集;
步骤S590:利用标注规则信息中的标注条件对所述目标因素特征集进行标识,获得所述车道特征标识信息集。
具体而言,设定所述标注规则信息,即对车道特征进行标识的预设要求,例如确定多个特征标识指标,生成一组标注序列来进行特征标识,通过进行视频解析,获取所述各类场景图像特征,基于所述各类场景图像特征随机提取一图像特征,所述各类场景图像特征包括所述图像特征与对应的特征值,遍历所述各类场景图像特征,确定多个相关性特征值。
分别对多个图像特征进行相关性特征值识别匹配,获取所述多个特征集,将所述多个相关性特征值作为自变量,将场景图像特征值的匹配作为因变量,根据所述自变量与所述因变量之间的映射关系,绘制得到散点图,获取所述目标散点图集合,包括各图像特征的散点图,确定网格划分的多种划分尺度,组建所述网格划分方案集。
基于所述目标散点图集合随机提取一散点图,依次基于所述网格划分方案集对散点图进行分区,获取多个分区结果,其中,任一分区结果中各网格内的散点图数量存在差异性,对散点图中两个变量在网格中的近似概率密度分布进行确定,计算互信息值。其中,所述互信息值的计算公式如下:
其中,表示互信息值,x为属于自变量的相关性特征值,y为与x相关联的属于因变量的相关性特征值,/>为联合密度函数,/>、/>为各相关性特征值的边际密度函数。其中,存在的相关性特征数量不做具体限制,所述互信息值计算公式中的参量基于相关性特征值关联数量可进行自定义调整。
基于所述网格划分方案集确定多个互信息值,通过进行互信息值校对确定最大互信息值,分别对所述目标散点图集合基于上述步骤进行最大互信息值计算,获取所述多个最大互信息值,对所述多个最大互信息值依次进行归一化处理,消除维度影响,得到多个目标最大互信息系数。
进一步,对所述多个最大信息系数进行降序排列,通过进行图像特征的反向匹配确定所述因素特征序列,该序列对应图像特征相关性的递变关系,设定预设排名阈值,将所述因素特征序列中满足所述预设排名阈值的因素特征,上述特征对应的相关性较强,对图像影响度较大,对相关性较弱的因素特征,即不满足所述预设排名阈值,进行剔除,组成所述目标因素特征集,基于所述标注规则信息确定标注条件,对所述目标因素特征集分别进行标识,生成所述车道特征标识信息集,通过进行因素特征分析筛选,以降低特征维度,提高后续图像处理效率。
步骤S600:利用车道特征标识信息集进行网络模型深度学习,获得车道检测模型;
所述车道检测模型为基于卷积神经网络训练生成的视频特征识别分析工具。如下为所述车道检测模型的一种可实施性构建方式:具体的,将所述车道特征标识信息集作为训练数据,通过进行卷积神经网络训练构成所述车道检测模型,其中,所述车道检测模型是多个神经元相互连接构成神经网络所获得,包括输入层、输出层与多个隐含层,其中,所述输入层与输出层为模型的基本架构,所述多个隐含层为模型的功能层。优选的,当存在新增数据时,可在模型原有运行机制的基础上进行调整优化,提高模型的运行性能。
步骤S700:收集车道识别约束信息,建立车道识别记录数据库,利用车道识别记录数据库对车道检测模型进行增量学习,获得增量车道检测模型;
进一步而言,本申请步骤S700还包括:
步骤S710:收集车道识别约束信息,所述车道识别约束信息包括天气约束信息、光线约束信息、路面约束信息;
步骤S720:基于所述车道识别约束信息,建立车道识别记录数据库,其中,所述车道识别记录数据库包括车道识别约束信息以及车道识别结果;
步骤730:利用所述车道识别记录数据库对所述车道检测模型进行增量学习,获得增量车道检测模型。
具体而言,获取所述天气约束信息、所述光线约束信息与所述路面约束信息,例如,所述天气约束信息包括多类型天气,及对车道识别的限定程度,将其作为所述车道识别约束信息,所述车道识别约束信息的不同组合状态,造成车道识别结果的参差,根据车道识别历史记录数据,基于所述车道识别约束信息的多种组合状态,分别提取对应的车道识别结果,即差异化车道识别约束信息下,对应的识别车道信息,对所述车道识别约束信息与所述车道识别结果进行匹配对应,构建所述车道识别记录数据库,基于车道特征标识信息集进行网络模型深度学习,获得车道检测模型,所述车道检测模型为初级模型,将所述车道识别记录数据库作为新增数据,对所述车道检测模型进行增量学习,获取所述增量车道检测模型,以进行模型运行机制的优化与完善,提高模型的分析精准度。
进一步而言,本申请步骤S730还包括:
步骤S731:利用所述车道识别记录数据库中车道识别约束信息对应视频数据加载至所述车道检测模型进行车道识别检测,获得车道检测识别结果;
步骤S732:对所述车道检测识别结果进行数据损失分析,获得损失数据;
步骤S733:将所述损失数据输入所述车道检测模型进行训练,得到新增车道检测识别结果;
步骤S734:对新增车道检测识别结果进行损失值计算,获得新增损失数据,利用损失数据、新增损失数据计算损失趋势,当损失趋势满足预设趋势要求,基于新增车道检测识别结果预测得到训练参数;
步骤S735:当所述损失趋势不满足预设趋势要求时,基于所述车道检测识别结果、损失数据,利用预设步长构建邻域车道检测识别结果;
步骤S736:利用邻域车道检测识别结果进行训练参数寻优,得到邻域训练参数,以此类推,基于所有训练参数、邻域训练参数,确定增量模型参数,得到所述增量车道检测模型。
具体而言,基于所述车道识别记录数据库提取所述车道识别约束信息,通过进行视频匹配确定对应的视频数据,将所述视频数据作为待检测数据,输入所述车道检测模型中,通过进行模型分析输出所述车道检测识别结果,进一步进行所述车道检测结果的数据损失分析获取所述损失数据,所述损失数据是代表所述车道检测模型对于所述视频数据的相关知识的损失数据,再基于所述损失数据完成对所述车道检测模型的增量学习,其中,增量学习是指一个学习***能不断地从新样本中学习新的知识,并能保存大部分以前已经学习到的知识,非常类似于人类自身的学习模式,所述增量车道检测模型是基于引入损失函数完成数据损失分析进而获得新模型,其模型运行机制优于所述车道检测模型,通过损失数据的训练使得所述增量车道检测模型保留了所述车道检测模型的基本功能,并维持模型不断更新的性能,从而提高了信息分析准确性。
针对具体训练过程,当所述损失数据输入所述车道检测模型进行训练验证后,获取输出结果,即所述新增车道检测识别结果,对所述新增车道检测结果与训练数据中的车道检测结果进行映射校对,计算检测结果中映射数据的差值,作为所述新增损失值。进而基于所述损失数据与所述新增损失数据,进行所述损失趋势的确定。示例性的,以所述损失数据为基准,分析所述新增损失数据基于所述损失数据中,对应损失数据的趋变状态,包括损失变动方向与损失变动尺度,作为所述损失趋势,其中,所述损失趋势随着每次的迭代训练同步更新。
进一步的,设定所述预设趋势要求,即由本领域技术人员自定义设定的限定损失趋势的界定标准,包括预设损失变动方向与预设损失变动尺度。对所述损失趋势与所述预设趋势要求进行校对,当所述损失趋势满足所述预设趋势要求时,基于所述新增车道检测识别结果预测得到训练参数,即设定调参步长、调参方向等,作为训练参数的参数调整规则,即,对原本的识别结果的集合进行调整,以进行迭代训练。
若所述损失趋势不满足所述预设趋势要求时,表明当前的损失程度超限,基于所述车道检测识别结果、损失数据进行参数调整规则进行校准。例如,针对设定的调参步长进行调整,确定所述预设步长,将基于所述预设补偿调整后的车道识别信息,作为对应的邻域车道检测识别结果,即,将其作为新构建的识别结果的集合,同理,完成所述邻域车道检测识别结果的构建。并基于所述邻域车道检测识别结果进行训练参数寻优,获取所述邻域训练参数。基于上述步骤,结合所有训练参数、邻域训练参数,确定增量模型参数进行增量模型参数的迭代训练与损失分析,直至获取的损失数据满足收敛条件,例如损失数据与初始输入的训练数据趋近一致,获取构建完成的所述增量车道检测模型。基于损失趋势配置针对性调整规则,针对训练实况进行适应性参数调整,以降低训练迭代次数,加快模型训练速度。
总而言之,若损失程度满足所述预设趋势要求,表明当前的分析损失较小,基于损失趋势确定训练参数的调整规则,基于调整后的训练参数作为增量模型参数,训练生成所述增量车道检测模型。
若损失程度不满足所述预设趋势要求,表明当前的分析损失较大,基于损失趋势确定的调整规则执行增量训练,导致增量训练结果与初始差异过大,无法适应之前信息的分析处理,此时,进行邻域车道检测识别结果的构建,即于邻域建立新增的检测分支,提高模型的针对性。
步骤S800:获取道路类型结果、车道识别约束信息,对增量车道检测模型进行修正;
进一步而言,本申请步骤S800还包括:
步骤S810:根据道路视频集进行车道采集信息特征分析,确定被采集道路的道路类型信息结果以及车道识别约束信息结果;
步骤S820:通过大数据平台获得天气信息;
步骤S830:根据所述天气信息,获得天气制约信息;
步骤S840:利用所述天气制约信息对所述车道识别约束信息结果进行匹配度分析,并利用所述天气制约信息对所述车道识别约束信息结果进行修正;
步骤S850:将所述道路类型信息结果及经过修正确定的车道识别约束信息结果添加至所述增量车道检测模型,对增量车道检测模型修正。
具体而言,基于车辆预设角度进行视频采集,获取所述视频流信息,对所述视频流信息进行特征识别,通过进行道路类型匹配获取所述道路类型信息,同时分别确定天气约束信息、光线约束信息与路面约束信息识别提取,获取所述车道识别约束信息结果,所述车道识别约束信息结果受环境因素影响可能存在一定的偏差,基于大数据平台进行实时天气信息调取,基于所述天气信息进行识别制约分析,例如阵雨天气,光线较暗,环境能见度较低存在视野模块,路面信息检测造成阻碍,作为所述天气制约信息,对所述天气制约信息与所述车道识别约束信息结果进行匹配对应,基于匹配结果确定所述车道识别约束信息较之所述天气制约信息的信息偏差值,基于所述信息偏差值对所述车道识别约束信息修正,将所述道路类型信息与修正后的所述车道识别约束信息作为实时监测数据,输入所述增量车道监测模型进行车道检测定位,对增量车道检测模型修正,输出的车道检测结果可有效排除环境影响因素,提高所述车道检测结果精准度。
步骤S900:采集车辆预设角度的视频流信息,其中,所述车辆预设角度与所述坐标转换信息中的车辆坐标位置相匹配,通过增量车道检测模型对所述视频流信息进行识别检测,获得车道检测结果,再基于所述车道检测结果进行车道跟踪。
进一步的,确定车辆预设角度,即进行视频采集的需求角度,与所述坐标转换信息中的车辆坐标位置相匹配,便于直接进行坐标转换,提高采集图像的分析效率,采集车辆预设角度的视频流,通过进行视频流解析确定道路类型信息与车道识别约束信息,输入所述车道检测模型中进行车道线的检测定位,获取所述车道检测结果,保障所述车道检测结果与实际车道线契合度,基于所述车道检测结果进行车道追踪,实现智能化车道精准定位追踪。
实施例二
基于与前述实施例中一种基于深度学习的车道追踪方法相同的发明构思,如图4所示,本申请提供了一种基于深度学习的车道追踪***,所述***包括:
视频采集模块11,所述视频采集模块11用于按照预设条件要求进行道路视频采集,获得道路视频集;
视频集分类模块12,所述视频集分类模块12用于基于道路视频集进行场景分类,得到分类视频集;
坐标转换模块13,所述坐标转换模块13用于根据所述分类视频集的采集位置信息,进行车辆坐标位置转换,确定坐标转换信息;
特征分析模块14,所述特征分析模块14用于基于坐标转换信息,分别对所述分类视频集中各类视频进行特征分析,确定各类场景图像特征;
信息集获取模块15,所述信息集获取模块15用于对所述各类场景图像特征进行预处理、特征标识,获得车道特征标识信息集;
模型获取模块16,所述模型获取模块16用于利用车道特征标识信息集进行网络模型深度学习,获得车道检测模型;
增量学习模块17,所述增量学习模块17用于收集车道识别约束信息,建立车道识别记录数据库,利用车道识别记录数据库对车道检测模型进行增量学习,获得增量车道检测模型;
模型修正模块18,所述模型修正模块18用于获取道路类型结果、车道识别约束信息,对增量车道检测模型进行修正;
信息检测跟踪模块19,所述信息检测跟踪模块19用于采集车辆预设角度的视频流信息,其中,所述车辆预设角度与所述坐标转换信息中的车辆坐标位置相匹配,通过增量车道检测模型对所述视频流信息进行识别检测,获得车道检测结果,再基于所述车道检测结果进行车道跟踪。
进一步而言,所述***还包括:
信息获取模块,所述信息获取模块用于获得道路类型信息、车道状态信息;
参数组合获取模块,所述参数组合获取模块用于基于道路类型信息、车道状态信息进行组合排列,获得类型-车道参数组合;
要求确定模块,所述要求确定模块用于将类型-车道参数组合进行汇总、分类,以确定所述预设条件要求,其中,所述所述预设条件要求为各道路类型的数据采集要求。
进一步而言,所述***还包括:
约束信息获取模块,所述约束信息获取模块用于收集车道识别约束信息,所述车道识别约束信息包括天气约束信息、光线约束信息、路面约束信息;
数据库获取模块,所述数据库获取模块用于基于所述车道识别约束信息,建立车道识别记录数据库,其中,所述车道识别记录数据库包括车道识别约束信息以及车道识别结果。
进一步而言,所述***还包括:
特征信息确定模块,所述特征信息确定模块用于根据道路视频集进行车道采集信息特征分析,确定被采集道路的道路类型信息结果以及车道识别约束信息结果;
天气信息获取模块,所述天气信息获取模块用于通过大数据平台获得天气信息;
天气制约信息获取模块,所述天气制约信息获取模块用于根据所述天气信息,获得天气制约信息;
信息匹配修正模块,所述信息匹配修正模块用于利用所述天气制约信息对所述车道识别约束信息结果进行匹配度分析,并利用所述天气制约信息对所述车道识别约束信息结果进行修正;
检测结果获取模块,所述检测结果获取模块用于将所述道路类型信息结果及经过修正确定的车道识别约束信息结果添加至所述增量车道检测模型,获得车道检测结果。
进一步而言,所述***还包括:
结果获取模块,结果获取模块用于利用所述车道识别记录数据库中车道识别约束信息对应视频数据加载至所述车道检测模型进行车道识别检测,获得车道检测识别结果;
损失数据获取模块,所述损失数据获取模块用于对所述车道检测识别结果进行数据损失分析,获得损失数据;
模型训练模块,所述模型训练模块用于将所述损失数据输入所述车道检测模型进行训练,得到新增车道检测识别结果;
损失分析模块,所述损失分析模块用于对新增车道检测识别结果进行损失值计算,获得新增损失数据,利用损失数据、新增损失数据计算损失趋势,当损失趋势满足预设趋势要求,基于新增车道检测识别结果预测得到训练参数;
邻域识别结果获取模块,所述邻域识别结果获取模块用于当所述损失趋势不满足预设趋势要求时,基于所述车道检测识别结果、损失数据,利用预设步长构建邻域车道检测识别结果;
寻优训练模块,所述寻优训练模块用于利用邻域车道检测识别结果进行训练参数寻优,得到邻域训练参数,以此类推,基于所有训练参数、邻域训练参数,确定增量模型参数,得到获得所述增量车道检测模型。
其中,所述***还包括如下步骤:
在车道检测模型增量学习过程中,当所述损失数据输入所述车道检测模型进行训练验证后,获取输出结果,即所述新增车道检测识别结果,对所述新增车道检测结果与训练数据中的车道检测结果进行映射校对,计算检测结果中映射数据的差值,作为所述新增损失值;进而基于所述损失数据与所述新增损失数据,进行损失趋势的确定,所述损失趋势随着每次的迭代训练同步更新;
若所述损失趋势不满足所述预设趋势要求,表明当前的损失程度超限,基于所述车道检测识别结果、损失数据进行参数调整规则进行校准,并基于所述车道检测识别结果进行训练参数寻优,获取所述邻域训练参数;基于上述步骤,结合所有训练参数、邻域训练参数,确定增量模型参数进行增量模型参数的迭代训练与损失分析,直至获取的损失数据满足收敛条件,直至获取构建完成的所述增量车道检测模型。
进一步而言,所述***还包括:
关键帧确定模块,所述关键帧确定模块用于对所述各类视频利用镜头边界算法,确定关键帧;
类别约束信息获取模块,所述类别约束信息获取模块用于对各类视频集进行类别约束条件分析,确定类别约束信息;
图像特征确定模块,所述图像特征确定模块用于基于所述类别约束信息进行卷积模型深度学习,利用卷积学习模型对所述关键帧进行特征分析,确定所述各类场景图像特征。
其中,所述***还包括如下步骤:
所述对各类视频集进行类别约束条件分析,确定类别约束信息的方法中,对所述各类视频集进行类别约束条件分析,包括车道类型、车道线型、外环境参数,通过识别图像基色调与纹理进行判定,确定相应的参数信息作为所述类别约束信息,并与所述各类视频集进行对应标识;
基于所述类别约束信息进行卷积神经网络训练,通过进行卷积模型深度学习进行多层级隐含层的完善;在训练过程中,结合关键帧筛查公式进行自适应提取:,其中,/>基于上次提取关键帧图像的帧频间距,/>为第i项约束条件,/>为第i项约束条件的配置权重,再将关键帧图像输入卷积学习模型模型中,对所述关键帧的图像特征识别,确定所述关键帧蕴含的图像基色调特征与纹理特征,不同场景对应的特征具化信息不同,进而进行特征匹配与规整,生成所述各类场景图像特征,包括图像特征与对应的特征值。
进一步而言,所述***还包括:
规则设定模块,所述规则设定模块用于设定标注规则信息;
特征集获取模块,所述特征集获取模块用于依次从各类场景图像特征中任意提取一个特征,遍历所述各类场景图像特征,得到多个特征集;
散点图构建模块,所述散点图构建模块用于基于所述多个特征集构建目标散点图集合;
方案集组建模块,所述方案集组建模块用于根据所述目标散点图集合,组建网格化方案集;
互信息值计算模块,所述互信息值计算模块用于依次基于所述网格化方案集对所述目标散点图集合进行分区,对多个分区结果依次进行互信息值计算,得到多个最大互信息值;
最大信息系数确定模块,所述最大信息系数确定模块用于基于所述多个最大互信息值确定多个目标最大信息系数;
特征系列匹配模块,所述特征序列匹配模块用于将所述多个目标最大信息系数进行降序排列,并反向匹配得到因素特征序列;
特征提取模块,所述特征提取模块用于提取所述因素特征序列中预设排名阈值的因素特征,组成所述目标因素特征集;
特征集标识模块,所述特征集标识模块用于利用标注规则信息中的标注条件对所述目标因素特征集进行标识,获得所述车道特征标识信息集。
本说明书通过前述对一种基于深度学习的车道追踪方法的详细描述,本领域技术人员可以清楚的知道本实施例中一种基于深度学习的车道追踪方法及***,对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
以上所述,仅为本发明较佳的具体实施方式,但本发明保护的范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内所做的任何修改,等同替换和改进等,均应包含在发明的保护范围之内。

Claims (8)

1.一种基于深度学习的车道追踪方法,其特征在于,步骤如下:
按照预设条件要求进行道路视频采集,获得道路视频集;
基于道路视频集进行场景分类,得到分类视频集;
根据所述分类视频集的采集位置信息,进行车辆坐标位置转换,确定坐标转换信息;
基于坐标转换信息,分别对所述分类视频集中各类视频进行特征分析,确定各类场景图像特征;
对所述各类场景图像特征进行预处理、特征标识,获得车道特征标识信息集,包括:
设定标注规则信息;
依次从各类场景图像特征中任意提取一个特征,遍历所述各类场景图像特征,得到多个特征集;
基于所述多个特征集构建目标散点图集合;
根据所述目标散点图集合,组建网格化方案集;
依次基于所述网格化方案集对所述目标散点图集合进行分区,对多个分区结果依次进行互信息值计算,得到多个最大互信息值;
基于所述多个最大互信息值确定多个目标最大信息系数;
将所述多个目标最大信息系数进行降序排列,并反向匹配得到因素特征序列;
提取所述因素特征序列中预设排名阈值的因素特征,组成目标因素特征集;
利用标注规则信息中的标注条件对所述目标因素特征集进行标识,获得所述车道特征标识信息集;
利用车道特征标识信息集进行网络模型深度学习,获得车道检测模型;
收集车道识别约束信息,所述车道识别约束信息包括天气约束信息、光线约束信息、路面约束信息;基于所述车道识别约束信息,建立车道识别记录数据库,其中,所述车道识别记录数据库包括车道识别约束信息以及车道识别结果;
利用所述车道识别记录数据库对所述车道检测模型进行增量学习,获得增量车道检测模型,包括:利用所述车道识别记录数据库中车道识别约束信息对应视频数据加载至所述车道检测模型进行车道识别检测,获得车道检测识别结果;
对所述车道检测识别结果进行数据损失分析,获得损失数据;
将所述损失数据输入所述车道检测模型进行训练,得到新增车道检测识别结果;
对新增车道检测识别结果进行损失值计算,获得新增损失数据,利用损失数据、新增损失数据计算损失趋势,当损失趋势满足预设趋势要求,基于新增车道检测识别结果预测得到训练参数;
当所述损失趋势不满足预设趋势要求时,基于所述车道检测识别结果、损失数据,利用预设步长构建邻域车道检测识别结果;
利用邻域车道检测识别结果进行训练参数寻优,得到邻域训练参数,以此类推,基于所有训练参数、邻域训练参数,确定增量模型参数,得到所述增量车道检测模型;
获取道路类型结果、车道识别约束信息,对增量车道检测模型进行修正,包括:根据道路视频集进行车道采集信息特征分析,确定被采集道路的道路类型信息结果以及车道识别约束信息结果;通过大数据平台获得天气信息;根据所述天气信息,获得天气制约信息;利用所述天气制约信息对所述车道识别约束信息结果进行匹配度分析,并利用所述天气制约信息对所述车道识别约束信息结果进行修正;将所述道路类型信息结果及经过修正确定的车道识别约束信息结果添加至所述增量车道检测模型,对增量车道检测模型修正;
采集车辆预设角度的视频流信息,其中,所述车辆预设角度与所述坐标转换信息中的车辆坐标位置相匹配,通过修正后的增量车道检测模型对所述视频流信息进行识别检测,获得车道检测结果,再基于所述车道检测结果进行车道跟踪。
2.根据权利要求1所述的基于深度学习的车道追踪方法,其特征在于,还包括道路视频采集之前的步骤:
基于道路类型信息、车道状态信息进行组合排列,获得类型-车道参数组合;
将类型-车道参数组合进行汇总、分类,以确定预设条件要求;所述预设条件要求为各道路类型的数据采集要求。
3.根据权利要求1所述的基于深度学习的车道追踪方法,其特征在于,获得车道检测模型的方法包括:
将所述车道特征标识信息集作为训练数据,通过进行卷积神经网络训练构成所述车道检测模型,其中,所述车道检测模型是多个神经元相互连接构成神经网络所获得,包括输入层、输出层与多个隐含层,所述输入层与输出层为模型的基本架构,所述多个隐含层为模型的功能层。
4.根据权利要求1所述的基于深度学习的车道追踪方法,其特征在于,该方法包括:
在车道检测模型增量学习过程中,当所述损失数据输入所述车道检测模型进行训练验证后,获取增量车道检测模型;
其中,所述车道检测模型进行训练验证,还包括:
对新增车道检测结果与训练数据中的车道检测结果进行映射校对,计算检测结果中映射数据的差值,作为新增损失值;
基于所述损失数据与所述新增损失数据,确定损失趋势,所述损失趋势随着每次的迭代训练同步更新;
若所述损失趋势不满足所述预设趋势要求,基于所述车道检测识别结果、损失数据进行参数调整规则进行校准,并基于所述车道检测识别结果进行训练参数寻优,获取所述邻域训练参数;
结合所有训练参数、邻域训练参数,确定增量模型参数进行增量模型参数的迭代训练与损失分析,直至获取的损失数据满足收敛条件,获取构建完成的所述增量车道检测模型。
5.根据权利要求1所述的基于深度学习的车道追踪方法,其特征在于,获取道路类型结果、车道识别约束信息,对增量车道检测模型进行修正的方法如下:
根据道路视频集进行车道采集信息特征分析,确定被采集道路的道路类型信息结果以及车道识别约束信息结果;
通过大数据平台获得天气信息;
根据所述天气信息,获得天气制约信息;
利用所述天气制约信息对所述车道识别约束信息结果进行匹配度分析,并利用所述天气制约信息对所述车道识别约束信息结果进行修正;
将道路类型信息结果及经过修正确定的车道识别约束信息结果添加至增量车道检测模型,对增量车道检测模型修正。
6.根据权利要求1所述的基于深度学习的车道追踪方法,其特征在于,所述分别对所述分类视频集中各类视频进行特征分析,确定各类场景图像特征的方法,包括:
对所述各类视频利用镜头边界算法,确定关键帧;
对各类视频集进行类别约束条件分析,确定类别约束信息;
基于所述类别约束信息进行卷积模型深度学习,利用卷积学习模型对所述关键帧进行特征分析,确定所述各类场景图像特征。
7.根据权利要求6所述的基于深度学习的车道追踪方法,其特征在于,所述对各类视频集进行类别约束条件分析,确定类别约束信息的方法中,该方法还包括:
对所述各类视频集进行类别约束条件分析,通过识别图像基色调与纹理信息,确定类别约束信息,并与所述各类视频集进行对应标识,其中,所述类别约束条件包括车道类型、车道线型、外环境参数;
基于所述类别约束信息进行卷积神经网络训练,完善多层级隐含层;
其中,通过进行卷积模型深度学习进行多层级隐含层的完善,还包括:
针对训练过程,结合关键帧筛查公式进行自适应提取,所述关键帧筛查公式如下:
其中,为基于上次提取关键帧图像的帧频间距,/>为第i项约束条件,/>为第i项约束条件的配置权重;
将关键帧图像输入卷积学习模型模型中,识别所述关键帧的图像特征,确定所述关键帧蕴含的图像基色调特征与纹理特征,进行特征匹配与规整,生成各类场景图像特征,其中,不同场景对应的特征具化信息不同,所述各类场景图像特征包括图像特征与对应的特征值。
8.一种基于深度学习的车道追踪***,其特征在于,所述***包括:
视频采集模块,所述视频采集模块用于按照预设条件要求进行道路视频采集,获得道路视频集;
视频集分类模块,所述视频集分类模块用于基于道路视频集进行场景分类,得到分类视频集;
坐标转换模块,所述坐标转换模块用于根据所述分类视频集的采集位置信息,进行车辆坐标位置转换,确定坐标转换信息;
特征分析模块,所述特征分析模块用于基于坐标转换信息,分别对所述分类视频集中各类视频进行特征分析,确定各类场景图像特征;
信息集获取模块,所述信息集获取模块用于对所述各类场景图像特征进行预处理、特征标识,获得车道特征标识信息集;其中,对所述各类场景图像特征进行预处理、特征标识,获得车道特征标识信息集的方法,包括:
设定标注规则信息;
依次从各类场景图像特征中任意提取一个特征,遍历所述各类场景图像特征,得到多个特征集;
基于所述多个特征集构建目标散点图集合;
根据所述目标散点图集合,组建网格化方案集;
依次基于所述网格化方案集对所述目标散点图集合进行分区,对多个分区结果依次进行互信息值计算,得到多个最大互信息值;
基于所述多个最大互信息值确定多个目标最大信息系数;
将所述多个目标最大信息系数进行降序排列,并反向匹配得到因素特征序列;
提取所述因素特征序列中预设排名阈值的因素特征,组成目标因素特征集;
利用标注规则信息中的标注条件对所述目标因素特征集进行标识,获得所述车道特征标识信息集;
模型获取模块,所述模型获取模块用于利用车道特征标识信息集进行网络模型深度学习,获得车道检测模型;
增量学习模块,所述增量学习模块用于收集车道识别约束信息,建立车道识别记录数据库,利用车道识别记录数据库对车道检测模型进行增量学习,获得增量车道检测模型;其中,收集车道识别约束信息,建立车道识别记录数据库的方法,包括:收集车道识别约束信息,所述车道识别约束信息包括天气约束信息、光线约束信息、路面约束信息;基于所述车道识别约束信息,建立车道识别记录数据库,其中,所述车道识别记录数据库包括车道识别约束信息以及车道识别结果;
利用所述车道识别记录数据库对所述车道检测模型进行增量学习,获得增量车道检测模型的方法,包括:利用所述车道识别记录数据库中车道识别约束信息对应视频数据加载至所述车道检测模型进行车道识别检测,获得车道检测识别结果;
对所述车道检测识别结果进行数据损失分析,获得损失数据;
将所述损失数据输入所述车道检测模型进行训练,得到新增车道检测识别结果;
对新增车道检测识别结果进行损失值计算,获得新增损失数据,利用损失数据、新增损失数据计算损失趋势,当损失趋势满足预设趋势要求,基于新增车道检测识别结果预测得到训练参数;
当所述损失趋势不满足预设趋势要求时,基于所述车道检测识别结果、损失数据,利用预设步长构建邻域车道检测识别结果;
利用邻域车道检测识别结果进行训练参数寻优,得到邻域训练参数,以此类推,基于所有训练参数、邻域训练参数,确定增量模型参数,得到所述增量车道检测模型;
模型修正模块,所述模型修正模块用于获取道路类型结果、车道识别约束信息,对增量车道检测模型进行修正;获取道路类型结果、车道识别约束信息,对增量车道检测模型进行修正的方法,包括:根据道路视频集进行车道采集信息特征分析,确定被采集道路的道路类型信息结果以及车道识别约束信息结果;通过大数据平台获得天气信息;根据所述天气信息,获得天气制约信息;利用所述天气制约信息对所述车道识别约束信息结果进行匹配度分析,并利用所述天气制约信息对所述车道识别约束信息结果进行修正;将所述道路类型信息结果及经过修正确定的车道识别约束信息结果添加至所述增量车道检测模型,对增量车道检测模型修正;
信息检测跟踪模块,所述信息检测跟踪模块用于采集车辆预设角度的视频流信息,其中,所述车辆预设角度与所述坐标转换信息中的车辆坐标位置相匹配,通过修正后的增量车道检测模型对所述视频流信息进行识别检测,获得车道检测结果,再基于所述车道检测结果进行车道跟踪。
CN202410070092.4A 2024-01-18 2024-01-18 一种基于深度学习的车道追踪方法及*** Active CN117593717B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410070092.4A CN117593717B (zh) 2024-01-18 2024-01-18 一种基于深度学习的车道追踪方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410070092.4A CN117593717B (zh) 2024-01-18 2024-01-18 一种基于深度学习的车道追踪方法及***

Publications (2)

Publication Number Publication Date
CN117593717A CN117593717A (zh) 2024-02-23
CN117593717B true CN117593717B (zh) 2024-04-05

Family

ID=89911848

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410070092.4A Active CN117593717B (zh) 2024-01-18 2024-01-18 一种基于深度学习的车道追踪方法及***

Country Status (1)

Country Link
CN (1) CN117593717B (zh)

Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09223218A (ja) * 1996-02-15 1997-08-26 Toyota Motor Corp 走路検出方法及び装置
JP2015069289A (ja) * 2013-09-27 2015-04-13 日産自動車株式会社 車線認識装置
CN109389102A (zh) * 2018-11-23 2019-02-26 合肥工业大学 基于深度学习的车道线检测方法及其应用的***
CN111145545A (zh) * 2019-12-25 2020-05-12 西安交通大学 基于深度学习的道路交通行为无人机监测***及方法
CN112487907A (zh) * 2020-11-23 2021-03-12 北京理工大学 一种基于图分类的危险场景识别方法及***
CN113191256A (zh) * 2021-04-28 2021-07-30 北京百度网讯科技有限公司 车道线检测模型的训练方法、装置、电子设备及存储介质
CN113936266A (zh) * 2021-10-19 2022-01-14 西安电子科技大学 一种基于深度学习的车道线检测方法
CN114252082A (zh) * 2022-03-01 2022-03-29 苏州挚途科技有限公司 车辆定位方法、装置和电子设备
CN114332822A (zh) * 2021-12-31 2022-04-12 北京百度网讯科技有限公司 确定车道组类型的方法、装置及电子设备
CN114913498A (zh) * 2022-05-27 2022-08-16 南京信息工程大学 一种基于关键点估计的并行多尺度特征聚合车道线检测方法
CN115276006A (zh) * 2022-09-26 2022-11-01 江苏永鼎股份有限公司 一种用于电力集成***的负荷预测的方法及***
WO2022237272A1 (zh) * 2021-05-11 2022-11-17 北京车和家信息技术有限公司 用于车道线识别的道路图片标注方法和装置
CN116110230A (zh) * 2022-11-02 2023-05-12 东北林业大学 基于车载摄像头的车辆越车道线识别方法及***
CN116189130A (zh) * 2023-02-24 2023-05-30 智道网联科技(北京)有限公司 基于图像标注模型的车道线分割方法及装置
CN116310754A (zh) * 2023-02-16 2023-06-23 中国科学院计算技术研究所 检测伪造人脸图像视频的增量学习方法及***
CN116486352A (zh) * 2023-03-30 2023-07-25 长沙理工大学 基于道路约束的车道线鲁棒检测与提取方法
CN116524382A (zh) * 2023-05-22 2023-08-01 西南交通大学 一种桥梁转体合拢准确性检验方法***、设备
CN116665176A (zh) * 2023-07-21 2023-08-29 石家庄铁道大学 一种面向车辆自动驾驶的多任务网络道路目标检测方法
CN117333846A (zh) * 2023-11-03 2024-01-02 中国科学技术大学 恶劣天气下基于传感器融合和增量学习的检测方法及***

Patent Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09223218A (ja) * 1996-02-15 1997-08-26 Toyota Motor Corp 走路検出方法及び装置
JP2015069289A (ja) * 2013-09-27 2015-04-13 日産自動車株式会社 車線認識装置
CN109389102A (zh) * 2018-11-23 2019-02-26 合肥工业大学 基于深度学习的车道线检测方法及其应用的***
CN111145545A (zh) * 2019-12-25 2020-05-12 西安交通大学 基于深度学习的道路交通行为无人机监测***及方法
CN112487907A (zh) * 2020-11-23 2021-03-12 北京理工大学 一种基于图分类的危险场景识别方法及***
CN113191256A (zh) * 2021-04-28 2021-07-30 北京百度网讯科技有限公司 车道线检测模型的训练方法、装置、电子设备及存储介质
WO2022237272A1 (zh) * 2021-05-11 2022-11-17 北京车和家信息技术有限公司 用于车道线识别的道路图片标注方法和装置
CN113936266A (zh) * 2021-10-19 2022-01-14 西安电子科技大学 一种基于深度学习的车道线检测方法
CN114332822A (zh) * 2021-12-31 2022-04-12 北京百度网讯科技有限公司 确定车道组类型的方法、装置及电子设备
CN114252082A (zh) * 2022-03-01 2022-03-29 苏州挚途科技有限公司 车辆定位方法、装置和电子设备
CN114913498A (zh) * 2022-05-27 2022-08-16 南京信息工程大学 一种基于关键点估计的并行多尺度特征聚合车道线检测方法
CN115276006A (zh) * 2022-09-26 2022-11-01 江苏永鼎股份有限公司 一种用于电力集成***的负荷预测的方法及***
CN116110230A (zh) * 2022-11-02 2023-05-12 东北林业大学 基于车载摄像头的车辆越车道线识别方法及***
CN116310754A (zh) * 2023-02-16 2023-06-23 中国科学院计算技术研究所 检测伪造人脸图像视频的增量学习方法及***
CN116189130A (zh) * 2023-02-24 2023-05-30 智道网联科技(北京)有限公司 基于图像标注模型的车道线分割方法及装置
CN116486352A (zh) * 2023-03-30 2023-07-25 长沙理工大学 基于道路约束的车道线鲁棒检测与提取方法
CN116524382A (zh) * 2023-05-22 2023-08-01 西南交通大学 一种桥梁转体合拢准确性检验方法***、设备
CN116665176A (zh) * 2023-07-21 2023-08-29 石家庄铁道大学 一种面向车辆自动驾驶的多任务网络道路目标检测方法
CN117333846A (zh) * 2023-11-03 2024-01-02 中国科学技术大学 恶劣天气下基于传感器融合和增量学习的检测方法及***

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
incremental learning-based lane detection for Automated rubber-tired gantries in container termial;yunjian fang 等;《IEEE Xplore》;20230911;全文 *
基于特征通道和空间位置注意力的三维点云特征学习网络;何发智 等;《计算机工程与科学》;20221231;全文 *
结构化道路上应用区域划分的车道线识别;王越;范先星;刘金城;庞振营;;计算机应用;20150910(09);全文 *

Also Published As

Publication number Publication date
CN117593717A (zh) 2024-02-23

Similar Documents

Publication Publication Date Title
CN116758059B (zh) 一种用于路基路面的视觉无损检测方法
CN110866430A (zh) 一种车牌识别方法及装置
CN105718866A (zh) 一种视觉目标检测与识别方法
CN108154158B (zh) 一种面向增强现实应用的建筑物图像分割方法
CN112818775B (zh) 基于区域边界像素交换的林区道路快速识别方法及***
CN114170511B (zh) 基于Cascade RCNN的路面裂缝病害识别方法
CN117173913B (zh) 基于不同时段车流量分析的交通控制方法及***
CN106228136A (zh) 基于聚合通道特征的全景街景隐私保护方法
CN110084198A (zh) 基于Fisher特征分析的CNN机场室内场景识别方法
CN116468935A (zh) 一种基于多核卷积网络的交通标志阶梯式分类识别方法
CN115690513A (zh) 一种基于深度学习的城市行道树种类识别方法
CN116901089B (zh) 一种多角度视距的机器人控制方法及***
CN114022782A (zh) 一种基于modis卫星数据的海雾探测方法
CN111882573B (zh) 一种基于高分辨率影像数据的耕地地块提取方法及***
CN117593717B (zh) 一种基于深度学习的车道追踪方法及***
CN116206208B (zh) 一种基于人工智能的林业病虫害快速分析***
CN111191510B (zh) 基于关系网络的复杂场景下遥感图像小样本目标识别方法
CN116229330A (zh) 一种视频有效帧的确定方法、***、电子设备及存储介质
CN115761265A (zh) 一种用于提取激光雷达点云中变电站设备的方法及装置
CN116524344A (zh) 一种基于rgb-d信息融合的番茄串采摘点检测方法
CN112364844B (zh) 一种基于计算机视觉技术的数据采集方法及***
CN114627493A (zh) 一种基于步态特征的身份识别方法及***
CN114140698A (zh) 一种基于FasterR-CNN的水系信息提取算法
CN117116065B (zh) 一种智慧道路车流管控方法及***
CN115858846B (zh) 一种基于深度学习的滑雪者图像检索方法和***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant