CN117935200A - 一种基于改进YOLOv8的自动驾驶路况监测方法 - Google Patents

一种基于改进YOLOv8的自动驾驶路况监测方法 Download PDF

Info

Publication number
CN117935200A
CN117935200A CN202410099012.8A CN202410099012A CN117935200A CN 117935200 A CN117935200 A CN 117935200A CN 202410099012 A CN202410099012 A CN 202410099012A CN 117935200 A CN117935200 A CN 117935200A
Authority
CN
China
Prior art keywords
model
automatic driving
yolov
emha
road condition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202410099012.8A
Other languages
English (en)
Inventor
蔡梓彬
陈荣荣
吴子毅
钟凯炼
陈柏舟
蔡润丹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhaoqing University
Original Assignee
Zhaoqing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhaoqing University filed Critical Zhaoqing University
Priority to CN202410099012.8A priority Critical patent/CN117935200A/zh
Publication of CN117935200A publication Critical patent/CN117935200A/zh
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Image Analysis (AREA)

Abstract

本申请涉及自动驾驶领域,公开了一种改进的YOLOv8模型以及基于该模型的自动驾驶路况监测方法,所述模型包括采用EMHA注意力机制的C2f‑Faster‑EMHA模块,所述C2f‑Faster‑EMHA模块集成了FasterBlock结构和EMHA注意力机制,其中EMHA注意力机制使用Hardsigmoid激活函数替换传统的Sigmoid激活函数。所述方法包括以下步骤:S1、采集自动驾驶环境下的图像数据;S2、将所述图像数据输入至所述改进后的YOLOv8模型;S3、输出检测结果,所述检测结果包括但不限于车辆、行人、交通标志的位置和类别。本发明提供的自动驾驶路况监测方法结合了改进后的YOLOv8模型,为自动驾驶***提供了更高效、更准确和更可靠的路况监测能力。

Description

一种基于改进YOLOv8的自动驾驶路况监测方法
技术领域
本发明涉及自动驾驶技术领域,具体为一种基于改进YOLOv8的自动驾驶路况监测方法。
背景技术
随着自动驾驶技术的不断发展,自动驾驶车辆在道路上的应用正日益广泛。为了实现安全、高效的自动驾驶,车辆需要对周围的路况进行实时、准确的感知和识别。其中,目标检测作为自动驾驶***中至关重要的一环,扮演着关键的角色。
传统的目标检测算法在速度和准确性上往往存在一定的矛盾,尤其是在自动驾驶场景下,对实时性和准确性的要求更加苛刻。因此,如何设计一种能够实现快速、准确目标检测的算法,成为了当前自动驾驶技术研究的热点之一。
发明内容
针对现有技术的不足,本发明提出了一种改进后的YOLOv8模型,利用C2f-Faster-EMHA模块和EMHA注意力机制,以提升目标检测的速度和准确性。同时,针对自动驾驶路况监测的需求,我们提出了一种基于改进后的YOLOv8模型的自动驾驶路况监测方法,能够实时、准确地检测车辆、行人和交通标志,为自动驾驶***的感知能力和决策依据提供了重要支持。
为实现以上目的,本发明通过以下技术方案予以实现:一种改进的YOLOv8模型,所述模型包括采用EMHA注意力机制的C2f-Faster-EMHA模块,所述C2f-Faster-EMHA模块集成了FasterBlock结构和EMHA注意力机制,其中EMHA注意力机制使用Hardsigmoid激活函数替换传统的Sigmoid激活函数。
优选的,所述模型的损失函数采用Wise-iou损失函数,所述Wise-iou损失函数用于在训练过程中评估目标检测框与实际标注框之间的重叠度。
优选的,所述模型经过Lamp剪枝方法处理,以减少参数量和计算量。
本发明还提供基于所述的改进的YOLOv8模型的自动驾驶路况监测方法,包括以下步骤:
采集自动驾驶环境下的图像数据;
将所述图像数据输入至所述改进后的YOLOv8模型;
输出检测结果,所述检测结果包括但不限于车辆、行人、交通标志的位置和类别。
优选的,所述方法还包括对输出的检测结果进行后处理,以筛选和确认最终的目标检测框。
本发明还提供用于实施所述方法的自动驾驶路况监测装置,包括:
图像采集单元,用于采集自动驾驶环境下的图像数据;
处理单元,用于处理所述图像数据;
输出单元,用于输出检测结果。
优选的,所述处理单元内部加载有所述改进后的YOLOv8模型。
优选的,所述装置还包括后处理模块,用于对检测模块输出的初步检测结果进行处理,以得到最终的目标检测框。
本发明还提供一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现如上述的方法。
本发明还提供一种存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述的方法。
本发明提供了一种基于改进YOLOv8的自动驾驶路况监测方法。具备以下
有益效果:
1、本发明改进后的YOLOv8模型通过使用Hardsigmoid激活函数替换注意力机制中EMA的Sigmoid激活函数在保证精度的情况下,提高了模型的推理速度。通过采用了FasterNet中的FasterBlock与注意力机制EMHA结合,相比改进前,在Udacity数据集上有更大的提升。通过替换损失函数为Wise-iou,让模型在训练速度相比原模型加快,能够处理一些低质量的训练集产生的有害梯度。同时在训练中提高精度。通过采用Lamp剪枝方法进一步减少模型的参数量和计算量,在参数量减少了百分之五十,计算量减少了百分之三十的情况下,推理速度更快,同时更加轻量化。
2、本发明提供的自动驾驶路况监测方法结合了改进后的YOLOv8模型,为自动驾驶***提供了更高效、更准确和更可靠的路况监测能力。
附图说明
图1为本发明的YOLOv8模型结构示意图;
图2为本发明的Conv模块结构示意图;
图3为本发明的全新的C2f模块结构示意图;
图4为本发明的SPPF模块结构示意图;
图5为本发明的Head输出端结构示意图;
图6为本发明的YOLOv8模型整体改进框架示意图;
图7为本发明的C2f-FasterEM模块结构示意图;
图8为本发明的FE-YOLO模型结构示意图;
图9为本发明的Lamp剪枝方法示意图;
图10为本发明的FEWl-YOLO与YOLOv8n的mAP50训练精度对比图;
图11为本发明的自动驾驶路况监测方法流程示意图;
图12为本发明的自动驾驶路况监测装置结构示意图;
图13为本发明的计算机设备结构示意图。
其中,100、图像采集单元;200、处理单元;300、输出单元;400、后处理模块;40、计算机设备;41、处理器;42、存储器;43、存储介质。
具体实施方式
下面将结合本发明说明书附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明使用了改进的YOLOv8模型,它是基于以前的YOLO版本的成功基础上进行改进的。YOLOv8引入了新的功能和改进,以提升性能和灵活性。它可以用于对象检测、图像分类和实例分割任务。在本实施例中,用于对象检测任务,并根据网络深度和宽度的不同,将YOLOv8分为YOLOv8n、YOLOv8s、YOLOv8m、YOLOv8l和YOLOv8x等不同版本。由于考虑到模型大小的因素,本实施例选用了体积较小但精度较高的YOLOv8n网络。
如图1所示,YOLOv8n模型检测网络主要由四个部分组成:Input、Backbone、Neck和Head。具体如下:
Input:输入层接收原始图像作为输入数据。
Backbone:骨干网络负责提取图像特征。在YOLOv8中,骨干网络采用了一种特殊的卷积神经网络结构,用于提取不同尺度的特征。
Neck:连接部分用于融合不同尺度的特征图。在YOLOv8中,使用了特殊的特征融合技术,以便在不同尺度上进行对象检测。
Head:检测头部负责预测对象的位置和类别。在YOLOv8中,检测头部采用了一种多尺度预测的策略,以提高检测的准确性和召回率。
其中,lnput使用Mosaic进行数据增强,但是在最后的10个epoch会将其关闭。Mosaic是一种数据增强技术,它可以将多个图像拼接在一起,以生成更大的训练样本。
使用anchr-free机制直接预测对象的中心,而不是已知锚框的偏移量减少了锚框预测的数量,从而加速了非最大抑制NMS。传统目标检测方法通常使用锚框来表示不同尺度和长宽比的目标,然后通过预测锚框的偏移量和类别来完成目标检测任务。而Anchor-Free机制通过直接预测对象的中心点位置,避免了锚框预测的复杂性和数量。
主干部分(Backbone)主要用于特征提取,其中包含Conv、C2f、SPPF等模块。
如图2所示,其中Conv模块主要作用就是对输入图像进行卷积、BN和SILU激活函数操作;
如图3所示,YOLOv8n设计了全新的C2f结构,这是学习残差特征的主要模块,其结构让YOLOv8n可以在保证轻量化的时候能够同时拥有丰富的梯度流信息;
如图4所示,SPPF模块又称空间金字塔池化,它能够将任意大小的特征图转换成固定大小的特征向量。
颈部网络(Neck)的主要作用是对多尺度的特征进行融合,生成特征金字塔,Neck部分采用的结构是PAN-et结构,其核心结构由特征金字塔网络FPN和路径聚合网络PAN两部分组成。FPN首先在卷积神经网络中提取特征图来构建特征金字塔,随后自项向下利用上采样与更粗粒度的特征图融合来实现不同层次特征的融合,但是如果仅有FPN就会缺少目标的位置信息;PAN则是FPN的补充,使用自底向上的结构,通过使用一个卷积层来融合来自不同层次的特征图,精确地保留了空间信息。FPN与PAN的结合,充分实现了网络的上下信息流的融合,提升了网络的检测性能。
如图5所示,Head输出端作为最后的预测部分,根据不同尺寸的特征图来获取不同大小目标物体的类别和位置信息。
YOLOv8在整体上采用VFL Loss作为分类损失,同时使用DFL Loss和CIOU Loss作为回归损失。
在模型精度方面,评估网络性能的指标主要有准确率(Precision,P),召回率(Recall,R),平均(Average Precision,AP),平均准确率均值(meanAveraqe Precision,mAP),计算方法如公式(1)和公式(2)所示:
其中,TP为预测正确的正样本数量,FP为预测错误的正样本数,FN为预测错误的负样本数。YOLOv8通常采用mAP来衡量。mAP是mean Average Precision的缩写,表示在多个类别上的平均精度。mAP50则表示在50%的IoU阈值下的mAP值。mAP50-95是一个更严格的评价指标,它计算了在50-95%的IoU阈值范围内的mAP值,然后取平均,这能够更准确地评估模型在不同IoU阈值下的性能。通过平均每个类别的AP计算得到,计算方法如下面公式(3)和公式(4)所示:
然而,上述YOLOv8模型还存在以下问题:
1.YOLOv8在主干上C2f上存在冗余计算和内存访问频繁的问题,以及跨通道建模关系与通道降维可能在提取深度视觉表征时带来副作用,流失部分信息。
2.目标检测作为计算机视觉的核心问题,其检测性能依赖于损失函数的设计。边界框损失函数作为目标检测损失函数的重要组成部分,其良好的定义将为目标检测模型带来显著的性能提升。YOLOv8n中采用DFL Loss和CIOU Loss作为回归损失函数,但是CIOULoss函数对目标检测训练集中的低质量的示例不能进行很好的处理。
3.YOLOv8中的最小模型YOLOv8n虽然在精度上相对YOLOv5最小模型YOLOv5n有一定的提升,但是同时也提高了模型的内存、参数量和计算量,不利于嵌入式端的部署。
基于上述,本发明实施例提供一种改进的YOLOv8模型,如图6所示,做出了以下改进:
1.改进Backbone中的C2f:
首先采用Hardsigmoid激活函数替换EMA注意力机制中的Sigmoid激活函数命名,新模块为EMHA。
其次采用FasterNet中的FasterBlock和EMHA注意力机制融合为FasterEMHA模块替换原C2f中的Bottleblock,如图7所示,构成新的模块C2f-FasterEM。把Backbone中的原C2f替换为C2f-Faster-EMHA,如图8所示,命名新模型为FE-YOLO。
通过改进Backbone中的C2f模块,提高了模型的性能和效率。通过引入新的模块和注意力机制,FE-YOLO可以更好地提取空间特征,并在目标检测任务中取得更好的性能。
在FE-YOLO与YOLOv8n比较中,FE-YOLO使模型更高效地提取空间特征,同时减少了计算量,也对特征图进行加权,提高了对重要目标的关注度。不仅在精度上有提升,相比原模型也更加轻量化。在Udacity上对比YOLOv8n,mAP50提高了2个百分点,mAP50-95提高了2.5个百分点。
2.替换CIOULoss损失函数为Wise-iou:
CIOU Loss虽然添加了长宽比的惩罚项,使得评估更加准确,保证了模型精度,但是涉及到反三角函数,在计算的过程中会消耗一定的算力,整体训练时间会慢,同时对一些低质量的示例不能进行很好的处理。
因此在本实施例中采用Wise-iou对CIOU Loss函数进行替换,Wise-iou具有精准的梯度增益分配策略。该策略在降低高质量锚框的竞争力的同时,也减小了低质量示例产生的有害梯度,能够在YOLOv8n上提高精度以及提高模型的训练速度。命名新模型为FEW-YOLO。
FEW-YOLO相比YOLOv8n在Udacity数据集上mAP50提高了2.1个百分点,mAP50-95提高了3.5个百分点。Wise-iou部分计算方法如公式(5)和公式(6)所示:
3.使用Lamp剪枝方法进行剪枝:
如图9所示,Lamp剪枝方法是一种基于局部最优解的剪枝算法。它的思想是通过对问题的局部最优解进行评估和选择,来确定是否继续搜索其他可能的解。LAMP剪枝算法的核心是建立一个评估函数,用于评告当前解的质量,并根据评估结果决定是否进行剪枝操作。
利用Lamp剪枝可以对FEW-YOLO的每一层进行剪枝,减少模型的参数量和计算量,同时可以提高模型整体的推理速度。命名剪枝后的模型为FEWl-YOLO。
FEWl-YOLO在参数量对比YOLOv8n减少了百分之五十,计算量减少了百分之三十,mAP50提高了6个百分点,mAP50-95提高了4.3个百分点。
总的来说,本发明改进后的YOLOv8模型通过使用Hardsigmoid激活函数替换注意力机制中EMA的Sigmoid激活函数在保证精度的情况下,提高了模型的推理速度。通过采用了FasterNet中的FasterBlock与注意力机制EMHA结合,相比改进前,在Udacity数据集上有更大的提升。通过替换损失函数为Wise-iou,让模型在训练速度相比原模型加快,能够处理一些低质量的训练集产生的有害梯度。同时在训练中提高精度。通过采用Lamp剪枝方法进一步减少模型的参数量和计算量,在参数量减少了百分之五十,计算量减少了百分之三十的情况下,推理速度更快,同时更加轻量化。
如图10所示,对比YOLOv8n在Udacity数据集上mAP50提高了6个百分点,mAP50-95提高了4.3个百分点。
请参阅附图11,本发明实施例还提供一种自动驾驶路况监测方法,基于上述实施例中改进后的YOLOv8模型,包括步骤S1~S4,具体如下:
步骤S1、采集自动驾驶环境下的图像数据;
在这一步骤中,通过在自动驾驶车辆上安装摄像头,采集车辆周围的实时图像数据。这些图像数据将包含道路、车辆、行人、交通标志等各种路况信息。
步骤S2、将图像数据输入至改进后的YOLOv8模型;
在这一步骤中,所采集的图像数据作为输入,经过预处理后,被输入到改进后的YOLOv8模型中进行处理。在模型中,图像数据将经过C2f-Faster-EMHA模块的特征提取和注意力机制的加工,以进行目标检测任务。
步骤S3、输出检测结果,检测结果包括但不限于车辆、行人、交通标志的位置和类别;
在这一步骤中,改进后的YOLOv8模型将输出检测结果,其中包括检测到的车辆、行人、交通标志等目标的位置和类别信息。这些信息对于自动驾驶***的决策和规划至关重要。
步骤S4、对输出的检测结果进行后处理,以筛选和确认最终的目标检测框;
在这一步骤中,输出的检测结果中,可能存在一些噪声或不确定性。因此,方法还包括对输出的检测结果进行后处理,以筛选和确认最终的目标检测框。这包括非极大值抑制(NMS)等技术,以确保最终的检测结果精确可靠。
本实施例中,通过使用现有的摄像头设备来进行图像数据的采集,并将其传输到车载计算单元中。改进后的YOLOv8模型在车载计算单元中部署,以完成对图像数据的实时处理和目标检测任务。后处理过程在模型输出后进行,以进一步优化检测结果。
改进后的YOLOv8模型通过C2f-Faster-EMHA模块和EMHA注意力机制的应用,实现了对图像特征的高效提取和对目标的准确检测。C2f-Faster-EMHA模块结合了高效的特征提取单元和改进的注意力机制,使得模型在保持高准确性的情况下,能够更快地处理图像数据。同时,后处理步骤进一步提高了检测结果的可靠性和准确性。
总的来说,本发明提供的自动驾驶路况监测方法结合了改进后的YOLOv8模型,通过优化的模型设计和实施步骤,为自动驾驶***提供了更高效、更准确和更可靠的路况监测能力。
下文描述的自动驾驶路况监测装置与上文描述的自动驾驶路况监测方法可相互对应参照。
请参阅附图12,本发明实施例还提供一种自动驾驶路况监测装置,用于实施上述实施例的监测方法,包括:
图像采集单元100,用于采集自动驾驶环境下的图像数据;
处理单元200,用于处理图像数据,处理单元内部加载有改进后的YOLOv8模型;
输出单元300,用于输出检测结果。
后处理模块400,用于对检测模块输出的初步检测结果进行处理,以得到最终的目标检测框。
本实施例装置可以用于执行上述方法实施例,其原理和技术效果类似,此处不再赘述。
请参阅附图13,本发明还提供一种计算机设备40,包括:处理器41和存储器42,存储器42存储有处理器可执行的计算机程序,计算机程序被处理器执行时执行如上的方法。
本发明还提供了一种存储介质43,该存储介质43上存储有计算机程序,该计算机程序被处理器41运行时执行如上的方法。
其中,存储介质43可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(Static Random Access Memory,简称SRAM),电可擦除可编程只读存储器(Electrically Erasable Programmable Read-Only Memory,简称EEPROM),可擦除可编程只读存储器(Erasable Programmable Read Only Memory,简称EPROM),可编程只读存储器(Programmable Red-Only Memory,简称PROM),只读存储器(Read-OnlyMemory,简称ROM),磁存储器,快闪存储器,磁盘或光盘。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

Claims (10)

1.一种改进的YOLOv8模型,其特征在于,所述模型包括采用EMHA注意力机制的C2f-Faster-EMHA模块,所述C2f-Faster-EMHA模块集成了FasterBlock结构和EMHA注意力机制,其中EMHA注意力机制使用Hardsigmoid激活函数替换传统的Sigmoid激活函数。
2.根据权利要求1所述的一种改进的YOLOv8模型,其特征在于,所述模型的损失函数采用Wise-iou损失函数,所述Wise-iou损失函数用于在训练过程中评估目标检测框与实际标注框之间的重叠度。
3.根据权利要求1所述的一种改进的YOLOv8模型,其特征在于,所述模型经过Lamp剪枝方法处理,以减少参数量和计算量。
4.一种自动驾驶路况监测方法,基于如权利要求1-3任一项所述的改进的YOLOv8模型,其特征在于,包括以下步骤:
采集自动驾驶环境下的图像数据;
将所述图像数据输入至所述改进后的YOLOv8模型;
输出检测结果,所述检测结果包括但不限于车辆、行人、交通标志的位置和类别。
5.根据权利要求4所述的一种自动驾驶路况监测方法,其特征在于,所述方法还包括对输出的检测结果进行后处理,以筛选和确认最终的目标检测框。
6.一种自动驾驶路况监测装置,用于实施如权利要求5所述的一种自动驾驶路况监测方法,其特征在于,包括:
图像采集单元,用于采集自动驾驶环境下的图像数据;
处理单元,用于处理所述图像数据;
输出单元,用于输出检测结果。
7.根据权利要求6所述的一种自动驾驶路况监测装置,其特征在于,所述处理单元内部加载有如权利要求1-3任一项所述的改进后的YOLOv8模型。
8.根据权利要求6所述的一种自动驾驶路况监测装置,其特征在于,所述装置还包括后处理模块,用于对检测模块输出的初步检测结果进行处理,以得到最终的目标检测框。
9.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时,实现如权利要求4或5所述的方法。
10.一种存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求4或5所述的方法。
CN202410099012.8A 2024-01-23 2024-01-23 一种基于改进YOLOv8的自动驾驶路况监测方法 Pending CN117935200A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410099012.8A CN117935200A (zh) 2024-01-23 2024-01-23 一种基于改进YOLOv8的自动驾驶路况监测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410099012.8A CN117935200A (zh) 2024-01-23 2024-01-23 一种基于改进YOLOv8的自动驾驶路况监测方法

Publications (1)

Publication Number Publication Date
CN117935200A true CN117935200A (zh) 2024-04-26

Family

ID=90765940

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410099012.8A Pending CN117935200A (zh) 2024-01-23 2024-01-23 一种基于改进YOLOv8的自动驾驶路况监测方法

Country Status (1)

Country Link
CN (1) CN117935200A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118115953A (zh) * 2024-04-29 2024-05-31 武汉大学中南医院 一种手术室适用的外科手消毒智能化监测方法和装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230154202A1 (en) * 2020-10-23 2023-05-18 Xi'an Creation Keji Co., Ltd. Method of road detection based on internet of vehicles
CN116580377A (zh) * 2023-03-20 2023-08-11 北京工业大学 一种用于自动驾驶车辆的道路多目标快速识别方法
CN117152971A (zh) * 2023-09-08 2023-12-01 安徽科力信息产业有限责任公司 一种基于高空全景视频的ai交通信号优化方法
CN117351448A (zh) * 2023-12-04 2024-01-05 长春理工大学 一种基于YOLOv8改进的偏振图像道路目标检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230154202A1 (en) * 2020-10-23 2023-05-18 Xi'an Creation Keji Co., Ltd. Method of road detection based on internet of vehicles
CN116580377A (zh) * 2023-03-20 2023-08-11 北京工业大学 一种用于自动驾驶车辆的道路多目标快速识别方法
CN117152971A (zh) * 2023-09-08 2023-12-01 安徽科力信息产业有限责任公司 一种基于高空全景视频的ai交通信号优化方法
CN117351448A (zh) * 2023-12-04 2024-01-05 长春理工大学 一种基于YOLOv8改进的偏振图像道路目标检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
王满利等: "基于改进YOLOv8n 的立井刚性罐道接头错位检测算法", 煤炭科学技术, 7 December 2023 (2023-12-07), pages 1 - 1 *
睡懒觉的痒痒鼠: "YOLOv8改进——使用C2f-Faster-EMA替换C2f", HTTPS://BLOG.CSDN.NET/POPE888/ARTICLE/DETAILS/13554025, 14 January 2024 (2024-01-14), pages 1 - 5 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118115953A (zh) * 2024-04-29 2024-05-31 武汉大学中南医院 一种手术室适用的外科手消毒智能化监测方法和装置

Similar Documents

Publication Publication Date Title
CN110619369B (zh) 基于特征金字塔与全局平均池化的细粒度图像分类方法
CN117935200A (zh) 一种基于改进YOLOv8的自动驾驶路况监测方法
CN111881741B (zh) 车牌识别方法、装置、计算机设备和计算机可读存储介质
CN110458047B (zh) 一种基于深度学习的越野环境场景识别方法及***
CN111027347A (zh) 一种视频识别方法、装置和计算机设备
US20230331250A1 (en) Method and apparatus for configuring deep learning algorithm for autonomous driving
CN115880499A (zh) 一种被遮挡目标检测模型训练方法、装置、介质及设备
CN116597411A (zh) 极端天气下无人驾驶车辆识别交通标志的方法及***
CN117671597B (zh) 一种老鼠检测模型的构建方法和老鼠检测方法及装置
Nejad et al. Vehicle trajectory prediction in top-view image sequences based on deep learning method
CN114399638A (zh) 基于切块补丁学习的语义分割网络训练方法、设备及介质
CN112785610B (zh) 一种融合低层特征的车道线语义分割方法
CN117876383A (zh) 一种基于yolov5l的公路表面条状裂缝检测方法
CN116861262B (zh) 一种感知模型训练方法、装置及电子设备和存储介质
US20230298335A1 (en) Computer-implemented method, data processing apparatus and computer program for object detection
CN117011616A (zh) 一种图像内容审核方法、装置、存储介质和电子设备
CN116740495A (zh) 路桥隧道的病害检测模型的训练方法和病害检测方法
CN114863122B (zh) 一种基于人工智能的智能化高精度路面病害识别方法
Suemitsu et al. Selection of Dash Cam Images for Weather Forecasting Based on The Sky Occupancy
CN111179284B (zh) 交互式图像分割方法、***及终端
CN116503406B (zh) 基于大数据的水利工程信息管理***
CN114444597B (zh) 基于渐进式融合网络的视觉跟踪方法及装置
Wang et al. Attentional single-shot network with multi-scale feature fusion for object detection in aerial images
CN111882620B (zh) 一种基于多尺度信息道路可行驶区域分割方法
EP4064117A1 (en) Method for automatically executing a vehicle function, method for evaluating a computer vision method and evaluation unit for a vehicle

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination