CN115063665A - 一种基于加权双向特征金字塔网络的轻量级火灾检测方法 - Google Patents

一种基于加权双向特征金字塔网络的轻量级火灾检测方法 Download PDF

Info

Publication number
CN115063665A
CN115063665A CN202210781774.7A CN202210781774A CN115063665A CN 115063665 A CN115063665 A CN 115063665A CN 202210781774 A CN202210781774 A CN 202210781774A CN 115063665 A CN115063665 A CN 115063665A
Authority
CN
China
Prior art keywords
fire
network
yolov5s
network model
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210781774.7A
Other languages
English (en)
Inventor
江祥奎
胡浩昌
赵峰
张三�
胡艺辉
王无为
李红
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Posts and Telecommunications
Original Assignee
Xian University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Posts and Telecommunications filed Critical Xian University of Posts and Telecommunications
Priority to CN202210781774.7A priority Critical patent/CN115063665A/zh
Publication of CN115063665A publication Critical patent/CN115063665A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/955Hardware or software architectures specially adapted for image or video understanding using specific electronic processors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Fire-Detection Mechanisms (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于加权双向特征金字塔网络的轻量级火灾检测方法,使用RepVGG模块替换了YOLOv5s网络模型骨干网络的卷积模块Conv;在YOLOv5s引入轻量型通道和空间注意力机制CBAM;采用BiFPN结构作为YOLOv5s的特征融合网络;制作火灾图像检测数据集并将其分为训练集、验证集和测试集;将数据集输入到改进后的YOLOv5s网络模型中,并经过GPU进行训练和测试,得到最优权重;使用最优权重将火灾图像输入到YOLOv5s网络模型中,得到火灾实时检测结果。本发明使得检测火灾图像的速度更快,精度更高,降低了网络模型的计算量,提高了推理和检测的精度。

Description

一种基于加权双向特征金字塔网络的轻量级火灾检测方法
技术领域
本发明属于目标检测方法技术领域,具体涉及一种基于加权双向特征金字塔网络的轻量级火灾检测方法。
背景技术
火灾发生时不仅会对人类的生命安全和财产造成严重威胁,而且会对人类和生态***带来巨大的破坏。这种破坏往往会快速蔓延并容易失去控制,严重危害相关区域的生产安全且被破坏的区域往往难以再生和恢复。传统的火灾检测识别方法如感温、感烟、感光等技术易受到空间高度、气流、粉尘等因素的影响,不适合在大空间以及户外的环境,而可视火灾检测技术由于其反应速度快,检测范围广,监测距离远等优点越来越受到人们的重视;
近年来,随着计算机视觉的快速发展,基于深度学习与图像处理相结合的火灾检测技术也在迅速发展,基于深度学习的火灾检测技术可以克服传统火灾检测技术的不足。因此,基于深度学习的火灾检测技术为解决公共安全问题提供了一种全新的解决办法。
发明内容
本发明的目的是提供一种基于加权双向特征金字塔网络的轻量级火灾检测方法,解决了目前检测火灾图像的速度和精度不够高、且一定程度上网络模型的计算量有待进一步优化的问题。
本发明所采用的技术方案是,
一种基于加权双向特征金字塔网络的轻量级火灾检测方法,具体按照如下步骤进行:
步骤1:使用RepVGG模块替换了YOLOv5s网络模型的骨干网络的卷积模块Conv,对图像目标区域进行特征提取;
步骤2:在YOLOv5s网络模型的骨干网络中引入轻量型通道和空间注意力机制CBAM;
步骤3:采用BiFPN结构作为YOLOv5s网络模型的特征融合网络,优化原有的FPN和PANet结构,完成改进后的YOLOv5s网络模型;
步骤4:制作火灾图像检测数据集并将其分为训练集、验证集和测试集;
步骤5:将步骤4中的火灾图像检测数据集输入到改进后的YOLOv5s网络模型中,并经过GPU进行训练和测试,得到最优权重;
步骤6:使用最优权重将需要检测的火灾图像输入到步骤5训练和测试后的YOLOv5s网络模型中,得到火灾实时检测结果。
本发明的特点还在于;
步骤1具体为:RepVGG模块是一种轻量型的卷积神经网络模块,分别在骨干网络的第1层、第4层、第6层和第8层改进替换原来的Conv模块;特征提取是基于RepVGG模块的结构重参数化方式进行,在训练模型阶段提取特征向量。
步骤2中,CBAM注意力机制是一种轻量型的通道和空间注意力机制,在骨干网络的第3层引入该模块。
步骤3中,BiFPN结构是一种加权双向特征金字塔网络,基于FPN结构BiFPN网络的每个节点都会对输入的特征向量以加权融合的方式来融合不同特征层,基于PANet结构BiFPN网络重复实现自上而下和自下而上的双向融合,最终三个BiFPN基础结构叠加输出融合低维和高维的特征。
步骤4具体为:明确需要检测的火灾图像和尺寸大小,通过视频截取、相机拍摄和在线搜集的方式收集火灾图像,使用目标检测标注软件Labelimg对得到的火灾图像进行信息标注并存储为xml格式的文件类型,完成信息标注后统计火灾图像数据集的图像数量,将所有完成信息标注的xml格式的文件类型转换为txt文件类型,得到火灾图像检测数据集。
步骤4中,信息标注包括:选择标注所述火灾图像数据集的格式为VOC格式、需要检测的火灾类别、已标注图片生成文件的名称和存储路径、所在图像中目标区域的坐标值和长宽大小。
步骤5具体为,将火灾图像检测数据集中的图像输入到改进后的YOLOv5s网络模型并经过GPU进行迭代训练,训练得到改进后的YOLOv5s网络模型的最优权重。
本发明的有益效果是,本发明一种基于加权双向特征金字塔网络的轻量级火灾检测方法,使用RepVGG模块和CBAM注意力机制构建的骨干网络对图像提取特征并由BiFPN模块对特征进行融合,使得改进后的YOLOv5s网络模型检测火灾图像的速度更快,精度更高,能够满足实时检测的要求,且一定程度上降低了网络模型的计算量,提高了推理速度和检测精度,加速火灾检测自动化的发展,具有一定的实用意义。
附图说明
图1是本发明一种基于加权双向特征金字塔网络的轻量级火灾检测方法的流程图;
图2是本发明一种基于加权双向特征金字塔网络的轻量级火灾检测方法的对比例2中在YOLOv5s网络模型中引入RepVGG模块和CBAM注意力机制的YOLOv5s网络模型的骨干网络结构图;
图3是本发明一种基于加权双向特征金字塔网络的轻量级火灾检测方法中RepVGG模块的原理图;
图4是本发明一种基于加权双向特征金字塔网络的轻量级火灾检测方法中CBAM注意力机制的原理图;
图5是本发明一种基于加权双向特征金字塔网络的轻量级火灾检测方法的改进后的YOLOv5s网络模型中使用的BiFPN网络的原理图;
图6是本发明一种基于加权双向特征金字塔网络的轻量级火灾检测方法的实施例1中改进后的YOLOv5s网络模型的原理图;
图7是本发明一种基于加权双向特征金字塔网络的轻量级火灾检测方法的实施例1中改进后的YOLOv5s网络模型训练过程图;
图8是本发明一种基于加权双向特征金字塔网络的轻量级火灾检测方法中改进后的YOLOv5s网络模型火灾检测效果图。
具体实施方式
下面结合附图和具体实施方式对本发明一种基于加权双向特征金字塔网络的轻量级火灾检测方法进行详细说明。
如图1所示,本发明一种基于加权双向特征金字塔网络的轻量级火灾检测方法由RepVGG模块、CBAM注意力机制和BiFPN模块构建改进后的YOLOv5s网络模型,将RepVGG模块和CBAM注意力机制构成的骨干网络对输入端输入图像的特征进行提取作为特征融合网络的输入,通过BiFPN模块对提取到的特征进行多尺度融合并经过GPU进行训练和测试,设置训练迭代次数Epoch为200,该方法包括以下步骤:
步骤1:使用RepVGG模块替换了YOLOv5s网络模型的骨干网络的卷积模块Conv;
使用RepVGG模块替换了YOLOv5s网络模型的骨干网络的卷积模块Conv,RepVGG模块是一种轻量型的卷积神经网络模块,分别在骨干网络的第1层、第4层、第6层和第8层改进替换原来的Conv模块;特征提取是基于RepVGG模块的结构重参数化方式进行,在训练模型阶段提取特征向量。
步骤2:在YOLOv5s网络模型的骨干网络部分引入轻量型注意力机制CBAM;
在YOLOv5s网络模型的骨干网络部分引入注意力机制CBAM,CBAM注意力机制是一种轻量型的通道和空间注意力机制,在骨干网络的第3层引入该模块。
步骤3:采用BiFPN结构作为YOLOv5s网络模型的特征融合网络,优化原有的FPN和PANet结构;
采用BiFPN结构作为YOLOv5s网络模型的特征融合网络,替换原有的FPN+PANet结构,其网络的三个特征层分别设置为[80,80,128],[40,40,256],[20,20,512];BiFPN结构是一种加权双向特征金字塔网络,基于FPN结构BiFPN网络的每个节点都会对输入的特征向量以加权融合的方式来融合不同特征层,基于PANet结构BiFPN网络重复实现自上而下和自下而上的双向融合,最终三个BiFPN基础结构叠加输出融合低维和高维的特征。
步骤4:制作火灾图像检测数据集并将火灾图像检测数据集分为训练集、验证集和测试集;
明确需要检测的火灾图像和尺寸大小,通过视频截取、相机拍摄和在线搜集等方式收集火灾图像,使用目标检测标注软件Labelimg对S4中得到的火灾图像进行信息标注并存储为xml格式的文件类型,信息标注主要包括:选择标注火灾图像数据集的格式为VOC格式、需要检测的火灾类别、已标注图片生成文件的名称和存储路径、所在图像中目标区域的坐标值和长宽大小,完成信息标注后统计火灾图像数据集的图像数量,将所有完成信息标注的xml格式的文件类型转换为txt文件类型,得到火灾图像检测数据集。
步骤5:将步骤S4中的数据集输入到由RepVGG模块、CBAM注意力机制和BiFPN模块构建的改进后的YOLOv5s网络模型中并经过GPU进行训练和测试;
将火灾图像检测数据集中的图像分别输入到改进后的YOLOv5s网络模型并经过GPU进行迭代训练,训练得到改进后的YOLOv5s网络模型的最优权重;改进后的YOLOv5s网络模型是在YOLOv5s网络模型上进行改进,具体为:将RepVGG模块替换了骨干网络的卷积模块Conv,保留了原始网络模型的Focus模块和SPP结构,在YOLOv5s网络模型的骨干网络部分引入轻量型注意力机制CBAM,采用BiFPN结构作为YOLOv5s网络模型的特征融合网络,替换原有的FPN+PANet结构。
步骤6:将需要检测的火灾图像输入到步骤S5训练好的网络模型中,得到火灾实时检测结果。
将最优权重加载到改进后的YOLOv5s网络模型中,输入需要检测的火灾图像,输出检测结果并得到了目标物体所在图像上的位置。
下面通过具体的实施例对本发明一种基于加权双向特征金字塔网络的轻量级火灾检测方法进行进一步详细说明。
实施例1;
使用RepVGG模块替换了YOLOv5s网络模型的骨干网络的卷积模块Conv,RepVGG模块是一种轻量型的卷积神经网络模块,分别在骨干网络的第1层、第4层、第6层和第8层改进替换原来的Conv模块;特征提取是基于RepVGG模块的结构重参数化方式进行,在训练模型阶段提取特征向量;在YOLOv5s网络模型的骨干网络部分引入注意力机制CBAM,CBAM注意力机制是一种轻量型的通道和空间注意力机制,在骨干网络的第3层引入该模块;采用BiFPN结构作为YOLOv5s网络模型的特征融合网络,替换原有的FPN+PANet结构,其网络的三个特征层分别设置为[80,80,128],[40,40,256],[20,20,512];BiFPN结构是一种加权双向特征金字塔网络,基于FPN结构BiFPN网络的每个节点都会对输入的特征向量以加权融合的方式来融合不同特征层,基于PANet结构BiFPN网络重复实现自上而下和自下而上的双向融合,最终三个BiFPN基础结构叠加输出融合低维和高维的特征;
明确需要检测的火灾图像和尺寸大小,通过视频截取、相机拍摄和在线搜集等方式收集火灾图像,使用目标检测标注软件Labelimg对S2中得到的火灾图像进行信息标注并存储为xml格式的文件类型,信息标注主要包括:选择标注火灾图像数据集的格式为VOC格式、需要检测的火灾类别、已标注图片生成文件的名称和存储路径、所在图像中目标区域的坐标值和长宽大小,完成信息标注后统计火灾图像数据集的图像数量,将所有完成信息标注的xml格式的文件类型转换为txt文件类型,得到火灾图像检测数据集;
将训练集和验证集中的火灾图像分别输入到改进后的YOLOv5s网络模型并经过GPU进行迭代训练,训练得到最优权重,如图7所示展示了改进后的YOLOv5s网络模型的训练过程。具体包括:训练集内的数据集进行200次迭代训练,图像尺寸大小设置为640×640,每次模型迭代训练的批量设置大小为10,设置初始学习率为0.01,在创建好的虚拟环境中用GPU进行迭代训练。
用于将最优权重加载到改进后的YOLOv5s网络模型中,输入需要检测的火灾图像,输出检测结果并得到了目标物体所在图像上的位置。
如图6所示,改进后的YOLOv5s网络模型是在YOLOv5s网络模型上进行改进,具体为:使用RepVGG模块替换了YOLOv5s网络模型的骨干网络的卷积模块Conv,RepVGG模块是一种轻量型的卷积神经网络模块,分别在骨干网络的第1层、第4层、第6层和第8层改进替换原来的Conv模块;特征提取是基于RepVGG模块的结构重参数化方式进行,在训练模型阶段提取特征向量;
在YOLOv5s网络模型的骨干网络部分引入注意力机制CBAM,CBAM注意力机制是一种轻量型的通道和空间注意力机制,在骨干网络的第3层引入该模块;
采用BiFPN结构作为YOLOv5s网络模型的特征融合网络,替换原有的FPN+PANet结构,其网络的三个特征层分别设置为[80,80,128],[40,40,256],[20,20,512];
BiFPN结构是一种加权双向特征金字塔网络,基于FPN结构BiFPN网络的每个节点都会对输入的特征向量以加权融合的方式来融合不同特征层,基于PANet结构BiFPN网络重复实现自上而下和自下而上的双向融合,最终三个BiFPN基础结构叠加输出融合低维和高维的特征;
使用最优权重,将需要检测的火灾图像输入到训练好的改进后的YOLOv5s网络模型,得到火灾实时检测结果,如图8所示,检测结果主要包含检测到的火焰、预测框大小和目标所在的位置信息。
本实施例1中,将上述训练集和验证集输入至官方提供的YOLOv5s、YOLOv5m、YOLOv5l和YOLOv5x四种预训练模型分别进行200次迭代训练,迭代训练完成后均得到对应的最优权重,训练结果如表1所示。
表1四种预训练模型的训练结果
Figure BDA0003731263840000101
下面通过对比例对本发明一种基于加权双向特征金字塔网络的轻量级火灾检测方法进行进一步详细说明。
对比例1;
本对比例的方法与实施例1的方法相同,其不同之处在于:本对比例中训练的网络模型为YOLOv5s。
对比例2;
本对比例的方法与实施例1的方法相同,其不同之处在于:本对比例中训练的改进的YOLOv5s是在YOLOv5s网络模型上进行改进,具体在使用RepVGG模块替换了YOLOv5s网络模型的骨干网络的卷积模块Conv,分别在骨干网络的第1层、第4层、第6层和第8层改进替换原来的Conv模块。
对比例3;
本对比例的方法与实施例1的方法相同,其不同之处在于:本对比例中训练的改进的YOLOv5s是在YOLOv5s网络模型上进行改进,具体在骨干网络的第3层引入CBAM注意力模块;改进后的YOLOv5s网络模型的原理图如图2所示。
对比例4;
本对比例的方法与实施例1的方法相同,其不同之处在于:本对比例中训练的改进的YOLOv5s是在YOLOv5s网络模型上进行改进,具体在采用BiFPN结构作为YOLOv5s网络模型的特征融合网络,替换原有的FPN+PANet结构,其网络的三个特征层分别设置为[80,80,128],[40,40,256],[20,20,512];即为。BiFPN模块的原理图如图5所示。
然后对实施例1、对比例1-4中五种网络模型的训练效果和检测结果,结合图2、图3、图4、图5和表1说明测试结果如下表2。
表2实施例1和对比例1-4中检测方法的测试结果。
Figure BDA0003731263840000111
本发明一种基于加权双向特征金字塔网络的轻量级火灾检测方法基于YOLOv5s网络模型由RepVGG模块、CBAM注意力机制和BiFPN模块构建完成,使用RepVGG模块和CBAM注意力机制对输入的图像进行特征提取,将提取到的图像特征输入至特征融合网络,BiFPN模块对提取到的图像特征进行融合,同时制作火灾图像检测数据集并将火灾图像检测数据集分为训练集、验证集和测试集,将制作的火灾图像检测数据集输入到改进后的YOLOv5s网络模型中,通过迭代的方式对改进后的YOLOv5s网络模型达到训练的目的,将需要检测的火灾图像输入到训练好的改进后的YOLOv5s网络模型中,得到火灾实时检测结果。本发明使用RepVGG模块、CBAM注意力机制和BiFPN模块来构建火灾检测网络,使其能够应用于本方法的火灾数据集,使用RepVGG模块加快模型的推理速度,引入CBAM注意力机制降低网络复杂程度,减少了训练时间,采用BiFPN结构优化了FPN+PANet结构存在的特征融合不充分和不平等问题,提高了检测准确率,能够更好的解决火灾检测与识别问题,具有一定的应用场景和市场价值。

Claims (7)

1.一种基于加权双向特征金字塔网络的轻量级火灾检测方法,其特征在于,具体按照如下步骤进行:
步骤1:使用RepVGG模块替换了YOLOv5s网络模型的骨干网络的卷积模块Conv;
步骤2:在YOLOv5s网络模型的骨干网络中引入轻量型通道和空间注意力机制CBAM;
步骤3:采用BiFPN结构作为YOLOv5s网络模型的特征融合网络,优化原有的FPN和PANet结构,完成改进后的YOLOv5s网络模型;
步骤4:制作火灾图像检测数据集并将其分为训练集、验证集和测试集;
步骤5:将步骤4中的火灾图像检测数据集输入到改进后的YOLOv5s网络模型中,并经过GPU进行训练和测试,得到最优权重;
步骤6:使用最优权重将需要检测的火灾图像输入到步骤5训练和测试后的YOLOv5s网络模型中,得到火灾实时检测结果。
2.根据权利要求1所述的一种基于加权双向特征金字塔网络的轻量级火灾检测方法,其特征在于,步骤1具体为:RepVGG模块是一种轻量型的卷积神经网络模块,分别在骨干网络的第1层、第4层、第6层和第8层改进替换原来的Conv模块。
3.根据权利要求2所述的一种基于加权双向特征金字塔网络的轻量级火灾检测方法,其特征在于,步骤2中,CBAM注意力机制是一种轻量型的通道和空间注意力机制,在骨干网络的第3层引入该模块。
4.根据权利要求1所述的一种基于加权双向特征金字塔网络的轻量级火灾检测方法,其特征在于,步骤3中,所述BiFPN结构是一种加权双向特征金字塔网络,基于FPN结构BiFPN网络的每个节点都会对输入的特征向量以加权融合的方式来融合不同特征层,基于PANet结构BiFPN网络重复实现自上而下和自下而上的双向融合,最终三个BiFPN基础结构叠加输出融合低维和高维的特征。
5.根据权利要求1所述的一种基于加权双向特征金字塔网络的轻量级火灾检测方法,其特征在于,步骤4具体为:明确需要检测的火灾图像和尺寸大小,通过视频截取、相机拍摄和在线搜集的方式收集火灾图像,使用目标检测标注软件Labelimg对得到的火灾图像进行信息标注并存储为xml格式的文件类型,完成信息标注后统计火灾图像数据集的图像数量,将所有完成信息标注的xml格式的文件类型转换为txt文件类型,得到火灾图像检测数据集。
6.根据权利要求5所述的一种基于加权双向特征金字塔网络的轻量级火灾检测方法,其特征在于,步骤4中,信息标注包括:选择标注所述火灾图像数据集的格式为VOC格式、需要检测的火灾类别、已标注图片生成文件的名称和存储路径、所在图像中目标区域的坐标值和长宽大小。
7.根据权利要求1所述的一种基于加权双向特征金字塔网络的轻量级火灾检测方法,其特征在于,步骤5具体为,将火灾图像检测数据集中的图像输入到改进后的YOLOv5s网络模型并经过GPU进行迭代训练,训练得到改进后的YOLOv5s网络模型的最优权重。
CN202210781774.7A 2022-07-05 2022-07-05 一种基于加权双向特征金字塔网络的轻量级火灾检测方法 Pending CN115063665A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210781774.7A CN115063665A (zh) 2022-07-05 2022-07-05 一种基于加权双向特征金字塔网络的轻量级火灾检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210781774.7A CN115063665A (zh) 2022-07-05 2022-07-05 一种基于加权双向特征金字塔网络的轻量级火灾检测方法

Publications (1)

Publication Number Publication Date
CN115063665A true CN115063665A (zh) 2022-09-16

Family

ID=83203616

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210781774.7A Pending CN115063665A (zh) 2022-07-05 2022-07-05 一种基于加权双向特征金字塔网络的轻量级火灾检测方法

Country Status (1)

Country Link
CN (1) CN115063665A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116343045A (zh) * 2023-03-30 2023-06-27 南京理工大学 基于YOLO v5的轻量化SAR图像舰船目标检测方法
CN116433607A (zh) * 2023-03-17 2023-07-14 四川文理学院 基于关键区域特征双重加权融合的儿童手骨x光图像骨龄评估方法及***
CN117274192A (zh) * 2023-09-20 2023-12-22 重庆市荣冠科技有限公司 一种基于改进YOLOv5的管道漏磁缺陷检测方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116433607A (zh) * 2023-03-17 2023-07-14 四川文理学院 基于关键区域特征双重加权融合的儿童手骨x光图像骨龄评估方法及***
CN116433607B (zh) * 2023-03-17 2024-03-15 四川文理学院 基于关键区域特征双重加权融合的儿童手骨x光图像骨龄评估方法及***
CN116343045A (zh) * 2023-03-30 2023-06-27 南京理工大学 基于YOLO v5的轻量化SAR图像舰船目标检测方法
CN116343045B (zh) * 2023-03-30 2024-03-19 南京理工大学 基于YOLO v5的轻量化SAR图像舰船目标检测方法
CN117274192A (zh) * 2023-09-20 2023-12-22 重庆市荣冠科技有限公司 一种基于改进YOLOv5的管道漏磁缺陷检测方法

Similar Documents

Publication Publication Date Title
CN115063665A (zh) 一种基于加权双向特征金字塔网络的轻量级火灾检测方法
CN110852347B (zh) 采用改进YOLO v3的火灾检测方法
CN109919331A (zh) 一种机载设备智能维修辅助***及方法
CN110443969A (zh) 一种火点检测方法、装置、电子设备及存储介质
CN110378408A (zh) 基于迁移学习和神经网络的电力设备图像识别方法和装置
CN106981063A (zh) 一种基于深度学习的电网设备状态监测装置
CN108171175B (zh) 一种深度学习样本增强***及其运行方法
CN112837315A (zh) 一种基于深度学习的输电线路绝缘子缺陷检测方法
CN111768398A (zh) 光伏组件的缺陷检测方法、装置、存储介质和计算设备
CN115951014A (zh) 一种结合气象特征的cnn-lstm-bp多模态空气污染物预测方法
CN113705445B (zh) 一种基于事件相机的人体姿态识别的方法及设备
CN108986091A (zh) 基于深度哈希网络的铸件缺陷图像检测方法
CN112784756A (zh) 人体识别跟踪方法
CN115984543A (zh) 一种基于红外与可见光图像的目标检测算法
CN114596278A (zh) 一种用于光伏电站的光伏面板热斑缺陷检测方法及装置
CN115482473A (zh) 提取航拍图像特征的图卷积网络模型及检测异常的方法
CN115761905A (zh) 一种基于骨骼关节点的潜水员动作识别方法
CN108090905B (zh) 产线异常的判断方法及***
CN113496210A (zh) 基于注意力机制的光伏组串跟踪及故障跟踪方法
CN117115513A (zh) 基于多光谱目标检测的跨模态融合模型的人员检测方法
Song et al. PDD: Post-Disaster Dataset for Human Detection and Performance Evaluation
CN114140524B (zh) 一种多尺度特征融合的闭环检测***及方法
Wang et al. Semantic Segmentation of Fire and Smoke Images Based on Dual Attention Mechanism
CN117911954B (zh) 一种用于新能源电站运维的弱监督目标检测方法及***
CN111222463A (zh) 一种基于级联式卷积网络的机动车人脸检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination