CN115205793A - 基于深度学习二次确认的电力机房烟雾检测方法及装置 - Google Patents
基于深度学习二次确认的电力机房烟雾检测方法及装置 Download PDFInfo
- Publication number
- CN115205793A CN115205793A CN202211118614.0A CN202211118614A CN115205793A CN 115205793 A CN115205793 A CN 115205793A CN 202211118614 A CN202211118614 A CN 202211118614A CN 115205793 A CN115205793 A CN 115205793A
- Authority
- CN
- China
- Prior art keywords
- detection
- module
- network model
- image
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 207
- 239000000779 smoke Substances 0.000 title claims abstract description 89
- 238000013135 deep learning Methods 0.000 title claims abstract description 35
- 238000012790 confirmation Methods 0.000 title claims abstract description 21
- 238000012549 training Methods 0.000 claims abstract description 46
- 238000012545 processing Methods 0.000 claims abstract description 35
- 238000000034 method Methods 0.000 claims abstract description 27
- 238000012544 monitoring process Methods 0.000 claims abstract description 16
- 238000000605 extraction Methods 0.000 claims abstract description 11
- 230000006870 function Effects 0.000 claims description 45
- 238000011176 pooling Methods 0.000 claims description 15
- 238000010276 construction Methods 0.000 claims description 13
- 230000004913 activation Effects 0.000 claims description 12
- 238000007781 pre-processing Methods 0.000 claims description 12
- 238000002372 labelling Methods 0.000 claims description 10
- 238000005070 sampling Methods 0.000 claims description 8
- 150000001875 compounds Chemical class 0.000 claims description 6
- 230000004927 fusion Effects 0.000 claims description 5
- 238000005286 illumination Methods 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 4
- 238000010200 validation analysis Methods 0.000 claims 5
- 230000008569 process Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 238000012360 testing method Methods 0.000 description 5
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000000306 component Substances 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 239000008358 core component Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000000053 physical method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/06—Energy or water supply
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/52—Scale-space analysis, e.g. wavelet analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Business, Economics & Management (AREA)
- Economics (AREA)
- Public Health (AREA)
- Tourism & Hospitality (AREA)
- Water Supply & Treatment (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Computational Linguistics (AREA)
- General Business, Economics & Management (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及电力检测技术领域,公开了基于深度学习二次确认的电力机房烟雾检测方法及装置。本发明根据电力机房监测图像数据集构建第一数据样本集,并提取其中图像烟雾区域以构建第二数据样本集;构建检测网络模型和分类网络模型,检测网络模型基于卷积模块和Bneck模块进行特征提取,并基于检测头模块进行不同尺度特征的检测,分类网络模型基于卷积模块和Bneck模块进行特征处理;使用第一数据样本集对检测网络模型进行训练,使用第二数据样本集对分类网络模型进行训练,最后采用训练完成的检测网络模型对待检测图像进行检测,将得到的结果输入至训练完成的分类网络模型,得到烟雾检测结果。本发明可以有效提高烟雾检测的精度和效率。
Description
技术领域
本发明涉及电力检测技术领域,尤其涉及基于深度学习二次确认的电力机房烟雾检测方法及装置。
背景技术
目前电力机房烟雾检测的方法主要是基于物理的方法,即通过烟雾传感器进行烟雾检测。烟雾传感器的检测原理是根据烟雾产生的浓度以及环境的温度、亮度变化来触发传感器中的物理原件。然而,这种方法具有一定的局限性,只有当烟雾浓度达到一定的标准后才能触发烟雾报警,并且传感器信号的传送速度较慢,有延迟性,且误检率高。
发明内容
本发明提供了基于深度学习二次确认的电力机房烟雾检测方法及装置,利用深度学习目标检测技术进行电力机房的烟雾检测,可以有效提高烟雾检测的精度和效率,解决了目前基于烟雾传感器进行电力机房烟雾检测的方法存在检测效率和精度较低的缺陷的技术问题。
本发明第一方面提供一种基于深度学习二次确认的电力机房烟雾检测方法,包括:
获取监测电力机房得到的图像数据集,对所述图像数据集中图像的烟雾区域进行标注,根据标注后的图像数据集构建第一数据样本集,并提取所述图像数据集中图像的烟雾区域以构建第二数据样本集;
构建检测网络模型和分类网络模型;所述检测网络模型基于卷积模块和Bneck模块进行特征提取,并基于检测头模块进行不同尺度特征的检测;所述分类网络模型基于卷积模块和Bneck模块进行特征处理,并对处理得到的结果进行平均池化以降低特征维数,并通过卷积得到分类结果;
使用所述第一数据样本集对所述检测网络模型进行训练,使用所述第二数据样本集对所述分类网络模型进行训练,得到训练完成的检测网络模型和训练完成的分类网络模型;
采用所述训练完成的检测网络模型对待检测电力机房监测图像进行检测,将得到的检测结果输入至所述训练完成的分类网络模型,得到烟雾检测结果。
根据本发明第一方面的一种能够实现的方式,所述检测网络模型包括:
第一特征提取网络,为六层结构,其中第一层为卷积模块,第二层至第六层为Bneck模块,且其通过第四层输出第一层次特征,通过第五层输出第二层次特征,通过第六层输出第三层次特征;
第二特征提取网络,包括四个卷积模块和拼接模块,其中第一个卷积模块对所述第三层次特征进行卷积处理得到第一输出特征并输出给检测头网络,第二个卷积模块对所述第二层次特征进行卷积处理得到第二输出特征,第三个卷积模块对所述第一层次特征进行卷积处理得到第三输出特征,第四个卷积模块对所述第三输出特征进行卷积处理得到第四输出特征,所述拼接模块将所述第一输出特征、所述第二输出特征和所述第四输出特征进行拼接得到第五输出特征并输出给所述检测头网络,所述拼接模块将所述第一输出特征、所述第二输出特征和所述第三输出特征进行拼接处理得到第六输出特征并输出给所述检测头网络;
所述检测头网络,包括第一检测头模块、第二检测头模块和第三检测头模块,所述第一检测头模块用于对所述第一输出特征进行检测以得到第一检测结果,所述第二检测头模块用于对所述第五输出特征进行检测以得到第二检测结果,所述第三检测头模块用于对所述第六输出特征进行检测以得到第三检测结果。
根据本发明第一方面的一种能够实现的方式,所述Bneck模块采用ReLU激活函数。
根据本发明第一方面的一种能够实现的方式,所述分类网络模型的网络结构为九层结构,其中第一层、第七层和第九层均为卷积模块,第二层至第六层为Bneck模块,第八层为平均池化模块。
根据本发明第一方面的一种能够实现的方式,在对所述图像数据集中图像的烟雾区域进行标注之前,所述方法包括:
对所述图像数据集中的图像进行预处理;所述预处理包括图像去噪和/或图像扩容;
其中,所述图像扩容的处理包括以下至少一种:
几何畸变、光照、遮挡、随机水平翻转、随机裁剪、随机旋转、随机缩放和图像融合。
根据本发明第一方面的一种能够实现的方式,所述使用所述第一数据样本集对所述检测网络模型进行训练,包括:
基于置信度损失和类别损失构建损失函数;
采用所述损失函数对所述检测网络模型进行训练。
根据本发明第一方面的一种能够实现的方式,所述基于置信度损失和类别损失构建损失函数,包括:
构建所述损失函数为:
式中,表示损失函数,表示网格数,表示每个网格产生的候选框数量,分别表示候选框的中心坐标的真实值和预测值大小,分别表示候选框的真实和预测的宽度和高度,表示候选框坐标点、宽度和高度的损失权重,是不含检测目标的候选框的损失权重,表示第个网格的第个候选框是否负责检测这个物体,若是则,否则, 表示第个网格的第个候选框是否不负责检测物体,若是则,否则,表示第个网格的第个候选框的真实的置信度,表示第个网格的第个候选框的预测的置信度,表示第个网格的第个候选框检测到物体的真实的概率,表示第个网格的第个候选框检测到物体的预测的概率。
本发明实施例中,关于置信度的损失函数主要分成了两部分,分别是有物体和无物体。训练中参数置信度的取值由网格中框是否检测某个物体决定,如果检测到目标,则值为1,反之,值为0。置信度和类别损失采用了交叉熵损失函数。由于检测网络模型和分类网络模型都是只对烟雾进行检测,分类问题可以等效为二分类问题,所以交叉熵函数又相当于是二值交叉熵函数。该函数的设置能够使得网络的学习速率得到更好的控制。
本发明第二方面提供一种基于深度学习二次确认的电力机房烟雾检测装置,包括:
样本构建模块,用于获取监测电力机房得到的图像数据集,对所述图像数据集中图像的烟雾区域进行标注,根据标注后的图像数据集构建第一数据样本集,并提取所述图像数据集中图像的烟雾区域以构建第二数据样本集;
模型构建模块,用于构建检测网络模型和分类网络模型;所述检测网络模型基于卷积模块和Bneck模块进行特征提取,并基于检测头模块进行不同尺度特征的检测;所述分类网络模型基于卷积模块和Bneck模块进行特征处理,并对处理得到的结果进行平均池化以降低特征向量维度,并通过卷积得到分类结果;
训练模块,用于使用所述第一数据样本集对所述检测网络模型进行训练,使用所述第二数据样本集对所述分类网络模型进行训练,得到训练完成的检测网络模型和训练完成的分类网络模型;
烟雾检测模块,用于采用所述训练完成的检测网络模型对待检测电力机房监测图像进行检测,将得到的检测结果输入至所述训练完成的分类网络模型,得到烟雾检测结果。
根据本发明第二方面的一种能够实现的方式,所述检测网络模型包括:
第一特征提取网络,为六层结构,其中第一层为卷积模块,第二层至第六层为Bneck模块,且其通过第四层输出第一层次特征,通过第五层输出第二层次特征,通过第六层输出第三层次特征;
第二特征提取网络,包括四个卷积模块和拼接模块,其中第一个卷积模块对所述第三层次特征进行卷积处理得到第一输出特征并输出给检测头网络,第二个卷积模块对所述第二层次特征进行卷积处理得到第二输出特征,第三个卷积模块对所述第一层次特征进行卷积处理得到第三输出特征,第四个卷积模块对所述第三输出特征进行卷积处理得到第四输出特征,所述拼接模块将所述第一输出特征、所述第二输出特征和所述第四输出特征进行拼接得到第五输出特征并输出给所述检测头网络,所述拼接模块将所述第一输出特征、所述第二输出特征和所述第三输出特征进行拼接处理得到第六输出特征并输出给所述检测头网络;
所述检测头网络,包括第一检测头模块、第二检测头模块和第三检测头模块,所述第一检测头模块用于对所述第一输出特征进行检测以得到第一检测结果,所述第二检测头模块用于对所述第五输出特征进行检测以得到第二检测结果,所述第三检测头模块用于对所述第六输出特征进行检测以得到第三检测结果。
根据本发明第二方面的一种能够实现的方式,所述Bneck模块采用ReLU激活函数。
根据本发明第二方面的一种能够实现的方式,所述分类网络模型的网络结构为九层结构,其中第一层、第七层和第九层均为卷积模块,第二层至第六层为Bneck模块,第八层为平均池化模块。
根据本发明第二方面的一种能够实现的方式,所述装置包括:
预处理模块,用于在对所述图像数据集中图像的烟雾区域进行标注之前,对所述图像数据集中的图像进行预处理;所述预处理包括图像去噪和/或图像扩容;
其中,所述图像扩容的处理包括以下至少一种:
几何畸变、光照、遮挡、随机水平翻转、随机裁剪、随机旋转、随机缩放和图像融合。
根据本发明第二方面的一种能够实现的方式,所述训练模块包括:
函数构建单元,用于基于置信度损失和类别损失构建损失函数;
训练单元,用于采用所述损失函数对所述检测网络模型进行训练。
根据本发明第二方面的一种能够实现的方式,所述函数构建单元具体用于:
构建所述损失函数为:
式中,表示损失函数,表示网格数,表示每个网格产生的候选框数量,分别表示候选框的中心坐标的真实值和预测值大小,分别表示候选框的真实和预测的宽度和高度,表示候选框坐标点、宽度和高度的损失权重,是不含检测目标的候选框的损失权重,表示第个网格的第个候选框是否负责检测这个物体,若是则,否则, 表示第个网格的第个候选框是否不负责检测物体,若是则,否则,表示第个网格的第个候选框的真实的置信度,表示第个网格的第个候选框的预测的置信度,表示第个网格的第个候选框检测到物体的真实的概率,表示第个网格的第个候选框检测到物体的预测的概率。
本发明第三方面提供了一种基于深度学习二次确认的电力机房烟雾检测装置,包括:
存储器,用于存储指令;其中,所述指令用于实现如上任意一项能够实现的方式所述的基于深度学习二次确认的电力机房烟雾检测方法;
处理器,用于执行所述存储器中的指令。
本发明第四方面一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上任意一项能够实现的方式所述的基于深度学习二次确认的电力机房烟雾检测方法。
从以上技术方案可以看出,本发明具有以下优点:
本发明基于监测电力机房得到的图像数据集构建第一数据样本集,并提取其中图像的烟雾区域以构建第二数据样本集;构建检测网络模型和分类网络模型;所述检测网络模型基于卷积模块和Bneck模块进行特征提取,并基于检测头模块进行不同尺度特征的检测;所述分类网络模型基于卷积模块和Bneck模块进行特征处理,并对处理得到的结果进行平均池化以降低特征向量维度,并通过卷积得到分类结果;使用第一数据样本集对检测网络模型进行训练,使用第二数据样本集对分类网络模型进行训练,最后采用训练完成的检测网络模型对待检测电力机房监测图像进行检测,将得到的检测结果输入至训练完成的分类网络模型,得到烟雾检测结果;本发明使用了两个网络模型进行检测,并在模型结构设置上进行轻量化处理,通过检测网络模型的输出结果提取烟雾区域,并通过分类网络模型进行二次确认,实现了对电力机房烟雾的检测,可以有效提高烟雾检测的精度和效率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。
图1为本发明一个可选实施例提供的一种基于深度学习二次确认的电力机房烟雾检测方法的流程图;
图2为本发明一个可选实施例提供的检测网络模型的结构示意图;
图3为本发明一个可选实施例提供的Bneck模块的结构示意图;
图4为本发明一个可选实施例提供的分类网络模型的结构示意图;
图5为本发明一个可选实施例提供的一种基于深度学习二次确认的电力机房烟雾检测装置的结构连接框图。
附图标记:
1-样本构建模块;2-模型构建模块;3-训练模块;4-烟雾检测模块。
具体实施方式
本发明实施例提供了基于深度学习二次确认的电力机房烟雾检测方法及装置,用于解决目前基于烟雾传感器进行电力机房烟雾检测的方法存在检测效率和精度较低的缺陷的技术问题。
为使得本发明的发明目的、特征、优点能够更加的明显和易懂,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,下面所描述的实施例仅仅是本发明一部分实施例,而非全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
本发明提供了一种基于深度学习二次确认的电力机房烟雾检测方法。
请参阅图1,图1示出了本发明实施例提供的一种基于深度学习二次确认的电力机房烟雾检测方法的流程图。
本发明实施例提供的一种基于深度学习二次确认的电力机房烟雾检测方法,包括步骤S1-S4。
步骤S1,获取监测电力机房得到的图像数据集,对所述图像数据集中图像的烟雾区域进行标注,根据标注后的图像数据集构建第一数据样本集,并提取所述图像数据集中图像的烟雾区域以构建第二数据样本集。
其中,可以通过机房监控摄像头获取相应的视频数据,进而从视频数据中获取实时场景图片,汇聚得到该图像数据集。
其中,可以用labelme开源软件对数据集中的图像进行标注,框出图像中的烟雾区域,生成标注文件信息。根据标注后的图像数据集构建第一数据样本集时,可以根据实际需求设置相应的筛选机制,以筛选合适的图像用于构建第一数据样本集。同样地,在构建第二数据样本集时,也可以进行图像筛选处理。
在一种能够实现的方式中,在对所述图像数据集中图像的烟雾区域进行标注之前,所述方法包括:
对所述图像数据集中的图像进行预处理;所述预处理包括图像去噪和/或图像扩容。
其中,可以采用中值滤波和/或高斯滤波方法对各图像进行去噪处理。
其中,所述图像扩容的处理包括以下至少一种:
几何畸变、光照、遮挡、随机水平翻转、随机裁剪、随机旋转、随机缩放和图像融合。
示例性地,截取含有烟雾场景的图像中的烟雾区域,将烟雾区域融合到不含有烟雾区域的图像中,以此扩充图像。
同样地,在提取所述图像数据集中图像的烟雾区域以构建第二数据样本集时,也可以采用该图像扩容的方法扩充烟雾区域图像。
步骤S2,构建检测网络模型和分类网络模型;所述检测网络模型基于卷积模块和Bneck模块进行特征提取,并基于检测头模块进行不同尺度特征的检测;所述分类网络模型基于卷积模块和Bneck模块进行特征处理,并对处理得到的结果进行平均池化以降低特征向量维度,并通过卷积得到分类结果。
图2示出了本发明实施例提供的检测网络模型的结构示意图。图2中,“Input”表示输入,“Conv”表示卷积模块,“Bneck”表示Bneck模块,“Head1”表示第一检测头模块,“Head2”表示第二检测头模块,“Head3”表示第三检测头模块,“Concat”表示由拼接模块进行拼接处理。
在一种能够实现的方式中,如图2所示,所述检测网络模型包括:
第一特征提取网络,为六层结构,其中第一层为卷积模块,第二层至第六层为Bneck模块,且其通过第四层输出第一层次特征,通过第五层输出第二层次特征,通过第六层输出第三层次特征;
第二特征提取网络,包括四个卷积模块和拼接模块,其中第一个卷积模块对所述第三层次特征进行卷积处理得到第一输出特征并输出给检测头网络,第二个卷积模块对所述第二层次特征进行卷积处理得到第二输出特征,第三个卷积模块对所述第一层次特征进行卷积处理得到第三输出特征,第四个卷积模块对所述第三输出特征进行卷积处理得到第四输出特征,所述拼接模块将所述第一输出特征、所述第二输出特征和所述第四输出特征进行拼接得到第五输出特征并输出给所述检测头网络,所述拼接模块将所述第一输出特征、所述第二输出特征和所述第三输出特征进行拼接处理得到第六输出特征并输出给所述检测头网络;
所述检测头网络,包括第一检测头模块、第二检测头模块和第三检测头模块,所述第一检测头模块用于对所述第一输出特征进行检测以得到第一检测结果,所述第二检测头模块用于对所述第五输出特征进行检测以得到第二检测结果,所述第三检测头模块用于对所述第六输出特征进行检测以得到第三检测结果。
其中,该检测网络模型可以基于深度学习框架Pytorch构建。
本实施例中,以MobileNet网络模型为基础,设置该检测网络模型,通过Neck结构对特征进行增强,并使用不同尺度大小的检测头获取检测结果,能够适应检测不同大小的目标。Bneck模块作为该检测网络模型的核心模块,具有参数少、计算量小、运算时间短等特点,适用于存储空间和功耗受限的场景。
在卷积神经网络中,通过加入非线性激活函数拟合目标函数,一些激活函数可以在卷积过程中控制特征图的取值范围。激活函数可采用非线性的ReLU、Leaky ReLU、ReLU6。在一种能够实现的方式中,所述Bneck模块采用ReLU激活函数。
图3示出了本发明实施例提供的Bneck模块的结构示意图。图3中,“Input”表示输入,“Ouput”表示输出,“3×3Conv”表示3×3卷积,“1×1Conv”表示1×1卷积,“BN”表示批量标准化,“ReLU”表示ReLU激活函数,“GlobalPooling”表示全局池化,“FC”表示全连接层,“Sigmoid”表示Sigmoid激活函数。
Bneck模块的工作过程包括对特征进行3×3卷积、批量标准化、ReLU激活函数、1×1卷积、全局池化、全连接及Sigmoid激活函数处理的过程,具体的处理顺序如图3所示。
图4示出了本发明实施例提供的分类网络模型的结构示意图。图4中,“Input”表示输入,“Ouput”表示输出,“Conv”表示卷积模块,“Bneck”表示Bneck模块,“Avgpool”表示平均池化。
在一种能够实现的方式中,如图4所示,所述分类网络模型的网络结构为九层结构,其中第一层、第七层和第九层均为卷积模块,第二层至第六层为Bneck模块,第八层为平均池化模块。
本发明实施例中,使用Bneck模块作为分类网络模型的核心组件,以代替普通卷积,相比于VGGNet、GoogleNet、ResNet等网络参数更少,检测速度更快。
步骤S3,使用所述第一数据样本集对所述检测网络模型进行训练,使用所述第二数据样本集对所述分类网络模型进行训练,得到训练完成的检测网络模型和训练完成的分类网络模型。
进行步骤S3时,将第一数据样本集分为训练集和测试集输入到模型中进行训练和测试,得到训练好的网络权重。同时,训练分类网络模型,用于二次确认。
作为一种能够实现的方式,将数据集分为训练集和测试集的方法可以为:
将数据集打乱,按照9:1的比例随机划分为训练集和测试集。
式中,表示检测网络模型的预测输出,()表示网格的坐标,比如特征图的大小为13×13,那么网格有13×13个,第1行第1列的网格坐标()就是(1,1);和表示预测前的框大小,() 表示预测得到的物体框的中心坐标,表示预测得到的物体框的宽度,表示预测得到的物体框的高度。
在一种能够实现的方式中,所述使用所述第一数据样本集对所述检测网络模型进行训练,包括:
基于置信度损失和类别损失构建损失函数;
采用所述损失函数对所述检测网络模型进行训练。
在一种能够实现的方式中,所述基于置信度损失和类别损失构建损失函数,包括:
构建所述损失函数为:
式中,表示损失函数,表示网格数,表示每个网格产生的候选框数量,分别表示候选框的中心坐标的真实值和预测值大小,分别表示候选框的真实和预测的宽度和高度,表示候选框坐标点、宽度和高度的损失权重,是不含检测目标的候选框的损失权重,表示第个网格的第个候选框是否负责检测这个物体,若是则,否则, 表示第个网格的第个候选框是否不负责检测物体,若是则,否则,表示第个网格的第个候选框的真实的置信度,表示第个网格的第个候选框的预测的置信度,表示第个网格的第个候选框检测到物体的真实的概率,表示第个网格的第个候选框检测到物体的预测的概率。
作为一种能够实现的方式,使用所述第一数据样本集对所述检测网络模型进行训练,包括:
将训练集中的图片统一缩放成640×640的大小,并将图片中的每一个像素值乘以1/255,使得像素值的大小在0~1之间;
对网络模型中的权重进行初始化,加载网络模型的预训练权重;
将缩放后的图像数据输入到网络模型中,设置学习率初始值、批样本数和训练迭代次数,保留最佳权重模型,得到训练好的网络权重。
作为一种具体的实施方式,设置学习率初始值为0.001,批样本数为16,训练迭代次数为100轮。
作为一种能够实现的方式,使用所述第二数据样本集对所述分类网络模型进行训练,包括:
将图像大小缩放成416×416,输入到分类网络模型中,若检测概率大于0.7,则表示检测正确。
步骤S4,采用所述训练完成的检测网络模型对待检测电力机房监测图像进行检测,将得到的检测结果输入至所述训练完成的分类网络模型,得到烟雾检测结果。
本发明还提供了一种基于深度学习二次确认的电力机房烟雾检测装置。
请参阅图5,图5示出了本发明实施例提供的一种基于深度学习二次确认的电力机房烟雾检测装置的结构连接框图。
本发明实施例提供的一种基于深度学习二次确认的电力机房烟雾检测装置,包括:
样本构建模块1,用于获取监测电力机房得到的图像数据集,对所述图像数据集中图像的烟雾区域进行标注,根据标注后的图像数据集构建第一数据样本集,并提取所述图像数据集中图像的烟雾区域以构建第二数据样本集;
模型构建模块2,用于构建检测网络模型和分类网络模型;所述检测网络模型基于卷积模块和Bneck模块进行特征提取,并基于检测头模块进行不同尺度特征的检测;所述分类网络模型基于卷积模块和Bneck模块进行特征处理,并对处理得到的结果进行平均池化以降低特征向量维度,并通过卷积得到分类结果;
训练模块3,用于使用所述第一数据样本集对所述检测网络模型进行训练,使用所述第二数据样本集对所述分类网络模型进行训练,得到训练完成的检测网络模型和训练完成的分类网络模型;
烟雾检测模块4,用于采用所述训练完成的检测网络模型对待检测电力机房监测图像进行检测,将得到的检测结果输入至所述训练完成的分类网络模型,得到烟雾检测结果。
在一种能够实现的方式中,所述检测网络模型包括:
第一特征提取网络,为六层结构,其中第一层为卷积模块,第二层至第六层为Bneck模块,且其通过第四层输出第一层次特征,通过第五层输出第二层次特征,通过第六层输出第三层次特征;
第二特征提取网络,包括四个卷积模块和拼接模块,其中第一个卷积模块对所述第三层次特征进行卷积处理得到第一输出特征并输出给检测头网络,第二个卷积模块对所述第二层次特征进行卷积处理得到第二输出特征,第三个卷积模块对所述第一层次特征进行卷积处理得到第三输出特征,第四个卷积模块对所述第三输出特征进行卷积处理得到第四输出特征,所述拼接模块将所述第一输出特征、所述第二输出特征和所述第四输出特征进行拼接得到第五输出特征并输出给所述检测头网络,所述拼接模块将所述第一输出特征、所述第二输出特征和所述第三输出特征进行拼接处理得到第六输出特征并输出给所述检测头网络;
所述检测头网络,包括第一检测头模块、第二检测头模块和第三检测头模块,所述第一检测头模块用于对所述第一输出特征进行检测以得到第一检测结果,所述第二检测头模块用于对所述第五输出特征进行检测以得到第二检测结果,所述第三检测头模块用于对所述第六输出特征进行检测以得到第三检测结果。
在一种能够实现的方式中,所述Bneck模块采用ReLU激活函数。
在一种能够实现的方式中,所述分类网络模型的网络结构为九层结构,其中第一层、第七层和第九层均为卷积模块,第二层至第六层为Bneck模块,第八层为平均池化模块。
在一种能够实现的方式中,所述装置包括:
预处理模块,用于在对所述图像数据集中图像的烟雾区域进行标注之前,对所述图像数据集中的图像进行预处理;所述预处理包括图像去噪和/或图像扩容;
其中,所述图像扩容的处理包括以下至少一种:
几何畸变、光照、遮挡、随机水平翻转、随机裁剪、随机旋转、随机缩放和图像融合。
在一种能够实现的方式中,所述训练模块3包括:
函数构建单元,用于基于置信度损失和类别损失构建损失函数;
训练单元,用于采用所述损失函数对所述检测网络模型进行训练。
在一种能够实现的方式中,所述函数构建单元具体用于:
构建所述损失函数为:
式中,表示损失函数,表示网格数,表示每个网格产生的候选框数量,分别表示候选框的中心坐标的真实值和预测值大小,分别表示候选框的真实和预测的宽度和高度,表示候选框坐标点、宽度和高度的损失权重,是不含检测目标的候选框的损失权重,表示第个网格的第个候选框是否负责检测这个物体,若是则,否则, 表示第个网格的第个候选框是否不负责检测物体,若是则,否则,表示第个网格的第个候选框的真实的置信度,表示第个网格的第个候选框的预测的置信度,表示第个网格的第个候选框检测到物体的真实的概率,表示第个网格的第个候选框检测到物体的预测的概率。
本发明还提供了一种基于深度学习二次确认的电力机房烟雾检测装置,包括:
存储器,用于存储指令;其中,所述指令用于实现如上任意一项实施例所述的基于深度学习二次确认的电力机房烟雾检测方法;
处理器,用于执行所述存储器中的指令。
本发明还提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上任意一项实施例所述的基于深度学习二次确认的电力机房烟雾检测方法。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的装置和模块的具体工作过程,可以参考前述方法实施例中的对应过程,上述描述的装置和模块的具体有益效果,可以参考前述方法实施例中的对应有益效果,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块或组件可以结合或者可以集成到另一个装置,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或模块的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机装置(可以是个人计算机,服务器,或者网络装置等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种基于深度学习二次确认的电力机房烟雾检测方法,其特征在于,包括:
获取监测电力机房得到的图像数据集,对所述图像数据集中图像的烟雾区域进行标注,根据标注后的图像数据集构建第一数据样本集,并提取所述图像数据集中图像的烟雾区域以构建第二数据样本集;
构建检测网络模型和分类网络模型;所述检测网络模型基于卷积模块和Bneck模块进行特征提取,并基于检测头模块进行不同尺度特征的检测;所述分类网络模型基于卷积模块和Bneck模块进行特征处理,并对处理得到的结果进行平均池化以降低特征向量维数,并通过卷积得到分类结果;
使用所述第一数据样本集对所述检测网络模型进行训练,使用所述第二数据样本集对所述分类网络模型进行训练,得到训练完成的检测网络模型和训练完成的分类网络模型;
采用所述训练完成的检测网络模型对待检测电力机房监测图像进行检测,将得到的检测结果输入至所述训练完成的分类网络模型,得到烟雾检测结果。
2.根据权利要求1所述的基于深度学习二次确认的电力机房烟雾检测方法,其特征在于,所述检测网络模型包括:
第一特征提取网络,为六层结构,其中第一层为卷积模块,第二层至第六层为Bneck模块,且其通过第四层输出第一层次特征,通过第五层输出第二层次特征,通过第六层输出第三层次特征;
第二特征提取网络,包括四个卷积模块和拼接模块,其中第一个卷积模块对所述第三层次特征进行卷积处理得到第一输出特征并输出给检测头网络,第二个卷积模块对所述第二层次特征进行卷积处理得到第二输出特征,第三个卷积模块对所述第一层次特征进行卷积处理得到第三输出特征,第四个卷积模块对所述第三输出特征进行卷积处理得到第四输出特征,所述拼接模块将所述第一输出特征、所述第二输出特征和所述第四输出特征进行拼接得到第五输出特征并输出给所述检测头网络,所述拼接模块将所述第一输出特征、所述第二输出特征和所述第三输出特征进行拼接处理得到第六输出特征并输出给所述检测头网络;
所述检测头网络,包括第一检测头模块、第二检测头模块和第三检测头模块,所述第一检测头模块用于对所述第一输出特征进行检测以得到第一检测结果,所述第二检测头模块用于对所述第五输出特征进行检测以得到第二检测结果,所述第三检测头模块用于对所述第六输出特征进行检测以得到第三检测结果。
3.根据权利要求2所述的基于深度学习二次确认的电力机房烟雾检测方法,其特征在于,所述Bneck模块采用ReLU激活函数。
4.根据权利要求1所述的基于深度学***均池化模块。
5.根据权利要求1所述的基于深度学习二次确认的电力机房烟雾检测方法,其特征在于,在对所述图像数据集中图像的烟雾区域进行标注之前,所述方法包括:
对所述图像数据集中的图像进行预处理;所述预处理包括图像去噪和/或图像扩容;
其中,所述图像扩容的处理包括以下至少一种:
几何畸变、光照、遮挡、随机水平翻转、随机裁剪、随机旋转、随机缩放和图像融合。
6.根据权利要求1所述的基于深度学习二次确认的电力机房烟雾检测方法,其特征在于,所述使用所述第一数据样本集对所述检测网络模型进行训练,包括:
基于置信度损失和类别损失构建损失函数;
采用所述损失函数对所述检测网络模型进行训练。
7.根据权利要求6所述的基于深度学习二次确认的电力机房烟雾检测方法,其特征在于,所述基于置信度损失和类别损失构建损失函数,包括:
构建所述损失函数为:
8.一种基于深度学习二次确认的电力机房烟雾检测装置,其特征在于,包括:
样本构建模块,用于获取监测电力机房得到的图像数据集,对所述图像数据集中图像的烟雾区域进行标注,根据标注后的图像数据集构建第一数据样本集,并提取所述图像数据集中图像的烟雾区域以构建第二数据样本集;
模型构建模块,用于构建检测网络模型和分类网络模型;所述检测网络模型基于卷积模块和Bneck模块进行特征提取,并基于检测头模块进行不同尺度特征的检测;所述分类网络模型基于卷积模块和Bneck模块进行特征处理,并对处理得到的结果进行平均池化以降低特征向量维数,并通过卷积以得到分类结果;
训练模块,用于使用所述第一数据样本集对所述检测网络模型进行训练,使用所述第二数据样本集对所述分类网络模型进行训练,得到训练完成的检测网络模型和训练完成的分类网络模型;
烟雾检测模块,用于采用所述训练完成的检测网络模型对待检测电力机房监测图像进行检测,将得到的检测结果输入至所述训练完成的分类网络模型,得到烟雾检测结果。
9.一种基于深度学习二次确认的电力机房烟雾检测装置,其特征在于,包括:
存储器,用于存储指令;其中,所述指令用于实现如权利要求1-7任意一项所述的基于深度学习二次确认的电力机房烟雾检测方法;
处理器,用于执行所述存储器中的指令。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1-7任意一项所述的基于深度学习二次确认的电力机房烟雾检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211118614.0A CN115205793B (zh) | 2022-09-15 | 2022-09-15 | 基于深度学习二次确认的电力机房烟雾检测方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211118614.0A CN115205793B (zh) | 2022-09-15 | 2022-09-15 | 基于深度学习二次确认的电力机房烟雾检测方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115205793A true CN115205793A (zh) | 2022-10-18 |
CN115205793B CN115205793B (zh) | 2023-01-24 |
Family
ID=83573660
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211118614.0A Active CN115205793B (zh) | 2022-09-15 | 2022-09-15 | 基于深度学习二次确认的电力机房烟雾检测方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115205793B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116563743A (zh) * | 2022-12-09 | 2023-08-08 | 南京图格医疗科技有限公司 | 基于深度学习的检测方法及除烟*** |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109977790A (zh) * | 2019-03-04 | 2019-07-05 | 浙江工业大学 | 一种基于迁移学习的视频烟雾检测与识别方法 |
CN110853021A (zh) * | 2019-11-13 | 2020-02-28 | 江苏迪赛特医疗科技有限公司 | 一种病理鳞状上皮细胞的检测分类模型的构建 |
CN112633231A (zh) * | 2020-12-30 | 2021-04-09 | 珠海大横琴科技发展有限公司 | 一种火灾识别的方法和装置 |
CN114119454A (zh) * | 2021-08-31 | 2022-03-01 | 国网河北省电力有限公司电力科学研究院 | 用于输电线路烟雾检测的装置及方法 |
-
2022
- 2022-09-15 CN CN202211118614.0A patent/CN115205793B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109977790A (zh) * | 2019-03-04 | 2019-07-05 | 浙江工业大学 | 一种基于迁移学习的视频烟雾检测与识别方法 |
CN110853021A (zh) * | 2019-11-13 | 2020-02-28 | 江苏迪赛特医疗科技有限公司 | 一种病理鳞状上皮细胞的检测分类模型的构建 |
CN112633231A (zh) * | 2020-12-30 | 2021-04-09 | 珠海大横琴科技发展有限公司 | 一种火灾识别的方法和装置 |
CN114119454A (zh) * | 2021-08-31 | 2022-03-01 | 国网河北省电力有限公司电力科学研究院 | 用于输电线路烟雾检测的装置及方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116563743A (zh) * | 2022-12-09 | 2023-08-08 | 南京图格医疗科技有限公司 | 基于深度学习的检测方法及除烟*** |
CN116563743B (zh) * | 2022-12-09 | 2023-12-01 | 南京图格医疗科技有限公司 | 基于深度学习的检测方法及除烟*** |
Also Published As
Publication number | Publication date |
---|---|
CN115205793B (zh) | 2023-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10943145B2 (en) | Image processing methods and apparatus, and electronic devices | |
CN108334848B (zh) | 一种基于生成对抗网络的微小人脸识别方法 | |
US20210012093A1 (en) | Method and apparatus for generating face rotation image | |
CN111259758B (zh) | 一种针对密集区域的两阶段遥感图像目标检测方法 | |
CN113591968A (zh) | 一种基于非对称注意力特征融合的红外弱小目标检测方法 | |
CN111738344A (zh) | 一种基于多尺度融合的快速目标检测方法 | |
WO2022067668A1 (zh) | 基于视频图像目标检测的火灾检测方法、***、终端以及存储介质 | |
CN110532959B (zh) | 基于双通道三维卷积神经网络的实时暴力行为检测*** | |
CN113191204B (zh) | 一种多尺度遮挡行人检测方法及*** | |
CN111626090A (zh) | 一种基于深度帧差卷积神经网络的运动目标检测方法 | |
CN112560619A (zh) | 一种基于多聚焦图像融合的多距离鸟类精准识别方法 | |
CN111339917A (zh) | 一种真实场景下玻璃检测的方法 | |
CN113850136A (zh) | 基于yolov5与BCNN的车辆朝向识别方法及*** | |
CN111951192A (zh) | 一种拍摄图像的处理方法及拍摄设备 | |
CN114565842A (zh) | 基于Nvidia Jetson嵌入式硬件的无人机实时目标检测方法及*** | |
CN115205793B (zh) | 基于深度学习二次确认的电力机房烟雾检测方法及装置 | |
CN116524312A (zh) | 一种基于注意力融合特征金字塔网络的红外小目标检测方法 | |
CN112036381A (zh) | 视觉跟踪方法、视频监控方法及终端设备 | |
CN116958782A (zh) | 一种红外与可见光特征融合的弱小目标检测方法及装置 | |
CN116958021A (zh) | 基于人工智能的产品缺陷识别方法、相关装置和介质 | |
CN116703919A (zh) | 一种基于最优传输距离损失模型的表面杂质检测方法 | |
Xu et al. | Tackling small data challenges in visual fire detection: a deep convolutional generative adversarial network approach | |
CN116805387B (zh) | 基于知识蒸馏的模型训练方法、质检方法和相关设备 | |
CN113436251A (zh) | 一种基于改进的yolo6d算法的位姿估计***及方法 | |
CN114596244A (zh) | 基于视觉处理和多特征融合的红外图像识别方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |