CN116363364B - 一种基于改进DSD-LinkNet的电力安全带分割方法 - Google Patents
一种基于改进DSD-LinkNet的电力安全带分割方法 Download PDFInfo
- Publication number
- CN116363364B CN116363364B CN202310306193.2A CN202310306193A CN116363364B CN 116363364 B CN116363364 B CN 116363364B CN 202310306193 A CN202310306193 A CN 202310306193A CN 116363364 B CN116363364 B CN 116363364B
- Authority
- CN
- China
- Prior art keywords
- safety belt
- network
- layer
- resolution
- segmentation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 40
- 238000000034 method Methods 0.000 title claims abstract description 32
- 238000010586 diagram Methods 0.000 claims abstract description 17
- 238000001514 detection method Methods 0.000 claims abstract description 5
- 230000004913 activation Effects 0.000 claims description 10
- 238000005070 sampling Methods 0.000 claims description 10
- 238000013527 convolutional neural network Methods 0.000 claims description 7
- 238000012549 training Methods 0.000 claims description 7
- 239000000284 extract Substances 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000017105 transposition Effects 0.000 claims 1
- 230000006870 function Effects 0.000 description 27
- 230000000694 effects Effects 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 4
- 230000004580 weight loss Effects 0.000 description 3
- 238000003709 image segmentation Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y04—INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
- Y04S—SYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
- Y04S10/00—Systems supporting electrical power generation, transmission or distribution
- Y04S10/50—Systems or methods supporting the power network operation or management, involving a certain degree of interaction with the load-side end user applications
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于改进DSD‑LinkNet的电力安全带分割方法。本发明包括以下步骤:S1:使用YOLOv2目标检测网络将电力安全带检出,并将其送入电力安全带分割网络中,分割网络的输入为安全带的最小外接矩形截出的图片块;S2:电力分割网络对输入图片进行编码,建立5种不同分辨率等级的卷积层,并使用它们进行两倍下采样;S3:基于两倍下采样后的特征图,将其中深层特征图的分辨率经两倍上采样后拼接,再经5个反卷积层进行多倍上采样,还原到原输入图像大小;S4:对还原后的图像直接拼接,再经过最后一层3×3反卷积层后得到输出特征图;S5:根据最后一层反卷积的输出特征图,预测出原图腰带、安全绳和背景像素对应类别的概率,输出安全带的分割图像。
Description
技术领域
本发明属于视觉算法技术领域,具体涉及一种基于改进DSD-LinkNet的电力安全带分割方法。
背景技术
电力安全带分割属于图像分割问题,实质是将输入图像中的像素进行分类,分类标准为腰带像素、安全绳像素和背景像素。有监督方法是图像分割算法的主要类别之一。有监督方法需要对样本进行标注,通过给网络施加强监督信息,迫使网络自动学习到更好的数据分布,分割准确率较高。DSD-LinkNet电力安全带分割方法属于有监督方法。DSD-LinkNet电力安全带分割方法采用卷积神经网络,通过提取浅层卷积层的细节信息和深层卷积层的抽象信息,对图像特征进行分类。它的网络结构图分为三部分,分别为编码模块、解码模块和预测模块。编码模块中有多个卷积层提取图像特征,解码模块中使用多个反卷积层对小分辨率特征图进行上采样,将特征图的分辨率逐步还原到输入图像大小,预测模块根据最后的输出特征图,预测出原图各个像素对应类别的概率,最终输出安全带的分割图像。
然而,现有基于DSD-LinkNet的电力安全带分割方法存在如下问题:
(1)D-Linknet电力安全带分割方法最后一层的激活函数采用的是Sigmoid函数,可应用于二分类问题。但在安全带分割任务中,标签图中每一个像素属于腰带、安全绳和背景中的一种,属于多分类问题。
(2)D-Linknet电力安全带分割方法的深度网络训练容易消失且收敛速度过慢,网络中间隐藏层特征不明显,网络学习能力较差。
(3)D-Linknet电力安全带分割方法的数据集中,各个类别的像素数量是极度不均衡的,导致像素数量多的类别对损失函数影响大,而像素数量小的类别对损失函数影响小,从而容易引发网络过拟合。
发明内容
为解决上述现有技术存在的技术问题,本发明提出了一种基于改进DSD-LinkNet的电力安全带分割方法。本发明的目的是为了解决原始D-Linknet电力安全带分割方法最后一层的激活函数不能解决多分类的问题;此外,还要解决深度网络训练消失和收敛速度过慢的问题,优化网络中间隐藏层特征,提高网络学习能力;另一方面,针对训练样本像素点不均衡的问题,对损失函数进行改进,防止网络过拟合。
本发明为实现上述发明目的,采取的技术方案如下:
一种基于改进DSD-LinkNet的电力安全带分割方法,包括以下步骤:
S1:使用YOLOv2目标检测网络将电力安全带检出,并将其送入电力安全带分割网络中,分割网络的输入为安全带的最小外接矩形截出的图片块;
S2:电力分割网络对输入图片进行编码,建立5种不同分辨率等级的卷积层,并使用它们进行两倍下采样;
S3:基于两倍下采样后的特征图,将其中深层特征图的分辨率经两倍上采样后拼接,再经5个反卷积层进行多倍上采样,还原到原输入图像大小;
S4:对还原后的图像直接拼接,再经过最后一层3×3反卷积层后得到输出特征图;
S5:根据最后一层反卷积的输出特征图,预测出原图腰带、安全绳和背景像素对应类别的概率,输出安全带的分割图像。
进一步的作为本发明的优选技术方案,所述S2中,进行编码的为编码模块,该编码模块的卷积神经网络共有37个卷积层,包括浅层的卷积层和深层的卷积层,浅层的卷积层提取更多细节信息,深层的卷积层提取更加抽象的信息;5种不同分辨率等级的卷积层的分辨率分别为原图分辨率的1/2、1/4、1/8、1/16与1/32。
进一步的作为本发明的优选技术方案,所述S3引入深度监督机制,在深度卷积神经网络的中间隐藏层加上辅助分类器作为网络分支对主网络进行监督,直接为隐藏层提供伴随监督信息;同时,采用上采样的方式将不同分辨率特征图放大,将放大后的不同分辨率特征图进行融合,经5个反卷积层进行多倍上采样,还原到原输入图像大小;
在融合浅层特征与深层特征时采用跳跃连接方式,将浅层特征的输出作为深层特征的输入;多倍上采样的方式为反卷积方式,在输入图像的每两个像素之间增加大小为步长的空像素,进行转置卷积。
进一步的作为本发明的优选技术方案,引入深度监督机制时,需要将编码模块中3种小分辨率特征图直接反卷积回原输入图像分辨率,同时需要取消对原图分辨率1/32的最小分辨率特征图的深度监督。
进一步的作为本发明的优选技术方案,所述S4中,最后一层输出的激活层采用归一化指数函数Softmax作为激活函数,每一个像素对应的输出为一个1乘以3的矢量,矢量的每个维度代表的是一种类别。
进一步的作为本发明的优选技术方案,所述S4中,通过引入不同类别的损失权重来平衡不同类别对损失函数总体的影响;在数据集中,各个类别的像素数量是不均衡的,像素数量多的类别对损失函数影响大,像素数量少的类别对损失函数影响小;在安全带分割的任务中,最后一层的输出特征图通道数为3,需要在网络原始损失函数的基础上计算3个通道损失之和,改进后的损失函数为:
公式(1)中,W和H分别为最后一层特征图的宽和高,Pi和Ti分别表示特征图中第i个像素所对应的预测值和真实值,N表示一次迭代所用到的图片数量,c表示第c个通道,Gi表示第i个像素所对应的损失权重,计算公式如下:
Gi=3(1-Si) (2)
公式(2)中,Si表示训练集中第i个类别像素数量占总图像像素数量的比例。
本发明所述的一种基于改进DSD-LinkNet的电力安全带分割方法,采用以上技术方案与现有技术相比,具有以下技术效果:
(1)本发明在D-LinkNet的基础上,针对方法在电力安全带分割的实际应用,对其进行改进,通过引入深度监督机制,为隐藏层引入伴随目标函数来提供梯度信息,改进原始网络结构,提高网络学习能力。
(2)本发明为防止引入的深度监督机制导致网络过拟合,使用带权重交叉熵损失代替原网络中的交叉熵损失,平衡不同目标类别对损失函数值的影响。
(3)本发明通过统计训练样本中腰带、安全绳和背景的像素比例作为交叉熵损失的类别权重,使得各个类别产生的总体损失相对平衡,从而改善网络学习效果,减少图像像素不均衡的影响。
附图说明
图1为本发明实施例电力安全带分割检测的网络结构图;
图2为本发明实施例基于改进DSD-LinkNet的电力安全带分割方法流程图;
图3为本发明实施例深度监督机制的原理图;
图4为本发明实施例与其他方法效果对比图。
具体实施方式
下面结合附图详细的描述本发明的作进一步的解释说明,以使本领域的技术人员可以更深入地理解本发明并能够实施,但下面通过参考实例仅用于解释本发明,不作为本发明的限定。
如图1与图2所示,一种基于改进DSD-LinkNet的电力安全带分割方法,包括以下步骤:
S1:使用YOLOv2目标检测网络将电力安全带检出,并将其送入电力安全带分割网络中,分割网络的输入为安全带的最小外接矩形截出的图片块;
S2:电力分割网络对输入图片进行编码,建立5种不同分辨率等级的卷积层,并使用它们进行两倍下采样;
S3:基于两倍下采样后的特征图,将其中深层特征图的分辨率经两倍上采样后拼接,再经5个反卷积层进行多倍上采样,还原到原输入图像大小;
S4:对还原后的图像直接拼接,再经过最后一层3×3反卷积层后得到输出特征图;
S5:根据最后一层反卷积的输出特征图,预测出原图腰带、安全绳和背景像素对应类别的概率,输出安全带的分割图像。
S2中,进行编码的为编码模块,该编码模块的卷积神经网络共有37个卷积层,包括浅层的卷积层和深层的卷积层,浅层的卷积层提取更多细节信息,深层的卷积层提取更加抽象的信息;5种不同分辨率等级的卷积层的分辨率分别为原图分辨率的1/2、1/4、1/8、1/16与1/32。
如图3所示,S3引入深度监督机制,在深度卷积神经网络的中间隐藏层加上辅助分类器作为网络分支对主网络进行监督,直接为隐藏层提供伴随监督信息;同时,采用上采样的方式将不同分辨率特征图放大,将放大后的不同分辨率特征图进行融合,经5个反卷积层进行多倍上采样,还原到原输入图像大小;
在融合浅层特征与深层特征时采用跳跃连接方式,将浅层特征的输出作为深层特征的输入;多倍上采样的方式为反卷积方式,在输入图像的每两个像素之间增加大小为步长的空像素,进行转置卷积。
引入深度监督机制时,需要将编码模块中3种小分辨率特征图直接反卷积回原输入图像分辨率,同时需要取消对原图分辨率1/32的最小分辨率特征图的深度监督。
S4中,最后一层输出的激活层采用归一化指数函数Softmax作为激活函数,每一个像素对应的输出为一个1乘以3的矢量,矢量的每个维度代表的是一种类别。
S4中,通过引入不同类别的损失权重来平衡不同类别对损失函数总体的影响;在数据集中,各个类别的像素数量是不均衡的,像素数量多的类别对损失函数影响大,像素数量少的类别对损失函数影响小;在安全带分割的任务中,最后一层的输出特征图通道数为3,需要在网络原始损失函数的基础上计算3个通道损失之和,改进后的损失函数为:
公式(1)中,W和H分别为最后一层特征图的宽和高,Pi和Ti分别表示特征图中第i个像素所对应的预测值和真实值,N表示一次迭代所用到的图片数量,c表示第c个通道,Gi表示第i个像素所对应的损失权重,计算公式如下:
Gi=3(1-Si) (2)
公式(2)中,Si表示训练集中第i个类别像素数量占总图像像素数量的比例。
如图4所示,本发明方法与其他方法效果对比图,Unet偏向于把背景分割为安全绳,DeepLab偏向于把背景分割为腰带,而本发明对腰带和安全带的总体分割效果更好,同时背景点的误分割少。同时,从图4第三列可以看出,本方法对于背光场景同样有较强的分割能力,拥有较强的鲁棒性。
表1改进算法结果对比
实验序号 | D-LinkNet | 深度监督 | 带权重损失 | mF1 | mIoU |
1 | √ | × | × | 0.72 | 0.56 |
2 | √ | √ | × | 0.73 | 0.57 |
3 | √ | √ | √ | 0.76 | 0.61 |
请参阅表1,改进算法结果对比,评价指标使用平均F1分数(即mF1)和平均IoU(即mIoU)衡量分割结果,原始D-LinkNet网络的mF1分数和mIoU都是最小的,对比实验1和实验3,深度监督和带权重损失从一定程度上增加了分割方法的分割精确度,mF1和mIoU分别提高了0.040和0.049。同时对比实验2和3,引入不同类别的损失权重可以有效解决样本不均衡所带来的网络过拟合问题,使用带权重损失的卷积可提高网络的学习能力,mF1和mIoU分别提高了0.028和0.049。
本发明对原始D-Linknet电力安全带分割方法进行改进,在其最后一层输出的激活层采用归一化指数函数Softmax作为激活函数,以解决标签多分类问题;在D-LinkNet的基础上加入深度监督机制,为隐藏层引入伴随目标函数来提供梯度信息,优化网络中间隐藏层特征,提高网络学***衡不同目标类别对损失函数值的影响,防止网络过拟合。
以上所述的具体实施方案,对本发明的目的、技术方案和有益效果进行了进一步的详细说明,所应理解的是,以上所述仅为本发明的具体实施方案而已,并非用以限定本发明的范围,任何本领域的技术人员,在不脱离本发明的构思和原则的前提下所做出的等同变化与修改,均应属于本发明保护的范围。
Claims (2)
1.一种基于改进DSD-LinkNet的电力安全带分割方法,其特征在于,包括以下步骤:
S1:使用YOLOv2目标检测网络将电力安全带检出,并将其送入电力安全带分割网络中,分割网络的输入为安全带的最小外接矩形截出的图片块;
S2:电力分割网络对输入图片进行编码,建立5种不同分辨率等级的卷积层,并使用它们进行两倍下采样;
S3:基于两倍下采样后的特征图,将其中深层特征图的分辨率经两倍上采样后拼接,再经5个反卷积层进行多倍上采样,还原到原输入图像大小;
S4:对还原后的图像直接拼接,再经过最后一层3×3反卷积层后得到输出特征图;
S5:根据最后一层反卷积的输出特征图,预测出原图腰带、安全绳和背景像素对应类别的概率,输出安全带的分割图像;
所述S2中,进行编码的为编码模块,该编码模块的卷积神经网络共有37个卷积层,包括浅层的卷积层和深层的卷积层,浅层的卷积层提取更多细节信息,深层的卷积层提取更加抽象的信息;5种不同分辨率等级的卷积层的分辨率分别为原图分辨率的1/2、1/4、1/8、1/16与1/32;
所述S3引入深度监督机制,在深度卷积神经网络的中间隐藏层加上辅助分类器作为网络分支对主网络进行监督,直接为隐藏层提供伴随监督信息;同时,采用上采样的方式将不同分辨率特征图放大,将放大后的不同分辨率特征图进行融合,经5个反卷积层进行多倍上采样,还原到原输入图像大小;
在融合浅层特征与深层特征时采用跳跃连接方式,将浅层特征的输出作为深层特征的输入;多倍上采样的方式为反卷积方式,在输入图像的每两个像素之间增加大小为步长的空像素,进行转置卷积;
所述S4中,最后一层输出的激活层采用归一化指数函数Softmax作为激活函数,每一个像素对应的输出为一个1乘以3的矢量,矢量的每个维度代表的是一种类别;
所述S4中,通过引入不同类别的损失权重来平衡不同类别对损失函数总体的影响;在数据集中,各个类别的像素数量是不均衡的,像素数量多的类别对损失函数影响大,像素数量少的类别对损失函数影响小;在安全带分割的任务中,最后一层的输出特征图通道数为3,需要在网络原始损失函数的基础上计算3个通道损失之和,改进后的损失函数为:
公式(1)中,W和H分别为最后一层特征图的宽和高,Pi和Ti分别表示特征图中第i个像素所对应的预测值和真实值,N表示一次迭代所用到的图片数量,c表示第c个通道,Gi表示第i个像素所对应的损失权重,计算公式如下:
Gi=3(1-Si) (2)
公式(2)中,Si表示训练集中第i个类别像素数量占总图像像素数量的比例。
2.根据权利要求1所述的一种基于改进DSD-LinkNet的电力安全带分割方法,其特征在于,
引入深度监督机制时,需要将编码模块中3种小分辨率特征图直接反卷积回原输入图像分辨率,同时需要取消对原图分辨率1/32的最小分辨率特征图的深度监督。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310306193.2A CN116363364B (zh) | 2023-03-27 | 2023-03-27 | 一种基于改进DSD-LinkNet的电力安全带分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310306193.2A CN116363364B (zh) | 2023-03-27 | 2023-03-27 | 一种基于改进DSD-LinkNet的电力安全带分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116363364A CN116363364A (zh) | 2023-06-30 |
CN116363364B true CN116363364B (zh) | 2023-09-26 |
Family
ID=86918653
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310306193.2A Active CN116363364B (zh) | 2023-03-27 | 2023-03-27 | 一种基于改进DSD-LinkNet的电力安全带分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116363364B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109859224A (zh) * | 2019-01-31 | 2019-06-07 | 东北大学 | 一种传送带矿岩颗粒图像分割方法 |
CN111767810A (zh) * | 2020-06-18 | 2020-10-13 | 哈尔滨工程大学 | 一种基于D-LinkNet的遥感图像道路提取方法 |
CN112700460A (zh) * | 2021-01-14 | 2021-04-23 | 北京工业大学 | 图像分割方法及*** |
US11042742B1 (en) * | 2020-03-11 | 2021-06-22 | Ajou University Industry-Academic Cooperation Foundation | Apparatus and method for detecting road based on convolutional neural network |
CN113744262A (zh) * | 2021-09-17 | 2021-12-03 | 浙江工业大学 | 一种基于GAN和YOLO-v5的目标分割检测方法 |
CN114596500A (zh) * | 2022-01-12 | 2022-06-07 | 南通大学 | 一种基于通道-空间注意力和DeeplabV3plus的遥感影像语义分割方法 |
CN115035461A (zh) * | 2022-07-12 | 2022-09-09 | 刘至键 | 基于机器视觉安全带佩戴检测方法、装置及相关设备 |
CN115035299A (zh) * | 2022-06-20 | 2022-09-09 | 河南大学 | 一种基于深度学习的改进型城市街景图像分割方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018052587A1 (en) * | 2016-09-14 | 2018-03-22 | Konica Minolta Laboratory U.S.A., Inc. | Method and system for cell image segmentation using multi-stage convolutional neural networks |
CN111311629B (zh) * | 2020-02-21 | 2023-12-01 | 京东方科技集团股份有限公司 | 图像处理方法、图像处理装置及设备 |
CN112699937B (zh) * | 2020-12-29 | 2022-06-21 | 江苏大学 | 基于特征引导网络的图像分类与分割的装置、方法、设备及介质 |
US11580646B2 (en) * | 2021-03-26 | 2023-02-14 | Nanjing University Of Posts And Telecommunications | Medical image segmentation method based on U-Net |
CN113160246A (zh) * | 2021-04-14 | 2021-07-23 | 中国科学院光电技术研究所 | 一种基于深度监督的图像语义分割方法 |
CN113553938B (zh) * | 2021-07-19 | 2024-05-14 | 黑芝麻智能科技(上海)有限公司 | 安全带检测方法、装置、计算机设备和存储介质 |
-
2023
- 2023-03-27 CN CN202310306193.2A patent/CN116363364B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109859224A (zh) * | 2019-01-31 | 2019-06-07 | 东北大学 | 一种传送带矿岩颗粒图像分割方法 |
US11042742B1 (en) * | 2020-03-11 | 2021-06-22 | Ajou University Industry-Academic Cooperation Foundation | Apparatus and method for detecting road based on convolutional neural network |
CN111767810A (zh) * | 2020-06-18 | 2020-10-13 | 哈尔滨工程大学 | 一种基于D-LinkNet的遥感图像道路提取方法 |
CN112700460A (zh) * | 2021-01-14 | 2021-04-23 | 北京工业大学 | 图像分割方法及*** |
CN113744262A (zh) * | 2021-09-17 | 2021-12-03 | 浙江工业大学 | 一种基于GAN和YOLO-v5的目标分割检测方法 |
CN114596500A (zh) * | 2022-01-12 | 2022-06-07 | 南通大学 | 一种基于通道-空间注意力和DeeplabV3plus的遥感影像语义分割方法 |
CN115035299A (zh) * | 2022-06-20 | 2022-09-09 | 河南大学 | 一种基于深度学习的改进型城市街景图像分割方法 |
CN115035461A (zh) * | 2022-07-12 | 2022-09-09 | 刘至键 | 基于机器视觉安全带佩戴检测方法、装置及相关设备 |
Non-Patent Citations (4)
Title |
---|
LinkNet: Exploiting encoder representations for efficient semantic segmentation;A. Chaurasia and E. Culurciello;2017 IEEE Visual Communications and Image Processing;1-4 * |
基于改进D-LinkNet模型的高分遥感影像道路提取研究;张立恒等;计算机工程;288-296 * |
基于改进Mask RCNN的电力检修违规操作检测;沈茂东;周伟;宋晓东;裴健;邓昊;马超;房凯;;计算机***应用(第08期);158-164 * |
迁移学习下高分快视数据道路快速提取;张军军;万广通;张洪群;李山山;冯旭祥;;中国图象图形学报(第07期);1501-1512 * |
Also Published As
Publication number | Publication date |
---|---|
CN116363364A (zh) | 2023-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112949572B (zh) | 基于Slim-YOLOv3的口罩佩戴情况检测方法 | |
CN110059582B (zh) | 基于多尺度注意力卷积神经网络的驾驶员行为识别方法 | |
CN114187311A (zh) | 一种图像语义分割方法、装置、设备及存储介质 | |
CN114549840B (zh) | 语义分割模型的训练方法和语义分割方法、装置 | |
CN110942471A (zh) | 一种基于时空约束的长时目标跟踪方法 | |
CN113763327B (zh) | 一种基于CBAM-Res_Unet的电厂管道高压蒸汽泄露检测方法 | |
CN115272987A (zh) | 一种基于MSA-Yolov5的恶劣天气下车辆检测方法及装置 | |
CN111860683A (zh) | 一种基于特征融合的目标检测方法 | |
CN116468740A (zh) | 一种图像语义分割模型及分割方法 | |
CN116363364B (zh) | 一种基于改进DSD-LinkNet的电力安全带分割方法 | |
CN112560907B (zh) | 基于混合域注意力的有限像素红外无人机目标检测方法 | |
CN112132867B (zh) | 一种遥感影像变化检测方法及装置 | |
CN112365451A (zh) | 图像质量等级的确定方法、装置、设备及计算机可读介质 | |
CN116993661A (zh) | 一种基于特征融合和注意力机制的潜在癌变息肉临床诊断方法 | |
CN113642520B (zh) | 一种带有头部信息的双任务行人检测方法 | |
CN114724175B (zh) | 行人图像的检测网络、检测方法、训练方法、电子设备和介质 | |
CN115731415A (zh) | 基于双模态融合的小样本细粒度目标识别模型及方法 | |
CN116309270A (zh) | 一种基于双目图像的输电线路典型缺陷识别方法 | |
CN112487996B (zh) | 基于DenseNet121网络的驾驶行为识别方法 | |
CN115205518A (zh) | 一种基于YOLO v5s网络结构的目标检测方法及其*** | |
CN116958615A (zh) | 图片识别方法、装置、设备和介质 | |
CN114495058A (zh) | 交通标志检测方法和装置 | |
Liu et al. | Text detection based on bidirectional feature fusion and sa attention mechanism | |
CN115049639B (zh) | 一种基于分类重加权YOLOv5模型的织物瑕疵检测方法 | |
CN116486464B (zh) | 一种基于注意力机制的卷积对抗网络的人脸伪造检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |