CN112750129A - 一种基于特征增强位置注意力机制的图像语义分割模型 - Google Patents

一种基于特征增强位置注意力机制的图像语义分割模型 Download PDF

Info

Publication number
CN112750129A
CN112750129A CN202110035003.9A CN202110035003A CN112750129A CN 112750129 A CN112750129 A CN 112750129A CN 202110035003 A CN202110035003 A CN 202110035003A CN 112750129 A CN112750129 A CN 112750129A
Authority
CN
China
Prior art keywords
image
model
feature
attention mechanism
semantic segmentation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110035003.9A
Other languages
English (en)
Other versions
CN112750129B (zh
Inventor
周维
王帅龙
许海霞
黄云佳
宣期峻
陈祁
刘用
朱江
张东波
王玮
彭伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiangtan University
Original Assignee
Xiangtan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiangtan University filed Critical Xiangtan University
Priority to CN202110035003.9A priority Critical patent/CN112750129B/zh
Publication of CN112750129A publication Critical patent/CN112750129A/zh
Application granted granted Critical
Publication of CN112750129B publication Critical patent/CN112750129B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于特征增强位置注意力机制的图像语义分割模型。本发明包括以下步骤:1、模型建立,设计一种基于特征增强位置注意力机制的图像语义分割模型,通过注意力机制学习像素点图像特征之间的关联性以及通过增加感受野进一步捕获图像丰富的上下文语义信息。2、模型训练,首先对数据集预处理,然后根据建立好的模型进行模型训练。3、模型推理,将测试集的图像输入到训练好的模型中,推理测试图像的语义类别预测值,评估预测准确度。本发明是一种针对图像语义分割的神经网络模型,特别是提出了一种特征增强位置注意力机制提取图像自身注意力信息的统一建模方法,获得了在语义分割领域较好的分割效果。

Description

一种基于特征增强位置注意力机制的图像语义分割模型
技术领域
本发明属于计算机视觉技术领域,特别涉及一种基于特征增强位置注意力机制的图像语义分割模型。
背景技术
图像语义分割是计算机视觉的一个基础问题,广泛应用于自动驾驶、智能机器人、人机交互等等领域的场景理解。图像语义分割技术是将视觉图像中具有相似语义信息的像素点给予一致的标签,解释不同的语义类别。例如,在自动驾驶场景中我们需要区分图像中属于汽车的所有像素,并把这些像素标记为一个语义类别。
传统的图像语义分割方法包括纹理基元森林(TextonForest)和随机森林(RandomForest)。由于光照对图像邻域分割的影响,导致纹理基元森林(TextonForest)方法不能得到准确率较高的分割效果;随机森林(Random Forest)方法直接利用图像低级的像素信息,提高算法训练和测试速度,该方法的缺点是无法控制模型内部的运行,在回归问题中表现不佳。
近年来伴随着深度学习的不断发展,基于深度学习的图像语义分割模型越来越多的应用在实际的场景中。采用卷积神经网络(Convolutional Neural Networks,CNN)和全卷积神经网络(Fully Convolutional Neural Networks,FCN)进行端到端(end-to-end)的问题建模成为计算机视觉方向上的主流研究方法。在图像的语义分割中,设计应用相关的深度网络模型进行端到端的建模,分割的准确率和速度均得到了明显的提升,相比传统的语义分割方法分割效果得到了大大的提升。
目前基于深度学习的图像语义分割的主要方法:(1)通过全卷积神经网络进行图像语义分割的处理,虽然全卷积神经网络可以实现任意尺寸大小图像的输入,并且得到与输入对应尺寸大小的输出,但是不能够获得足够丰富的图像上下文信息,得到的图像特征不够明显;(2)基于全卷积神经网络添加后处理模块,近两年用的比较多的是添加注意力机制模块,可以获得丰富的上下文信息,提高图像语义分割的准确率,但是有些模型参数过多,导致模型冗余,提取的特征不够全面,在实际的应用场景中分割效果差。
因此,有必要设计一套高效的易于实现的图像语义分割深度网络模型。
参考文献
1.Krizhevsky A,Sutskever I,Hinton G E,et al.(2012)Imagenetclassifification with deep convolutional neural networks.Advances in NeuralInformation Processing Systems (NIPS),470Lake Tahoe,USA,Dec.3-6,pp.1097-1105.
2.Mark Everingham,Luc Van Gool,Christopher KI Williams,John Winn,andAndrew Zisserman.(2010)The pascal visual object classes(voc)challenge.International journal of computer vision,88:303-338.
3.Long J,Shelhamer E,Darrell T.(2015)Fully convolutional networks forsemantic segmentation.IEEE Conf.On Computer Vision and Pattern Recognition(CVPR),Boston, USA,Jun.7-12,pp.3461-3440
发明内容
本发明提供一种基于特征增强位置注意力机制的图像语义分割模型,该基于特征增强的位置注意力机制模型效率高,易于实现。
发明的技术解决方案如下:
一种基于特征增强位置注意力机制的图像语义分割模型,其特征在于,包括数据预处理、模型的建立、模型的训练和验证;
数据预处理主要是给定图像I,对应的真实标签图GT,构成训练集,为模型训练提供数据基础;
模型的建立是通过分析图像语义增强过程设计具体子模块,构建端到端的语义分割深度网络模型;
模型的训练和验证是确定所建立的模型的参数,并且检验所设计的模型的分割效果;
基于特征增强位置注意力机制的图像语义分割模型按照以下步骤展开:
步骤1:模型建立;
步骤2:模型训练;
步骤3:模型推理。
步骤1中,具体设计一种基于特征增强位置注意力机制的图像语义分割模型,通过注意力机制学习像素点图像特征之间的关联性以及通过增加感受野进一步捕获图像丰富的上下文语义信息,以加强同类别像素的关联性提高分割准确性;
首先,对图像进行特征提取,通过骨干网络ResNet-101提取图像特征F;
然后,建立特征集成模型(FIM),通过增大感受野对图像特征F进行增强,得到具有增强语义信息的图像特征X;
最后,建立位置注意力模型(PAM),通过位置注意力机制增强图像特征X空间位置的关联性,得到上下文关联性增强的特征图E;
步骤2中,首先对提供的数据集进行预处理操作,对图像I进行尺度随机缩放,水平旋转,将图像裁剪成固定尺寸大小的图像IC
然后对步骤1建立的模型进行训练,将图像IC通过骨干网ResNet-101、特征集成模型(FIM)子模块、位置注意力模型(PAM)子模块得到特征图E,再经过上采样后进行图像语义类别预测,将得到的预测值Z与真实值GT进行交叉熵运算,度量预测值与真实值的误差;通过反向传播算法对步骤1定义的网络模型参数进行迭代优化训练,训练到整个模型收敛为止;
步骤3中,将测试集的图像输入到训练好的模型中,推理测试图像的语义类别预测值,计算测试预测值与真实值的平均交并比(MIoU),评估预测准确度。平均交并比的运算公式如下所示:
Figure BDA0002893081390000031
其中K是数据集的类别数,pij是类别为i的像素被预测为类别为j的数量,pii是正确分类的像素的数量。
步骤1所述的模型建立具体过程如下:
首先,使用ResNet-101作为骨干网络,对图像IC进行特征提取,得到图像特征F,其中
Figure BDA0002893081390000032
C1是图像特征的通道数,H和W是图像特征的高度和宽度;
然后,建立特征集成模型(FIM)进一步对图像特征进行增强,有关特征集成模型(FIM)操作的具体过程如下:首先对F采用不同卷积算子'1×1,3×3,5×5,7×7'进行通道降维,具体过程如下:
ai=Convi(F),i∈{1,3,5,7}, ⑵
其中Convi是i×i卷积(i=1,3,5,7),
Figure BDA0002893081390000033
然后,为了得到具有不同大小感受野的图像特征Ai其中i∈{1,3,5,7},直接输出a1,对 a3,a5和a7均采用'3×3'的卷积进行不同程度上扩大感受野,其中a5和a7分别通过a3和a5的残差操作获得较大的感受野,a3直接通过'3×3'的卷积获得较小的感受野,具体过程如下所示:
A1=a1,A3=Conv3(a3),A5=Conv3(A3+a5),A7=Conv3(A5+a7) ⑶
最后,对具有不同大小感受野的图像特征Ai,其中i∈{1,3,5,7}进行通道拼接操作,即 [A1,A3,A5,A7],其中'[]'表示拼接操作,得到感受野增大的图像特征,利用1×1卷积操作进行通道的升维,与输入F进行矩阵对应元素相加,进一步通过'1×1'卷积操作降维,最终输出语义信息增强的图像特征X,
Figure BDA0002893081390000041
其中C2是图像特征的通道数, H和W是图像特征的高度和宽度;
在完成特征集成模型(FIM)操作后,建立位置注意力机制模型(PAM),有关位置注意力机制模型(PAM)操作的具体过程如下:采用注意力机制对特征图X进行空间位置的关联性的增强,得到上下文关联性增强的特征图E,其中
Figure BDA0002893081390000042
C2是图像特征的通道数,H和W是图像特征的高度和宽度,对于X注意力机制的具体运算如下所示:
K=Conv(X);Q=Conv(X);V=Conv(X) ⑷
Y=Soft max(KT×Q) ⑸
Figure BDA0002893081390000043
其中Y是计算权重,β是指可学习的系数且β∈R,T为矩阵的转置,softmax的运算公式为:
Figure BDA0002893081390000044
步骤2所述的模型训练具体过程如下:
输入图像I,通过骨干网络ResNet-101对图像进行特征提取,利用提供的特征集成模型(FIM)进一步对图像特征进行增强,然后利用位置注意力模型(PAM)增强像素间空间位置的关联性,最后上采样进行语义分割预测,得到预测结果Z,采用交叉损失函数计算预测值与真实值GT之间的损失,其中损失函数如下:
Figure BDA0002893081390000045
其中B是指输入神经网络的图像的个数,C是类别数;利用SGD[1]优化器优化函数Loss使损失值达到最小;
步骤3所述模型推理具体过程如下:
在步骤2训练完成模型以后,固定模型参数,输入测试集的图像得到测试预测值,推理测试图像的语义类别预测值,计算测试预测值与真实值的交并比,直到所有测试集测试完成,给出最终的预测准确度。
本发明有益效果如下:
本发明提出的方法在针对图像语义分割的问题上相对于其他算法提高了精度。具体表现为:1)相对于以住一些网络模型本发明提出的模型比较容易实现;2)本发明的网络参数较少,轻量化了网络,有效地降低了模型训练的时间。本发明基于全卷积端到端的网络通过增大感受野的方式引入注意力机制,在图像语义分割任务中获得了比以往模型高的准确度。
附图说明
图1为本发明的模型总结构图。
图2为本发明的特征集成模型。
图3为本发明的位置注意力机制模型。
图4为本发明的模型实验可视化结果。
具体实施方式
为了使本发明的目的及技术方案更加清楚明白,以下结合附图和实施例,对本发明的应用原理作详细的描述。但本发明的保护范围并不限于以下具体实施例。
除非另有定义,下文中所使用的所有专业术语与本领域技术人员通常理解含义相同。本文中所使用的专业术语只是为了描述具体实施例的目的,并不是旨在限制本发明的保护范围。
实施例1:
如图1图2图3所示,本发明提供一种基于特征增强位置注意力机制的图像语义分割模型具体步骤如下:
步骤1所述的模型建立具体如下:
此发明采用PASCALVOC 2012[2]数据集,其中此数据集包含21个类别,作为训练和测试数据;
首先,使用ResNet-101作为骨干网络提取图像特征,具体过程为:把输入的图像统一缩放到513×513并输入到骨干网络中,经过骨干网络进行图像特征的提取,将输出的最后一层特征图
Figure BDA0002893081390000061
作为输入进入特征集成模型(FIM)进行特征的进一步提取;然后,执行特征集成模型(FIM)操作,具体如下:
①对于输入F使其通过‘1×1,3×3,5×5,7×7’四个不同大小的卷积核,得到通道数为F的四分之一但尺寸大小不变的四个输出
Figure BDA0002893081390000062
②对{a1,a3,a5,a7}分别通过'3×3'卷积和残差操作得到感受野不同程度增大的具有强的语义信息的图像特征{A1,A3,A5,A7};
③将具有强的图像语义信息的特征{A1,A3,A5,A7}统一通过一层卷积增加通道数,利用残差方式与输入F进行融合,通过'1×1'卷积操作将得到的特征图进行降维为X;最后,执行位置注意力模型(PAM)操作,增强像素间空间位置的关联性,位置注意力模型(PAM)操作具体如下:
①对输入X进行注意力机制运算操作,提取像素点之间的关联性,其中注意力机制运算操作具体公式如下所示:
K=Conv(X);Q=Conv(X);V=Conv(X) ⑷
Y=Soft max(KT×Q) ⑸
Figure BDA0002893081390000063
其中Y是计算权重,β是指可学习的系数且β∈R,T为矩阵的转置;
②对输入X进行注意力机制运算操作,增强图像的像素点空间位置的关联性,得到具有丰富上下文语义信息的特征图E;
至此完成模型建立的操作。
步骤2所述模型训练,具体如下:
对步骤1建立的模型进行训练,将图像IC通过骨干网ResNet-101、特征集成模型(FIM)子模块、位置注意力模型(PAM)子模块得到特征图E,再经过上采样后进行图像语义类别预测,得到预测值Z;将其与数据集的真实标签图GT做比较,通过定义的损失函数计算得到预测值与真实值之间的损失值,然后根据该损失值调整整个网络的参数值,直到网络收敛;
至此完成模型训练的操作。
步骤3所述模型推理,具体如下:
在步骤2训练完成模型以后,固定模型参数,输入测试集的图像得到测试预测值,推理测试图像的语义类别预测值,计算测试预测值与真实值的平均交并比,评估预测准确度。
至此完成模型推理的操作。
下表为本发明所述的方法在Pascal VOC 2012中的准确度。FCN[3]为基于深度学***均交并比(MIoU)评估图像语义分割的平均准确度。
Figure BDA0002893081390000071

Claims (4)

1.一种基于特征增强位置注意力机制的图像语义分割模型,其特征在于包括以下步骤:
给定图像I,对应的真实标签图GT,构成训练集:
步骤1:模型建立;
具体设计一种基于特征增强位置注意力机制的图像语义分割模型,通过注意力机制学习像素点图像特征之间的关联性以及通过增加感受野进一步捕获图像丰富的上下文语义信息,以加强同类像素的关联性提高分割准确性;
首先,对图像进行特征提取,通过骨干网络ResNet-101提取图像特征F;
然后,建立特征集成模型(FIM),通过增大感受野对图像特征F进行增强,得到具有增强语义信息的图像特征X;
最后,建立位置注意力模型(PAM),通过位置注意力机制增强图像特征X空间位置的关联性,得到上下文关联性增强的特征图E;
步骤2:模型训练;
首先对提供的数据集进行预处理操作,对图像I进行尺度随机缩放,水平旋转,将图像裁剪成固定尺寸大小的图像IC
然后对步骤1建立的模型进行训练,将图像IC通过骨干网ResNet-101、特征集成模型(FIM)子模块、位置注意力模型(PAM)子模块得到特征图E,再经过上采样后进行图像语义类别预测,将得到的预测值Z与真实值GT进行交叉熵运算,度量预测值与真实值的误差;通过反向传播算法对步骤1定义的网络模型参数进行迭代优化训练,训练到整个模型收敛为止;
步骤3:模型推理;
将测试集的图像输入到训练好的模型中,推理测试图像的语义类别预测值,计算测试预测值与真实值的平均交并比(MIoU),评估预测准确度。平均交并比的运算公式如下所示:
Figure FDA0002893081380000011
其中K是数据集的类别数,pij是类别为i的像素被预测为类别为j的数量,pii是正确分类的像素的数量。
2.根据权利要求1所述的一种基于特征增强位置注意力机制的图像语义分割模型,其特征在于步骤1的模型建立,具体如下:
2-1.使用ResNet-101作为骨干网络,对图像IC进行特征提取,得到图像特征F,其中
Figure FDA0002893081380000021
C1是图像特征的通道数,H和W是图像特征的高度和宽度;
2-2.建立特征集成模型(FIM)进一步对图像特征进行增强,有关特征集成模型(FIM)操作的具体过程如下:首先对F采用不同卷积算子'1×1,3×3,5×5,7×7'进行通道降维,具体过程如下:
ai=Convi(F),i∈{1,3,5,7}, ⑵
其中Convi是i×i卷积(i=1,3,5,7),
Figure FDA0002893081380000022
为了得到具有不同大小感受野的图像特征Ai其中i∈{1,3,5,7},直接输出a1,对a3,a5和a7均采用'3×3'的卷积进行不同程度上扩大感受野,其中a5和a7分别通过a3和a5的残差操作获得较大的感受野,a3直接通过'3×3'的卷积获得较小的感受野,具体过程如下所示:
A1=a1,A3=Conv3(a3),A5=Conv3(A3+a5),A7=Conv3(A5+a7) ⑶
对具有不同大小感受野的图像特征Ai,其中i∈{1,3,5,7}进行通道拼接操作,即[A1,A3,A5,A7],其中'[]'表示拼接操作,得到感受野增大的图像特征,利用1×1卷积操作进行通道的升维,与输入F进行矩阵对应元素相加,进一步通过'1×1'卷积操作降维,最终输出语义信息增强的图像特征X,
Figure FDA0002893081380000023
其中C2是图像特征的通道数,H和W是图像特征的高度和宽度;
2-3.建立位置注意力机制模型(PAM),有关位置注意力机制模型(PAM)操作的具体过程如下:采用注意力机制对特征图X进行空间位置的关联性的增强,得到上下文关联性增强的特征图E,其中
Figure FDA0002893081380000024
C2是图像特征的通道数,H和W是图像特征的高度和宽度,对于X注意力机制的具体运算如下所示:
K=Conv(X);Q=Conv(X);V=Conv(X) ⑷
Y=Soft max(KT×Q) ⑸
Figure FDA0002893081380000031
其中Y是计算权重,β是指可学习的系数且β∈R,T为矩阵的转置,soft max的运算公式为:
Figure FDA0002893081380000032
3.根据权利要求1所述的一种基于特征增强位置注意力机制的图像语义分割模型,其特征在于步骤2所述的模型训练,具体如下:
输入图像I,通过骨干网络ResNet-101对图像进行特征提取,利用提供的特征集成模型(FIM)进一步对图像特征进行增强,然后利用位置注意力模型(PAM)增强像素间空间位置的关联性,最后上采样进行语义分割预测,得到预测结果Z,采用交叉损失函数计算预测值与真实值GT之间的损失,其中损失函数如下:
Figure FDA0002893081380000033
其中B是指输入神经网络的图像的个数,C是类别数;利用SGD[1]优化器优化函数Loss使损失值达到最小。
4.根据权利要求1所述的一种基于特征增强位置注意力机制的图像语义分割模型,其特征在于步骤3所述模型推理,具体如下:
在步骤2训练完成模型以后,固定模型参数,输入测试集的图像得到测试预测值,推理测试图像的语义类别预测值,计算测试预测值与真实值的平均交并比(MIoU),直到所有测试集测试完成,评估预测准确度。
CN202110035003.9A 2021-03-11 2021-03-11 一种基于特征增强位置注意力机制的图像语义分割模型 Active CN112750129B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110035003.9A CN112750129B (zh) 2021-03-11 2021-03-11 一种基于特征增强位置注意力机制的图像语义分割模型

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110035003.9A CN112750129B (zh) 2021-03-11 2021-03-11 一种基于特征增强位置注意力机制的图像语义分割模型

Publications (2)

Publication Number Publication Date
CN112750129A true CN112750129A (zh) 2021-05-04
CN112750129B CN112750129B (zh) 2022-12-02

Family

ID=75650849

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110035003.9A Active CN112750129B (zh) 2021-03-11 2021-03-11 一种基于特征增强位置注意力机制的图像语义分割模型

Country Status (1)

Country Link
CN (1) CN112750129B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113191365A (zh) * 2021-05-12 2021-07-30 北京邮电大学 一种文化语义图像重构效果评价方法
CN113361353A (zh) * 2021-05-28 2021-09-07 同济大学 一种基于DeepLabV3Plus的斑马鱼形态学评分方法
CN113362395A (zh) * 2021-06-15 2021-09-07 上海追势科技有限公司 一种基于传感器融合的环境感知方法
CN113658188A (zh) * 2021-08-18 2021-11-16 北京石油化工学院 一种基于改进Unet模型的溶液结晶过程图像语义分割方法
CN114529836A (zh) * 2022-02-23 2022-05-24 安徽大学 一种sar图像目标检测方法
CN114972812A (zh) * 2022-06-02 2022-08-30 华侨大学 一种基于结构相似度的非局部注意力学习方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110188765A (zh) * 2019-06-05 2019-08-30 京东方科技集团股份有限公司 图像语义分割模型生成方法、装置、设备及存储介质
CN111797779A (zh) * 2020-07-08 2020-10-20 兰州交通大学 基于区域注意力多尺度特征融合的遥感图像语义分割方法
CN112233129A (zh) * 2020-10-20 2021-01-15 湘潭大学 基于深度学习的并行多尺度注意力机制语义分割方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110188765A (zh) * 2019-06-05 2019-08-30 京东方科技集团股份有限公司 图像语义分割模型生成方法、装置、设备及存储介质
CN111797779A (zh) * 2020-07-08 2020-10-20 兰州交通大学 基于区域注意力多尺度特征融合的遥感图像语义分割方法
CN112233129A (zh) * 2020-10-20 2021-01-15 湘潭大学 基于深度学习的并行多尺度注意力机制语义分割方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CHEN, L,ET AL.: "DeepLab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected CRFs", 《IEEE TRANS.PATTERN ANAL. MACH. INTELL》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113191365A (zh) * 2021-05-12 2021-07-30 北京邮电大学 一种文化语义图像重构效果评价方法
CN113191365B (zh) * 2021-05-12 2023-04-21 北京邮电大学 一种文化语义图像重构效果评价方法
CN113361353A (zh) * 2021-05-28 2021-09-07 同济大学 一种基于DeepLabV3Plus的斑马鱼形态学评分方法
CN113362395A (zh) * 2021-06-15 2021-09-07 上海追势科技有限公司 一种基于传感器融合的环境感知方法
CN113658188A (zh) * 2021-08-18 2021-11-16 北京石油化工学院 一种基于改进Unet模型的溶液结晶过程图像语义分割方法
CN114529836A (zh) * 2022-02-23 2022-05-24 安徽大学 一种sar图像目标检测方法
CN114972812A (zh) * 2022-06-02 2022-08-30 华侨大学 一种基于结构相似度的非局部注意力学习方法
CN114972812B (zh) * 2022-06-02 2024-06-18 华侨大学 一种基于结构相似度的非局部注意力学习方法

Also Published As

Publication number Publication date
CN112750129B (zh) 2022-12-02

Similar Documents

Publication Publication Date Title
CN112750129B (zh) 一种基于特征增强位置注意力机制的图像语义分割模型
CN111489358B (zh) 一种基于深度学习的三维点云语义分割方法
CN109241982B (zh) 基于深浅层卷积神经网络的目标检测方法
CN111950453A (zh) 一种基于选择性注意力机制的任意形状文本识别方法
CN111612008A (zh) 基于卷积网络的图像分割方法
CN110675421B (zh) 基于少量标注框的深度图像协同分割方法
CN112132145B (zh) 一种基于模型扩展卷积神经网络的图像分类方法及***
CN112164077B (zh) 基于自下而上路径增强的细胞实例分割方法
CN113240683B (zh) 基于注意力机制的轻量化语义分割模型构建方法
CN109657538B (zh) 基于上下文信息指导的场景分割方法和***
CN115410059B (zh) 基于对比损失的遥感图像部分监督变化检测方法及设备
CN114419014A (zh) 基于特征重构的表面缺陷检测方法
CN116206112A (zh) 基于多尺度特征融合和sam的遥感图像语义分割方法
CN112183240A (zh) 一种基于3d时间流和并行空间流的双流卷积行为识别方法
CN115908793A (zh) 一种基于位置注意力机制的编解码结构语义分割模型
CN112487938A (zh) 一种利用深度学习算法实现垃圾分类的方法
CN113763364B (zh) 一种基于卷积神经网络的图像缺陷检测方法
CN113537119B (zh) 基于改进Yolov4-tiny的输电线路连接部件检测方法
CN114299305A (zh) 聚合密集和注意力多尺度特征的显著性目标检测算法
CN113096133A (zh) 一种基于注意力机制的语义分割网络的构建方法
CN110751005A (zh) 融合深度感知特征和核极限学习机的行人检测方法
CN117173595A (zh) 基于改进YOLOv7的无人机航拍图像目标检测方法
CN110136098B (zh) 一种基于深度学习的线缆顺序检测方法
CN113223006B (zh) 一种基于深度学习的轻量级目标语义分割方法
CN115661539A (zh) 一种嵌入不确定性信息的少样本图像识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20210504

Assignee: Changsha Hongli Xinchuang Technology Co.,Ltd.

Assignor: XIANGTAN University

Contract record no.: X2023980052284

Denomination of invention: An Image Semantic Segmentation Model Based on Feature Enhanced Position Attention Mechanism

Granted publication date: 20221202

License type: Common License

Record date: 20231213