CN110210485A - 基于注意力机制指导特征融合的图像语义分割方法 - Google Patents
基于注意力机制指导特征融合的图像语义分割方法 Download PDFInfo
- Publication number
- CN110210485A CN110210485A CN201910391452.XA CN201910391452A CN110210485A CN 110210485 A CN110210485 A CN 110210485A CN 201910391452 A CN201910391452 A CN 201910391452A CN 110210485 A CN110210485 A CN 110210485A
- Authority
- CN
- China
- Prior art keywords
- semantic
- layer
- feature
- fusion
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
- G06F18/2193—Validation; Performance evaluation; Active pattern learning techniques based on specific statistical tests
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Probability & Statistics with Applications (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种基于注意力机制指导特征融合的图像语义分割方法,包括如下步骤:(10)编码器基础网络构建:使用改进后的ResNet‑101生成一系列由高分辨率低语义到低分辨率高语义变化的特征;(20)解码器特征融合模块构建:采用基于三层卷积操作的金字塔结构模块,提取强一致性约束的高层语义,再向低层阶段特征逐层加权融合,得到初步分割热图;(30)辅助损失函数构建:向解码阶段的每个融合输出追加辅助监督,再与热图上采样后的主监督损失叠加,强化模型的分层训练,得到语义分割图。本发明的基于注意力机制指导特征融合的图像语义分割方法,准确性高、边界轮廓清楚。
Description
技术领域
本发明属于静态图像识别技术领域,特别是一种准确性高、边界轮廓清楚的基于注意力机制指导特征融合的图像语义分割方法。
背景技术
语义分割即像素级别的图像理解,是计算机视觉领域的重要基石之一,有着非常广泛的应用场景。其通过细粒度分割的方式,赋予了机器将视觉画面的不同区域以像素级别剥离开来的能力。语义分割将图像中属于同一目标的像素区域划分到一起,从而扩展其应用领域。
语义分割在进行像素级预测的同时将对象分类和目标定位两个问题结合在一起解决,如何在高层抽象的对象分类和低层精确的目标定位这两个相互约束的问题之间取得平衡是当前语义分割方法所要面对的核心问题。语义分割方法可以大致分为两类。第一种,通过人工提取特征生成图像中各个对象的语义,这种方法往往需要细致的特征工程手段,再输入分类器进行像素级别的分类。第二种是基于深度学习方法,通过构建端到端***将特征提取与分类器合在一起从而直接为每个像素分配一个语义标签。
大多数传统的方法都是依赖于手工提取特征并与分类器相结合的机器学习方法,如 Shotton等人的Boost方法,Johnson等人的随机森林,Soatto等人的支持向量机。这些方法通过整合来自上下文和结构化预测技术的丰富信息取得了实质性的进步。然而,由于手工提取的特征表达能力受限的影响,基于传统机器学习方法的图像语义分割***性能逐渐饱和,无法突破瓶颈,其在分割准确率性能上仍有很大的提升空间。
近些年,深度学习革命让相关领域发生了翻天覆地的变化,包括语义分割在内的许多计算机视觉问题都开始使用深层架构来解决。基于深度卷积神经网络提出的全卷积网络方法,以卷积层代替全连接层构造全卷积网络应用到语义分割上,生成了密集的逐像素标记输出,获得了更高的分割精度。Zhao等人提出金字塔场景解析网络方法,利用金字塔池化模块,通过不同区域的上下文聚合来利用全局上下文信息,利用全局先验有效地产生了高质量的分割结果。Li等人通过先对浅层阶段区域进行分类,并将更深层次的阶段重点放在少数困难区域上,以进行自适应和针对困难样例识别的学习,最终改善了分割性能。Lin等人提出了一种通用的多路径优化网络方法,明确利用下采样过程中的所有可用信息,以实现使用远程残留连接的高分辨率像素级预测。
然而,现有技术存就语义分割效果而言,仍存在两个主要问题:
1、在基于深度全卷积网络的图像语义分割中,使用卷积网络进行特征提取时,由于卷积、最大池化和下采样操作的重复组合引起特征分辨率逐渐降低,导致上下文信息丢失,使得导致分割结果中出现外观复杂目标的局部区域误识别以及多尺度对象中小目标识别错误等语义不一致;
2、卷积网络的成功部分归因于其对图像局部变换的内在不变性,该不变性增强了网络学习分层抽象的能力,这恰恰是对象分类等高层视觉任务所需的。而语义分割在解决分类问题的同时还需要面对分割中定位对象的边界轮廓等空间细节问题,单纯的像素分类任务经常出现分割结果中对象的边界轮廓模糊不清的现象。
发明内容
本发明的目的在于提供一种基于注意力机制指导特征融合的图像语义分割方法,准确性高、边界轮廓清楚。
实现本发明目的的技术方案为:
一种基于注意力机制指导特征融合的图像语义分割方法,包括如下步骤:
(10)编码器基础网络构建:使用改进后的ResNet-101生成一系列由高分辨率低语义到低分辨率高语义变化的特征;
(20)解码器特征融合模块构建:采用基于三层卷积操作的金字塔结构模块,提取强一致性约束的高层语义,再向低层阶段特征逐层加权融合,得到初步分割热图;
(30)辅助损失函数构建:向解码阶段的每个融合输出追加辅助监督,再与热图上采样后的主监督损失叠加,强化模型的分层训练,得到语义分割图。
与现有技术相比,本发明具有以下几点:
1、准确性高:本发明方法通过实现类似金字塔结构的末端高层语义信息提取模块来融合三个不同尺度的特征,并额外引入与输出特征连接的全局池化分支做后续处理,将上下文信息与经过简单卷积操作后的原特征相乘,在不引入太多的计算的前提下能够捕获强语义一致性特征,减少对象局部区域识别出错的几率;
2、边界轮廓清楚:本发明根据相邻特征间高层特征含有较多语义信息而低层特征含有较多空间细节信息这一特点,先连接两个层级特征生成通道注意向量,将其作为权重来选择低层特征中最具判别力的信息,利用高层特征的强语义一致性约束指导和细化其与低层特征的融合,捕获丰富的上下文,最终细化了对象的分割边界,更好地融合层级特征以恢复分割图中对象的边界细节,减少了边界轮廓模糊不清的现象。
附图说明
图1为本发明基于注意力机制指导特征融合的图像语义分割方法的主流程图。
图2为图1中编码器基础网络构建步骤的流程图。
图3为图1中解码器特征融合模块构建步骤的流程图。
图4为末端高层语义信息提取模块示例。
图5为注意力机制指导特征融合模块示例。
具体实施方式
如图1所示,本发明基于注意力机制指导特征融合的图像语义分割方法,包括如下步骤:
(10)编码器基础网络构建:使用改进后的ResNet-101生成一系列由高分辨率低语义到低分辨率高语义变化的特征;
如图2所示,所述(10)编码器基础网络构建步骤包括:
(11)构建块的层数重部署:重新部署res-2到res-5阶段各自拥有的构建块数量,将原始ResNet-101的res-2到res-5的{3,4,23,3}构建块数量调整为{8,8,9,8};
卷积网络编码器目的是生成一系列由高分辨率低语义到低分辨率高语义变化的特征。该基础网络通常使用现有的卷积神经网络模型,如LeNet、AlexNet、VGG、 GoogLeNet、ResNet等。其中ResNet-101使用了大量的残差结构,解决了层数加深的同时梯度消失的问题,其每个残差结构也为正向和反向传播提供了新的路径,因此具有极强的表达能力。本发明使用ResNet-101作为语义分割的编码器基础网络。
在基础网络中,特征从编码器部分的每个阶段尾部提取而来,对于ResNet-101而言,分别为res-2、res-3、res-4和res-5四个阶段,其中每个阶段所含构建块数量分别为{3,4,23,3},每个构建块由三个卷积层组成。可见,ResNet-101的前两个编码阶段只有少量的构建块,这样较浅的卷积层数使其不能提取深层的语义特征,低层特征的语义质量较差。而从res-4开始,经过大量的深层卷积之后,输出的特征拥有较强的语义。res-3 和res-4两个阶段提取出的两个相邻特征之间的语义质量差距极大。为了改善低层特征的语义质量,使其更接近监督,一个直接的方法是重新部署res-2到res-5阶段各自拥有的构建块数量,平衡各个阶段的卷积层数,减少res-3和res-4两个阶段输出的特征之间的语义差异性。重新部署的各阶段构建块数量中,原始ResNet-101的res-2到res-5的{3, 4,23,3}构建块数量调整为{8,8,9,8}。
(12)扩大感受野:将ResNet-101基础网络结构中res-5阶段的传统卷积改为扩张率为2的空洞卷积。
语义分割的输出分辨率应与输入图像一致。基于全卷积网络的语义分割方法虽然能够接受任意分辨率的输入图像,但连续的卷积和池化操作在增大感受野的同时也减小了特征的分辨率。虽然通过上采样可以将缩小的特征图还原到图像的原始尺寸,但这个过程必然造成丢失的信息无法还原,上采样恢复的特征图将失去对图像细节的敏感性。并且,频繁的上采样操作也需要额外的内存和时间。本发明采用最初应用于信号处理领域小波变换分析中的空洞卷积方法克服这一问题。
将原始滤波器上采样2倍,并在滤波器值之间***零值。虽然有效滤波器的尺寸有所增加,但无需考虑中间***的零值,即空洞,因此滤波器参数的数量和每个位置的操作数量保持不变。可以通过改变扩张率参数r以自适应地修改感受野的大小,进而有效地控制卷积网络中特征的分辨率而无需学习额外的参数。
在卷积神经网络中,经过连续3次核尺寸为3×3的标准卷积后,感受野尺寸分别为3×3,5×5和7×7。若连续卷积操作的核尺寸为(2d+1)×(2d+1)且不变,则第n层的感受野尺寸为:
fn=2dn+1 (1)
即标准卷积下感受野的大小呈线性增长。而图2中所示是核尺寸为3×3,扩张率分别为 1,2和4的空洞卷积,其感受野分别为3×3,7×7和15×15。假设核尺寸同样为 (2d+1)×(2d+1)不变的连续空洞卷积操作中第n层的扩张率为rn,则感受野的尺寸为:
fn=fn-1+2drn (2)
其中n≥2且f1=2dr1+1,递推可得:
令扩张率rn=2n-1,则感受野的尺寸变为:
fn=2d(2n-1)+1 (4)
由此,为空洞卷积选取适当的扩张率可以使感受野呈指数型增长。在基础网络结构中的res-5阶段开始使用扩张率2的空洞卷积,因该阶段中res5a和res5c均使用1×1的滤波核,故而实际仅res5b在快速扩大感受野,以提取密集型特征。
(20)解码器特征融合模块构建:采用基于三层卷积操作的金字塔结构模块,提取强一致性约束的高层语义,再向低层阶段特征逐层加权融合,得到初步分割热图;
使用基于解码器模块的结构用于恢复图像分辨率,其间通过整合各个层级的特征以细化最终的预测。解码器架构主要考虑如何恢复因连续的池化和下采样操作而丢失的空间信息。本发明在解码器架构中设计一个末端模块主要用于提取具有最强一致性约束的高层语义信息,并利用注意力机制指导与低层特征的融合,细化输出结果。
如图3所示,所述(20)解码器特征融合模块构建步骤包括:
(21)提取末端高层语义信息:采用基于三层卷积操作的类似金字塔的结构模块,在模块中分别使用3×3,5×5和7×7的卷积,通过融合不同尺度的上下文,得到具有最强类内语义一致性的高层语义;
先前的模型多是在基础网络末端执行一系列尺度的空洞金字塔池化或空洞空间金字塔模块。在当前的语义分割体系中,金字塔结构可以提取不同尺度的特征信息,并在像素级别扩大感受野,但这种结构缺乏全局的上下文先验,无法按通道选择适合的要素,并且可能丢失重要的像素级信息。例如,过于频繁的空洞卷积会引起局部信息丢失而网格池化对特征图的局部一致性也是有害的。PSPNet中提出的金字塔池化模块更是时常会在不同尺度的池化操作中丢失像素位置。
本发明使用如图4所示的高层语义信息提取模块从基础网络末端提取具有类内强语义一致性约束的高层特征。
该模块通过实现类似金字塔这样的结构来融合三个不同尺度的特征信息。为了更好地从不同尺度中提取有用的上下文,分别在模块中使用3×3,5×5和7×7的卷积,由于高层特征分辨率较小,因此不会带来太大的计算负担。该模块通过逐步融合不同尺度的特征信息,可以较为精确地结合相邻尺度的上下文特征。来自res-5的输出特征在经过 1×1的卷积后,与融合特征按通道相乘。该模块还额外引入与输出特征连接的全局池化分支,在后续处理中可以进一步提高语义分割的性能。
受益于类似金字塔的结构,末端高层语义信息提取模块可以融合不同规模的上下文信息,同时为高层特征产生强大的语义信息。与金字塔池化模块在裁剪通道的卷积层之前连接不同尺度的特征不同,末端高层语义信息提取模块将上下文信息与经过简单1×1卷积操作后的原特征相乘,不会引入太多的计算。
(22)融合上下文特征:通过逐层合并相邻阶段的特征从而计算出通道注意向量,以此作为加权选择出低层阶段中判别力强的特征信息,并与相邻高阶段特征相融合,得到分割热图。
在基础网络中,ResNet-101包含五个阶段,分别生成对应尺度的特征,不同阶段拥有不同的识别能力导致多种一致性表现。在低层阶段,网络编码出精细的空间信息,其小感受野和缺乏空间上下文引导的特性使其仅含少量的语义一致性。在高层阶段,因其大感受野而拥有强大的类内语义一致性,但能预测的空间精度十分粗糙。总之,低层阶段生成更多精准的空间预测而高层阶段能给出更多精准的语义预测。由此可以结合两者各自的优势,利用高阶段的语义一致性去指导和低阶段的特征融合从而得到最佳预测。本发明使用如图5所示的注意力机制指导特征融合。
这一设计通过合并相邻阶段的特征来计算一个通道注意向量作为权重。高层特征提供强大的一致性指导,而低层阶段提供的特征中具有不同判别能力的信息。通道注意向量即用于加权,选择出判别力强的特征信息。语义分割架构中,卷积操作最终输出了得分图,从而提供了每个像素所属不同类别的概率。最终得分图中的分数通过对特征图中所有通道求和而最终得分图中的分数通过对特征图中所有通道求和而来:
其中x代表网络输出的特征,ω表示卷积核,D是像素位置的集合。
式(6)中,p是预测概率,N即通道数。如式(5)和式(6)中,最终的预测标签是概率值最高的那个类别。假设某个类别的预测结果是而真实标签是y,于是,引入一个参数α将最高概率值由变为y,如公式(7)所示:
其中,y即是新的预测输出,而α=Sigmoid(ω,x),即图4中的Sigmoid输出。
基于上述分析,可以看出注意力机制的深层含义。式(5)隐含地揭示了不同通道的权重是相等的。但正如前面提到的,不同阶段的特征拥有不同程度的判别能力,从而导致不同的预测细粒度。为了获得具有精细对象边界的预测结果,应尽可能地提取具有判别能力的特征而抑制判别能力弱的特征。因此,将式(7)中的α值应用于特征图x,表示注意力机制的特征选择。有了这个模块,便可以逐层细化,输出最佳的预测结果。
(30)辅助损失函数构建:向解码阶段的每个融合输出追加辅助监督,再与热图上采样后的主监督损失叠加,强化模型的分层训练,得到语义分割图。
本发明对常用语义分割方法的损失函数进行改进,采用一种逐层标签监督策略,通过直接向解码阶段的每个融合输出的特征追加辅助监督,以提升网络模型中每一层分支的学习能力。为了在辅助分支生成语义输出,每个融合特征作为高层阶段在进入下一步之前被强制学习更多的语义,以期望对后面的融合更有帮助。需要注意的是,与编码器阶段的构建块层数重部署一样,逐层标签监督本身并不能提升卷积网络的分类功能,只是在语义分割任务中这一措施可以使卷积网络被迫提升低层阶段特征的语义质量,从而对解码阶段的输出更有帮助。
在训练网络的时候,于res-2、res-3和res-4对应的特征融合模块尾部追加等分辨率标注图的辅助softmax损失。整个模型最终的分类损失相当于最终输出的监督以及三个辅助分支的监督之和。
给定的3个分支及最终输出共T=4个监督中,每个监督对象输出的特征通道数即训练集中的类别个数为N。第t个分支末尾上采样后的特征Ft的空间分辨率为Wt×Ht,其对应特定坐标位置(w,h,n)的值为Ft w,h,n。对最终输出及各个分支的特征图监督加入带权重的softmax交叉熵损失,对应权重为λt,其中λ0=1是最终输出的损失权重,其余为辅助监督的损失。将Ft输入到softmax函数中,计算图像中每个像素归属不同类别的概率softmax函数层的具体公式为:
将预测映射到真实标签Pt w,h,n上,最终用于训练的损失函数如式(9)所示:
逐层标签监督策略使得梯度优化更加平滑,模型也更容易训练。监督下的每一个分支各自拥有强大的学习能力,能够学到各个层级丰富的语义特征。通过融合使得最终得到的分割图精度不依赖于任意单独的分支。
下面以一个具体实施例,验证本发明方法能够提高图像语义分割的准确性。
在PASCAL VOC 2012和Cityscapes两个语义分割数据集上对所提出的若干修正模块进行实验。基础网络是在ImageNet上预训练的ResNet-101。实验硬件平台是Core i7 处理器,3.6GHz主频,48G内存,GPU为NVIDIA GTX 1080,代码运行在TensorFlow 深度学习框架上。
1、消融实验
本节逐步分解所提出的方法,验证各个组建模块的有效性,接下来的实验中,在PASCAL VOC 2012的验证集上评估并比较所得的数据。首先,基于原始的ResNet-101 作为基础网络,并在末端直接上采样输出,如表1所示。
表1随机缩放与翻转增强数据集后的效果
随后,将基础网络扩展到基于FCN编码-解码架构的特征融合,特征融合策略采用裁剪和上采样后按通道简单求和。为了检验这种特征融合的有效性,选择一系列特征子集列出各阶段特征融合的效果,并与各阶段构建块层数重部署后效果做了对比,如表2 所示。
从表2中第2列可以很清晰地看出,融合更多的层级特征的确逐渐提升了分割***的输出质量,然而越往后融合更多的低层特征时,整体性能快速趋于饱和。分水岭在于ResNet-101的res-4阶段,该阶段共有23个构建块共69个卷积层,使得res-2阶段输出的低层特征与res-3阶段输出的低层特征之间存在巨大的语义鸿沟,这种隔阂使得融合res-3阶段输出的低层特征时整体性能提升几乎为零,后期继续融合的效果也并不显著。
表2构建块层数重部署前后融合特征的效果
因此得出结论,差异性巨大的特征之间的融合基本无效。表中第3列显示了四个构建块层数重部署之后的特征融合效果。初始时,res-5输出的特征上采样后的分割质量比之重部署之前略有不及,但几乎可以忽略不计,证实了构建块层数重部署并没有强化卷积网络本身的分类能力。与第2列不同的是,随着往后融合更多的低层特征时,性能稳步提升,虽然提升步伐并不稳定,但也不像第2列中那样快速饱和。重部署机制使得 ResNet-101原先的res2、res-3、res-4和res-5四个阶段的构建块数由{3,4,23,3}变为 {8,8,9,8},使得各阶段输出特征中特征之间的隔阂变化相对缩小,特征融合效果更佳,并于最后优于重部署前的性能,高出0.52个百分点。
表3显示了整个模型各部分组件的有效性。
表3 PASCAL VOC2012验证集上的消融实验对比
末端高层提取出的语义信息含有强大的语义一致性,通过强大的语义约束,逐步向低层阶段融合,得到更加细致的图像语义特征,将模型性能提升了1.1%。注意力机制是整个模型最重要的改进。与按通道简单求和的融合方法不同,该机制生成的通道注意向量选择低层特征中最具判别力的信息,从而很好地细化对象分割的边界,在前述基础上提升了模型2.06%的性能,比之其他组件模块,贡献最大。最终的逐层标签监督细化了融合后的层级特征,使每次融合后的特征进一步靠近监督,对整个模型的性能提升了 0.43%。末端模块除了生成高层语义信息之外,还有一个分支输出全局池化特征。利用全局池化特征进一步约束res-2阶段低层特征融合后的输出,强化了整个模型在处理图像时对目标所有像素的语义一致性。全局池化分支提升了模型0.96%的性能,具备重要的价值。
2、定性分析
表4中展示了几种比较方法的图像语义分割可视化效果。
表4部分图像分割效果可视化
表中第三栏和第五栏,FCN方法显示出对象局部区域误识别现象。第三栏原图中对象是三只牛,其中两只相对而言尺度较小。FCN基础网络显现出目标对象局部区域识别错误的问题,尺度较大的牛的前两只脚与地面视觉效果相近,外观略显复杂,虽然有一定的分割效果但被却误分类为马的脚底。对于两只较小的牛更是不少像素区域分类错误,错误分类的区域也被误识别为马,推测应该是训练集中牛的尺度一般较大,模型无法很好地处理较小的同类目标。本发明显示出几乎完美的效果,很好地应对了FCN丢失图像细节导致地对象局部像素分类出错的问题。第五栏图像是白色栏杆边上的白马,视觉上马背与马腿被栏杆遮挡。由于颜色相近,FCN方法直接没有识别出栏杆以上的马背部分,栏杆遮挡下的马腿也显示出模糊的结果。本发明稍加完美,除了极少部分像素出现判断失误,基本上没有问题。
第一、二和四栏中,FCN方法显示出分割对象边界的模糊性。第一栏输入图像是一只羊,黑白色的底片中羊身上的部分色调光泽与地面背景接近为亮度最高的白色。FCN 分割结果中部分亮色地面背景被误识别为山羊身体的一部分,且误识别区域较为散乱,本发明在注意力机制的基础上得到的分割图中很好地消除了散乱的误识别区,边界十分清晰,对分割的约束效果极佳。第二栏中的机箱加显示器和第四栏中的赛马也是如此。
3、定量评估
本发明在PASCAL VOC 2012增强版和Cityscapes数据集上进行了几种方法的实验结果定量分析与比较。测试结果如表5所示。
表5注意力机制模型在PASCAL VOC 2012测试集上逐类别的准确率
本发明与DeepLab进行比较时,有一半左右的类别准确率高于DeepLab,且部分类别的准确率属于远远高出,最终总的准确率略高于DeepLab。在与前沿的LRR方法进行比较时,本发明在大部分类别上具有较高的准确率,其中自行车,船,瓶子,椅子,盆栽,沙发,电视等类别上比LRR高出3%,有的甚至高出15%到20%,这些类别都是分割难度较大且易混淆的类别,本发明方法由高层语义指导细致地融合了多个低层级的特征,因此在处理有较多语义细节的自行车,椅子,盆栽等类别时具有特征提取上的优势,分割出的目标具有很强的语义一致性,极少出现局部区域误识别等问题。对于奶牛,羊,狗等具有相似外观的类别目标,也能够区分出复杂的语义类别。
最后,也在Cityscapes数据集上评估本发明的方法。在训练过程中,每张图像被裁剪成800×800。通过观察发现对于高分辨率图像来说,大规模的裁剪是很有用的。模型在测试集上的性能表现如表6所示。与PASCAL VOC 2012情况类似,本发明在大部分对象的分割中取得了最好的结果,并在最终的的份上优于其他方法。
表6注意力机制模型Cityscapes测试集上逐类别的准确率
本发明利用卷积网络编码器将不同层级的语义信息嵌入特征图,再使用解码器整合各个特征图细化输出并生成最终的分割结果。
编码器是用于提取图像特征的预训练卷积模型,其最顶层特征具有高度的语义,但由于分辨率不足,在重建分割图的精确细节方面能力不足。而编码器底端的特征具有高分辨率细节却缺乏强大的语义信息。编码器重新部署了各阶段中的构建块数量以平衡特征之间的语义差异性变化,并于res5b块使用扩张率为2的空洞卷积。通过末端高层语义信息提取模块生成强大的语义一致性约束,在解码阶段通过注意力机制自顶向下地逐层融合低分辨率的高层特征和高分辨率的低层特征,利用高层特征强大的语义一致性指导特征融合,以生成高分辨率的语义结果。
Claims (3)
1.一种基于注意力机制指导特征融合的图像语义分割方法,其特征在于,包括如下步骤:
(10)编码器基础网络构建:使用改进后的ResNet-101生成一系列由高分辨率低语义到低分辨率高语义变化的特征;
(20)解码器特征融合模块构建:采用基于三层卷积操作的金字塔结构模块,提取强一致性约束的高层语义,再向低层阶段特征逐层加权融合,得到初步分割热图;
(30)辅助损失函数构建:向解码阶段的每个融合输出追加辅助监督,再与热图上采样后的主监督损失叠加,强化模型的分层训练,得到语义分割图。
2.根据权利要求1所述的图像语义分割方法,其特征在于,
所述(10)编码器基础网络构建步骤包括:
(11)构建块层数重部署:重新部署res-2到res-5阶段各自拥有的构建块数量,将原始ResNet-101的res-2到res-5的{3,4,23,3}构建块数量调整为{8,8,9,8};
(12)扩大感受野:将ResNet-101基础网络结构中res-5阶段的传统卷积改为扩张率为2的空洞卷积。
3.根据权利要求1所述的图像语义分割方法,其特征在于,
所述(20)解码器特征融合模块构建步骤包括:
(21)提取末端高层语义信息:采用基于三层卷积操作的类似金字塔的结构模块,在模块中分别使用3×3,5×5和7×7的卷积,通过融合不同尺度的上下文,得到具有最强类内语义一致性的高层语义;
(22)融合上下文特征:通过逐层合并相邻阶段的特征从而计算出通道注意向量,以此作为加权选择出低层阶段中判别力强的特征信息,并与相邻高阶段特征相融合,得到初步分割热图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910391452.XA CN110210485A (zh) | 2019-05-13 | 2019-05-13 | 基于注意力机制指导特征融合的图像语义分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910391452.XA CN110210485A (zh) | 2019-05-13 | 2019-05-13 | 基于注意力机制指导特征融合的图像语义分割方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110210485A true CN110210485A (zh) | 2019-09-06 |
Family
ID=67785851
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910391452.XA Pending CN110210485A (zh) | 2019-05-13 | 2019-05-13 | 基于注意力机制指导特征融合的图像语义分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110210485A (zh) |
Cited By (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110675405A (zh) * | 2019-09-12 | 2020-01-10 | 电子科技大学 | 基于注意力机制的one-shot图像分割方法 |
CN110689061A (zh) * | 2019-09-19 | 2020-01-14 | 深动科技(北京)有限公司 | 一种基于对齐特征金字塔网络的图像处理方法、装置及*** |
CN110705457A (zh) * | 2019-09-29 | 2020-01-17 | 核工业北京地质研究院 | 一种遥感影像建筑物变化检测方法 |
CN111104962A (zh) * | 2019-11-05 | 2020-05-05 | 北京航空航天大学青岛研究院 | 图像的语义分割方法、装置、电子设备及可读存储介质 |
CN111158068A (zh) * | 2019-12-31 | 2020-05-15 | 哈尔滨工业大学(深圳) | 一种基于简单卷积循环神经网络的短临预报方法及*** |
CN111222580A (zh) * | 2020-01-13 | 2020-06-02 | 西南科技大学 | 一种高精度的裂缝检测方法 |
CN111292330A (zh) * | 2020-02-07 | 2020-06-16 | 北京工业大学 | 基于编解码器的图像语义分割方法及装置 |
CN111340046A (zh) * | 2020-02-18 | 2020-06-26 | 上海理工大学 | 基于特征金字塔网络和通道注意力的视觉显著性检测方法 |
CN111488884A (zh) * | 2020-04-28 | 2020-08-04 | 东南大学 | 低计算量及高度特征融合的实时语义分割方法 |
CN111508263A (zh) * | 2020-04-03 | 2020-08-07 | 西安电子科技大学 | 停车场智能引导机器人及智能引导方法 |
CN111598174A (zh) * | 2020-05-19 | 2020-08-28 | 中国科学院空天信息创新研究院 | 图像地物要素分类模型的训练方法、图像分析方法及*** |
CN111626300A (zh) * | 2020-05-07 | 2020-09-04 | 南京邮电大学 | 基于上下文感知的图像语义分割模型及建模方法 |
CN111626196A (zh) * | 2020-05-27 | 2020-09-04 | 成都颜禾曦科技有限公司 | 基于知识图谱的典型牛科动物身体结构智能分析方法 |
CN111767922A (zh) * | 2020-05-22 | 2020-10-13 | 上海大学 | 一种基于卷积神经网络的图像语义分割方法及网络 |
CN111832453A (zh) * | 2020-06-30 | 2020-10-27 | 杭州电子科技大学 | 基于双路深度神经网络的无人驾驶场景实时语义分割方法 |
CN111898709A (zh) * | 2020-09-30 | 2020-11-06 | 中国人民解放军国防科技大学 | 一种图像分类方法及设备 |
CN111915627A (zh) * | 2020-08-20 | 2020-11-10 | 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) | 语义分割方法、网络、设备及计算机存储介质 |
CN111932553A (zh) * | 2020-07-27 | 2020-11-13 | 北京航空航天大学 | 基于区域描述自注意力机制的遥感图像语义分割方法 |
CN112052783A (zh) * | 2020-09-02 | 2020-12-08 | 中南大学 | 一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法 |
CN112101363A (zh) * | 2020-09-02 | 2020-12-18 | 河海大学 | 基于空洞残差和注意力机制的全卷积语义分割***及方法 |
CN112183448A (zh) * | 2020-10-15 | 2021-01-05 | 中国农业大学 | 一种基于三级分类和多尺度fcn的脱荚大豆图像分割方法 |
CN112215235A (zh) * | 2020-10-16 | 2021-01-12 | 深圳市华付信息技术有限公司 | 一种针对具有大字符间距与局部遮挡的场景文本检测方法 |
CN112241762A (zh) * | 2020-10-19 | 2021-01-19 | 吉林大学 | 一种用于病虫害图像分类的细粒度识别方法 |
CN112906829A (zh) * | 2021-04-13 | 2021-06-04 | 成都四方伟业软件股份有限公司 | 一种基于Mnist数据集的数字识别模型构建方法及装置 |
CN113111848A (zh) * | 2021-04-29 | 2021-07-13 | 东南大学 | 一种基于多尺度特征的人体图像解析方法 |
CN113255675A (zh) * | 2021-04-13 | 2021-08-13 | 西安邮电大学 | 基于扩张卷积和残差路径的图像语义分割网络结构及方法 |
WO2021169049A1 (zh) * | 2020-02-24 | 2021-09-02 | 大连理工大学 | 一种真实场景下玻璃检测的方法 |
CN113393521A (zh) * | 2021-05-19 | 2021-09-14 | 中国科学院声学研究所南海研究站 | 一种基于双语义注意力机制的高精度火焰定位方法及*** |
CN113436127A (zh) * | 2021-03-25 | 2021-09-24 | 上海志御软件信息有限公司 | 基于深度学习的自动化肝脏分段模型的构建方法、装置、计算机设备和存储介质 |
CN113657388A (zh) * | 2021-07-09 | 2021-11-16 | 北京科技大学 | 一种融合图像超分辨率重建的图像语义分割方法 |
CN113744279A (zh) * | 2021-06-09 | 2021-12-03 | 东北大学 | 一种基于FAF-Net网络的图像分割方法 |
CN113837965A (zh) * | 2021-09-26 | 2021-12-24 | 北京百度网讯科技有限公司 | 图像清晰度识别方法、装置、电子设备及存储介质 |
CN114332723A (zh) * | 2021-12-31 | 2022-04-12 | 北京工业大学 | 基于语义指导的视频行为检测方法 |
CN114626666A (zh) * | 2021-12-11 | 2022-06-14 | 国网湖北省电力有限公司经济技术研究院 | 一种基于全时空监测的工程现场进度识别*** |
CN116091363A (zh) * | 2023-04-03 | 2023-05-09 | 南京信息工程大学 | 一种书法汉字图像修复方法及*** |
CN117392392A (zh) * | 2023-12-13 | 2024-01-12 | 河南科技学院 | 一种割胶线识别与生成方法 |
CN113111848B (zh) * | 2021-04-29 | 2024-07-02 | 东南大学 | 一种基于多尺度特征的人体图像解析方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109190752A (zh) * | 2018-07-27 | 2019-01-11 | 国家新闻出版广电总局广播科学研究院 | 基于深度学习的全局特征和局部特征的图像语义分割方法 |
CN109284670A (zh) * | 2018-08-01 | 2019-01-29 | 清华大学 | 一种基于多尺度注意力机制的行人检测方法及装置 |
CN109461157A (zh) * | 2018-10-19 | 2019-03-12 | 苏州大学 | 基于多级特征融合及高斯条件随机场的图像语义分割方法 |
CN109635694A (zh) * | 2018-12-03 | 2019-04-16 | 广东工业大学 | 一种行人检测方法、装置、设备及计算机可读存储介质 |
-
2019
- 2019-05-13 CN CN201910391452.XA patent/CN110210485A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109190752A (zh) * | 2018-07-27 | 2019-01-11 | 国家新闻出版广电总局广播科学研究院 | 基于深度学习的全局特征和局部特征的图像语义分割方法 |
CN109284670A (zh) * | 2018-08-01 | 2019-01-29 | 清华大学 | 一种基于多尺度注意力机制的行人检测方法及装置 |
CN109461157A (zh) * | 2018-10-19 | 2019-03-12 | 苏州大学 | 基于多级特征融合及高斯条件随机场的图像语义分割方法 |
CN109635694A (zh) * | 2018-12-03 | 2019-04-16 | 广东工业大学 | 一种行人检测方法、装置、设备及计算机可读存储介质 |
Non-Patent Citations (4)
Title |
---|
CHANGQIAN YU ET AL: "Learning a Discriminative Feature Network for Semantic Segmentation", 《ARXIV:1804.09337V1》 * |
HANCHAO LI ET AL: "Pyramid Attention Network for Semantic Segmentation", 《ARXIV:1805.10180V3》 * |
HENGSHUANG ZHAO ET AL: "Pyramid Scene Parsing Network", 《ARXIV:1612.01105V2》 * |
宁庆群: "快速鲁棒的图像语义分割算法研究", 《中国博士学位论文全文数据库信息科技辑》 * |
Cited By (55)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110675405A (zh) * | 2019-09-12 | 2020-01-10 | 电子科技大学 | 基于注意力机制的one-shot图像分割方法 |
CN110675405B (zh) * | 2019-09-12 | 2022-06-03 | 电子科技大学 | 基于注意力机制的one-shot图像分割方法 |
CN110689061A (zh) * | 2019-09-19 | 2020-01-14 | 深动科技(北京)有限公司 | 一种基于对齐特征金字塔网络的图像处理方法、装置及*** |
CN110689061B (zh) * | 2019-09-19 | 2023-04-28 | 小米汽车科技有限公司 | 一种基于对齐特征金字塔网络的图像处理方法、装置及*** |
CN110705457A (zh) * | 2019-09-29 | 2020-01-17 | 核工业北京地质研究院 | 一种遥感影像建筑物变化检测方法 |
CN110705457B (zh) * | 2019-09-29 | 2024-01-19 | 核工业北京地质研究院 | 一种遥感影像建筑物变化检测方法 |
CN111104962A (zh) * | 2019-11-05 | 2020-05-05 | 北京航空航天大学青岛研究院 | 图像的语义分割方法、装置、电子设备及可读存储介质 |
CN111104962B (zh) * | 2019-11-05 | 2023-04-18 | 北京航空航天大学青岛研究院 | 图像的语义分割方法、装置、电子设备及可读存储介质 |
CN111158068A (zh) * | 2019-12-31 | 2020-05-15 | 哈尔滨工业大学(深圳) | 一种基于简单卷积循环神经网络的短临预报方法及*** |
CN111222580A (zh) * | 2020-01-13 | 2020-06-02 | 西南科技大学 | 一种高精度的裂缝检测方法 |
CN111292330A (zh) * | 2020-02-07 | 2020-06-16 | 北京工业大学 | 基于编解码器的图像语义分割方法及装置 |
CN111340046A (zh) * | 2020-02-18 | 2020-06-26 | 上海理工大学 | 基于特征金字塔网络和通道注意力的视觉显著性检测方法 |
WO2021169049A1 (zh) * | 2020-02-24 | 2021-09-02 | 大连理工大学 | 一种真实场景下玻璃检测的方法 |
US11361534B2 (en) | 2020-02-24 | 2022-06-14 | Dalian University Of Technology | Method for glass detection in real scenes |
CN111508263A (zh) * | 2020-04-03 | 2020-08-07 | 西安电子科技大学 | 停车场智能引导机器人及智能引导方法 |
CN111488884A (zh) * | 2020-04-28 | 2020-08-04 | 东南大学 | 低计算量及高度特征融合的实时语义分割方法 |
CN111626300A (zh) * | 2020-05-07 | 2020-09-04 | 南京邮电大学 | 基于上下文感知的图像语义分割模型及建模方法 |
CN111626300B (zh) * | 2020-05-07 | 2022-08-26 | 南京邮电大学 | 基于上下文感知的图像语义分割模型的图像分割方法及建模方法 |
CN111598174A (zh) * | 2020-05-19 | 2020-08-28 | 中国科学院空天信息创新研究院 | 图像地物要素分类模型的训练方法、图像分析方法及*** |
CN111767922B (zh) * | 2020-05-22 | 2023-06-13 | 上海大学 | 一种基于卷积神经网络的图像语义分割方法及网络 |
CN111767922A (zh) * | 2020-05-22 | 2020-10-13 | 上海大学 | 一种基于卷积神经网络的图像语义分割方法及网络 |
CN111626196A (zh) * | 2020-05-27 | 2020-09-04 | 成都颜禾曦科技有限公司 | 基于知识图谱的典型牛科动物身体结构智能分析方法 |
CN111832453A (zh) * | 2020-06-30 | 2020-10-27 | 杭州电子科技大学 | 基于双路深度神经网络的无人驾驶场景实时语义分割方法 |
CN111832453B (zh) * | 2020-06-30 | 2023-10-27 | 杭州电子科技大学 | 基于双路深度神经网络的无人驾驶场景实时语义分割方法 |
CN111932553A (zh) * | 2020-07-27 | 2020-11-13 | 北京航空航天大学 | 基于区域描述自注意力机制的遥感图像语义分割方法 |
CN111915627B (zh) * | 2020-08-20 | 2021-04-16 | 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) | 语义分割方法、网络、设备及计算机存储介质 |
CN111915627A (zh) * | 2020-08-20 | 2020-11-10 | 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) | 语义分割方法、网络、设备及计算机存储介质 |
CN112052783A (zh) * | 2020-09-02 | 2020-12-08 | 中南大学 | 一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法 |
CN112101363A (zh) * | 2020-09-02 | 2020-12-18 | 河海大学 | 基于空洞残差和注意力机制的全卷积语义分割***及方法 |
CN112052783B (zh) * | 2020-09-02 | 2024-04-09 | 中南大学 | 一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法 |
CN111898709A (zh) * | 2020-09-30 | 2020-11-06 | 中国人民解放军国防科技大学 | 一种图像分类方法及设备 |
CN112183448A (zh) * | 2020-10-15 | 2021-01-05 | 中国农业大学 | 一种基于三级分类和多尺度fcn的脱荚大豆图像分割方法 |
CN112183448B (zh) * | 2020-10-15 | 2023-05-12 | 中国农业大学 | 一种基于三级分类和多尺度fcn的脱荚大豆图像分割方法 |
CN112215235A (zh) * | 2020-10-16 | 2021-01-12 | 深圳市华付信息技术有限公司 | 一种针对具有大字符间距与局部遮挡的场景文本检测方法 |
CN112215235B (zh) * | 2020-10-16 | 2024-04-26 | 深圳华付技术股份有限公司 | 一种针对具有大字符间距与局部遮挡的场景文本检测方法 |
CN112241762A (zh) * | 2020-10-19 | 2021-01-19 | 吉林大学 | 一种用于病虫害图像分类的细粒度识别方法 |
CN113436127A (zh) * | 2021-03-25 | 2021-09-24 | 上海志御软件信息有限公司 | 基于深度学习的自动化肝脏分段模型的构建方法、装置、计算机设备和存储介质 |
CN113255675B (zh) * | 2021-04-13 | 2023-10-10 | 西安邮电大学 | 基于扩张卷积和残差路径的图像语义分割网络结构及方法 |
CN113255675A (zh) * | 2021-04-13 | 2021-08-13 | 西安邮电大学 | 基于扩张卷积和残差路径的图像语义分割网络结构及方法 |
CN112906829A (zh) * | 2021-04-13 | 2021-06-04 | 成都四方伟业软件股份有限公司 | 一种基于Mnist数据集的数字识别模型构建方法及装置 |
CN113111848B (zh) * | 2021-04-29 | 2024-07-02 | 东南大学 | 一种基于多尺度特征的人体图像解析方法 |
CN113111848A (zh) * | 2021-04-29 | 2021-07-13 | 东南大学 | 一种基于多尺度特征的人体图像解析方法 |
CN113393521A (zh) * | 2021-05-19 | 2021-09-14 | 中国科学院声学研究所南海研究站 | 一种基于双语义注意力机制的高精度火焰定位方法及*** |
CN113393521B (zh) * | 2021-05-19 | 2023-05-05 | 中国科学院声学研究所南海研究站 | 一种基于双语义注意力机制的高精度火焰定位方法及*** |
CN113744279A (zh) * | 2021-06-09 | 2021-12-03 | 东北大学 | 一种基于FAF-Net网络的图像分割方法 |
CN113744279B (zh) * | 2021-06-09 | 2023-11-14 | 东北大学 | 一种基于FAF-Net网络的图像分割方法 |
CN113657388A (zh) * | 2021-07-09 | 2021-11-16 | 北京科技大学 | 一种融合图像超分辨率重建的图像语义分割方法 |
CN113657388B (zh) * | 2021-07-09 | 2023-10-31 | 北京科技大学 | 一种融合图像超分辨率重建的图像语义分割方法 |
CN113837965A (zh) * | 2021-09-26 | 2021-12-24 | 北京百度网讯科技有限公司 | 图像清晰度识别方法、装置、电子设备及存储介质 |
CN114626666A (zh) * | 2021-12-11 | 2022-06-14 | 国网湖北省电力有限公司经济技术研究院 | 一种基于全时空监测的工程现场进度识别*** |
CN114332723B (zh) * | 2021-12-31 | 2024-03-22 | 北京工业大学 | 基于语义指导的视频行为检测方法 |
CN114332723A (zh) * | 2021-12-31 | 2022-04-12 | 北京工业大学 | 基于语义指导的视频行为检测方法 |
CN116091363A (zh) * | 2023-04-03 | 2023-05-09 | 南京信息工程大学 | 一种书法汉字图像修复方法及*** |
CN117392392A (zh) * | 2023-12-13 | 2024-01-12 | 河南科技学院 | 一种割胶线识别与生成方法 |
CN117392392B (zh) * | 2023-12-13 | 2024-02-13 | 河南科技学院 | 一种割胶线识别与生成方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110210485A (zh) | 基于注意力机制指导特征融合的图像语义分割方法 | |
CN111047551B (zh) | 一种基于U-net改进算法的遥感影像变化检测方法及*** | |
CN110110751A (zh) | 一种基于注意力机制的金字塔网络的中草药识别方法 | |
CN110197182A (zh) | 基于上下文信息和注意力机制的遥感影像语义分割方法 | |
CN108509978A (zh) | 基于cnn的多级特征融合的多类目标检测方法及模型 | |
CN108399380A (zh) | 一种基于三维卷积和Faster RCNN的视频动作检测方法 | |
CN110287960A (zh) | 自然场景图像中曲线文字的检测识别方法 | |
CN110689599B (zh) | 基于非局部增强的生成对抗网络的3d视觉显著性预测方法 | |
CN109905624A (zh) | 一种视频帧插值方法、装置及设备 | |
CN107808132A (zh) | 一种融合主题模型的场景图像分类方法 | |
CN109829537B (zh) | 基于深度学习gan网络童装服装的风格转移方法及设备 | |
CN113240691A (zh) | 一种基于u型网络的医学图像分割方法 | |
CN110490082A (zh) | 一种有效融合神经网络特征的道路场景语义分割方法 | |
CN106778768A (zh) | 基于多特征融合的图像场景分类方法 | |
CN114724222B (zh) | 一种基于多模态的ai数字人情感分析方法 | |
CN110363770A (zh) | 一种边缘引导式红外语义分割模型的训练方法及装置 | |
CN114529940A (zh) | 基于姿态引导的人体图像生成方法 | |
CN112270366B (zh) | 基于自适应多特征融合的微小目标检测方法 | |
CN112215847A (zh) | 基于对抗学习多尺度特征的重叠染色体自动分割方法 | |
CN112528961A (zh) | 一种基于Jetson Nano的视频分析方法 | |
CN109766918A (zh) | 基于多层次上下文信息融合的显著性物体检测方法 | |
CN114332094A (zh) | 基于轻量级多尺度信息融合网络的语义分割方法及装置 | |
CN113255678A (zh) | 一种基于语义分割的道路裂缝自动识别方法 | |
Al-Amaren et al. | RHN: A residual holistic neural network for edge detection | |
CN113379707A (zh) | 一种基于动态滤波解耦卷积网络的rgb-d显著性检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190906 |