CN110706242A - 一种基于深度残差网络的对象级边缘检测方法 - Google Patents

一种基于深度残差网络的对象级边缘检测方法 Download PDF

Info

Publication number
CN110706242A
CN110706242A CN201910790090.1A CN201910790090A CN110706242A CN 110706242 A CN110706242 A CN 110706242A CN 201910790090 A CN201910790090 A CN 201910790090A CN 110706242 A CN110706242 A CN 110706242A
Authority
CN
China
Prior art keywords
residual error
feature
network
edge detection
error network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910790090.1A
Other languages
English (en)
Other versions
CN110706242B (zh
Inventor
朱威
王图强
陈吟凯
陈悦峰
何德峰
郑雅羽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN201910790090.1A priority Critical patent/CN110706242B/zh
Publication of CN110706242A publication Critical patent/CN110706242A/zh
Application granted granted Critical
Publication of CN110706242B publication Critical patent/CN110706242B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • G06V10/464Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于深度残差网络的对象级边缘检测方法,包括以下四部分:(1)搭建神经网络:包括以深度残差网络为基础网络结构,将其中的卷积残差结构替换为混合空洞卷积残差块,并增加多尺度特征增强模块,以及金字塔多尺度特征融合模块;(2)通过数据集增强和超参数设置对神经网络进行训练优化;(3)完成对神经网络的训练;(4)使用训练好的神经网络对通用图像进行检测,输出对象级的边缘检测图像。与传统边缘检测算子和现有神经网络边缘检测方法相比,本发明具有更好的边缘检效果,检测结果更接近真实值、噪声更少。

Description

一种基于深度残差网络的对象级边缘检测方法
技术领域
本发明属于智能视觉处理领域,具体涉及一种基于深度残差网络的对象级边缘检测方法。
背景技术
面向对象的边缘检测旨在从自然图像中提出视觉上显著的边缘和对象边界,是智能视觉处理领域中的基本问题。目前大部分检测方法依然停留在传统的边缘检测算子阶段,这些算子主要利用图像的颜色梯度、亮度及纹理等低级视觉特征实现边缘检测。由于实时性高,传统检测方法在许多领域仍得以广泛应用,但它们的局限性也很明显,难以通过低级特征来检测语义层面的边缘,很难直接应用于自动驾驶、三维重建、智能图像压缩压缩等需要对象级别边缘检测的领域。因此,对象级别的边缘检测已经成为必然发展趋势。
为了检测图像中对象级的边缘,已有研究人员先通过对梯度、纹理等低级特征设计精细的人工特征,再使用复杂的学习范式对边缘和非边缘像素进行分类。Konishi等人第一次使用数据驱动方法来实现边缘检测(见KONISHI S, YUILLE A L, COUGHLAN J M, etal. Statistical Edge Detection: Learning and Evaluating Edge Cues[J]. IEEETransactions on Pattern Analysis and Machine Intelligence, 2003, 25(1):57-74)。Dollár等人尝试使用复杂的策略来捕获全局特征,采用随机决策森林来表示图像块中的结构,通过输入颜色和梯度特征,输出高质量的边缘(见DOLLÁR, PIOTR, ZITNICK C L.Fast Edge Detection Using Structured Forests[J]. IEEE Transactions on PatternAnalysis & Machine Intelligence, 2014, 37(8):1558-1570)。但是上述基于精细人工特征实现的边缘检测,普适性较差,并且这些特征在对象级别上的边缘检测能力比较有限。
申请号为201810797828.2的专利公开了一种基于区域生长与蚁群优化算法相结合的边缘检测方法。该方法首先采用区域生长方法,对图像进行处理,提取感兴趣区域;然后对提取的感兴趣区域,采用蚁群优化方法获得信息素矩阵;最后使用信息素矩阵,计算阈值,确定图像边缘、分割图像。该方法虽然检测效率较高,但边缘检测效果上存在边界不清晰、线条不连续和噪声较多等问题。
随着深度学习理论的快速发展和计算机处理能力的大幅提升,深度卷积神经网络在人工智能等领域取得了一系列巨大的成功。自2012年AlexNet的横空出世,涌现了许多经典的卷积神经网络模型,如VGGNet、GoogleNet等,在图像识别、目标检测等多个领域获得了很好的性能。近几年深度残差网络ResNet(见He Kaiming, Zhang Xiangyu, RenShaoqing, et al. Deep Residual Learning for Image Recognition,IEEE Conferenceon Computer Vision and Pattern Recognition, 2016: 770-778)的出现,解决了卷积神经网络层数过深导致难以训练的问题,进一步推动了卷积神经网络的实际应用。
目前基于卷积神经网络的边缘检测方法主要有:1) 基于局部图像块的边缘检测,代表性方法有N4-Field、DeepEdge、DeepContour、HFL;2) 基于全局的图像端到端的边缘检测,代表性方法有HED、RCF。申请号为201710666537.5的专利公开了一种基于深度融合修正网络的精细边缘检测方法。该方法通过卷积神经网络的前向传播部分网络,获取输入图像的多尺度特征;利用卷积神经网络的反向修正部分网络,采取逐渐增大特征分辨率的方法获取和输入图像具有相同分辨率的最终图像特征;将最终图像特征的特征通道降维为单通道,使用拟合函数生成边缘检测结果。虽然该方法能够较好地保留细节特征,边缘检测效果更好,但图像检测的结果噪声较多,不利于后续处理。申请号为201810836926.2的专利公开了一种基于神经网络的图像边缘检测方法。该方法使用VGG-16卷积神经网络提取图像的特征;搭建特征融合网络;对特征融合网络进行训练;将特征提取网络和特征融合网络进行特征融合,输出图像的边缘检测结果。虽然该方法有效提高了图像特征的利用率,但图像检测的准确率较低,分辨率不高,并且对象级的边缘检测能力仍然有限。
发明内容
为了解决现有对象级边缘检测方法存在边缘分辨率低、噪声多等问题,本发明提供了一种基于多尺度残差网络的对象级边缘检测方法,具体包括以下步骤。
(1)神经网络的搭建。
(1-1)以深度残差网络为基础架构。
本发明使用深度残差网络作为基础网络架构,该网络参数少、训练快,而且可以大幅提升边缘检测的准确率。
(1-2)将深度残差网络的卷积残差结构以混合空洞卷积残差块替换。
空洞卷积是一种在特征图上数据采样的方式,通过在普通卷积核的每个像素之间***零像素值,以增加网络的扩张系数,增大感受野。式(1)给出了空洞卷积核尺寸与扩张系数的关系,
Kdsize=(γ-1)×(Ksize-1)+ Ksize (1)
Kdsize表示空洞卷积核尺寸,γ表示空洞卷积的扩张系数,其取值范围为[1,+∞),Ksize表示普通卷积核尺寸,当γ=1时即为普通卷积核;若普通卷积核尺寸Ksize为3×3,扩张系数γ为2,则空洞卷积核尺寸Kdsize为5×5。
虽然空洞卷积能在不增加算法复杂度的情况下,有效地提高网络的感受野范围,但由于空洞卷积只是在普通卷积核中引入零像素值,而零像素值并不参与卷积运算,因此若采用多个单一扩张系数的空洞卷积容易导致空间信息不连续,即网格化现象,每层的感受野都是有空隙的,而过大的扩张系数还容易导致边缘小区域信息的丢失。因此,本发明设计了一种混合空洞卷积残差块,混合空洞卷积残差块为三层残差结构,三层残差结构的扩张系数γ分别设置为1、2、3,使得感受野增大的同时保证感受野能无盲区地覆盖整个区域。
(1-3)在深度残差网络中增加多尺度特征增强模块。
由于图像的边缘信息往往是不同尺度的,单一尺度的特征信息无法准确检测图像的边缘信息。不同尺度的卷积核能够提取到图像的多种特征,大尺度卷积核注重概貌特征,小尺度卷积核注重细节特征。因此,本发明设计了一种在三个不同尺度上进行特征信息增强的网络结构,该结构由特征提取层和特征融合层连接而成。
(1-3-1)特征提取层采用1×1、3×3、5×5三种不同尺度的卷积核同时对图像进行特征提取,分别得到16、32和64通道的特征图像;然后在卷积层之后设置激活层,选用relu为激活函数,由于残差网络层数较多,而该激活函数减少了参数的相互依存的关系,缓解了过拟合问题的发生;由于池化运算不可逆,不利于图像高频信息的恢复,从而导致对象边缘的模糊和不连续,因此该模块不进行池化运算。
(1-3-2)特征融合层采用级联的方式将上述得到的不同尺度信息的特征信息进行合并重组,构成新的特征图,并采用1×1的卷积核对融合结果进行卷积,使得输出特征图的通道数和输入的原始特征图一致,输出特征图作为下一单元,即金字塔多尺度特征融合模块的输入。
(1-4)在深度残差网络中增加结合顶层语义特征的金字塔多尺度特征融合模块。
卷积网络中低层特征分辨率高,包含更多边缘位置的细节信息,但是由于经过的卷积较少,其语义性较低,且噪声较多。相反,卷积网络中高层特征具有更强的语义信息,感受野丰富,利用高层特征的语义信息能更好的检测到边缘的语义信息,但是分辨率较低,对位置细节的感知能力较差。因此,两者的高效融合,是改善边缘检测模型的一大关键。
为了高效融合不同尺度下的特征信息,本发明设计了一种金字塔多尺度特征融合结构,具体步骤如下:
(1-4-1)对深度残差网络中间输出的低层特征图A,采用大小为1×1的卷积核进行卷积,得到特征图B;
(1-4-2)使用双线性插值的上采样方法对步骤(1-2)多尺度特征增强结构输出的高层特征图C进行上采样,得到与低层特征图A相同尺度的特征图D;
(1-4-3)在每次横向连接时,都加入深度残差网络中的顶层语义特征E,将其作为全局语义信息的引导,在其融合过程中,对其先进行最大池化运算,一方面对特征信息进行降维,避免过拟合发生,另一方面进行特征压缩,提取主要特征,再通过双线性插值得到与低层特征图A相同尺度的特征图F;
(1-4-4)通过级联方式对步骤(1-4-1)、(1-4-2)、(1-4-3)中得到的三路特征图B、D、F进行融合,并采用3×3的卷积核对融合结果进行卷积运算,消除上采样所带来的混叠效应。
(2)对神经网络进行训练优化。
本发明对第一部分所搭建的神经网络进行训练优化,包括数据集增强和训练过程中的超参数设置两部分。
(2-1)数据集增强。
为了在一定程度上避免过拟合,本发明对数据集进行数据增强:
(2-1-1)旋转:将图像以16个不同角度进行旋转[0°, 22.5°, 45°,…315°, 337.5°];
(2-1-2)缩放:将图像按照[1.5,1.0,0.5]倍数进行放大及缩小;
(2-1-3)翻转:将图像按水平和垂直方向进行翻转;
(2-1-4)裁剪:将图像按水平和垂直方向的对称轴裁剪成原图像尺寸的一半;
(2-1-5)将上述处理得到的图像加入训练集中。
(2-2)训练过程中的超参数设置。
在训练过程中,学习率是深度神经网络中的重要超参,其决定着目标函数能收敛到局部最小值以及合适收敛到最小值。当学习率设置的过小时,收敛过程将变得十分缓慢。而当学习率设置的过大时,梯度可能会在最小值附近来回震荡,甚至可能无法收敛,固定学习率时,当到达收敛状态时,会在最优值附近一个较大的区域内摆动;而当随着迭代轮次的增加而减小学习率,会使得在收敛时,在最优值附近一个更小的区域内摆动。因此,选择一个合适的学习率,对于模型的训练将至关重要。
本发明的神经网络学习率初始设置为0.00005,使模型能快速收敛;从第8个周期开始(包括第8个周期),使目标函数能稳定收敛至局部最小值,因此每隔4个周期,将学习率除以10,训练总计16个周期。
(3)完成对神经网络的训练。
经过步骤(1)、步骤(2),完成对神经网络的训练。
(4)使用训练好的神经网络对通用图像进行检测:
使用步骤(3)中训练好的神经网络对通用图像进行检测,输出对象级边缘的灰度图像。
与现有技术相比,本发明具有以下有益效果:
本发明的技术构思为:在深度残差网络的基础上,设计了一种混合空洞卷积残差块,在不损失分辨率的情况下增大网络感受野;设计了一个多尺度特征增强结构,让每个空间位置能在不同尺度空间查看局部环境,进一步扩大整个网络的信息接收域;设计了一种金字塔多尺度特征融合结构,以融合不同尺度下的特征信息,提升边缘检测效果;在训练过程中,使用变化的学习率,使得模型训练能快速收敛,又可以稳定收敛至局部最小值;使用训练得到的模型参数,对输入的通用图像进行对象级边缘检测,取得较好的检测效果。
与现有技术相比,本方法具有以下有益效果:对具有复杂纹理信息,各种颜色背景的图像也能检测出精细的对象级边缘信息,检测结果更接近真实值,并且分辨率更高,噪声更少,能够满足实时性检测的要求。
附图说明
图1 为本发明的内容框图;
图2 为混合空洞卷积残差模块示意图,Relu为激活函数;
图3 为多尺度特征增强模块示意图;
图4 为金字塔多尺度特征融合模块示意图,虚线部分为局部放大示意图;
图5 为本发明总体网络结构图;
图6 为本发明方法与其他方法的检测结果对比图。
具体实施方式
下面结合实施例和附图来详细描述本发明,但本发明并不仅限于此。
本发明方法选用运行的计算机硬件配置为Intel(R) Xeon(R) E5-2678 CPU @2.50GHz,GPU为GeForce GTX TITAN Xp,显存为12GB,内存为16GB;软件环境为64位的Ubuntu 16.04***、PyTorch0.4.1和Matlab R2017b。边缘检测模型的检测指标主要包括:固定轮廓阈值ODS(Optimal Dataset Scale, ODS)、单图像最佳阈值OIS(Optimal ImageScale, OIS)、平均精度AP(Average Precision, AP)。
如图1所示,基于深度卷积神经网络的对象级边缘检测方法,包括以下四个部分:
(1)神经网络的搭建,包括四个子步骤:
(1-1)以深度残差网络为基础网络结构;
(1-2)将深度残差网络的卷积残差结构以混合空洞卷积残差块替换;
(1-3)在深度残差网络中增加多尺度特征增强模块;
(1-4)在深度残差网络中增加结合顶层语义特征的金字塔多尺度特征融合模块;
(2)对神经网络进行训练优化;
(3)完成对神经网络的训练;
(4)使用训练好的神经网络对通用图像进行检测。
第一部分神经网络搭建具体包括:
(1-1) 以深度残差网络为基础网络结构
本发明选用深度残差网络RseNet-50为基础网络结构。
(1-2)将深度残差网络的卷积残差结构以混合空洞卷积残差块替换;
将步骤(1-1)网络的卷积结构替换为设计的混合空洞卷积残差块,混合空洞卷积残差块为三层残差结构,其中扩张系数γ设置为1、2、3,激活函数保持不变,如图2所示。
本发明引入混合空洞卷积残差块后,在算法复杂度不变的情况下,有效提升了卷积核的感受野范围;并且通过不同扩张系数的组合,保证感受野能无盲区地覆盖整个区域。在使用空洞卷积核结构后,客观指标ODS和OIS分别提高到0.806、0.823,且检测的速度与改进前相差不大。
(1-3)在深度残差网路中增加多尺度特征增强模块;
多尺度特征增强结构由特征提取层和特征融合层连接而成,网络结构如图3所示。
(1-3-1)特征提取层采用1×1、3×3、5×5三种不同尺度的卷积核同时对图像进行特征提取,分别得到16、32和64通道的特征图像;在卷积层之后设置了激活层,选用relu为激活函数;特征提取层不进行池化运算。
(1-3-2)特征融合层采用级联的方式将步骤(1-3-1)中的不同尺度的特征信息进行合并重组,构成新的特征图,并采用1×1的卷积核对融合结果进行卷积,使得输出特征图的通道数和输入的原始特征图一致,输出特征图作为金字塔多尺度特征融合模块的输入。
通过多尺度特征增强结构,让每个空间位置能在不同尺度空间查看局部环境,进一步扩大整个网络的信息接收域,从而提升边缘检测效果。在步骤(1-2)网络的基础上,进一步添加多尺度特征增强结构后,客观指标ODS和OIS分别提高上到0.814、0.833,且检测的速度与改进前相差不大。
(1-4)增加结合顶层语义特征的金字塔多尺度特征融合模块;
本发明设计了一种金字塔多尺度特征融合结构,将深度残差网络中的多路特征信息进行高效融合。
(1-4-1)如图4所示,对深度残差网络中间输出的低层特征图A,采用大小为1×1的卷积核进行卷积,得到特征图B。图5为本发明整体网络的结构图,其中深度残差网络有3路中间输出的低层特征图A1、A2、A3,经卷积得到特征图B1、B2、B3。
(1-4-2)使用双线性插值的上采样方法,对步骤(1-3)多尺度特征增强模块输出的特征图C进行上采样,如图4所示,得到与低层特征图A相同尺度的特征图D。在图5中,本发明的神经网络中共有3个多尺度特征增强模块,分别输出3路特征图C1、C2、C3,经上采样得到特征图D1、D2、D3。
(1-4-3)将深度残差网络的顶层语义特征E,作为全局语义信息的引导,如图4所示,在融合过程中,对其先进行最大池化运算,再通过双线性插值得到与低层特征图A相同尺度的特征图F。在图5中,顶层特征图E分为3路,经最大池化运算、双线性插值得到特征图F1、F2、F3。
(1-4-4)通过级联方式融合步骤(1-4-1)、(1-4-2)、(1-4-3)中得到的三路特征图B、D、F,并采用3×3的卷积核对融合结果进行卷积运算,如图4所示。在图5中,有三个金字塔多尺度特征融合模块PMFF,分别对三组特征图进行融合,每组包含三路特征图B、D、F。
通过金字塔多尺度特征融合结构,对不同尺度的特征进行高效融合,显著改善边缘检测效果。在步骤(1-3)网络的基础上,进一步添加金字塔多尺度特征融合结构后,客观指标ODS和OIS分别提高到0.819、0.838,且检测的速度与改进前相差不大。
第二部分神经网络训练优化具体包括:
本发明对第一部分所搭建的神经网络进行训练优化,包括数据集增强和训练过程中超参数设置两部分。
(2-1)数据集增强;
本发明选择在增强版的伯克利分割数据集(Berkeley Segmentation Dataset,BSDS500)和PASCAL VOC Context数据集上进行训练。传统的BSDS500训练集只有200张图片,为了在一定程度上避免过拟合,本发明对BSDS500数据集进行增强:
(1)旋转:将图像以16个不同角度进行旋转[0°, 22.5°, 45°,…315°, 337.5°];
(2)缩放:将图像按照[1.5, 1.0, 0.5]倍数进行放大及缩小;
(3)翻转:将图像按水平和垂直方向进行翻转;
(4)裁剪:将图像按水平和垂直方向的对称轴裁剪成原图像尺寸的一半。
由于PASCAL VOC Context数据集中图片数量较多,共计10103张图片,因此不采用上述复杂的数据增强方法,仅简单地对图像进行水平及垂直方向上的翻转处理。
将上述处理得到的图像均加入到训练集中。
(2-2)训练过程中的超参数设置;
本发明的神经网络采用残差网络的预训练模型进行权重初始化,其中预训练模型是残差网络在ImageNet数据集上训练得到的初始模型。权值衰减设置为0.0005,学习率初始设置为0.00005,从第8个周期开始(包括第8个周期),每隔4个周期,学习率除以10,训练总计16个周期。通过对神经网络训练进行优化,客观指标ODS、OIS 和AP分别提升至0.819、0.838和0.849,主观检测效果也更接近真实值、噪声更少。
第三部分完成对神经网络的训练具体包括:经过第一部分和第二部分,在硬件配置为Intel(R) Xeon(R) E5-2678 CPU @ 2.50GHz,GPU为GeForce GTX TITAN Xp,显存为12GB,内存为16GB、软件环境为64位的Ubuntu 16.04***的计算机上,使用深度学习框架PyTorch,其版本为0.4.1,完成对神经网络的训练。
第四部分使用训练好的神经网络对通用图像进行检测具体包括:使用第三部分训练好的神经网络模型对通用图像进行检测,输出对象级边缘的灰度图像。
图6为本发明方法与其他方法的检测结果对比图,其中图6(a)为待检测图像、图6(b)为Canny算子的边缘检测结果、图6(c)为RCF算法的边缘检测结果、图6(d)为本发明的边缘检测结果、图6(e)为图6(a)的真值图。本发明的检测结果更接近真实值,并且分辨率更高,噪声更少。

Claims (8)

1.一种基于深度残差网络的对象级边缘检测方法,其特征在于:所述方法包括以下步骤:
步骤(1):神经网络的搭建;
步骤(2):对神经网络进行训练优化;
步骤(3):完成对神经网络的训练;
步骤(4):使用训练好的神经网络对通用图像进行检测,输出对象级边缘的灰度图像。
2.根据权利要求1所述的一种基于深度残差网络的对象级边缘检测方法,其特征在于:所述步骤(1)包括以下步骤:
步骤(1-1):以深度残差网络为基础网络结构;
步骤(1-2):将深度残差网络的卷积残差结构以混合空洞卷积残差块替换;
步骤(1-3):在深度残差网络中增加多尺度特征增强模块;
步骤(1-4):在深度残差网络中增加结合顶层语义特征的金字塔多尺度特征融合模块。
3.根据权利要求2所述的一种基于深度残差网络的对象级边缘检测方法,其特征在于:所述步骤(1-2)中,混合空洞卷积残差块为三层残差结构,所述残差结构的第一层、第二层和第三层的扩张系数分别设置为1、2和3。
4.根据权利要求2所述的一种基于深度残差网络的对象级边缘检测方法,其特征在于:所述步骤(1-3)中,多尺度特征增强模块包括特征提取层和特征融合层;
所述特征提取层采用1×1、3×3、5×5三种卷积核同时对图像进行特征提取,分别得到16、32和64通道的特征图像;
所述特征融合层采用级联的方式将特征提取层得到的特征图像进行融合,构成新的特征图,并采用1×1的卷积核对融合结果进行卷积,使得输出的特征图的通道数和输入的原始特征图一致,以输出的特征图作为金字塔多尺度特征融合模块的输入。
5.根据权利要求2所述的一种基于深度残差网络的对象级边缘检测方法,其特征在于:所述步骤(1-4)中,金字塔多尺度特征融合模块的融合方法包括以下步骤:
步骤(1-4-1):对深度残差网络输出的低层特征图A采用大小为1×1的卷积核进行卷积,得到特征图B;
步骤(1-4-2):使用双线性插值的上采样方法对多尺度特征增强模块输出的特征图C进行上采样,得到与低层特征图A相同尺度的特征图D;
步骤(1-4-3):将深度残差网络中的顶层的语义特征E作为全局语义信息的引导,在融合过程中对语义特征E进行最大池化运算,再通过双线性插值得到与低层特征图A相同尺度的特征图F;
步骤(1-4-4):通过级联方式融合特征图B、D、F,采用3×3的卷积核对融合结果进行卷积运算。
6.根据权利要求1所述的一种基于深度残差网络的对象级边缘检测方法,其特征在于:所述步骤(2)中,对训练的数据集进行数据增强;所述数据增强包括以下手段:
旋转;将数据集的图像以N个不同角度进行旋转;
和/或缩放;将图像以1.5、1.0、0.5的倍数进行放大及缩小;
和/或翻转;将图像按水平和垂直方向进行翻转;
和/或裁剪;将图像按水平和垂直方向的对称轴裁剪成原图像尺寸的一半;
记录以上所有处理得到的图像。
7.根据权利要求6所述的一种基于深度残差网络的对象级边缘检测方法,其特征在于:所述N为16,所述角度为[0°, 22.5°, 45°,…315°, 337.5°],相邻的角度间隔22.5°。
8.根据权利要求1所述的一种基于深度残差网络的对象级边缘检测方法,其特征在于:所述步骤(2)中,搭建的神经网络采用残差网络的预训练模型进行权重初始化,其中,预训练模型是残差网络在数据集上训练得到的初始模型;权值衰减设置为0.0005,学习率初始设置为0.00005;自第8个周期开始,每隔4个周期,学习率除以10,训练总计16个周期。
CN201910790090.1A 2019-08-26 2019-08-26 一种基于深度残差网络的对象级边缘检测方法 Active CN110706242B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910790090.1A CN110706242B (zh) 2019-08-26 2019-08-26 一种基于深度残差网络的对象级边缘检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910790090.1A CN110706242B (zh) 2019-08-26 2019-08-26 一种基于深度残差网络的对象级边缘检测方法

Publications (2)

Publication Number Publication Date
CN110706242A true CN110706242A (zh) 2020-01-17
CN110706242B CN110706242B (zh) 2022-05-03

Family

ID=69193733

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910790090.1A Active CN110706242B (zh) 2019-08-26 2019-08-26 一种基于深度残差网络的对象级边缘检测方法

Country Status (1)

Country Link
CN (1) CN110706242B (zh)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111261283A (zh) * 2020-01-21 2020-06-09 浙江理工大学 基于金字塔型卷积层的心电信号深度神经网络建模方法
CN111506728A (zh) * 2020-04-16 2020-08-07 太原科技大学 基于hd-mscnn的层次结构文本自动分类框架
CN111507990A (zh) * 2020-04-20 2020-08-07 南京航空航天大学 一种基于深度学习的隧道表面缺陷分割方法
CN111524106A (zh) * 2020-04-13 2020-08-11 北京推想科技有限公司 颅骨骨折检测和模型训练方法、装置、设备和存储介质
CN111553289A (zh) * 2020-04-29 2020-08-18 中国科学院空天信息创新研究院 一种遥感图像云检测方法及***
CN111797841A (zh) * 2020-05-10 2020-10-20 浙江工业大学 一种基于深度残差网络的视觉显著性检测方法
CN112052907A (zh) * 2020-09-15 2020-12-08 浙江智慧视频安防创新中心有限公司 基于图像边缘信息的目标检测方法、装置及存储介质
CN112085756A (zh) * 2020-09-23 2020-12-15 清华大学苏州汽车研究院(相城) 一种基于残差网络的道路图像多尺度边缘检测模型及方法
CN112115871A (zh) * 2020-09-21 2020-12-22 大连民族大学 适用于行人目标检测的高低频交织边缘特征增强方法及构建增强网络的方法
CN112507873A (zh) * 2020-12-09 2021-03-16 东南大学 一种基于CPSNet与yolov3相结合的地铁安检方法
CN112580661A (zh) * 2020-12-11 2021-03-30 江南大学 一种深度监督下的多尺度边缘检测方法
CN112581486A (zh) * 2020-11-27 2021-03-30 深圳点猫科技有限公司 一种基于双向级联网络的边缘检测方法、装置及设备
CN112991465A (zh) * 2021-03-26 2021-06-18 禾多科技(北京)有限公司 相机标定方法、装置、电子设备和计算机可读介质
CN113159300A (zh) * 2021-05-15 2021-07-23 南京逸智网络空间技术创新研究院有限公司 图像检测神经网络模型及其训练方法、图像检测方法
CN113408705A (zh) * 2021-06-30 2021-09-17 中国工商银行股份有限公司 用于图像处理的神经网络模型训练方法及装置
CN113538484A (zh) * 2021-07-01 2021-10-22 广西科技大学 一种深度细化的多重信息嵌套边缘检测方法
CN113850284A (zh) * 2021-07-04 2021-12-28 天津大学 一种基于多尺度特征融合和多分支预测的多操作检测方法
CN115588024A (zh) * 2022-11-25 2023-01-10 东莞市兆丰精密仪器有限公司 一种基于人工智能的复杂工业影像边缘提取方法及装置
CN117649609A (zh) * 2024-01-30 2024-03-05 中国人民解放军海军航空大学 面向跨时空尺度域的遥感图像建筑物信息提取方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101236598A (zh) * 2007-12-28 2008-08-06 北京交通大学 基于多尺度总体变分商图像的独立分量分析人脸识别方法
CN109829391A (zh) * 2019-01-10 2019-05-31 哈尔滨工业大学 基于级联卷积网络和对抗学习的显著性目标检测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101236598A (zh) * 2007-12-28 2008-08-06 北京交通大学 基于多尺度总体变分商图像的独立分量分析人脸识别方法
CN109829391A (zh) * 2019-01-10 2019-05-31 哈尔滨工业大学 基于级联卷积网络和对抗学习的显著性目标检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
曲长波等: "空洞卷积的多尺度语义分割网络", 《计算机工程与应用》 *

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111261283B (zh) * 2020-01-21 2023-05-09 浙江理工大学 基于金字塔型卷积层的心电信号深度神经网络建模方法
CN111261283A (zh) * 2020-01-21 2020-06-09 浙江理工大学 基于金字塔型卷积层的心电信号深度神经网络建模方法
CN111524106A (zh) * 2020-04-13 2020-08-11 北京推想科技有限公司 颅骨骨折检测和模型训练方法、装置、设备和存储介质
CN111524106B (zh) * 2020-04-13 2021-05-28 推想医疗科技股份有限公司 颅骨骨折检测和模型训练方法、装置、设备和存储介质
CN111506728A (zh) * 2020-04-16 2020-08-07 太原科技大学 基于hd-mscnn的层次结构文本自动分类框架
CN111506728B (zh) * 2020-04-16 2023-06-06 太原科技大学 基于hd-mscnn的层次结构文本自动分类方法
CN111507990A (zh) * 2020-04-20 2020-08-07 南京航空航天大学 一种基于深度学习的隧道表面缺陷分割方法
CN111553289A (zh) * 2020-04-29 2020-08-18 中国科学院空天信息创新研究院 一种遥感图像云检测方法及***
CN111797841B (zh) * 2020-05-10 2024-03-22 浙江工业大学 一种基于深度残差网络的视觉显著性检测方法
CN111797841A (zh) * 2020-05-10 2020-10-20 浙江工业大学 一种基于深度残差网络的视觉显著性检测方法
CN112052907A (zh) * 2020-09-15 2020-12-08 浙江智慧视频安防创新中心有限公司 基于图像边缘信息的目标检测方法、装置及存储介质
CN112115871B (zh) * 2020-09-21 2024-04-19 大连民族大学 适用于行人目标检测的高低频交织边缘特征增强方法
CN112115871A (zh) * 2020-09-21 2020-12-22 大连民族大学 适用于行人目标检测的高低频交织边缘特征增强方法及构建增强网络的方法
CN112085756A (zh) * 2020-09-23 2020-12-15 清华大学苏州汽车研究院(相城) 一种基于残差网络的道路图像多尺度边缘检测模型及方法
CN112085756B (zh) * 2020-09-23 2023-11-07 清华大学苏州汽车研究院(相城) 一种基于残差网络的道路图像多尺度边缘检测模型及方法
CN112581486A (zh) * 2020-11-27 2021-03-30 深圳点猫科技有限公司 一种基于双向级联网络的边缘检测方法、装置及设备
CN112507873A (zh) * 2020-12-09 2021-03-16 东南大学 一种基于CPSNet与yolov3相结合的地铁安检方法
CN112580661A (zh) * 2020-12-11 2021-03-30 江南大学 一种深度监督下的多尺度边缘检测方法
CN112580661B (zh) * 2020-12-11 2024-03-08 江南大学 一种深度监督下的多尺度边缘检测方法
CN112991465A (zh) * 2021-03-26 2021-06-18 禾多科技(北京)有限公司 相机标定方法、装置、电子设备和计算机可读介质
CN113159300B (zh) * 2021-05-15 2024-02-27 南京逸智网络空间技术创新研究院有限公司 图像检测神经网络模型及其训练方法、图像检测方法
CN113159300A (zh) * 2021-05-15 2021-07-23 南京逸智网络空间技术创新研究院有限公司 图像检测神经网络模型及其训练方法、图像检测方法
CN113408705A (zh) * 2021-06-30 2021-09-17 中国工商银行股份有限公司 用于图像处理的神经网络模型训练方法及装置
CN113538484B (zh) * 2021-07-01 2022-06-10 广西科技大学 一种深度细化的多重信息嵌套边缘检测方法
CN113538484A (zh) * 2021-07-01 2021-10-22 广西科技大学 一种深度细化的多重信息嵌套边缘检测方法
CN113850284A (zh) * 2021-07-04 2021-12-28 天津大学 一种基于多尺度特征融合和多分支预测的多操作检测方法
CN115588024A (zh) * 2022-11-25 2023-01-10 东莞市兆丰精密仪器有限公司 一种基于人工智能的复杂工业影像边缘提取方法及装置
CN117649609A (zh) * 2024-01-30 2024-03-05 中国人民解放军海军航空大学 面向跨时空尺度域的遥感图像建筑物信息提取方法
CN117649609B (zh) * 2024-01-30 2024-04-30 中国人民解放军海军航空大学 面向跨时空尺度域的遥感图像建筑物信息提取方法

Also Published As

Publication number Publication date
CN110706242B (zh) 2022-05-03

Similar Documents

Publication Publication Date Title
CN110706242B (zh) 一种基于深度残差网络的对象级边缘检测方法
CN108509978B (zh) 基于cnn的多级特征融合的多类目标检测方法及模型
Zhao et al. Enhancing diversity of defocus blur detectors via cross-ensemble network
CN109359681B (zh) 一种基于改进全卷积神经网络的大田作物病虫害识别方法
CN106228512A (zh) 基于学习率自适应的卷积神经网络图像超分辨率重建方法
CN108416755A (zh) 一种基于深度学习的图像去噪方法及***
CN110503613B (zh) 基于级联空洞卷积神经网络的面向单幅图像去雨方法
CN111476249B (zh) 多尺度大感受野卷积神经网络的构建方法
CN113052210A (zh) 一种基于卷积神经网络的快速低光照目标检测方法
CN111797841B (zh) 一种基于深度残差网络的视觉显著性检测方法
CN113807355A (zh) 一种基于编解码结构的图像语义分割方法
CN113436227A (zh) 一种基于倒残差的孪生网络目标跟踪方法
CN105955708A (zh) 一种基于深度卷积神经网络的体育视频镜头分类方法
CN112070158A (zh) 一种基于卷积神经网络和双边滤波的面部瑕疵检测方法
CN110472634A (zh) 基于多尺度深度特征差值融合网络的变化检测方法
CN115331104A (zh) 一种基于卷积神经网络的农作物种植信息提取方法
CN112580661A (zh) 一种深度监督下的多尺度边缘检测方法
CN113706545A (zh) 一种基于双分支神经判别降维的半监督图像分割方法
CN115439442A (zh) 基于共性和差异的工业品表面缺陷检测与定位方法及***
CN112560624A (zh) 基于模型深度集成的高分遥感影像语义分割方法
CN104036242A (zh) 基于Centering Trick卷积限制玻尔兹曼机的物体识别方法
Luo et al. Bi-GANs-ST for perceptual image super-resolution
CN113888505B (zh) 一种基于语义分割的自然场景文本检测方法
CN112419325A (zh) 一种基于深度学习的超像素分割方法
CN117132472A (zh) 基于前向-反向可分离自注意力的图像超分辨率重建方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant