CN109934835B - 基于深度强化网络邻接连接的轮廓检测方法 - Google Patents

基于深度强化网络邻接连接的轮廓检测方法 Download PDF

Info

Publication number
CN109934835B
CN109934835B CN201910072384.0A CN201910072384A CN109934835B CN 109934835 B CN109934835 B CN 109934835B CN 201910072384 A CN201910072384 A CN 201910072384A CN 109934835 B CN109934835 B CN 109934835B
Authority
CN
China
Prior art keywords
convolution
output
response
input
level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910072384.0A
Other languages
English (en)
Other versions
CN109934835A (zh
Inventor
林川
崔林昊
万术娟
文泽奇
王垚
张玉薇
潘勇才
刘青正
曹以隽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangxi University of Science and Technology
Original Assignee
Guangxi University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangxi University of Science and Technology filed Critical Guangxi University of Science and Technology
Priority to CN201910072384.0A priority Critical patent/CN109934835B/zh
Publication of CN109934835A publication Critical patent/CN109934835A/zh
Application granted granted Critical
Publication of CN109934835B publication Critical patent/CN109934835B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Image Analysis (AREA)

Abstract

本发明旨在提供一种基于深度强化网络邻接连接的轮廓检测方法,包括以下步骤:A、构建包含X个等级的深度神经网络结构;B、预设训练数据集,输入训练数据集中的训练图像及其真实轮廓图,训练深度神经网络;C、利用双线性插值算法对待检测图像进行处理,分别得到待检测放大图像、待检测缩小图像,分别输入深度神经网络得到输出响应,将各像素点在上述三个轮廓响应图中对应的特征值取平均值,得到各像素点最终轮廓响应特征值;D、对各像素点的最终轮廓响应特征值使用非极大值抑制和二值化处理,得到最终轮廓图。该方法克服现有技术缺陷,具有融合特征多、检测准确率高的特点。

Description

基于深度强化网络邻接连接的轮廓检测方法
技术领域
本发明涉及图像处理领域,具体涉及一种基于深度强化网络邻接连接的轮廓检测方法。
背景技术
轮廓检测是图像处理及计算机视觉中一个很重要组成部分。从复杂的背景中正确、地检测物体轮廓是一个非常重要而困难的工作。在众多传统的图像处理方法中,应用于轮廓检测较成功的有Canny算子、活动轮廓模型和基于机器学习的轮廓模型等。这些方法主要利用了图像中的亮度,颜色,对比度信息进行检测,难以区分目标轮廓和其他杂乱边界。所以在面对图像中的对比度变化比较大、背景干扰比较多的情况时,这些方法很难得到比较满意的结果。上述算法需要相当多的领域专业知识和精细的处理算法设计,把原始图像数据转换成合适的表示或者特征向量,来构造一个轮廓分类器或者轮廓模型。近几年来,深度学习技术已经成为从原始数据中自动学习特征表示的高效方法。借助深度学习工具,尤其是卷积神经网络,轮廓检测任务有显著的性能提高。
现有的常用的卷积神经网络包括端到端的轮廓检测算法Holistically-NestedEdge Detection(HED)以及Convolutional Encoder-Decoder Network(CEDN)网络;HED网络中每个阶段的特征直接反卷积不足以从分重构原始分辨率的图像特征;CEDN网络尽管在解码部分通过组等级的融合来强化解码过程中特征融合问题,不过依然在高分辨率和低分辨率的特征权衡上有所不足。
发明内容
本发明旨在提供一种基于深度强化网络邻接连接的轮廓检测方法,该方法克服现有技术缺陷,具有融合特征多、检测准确率高的特点。
本发明的技术方案如下:
一种基于深度强化网络邻接连接的轮廓检测方法,包括以下步骤:
A、构建深度神经网络结构,深度神经网络结构具体如下:
设定6个等级;
其中,第一个等级中包含5个阶段,所述的每个阶段中分别设置有一个以上的卷积层;所述的第二等级中设有5个卷积层,每个卷积层分别对应第一等级中的一个阶段,第二等级至最终等级,下一等级的卷积层数为上一等级的卷积层数减一,直到最终等级中仅包含一个卷积层为止;
所述的第一等级、第二等级卷积层公式为m*n-k conv+relu,其中,m*n表示卷积核的大小,k表示输出通道数,conv表示卷积公式,relu表示激活函数;m*n、k均为预设值;第三等级至最终等级的卷积层公式为m*n-k conv;
所述的第一阶段的第一卷积层的输入响应为原始图像,第一阶段的其他卷积层的输入响应为该阶段上一卷积层的输出响应;
第二阶段至最后的阶段中,除了该阶段中的第一卷积层的输入响应之外,该阶段中的其他卷积层的输入响应为上一卷积层的输出响应;
除最后一个阶段外的每个阶段中最后一个卷积层的输出响应,一方面经过最大池化后作为下一个阶段的第一卷积层的输入响应;另一方面,作为输入响应分别输入到第二等级中对应的卷积层中,得到第二等级的各个卷积层的输出响应;最后一个阶段的最后一个卷积层的输出响应直接作为输入响应输入到第二等级中对应的卷积层中,得到第二等级中对应的卷积层的输出响应;
对于第二等级至倒数第二等级,将每个等级中的各个卷积层按照其输入响应的先后进行排序;依次对第二等级至倒数第二等级进行运算,在当前等级中,依次分别将除第一卷积层外的其他卷积层的输出响应经过反卷积处理后的结果与上一卷积层的输出响应相加,并将该相加结果作为输入响应,依次输入到下一等级的各个卷积层中,得到该下一等级各个卷积层的输出响应;最后经过最终等级的卷积层输出最终相应结果,即为深度神经网络的输出响应;
B、预设训练数据集,训练数据集包含训练图像及其对应的真实轮廓图,输入训练数据集中的训练图像及其真实轮廓图,预设图像批量大小,权重衰减参数,学习率,学习率衰减,最大迭代次数,优化方案和代价函数,以训练数据集中的训练图像作为输入,对应的真实轮廓图作为理想化输出,训练深度神经网络,确定使得深度神经网络输出响应最接近理想化输出的各个卷积核的参数,得到训练完毕的深度神经网络;
C、利用双线性插值算法对待检测图像进行处理,分别得到尺寸是待检测图像2倍的待检测放大图像、尺寸是待检测图像0.5倍的待检测缩小图像,将待检测图像、待检测放大图像、待检测缩小图像分别作为深度神经网络的输入,经过深度神经网络输出分别得到待检测图像轮廓响应图、待检测放大图像轮廓响应图、待检测缩小图像轮廓响应图,将各像素点在上述三个轮廓响应图中对应的特征值取平均值,作为该像素点最终轮廓响应特征值,从而得到各像素点最终轮廓响应特征值;
D、对各像素点的最终轮廓响应特征值使用非极大值抑制和二值化处理,得到各像素点的最终轮廓值,进而得到最终轮廓图。
优选地,所述的步骤B中的代价函数具体为:
Figure GDA0004047301130000031
其中i为训练时同一批次输入的图像编号,i=1,2,,,size;size为同一批次图像的数量;Xi为输入的第i幅图像;W为深度神经网络的模型参数;
Figure GDA0004047301130000032
其中P(Xi;W)=sigmoid(Xi),sigmoid为S型生长曲线函数。
优选地,所述的卷积均为带有偏置的卷积,偏置的个数与当前的卷积核的个数相对应;
卷积conv的公式如下:
outputj=inputj*kernelj+biasj (3);
其中outputj为当前阶段卷积的第j个输出响应,inputj为当前阶段卷积的第j个输入响应,kernelj为第j个卷积核,*为卷积符号,j=1,2,,k,k为当前阶段卷积核的个数。
优选地,所述的激活函数为:
relu(x)=max(0,x) (4)。
优选地,所述的反卷积函数为:
Figure GDA0004047301130000033
其中outputj为当前阶段反卷积的第j个输出响应,inputj为当前阶段反卷积的第j个输入响应,
Figure GDA0004047301130000034
为反卷积符号。
优选地,所述的阶段为5个,分别为阶段Ⅰ-阶段Ⅴ,阶段Ⅰ-阶段Ⅴ对应的卷积层个数分别为2个、2个、3个、3个、3个;
阶段Ⅰ-阶段Ⅴ对应的输出通道数分别为64个、128个、256个、512个、512个;
阶段Ⅰ-阶段Ⅴ对应的卷积核大小为3*3像素平方;
所述的等级有6个,分别为等级Ⅰ-等级Ⅵ;
等级Ⅱ-等级Ⅵ对应的输出通道数分别为64个,32个,16个,16个,1个;
等级Ⅱ-等级Ⅵ对应的卷积核大小为3*3像素平方。
优选地,所述的图像批量大小表示每一批次训练输入的图像数量,其范围为8-32幅,权重衰减范围为(1e-4)-(2e-4),学习率的范围为(1e-5)-(1e-9),学习率衰减的范围为0-0.1;最大迭代次数的范围为5000-60000次,优化方案为动量为0.9的随机梯度下降法。
优选地,所述的最大池化为2*2最大池化。
本发明的轮廓检测方法具有更深的解码网络,利用五个阶段的卷积提取图像的细部特征,并通过多个等级对相邻阶段的提取到的特征进行逐步融合,进而能够融合不同尺度特征图带来的特征,同时输入图像通过双线性插值算法进行尺度变换,从而得到更多尺度下的特征信息,以上两个方面的尺度变化及融合,能够实现在抑制强纹理的同时保留弱的边缘,从而提高轮廓识别的成功率。
附图说明
图1本发明提供的基于深度强化网络邻接连接的轮廓检测方法的深度神经网络的运算结构图;
图2为本发明实施例1方案与文献1、2方案的轮廓检测效果对比图;
图1中的“3*3-64”、“3*3-128”等表示卷积核的参数,其中“3*3”为卷积核的大小尺寸,“-64”、“-128”等表示卷积核的个数即输出的通道数为64或128等。
具体实施方式
下面结合附图和实施例具体说明本发明。
实施例1
如图1所示,本实施例提供的基于深度强化网络邻接连接的轮廓检测方法,包括以下步骤:
A、构建深度神经网络结构,深度神经网络结构具体如下:
设定6个等级;
其中,第一个等级中包含X个阶段,所述的每个阶段中分别设置有一个以上的卷积层;所述的第二等级中设有X个卷积层,每个卷积层分别对应第一等级中的一个阶段,第二等级至最终等级,下一等级的卷积层数为上一等级的卷积层数减一,直到最终等级中仅包含一个卷积层为止;
所述的第一等级、第二等级卷积层公式为m*n-k conv+relu,其中,m*n表示卷积核的大小,k表示输出通道数,conv表示卷积公式,relu表示激活函数;m*n、k均为预设值;第三等级至最终等级的卷积层公式为m*n-k conv;
所述的第一阶段的第一卷积层的输入响应为原始图像,第一阶段的其他卷积层的输入响应为该阶段上一卷积层的输出响应;
第二阶段至最后的阶段中,除了该阶段中的第一卷积层的输入响应之外,该阶段中的其他卷积层的输入响应为上一卷积层的输出响应;
除最后一个阶段外的每个阶段中最后一个卷积层的输出响应,一方面经过最大池化后作为下一个阶段的第一卷积层的输入响应;另一方面,作为输入响应分别输入到第二等级中对应的卷积层中,得到第二等级的各个卷积层的输出响应;最后一个阶段的最后一个卷积层的输出响应直接作为输入响应输入到第二等级中对应的卷积层中,得到第二等级中对应的卷积层的输出响应;
对于第二等级至倒数第二等级,将每个等级中的各个卷积层按照其输入响应的先后进行排序;依次对第二等级至倒数第二等级进行运算,在当前等级中,依次分别将除第一卷积层外的其他卷积层的输出响应经过反卷积处理后的结果与上一卷积层的输出响应相加,并将该相加结果作为输入响应,依次输入到下一等级的各个卷积层中,得到该下一等级各个卷积层的输出响应;最后经过最终等级的卷积层输出最终相应结果,即为深度神经网络的输出响应;
B、预设训练数据集,训练数据集包含训练图像及其对应的真实轮廓图,输入训练数据集中的训练图像及其真实轮廓图,预设图像批量大小,权重衰减参数,学习率,学习率衰减,最大迭代次数,优化方案和代价函数,以训练数据集中的训练图像作为输入,对应的真实轮廓图作为理想化输出,训练深度神经网络,确定使得深度神经网络输出响应最接近理想化输出的各个卷积核的参数,得到训练完毕的深度神经网络;
C、利用双线性插值算法对待检测图像进行处理,分别得到尺寸是待检测图像2倍的待检测放大图像、尺寸是待检测图像0.5倍的待检测缩小图像,将待检测图像、待检测放大图像、待检测缩小图像分别作为深度神经网络的输入,经过深度神经网络输出分别得到待检测图像轮廓响应图、待检测放大图像轮廓响应图、待检测缩小图像轮廓响应图,将各像素点在上述三个轮廓响应图中对应的特征值取平均值,作为该像素点最终轮廓响应特征值,从而得到各像素点最终轮廓响应特征值;
D、对各像素点的最终轮廓响应特征值使用非极大值抑制和二值化处理,得到各像素点的最终轮廓值,进而得到最终轮廓图;
所述的步骤B中的代价函数具体为:
Figure GDA0004047301130000051
其中i为训练时同一批次输入的图像编号,i=1,2,,,size;size为同一批次图像的数量;Xi为输入的第i幅图像;W为深度神经网络的模型参数;
Figure GDA0004047301130000061
其中P(Xi;W)=sigmoid(Xi),sigmoid为S型生长曲线函数;
所述的卷积均为带有偏置的卷积,偏置的个数与当前的卷积核的个数相对应;
卷积conv的公式如下:
outputj=inputj*kernelj+biasj (3);
其中outputj为当前阶段卷积的第j个输出响应,inputj为当前阶段卷积的第j个输入响应,kernelj为第j个卷积核,*为卷积符号,j=1,2,,k,k为当前阶段卷积核的个数;
所述的激活函数为:
relu(x)=max(0,x) (4);
所述的反卷积函数为:
Figure GDA0004047301130000062
其中outputj为当前阶段反卷积的第j个输出响应,inputj为当前阶段反卷积的第j个输入响应,
Figure GDA0004047301130000063
为反卷积符号;
所述的阶段为5个,分别为阶段Ⅰ-阶段Ⅴ,阶段Ⅰ-阶段Ⅴ对应的卷积层个数分别为2个、2个、3个、3个、3个;
阶段Ⅰ-阶段Ⅴ对应的输出通道数分别为64个、128个、256个、512个、512个;
阶段Ⅰ-阶段Ⅴ对应的卷积核大小为3*3像素平方;
所述的等级有6个,分别为等级Ⅰ-等级Ⅵ;
等级Ⅱ-等级Ⅵ对应的输出通道数分别为64个,32个,16个,16个,1个;
等级Ⅱ-等级Ⅵ对应的卷积核大小为3*3像素平方;
所述的图像批量大小表示每一批次训练输入的图像数量,其范围为10幅,权重衰减范围为1e-4,学习率的范围为1e-6,学习率衰减的范围为0.1;最大迭代次数的范围为40000次,优化方案为动量为0.9的随机梯度下降法;α=1.6;
所述的最大池化为2*2最大池化。
本实施例采用伯克利图像分割数据集(BSDS500)进行训练及检测,采用该数据集中的3幅图(风景、斑马、蝴蝶)作为待检测图像,将本实施例方法与以下文献1、2的方法进行轮廓检测结果的对比;
文献1:D.R.Martin,C.C.Fowlkes,and J.Malik,"Learning to detect naturalimage boundaries using local brightness,color,and texture cues,"IEEETrans.Pattern Anal.Mach.Intell.,vol.26,no.5,pp.530-549,2004;
文献2:P.Arbelaez,M.Maire,C.Fowlkes,and J.Malik,"Contour detection andhierarchical image segmentation,"IEEE Trans.Pattern Anal.Mach.Intell.,vol.33,no.5,pp.898-916,2011;
对比结果采用性能评价指标P:
Figure GDA0004047301130000071
式中nTP、nFP、nFN分别表示检测得到的正确轮廓、错误轮廓以及遗漏的轮廓的数目,评测指标P取值在[0,1]之间,越接近1表示轮廓检测的效果越好,另外,定义容忍度为:在5*5的邻域内检测到的都算正确检测;
对比结果如表1及图2所示;
表1轮廓检测结果(P)对比表
Figure GDA0004047301130000072
结合表1及图2的结果对比可以看出,本实施例方法在识别准确率及识别效果上均优于文献1及文献2方案。
需要说明的是:
在深度神经网络结构中,某一响应(如阶段Ⅰ的输出响应)包含了各个像素点多个通道的特征值,该通道的数量与上一次卷积的卷积核的数量相同;
对某一响应(如阶段Ⅰ的输出响应)的卷积是指利用多个卷积核分别对各个像素点的多个通道的特征值进行卷积,卷积核的个数与该响应中各个像素点的通道数相同;将同一个卷积核对该像素点的多通道的卷积结果叠加,作为该卷积核卷积该像素点的得到特征值,多个卷积核卷积同一像素点得到的特征值即为此次卷积该像素点的响应,各个像素点响应即构成此次卷积的输出响应;
在深度神经网络中,对各个反卷积的上采样倍数进行设定,使得参与各个反卷积处理之后的加法运算的两个响应所对应的图像尺寸相同,以保证加法运算能够顺利完成。
本实施例涉及的深度神经网络训练方法采用文献3中记载的方案:
文献3:
Rumelhart D E,Hinton G E,Williams R J.Learning representations byback-propagating error s[J].nature,1986,323(6088):533;
本实施例涉及的最大池化方法、卷积方法采用文献4中记载的方案:
文献4:
LeCun Y,Bottou L,Bengio Y,et al.Gradient-based learning applied todocument recognition[J].Proceedings of the IEEE,1998,86(11):2278-2324;
本实施例涉及的优化方案的随机梯度下降法采用文献5中记载的方案:
文献5:
Jegadeesh N,Titman S.Returns to buying winners and selling losers:Implications for stock market efficiency[J].The Journal of finance,1993,48(1):65-91。
本实施例中涉及的非极大值抑制和二值化处理采用文献6中记载的方法,其中包含的两个阈值th,tl设置为tl=0.5th,由阈值分位数p计算而得,p=0.1;
文献6:Grigorescu C,Petkov N,Westenberg M.Contour detection based onnonclassical receptive field inhibition[J].IEEE Transactions on ImageProcessing,2003,12(7):729-739。

Claims (8)

1.一种基于深度强化网络邻接连接的轮廓检测方法,其特征在于包括以下步骤:
A、构建深度神经网络结构,深度神经网络结构具体如下:
设定6个等级;
其中,第一个等级中包含5个阶段,每个阶段中分别设置有一个以上的卷积层;第二等级中设有5个卷积层,每个卷积层分别对应第一等级中的一个阶段,第二等级至最终等级,下一等级的卷积层数为上一等级的卷积层数减一,直到最终等级中仅包含一个卷积层为止;
第一等级、第二等级卷积层公式为m*n-k conv+relu,其中,m*n表示卷积核的大小,k表示输出通道数,conv表示卷积公式,relu表示激活函数;m*n、k均为预设值;第三等级至最终等级的卷积层公式为m*n-k conv;
所述的第一阶段的第一卷积层的输入响应为原始图像,第一阶段的其他卷积层的输入响应为该阶段上一卷积层的输出响应;
第二阶段至最后的阶段中,除了该阶段中的第一卷积层的输入响应之外,该阶段中的其他卷积层的输入响应为上一卷积层的输出响应;
除最后一个阶段外的每个阶段中最后一个卷积层的输出响应,一方面经过最大池化后作为下一个阶段的第一卷积层的输入响应;另一方面,作为输入响应分别输入到第二等级中对应的卷积层中,得到第二等级的各个卷积层的输出响应;最后一个阶段的最后一个卷积层的输出响应直接作为输入响应输入到第二等级中对应的卷积层中,得到第二等级中对应的卷积层的输出响应;
对于第二等级至倒数第二等级,将每个等级中的各个卷积层按照其输入响应的先后进行排序;依次对第二等级至倒数第二等级进行运算,在当前等级中,依次分别将除第一卷积层外的其他卷积层的输出响应经过反卷积处理后的结果与上一卷积层的输出响应相加,并将该相加结果作为输入响应,依次输入到下一等级的各个卷积层中,得到该下一等级各个卷积层的输出响应;最后经过最终等级的卷积层输出最终相应结果,即为深度神经网络的输出响应;
B、预设训练数据集,训练数据集包含训练图像及其对应的真实轮廓图,输入训练数据集中的训练图像及其真实轮廓图,预设图像批量大小,权重衰减参数,学习率,学习率衰减,最大迭代次数,优化方案和代价函数,以训练数据集中的训练图像作为输入,对应的真实轮廓图作为理想化输出,训练深度神经网络,确定使得深度神经网络输出响应最接近理想化输出的各个卷积核的参数,得到训练完毕的深度神经网络;
C、利用双线性插值算法对待检测图像进行处理,分别得到尺寸是待检测图像2倍的待检测放大图像、尺寸是待检测图像0.5倍的待检测缩小图像,将待检测图像、待检测放大图像、待检测缩小图像分别作为深度神经网络的输入,经过深度神经网络输出分别得到待检测图像轮廓响应图、待检测放大图像轮廓响应图、待检测缩小图像轮廓响应图,将各像素点在上述三个轮廓响应图中对应的特征值取平均值,作为该像素点最终轮廓响应特征值,从而得到各像素点最终轮廓响应特征值;
D、对各像素点的最终轮廓响应特征值使用非极大值抑制和二值化处理,得到各像素点的最终轮廓值,进而得到最终轮廓图。
2.如权利要求1所述的基于深度强化网络邻接连接的轮廓检测方法,其特征在于:
所述的步骤B中的代价函数具体为:
Figure QLYQS_1
其中i为训练时同一批次输入的图像编号,i=1,2,...,size;size为同一批次图像的数量;Xi为输入的第i幅图像;W为深度神经网络的模型参数;
Figure QLYQS_2
其中P(Xi;W)=sigmoid(Xi),sigmoid为S型生长曲线函数。
3.如权利要求2所述的基于深度强化网络邻接连接的轮廓检测方法,其特征在于:
所述的卷积均为带有偏置的卷积,偏置的个数与当前的卷积核的个数相对应;
卷积conv的公式如下:
outputj=inputj*kernelj+biasj (3);
其中outputj为当前阶段卷积的第j个输出响应,inputj为当前阶段卷积的第j个输入响应,kernelj为第j个卷积核,*为卷积符号,j=1,2,...,k,k为当前阶段卷积核的个数。
4.如权利要求3所述的基于深度强化网络邻接连接的轮廓检测方法,其特征在于:
所述的激活函数为:
relu(x)=max(0,x) (4)。
5.如权利要求4所述的基于深度强化网络邻接连接的轮廓检测方法,其特征在于:
所述的反卷积函数为:
Figure QLYQS_3
其中outputj为当前阶段反卷积的第j个输出响应,inputj为当前阶段反卷积的第j个输入响应,
Figure QLYQS_4
为反卷积符号。
6.如权利要求5所述的基于深度强化网络邻接连接的轮廓检测方法,其特征在于:
所述的阶段为5个,分别为阶段Ⅰ-阶段Ⅴ,阶段Ⅰ-阶段Ⅴ对应的卷积层个数分别为2个、2个、3个、3个、3个;
阶段Ⅰ-阶段Ⅴ对应的输出通道数分别为64个、128个、256个、512个、512个;
阶段Ⅰ-阶段Ⅴ对应的卷积核大小为3*3像素平方;
所述的等级有6个,分别为等级Ⅰ-等级Ⅵ;
等级Ⅱ-等级Ⅵ对应的输出通道数分别为64个,32个,16个,16个,1个;
等级Ⅱ-等级Ⅵ对应的卷积核大小为3*3像素平方。
7.如权利要求6所述的基于深度强化网络邻接连接的轮廓检测方法,其特征在于:
所述的图像批量大小表示每一批次训练输入的图像数量,其范围为8-32幅,权重衰减范围为(1e-4)-(2e-4),学习率的范围为(1e-5)-(1e-9),学习率衰减的范围为0-0.1;最大迭代次数的范围为5000-60000次,优化方案为动量为0.9的随机梯度下降法。
8.如权利要求7所述的基于深度强化网络邻接连接的轮廓检测方法,其特征在于:
所述的最大池化为2*2最大池化。
CN201910072384.0A 2019-01-25 2019-01-25 基于深度强化网络邻接连接的轮廓检测方法 Active CN109934835B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910072384.0A CN109934835B (zh) 2019-01-25 2019-01-25 基于深度强化网络邻接连接的轮廓检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910072384.0A CN109934835B (zh) 2019-01-25 2019-01-25 基于深度强化网络邻接连接的轮廓检测方法

Publications (2)

Publication Number Publication Date
CN109934835A CN109934835A (zh) 2019-06-25
CN109934835B true CN109934835B (zh) 2023-03-31

Family

ID=66985214

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910072384.0A Active CN109934835B (zh) 2019-01-25 2019-01-25 基于深度强化网络邻接连接的轮廓检测方法

Country Status (1)

Country Link
CN (1) CN109934835B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111325762B (zh) * 2020-01-21 2021-01-22 广西科技大学 基于密集连接解码网络的轮廓检测方法
CN115019022B (zh) * 2022-05-30 2024-04-30 电子科技大学 一种基于双深度融合网络的轮廓检测方法
CN116452621B (zh) * 2023-03-10 2023-12-15 广州市易鸿智能装备有限公司 一种基于强化学习的理想轮廓生成算法、装置及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106446870A (zh) * 2016-10-21 2017-02-22 湖南文理学院 一种人体轮廓特征提取方法和装置
CN107742302A (zh) * 2017-11-13 2018-02-27 广西科技大学 基于初级视皮层多尺度轮廓融合的轮廓检测方法
CN108090492A (zh) * 2017-11-09 2018-05-29 广西科技大学 基于尺度线索抑制的轮廓检测方法
CN108614994A (zh) * 2018-03-27 2018-10-02 深圳市智能机器人研究院 一种基于深度学习的人头部图像提取方法和装置
CN108764186A (zh) * 2018-06-01 2018-11-06 合肥工业大学 基于旋转深度学习的人物遮挡轮廓检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10699151B2 (en) * 2016-06-03 2020-06-30 Miovision Technologies Incorporated System and method for performing saliency detection using deep active contours

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106446870A (zh) * 2016-10-21 2017-02-22 湖南文理学院 一种人体轮廓特征提取方法和装置
CN108090492A (zh) * 2017-11-09 2018-05-29 广西科技大学 基于尺度线索抑制的轮廓检测方法
CN107742302A (zh) * 2017-11-13 2018-02-27 广西科技大学 基于初级视皮层多尺度轮廓融合的轮廓检测方法
CN108614994A (zh) * 2018-03-27 2018-10-02 深圳市智能机器人研究院 一种基于深度学习的人头部图像提取方法和装置
CN108764186A (zh) * 2018-06-01 2018-11-06 合肥工业大学 基于旋转深度学习的人物遮挡轮廓检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
A Fast One-Pixel Wide Contour Detection Method for Shapes Contour Traversal in Binary Images;Hrvoje Leventic et al.;《 2018 International Conference on Smart Systems and Technologies (SST)》;20181206;全文 *
基于非经典感受野动态特性的轮廓检测模型;潘亦坚 等;《广西科技大学学报》;20180425;第29卷(第2期);全文 *

Also Published As

Publication number Publication date
CN109934835A (zh) 2019-06-25

Similar Documents

Publication Publication Date Title
CN107564025B (zh) 一种基于深度神经网络的电力设备红外图像语义分割方法
CN110414377B (zh) 一种基于尺度注意力网络的遥感图像场景分类方法
CN108416377B (zh) 柱状图中的信息提取方法及装置
CN109872326B (zh) 基于深度强化网络跳跃连接的轮廓检测方法
CN111325762B (zh) 基于密集连接解码网络的轮廓检测方法
CN109215034B (zh) 一种基于空间金字塔掩盖池化的弱监督图像语义分割方法
CN108345827B (zh) 识别文档方向的方法、***和神经网络
CN111699494A (zh) 使用通过主成分分析和重复频谱聚类进行训练的卷积神经网络的对象识别
CN109934835B (zh) 基于深度强化网络邻接连接的轮廓检测方法
CN108388896A (zh) 一种基于动态时序卷积神经网络的车牌识别方法
CN107798381A (zh) 一种基于卷积神经网络的图像识别方法
CN110287777B (zh) 一种自然场景下的金丝猴躯体分割算法
CN109934826A (zh) 一种基于图卷积网络的图像特征分割方法
CN104834933A (zh) 一种图像显著性区域的检测方法和装置
CN106682569A (zh) 一种基于卷积神经网络的快速交通标识牌识别方法
CN109948692B (zh) 基于多颜色空间卷积神经网络及随机森林的计算机生成图片检测方法
CN108596818B (zh) 一种基于多任务学习卷积神经网络的图像隐写分析方法
CN109002755B (zh) 基于人脸图像的年龄估计模型构建方法及估计方法
CN106683046A (zh) 用于警用无人机侦察取证的图像实时拼接方法
CN104866868A (zh) 基于深度神经网络的金属币识别方法和装置
CN109949334B (zh) 基于深度强化网络残差连接的轮廓检测方法
CN110309835B (zh) 一种图像局部特征提取方法及装置
CN112365514A (zh) 基于改进PSPNet的语义分割方法
CN106600595A (zh) 一种基于人工智能算法的人体特征尺寸自动测量方法
CN110879982A (zh) 一种人群计数***及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20190625

Assignee: GUANGXI YINGTENG EDUCATION TECHNOLOGY Co.,Ltd.

Assignor: GUANGXI University OF SCIENCE AND TECHNOLOGY

Contract record no.: X2023980053979

Denomination of invention: Contour detection method based on deep reinforcement network adjacency connections

Granted publication date: 20230331

License type: Common License

Record date: 20231226