CN107871142A - 一种基于深度卷积对抗网络模型的空洞卷积方法 - Google Patents

一种基于深度卷积对抗网络模型的空洞卷积方法 Download PDF

Info

Publication number
CN107871142A
CN107871142A CN201711123735.3A CN201711123735A CN107871142A CN 107871142 A CN107871142 A CN 107871142A CN 201711123735 A CN201711123735 A CN 201711123735A CN 107871142 A CN107871142 A CN 107871142A
Authority
CN
China
Prior art keywords
convolution
mrow
empty
maker
network model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201711123735.3A
Other languages
English (en)
Inventor
周智恒
李立军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201711123735.3A priority Critical patent/CN107871142A/zh
Publication of CN107871142A publication Critical patent/CN107871142A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于深度卷积对抗网络模型的空洞卷积方法,属于深度学习神经网络领域,所述的空洞卷积方法包括以下步骤:S1、构造原始生成对抗网络模型;S2、构造深度卷积神经网络作为生成器与判别器;S3、初始化随机噪声,输入生成器中;S4、在神经网络中利用空洞卷积对图像进行卷积操作;S5、将空洞卷积操作得到的损失函数输入生成器进行后续训练。本方法构建的基于深度卷积对抗网络模型的空洞卷积方法,改变了判别器、生成器接收图片后的卷积方式,让判别器、生成器能够以更大的范围对图像的特征进行学习,从而能够提高整个网络训练模型的鲁棒性。

Description

一种基于深度卷积对抗网络模型的空洞卷积方法
技术领域
本发明涉及深度学习神经网络技术领域,具体涉及一种基于深度卷积对抗网络模型的空洞卷积方法。
背景技术
生成式对抗网络(Generative Adversarial Network,简称GAN)是由Goodfellow在2014年提出的深度学习框架,它基于“博奕论”的思想,构造生成器(generator)和判别器(discriminator)两种模型,前者通过输入(0,1)的均匀噪声或高斯随机噪声生成图像,后者对输入的图像进行判别,确定是来自数据集的图像还是由生成器产生的图像。
在传统的对抗网络模型中,判别器往往是通过原始的卷积核进行的操作,对生成器生成图像的特征进行解析,进行一种新特征的学习,往往需要在学习到一种旧的特征结束之后才能进行。在这种情况下,生成器所学习到的特征范围较小,学习效率较低。
发明内容
本发明的目的是为了解决现有技术中的上述缺陷,提供一种基于深度卷积对抗网络模型的空洞卷积方法。
本发明的目的可以通过采取如下技术方案达到:
一种基于深度卷积对抗网络模型的空洞卷积方法所述的空洞卷积方法包括下列步骤:
S1、构造原始生成对抗网络模型,通过生成器生成图像输入至判别器进行网络训练;
S2、构造深度卷积神经网络作为生成器与判别器;
S3、初始化随机噪声,输入生成器中;
S4、在神经网络中利用空洞卷积对图像进行卷积操作;
S5、将空洞卷积操作得到的损失函数输入生成器进行后续训练。
进一步地,所述的步骤S4具体过程如下:
S41、构造多个不同数值但大小相同的卷积核;
S42、利用空洞卷积对卷积核进行改造,输入网络进行训练。
进一步地,所述的步骤S5具体过程如下:
S51、将空洞卷积之后得到的图像特征图,输入判别器中进行判别;
S52、将空洞卷积操作得到的损失函数输入生成器进行后续训练。
进一步地,所述的损失函数的表达式为:
其中,D(x)表示判别器对图像的判别,pr表示数据集图像的分布,pg表示生成图像的分布,λ为超参数,为梯度,E为取均值的操作符号。
本发明相对于现有技术具有如下的优点及效果:
鲁棒性:本发明根据空洞卷积的操作过程,设置构造了多个空洞卷积核,通过卷积核插“0”的方式,应用在以深度卷积神经网络充当生成器与判别器的对抗网络模型中,更快、更稳定地进行网络训练。
附图说明
图1是本发明公开的原始生成对抗网络通过空洞卷积进行训练的整体流程图;
图2是本发明中对原始卷积核改造成为空洞卷积核的示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例
本实施例公开了一种基于深度卷积对抗网络模型的空洞卷积方法,具体包括下列步骤:
步骤S1、构造原始生成对抗网络模型,通过生成器生成图像输入至判别器进行网络训练。
步骤S2、构造深度卷积神经网络作为生成器与判别器;
不同的卷积核,体现在矩阵数值的不同、行列数的不同。
构造多个卷积核,在处理图像的过程中,不同的卷积核意味着能够在网络训练的过程中学习到生成图像的不同特征。
在传统对抗网络的模型中,判别器和生成器所用到的卷积核都是固定大小且数值一致的,在这种情况下的训练效率相对较低,而且学习到的图像特征范围相对较小。而在本发明中,利用空洞卷积,对原始卷积核进行中间插“0”的操作,从而增大了卷积核所能学习到的特征范围,进一步提高了整个网络学习的效率。
在实际应用中,应该根据数据集图像特征的复杂程度,设置卷积核的个数。
步骤S3、初始化随机噪声,输入生成器中。
步骤S4、在神经网络中利用空洞卷积对图像进行卷积操作。
具体过程如下:
S41、构造多个不同数值但大小相同的卷积核;
S42、采用已构造的卷积核,分别对生成器生成的多张图像进行卷积,从而得到多张特征图。
步骤S5、将空洞卷积操作得到的损失函数输入生成器进行后续训练。具体过程如下:
S51、将步骤S4中卷积之后的特征图,输入判别器进行判别;
S52、将空洞卷积操作得到的损失函数输入生成器进行后续训练;
S53、将所有损失函数的均值输入至生成器中继续进行训练。
损失函数的作用是衡量判别器对生成图像判断的能力。损失函数的值越小,说明在当前迭代中,判别器能够有较好的性能辨别生成器的生成图像;反之则说明判别器的性能较差。
损失函数的表达式为:
其中,D(x)表示判别器对图像的判别,pr表示数据集图像的分布,pg表示生成图像的分布,λ为超参数,为梯度,E为取均值的操作符号。
综上所述,本实施例公开了一种基于深度卷积对抗网络模型的空洞卷积方法,相比于传统的原始对抗网络模型,改变了判别器接收图片后的对图像特征进行学习的方式。在传统对抗网络的模型中,判别器和生成器所用到的卷积核都是固定大小且数值一致的,在这种情况下的训练效率相对较低,而且学习到的图像特征范围相对较小。而在本发明中,利用空洞卷积,对原始卷积核进行中间插“0”的操作,从而增大了卷积核所能学习到的特征范围,进一步提高了整个网络学习的效率。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (4)

1.一种基于深度卷积对抗网络模型的空洞卷积方法,其特征在于,所述的空洞卷积方法包括下列步骤:
S1、构造原始生成对抗网络模型,通过生成器生成图像输入至判别器进行网络训练;
S2、构造深度卷积神经网络作为生成器与判别器;
S3、初始化随机噪声,输入生成器中;
S4、在神经网络中利用空洞卷积对图像进行卷积操作;
S5、将空洞卷积操作得到的损失函数输入生成器进行后续训练。
2.根据权利要求1所述的一种基于深度卷积对抗网络模型的空洞卷积方法,其特征在于,所述的步骤S4具体过程如下:
S41、构造多个不同数值但大小相同的卷积核;
S42、利用空洞卷积对卷积核进行改造,输入网络进行训练。
3.根据权利要求1所述的一种基于空洞卷积的深度卷积对抗网络模型,其特征在于,所述的步骤S5具体过程如下:
S51、将空洞卷积之后得到的图像特征图,输入判别器中进行判别;
S52、将空洞卷积操作得到的损失函数输入生成器进行后续训练。
4.根据权利要求3所述的一种基于空洞卷积的深度卷积对抗网络模型,其特征在于,所述的损失函数的表达式为:
<mrow> <mi>L</mi> <mrow> <mo>(</mo> <mi>D</mi> <mo>)</mo> </mrow> <mo>=</mo> <msub> <mrow> <mo>-</mo> <mi>E</mi> </mrow> <mrow> <mi>x</mi> <mo>~</mo> <mi>pr</mi> </mrow> </msub> <mo>[</mo> <mi>D</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>]</mo> <mo>+</mo> <msub> <mi>E</mi> <mrow> <mi>x</mi> <mo>~</mo> <mi>pg</mi> </mrow> </msub> <mo>[</mo> <mi>D</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>]</mo> <mo>+</mo> <msub> <mi>&amp;lambda;E</mi> <mrow> <mi>x</mi> <mo>~</mo> <mi>X</mi> </mrow> </msub> <msub> <mo>&amp;dtri;</mo> <mi>x</mi> </msub> </mrow>
其中,D(x)表示判别器对图像的判别,pr表示数据集图像的分布,pg表示生成图像的分布,λ为超参数,为梯度,E为取均值的操作符号。
CN201711123735.3A 2017-11-14 2017-11-14 一种基于深度卷积对抗网络模型的空洞卷积方法 Pending CN107871142A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711123735.3A CN107871142A (zh) 2017-11-14 2017-11-14 一种基于深度卷积对抗网络模型的空洞卷积方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711123735.3A CN107871142A (zh) 2017-11-14 2017-11-14 一种基于深度卷积对抗网络模型的空洞卷积方法

Publications (1)

Publication Number Publication Date
CN107871142A true CN107871142A (zh) 2018-04-03

Family

ID=61753946

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711123735.3A Pending CN107871142A (zh) 2017-11-14 2017-11-14 一种基于深度卷积对抗网络模型的空洞卷积方法

Country Status (1)

Country Link
CN (1) CN107871142A (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109214406A (zh) * 2018-05-16 2019-01-15 长沙理工大学 基于D-MobileNet神经网络图像分类方法
CN109345441A (zh) * 2018-10-19 2019-02-15 上海唯识律简信息科技有限公司 一种基于生成对抗网络的图像去水印方法和***
CN109523538A (zh) * 2018-11-21 2019-03-26 上海七牛信息技术有限公司 一种基于生成对抗神经网络的人群计数方法以及***
CN109615059A (zh) * 2018-11-06 2019-04-12 海南大学 一种卷积神经网络中边缘填充和滤波器膨胀运算方法及***
CN109741328A (zh) * 2019-02-02 2019-05-10 东北大学 一种基于生成式对抗网络的汽车表观质量检测方法
CN110136731A (zh) * 2019-05-13 2019-08-16 天津大学 空洞因果卷积生成对抗网络端到端骨导语音盲增强方法
CN110363210A (zh) * 2018-04-10 2019-10-22 腾讯科技(深圳)有限公司 一种图像语义分割模型的训练方法和服务器
CN110610184A (zh) * 2018-06-15 2019-12-24 阿里巴巴集团控股有限公司 图像的显著目标的检测方法、装置及设备
CN109784149B (zh) * 2018-12-06 2021-08-20 苏州飞搜科技有限公司 一种人体骨骼关键点的检测方法及***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106997380A (zh) * 2017-03-21 2017-08-01 北京工业大学 基于dcgan深度网络的成像光谱图像安全检索方法
CN107103590A (zh) * 2017-03-22 2017-08-29 华南理工大学 一种基于深度卷积对抗生成网络的图像反射去除方法
CN107293289A (zh) * 2017-06-13 2017-10-24 南京医科大学 一种基于深度卷积生成对抗网络的语音生成方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106997380A (zh) * 2017-03-21 2017-08-01 北京工业大学 基于dcgan深度网络的成像光谱图像安全检索方法
CN107103590A (zh) * 2017-03-22 2017-08-29 华南理工大学 一种基于深度卷积对抗生成网络的图像反射去除方法
CN107293289A (zh) * 2017-06-13 2017-10-24 南京医科大学 一种基于深度卷积生成对抗网络的语音生成方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
ALEC RADFORD ET AL.: "UNSUPERVISED REPRESENTATION LEARNING WITH DEEP CONVOLUTIONAL GENERATIVE ADVERSARIAL NETWORKS", 《MARCHINE LEARNING》 *
ANDREW BROK ET AL.: "NEURAL PHOTO EDITING WITH INTROSPECTIVE ADVERSARIAL NETWORKS", 《MACHINE LEARNING》 *
ISHAAN GULRAJANI ET AL.: "Improved Training of Wasserstein GANs", 《MACHINE LEARNING》 *
徐一峰: "生成对抗网络理论模型和应用综述", 《金华职业技术学院学报》 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110363210A (zh) * 2018-04-10 2019-10-22 腾讯科技(深圳)有限公司 一种图像语义分割模型的训练方法和服务器
CN110363210B (zh) * 2018-04-10 2023-05-05 腾讯科技(深圳)有限公司 一种图像语义分割模型的训练方法和服务器
CN109214406A (zh) * 2018-05-16 2019-01-15 长沙理工大学 基于D-MobileNet神经网络图像分类方法
CN110610184A (zh) * 2018-06-15 2019-12-24 阿里巴巴集团控股有限公司 图像的显著目标的检测方法、装置及设备
CN110610184B (zh) * 2018-06-15 2023-05-12 阿里巴巴集团控股有限公司 图像的显著目标的检测方法、装置及设备
CN109345441A (zh) * 2018-10-19 2019-02-15 上海唯识律简信息科技有限公司 一种基于生成对抗网络的图像去水印方法和***
CN109615059A (zh) * 2018-11-06 2019-04-12 海南大学 一种卷积神经网络中边缘填充和滤波器膨胀运算方法及***
CN109523538A (zh) * 2018-11-21 2019-03-26 上海七牛信息技术有限公司 一种基于生成对抗神经网络的人群计数方法以及***
CN109784149B (zh) * 2018-12-06 2021-08-20 苏州飞搜科技有限公司 一种人体骨骼关键点的检测方法及***
CN109741328A (zh) * 2019-02-02 2019-05-10 东北大学 一种基于生成式对抗网络的汽车表观质量检测方法
CN109741328B (zh) * 2019-02-02 2023-04-14 东北大学 一种基于生成式对抗网络的汽车表观质量检测方法
CN110136731A (zh) * 2019-05-13 2019-08-16 天津大学 空洞因果卷积生成对抗网络端到端骨导语音盲增强方法

Similar Documents

Publication Publication Date Title
CN107871142A (zh) 一种基于深度卷积对抗网络模型的空洞卷积方法
CN107862377A (zh) 一种基于文本‑图像生成对抗网络模型的分组卷积方法
CN107590518A (zh) 一种多特征学习的对抗网络训练方法
CN107886169A (zh) 一种基于文本‑图像生成对抗网络模型的多尺度卷积核方法
CN107886162A (zh) 一种基于wgan模型的可变形卷积核方法
CN107590531A (zh) 一种基于文本生成的wgan方法
CN107944546A (zh) 一种基于原始生成对抗网络模型的残差网络方法
CN111563841B (zh) 一种基于生成对抗网络的高分辨率图像生成方法
Kobler et al. Variational networks: connecting variational methods and deep learning
CN107577985B (zh) 基于循环生成对抗网络的人脸头像卡通化的实现方法
CN107563493A (zh) 一种多生成器卷积合成图像的对抗网络算法
CN107943750A (zh) 一种基于wgan模型的分解卷积方法
CN107767413A (zh) 一种基于卷积神经网络的图像深度估计方法
CN107992944A (zh) 一种基于原始生成对抗网络模型的多尺度卷积方法
CN106683067A (zh) 一种基于残差子图像的深度学习超分辨率重建方法
CN109389556A (zh) 一种多尺度空洞卷积神经网络超分辨率重构方法及装置
CN107705242A (zh) 一种结合深度学习与深度感知的图像风格化迁移方法
CN107066583A (zh) 一种基于紧凑双线性融合的图文跨模态情感分类方法
CN108009568A (zh) 一种基于wgan模型的行人检测方法
CN106339984B (zh) 基于k均值驱动卷积神经网络的分布式图像超分辨方法
CN109360159A (zh) 一种基于生成对抗网络模型的图像补全方法
CN106022392A (zh) 一种深度神经网络样本自动取舍的训练方法
CN106776540A (zh) 一种自由化文本生成方法
CN108470196A (zh) 一种基于深度卷积对抗网络模型生成手写数字的方法
CN106897254A (zh) 一种网络表示学习方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20180403