CN112686822A - 一种基于堆叠生成对抗网络的图像补全方法 - Google Patents

一种基于堆叠生成对抗网络的图像补全方法 Download PDF

Info

Publication number
CN112686822A
CN112686822A CN202011607204.3A CN202011607204A CN112686822A CN 112686822 A CN112686822 A CN 112686822A CN 202011607204 A CN202011607204 A CN 202011607204A CN 112686822 A CN112686822 A CN 112686822A
Authority
CN
China
Prior art keywords
image
network
completion
discriminator
loss function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011607204.3A
Other languages
English (en)
Other versions
CN112686822B (zh
Inventor
任勇鹏
李孝杰
任红萍
史沧红
吴锡
吕建成
周激流
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu University of Information Technology
Original Assignee
Chengdu University of Information Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu University of Information Technology filed Critical Chengdu University of Information Technology
Priority to CN202011607204.3A priority Critical patent/CN112686822B/zh
Publication of CN112686822A publication Critical patent/CN112686822A/zh
Application granted granted Critical
Publication of CN112686822B publication Critical patent/CN112686822B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明涉及一种基于堆叠生成对抗网络的图像补全方法,网络结构主要由三个堆叠的生成器网络层组成。首先将蒙版图像裁剪成多个图像块,以便网络就可以提取出不同图像块的特征;然后,本发明将补全的多图像块结果放入下一层的生成器中,以进一步补全图像;最后,将不同块的补全结果应用于一整块掩模图像上,得到最终的补全输出。从粗到细的补全作业,充分利用卷积神经网络提取的高层语义信息。并且通过图像块鉴别器来区分生成图像图像和原始图像的真假。实验结果表明,本发明方法能够对具有不规则掩模的图像生成高质量的补全结果,补全的结果更逼近原始图像。

Description

一种基于堆叠生成对抗网络的图像补全方法
技术领域
本发明涉及图像处理领域,尤其涉及一种基于堆叠生成对抗网络的图像补全方法。
背景技术
近来,基于深度学***语义信息,因而其补全方法不能产生有意义的内容。另外一些图像补全算法是基于学习整个数据集分布的目标,通过大量数据的训练来构造缺失的内容,但是这样的补全效果特别缺乏图像高频信息,因而其补全图像总是模糊扭曲,图像质量不好。随后还有一些基于深度学习方法的图像补全提出学习图像数据的基本分布,即学习到一个函数能将缺失的图像映射到真实的图像。例如典型的图像补全方法一般使用基于generative adversarial network(GAN)的方法,GAN能将正态分布的噪声映射为图像,从而学习到真实图像的分布。GAN作为生成模型使用无监督学习方式可以学习到数据的复杂分布,GAN的生成器和判别器网络根据相反的目标联合训练:生成器最小化目标函数和判别器最大化目标函数来进行对抗训练,这样的对抗能促使它们拟合任何的数据分布,最终一旦训练成功生成器能够捕获真实数据分布。
现有技术方案存在以下的不足:
1、输出图像的修补区域会存在模糊不自然的缺陷
一些图像补全方法一般都会使用到全连接层,但是由于全连接层网络采用基于通道的全连接,会导致网络在获取图像语义信息的时候受到限制,因而最后的补全结果一般都会存在模糊不自然的问题。需要替换全连接网络结构来解决其瓶颈问题。
2、网络的训练时间和计算资源空间消耗量大
现有图像补全方法有的提出采用空洞卷积来增加网络的感受野,从而使网络更好地提取图像特征,最后提升补全图像的质量。但是由于较大空洞率造成了卷积核的稀疏性增大,带来了训练时间增加和计算资源成本提高,最终影响了网络的训练效率。需要设计训练时间少和计算成本低的网络来提高训练效率。
3、网络没有考虑到提取图像特征时,存在局部细节信息丢失的情况
现有图像补全方法忽略或没有完全考虑在图像下采样时会大量丢失局部细节信息,这样会使网络输出模糊的补全结果。还有的网络可能考虑到细节丢失,采用残差块或类残差块网络结构,但是这样利用细节信息还不充分,最后输出结果还是会存在模糊的缺陷。需要设计网络充分利用图像的局部细节信息,使网络产生高质量的结果。
因此迫切需要对现有的图像补全算法进行改进,使图像补全算法能够产生高质量的补全结果。
发明内容
针对现有技术之不足,一种基于堆叠生成器网络的图像补全方法,所述方法包括:
步骤1:收集下载补全图像数据集Places2和Paris StreetView,对所述补全图像数据集进行预处理;
步骤2:按照约定比例将所述补全图像数据集划分为训练集、验证集和测试集;
步骤3:采用所述训练集对构建好的图像补全网络进行训练,所述的图像补全网络包括生成器和判别器,所述生成器包括三层补全网络,每层补全网络均包括一个编码器和一个解码器,第三层补全网络连接至判别器,整个补全网络为堆叠的网络层次结构,将预处理好的所述训练集分别送入对应的网络层进行训练,训练方法具体包括:
步骤31:将四等分待补全图像Im4送入第一层补全网络,经第一编码器编码后分别输出4个块的特征图,将所述特征图按宽的维度拼接为2个第一特征图后送入第一解码器,由第一解码器输出2个块的第一补全图像;
步骤32:将将2个所述第一补全图像和所述二等分待补全图像Im2中的2个图像块对应相加后送入第二编码器,由第二编码器输出2个第二特征图,将其和2个所述第一特征图对应相加,再按高的维度拼接为1块第二特征图后再输入第二解码器,由第二解码器输出一整块的第二补全图像;
步骤33:将所述第二补全图像与所述待补全图像Im相加后作为第三层网络的输入,由第三编码器输出第三特征图,将第三特征图和第二层网络的所述第二特征图相加后送入第三解码器,然后由第三编码器输出最终补全图像;
步骤34:判别器,将所述最终补全图像及原始图像输入到判别器中,通过判别器判断真假。当判别器不能区分所述最终补全图像和原始图像时,表示生成器网络和判别器网络已达到平衡,生成器已经捕获图像数据的真实分布。
步骤35:按照设定批次大小对所述图像补全网络进行迭代训练,每个批次中先训练判别器,根据对抗损失函数更新判别器参数,更新完后冻结判别器参数,根据重构损失函数、内容损失函数和风格损失函数更新生成器参数,交替训练整个图像补全网络;
步骤36:判断是否达到设定的验证迭代次数,若达到,则验证一次模型和保存一次模型,若未达到则执行步骤37;
步骤37:判断是否达到设定的迭代总次数,若达到则结束训练,否则重复步骤31至步骤36。
根据一种优选的实施方式,所述图像补全方法的损失函数包括分别针对缺失区域和已知区域的重构损失函数、对抗损失函数、内容损失函数和风格损失函数,
重构损失函数用于约束生成图像的全局结构,
对抗损失函数用于约束判别器,提高判别器的识别准确度;
内容损失函数用于缩小生成图像和原始图像在预训练的VGG19网络中的特征之间的距离,进而使生成图像的质量得到提升;
风格损失函数计算图像在VGG网络中特征的格拉姆矩阵来把握图像的整体风格,通过约束生成图像和原始图像的风格差异亦可提高图像质量;
根据一种优选的实施方式,所述图像补全方法的预处理包括:
步骤11:首先将数据集中图像的大小统一处理为256*256;
步骤12:接着将图像的所有像素值归一化到0至1,并且使用mask将归一化的图像处理为缺失中间内容的待补全图像Im
步骤13:将所述待补全图像Im分别裁剪为四等分待补全图像Im4、二等分待补全图像Im2,并将待补全图像Im、四等分待补全图像Im4及二等分待补全图像Im2作为补全网络的输入;
本发明的有益效果在于:
1、使用生成对抗网络来对生成器和判别器进行对抗训练,避免使用全连接层,从而解决了全连接层造成的图像边缘模糊的问题,提升了边缘细节的恢复能力,达到提升补全图像质量的目的。
2、使用堆叠的层级生成器网络分多尺度特征进行图像补全,堆叠的生成器网络结构可以实现对图像进行由粗到细地分阶段补全,这样可以使网络尽可能利用图像的多尺度特征,从而实现更好的补全效果;另一方面,通过对图像从小尺度到大尺度的特征提取,提高了训练时间和效率。
3、使用对抗损失、重构损失、内容损失和风格损失对网络约束,提升网络性能,内容损失和风格损失的引入可以使生成图像在VGG网络中的特征向其对应的原始图像的特征进行靠拢,使最终的补全结果在整体内容和风格上更接近原始图像。
附图说明
图1是本发明图像补全网络的方法流程图;
图2是本发明图像补全网络结构图;
图3是本发明的实验效果对比图;和
图4是本发明的另一例实验效果对比图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明了,下面结合具体实施方式并参照附图,对本发明进一步详细说明。应该理解,这些描述只是示例性的,而并非要限制本发明的范围。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本发明的概念。
本发明主要解决的是图像补全中存在不清晰不真实的图像质量问题。图像补全(图像内补)任务主要是填补缺失内容的图像,它是一种比较普遍的图像编辑任务,其应用范围相当广泛,例如应用于去除图像中多余的前景对象、修复破损缺失的照片等等。图像补全算法要求尽可能获取图像的结构信息和语义信息,这样才能使最终的补全内容显得自然真实和清晰美观。现有的大部分图像补全算法主要问题是获取的图像语义信息和结构信息不够,所以最终的补全结果会存在模糊扭曲的问题。因此迫切需要对现有的图像补全算法进行改进,使图像补全算法能够产生高质量的补全结果。
下面结合附图进行详细说明。
图1是本发明图像补全网络的方法流程图,现结合图1对本发明方法进行详细说明。本发明提出的一种基于堆叠生成器网络的图像补全方法,包括以下步骤:
步骤1:收集下载补全图像数据集Places2和Paris StreetView,对补全图像数据集进行预处理;预处理方法包括:
步骤11:首先将数据集中图像的大小统一处理为256*256。
步骤12:接着将图像的所有像素值归一化到0至1,并且使用mask将归一化的图像处理为缺失中间内容的待补全图像Im
步骤13:将待补全图像Im分别裁剪为四等分待补全图像Im4、二等分待补全图像Im2,并将待补全图像Im、四等分待补全图像Im4及二等分待补全图像Im2作为补全网络的输入。
步骤2:按照约定比例将补全图像数据集划分为训练集、验证集和测试集。
步骤3:采用训练集对构建好的图像补全网络进行训练,的图像补全网络包括生成器和判别器,生成器包括三层补全网络,每层补全网络均包括一个编码器和一个解码器,第三层补全网络连接至判别器,整个补全网络为堆叠的网络层次结构,将预处理好的训练集分别送入对应的网络层进行训练。训练方法具体包括:
步骤31:将四等分待补全图像Im4送入第一层补全网络,经第一编码器编码后分别输出4个块的特征图,将特征图按宽的维度拼接为2个第一特征图后送入第一解码器,由第一解码器输出2个块的第一补全图像。
步骤32:将将2个第一补全图像和二等分待补全图像Im2中的2个图像块对应相加后送入第二编码器,由第二编码器输出2个第二特征图,将其和2个第一特征图对应相加,再按高的维度拼接为1块第二特征图后再输入第二解码器,由第二解码器输出一整块的第二补全图像。
步骤33:将第二补全图像与待补全图像Im相加后作为第三层网络的输入,由第三编码器输出第三特征图,将第三特征图和第二层网络的第二特征图相加后送入第三解码器,然后由第三编码器输出最终补全图像。
步骤34:判别器,将最终补全图像及原始图像输入到判别器中,通过判别器判断真假。当判别器不能区分最终补全图像和原始图像时,表示生成器网络和判别器网络已达到平衡,生成器已经捕获图像数据的真实分布。
步骤35:按照设定批次大小对图像补全网络进行迭代训练,每个批次中先训练判别器,根据对抗损失函数更新判别器参数,更新完后冻结判别器参数,根据重构损失函数、内容损失函数和风格损失函数更新生成器参数,交替训练整个图像补全网络。
步骤36:判断是否达到设定的验证迭代次数,若达到,则验证一次模型和保存一次模型,若未达到则执行步骤37。
步骤37:判断是否达到设定的迭代总次数,若达到则结束训练,否则重复步骤31至步骤36。
图像补全方法的损失函数包括分别针对缺失区域和已知区域的重构损失函数、对抗损失函数、内容损失函数和风格损失函数,数学表达式如下:
Ltotal=λ1Lhole2Lvalid3Lad4Lperceptual+L5Lstyle (1)
实验中,设置参数λ1=8.0,λ2=1.0,λ3=1.0,λ4=0.1,λ5=250.0。
重构损失函数用于约束生成图像的全局结构,数学表达式如下:
Lhole=||(1-M)⊙(Igen-Igt)||2 (2)
Lvalid=||(M⊙(Igen-Igt)||2 (3)
其中,Lhole表示缺失区域的重构损失函数,Lvalid表示已知区域的重构损失函数,M表示mask,Igen表示生成图像,Igt表示原始图像。
对抗损失函数用于约束判别器,提高判别器的识别准确度;
内容损失函数用于缩小生成图像和原始图像在预训练的VGG19网络中的特征之间的距离,进而使生成图像的质量得到提升,数学表达是如下:
Lperceptual=E[||Φi(Igen)-Φi(Igt)||1] (4)
Φi(.)表示VGG网络中第i层网络的激活层,Igen表示生成图像,Igt表示原始图像。
风格损失函数计算图像在VGG网络中特征的格拉姆矩阵来把握图像的整体风格,通过约束生成图像和原始图像的风格差异亦可提高图像质量;数学表达式如下:
Figure BDA0002873909470000071
G(.)表示特征图的格拉姆矩阵,Φi(.)表示VGG网络中第i层网络的激活层,Igen表示生成图像,Igt表示原始图像。
图像补全方法还包括对训练好的补全网络进行测试,按步骤1方法处理好网络的输入图像Im及其分块图像Im2、Im4,并按1步骤分别操作第一至三层补全网络,最后由第三层网络的解码器输出测试结果。
图像补全方法还包括对训练好的补全网络进行测试,按步骤1方法处理好网络的输入图像Im及其分块图像Im2、Im4,并按1步骤分别操作第一至三层补全网络,最后由第三层网络的解码器输出测试结果。
在自然图像数据集Places2和Paris街景图像数据集上进行了评估。将Places2分成308500张训练图片和20000张测试图像,并使用Paris数据集的原始划分,它包括14900张训练图像和100张测试图像。此外,所有的训练和测试图像都被调整到256×256分辨率,将像素值归一化为[0,1]。训练和测试的输入是缺失区域不规则的图像。此外将本发明的方法与现有两种最新的补全方法进行比较:部分卷积(PConv)与连贯语义注意(CSA),并使用相同的不规则掩膜数据集比较。
首先,将本发明的方法与PConv和CSA进行了定性比较。图3是不同方法在数据集Paris街景图像上的测试结果,其中Ours表示未加内容损失函数和风格损失函数的实验结果,Ours*表示加入了内容损失函数和风格损失函数的实验结果。在图3(b)为输入图像,用黑色表示缺失区域。在图3(c)中,补全的结果表明PConv未能很好地修复缺失区域的内容和纹理,并且生成了一些模糊扭曲的结构。在图3(d)中,CSA在已补全的区域上也表现得很差,例如它会产生很多意想不到的噪声和模糊的轮廓。相反,本发明的模型在图3(e)中实现了一个自然而真实的结果。为了进一步提高补全图像的质量,在模型中加入了内容损失和风格损失,视觉效果如图3(f)所示。实验结果表明,提出的带有内容损失和风格损失的模型可以提高生成图像的自然度和清晰度,最终生成高质量的补全结果。
然后,图4是在自然图像数据集Places2上进行的实验效果对比,图4显示了与现有方法相比的定性结果。在实验中,可以得到类似的结果。PConv和CSA都无法重建自然合理的纹理,例如其补全的建筑和背景产生了模糊的内容和不自然的结构。而由本发明的模型产生的补全结果(见图4(e,f))比图4(c,d)更清晰,更自然。此外,本发明的方法解决了补全图像的模糊和失真问题,并保证了局部细节的一致性。
表1 实验结果的客观评价指标对比
Method IS<sup>+</sup> FID<sup>-</sup> PSNR<sup>+</sup> SSIM<sup>+</sup> L1 loss<sup>-</sup>
PConv 2.6873 48.5692 26.9501 0.8116 4.7234
CSA 2.7548 43.3290 29.0037 0.8031 4.3020
Ours 2.8220 35.9758 31.9790 0.8456 2.9825
Ours* 2.8562 15.4625 33.6995 0.8919 2.6240
为了进一步评价该方法的有效性,还进行了定量比较实验。具体来说,表1显示了Paris街景数据集上不同方法的定量结果,并包括100个测试图像的定量指标。本发明的模型实现了2.8220的IS和35.9758的FID指标,其证明了本发明的模型产生的补全结果相对于对比方法的结果更加多样化和清晰。此外,本发明方法还实现了较好的31.9790的PSNR,0.8456的SSIM,这表明本发明补全方法生成的图像质量更高高。L1损失值越小,说明其结果更接近原始图像。为了提高结果的质量,在模型中加入了内容损失和风格损失,最后所有指标都有明显的改善。
需要注意的是,上述具体实施例是示例性的,本领域技术人员可以在本发明公开内容的启发下想出各种解决方案,而这些解决方案也都属于本发明的公开范围并落入本发明的保护范围之内。本领域技术人员应该明白,本发明说明书及其附图均为说明性而并非构成对权利要求的限制。本发明的保护范围由权利要求及其等同物限定。

Claims (3)

1.一种基于堆叠生成对抗网络的图像补全方法,其特征在于,所述方法包括以下步骤:
步骤1:收集下载补全图像数据集Places2和Paris StreetView,对所述补全图像数据集进行预处理;
步骤2:按照约定比例将所述补全图像数据集划分为训练集、验证集和测试集;
步骤3:采用所述训练集对构建好的图像补全网络进行训练,所述的图像补全网络包括生成器和判别器,所述生成器包括三层补全网络,每层补全网络均包括一个编码器和一个解码器,第三层补全网络连接至判别器,整个补全网络为堆叠的网络层次结构,将预处理好的所述训练集分别送入对应的网络层进行训练,训练方法具体包括:
步骤31:将四等分待补全图像Im4送入第一层补全网络,经第一编码器编码后分别输出4个块的特征图,将所述特征图按宽的维度拼接为2个第一特征图后送入第一解码器,由第一解码器输出2个块的第一补全图像;
步骤32:将将2个所述第一补全图像和所述二等分待补全图像Im2中的2个图像块对应相加后送入第二编码器,由第二编码器输出2个第二特征图,将其和2个所述第一特征图对应相加,再按高的维度拼接为1块第二特征图后再输入第二解码器,由第二解码器输出一整块的第二补全图像;
步骤33:将所述第二补全图像与所述待补全图像Im相加后作为第三层网络的输入,由第三编码器输出第三特征图,将第三特征图和第二层网络的所述第二特征图相加后送入第三解码器,然后由第三编码器输出最终补全图像;
步骤34:判别器,将所述最终补全图像及原始图像输入到判别器中,通过判别器判断真假,当判别器不能区分所述最终补全图像和原始图像时,表示生成器网络和判别器网络已达到平衡,生成器已经捕获图像数据的真实分布;
步骤35:按照设定批次大小对所述图像补全网络进行迭代训练,每个批次中先训练判别器,根据对抗损失函数更新判别器参数,更新完后冻结判别器参数,根据重构损失函数、内容损失函数和风格损失函数更新生成器参数,交替训练整个图像补全网络;
步骤36:判断是否达到设定的验证迭代次数,若达到,则验证一次模型和保存一次模型,若未达到则执行步骤37;
步骤37:判断是否达到设定的迭代总次数,若达到则结束训练,否则重复步骤31至步骤36。
2.如权利要求1所述的图像补全方法,其特征在于,所述图像补全方法的损失函数包括分别针对缺失区域和已知区域的重构损失函数、对抗损失函数、内容损失函数和风格损失函数,其中,
重构损失函数用于约束生成图像的全局结构;
对抗损失函数用于约束判别器,提高判别器的识别准确度;
内容损失函数用于缩小生成图像和原始图像在预训练的VGG19网络中的特征之间的距离,进而使生成图像的质量得到提升;
风格损失函数计算图像在VGG网络中特征的格拉姆矩阵来把握图像的整体风格,通过约束生成图像和原始图像的风格差异亦可提高图像质量。
3.如权利要求2所述的图像补全方法,其特征在于,预处理方法包括:
步骤11:首先将数据集中图像的大小统一处理为256*256;
步骤12:接着将图像的所有像素值归一化到0至1,并且使用mask将归一化的图像处理为缺失中间内容的待补全图像Im
步骤13:将所述待补全图像Im分别裁剪为四等分待补全图像Im4、二等分待补全图像Im2,并将待补全图像Im、四等分待补全图像Im4及二等分待补全图像Im2作为补全网络的输入。
CN202011607204.3A 2020-12-30 2020-12-30 一种基于堆叠生成对抗网络的图像补全方法 Active CN112686822B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011607204.3A CN112686822B (zh) 2020-12-30 2020-12-30 一种基于堆叠生成对抗网络的图像补全方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011607204.3A CN112686822B (zh) 2020-12-30 2020-12-30 一种基于堆叠生成对抗网络的图像补全方法

Publications (2)

Publication Number Publication Date
CN112686822A true CN112686822A (zh) 2021-04-20
CN112686822B CN112686822B (zh) 2021-09-07

Family

ID=75454708

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011607204.3A Active CN112686822B (zh) 2020-12-30 2020-12-30 一种基于堆叠生成对抗网络的图像补全方法

Country Status (1)

Country Link
CN (1) CN112686822B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115639605A (zh) * 2022-10-28 2023-01-24 中国地质大学(武汉) 基于深度学习的高分辨率断层的自动识别方法和装置
CN115984281A (zh) * 2023-03-21 2023-04-18 中国海洋大学 基于局部特异性深化的时序海温图像的多任务补全方法

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108460830A (zh) * 2018-05-09 2018-08-28 厦门美图之家科技有限公司 图像修复方法、装置及图像处理设备
CN110148085A (zh) * 2019-04-22 2019-08-20 智慧眼科技股份有限公司 人脸图像超分辨率重建方法及计算机可读取的存储介质
CN110189278A (zh) * 2019-06-06 2019-08-30 上海大学 一种基于生成对抗网络的双目场景图像修复方法
US20190286950A1 (en) * 2018-03-16 2019-09-19 Ebay Inc. Generating a digital image using a generative adversarial network
CN110288537A (zh) * 2019-05-20 2019-09-27 湖南大学 基于自注意力的深度生成式对抗网络的人脸图像补全方法
US20190370608A1 (en) * 2018-05-31 2019-12-05 Seoul National University R&Db Foundation Apparatus and method for training facial locality super resolution deep neural network
CN111275637A (zh) * 2020-01-15 2020-06-12 北京工业大学 一种基于注意力模型的非均匀运动模糊图像自适应复原方法
CN111626926A (zh) * 2020-04-06 2020-09-04 温州大学 一种基于gan的纹理图像智能合成方法
CN111681182A (zh) * 2020-06-04 2020-09-18 Oppo广东移动通信有限公司 图片修复方法、装置、终端设备以及存储介质
US20200327675A1 (en) * 2019-04-15 2020-10-15 Adobe Inc. Foreground-aware image inpainting
CN111860570A (zh) * 2020-06-03 2020-10-30 成都信息工程大学 一种云微粒子图像提取及分类方法
CN111915693A (zh) * 2020-05-22 2020-11-10 中国科学院计算技术研究所 基于草图的人脸图像生成方法及***

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190286950A1 (en) * 2018-03-16 2019-09-19 Ebay Inc. Generating a digital image using a generative adversarial network
CN108460830A (zh) * 2018-05-09 2018-08-28 厦门美图之家科技有限公司 图像修复方法、装置及图像处理设备
US20190370608A1 (en) * 2018-05-31 2019-12-05 Seoul National University R&Db Foundation Apparatus and method for training facial locality super resolution deep neural network
US20200327675A1 (en) * 2019-04-15 2020-10-15 Adobe Inc. Foreground-aware image inpainting
CN110148085A (zh) * 2019-04-22 2019-08-20 智慧眼科技股份有限公司 人脸图像超分辨率重建方法及计算机可读取的存储介质
CN110288537A (zh) * 2019-05-20 2019-09-27 湖南大学 基于自注意力的深度生成式对抗网络的人脸图像补全方法
CN110189278A (zh) * 2019-06-06 2019-08-30 上海大学 一种基于生成对抗网络的双目场景图像修复方法
CN111275637A (zh) * 2020-01-15 2020-06-12 北京工业大学 一种基于注意力模型的非均匀运动模糊图像自适应复原方法
CN111626926A (zh) * 2020-04-06 2020-09-04 温州大学 一种基于gan的纹理图像智能合成方法
CN111915693A (zh) * 2020-05-22 2020-11-10 中国科学院计算技术研究所 基于草图的人脸图像生成方法及***
CN111860570A (zh) * 2020-06-03 2020-10-30 成都信息工程大学 一种云微粒子图像提取及分类方法
CN111681182A (zh) * 2020-06-04 2020-09-18 Oppo广东移动通信有限公司 图片修复方法、装置、终端设备以及存储介质

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
GUILIN LIU 等: "Image Inpainting for Irregular Holes Using Partial Convolutions", 《EUROPEAN CONFERENCE ON COMPUTER VISION》 *
HONGYU LIU 等: "Rethinking Image Inpainting via a Mutual Encoder-Decoder with Feature Equalizations", 《HTTPS://ARXIV.ORG/PDF/2007.06929.PDF》 *
XIANYU WU 等: "Perceptual Generative Adversarial Network for Image Inpainting with Regular and Irregular Patch", 《2019 2ND INTERNATIONAL CONFERENCE ON SAFETY PRODUCE INFORMATIZATION》 *
张宪 等: "基于特征对抗对的视觉特征归因网络研究", 《计算机研究与发展》 *
徐海月 等: "基于编解码网络的多姿态人脸图像正面化方法", 《中国科学:信息科学》 *
罗会兰 等: "一种生成对抗网络用于图像修复的方法", 《电子学报》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115639605A (zh) * 2022-10-28 2023-01-24 中国地质大学(武汉) 基于深度学习的高分辨率断层的自动识别方法和装置
CN115639605B (zh) * 2022-10-28 2024-05-28 中国地质大学(武汉) 基于深度学习的高分辨率断层的自动识别方法和装置
CN115984281A (zh) * 2023-03-21 2023-04-18 中国海洋大学 基于局部特异性深化的时序海温图像的多任务补全方法
CN115984281B (zh) * 2023-03-21 2023-06-20 中国海洋大学 基于局部特异性深化的时序海温图像的多任务补全方法

Also Published As

Publication number Publication date
CN112686822B (zh) 2021-09-07

Similar Documents

Publication Publication Date Title
CN110033410B (zh) 图像重建模型训练方法、图像超分辨率重建方法及装置
CN108460746B (zh) 一种基于结构和纹理分层预测的图像修复方法
CN112085677A (zh) 一种图像处理方法、***和计算机存储介质
CN113962893A (zh) 基于多尺度局部自注意力生成对抗网络的人脸图像修复方法
CN113240613A (zh) 一种基于边缘信息重建的图像修复方法
Bhunia et al. Improving document binarization via adversarial noise-texture augmentation
CN112837234B (zh) 一种基于多列门控卷积网络的人脸图像修复方法
CN109920021B (zh) 一种基于正则化宽度学习网络的人脸素描合成方法
CN111861901A (zh) 一种基于gan网络的边缘生成图像修复方法
CN112686822B (zh) 一种基于堆叠生成对抗网络的图像补全方法
CN113989129A (zh) 基于门控和上下文注意力机制的图像修复方法
CN113538246B (zh) 基于无监督多阶段融合网络的遥感图像超分辨率重建方法
CN111612708A (zh) 一种基于对抗生成网络的图像修复方法
CN112288632A (zh) 基于精简esrgan的单图像超分辨率方法及***
Zhang et al. SAR image despeckling using multiconnection network incorporating wavelet features
CN112801914A (zh) 一种基于纹理结构感知的二段式图像修复方法
CN112489168A (zh) 一种图像数据集生成制作方法、装置、设备及存储介质
CN113936318A (zh) 一种基于gan人脸先验信息预测和融合的人脸图像修复方法
CN114266957A (zh) 一种基于多降质方式数据增广的高光谱图像超分辨率复原方法
CN111179196A (zh) 一种基于分而治之的多分辨率深度网络图像去高光方法
CN116819615A (zh) 一种地震数据重建方法
Liu et al. Facial image inpainting using multi-level generative network
CN114494387A (zh) 一种生成数据集网络模型及雾图生成方法
CN116051408B (zh) 一种基于残差自编码的图像深度去噪方法
CN115272131B (zh) 基于自适应多光谱编码的图像去摩尔纹***及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant