CN111612687B - 一种人脸图像自动上妆方法 - Google Patents
一种人脸图像自动上妆方法 Download PDFInfo
- Publication number
- CN111612687B CN111612687B CN202010321808.5A CN202010321808A CN111612687B CN 111612687 B CN111612687 B CN 111612687B CN 202010321808 A CN202010321808 A CN 202010321808A CN 111612687 B CN111612687 B CN 111612687B
- Authority
- CN
- China
- Prior art keywords
- image
- makeup
- face
- network
- target image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 230000011218 segmentation Effects 0.000 claims abstract description 14
- 238000013528 artificial neural network Methods 0.000 claims abstract description 13
- 238000012360 testing method Methods 0.000 claims abstract description 13
- 238000003709 image segmentation Methods 0.000 claims abstract description 8
- 230000006870 function Effects 0.000 claims description 28
- 230000008569 process Effects 0.000 claims description 12
- 230000000694 effects Effects 0.000 claims description 11
- 239000002537 cosmetic Substances 0.000 claims description 8
- 230000001815 facial effect Effects 0.000 claims description 7
- 238000012545 processing Methods 0.000 claims description 7
- 210000001508 eye Anatomy 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 6
- 210000000887 face Anatomy 0.000 claims description 5
- 238000012549 training Methods 0.000 claims description 5
- 238000013527 convolutional neural network Methods 0.000 claims description 4
- 238000013459 approach Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 238000012795 verification Methods 0.000 claims description 3
- 230000008859 change Effects 0.000 abstract description 2
- 238000013508 migration Methods 0.000 description 3
- 230000005012 migration Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 210000000697 sensory organ Anatomy 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提供一种人脸图像自动上妆方法。本发明方法首先将获取的人脸图像数据集分为目标图像集和参考图像集;然后采用图像分割技术,对目标图像进行分割,得到目标图像的分割图,再通过分割图为目标图像集中的每一张人脸做好定制掩膜;然后将目标图像集和参考图像集以及目标图像集的掩膜分别输入到人脸图像自动上妆网络中训练网络模型,计算人脸图像自动上妆网络的损失函数,最后使用测试集测试训练好的人脸图像自动上妆网络模型。本发明为每张目标图像定制的掩膜,对神经网络进行了约束,避免图像中不需要化妆的区域发生改变,确保了生成图像的真实性。
Description
技术领域
本发明涉及计算机视觉领域,具体的涉及图像风格迁移,为图像重的人脸自动上妆的方法。
技术背景
社交媒体的快速发展让越来越多的人们通过各种社交网络来分享自己的故事和照片。人们喜欢上传好看的自拍到社交网络上,来获取更多的关注和点赞。尽管不计其数的化妆品可以为人们提供各种各样的妆容,但人们更希望通过一种快捷且有效的方式来获取一张好看的自拍照。人脸图像自动化妆技术提供了一种可行的解决方案。
早期的人脸自动化妆主要依赖于各种数字图像处理方法的叠加。如美图秀秀、Photoshop等图像处理软件通过内置各种图像处理方法,并给出了便于使用者调用这些方法的图形界面,来方便用户对包括人脸图像在内的图像进行处理,进而达到美化图像中人脸的效果。
随着计算机算力的不断提升,人们可以将计算量更大更复杂的任务交给计算机,来协助人们完成更复杂的图像处理任务。人工智能的研究浪潮也随之而来,其中图像生成领域的研究中,人们利用神经网络的学习特性,提出了许多不同领域之间图像风格迁移的研究成果。
Ian Goodfellow提出的生成对抗网络(Generative adversarial network,GAN)利用生成网络G和判别器网络D之间的动态博弈来生成具有目标域风格的图片。这种博弈行为令生成对抗网络带来了更强的学习能力,能充分的学习到目标域中图像的信息。因此,基于生成对抗网络,我们可以将化妆的人脸图像作为目标域,使用生成对抗网络学习为没有上妆的人脸图像自动添加妆容的能力。
尽管利用生成对抗网络有助于图像风格的转换,但该网络生成的图像也仅是生成网络G和判别器网络D之间博弈的产物,并不是真实的图像。在某些应用中人们并不要求图像的真实性,例如生成的风景图,图像风格的迁移等等。但在人脸自动上妆领域,我们需要保证为图像中的人脸完成上妆的同时,同时保留图像中人脸所代表的身份没有发生变化以及保证图像的真实性。人们不会希望自己发表在社交媒体上的图像被人指出其不真实。此外,对于自动化妆这一任务来讲,所需要处理的部分为图像中人脸的化妆区域,对于化妆区域以外的内容我们需要尽可能的保留,例如脖子、头发以及背景这些不属于化妆区域的部分如果发生了改变也会令生成的图像显得不真实。所以,简单地使用生成对抗网络不仅不能很好地完成图像中人脸的自动上妆,更有可能生成不真实的图像。因此,完成人脸图像自动上妆的同时保证图像的真实性和连续性是该技术能够被更好地应用的前提。
发明内容
针对现有技术中存在的不足,本发明提出一种人脸图像自动上妆方法。本方法可以在保证在图像中人脸的身份不变以及图像整体的真实性、连续性不被破环的前提下完成图像中人脸的自动上妆。
本发明根据生成对抗网络的博弈原理,设计了一种双输入、双输出的人脸图像自动上妆网络。将一张带有妆容的图像作为参考图像,以及一张未上妆的图像作为目标图像输入到网络中,通过网络的学习能力,为目标图像中的人脸上妆,并同时保证背景不变,图像中人脸的身份也不发生改变。
本发明解决其技术问题所采用的技术方案包括如下步骤:
步骤(1)、将获取的人脸图像数据集按未上妆的人脸图像即目标图像和带妆的人脸图像即参考图像分为两个图像集,分别称为目标图像集和参考图像集;
步骤(2)、采用图像分割技术,对目标图像进行分割,得到目标图像的分割图,目标图像中的不同部位,如五官、头发和背景会被计算机以不同的灰度值标注出来,方便后续处理。
利用分割图将需要保留的区域和不需保留的区域分开;
所述的需要保留的区域为脸部、嘴巴、眼睛周围需要化妆的区域,所述的不需保留的区域,为无法被化妆的区域如牙齿、眼睛、头发以及背景;
步骤(3)、通过分割图为目标图像集中的每一张人脸做好定制掩膜,使卷积神经网络只关注图像中的化妆区域,从而减少背景以及其他区域对人脸自动上妆过程的干扰;
首先划分出目标图像分割图的前景和背景,并逐像素判断。将前景包含的特征的像素值全部转换为0,而背景区域的像素值全部转换为255,获得目标图像定制掩膜;
步骤(4)、将目标图像集和参考图像集以及目标图像集的掩膜分别输入到人脸图像自动上妆网络中训练网络模型。所述的人脸图像自动上妆网络包括身份信息编码器,妆容信息编码器,图像生成器以及图像判别器。
所述的身份信息编码器,妆容信息编码器和图像生成器构成了图像生成模块,所述的身份信息编码器由多层卷积层组成,接收到输入的目标图像后使用卷积层对目标图像中的身份信息进行特征提取,最终输出目标图像的身份信息编码。所述的妆容信息编码器使用多层的卷积层和池化层组成,接收到输入的目标图像和参考图像后使用卷积层对对图像中的人脸的妆容信息进行提取,最后使用池化层压缩输出的特征信息,输出对应的目标图像妆容信息编码和参考图像妆容信息编码。所述的图像生成器为图像解码器,接收身份信息编码和妆容信息编码,使用卷积层对二者进行融合,并对图像上采样,最终输出新图像。所述的新图像包括带有参考图像妆容和目标图像中人脸身份的带妆图像和目标图像的重建图像;
图像判别器与生成对抗网路中的判别器相似,用于判别图像生成模块生成的图像是否属于带妆图像,若图像判别器认为生成的图像是带妆图像的概率高,则输出越趋近于1;反之,其输出越趋近于0。
图像生成模块通过身份信息编码和妆容信息编码生成新图像,图像判别器辨别生成的新图像是否为带妆图像,持续对抗博弈的过程促进生成带妆图像的效果。
步骤(5)、计算人脸图像自动上妆网络的损失函数;
损失函数包括对抗损失函数和图像重构函数。通过神经网络的回传迭代,不断地优化网络参数,得到泛化能力强的人脸图像自动上妆网络模型。生成对抗损失函数体现了生成器和判别器之间的博弈,对抗损失函数公式如下:
Ladv=E[logD(x)+log(1-D(G(Ix,Sy)))]
其中G表示图像生成器,D表示图像判别器,x表示输入到网络中的目标图像,Ix表示身份内容编码,Sy表示参考图像妆容信息编码。
图像重构损失函数对生成器进行约束,避免生成器对化妆区域以外的部分进行过多的处理,导致背景发生改变,图像失去真实性和连续性,公式如下:
Lrecon=E[||x-rx||1].
其中rx表示重建图像。
因此,该人脸图像自动上妆网络的总的损失函数可以总结为:
L=Ladv+Lrecon
通过损失函数对神经网络进行约束,引导神经网络学习到参考图像集中图像的各种化妆风格,进而在数据集以外的目标图像中进行验证和应用。
步骤(6)、使用测试集测试训练好的人脸图像自动上妆网络模型,如果模型效果不明显,则修改学习率、训练轮数和各个损失的比重,重复步骤3到步骤5,直到训练出泛化能力强的人脸图像自动上妆网络模型。
具体的测试步骤为:
输入测试集中任意一张未化妆的人脸图像作为目标图像,并选择n张带妆的参考图像。为目标图像定制好掩膜,并将目标图像、参考图像集和目标图像的掩膜输入到训练好的模型中。
人脸图像自动上妆网络为目标图像中的人脸化妆区域分别添加参考图像集中人脸的各种妆容,得到n张身份为目标图像中的人物但妆容风格分别来自n张参考图像的新图像。通过观察n张新图像,评测出该自动上妆网络模型是否有效。若效果显著,则说明模型可以胜任自动上妆任务,反之则需要调整参数重新训练模型。
本发明有益效果如下:
本发明使用两个图像编码器分别从图像中提取人物身份信息和妆容信息,如此神经网络能够更加专注地学习图像中人脸从未化妆到化妆这一过程的转换,而减少其他区域被改变的风险。此外,使用生成对抗网络增强了网络对不同领域图像风格的学习能力。本发明提出的为每张目标图像定制的掩膜,对神经网络进行了约束,避免图像中不需要化妆的区域发生改变,确保了生成图像的真实性。
发明内容
图1是为目标图像定制掩膜的过程;
图2是本发明的实施流程。
具体实施方法
本发明主要针对人脸自动上妆技术中的图像真实性和连续性的保留进行方法和算法的创新,对于整个模型的训练流程进行了详细的介绍,以下结合附图,详细阐述本发明的具体实施步骤,本发明的目的和效果将变得更加明显。
图1是为目标图像定制掩膜的过程,掩膜的定制是数据预处理环节中重要的一环。图1展示了一张目标图像的原图及其分割图,从分割图中可以看出图像中人脸的每个部分,包括背景都被划分成不同区域,灰度值相同,则表示该部分为同一特征,不同的灰度值标注了不同的特征或背景。为了区分化妆区域和非化妆区域,将化妆区域成为前景,而化妆区域以外的部分成为背景。在本发明中,需要处理的部分仅仅是图像中的前景,也即化妆区域。掩膜的作用是为我们提取出前景或者背景,便于后续操作。数字图像中的灰度值可以用0到255之间的数字表示,数字越靠近0,则颜色越接近黑色,数字越靠近255,则颜色越接近白色。所以可以利用分割图来获取图1右侧的掩膜。具体来说,首先划分出目标图像分割图的前景和背景,并逐像素判断。将前景包含的特征的像素值全部转换为0,而背景区域的像素值全部转换为255,获得目标图像定制掩膜。
图2是本发明实施的流程图,从图中可以清楚地看到该应用于人脸自动上妆的卷积神经网络的结构。其中x表示输入到网络中的目标图像,y表示输入到网络中的参考图像,mx表示输入到网络中的目标图像的掩膜。ES表示妆容信息编码器,EI表示身份信息编码器,G表示图像生成器,D表示图像判别器。图中连接线指明了该网络中数据处理的顺序、输出的数据、数学计算及其结果。
本发明的具体步骤如下:
步骤(1)、将获取的人脸图像数据集按未上妆的人脸图像即目标图像x和带妆的人脸图像即参考图像y分为两个图像集,分别称为目标图像集和参考图像集;
步骤(2)、采用图像分割技术,对目标图像x进行分割,得到目标图像x的分割图,目标图像x中的不同部位,如五官、头发和背景会被计算机以不同的灰度值标注出来,方便后续处理。
利用分割图将需要保留的区域和不需保留的区域分开;
所述的需要保留的区域为脸部、嘴巴、眼睛周围需要化妆的区域,所述的不需保留的区域,为无法被化妆的区域如牙齿、眼睛、头发以及背景;
步骤(3)、通过分割图为目标图像集中的每一张人脸做好定制掩膜mx,使卷积神经网络只关注图像中的化妆区域,从而减少背景以及其他区域对人脸自动上妆过程的干扰,然后通过目标图像x和掩膜mx得到仅保留背景区域的背景图bx,所述的背景图中保留有图像中人脸的轮廓,以及眼睛和牙齿,用于对图像身份的保留;
首先划分出目标图像分割图的前景和背景,并逐像素判断。将前景包含的特征的像素值全部转换为0,而背景区域的像素值全部转换为255,获得目标图像定制掩膜;
步骤(4)、将目标图像集和参考图像集以及目标图像集的掩膜分别输入到人脸图像自动上妆网络中训练网络模型。所述的人脸图像自动上妆网络包括身份信息编码器EI,妆容信息编码器ES,图像生成器G以及图像判别器D。
所述的身份信息编码器EI,妆容信息编码器ES和图像生成器G构成了图像生成模块,所述的身份信息编码器EI由多层卷积层组成,接收到输入的目标图像x后使用卷积层对目标图像x中的身份信息进行特征提取,最终输出目标图像的身份信息编码Ix。所述的妆容信息编码器ES使用多层的卷积层和池化层组成,接收到输入的目标图像x和参考图像y后使用卷积层对图像中的人脸的妆容信息进行提取,最后使用池化层压缩输出的特征信息,输出对应的目标图像妆容信息编码Sx和参考图像妆容信息编码Sy。所述的图像生成器G为图像解码器,接收身份信息编码Ix和妆容信息编码,使用卷积层对二者进行融合,并对图像上采样,最终输出新图像。所述的新图像包括带有参考图像妆容和目标图像中人脸身份的带妆图像ry和目标图像x的重建图像rx;
图像判别器D与生成对抗网路中的判别器相似,用于判别图像生成模块生成的图像是否属于带妆图像,若图像判别器认为生成的图像是带妆图像的概率高,则输出越趋近于1;反之,其输出越趋近于0。
图像生成模块通过身份信息编码和妆容信息编码生成新图像,图像判别器辨别生成的新图像是否为带妆图像,持续对抗博弈的过程促进生成带妆图像的效果。
步骤(5)、计算人脸图像自动上妆网络的损失函数;
损失函数包括对抗损失函数和图像重构函数。通过神经网络的回传迭代,不断地优化网络参数,得到泛化能力强的人脸图像自动上妆网络模型。生成对抗损失函数体现了生成器和判别器之间的博弈,对抗损失函数公式如下:
Ladv=E[logD(x)+log(1-D(G(Ix,Sy)))]
图像重构损失函数对生成器进行约束,避免生成器对化妆区域以外的部分进行过多的处理,导致背景发生改变,图像失去真实性和连续性,公式如下:
Lrecon=E[||x-rx||1].
因此,该人脸图像自动上妆网络的总的损失函数可以总结为:
L=Ladv+Lrecon
通过损失函数对神经网络进行约束,引导神经网络学习到参考图像集中图像的各种化妆风格,进而在数据集以外的目标图像中进行验证和应用。
步骤(6)、使用测试集测试训练好的人脸图像自动上状网络模型,如果模型效果不明显,则修改学习率、训练轮数和各个损失的比重,重复步骤3到步骤5,直到训练出泛化能力强的人脸图像自动上妆网络模型。
具体的测试步骤为:
输入测试集中任意一张未化妆的人脸图像作为目标图像,并选择n张带妆的参考图像。为目标图像定制好掩膜,并将目标图像、参考图像集和目标图像的掩膜输入到训练好的模型中。
人脸图像自动上妆网络为目标图像中的人脸化妆区域分别添加参考图像集中人脸的各种妆容,得到n张身份为目标图像中的人物但妆容风格分别来自n张参考图像的新图像。通过观察n张新图像,评测出该自动上妆网络模型是否有效。若效果显著,则说明模型可以胜任自动上妆任务,反之则需要调整参数重新训练模型。
Claims (4)
1.一种人脸图像自动上妆方法,其特征在于,包括如下步骤:
步骤(1)、将获取的人脸图像数据集按未上妆的人脸图像即目标图像和带妆的人脸图像即参考图像分为两个图像集,分别称为目标图像集和参考图像集;
步骤(2)、采用图像分割技术,对目标图像进行分割,得到目标图像的分割图,目标图像中的不同部位;
利用分割图将需要保留的区域和不需保留的区域分开;
所述的需要保留的区域为脸部、嘴巴、眼睛周围需要化妆的区域,所述的不需保留的区域,为无法被化妆的区域;
步骤(3)、通过分割图为目标图像集中的每一张人脸做好定制掩膜,使卷积神经网络只关注图像中的化妆区域,从而减少背景以及其他区域对人脸自动上妆过程的干扰;
步骤(4)、将目标图像集和参考图像集以及目标图像集的掩膜分别输入到人脸图像自动上妆网络中训练网络参数;所述的人脸图像自动上妆网络包括身份信息编码器,妆容信息编码器,图像生成器以及图像判别器;
所述的身份信息编码器,妆容信息编码器和图像生成器构成了图像生成模块,所述的身份信息编码器由多层卷积层组成,接收到输入的目标图像后使用卷积层对目标图像中的身份信息进行特征提取,最终输出目标图像的身份信息编码;所述的妆容信息编码器使用多层的卷积层和池化层组成,接收到输入的目标图像和参考图像后使用卷积层对对图像中的人脸的妆容信息进行提取,最后使用池化层压缩输出的特征信息,输出对应的目标图像妆容信息编码和参考图像妆容信息编码;所述的图像生成器为图像解码器,接收身份信息编码和妆容信息编码,使用卷积层对二者进行融合,并对图像上采样,最终输出新图像;所述的新图像包括带有参考图像妆容和目标图像中人脸身份的带妆图像和目标图像的重建图像;
图像判别器与生成对抗网路中的判别器相似,用于判别图像生成模块生成的图像是否属于带妆图像,若图像判别器认为生成的图像是带妆图像的概率高,则输出越趋近于1;反之,其输出越趋近于0;
图像生成模块通过身份信息编码和妆容信息编码生成新图像,图像判别器辨别生成的新图像是否为带妆图像,持续对抗博弈的过程促进生成带妆图像的效果;
步骤(5)、计算人脸图像自动上妆网络的损失函数;
步骤(6)、使用测试集测试训练好的人脸图像自动上妆网络模型,如果模型效果不明显,则修改学习率、训练轮数和各个损失的比重,重复步骤3到步骤5,直到训练出泛化能力强的人脸图像自动上妆网络模型。
2.根据权利要求1所述的一种人脸图像自动上妆方法,其特征在于,步骤(3)定制掩膜操作如下;
首先划分出目标图像分割图的前景和背景,并逐像素判断;将前景包含的特征的像素值全部转换为0,而背景区域的像素值全部转换为255,获得目标图像定制掩膜。
3.根据权利要求2所述的一种人脸图像自动上妆方法,其特征在于,步骤(5)计算人脸图像自动上妆网络的损失函数,具体如下;
损失函数包括对抗损失函数和图像重构函数;通过神经网络的回传迭代,不断地优化网络参数,得到泛化能力强的人脸图像自动上妆网络模型;生成对抗损失函数体现了生成器和判别器之间的博弈,对抗损失函数公式如下:
Ladv=E[logD(x)+log(1-D(G(Ix,Sy)))]
其中G表示图像生成器,D表示图像判别器,x表示输入到网络中的目标图像,Ix表示身份内容编码,Sy表示参考图像妆容信息编码;
图像重构损失函数对生成器进行约束,避免生成器对化妆区域以外的部分进行过多的处理,导致背景发生改变,图像失去真实性和连续性,公式如下:
Lrecon=E[x-rx1].
其中rx表示重建图像;
因此,该人脸图像自动上妆网络的总的损失函数可以总结为:
L=Ladv+Lrecon
通过损失函数对神经网络进行约束,引导神经网络学习到参考图像集中图像的各种化妆风格,进而在数据集以外的目标图像中进行验证和应用。
4.根据权利要求3所述的一种人脸图像自动上妆方法,其特征在于,步骤(6)具体的测试步骤为:
输入测试集中任意一张未化妆的人脸图像作为目标图像,并选择n张带妆的参考图像;为目标图像定制好掩膜,并将目标图像、参考图像集和目标图像的掩膜输入到训练好的模型中;
人脸图像自动上妆网络为目标图像中的人脸化妆区域分别添加参考图像集中人脸的各种妆容,得到n张身份为目标图像中的人物但妆容风格分别来自n张参考图像的新图像;通过观察n张新图像,评测出该自动上妆网络模型是否有效;若效果显著,则说明模型可以胜任自动上妆任务,反之则需要调整参数重新训练模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010321808.5A CN111612687B (zh) | 2020-04-22 | 2020-04-22 | 一种人脸图像自动上妆方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010321808.5A CN111612687B (zh) | 2020-04-22 | 2020-04-22 | 一种人脸图像自动上妆方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111612687A CN111612687A (zh) | 2020-09-01 |
CN111612687B true CN111612687B (zh) | 2023-04-18 |
Family
ID=72200109
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010321808.5A Active CN111612687B (zh) | 2020-04-22 | 2020-04-22 | 一种人脸图像自动上妆方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111612687B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112184876B (zh) * | 2020-09-28 | 2021-04-27 | 北京达佳互联信息技术有限公司 | 图像处理方法、装置、电子设备和存储介质 |
CN112767287A (zh) * | 2021-03-10 | 2021-05-07 | 百果园技术(新加坡)有限公司 | 一种模型训练、图像处理方法、装置、设备及介质 |
TWI762375B (zh) * | 2021-07-09 | 2022-04-21 | 國立臺灣大學 | 語意分割錯誤偵測系統 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2747030A2 (en) * | 2012-12-21 | 2014-06-25 | Zong Jing Investment | Method for moving color-makeup tool of automatic color-makeup machine |
CN109377448A (zh) * | 2018-05-20 | 2019-02-22 | 北京工业大学 | 一种基于生成对抗网络的人脸图像修复方法 |
CN109858392A (zh) * | 2019-01-11 | 2019-06-07 | 复旦大学 | 一种用于化妆前后人脸图像自动识别方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW201931179A (zh) * | 2017-07-13 | 2019-08-01 | 美商美國資生堂公司 | 用於虛擬面部化妝之移除與模擬、快速面部偵測及標記追蹤、降低輸入視訊之延遲及振動的系統與方法,以及用於建議化妝之方法 |
-
2020
- 2020-04-22 CN CN202010321808.5A patent/CN111612687B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2747030A2 (en) * | 2012-12-21 | 2014-06-25 | Zong Jing Investment | Method for moving color-makeup tool of automatic color-makeup machine |
CN109377448A (zh) * | 2018-05-20 | 2019-02-22 | 北京工业大学 | 一种基于生成对抗网络的人脸图像修复方法 |
CN109858392A (zh) * | 2019-01-11 | 2019-06-07 | 复旦大学 | 一种用于化妆前后人脸图像自动识别方法 |
Non-Patent Citations (1)
Title |
---|
陈俊周 ; 王娟 ; 龚勋 ; .基于级联生成对抗网络的人脸图像修复.电子科技大学学报.(第06期),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN111612687A (zh) | 2020-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109376582B (zh) | 一种基于生成对抗网络的交互式人脸卡通方法 | |
CN113569791B (zh) | 图像处理方法及装置、处理器、电子设备及存储介质 | |
CN110070483B (zh) | 一种基于生成式对抗网络的人像卡通化方法 | |
CN111612687B (zh) | 一种人脸图像自动上妆方法 | |
CN111242837B (zh) | 基于生成对抗网络的人脸匿名隐私保护方法 | |
CN109558832A (zh) | 一种人体姿态检测方法、装置、设备及存储介质 | |
CN113269872A (zh) | 基于三维人脸重构和视频关键帧优化的合成视频生成方法 | |
CN110555896B (zh) | 一种图像生成方法、装置以及存储介质 | |
CN113807265B (zh) | 一种多样化的人脸图像合成方法及*** | |
Li et al. | Globally and locally semantic colorization via exemplar-based broad-GAN | |
CN111783658A (zh) | 基于双生成对抗网络的两阶段表情动画生成方法 | |
CN110796593A (zh) | 基于人工智能的图像处理方法、装置、介质及电子设备 | |
CN113362422B (zh) | 一种阴影鲁棒的基于解耦表示的妆容迁移***及方法 | |
CN111950432A (zh) | 一种基于区域风格一致性的妆容风格迁移方法及*** | |
CN115457169A (zh) | 一种语音驱动的人脸动画生成方法及*** | |
CN110853119A (zh) | 一种鲁棒的基于参考图片的妆容迁移方法 | |
CN113724354A (zh) | 基于参考图颜色风格的灰度图像着色方法 | |
CN113222808A (zh) | 一种基于生成式对抗网络的人脸口罩移除方法 | |
Tang et al. | DRLIE: Flexible low-light image enhancement via disentangled representations | |
Morishima | Modeling of facial expression and emotion for human communication system | |
CN113947520A (zh) | 一种基于生成对抗网络实现人脸妆容转换的方法 | |
CN112241708A (zh) | 用于由原始人物图像生成新的人物图像的方法及装置 | |
Wu et al. | Coarse-to-Fine Low-Light Image Enhancement With Light Restoration and Color Refinement | |
Ye et al. | Interactive anime sketch colorization with style consistency via a deep residual neural network | |
CN113343761A (zh) | 一种基于生成对抗的实时人脸表情迁移方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |