CN111369468B - 图像处理方法、装置、电子设备及计算机可读介质 - Google Patents

图像处理方法、装置、电子设备及计算机可读介质 Download PDF

Info

Publication number
CN111369468B
CN111369468B CN202010157922.9A CN202010157922A CN111369468B CN 111369468 B CN111369468 B CN 111369468B CN 202010157922 A CN202010157922 A CN 202010157922A CN 111369468 B CN111369468 B CN 111369468B
Authority
CN
China
Prior art keywords
image
network
color
sample
target area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010157922.9A
Other languages
English (en)
Other versions
CN111369468A (zh
Inventor
李华夏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Douyin Vision Co Ltd
Douyin Vision Beijing Co Ltd
Original Assignee
Beijing ByteDance Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd filed Critical Beijing ByteDance Network Technology Co Ltd
Priority to CN202010157922.9A priority Critical patent/CN111369468B/zh
Publication of CN111369468A publication Critical patent/CN111369468A/zh
Application granted granted Critical
Publication of CN111369468B publication Critical patent/CN111369468B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本公开提供了一种图像处理方法、装置、电子设备及计算机可读介质,该方法采用训练后的目标区域变色特效网络,将待处理图像进行下采样,得到待处理图像的下采样结果,并根据目标性别对应的第一待插值属性,将下采样结果进行上采样插值后,就可以实现对待处理图像进行变换目标颜色处理,得到目标区域变色图像,通过目标区域变色特效网络,有助于实现图像锁定特定区域进行颜色变换,为用户提供了一种全新的特效体验。

Description

图像处理方法、装置、电子设备及计算机可读介质
技术领域
本公开涉及计算机技术领域,具体而言,本公开涉及一种图像处理方法、装置、电子设备及计算机可读介质。
背景技术
随着计算机技术和通信技术的迅猛发展,智能终端的使用得到广泛普及,越来越多的应用程序被开发出来用于方便和丰富人们的工作与生活。
目前,不少应用程序致力于为智能终端用户提供更加个性化与视觉感受更佳的视觉特效,例如滤镜效果、贴纸效果、形变效果等等。视觉特效体验的多样性、互动性和社会性得到了充分的发展。
用户也常有根据自己的兴趣爱好或其他动机来采用视觉特征建构各种网络形象的需求。例如在网络上通过照片或视频展示自己毛发或眼睛等部位变色后的模样,达到伪装效果。
但是现有技术中,还没有实现在图像的特定区域进行颜色变换的特效。
发明内容
为克服上述技术问题或者至少部分地解决上述技术问题,特提出以下技术方案:
第一方面,本公开提供了一种图像处理方法,该方法包括:
获取待处理图像、预训练的目标区域变色特效网络以及目标区域变色特效网络对应的第一待插值属性;
通过目标区域变色特效网络,将待处理图像进行下采样,得到待处理图像的下采样结果,并根据第一待插值属性,将下采样结果进行上采样插值,得到目标区域变色特效图像。
第二方面,本公开提供了一种图像处理装置,该装置包括:
获取模块,用于获取待处理图像、预训练的目标区域变色特效网络以及目标区域变色特效网络对应的第一待插值属性;
特效处理模块,用于通过目标区域变色特效网络,将待处理图像进行下采样,得到待处理图像的下采样结果,并根据第一待插值属性,将下采样结果进行上采样插值,得到目标区域变色特效图像。
第三方面,本公开提供了一种电子设备,该电子设备包括:
处理器和存储器,该存储器存储有至少一条指令、至少一段程序、代码集或指令集,该至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现如本公开的第一方面所示的方法。
第四方面,本公开提供了一种计算机可读介质,该计算机可读介质用于存储计算机指令、程序、代码集或指令集,当其在计算机上运行时,使得计算机执行如本公开的第一方面所示的方法。
本公开提供的图像处理方法、装置、电子设备及计算机可读介质,采用训练后的目标区域变色特效网络,将待处理图像进行下采样,得到待处理图像的下采样结果,并根据目标性别对应的第一待插值属性,将下采样结果进行上采样插值后,就可以实现对待处理图像进行变换目标颜色处理,得到目标区域变色图像,通过目标区域变色特效网络,有助于实现图像锁定特定区域进行颜色变换,为用户提供了一种全新的特效体验。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。
图1为本公开实施例提供的一种图像处理方法的流程示意图;
图2为本公开实施例提供的一种对抗生成网络的示意图;
图3为本公开实施例提供的另一种对抗生成网络的示意图;
图4为本公开实施例提供的一种训练模型的结构示意图;
图5为本公开实施例提供的一种图像处理装置的结构示意图;
图6为本公开实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对特征、数据、元件、装置、模块或单元进行区分,并非用于限定这些特征、数据、元件、装置、模块或单元一定为不同的特征、数据、元件、装置、模块或单元,也并非用于限定这些特征、数据、元件、装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
为使本公开的目的、技术方案和优点更加清楚,下面将结合附图对本公开实施方式作进一步地详细描述。
本公开实施例提供了一种图像处理方法,如图1所示,该方法包括:
步骤S110:获取待处理图像、预训练的目标区域变色特效网络以及目标区域变色特效网络对应的第一待插值属性;
其中,目标区域变色特效网络是针对目标区域训练得到的,即训练阶段针对训练样本对应目标区域的概率图进行训练,能够对待处理图像的目标区域进行相应处理。
步骤S120:通过目标区域变色特效网络,将待处理图像进行下采样,得到待处理图像的下采样结果,并根据第一待插值属性,将下采样结果进行上采样插值,得到目标区域变色特效图像。
本公开实施例提供的图像处理方法,采用训练后的目标区域变色特效网络,将待处理图像进行下采样,得到待处理图像的下采样结果,并根据目标性别对应的第一待插值属性,将下采样结果进行上采样插值后,就可以实现对待处理图像进行变换目标颜色处理,得到目标区域变色图像,通过目标区域变色特效网络,有助于实现图像锁定特定区域进行颜色变换,为用户提供了一种全新的特效体验。
本公开实施例中,目标区域变色特效网络是通过以下步骤训练得到的:
步骤S210:获取预构建的对抗生成网络,对抗生成网络包括生成网络、第一判别网络、第二判别网络和第一分类网络;通过生成网络,将每个包含目标区域的颜色信息的样本图像进行下采样,得到相应的图像特征,并将每个样本图像的图像特征进行上采样及变换目标颜色处理,得到对应的生成图像;确定每个样本图像对应目标区域的概率图,并根据每个概率图对相应的样本图像和对应的生成图像进行混合,得到相应的混合图像;通过第一判别网络,对每个样本图像的图像特征的颜色真实性进行判别,得到相应的第一判别结果;通过第二判别网络,对每个样本图像和对应的混合图像的真实性进行判别,得到相应的第二判别结果;通过第一分类网络,根据每个样本图像对应的生成图像,得到目标颜色的分类结果;
步骤S220:基于每个样本图像对应的第一判别结果、第二判别结果、分类结果和生成图像,对对抗生成网络进行对抗训练,并将训练后的生成网络确定为目标区域变色特效网络。
本公开实施例中,目标区域为图像中需要变换颜色的物体的所在区域,以及,用于训练的样本图像为包含该需要变换颜色的物体的图像。作为示例地,需要变换颜色的物体为头发,则目标区域为头发区域,样本图像可以为人脸图像、人体图像等。在其他应用场景中,需要变换颜色的物体还可以为车辆、树木、动物等,样本图像可以为风景图像等,本公开实施例对此不作限定。
其中,对抗生成网络可以是基于各种类型的对抗式生成网络(GenerativeAdversarial Nets,GAN)构建的,GAN的主要结构包括一个生成器G(Generator)和一个判别器D(Discriminator)。
对于本公开实施例,如图2所示,定义生成网络来作为生成器G,该网络使用先下采样,后上采样的处理方式,这种处理方式可以更好的表现出样本图像中的潜在特征。具体而言,每次训练时,在下采样阶段,生成网络会由样本图像提取得到图像特征,实际应用中,图像特征可以表现为特征向量的形式。在上采样阶段,生成网络会在图像特征到图像的生成过程中,对图像进行变换目标颜色处理,以使得生成网络学习到生成目标区域为目标颜色的图像的能力。作为示例地,若此次训练的目标颜色为黄色,生成网络在上采样阶段会对图像进行变黄色处理,输出的为生成网络生成的目标区域为黄色的生成图像。实际应用中,根据训练的目标颜色的不同,可以将生成网络训练成变换为不同颜色的能力。本公开实施例中,仅训练一个生成网络变换成一种目标颜色的能力,可以提高生成网络的精度。另外,根据训练的目标区域的不同,可以将生成网络训练成变换不同区域的颜色的能力,本领域技术人员可以根据实际情况选择需要的目标颜色及目标区域进行训练,本公开实施例在此不作限定。
对于本公开实施例,如图2所示,还定义了两个判别器D,分别为第一判别网络和第二判别网络。其中,每次训练时,第一判别网络用于对图像特征的颜色真实性进行判别。其中,判断结果与样本图像的颜色信息应是相关联的。作为示例地,若此次训练输入生成网络的是目标区域为非黄色的样本图像,则第一判别网络则将图像特征在目标区域为非黄色判别为真的,黄色判别为假的。第二判别网络用于对图像的真实性进行判别。
本公开实施例中,为了使第二判别网络判别图像的真实性时,只关注目标区域颜色的变换,而不受背景或其他物体的干扰,从而通过对抗训练提高生成网络针对目标区域进行变色的能力,如图2所示,对抗生成网络还包括目标区域分割的功能,该功能可以由对抗生成网络中对应的方法模块直接执行。具体地,需要针对目标区域得到一个单通道的概率图(mask),用于表征图像中各像素与目标区域的关系。在将生成图像放入第二判别网络之前,根据得到的概率图将对应的生成图片和样本图像进行混合得到混合图像。也就是说,第二判别网络是用于对样本图像和混合图像的真实性进行判别,即判断样本图像是真的(Real)还是假的(Fake),以及混合图像是真的还是假的。
对于本公开实施例,如图2所示,还定义了一个分类器,即第一分类网络,用于辅助训练。每次训练时,第一分类网络用于对生成图像进行分类,得到目标颜色的分类结果。作为示例地,若此次训练的目标颜色为黄色,则第一分类网络得到的生成图像的分类结果应为黄色。
本公开实施例中,步骤S220的对抗训练具体可采用如下流程:
初始化生成网络的网络参数、第一判别网络的网络参数、第二判别网络的网络参数和第一分类网络的网络参数。
基于m组样本图像{a1,a2,…,am},以及从生成网络得到的m个图像特征{z1,z2,…,zm}、m个生成图像
Figure BDA0002404744210000061
m个混合图像
Figure BDA0002404744210000062
进行对抗训练。
训练第一判别网络尽可能准确地分辨出图像特征在目标区域的真实颜色;训练生成网络尽可能地让图像特征远离目标区域的颜色信息,相当于尽量使得第一判别网络对图像特征的目标区域的颜色判别错误。以及训练第二判别网络尽可能准确地区分真实的样本(样本图像)和生成的样本(混合图像);训练生成网络尽可能地模糊生成的样本(混合图像)与真实的样本之间(样本图像)的差别,也相当于尽量使得第二判别网络判别错误。训练第一分类网络尽可能对生成图像分类准确。也就是说,生成网络在对抗训练的过程中可以提高生成能力,第一判别网络和第二判别网络可以提高判别能力,第一分类网络可以提高分类能力。
多次更新迭代之后,最终理想情况是第一判别网络判别不出图像特征在目标区域的真实颜色,第二判别网络判别不出样本是生成的样本还是真实的样本。
由于经过对抗训练,生成网络的生成能力达到了理想状态,将训练后的生成网络确定为目标区域变色特效网络,能够实现良好的图像目标区域变颜色特效效果。
本公开实施例提供的图像处理方法,在训练目标区域变色特效网络时采用预构建的对抗生成网络,通过在样本图像的图像特征层面和生成图像层面一起做对抗训练,并通过概率图来分割目标区域,使得对抗生成网络中的生成网络可以有效提升将图像中目标区域进行变色的能力,且变色效果不会对目标区域外的其他区域产生影响,在将训练后的生成网络作为目标区域特效网络对待处理图像进行变换目标颜色处理,得到目标区域变色图像时,便可实现图像锁定特定区域进行颜色变换,为用户提供了一种全新的特效体验。
本公开实施例中,为生成网络上采样阶段的变换目标颜色处理提供了一种可行的实现方式,具体而言,包括如下步骤:根据预设的目标颜色的第二待插值属性,对每个样本图像的图像特征进行上采样插值。
其中,本来领域技术人员可以根据实际情况来设置目标颜色的第二待插值属性,作为示例地,若此次训练的目标颜色为黄色,可以将黄色的插值属性设为1,非黄色的插值属性设为0等。由于生成网络在对抗训练过程中会自动学习到插值属性与目标区域的颜色属性的关联关系,因此在训练完成后,预设的插值属性便可用来表征目标颜色。
本公开实施例中,可以将第二待插值属性通过通道的形式在上采样过程中进行***。
具体而言,上采样时,在图像特征原有的通道层数上,额外增加一层通道,用于填充第二待插值属性。
以将目标颜色的插值属性设为1为例,假设图像特征包括4个通道的8×8的特征图(即尺寸为4×8×8),上采样会***一层均为1的通道,最终得到5个通道的8×8的特征图(即尺寸为5×8×8)。
本领域技术人员可以理解的是,样本图像在目标区域的颜色信息隐藏在原通道中(即上例中的4个通道的8×8的特征图中),通过生成网络与第一判别网络的对抗训练,能够使得下采样阶段去掉原通道中目标区域的颜色信息,即得到目标区域没有颜色信息的图像特征,继而在上采样阶段***生成网络学习到的表征目标颜色的第二待插值属性,便可利用第二待插值属性来决定生成图像目标区域的颜色。
本公开实施例中,为对抗生成网络中的目标区域分割的功能提供了一种可行的实施方式,具体而言,确定每个样本图像对应目标区域的概率图的过程,包括:获取每个概率图,每个概率图是通过预训练的目标区域分割网络对对应的样本图像进行图像分割处理得到的。
该实施方式中,预训练了目标区域分割网络,能够识别目标区域。作为示例地,若变换颜色的物体为头发,可以训练一个头发分割网络,用来识别头发区域。将每个样本图像输入训练好的目标区域分割网络进行图像分割处理,便可输出相应的概率图。
实际应用中,目标区域分割网络可以独立于对抗生成网络,在离线或实时输出相应的概率图后,供对抗生成网络直接获取使用。或者,目标区域分割网络也可以属于对抗生成网络,在输出相应的概率图后实时供对抗生成网络中的其他模块使用。
其中,输出的概率图可以表示出对应的图像(包括样本图像和生成图像)中各像素是否属于目标区域。作为示例地,概率图可以是由0和1组成的二进制图像,1值区域即目标区域,0值区域即图像中目标区域外的其他区域。那么,对抗生成网络会根据每个概率图对相应的样本图像和对应的生成图像进行混合,即针对概率图中的1值区域,取生成图像中的对应像素,针对概率图中的0值区域,取样本图像中的对应像素,以组成完整的混合图像。
或者,输出的概率图可以表示出对应的图像中各像素属于目标区域的概率。作为示例地,概率图中的每个像素均对应大于等于0且小于等于1的数值,数值越接近1的像素属于目标区域的概率越高。那么,对抗生成网络会根据每个概率图对相应的样本图像和对应的生成图像进行混合,即基于每个概率图中各个像素的概率值,将相应的样本图像和对应的生成图像中相应像素的值进行混合。简单来说,就是针对每个像素,由以下方式计算得到混合图像的各个像素:
z=p*x+(1-p)*y
其中,p表示任一像素的概率数值,x表示生成图像中的该像素,y表示样本图像中的该像素,z表示混合图像中的该像素。
本公开实施例中,为对抗生成网络中的目标区域分割的功能提供了另一种可行的实施方式,具体而言,如图3所示,对抗生成网络还包括注意力网络,通过注意力网络对每个样本图像进行图像分割处理,得到相应的概率图。
不同于上一种实施方式中的目标区域分割网络,该实施方式中,注意力网络采用了非监督的训练方式,即在对对抗生成网络的训练中,注意力网络会自动学习到对每个样本图像进行图像分割处理,输出相应的概率图。
同理地,注意力网络输出的概率图可以表示出对应的图像中各像素是否属于目标区域。也可以表示出对应的图像中各像素属于目标区域的概率。具体的表示方式和计算方式可参见目标区域分割网络实施方式中的描述,在此不再赘述。
在通过任一种实施方式得到混合图像后,便可放进第二判别网络进行样本真实性的判别。
本公开实施例中,为对抗训练过程提供了对应的损失函数,用于训练过程中更好地优化对抗生成网络。
具体而言,步骤S220包括如下步骤:
步骤S221:根据每个样本图像对应的第一判别结果来确定相应的图像特征对应的真实颜色损失和虚假颜色损失;
其中,由于第一判别网络需要将m个图像特征在目标区域的颜色判断为真(与样本图像在目标区域的颜色信息相同时为真,真概率为1),但实际训练过程中,每个图像特征在目标区域的颜色被第一判别网络判别为真的概率可能不为1,此时可以基于对图像特征目标区域的颜色的真假概率的判断来确定一个对抗损失,本公开实施例中将其定义为图像特征对应的真实颜色损失,为便于描述,下文中将图像特征对应的真实颜色损失简称为L3_loss1。
由于生成网络需要尽可能地让图像特征的目标区域远离颜色信息,相当于尽量使得第一判别网络对图像特征目标区域的颜色判别错误,将m个图像特征目标区域的颜色判断为假。此时可以基于生成网络导致的对图像特征目标区域的颜色的真假概率的判断(错误的判断)来确定一个对抗损失,本公开实施例中将其定义为图像特征对应的虚假颜色损失,为便于描述,下文中将图像特征对应的虚假颜色损失简称为L3_loss2。
步骤S222:根据每个样本图像对应的第二判别结果来确定相应的样本图像对应的真样本损失、混合图像对应的假样本真实损失和混合图像对应的假样本虚假损失;
其中,由于第二判别网络需要将m个样本图像均判断为真样本(即真实的样本,真的概率为1),但实际训练过程中,每个样本图像被第二判别网络判别为真的概率可能不为1,此时可以基于对样本图像的真假概率的判断来确定一个对抗损失,本公开实施例中将其定义为样本图像对应的真样本损失,为便于描述,下文中将样本图像对应的真样本损失简称为L2_loss1。
由于第二判别网络需要将m个混合图像均判断为假样本(即生成的样本,真的概率为0),但实际训练过程中,每个混合图像被第二判别网络判别为真的概率可能不为0。此时可以基于对混合图像的真假概率的判断来确定一个对抗损失,本公开实施例中将其定义为混合图像对应的假样本真实损失,为便于描述,下文中将混合图像对应的假样本真实损失简称为L2_loss2。
由于生成网络需要尽可能地模糊生成的样本(混合图像)与真实的样本之间(样本图像)的差距,即生成网络尽量使得第二判别网络判断错误,将m个混合图像均判断为真样本。此时可以基于生成网络导致的对混合图像的真假概率的判断(错误的判断)来确定一个对抗损失,本公开实施例中将其定义为混合图像对应的假样本虚假损失,为便于描述,下文中将混合图像对应的假样本虚假损失简称为L2_loss3。
实际应用中,这三个损失均可以基于最小二乘损失函数进行计算,但不限于此。
步骤S223:根据每个样本图像对应的分类结果来确定相应的目标颜色分类损失;
由于第一分类网络需要尽可能对生成图像分类准确,此时会产生一个分类损失,本公开实施例中将其定义为目标颜色分类损失,为便于描述,下文中将目标颜色分类损失简称为L4_loss。
实际应用中,该损失均可以基于交叉熵损失函数进行计算,但不限于此。
步骤S224:确定每个样本图像与对应的生成图像之间的图像损失;
其中,对于本领域技术人员而言清楚的是,由于生成图像是由对应的样本图像经过下采样再上采样得到的,那么每个样本图像和对应的生成图像的像素尺寸是相同的,例如a1
Figure BDA0002404744210000111
的像素尺寸是相同的。但实际训练过程中,每个样本图像和对应的生成图像之间内容会存在不同,可以针对对应的样本图像与生成图像,逐一比对其中相同的像素,确定每个像素的差值,再根据每个像素的差值来确定样本图像与生成图像之间的图像损失。
一种可行的实现方式中,将每个像素的差值进行求和,即可得到样本图像与生成图像之间的图像损失。
下文中为便于描述,将样本图像与生成图像之间的图像损失简称为L1_loss。
步骤S225:根据每个样本图像对应的真实颜色损失、虚假颜色损失、真样本损失、假样本真实损失、假样本虚假损失、目标颜色分类损失和图像损失,对对抗生成网络进行优化。
一种可行的实现方式中,对每次训练的L1_loss、L2_loss1、L2_loss2、L2_loss3、L3_loss1、L3_loss2和L4_loss进行融合,例如加权融合、相加、求均值或其他融合方式等,得到对应的总损失。在该步骤中,根据每次训练的总损失来对对抗生成网络进行优化,逐步得到最佳的训练效果。
另外,本公开实施例提供的上述训练过程,还可以包括步骤:获取预训练的第二分类网络;通过第二分类网络,对图像数据标注目标区域的颜色信息,得到每个包含目标区域的颜色信息的样本图像。
其中,该第二分类网络是用公开的数据集训练好的,作为评价指标,用于分辨图像目标区域的颜色信息。本公开实施例中,不对颜色信息的具体形式进行限定,例如可采用上例中的1和0分别对目标颜色和非目标颜色进行标注,也可以采用其他类型的标注信息。
利用第二分类网络对各种来源的图像数据来标注目标区域的颜色信息,便可得到大量包含目标区域的颜色信息的样本图像,用于生成网络进行处理,还可以用于第二判别网络和/或目标区域分割的功能模块进行处理。
其他实施例中,第二分类网络也可以是独立于对抗生成网络的,在通过第二分类网络离线或实时得到大量包含目标区域的颜色信息的样本图像后,用于对抗生成网络调用。
基于本公开的上述各实施例,本公开实施例还提供了一种训练模型,该模型包括:生成网络、混合模块、第一判别网络、第二判别网络和第一分类网络,生成网络用于将每个包含目标区域的颜色信息的样本图像进行下采样,得到相应的图像特征,并将每个样本图像的图像特征进行上采样及变换目标颜色处理,得到对应的生成图像,混合模块用于确定每个样本图像对应目标区域的概率图,并根据每个概率图对相应的样本图像和对应的生成图像进行混合,得到相应的混合图像,第一判别网络用于对每个样本图像的图像特征的颜色真实性进行判别,得到相应的第一判别结果,第二判别网络用于分别对每个样本图像和对应的混合图像的真实性进行判别,得到相应的第二判别结果,第一分类网络用于根据每个样本图像对应的生成图像,得到目标颜色的分类结果;
如图4所示,生成网络分别与混合模块、第一判别网络和第一分类网络相连,且混合模块与第二判别网络相连,以使得基于每个样本图像对应的第一判别结果、第二判别结果、分类结果和生成图像,对对抗生成网络进行对抗训练,得到训练后的生成网络。
进一步地,该训练模型的混合模块中可以包含注意力网络,在混合模块用于确定每个样本图像对应目标区域的概率图时,注意力网络用于对每个样本图像进行处理,得到相应的概率图。
或者,该训练模型中可以包含注意力网络,训练好的目标区域分割网络,与混合模块相连,目标区域分割网络输出的概率图供混合模块获取用于后续处理。
更进一步地,该训练模型可以还包括第二分类网络,第二分类网络与生成网络相连,用于对图像数据标注目标区域的颜色信息,得到每个包含目标区域的颜色信息的样本图像。实际应用中,第二分类网络还可以与混合模块和/或第二判别网络相连。
本公开实施例所提供的训练模型,其实现原理及产生的技术效果和前述各方法实施例中的对抗生成网络相同,为简要描述,本实施例部分未提及之处,可参考前述方法实施例中相应内容,在此不再赘述。
基于本公开的上述各实施例,本公开实施例中,目标区域变色特效的处理指令可以通过用户在终端设备上的操作发出。其中,终端设备包括但不限于移动终端、智能终端等,例如移动电话、智能电话、平板电脑、笔记本电脑、个人数字助理、便携式多媒体播放器、导航装置等。本领域技术人员可以理解的是,除了特别用于移动目的的元件之外,根据本公开实施例的构造也能够应用于固定类型的终端,诸如数字电视、台式计算机等。
本公开实施例中,该方法的执行主体可以为该终端设备,或为安装于该终端设备上的应用程序。具体地,在接收到目标区域变色特效的处理指令后,在步骤S110中,获取该处理指令对应的待处理图像。
另外,在步骤S110中,还要获取采用本公开上述任一实施例中所提供的训练步骤训练得到的目标区域变色特效网络,以及该目标区域变色特效网络对应的第一待插值属性来对待处理图像执行目标区域变色特效。其中,由于目标区域变色特效网络具有其对应的目标颜色,即该第一待插值属性也是目标区域变色特效网络对应的目标颜色的第一待插值属性。对于待插值属性是如何设置的可参见上文中训练阶段的描述,在此不再赘述。具体地,通过目标区域变色特效网络对待处理图像进行下采样,得到待处理图像的下采样结果,结合上文可知,下采样结果为远离颜色信息的图像特征,随后根据目标区域变色特效网络对应的第一待插值属性,将下采样结果进行上采样插值,便可得到目标区域变色特效图像。其中,上采样插值的方式可参见上文中对生成网络的介绍,在此不再赘述。
实际应用中,处理指令可以包括将目标区域依次变成多个目标颜色,例如依次将人脸图像的头发变成黄色、蓝色、红色等。此时可以获得分别训练的不同目标颜色对应的目标区域变色特效网络,并分别对待处理图像进行变换目标颜色处理,得到各种颜色的目标区域变色图像,依次进行展示。
进一步地,在得到目标区域变色图像之后,还可以包括步骤:将目标区域变色特效图像在显示屏幕上进行展示。
或者,该方法的执行主体可以为服务器,在接收到终端设备发出的目标区域变色特效的处理指令后,与终端设备类似的,接收该处理指令对应的待处理图像,并获取采用本公开上述任一实施例中所提供的训练步骤训练得到的目标区域变色特效网络,通过目标区域变色特效对待处理图像进行下采样,得到待处理图像的下采样结果,随后根据目标颜色的第一待插值属性,将下采样结果进行上采样插值,便可得到目标区域变色特效图像。而对于服务器,还需要将目标区域变色特效图像发送给终端设备进行展示。
需要说明的是,上述第一待插值属性和第二待插值属性仅表示对训练阶段和应用阶段的年龄插值属性进行区分,而不能理解为对插值属性的限定。实际应用中,第一待插值属性和第二待插值属性的表达形式均是根据对生成网络的设置决定的。
本公开实施例中,待处理图像的类型应与参与样本图像的类型相同或相近,具体可参见对样本图像的介绍,在此不再赘述。
实际应用中,待处理图像的数量可以为一个或多个。当待处理图像的数量为多个时,待处理图像也可以为待处理视频。其中,对于待处理视频中的每一帧图像,都可以采用上述图像处理方法进行处理,以得到目标区域变色特效视频。
本领域技术人员可以理解的是,得到的目标区域变色特效图像与待处理图像乃是目标区域颜色不同的同一张图像,例如头发颜色不同的同一张人脸图像。实际应用中,通过本公开实施例提供的图像处理方法处理得到的特效图像,比原图(待处理图像)的清晰度与锐化程度更高。
本公开实施例还提供了一种图像处理装置,如图5所示,该图像处理装置50可以包括:获取模块510以及特效处理模块520,其中,
获取模块510用于获取待处理图像、预训练的目标区域变色特效网络以及目标区域变色特效网络对应的第一待插值属性;
特效处理模块520用于通过目标区域变色特效网络,将待处理图像进行下采样,得到待处理图像的下采样结果,并根据第一待插值属性,将下采样结果进行上采样插值,得到目标区域变色特效图像。
在一种可选的实现方式中,目标区域变色特效网络是通过以下步骤训练得到的:
获取预构建的对抗生成网络,对抗生成网络包括生成网络、第一判别网络、第二判别网络和第一分类网络;
通过生成网络,将每个包含目标区域的颜色信息的样本图像进行下采样,得到相应的图像特征,并将每个样本图像的图像特征进行上采样及变换目标颜色处理,得到对应的生成图像;
确定每个样本图像对应目标区域的概率图,并根据每个概率图对相应的样本图像和对应的生成图像进行混合,得到相应的混合图像;
通过第一判别网络,对每个样本图像的图像特征的颜色真实性进行判别,得到相应的第一判别结果;
通过第二判别网络,对每个样本图像和对应的混合图像的真实性进行判别,得到相应的第二判别结果;
通过第一分类网络,根据每个样本图像对应的生成图像,得到目标颜色的分类结果;
基于每个样本图像对应的第一判别结果、第二判别结果、分类结果和生成图像,对对抗生成网络进行对抗训练,并将训练后的生成网络确定为目标区域变色特效网络。
在一种可选的实现方式中,确定每个样本图像对应目标区域的概率图的过程,包括以下任一种:
获取每个概率图,每个概率图是通过预训练的目标区域分割网络对对应的样本图像进行图像分割处理得到的;
对抗生成网络还包括注意力网络,通过注意力网络对每个样本图像进行图像分割处理,得到相应的概率图。
在一种可选的实现方式中,根据每个概率图对相应的样本图像和对应的生成图像进行混合的过程,包括:
基于每个概率图中各个像素的概率值,将相应的样本图像和对应的生成图像中相应像素的值进行混合。
在一种可选的实现方式中,将每个样本图像的图像特征进行上采样及变换目标颜色处理的过程,包括:
根据预设的目标颜色的第二待插值属性,对每个样本图像的图像特征进行上采样插值。
在一种可选的实现方式中,基于每个样本图像对应的第一判别结果、第二判别结果、分类结果和生成图像,对对抗生成网络进行对抗训练的过程,包括:
根据每个样本图像对应的第一判别结果来确定相应的图像特征对应的真实颜色损失和虚假颜色损失;
根据每个样本图像对应的第二判别结果来确定相应的样本图像对应的真样本损失、混合图像对应的假样本真实损失和混合图像对应的假样本虚假损失;
根据每个样本图像对应的分类结果来确定相应的目标颜色分类损失;
确定每个样本图像与对应的生成图像之间的图像损失;
根据每个样本图像对应的真实颜色损失、虚假颜色损失、真样本损失、假样本真实损失、假样本虚假损失、目标颜色分类损失和图像损失,对对抗生成网络进行优化。
在一种可选的实现方式中,还包括:
获取预训练的第二分类网络;
通过第二分类网络,对图像数据标注目标区域的颜色信息,得到每个包含目标区域的颜色信息的样本图像。
本公开实施例所提供的图像处理装置,可以为设备上的特定硬件或者安装于设备上的软件或固件等,其实现原理及产生的技术效果和前述方法实施例相同,为简要描述,设备实施例部分未提及之处,可参考前述方法实施例中相应内容,在此不再赘述。
其中,对于目标区域变色特效网络的训练,本公开实施例还提供了一种训练装置,该训练装置可以包括:网络获取模块和网络训练模块,其中,
网络获取模块用于获取预构建的对抗生成网络,对抗生成网络包括生成网络、混合模块、第一判别网络、第二判别网络和第一分类网络;
生成网络用于将每个包含目标区域的颜色信息的样本图像进行下采样,得到相应的图像特征,并将每个样本图像的图像特征进行上采样及变换目标颜色处理,得到对应的生成图像;
混合模块用于确定每个样本图像对应目标区域的概率图,并根据每个概率图对相应的样本图像和对应的生成图像进行混合,得到相应的混合图像;
第一判别网络用于对每个样本图像的图像特征的颜色真实性进行判别,得到相应的第一判别结果;
第二判别网络用于对每个样本图像和对应的混合图像的真实性进行判别,得到相应的第二判别结果;
第一分类网络用于根据每个样本图像对应的生成图像,得到目标颜色的分类结果;
网络训练模块用于基于每个样本图像对应的第一判别结果、第二判别结果、分类结果和生成图像,对对抗生成网络进行对抗训练,并将训练后的生成网络确定为目标区域变色特效网络。
在一种可选的实现方式中,混合模块在用于确定每个样本图像对应目标区域的概率图时,具体用于以下任一种:
获取每个概率图,每个概率图是通过预训练的目标区域分割网络对对应的样本图像进行图像分割处理得到的;
混合模块还包括注意力网络,通过注意力网络对每个样本图像进行图像分割处理,得到相应的概率图。
在一种可选的实现方式中,混合模块在用于根据每个概率图对相应的样本图像和对应的生成图像进行混合时,具体用于:
基于每个概率图中各个像素的概率值,将相应的样本图像和对应的生成图像中相应像素的值进行混合。
在一种可选的实现方式中,生成网络在用于将每个样本图像的图像特征进行上采样及变换目标颜色处理时,具体用于:
根据预设的目标颜色的第二待插值属性,对每个样本图像的图像特征进行上采样插值。
在一种可选的实现方式中,网络训练模块在用于基于每个样本图像对应的第一判别结果、第二判别结果、分类结果和生成图像,对对抗生成网络进行对抗训练时,具体用于:
根据每个样本图像对应的第一判别结果来确定相应的图像特征对应的真实颜色损失和虚假颜色损失;
根据每个样本图像对应的第二判别结果来确定相应的样本图像对应的真样本损失、混合图像对应的假样本真实损失和混合图像对应的假样本虚假损失;
根据每个样本图像对应的分类结果来确定相应的目标颜色分类损失;
确定每个样本图像与对应的生成图像之间的图像损失;
根据每个样本图像对应的真实颜色损失、虚假颜色损失、真样本损失、假样本真实损失、假样本虚假损失、目标颜色分类损失和图像损失,对对抗生成网络进行优化。
在一种可选的实现方式中,网络获取模块还用于:
获取预训练的第二分类网络;
通过第二分类网络,对图像数据标注目标区域的颜色信息,得到每个包含目标区域的颜色信息的样本图像。
本公开实施例所提供的训练装置,可以为设备上的特定硬件或者安装于设备上的软件或固件等,其实现原理及产生的技术效果和前述方法实施例相同,为简要描述,设备实施例部分未提及之处,可参考前述方法实施例中相应内容,在此不再赘述。
下面参考图6,其示出了适于用来实现本公开实施例的电子设备60的结构示意图。本公开实施例中的电子设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图6示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
电子设备包括:存储器以及处理器,其中,这里的处理器可以称为下文的处理装置601,存储器可以包括下文中的只读存储器(ROM)602、随机访问存储器(RAM)603以及存储装置608中的至少一项,具体如下所示:
如图6所示,电子设备60可以包括处理装置(例如中央处理器、图形处理器等)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储装置608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有电子设备60操作所需的各种程序和数据。处理装置601、ROM602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
通常,以下装置可以连接至I/O接口605:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置606;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置607;包括例如磁带、硬盘等的存储装置608;以及通信装置609。通信装置609可以允许电子设备60与其他设备进行无线或有线通信以交换数据。虽然图6示出了具有各种装置的电子设备60,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置609从网络上被下载和安装,或者从存储装置608被安装,或者从ROM 602被安装。在该计算机程序被处理装置601执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备执行本公开上述任一实施例所示的图像处理方法。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的模块或单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,模块或单元的名称在某种情况下并不构成对该单元本身的限定。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上***(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行***、装置或设备使用或与指令执行***、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体***、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
根据本公开的一个或多个实施例,示例1提供了一种图像处理方法,该方法包括:
获取待处理图像、预训练的目标区域变色特效网络以及目标区域变色特效网络对应的第一待插值属性;
通过目标区域变色特效网络,将待处理图像进行下采样,得到待处理图像的下采样结果,并根据第一待插值属性,将下采样结果进行上采样插值,得到目标区域变色特效图像。
在一种可选的实现方式中,目标区域变色特效网络是通过以下步骤训练得到的:
获取预构建的对抗生成网络,对抗生成网络包括生成网络、第一判别网络、第二判别网络和第一分类网络;
通过生成网络,将每个包含目标区域的颜色信息的样本图像进行下采样,得到相应的图像特征,并将每个样本图像的图像特征进行上采样及变换目标颜色处理,得到对应的生成图像;
确定每个样本图像对应目标区域的概率图,并根据每个概率图对相应的样本图像和对应的生成图像进行混合,得到相应的混合图像;
通过第一判别网络,对每个样本图像的图像特征的颜色真实性进行判别,得到相应的第一判别结果;
通过第二判别网络,对每个样本图像和对应的混合图像的真实性进行判别,得到相应的第二判别结果;
通过第一分类网络,根据每个样本图像对应的生成图像,得到目标颜色的分类结果;
基于每个样本图像对应的第一判别结果、第二判别结果、分类结果和生成图像,对对抗生成网络进行对抗训练,并将训练后的生成网络确定为目标区域变色特效网络。
在一种可选的实现方式中,确定每个样本图像对应目标区域的概率图,包括以下任一种:
获取每个概率图,每个概率图是通过预训练的目标区域分割网络对对应的样本图像进行图像分割处理得到的;
对抗生成网络还包括注意力网络,通过注意力网络对每个样本图像进行图像分割处理,得到相应的概率图。
在一种可选的实现方式中,根据每个概率图对相应的样本图像和对应的生成图像进行混合,包括:
基于每个概率图中各个像素的概率值,将相应的样本图像和对应的生成图像中相应像素的值进行混合。
在一种可选的实现方式中,将每个样本图像的图像特征进行上采样及变换目标颜色处理,包括:
根据预设的目标颜色的第二待插值属性,对每个样本图像的图像特征进行上采样插值。
在一种可选的实现方式中,基于每个样本图像对应的第一判别结果、第二判别结果、分类结果和生成图像,对对抗生成网络进行对抗训练,包括:
根据每个样本图像对应的第一判别结果来确定相应的图像特征对应的真实颜色损失和虚假颜色损失;
根据每个样本图像对应的第二判别结果来确定相应的样本图像对应的真样本损失、混合图像对应的假样本真实损失和混合图像对应的假样本虚假损失;
根据每个样本图像对应的分类结果来确定相应的目标颜色分类损失;
确定每个样本图像与对应的生成图像之间的图像损失;
根据每个样本图像对应的真实颜色损失、虚假颜色损失、真样本损失、假样本真实损失、假样本虚假损失、目标颜色分类损失和图像损失,对对抗生成网络进行优化。
在一种可选的实现方式中,该方法还包括:
获取预训练的第二分类网络;
通过第二分类网络,对图像数据标注目标区域的颜色信息,得到每个包含目标区域的颜色信息的样本图像。
根据本公开的一个或多个实施例,示例2提供了示例1的图像处理装置,该装置包括:
获取模块,用于获取待处理图像、预训练的目标区域变色特效网络以及目标区域变色特效网络对应的第一待插值属性;
特效处理模块,用于通过目标区域变色特效网络,将待处理图像进行下采样,得到待处理图像的下采样结果,并根据第一待插值属性,将下采样结果进行上采样插值,得到目标区域变色特效图像。
在一种可选的实现方式中,目标区域变色特效网络是通过以下步骤训练得到的:
获取预构建的对抗生成网络,对抗生成网络包括生成网络、第一判别网络、第二判别网络和第一分类网络;
通过生成网络,将每个包含目标区域的颜色信息的样本图像进行下采样,得到相应的图像特征,并将每个样本图像的图像特征进行上采样及变换目标颜色处理,得到对应的生成图像;
确定每个样本图像对应目标区域的概率图,并根据每个概率图对相应的样本图像和对应的生成图像进行混合,得到相应的混合图像;
通过第一判别网络,对每个样本图像的图像特征的颜色真实性进行判别,得到相应的第一判别结果;
通过第二判别网络,对每个样本图像和对应的混合图像的真实性进行判别,得到相应的第二判别结果;
通过第一分类网络,根据每个样本图像对应的生成图像,得到目标颜色的分类结果;
基于每个样本图像对应的第一判别结果、第二判别结果、分类结果和生成图像,对对抗生成网络进行对抗训练,并将训练后的生成网络确定为目标区域变色特效网络。
在一种可选的实现方式中,确定每个样本图像对应目标区域的概率图的过程,包括以下任一种:
获取每个概率图,每个概率图是通过预训练的目标区域分割网络对对应的样本图像进行图像分割处理得到的;
对抗生成网络还包括注意力网络,通过注意力网络对每个样本图像进行图像分割处理,得到相应的概率图。
在一种可选的实现方式中,根据每个概率图对相应的样本图像和对应的生成图像进行混合的过程,包括:
基于每个概率图中各个像素的概率值,将相应的样本图像和对应的生成图像中相应像素的值进行混合。
在一种可选的实现方式中,将每个样本图像的图像特征进行上采样及变换目标颜色处理的过程,包括:
根据预设的目标颜色的第二待插值属性,对每个样本图像的图像特征进行上采样插值。
在一种可选的实现方式中,基于每个样本图像对应的第一判别结果、第二判别结果、分类结果和生成图像,对对抗生成网络进行对抗训练的过程,包括:
根据每个样本图像对应的第一判别结果来确定相应的图像特征对应的真实颜色损失和虚假颜色损失;
根据每个样本图像对应的第二判别结果来确定相应的样本图像对应的真样本损失、混合图像对应的假样本真实损失和混合图像对应的假样本虚假损失;
根据每个样本图像对应的分类结果来确定相应的目标颜色分类损失;
确定每个样本图像与对应的生成图像之间的图像损失;
根据每个样本图像对应的真实颜色损失、虚假颜色损失、真样本损失、假样本真实损失、假样本虚假损失、目标颜色分类损失和图像损失,对对抗生成网络进行优化。
在一种可选的实现方式中,还包括:
获取预训练的第二分类网络;
通过第二分类网络,对图像数据标注目标区域的颜色信息,得到每个包含目标区域的颜色信息的样本图像。
根据本公开的一个或多个实施例,示例3提供了一种电子设备,该电子设备包括:
处理器和存储器,该存储器存储有至少一条指令、至少一段程序、代码集或指令集,该至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现如本公开示例1或示例1任一可选的实现方式中所示的方法。
根据本公开的一个或多个实施例,示例4提供了一种计算机可读介质,该计算机可读介质用于存储计算机指令、程序、代码集或指令集,当其在计算机上运行时,使得计算机执行如本公开示例1或示例1任一可选的实现方式中所示的方法。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。

Claims (9)

1.一种图像处理方法,其特征在于,包括:
获取待处理图像、预训练的目标区域变色特效网络以及所述目标区域变色特效网络对应的第一待插值属性,其中,所述预训练包括针对包含目标区域的样本图像进行的训练;
通过所述目标区域变色特效网络,将所述待处理图像进行下采样,得到待处理图像的下采样结果,并根据所述第一待插值属性,将下采样结果进行上采样插值,得到所述目标区域变色特效图像;
其中,所述目标区域变色特效网络是通过以下步骤训练得到的:
获取预构建的对抗生成网络,所述对抗生成网络包括生成网络、第一判别网络、第二判别网络和第一分类网络;
通过所述生成网络,将每个包含所述目标区域的颜色信息的所述样本图像进行下采样,得到相应的图像特征,并将每个样本图像的图像特征进行上采样及变换目标颜色处理,得到对应的生成图像;
确定所述每个样本图像对应所述目标区域的概率图,并根据每个概率图对相应的样本图像和对应的所述生成图像进行混合,得到相应的混合图像;
通过所述第一判别网络,对所述每个样本图像的图像特征的颜色真实性进行判别,得到相应的第一判别结果;
通过所述第二判别网络,对所述每个样本图像和对应的所述混合图像的真实性进行判别,得到相应的第二判别结果;
通过所述第一分类网络,根据所述每个样本图像对应的所述生成图像,得到所述目标颜色的分类结果;
基于所述每个样本图像对应的所述第一判别结果、所述第二判别结果、所述分类结果和所述生成图像,对所述对抗生成网络进行对抗训练,并将训练后的所述生成网络确定为所述目标区域变色特效网络。
2.根据权利要求1所述的图像处理方法,其特征在于,所述确定所述每个样本图像对应所述目标区域的概率图,包括以下任一种:
获取所述每个概率图,所述每个概率图是通过预训练的目标区域分割网络对对应的样本图像进行图像分割处理得到的;
所述对抗生成网络还包括注意力网络,通过所述注意力网络对所述每个样本图像进行图像分割处理,得到相应的概率图。
3.根据权利要求1所述的图像处理方法,其特征在于,所述根据每个概率图对相应的样本图像和对应的所述生成图像进行混合,包括:
基于所述每个概率图中各个像素的概率值,将相应的样本图像和对应的所述生成图像中相应像素的值进行混合。
4.根据权利要求1所述的图像处理方法,其特征在于,所述将每个样本图像的图像特征进行上采样及变换目标颜色处理,包括:
根据预设的目标颜色的第二待插值属性,对所述每个样本图像的所述图像特征进行上采样插值。
5.根据权利要求1所述的图像处理方法,其特征在于,所述基于所述每个样本图像对应的所述第一判别结果、所述第二判别结果、所述分类结果和所述生成图像,对所述对抗生成网络进行对抗训练,包括:
根据所述每个样本图像对应的所述第一判别结果来确定相应的图像特征对应的真实颜色损失和虚假颜色损失;
根据所述每个样本图像对应的所述第二判别结果来确定相应的所述样本图像对应的真样本损失、所述混合图像对应的假样本真实损失和所述混合图像对应的假样本虚假损失;
根据所述每个样本图像对应的所述分类结果来确定相应的目标颜色分类损失;
确定所述每个样本图像与对应的所述生成图像之间的图像损失;
根据所述每个样本图像对应的所述真实颜色损失、所述虚假颜色损失、所述真样本损失、所述假样本真实损失、所述假样本虚假损失、所述目标颜色分类损失和所述图像损失,对所述对抗生成网络进行优化。
6.根据权利要求1所述的图像处理方法,其特征在于,还包括:
获取预训练的第二分类网络;
通过所述第二分类网络,对图像数据标注所述目标区域的颜色信息,得到所述每个包含目标区域的颜色信息的样本图像。
7.一种图像处理装置,其特征在于,包括:
获取模块,用于获取待处理图像、预训练的目标区域变色特效网络以及所述目标区域变色特效网络对应的第一待插值属性,其中,所述预训练包括针对包含目标区域的样本图像进行的训练;特效处理模块,用于通过所述目标区域变色特效网络,将所述待处理图像进行下采样,得到待处理图像的下采样结果,并根据所述第一待插值属性,将下采样结果进行上采样插值,得到所述目标区域变色特效图像;
其中,所述目标区域变色特效网络是通过以下步骤训练得到的:
获取预构建的对抗生成网络,所述对抗生成网络包括生成网络、第一判别网络、第二判别网络和第一分类网络;
通过所述生成网络,将每个包含所述目标区域的颜色信息的所述样本图像进行下采样,得到相应的图像特征,并将每个样本图像的图像特征进行上采样及变换目标颜色处理,得到对应的生成图像;
确定所述每个样本图像对应所述目标区域的概率图,并根据每个概率图对相应的样本图像和对应的所述生成图像进行混合,得到相应的混合图像;
通过所述第一判别网络,对所述每个样本图像的图像特征的颜色真实性进行判别,得到相应的第一判别结果;
通过所述第二判别网络,对所述每个样本图像和对应的所述混合图像的真实性进行判别,得到相应的第二判别结果;
通过所述第一分类网络,根据所述每个样本图像对应的所述生成图像,得到所述目标颜色的分类结果;
基于所述每个样本图像对应的所述第一判别结果、所述第二判别结果、所述分类结果和所述生成图像,对所述对抗生成网络进行对抗训练,并将训练后的所述生成网络确定为所述目标区域变色特效网络。
8.一种电子设备,其特征在于,包括:
处理器和存储器,所述存储器存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如权利要求1-6任一项所述的方法。
9.一种计算机可读介质,其特征在于,所述计算机可读介质用于存储计算机指令、程序、代码集或指令集,当其在计算机上运行时,使得计算机执行如权利要求1-6任一项所述的方法。
CN202010157922.9A 2020-03-09 2020-03-09 图像处理方法、装置、电子设备及计算机可读介质 Active CN111369468B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010157922.9A CN111369468B (zh) 2020-03-09 2020-03-09 图像处理方法、装置、电子设备及计算机可读介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010157922.9A CN111369468B (zh) 2020-03-09 2020-03-09 图像处理方法、装置、电子设备及计算机可读介质

Publications (2)

Publication Number Publication Date
CN111369468A CN111369468A (zh) 2020-07-03
CN111369468B true CN111369468B (zh) 2022-02-01

Family

ID=71207014

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010157922.9A Active CN111369468B (zh) 2020-03-09 2020-03-09 图像处理方法、装置、电子设备及计算机可读介质

Country Status (1)

Country Link
CN (1) CN111369468B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114445301A (zh) * 2022-01-30 2022-05-06 北京字跳网络技术有限公司 图像处理方法、装置、电子设备及存储介质

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108133201A (zh) * 2018-01-17 2018-06-08 百度在线网络技术(北京)有限公司 人脸属性识别方法和装置
CN109308725A (zh) * 2018-08-29 2019-02-05 华南理工大学 一种移动端表情趣图生成的***
CN109800730A (zh) * 2019-01-30 2019-05-24 北京字节跳动网络技术有限公司 用于生成头像生成模型的方法和装置
CN109816589A (zh) * 2019-01-30 2019-05-28 北京字节跳动网络技术有限公司 用于生成漫画风格转换模型的方法和装置
WO2019125454A1 (en) * 2017-12-21 2019-06-27 Siemens Aktiengesellschaft Color adaptation using adversarial training networks
CN110021051A (zh) * 2019-04-01 2019-07-16 浙江大学 一种基于生成对抗网络通过文本指导的人物图像生成方法
CN110222726A (zh) * 2019-05-15 2019-09-10 北京字节跳动网络技术有限公司 图像处理方法、装置及电子设备
CN110288513A (zh) * 2019-05-24 2019-09-27 北京百度网讯科技有限公司 用于改变人脸属性的方法、装置、设备和存储介质
CN110619602A (zh) * 2019-09-25 2019-12-27 北京字节跳动网络技术有限公司 一种图像生成方法、装置、电子设备及存储介质
CN110689546A (zh) * 2019-09-25 2020-01-14 北京字节跳动网络技术有限公司 个性化头像的生成方法、装置、设备及存储介质
CN110689480A (zh) * 2019-09-27 2020-01-14 腾讯科技(深圳)有限公司 一种图像变换方法及装置
CN110853110A (zh) * 2019-09-20 2020-02-28 杭州火烧云科技有限公司 一种基于生成对抗网络的图片自动调色方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10210631B1 (en) * 2017-08-18 2019-02-19 Synapse Technology Corporation Generating synthetic image data

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019125454A1 (en) * 2017-12-21 2019-06-27 Siemens Aktiengesellschaft Color adaptation using adversarial training networks
CN108133201A (zh) * 2018-01-17 2018-06-08 百度在线网络技术(北京)有限公司 人脸属性识别方法和装置
CN109308725A (zh) * 2018-08-29 2019-02-05 华南理工大学 一种移动端表情趣图生成的***
CN109800730A (zh) * 2019-01-30 2019-05-24 北京字节跳动网络技术有限公司 用于生成头像生成模型的方法和装置
CN109816589A (zh) * 2019-01-30 2019-05-28 北京字节跳动网络技术有限公司 用于生成漫画风格转换模型的方法和装置
CN110021051A (zh) * 2019-04-01 2019-07-16 浙江大学 一种基于生成对抗网络通过文本指导的人物图像生成方法
CN110222726A (zh) * 2019-05-15 2019-09-10 北京字节跳动网络技术有限公司 图像处理方法、装置及电子设备
CN110288513A (zh) * 2019-05-24 2019-09-27 北京百度网讯科技有限公司 用于改变人脸属性的方法、装置、设备和存储介质
CN110853110A (zh) * 2019-09-20 2020-02-28 杭州火烧云科技有限公司 一种基于生成对抗网络的图片自动调色方法
CN110619602A (zh) * 2019-09-25 2019-12-27 北京字节跳动网络技术有限公司 一种图像生成方法、装置、电子设备及存储介质
CN110689546A (zh) * 2019-09-25 2020-01-14 北京字节跳动网络技术有限公司 个性化头像的生成方法、装置、设备及存储介质
CN110689480A (zh) * 2019-09-27 2020-01-14 腾讯科技(深圳)有限公司 一种图像变换方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于生成对抗网络的图片风格迁移;许哲豪 等;《软件导刊》;20180630;第17卷(第6期);第207-209/212页 *

Also Published As

Publication number Publication date
CN111369468A (zh) 2020-07-03

Similar Documents

Publication Publication Date Title
CN112184738B (zh) 一种图像分割方法、装置、设备及存储介质
CN111476309A (zh) 图像处理方法、模型训练方法、装置、设备及可读介质
CN111402113B (zh) 图像处理方法、装置、电子设备及计算机可读介质
CN111402112A (zh) 图像处理方法、装置、电子设备及计算机可读介质
CN114494298A (zh) 对象分割方法、装置、设备及存储介质
CN111402151A (zh) 图像处理方法、装置、电子设备及计算机可读介质
CN112381717A (zh) 图像处理方法、模型训练方法、装置、介质及设备
CN114972944B (zh) 视觉问答模型的训练方法及装置、问答方法、介质、设备
CN112418249A (zh) 掩膜图像生成方法、装置、电子设备和计算机可读介质
CN112712036A (zh) 交通标志识别方法、装置、电子设备及计算机存储介质
CN115346278A (zh) 图像检测方法、装置、可读介质及电子设备
CN114913061A (zh) 一种图像处理方法、装置、存储介质及电子设备
CN111369468B (zh) 图像处理方法、装置、电子设备及计算机可读介质
CN111402159B (zh) 图像处理方法、装置、电子设备及计算机可读介质
CN111369429B (zh) 图像处理方法、装置、电子设备及计算机可读介质
CN113140012A (zh) 图像处理方法、装置、介质及电子设备
GB2623399A (en) System, devices and/or processes for image anti-aliasing
CN110852242A (zh) 基于多尺度网络的水印识别方法、装置、设备及存储介质
CN115270981A (zh) 对象处理方法、装置、可读介质及电子设备
CN111353536B (zh) 图像的标注方法、装置、可读介质和电子设备
CN114511744A (zh) 图像分类方法、装置、可读介质和电子设备
CN112070034A (zh) 图像识别方法、装置、电子设备和计算机可读介质
CN114004229A (zh) 文本识别方法、装置、可读介质及电子设备
CN112488204A (zh) 训练样本生成方法、图像分割方法、装置、设备和介质
US20240177277A1 (en) System, devices and/or processes for application of an intensity derivative for temporal image stability

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder
CP01 Change in the name or title of a patent holder

Address after: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Patentee after: Douyin Vision Co.,Ltd.

Address before: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Patentee before: Tiktok vision (Beijing) Co.,Ltd.

Address after: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Patentee after: Tiktok vision (Beijing) Co.,Ltd.

Address before: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Patentee before: BEIJING BYTEDANCE NETWORK TECHNOLOGY Co.,Ltd.