CN111488865A - 图像优化方法、装置、计算机存储介质以及电子设备 - Google Patents

图像优化方法、装置、计算机存储介质以及电子设备 Download PDF

Info

Publication number
CN111488865A
CN111488865A CN202010595618.2A CN202010595618A CN111488865A CN 111488865 A CN111488865 A CN 111488865A CN 202010595618 A CN202010595618 A CN 202010595618A CN 111488865 A CN111488865 A CN 111488865A
Authority
CN
China
Prior art keywords
image
optimized
network
loss function
generated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010595618.2A
Other languages
English (en)
Other versions
CN111488865B (zh
Inventor
严宇轩
程培
俞刚
傅斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202010595618.2A priority Critical patent/CN111488865B/zh
Publication of CN111488865A publication Critical patent/CN111488865A/zh
Application granted granted Critical
Publication of CN111488865B publication Critical patent/CN111488865B/zh
Priority to JP2022552468A priority patent/JP7446457B2/ja
Priority to PCT/CN2021/096024 priority patent/WO2022001509A1/zh
Priority to EP21832144.6A priority patent/EP4050511A4/en
Priority to US17/735,948 priority patent/US20220261968A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/60Image enhancement or restoration using machine learning, e.g. neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/37Determination of transform parameters for the alignment of images, i.e. image registration using transform domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20028Bilateral filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20032Median filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本公开涉及人工智能技术领域,提供了一种图像优化方法、装置、计算机可读存储介质及电子设备。该方法包括:获取待优化图像,根据标准位置模板对所述待优化图像进行对齐处理,以获取待优化对齐图像;将所述待优化对齐图像输入至生成网络中,通过所述生成网络对所述待优化对齐图像进行特征提取,以获取优化图像;其中所述生成网络是通过采用低质量图像对和联合损失函数对待训练生成对抗深度神经网络模型进行训练得到的。本技术方案能够提高图像优化效率,并能够消除图像中的噪声,生成图像中的细节,得到清晰的优化图像。

Description

图像优化方法、装置、计算机存储介质以及电子设备
技术领域
本公开涉及人工智能技术领域,具体而言,涉及一种图像优化方法、图像优化装置、计算机存储介质和电子设备。
背景技术
图像在成像、传输、获取的过程中,不可避免的会受到外界的干扰、传输设备不完善等的影响,使得图像中出现较多的噪声,并且失去原来的细节而变得模糊。为了恢复图像原来的细节,就需要对图像进行优化处理,。
目前,通常采用三种方法对图像进行优化处理,第一种方法是通过一种或多种图像滤波方法对图像的噪声、模糊进行修复,第二种方法是通过神经网络进行优化;第三种是通过神经网络进行图像超分以优化图像,但是上述三种方法存在去噪效果差、清晰化效果不佳或者将不符合原图像的细节添加到图像中的问题,降低了用户体验。
需要说明的是,上述背景技术部分公开的信息仅用于加强对本公开的背景的理解。
发明内容
本公开提供一种图像优化方法、图像优化装置、计算机存储介质及电子设备,进而至少在一定程度上对图像进行优化,提高图像质量,进一步提升用户体验。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的一个方面,提供一种图像优化方法,包括:获取待优化图像,根据标准位置模板对所述待优化图像进行对齐处理,以获取待优化对齐图像;将所述待优化对齐图像输入至生成网络中,通过所述生成网络对所述待优化对齐图像进行特征提取,以获取优化图像;其中所述生成网络是通过采用低质量图像对和联合损失函数对待训练生成对抗深度神经网络模型进行训练得到的。
根据本公开的一个方面,提供了一种图像优化装置,所述装置包括:对齐模块,用于获取待优化图像,根据标准位置模板对所述待优化图像进行对齐处理,以获取待优化对齐图像;优化模块,用于将所述待优化对齐图像输入至生成网络中,通过所述生成网络对所述待优化对齐图像进行特征提取,以获取优化图像;其中所述生成网络是通过采用低质量图像对和联合损失函数对待训练生成对抗深度神经网络模型进行训练得到的。
在本公开的一些实施例,所述标准位置模板为特定区域中各对象的点分布;基于前述方案,所述对齐模块配置为:检测所述待优化图像中的目标区域,所述目标区域与所述特定区域的类型相同;确定所述目标区域的图像数据与所述标准位置模板之间的变换矩阵;根据所述变换矩阵对所述目标区域的图像进行变换操作,以获取所述待优化对齐图像。
在本公开的一些实施例,基于前述方案,所述图像优化装置还包括:低质量图像对获取模块,用于获取多个所述低质量图像对,所述低质量图像对包括目标图像和与所述目标图像对应的低质量图像;生成图像获取模块,用于将所述低质量图像输入至待训练生成对抗深度神经网络模型中的生成网络,得到生成图像;损失函数构建模块,用于将所述生成图像和所述生成图像对应的目标图像输入至所述待训练生成对抗深度神经网络模型中的后处理网络,通过所述后处理网络对所述生成图像和所述生成图像对应的目标图像进行处理以构建所述联合损失函数;模型参数调整模块,用于根据所述联合损失函数优化所述待训练生成对抗深度神经网络模型的参数,得到所述生成网络。
在本公开的一些实施例,基于前述方案,所述低质量图像对获取模块配置为:获取多个目标图像,根据所述标准位置模板对各所述目标图像进行对齐处理,以获取多个对齐图像;对各所述对齐图像进行增加噪声处理和/或模糊化处理,以获取与各所述目标图像对应的低质量图像;根据所述目标图像和所述目标图像对应的低质量图像形成所述低质量图像对。
在本公开的一些实施例,基于前述方案,所述增加噪声处理包括增加高斯噪声、泊松噪声、椒盐噪声中的一种或多种,所述模糊化处理包括均值滤波、高斯滤波、中值滤波、双边滤波、降低分辨率中的一种或多种。
在本公开的一些实施例,所述后处理网络包括判别网络、分类网络和分割网络;基于前述方案,所述损失函数构建模块包括:第一损失函数构建单元,用于将所述生成图像和所述生成图像对应的目标图像输入至所述判别网络,获取第一判别结果和第二判别结果,并根据所述第一判别结果和所述第二判别结果构建第一损失函数;第二损失函数构建单元,用于将所述生成图像和所述生成图像对应的目标图像输入至所述分类网络,获取第一图像信息和第二图像信息,并根据所述第一图像信息和所述第二图像信息构建第二损失函数;第三损失函数构建单元,用于将所述生成图像和所述生成图像对应的目标图像输入至所述分割网络,获取第一局部图像信息和第二局部图像信息,并根据所述第一局部图像信息和所述第二局部图像信息构建第三损失函数;联合损失函数构建单元,用于根据所述第一损失函数、所述第二损失函数和所述第三损失函数构建所述联合损失函数。
在本公开的一些实施例,基于前述方案,所述第二损失函数构建单元配置为:将与各所述低质量图像对所对应的第一图像信息和第二图像信息相减,以获取图像信息差;根据所有所述低质量图像对所对应的图像信息差构建所述第二损失函数。
在本公开的一些实施例,与所述生成图像对应的目标图像和所述生成图像均包括多个对象;基于前述方案,所述第三损失函数构建单元配置为:通过所述分割网络对所述目标图像进行分割,以获取所述目标图像中各对象的位置信息;将所述生成图像中与各所述对象的位置信息对应的图像信息作为所述第一局部图像信息,并将所述目标图像中与各所述对象的位置信息对应的图像信息作为所述第二局部图像信息。
在本公开的一些实施例,基于前述方案,所述第三损失函数构建单元配置为:计算所述第一局部图像信息和所述第二局部图像信息之间的L1范数;根据所有所述低质量图像对所对应的L1范数构建所述第三损失函数。
在本公开的一些实施例,基于前述方案,所述模型参数调整模块配置为:在每轮训练过程中,依次通过所述第一损失函数、所述第二损失函数和所述第三损失函数优化所述待训练生成对抗深度神经网络模型的参数,得到所述生成网络。
在本公开的一些实施例,基于前述方案,所述通过所述第一损失函数优化所述待训练生成对抗深度神经网络模型的参数配置为:固定所述生成网络的参数不变,根据所述第一判别结果和所述第二判别结果优化所述判别网络的参数;固定所述判别网络的优化后的参数不变,根据所述第一判别结果优化所述生成网络的参数。
在本公开的一些实施例,基于前述方案,所述生成网络包括:下采样层、残差网络层、上采样层。
根据本公开的一个方面,提供了一种计算机存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面所述的图像优化方法。
根据本公开的一个方面,提供一种电子设备,包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述第一方面所述的图像优化方法。
由上述技术方案可知,本公开示例性实施例中的图像优化方法、图像优化装置、计算机存储介质及电子设备至少具备以下优点和积极效果:
在本公开的一些实施例所提供的技术方案中,在获取待优化图像后,首先根据标准位置模板对待优化图像进行对齐处理,以获取待优化对齐图像,然后将待优化对齐图像输入至生成网络中,通过生成网络对待优化对齐图像进行特征提取,以获取优化图像;其中生成网络是通过采用低质量图像对和联合损失函数对生成对抗深度神经网络模型进行训练得到的。通过基于生成对抗深度神经网络模型优化图像,能够提高图像处理效率。同时,基于本公开提供的技术方案可以不受限于原始低质量图片的大小而恢复出图像的更多真实细节,加深图像的边缘轮廓信息,并且可以在不改变原始低质量图像的对象特征的基础上对图像进行一定程度的修复和补全。
本公开应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1示出了可以应用本公开实施例的技术方案的示例性***架构的示意图。
图2示出本公开一示例性实施例中的图像优化方法的流程示意图。
图3示出了根据本公开一实施例的获取待优化对齐图像的流程示意图。
图4A、图4B、图4C示出了根据本公开一实施例的对人脸图像进行对齐处理的界面示意图。
图5示出了根据本公开一实施例的训练生成对抗深度神经网络模型的流程示意图。
图6示出了根据本公开一实施例的获取多个低质量图像对的流程示意图。
图7示出了根据本公开一实施例的待训练生成对抗深度神经网络模型的结构示意图。
图8示出了根据本公开一实施例的生成网络的结构示意图。
图9示出了根据本公开一实施例的后处理网络的结构示意图。
图10示出了根据本公开一实施例的根据人脸图像对待训练生成对抗深度神经网络模型进行训练的流程总图。
图11A、图11B、图11C、图11D、图11E、图11F示出了根据本公开一实施例的三组采用训练后的生成网络对人脸图像进行优化的界面示意图。
图12示出了根据本公开一实施例的图像优化装置的结构示意图。
图13A、图13B、图13C、13D示出了根据本公开一实施例的对低质量图像进行优化的界面示意图。
图14示出了根据本公开一实施例的电子设备的结构示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。
示例实施方式中所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本公开的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
此外,附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
图1示出了可以应用本公开实施例的技术方案的示例性***架构的示意图。
如图1所示,***架构100可以包括移动终端101、信息传输终端102、网络103以及服务器104。其中,上述移动终端101可以是手机、便携式计算机、平板电脑等具有摄像头和显示屏幕的终端设备;信息传输终端102可以是一种智能终端,如搭载有各种操作***的智能电子设备等;网络103用以移动终端101和服务器104之间、信息传输终端102和服务器104之间提供通信链路的介质。网络103可以包括各种连接类型,例如有线通信链路、无线通信链路等等,在本公开实施例中,移动终端101和信息传输终端102之间的网络103可以是通过无线网络提供通信链路;移动终端101和服务器104之间的网络103、信息传输终端102和服务器104之间的网络103可以是无线通信链路,具体地可以是移动网络。
应该理解,图1中的终端、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端、网络和服务器。比如服务器104可以是多个服务器组成的服务器集群等,可用于存储与图像优化处理相关的信息。
在本公开的一个实施例中,移动终端101获取待优化图像后,将待优化图像发送至服务器104;服务器104根据标准位置模板对待优化图像进行对齐处理,获取到与上述待优化图像对应的待优化对齐图像;服务器104将所述待优化对齐图像输入至生成网络中,通过生成网络对待优化对齐图像进行特征提取,以获取优化图像,并将优化图像返回至移动终端101。其中,生成网络是通过采用低质量图像对和联合损失函数对待训练生成对抗深度神经网络模型进行训练得到的。
在本公开的一个实施例中,移动终端101获取待优化图像后,将待优化图像发送信息传输终端102;信息传输终端102根据标准位置模板对待优化图像进行对齐处理,获取到与上述待优化图像对应的待优化对齐图像,然后将该待优化对齐图像发送至服务器104;服务器104将所述待优化对齐图像输入至生成网络中,通过生成网络对待优化对齐图像进行特征提取,以获取优化图像,并将优化图像返回至信息传输终端102,进而,信息传输终端102将优化图像返回至移动终端101。其中,生成网络是通过采用低质量图像对和联合损失函数对待训练生成对抗深度神经网络模型进行训练得到的。
在本公开的一个实施例中,移动终端101获取待优化图像后,根据标准位置模板对待优化图像进行对齐处理,获取到与上述待优化图像对应的待优化对齐图像,然后将待优化对齐图像发送至服务器104;服务器104将所述待优化对齐图像输入至生成网络中,通过生成网络对待优化对齐图像进行特征提取,以获取优化图像,并将优化图像返回至移动终端101。其中,生成网络是通过采用低质量图像对和联合损失函数对待训练生成对抗深度神经网络模型进行训练得到的。
需要说明的是,本公开实施例所提供的图像优化方法一般由服务器104执行,相应地,图像优化装置一般设置于服务器104中。但是,在本公开的其它实施例中,终端也可以与服务器具有相似的功能,从而执行本公开实施例所提供的图像优化方案。
在本领域的相关技术中,在对低质量图像进行优化处理时,通常采用三类优化方法,第一种是通过图像处理方式对图像进行去模糊,需要通过一种或几种图像滤波方法对图像的噪声、模糊进行修复;第二种是通过神经网络来进行图像的清晰化;第三种是利用神经网络进行图像超分来进行清晰化。
上述三种方法相应地存在一定缺陷,对于第一种方法,其相较于神经网络的处理较为片面,由于无法完全拟合现实中的噪声、模糊分布所以无法达到很好的去噪效果;对于第二种方法,主要集中在一般场景类的图像清晰化方法,且使用到的低质量图像方法参差不齐,如果在低质量图像的过程中采用的组合不够丰富的话,神经网络不能很好地拟合真实模糊图像的分布,导致生成的图像清晰化不佳,另外对于不同大小的图像,没有进行归一化处理,也会导致在处理相关图像时会由于针对区域的大小不一而结果不佳;对于第三种方法,其在进行图像清晰化的同时会给图像带来一些不符合原图像的细节,比如噪声被转化为了清晰的细节,且该方法主要集中在任意图像的超分辨率上,没有针对图像的具体特征进行单独处理。
本公开提供的技术方案中,基于训练生成对抗深度神经网络模型而确定图像优化模型,通过图像优化模型来对待处理图像进行优化。根据本公开提供的技术方案可以通过对低质量图像进行去噪、清晰化、生成细节等处理使得低质量图像既能维持原图像的特征,又可以更清晰,图像质量更高,用户体验更好。同时,本公开的技术方案处理图像的成本低,适用范围广。
其中,生成对抗深度神经网络模型是一种神经网络模型的类型,其相较于传统神经网络模型主要特点是除了拥有生成网络结构外还拥有一个判别网络结构,其中生成网络用来生成图像,而判别网络则用来判断一幅图像(包括目标图像和生成图像)的真假。在训练生成对抗深度神经网络模型的过程中,通过计算生成图像与目标图像的差异,以及判别网络判断图像的误差等进行迭代训练。进而,通过生成网络与判别器网络的对抗式训练过程,优化生成网络的网络参数,从而使得生成图像接近目标需求。从而,生成对抗深度神经网络模型因为其生成网络与判别网络相互对抗的特性,能够生成质量较高的图像。
本公开实施例提供的图像优化方法是基于生成对抗深度神经网络模型实现的,涉及人工智能技术领域。人工智能(Artificial Intelligence, AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用***。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互***、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
计算机视觉技术(Computer Vision, CV),计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能***。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。
机器学习(Machine Learning, ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
随着人工智能技术研究和进步,人工智能技术在多个领域展开研究和应用,例如常见的智能家居、智能穿戴设备、虚拟助理、智能音箱、智能营销、无人驾驶、自动驾驶、无人机、机器人、智能医疗、智能客服等,相信随着技术的发展,人工智能技术将在更多的领域得到应用,并发挥越来越重要的价值。
本公开实施例提供的方案涉及人工智能的图像处理技术和图像识别技术,具体通过如下实施例进行说明:
在本公开的实施例中,提供了一种图像优化方法,至少在一定程度上克服相关技术或发明人的上述尝试方案中所存在的缺陷。本实施例提供的图像优化方法的执行主体可以是具有计算处理功能的设备,例如可以是服务器、终端设备,也可以是由服务器和终端设备共同执行,其中终端设备、服务器可以为图1中所示的终端设备101和服务器104。本公开的图像优化方法可用于对任意的低质量图像进行优化处理,例如可以对人脸图像、动物图像、具有固定结构的建筑物图像等类型的图像进行处理,以恢复并提高图像细节,下面以服务器为执行主体对人脸图像进行优化为例对本公开的技术方案进行详细说明。
图2示出本公开一示例性实施例中图像优化方法的流程示意图。参考图2,该实施例提供的图像优化方法具体包括如下步骤:
在步骤S210中,获取待优化图像,根据标准位置模板对所述待优化图像进行对齐处理,以获取待优化对齐图像。
在本公开的一个实施例中,该待优化图像为低质量人脸图像,低质量主要表现为人脸图像的清晰度差、噪声多。该低质量人物图像可以是用户通过具有摄像头和成像单元的终端设备对目标人物的脸部或包含脸部的部位进行拍摄所获取的图像,该图像中的人脸可以是以任意角度呈现的,只要能够从中获取人物的五官即可;该待优化图像还可以是用户通过网络下载得到的包含人脸的图像,等等。
在本公开的一个实施例中,在对待优化图像进行优化前,有必要对待优化图像中的人脸的角度进行修正,使图像中人脸位于标准正面人脸位置。具体地可以采用一个标准位置模板对人脸图像进行修正,该标准位置模板为特定区域中各对象的点分布,具体到人脸图像的标准位置模板,其为人脸区域中五官的点分布,具体地,可以根据大量的人脸数据统计获取人脸在处于标准正面人脸位置时五官的点坐标形成五点坐标模板,即标准位置模板,其中五点包括标志左右眼的两点、标志鼻尖的点、标志左右嘴角的两点。在计算各个点的坐标时,可以将与同一部位对应的所有坐标信息的平均值作为五点坐标模板中与该部位对应的点坐标,例如可以获取所有人脸数据中对应左眼的坐标信息,然后将所有左眼的坐标信息进行加和平均,以得到标准位置模板中左眼的点坐标。
在本公开的一个实施例中,在确定标准位置模板后,可以根据该标准位置模板对待优化图像进行对齐处理,也就是将待优化图像中的人脸修正为标准正面人脸位置。图3示出了获取待优化对齐图像的流程示意图,如图3所示,获取待优化对齐图像的流程包括步骤S301-S303,具体为:
在步骤S301中,检测待优化图像中的目标区域,该目标区域与特定区域的类型相同。
在本公开的一个实施例中,由于需要根据标准位置模板对待优化图像进行对齐处理,因此需要确定待优化图像中与标准位置模板所对应的特定区域类型相同的目标区域,也就是说,特定区域和目标区域所对应的对象相同,例如都是人脸区域、动物的脸部区域等等,举例而言,标准位置模板是对应人脸区域的模板,那么就需要从待优化图像中提取人脸区域,然后再根据标准位置模板对其进行对齐处理。在实际的图像处理过程中,待优化图像中除了包含人脸区域,可能还包括人体其它部位,例如半身照除了包含人脸区域还包含脖子和上半身,为了针对人脸区域进行优化,就需要对待优化图像中的人脸区域进行识别,然后再对识别得到的人脸区域进行优化。在对待优化图像中的人脸区域进行识别时,可以采用可用于人脸识别的模型进行识别,通过对五官进行识别进而确定人脸区域。由于需要对待优化图像中的人脸区域进行对齐,因此采用的标准位置模板也是与人脸区域对应的模板。
在步骤S302中,确定目标区域的图像数据与标准位置模板之间的变换矩阵。
在本公开的一个实施例中,在将待优化图像中的人脸区域与标准位置模板对齐时,可以根据人脸区域对应的图像数据和标准位置模板对应的数据确定二者之间的变换矩阵,进而可以根据变换矩阵将待优化图像中的人脸区域修正为与标准位置模板中的五点坐标对齐的人脸区域。
在步骤S303中,根据变换矩阵对目标区域的图像进行变换操作,以获取待优化对齐图像。
在本公开的一个实施例中,在获取变换矩阵后,可以根据变换矩阵对待优化图像进行平移、旋转、缩放等操作,进而将待优化图像归一化到与标准正面人脸位置一致的形态,以获取待优化对齐图像。进一步地,人脸的对齐处理还可以反向进行,也就是说,对齐后的人脸可以通过变换矩阵的逆操作还原到原始拍摄的人脸状态。
图4A、图4B、图4C示出了对人脸图像进行对齐处理的界面示意图,如图4A所示,为待优化人脸图像,其中的人脸区域存在倾斜,不是标准正面人脸位置;如图4B所示为标准位置模板,即与人脸图像对应的五点坐标;根据图4B所示的标准位置模板对图4A所示的待优化人脸图像进行对齐处理后,能够得到如图4C所示的待优化人脸对齐图像,其中人脸区域符合标准正面人脸位置。
在步骤S220中,将所述待优化对齐图像输入至生成网络中,通过所述生成网络对所述待优化对齐图像进行特征提取,以获取优化图像;其中所述生成网络是通过采用低质量图像对和联合损失函数对待训练生成对抗深度神经网络模型进行训练得到的。
在本公开的一个实施例中,在获取待优化对齐图像后,可以将待优化对齐图像输入至生成网络中,通过生成网络对待优化对齐图像进行特征提取,以获取优化图像,该优化图像即为对待优化图像进行去噪、清晰化生成面部细节处理后的图像。
在本公开的一个实施例中,生成网络为生成对抗深度神经网络模型中的一部分,其可根据输入的待优化对齐图像生成与其对应的优化后的图像。在采用生成网络生成优化的图像之前,需要对待训练生成对抗深度神经网络模型进行训练,才能获得稳定的生成网络。
在本公开的一个实施例中,图5示出了训练生成对抗深度神经网络模型的流程示意图,如图5所示,训练生成对抗深度神经网络模型的训练流程具体包括步骤S501-S504:
在步骤S501中,获取多个低质量图像对,该低质量图像对包括目标图像和与目标图像对应的低质量图像。
在本公开的一个实施例中,低质量图像对可以作为训练样本,用于对待训练生成对抗深度神经网络模型进行训练,其中低质量图像作为输入样本,与低质量图像对应的目标图像为验证样本,用于判断生成网络的性能是否达到稳定。也就是说,每组低质量图像对中低质量图像是待优化图像,目标图像为期待优化后的图像。
在本公开的一个实施例中,图6示出了获取多个低质量图像对的流程示意图,如图6所示,该流程具体包括步骤S601-S603:
在步骤S601中,获取多个目标图像,根据标准位置模板对各目标图像进行对齐处理,以获取多个对齐图像。
在本公开的一个实施例中,可以预先获取大量的清晰图像作为目标图像,具体数量可以根据实际需要确定,数量越多,模型的性能越高,例如可以搜集1w、2w等数量的有人脸的清晰图像作为目标图像。在获取目标图像后,可以根据标准位置模板对各个目标图像中的人脸区域进行对齐处理,以获取对齐图像。在对齐时,首先可以对目标图像中的人脸区域进行检测,然后提取人脸区域中五官的点坐标,最后根据提取到的五官的点坐标和标准位置模板中五官点坐标进行对齐,以获取多个对齐图像。
在步骤S602中,对各对齐图像进行增加噪声处理和/或模糊化处理,以获取与各目标图像对应的低质量图像。
在步骤S603中,根据目标图像和与目标图像对应的低质量图像形成低质量图像对。
在本公开的一个实施例中,可以通过对各个对齐图像进行低质量化处理形成低质量图像。低质量化处理具体可以包括增加噪声处理和/或模糊化处理,其中,增加噪声处理包括增加高斯噪声、泊松噪声、椒盐噪声中的一种或多种,模糊化处理包括均值滤波、高斯滤波、中值滤波、双边滤波、降低分辨率中的一种或多种。当然本公开实施例中增加的噪声类型和模糊化处理方式不限于上述类型,还可以包括其它类型的噪音和/或模糊化处理方式,本公开在此不再赘述。
接下来对各类噪声和模糊化处理方法进行简单介绍。
高斯噪声的概率密度服从高斯分布,高斯分布的表达式如公式(1)所示:
Figure 55905DEST_PATH_IMAGE001
(1)
其中,μ代表分布的均值,σ代表分布的标准差,σ2代表分布的方差。在本公开的实施例中,μ和σ可以随机确定,在确定参数后根据该概率分布对图像中各个像素的颜色值添加噪声,最后将像素的颜色值放缩到[0,255]即可实现高斯噪声的添加。
泊松噪声的概率密度服从泊松分布,泊松分布的表达式如公式(2)所示:
Figure 441887DEST_PATH_IMAGE002
(2)
其中,参数λ可以随机确定。在确定参数后,可以根据泊松噪声的概率分布对图像中各个像素的颜色值进行处理,以添加泊松噪声。
椒盐噪声即随机在图像上添加黑白像素点,黑白像素的多少可以由信噪比来进行控制,信噪比可以随机确定。在指定信噪比后,根据信噪比可以确定总像素数目,然后在与总像素数目对应的图像区域中随机获取要增加噪声的像素的位置,并将该位置的像素值设置为255或0,最后对该图像区域中其它的像素重复上述步骤,即可完成对图像增加椒盐噪声。
均值滤波是对目标像素及周边像素取平均值后再填充至目标像素,其表达式如公式(3)所示:
Figure 690465DEST_PATH_IMAGE003
(3)
其中,M代表系数模板的大小,f(x,y)代表图像中目标像素和对应M的周边像素的像素值,s代表图像中所有的像素,g(x,y)代表对目标像素进行均值滤波后的像素值。举例而言,若系数模板的大小为3×3,那么M=9,因此可以对目标像素和其周围的8个像素的像素值求平均值,并将该平均值填充至目标像素,即可实现对图像的模糊化处理。
高斯滤波用正态分布计算图像中每个像素的变换,其表达式如公式(4)所示:
Figure 741467DEST_PATH_IMAGE004
(4)
其中,u2+v2代表模糊半径,其大小可以随机确定。在确定模糊半径和方差后,可以根据该正态分布对图像中各个像素的颜色值进行转换,以实现对图像的模糊化处理。
中值滤波是将每一个像素点的像素值设置为该点某邻域窗口内所有像素点像素值的中值,确定领域窗口的核大小可以随机确定。
双边滤波是既考虑空间位置(空域核)不同也考虑像素值(值域核)的不同的边缘保留滤波方法,其中空间位置的核大小(即高斯滤波的半径)以及值域核的大小都可以通过随机确定。
降低分辨率可以先通过随机降低分辨率,然后上采样回到原分辨率以降低图像质量。在本公开的实施例中,降低分辨率的程度可以随机确定。
在本公开的一个实施例中,可以通过以上方法的随机组合确定一个针对目标图像,例如低质量化人脸图像的方法组合,以模拟真实的低质量照片。由于是随机组合,并且每个组合里所涉及到的低质量化方法又存在随机变量,所以每张目标图像被处理后的效果也不尽相同,基于由目标图像和对目标图像进行低质量化处理后的低质量图像所形成的低质量图像对对待训练生成对抗深度神经网络模型进行训练,可以提高模型对各类低质量图像的处理精度。
在步骤S502中,将低质量图像输入至待训练生成对抗深度神经网络模型中的生成网络,得到生成图像。
在步骤S503中,将生成图像和生成图像对应的目标图像输入至待训练生成对抗深度神经网络模型中的后处理网络,通过后处理网络对生成图像和生成图像对应的目标图像进行处理以构建联合损失函数。
在步骤S504中,根据联合损失函数优化待训练生成对抗深度神经网络模型的参数,得到生成网络。
在示例性的实施例中,在介绍对待训练生成对抗深度神经网络模型的训练过程之前,先对本实施例采用的待训练生成对抗深度神经网络模型的网络结构进行说明。图7示出了待训练生成对抗深度神经网络模型的结构示意图,如图7所示,待训练生成对抗深度神经网络模型700包括生成网络701和后处理网络702,其中生成网络701用于对输入的低质量图像进行处理,以输出生成图像,后处理网络702用于根据生成网络701输出的生成图像和目标图像构建联合损失函数,并基于联合损失函数优化模型的参数。
图8示出了生成网络的结构示意图,如图8所示,该实施例提供的生成网络800包括下采样层801、残差网络层802和上采样层803。其中,残差网络层802的数量可以设置为多个,例如4个、5个,等等。在本公开的实施例中,下采样层801可以包括多个大小不同的卷积层,上采样层803也包括多个大小不同的卷积层,由于下采样过程中的卷积操作可用于提取图像的深层特征,但是相较于输入图像,多次的卷积操作使得得到的特征图不断变小,造成信息丢失。因此为了减少信息的丢失,可以在残差网络层进行特征提取后通过上采样的方式将特征图的大小恢复到输入图像的大小,进而能够减少网络传递过程中原始信息的丢失,从而改善网络后半部分输出过程中的结构不一致或者语义不一致的现象,最终提高优化处理后的图像质量。在本公开的实施例中,下采样层801和上采样层803中包含的卷积层的数量和大小可以根据实际需要设置,例如下采样层801从前至后依次包括大小为512×512、256×256两层卷积层,那么上采样层803可以从前至后依次包括大小为256×256、512×512两层卷积层。
图9示出了后处理网络的结构示意图,如图9所示,后处理网络900包括判别网络901、分类网络902和分割网络903,其中判别网络901可以包括多个卷积层,用于对目标图像和生成图像进行特征提取,并判断目标图像和生成图像的置信度;分类网络902具体可以是VGG等用于分类的网络,用于对目标图像和生成图像进行特征提取以获取对应的分类结果,通过采用分类网络902能够保证图像深层语义的一致性;分割网络903可以是常用的分割网络,用于对目标图像进行分割,并根据目标图像中各个对象的位置信息确定目标图像和生成图像中与同一对象的位置信息对应的图像信息,例如对人脸图像进行分割,以获取人脸图像中五官的位置信息,并根据五官的位置信息确定目标图像和生成图像中与五官的位置信息对应的图像信息,通过采用分割网络903能够保证图像本身像素的一致性。通过判别网络901、分类网络902和分割网络903的相互作用,能够使得生成图像更接近目标图像,提高生成网络的性能。
在本公开的一个实施例中,根据对目标图像和生成图像的处理结果可以构建联合损失函数,基于该联合损失函数可以对待训练生成对抗深度神经网络模型进行反向调参,在经过多次迭代训练后,即可得到损失函数收敛,性能稳定的生成对抗深度神经网络模型,进而可以获取用于对低质量的待优化图像进行优化处理的生成网络。
在本公开的一个实施例中,在构建联合损失函数时,可以通过判别网络、分类网络和分割网络分别构建一个损失函数,具体地,可以将生成图像和与生成图像对应的目标图像输入至判别网络,获取第一判别结果和第二判别结果,并根据第一判别结果和第二判别结果构建第一损失函数;将生成图像和与生成图像对应的目标图像输入至分类网络,获取第一图像信息和第二图像信息,并根据第一图像信息和第二图像信息构建第二损失函数;将生成图像和与生成图像对应的目标图像输入至分割网络,获取第一局部图像信息和第二局部图像信息,并根据第一局部图像信息和第二局部图像信息构建第三损失函数;最后根据第一损失函数、第二损失函数和第三损失函数构建联合损失函数。
在本公开的一个实施例中,生成网络G用来对低质量图像(输入图像)进行优化处理,并将其优化处理之后的图像输出作为生成图像。而判别网络D接收上述生成图像以及与上述低质量图像(输入图像)对应的目标图像,并判别一幅图像(包括目标图像和生成图像)的真假。同时,判别网络D的训练目标是:判别目标图像为真,判别生成图像为假。而生成网络G的训练目标是:对于低质量图像(输入图像)进行优化处理得到令判别网络的判别结果为真的生成图像,即使得生成图像越接近目标图像,以达到以假乱真的效果,因此第一损失函数包括判别器损失函数和生成器损失函数。
在本公开的一个实施例中,判别网络D根据生成图像生成第一判别结果D(G(zi)),同时,根据目标图像生成第一判别结果D(xi),其中zi为输入至生成网络的低质量图像的数据,G(zi)为生成网络对低质量图像进行优化处理后输出的生成图像的数据,xi为与低质量图像对应的目标图像的数据,D(G(zi))和D(xi)为判别网络输出的生成图像或者目标图像的二分类置信度。进而,可以定义判别器损失函数LossD和生成器损失函数LossG分别如式(5)-(6)所示:
Figure 477210DEST_PATH_IMAGE005
(5)
Figure 502935DEST_PATH_IMAGE006
(6)
其中,xi为与低质量图像对应的目标图像的数据,zi为输入至生成网络的低质量图像的数据,i为任一低质量图像对,m为低质量图像对的总数量。
在根据第一损失函数优化待训练生成对抗深度神经网络模型的参数时,可以先固定生成网络的参数不变,根据公式(5)对判别网络的参数进行优化,使得判别网络的判别准确率达到预设阈值;然后固定判别网络优化后的参数不变,根据公式(6)对生成网络的参数进行优化,使得生成网络能够生成清晰的优化图像。
在本公开的一个实施例中,生成图像和目标图像无论是在低层次的像素值上还是高层次的抽象特征上,都应当接近,因此为了保证生成图像与目标图像在深层语义上的一致,还可以通过分类网络对生成图像和目标图像进行比对,并根据比对结果构建感知损失函数,进而基于感知损失函数对分类网络和生成网络的参数进行优化。其中,分类网络对生成图像进行处理可以获取第一图像信息,对目标图像进行处理可以获取第二图像信息,根据与各个低质量图像对对应的第一图像信息和第二图像信息能够确定第二损失函数,即感知损失函数。其中根据与各个低质量图像对对应的第一图像信息和第二图像信息确定第二损失函数,具体可以将与各低质量图像对对应的第一图像信息和第二图像信息相减,以获取图像信息差;并根据所有低质量图像对对应的图像信息差构建第二损失函数,第二损失函数的表达式如式(7)所示:
Figure 238810DEST_PATH_IMAGE007
(7)
其中,xi为与低质量图像对应的目标图像的数据,zi为输入至生成网络的低质量图像的数据,G(zi)为生成网络对低质量图像进行处理后输出的生成图像的数据,V(G(zi))为第一图像信息,V(xi)为第二图像信息,i为任一低质量图像对,m为低质量图像对的总数量。
在确定第二损失函数后,可以基于第二损失函数对生成网络的参数进行优化,以使生成网络输出的生成图像与目标图像接近或相同。
在本公开的一个实施例中,为了进一步使得生成图像和目标图像接近或相同,可以对生成图像和目标图像中与同一对象对应的图像信息进行比对,若生成图像和目标图像中对应同一对象的图像信息相近或相同说明生成图像与目标图像相近或相同。在本公开的实施例中,可以通过分割网络对目标图像进行分割,以获取图像中每个对象的位置信息。具体到人脸图像,可以采用分割网络对人脸图像进行分割以获取五官分割区域的位置信息,包括左右眼睛的位置信息、鼻子的位置信息、嘴巴的位置信息;接着根据五官分割区域的位置信息可以从目标图像、生成图像中确定相应区域的图像信息,具体地可以将生成图像中与各对象的位置信息对应的图像信息作为第一局部图像信息,将目标图像中与各对象的位置信息对应的图像信息作为第二局部图像信息;最后计算第一局部图像信息和第二局部图像信息之间的L1范数,即计算对应同一对象的图像信息的绝对值之和,并根据所有低质量图像对对应的L1范数构建第三损失函数。第三损失函数的表达式如式(8)所示:
Figure 359082DEST_PATH_IMAGE008
(8)
其中,xi为与低质量图像对应的目标图像的数据,zi为输入至生成网络的低质量图像的数据,G(zi)为生成网络对低质量图像进行处理后输出的生成图像的数据,M为分割后各对象区域的位置信息,i为任一低质量图像对,m为低质量图像对的总数量。
在本公开的一个实施例中,多个低质量图像对可以看做一批训练样本,根据该训练样本可以对待训练生成对抗深度神经网络模型进行多轮迭代训练,直至完成预设次数的训练或者各个损失函数趋于收敛。在每轮训练过程中,可以依次通过第一损失函数、第二损失函数和第三损失函数对模型的参数进行优化。
在本公开的一个实施例中,以人脸图像为例,图10示出了根据人脸图像对待训练生成对抗深度神经网络模型进行训练的流程总图,如图10所示,在步骤S1001中,获取目标人脸图像后,根据标准位置模板对目标人脸图像进行对齐处理,以获取目标人脸对齐图像;在步骤S1002中,对该目标人脸对齐图像进行增加噪声处理和/或模糊化处理,以获取低质量人脸图像;在步骤S1003中,将低质量人脸图像输入至生成网络中,通过生成网络进行处理以输出生成人脸图像,该生成人脸图像即为对低质量人脸图像进行优化后的人脸图像;在步骤S1004中,将生成人脸图像和目标人脸图像配对,并分别输入至后处理网络中的判别网络、分类网络和分割网络,通过各个网络对生成人脸图像和目标人脸图像进行特征提取以确定联合损失函数,该联合损失函数包括与各个网络分别对应的第一损失函数、第二损失函数和第三损失函数,进一步地,根据第一损失函数、第二损失函数和第三损失函数对待训练生成对抗深度神经网络模型的参数进行优化,直至生成人脸图像接近目标人脸图像。训练后的待训练生成对抗深度神经网络模型中的生成网络即可被用于对其它经过对齐处理的待优化人脸图像进行优化,以获得不含噪声且生成有面部细节的清晰化人脸图像,进一步提升了用户体验。
在本公开的一个实施例中,在获取生成网络输出的优化图像之后,可以根据待优化图像中人脸相对于标准正面人脸位置的倾斜角度判断是否对优化图像进行位置复位处理,例如当待优化图像中人脸相对于标准正面人脸位置的倾斜角度较小(从视觉效果来说相差不明显)时,可以不对优化图像进行任何处理,当待优化图像中人脸相对于标准正面人脸位置的倾斜角度较大(从视觉效果来说相差较明显)时,则对优化图像进行位置复位处理,具体地,可以根据对齐处理时所采用的变换矩阵的逆操作将优化图像中的各个对象还原到原始的位置、角度,最终获取与原始的待优化图像对应的优化图像。
在本公开的一个实施例中,图11A、图11B、图11C、图11D、图11E、图11F示出了三组采用训练后的生成网络对人脸图像进行优化的界面示意图,如图11A、图11C、图11E所示,展示的为待优化人脸图像,可以看出,待优化人脸图像噪声大、清晰度低,边缘轮廓模糊,在经过生成网络对经对齐的待优化人脸对齐图像进行处理后,可以得到清晰度高、边缘轮廓清晰、面部细节丰富的人脸图像,如图11B、图11D、图11F展示的图像所示。
根据本公开提供的图像优化方法,优化处理后的图像在保留原始图像的特征的基础上,具有清晰度高、包含图像细节,以及噪声被准确去除的特点,同时,由于在模型训练时采用的目标图像均为清晰度很高的图像,因此根据训练后的生成网络对待优化图像进行优化时,能够加深边缘轮廓信息并且还能一定程度地补全图像中缺失的部分,也就是说,本公开中的图像优化方法还具备一定的图像补全和修复能力。另外,本公开的图像优化方法是基于生成对抗深度神经网络模型进行的,因此在优化图像时耗时较短,并且具备扩展性高,可移植性好的特点。
本领域技术人员可以理解实现上述实施方式的全部或部分步骤被实现为由处理器(包含CPU和GPU)执行的计算机程序。例如,通过GPU实现对上述生成对抗深度神经网络模型的训练,或者基于训练后的生成对抗深度神经网络模型,使用CPU或GPU实现对待优化图像的优化处理等。在该计算机程序被处理器执行时,执行本公开提供的上述方法所限定的上述功能。所述的程序可以存储于一种计算机可读存储介质中,该存储介质可以是只读存储器,磁盘或光盘等。
此外,需要注意的是,上述附图仅是根据本公开示例性实施方式的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
以下介绍本公开的图像优化装置实施例,可以用于执行本公开上述的图像优化方法。
图12示出本公开示例性实施例中图像优化装置的结构示意图。如图12所示,上述图像优化装置1200包括:对齐模块1201和优化模块1202。
其中:对齐模块1201,用于获取待优化图像,根据标准位置模板对所述待优化图像进行对齐处理,以获取待优化对齐图像;优化模块1202,用于将所述待优化对齐图像输入至生成网络中,通过所述生成网络对所述待优化对齐图像进行特征提取,以获取优化图像;其中所述生成网络是通过采用低质量图像对和联合损失函数对待训练生成对抗深度神经网络模型进行训练得到的。
在本公开的一个实施例,所述标准位置模板为特定区域中各对象的点分布;所述对齐模块1201配置为:检测所述待优化图像中的目标区域,所述目标区域与所述特定区域的类型相同;确定所述目标区域的图像数据与所述标准位置模板之间的变换矩阵;根据所述变换矩阵对所述目标区域的图像进行变换操作,以获取所述待优化对齐图像。
在本公开的一个实施例,所述图像优化装置1200还包括:低质量图像对获取模块,用于获取多个所述低质量图像对,所述低质量图像对包括目标图像和与所述目标图像对应的低质量图像;生成图像获取模块,用于将所述低质量图像输入至待训练生成对抗深度神经网络模型中的生成网络,得到生成图像;损失函数构建模块,用于将所述生成图像和所述生成图像对应的目标图像输入至所述待训练生成对抗深度神经网络模型中的后处理网络,通过所述后处理网络对所述生成图像和所述生成图像对应的目标图像进行处理以构建所述联合损失函数;模型参数调整模块,用于根据所述联合损失函数优化所述待训练生成对抗深度神经网络模型的参数,得到所述生成网络。
在本公开的一个实施例,所述低质量图像对获取模块配置为:获取多个目标图像,根据所述标准位置模板对各所述目标图像进行对齐处理,以获取多个对齐图像;对各所述对齐图像进行增加噪声处理和/或模糊化处理,以获取与各所述目标图像对应的低质量图像;根据所述目标图像和所述目标图像对应的低质量图像形成所述低质量图像对。
在本公开的一个实施例,所述增加噪声处理包括增加高斯噪声、泊松噪声、椒盐噪声中的一种或多种,所述模糊化处理包括均值滤波、高斯滤波、中值滤波、双边滤波、降低分辨率中的一种或多种。
在本公开的一个实施例,所述后处理网络包括判别网络、分类网络和分割网络;所述损失函数构建模块包括:第一损失函数构建单元,用于将所述生成图像和所述生成图像对应的目标图像输入至所述判别网络,获取第一判别结果和第二判别结果,并根据所述第一判别结果和所述第二判别结果构建第一损失函数;第二损失函数构建单元,用于将所述生成图像和所述生成图像对应的目标图像输入至所述分类网络,获取第一图像信息和第二图像信息,并根据所述第一图像信息和所述第二图像信息构建第二损失函数;第三损失函数构建单元,用于将所述生成图像和所述生成图像对应的目标图像输入至所述分割网络,获取第一局部图像信息和第二局部图像信息,并根据所述第一局部图像信息和所述第二局部图像信息构建第三损失函数;联合损失函数构建单元,用于根据所述第一损失函数、所述第二损失函数和所述第三损失函数构建所述联合损失函数。
在本公开的一个实施例,所述第二损失函数构建单元配置为:将与各所述低质量图像对所对应的第一图像信息和第二图像信息相减,以获取图像信息差;根据所有所述低质量图像对所对应的图像信息差构建所述第二损失函数。
在本公开的一个实施例,与所述生成图像对应的目标图像和所述生成图像均包括多个对象;所述第三损失函数构建单元配置为:通过所述分割网络对所述目标图像进行分割,以获取所述目标图像中各对象的位置信息;将所述生成图像中与各所述对象的位置信息对应的图像信息作为所述第一局部图像信息,并将所述目标图像中与各所述对象的位置信息对应的图像信息作为所述第二局部图像信息。
在本公开的一个实施例,所述第三损失函数构建单元配置为:计算所述第一局部图像信息和所述第二局部图像信息之间的L1范数;根据所有所述低质量图像对所对应的L1范数构建所述第三损失函数。
在本公开的一个实施例,所述模型参数调整模块配置为:在每轮训练过程中,依次通过所述第一损失函数、所述第二损失函数和所述第三损失函数优化所述待训练生成对抗深度神经网络模型的参数,得到所述生成网络。
在本公开的一个实施例,所述通过所述第一损失函数优化所述待训练生成对抗深度神经网络模型的参数配置为:固定所述生成网络的参数不变,根据所述第一判别结果和所述第二判别结果优化所述判别网络的参数;固定所述判别网络的优化后的参数不变,根据所述第一判别结果优化所述生成网络的参数。
在本公开的一个实施例,所述生成网络包括:下采样层、残差网络层、上采样层。
上述图像优化装置中各单元的具体细节已经在对应的图像优化方法中进行了详细的描述,因此此处不再赘述。
在本公开的一个实施例中,图像优化装置可以配置于终端设备或者服务器中,当用户通过终端设备请求对其选定的低质量图像进行优化处理时,可以执行上述实施例中的图像优化方法,以得到优化图像。图13A、图13B、图13C、图13D示出了对低质量图像进行优化的界面示意图,如图13A所示,用户可以在终端设备中打开照相功能,然后对目标人脸进行拍摄以获取低质量人脸图像,如图13B所示;接着用户可以在照片浏览界面中针对拍摄得到的低质量人脸图像选择进行优化处理,如图13C所示;然后调用图像优化服务对用户拍摄的低质量人脸图像进行优化,并将获得的优化图像返回至优化照片浏览界面,如图13D所示。用户还可以从图册中选择已经拍摄好或下载好的图像进行优化处理,具体处理流程与上述实施例中的图像优化流程相同,在此不再赘述。
图14示出了适于用来实现本公开实施例的电子设备的计算机***的结构示意图。
需要说明的是,图14示出的电子设备的计算机***1400仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图14所示,计算机***1400包括处理器1401,其中处理器1401可以包含:图形处理单元(Graphics Processing Unit,GPU)、中央处理单元(Central Processing Unit,CPU),其可以根据存储在只读存储器(Read-Only Memory,ROM)1402中的程序或者从储存部分1408加载到随机访问存储器(Random Access Memory,RAM)1403中的程序而执行各种适当的动作和处理。在RAM 1403中,还存储有***操作所需的各种程序和数据。处理器(GPU/CPU)1401、ROM 1402以及RAM 1403通过总线1404彼此相连。输入/输出(Input /Output,I/O)接口1405也连接至总线1404。
以下部件连接至I/O接口1405:包括键盘、鼠标等的输入部分1406;包括诸如阴极射线管(Cathode Ray Tube,CRT)、液晶显示器(Liquid Crystal Display,LCD)等以及扬声器等的输出部分1407;包括硬盘等的储存部分1408;以及包括诸如LAN(Local AreaNetwork,局域网)卡、调制解调器等的网络接口卡的通信部分1409。通信部分1409经由诸如因特网的网络执行通信处理。驱动器1410也根据需要连接至I/O接口1405。可拆卸介质1411,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器1410上,以便于从其上读出的计算机程序根据需要被安装入储存部分1408。
特别地,根据本公开的实施例,下文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分1409从网络上被下载和安装,和/或从可拆卸介质1411被安装。在该计算机程序被处理器(GPU/CPU)1401执行时,执行本申请的***中限定的各种功能。在一些实施例中,计算机***1400还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
需要说明的是,本公开实施例所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(Erasable Programmable Read Only Memory,EPROM)、闪存、光纤、便携式紧凑磁盘只读存储器(Compact Disc Read-Only Memory,CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、有线等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本公开各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现,所描述的单元也可以设置在处理器中。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备实现上述实施例中所述的方法。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、触控终端、或者网络设备等)执行根据本公开实施方式的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (15)

1.一种图像优化方法,其特征在于,所述方法包括:
获取待优化图像,根据标准位置模板对所述待优化图像进行对齐处理,以获取待优化对齐图像;
将所述待优化对齐图像输入至生成网络中,通过所述生成网络对所述待优化对齐图像进行特征提取,以获取优化图像;
其中所述生成网络是通过采用低质量图像对和联合损失函数对待训练生成对抗深度神经网络模型进行训练得到的。
2.根据权利要求1所述的图像优化方法,其特征在于,所述标准位置模板为特定区域中各对象的点分布;
所述根据标准位置模板对所述待优化图像进行对齐处理,以获取待优化对齐图像,包括:
检测所述待优化图像中的目标区域,所述目标区域与所述特定区域的类型相同;
确定所述目标区域的图像数据与所述标准位置模板之间的变换矩阵;
根据所述变换矩阵对所述目标区域的图像进行变换操作,以获取所述待优化对齐图像。
3.根据权利要求1所述的图像优化方法,其特征在于,在将所述待优化对齐图像输入至生成网络中之前,所述方法还包括:
获取多个所述低质量图像对,所述低质量图像对包括目标图像和与所述目标图像对应的低质量图像;
将所述低质量图像输入至所述待训练生成对抗深度神经网络模型中的生成网络,得到生成图像;
将所述生成图像和所述生成图像对应的目标图像输入至所述待训练生成对抗深度神经网络模型中的后处理网络,通过所述后处理网络对所述生成图像和所述生成图像对应的目标图像进行处理以构建所述联合损失函数;
根据所述联合损失函数优化所述待训练生成对抗深度神经网络模型的参数,得到所述生成网络。
4.根据权利要求3所述的图像优化方法,其特征在于,所述获取多个低质量图像对,包括:
获取多个目标图像,根据所述标准位置模板对各所述目标图像进行对齐处理,以获取多个对齐图像;
对各所述对齐图像进行增加噪声处理和/或模糊化处理,以获取与各所述目标图像对应的低质量图像;
根据所述目标图像和所述目标图像对应的低质量图像形成所述低质量图像对。
5.根据权利要求4所述的图像优化方法,其特征在于,所述增加噪声处理包括增加高斯噪声、泊松噪声、椒盐噪声中的一种或多种,所述模糊化处理包括均值滤波、高斯滤波、中值滤波、双边滤波、降低分辨率中的一种或多种。
6.根据权利要求3所述的图像优化方法,其特征在于,所述后处理网络包括判别网络、分类网络和分割网络;
所述通过所述后处理网络对所述生成图像和所述生成图像对应的目标图像进行处理以构建所述联合损失函数,包括:
将所述生成图像和所述生成图像对应的目标图像输入至所述判别网络,获取第一判别结果和第二判别结果,并根据所述第一判别结果和所述第二判别结果构建第一损失函数;
将所述生成图像和所述生成图像对应的目标图像输入至所述分类网络,获取第一图像信息和第二图像信息,并根据所述第一图像信息和所述第二图像信息构建第二损失函数;
将所述生成图像和所述生成图像对应的目标图像输入至所述分割网络,获取第一局部图像信息和第二局部图像信息,并根据所述第一局部图像信息和所述第二局部图像信息构建第三损失函数;
根据所述第一损失函数、所述第二损失函数和所述第三损失函数构建所述联合损失函数。
7.根据权利要求6所述的图像优化方法,其特征在于,所述根据所述第一图像信息和所述第二图像信息构建第二损失函数,包括:
将与各所述低质量图像对所对应的第一图像信息和第二图像信息相减,以获取图像信息差;
根据所有所述低质量图像对所对应的图像信息差构建所述第二损失函数。
8.根据权利要求6所述的图像优化方法,其特征在于,与所述生成图像对应的目标图像和所述生成图像均包括多个对象;
所述将所述生成图像和所述生成图像对应的目标图像输入至所述分割网络,获取第一局部图像信息和第二局部图像信息,包括:
通过所述分割网络对所述目标图像进行分割,以获取所述目标图像中各对象的位置信息;
将所述生成图像中与各所述对象的位置信息对应的图像信息作为所述第一局部图像信息,并将所述目标图像中与各所述对象的位置信息对应的图像信息作为所述第二局部图像信息。
9.根据权利要求8所述的图像优化方法,其特征在于,所述根据所述第一局部图像信息和所述第二局部图像信息构建第三损失函数,包括:
计算所述第一局部图像信息和所述第二局部图像信息之间的L1范数;
根据所有所述低质量图像对所对应的L1范数构建所述第三损失函数。
10.根据权利要求6所述的图像优化方法,其特征在于,所述根据所述联合损失函数优化所述待训练生成对抗深度神经网络模型的参数,得到所述生成网络,包括:
在每轮训练过程中,依次通过所述第一损失函数、所述第二损失函数和所述第三损失函数优化所述待训练生成对抗深度神经网络模型的参数,得到所述生成网络。
11.根据权利要求10所述的图像优化方法,其特征在于,所述通过所述第一损失函数优化所述待训练生成对抗深度神经网络模型的参数,包括:
固定所述生成网络的参数不变,根据所述第一判别结果和所述第二判别结果优化所述判别网络的参数;
固定所述判别网络的优化后的参数不变,根据所述第一判别结果优化所述生成网络的参数。
12.根据权利要求1所述的图像优化方法,其特征在于,所述生成网络包括:下采样层、残差网络层和上采样层。
13.一种图像优化装置,其特征在于,包括:
对齐模块,用于获取待优化图像,根据标准位置模板对所述待优化图像进行对齐处理,以获取待优化对齐图像;
优化模块,用于将所述待优化对齐图像输入至生成网络中,通过所述生成网络对所述待优化对齐图像进行特征提取,以获取优化图像;
其中所述生成网络是通过采用低质量图像对和联合损失函数对生成对抗深度神经网络进行训练得到的。
14.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1至12中任意一项所述的图像优化方法。
15.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1至12中任意一项所述的图像优化方法。
CN202010595618.2A 2020-06-28 2020-06-28 图像优化方法、装置、计算机存储介质以及电子设备 Active CN111488865B (zh)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN202010595618.2A CN111488865B (zh) 2020-06-28 2020-06-28 图像优化方法、装置、计算机存储介质以及电子设备
JP2022552468A JP7446457B2 (ja) 2020-06-28 2021-05-26 画像最適化方法及びその装置、コンピュータ記憶媒体、コンピュータプログラム並びに電子機器
PCT/CN2021/096024 WO2022001509A1 (zh) 2020-06-28 2021-05-26 图像优化方法、装置、计算机存储介质以及电子设备
EP21832144.6A EP4050511A4 (en) 2020-06-28 2021-05-26 IMAGE OPTIMIZATION METHOD AND APPARATUS, COMPUTER STORAGE MEDIA, AND ELECTRONIC DEVICE
US17/735,948 US20220261968A1 (en) 2020-06-28 2022-05-03 Image optimization method and apparatus, computer storage medium, and electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010595618.2A CN111488865B (zh) 2020-06-28 2020-06-28 图像优化方法、装置、计算机存储介质以及电子设备

Publications (2)

Publication Number Publication Date
CN111488865A true CN111488865A (zh) 2020-08-04
CN111488865B CN111488865B (zh) 2020-10-27

Family

ID=71810596

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010595618.2A Active CN111488865B (zh) 2020-06-28 2020-06-28 图像优化方法、装置、计算机存储介质以及电子设备

Country Status (5)

Country Link
US (1) US20220261968A1 (zh)
EP (1) EP4050511A4 (zh)
JP (1) JP7446457B2 (zh)
CN (1) CN111488865B (zh)
WO (1) WO2022001509A1 (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112233207A (zh) * 2020-10-16 2021-01-15 北京字跳网络技术有限公司 图像处理方法、装置、设备和计算机可读介质
CN112488944A (zh) * 2020-12-02 2021-03-12 北京字跳网络技术有限公司 样本生成和模型训练方法、装置、设备和计算机可读介质
CN112651948A (zh) * 2020-12-30 2021-04-13 重庆科技学院 一种基于机器视觉的青蒿素萃取智能跟踪与识别方法
CN113177982A (zh) * 2021-04-16 2021-07-27 杭州睿影科技有限公司 安检图像数据的处理方法、装置、设备及***
CN113298807A (zh) * 2021-06-22 2021-08-24 北京航空航天大学 一种计算机断层扫描图像处理方法及装置
CN113344832A (zh) * 2021-05-28 2021-09-03 杭州睿胜软件有限公司 图像处理方法及装置、电子设备和存储介质
WO2022001509A1 (zh) * 2020-06-28 2022-01-06 腾讯科技(深圳)有限公司 图像优化方法、装置、计算机存储介质以及电子设备
CN115147314A (zh) * 2022-09-02 2022-10-04 腾讯科技(深圳)有限公司 图像处理方法、装置、设备以及存储介质
CN115689923A (zh) * 2022-10-27 2023-02-03 佛山读图科技有限公司 低剂量ct图像降噪***与降噪方法
WO2024078308A1 (zh) * 2022-10-13 2024-04-18 腾讯科技(深圳)有限公司 图像优化方法、装置、电子设备、介质和程序产品

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12020364B1 (en) * 2022-04-07 2024-06-25 Bentley Systems, Incorporated Systems, methods, and media for modifying the coloring of images utilizing machine learning
CN116385308B (zh) * 2023-04-15 2024-05-07 广州海至亚传媒科技有限公司 联合图像处理优化策略选择***
CN116977214A (zh) * 2023-07-21 2023-10-31 萱闱(北京)生物科技有限公司 图像优化方法、装置、介质和计算设备

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104318603A (zh) * 2014-09-12 2015-01-28 上海明穆电子科技有限公司 从手机相册调取照片生成3d模型的方法及***
CN107103590A (zh) * 2017-03-22 2017-08-29 华南理工大学 一种基于深度卷积对抗生成网络的图像反射去除方法
CN107481188A (zh) * 2017-06-23 2017-12-15 珠海经济特区远宏科技有限公司 一种图像超分辨率重构方法
CN108520503A (zh) * 2018-04-13 2018-09-11 湘潭大学 一种基于自编码器和生成对抗网络修复人脸缺损图像的方法
US20180365874A1 (en) * 2017-06-14 2018-12-20 Adobe Systems Incorporated Neural face editing with intrinsic image disentangling
CN109376582A (zh) * 2018-09-04 2019-02-22 电子科技大学 一种基于生成对抗网络的交互式人脸卡通方法
CN109615582A (zh) * 2018-11-30 2019-04-12 北京工业大学 一种基于属性描述生成对抗网络的人脸图像超分辨率重建方法
CN109685072A (zh) * 2018-12-22 2019-04-26 北京工业大学 一种基于生成对抗网络的复合降质图像高质量重建方法
US20190295302A1 (en) * 2018-03-22 2019-09-26 Northeastern University Segmentation Guided Image Generation With Adversarial Networks
CN110349102A (zh) * 2019-06-27 2019-10-18 腾讯科技(深圳)有限公司 图像美化的处理方法、图像美化的处理装置以及电子设备
CN110363116A (zh) * 2019-06-28 2019-10-22 上海交通大学 基于gld-gan的不规则人脸矫正方法、***及介质
CN110472566A (zh) * 2019-08-14 2019-11-19 旭辉卓越健康信息科技有限公司 一种高精度的模糊人脸识别方法与***
CN109685724B (zh) * 2018-11-13 2020-04-03 天津大学 一种基于深度学习的对称感知人脸图像补全方法
CN111080527A (zh) * 2019-12-20 2020-04-28 北京金山云网络技术有限公司 一种图像超分辨率的方法、装置、电子设备及存储介质
CN111126307A (zh) * 2019-12-26 2020-05-08 东南大学 联合稀疏表示神经网络的小样本人脸识别方法
CN111179177A (zh) * 2019-12-31 2020-05-19 深圳市联合视觉创新科技有限公司 图像重建模型训练方法、图像重建方法、设备及介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5359465B2 (ja) 2009-03-31 2013-12-04 ソニー株式会社 固体撮像装置、固体撮像装置の信号処理方法および撮像装置
US10614557B2 (en) * 2017-10-16 2020-04-07 Adobe Inc. Digital image completion using deep learning
US11011275B2 (en) 2018-02-12 2021-05-18 Ai.Skopy, Inc. System and method for diagnosing gastrointestinal neoplasm
CN108537743B (zh) * 2018-03-13 2022-05-20 杭州电子科技大学 一种基于生成对抗网络的面部图像增强方法
US10284432B1 (en) 2018-07-03 2019-05-07 Kabushiki Kaisha Ubitus Method for enhancing quality of media transmitted via network
CN111488865B (zh) * 2020-06-28 2020-10-27 腾讯科技(深圳)有限公司 图像优化方法、装置、计算机存储介质以及电子设备

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104318603A (zh) * 2014-09-12 2015-01-28 上海明穆电子科技有限公司 从手机相册调取照片生成3d模型的方法及***
CN107103590A (zh) * 2017-03-22 2017-08-29 华南理工大学 一种基于深度卷积对抗生成网络的图像反射去除方法
US20180365874A1 (en) * 2017-06-14 2018-12-20 Adobe Systems Incorporated Neural face editing with intrinsic image disentangling
CN107481188A (zh) * 2017-06-23 2017-12-15 珠海经济特区远宏科技有限公司 一种图像超分辨率重构方法
US20190295302A1 (en) * 2018-03-22 2019-09-26 Northeastern University Segmentation Guided Image Generation With Adversarial Networks
CN108520503A (zh) * 2018-04-13 2018-09-11 湘潭大学 一种基于自编码器和生成对抗网络修复人脸缺损图像的方法
CN109376582A (zh) * 2018-09-04 2019-02-22 电子科技大学 一种基于生成对抗网络的交互式人脸卡通方法
CN109685724B (zh) * 2018-11-13 2020-04-03 天津大学 一种基于深度学习的对称感知人脸图像补全方法
CN109615582A (zh) * 2018-11-30 2019-04-12 北京工业大学 一种基于属性描述生成对抗网络的人脸图像超分辨率重建方法
CN109685072A (zh) * 2018-12-22 2019-04-26 北京工业大学 一种基于生成对抗网络的复合降质图像高质量重建方法
CN110349102A (zh) * 2019-06-27 2019-10-18 腾讯科技(深圳)有限公司 图像美化的处理方法、图像美化的处理装置以及电子设备
CN110363116A (zh) * 2019-06-28 2019-10-22 上海交通大学 基于gld-gan的不规则人脸矫正方法、***及介质
CN110472566A (zh) * 2019-08-14 2019-11-19 旭辉卓越健康信息科技有限公司 一种高精度的模糊人脸识别方法与***
CN111080527A (zh) * 2019-12-20 2020-04-28 北京金山云网络技术有限公司 一种图像超分辨率的方法、装置、电子设备及存储介质
CN111126307A (zh) * 2019-12-26 2020-05-08 东南大学 联合稀疏表示神经网络的小样本人脸识别方法
CN111179177A (zh) * 2019-12-31 2020-05-19 深圳市联合视觉创新科技有限公司 图像重建模型训练方法、图像重建方法、设备及介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
刘闯闯: "精确与高感知质量的单幅图像超分辨率问题研究", 《全国优秀硕士学位论文全文数据库 信息科技辑》 *
林少文: "基于生成对抗网络的人脸图像修复算法研究", 《全国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022001509A1 (zh) * 2020-06-28 2022-01-06 腾讯科技(深圳)有限公司 图像优化方法、装置、计算机存储介质以及电子设备
CN112233207A (zh) * 2020-10-16 2021-01-15 北京字跳网络技术有限公司 图像处理方法、装置、设备和计算机可读介质
CN112488944A (zh) * 2020-12-02 2021-03-12 北京字跳网络技术有限公司 样本生成和模型训练方法、装置、设备和计算机可读介质
CN112651948A (zh) * 2020-12-30 2021-04-13 重庆科技学院 一种基于机器视觉的青蒿素萃取智能跟踪与识别方法
CN112651948B (zh) * 2020-12-30 2022-04-12 重庆科技学院 一种基于机器视觉的青蒿素萃取智能跟踪与识别方法
CN113177982A (zh) * 2021-04-16 2021-07-27 杭州睿影科技有限公司 安检图像数据的处理方法、装置、设备及***
CN113177982B (zh) * 2021-04-16 2023-03-10 杭州睿影科技有限公司 安检图像数据的处理方法、装置、设备及***
CN113344832A (zh) * 2021-05-28 2021-09-03 杭州睿胜软件有限公司 图像处理方法及装置、电子设备和存储介质
CN113298807A (zh) * 2021-06-22 2021-08-24 北京航空航天大学 一种计算机断层扫描图像处理方法及装置
CN115147314A (zh) * 2022-09-02 2022-10-04 腾讯科技(深圳)有限公司 图像处理方法、装置、设备以及存储介质
CN115147314B (zh) * 2022-09-02 2022-11-29 腾讯科技(深圳)有限公司 图像处理方法、装置、设备以及存储介质
WO2024078308A1 (zh) * 2022-10-13 2024-04-18 腾讯科技(深圳)有限公司 图像优化方法、装置、电子设备、介质和程序产品
CN115689923A (zh) * 2022-10-27 2023-02-03 佛山读图科技有限公司 低剂量ct图像降噪***与降噪方法

Also Published As

Publication number Publication date
JP2023515654A (ja) 2023-04-13
EP4050511A1 (en) 2022-08-31
EP4050511A4 (en) 2022-12-28
WO2022001509A1 (zh) 2022-01-06
CN111488865B (zh) 2020-10-27
US20220261968A1 (en) 2022-08-18
JP7446457B2 (ja) 2024-03-08

Similar Documents

Publication Publication Date Title
CN111488865B (zh) 图像优化方法、装置、计算机存储介质以及电子设备
CN112233038B (zh) 基于多尺度融合及边缘增强的真实图像去噪方法
US11830230B2 (en) Living body detection method based on facial recognition, and electronic device and storage medium
CN111598998A (zh) 三维虚拟模型重建方法、装置、计算机设备和存储介质
US20230072627A1 (en) Gaze correction method and apparatus for face image, device, computer-readable storage medium, and computer program product face image
CN111241989A (zh) 图像识别方法及装置、电子设备
Vitoria et al. Semantic image inpainting through improved wasserstein generative adversarial networks
CN111767906B (zh) 人脸检测模型训练方法、人脸检测方法、装置及电子设备
CN110796593A (zh) 基于人工智能的图像处理方法、装置、介质及电子设备
KR102311796B1 (ko) 지역적 신체영역 정보를 이용한 휴먼 모션 디블러링 방법 및 장치
CN111292272B (zh) 图像处理方法、装置、介质以及电子设备
CN113570684A (zh) 图像处理方法、装置、计算机设备和存储介质
CN113066034A (zh) 人脸图像的修复方法与装置、修复模型、介质和设备
CN115131218A (zh) 图像处理方法、装置、计算机可读介质及电子设备
CN112509144A (zh) 人脸图像处理方法、装置、电子设备及存储介质
CN116798041A (zh) 图像识别方法、装置和电子设备
CN116977200A (zh) 视频去噪模型的处理方法、装置、计算机设备和存储介质
Jabbar et al. FD-stackGAN: face de-occlusion using stacked generative adversarial networks
CN115311152A (zh) 图像处理方法、装置、电子设备以及存储介质
CN116883770A (zh) 深度估计模型的训练方法、装置、电子设备及存储介质
CN114648604A (zh) 一种图像渲染方法、电子设备、存储介质及程序产品
CN112990215B (zh) 图像去噪方法、装置、设备及存储介质
Zeng et al. Archaeology drawing generation algorithm based on multi-branch feature cross fusion
CN115222606A (zh) 图像处理方法、装置、计算机可读介质及电子设备
Kim et al. Guidance Information Assisted Reconstruction of Masked Faces

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40027974

Country of ref document: HK