CN110660037B - 图像间脸部交换的方法、装置、***和计算机程序产品 - Google Patents

图像间脸部交换的方法、装置、***和计算机程序产品 Download PDF

Info

Publication number
CN110660037B
CN110660037B CN201810697069.2A CN201810697069A CN110660037B CN 110660037 B CN110660037 B CN 110660037B CN 201810697069 A CN201810697069 A CN 201810697069A CN 110660037 B CN110660037 B CN 110660037B
Authority
CN
China
Prior art keywords
image
face
style
features
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810697069.2A
Other languages
English (en)
Other versions
CN110660037A (zh
Inventor
陈冠男
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BOE Technology Group Co Ltd
Original Assignee
BOE Technology Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BOE Technology Group Co Ltd filed Critical BOE Technology Group Co Ltd
Priority to CN201810697069.2A priority Critical patent/CN110660037B/zh
Priority to EP18887226.1A priority patent/EP3815049A4/en
Priority to US16/464,242 priority patent/US10839581B2/en
Priority to PCT/CN2018/111878 priority patent/WO2020000814A1/en
Publication of CN110660037A publication Critical patent/CN110660037A/zh
Application granted granted Critical
Publication of CN110660037B publication Critical patent/CN110660037B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • G06T5/75Unsharp masking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

公开了在图像之间实现脸部交换的方法和装置的实施例。该方法包括:提取第一图像中的脸部内容图像和第二图像中的脸部风格图像;经由深度卷积神经网络从所述脸部内容图像得到原始内容特征和从所述脸部风格图像得到原始风格特征,其中与所述原始风格特征相比,所述原始内容特征从所述深度卷积神经网络的较高卷积层得到;基于预定义的损失函数,根据所述原始内容特征和原始风格特征,从初始的脸部风格迁移图像开始来迭代地优化,且在执行所述迭代优化预定次数后,输出经优化的脸部风格迁移图像;以及通过用脸部风格迁移图像与第二图像进行融合,以生成包含经风格迁移的脸部的第三图像。通过对脸部区域进行风格迁移,使得所生成的经脸部交换的图像给用户以更为自然、和谐的感受,因而改善了用户体验。

Description

图像间脸部交换的方法、装置、***和计算机程序产品
技术领域
本公开总地涉及图像处理,更具体而言,涉及一种用于实现图像之间的脸部交换的方法、装置、***和计算机程序产品。
背景技术
脸部特征识别技术在本世纪初得到了全世界的广泛关注。在安全和娱乐领域,该技术获得了巨大的发展空间。越来越多的公司和研究机构(如谷歌、科大讯飞、腾讯等)投入大量资源对该技术进行深入研究,且开发的产品也多种多样。脸部交换是脸部特征识别技术的一种应用,国内外关于脸部交换的应用产品目前已经可以实现真实照片之间的脸部交换。
由于这些脸部交换的应用产品大多聚焦于图像中脸部位置的脸部特征交换,所以当涉及交换的两幅图像之间存在风格差异时,实现脸部交换后所生成的图像给人以拼接过渡生硬、拼接痕迹明显、画风违和的感觉。这使得用户的使用体验较差。
发明内容
本公开提供用于在图像之间实现脸部交换的方法和装置、***、计算机程序产品。
根据本公开的一方面,提供了一种用于在图像之间实现脸部交换的方法,包括以下步骤:提取第一图像中的脸部内容图像和第二图像中的脸部风格图像;经由深度卷积神经网络从所述脸部内容图像得到原始内容特征和从所述脸部风格图像得到原始风格特征,其中与所述原始风格特征相比,所述原始内容特征从所述深度卷积神经网络的较高卷积层得到;基于预定义的损失函数,根据所述原始内容特征和原始风格特征,从初始的脸部风格迁移图像开始来迭代地优化,且在执行所述迭代优化预定次数后,输出经优化的脸部风格迁移图像;以及通过用脸部风格迁移图像与第二图像进行融合,以生成包含经风格迁移的脸部的第三图像。
可选地,深度卷积神经网络的卷积层的数量为8个。
可选地,该方法包括从深度卷积神经网络的第7卷积层得到所述内容特征,而从其第1、3、5卷积层得到所述风格特征。
可选地,预定义的损失函数包括用于计算内容损失的内容损失函数和用于计算风格损失的风格损失函数,且所述内容损失和风格损失被分别用于优化所述脸部风格迁移图像。
可选地,该方法包括计算所述内容损失和风格损失的加权和作为总的损失,当所述总的损失达到某一阈值时,输出经优化的脸部风格迁移图像。
可选地,将VGG19模型的预训练参数作为所述深度卷积神经网络的初始预训练参数。
可选地,所述预定次数是100次。
可选地,所述迭代地优化包括:使用深度卷积神经网络得到脸部风格迁移图像的内容特征和风格特征;基于所述预定义的损失函数计算脸部风格迁移图像的内容特征和风格特征相对于原始内容特征和原始风格特征的内容损失和风格损失;根据计算的内容损失和风格损失的加权和来优化脸部风格迁移图像以得到经修改的脸部风格迁移图像;以及将经修改的脸部风格迁移图像作为迭代变量用于下一次迭代中。
可选地,该方法还包括:以肖像画作为参考对所得到的脸部风格迁移图像进行旋转、缩放和平移,以实现脸部对齐。
可选地,其中用脸部风格迁移图像与第二图像进行融合之前还包括:以第二图像作为参考对所得到的脸部风格迁移图像进行旋转、缩放和平移,以实现脸部对齐。
可选地,该方法还包括:所述脸部融合包括:根据从脸部风格迁移图像获得的脸部特征点向量计算第一二维凸包边界,根据从第二图像获得的脸部特征点向量计算第二二维凸包边界;获得第一二维凸包边界内的区域作为第一脸部掩膜,获得第二二维凸包边界内的区域作为第二脸部掩膜,将第一和第二脸部掩膜取并集,得到融合后的脸部掩膜;在分别对脸部风格迁移图像和第二图像进行高斯模糊后通过计算两个图像的亮度值比而获得每个像素点的亮度比例系数,该亮度比例系数比例被用于对脸部风格迁移图像进行亮度值校正;和以融合后的脸部掩膜做参考,将脸部风格迁移图像中经亮度值校正的脸部区域融合至第二图像的对应区域
根据本公开的第二方面,提供了一种用于在图像之间实现脸部交换的装置。该装置包括:脸部提取模块、风格迁移模块和图像生成模块。脸部提取模块被配置为提取第一图像中的脸部内容图像和第二图像中的脸部风格图像。风格迁移模块包括:深度卷积神经网络和迭代优化模块。深度卷积神经网络用于从所述脸部内容图像得到原始内容特征和从所述脸部风格图像得到原始风格特征,其中与所述原始风格特征相比,所述原始内容特征从所述深度卷积神经网络的较高卷积层得到。迭代优化模块,用于基于预定义的损失函数,根据所述原始内容特征和原始风格特征,从初始的脸部风格迁移图像开始来迭代地进行优化,且在执行所述迭代优化预定次数后,输出经优化的脸部风格迁移图像。图像生成模块,用于通过用脸部风格迁移图像与第二图像进行融合,以生成包含经风格迁移的脸部的第三图像。
可选地,深度卷积神经网络的卷积层的数量为8个。
可选地,所述深度卷积神经网络被配置为从其第7卷积层输出原始内容特征,而从其第1、3、5卷积层输出原始风格特征。
可选地,所述预定义的损失函数包括用于计算内容损失的内容损失函数和用于计算风格损失的风格损失函数,且所述迭代优化模块被配置为分别使用所述内容损失和风格损失来优化所述脸部风格迁移图像。
可选地,所述迭代优化模块还包括损失计算模块和用于优化脸部风格迁移图像的优化器。损失计算模块被配置为计算所述内容损失和风格损失的加权和作为总的损失。优化器被配置为当所述总的损失达到某一阈值时,输出经优化的脸部风格迁移图像。
可选地,深度卷积神经网络被配置为得到脸部风格迁移图像的内容特征和风格特征。损失计算模块被配置为基于所述预定义的损失函数计算脸部风格迁移图像的内容特征和风格特征相对于原始内容特征和原始风格特征的内容损失和风格损失。优化器被配置为按照所计算的内容损失和风格损失来优化脸部风格迁移图像以得到经修改的脸部风格迁移图像。经修改的脸部风格迁移图像作为迭代变量被输入到所述深度卷积神经网络用于下一次迭代。
根据本公开的第三方面,提供了一种用于在图像之间实现脸部交换的***,包括一个或多个处理器;和耦合到所述一个或多个处理器的存储器,该存储器包括指令,所述指令在被所述一个或多个处理器执行时使得该***执行根据本公开第一方面所述方法。
根据本公开的第四方面,提供了一种计算机程序产品,所述计算机程序产品包括存储有指令的计算机可读存储介质,所述指令在被执行时使得计算设备的至少一个中央处理器单元执行根据本公开第一方面所述方法。
附图说明
通过阅读以下的详细说明和仔细查看相关联的附图,这些和其它的特征与优点将是明显的。应当明白,上述的一般性说明和以下的详细说明均仅仅是说明性的,而不是对所要求保护的方面的限制。
图1图示了根据本公开实施例的方法。
图2图示了根据本公开实施例的装置的框图。
图3图示了脸部特征点的一个示例性实现。
图4图示了深度卷积神经网络的示意图。
图5图示了根据本公开实施例的风格迁移模块的示例性实现。
图6图示了根据本公开实施例的深度卷积神经网络的示例性实现。
图7图示了根据本公开实施例的照片与肖像画脸部交换的效果图。
图8图示了根据本公开实施例的计算设备的框图。
具体实施方式
各种实施例针对在图像之间,特别是在照片和肖像画之间实现脸部交换的技术。在本文中,照片可以是包含用户头像,例如包含脸部的真实照片。照片可以包含单调的背景,比如单色背景,也可以包含复杂的背景,比如风景等。肖像画可以是艺术肖像画,其可以带有各种时代(例如文艺复兴时期)的风格或者各种艺术流派的风格。肖像画可以是头像、半身像或者全身像。举例而言,肖像画可以是带有强烈的个人风格的名画家的作品,例如梵高的作品、达芬奇的作品等。鉴于照片和肖像画之间可能存在巨大的风格差异,所以需要一种在将照片中的脸部交换到肖像画中的同时实现被交换脸部与肖像画中的风格融合的技术。
图1图示了根据本公开实施例的用于在照片和肖像画之间实现脸部交换的方法100的流程图。该方法可以结合任何合适的硬件、软件、固件或其组合来执行。尽管在这一实施例中,图像被例示为照片和肖像画,但是可以理解,本公开的实施例不限于此,而是可以适用于任何类型的包含人的脸部的图像。
在步骤102中,提取第一图像(可以是照片)中的脸部内容图像和第二图像(可以是肖像画)中的脸部风格图像。可选地,可以在步骤102之前先接收包含人的脸部的照片和肖像画。第一图像可以是来自摄像机的实时拍摄的照片或者是从本地相册中选择的照片。举例而言,可以提示用户拍摄包含自己头像的照片。第二图像可以是从一幅或多幅本地存储的肖像画中选择的肖像画,或者也可以是通过摄像机等采集的肖像画。本发明以下实施例中都以第一图像为照片、第二图像为肖像画为例进行说明。在一些实施例中,肖像画也可以是基于用户输入的关键字,比如画家名“梵高”,而从网络上搜索且下载的肖像画。在一些场景中,当肖像画先于照片而确定时,还可以提示用户按照肖像画脸部的角度来拍摄自己的照片。这样,由于两个图像(照片和肖像画)中脸部的角度一致,可以获得更好的脸部交换效果。
在步骤102中,可以对照片和肖像画进行分析,以通过例如确定脸部特征来找到脸部所在的区域。在一些实施例中,可以基于描绘脸部轮廓的特征点来划定脸部边界框,并提取边界框中的图像作为脸部图像。在一个实施例中,边界框被限定为脸部轮廓的最大外接矩形。
在步骤104中,经由深度卷积神经网络从脸部内容图像得到原始内容特征和从脸部风格图像得到原始风格特征。原始内容特征从所述深度卷积神经网络的较高卷积层得出,而原始风格特征从所述深度卷积神经网络的较低卷积层得出。原始内容特征和原始风格特征可以经由深度卷积神经网络顺序地或者并行地得出。在一些实施例中,所得到的原始内容特征和原始风格特征可以被存储到存储器中,以便在后续的迭代中使用。
在步骤106中,基于预定义的损失函数,根据所得到的原始内容特征和原始风格特征,从初始的脸部风格迁移图像开始来迭代地对其进行优化脸部目标图像,且在执行所述迭代优化预定次数后,输出经优化的脸部风格迁移图像。
在一个实施例中,脸部风格迁移图像可以初始地被设置为白噪声图像,也即初始的脸部风格迁移图像。在此实施例中,可以将白噪声图像输入到深度卷积神经网络中,以得到其内容特征和风格特征。预定义的损失函数被用来计算白噪声图像的内容特征和风格特征相对于原始内容特征和原始风格特征的内容损失和风格损失。可选地,还可以计算包含内容损失和风格损失的总损失。所计算的内容损失和风格损失被用于优化白噪声图像(例如修改白噪声图像)以生成经修改的脸部风格迁移图像。经修改的脸部风格迁移图像被输入到深度卷积神经网络中,以重复进行损失计算和脸部风格迁移图像优化的过程。也即,经修改的脸部风格迁移图像被作为迭代变量输入到下一次迭代中。脸部风格迁移图像的优化被重复地进行,直到达到预定次数才终止。此时所生成的经修改的,也即经优化的脸部风格迁移图像被输出。
在一些实施例中,预定次数可以在90-110次的范围内。可选地,预定次数可以为100次。由于迭代次数被限制在较小的范围内,所以使得整个优化过程所需的时间大大减小。
在步骤108中,通过用脸部风格迁移图像与肖像画进行融合,以生成包含经风格迁移的脸部的第三图像(例如为肖像画图像)。在本发明的所有实施例中都以第三图像为肖像画图像为例进行说明。在一些实施例中,在实施所述融合之前,可以对脸部风格迁移图像中的脸部和肖像画中的脸部进行对齐。所述对齐可以通过包括(但不限于)例如旋转、缩放和平移等的变换来实现。替换地,脸部对齐也可以在步骤102提取照片脸部图像后,对照肖像画脸部图像来实施。由于在进行风格迁移之前,照片和肖像画中的脸部特征的空间位置保持一致,所以可以更准确地将肖像画的脸部风格迁移到照片中。这将提供更自然的换脸效果,从而提供更好的主观体验。
用脸部风格迁移图像与肖像画进行融合具体包括:
- 根据从脸部风格迁移图像获得的脸部特征点向量计算第一二维凸包边界,根据从第二图像获得的脸部特征点向量计算第二二维凸包边界;
- 获得第一二维凸包边界内的区域作为第一脸部掩膜,获得第二二维凸包边界内的区域作为第二脸部掩膜,将第一和第二脸部掩膜取并集,得到融合后的脸部掩膜;
- 在分别对脸部风格迁移图像和第二图像进行高斯模糊后通过计算两个图像的亮度值比而获得每个像素点的亮度比例系数,该亮度比例系数比例被用于对脸部风格迁移图像进行亮度值校正;和
- 以融合后的脸部掩膜做参考,将脸部风格迁移图像中经亮度值校正的脸部区域融合至第二图像的对应区域。
图2图示了根据本公开实施例的在照片和肖像画之间实现脸部交换的装置200的框图。在一些实施例中,装置200可以是计算机有关的实体,且可以被实施为计算设备或者计算设备的一部分。计算设备的例子可包括(但不限于)移动设备、个人数字助理、移动计算设备、智能电话、计算机、个人计算机(PC)、台式计算机、膝上型计算机、笔记本电脑等。
在一个实施例中,如图1所示,装置200可包括:脸部提取模块210、风格迁移模块220和图像生成模块230。
脸部提取模块210被配置为从包含人的脸部的照片和肖像画中分别提取脸部图像。示例性地,用户可能希望将照片中的人脸交换到肖像画中,例如替换肖像画中的人脸。在一些实施例中,照片是可以从摄像机接收的其实时拍摄的用户的头像,或者也可以是从存储装置中读取预先存储的包含用户头像的照片。在一些示例中,照片还可以是从网络下载的照片。
在一些实施例中,肖像画是可以从存储装置中预先存储的肖像画中所选择的肖像画,也可以接收从网络下载的肖像画。在一些示例中,肖像画还可以是经由输入装置(例如摄像机或者扫描仪等)输入的肖像画。
在一些实施例中,脸部提取模块210可以基于照片中的脸部特征来提取照片脸部图像。示范性地,脸部提取模块210可以分析照片以提取其中的脸部特征。可选地,可以利用脸部特征识别库dlib来提取照片中的脸部特征。如所知的,脸部特征识别库采用机器学习的方法,通过标注了脸部特征点(诸如眉、眼、鼻、唇、颌)的图像,对神经网络架构进行训练,并将经训练的模型进行集成封装,形成识别库。
图3图示了可以使用脸部特征识别库dlib来提取的68个脸部特征点。如图所示,脸部特征点0-26描绘了脸部的轮廓,27-35描绘了鼻子的形状,36-41和42-47描绘了眼睛的形状,而48-68则描绘了嘴唇的形状。
在一些实施例中,脸部提取模块210可以使用脸部特征识别库dlib通过脸部特征点来提取脸部的主要特征。示例性地,脸部提取模块210可以根据对照片所提取的描绘脸部轮廓的脸部特征点,例如脸部特征点0-26来界定照片中的脸部区域,并相应地生成脸部边界框(boundary box)。边界框内的图像被提取作为照片脸部图像。以同样的方式,脸部提取模块210可以从肖像画中提取肖像画脸部图像。
风格迁移模块220被配置为对所提取的脸部图像进行风格迁移。风格迁移模块220包括深度卷积神经网络221和迭代优化模块222。深度卷积神经网络221用于从输入的脸部图像得到内容特征和风格特征。在一个示例的场景下,深度卷积神经网络221可以将照片脸部图像作为脸部内容图像而从其得到原始内容特征,以表征该照片脸部图像的内容,并且将肖像画脸部图像作为脸部风格图像而从其得到原始风格特征,以表征该肖像画脸部图像的风格。内容特征和风格特征可以从深度卷积神经网络221的不同层得出。在一些实施例中,与风格特征相比,内容特征可以从深度卷积神经网络的更高层得出。
迭代优化模块222被配置为使用所得到的内容特征和风格特征,基于预定义的损失函数来迭代地优化脸部风格迁移图像,即实现了风格迁移的脸部图像。预定义的损失函数可以包括基于所得到的内容特征计算内容损失的内容损失函数和基于所得到的风格特征计算风格损失的风格损失函数。迭代优化模块222可以分别使用所述内容损失和风格损失来优化脸部风格迁移图像。迭代优化模块222被配置为在执行迭代优化预定次数之后,输出经优化的脸部风格迁移图像作为具有脸部风格迁移图像。
图像生成模块230被配置为用脸部风格迁移图像与肖像画进行融合,以生成包含经风格迁移的脸部的肖像画图像。
在一些实施例中,图像生成模块230可以通过先将脸部风格迁移图像与肖像画中的脸部对齐,再将经对齐的脸部图像融合到肖像画中而实施所述替换。
示例性地,在获得照片脸部的特征点和肖像画脸部的特征点后,图像生成模块230可以以肖像画脸部为参考,分析照片脸部需做何种程度的变换以实现脸部对齐。变换可以是(但不限于)例如旋转、缩放和平移。脸部对齐可以是使得照片脸部特征在几何空间上与肖像画脸部特征保持位置一致。
以68个脸部特征点为例,所需变换可以通过使下式最小化来确定:
Figure DEST_PATH_IMAGE001
(1)
其中,s为代表几何缩放程度的标量;R为代表几何旋转程度的2x2矩阵;T为代表几何偏移程度的二维向量;pi为照片脸部特征点向量,qi为肖像画脸部特征点向量。
式(1)可以通过普氏(Procrustes)分析法来求解,以获得仿射变换矩阵。普氏分析法对式(1)的求解步骤为:
- 分别对照片脸部特征点向量p和肖像画脸部特征点向量q求均值得c1和c2,求标准差得s1和s2。
- 将向量p和q分别减去对应均值c1和c2,然后分别再除以标准差s1和s2。
- 奇异值分解获得R矩阵过程:
Figure 570522DEST_PATH_IMAGE002
(2)
Figure DEST_PATH_IMAGE003
(3)
- 获得仿射矩阵:
Figure 880806DEST_PATH_IMAGE004
(4)
其中,
Figure DEST_PATH_IMAGE005
通过将照片脸部图像按仿射矩阵M做仿射变换,可以实现照片脸部图像与肖像画脸部图像的几何空间对齐。
在一些实施例中,图像生成模块230可以通过以下的示例性实现来进行脸部图像的融合。
A.根据从脸部风格迁移图像和肖像画获得的脸部特征点向量,计算其二维凸包边界,即在二维平面上连接位于特征点分布最外侧的点,形成凸多边形。使所有特征点均包含在凸多边形内。该二维凸包边界内的区域,即该凸多边形所形成的区域可作为脸部掩膜使用。
B.根据脸部风格迁移图像和肖像画中所计算的二维凸包边界分布获得脸部对齐后的照片脸部掩膜和肖像画脸部掩膜。将两个脸部掩膜取并集,得到融合后的掩膜。
C.分别对脸部风格迁移图像和肖像画进行高斯模糊,然后做两个图像的亮度值比,获得每个像素点的亮度比例系数。用该亮度比例系数比例对照片脸部图像进行亮度校正,使其与肖像画的明暗度相近似。可选地,当脸部风格迁移图像或肖像画图像为彩色图像时,可以对各颜色通道颜色做两个图像的亮度值比,获得每个像素点的亮度比例系数。用该亮度比例系数比例对脸部风格迁移图像进行颜色校正,使其与肖像画的色调相近似。
D.以融合掩膜做参考,将经校正的脸部风格迁移图像中的脸部区域融合至第二图像的对应区域。可选地,当脸部风格迁移图像或肖像画为彩色图像时将颜色校正后的照片脸部区域融合至肖像画对应区域。附加地,还可以通过高斯模糊来平滑局部细节,完成融合过程。
按照本公开实施例的装置,通过对脸部区域进行风格迁移,使得被交换到图像中的脸部区域与图像的其他区域仍然能够保持一致的画面风格,给用户的感觉更为自然、和谐。而且,由于仅对脸部图像进行风格迁移,大幅减少了深度卷积神经网络的运算量。这极大地减少了换脸过程所需的时间,因而进一步改善了用户体验。
图4图示了根据本公开实施例的深度卷积神经网络的示意图。深度卷积神经网络可以由多层小型计算单元组成,且是将图像作为***的输入、输出并用卷积核替代标量的权值的一种结构。如图4所示,计算单元可以是卷积层中的卷积核单元
Figure 50756DEST_PATH_IMAGE006
(例如
Figure DEST_PATH_IMAGE007
Figure 711544DEST_PATH_IMAGE008
Figure DEST_PATH_IMAGE009
……
Figure 384971DEST_PATH_IMAGE010
Figure DEST_PATH_IMAGE011
Figure 738592DEST_PATH_IMAGE012
Figure DEST_PATH_IMAGE013
……
Figure 599101DEST_PATH_IMAGE014
);和偏置单元
Figure DEST_PATH_IMAGE015
(例如
Figure 798001DEST_PATH_IMAGE016
Figure DEST_PATH_IMAGE017
Figure 138983DEST_PATH_IMAGE018
Figure DEST_PATH_IMAGE019
Figure 663506DEST_PATH_IMAGE020
),其中k表示输入层编号,i和j表示输入和输出的单位编号。偏置
Figure DEST_PATH_IMAGE021
是一组叠加在卷积层输出上的标量。叠加了偏置的卷积层输出接下来会进入到激活层(通常为RELU或者sigmoid函数)。正如相关技术中已知的,激活层函数一般为非线性函数,其作用是对卷积层参数进行部分抑制,使神经网络具有稀疏性,一定程度上缓解网络过拟合的情况发生。
多层小型计算单元可以以前馈方式分层处理图像。当深度卷积神经网络被用于处理输入的图像时,每一层小型计算单元可以被理解为图像滤波器的集合。每个图像滤波器从输入图像中提取某个特征。深度卷积神经网络的特点在于,沿着深度卷积神经网络的处理层级,输入图像可以被转换为与其详细的像素值相比更多地关注图像的实际内容的表示。因此,深度卷积神经网络较高层级中的特征响应可以被用作输入图像的“内容表示”,也即内容特征。相应地,为获得输入图像的“风格表示”,可以使用深度卷积神经网络中用于捕捉纹理信息的较低层级中的特征响应。在一些实施例中,通过包含多个较低层级的特征相关性,可以获得输入图像的纹理信息来作为风格特征。
按照本公开实施例,深度卷积神经网络可以将照片脸部图像作为内容图像输入来进行处理,并从其较高层级获得表征照片脸部的实际内容的内容特征。深度卷积神经网络还可以将肖像画脸部图像作为风格图像输入来进行处理,并从其一个或多个较低层级获得表征肖像画脸部区域的风格的风格特征。
图5图示了根据本公开实施例的风格迁移模块500的示例性实现。如图4所示,风格迁移模块500包括深度卷积神经网络510 和迭代优化模块520。照片脸部图像和肖像脸部图像被作为输入图像输入到深度卷积神经网络510。深度卷积神经网络510对照片脸部图像和肖像画脸部图像进行处理,例如滤波处理,以从相应的层输出照片脸部图像的第一内容特征和肖像画脸部图像的第一风格特征。可选地,深度卷积神经网络510包含8个卷积层。深度卷积神经网络510被配置为从第7卷积层网络输出照片脸部图像的第一内容特征(也即原始内容特征),且从第1、3、5卷积层输出肖像画脸部图像的第一风格特征(也即原始风格特征)。可选地,第一内容特征和第一风格特征可以采用特征图像的形式。
迭代优化模块520被配置为通过迭代优化脸部风格迁移图像来获得脸部风格迁移图像。在一些实施例中,迭代优化模块520包括损失计算模块521和优化器522。损失计算模块521可以基于预定义的内容损失函数来计算原始内容脸部图像和脸部风格迁移图像之间的内容损失,以及基于预定义的风格损失函数来计算原始风格脸部图像和脸部风格迁移图像之间的风格损失。脸部风格迁移图像可以初始地被设置为白噪声图像。替换地,脸部风格迁移图像也可以初始地被设置为原始内容脸部图像或者原始风格脸部图像。
在一些实施例中,脸部风格迁移图像被输入到深度卷积神经网络510,且深度卷积神经网络510被配置为从相应的层输出该脸部风格迁移图像的第二内容特征和第二风格特征。可选地,深度卷积神经网络510被配置为从第7卷积层输出该第二内容特征,且从第1、3、5卷积层输出该第二风格特征。
在一些实施例中,可以使用第一内容特征和第一风格特征以及第二内容特征和第二风格特征,分别基于内容损失函数和风格损失函数来计算内容损失和风格损失。下面给出了计算内容损失和风格损失的示范性实施例。
I. 内容损失
在深度卷积神经网络510中,每一个卷积层的输出都是输入图像的特征图像。假设某个具有
Figure 417835DEST_PATH_IMAGE022
个卷积核的卷积层,其输出包含
Figure DEST_PATH_IMAGE023
个特征图像,假设每个特征图像的尺寸都是
Figure 610307DEST_PATH_IMAGE024
(特征图像的宽x高)。这样第
Figure 540216DEST_PATH_IMAGE026
卷积层的输出可以存储在矩阵
Figure DEST_PATH_IMAGE027
中。
Figure 970061DEST_PATH_IMAGE028
表示第
Figure 477265DEST_PATH_IMAGE026
卷积层中第i个卷积核输出的特征图像中第j个位置的值。
如果定义
Figure DEST_PATH_IMAGE029
Figure 752389DEST_PATH_IMAGE030
分别为原始输入内容图像(例如照片脸部图像)和生成图像(脸部风格迁移图像),
Figure DEST_PATH_IMAGE031
Figure 51652DEST_PATH_IMAGE032
分别为它们在深度卷积神经网络510中第
Figure 386819DEST_PATH_IMAGE026
卷积层的输出的特征图像,也即第一内容特征图像和第二内容特征图像,则内容损失函数可以如下地定义:
Figure DEST_PATH_IMAGE033
(5)
其中
Figure 319002DEST_PATH_IMAGE034
为一个常数,用于对结果进行标准化处理。
在一个实施例中,当从深度卷积神经网络510中第7层输出内容特征时,基于内容损失函数,内容损失可以被计算为
Figure DEST_PATH_IMAGE035
,其中
Figure 663396DEST_PATH_IMAGE036
Figure DEST_PATH_IMAGE037
分别为在深度卷积神经网络510的第7卷积层输出的照片脸部图像和脸部风格迁移图像的内容特征图像。
II. 风格损失:
Gram矩阵的定义如下:
Figure 161374DEST_PATH_IMAGE038
(6)
如果定义
Figure DEST_PATH_IMAGE039
Figure 588813DEST_PATH_IMAGE040
分别为原始输入风格图像(例如肖像画脸部图像)和生成图像(脸部风格迁移图像),
Figure DEST_PATH_IMAGE041
Figure 742714DEST_PATH_IMAGE042
分别为它们在深度卷积神经网络中第
Figure 625219DEST_PATH_IMAGE044
卷积层的输出的Gram矩阵,则该层的风格损失函数可以如下地定义:
Figure DEST_PATH_IMAGE045
(7)
其中
Figure 508861DEST_PATH_IMAGE046
为一常数,用于对结果进行标准化处理。相应地总的风格损失可以计算为
Figure DEST_PATH_IMAGE047
(8)
其中
Figure 451409DEST_PATH_IMAGE048
为第
Figure 889344DEST_PATH_IMAGE044
层风格损失占总风格损失的权重。
在一个实施例中,当从深度卷积神经网络510中第1、3、5层输出风格特征时,基于风格损失函数,总的风格损失可以被计算为
Figure DEST_PATH_IMAGE049
优化器522可以被配置为分别基于内容损失和风格损失来对脸部风格迁移图像进行优化。在一些实施例中,优化器522通过使用Adam梯度下降算法改变脸部风格迁移图像而进行优化。
经改变的脸部风格迁移图像被作为迭代变量输入到深度卷积神经网络510,且其内容特征和风格特征被用来计算内容损失和风格损失。
损失计算模块521和优化器522在迭代地执行损失计算和图像优化预定次数后,通过优化器522输出的优化的脸部风格迁移图像。在一些实施例中,预定次数可以通过实验的方式获得,或者可以被设置为经验值。可选地,预定次数可以在90-110次的范围内。可选地,预定次数可以为100次。由于迭代次数被限制在较小的范围内,所以使得整个优化过程所需的时间大大减小。
在一些实施例中,总的损失函数可以定义为:
Figure 231333DEST_PATH_IMAGE050
(9)
其中,
Figure DEST_PATH_IMAGE051
Figure 312026DEST_PATH_IMAGE052
分别为内容损失权重与风格损失权重。在一些实施例中,内容损失权重与风格损失权重可以通过实验的方式获得,或者可以被设置为经验值。
损失计算模块521被配置为基于总的损失函数来计算总的损失。
在本公开的一个实施例中,可以基于总损失函数来评估脸部风格迁移图像是否已达到预期的风格迁移效果。示例性的,优化器522还可以被配置为当计算的总损失小于某一阈值时,输出经优化的脸部风格迁移图像。
可以理解,尽管在图5中,为了说明的清楚,将用于脸部内容图像/脸部特征图像的深度卷积神经网络和用于脸部风格迁移图像的深度卷积神经网络示为分开的深度卷积神经网络,但是它们也可以被实施为同一个深度卷积神经网络。
按照本公开的实施例,由于所采用的深度卷积神经网络只包含8个卷积层,且输入图像只要求两个脸部图像(即照片脸部图像和肖像画脸部图像),因此网络结构和训练量都极大简化。这进一步提升了网络的执行速度。
图6图示了根据本公开实施例的深度卷积神经网络600的示例性实现。如图5所示,深度卷积神经网络600包括8个卷积层(也即卷积层的数量为8个)和3个池化层,其中每一个卷积层的输出都是从输入图像中提出的特征。池化层降低特征图像的分辨率并传递给下一个卷积层。这样经过每个卷积层后的特征图像都表征了输入图像在不同层级上的特征(如纹理、边缘、物体等)。可以从不同的卷积层提取内容特征和风格特征。如前所述,从深度卷积神经网络较高层级中得到的特征图通常可以表征输入图像的内容特征;而从深度卷积神经网络较低层级中得到的特征图通常可以表征输入图像的风格特征。
在图6中,输入图像顺序经过第1、2卷积层的处理后,进入第1池化层。经过第1池化层处理的图像被继续顺序经过第3、4卷积层的处理,进入第2池化层。经过第2池化层处理的图像被继续顺序经过第5、6、7、8卷积层的处理,进入第3池化层。
如图6所述,在本公开的这一实施例中,风格特征从较低的第1、3、5卷积层得到,而内容特征从较高的第7卷积层得到。
图7图示了使用本公开实施例的技术进行脸部交换的对比效果图。在图7中,(a)为所拍摄的用户的照片,(b)为所选用的分别包含男性和女性的两幅肖像画,而(c)为将照片的脸部交换到肖像画中对应的脸部区域后生成的肖像画。
如图7所示,在生成的肖像画中保留了照片中用户脸部的内容特征,例如眼镜、眼睛(比如形状和凝视的方向等)、鼻子和嘴的形状等。同时,原肖像画的艺术风格被很好地迁移到用户脸部中,例如脸部、面颊部等处的颜色以及与周围图案的色调配合等。
根据本公开实施例的脸部交换方法,通过对脸部区域进行风格迁移,使得被交换到图像中的脸部区域与图像的其他区域仍然能够保持一致的画面风格,给用户以更为自然、和谐的主观感受。而且,由于仅对脸部图像进行风格迁移,大幅减少了深度卷积神经网络的运算量。这极大地减少了换脸过程所需的时间,因而进一步改善了用户体验。
图8示出了按照本公开实施例的示范性计算设备800的示意图。计算设备800可以采取以下形式:台式计算设备、移动计算设备(比如智能电话、膝上型计算机、笔记本计算机或平板计算机)、网络计算机、家庭娱乐计算机、交互式电视、游戏***或其他合适类型的计算设备。
计算设备800可包括按照本公开实施例的在照片和肖像画之间实现脸部交换的脸部交换装置810。装置810可以是比如前述结合附图描述的装置。
在一些实施例中,计算设备800可以包括用于采集包含人的脸部的照片的摄像机820和用于存储包含人的脸部的照片和/或肖像画的存储器830。脸部交换装置810可以从摄像机820和/或存储器830接收照片和肖像画。
在一些实施例中,计算设备800还可以包括显示器840。脸部交换装置810可以将生成的经脸部交换的肖像画输出到显示器840,以经由显示器840显示给用户。
在一个实施例中,脸部交换装置810可以被实现为脸部交换app的形式,且计算设备800可以包含被配置成提供脸部交换功能性的脸部交换app。
本公开的各种实施例中的“装置”、“模块”等可以通过使用硬件单元、软件单元或它们的组合而被实施。硬件单元的例子可包括设备、构件、处理器、微处理器、电路、电路元件(例如,晶体管、电阻器、电容器、电感器等等)、集成电路、专用集成电路(ASIC)、可编程逻辑器件(PLD)、数字信号处理器(DSP)、现场可编程门阵列(FPGA)、存储器单元、逻辑门、寄存器、半导体器件、芯片、微芯片、芯片组等等。软件单元的例子可包括软件构件、程序、应用、计算机程序、应用程序、***程序、机器程序、操作***软件、中间件、固件、软件模块、例行程序、子程序、函数、方法、过程、软件接口、应用程序接口(API)、指令集、计算代码、计算机代码、代码段、计算机代码段、单词、值、符号、或它们的任何组合。确定实施例是否通过使用硬件单元和/或软件单元被实施可以根据任意数量的因素而变化,诸如想要的计算速率、功率电平、耐热性、处理周期预算、输入数据速率、输出数据速率、存储器资源、数据总线速度、和其它设计或性能约束,正如对于给定的实现所想要的。
某些实施例可包括制造品。制造品可包括用来存储逻辑的存储介质。存储介质的例子可包括能够存储电子数据的一种或多种类型的计算机可读存储媒体,包括易失性存储器或非易失性存储器、可拆卸或不可拆卸存储器、可擦除或不可擦除存储器、可写或可再写存储器等等。逻辑的例子可包括各种软件单元,诸如软件构件、程序、应用、计算机程序、应用程序、***程序、机器程序、操作***软件、中间件、固件、软件模块、例行程序、子程序、函数、方法、过程、软件接口、应用程序接口(API)、指令集、计算代码、计算机代码、代码段、计算机代码段、单词、值、符号、或它们的任何组合。在一个实施例中,例如,制造品可以存储可执行计算机程序指令,它们在被计算机执行时使得计算机执行按照所描述的实施例的方法和/或操作。可执行计算机程序指令可包括任何适当类型的代码,诸如源代码、编译的代码、解释的代码、可执行代码、静态代码、动态代码等等。可执行计算机程序指令可以按照预定义的计算机语言、方式或语法被实施,用于指令计算机去执行一定的功能。指令可以通过使用任何适当的高级、低级、面向对象的、视觉的、编译的和/或解释的编程语言而被实施。
一些实施例可以通过使用表达“一个实施例”或“一些实施例”连同它们的派生词而被描述。这些术语是指结合实施例描述的特定特征、结构或特性被包括在至少一个实施例中。在申请书的各个地方出现的词组“在一个实施例中”不一定必须全都指同一个实施例。
附加地,在上述的详细说明中,可以看到,为了简化公开内容,各种特征在单个实施例中被聚合在一起。这种公开的方法不被解译为反映了所要求保护的实施例需要比在每项权利要求中明确叙述的特征更多特征的意图。相反,正如以下的权利要求反映的,本公开的主题在于少于单个公开的实施例的所有特征。因此,以下的权利要求据此被合并到详细说明中,每项权利要求独自地作为单独的实施例。在所附权利要求中,术语“包括(including)”和“其中 (in which)”分别被用作为相应术语“包括(comprising)”和“其中(wherein)”的简明英语的等同物。而且,术语“第一”、“第二”、“第三”等等仅仅被用作为标签,且不打算对它们的对象施加数值要求。
虽然本主题是以特定于结构特征和/或方法动作的语言被描述的,但应当明白,在所附权利要求中限定的主题不是必须限于以上描述的具体特征或动作。相反,上面描述的具体的特征和动作是作为实施权利要求的示例性形式被公开的。

Claims (15)

1.一种在图像之间实现脸部交换的方法,包括以下步骤:
提取第一图像中的脸部图像作为脸部内容图像和提取第二图像中的脸部图像作为脸部风格图像;
经由深度卷积神经网络从所述脸部内容图像得到原始内容特征作为第一内容特征和从所述脸部风格图像得到原始风格特征作为第一风格特征,其中与所述原始风格特征相比,所述原始内容特征从所述深度卷积神经网络的较高卷积层得到;
基于预定义的损失函数,根据所述第一内容特征和第一风格特征,从初始的脸部风格迁移图像开始来迭代地优化,所述迭代地优化包括:将脸部风格迁移图像输入到所述深度卷积神经网络,从所述深度卷积神经网络不同的卷积层输出该脸部风格迁移图像的第二内容特征和第二风格特征,其中与所述第二风格特征相比,所述第二内容特征从所述深度卷积神经网络的较高卷积层得到,基于所述预定义的损失函数计算脸部风格迁移图像的第二内容特征和第二风格特征相对于第一内容特征和第一风格特征的内容损失和风格损失;根据计算的内容损失和风格损失的加权和来优化脸部风格迁移图像以得到经修改的脸部风格迁移图像,以及将经修改的脸部风格迁移图像作为迭代变量用于下一次迭代中,且在执行所述迭代优化预定次数后,输出经优化的脸部风格迁移图像;以及
通过用所述经优化的脸部风格迁移图像与第二图像进行融合,以生成包含经风格迁移的脸部的第三图像,
其中用所述经优化的脸部风格迁移图像与第二图像进行融合包括:
- 根据从所述经优化的脸部风格迁移图像获得的脸部特征点向量计算第一二维凸包边界,根据从第二图像获得的脸部特征点向量计算第二二维凸包边界;
- 获得第一二维凸包边界内的区域作为第一脸部掩膜,获得第二二维凸包边界内的区域作为第二脸部掩膜,将第一和第二脸部掩膜取并集,得到融合后的脸部掩膜;
- 在分别对脸部风格迁移图像和第二图像进行高斯模糊后通过计算两个图像的亮度值比而获得每个像素点的亮度比例系数,该亮度比例系数比例被用于对脸部风格迁移图像进行亮度值校正;和
- 以融合后的脸部掩膜做参考,将脸部风格迁移图像中经亮度值校正的脸部区域融合至第二图像的对应区域。
2.根据权利要求1所述的方法,其中所述深度卷积神经网络的卷积层的数量为8个。
3.根据权利要求2所述的方法,包括从深度卷积神经网络的第7卷积层得到所述原始内容特征,而从其第1、3、5卷积层得到所述原始风格特征。
4.根据权利要求1到3中任一项所述的方法,其中所述预定义的损失函数包括用于计算内容损失的内容损失函数和用于计算风格损失的风格损失函数,且所述内容损失和风格损失被分别用于优化所述脸部风格迁移图像。
5.根据权利要求4所述的方法,还包括计算所述内容损失和风格损失的加权和作为总的损失,以及当所述总的损失达到某一阈值时,输出经优化的脸部风格迁移图像。
6.根据权利要求1到3中任一项所述的方法,其中将VGG19模型的预训练参数作为所述深度卷积神经网络的初始预训练参数。
7.根据权利要求1所述的方法,其中所述预定次数是100次。
8.根据权利要求1所述的方法,其中用脸部风格迁移图像与第二图像进行融合之前还包括:以第二图像作为参考对所得到的脸部风格迁移图像进行旋转、缩放和平移,以实现脸部对齐。
9.一种用于在图像之间实现脸部交换的装置,包括:
脸部提取模块,被配置为提取第一图像中的脸部图像作为脸部内容图像和提取第二图像中的脸部图像作为脸部风格图像;
风格迁移模块,其包括:
深度卷积神经网络,用于从所述脸部内容图像得到原始内容特征作为第一内容特征和从所述脸部风格图像得到原始风格特征作为第一风格特征,其中与所述原始风格特征相比,所述原始内容特征从所述深度卷积神经网络的较高卷积层得到;和
迭代优化模块,用于基于预定义的损失函数,根据所述第一内容特征和第一风格特征,从初始的脸部风格迁移图像开始来迭代地进行优化,且在执行所述迭代优化预定次数后,输出经优化的脸部风格迁移图像;和
图像生成模块,用于通过用所述经优化的脸部风格迁移图像与第二图像进行融合,以生成包含经风格迁移的脸部的第三图像,
其中所述深度卷积神经网络被配置为从不同的卷积层输出脸部风格迁移图像的第二内容特征和第二风格特征,其中与所述第二风格特征相比,所述第二内容特征从所述深度卷积神经网络的较高卷积层得到,所述损失计算模块被配置为基于所述预定义的损失函数计算脸部风格迁移图像的第二内容特征和第二风格特征相对于第一内容特征和第一风格特征的内容损失和风格损失;以及所述优化器被配置为按照所计算的内容损失和风格损失来优化脸部风格迁移图像以得到经修改的脸部风格迁移图像,其中经修改的脸部风格迁移图像作为迭代变量被输入到所述深度卷积神经网络用于下一次迭代;
其中所述图像生成模块被配置为根据从所述经优化的脸部风格迁移图像获得的脸部特征点向量计算第一二维凸包边界,根据从第二图像获得的脸部特征点向量计算第二二维凸包边界;获得第一二维凸包边界内的区域作为第一脸部掩膜,获得第二二维凸包边界内的区域作为第二脸部掩膜,将第一和第二脸部掩膜取并集,得到融合后的脸部掩膜;在分别对脸部风格迁移图像和第二图像进行高斯模糊后通过计算两个图像的亮度值比而获得每个像素点的亮度比例系数,该亮度比例系数比例被用于对脸部风格迁移图像进行亮度值校正;和以融合后的脸部掩膜做参考,将脸部风格迁移图像中经亮度值校正的脸部区域融合至第二图像的对应区域。
10.根据权利要求9所述的装置,其中所述深度卷积神经网络的卷积层的数量为8个。
11.根据权利要求10所述的装置,其中所述深度卷积神经网络被配置为从其第7卷积层得到所述原始内容特征,而从其第1、3、5卷积层得到所述原始风格特征。
12.根据权利要求11所述的装置,其中所述预定义的损失函数包括用于计算内容损失的内容损失函数和用于计算风格损失的风格损失函数,且所述迭代优化模块被配置为分别使用所述内容损失和风格损失来优化所述脸部风格迁移图像。
13.根据权利要求12所述的装置,其中所述迭代优化模块还包括损失计算模块和用于优化脸部风格迁移图像的优化器,所述损失计算模块被配置为计算所述内容损失和风格损失的加权和作为总的损失,以及所述优化器被配置为当所述总的损失达到某一阈值时,输出经优化的脸部风格迁移图像。
14.一种用于在图像之间实现脸部交换的***,包括一个或多个处理器;和耦合到所述一个或多个处理器的存储器,该存储器包括指令,所述指令在被所述一个或多个处理器执行时使得该***执行根据权利要求1-8中任一项所述的方法。
15.一种计算机可读存储介质,存储有指令,所述指令在被执行时使得计算设备的至少一个中央处理器单元执行根据权利要求1-8中任一项所述的方法。
CN201810697069.2A 2018-06-29 2018-06-29 图像间脸部交换的方法、装置、***和计算机程序产品 Active CN110660037B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201810697069.2A CN110660037B (zh) 2018-06-29 2018-06-29 图像间脸部交换的方法、装置、***和计算机程序产品
EP18887226.1A EP3815049A4 (en) 2018-06-29 2018-10-25 COMPUTER-IMPLEMENTED METHOD FOR GENERATING A COMPOSITE IMAGE, APPARATUS FOR GENERATING A COMPOSITE IMAGE, AND COMPUTER PROGRAM PRODUCT
US16/464,242 US10839581B2 (en) 2018-06-29 2018-10-25 Computer-implemented method for generating composite image, apparatus for generating composite image, and computer-program product
PCT/CN2018/111878 WO2020000814A1 (en) 2018-06-29 2018-10-25 Computer-implemented method for generating composite image, apparatus for generating composite image, and computer-program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810697069.2A CN110660037B (zh) 2018-06-29 2018-06-29 图像间脸部交换的方法、装置、***和计算机程序产品

Publications (2)

Publication Number Publication Date
CN110660037A CN110660037A (zh) 2020-01-07
CN110660037B true CN110660037B (zh) 2023-02-10

Family

ID=68985976

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810697069.2A Active CN110660037B (zh) 2018-06-29 2018-06-29 图像间脸部交换的方法、装置、***和计算机程序产品

Country Status (4)

Country Link
US (1) US10839581B2 (zh)
EP (1) EP3815049A4 (zh)
CN (1) CN110660037B (zh)
WO (1) WO2020000814A1 (zh)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109344840B (zh) * 2018-08-07 2022-04-01 深圳市商汤科技有限公司 图像处理方法和装置、电子设备、存储介质、程序产品
CN109766895A (zh) * 2019-01-03 2019-05-17 京东方科技集团股份有限公司 用于图像风格迁移的卷积神经网络的训练方法和图像风格迁移方法
CN111429388B (zh) * 2019-01-09 2023-05-26 阿里巴巴集团控股有限公司 一种图像处理方法、装置和终端设备
US11681923B2 (en) * 2019-04-19 2023-06-20 Samsung Electronics Co., Ltd. Multi-model structures for classification and intent determination
CN110210474B (zh) * 2019-04-30 2021-06-01 北京市商汤科技开发有限公司 目标检测方法及装置、设备及存储介质
WO2020235862A1 (en) * 2019-05-17 2020-11-26 Samsung Electronics Co., Ltd. Image manipulation
US11151794B1 (en) * 2019-06-28 2021-10-19 Snap Inc. Messaging system with augmented reality messages
CN110399924B (zh) * 2019-07-26 2021-09-07 北京小米移动软件有限公司 一种图像处理方法、装置及介质
KR102659290B1 (ko) * 2019-10-04 2024-04-19 삼성전자주식회사 모자이크 생성 장치 및 방법
US11145042B2 (en) * 2019-11-12 2021-10-12 Palo Alto Research Center Incorporated Using convolutional neural network style transfer to automate graphic design creation
US11080834B2 (en) * 2019-12-26 2021-08-03 Ping An Technology (Shenzhen) Co., Ltd. Image processing method and electronic device
CN111340964B (zh) * 2020-03-05 2023-03-24 长春中国光学科学技术馆 一种基于迁移学习的3d模型图像的构建方法
CN111402181A (zh) * 2020-03-13 2020-07-10 北京奇艺世纪科技有限公司 图像融合方法、装置及计算机可读存储介质
CN111340745B (zh) * 2020-03-27 2021-01-05 成都安易迅科技有限公司 一种图像生成方法、装置、存储介质及电子设备
CN111444881B (zh) * 2020-04-13 2020-12-25 中国人民解放军国防科技大学 伪造人脸视频检测方法和装置
CN111597972B (zh) * 2020-05-14 2022-08-12 南开大学 基于集成学习的妆容推荐方法
US20210358164A1 (en) * 2020-05-15 2021-11-18 Nvidia Corporation Content-aware style encoding using neural networks
CN111738911B (zh) * 2020-06-17 2024-02-27 杭州云汽配配科技有限公司 图像风格转移方法及***
CN111729314B (zh) * 2020-06-30 2024-06-21 网易(杭州)网络有限公司 一种虚拟角色的捏脸处理方法、装置及可读存储介质
CN112752147A (zh) * 2020-09-04 2021-05-04 腾讯科技(深圳)有限公司 视频处理方法、装置和存储介质
CN112489165B (zh) * 2020-11-06 2024-02-06 中科云谷科技有限公司 一种用于合成文字的方法、装置和存储介质
US20220156987A1 (en) * 2020-11-16 2022-05-19 Disney Enterprises, Inc. Adaptive convolutions in neural networks
CN112529771B (zh) * 2020-12-07 2024-05-31 陕西师范大学 一种人像风格迁移方法
CN112614047B (zh) * 2020-12-18 2023-07-28 西北大学 一种基于TuiGAN改进的脸谱图像风格迁移的方法
CN112634282B (zh) * 2020-12-18 2024-02-13 北京百度网讯科技有限公司 图像处理方法、装置以及电子设备
CN112561785B (zh) * 2020-12-21 2021-11-16 东华大学 基于风格迁移的丝绸文物图像数据扩充方法
CN112785493B (zh) * 2021-01-22 2024-02-09 北京百度网讯科技有限公司 模型的训练方法、风格迁移方法、装置、设备及存储介质
CN113205574B (zh) * 2021-04-30 2023-04-21 武汉大学 一种基于注意力机制的艺术字风格迁移***
CN114119348A (zh) * 2021-09-30 2022-03-01 阿里巴巴云计算(北京)有限公司 图像生成方法、设备和存储介质
CN114897672A (zh) * 2022-05-31 2022-08-12 北京外国语大学 一种基于等形变约束的图像漫画风格迁移方法
CN116739893A (zh) * 2023-08-14 2023-09-12 北京红棉小冰科技有限公司 一种换脸方法及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105184249A (zh) * 2015-08-28 2015-12-23 百度在线网络技术(北京)有限公司 用于人脸图像处理的方法和装置
CN106023063A (zh) * 2016-05-09 2016-10-12 西安北升信息科技有限公司 一种视频移植换脸的方法
CN106709532A (zh) * 2017-01-25 2017-05-24 京东方科技集团股份有限公司 图像处理方法和装置
CN107180410A (zh) * 2017-04-11 2017-09-19 中国农业大学 一种图像的风格化重建方法及装置
CN107507217A (zh) * 2017-08-17 2017-12-22 北京觅己科技有限公司 证件照的制作方法、装置及存储介质
CN107564080A (zh) * 2017-08-17 2018-01-09 北京觅己科技有限公司 一种人脸图像的替换***
CN107610202A (zh) * 2017-08-17 2018-01-19 北京觅己科技有限公司 基于人脸图像替换的营销方法、设备及存储介质

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2008202672B2 (en) 2008-06-17 2011-04-28 Canon Kabushiki Kaisha Automatic layout based on visual context
JP4998595B2 (ja) * 2010-05-31 2012-08-15 カシオ計算機株式会社 画像合成装置、及びプログラム
US9730643B2 (en) * 2013-10-17 2017-08-15 Siemens Healthcare Gmbh Method and system for anatomical object detection using marginal space deep neural networks
JP6127219B2 (ja) * 2013-11-30 2017-05-10 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド 顔画像のデータから顔特徴を抽出する方法、およびシステム
US20160110900A1 (en) * 2014-10-20 2016-04-21 Mateen Moosa System And Method For Dynamically Combining Images To Display Textual Content In The Form Of An Image
US10032067B2 (en) * 2016-05-28 2018-07-24 Samsung Electronics Co., Ltd. System and method for a unified architecture multi-task deep learning machine for object recognition
US10664722B1 (en) * 2016-10-05 2020-05-26 Digimarc Corporation Image processing arrangements
US10535163B2 (en) * 2016-12-01 2020-01-14 Pinscreen, Inc. Avatar digitization from a single image for real-time rendering
WO2018102700A1 (en) * 2016-12-01 2018-06-07 Pinscreen, Inc. Photorealistic facial texture inference using deep neural networks
CN108734749A (zh) * 2017-04-20 2018-11-02 微软技术许可有限责任公司 图像的视觉风格变换
US11669718B2 (en) * 2017-05-23 2023-06-06 Intel Corporation Methods and apparatus for discriminative semantic transfer and physics-inspired optimization of features in deep learning
US10621779B1 (en) * 2017-05-25 2020-04-14 Fastvdo Llc Artificial intelligence based generation and analysis of 3D models
US10565757B2 (en) * 2017-06-09 2020-02-18 Adobe Inc. Multimodal style-transfer network for applying style features from multi-resolution style exemplars to input images
CN107506800A (zh) 2017-09-21 2017-12-22 深圳市唯特视科技有限公司 一种基于无监督域适应的无标签视频人脸识别方法
US10783640B2 (en) * 2017-10-30 2020-09-22 Beijing Keya Medical Technology Co., Ltd. Systems and methods for image segmentation using a scalable and compact convolutional neural network
US10803347B2 (en) * 2017-12-01 2020-10-13 The University Of Chicago Image transformation with a hybrid autoencoder and generative adversarial network machine learning architecture
US10796452B2 (en) * 2017-12-03 2020-10-06 Facebook, Inc. Optimizations for structure mapping and up-sampling
US10719742B2 (en) * 2018-02-15 2020-07-21 Adobe Inc. Image composites using a generative adversarial neural network
US10810469B2 (en) * 2018-05-09 2020-10-20 Adobe Inc. Extracting material properties from a single image
US10902288B2 (en) * 2018-05-11 2021-01-26 Microsoft Technology Licensing, Llc Training set sufficiency for image analysis
US10628708B2 (en) * 2018-05-18 2020-04-21 Adobe Inc. Utilizing a deep neural network-based model to identify visually similar digital images based on user-selected visual attributes

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105184249A (zh) * 2015-08-28 2015-12-23 百度在线网络技术(北京)有限公司 用于人脸图像处理的方法和装置
CN106023063A (zh) * 2016-05-09 2016-10-12 西安北升信息科技有限公司 一种视频移植换脸的方法
CN106709532A (zh) * 2017-01-25 2017-05-24 京东方科技集团股份有限公司 图像处理方法和装置
CN107180410A (zh) * 2017-04-11 2017-09-19 中国农业大学 一种图像的风格化重建方法及装置
CN107507217A (zh) * 2017-08-17 2017-12-22 北京觅己科技有限公司 证件照的制作方法、装置及存储介质
CN107564080A (zh) * 2017-08-17 2018-01-09 北京觅己科技有限公司 一种人脸图像的替换***
CN107610202A (zh) * 2017-08-17 2018-01-19 北京觅己科技有限公司 基于人脸图像替换的营销方法、设备及存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Fast Face-swap Using Convolutional Neural Networks;I. Korshunova 等;《2017 IEEE International Conference on Computer Vision》;20171225;3697-3705 *
Image Style Transfer Using Convolutional Neural Networks;Gatys L A 等;《2016 IEEE Conference on Computer Vision and Pattern Recognition》;20161212;2414-2423 *

Also Published As

Publication number Publication date
WO2020000814A1 (en) 2020-01-02
EP3815049A4 (en) 2022-03-30
EP3815049A1 (en) 2021-05-05
CN110660037A (zh) 2020-01-07
US20200286273A1 (en) 2020-09-10
US10839581B2 (en) 2020-11-17

Similar Documents

Publication Publication Date Title
CN110660037B (zh) 图像间脸部交换的方法、装置、***和计算机程序产品
US11328523B2 (en) Image composites using a generative neural network
Pang et al. Image-to-image translation: Methods and applications
Chen et al. Learning spatial attention for face super-resolution
CN109416727B (zh) 一种人脸图像中眼镜去除方法及装置
Shen et al. Human-aware motion deblurring
CN106778928B (zh) 图像处理方法及装置
CN109493350B (zh) 人像分割方法及装置
CN111127304B (zh) 跨域图像转换
Haider et al. Deepgender: real-time gender classification using deep learning for smartphones
CN111199531A (zh) 基于泊松图像融合及图像风格化的交互式数据扩展方法
Xu et al. Texture memory-augmented deep patch-based image inpainting
CN111243050B (zh) 肖像简笔画生成方法、***及绘画机器人
Zhang et al. Bionic face sketch generator
Singh et al. Neural style transfer: A critical review
Li et al. Learning dual memory dictionaries for blind face restoration
US11562489B2 (en) Pixel-wise hand segmentation of multi-modal hand activity video dataset
CN111127309A (zh) 肖像风格迁移模型训练方法、肖像风格迁移方法以及装置
US20240020810A1 (en) UNIVERSAL STYLE TRANSFER USING MULTl-SCALE FEATURE TRANSFORM AND USER CONTROLS
Zhang et al. Dual in-painting model for unsupervised gaze correction and animation in the wild
Xu et al. Multi-view face synthesis via progressive face flow
Tomar et al. Deep hyfeat based attention in attention model for face super-resolution
CN112417991A (zh) 基于沙漏胶囊网络的双注意力人脸对齐方法
Tous Pictonaut: movie cartoonization using 3D human pose estimation and GANs
Tu et al. Facial sketch synthesis using 2D direct combined model-based face-specific Markov network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant