CN111723803A - 图像处理方法、装置、设备及存储介质 - Google Patents

图像处理方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN111723803A
CN111723803A CN202010617360.1A CN202010617360A CN111723803A CN 111723803 A CN111723803 A CN 111723803A CN 202010617360 A CN202010617360 A CN 202010617360A CN 111723803 A CN111723803 A CN 111723803A
Authority
CN
China
Prior art keywords
image
face
noise reduction
pixel
skin area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010617360.1A
Other languages
English (en)
Other versions
CN111723803B (zh
Inventor
朱耀宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Fanxing Huyu IT Co Ltd
Original Assignee
Guangzhou Fanxing Huyu IT Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Fanxing Huyu IT Co Ltd filed Critical Guangzhou Fanxing Huyu IT Co Ltd
Priority to CN202010617360.1A priority Critical patent/CN111723803B/zh
Publication of CN111723803A publication Critical patent/CN111723803A/zh
Application granted granted Critical
Publication of CN111723803B publication Critical patent/CN111723803B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)

Abstract

本申请公开了一种图像处理方法、装置、设备及存储介质,属于图像处理领域。所述方法包括:对第一图像进行图像识别,得到所述第一图像中的人脸皮肤区域;基于所述人脸皮肤区域,生成人脸蒙版图像,所述人脸蒙版图像用于表示所述人脸皮肤区域中不同部位的目标显示差异;根据所述人脸蒙版图像,确定所述人脸皮肤区域中不同部位的降噪参数,所述降噪参数用于表示所述不同部位达到所述目标显示差异所需的降噪程度;根据所述不同部位的降噪参数,对所述人脸皮肤区域进行降噪处理,得到第二图像。通过在图像处理过程中生成人脸蒙版,可以对人脸皮肤区域的不同部位进行不同程度的降噪处理,使得第二图像中人脸皮肤区域中的不同部位的显示效果不同。

Description

图像处理方法、装置、设备及存储介质
技术领域
本申请涉及图像处理领域,特别涉及一种图像处理方法、装置、设备及存储介质。
背景技术
随着网络技术的发展,直播行业也随之兴起,主播在直播时希望观众看到图像中的自己是较为完美的形象。
相关技术中,主播可以开启直播软件的图像降噪功能,比如磨皮功能,通过直播软件对摄像头采集的图像进行磨皮处理,生成新的图像。直播软件可以将新的图像推送给观众,这样使得观众在观看直播的过程中,主播的皮肤比实际皮肤更加光滑。
但是,直播软件在对摄像头采集的图像进行磨皮处理时,会导致摄像头采集的图像中的一些显示元素被磨皮处理掩盖,比如主播的鼻子鼻梁较高,由于鼻梁和面部其他部分的高度差异产生的阴影,导致主播的鼻子可以显著的与其他部分区分开。但是进行磨皮处理后,由于一些阴影的丢失,观众可能无法看出主播鼻梁的高度,导致观众看到的鼻梁与主播的鼻梁差距较大,得到的图像过于失真,图像处理的效果不好。
发明内容
本申请实施例提供了一种图像处理方法、装置、设备及存储介质,能够减少生成图像的失真,提高图像处理的效果。所述技术方案如下:
一方面,提供了一种图像处理方法,所述方法包括:
对第一图像进行图像识别,得到所述第一图像中的人脸皮肤区域;
基于所述人脸皮肤区域,生成人脸蒙版图像,所述人脸蒙版图像用于表示所述人脸皮肤区域中不同部位的目标显示差异;
根据所述人脸蒙版图像,确定所述人脸皮肤区域中不同部位的降噪参数,所述降噪参数用于表示所述不同部位达到所述目标显示差异所需的降噪程度;
根据所述不同部位的降噪参数,对所述人脸皮肤区域进行降噪处理,得到第二图像。
在一种可能的实施方式中,所述对第一图像进行图像识别,得到所述第一图像中的人脸皮肤区域包括:
对所述第一图像进行图像分割,得到所述第一图像中的人脸区域和非人脸区域;
对所述人脸区域进行肤色检测,得到所述人脸区域中的人脸皮肤区域。
在一种可能的实施方式中,所述基于所述人脸皮肤区域,生成人脸蒙版图像包括:
识别所述人脸皮肤区域的不同部位;
确定所述人脸皮肤区域的不同部位的目标显示差异信息;
根据所述人脸皮肤区域的不同部位的目标显示差异信息,生成所述人脸蒙版图像。
在一种可能的实施方式中,所述确定所述人脸皮肤区域的不同部位的目标显示差异信息包括:
确定所述人脸皮肤区域的不同部位的像素点的像素值的目标差值;
所述根据所述人脸皮肤区域的不同部位的目标显示差异信息,生成所述人脸蒙版图像包括:
根据所述人脸皮肤区域的不同部位的像素点的像素值的目标差值,确定所述人脸蒙版图像的像素点的像素值,根据所述人脸蒙版图像的像素点的像素值,生成所述人脸蒙版图像。
在一种可能的实施方式中,所述根据所述人脸蒙版图像,确定所述人脸皮肤区域中不同部位的降噪参数包括:
将所述人脸蒙版图像的像素点的像素值按照目标映射关系进行映射,得到所述人脸皮肤区域中不同部位的降噪参数,所述目标映射关系用于表示像素值的取值区间跨度与降噪参数的取值区间跨度之间的比值。
在一种可能的实施方式中,所述将所述像素值映射为所述人脸皮肤区域的降噪参数包括:
确定所述像素值和所述降噪参数所处区间的第一区间长度和第二区间长度;
根据所述第一区间长度和所述第二区间长度的比值,将所述像素值映射为所述人脸皮肤区域的降噪参数。
在一种可能的实施方式中,所述根据所述不同部位的降噪参数,对所述人脸皮肤区域进行降噪处理,得到第二图像包括:
对所述第一图像进行平滑处理,得到参考图像;
根据所述不同部位的降噪参数,将所述参考图像的人脸皮肤区域与所述第一图像的人脸皮肤区域融合,得到所述第二图像。
在一种可能的实施方式中,所述对所述第一图像进行平滑处理,得到参考图像包括:
确定所述第一图像上任一像素点周围的目标数量个像素点的像素值;
根据所述目标数量个像素点的像素值,确定所述目标数量个像素点的平均像素值,将所述任一像素点的像素值修改为所述平均像素值;
根据多个像素值修改后的像素点,得到所述参考图像。
在一种可能的实施方式中,所述参考图像的人脸皮肤区域与所述第一图像的人脸皮肤区域的相同部位的降噪参数相同,所述根据所述不同部位的降噪参数,将所述参考图像的人脸皮肤区域与所述第一图像的人脸皮肤区域融合包括:
确定所述参考图像的人脸皮肤区域不同部位的像素点的像素值与对应降噪参数的乘积,得到第一像素值;
确定所述第一图像的人脸皮肤区域不同部位的像素点的像素值与对应辅助降噪参数的乘积,得到第二像素值,所述人脸皮肤区域中一个部位的辅助降噪参数与对应降噪参数之和为第一数值;
将所述第一图像和所述参考图像人脸皮肤区域的相同部位中对应像素点的第一像素值和第二像素值相加,得到目标像素值;
根据多个所述目标像素值的像素点,得到所述第二图像。
一方面,提供了一种图像处理装置,所述装置包括:
第一图像识别模块,用于对第一图像进行图像识别,得到所述第一图像中的人脸皮肤区域;
人脸蒙版图像生成模块,用于基于所述人脸皮肤区域,生成人脸蒙版图像,所述人脸蒙版图像用于表示所述人脸皮肤区域中不同部位的目标显示差异;
降噪参数确定模块,用于根据所述人脸蒙版图像,确定所述人脸皮肤区域中不同部位的降噪参数,所述降噪参数用于表示所述不同部位达到所述目标显示差异所需的降噪程度;
第二图像生成模块,用于根据所述不同部位的降噪参数,对所述人脸皮肤区域进行降噪处理,得到第二图像。
在一种可能的实施方式中,所述第一图像识别模块包括:
图像分割子模块,用于对所述第一图像进行图像分割,得到所述第一图像中的人脸区域和非人脸区域;
肤色检测子模块,用于对所述人脸区域进行肤色检测,得到所述人脸区域中的人脸皮肤区域。
在一种可能的实施方式中,所述人脸蒙版图像生成模块,用于包括:
识别子模块,用于识别所述人脸皮肤区域的不同部位;
显示差异确定子模块,用于确定所述人脸皮肤区域的不同部位的目标显示差异信息;
图像生成子模块,用于根据所述人脸皮肤区域的不同部位的目标显示差异信息,生成所述人脸蒙版图像。
在一种可能的实施方式中,所述显示差异确定子模块用于确定所述人脸皮肤区域的不同部位的像素点的像素值的目标差值;
所述图像生成子模块,用于根据所述人脸皮肤区域的不同部位的像素点的像素值的目标差值,确定所述人脸蒙版图像的像素点的像素值,根据所述人脸蒙版图像的像素点的像素值,生成所述人脸蒙版图像。
在一种可能的实施方式中,所述降噪参数确定模块,用于确定所述人脸蒙版图像的像素点的像素值;将所述人脸蒙版图像的像素点的像素值按照目标映射关系进行映射,得到所述人脸皮肤区域中不同部位的降噪参数,所述目标映射关系用于表示像素值的取值区间跨度与降噪参数的取值区间跨度之间的比值。
在一种可能的实施方式中,所述第二图像生成模块,包括:
平滑处理子模块,用于对所述第一图像进行平滑处理,得到参考图像;
融合子模块,用于根据所述不同部位的降噪参数,将所述参考图像的人脸皮肤区域与所述第一图像的人脸皮肤区域融合,得到所述第二图像。
在一种可能的实施方式中,所述平滑处理子模块,用于确定所述第一图像上任一像素点周围的目标数量个像素点的像素值;根据所述目标数量个像素点的像素值,确定所述目标数量个像素点的平均像素值,将所述任一像素点的像素值修改为所述平均像素值;根据多个像素值修改后的像素点,得到所述参考图像。
在一种可能的实施方式中,所述参考图像的人脸皮肤区域与所述第一图像的人脸皮肤区域的相同部位的降噪参数相同,所述融合子模块,用于确定所述参考图像的人脸皮肤区域不同部位的像素点的像素值与对应降噪参数的乘积,得到第一像素值;确定所述第一图像的人脸皮肤区域不同部位的像素点的像素值与对应辅助降噪参数的乘积,得到第二像素值,所述人脸皮肤区域中一个部位的辅助降噪参数与对应降噪参数之和为第一数值;将所述第一图像和所述参考图像人脸皮肤区域的相同部位中对应像素点的第一像素值和第二像素值相加,得到目标像素值;根据多个所述目标像素值的像素点,得到所述第二图像。
一方面,提供了一种计算机设备,所述计算机设备包括一个或多个处理器和一个或多个存储器,所述一个或多个存储器中存储有至少一条指令,所述指令由所述一个或多个处理器加载并执行以实现所述图像处理方法所执行的操作。
一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条指令,所述指令由处理器加载并执行以实现所述图像处理方法所执行的操作。
通过本申请提供的技术方案,终端可以根据人脸皮肤区域,生成人脸蒙版图像。由于人脸蒙版图像可以用于表示人脸皮肤区域中不同部位的目标显示差异,终端根据人脸蒙版图像确定的降噪参数也就可以用于指示对人脸皮肤区域不同部位进行不同程度的降噪处理,使得最终得到的第二图像中人脸皮肤区域的不同部位的显示效果不同。也就是说,本申请提供的技术方案,实现了对人脸皮肤区域的不同部位的差异化降噪处理,使得第二图像的显示效果更佳真实,图像处理的效果更好。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种图像处理方法的实施环境示意图;
图2是本申请实施例提供的一种图像处理方法流程图;
图3是本申请实施例提供的一种图像处理方法流程图;
图4是本申请实施例提供的一种人脸蒙版的示意图;
图5是本申请实施例提供的一种直播过程中人脸蒙版的变化示意图;
图6是本申请实施例提供的一种第一图像上像素点的示意图;
图7是本申请实施例提供的一种第一图像上像素点的示意图;
图8是本申请实施例提供的一种图像处理效果对比图;
图9是本申请实施例提供的一种图像处理效果对比图;
图10是本申请实施例提供的一种图像处理效果对比图;
图11是本申请实施例提供的一种图像处理效果对比图;
图12是本申请实施例提供的一种图像处理装置的结构示意图;
图13是本申请实施例提供的一种终端的结构示意图;
图14是本申请实施例提供的一种服务器的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
首先对本申请实施例涉及的名词进行解释:
像素值:可以是指像素点的灰度值,也可以是指像素点的颜色通道值。
图1是本发明实施例提供的一种图像处理方法的实施环境的示意图,参见图1,该实施环境中包括终端110、终端120和服务器140。
可选的,终端110是智能手机、平板电脑、便携计算机等设备。终端110安装和运行有支持图像处理技术的应用程序。可选的,该应用程序是直播类应用程序以及社交类应用程序等。示例性的,终端110是主播使用的终端,终端110中运行的应用程序内登录有主播的用户账号。
终端110通过无线网络或有线网络与服务器140相连。
可选的,终端120是智能手机、平板电脑、便携计算机等设备。终端120安装和运行有支持图像显示的应用程序。可选的,该应用程序是直播类应用程序以及社交类应用程序等。示例性的,终端120是观众使用的终端,终端120中运行的应用程序内登录有观众的用户账号。
终端120通过无线网络或有线网络与服务器140相连。
可选的,服务器140是云计算平台、虚拟化中心等。服务器140用于为图像处理技术的应用程序提供后台服务。可选地,服务器140承担主要图像处理工作,终端110承担次要图像处理工作;或者,服务器140承担次要图像处理工作,终端110承担主要图像处理工作;或者,服务器140或终端110分别可以单独承担图像处理工作。
可选地,服务器140包括:接入服务器、图像处理服务器和数据库。接入服务器用于为终端110和终端120提供接入服务。图像处理服务器用于提供图像处理有关的后台服务。可选的,该数据库包括用户信息数据库以及图像数据库等,当然,基于服务器所提供的不同服务可以对应于不同数据库。可选的,图像处理服务器是一台或多台。当图像处理服务器是多台时,存在至少两台图像处理服务器用于提供不同的服务,和/或,存在至少两台图像处理服务器用于提供相同的服务,比如以负载均衡方式提供同一种服务,本申请实施例对此不加以限定。
可选的,终端110和终端120泛指多个终端中的一个,本实施例仅以终端110和终端120来举例说明。
本领域技术人员可以知晓,上述终端的数量可以更多或更少。比如上述终端仅为一个,或者上述终端为几十个或几百个,或者更多数量,此时上述实施环境中还包括其他终端。本发明实施例对终端的数量和设备类型不加以限定。
需要说明的是,本申请提供的图像处理方法能够由终端作为执行主体来实施,也能够通过终端和服务器之间的交互来实施,本申请实施例对此不做限定。下面以执行主体为终端为例对本申请提供的图像处理方法进行说明。
本申请实施例提供的图像处理方法能够应用于主播进行直播的场景,也能够用于对用户的自拍图像进行美化的场景,当然也能够用于其他具有图像美化的场景,本申请实施例对此不做限定。
以主播进行直播的场景为例,终端通过摄像头实时采集主播的第一图像,对摄像头采集到的第一图像进行图像识别,得到第一图像中的人脸皮肤区域,根据人脸皮肤区域,生成人脸蒙版图像。终端基于人脸蒙版图像确定人脸皮肤区域的降噪参数。终端根据降噪参数对人脸皮肤区域进行降噪处理,得到第二图像。终端将第二图像发送给服务器,由服务器将目标图像推送给观众使用的终端。
以对用户的自拍图像进行美化的场景为例,响应于用户的选取操作,终端触发图像选取指令。响应于图像选取指令,终端在屏幕上展示用户选取的第一图像。终端对第一图像进行图像识别,得到第一图像中的人脸皮肤区域,根据人脸皮肤区域,生成人脸蒙版图像。终端基于人脸蒙版图像确定人脸皮肤区域的降噪参数。终端根据降噪参数对人脸皮肤区域进行降噪处理,得到第二图像,第二图像也即是对用户的自拍图像进行美化后的图像。
图2是本申请实施例提供的一种图像处理方法的流程图,参见图2,方法包括:
201、终端对第一图像进行图像识别,得到第一图像中的人脸皮肤区域。
202、终端基于人脸皮肤区域,生成人脸蒙版图像,人脸蒙版图像用于表示人脸皮肤区域中不同部位的目标显示差异。
203、终端根据人脸蒙版图像,确定人脸皮肤区域中不同部位的降噪参数,降噪参数用于表示不同部位达到目标显示差异所需的降噪程度。
204、终端根据不同部位的降噪参数,对人脸皮肤区域进行降噪处理,得到第二图像。
在一种可能的实施方式中,对第一图像进行图像识别,得到第一图像中的人脸皮肤区域包括:
对第一图像进行图像分割,得到第一图像中的人脸区域和非人脸区域。
对人脸区域进行肤色检测,得到人脸区域中的人脸皮肤区域。
在一种可能的实施方式中,基于人脸皮肤区域,生成人脸蒙版图像包括:
识别人脸皮肤区域的不同部位。
确定人脸皮肤区域的不同部位的目标显示差异信息。
根据人脸皮肤区域的不同部位的目标显示差异信息,生成人脸蒙版图像。
在一种可能的实施方式中,确定人脸皮肤区域的不同部位的目标显示差异信息包括:
确定人脸皮肤区域的不同部位的像素点的像素值的目标差值。
根据人脸皮肤区域的不同部位的目标显示差异信息,生成人脸蒙版图像包括:
根据人脸皮肤区域的不同部位的像素点的像素值的目标差值,确定人脸蒙版图像的像素点的像素值,根据人脸蒙版图像的像素点的像素值,生成人脸蒙版图像。
在一种可能的实施方式中,根据人脸蒙版图像,确定人脸皮肤区域中不同部位的降噪参数包括:
将人脸蒙版图像的像素点的像素值按照目标映射关系进行映射,得到人脸皮肤区域中不同部位的降噪参数,目标映射关系用于表示像素值的取值区间跨度与降噪参数的取值区间跨度之间的比值。
在一种可能的实施方式中,根据不同部位的降噪参数,对人脸皮肤区域进行降噪处理,得到第二图像包括:
对第一图像进行平滑处理,得到参考图像。
根据不同部位的降噪参数,将参考图像的人脸皮肤区域与第一图像的人脸皮肤区域融合,得到第二图像。
在一种可能的实施方式中,对第一图像进行平滑处理,得到参考图像包括:
确定第一图像上任一像素点周围的目标数量个像素点的像素值。
根据目标数量个像素点的像素值,确定目标数量个像素点的平均像素值,将任一像素点的像素值修改为平均像素值。
根据多个像素值修改后的像素点,得到参考图像。
在一种可能的实施方式中,参考图像的人脸皮肤区域与第一图像的人脸皮肤区域的相同部位的降噪参数相同,根据不同部位的降噪参数,将参考图像的人脸皮肤区域与第一图像的人脸皮肤区域融合包括:
确定参考图像的人脸皮肤区域不同部位的像素点的像素值与对应降噪参数的乘积,得到第一像素值。
确定第一图像的人脸皮肤区域不同部位的像素点的像素值与对应辅助降噪参数的乘积,得到第二像素值,人脸皮肤区域中一个部位的辅助降噪参数与对应降噪参数之和为第一数值。
将第一图像和参考图像人脸皮肤区域的相同部位中对应像素点的第一像素值和第二像素值相加,得到目标像素值。
根据多个目标像素值的像素点,得到第二图像。
上述所有可选技术方案,可以采用任意结合形成本申请的可选实施例,在此不再一一赘述。
通过本申请提供的技术方案,终端可以根据人脸皮肤区域,生成人脸蒙版图像。由于人脸蒙版图像可以用于表示人脸皮肤区域中不同部位的目标显示差异,终端根据人脸蒙版图像确定的降噪参数也就可以用于指示对人脸皮肤区域不同部位进行不同程度的降噪处理,使得最终得到的第二图像中人脸皮肤区域的不同部位的显示效果不同。也就是说,本申请提供的技术方案,实现了对人脸皮肤区域的不同部位的差异化降噪处理,使得第二图像的显示效果更佳真实,图像处理的效果更好。
图3是本申请实施例提供的一种图像处理方法的流程图,参见图3,方法包括:
301、终端对第一图像进行图像识别,得到第一图像中的人脸皮肤区域。
其中,第一图像可以为主播直播时终端实时采集的图像,或者为用户通过终端拍摄的图像,还可以为用户通过终端从网络上获取的图像,当然也可以为终端通过其他途径获取的图像,本申请实施例对于第一图像的来源不做限定。人脸皮肤区域是指人脸区域中除去眼睛、眉毛、嘴巴以及鼻孔以外的区域。
在一种可能的实施方式中,终端对第一图像进行肤色检测,得到第一图像中的人脸皮肤区域。
在这种实现方式下,终端能够根据肤色快速从第一图像中确定出人脸皮肤区域,人脸皮肤区域的确定效率较高。
举例来说,终端确定第一图像中每个像素点的颜色通道值(RGB值),根据像素点的RGB值和色彩阈值条件之间的关系,确定像素点是否属于人脸皮肤区域,可选的,色彩阈值条件为多个判别条件,比如像素点的RGB值是否处于预设范围,以及像素点RGB值之间的大小关系等,可选的,预设范围和大小关系由终端根据主播的肤色确定,也可以根据其他方式确定,本申请实施例对此不做限定。比如,终端将RGB值符合色彩阈值条件的像素点确定为人脸皮肤区域,将RGB值不符合色彩阈值条件的像素点确定为非人脸皮肤区域。
在一种可能的实施方式中,终端对第一图像进行图像分割,得到第一图像中的人脸区域和非人脸区域。终端对人脸区域进行肤色检测,得到人脸区域中的人脸皮肤区域。
在这种实现方式下,终端先通过图像分割确定出人脸区域和非人脸区域,再对人脸区域进行肤色检测得到人脸皮肤区域。也就是说,终端从第一图像中识别出人脸皮肤区域包括两个子步骤。第一个子步骤为终端先确定第一图像中的人脸区域,第二个子步骤为终端在人脸区域中进行肤色检测。通过两个子步骤,缩小了肤色检测的范围,提高了人脸皮肤区域的识别精确度。
举例来说,终端调用图像分割模型,该图像分割模型是基于标注了人脸区域和非人脸区域的样本图像训练得到的,具有从图像中识别出人脸区域的能力,可选的,该图像分割模型为一个二分类模型。终端将第一图像输入图像分割模型,通过图像分割模型对第一图像进行特征提取和全连接运算,得到第一图像中每一个像素点的类型,可选的,类型包括属于人脸区域以及不属于人脸区域。终端将属于人脸区域的像素点进行组合,得到第一图像中的人脸区域,第一图像中不属于人脸区域的像素点组成第一图像中的非人脸区域。终端调用肤色检测模型,该肤色检测模型能够基于图像的颜色确定图像中的像素点是否属于人脸皮肤区域。终端通过肤色检测模型,对第一图像中的人脸区域进行肤色检测,确定出第一图像中的人脸皮肤区域。可选的,肤色检测模型可以为一个决策树模型,决策树的叶子节点为对人脸区域的像素点进行决策的条件,比如肤色检测模型为具有7个节点的决策树,7个节点分别为R>95、G>30、B>20、R>G、R>B、Max(R,G,B)-Min(R,G,B)>15以及R-G>15,其中RGB分别为人脸区域的像素点的颜色通道值,Max(R,G,B)为人脸区域的像素点的最大RGB值,Min(R,G,B)为人脸区域的像素点的最小RGB值。当人脸区域中的像素点同时满足上述7个条件时,终端确定该像素点为人脸皮肤区域的像素点。当然,上述肤色检测模型仅仅是为了便于理解而进行说明的,在其他可能的实施方式中,肤色检测模型也可以为具有肤色检测能力的其他模型,本申请实施例上述对此不做限定。
在一种可能的实施方式中,终端通过两次图像分割来得到人脸皮肤区域,步骤包括:终端对第一图像进行第一次图像分割,得到第一图像中的人脸区域,对人脸区域进行第二次图像分割,得到人脸皮肤区域。
在这种实现方式下,终端先从第一图像中分割出人脸区域,再从人脸区域中分割出人脸皮肤区域,这样得到的人脸皮肤区域的准确性较高。
举例来说,终端调用第一图像分割模型,将第一图像输入第一图像分割模型,通过第一图像分割模型对第一图像进行特征提取和全连接运算,得到第一图像中每一个像素点的第一类型,可选的,第一类型包括属于人脸区域以及不属于人脸区域。终端将属于人脸区域的像素点进行组合,得到第一图像中的人脸区域。终端调用第二图像分割模型,对人脸区域进行特征提取和卷积运算,得到人脸区域中每一个像素点的第二类型,可选的,第二类型包括属于人脸皮肤区域以及不属于人脸皮肤区域,比如不属于五官或者属于五官。终端将属于人脸皮肤区域的像素点进行组合,比如将不属于五官的像素点进行组合,得到人脸区域中的人脸皮肤区域。
需要说明的是,上述三种实施方式是以第一图像中包括人脸为例进行说明的,响应于终端在第一图像中未识别出人脸,那么也就无需执行步骤301以及后续的步骤。
302、终端基于人脸皮肤区域,生成人脸蒙版图像,人脸蒙版图像用于表示人脸皮肤区域中不同部位的目标显示差异。
其中,人脸蒙版图像的示意图可以参见图4,图4中白色部分是人脸皮肤区域,黑色部分为非人脸皮肤区域。图5为主播直播过程中终端实时生成的人脸蒙版图像,参见图5,左边为第一时刻的人脸蒙版图像,右边为第二时刻的人脸蒙版图像,第二时刻为第一时刻的后一个时刻,可以看出,在主播直播过程中,人脸蒙版图像可以随着主播脸部的移动而移动。人脸皮肤区域中不同部位的目标显示差异是指对第一图像进行处理后,人脸皮肤区域中的不同部位在处理后图像中的显示差异。以对第一图像进行处理为对第一图像进行磨皮为例,主播想对脸颊和额头采用不同的磨皮程度,对脸颊的磨皮程度高于额头的磨皮程度,可选的,终端将人脸蒙版中脸颊的像素点的像素值设置为与额头的像素点的像素值不同,这样在终端对第一图像进行磨皮处理后,脸颊和额头的显示效果在处理后的图像中也就不同。
在一种可能的实施方式中,终端识别人脸皮肤区域的不同部位,确定人脸皮肤区域的不同部位的目标显示差异信息。终端根据人脸皮肤区域的不同部位的目标显示差异信息,生成人脸蒙版图像,其中,目标显示差异信息是指,用户想要使得最终生成的图像上能够呈现某种有区别的显示效果时对应的像素值差异,比如,对于磨皮来说,用户想要最终生成的图像上额头的磨皮程度比脸颊的磨皮程度高。体现在最终生成的图像上,也即是额头部位的多个像素点的像素值之间的方差要小于脸颊部位的多个像素点的像素值之间的方差。
举例来说,终端确定人脸皮肤区域的不同部位的像素点的像素值的目标差值。终端根据人脸皮肤区域的不同部位的像素点的像素值的目标差值,确定人脸蒙版图像的像素点的像素值,根据人脸蒙版图像的像素点的像素值,生成人脸蒙版图像,其中,像素值的目标差值是指,一个部位的像素点的最大像素值和最小像素值之间的差值,目标差值的不同可以体现出降噪程度的不同。
下面结合两个场景的例子对上述实施方式进行说明:
1、对于主播的直播场景来说,终端能够为主播提供多种图像处理方式,比如“脸颊磨皮”以及“额头磨皮”等。“脸颊磨皮”表示终端对脸颊的磨皮程度比其他部位高,“额头磨皮”表示终端对额头的磨皮程度比其他部位高。主播可以通过终端选择一种图像处理方式,比如“脸颊磨皮”,终端响应于主播的图像处理操作,触发图像处理指令,响应于图像处理指令,从图像处理指令中获取图像处理方式为“脸颊磨皮”。终端在主播的人脸区域中识别出主播的脸颊部位,确定脸颊部位的像素点的像素值的目标差值,比如20,表示对图像进行脸颊磨皮后,脸颊部位的多个像素点的最大像素值和最小像素值之间的差值最大为20。终端根据脸颊部位的目标差值20,确定人脸蒙版图像的像素点的像素值,终端根据人脸蒙版图像的像素点的像素值,生成人脸蒙版图像。
另外,终端在识别出主播的脸颊部位之后,也可以直接将人脸蒙版图像中脸颊部位对应的像素点的像素值确定为一个像素值,将主播人脸区域的其他部位确定为另一个像素值,得到人脸蒙版图像。
2、对于用户的自拍图像进行美化的场景来说,终端能够为用户提供多种图像处理方式,比如“鼻梁高挺”以及“下巴磨皮”等。“鼻梁高挺”表示终端在用户鼻梁附近设置阴影,使得处理后的图像中用户的鼻梁与人脸区域的其他部位显著区分,鼻梁显得更加高挺。“下巴磨皮”表示终端对下巴的磨皮程度比其他部位高。用户可以通过终端选择一种图像处理方式,比如“鼻梁高挺”,终端响应于用户的图像处理操作,触发图像处理指令,响应于图像处理指令,从图像处理指令中获取图像处理方式为“鼻梁高挺”。终端在用户的人脸区域识别出用户的鼻梁部位,确定鼻梁部位的像素点的像素值的目标差值,比如30,表示对图像进行脸颊磨皮后,鼻梁部位的多个像素点的最大像素值和最小像素值之间的差值最大为30。终端根据鼻梁部位的目标差值30,确定人脸蒙版图像的像素点的像素值,终端根据人脸蒙版图像的像素点的像素值,生成人脸蒙版图像。
另外,终端在识别出主播的鼻梁部位后,也可以将用户的鼻梁部位附近的像素点确定为一个像素值,将主播人脸区域的其他部位确定为另一个像素值,得到人脸蒙版图像。
需要说明的是,人脸蒙版可以由技术人员进行设计,比如技术人员可以对于上述两个例子中的“一个像素值”和“另一个像素值”的大小进行设置,也可以对鼻梁附近像素点的数量进行设置,使得通过人脸蒙版处理后的图像可以得到更好的显示效果。
303、根据人脸蒙版图像,确定人脸皮肤区域中不同部位的降噪参数,降噪参数用于表示不同部位达到目标显示差异所需的降噪程度。
在一种可能的实施方式中,终端确定人脸蒙版图像的像素点的像素值,将人脸蒙版图像的像素点的像素值按照目标映射关系进行映射,得到人脸皮肤区域中不同部位的降噪参数,目标映射关系用于表示像素值的取值区间跨度与降噪参数的取值区间跨度之间的比值。
在这种实现方式下,由于人脸蒙版图像用于表示人脸皮肤区域中不同部位的目标显示差异,而终端通过人脸蒙版图像的像素点的像素值,来存储该目标显示差异。终端将人脸蒙版图像的像素点的像素值映射为人脸皮肤区域的降噪参数,也能够保留该目标显示差异。这样在后续图像处理过程中,可以根据降噪参数,对第一图像的人脸皮肤区域的不同部位进行不同的处理,得到处理效果更好的图像。
举例来说,第一图像为灰度图像,第一图像的一个像素点的灰度值为210,终端根据灰度值的取值区间(0,255),得到该像素点的取值区间跨度为255。可选的,降噪参数的取值区间为(0,1),那么降噪参数的取值区间跨度为1。终端可以根据该像素点的取值区间跨度255和降噪参数的取值区间跨度1的比值255,将第一图像的灰度值210映射为降噪参数0.82。
304、终端对第一图像进行平滑处理,得到参考图像。
步骤304可以包括下述子步骤3041-3043。
3041、终端确定第一图像上任一像素点周围的目标数量个像素点的像素值。
以第一图像为灰度图像为例,第一图像的尺寸为M×N,其中M表示第一图像横向上像素点的数量,N表示第一图像纵向上的像素点的数量,M×N的数值可以表示第一图像上像素点的数量。参见图6,终端可以从第一图像上选取任一个像素点601,确定该像素点601周围的8个像素点602,当然,由于第一图像为灰度图像,8个像素点302的像素值为灰度值。终端获取8个像素点602的像素值,比如183、182、175、163、85、79、65以及210。
另外,参见图7,对于处于第一图像边角的像素点701来说,终端获取像素点701周围的像素点的像素值,比如像素点701周围存在三个像素点702,终端获取三个像素点702的像素值。
需要说明的是,若第一图像为彩色图像,比如为由三个颜色通道(RGB)构成的图像,那么终端分别获取8个像素点602的三个颜色通道的通道值。
3042、终端根据目标数量个像素点的像素值,确定目标数量个像素点的平均像素值,将任一像素点的像素值修改为平均像素值。
参见图6,以第一图像为灰度图像为例,终端根据像素点601周围的8个像素点602的像素值,183、182、175、163、85、79、65以及210,得到8个像素点的平均像素值143,终端将像素点601的像素值修改为平均像素值143。
另外,参见图7,对于处于第一图像边角的像素点701来说,终端获取像素点701周围的像素点的像素值,比如像素点701周围存在三个像素点702,终端根据三个像素点702的像素值确定平均像素值,将像素点701的像素值修改为平均像素值。
需要说明的是,若第一图像为彩色图像,比如为由三个颜色通道(RGB)构成的图像,那么终端分别确定8个像素点602的三个颜色通道的平均通道值,将像素点601的像素值确定为三个颜色通道的平均通道值。
3043、终端根据多个像素值修改后的像素点,得到参考图像。
在一种可能的实施方式中,终端对第一图像上所有的像素点进行上述步骤3041和3042的处理,得到多个像素值修改后的像素点,根据多个像素值修改后的像素点,生成参考图像。
305、终端根据不同部位的降噪参数,将参考图像的人脸皮肤区域与第一图像的人脸皮肤区域融合,得到第二图像。
在一种可能的实施方式中,参考图像的人脸皮肤区域与第一图像的人脸皮肤区域的相同部位的降噪参数相同,终端确定参考图像的人脸皮肤区域不同部位的像素点的像素值与对应降噪参数的乘积,得到第一像素值。终端确定第一图像的人脸皮肤区域不同部位的像素点的像素值与对应辅助降噪参数的乘积,得到第二像素值,人脸皮肤区域中一个部位的辅助降噪参数与对应降噪参数之和为第一数值。终端将第一图像和参考图像人脸皮肤区域的相同部位中对应像素点的第一像素值和第二像素值相加,得到目标像素值。终端根据多个目标像素值的像素点,得到第二图像。
在这种实现方式下,在降噪过程中,终端将参考图像的人脸皮肤区域与第一图像的人脸皮肤区域融合,保证了只对第一图像的人脸皮肤区域进行了降噪,而对于其他区域,比如非人脸区域以及人脸区域内的眼睛、嘴巴等部位没有进行降噪处理,使得非人脸区域以及人脸区域内的眼睛、嘴巴等部位可以保留原始的状态,图像的降噪效果更加真实。
举例来说,第一图像的人脸皮肤区域包括第一像素点、第二像素点以及第三像素点,终端根据第一像素点、第二像素点以及第三像素点的坐标,在参考图像的人脸皮肤区域中确定第一参考像素点、第二参考像素点以及第三参考像素点,其中第一像素点和第一参考像素点、第二像素点和第二参考像素点以及第三像素点和第三参考像素点为第一图像和参考图像的人脸皮肤区域的相同部位中对应的像素点,也即是上述三对像素点对应的降噪参数相同。比如第一像素点和第一参考像素点对应的降噪参数为0.6、第二像素点和第二参考像素点对应的降噪参数为0.5、第三像素点和第三参考像素点对应的降噪参数为0.4。终端根据三对像素点对应的降噪参数以及第一数值1,确定三对像素点对应的辅助降噪参数0.4、0.5以及0.6。终端将第一参考像素点的像素值150、第二参考像素点的像素值110以及第三参考像素点的像素值200分别与对应的降噪参数相乘,得到三个第一像素值90、55以及80。终端将第一像素点的像素值50、第二像素点的像素值160以及第三像素点的像素值220分别与对应的辅助降噪参数相乘,得到三个第二像素值20、80以及132。终端分别将三对像素点的第一像素值和第二像素值相加,得到三个目标像素值110、135以及212。终端将第一图像中第一像素点、第二像素点以及第三像素点的像素值分别修改为110、135以及212,得到第二图像,整个过程只涉及对人脸皮肤区域的处理,对于非人脸皮肤区域来说,第二图像的像素点保留了第一图像中像素点的原始像素值。
可选的,终端在处理过程中,可以根据第一图像分割得到的人脸区域和非人脸区域,对参考图像中的像素点进行参数标注,比如将参考图像中属于人脸区域的像素点标注为第一参数1,将参考图像中不属于人脸区域的像素点标注为第二参数0。终端将参考图像的像素点的像素值分别与第一参数1和第二参数0相乘后,与降噪参数相乘,得到多个像素点第一像素值,这样对于属于人脸皮肤区域的像素点来说,其像素值与第一参数相乘后没有发生变化,对于不属于人脸皮肤区域的像素点来说,其像素值被统一为0,对后续与第一图像的融合过程不产生影响,由第一参数和第二参数构成的矩阵可以成为掩码(Mask)矩阵。这样终端能够直接将与Mask矩阵相乘后的参考图像的像素点的像素值与第一图像的像素点的像素值相加,处理效率更高。
需要说明的是,上述步骤301-305是以终端为执行主体为例进行说明的,在其他可能的实施方式中,也可以由服务器来执行上述步骤301-305,本申请实施例对此不做限定。
下面结合一些对比图来对本申请提供的技术方案的有益效果进行说明:
参见图8,801为第一图像,802为采用相关技术中的图像处理方法得到的图像,803为采用本申请提供的图像处理方法得到的第二图像。参见图9中箭头所指的口罩,可以看出,采用相关技术中的图像处理方法,对第一图像801进行磨皮后,图像802中的口罩也经过了磨皮,使得图像802中的口罩与第一图像801中的口罩差异较大,图像处理的效果不佳。而采用本申请提供的技术方案后,第二图像803的口罩未经过磨皮,从而使得第二图像803的口罩与第一图像801的口罩相同,保留了口罩原始的状态,使得口罩的显示更加真实。扩展到其他配饰,例如主播直播时佩戴了例如墨镜、眼镜等饰品,那么这些饰品并不会被磨皮,保留原始状态,使得饰品的显示更加真实,图像处理的效果更好。
参见图9,901为第一图像,902为采用相关技术中的图像处理方法得到的图像,903为采用本申请提供的图像处理方法得到的第二图像。参见图10中箭头所指的鼻梁,可以看出,采用相关技术中的图像处理方法,对第一图像901进行磨皮后,图像902中的鼻梁与人脸皮肤区域的其他部分进行了相同的磨皮处理,导致图像902中用户鼻梁的立体显示效果被破坏,图像处理的效果不好。而采用本申请提供的图像处理方法后,第二图像903中用户鼻梁的立体显示效果得到了保护,图像的处理效果较好。
参见图10,1001为第一图像,1002为采用相关技术中的图像处理方法得到的图像,1003为采用本申请提供的图像处理方法得到的第二图像。参见图10中箭头所指的眉毛、眼睛以及嘴唇,可以看出,采用相关技术中的图像处理方法,对第一图像1001进行磨皮后,用户的眉毛、眼睛以及嘴唇与人脸皮肤区域进行了相同程度的磨皮,导致眉毛、眼睛以及嘴唇失真较为严重,图像处理的效果不好。而采用本申请提供的图像处理方法后,第二图像1003中用户的眉毛、眼睛以及嘴唇并没有被磨皮,保留了原始的显示状态,显示效果更佳真实,图像的处理效果较好。
参见图11,1101为第一图像,1102为采用相关技术中的图像处理方法得到的图像,1103为采用本申请提供的图像处理方法得到的第二图像。参见图11中箭头天花板,可以看出,第一图像1101中天花板包括一些花纹,采用相关技术中的图像处理方法,对第一图像1101进行磨皮后,天花板上的花纹全部消失,天花板的显示较为失真,图像处理的效果不好。而采用本申请提供的图像处理方法后,第二图像1103中天天花板没有被磨皮,保留了天花板的花纹,显示效果更佳真实,图像的处理效果较好。
综上所述,通过本申请提供的技术方案,终端可以根据人脸皮肤区域生成人脸蒙版图像,该人脸蒙版图像用于展示人脸皮肤区域中的额头、脸颊、鼻梁以及下巴的在图像处理后的目标显示差异。通过该人脸蒙版图像,终端可以对人脸皮肤区域的不同部位进行不同程度的降噪处理,使得第二图像中人脸皮肤区域中的不同部位的显示效果不同,比如终端可以对人脸皮肤区域中的额头部位和脸颊部位进行不同程度的磨皮,使得第二图像中显示的额头部位和脸颊部位的显示效果不同,也就是说,本申请提供的技术方案,实现了对人脸皮肤区域的不同部位的差异化降噪处理,使得第二图像的显示效果更佳真实,图像处理的效果更好。
另外,由于对第一图像进行了图像识别,得到了人脸皮肤区域,人脸皮肤区域也即是除了人的眼睛、嘴巴、眉毛和鼻孔的人脸区域,在降噪过程中只对人脸皮肤区域进行了降噪处理,使得非人脸皮肤区域可以保留原始的显示状态,进一步提高了图像处理的效果。
图12是本申请实施例提供的一种图像处理装置,参见图12,装置包括:第一图像识别模块1201、人脸蒙版图像生成模块1202、降噪参数确定模块1203以及第二图像生成模块1204。
第一图像识别模块1201,用于对第一图像进行图像识别,得到第一图像中的人脸皮肤区域。
人脸蒙版图像生成模块1202,用于基于人脸皮肤区域,生成人脸蒙版图像,人脸蒙版图像用于表示人脸皮肤区域中不同部位的目标显示差异。
降噪参数确定模块1203,用于根据人脸蒙版图像,确定人脸皮肤区域中不同部位的降噪参数,降噪参数用于表示不同部位达到目标显示差异所需的降噪程度。
第二图像生成模块1204,用于根据不同部位的降噪参数,对人脸皮肤区域进行降噪处理,得到第二图像。
在一种可能的实施方式中,第一图像识别模块包括:
图像分割子模块,用于对第一图像进行图像分割,得到第一图像中的人脸区域和非人脸区域。
肤色检测子模块,用于对人脸区域进行肤色检测,得到人脸区域中的人脸皮肤区域。
在一种可能的实施方式中,人脸蒙版图像生成模块,用于包括:
识别子模块,用于识别人脸皮肤区域的不同部位。
显示差异确定子模块,用于确定人脸皮肤区域的不同部位的目标显示差异信息。
图像生成子模块,用于根据人脸皮肤区域的不同部位的目标显示差异信息,生成人脸蒙版图像。
在一种可能的实施方式中,显示差异确定子模块用于
确定人脸皮肤区域的不同部位的像素点的像素值的目标差值。
图像生成子模块,用于根据人脸皮肤区域的不同部位的像素点的像素值的目标差值,确定人脸蒙版图像的像素点的像素值,根据人脸蒙版图像的像素点的像素值,生成人脸蒙版图像。
在一种可能的实施方式中,降噪参数确定模块,用于确定人脸蒙版图像的像素点的像素值;将人脸蒙版图像的像素点的像素值按照目标映射关系进行映射,得到人脸皮肤区域中不同部位的降噪参数,目标映射关系用于表示像素值的取值区间跨度与降噪参数的取值区间跨度之间的比值。
在一种可能的实施方式中,降噪参数确定模块,用于确定像素值和降噪参数所处区间的第一区间长度和第二区间长度。根据第一区间长度和第二区间长度的比值,将像素值映射为人脸皮肤区域的降噪参数。
在一种可能的实施方式中,第二图像生成模块,包括:
平滑处理子模块,用于对第一图像进行平滑处理,得到参考图像。
融合子模块,用于根据不同部位的降噪参数,将参考图像的人脸皮肤区域与第一图像的人脸皮肤区域融合,得到第二图像。
在一种可能的实施方式中,平滑处理子模块,用于确定第一图像上任一像素点周围的目标数量个像素点的像素值。根据目标数量个像素点的像素值,确定目标数量个像素点的平均像素值,将任一像素点的像素值修改为平均像素值。根据多个像素值修改后的像素点,得到参考图像。
在一种可能的实施方式中,参考图像的人脸皮肤区域与第一图像的人脸皮肤区域的相同部位的降噪参数相同,融合子模块,用于确定参考图像的人脸皮肤区域不同部位的像素点的像素值与对应降噪参数的乘积,得到第一像素值。确定第一图像的人脸皮肤区域不同部位的像素点的像素值与对应辅助降噪参数的乘积,得到第二像素值,人脸皮肤区域中一个部位的辅助降噪参数与对应降噪参数之和为第一数值。将第一图像和参考图像人脸皮肤区域的相同部位中对应像素点的第一像素值和第二像素值相加,得到目标像素值。根据多个目标像素值的像素点,得到第二图像。
需要说明的是:上述实施例提供的图像处理装置在处理图像时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将计算机设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的图像处理装置与图像处理方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
通过本申请提供的技术方案,终端可以根据人脸皮肤区域生成人脸蒙版图像,该人脸蒙版图像用于展示人脸皮肤区域中的额头、脸颊、鼻梁以及下巴的在图像处理后的目标显示差异。通过该人脸蒙版图像,终端可以对人脸皮肤区域的不同部位进行不同程度的降噪处理,使得第二图像中人脸皮肤区域中的不同部位的显示效果不同,比如终端可以对人脸皮肤区域中的额头部位和脸颊部位进行不同程度的磨皮,使得第二图像中显示的额头部位和脸颊部位的显示效果不同,也就是说,本申请提供的技术方案,实现了对人脸皮肤区域的不同部位的差异化降噪处理,使得第二图像的显示效果更佳真实,图像处理的效果更好。
另外,由于对第一图像进行了图像识别,得到了人脸皮肤区域,人脸皮肤区域也即是除了人的眼睛、嘴巴、眉毛和鼻孔的人脸区域,在降噪过程中只对人脸皮肤区域进行了降噪处理,使得非人脸皮肤区域可以保留原始的显示状态,进一步提高了图像处理的效果。
本申请实施例提供的计算机设备可以实现为终端,下面对终端的结构进行介绍。
图13示出了本申请一个示例性实施例提供的终端1300的结构框图。该终端1300可以是便携式移动终端,比如:智能手机、平板电脑、MP3播放器(Moving Picture ExpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving PictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。终端1300还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端1300包括有:处理器1301和存储器1302。
处理器1301可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器1301可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器1301也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器1301可以集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器1301还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器1302可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器1302还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器1302中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器1301所执行以实现本申请中方法实施例提供的基于人机对话的来电代接方法。
在一些实施例中,终端1300还可选包括有:***设备接口1303和至少一个***设备。处理器1301、存储器1302和***设备接口1303之间可以通过总线或信号线相连。各个***设备可以通过总线、信号线或电路板与***设备接口1303相连。具体地,***设备包括:射频电路1304、显示屏1305、摄像头组件1306、音频电路1307、定位组件1308和电源1309中的至少一种。
***设备接口1303可被用于将I/O(Input/Output,输入/输出)相关的至少一个***设备连接到处理器1301和存储器1302。在一些实施例中,处理器1301、存储器1302和***设备接口1303被集成在同一芯片或电路板上;在一些其他实施例中,处理器1301、存储器1302和***设备接口1303中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路1304用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路1304通过电磁信号与通信网络以及其他通信设备进行通信。射频电路1304将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路1304包括:天线***、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路1304可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:万维网、城域网、内联网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路1304还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏1305用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏1305是触摸显示屏时,显示屏1305还具有采集在显示屏1305的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器1301进行处理。此时,显示屏1305还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏1305可以为一个,设置在终端1300的前面板;在另一些实施例中,显示屏1305可以为至少两个,分别设置在终端1300的不同表面或呈折叠设计;在另一些实施例中,显示屏1305可以是柔性显示屏,设置在终端1300的弯曲表面上或折叠面上。甚至,显示屏1305还可以设置成非矩形的不规则图形,也即异形屏。显示屏1305可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-EmittingDiode,有机发光二极管)等材质制备。
摄像头组件1306用于采集图像或视频。可选地,摄像头组件1306包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件1306还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路1307可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器1301进行处理,或者输入至射频电路1304以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端1300的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器1301或射频电路1304的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路1307还可以包括耳机插孔。
定位组件1308用于定位终端1300的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件1308可以是基于美国的GPS(GlobalPositioning System,全球定位***)、中国的北斗***或俄罗斯的伽利略***的定位组件。
电源1309用于为终端1300中的各个组件进行供电。电源1309可以是交流电、直流电、一次性电池或可充电电池。当电源1309包括可充电电池时,该可充电电池可以是有线充电电池或无线充电电池。有线充电电池是通过有线线路充电的电池,无线充电电池是通过无线线圈充电的电池。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端1300还包括有一个或多个传感器1310。该一个或多个传感器1310包括但不限于:加速度传感器1311、陀螺仪传感器1312、压力传感器1313、指纹传感器1314、光学传感器1315以及接近传感器1316。
加速度传感器1311可以检测以终端1300建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器1311可以用于检测重力加速度在三个坐标轴上的分量。处理器1301可以根据加速度传感器1311采集的重力加速度信号,控制显示屏1305以横向视图或纵向视图进行用户界面的显示。加速度传感器1311还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器1312可以检测终端1300的机体方向及转动角度,陀螺仪传感器1312可以与加速度传感器1311协同采集用户对终端1300的3D动作。处理器1301根据陀螺仪传感器1312采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器1313可以设置在终端1300的侧边框和/或显示屏1305的下层。当压力传感器1313设置在终端1300的侧边框时,可以检测用户对终端1300的握持信号,由处理器1301根据压力传感器1313采集的握持信号进行左右手识别或快捷操作。当压力传感器1313设置在显示屏1305的下层时,由处理器1301根据用户对显示屏1305的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器1314用于采集用户的指纹,由处理器1301根据指纹传感器1314采集到的指纹识别用户的身份,或者,由指纹传感器1314根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器1301授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器1314可以被设置在终端1300的正面、背面或侧面。当终端1300上设置有物理按键或厂商Logo时,指纹传感器1314可以与物理按键或厂商Logo集成在一起。
光学传感器1315用于采集环境光强度。在一个实施例中,处理器1301可以根据光学传感器1315采集的环境光强度,控制显示屏1305的显示亮度。具体地,当环境光强度较高时,调高显示屏1305的显示亮度;当环境光强度较低时,调低显示屏1305的显示亮度。在另一个实施例中,处理器1301还可以根据光学传感器1315采集的环境光强度,动态调整摄像头组件1306的拍摄参数。
接近传感器1316,也称距离传感器,通常设置在终端1300的前面板。接近传感器1316用于采集用户与终端1300的正面之间的距离。在一个实施例中,当接近传感器1316检测到用户与终端1300的正面之间的距离逐渐变小时,由处理器1301控制显示屏1305从亮屏状态切换为息屏状态;当接近传感器1316检测到用户与终端1300的正面之间的距离逐渐变大时,由处理器1301控制显示屏1305从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图13中示出的结构并不构成对终端1300的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
本申请实施例提供的计算机设备可以实现为服务器,下面对服务器的结构进行介绍。
图14是本申请实施例提供的一种服务器的结构示意图,该服务器1400可因配置或性能不同而产生比较大的差异,可以包括一个或多个处理器(Central Processing Units,CPU)1401和一个或多个的存储器1402,其中,所述一个或多个存储器1402中存储有至少一条指令,所述至少一条指令由所述一个或多个处理器1401加载并执行以实现上述各个方法实施例提供的方法。当然,该服务器1400还可以具有有线或无线网络接口、键盘以及输入输出接口等部件,以便进行输入输出,该服务器1400还可以包括其他用于实现设备功能的部件,在此不做赘述。
在示例性实施例中,还提供了一种计算机可读存储介质,例如包括指令的存储器,上述指令可由处理器执行以完成上述实施例中的图像处理方法。例如,该计算机可读存储介质可以是只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random AccessMemory,RAM)、只读光盘(Compact Disc Read-Only Memory,CD-ROM)、磁带、软盘和光数据存储设备等。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,该程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
上述仅为本申请的可选实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (18)

1.一种图像处理方法,其特征在于,所述方法包括:
对第一图像进行图像识别,得到所述第一图像中的人脸皮肤区域;
基于所述人脸皮肤区域,生成人脸蒙版图像,所述人脸蒙版图像用于表示所述人脸皮肤区域中不同部位的目标显示差异;
根据所述人脸蒙版图像,确定所述人脸皮肤区域中不同部位的降噪参数,所述降噪参数用于表示所述不同部位达到所述目标显示差异所需的降噪程度;
根据所述不同部位的降噪参数,对所述人脸皮肤区域进行降噪处理,得到第二图像。
2.根据权利要求1所述的方法,其特征在于,所述对第一图像进行图像识别,得到所述第一图像中的人脸皮肤区域包括:
对所述第一图像进行图像分割,得到所述第一图像中的人脸区域和非人脸区域;
对所述人脸区域进行肤色检测,得到所述人脸区域中的人脸皮肤区域。
3.根据权利要求1所述的方法,其特征在于,所述基于所述人脸皮肤区域,生成人脸蒙版图像包括:
识别所述人脸皮肤区域的不同部位;
确定所述人脸皮肤区域的不同部位的目标显示差异信息;
根据所述人脸皮肤区域的不同部位的目标显示差异信息,生成所述人脸蒙版图像。
4.根据权利要求3所述的方法,其特征在于,所述确定所述人脸皮肤区域的不同部位的目标显示差异信息包括:
确定所述人脸皮肤区域的不同部位的像素点的像素值的目标差值;
所述根据所述人脸皮肤区域的不同部位的目标显示差异信息,生成所述人脸蒙版图像包括:
根据所述人脸皮肤区域的不同部位的像素点的像素值的目标差值,确定所述人脸蒙版图像的像素点的像素值,根据所述人脸蒙版图像的像素点的像素值,生成所述人脸蒙版图像。
5.根据权利要求1所述的方法,其特征在于,所述根据所述人脸蒙版图像,确定所述人脸皮肤区域中不同部位的降噪参数包括:
确定所述人脸蒙版图像的像素点的像素值;
将所述人脸蒙版图像的像素点的像素值按照目标映射关系进行映射,得到所述人脸皮肤区域中不同部位的降噪参数,所述目标映射关系用于表示像素值的取值区间跨度与降噪参数的取值区间跨度之间的比值。
6.根据权利要求1所述的方法,其特征在于,所述根据所述不同部位的降噪参数,对所述人脸皮肤区域进行降噪处理,得到第二图像包括:
对所述第一图像进行平滑处理,得到参考图像;
根据所述不同部位的降噪参数,将所述参考图像的人脸皮肤区域与所述第一图像的人脸皮肤区域融合,得到所述第二图像。
7.根据权利要求6所述的方法,其特征在于,所述对所述第一图像进行平滑处理,得到参考图像包括:
确定所述第一图像上任一像素点周围的目标数量个像素点的像素值;
根据所述目标数量个像素点的像素值,确定所述目标数量个像素点的平均像素值,将所述任一像素点的像素值修改为所述平均像素值;
根据多个像素值修改后的像素点,得到所述参考图像。
8.根据权利要求6所述的方法,其特征在于,所述参考图像的人脸皮肤区域与所述第一图像的人脸皮肤区域的相同部位的降噪参数相同,所述根据所述不同部位的降噪参数,将所述参考图像的人脸皮肤区域与所述第一图像的人脸皮肤区域融合,得到所述第二图像包括:
确定所述参考图像的人脸皮肤区域不同部位的像素点的像素值与对应降噪参数的乘积,得到第一像素值;
确定所述第一图像的人脸皮肤区域不同部位的像素点的像素值与对应辅助降噪参数的乘积,得到第二像素值,所述人脸皮肤区域中一个部位的辅助降噪参数与对应降噪参数之和为第一数值;
将所述第一图像和所述参考图像人脸皮肤区域的相同部位中对应像素点的第一像素值和第二像素值相加,得到目标像素值;
根据多个所述目标像素值的像素点,得到所述第二图像。
9.一种图像处理装置,其特征在于,所述装置包括:
第一图像识别模块,用于对第一图像进行图像识别,得到所述第一图像中的人脸皮肤区域;
人脸蒙版图像生成模块,用于基于所述人脸皮肤区域,生成人脸蒙版图像,所述人脸蒙版图像用于表示所述人脸皮肤区域中不同部位的目标显示差异;
降噪参数确定模块,用于根据所述人脸蒙版图像,确定所述人脸皮肤区域中不同部位的降噪参数,所述降噪参数用于表示所述不同部位达到所述目标显示差异所需的降噪程度;
第二图像生成模块,用于根据所述不同部位的降噪参数,对所述人脸皮肤区域进行降噪处理,得到第二图像。
10.根据权利要求9所述的装置,其特征在于,所述第一图像识别模块包括:
图像分割子模块,用于对所述第一图像进行图像分割,得到所述第一图像中的人脸区域和非人脸区域;
肤色检测子模块,用于对所述人脸区域进行肤色检测,得到所述人脸区域中的人脸皮肤区域。
11.根据权利要求9所述的装置,其特征在于,所述人脸蒙版图像生成模块,用于包括:
识别子模块,用于识别所述人脸皮肤区域的不同部位;
显示差异确定子模块,用于确定所述人脸皮肤区域的不同部位的目标显示差异信息;
图像生成子模块,用于根据所述人脸皮肤区域的不同部位的目标显示差异信息,生成所述人脸蒙版图像。
12.根据权利要求11所述的装置,其特征在于,所述显示差异确定子模块用于确定所述人脸皮肤区域的不同部位的像素点的像素值的目标差值;
所述图像生成子模块,用于根据所述人脸皮肤区域的不同部位的像素点的像素值的目标差值,确定所述人脸蒙版图像的像素点的像素值,根据所述人脸蒙版图像的像素点的像素值,生成所述人脸蒙版图像。
13.根据权利要求9所述的装置,其特征在于,所述降噪参数确定模块,用于确定所述人脸蒙版图像的像素点的像素值;将所述人脸蒙版图像的像素点的像素值按照目标映射关系进行映射,得到所述人脸皮肤区域中不同部位的降噪参数,所述目标映射关系用于表示像素值的取值区间跨度与降噪参数的取值区间跨度之间的比值。
14.根据权利要求9所述的装置,其特征在于,所述第二图像生成模块,包括:
平滑处理子模块,用于对所述第一图像进行平滑处理,得到参考图像;
融合子模块,用于根据所述不同部位的降噪参数,将所述参考图像的人脸皮肤区域与所述第一图像的人脸皮肤区域融合,得到所述第二图像。
15.根据权利要求14所述的装置,其特征在于,所述平滑处理子模块,用于确定所述第一图像上任一像素点周围的目标数量个像素点的像素值;根据所述目标数量个像素点的像素值,确定所述目标数量个像素点的平均像素值,将所述任一像素点的像素值修改为所述平均像素值;根据多个像素值修改后的像素点,得到所述参考图像。
16.根据权利要求14所述的装置,其特征在于,所述参考图像的人脸皮肤区域与所述第一图像的人脸皮肤区域的相同部位的降噪参数相同,所述融合子模块,用于确定所述参考图像的人脸皮肤区域不同部位的像素点的像素值与对应降噪参数的乘积,得到第一像素值;确定所述第一图像的人脸皮肤区域不同部位的像素点的像素值与对应辅助降噪参数的乘积,得到第二像素值,所述人脸皮肤区域中一个部位的辅助降噪参数与对应降噪参数之和为第一数值;将所述第一图像和所述参考图像人脸皮肤区域的相同部位中对应像素点的第一像素值和第二像素值相加,得到目标像素值;根据多个所述目标像素值的像素点,得到所述第二图像。
17.一种计算机设备,其特征在于,所述计算机设备包括一个或多个处理器和一个或多个存储器,所述一个或多个存储器中存储有至少一条指令,所述指令由所述一个或多个处理器加载并执行以实现如权利要求1至权利要求8任一项所述的图像处理方法所执行的操作。
18.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有至少一条指令,所述指令由处理器加载并执行以实现如权利要求1至权利要求8任一项所述的图像处理方法所执行的操作。
CN202010617360.1A 2020-06-30 2020-06-30 图像处理方法、装置、设备及存储介质 Active CN111723803B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010617360.1A CN111723803B (zh) 2020-06-30 2020-06-30 图像处理方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010617360.1A CN111723803B (zh) 2020-06-30 2020-06-30 图像处理方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN111723803A true CN111723803A (zh) 2020-09-29
CN111723803B CN111723803B (zh) 2023-09-26

Family

ID=72570648

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010617360.1A Active CN111723803B (zh) 2020-06-30 2020-06-30 图像处理方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN111723803B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112215776A (zh) * 2020-10-20 2021-01-12 咪咕文化科技有限公司 人像磨皮方法、电子设备和计算机可读存储介质
CN112967204A (zh) * 2021-03-23 2021-06-15 新疆爱华盈通信息技术有限公司 热成像的降噪处理方法与***、电子设备
CN113298704A (zh) * 2021-07-27 2021-08-24 成都索贝数码科技股份有限公司 一种广播电视新闻下利用图迁移的肤色分割及美化方法
CN113362344A (zh) * 2021-06-30 2021-09-07 展讯通信(天津)有限公司 人脸皮肤分割方法和设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100177981A1 (en) * 2009-01-12 2010-07-15 Arcsoft Hangzhou Co., Ltd. Face image processing method
CN105913373A (zh) * 2016-04-05 2016-08-31 广东欧珀移动通信有限公司 图像处理方法和装置
CN109325924A (zh) * 2018-09-20 2019-02-12 广州酷狗计算机科技有限公司 图像处理方法、装置、终端及存储介质
CN109712090A (zh) * 2018-12-18 2019-05-03 维沃移动通信有限公司 一种图像处理方法、装置和移动终端
CN109934766A (zh) * 2019-03-06 2019-06-25 北京市商汤科技开发有限公司 一种图像处理方法及装置
CN110070502A (zh) * 2019-03-25 2019-07-30 成都品果科技有限公司 人脸图像磨皮的方法、装置和存储介质
CN110706187A (zh) * 2019-05-31 2020-01-17 成都品果科技有限公司 一种均匀肤色的图像调整方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100177981A1 (en) * 2009-01-12 2010-07-15 Arcsoft Hangzhou Co., Ltd. Face image processing method
CN105913373A (zh) * 2016-04-05 2016-08-31 广东欧珀移动通信有限公司 图像处理方法和装置
CN109325924A (zh) * 2018-09-20 2019-02-12 广州酷狗计算机科技有限公司 图像处理方法、装置、终端及存储介质
CN109712090A (zh) * 2018-12-18 2019-05-03 维沃移动通信有限公司 一种图像处理方法、装置和移动终端
CN109934766A (zh) * 2019-03-06 2019-06-25 北京市商汤科技开发有限公司 一种图像处理方法及装置
CN110070502A (zh) * 2019-03-25 2019-07-30 成都品果科技有限公司 人脸图像磨皮的方法、装置和存储介质
CN110706187A (zh) * 2019-05-31 2020-01-17 成都品果科技有限公司 一种均匀肤色的图像调整方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LINSEN SONG等: "Geometry-Aware Face Completion and Editing", 《 AAAI TECHNICAL TRACK: HUMAN-AI COLLABORATION》 *
邱佳梁等: "结合肤色分割与平滑的人脸图像快速美化", 《中国图象图形学报》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112215776A (zh) * 2020-10-20 2021-01-12 咪咕文化科技有限公司 人像磨皮方法、电子设备和计算机可读存储介质
CN112215776B (zh) * 2020-10-20 2024-05-07 咪咕文化科技有限公司 人像磨皮方法、电子设备和计算机可读存储介质
CN112967204A (zh) * 2021-03-23 2021-06-15 新疆爱华盈通信息技术有限公司 热成像的降噪处理方法与***、电子设备
CN113362344A (zh) * 2021-06-30 2021-09-07 展讯通信(天津)有限公司 人脸皮肤分割方法和设备
CN113362344B (zh) * 2021-06-30 2023-08-11 展讯通信(天津)有限公司 人脸皮肤分割方法和设备
CN113298704A (zh) * 2021-07-27 2021-08-24 成都索贝数码科技股份有限公司 一种广播电视新闻下利用图迁移的肤色分割及美化方法
CN113298704B (zh) * 2021-07-27 2021-11-09 成都索贝数码科技股份有限公司 一种广播电视新闻下利用图迁移的肤色分割及美化方法

Also Published As

Publication number Publication date
CN111723803B (zh) 2023-09-26

Similar Documents

Publication Publication Date Title
US11678734B2 (en) Method for processing images and electronic device
WO2021008456A1 (zh) 图像处理方法、装置、电子设备及存储介质
CN111723803B (zh) 图像处理方法、装置、设备及存储介质
CN109829864B (zh) 图像处理方法、装置、设备及存储介质
CN109325924B (zh) 图像处理方法、装置、终端及存储介质
CN111028144B (zh) 视频换脸方法及装置、存储介质
CN109302632B (zh) 获取直播视频画面的方法、装置、终端及存储介质
CN111447389B (zh) 视频生成方法、装置、终端及存储介质
CN112257552B (zh) 图像处理方法、装置、设备及存储介质
CN111144365A (zh) 活体检测方法、装置、计算机设备及存储介质
CN112565806B (zh) 虚拟礼物赠送方法、装置、计算机设备及介质
CN112581358A (zh) 图像处理模型的训练方法、图像处理方法及装置
CN111083513B (zh) 直播画面处理方法、装置、终端及计算机可读存储介质
CN112135191A (zh) 视频编辑方法、装置、终端及存储介质
CN110189348B (zh) 头像处理方法、装置、计算机设备及存储介质
CN114741559A (zh) 确定视频封面的方法、设备及存储介质
CN110619614A (zh) 图像处理的方法、装置、计算机设备以及存储介质
CN110807769A (zh) 图像显示控制方法及装置
CN114140342A (zh) 图像处理方法、装置、电子设备及存储介质
CN110891181B (zh) 直播画面显示方法、装置、存储介质及终端
CN112235650A (zh) 视频处理方法、装置、终端及存储介质
CN112419143A (zh) 图像处理方法、特效参数设置方法、装置、设备及介质
CN112967261B (zh) 图像融合方法、装置、设备及存储介质
CN112381729B (zh) 图像处理方法、装置、终端及存储介质
CN112399080A (zh) 视频处理方法、装置、终端及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant