CN113837020B - 一种化妆进度检测方法、装置、设备及存储介质 - Google Patents
一种化妆进度检测方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN113837020B CN113837020B CN202111017071.9A CN202111017071A CN113837020B CN 113837020 B CN113837020 B CN 113837020B CN 202111017071 A CN202111017071 A CN 202111017071A CN 113837020 B CN113837020 B CN 113837020B
- Authority
- CN
- China
- Prior art keywords
- image
- makeup
- frame image
- face
- mask
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 51
- 239000002537 cosmetic Substances 0.000 title claims abstract description 18
- 238000000034 method Methods 0.000 claims abstract description 69
- 238000012545 processing Methods 0.000 claims abstract description 26
- 238000012937 correction Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 10
- 238000005260 corrosion Methods 0.000 claims description 6
- 230000007797 corrosion Effects 0.000 claims description 6
- 238000013136 deep learning model Methods 0.000 abstract description 11
- 230000008569 process Effects 0.000 abstract description 7
- 210000001508 eye Anatomy 0.000 description 18
- 230000006870 function Effects 0.000 description 11
- 210000001331 nose Anatomy 0.000 description 11
- 210000000887 face Anatomy 0.000 description 9
- 238000013519 translation Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 6
- 230000001815 facial effect Effects 0.000 description 5
- 238000001914 filtration Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000000214 mouth Anatomy 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本申请提出一种化妆进度检测方法、装置、设备及存储介质,该方法包括:获取至少一个上妆区域,以及获取用户化妆视频的初始帧图像和当前帧图像;根据上妆区域,生成美妆掩码图;根据美妆掩码图、初始帧图像和当前帧图像,确定当前帧图像对应的当前化妆进度。本申请依据美妆掩码图,将用户化妆过程的当前帧图像与初始帧图像做对比来确定当前化妆进度。只通过图像处理即可实现化妆进度检测,无需采用深度学习模型,运算量小,成本低,减少了服务器的处理压力,实现了对腮红等化妆步骤的进度检测,提高了化妆进度检测的效率,能够满足化妆进度检测的实时性要求。
Description
技术领域
本申请属于图像处理技术领域,具体涉及一种化妆进度检测方法、装置、设备及存储介质。
背景技术
化妆已经成为很多人日常生活必不可少的环节,腮红能够使面部呈现健康红润的气色,并能够突出面部的立体感。因此上腮红是化妆过程中的重要步骤,如果能够将上腮红的化妆进度实时反馈给用户,将可以极大减少化妆对用户精力的消耗,节省化妆时间。
目前,相关技术中存在一些使用深度学习模型提供虚拟试妆、肤色侦测、个性化产品推荐等功能,这些功能均需要预先收集大量的人脸图片对深度学习模型进行训练。
但人脸图片是用户的隐私数据,很难收集到庞大的人脸图片。且模型训练需耗费大量计算资源,成本高。模型的精度与实时性成反比,化妆进度检测需要实时捕获用户人脸面部信息来确定用户当前的化妆进度,实时性要求很高,能够满足实时性要求的深度学习模型,其检测的准确性不高。
发明内容
本申请提出一种化妆进度检测方法、装置、设备及存储介质,依据美妆掩码图,将用户化妆过程的当前帧图像与初始帧图像做对比来确定当前化妆进度。只通过图像处理即可实现化妆进度检测,无需采用深度学习模型,运算量小,成本低,减少了服务器的处理压力,实现了对腮红等化妆步骤的进度检测,提高了化妆进度检测的效率,能够满足化妆进度检测的实时性要求。
本申请第一方面实施例提出了一种化妆进度检测方法,包括:
获取至少一个上妆区域,以及获取用户化妆视频的初始帧图像和当前帧图像;
根据所述上妆区域,生成美妆掩码图;
根据所述美妆掩码图、所述初始帧图像和所述当前帧图像,确定所述当前帧图像对应的当前化妆进度。
在本申请的一些实施例中,所述根据所述美妆掩码图、所述初始帧图像和所述当前帧图像,确定所述当前帧图像对应的当前化妆进度,包括:
以所述美妆掩码图为参照,从所述初始帧图像中获取上妆的第一目标区域图像,以及从所述当前帧图像中获取上妆的第二目标区域图像;
根据所述第一目标区域图像和所述第二目标区域图像,确定所述当前帧图像对应的当前化妆进度。
在本申请的一些实施例中,所述以所述美妆掩码图为参照,从所述初始帧图像中获取上妆的第一目标区域图像,包括:
检测所述初始帧图像对应的第一人脸关键点;
根据所述第一人脸关键点,获取所述初始帧图像对应的人脸区域图像;
以所述美妆掩码图为参照,从所述人脸区域图像中获取上妆的第一目标区域图像。
在本申请的一些实施例中,所述以所述美妆掩码图为参照,从所述人脸区域图像中获取上妆的第一目标区域图像,包括:
分别将所述美妆掩码图和所述人脸区域图像转换为二值化图像;
对所述美妆掩码图对应的二值化图像和所述人脸区域图像对应的二值化图像进行与运算,获得所述美妆掩码图与所述人脸区域图像的相交区域对应的第一掩膜图像;
对所述第一掩膜图像与所述初始帧图像对应的人脸区域图像进行与运算,获得所述初始帧图像对应的第一目标区域图像。
在本申请的一些实施例中,所述对所述美妆掩码图对应的二值化图像和所述人脸区域图像对应的二值化图像进行与运算之前,还包括:
根据所述美妆掩码图对应的标准人脸关键点,确定所述美妆掩码图中位于每个上妆区域的轮廓上的一个或多个第一定位点;
根据所述第一人脸关键点,从所述人脸区域图像中确定出与每个所述第一定位点对应的第二定位点;
对所述美妆掩码图进行拉伸处理,将每个所述第一定位点拉伸至对应的每个所述第二定位点对应的位置处。
在本申请的一些实施例中,所述以所述美妆掩码图为参照,从所述人脸区域图像中获取上妆的第一目标区域图像,包括:
将所述美妆掩码图拆分为多个子掩码图,每个所述子掩码图中包括至少一个上妆区域;
分别将每个所述子掩码图及所述人脸区域图像转换为二值化图像;
分别对每个所述子掩码图对应的二值化图像与所述人脸区域图像对应的二值化图像进行与运算,获得每个所述子掩码图各自对应的子掩膜图像;
分别对每个所述子掩膜图像与所述人脸区域图像进行与运算,获得所述初始帧图像对应的多个子目标区域图像;
将所述多个子目标区域图像合并为所述初始帧图像对应的第一目标区域图像。
在本申请的一些实施例中,所述分别对每个所述子掩码图对应的二值化图像与所述人脸区域图像对应的二值化图像进行与运算之前,还包括:
根据所述美妆掩码图对应的标准人脸关键点,确定第一子掩码图中位于上妆区域的轮廓上的一个或多个第一定位点,所述第一子掩码图为所述多个子掩码图中的任一子掩码图;
根据所述第一人脸关键点,从所述人脸区域图像中确定出与每个所述第一定位点对应的第二定位点;
对所述第一子掩码图进行拉伸处理,将每个所述第一定位点拉伸至对应的每个所述第二定位点对应的位置处。
在本申请的一些实施例中,所述根据所述第一目标区域图像和所述第二目标区域图像,确定所述当前帧图像对应的当前化妆进度,包括:
分别将所述第一目标区域图像和所述第二目标区域图像转换为HSV颜色空间下包含预设单通道分量的图像;
根据转换后的所述第一目标区域图像和所述第二目标区域图像,确定所述当前帧图像对应的当前化妆进度。
在本申请的一些实施例中,所述根据转换后的所述第一目标区域图像和所述第二目标区域图像,确定所述当前帧图像对应的当前化妆进度,包括:
分别计算转换后的所述第一目标区域图像和所述第二目标区域图像中位置相同的像素点对应的所述预设单通道分量的差值绝对值;
统计对应的差值绝对值满足预设化妆完成条件的像素点数目;
计算统计的所述像素点数目与所述第一目标区域图像中所有上妆区域中的像素点总数目之间的比值,得到所述当前帧图像对应的当前化妆进度。
在本申请的一些实施例中,所述根据所述第一目标区域图像和所述第二目标区域图像,确定所述当前帧图像对应的当前化妆进度之前,还包括:
分别对所述第一目标区域图像和所述第二目标区域图像进行二值化处理,得到所述第一目标区域图像对应的第一二值化掩膜图像和所述第二目标区域图像对应的第二二值化掩膜图像;
对所述第一二值化掩膜图像和所述第二二值化掩膜图像进行与运算,得到所述第一目标区域图像与所述第二目标区域图像的相交区域对应的第二掩膜图像;
获取所述初始帧图像对应的人脸区域图像及所述当前帧图像对应的人脸区域图像;
对所述第二掩膜图像和所述初始帧图像对应的人脸区域图像进行与运算,得到所述初始帧图像对应的新第一目标区域图像;对所述第二掩膜图像和所述当前帧图像对应的人脸区域图像进行与运算,得到所述当前帧图像对应的新第二目标区域图像。
在本申请的一些实施例中,所述根据所述第一目标区域图像和所述第二目标区域图像,确定所述当前帧图像对应的当前化妆进度之前,还包括:
分别对所述第一目标区域图像和所述第二目标区域图像中的上妆区域进行边界腐蚀处理。
在本申请的一些实施例中,所述根据所述第一人脸关键点,获取所述初始帧图像对应的人脸区域图像,包括:
根据所述第一人脸关键点,对所述初始帧图像及所述第一人脸关键点进行旋转矫正;
根据矫正后的所述第一人脸关键点,从矫正后的所述初始帧图像中截取包含人脸区域的图像;
将所述包含人脸区域的图像缩放至预设尺寸,得到所述初始帧图像对应的人脸区域图像。
在本申请的一些实施例中,所述方法还包括:根据所述包含人脸区域的图像的尺寸及所述预设尺寸,对矫正后的所述第一人脸关键点进行缩放平移处理。
在本申请的一些实施例中,所述根据所述第一人脸关键点,对所述初始帧图像及所述第一人脸关键点进行旋转矫正,包括:
根据所述第一人脸关键点包括的左眼关键点和右眼关键点,分别确定左眼中心坐标和右眼中心坐标;
根据所述左眼中心坐标和所述右眼中心坐标,确定所述初始帧图像对应的旋转角度及旋转中心点坐标;
根据所述旋转角度和所述旋转中心点坐标,对所述初始帧图像及所述第一人脸关键点进行旋转矫正。
在本申请的一些实施例中,所述根据矫正后的所述第一人脸关键点,从矫正后的所述初始帧图像中截取包含人脸区域的图像,包括:
从矫正后的所述第一人脸关键点中确定最小横坐标值、最小纵坐标值、最大横坐标值和最大纵坐标值;
根据所述最小横坐标值、所述最小纵坐标值、所述最大横坐标值和所述最大纵坐标值,确定矫正后的所述初始帧图像中人脸区域对应的截取框;
根据所述截取框,从矫正后的所述初始帧图像中截取出包含所述人脸区域的图像。
在本申请的一些实施例中,所述方法还包括:
将所述截取框放大预设倍数;
根据放大后的所述截取框,从矫正后的所述初始帧图像中截取出包含所述人脸区域的图像。
在本申请的一些实施例中,所述根据所述上妆区域,生成美妆掩码图,包括:
根据每个所述上妆区域的位置和形状,在预设空白人脸图像中绘制每个所述上妆区域的轮廓;
在绘制的每个轮廓内进行像素填充,得到美妆掩码图。
本申请第二方面的实施例提供了一种化妆进度检测装置,包括:
获取模块,用于获取至少一个上妆区域,以及获取用户化妆视频的初始帧图像和当前帧图像;
生成模块,用于根据所述上妆区域,生成美妆掩码图;
进度确定模块,用于根据所述美妆掩码图、所述初始帧图像和所述当前帧图像,确定所述当前帧图像对应的当前化妆进度。
本申请第三方面的实施例提供了一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器运行所述计算机程序以实现上述第一方面所述的方法。
本申请第四方面的实施例提供了一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行实现上述第一方面所述的方法。
本申请实施例中提供的技术方案,至少具有如下技术效果或优点:
在本申请实施例中,利用人脸关键点,对视频帧中用户的人脸区域进行矫正和裁剪,提高了识别人脸区域的准确性。基于人脸关键点从人脸区域图像中确定出上妆区域,并对初始帧图像和当前帧图像中的上妆区域进行像素对齐,提高了上妆区域识别的准确性。对初始帧图像和当前帧图像中的上妆区域对齐,减少因上妆区域的位置差别引入的误差。在对抠取上妆区域时可以将不连贯的上妆区域分开计算,增加获取上妆区域的准确率。还将美妆掩码图中的上妆区域与人脸区域图像中的上妆区域对齐,保证了抠取的上妆区域都在人脸区域图像中,不会超出面部边界。且本申请没有采用深度学习的方式,无需预先收集大量数据,本申请通过对用户化妆的实时画面的捕获,经过服务器端的计算,将检测结果返回给用户。相比深度学习的模型推理方案,本申请在算法处理环节耗费更少的计算成本,减少了服务器的处理压力。
本申请附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变的明显,或通过本申请的实践了解到。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本申请的限制。而且在整个附图中,用相同的参考符号表示相同的部件。
在附图中:
图1示出了本申请一实施例所提供的一种化妆进度检测方法的流程图;
图2示出了本申请一实施例所提供的客户端显示的供用户选择上妆区域的显示界面的示意图;
图3示出了本申请一实施例所提供的求解图像的旋转角度的示意图;
图4示出了本申请一实施例所提供的两次坐标系转换的示意图;
图5示出了本申请一实施例所提供的一种化妆进度检测方法的另一流程示意图;
图6示出了本申请一实施例所提供的一种化妆进度检测装置的结构示意图;
图7示出了本申请一实施例所提供的一种电子设备的结构示意图;
图8示出了本申请一实施例所提供的一种存储介质的示意图。
具体实施方式
下面将参照附图更详细地描述本申请的示例性实施方式。虽然附图中显示了本申请的示例性实施方式,然而应当理解,可以以各种形式实现本申请而不应被这里阐述的实施方式所限制。相反,提供这些实施方式是为了能够更透彻地理解本申请,并且能够将本申请的范围完整的传达给本领域的技术人员。
需要注意的是,除非另有说明,本申请使用的技术术语或者科学术语应当为本申请所属领域技术人员所理解的通常意义。
下面结合附图来描述根据本申请实施例提出的一种化妆进度检测方法、装置、设备及存储介质。
目前相关技术中存在一些虚拟试妆功能,可以应用在销售柜台或者手机应用软件中,采用人脸识别技术对用户提供虚拟试妆服务,可以将多种妆容进行搭配和实时的面部贴合展示。此外还提供人脸皮肤检测服务,但这些服务只能解决用户挑选适合自己的化妆品,或者选取适合自己的皮肤保养方案的需求。基于这些服务可以帮助用户挑选适合自己的化妆产品,但是无法对上妆的进度进行显示,不能满足用户实时化妆的需求。相关技术中还存在一些使用深度学习模型提供虚拟试妆、肤色侦测、个性化产品推荐等功能,这些功能均需要预先收集大量的人脸图片对深度学习模型进行训练。但人脸图片是用户的隐私数据,很难收集到庞大的人脸图片。且模型训练需耗费大量计算资源,成本高。模型的精度与实时性成反比,化妆进度检测需要实时捕获用户人脸面部信息来确定用户当前的化妆进度,实时性要求很高,能够满足实时性要求的深度学习模型,其检测的准确性不高。
基于此,本申请实施例提供了一种化妆进度检测方法,该方法用于检测预设类型的妆容的化妆进度,预设类型可以为在脸部特定区域进行化妆的妆容类型,预设类型可以为腮红,或者为京剧妆容等特殊妆容中在面部特定区域化妆的类型。
该方法将用户化妆过程的当前帧图像与初始帧图像(即第一帧图像)做对比来确定化妆进度。通过识别初始帧图像及当前帧图像的人脸关键点,基于人脸关键点,从初始帧图像和当前帧图像中截取出人脸区域图像。根据需要化妆的上妆区域生成美妆掩码图。依据美妆掩码图分别从初始帧图像和当前帧图像对应的人脸区域图像中截取出需要化妆的第一目标区域图像和第二目标区域图像,通过对比第一目标区域图像和第二目标区域图像中像素点的亮度或色调等预设单通道分量的差别,确定出当前化妆进度。化妆进度检测的准确性很高,且无需采用深度学习模型,运算量小,成本低,减少了服务器的处理压力,实现了对腮红等化妆步骤的进度检测,提高了化妆进度检测的效率,能够满足化妆进度检测的实时性要求。
参见图1,该方法具体包括以下步骤:
步骤101:获取至少一个上妆区域,以及获取用户化妆视频的初始帧图像和当前帧图像。
本申请实施例的执行主体为服务器。用户的手机或电脑等终端上安装有与服务器提供的化妆进度检测服务相适配的客户端。当用户需要使用化妆进度检测服务时,用户打开终端上的该客户端,客户端显示预设类型的化妆对应的多个上妆区域,如显示腮红对应的多个上妆区域。显示的上妆区域可以按照脸部区域进行分类,如可以分为鼻头区域、两侧脸颊区域、下巴区域等。每个区域分类下可以包括多个形状和/或尺寸不同的上妆区域的轮廓。用户从显示的多个上妆区域中选择自己需要化妆的一个或多个上妆区域。客户端将用户选择的上妆区域发送给服务器。
作为一种示例,如图2所示的显示界面,该显示界面中包括鼻头区域、两侧脸颊区域和下巴区域各自对应的上妆区域的轮廓,用户可以在各区域对应的多个轮廓中选择自己需要上妆的脸部区域以及在选择的脸部区域上妆的轮廓,选择之后点击确认按键提交自己选择的上妆区域的轮廓。客户端检测到用户提交的一个或多个上妆区域,并发送给服务器。
作为另一种示例,本申请实施例还可以基于预设标准人脸图像制作多个美妆样式图,美妆样式图中包括一个或多个上妆区域的轮廓。预设标准人脸图像为脸部无遮挡、五官清晰且两眼连线与水平线平行的人脸图像。客户端显示的界面中可以同时显示多个美妆样式图,用户从显示的多个美妆样式图中选择一个美妆样式图。客户端将用户选择的美妆样式图发送给服务器。服务器接收客户端发送的美妆样式图,从该美妆样式图中获取该用户选择的一个或多个上妆区域。
通过上述任一方式由用户自定义选择自己需要化妆的上妆区域,能够满足不同用户对腮红等预设类型的妆容的个性化上妆需求。
在本申请的另一些实施例中,也可以不由用户选择上妆区域,而是在服务器中预先设置固定的上妆区域,设置好上妆区域的位置和形状。用户打开客户端后,客户端提示用户在服务器设置的这些上妆区域对应的部位进行上妆。服务器在接收到用户检测化妆进度的请求时,直接从本地配置文件中获取预先设置的一个或多个上妆区域。
预先在服务器中配置好上妆区域,在用户需要检测化妆进度时,无需从用户的终端获取上妆区域,节省带宽,同时简化了用户操作,缩短了处理时间。
上述客户端的显示界面中还设置有视频上传接口,当检测到用户点击该视频上传接口时,调用终端的摄像装置拍摄用户的化妆视频,在拍摄过程中用户在自己脸部的上述上妆区域中进行腮红等预设类型的化妆操作。用户的终端将拍摄的化妆视频以视频流的形式传输给服务器。服务器接收用户的终端传输的该化妆视频的每一帧图像。
在本申请的另一些实施例中,服务器获得用户的化妆视频的初始帧图像和当前帧图像后,还检测初始帧图像和当前帧图像中是否均仅包含同一个用户的人脸图像。首先检测初始帧图像和当前帧图像中是否均仅包含一个人脸图像,若初始帧图像和/或当前帧图像中包含多个人脸图,或者,初始帧图像和/或当前帧图像中不包含人脸图像,则发送提示信息给用户的终端。用户的终端接收并显示该提示信息,以提示用户保持化妆视频中仅出现同一个用户的人脸。例如,提示信息可以为“请保持镜头内仅出现同一个人的人脸”。
若检测出初始帧图像和当前帧图像中均仅包含一个人脸图像,则进一步判断初始帧图像中的人脸图像与当前帧图像中的人脸图像是否属于同一个用户。具体地,可以通过人脸识别技术提取初始帧图像中人脸图像对应的人脸特征信息,以及提取当前帧图像中人脸图像对应的人脸特征信息,计算这两帧图像中提取的人脸特征信息的相似度,若计算的相似度大于或等于设定值,则确定初始帧图像和当前帧图像中的人脸属于同一用户,后续通过下述步骤102和103的操作来确定当前帧图像对应的当前化妆进度。若计算的相似度小于设定值,则确定初始帧图像和当前帧图像中的人脸属于不同用户,则发送提示信息给用户的终端。用户的终端接收并显示该提示信息,以提示用户保持化妆视频中仅出现同一个用户的人脸。
在本申请实施例中,服务器将接收到的第一帧图像作为初始帧图像,以该初始帧图像作为参考来比对后续接收到的每一帧图像对应的特定妆容的当前化妆进度。由于对于后续每一帧图像的处理方式都相同,因此本申请实施例以当前时刻接收到的当前帧图像为例来阐述化妆进度检测的过程。
服务器通过本步骤获得至少一个上妆区域及用户化妆视频的初始帧图像和当前帧图像后,通过如下步骤102和103的操作来确定用户的当前化妆进度。
步骤102:根据获得的上妆区域,生成美妆掩码图。
具体地,根据每个上妆区域的位置和形状,在预设空白人脸图像中绘制每个上妆区域的轮廓。预设空白人脸图像可以是去除上述预设标准人脸图像中的像素而形成的。在预设空白人脸图像中绘制出每个上妆区域的轮廓之后,在绘制的每个轮廓内进行像素填充,同一个上妆区域的轮廓内填充像素值相同的像素点,不同的上妆区域之间填充的像素点的像素值互不相同。将填充操作后的图像作为美妆掩码图。
步骤103:根据美妆掩码图、初始帧图像和当前帧图像,确定当前帧图像对应的当前化妆进度。
首先根据美妆掩码图,分别从初始帧图像中获取上妆的第一目标区域图像,以及从当前帧图像中获取上妆的第二目标区域图像。即以美妆掩码图为掩码,分别从初始帧图像和当前帧图像中截取出用户需要化妆的上妆区域的图像。然后根据截取出的第一目标区域图像和第二目标区域图像,确定当前帧图像对应的当前化妆进度。
由于从初始帧图像中获取第一目标区域图像的过程,与从当前帧图像中获取第二目标区域的过程相同。本申请实施例以初始帧图像为例具体说明该过程。服务器具体通过如下步骤S1-S3的操作来获取初始帧图像对应的第一目标区域图像,包括:
S1:检测初始帧图像对应的第一人脸关键点。
服务器中配置了预先训练好的用于检测人脸关键点的检测模型,通过该检测模型提供人脸关键点检测的接口服务。服务器获取到用户化妆视频的初始帧图像后,调用人脸关键点检测的接口服务,通过检测模型识别出初始帧图像中用户脸部的所有人脸关键点。为了与当前帧图像对应的人脸关键点进行区分,本申请实施例将初始帧图像对应的所有人脸关键点称为第一人脸关键点。将当前帧图像对应的所有人脸关键点称为第二人脸关键点。
其中,识别出的人脸关键点包括用户脸部轮廓上的关键点及嘴巴、鼻子、眼睛、眉毛等部位的关键点。识别出的人脸关键点的数目可以为106个。
S2:根据第一人脸关键点,获取初始帧图像对应的人脸区域图像。
服务器具体通过如下步骤S20-S22的操作来获取初始帧图像对应的人脸区域图像,包括:
S20:根据第一人脸关键点,对初始帧图像及第一人脸关键点进行旋转矫正。
由于用户在通过终端拍摄化妆视频时,不能保证每一帧图像中人脸的姿态角度均相同,为了提高当前帧图像与初始帧图像比对的准确性,需要对每一帧图像中的人脸进行旋转矫正,以使矫正后每一帧图像中人脸眼睛的连线都处在同一水平线上,从而确保每一帧图像中人脸的姿态角度相同,避免因姿态角度不同导致化妆进度检测误差较大的问题。
具体地,根据第一人脸关键点包括的左眼关键点和右眼关键点,分别确定左眼中心坐标和右眼中心坐标。从第一人脸关键点确定出左眼区域的全部左眼关键点及右眼区域的全部右眼关键点。对确定出的全部左眼关键点的横坐标取均值,以及对全部左眼关键点的纵坐标取均值,将左眼对应的横坐标的均值和纵坐标的均值组成一个坐标,将该坐标确定为左眼中心坐标。按照同样的方式确定出右眼中心坐标。
然后根据左眼中心坐标和右眼中心坐标,确定初始帧图像对应的旋转角度及旋转中心点坐标。如图3所示,根据左眼中心坐标和右眼中心坐标计算出两个坐标的水平差值dx和竖直差值dy,以及计算出左眼中心坐标和右眼中心坐标的两眼连线长度d。依据两眼连线长度d、水平差值dx和竖直差值dy,计算出两眼连线与水平方向的夹角θ,该夹角θ即为初始帧图像对应的旋转角度。然后根据左眼中心坐标和右眼中心坐标计算出两眼连线的中心点坐标,该中点点坐标即为初始帧图像对应的旋转中心点坐标。
根据计算出的旋转角度和旋转中心点坐标,对初始帧图像及第一人脸关键点进行旋转矫正。具体将旋转角度和旋转中心点坐标输入用于计算图片的旋转矩阵的预设函数中,该预设函数可以为OpenCV中的函数cv2.getRotationMatrix2D()。通过调用该预设函数获得初始帧图像对应的旋转矩阵。然后计算初始帧图像和该旋转矩阵的乘积,得到矫正后的初始帧图像。利用旋转矩阵对初始帧图像进行矫正的操作,也可以通过调用OpenCV中的函数cv2.warpAffine()来完成。
对于第一人脸关键点,需要对每个第一人脸关键点逐一进行矫正,以与矫正后的初始帧图像相对应。在对第一人脸关键点逐一矫正时,需要进行两次坐标系的转换,第一次将以初始帧图像左上角为原点的坐标系转化为以左下角为原点的坐标系,第二次进一步将以左下角为原点的坐标系转化为以上述旋转中心点坐标为坐标原点的坐标系,如图4所示。经过两次坐标系转换后对每个第一人脸关键点进行如下公式(1)的转换,可完成对第一人脸关键点的旋转矫正。
在公式(1)中,x0、y0分别为旋转矫正前第一人脸关键点的横坐标和纵坐标,x、y分别为旋转矫正后第一人脸关键点的横坐标和纵坐标,θ为上述旋转角度。
经过矫正后的初始帧图像和第一人脸关键点是基于整张图像的,整张图像不仅包含用户的人脸信息,还包括其他多余的图像信息,因此需要通过如下步骤S21对矫正后的图像进行人脸区域的裁剪。
S21:根据矫正后的第一人脸关键点,从矫正后的初始帧图像中截取包含人脸区域的图像。
首先从矫正后的第一人脸关键点中确定最小横坐标值、最小纵坐标值、最大横坐标值和最大纵坐标值。然后根据最小横坐标值、最小纵坐标值、最大横坐标值和最大纵坐标值,确定矫正后的初始帧图像中人脸区域对应的截取框。具体地,将最小横坐标值和最小纵坐标值组成一个坐标点,将该坐标点作为人脸区域对应的截取框的左上角顶点。将最大横坐标值和最大纵坐标值组成另一个坐标点,将该坐标点作为人脸区域对应的截取框的右下角顶点。根据上述左上角顶点和右下角顶点在矫正后的初始帧图像中确定截取框的位置,从矫正后的初始帧图像中截取出位于该截取框内的图像,即截取出包含人脸区域的图像。
在本申请的另一些实施例中,为了确保将用户的全部的人脸区域截取出来,避免截取不完整导致后续化妆进度检测误差很大的情况发生,还可以将上述截取框放大预设倍数,该预设倍数可以为1.15或1.25等。本申请实施例并不限制预设倍数的具体取值,实际应用中可根据需求来设定该预设倍数。将上述截取框向周围放大预设倍数之后,从矫正后的初始帧图像中截取出位于放大后的截取框中的图像,从而截取出包含用户的完整人脸区域的图像。
S22:将包含人脸区域的图像缩放至预设尺寸,得到初始帧图像对应的人脸区域图像。
通过上述方式从初始帧图像中截取出包含用户的人脸区域的图像后,将包含人脸区域的图像缩放至预设尺寸,得到初始帧图像对应的人脸区域图像。该预设尺寸可以为390×390或400×400等。本申请实施例并不限制预设尺寸的具体取值,实际应用中可根据需求进行设定。
为了使第一人脸关键点与缩放后的人脸区域图像相适应,将截取的包含人脸区域的图像缩放至预设尺寸后,还需根据缩放前包含人脸区域的图像的尺寸及该预设尺寸,对上述矫正后的第一人脸关键点进行缩放平移处理。具体地,依据缩放前包含人脸区域的图像的尺寸及图像所需缩放至的预设尺寸,确定每个第一人脸关键点的平移方向及平移距离,进而根据每个第一人脸关键点对应的平移方向和平移距离,分别对每个第一人脸关键点进行平移操作,并记录平移后的每个第一人脸关键点的坐标。
通过上述方式从初始帧图像中获得人脸区域图像,并通过旋转矫正和平移缩放等操作使第一人脸关键点与获得的人脸区域图像相适应,之后通过如下步骤S3的方式从人脸区域图像中提取出上妆区域对应的图像区域。
在本申请的另一些实施例中,执行步骤S3之前,还可以先对初始帧图像对应的人脸区域图像进行滤波处理,用于去除人脸区域图像中的噪声。具体可以采用高斯滤波算法或拉普拉斯算法对初始帧图像对应的人脸区域图像进行滤波和平滑处理。
以高斯滤波算法为例,可以根据预设尺寸的高斯核,对初始帧图像对应的人脸区域图像进行高斯滤波处理。高斯滤波的高斯核是高斯滤波处理的关键参数,高斯核选取过小,则不能达到很好的滤波效果,高斯核选取过大,虽然能过滤掉图像中的噪声信息,但同时会平滑掉图像中有用的信息。本申请实施例选取预设尺寸的高斯核,预设尺寸可以为9×9。此外高斯滤波函数的另一组参数sigmaX、sigmaY均设置为0,经过高斯滤波后,图像信息更加平滑,进而提高后续获取化妆进度的准确性。
通过上述方式获得初始帧图像对应的人脸区域图像后,通过步骤S3从人脸区域图像出提取特定妆容对应的目标区域图像。
S3:以上述美妆掩码图为参照,从初始帧图像对应的人脸区域图像中获取上妆的第一目标区域图像。
腮红等预设类型的妆容是对面部的固定区域进行上妆的一种化妆方式,如在鼻头区域、两侧脸颊区域、下巴区域等特定区域进行腮红上妆。因此可以直接从人脸区域图像中抠取出需要进行上妆的这些特定区域,进而避免无效区域对化妆进度检测的干扰,提高化妆进度检测的准确性。
服务器具体通过如下步骤S30-S32的操作来获得第一目标区域图像,包括:
S30:分别将美妆掩码图和人脸区域图像转换为二值化图像。
S31:对美妆掩码图对应的二值化图像和人脸区域图像对应的二值化图像进行与运算,获得美妆掩码图与该人脸区域图像的相交区域对应的第一掩膜图像。
分别将美妆掩码图对应的二值化图像和该人脸区域图像对应的二值化图像中坐标相同的像素点的像素值进行与运算。由于美妆掩码图中只有上妆区域中的像素点的像素值不为零,其他区域的像素点均为零。因此与运算得到的第一掩膜图像相当于从初始帧图像对应的人脸区域图像中截取出了各个上妆区域。
在本申请的另一些实施例中,由于美妆掩码图是基于预设标准人脸图像生成的,因此美妆掩码图中的上妆区域很可能无法与初始帧图像中用户实际上妆的区域完全重合,从而影响化妆进度检测的准确性。因此在将美妆掩码图对应的二值化图像和人脸区域图像对应的二值化图像进行与运算之前,还可以先对美妆掩码图中的上妆区域与初始帧图像中的对应区域进行对齐操作。
具体地,根据美妆掩码图对应的标准人脸关键点,确定美妆掩码图中位于每个上妆区域的轮廓上的一个或多个第一定位点。美妆掩码图对应的标准人脸关键点即为预设标准人脸图像对应的标准人脸关键点。对于美妆掩码图中的任一上妆区域,首先确定该上妆区域的轮廓上是否包含标准人脸关键点,若包含,则将位于轮廓上的标准人脸关键点确定为该上妆区域对应的第一定位点。若不包含,则利用该上妆区域周围的标准人脸关键点,通过线性变换的方式生成位于该上妆区域的轮廓上的第一定位点。具体可以将周围的标准人脸关键点上移、下移、左移或右移等平移操作获得第一定位点。
例如,对于鼻头区域,可以将位于鼻头的关键点往左移动一定的像素距离,得到位于左侧鼻翼上的一个点。以及将鼻头的关键点往右移动一定的像素距离,得到位于右侧鼻翼上的一个点。将鼻头的关键点、左侧鼻翼上的这个点和右侧鼻翼上的该点作为鼻头区域对应的三个第一定位点。
在本申请实施例中,每个上妆区域对应的第一定位点的数目可以为预设数目个,预设数目可以为3或4等。
通过上述方式获得美妆掩码图中每个上妆区域对应的第一定位点后,根据初始帧图像对应的第一人脸关键点,从初始帧图像对应的人脸区域图像中确定出与每个第一定位点对应的第二定位点。由于美妆掩码图对应的标准人脸关键点和初始帧图像对应的第一人脸关键点都是通过相同的检测模型获得的,不同位置的关键点都具有各自的编号。因此对于属于标准人脸关键点的第一定位点,从初始帧图像对应的第一人脸关键点中确定出与该第一定位点对应的标准人脸关键点的编号相同的第一人脸关键点,将确定出的第一人脸关键点作为该第一定位点对应的第二定位点。对于利用标准人脸关键点进行线性变换得到的第一定位点,则从初始帧图像对应的第一人脸关键点中确定出该第一定位点对应的第一人脸关键点,将对该第一人脸关键点进行相同的线性变换得到的点确定为该第一定位点对应的第二定位点。
通过上述方式确定每个第一定位点对应的第二定位点之后,对美妆掩码图进行拉伸处理,将每个第一定位点拉伸至对应的每个第二定位点对应的位置处,即使得拉伸后美妆掩码图中每个第一定位点的位置都与其对应的第二定位点的位置相同。
通过上述方式能够将美妆掩码图中的上妆区域与初始帧图像中用户实际上妆的区域对齐,从而确保通过美妆掩码图能够精确地从初始帧图像中提取出上妆的第一目标图像,进而提高化妆进度检测的准确性。
将美妆掩码图与初始帧图像对齐之后,再通过步骤S31的操作获得美妆掩码图与初始帧图像的人脸区域图像之间相交区域对应的第一掩膜图像,然后通过步骤S32的方式来扣取初始帧图像对应的第一目标区域图像。
S32:对第一掩膜图像与初始帧图像对应的人脸区域图像进行与运算,获得初始帧图像对应的第一目标区域图像。
由于第一掩膜图像为二值化图像,因此对第一掩膜图像和初始帧图像对应的人脸区域图像进行与运算,从初始帧图像对应的人脸区域图像中截取出彩色的各个上妆区域的图像,即得到了初始帧图像对应的第一目标区域图像。
在本申请的另一些实施例中,由于美妆掩码图中各个上妆区域是不连贯的,因此还可以将美妆掩码图拆成多个子掩码图,每个子掩码图中包含的上妆区域均不相同。然后利用拆分出的子掩码图来从初始帧图像对应的人脸区域图像中获取第一目标区域图像。具体可以通过如下步骤S33-S37的操作来实现,包括:
S33:将美妆掩码图拆分为多个子掩码图,每个子掩码图中包括至少一个上妆区域。
美妆掩码图中包括多个互不连贯的上妆区域,对互不连贯的上妆区域进行拆分,得到多个子掩码图中,每个子掩码图中可以仅包括一个上妆区域,也可以包括一个以上的上妆区域。各子掩码图包括的上妆区域互不相同,且子掩码图中除上妆区域内的像素点的像素值不为零外,其他区域的像素点的像素值均为零。
S34:分别将每个子掩码图及人脸区域图像转换为二值化图像。
S35:分别对每个子掩码图对应的二值化图像与人脸区域图像对应的二值化图像进行与运算,获得每个子掩码图各自对应的子掩膜图像。
对于任意一个子掩码图,将该子掩码图的二值化图像和该人脸区域图像对应的二值化图像中坐标相同的像素点的像素值进行与运算。由于子妆掩码图中只有上妆区域中的像素点的像素值不为零,其他区域的像素点均为零。因此与运算得到的子掩膜图像相当于从初始帧图像对应的人脸区域图像中截取出了该子掩膜图像对应的上妆区域。
在本申请的另一些实施例中,由于美妆掩码图是基于预设标准人脸图像生成的,子掩码图是从美妆掩码图中拆分出来的,因此子掩码图中的上妆区域很可能无法与初始帧图像中用户实际上妆的区域完全重合,从而影响化妆进度检测的准确性。因此在将子掩码图对应的二值化图像和人脸区域图像对应的二值化图像进行与运算之前,还可以先对子掩码图中的上妆区域与初始帧图像中的对应区域进行对齐操作。
具体地,根据美妆掩码图对应的标准人脸关键点,确定子掩码图中位于上妆区域的轮廓上的一个或多个第一定位点。根据初始帧图像对应的第一人脸关键点,从初始帧图像中确定出与每个第一定位点对应的第二定位点。对子掩码图进行拉伸处理,将每个第一定位点拉伸至对应的每个第二定位点对应的位置处,即使得拉伸后子掩码图中每个第一定位点的位置都与其对应的第二定位点的位置相同。
通过上述方式能够将子掩码图中的上妆区域与初始帧图像中用户实际上妆的区域对齐,从而确保通过各子掩码图能够精确地从初始帧图像中提取出上妆的第一目标图像,进而提高化妆进度检测的准确性。通过将美妆掩码图拆分成多个子掩码图,分别通过上述方式将每个子掩码图与初始帧图像对齐,相对于直接将美妆掩码图像与初始帧图像对齐的方式,拆分之后分别进行对齐的准确性更高。
S36:分别对每个子掩膜图像与初始帧图像进行与运算,获得初始帧图像对应的多个子目标区域图像。
S37:将多个子目标区域图像合并为初始帧图像对应的第一目标区域图像。
对于当前帧图像,可以采用相同地方式,来获得当前帧图像对应的第二目标区域图像。即将当前帧图像对应的人脸区域图像转换为二值化图像,然后对美妆掩码图对应的二值化图像和当前帧图像的人脸区域图像对应的二值化图像进行与运算,获得美妆掩码图与当前帧图像的人脸区域图像之间相交区域对应的第二掩膜图像。对第二掩膜图像与当前帧图像对应的人脸区域图像进行与运算,获得当前帧图像对应的第二目标区域图像。或者,将上述各子掩码图对应的二值化图像和当前帧图像的人脸区域图像对于的二值化图像进行与运算,获得各子掩码图与当前帧图像的人脸区域图像之间相交区域对应的各子掩膜图像。对各子掩膜图像与当前帧图像对应的人脸区域图像进行与运算,将得到的各子目标区域图像合并为当前帧图像对应的第二目标区域图像。
在本申请的另一些实施例中,考虑到实际化妆场景中上妆区域的边缘可能不会有很清晰的轮廓线,如腮红场景中越靠近边缘颜色越浅,从而使腮红妆容更自然,不会显得很突兀。因此通过上述实施例获得第一目标区域图像和第二目标区域图像之后,还分别对第一目标区域图像和第二目标区域图像中的上妆区域进行边界腐蚀处理,使上妆区域的边界模糊,使得第一目标区域图像和第二目标区域图像中的上妆区域更贴近真实上妆范围,进而提供化妆进度检测的准确性。
通过上述方式获得的初始帧图像对应的第一目标区域图像和当前帧图像对应的第二目标区域图像的颜色空间均为RGB颜色空间。本申请实施例预先通过大量试验确定腮红等预设类型的妆容对颜色空间的各通道分量的影响,发现对RGB颜色空间中各颜色通道的影响差别不大。而HSV颜色空间是由Hue(色调)、Saturation(饱和度)和Value(亮度)三个分量组成,其中一个分量发生变化时,另外两个分量值不会发生明显的变化,相比RGB颜色空间,HSV颜色空间可以分离出其中一个通道分量。且通过试验确定了预设类型的妆容对亮度、色调和饱和度中哪个通道分量的影响最大,并在服务器中配置影响最大的通道分量为预设类型的妆容对应的预设单通道分量。对于腮红等预设类型的妆容,其对应的预设单通道分量可以为亮度分量。
通过上述任一方式获得初始帧图像对应的第一目标区域图像和当前帧图像对应的第二目标区域图像后,还将第一目标区域图像和第二目标区域图像均由RGB颜色空间转换为HSV颜色空间下。并从转换后的第一目标区域图像的HSV颜色空间中分离出预设单通道分量,得到仅包含预设单通道分量的第一目标区域图像。以及,从转换后的第二目标区域图像的HSV颜色空间中分离出预设单通道分量,得到仅包含预设单通道分量的第二目标区域图像。
然后根据转换后的第一目标区域图像和第二目标区域图像,确定当前帧图像对应的当前化妆进度。
具体地,分别计算第一目标区域图像和第二目标区域图像中位置相同的像素点对应的上述通道分量的差值绝对值。例如,若预设类型的妆容为腮红,则计算转换后的第一目标区域图像和第二目标区域图像中坐标相同的像素点之间的亮度分量的差值绝对值。
根据每个像素点对应的差值绝对值,确定已完成特定妆容的区域面积。具体地,统计对应的差值绝对值满足预设化妆完成条件的像素点数目。其中,预设化妆完成条件为像素点对应的差值绝对值大于第一预设阈值,第一预设阈值可以为7或8等。
将统计的满足预设化妆完成条件的像素点数目确定为已完成特定妆容的区域面积。统计第一目标区域图像或第二目标区域图像中所有上妆区域中的所有像素点的总数,将像素点总数目确定为所有上妆区域对应的总区域面积。然后计算已完成特定妆容的区域面积与目标上妆区域对应的总区域面积之间的比值,将该比值确定为用户对应的特定妆容的当前化妆进度。即计算统计的像素点数目与第一目标区域图像中所有上妆区域中的像素点总数目之间的比值,得到当前帧图像对应的当前化妆进度。
在本申请的另一些实施例中,为了进一步提高化妆进度检测的准确性,还对上述第一目标区域图像和第二目标区域图像中的上妆区域进行进一步对齐。具体地,分别对仅包含上述预设单通道分量的第一目标区域图像和第二目标区域图像进行二值化处理,即将第一目标区域图像和第二目标区域图像上妆区域中的像素点对应的上述预设单通道分量的值均修改为1,将其余位置处的像素点的上述预设单通道分量的值均修改为0。通过二值化处理得到第一目标区域图像对应的第一二值化掩膜图像和第二目标区域图像对应的第二二值化掩膜图像。
然后对第一二值化掩膜图像和第二二值化掩膜图像进行与运算,即分别将第一二值化掩膜图像和第二二值化掩膜图像中相同位置处的像素点进行与运算,得到第一目标区域图像与第二目标区域图像的相交区域对应的第二掩膜图像。该第二掩膜图像中像素点的预设单通道分量不为零的区域,即为第一目标区域图像和第二目标区域中重合的上妆区域。
通过步骤102的操作获得初始帧图像对应的人脸区域图像及当前帧图像对应的人脸区域图像。对第二掩膜图像和初始帧图像对应的人脸区域图像进行与运算,得到初始帧图像对应的新的第一目标区域图像;对第二掩膜图像和当前帧图像对应的人脸区域图像进行与运算,得到当前帧图像对应的新的第二目标区域图像。
由于第二掩膜图像中包含初始帧图像和当前帧图像中重合的上妆区域,因此通过第二掩膜图像按照上述方式从初始帧图像和当前帧图像中分别抠取出新的第一目标区域图像和新的第二目标区域图像,使得新的第一目标区域图像和新的第二目标区域图像中上妆区域的位置是完全一致的,如此后续比对当前帧图像中上妆区域与初始帧图像中上妆区域的变化来确定化妆进度,确保了进行比对的区域是完全一致的,大大提高了化妆进度检测的准确性。
通过上述方式对初始帧图像和当前帧图像中的上妆区域进行对齐,得到新的第一目标区域图像和新的第二目标区域图像后,再次通过上述步骤103的操作来确定当前帧图像对应的当前化妆进度。
通过上述任一方式确定出当前化妆进度后,服务器发送该当前化妆进度给用户的终端。用户的终端接收到当前化妆进度后,显示该当前化妆进度。当前化妆进度可以为比值或百分数。终端可以通过进度条的形式来显示当前化妆进度。
在用户化妆的过程中,通过本申请实施例提供的化妆进度检测方法,实时检测第一帧图像之后的每帧图像相对于第一帧图像的化妆进度,并将检测的化妆进度显示给用户,使用户能够直观地看到自己的化妆进度,提高化妆效率。
为了便于理解本申请实施例提供的方法,下面结合附图进行说明。如图5所示,根据初始帧图像及其对应的第一人脸关键点,以及当前帧图像及其对应的第二人脸关键点,分别对初始帧图像和当前帧图像中的人脸进行对齐和裁剪,然后通过拉普拉斯算法对裁剪出的两个人脸区域图像进行平滑和去噪。然后将美妆掩码图分别与两个人脸区域图像进行对齐,根据美妆掩码图分别从两个人脸区域图像中扣取出第一目标区域图像和第二目标区域图像。对第一目标区域图像和第二目标区域图像进行边界腐蚀处理。然后将第一目标区域图像和第二目标区域图像转换为HSV颜色空间下包含预设单通道分量的图像。再次对第一目标区域图像和第二目标区域图像进行对齐处理,之后依据二者计算当前化妆进度。
在本申请实施例中,利用人脸关键点,对视频帧中用户的人脸区域进行矫正和裁剪,提高了识别人脸区域的准确性。基于人脸关键点从人脸区域图像中确定出上妆区域,并对初始帧图像和当前帧图像中的上妆区域进行像素对齐,提高了上妆区域识别的准确性。对初始帧图像和当前帧图像中的上妆区域对齐,减少因上妆区域的位置差别引入的误差。在对抠取上妆区域时可以将不连贯的上妆区域分开计算,增加获取上妆区域的准确率。还将美妆掩码图中的上妆区域与人脸区域图像中的上妆区域对齐,保证了抠取的上妆区域都在人脸区域图像中,不会超出面部边界。且本申请没有采用深度学习的方式,无需预先收集大量数据,本申请通过对用户化妆的实时画面的捕获,经过服务器端的计算,将检测结果返回给用户。相比深度学习的模型推理方案,本申请在算法处理环节耗费更少的计算成本,减少了服务器的处理压力。
本申请实施例还提供一种化妆进度检测装置,该用于执行上述任一实施例提供的化妆进度检测方法。如图6所示,该装置包括:
获取模块201,用于获取至少一个上妆区域,以及获取用户化妆视频的初始帧图像和当前帧图像;
生成模块202,用于根据上妆区域,生成美妆掩码图;
进度确定模块203,用于根据美妆掩码图、初始帧图像和当前帧图像,确定当前帧图像对应的当前化妆进度。
生成模块202,用于根据每个上妆区域的位置和形状,在预设空白人脸图像中绘制每个上妆区域的轮廓;在绘制的每个轮廓内进行像素填充,得到美妆掩码图。
进度确定模块203,用于以美妆掩码图为参照,从初始帧图像中获取上妆的第一目标区域图像,以及从当前帧图像中获取上妆的第二目标区域图像;根据第一目标区域图像和第二目标区域图像,确定当前帧图像对应的当前化妆进度。
进度确定模块203,用于检测初始帧图像对应的第一人脸关键点;根据第一人脸关键点,获取初始帧图像对应的人脸区域图像;以美妆掩码图为参照,从人脸区域图像中获取上妆的第一目标区域图像。
进度确定模块203,用于分别将美妆掩码图和人脸区域图像转换为二值化图像;对美妆掩码图对应的二值化图像和人脸区域图像对应的二值化图像进行与运算,获得美妆掩码图与人脸区域图像的相交区域对应的第一掩膜图像;对第一掩膜图像与初始帧图像对应的人脸区域图像进行与运算,获得初始帧图像对应的第一目标区域图像。
进度确定模块203,用于根据美妆掩码图对应的标准人脸关键点,确定美妆掩码图中位于每个上妆区域的轮廓上的一个或多个第一定位点;根据第一人脸关键点,从初始帧图像中确定出与每个第一定位点对应的第二定位点;对美妆掩码图进行拉伸处理,将每个第一定位点拉伸至对应的每个第二定位点对应的位置处。
进度确定模块203,用于将美妆掩码图拆分为多个子掩码图,每个子掩码图中包括至少一个上妆区域;分别将每个子掩码图及人脸区域图像转换为二值化图像;分别对每个子掩码图对应的二值化图像与人脸区域图像对应的二值化图像进行与运算,获得每个子掩码图各自对应的子掩膜图像;分别对每个子掩膜图像与初始帧图像进行与运算,获得初始帧图像对应的多个子目标区域图像;将多个子目标区域图像合并为初始帧图像对应的第一目标区域图像。
进度确定模块203,用于根据美妆掩码图对应的标准人脸关键点,确定第一子掩码图中位于上妆区域的轮廓上的一个或多个第一定位点,第一子掩码图为多个子掩码图中的任一子掩码图;根据第一人脸关键点,从初始帧图像中确定出与每个第一定位点对应的第二定位点;对第一子掩码图进行拉伸处理,将每个第一定位点拉伸至对应的每个第二定位点对应的位置处。
进度确定模块203,用于分别将第一目标区域图像和第二目标区域图像转换为HSV颜色空间下包含预设单通道分量的图像;根据转换后的第一目标区域图像和第二目标区域图像,确定当前帧图像对应的当前化妆进度。
进度确定模块203,用于分别计算转换后的第一目标区域图像和第二目标区域图像中位置相同的像素点对应的预设单通道分量的差值绝对值;统计对应的差值绝对值满足预设化妆完成条件的像素点数目;计算统计的像素点数目与第一目标区域图像中所有上妆区域中的像素点总数目之间的比值,得到当前帧图像对应的当前化妆进度。
进度确定模块203,用于分别对第一目标区域图像和第二目标区域图像进行二值化处理,得到第一目标区域图像对应的第一二值化掩膜图像和第二目标区域图像对应的第二二值化掩膜图像;对第一二值化掩膜图像和第二二值化掩膜图像进行与运算,得到第一目标区域图像与第二目标区域图像的相交区域对应的第二掩膜图像;获取初始帧图像对应的人脸区域图像及当前帧图像对应的人脸区域图像;对第二掩膜图像和初始帧图像对应的人脸区域图像进行与运算,得到初始帧图像对应的新的第一目标区域图像;对第二掩膜图像和当前帧图像对应的人脸区域图像进行与运算,得到当前帧图像对应的新的第二目标区域图像。
图像腐蚀模块,用于分别对第一目标区域图像和第二目标区域图像中的上妆区域进行边界腐蚀处理。
进度确定模块203,用于根据第一人脸关键点,对初始帧图像及第一人脸关键点进行旋转矫正;根据矫正后的第一人脸关键点,从矫正后的初始帧图像中截取包含人脸区域的图像;将包含人脸区域的图像缩放至预设尺寸,得到初始帧图像对应的人脸区域图像。
进度确定模块203,用于根据第一人脸关键点包括的左眼关键点和右眼关键点,分别确定左眼中心坐标和右眼中心坐标;根据左眼中心坐标和右眼中心坐标,确定初始帧图像对应的旋转角度及旋转中心点坐标;根据旋转角度和旋转中心点坐标,对初始帧图像及第一人脸关键点进行旋转矫正。
进度确定模块203,用于从矫正后的第一人脸关键点中确定最小横坐标值、最小纵坐标值、最大横坐标值和最大纵坐标值;根据最小横坐标值、最小纵坐标值、最大横坐标值和最大纵坐标值,确定矫正后的初始帧图像中人脸区域对应的截取框;根据截取框,从矫正后的初始帧图像中截取出包含人脸区域的图像。
进度确定模块203,用于将截取框放大预设倍数;根据放大后的截取框,从矫正后的初始帧图像中截取出包含人脸区域的图像。
进度确定模块203,用于根据包含人脸区域的图像的尺寸及预设尺寸,对矫正后的第一人脸关键点进行缩放平移处理。
本申请的上述实施例提供的化妆进度检测装置与本申请实施例提供的化妆进度检测方法出于相同的发明构思,具有与其存储的应用程序所采用、运行或实现的方法相同的有益效果。
本申请实施方式还提供一种电子设备,以执行上述化妆进度检测方法。请参考图7,其示出了本申请的一些实施方式所提供的一种电子设备的示意图。如图7所示,电子设备8包括:处理器800,存储器801,总线802和通信接口803,所述处理器800、通信接口803和存储器801通过总线802连接;所述存储器801中存储有可在所述处理器800上运行的计算机程序,所述处理器800运行所述计算机程序时执行本申请前述任一实施方式所提供的化妆进度检测方法。
其中,存储器801可能包含高速随机存取存储器(RAM:Random Access Memory),也可能还包括非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。通过至少一个通信接口803(可以是有线或者无线)实现该装置网元与至少一个其他网元之间的通信连接,可以使用互联网、广域网、本地网、城域网等。
总线802可以是ISA总线、PCI总线或EISA总线等。所述总线可以分为地址总线、数据总线、控制总线等。其中,存储器801用于存储程序,所述处理器800在接收到执行指令后,执行所述程序,前述本申请实施例任一实施方式揭示的所述化妆进度检测方法可以应用于处理器800中,或者由处理器800实现。
处理器800可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器800中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器800可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(DSP)、专用集成电路(ASIC)、现成可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器801,处理器800读取存储器801中的信息,结合其硬件完成上述方法的步骤。
本申请实施例提供的电子设备与本申请实施例提供的化妆进度检测方法出于相同的发明构思,具有与其采用、运行或实现的方法相同的有益效果。
本申请实施方式还提供一种与前述实施方式所提供的化妆进度检测方法对应的计算机可读存储介质,请参考图8,其示出的计算机可读存储介质为光盘30,其上存储有计算机程序(即程序产品),所述计算机程序在被处理器运行时,会执行前述任意实施方式所提供的化妆进度检测方法。
需要说明的是,所述计算机可读存储介质的例子还可以包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他光学、磁性存储介质,在此不再一一赘述。
本申请的上述实施例提供的计算机可读存储介质与本申请实施例提供的化妆进度检测方法出于相同的发明构思,具有与其存储的应用程序所采用、运行或实现的方法相同的有益效果。
需要说明的是:
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本申请的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本申请并帮助理解各个发明方面中的一个或多个,在上面对本申请的示例性实施例的描述中,本申请的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下示意图:即所要求保护的本申请要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本申请的单独实施例。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本申请的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
以上所述,仅为本申请较佳的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (20)
1.一种化妆进度检测方法,其特征在于,包括:
获取至少一个上妆区域,以及获取用户化妆视频的初始帧图像和当前帧图像;
根据所述上妆区域,生成美妆掩码图;
根据所述美妆掩码图、所述初始帧图像和所述当前帧图像,确定所述当前帧图像对应的当前化妆进度;
其中,根据所述美妆掩码图、所述初始帧图像和所述当前帧图像,确定所述当前帧图像对应的当前化妆进度,包括:以所述美妆掩码图为参照,从所述初始帧图像中获取上妆的第一目标区域图像;所述第一目标区域图像用于确定所述当前化妆进度;
所述以所述美妆掩码图为参照,从所述初始帧图像中获取上妆的第一目标区域图像,包括:获得所述美妆掩码图与所述初始帧图像中人脸区域图像之间的相交区域对应的第一掩膜图像;对所述第一掩膜图像与所述初始帧图像中的人脸区域图像进行与运算,获得所述初始帧图像对应的第一目标区域图像。
2.根据权利要求1所述的方法,其特征在于,所述根据所述美妆掩码图、所述初始帧图像和所述当前帧图像,确定所述当前帧图像对应的当前化妆进度,包括:
以所述美妆掩码图为参照,从所述当前帧图像中获取上妆的第二目标区域图像;
根据所述第一目标区域图像和所述第二目标区域图像,确定所述当前帧图像对应的当前化妆进度。
3.根据权利要求2所述的方法,其特征在于,所述以所述美妆掩码图为参照,从所述初始帧图像中获取上妆的第一目标区域图像,包括:
检测所述初始帧图像对应的第一人脸关键点;
根据所述第一人脸关键点,获取所述初始帧图像对应的人脸区域图像;
以所述美妆掩码图为参照,从所述人脸区域图像中获取上妆的第一目标区域图像。
4.根据权利要求3所述的方法,其特征在于,所述以所述美妆掩码图为参照,从所述人脸区域图像中获取上妆的第一目标区域图像,包括:
分别将所述美妆掩码图和所述人脸区域图像转换为二值化图像;
对所述美妆掩码图对应的二值化图像和所述人脸区域图像对应的二值化图像进行与运算,获得所述美妆掩码图与所述人脸区域图像的相交区域对应的第一掩膜图像。
5.根据权利要求4所述的方法,其特征在于,所述对所述美妆掩码图对应的二值化图像和所述人脸区域图像对应的二值化图像进行与运算之前,还包括:
根据所述美妆掩码图对应的标准人脸关键点,确定所述美妆掩码图中位于每个上妆区域的轮廓上的一个或多个第一定位点;
根据所述第一人脸关键点,从所述人脸区域图像中确定出与每个所述第一定位点对应的第二定位点;
对所述美妆掩码图进行拉伸处理,将每个所述第一定位点拉伸至对应的每个所述第二定位点对应的位置处。
6.根据权利要求3所述的方法,其特征在于,所述以所述美妆掩码图为参照,从所述人脸区域图像中获取上妆的第一目标区域图像,包括:
将所述美妆掩码图拆分为多个子掩码图,每个所述子掩码图中包括至少一个上妆区域;
分别将每个所述子掩码图及所述人脸区域图像转换为二值化图像;
分别对每个所述子掩码图对应的二值化图像与所述人脸区域图像对应的二值化图像进行与运算,获得每个所述子掩码图各自对应的子掩膜图像;
分别对每个所述子掩膜图像与所述人脸区域图像进行与运算,获得所述初始帧图像对应的多个子目标区域图像;
将所述多个子目标区域图像合并为所述初始帧图像对应的第一目标区域图像。
7.根据权利要求6所述的方法,其特征在于,所述分别对每个所述子掩码图对应的二值化图像与所述人脸区域图像对应的二值化图像进行与运算之前,还包括:
根据所述美妆掩码图对应的标准人脸关键点,确定第一子掩码图中位于上妆区域的轮廓上的一个或多个第一定位点,所述第一子掩码图为所述多个子掩码图中的任一子掩码图;
根据所述第一人脸关键点,从所述人脸区域图像中确定出与每个所述第一定位点对应的第二定位点;
对所述第一子掩码图进行拉伸处理,将每个所述第一定位点拉伸至对应的每个所述第二定位点对应的位置处。
8.根据权利要求2所述的方法,其特征在于,所述根据所述第一目标区域图像和所述第二目标区域图像,确定所述当前帧图像对应的当前化妆进度,包括:
分别将所述第一目标区域图像和所述第二目标区域图像转换为HSV颜色空间下包含预设单通道分量的图像;
根据转换后的所述第一目标区域图像和所述第二目标区域图像,确定所述当前帧图像对应的当前化妆进度。
9.根据权利要求8所述的方法,其特征在于,所述根据转换后的所述第一目标区域图像和所述第二目标区域图像,确定所述当前帧图像对应的当前化妆进度,包括:
分别计算转换后的所述第一目标区域图像和所述第二目标区域图像中位置相同的像素点对应的所述预设单通道分量的差值绝对值;
统计对应的差值绝对值满足预设化妆完成条件的像素点数目;
计算统计的所述像素点数目与所述第一目标区域图像中所有上妆区域中的像素点总数目之间的比值,得到所述当前帧图像对应的当前化妆进度。
10.根据权利要求2-9任一项所述的方法,其特征在于,所述根据所述第一目标区域图像和所述第二目标区域图像,确定所述当前帧图像对应的当前化妆进度之前,还包括:
分别对所述第一目标区域图像和所述第二目标区域图像进行二值化处理,得到所述第一目标区域图像对应的第一二值化掩膜图像和所述第二目标区域图像对应的第二二值化掩膜图像;
对所述第一二值化掩膜图像和所述第二二值化掩膜图像进行与运算,得到所述第一目标区域图像与所述第二目标区域图像的相交区域对应的第二掩膜图像;
获取所述初始帧图像对应的人脸区域图像及所述当前帧图像对应的人脸区域图像;
对所述第二掩膜图像和所述初始帧图像对应的人脸区域图像进行与运算,得到所述初始帧图像对应的新第一目标区域图像;
对所述第二掩膜图像和所述当前帧图像对应的人脸区域图像进行与运算,得到所述当前帧图像对应的新第二目标区域图像。
11.根据权利要求2-9任一项所述的方法,其特征在于,所述根据所述第一目标区域图像和所述第二目标区域图像,确定所述当前帧图像对应的当前化妆进度之前,还包括:
分别对所述第一目标区域图像和所述第二目标区域图像中的上妆区域进行边界腐蚀处理。
12.根据权利要求3所述的方法,其特征在于,所述根据所述第一人脸关键点,获取所述初始帧图像对应的人脸区域图像,包括:
根据所述第一人脸关键点,对所述初始帧图像及所述第一人脸关键点进行旋转矫正;
根据矫正后的所述第一人脸关键点,从矫正后的所述初始帧图像中截取包含人脸区域的图像;
将所述包含人脸区域的图像缩放至预设尺寸,得到所述初始帧图像对应的人脸区域图像。
13.根据权利要求12所述的方法,其特征在于,所述方法还包括:
根据所述包含人脸区域的图像的尺寸及所述预设尺寸,对矫正后的所述第一人脸关键点进行缩放平移处理。
14.根据权利要求12所述的方法,其特征在于,所述根据所述第一人脸关键点,对所述初始帧图像及所述第一人脸关键点进行旋转矫正,包括:
根据所述第一人脸关键点包括的左眼关键点和右眼关键点,分别确定左眼中心坐标和右眼中心坐标;
根据所述左眼中心坐标和所述右眼中心坐标,确定所述初始帧图像对应的旋转角度及旋转中心点坐标;
根据所述旋转角度和所述旋转中心点坐标,对所述初始帧图像及所述第一人脸关键点进行旋转矫正。
15.根据权利要求12所述的方法,其特征在于,所述根据矫正后的所述第一人脸关键点,从矫正后的所述初始帧图像中截取包含人脸区域的图像,包括:
从矫正后的所述第一人脸关键点中确定最小横坐标值、最小纵坐标值、最大横坐标值和最大纵坐标值;
根据所述最小横坐标值、所述最小纵坐标值、所述最大横坐标值和所述最大纵坐标值,确定矫正后的所述初始帧图像中人脸区域对应的截取框;
根据所述截取框,从矫正后的所述初始帧图像中截取出包含所述人脸区域的图像。
16.根据权利要求15所述的方法,其特征在于,所述方法还包括:
将所述截取框放大预设倍数;
根据放大后的所述截取框,从矫正后的所述初始帧图像中截取出包含所述人脸区域的图像。
17.根据权利要求1所述的方法,其特征在于,所述根据所述上妆区域,生成美妆掩码图,包括:
根据每个所述上妆区域的位置和形状,在预设空白人脸图像中绘制每个所述上妆区域的轮廓;
在绘制的每个轮廓内进行像素填充,得到美妆掩码图。
18.一种化妆进度检测装置,其特征在于,包括:
获取模块,用于获取至少一个上妆区域,以及获取用户化妆视频的初始帧图像和当前帧图像;
生成模块,用于根据所述上妆区域,生成美妆掩码图;
进度确定模块,用于根据所述美妆掩码图、所述初始帧图像和所述当前帧图像,确定所述当前帧图像对应的当前化妆进度;
其中,根据所述美妆掩码图、所述初始帧图像和所述当前帧图像,确定所述当前帧图像对应的当前化妆进度,包括:以所述美妆掩码图为参照,从所述初始帧图像中获取上妆的第一目标区域图像;所述第一目标区域图像用于确定所述当前化妆进度;
所述以所述美妆掩码图为参照,从所述初始帧图像中获取上妆的第一目标区域图像,包括:获得所述美妆掩码图与所述初始帧图像中人脸区域图像之间的相交区域对应的第一掩膜图像;对所述第一掩膜图像与所述初始帧图像中的人脸区域图像进行与运算,获得所述初始帧图像对应的第一目标区域图像。
19.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器运行所述计算机程序以实现如权利要求1-17任一项所述的方法。
20.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行实现如权利要求1-17中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111017071.9A CN113837020B (zh) | 2021-08-31 | 2021-08-31 | 一种化妆进度检测方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111017071.9A CN113837020B (zh) | 2021-08-31 | 2021-08-31 | 一种化妆进度检测方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113837020A CN113837020A (zh) | 2021-12-24 |
CN113837020B true CN113837020B (zh) | 2024-02-02 |
Family
ID=78961696
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111017071.9A Active CN113837020B (zh) | 2021-08-31 | 2021-08-31 | 一种化妆进度检测方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113837020B (zh) |
Citations (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004272849A (ja) * | 2003-03-12 | 2004-09-30 | Pola Chem Ind Inc | 化粧効果の鑑別法 |
CN101556699A (zh) * | 2008-11-07 | 2009-10-14 | 浙江大学 | 一种基于脸型的人脸衰老图像合成方法 |
JP2011008397A (ja) * | 2009-06-24 | 2011-01-13 | Sony Ericsson Mobilecommunications Japan Inc | 美粧支援装置、美粧支援方法、美粧支援プログラム、及び携帯端末装置 |
CN104834800A (zh) * | 2015-06-03 | 2015-08-12 | 上海斐讯数据通信技术有限公司 | 一种美妆方法、***及设备 |
TWI573100B (zh) * | 2016-06-02 | 2017-03-01 | Zong Jing Investment Inc | 自動臉部化妝方法 |
CN107358207A (zh) * | 2017-07-14 | 2017-11-17 | 重庆大学 | 一种矫正人脸图像的方法 |
CN107545220A (zh) * | 2016-06-29 | 2018-01-05 | 中兴通讯股份有限公司 | 一种人脸识别方法及装置 |
CN108108677A (zh) * | 2017-12-12 | 2018-06-01 | 重庆邮电大学 | 一种基于改进的cnn人脸表情识别方法 |
CN108154121A (zh) * | 2017-12-25 | 2018-06-12 | 深圳市美丽控电子商务有限公司 | 基于智能镜的化妆辅助方法、智能镜及存储介质 |
CN108256432A (zh) * | 2017-12-20 | 2018-07-06 | 歌尔股份有限公司 | 一种指导化妆的方法及装置 |
CN108292423A (zh) * | 2015-12-25 | 2018-07-17 | 松下知识产权经营株式会社 | 局部妆容制作装置、局部妆容利用装置、局部妆容制作方法、局部妆容利用方法、局部妆容制作程序和局部妆容利用程序 |
CN108765268A (zh) * | 2018-05-28 | 2018-11-06 | 京东方科技集团股份有限公司 | 一种辅助化妆方法、装置及智能镜 |
CN109063671A (zh) * | 2018-08-20 | 2018-12-21 | 三星电子(中国)研发中心 | 用于智能化妆的方法及装置 |
CN109584180A (zh) * | 2018-11-30 | 2019-04-05 | 深圳市脸萌科技有限公司 | 人脸图像处理方法、装置、电子设备及计算机存储介质 |
CN110390632A (zh) * | 2019-07-22 | 2019-10-29 | 北京七鑫易维信息技术有限公司 | 基于妆容模板的图像处理方法、装置、存储介质及终端 |
CN110543875A (zh) * | 2019-09-25 | 2019-12-06 | 西安理工大学 | 一种辅助化妆装置 |
CN110663063A (zh) * | 2017-05-25 | 2020-01-07 | 华为技术有限公司 | 一种评价脸妆的方法及装置 |
CN111066060A (zh) * | 2017-07-13 | 2020-04-24 | 资生堂美洲公司 | 虚拟面部化妆去除和模拟、快速面部检测和地标跟踪 |
CN111291642A (zh) * | 2020-01-20 | 2020-06-16 | 深圳市商汤科技有限公司 | 一种妆容处理方法、装置、电子设备及存储介质 |
CN111369644A (zh) * | 2020-02-28 | 2020-07-03 | 北京旷视科技有限公司 | 人脸图像的试妆处理方法、装置、计算机设备和存储介质 |
CN111783511A (zh) * | 2019-10-31 | 2020-10-16 | 北京沃东天骏信息技术有限公司 | 美妆处理方法、装置、终端以及存储介质 |
CN112232175A (zh) * | 2020-10-13 | 2021-01-15 | 南京领行科技股份有限公司 | 一种操作对象状态识别方法及装置 |
CN112507766A (zh) * | 2019-09-16 | 2021-03-16 | 珠海格力电器股份有限公司 | 人脸图像提取方法、存储介质及终端设备 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160357578A1 (en) * | 2015-06-03 | 2016-12-08 | Samsung Electronics Co., Ltd. | Method and device for providing makeup mirror |
CN109508581A (zh) * | 2017-09-15 | 2019-03-22 | 丽宝大数据股份有限公司 | 身体信息分析装置及其腮红分析方法 |
-
2021
- 2021-08-31 CN CN202111017071.9A patent/CN113837020B/zh active Active
Patent Citations (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004272849A (ja) * | 2003-03-12 | 2004-09-30 | Pola Chem Ind Inc | 化粧効果の鑑別法 |
CN101556699A (zh) * | 2008-11-07 | 2009-10-14 | 浙江大学 | 一种基于脸型的人脸衰老图像合成方法 |
JP2011008397A (ja) * | 2009-06-24 | 2011-01-13 | Sony Ericsson Mobilecommunications Japan Inc | 美粧支援装置、美粧支援方法、美粧支援プログラム、及び携帯端末装置 |
CN104834800A (zh) * | 2015-06-03 | 2015-08-12 | 上海斐讯数据通信技术有限公司 | 一种美妆方法、***及设备 |
CN108292423A (zh) * | 2015-12-25 | 2018-07-17 | 松下知识产权经营株式会社 | 局部妆容制作装置、局部妆容利用装置、局部妆容制作方法、局部妆容利用方法、局部妆容制作程序和局部妆容利用程序 |
TWI573100B (zh) * | 2016-06-02 | 2017-03-01 | Zong Jing Investment Inc | 自動臉部化妝方法 |
CN107545220A (zh) * | 2016-06-29 | 2018-01-05 | 中兴通讯股份有限公司 | 一种人脸识别方法及装置 |
CN110663063A (zh) * | 2017-05-25 | 2020-01-07 | 华为技术有限公司 | 一种评价脸妆的方法及装置 |
CN111066060A (zh) * | 2017-07-13 | 2020-04-24 | 资生堂美洲公司 | 虚拟面部化妆去除和模拟、快速面部检测和地标跟踪 |
CN107358207A (zh) * | 2017-07-14 | 2017-11-17 | 重庆大学 | 一种矫正人脸图像的方法 |
CN108108677A (zh) * | 2017-12-12 | 2018-06-01 | 重庆邮电大学 | 一种基于改进的cnn人脸表情识别方法 |
CN108256432A (zh) * | 2017-12-20 | 2018-07-06 | 歌尔股份有限公司 | 一种指导化妆的方法及装置 |
CN108154121A (zh) * | 2017-12-25 | 2018-06-12 | 深圳市美丽控电子商务有限公司 | 基于智能镜的化妆辅助方法、智能镜及存储介质 |
CN108765268A (zh) * | 2018-05-28 | 2018-11-06 | 京东方科技集团股份有限公司 | 一种辅助化妆方法、装置及智能镜 |
CN109063671A (zh) * | 2018-08-20 | 2018-12-21 | 三星电子(中国)研发中心 | 用于智能化妆的方法及装置 |
CN109584180A (zh) * | 2018-11-30 | 2019-04-05 | 深圳市脸萌科技有限公司 | 人脸图像处理方法、装置、电子设备及计算机存储介质 |
CN110390632A (zh) * | 2019-07-22 | 2019-10-29 | 北京七鑫易维信息技术有限公司 | 基于妆容模板的图像处理方法、装置、存储介质及终端 |
CN112507766A (zh) * | 2019-09-16 | 2021-03-16 | 珠海格力电器股份有限公司 | 人脸图像提取方法、存储介质及终端设备 |
CN110543875A (zh) * | 2019-09-25 | 2019-12-06 | 西安理工大学 | 一种辅助化妆装置 |
CN111783511A (zh) * | 2019-10-31 | 2020-10-16 | 北京沃东天骏信息技术有限公司 | 美妆处理方法、装置、终端以及存储介质 |
CN111291642A (zh) * | 2020-01-20 | 2020-06-16 | 深圳市商汤科技有限公司 | 一种妆容处理方法、装置、电子设备及存储介质 |
CN111369644A (zh) * | 2020-02-28 | 2020-07-03 | 北京旷视科技有限公司 | 人脸图像的试妆处理方法、装置、计算机设备和存储介质 |
CN112232175A (zh) * | 2020-10-13 | 2021-01-15 | 南京领行科技股份有限公司 | 一种操作对象状态识别方法及装置 |
Non-Patent Citations (3)
Title |
---|
Facial Keypoints Detection;Shenghao Shi 等;《arXiv》;1-28 * |
刘家远 等.基于视频的虚拟试妆应用研究.《***仿真学报》.2018,第30卷(第11期),4195-4202. * |
基于视频的虚拟试妆应用研究;刘家远 等;《***仿真学报》;第30卷(第11期);4195-4202 * |
Also Published As
Publication number | Publication date |
---|---|
CN113837020A (zh) | 2021-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10783354B2 (en) | Facial image processing method and apparatus, and storage medium | |
CN109359575B (zh) | 人脸检测方法、业务处理方法、装置、终端及介质 | |
CN109952594B (zh) | 图像处理方法、装置、终端及存储介质 | |
KR20200043448A (ko) | 이미지 처리를 위한 방법 및 장치, 및 컴퓨터 판독 가능 저장 매체 | |
CN110852310B (zh) | 三维人脸识别方法、装置、终端设备及计算机可读介质 | |
CN106326823B (zh) | 一种获取图片中头像的方法和*** | |
CN112487922B (zh) | 一种多模态人脸活体检测方法及*** | |
CN108416291B (zh) | 人脸检测识别方法、装置和*** | |
CN111008935B (zh) | 一种人脸图像增强方法、装置、***及存储介质 | |
CN112214773B (zh) | 基于隐私保护的图像处理方法、装置和电子设备 | |
CN111814564A (zh) | 基于多光谱图像的活体检测方法、装置、设备和存储介质 | |
US11315360B2 (en) | Live facial recognition system and method | |
CN112396050B (zh) | 图像的处理方法、设备以及存储介质 | |
WO2022261828A1 (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
WO2017173578A1 (zh) | 一种图像增强方法及装置 | |
CN109919128B (zh) | 控制指令的获取方法、装置及电子设备 | |
CN113837019B (zh) | 一种化妆进度检测方法、装置、设备及存储介质 | |
CN115690130B (zh) | 一种图像处理方法和装置 | |
CN115731591A (zh) | 一种化妆进度检测方法、装置、设备及存储介质 | |
CN113837020B (zh) | 一种化妆进度检测方法、装置、设备及存储介质 | |
CN113837018B (zh) | 一种化妆进度检测方法、装置、设备及存储介质 | |
CN115222621A (zh) | 图像校正方法、电子设备、存储介质及计算机程序产品 | |
CN113837017B (zh) | 一种化妆进度检测方法、装置、设备及存储介质 | |
JP3578321B2 (ja) | 画像正規化装置 | |
CN113421197B (zh) | 一种美颜图像的处理方法及其处理*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |