CN110929588A - 脸部特征点定位方法及电子设备 - Google Patents

脸部特征点定位方法及电子设备 Download PDF

Info

Publication number
CN110929588A
CN110929588A CN201911046693.7A CN201911046693A CN110929588A CN 110929588 A CN110929588 A CN 110929588A CN 201911046693 A CN201911046693 A CN 201911046693A CN 110929588 A CN110929588 A CN 110929588A
Authority
CN
China
Prior art keywords
face
target
image
facial
training sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911046693.7A
Other languages
English (en)
Inventor
谢晋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vivo Mobile Communication Co Ltd
Original Assignee
Vivo Mobile Communication Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vivo Mobile Communication Co Ltd filed Critical Vivo Mobile Communication Co Ltd
Priority to CN201911046693.7A priority Critical patent/CN110929588A/zh
Publication of CN110929588A publication Critical patent/CN110929588A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例公开了一种脸部特征点定位方法及电子设备。其中,脸部特征点定位方法包括:获取目标图像序列,其中,目标图像序列包括具有连续的脸部动作的多个脸部图像;根据多个脸部图像中的目标脸部图像在目标图像序列中的图像序列位置,确定目标图像序列中位于图像序列位置之前的目标脸部参考图像;根据目标脸部参考图像,确定目标初始脸部特征形状;将目标脸部图像及目标初始脸部特征形状输入脸部识别模型,得到目标脸部图像的脸部特征点。利用本发明实施例能够解决检测脸部特征点的过程中所显示的特征点存在抖动现象,以及脸部识别模型所占用的内存资源较大的问题。

Description

脸部特征点定位方法及电子设备
技术领域
本发明实施例涉及图像处理技术领域,尤其涉及一种脸部特征点定位方法及电子设备。
背景技术
在利用电子设备对脸部图像进行图像处理时,一般首先利用脸部识别模型检测脸部图像中的脸部特征点,然后基于所检测到的脸部特征点进行图像处理。
但是,现有的脸部特征点检测方法,在检测视频的每一帧图像中的脸部特征点的过程中,所显示的特征点会存在抖动现象,并且,用于检测脸部特征点的脸部识别模型所占用的内存资源较大。
发明内容
本发明实施例提供一种脸部特征点定位方法及电子设备,以解决检测脸部特征点的过程中所显示的特征点存在抖动现象,以及脸部识别模型所占用的内存资源较大的问题。
为了解决上述技术问题,本发明是这样实现的:
第一方面,本发明实施例提供了一种脸部特征点定位方法,应用于电子设备,方法包括:
获取目标图像序列,其中,目标图像序列包括具有连续的脸部动作的多个脸部图像;
根据多个脸部图像中的目标脸部图像在目标图像序列中的图像序列位置,确定目标图像序列中位于图像序列位置之前的目标脸部参考图像;
根据目标脸部参考图像,确定目标初始脸部特征形状;
将目标脸部图像及目标初始脸部特征形状输入脸部识别模型,得到目标脸部图像的脸部特征点。
第二方面,本发明实施例提供了一种电子设备,包括:
图像序列获取模块,用于获取目标图像序列,其中,目标图像序列包括具有连续的脸部动作的多个脸部图像;
参考图像确定模块,用于根据多个脸部图像中的目标脸部图像在目标图像序列中的图像序列位置,确定目标图像序列中位于图像序列位置之前的目标脸部参考图像;
初始形状确定模块,用于根据目标脸部参考图像,确定目标初始脸部特征形状;
识别模型处理模块,用于将目标脸部图像及目标初始脸部特征形状输入脸部识别模型,得到目标脸部图像的脸部特征点。
第三方面,本发明实施例提供了一种电子设备,包括处理器、存储器及存储在存储器上并可在处理器上运行的计算机程序,计算机程序被处理器执行时实现如第一方面所述的脸部特征点定位方法的步骤。
第四方面,本发明实施例提供了一种计算机可读存储介质,计算机可读存储介质上存储计算机程序,计算机程序被处理器执行时实现如第一方面所述的脸部特征点定位方法的步骤。
在本发明实施例中,能够在获取目标图像序列后,首先根据多个脸部图像中的目标脸部图像在目标图像序列中的图像序列位置,确定目标脸部图像对应的目标脸部参考图像,然后基于目标脸部参考图像,确定目标脸部图像对应的目标初始脸部特征形状,最后将目标脸部图像及目标初始脸部特征形状输入脸部识别模型,得到目标脸部图像的脸部特征点,以实现利用仅具有一组模型参数的脸部识别模型,对目标图像序列中的各个目标脸部图像进行高精度的脸部特征点定位,解决在检测脸部特征点的过程中,所显示的特征点存在抖动现象的问题。另外,由于脸部识别模型仅具有一组模型参数,使得模型参数的数量较少,脸部识别模型所占用的内容资源较少,可以降低电子设备检测脸部特征点的计算量和功耗,提高电子设备的续航时间。
附图说明
从下面结合附图对本发明的具体实施方式的描述中可以更好地理解本发明其中,相同或相似的附图标记表示相同或相似的特征。
图1为本发明一个实施例提供的脸部特征点定位方法的流程示意图;
图2为本发明另一个实施例提供的脸部特征点定位方法的流程示意图;
图3为本发明一个实施例提供的电子设备的结构示意图;
图4为实现本发明各个实施例的一种电子设备的硬件结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
现有的脸部特征点检测方法所使用的脸部识别模型包括:基于深度神经网络训练得到的脸部识别模型和基于传统机器学习方法训练得到的脸部识别模型。
其中,虽然基于深度神经网络训练得到的脸部识别模型的检测精确度较高,但是,深度神经网络所占用的内部资源较大,使得检测脸部特征点的耗电量较大,会减少电子设备电池的续航时间,并且,深度神经网络的计算过程比较复杂,使得检测脸部特征点的速度较慢,无法达到实时检测,因此,基于深度神经网络训练得到的脸部识别模型难以满足现实应用需求。
现有的基于传统机器学习方法训练得到的脸部识别模型分为两类,一类为多初始形状形式,另一类为单初始形状形式。
一般情况下,多初始形状形式中的每个初始形状均需要对应一个子模型,使得需要存储的模型参数较多,导致脸部识别模型所占用的内部资源较大,并且,不同的子模型之间进行切换时,被检测的脸部图像上所显示的脸部特征点会存在明显的抖动现象。而单初始形状形式的精度较低,导致所检测到的脸部特征点的准确性较差。因此,现有的基于传统机器学习方法训练得到的脸部识别模型也不能满足现实应用需求。
为了解决现有技术中存在的问题,本发明实施例提供了一种脸部特征点定位方法、电子设备及介质。下面,首先对脸部特征点定位方法进行详细说明。
图1示出了本发明一个实施例提供的脸部特征点定位方法的流程示意图。如图1所示,该脸部特征点定位方法可以包括:
S110、获取目标图像序列,其中,目标图像序列包括具有连续的脸部动作的多个脸部图像;
S120、根据多个脸部图像中的目标脸部图像在目标图像序列中的图像序列位置,确定目标图像序列中位于图像序列位置之前的目标脸部参考图像;
S130、根据目标脸部参考图像,确定目标初始脸部特征形状;
S140、将目标脸部图像及目标初始脸部特征形状输入脸部识别模型,得到目标脸部图像的脸部特征点。
本发明实施例所述的脸部特征点定位方法可以应用于电子设备。在一些实施例中,电子设备可包括但不限于手机、平板电脑、笔记本电脑、掌上电脑、车载终端、可穿戴设备、以及计步器等。在另一些实施例中,电子设备还可以包括服务器。
本发明实施例所述的脸部特征点定位方法可以应用于人、动物等的脸部特征点定位。
在本发明实施例中,能够在获取目标图像序列后,首先根据多个脸部图像中的目标脸部图像在目标图像序列中的图像序列位置,确定目标脸部图像对应的目标脸部参考图像,然后基于目标脸部参考图像,确定目标脸部图像对应的目标初始脸部特征形状,最后将目标脸部图像及目标初始脸部特征形状输入脸部识别模型,得到目标脸部图像的脸部特征点,以实现利用仅具有一组模型参数的脸部识别模型,对目标图像序列中的各个目标脸部图像进行高精度的脸部特征点定位,解决在检测脸部特征点的过程中,所显示的特征点存在抖动现象的问题。另外,由于脸部识别模型仅具有一组模型参数,使得模型参数的数量较少,脸部识别模型所占用的内容资源较少,可以降低电子设备检测脸部特征点的计算量和功耗,提高电子设备的续航时间。
下面,以脸部特征点定位方法应用于对人脸的人脸特征点定位为例进行详细说明。
在本发明一些实施例的步骤S110中,目标图像序列可以为从带有目标人脸的视频中提取的时间连续的多帧图像形成的图像序列,此时,目标图像序列所包含的多个目标脸部图像均具有目标人脸,并且在图像序列的顺序与时间顺序相同的情况下,目标人脸的脸部动作为连续动作。其中,连续动作指的是人脸角度和/或人脸表情动作连续。
在本发明一些实施例中,步骤S120可以具体包括:
在图像序列位置大于1的情况下,将目标图像序列中与图像序列位置前相邻的脸部图像,确定为目标脸部参考图像。
其中,前相邻的脸部图像指的是目标图像序列中在图像序列位置之前的一个位置对应的脸部图像。以目标脸部图像为目标图像序列中的第三个脸部图像为例,可以将目标图像序列中的第二个脸部图像,确定为目标脸部图像对应的目标脸部参考图像。
在这些实施例中,可选的,步骤S130可以具体包括:
将目标脸部参考图像的脸部特征点,作为目标初始脸部特征形状。
其中,脸部特征点可以包括脸部轮廓特征点和/或五官特征点。
在本发明实施例中,将目标图像序列中与目标脸部图像前相邻的脸部图像的脸部特征点作为该目标脸部图像对应的目标初始脸部特征形状,充分的采用了时域信息,使目标初始脸部特征形状与最终需要得到的脸部特征点之间差异更小,可以降低脸部识别模型的回归难度,对目标图像序列所包含的多个目标脸部图像都能获得更好的检测效果,同时在使脸部识别模型达到相同检测精度的情况下,可以降低脸部识别模型的迭代次数,提升脸部识别模型的性能。
在本发明另一些实施例中,步骤S120还可以具体包括:
在图像序列位置大于2的情况下,将目标图像序列中与图像序列位置前相邻的预定数量的脸部图像,确定为目标脸部参考图像。
其中,前相邻的预定数量的脸部图像指的是目标图像序列中在图像序列位置之前的预定数量的位置对应的脸部图像。以目标脸部图像为目标图像序列中的第六个脸部图像、前相邻的预定数量为前相邻的5个为例,可以将目标图像序列中的第一个脸部图像至第五个脸部图像,确定为目标脸部图像对应的目标脸部参考图像。
在这些实施例中,可选的,步骤S130还可以具体包括:
将目标脸部参考图像中的与图像序列位置相邻的目标脸部参考图像作为第一参考图像,并将目标脸部参考图像中其他目标脸部参考图像作为第二参考图像;
确定每个第二参考图像相对于第一参考图像的脸部动作变化量;
选取脸部动作变化量最小的第二参考图像的脸部特征点,作为目标初始脸部特征形状。
在本发明实施例中,脸部动作变化量可以表征人脸角度和/或人脸表情动作的变化快慢,因此,可以根据脸部动作变化量动态选取目标脸部参考图像相对应的目标初始脸部特征形状,充分的利用目标脸部图像在目标图像序列中的图像序列位置,即目标脸部图像对应的时间信息,使得选取的目标脸部参考图像能够更好地表征目标脸部图像的脸部特征,降低脸部识别模识别脸部特征点的识别难度。
继续以目标脸部图像为目标图像序列中的第六个脸部图像、前相邻的预定数量为前相邻的5个为例,可以将目标图像序列中的第一个脸部图像至第四个脸部图像作为第二参考图像,将目标图像序列中的第五个脸部图像作为第一参考图像,然后分别计算第一个脸部图像至第四个脸部图像中的每个脸部图像相对于第五个脸部图像的脸部动作变化量。以第一个脸部图像至第三个脸部图像中的脸部动作缓慢变化,第四个脸部图像至第五个脸部图像中的脸部动作猛然发生变化,并在第五个脸部图像时变化为与第二个脸部图像中的脸部动作相似的动作为例,第二个脸部图像相对于第五个脸部图像的脸部动作变化量最小,从而可以将第二个脸部图像作为第六个脸部图像对应的目标初始脸部特征形状。
在这些实施例中,可选的,确定每个第二参考图像相对于第一参考图像的脸部动作变化量的具体方法可以包括:
确定第一参考图像的脸部特征点在第一参考图像对应的归一化脸部图像中的第一归一化坐标,以及每个第二参考图像的脸部特征点在该第二参考图像的归一化脸部图像中的第二归一化坐标;
计算每个第二参考图像对应的第二归一化坐标与第一归一化坐标之间的欧氏距离,作为该第二参考图像相对于第一参考图像的脸部动作变化量。
在确定第一归一化坐标和第二归一化坐标之前,首先对第一参考图像和第二参考图像分别进行归一化处理,得到每个参考图像对应的归一化脸部图像。
需要说明的是,对每个参考图像进行归一化处理的方法相同,下面以确定第一参考图像对应的归一化脸部图像为例,进行详细说明。
首先,利用脸部检测器对第一参考图像中的脸部区域进行脸部检测,得到脸框信息;其中,脸框信息包括脸框定位点坐标、脸框分辨率以及脸部平面内旋转角度。其中,脸框定位点坐标可以为脸框左上角点坐标,脸框分辨率可以包括脸框宽度信息和脸框高度信息。
然后,根据脸框信息,提取脸部图像中的脸部区域图像。
当得到脸部区域图像后,可以根据预定规则对脸部区域图像进行归一化处理,得到脸部区域图像所属的参考图像对应的归一化脸部图像。其中,预定规则为将脸部平面内旋转角度旋转为零,即使脸部区域图像中的双眼连线基本处于水平状态,以及脸部区域图像的分辨率缩放至预定尺寸,从而保证不同的脸部区域图像的分辨率相同、脸部平面内旋转角度相同。
在本发明实施例中,脸部特征点可以包括脸部轮廓特征点和/或五官特征点。
若脸部特征标定点包括脸部轮廓特征点和五官特征点,以计算一个第二参考图像对应的第二归一化坐标与第一归一化坐标之间的欧氏距离为例,首先需要确定第一参考图像的脸部特征点在第一参考图像对应的归一化脸部图像中的第一归一化坐标以及第二参考图像的脸部特征点在第二参考图像的归一化脸部图像中的第二归一化坐标,然后,利用第二归一化坐标与第一归一化坐标,计算出两个参考图像内的全部脸部轮廓特征点和五官特征点之间的欧氏距离。
在本发明又一些实施例中,步骤S120还可以具体包括:
在图像序列位置等于1的情况下,根据目标脸部图像的脸部角度,在多个预设脸部角度范围中确定目标脸部图像所属的目标脸部角度范围。
在这些实施例中,可选的,步骤S130可以具体包括:
将目标脸部角度范围对应的初始脸部特征形状,作为目标脸部图像对应的目标初始脸部特征形状。
其中,预设脸部角度范围可以包括脸部上下翻转角度范围和/或脸部左右翻转角度范围。
在一些实施例中,预设脸部角度范围可以仅包括脸部上下翻转角度范围,此时,仅针对目标脸部图像的脸部上下翻转角度进行分类,得到目标脸部图像所属的预设脸部角度范围。在另一些实施例中,预设脸部角度范围可以仅包括脸部左右翻转角度范围,此时,仅针对目标脸部图像的脸部左右翻转角度进行分类,得到目标脸部图像所属的预设脸部角度范围。在又一些实施例中,预设脸部角度范围可以同时包括脸部上下翻转角度范围和脸部左右翻转角度范围,此时,可以同时利用脸部上下翻转角度和脸部左右翻转角度对目标脸部图像进行分类,得到目标脸部图像所属的预设脸部角度范围。例如,先利用脸部左右翻转角度对目标脸部图像进行分类,得到目标脸部图像所属的脸部左右翻转角度范围分类,然后再利用脸部上下翻转角度对目标脸部图像再次分类,得到目标脸部图像在所属的脸部左右翻转角度范围分类下,所属的脸部上下翻转角度范围,从而最终确定目标脸部图像所属的预设脸部角度范围。
以预设脸部角度范围仅包括脸部左右翻转角度范围为例,可以将脸部左右翻转角度定义为yaw角度,同时将脸部向左侧时yaw角度定义为小于零,最小为-90°,脸部向右侧时yaw角度定义为大于零,最大为90°。
在本发明一些实施例中,至少两个预设脸部角度范围之间存在交集。例如,每两个相邻的预设脸部角度范围之间存在交集,即具有重合角度范围。
由此,在所检测的目标脸部图像的脸部角度不精确或者处于两个预设脸部角度范围的边界时,可以提高所使用的初始脸部特征形状的鲁棒性,从而提高检测结果的准确性。
在本发明一些实施例中,根据目标脸部角度范围确定该目标脸部图像对应的目标初始脸部特征形状的具体方法可以包括:
获取目标脸部角度范围对应的预先设定的初始脸部特征形状,作为该目标脸部图像对应的目标初始脸部特征形状。
其中,预先设定的方法可以为人工设定,也可以为根据目标脸部角度范围对应的训练样本确定。具体地,根据训练样本确定的方法将在下文详细描述。
在本发明一些实施例中,在步骤S120之前,还可以包括利用训练样本集训练脸部识别模型的模型训练步骤。在本发明另一些实施例中,该模型训练步骤还可以在步骤S110之前进行。
图2示出了本发明另一个实施例提供的脸部特征点定位方法的流程示意图。如图2所示,该脸部特征点定位方法包括:
S210、获取训练样本集,其中,训练样本集包括至少一组训练样本序列,每组训练样本序列内所有的训练样本具有连续的脸部动作;
S220、根据每个训练样本在所属的训练样本序列中的样本序列位置,确定与该训练样本相对应的初始脸部特征形状;
S230、根据每个训练样本及与该训练样本相对应的初始脸部特征形状之间的映射关系,得到脸部识别模型;
S240、获取目标图像序列,其中,目标图像序列包括具有连续的脸部动作的多个脸部图像;
S250、根据多个脸部图像中的目标脸部图像在目标图像序列中的图像序列位置,确定目标图像序列中位于图像序列位置之前的目标脸部参考图像;
S260、根据目标脸部参考图像,确定目标初始脸部特征形状;
S270、将目标脸部图像及目标初始脸部特征形状输入脸部识别模型,得到目标脸部图像的脸部特征点。
在本发明一些实施例的步骤S210中,一组训练样本序列也可以为视频中提取的时间连续的多个训练样本形成的序列,此时,每组训练样本序列内所有的训练样本均具有相同的人脸,并且在训练样本序列的顺序与时间顺序相同的情况下,人脸的脸部动作为连续动作。其中,连续动作指的是人脸角度和/或人脸表情动作连续。
在本发明一些实施例中,步骤S220可以具体包括:
在样本序列位置小于或等于2的情况下,在多个训练样本中,确定与该训练样本属于相同的预设脸部角度范围的第一目标样本;
对第一目标样本进行归一化处理,得到归一化训练样本;
确定归一化训练样本的平均脸部特征形状,作为与该训练样本相对应的初始脸部特征形状,并将其作为该训练样本所属的预设脸部角度范围对应的初始脸部特征形状。
在本发明实施例中,在多个训练样本中确定与该训练样本属于相同的预设脸部角度范围的第一目标样本具体可以包括:
根据该训练样本的脸部角度,在多个预设脸部角度范围中确定该训练样本所属的预设脸部角度范围;
在多个训练样本中,获取属于所确定的预设脸部角度范围的第一目标样本。
其中,确定训练样本所属的预设脸部角度范围与上述的确定目标脸部图像所属的目标脸部角度范围的方法相似,在此不再赘述。
在本发明实施例中,第一目标样本可以包括脸部图像和脸部图像中的脸部特征标定点。
在本发明实施例中,对第一目标样本进行归一化处理得到归一化训练样本的具体方法可以包括:
首先,利用脸部检测器对第一目标样本中的脸部区域进行脸部检测,得到脸框信息;其中,脸框信息包括脸框定位点坐标、脸框分辨率以及脸部平面内旋转角度。其中,脸框定位点坐标可以为脸框左上角点坐标,脸框分辨率可以包括脸框宽度信息和脸框高度信息。
然后,根据脸框信息,提取脸部图像中的脸部区域图像。
当得到脸部区域图像后,可以根据预定规则对脸部区域图像进行归一化处理,得到脸部区域图像所属的第一目标样本对应的归一化脸部图像。其中,预定规则为将脸部平面内旋转角度旋转为零,即使脸部区域图像中的双眼连线基本处于水平状态,以及脸部区域图像的分辨率缩放至预定尺寸,从而保证不同的脸部区域图像的分辨率相同、脸部平面内旋转角度相同。
由此,可以在不同尺寸的脸部图像中的不同位置提取标记有脸部特征标定点的脸部区域图像,并将脸部区域图像归一化为相同的脸部平面内旋转角度以及相同的分辨率,然后将归一化脸部图像及归一化脸部图像中的脸部特征标定点,作为第一目标样本对应的归一化训练样本,从而使所确定的平均脸部特征形状的准确性更好,以保证所训练的脸部特征点模型的检测准确性。
在本发明实施例中,确定归一化训练样本的平均脸部特征形状,作为与该训练样本相对应的初始脸部特征形状的具体方法可以包括:
针对每一个归一化训练样本,确定归一化脸部图像中的脸部特征标定点对应的第一归一化坐标;
根据第一归一化坐标,计算归一化训练样本对应的平均归一化坐标,作为与该训练样本相对应的初始脸部特征形状。
以脸部特征标定点包括脸部轮廓特征点和五官特征点为例,需要提取出脸部轮廓特征点和五官特征点中每个特征点在归一化脸部图像中的第一归一化坐标,然后计算出脸部轮廓特征点和五官特征点中每个特征点的平均归一化坐标,作为与该训练样本相对应的初始脸部特征形状。
在本发明另一些实施例中,步骤S220还可以具体包括:
在样本序列位置大于2的情况下,在该训练样本所属的训练样本序列中,确定与该训练样本前相邻的预定数量的第二目标样本;
根据所述第二目标样本对应的脸部特征形状,确定与该训练样本相对应的初始脸部特征形状。
在本发明一些实施例中,为了降低数据处理量,预定数量可以设为5个。当样本序列位置小于或等于6时,取该训练样本前的全部训练样本作为第二目标样本;当样本序列位置大于6时,取该训练样本的前相邻的5个训练样本作为第二目标样本。
在本发明一些实施例中,根据第二目标样本对应的脸部特征形状确定与该训练样本相对应的初始脸部特征形状的具体方法可以包括:
将第二目标样本中的与该训练样本前相邻的第二目标样本作为参考样本,并将第二目标样本中的参考样本外的第二目标样本作为备选样本;
分别对备选样本和参考样本进行归一化处理,得到归一化备选样本和归一化参考样本;
确定每个归一化备选样本与归一化参考样本的脸部动作变化量以及每个归一化备选样本对应的脸部特征形状;
将脸部动作变化量最小的归一化备选样本对应的脸部特征形状,确定为与该训练样本相对应的初始脸部特征形状。
以该训练样本为训练样本序列中的第7个样本,即该训练样本在所属的训练样本序列中的样本序列位置为7为例,可以取该训练样本序列中的样本序列位置为2-6的5个训练样本,并将样本序列位置为6的训练样本作为参考样本,将样本序列位置为2-5的训练样本作为备选样本。
在本发明实施例中,备选样本和参考样本分别包括脸部图像和脸部图像中的脸部特征标定点,对备选样本和参考样本进行归一化处理的方法与上述的对第一目标样本进行归一化处理相似,在此不做赘述。
其中,归一化后所得到的归一化备选样本和归一化参考样本分别包括归一化脸部图像和归一化脸部图像中的脸部特征标定点。
在本发明实施例中,确定每个归一化备选样本与归一化参考样本的脸部动作变化量的具体方法可以包括:
针对每一个归一化备选样本,确定归一化脸部图像中的脸部特征标定点对应的归一化备选坐标;
针对归一化参考样本,确定归一化脸部图像中的脸部特征标定点对应的归一参考化坐标;
计算每个归一化备选样本对应的归一化备选坐标与归一参考化坐标之间的欧氏距离,作为该归一化备选样本与归一化参考样本的脸部动作变化量。
若脸部特征标定点包括脸部轮廓特征点和五官特征点,以样本序列位置为5的训练样本对应的归一化备选样本和样本序列位置为6的训练样本对应的归一化参考样本为例,首先需要提取出脸部轮廓特征点和五官特征点中每个特征点的归一化备选坐标和归一参考化坐标,然后利用归一化备选坐标和归一参考化坐标,计算出归一化备选样本与归一化参考样本中全部的脸部轮廓特征点和五官特征点之间的欧氏距离,作为该归一化备选样本与归一化参考样本的脸部动作变化量。
在本发明实施例中,确定每个归一化备选样本对应的脸部特征形状的具体方法可以包括:
将每个归一化备选样本的归一化脸部图像中的脸部特征标定点,作为该归一化备选样本对应的脸部特征形状。
在本发明实施例中,脸部动作变化量可以表征人脸角度和/或人脸表情动作的变化快慢,因此,可以根据脸部动作变化量动态选取训练样本相对应的初始脸部特征形状,充分的利用训练样本在所属的训练样本序列中的样本序列位置,即训练样本对应的时间信息,能够更好地表征训练样本的脸部特征,降低人脸识别模型的训练难度,有利于人脸识别模型的学习训练。
在本发明实施例的步骤S230中,可以学习每个训练样本及与该训练样本相对应的初始脸部特征形状之间的映射关系,并根据所学到的映射关系确定机器学习模型的模型参数,从而得到脸部识别模型。
具体地,每个训练样本都会从其初始脸部特征形状开始进行迭代,每次迭代都会向该训练样本的脸部特征标定点移动一小步,这个过程也就是训练机器学习模型的过程。由于初始脸部特征形状能够很好地表征对应的训练样本中的样本特征,因此,可以学习从初始脸部特征形状到脸部特征标定点的过程中的映射关系及规律,从而有利于机器学习模型更好的学习,使得训练得到的脸部识别模型用于实际场景时具有更好的定位效果。
在本发明实施例中,可以根据映射关系确定机器学习模型的一组适用于连续脸部动作下的不同初始脸部特征形状的模型参数,从而得到一个能够针对具有连续脸部动作的多个脸部图像进行高精度脸部特征点定位的脸部识别模型。由于脸部识别模型所使用的不同初始脸部特征形状共用同一套模型参数,使得脸部识别模型回归得到的具有连续脸部动作的多个脸部图像的脸部特征点会更加稳定,能够尽可能的避免检测脸部特征点时所显示的脸部特征点存在抖动现象的问题。
需要说明的是,本发明实施例中的步骤S240-S270与图1所示实施例中的步骤S110-S140相似,在此不做赘述。
图3示出了本发明一个实施例提供的电子设备的结构示意图。如图3所示,该电子设备300包括:
图像序列获取模块310,用于获取目标图像序列,其中,目标图像序列包括具有连续的脸部动作的多个脸部图像;
参考图像确定模块320,用于根据多个脸部图像中的目标脸部图像在目标图像序列中的图像序列位置,确定目标图像序列中位于图像序列位置之前的目标脸部参考图像;
初始形状确定模块330,用于根据目标脸部参考图像,确定目标初始脸部特征形状;
识别模型处理模块340,用于将目标脸部图像及目标初始脸部特征形状输入脸部识别模型,得到目标脸部图像的脸部特征点。
在一些实施例中,电子设备可包括但不限于手机、平板电脑、笔记本电脑、掌上电脑、车载终端、可穿戴设备、以及计步器等。在另一些实施例中,电子设备还可以包括服务器。
本发明实施例所述的脸部特征点定位方法可以应用于人、动物等的脸部特征点定位。
在本发明实施例中,能够在获取目标图像序列后,首先根据多个脸部图像中的目标脸部图像在目标图像序列中的图像序列位置,确定目标脸部图像对应的目标脸部参考图像,然后基于目标脸部参考图像,确定目标脸部图像对应的目标初始脸部特征形状,最后将目标脸部图像及目标初始脸部特征形状输入脸部识别模型,得到目标脸部图像的脸部特征点,以实现利用仅具有一组模型参数的脸部识别模型,对目标图像序列中的各个目标脸部图像进行高精度的脸部特征点定位,解决在检测脸部特征点的过程中,所显示的特征点存在抖动现象的问题。另外,由于脸部识别模型仅具有一组模型参数,使得模型参数的数量较少,脸部识别模型所占用的内容资源较少,可以降低电子设备检测脸部特征点的计算量和功耗,提高电子设备的续航时间。
在本发明一些实施例中,该电子设备300还可以包括:
训练样本获取模块,用于获取训练样本集,其中,训练样本集包括至少一组训练样本序列,每组训练样本序列内所有的训练样本具有连续的脸部动作;
训练样本处理模块,用于根据每个训练样本在所属的训练样本序列中的样本序列位置,确定与该训练样本相对应的初始脸部特征形状;
识别模型训练模块,用于根据每个训练样本及与该训练样本相对应的初始脸部特征形状之间的映射关系,得到脸部识别模型。
在本发明实施例中,可以根据映射关系确定机器学习模型的一组适用于连续脸部动作下的不同初始脸部特征形状的模型参数,从而得到一个能够针对具有连续脸部动作的多个脸部图像进行高精度脸部特征点定位的脸部识别模型。由于脸部识别模型所使用的不同初始脸部特征形状共用同一套模型参数,使得脸部识别模型回归得到的具有连续脸部动作的多个脸部图像的脸部特征点会更加稳定,能够尽可能的避免检测脸部特征点时所显示的脸部特征点存在抖动现象的问题。
在本发明一些实施例中,参考图像确定模块320可以具体用于:将目标图像序列中与图像序列位置前相邻的预定数量的脸部图像,确定为目标脸部参考图像。
在这些实施例中,可选的,初始形状确定模块330可以具体用于:将目标脸部参考图像中的与图像序列位置相邻的目标脸部参考图像作为第一参考图像,并将目标脸部参考图像中其他目标脸部参考图像作为第二参考图像;确定每个第二参考图像相对于第一参考图像的脸部动作变化量;选取脸部动作变化量最小的第二参考图像的脸部特征点,作为目标初始脸部特征形状。
其中,脸部特征点可以包括脸部轮廓特征点和/或五官特征点。
可选地,初始形状确定模块330可以进一步用于:确定第一参考图像的脸部特征点在第一参考图像对应的归一化脸部图像中的第一归一化坐标,以及每个第二参考图像的脸部特征点在该第二参考图像的归一化脸部图像中的第二归一化坐标;计算每个第二参考图像对应的第二归一化坐标与第一归一化坐标之间的欧氏距离,作为该第二参考图像相对于第一参考图像的脸部动作变化量。
在本发明实施例中,脸部动作变化量可以表征人脸角度和/或人脸表情动作的变化快慢,因此,可以根据脸部动作变化量动态选取目标脸部参考图像相对应的目标初始脸部特征形状,充分的利用目标脸部图像在目标图像序列中的图像序列位置,即目标脸部图像对应的时间信息,使得选取的目标脸部参考图像能够更好地表征目标脸部图像的脸部特征,降低脸部识别模识别脸部特征点的识别难度。
在本发明另一些实施例中,参考图像确定模块320可以具体用于:将目标图像序列中与图像序列位置前相邻的脸部图像,确定为目标脸部参考图像。
在这些实施例中,可选的,初始形状确定模块330可以具体用于:将目标脸部参考图像的脸部特征点,作为目标初始脸部特征形状。
其中,脸部特征点可以包括脸部轮廓特征点和/或五官特征点。
在本发明实施例中,将目标图像序列中与目标脸部图像前相邻的脸部图像的脸部特征点作为该目标脸部图像对应的目标初始脸部特征形状,充分的采用了时域信息,使目标初始脸部特征形状与最终需要得到的脸部特征点之间差异更小,可以降低脸部识别模型的回归难度,对目标图像序列所包含的多个目标脸部图像都能获得更好的检测效果,同时在使脸部识别模型达到相同检测精度的情况下,可以降低脸部识别模型的迭代次数,提升脸部识别模型的性能。
本发明实施例提供的电子设备能够实现图1至图2的方法实施例中电子设备实现的各个过程,为避免重复,这里不再赘述。
图4为实现本发明各个实施例的一种电子设备的硬件结构示意图。如图4所示,该电子设备400包括但不限于:射频单元401、网络模块402、音频输出单元403、输入单元404、传感器405、显示单元406、用户输入单元407、接口单元408、存储器409、处理器410、以及电源411等部件。本领域技术人员可以理解,图4中示出的电子设备结构并不构成对电子设备的限定,电子设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。在本发明实施例中,电子设备包括但不限于手机、平板电脑、笔记本电脑、掌上电脑、车载终端、可穿戴设备、以及计步器等。
其中,处理器410,用于:
获取目标图像序列,其中,目标图像序列包括具有连续的脸部动作的多个脸部图像;
根据多个脸部图像中的目标脸部图像在目标图像序列中的图像序列位置,确定目标图像序列中位于图像序列位置之前的目标脸部参考图像;
根据目标脸部参考图像,确定目标初始脸部特征形状;
将目标脸部图像及目标初始脸部特征形状输入脸部识别模型,得到目标脸部图像的脸部特征点。
在本发明实施例中,能够在获取目标图像序列后,首先根据多个脸部图像中的目标脸部图像在目标图像序列中的图像序列位置,确定目标脸部图像对应的目标脸部参考图像,然后基于目标脸部参考图像,确定目标脸部图像对应的目标初始脸部特征形状,最后将目标脸部图像及目标初始脸部特征形状输入脸部识别模型,得到目标脸部图像的脸部特征点,以实现利用仅具有一组模型参数的脸部识别模型,对目标图像序列中的各个目标脸部图像进行高精度的脸部特征点定位,解决在检测脸部特征点的过程中,所显示的特征点存在抖动现象的问题。另外,由于脸部识别模型仅具有一组模型参数,使得模型参数的数量较少,脸部识别模型所占用的内容资源较少,可以降低电子设备检测脸部特征点的计算量和功耗,提高电子设备的续航时间。
应理解的是,本发明实施例中,射频单元401可用于收发信息或通话过程中,信号的接收和发送,具体的,将来自基站的下行数据接收后,给处理器410处理;另外,将上行的数据发送给基站。通常,射频单元401包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器、双工器等。此外,射频单元401还可以通过无线通信***与网络和其他设备通信。
电子设备通过网络模块402为用户提供了无线的宽带互联网访问,如帮助用户收发电子邮件、浏览网页和访问流式媒体等。
音频输出单元403可以将射频单元401或网络模块402接收的或者在存储器409中存储的音频数据转换成音频信号并且输出为声音。而且,音频输出单元403还可以提供与电子设备400执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出单元403包括扬声器、蜂鸣器以及受话器等。
输入单元404用于接收音频或视频信号。输入单元404可以包括图形处理器(Graphics Processing Unit,GPU)4041和麦克风4042,图形处理器4041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示单元406上。经图形处理器4041处理后的图像帧可以存储在存储器409(或其它存储介质)中或者经由射频单元401或网络模块402进行发送。麦克风4042可以接收声音,并且能够将这样的声音处理为音频数据。处理后的音频数据可以在电话通话模式的情况下转换为可经由射频单元401发送到移动通信基站的格式输出。
电子设备400还包括至少一种传感器405,比如光传感器、运动传感器以及其他传感器。具体地,光传感器包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板4061的亮度,接近传感器可在电子设备400移动到耳边时,关闭显示面板4061和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别电子设备姿态(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;传感器405还可以包括指纹传感器、压力传感器、虹膜传感器、分子传感器、陀螺仪、气压计、湿度计、温度计、红外线传感器等,在此不再赘述。
显示单元406用于显示由用户输入的信息或提供给用户的信息。显示单元406可包括显示面板4061,可以采用液晶显示器(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板4061。
用户输入单元407可用于接收输入的数字或字符信息,以及产生与电子设备的用户设置以及功能控制有关的键信号输入。具体地,用户输入单元407包括触控面板4071以及其他输入设备4072。触控面板4071,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板4071上或在触控面板4071附近的操作)。触控面板4071可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器410,接收处理器410发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板4071。除了触控面板4071,用户输入单元407还可以包括其他输入设备4072。具体地,其他输入设备4072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆,在此不再赘述。
进一步的,触控面板4071可覆盖在显示面板4061上,当触控面板4071检测到在其上或附近的触摸操作后,传送给处理器410以确定触摸事件的类型,随后处理器410根据触摸事件的类型在显示面板4061上提供相应的视觉输出。虽然在图4中,触控面板4071与显示面板4061是作为两个独立的部件来实现电子设备的输入和输出功能,但是在某些实施例中,可以将触控面板4071与显示面板4061集成而实现电子设备的输入和输出功能,具体此处不做限定。
接口单元408为外部装置与电子设备400连接的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。接口单元408可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到电子设备400内的一个或多个元件或者可以用于在电子设备400和外部装置之间传输数据。
存储器409可用于存储软件程序以及各种数据。存储器409可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器409可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
处理器410是电子设备的控制中心,利用各种接口和线路连接整个电子设备的各个部分,通过运行或执行存储在存储器409内的软件程序和/或模块,以及调用存储在存储器409内的数据,执行电子设备的各种功能和处理数据,从而对电子设备进行整体监控。处理器410可包括一个或多个处理单元;优选的,处理器410可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作***、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器410中。
电子设备400还可以包括给各个部件供电的电源411(比如电池),优选的,电源411可以通过电源管理***与处理器410逻辑相连,从而通过电源管理***实现管理充电、放电、以及功耗管理等功能。
另外,电子设备400包括一些未示出的功能模块,在此不再赘述。
优选的,本发明实施例还提供一种电子设备,包括处理器410,存储器409,存储在存储器409上并可在所述处理器410上运行的计算机程序,该计算机程序被处理器410执行时实现上述脸部特征点定位方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述脸部特征点定位方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,所述的计算机可读存储介质,如只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random AccessMemory,简称RAM)、磁碟或者光盘等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本发明的保护之内。

Claims (10)

1.一种脸部特征点定位方法,应用于电子设备,其特征在于,所述方法包括:
获取目标图像序列,其中,所述目标图像序列包括具有连续的脸部动作的多个脸部图像;
根据多个所述脸部图像中的目标脸部图像在所述目标图像序列中的图像序列位置,确定所述目标图像序列中位于所述图像序列位置之前的目标脸部参考图像;
根据所述目标脸部参考图像,确定目标初始脸部特征形状;
将所述目标脸部图像及所述目标初始脸部特征形状输入脸部识别模型,得到所述目标脸部图像的脸部特征点。
2.根据权利要求1所述的方法,其特征在于,所述根据多个所述脸部图像中的目标脸部图像在所述目标图像序列中的图像序列位置,确定所述目标图像序列中位于所述图像序列位置之前的目标脸部参考图像之前,还包括:
获取训练样本集,其中,所述训练样本集包括至少一组训练样本序列,每组所述训练样本序列内所有的训练样本具有连续的脸部动作;
根据每个所述训练样本在所属的训练样本序列中的样本序列位置,确定与该训练样本相对应的初始脸部特征形状;
根据每个所述训练样本及与该训练样本相对应的初始脸部特征形状之间的映射关系,得到所述脸部识别模型。
3.根据权利要求1所述的方法,其特征在于,所述根据多个所述脸部图像中的目标脸部图像在所述目标图像序列中的图像序列位置,确定所述目标图像序列中位于所述图像序列位置之前的目标脸部参考图像,包括:
将所述目标图像序列中与所述图像序列位置前相邻的预定数量的脸部图像,确定为所述目标脸部参考图像。
4.根据权利要求3所述的方法,其特征在于,所述根据所述目标脸部参考图像,确定目标初始脸部特征形状,包括:
将所述目标脸部参考图像中的与所述图像序列位置相邻的目标脸部参考图像作为第一参考图像,并将所述目标脸部参考图像中其他目标脸部参考图像作为第二参考图像;
确定每个所述第二参考图像相对于所述第一参考图像的脸部动作变化量;
选取所述脸部动作变化量最小的第二参考图像的脸部特征点,作为所述目标初始脸部特征形状。
5.根据权利要求4所述的方法,其特征在于,所述确定每个所述第二参考图像相对于所述第一参考图像的脸部动作变化量,包括:
确定所述第一参考图像的脸部特征点在所述第一参考图像对应的归一化脸部图像中的第一归一化坐标,以及每个所述第二参考图像的脸部特征点在该第二参考图像的归一化脸部图像中的第二归一化坐标;
计算每个所述第二参考图像对应的第二归一化坐标与所述第一归一化坐标之间的欧氏距离,作为该第二参考图像相对于所述第一参考图像的脸部动作变化量。
6.根据权利要求1所述的方法,其特征在于,所述根据多个所述脸部图像中的目标脸部图像在所述目标图像序列中的图像序列位置,确定所述目标图像序列中位于所述图像序列位置之前的目标脸部参考图像,包括:
将所述目标图像序列中与所述图像序列位置前相邻的脸部图像,确定为所述目标脸部参考图像。
7.根据权利要求6所述的方法,其特征在于,所述根据所述目标脸部参考图像,确定目标初始脸部特征形状,包括:
将所述目标脸部参考图像的脸部特征点,作为所述目标初始脸部特征形状。
8.一种电子设备,其特征在于,包括:
图像序列获取模块,用于获取目标图像序列,其中,所述目标图像序列包括具有连续的脸部动作的多个脸部图像;
参考图像确定模块,用于根据多个所述脸部图像中的目标脸部图像在所述目标图像序列中的图像序列位置,确定所述目标图像序列中位于所述图像序列位置之前的目标脸部参考图像;
初始形状确定模块,用于根据所述目标脸部参考图像,确定目标初始脸部特征形状;
识别模型处理模块,用于将所述目标脸部图像及所述目标初始脸部特征形状输入脸部识别模型,得到所述目标脸部图像的脸部特征点。
9.根据权利要求8所述的电子设备,其特征在于,还包括:
训练样本获取模块,用于获取训练样本集,其中,所述训练样本集包括至少一组训练样本序列,每组所述训练样本序列内所有的训练样本具有连续的脸部动作;
训练样本处理模块,用于根据每个所述训练样本在所属的训练样本序列中的样本序列位置,确定与该训练样本相对应的初始脸部特征形状;
识别模型训练模块,用于根据每个所述训练样本及与该训练样本相对应的初始脸部特征形状之间的映射关系,得到所述脸部识别模型。
10.根据权利要求8所述的电子设备,其特征在于,所述参考图像确定模块具体用于:
将所述目标图像序列中与所述图像序列位置前相邻的预定数量的脸部图像,确定为所述目标脸部参考图像;
或者,
将所述目标图像序列中与所述图像序列位置前相邻的脸部图像,确定为所述目标脸部参考图像。
CN201911046693.7A 2019-10-30 2019-10-30 脸部特征点定位方法及电子设备 Pending CN110929588A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911046693.7A CN110929588A (zh) 2019-10-30 2019-10-30 脸部特征点定位方法及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911046693.7A CN110929588A (zh) 2019-10-30 2019-10-30 脸部特征点定位方法及电子设备

Publications (1)

Publication Number Publication Date
CN110929588A true CN110929588A (zh) 2020-03-27

Family

ID=69849883

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911046693.7A Pending CN110929588A (zh) 2019-10-30 2019-10-30 脸部特征点定位方法及电子设备

Country Status (1)

Country Link
CN (1) CN110929588A (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170337420A1 (en) * 2015-05-20 2017-11-23 Tencent Technology (Shenzhen) Company Limited Evaluation method and evaluation device for facial key point positioning result
CN109034085A (zh) * 2018-08-03 2018-12-18 北京字节跳动网络技术有限公司 用于生成信息的方法和装置
CN109101919A (zh) * 2018-08-03 2018-12-28 北京字节跳动网络技术有限公司 用于生成信息的方法和装置
CN109145783A (zh) * 2018-08-03 2019-01-04 北京字节跳动网络技术有限公司 用于生成信息的方法和装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170337420A1 (en) * 2015-05-20 2017-11-23 Tencent Technology (Shenzhen) Company Limited Evaluation method and evaluation device for facial key point positioning result
CN109034085A (zh) * 2018-08-03 2018-12-18 北京字节跳动网络技术有限公司 用于生成信息的方法和装置
CN109101919A (zh) * 2018-08-03 2018-12-28 北京字节跳动网络技术有限公司 用于生成信息的方法和装置
CN109145783A (zh) * 2018-08-03 2019-01-04 北京字节跳动网络技术有限公司 用于生成信息的方法和装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
杜纪魁: "复杂背景下的人脸检测和识别", 《中国优秀硕士学位论文全文数据库信息科技辑》 *

Similar Documents

Publication Publication Date Title
CN111260665B (zh) 图像分割模型训练方法和装置
CN111223143B (zh) 关键点检测方法、装置及计算机可读存储介质
CN108153422B (zh) 一种显示对象控制方法和移动终端
US11366528B2 (en) Gesture movement recognition method, apparatus, and device
CN108985220B (zh) 一种人脸图像处理方法、装置及存储介质
CN108427873B (zh) 一种生物特征识别方法及移动终端
CN108683850B (zh) 一种拍摄提示方法及移动终端
CN111031234B (zh) 一种图像处理方法及电子设备
CN109495616B (zh) 一种拍照方法及终端设备
CN111401463B (zh) 检测结果输出的方法、电子设备及介质
CN107741814B (zh) 一种显示控制方法及移动终端
CN110765924A (zh) 一种活体检测方法、装置以及计算机可读存储介质
CN111080747A (zh) 一种人脸图像处理方法及电子设备
CN111432122B (zh) 一种图像处理方法及电子设备
CN111405361B (zh) 一种视频获取方法、电子设备及计算机可读存储介质
CN113780291B (zh) 一种图像处理方法、装置、电子设备及存储介质
CN115240250A (zh) 模型训练方法、装置、计算机设备及可读存储介质
CN111276142B (zh) 一种语音唤醒方法及电子设备
CN110969085B (zh) 脸部特征点定位方法及电子设备
CN110929588A (zh) 脸部特征点定位方法及电子设备
CN113706446A (zh) 一种镜头检测方法和相关装置
CN107807740B (zh) 一种信息输入方法及移动终端
CN111563838A (zh) 图像处理方法及电子设备
CN113112011A (zh) 一种数据预测方法及装置
CN110795016A (zh) 显示方法及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination