CN110837757A - 人脸比例计算方法、***、设备及存储介质 - Google Patents

人脸比例计算方法、***、设备及存储介质 Download PDF

Info

Publication number
CN110837757A
CN110837757A CN201810939046.8A CN201810939046A CN110837757A CN 110837757 A CN110837757 A CN 110837757A CN 201810939046 A CN201810939046 A CN 201810939046A CN 110837757 A CN110837757 A CN 110837757A
Authority
CN
China
Prior art keywords
face
point
points
hairline
face image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810939046.8A
Other languages
English (en)
Inventor
冯玉娜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Jingdong Century Trading Co Ltd
Beijing Jingdong Shangke Information Technology Co Ltd
Original Assignee
Beijing Jingdong Century Trading Co Ltd
Beijing Jingdong Shangke Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Jingdong Century Trading Co Ltd, Beijing Jingdong Shangke Information Technology Co Ltd filed Critical Beijing Jingdong Century Trading Co Ltd
Priority to CN201810939046.8A priority Critical patent/CN110837757A/zh
Publication of CN110837757A publication Critical patent/CN110837757A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/285Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种人脸比例计算方法、***、设备及存储介质,基于训练模型,检测人脸图像中的下巴尖、左眼外侧发际点、右眼外侧发际点、三庭的两个分割点和五眼的四个分割点;检测人脸图像中的顶部中央发际点;根据顶部中央发际点和下巴尖之间的间距确定人脸高度范围;根据左眼外侧发际点和右眼外侧发际点之间的间距确定人脸宽度范围;根据检测到的各个特征点计算三庭的比例信息和五眼的比例信息。本发明提高了人脸面部关键特征点的检测准确性,从而提高了三庭五眼比例信息计算的准确性。

Description

人脸比例计算方法、***、设备及存储介质
技术领域
本发明涉及图像处理技术领域,尤其涉及一种人脸比例计算方法、***、设备及存储介质。
背景技术
近年来,面部整形技术在人们的生活中趋于流行,面部分析结果作为整形结果的评价依据之一,其结果的重要性不言而喻。三庭五眼是人脸面部特征的一种描述方式,是面部分析的重要依据之一,准确获取人脸三庭五眼的比例信息,对于面部分析结果的准确性有重要意义。
现有的人脸三庭五眼比例确认主要通过以下三种方法获取:
(1)直接测量人脸面部各点间实际距离,计算得到比例关系;
(2)直接测量面部照片各点间的实际距离,计算得到比例关系;
(3)获取人脸图像,检测人脸图像面部局部特征,定位面部各特征点,获取各点间像素距离,计算得到比例关系。
现有的人脸三庭五眼比例确认方法中,第(1)种直接测量面部各特征点间实际距离的方法,因被测者、测量者都有人为主观因素干预,误差较大,且手动操作不方便;第(2)种直接测量面部照片各点间距离的方法,因测量者的人为主观因素干预,人为方面的误差也无法避免,且手动操作比较繁琐;第(3)种获取人脸图像,检测面部局部特征、定位特征点、计算各点间像素距离的方法,前期检测面部局部特征、定位各特征点两步操作均需要通过一定的算法实现来取得准确的检测及定位结果,依赖算法的实现方式及处理准确度,测量结果的准确性有待进一步确认。
发明内容
针对现有技术中的问题,本发明的目的在于提供一种人脸比例计算方法、***、设备及存储介质,解决了现有技术中直接测量测量人体面部或面部照片方法中因人为因素造成的误差过大、操作不便的问题,解决了现有前期检测面部局部特征、定位各特征点再计算各点间像素间距比例方法中,过度依赖局部特征检测及特征点定位算法的问题,提高了三庭五眼比例信息计算的准确性。
本发明实施例提供一种人脸比例计算方法,所述方法包括如下步骤:
基于训练模型检测人脸图像中的下巴尖、左眼外侧发际点、右眼外侧发际点、三庭的两个分割点和五眼的四个分割点;
检测人脸图像中的顶部中央发际点;
根据顶部中央发际点和下巴尖之间的间距确定人脸高度范围;
根据左眼外侧发际点和右眼外侧发际点之间的间距确定人脸宽度范围;
根据三庭的两个分割点和人脸高度范围计算三庭的比例信息;
根据五眼的四个分割点和人脸宽度范围计算五眼的比例信息。
可选地,所述检测人脸图像中的下巴尖、左眼外侧发际点、右眼外侧发际点、三庭的两个分割点和五眼的四个分割点之前,还包括如下步骤:
采集面部图像,在面部图像中检测人脸区域,人脸区域的高度和宽度分别为HF和WF,人脸区域的中心点为CF点;
以CF点为中心点,以HF*(1+k1)为高度,以WF*(1+k2)为宽度,从面部图像中提取得到人脸图像,其中k1和k2为预设的扩大比例,其中k1∈(0,0.5),k2∈(0,0.5)。
可选地,所述检测人脸图像中的顶部中央发际点,包括如下步骤:
提取人脸图像中的肤色信息,得到人脸肤色分布图,对人脸肤色分布图进行灰度处理,得到肤色灰度图;
在所述肤色灰度图中查找灰度值高于预设灰度阈值且位于预设顶部中央发际点位置范围内的点,作为备选顶部中央发际点;
所述备选顶部中央发际点中,位置最高的点作为顶部中央发际点。
可选地,所述预设灰度阈值为SkinGray*k3,其中,SkinGray为肤色灰度图中的平均灰度值,其中k3为阈值调整系数,且k3∈(0.3~0.8)。
可选地,在所述人脸图像中建立坐标系,以人脸图像的左上角点为原点,宽度方向为x轴方向,高度方向为y轴方向;
所述位于预设顶部中央发际点位置范围内的点的坐标值满足如下条件:
3*faceWidth/8<XfaceT<5*faceWidth/8
Yeyebrow/3<YfaceT<Yeyebrow
其中,faceWidth为人脸图像的宽度值,Yeyebrow为眉毛尾点的纵坐标,XfaceT和YfaceT分别为顶部中央发际点的x轴和y轴坐标值。
可选地,所述三庭的分割点包括鼻下点、左眉毛尾点和右眉毛尾点,所述位于预设顶部中央发际点位置范围内的点的坐标值满足如下条件:
3*faceWidth/8<XfaceT<5*faceWidth/8
(YeyebrowL+YeyebrowR)/6<YfaceT<(YeyebrowL+YeyebrowR)/2
其中,faceWidth为人脸图像的宽度值,YeyebrowL和YeyebrowR分别为左眉毛尾点和右眉毛尾点的纵坐标,XfaceT和YfaceT分别为顶部中央发际点的x轴和y轴坐标值。
可选地,所述三庭的分割点包括鼻下点和眉毛尾点,所述五眼的分割特征点包括左眼外眼角、左眼内眼角、右眼内眼角和右眼外眼角。
可选地,在所述人脸图像中建立坐标系,以人脸图像的左上角点为原点,宽度方向为x轴方向,高度方向为y轴方向;
所述分别计算三部分的高度值与人脸高度值的比例,包括如下步骤:
提取人脸图像中的下巴尖、顶部中央发际点、眉毛尾点和鼻下点的y轴坐标值;
根据如下公式计算人脸高度值H:
H=YfaceB-YfaceT
其中,YfaceB和YfaceT分别为人脸图像中下巴尖和顶部中央发际点的y轴坐标值;
根据如下公式计算三部分的高度值H1、H2和H3:
H1=Yeyebrow-YfaceT
H2=Ynose-Yeyebrow
H3=YfaceB-Ynose
其中,Yeyebrow和Ynose分别为眉毛尾点和鼻下点的y轴坐标值;
分别计算三部分的高度值H1、H2和H3与人脸高度值H的比例。
可选地,所述分别计算五部分的宽度值与人脸宽度值的比例,包括如下步骤:
提取人脸中左眼外侧发际点、右眼外侧发际点、左眼外眼角、左眼内眼角、右眼内眼角和右眼外眼角的x轴坐标值;
根据如下公式计算人脸宽度值W:
W=XhairR-XhairL
其中,XhairR和XhairL分别为右眼外侧发际点和左眼外侧发际点的x轴坐标值;
根据如下公式计算五部分的宽度值W1、W2、W3、W4和W5:
W1=XeyeL_out-XhairL
W2=XeyeL-in-XeyeL_out
W3=XeyeR_in-XeyeL-in
W4=XeyeR_out-XeyeR_in
W5=XhairR-XeyeR_out
其中,XeyeL_out,XhairL,XeyeL-in,XeyeR_in和XeyeR_out分别为左眼外眼角、左眼内眼角、右眼内眼角和右眼外眼角的x轴坐标值;
分别计算五部分的宽度值W1、W2、W3、W4和W5与人脸宽度之W的比例。
本发明实施例还提供一种人脸比例计算***,应用于所述的人脸比例计算方法,所述***包括:
特征点检测模块,用于基于训练模型检测人脸图像中的下巴尖、左眼外侧发际点、右眼外侧发际点、三庭的两个分割点和五眼的四个分割点;以及检测人脸图像中的顶部中央发际点;
人脸范围确定模块,用于根据顶部中央发际点和下巴尖之间的间距确定人脸高度范围,并根据左眼外侧发际点和右眼外侧发际点之间的间距确定人脸宽度范围;
人脸范围分割模块,用于根据三庭的两个分割点将人脸高度范围分为三部分,并根据五眼的四个分割点将人脸宽度范围分为五部分;
比例信息计算模块,用于分别计算高度范围的三部分的高度值与人脸高度值的比例,得到三庭的比例信息;并分别计算宽度范围的五部分的宽度值与人脸宽度值的比例,得到五眼的比例信息。
本发明实施例还提供一种人脸比例计算设备,包括处理器;存储器,其中存储有所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行所述的人脸比例计算方法的步骤。
本发明实施例还提供一种计算机可读存储介质,用于存储程序,其特征在于,所述程序被执行时实现所述的人脸比例计算方法的步骤。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
本发明所提供的人脸比例计算方法、***、设备及存储介质具有下列优点:
本发明在获得人脸图像后,采用训练好的ASM形状模型提取人脸结构特征点,提取并标记人脸图像中用于计算人脸三庭五眼比例关系的关键特征点信息,计算得到三庭间的三个像素间距、五眼间的五个像素间距、脸部高度像素间距、脸部宽度像素间距,然后分别计算三庭间的三个像素间距与脸部高度像素间距的比值,分别计算五眼间的五个像素间距与脸宽像素间距的比值,确认人脸面部五眼的比例信息,从而提高了三庭五眼特征点检测的准确性;进一步可以通过肤色信息查找并标记人脸图像中额头顶部中央发际点,作为人脸高度范围的边缘点,提高顶部中央发际点的检测准确性。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显。
图1是本发明一实施例的人脸比例计算方法的流程图;
图2是本发明一实施例的人脸三庭五眼的特征点标记图;
图3是本发明一具体实例的人脸比例计算方法的流程图;
图4是本发明一实施例的人脸图像提取的示意图;
图5是本发明一实施例的人脸比例计算***的结构示意图;
图6是本发明一实施例的人脸比例计算设备的结构示意图;
图7是本发明一实施例的计算机可读存储介质的结构示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
为了解决上述技术问题,本发明实施例提供了一种人脸三庭五眼比例信息的计算方法。其中,三庭五眼是人脸面部特征的一种描述方式,其中,三庭一般是指在人脸的高度方向(长度方向),由额头顶部中央发际点、眉毛尾点、鼻下点和下巴尖四点间划分的三份距离;五眼一般是指在脸的宽度方向,由左眼外侧发际点、左眼外眼角、左眼内眼角、右眼内眼角、右眼外眼角、右眼外侧发际点六点间划分的五份距离。
如图1所示,本发明实施例提供一种人脸比例计算方法,所述方法包括如下步骤:
S110:采用训练模型检测人脸图像中的下巴尖、左眼外侧发际点、右眼外侧发际点、三庭的两个分割点和五眼的四个分割点;
S120:检测人脸图像中的顶部中央发际点;
S130:根据顶部中央发际点和下巴尖之间的间距确定人脸高度范围;
S140:根据左眼外侧发际点和右眼外侧发际点之间的间距确定人脸宽度范围;
S150:根据三庭的两个分割点和人脸高度范围计算三庭的比例信息;
S160:根据五眼的四个分割点和人脸宽度范围计算五眼的比例信息。
在该实施例中,训练模型采用ASM(Active Shape Model,主动形状模型),即全局形状模型,是一种基于点分布模型的算法,即外形相似的物体其几何形状可以通过若干关键特征点的坐标依次串联形成一个形状向量来标识;在实际应用中,ASM分为训练和搜索两部分进行,本发明中采用训练好的ASM形状模型进行上述人脸特征点的自动标记和提取,提高了人脸特征点检测的准确性和识别效率。
在实际应用中,也可以采用其他的训练模型,例如采用卷积神经网络进行学习和训练得到的训练模型,采用支持向量机进行学习和训练得到的训练模型等等,均属于本发明的保护范围之内。其中,主动形状模型相比于其他机器学习的模型,可以更快速和更准确地实现特定特征点的识别。
本发明采用顶部中央发际点和下巴尖来界定人脸高度范围,左眼外侧发际点和右眼外侧发际点界定人脸宽度范围。在该实施例中,所述三庭的分割点包括鼻下点和眉毛尾点,所述五眼的分割特征点包括左眼外眼角、左眼内眼角、右眼内眼角和右眼外眼角。在应用中,考虑到采集的人脸图像中人可能会因面部表情的原因,两边眉毛尾点有一个高度差,可以同时采集左边的眉毛尾点或右边的眉毛尾点的高度,将两者取平均,得到两边眉毛尾点的中心点的位置。
如图2所示,为本发明所采用的人脸三庭五眼的关键特征点的一个标记图。其中,A1表示顶部中央发际点,A2表示左眉毛尾点,A3表示左眼外侧发际点,A4表示左眼外眼角,A5表示右眼外眼角,A6表示鼻下点,A7表示下巴尖,A8表示右眉毛尾点,A9表示右眼外侧发际点,A10表示右眼外眼角,A11表示右眼内眼角。
如图3所示,在该实施例中,采用所述ASM形状模型检测关键特征点之前之前,所述方法还包括如下步骤:
S210:采集面部图像,具体可以采用摄像头拍摄包括人脸面部的图像faceImg;
S220:在面部图像faceImg中检测人脸区域faceRec,此处定义人脸区域faceRec的高度和宽度分别为HF和WF,人脸区域的中心点为CF点;
由于在人脸区域识别时,人脸区域可能是一个比较局限的区域,可能会损失掉人脸边缘的一些特征,因此在该实施例中,进一步执行S260:对人脸区域进行了扩大,保证人脸图像提取的完整性;
具体地,此处以CF点为中心点,以HF*(1+k1)为高度,以WF*(1+k2)为宽度,从面部图像faceImg中提取得到人脸图像faceImage,其中k1和k2为预设的扩大比例,其中k1∈(0,0.5),k2∈(0,0.5)。
然后再执行步骤S270:使用训练好的ASM形状模型识别特征点并标记,即可以实现S290:各个特征点的标记。
如图4所示,为本发明一实施例的人脸图像提取的示意图。其中,B1表示人脸图像,B2表示检测到的的人脸区域,FC为人脸区域的中心点,以人脸区域为中心点,高度为FH*(1+0.15),宽度为FH*(1+0.2),从而在面部图像B1中提取到人脸图像B3。此处k1和k2的取值仅为示例,本发明不限于此。
在该实施例中,所述在面部图像中检测人脸区域,包括采用训练好的Adaboost分类器,在面部图像中检测人脸区域。Adaboost是一种迭代方法,核心思想是针对不同的训练集训练同一个弱分类器,然后把在不同训练集上得到的弱分类器集合起来,构成一个最终的强分类器。
在其他的实施方式中,检测人脸区域时,也可以不采用Adaboost分类器,而采用其他类型的机器学习模型,例如采用支持向量机学习人脸区域的特征,获得人脸区域识别模型,或者采用AlexNet神经网络学习人脸区域的特征,获得人脸二分类识别模型,或者采用深度学习神经网络学习人脸区域的特征,获得人脸区域识别模型等等,均属于本发明的保护范围之内。其中,Adaboost分类器相比于其他模型,更加适用于人脸区域的检测,可以实现更准确、更快速地人脸区域检测。
顶部中央发际点作为人脸高度的一个边缘点,其检测也是很重要的,其检测的准确性会直接关系到三庭五眼比例的计算准确性。顶部中央发际点也可以采用训练好的ASM形状模型进行识别检测。然而在应用中,顶部中央发际点采用形状识别的方式进行检测,效果并不是很高。考虑到在顶部中央发际点处,由于头发的存在,会产生一个肤色的差异,因此本发明提出了一种基于肤色信息检测顶部中央发际点的技术方案。
在该实施例中,所述检测人脸图像中的顶部中央发际点,包括如下步骤:
提取人脸图像中的肤色信息,得到人脸肤色分布图,对人脸肤色分布图进行灰度处理,得到肤色灰度图;具体地,可以对人脸图像faceImage采用OpenCV自带的肤色检测类AdativeSkinDetector进行肤色检测,得到检测出肤色区域的人脸图face_skin;
在所述肤色灰度图中查找灰度值高于预设灰度阈值且位于预设顶部中央发际点位置范围内的点,作为备选顶部中央发际点;
将所述备选顶部中央发际点中位置最高的点作为顶部中央发际点。
其中,所述预设灰度阈值可以选择为SkinGray*k3,其中,SkinGray为肤色灰度图中的平均灰度值。k3为阈值调整系数,在该实施例中,k3可选为0.5。但本发明不限于此,采用其他预设的灰度阈值也可以的,例如在SkinGray*0.3~SkinGray*0.8的范围内进行选值,或选择其他范围内的值等等,可以实现较好的顶部中央发际点的识别即可,均属于本发明的保护范围之内。
顶部中央发际点位于预设顶部中央发际点位置范围内,该预设顶部中央发际点位置范围可以是,宽度方向上基本上位于人脸图像中心(左右存在一定的误差范围)的一个点,高度方向上基本上位于人脸中眉毛尾点以上,以及经验获取的最高位置之下。
在该实施例中,如图2所示,在所述人脸图像中建立坐标系,以人脸图像的左上角点O为原点,宽度方向为x轴方向,高度方向为y轴方向;
所述位于预设顶部中央发际点位置范围内的点的坐标值满足如下条件:
3*faceWidth/8<XfaceT<5*faceWidth/8
Yeyebrow/3<YfaceT<Yeyebrow
其中,faceWidth为人脸图像的宽度值,Yeyebrow为眉毛尾点的纵坐标,XfaceT和YfaceT分别为顶部中央发际点的x轴和y轴坐标值。
高度方向的最高位置Yeyebrow/3是一个经验数值,在实际应用中,该数值可以根据需要进行调整,例如调整为Yeyebrow/4、Yeyebrow/3.5等等,均属于本发明的保护范围之内。
当眉毛尾点的位置通过左眉毛尾点和右眉毛尾点取平均值获取时,上述公式中顶部中央发际点的y轴坐标值满足如下条件:
(YeyebrowL+YeyebrowR)/6<YfaceT<(YeyebrowL+YeyebrowR)/2
其中,YeyebrowL和YeyebrowR分别为左眉毛尾点和右眉毛尾点的纵坐标。
如图3所示,在本发明一具体实施方式中,在检测顶部中央发际点时,执行步骤S230得到肤色图之后,S240:进行灰度化,得到灰度图face_SkinGray,执行步骤S250:计算出灰度图face_SkinGray的灰度均值为SkinGray,二值化灰度图,二值化阈值选择为0.5*SkinGray,当face_SkinGray中像素的灰度值低于阈值时,像素点置黑(即灰度值为0),face_SkinGray中像素的灰度值高于阈值时,像素点置白(即灰度值为255),提取得到二值图face_SkinBinary,从上到下逐行扫描二值图face_SkinBinary,扫描得到的白点记为unknowPoint,设点unkownPoint的坐标为(X,Y),判断unkownPoint的坐标值是否满足上述预设位置范围内的坐标要求,即3*faceWidth/8<X<5*faceWidth/8,(YeyebrowL+YeyebrowR)/6<Y<(YeyebrowL+YeyebrowR)/2,如果不满足,则判断为伪点,舍弃伪点后继续扫描直到满足条件的点unkownPoint为止,标记其为额头顶部中央发际点faceT。从而实现了S280:顶部中央发际点标记。
在该实施例中,实现了对所有特征点的识别后,提取各个特征点的坐标值,S310:计算三庭五眼间的像素间距,S320:计算三庭五眼比例信息。
具体地,所述分别计算三部分的高度值与人脸高度值的比例,包括如下步骤:
提取人脸图像中的下巴尖、顶部中央发际点、眉毛尾点和鼻下点的y轴坐标值;
根据如下公式计算人脸高度值H:
H=YfaceB-YfaceT
其中,YfaceB和YfaceT分别为人脸图像中下巴尖和顶部中央发际点的y轴坐标值;
根据如下公式计算三部分的高度值H1、H2和H3:
H1=Yeyebrow-YfaceT
H2=Ynose-Yeyebrow
H3=YfaceB-Ynose
其中,Yeyebrow和Ynose分别为眉毛尾点和鼻下点的y轴坐标值;
分别计算三部分的高度值H1、H2和H3与人脸高度值H的比例:
BH1=H1/H
BH2=H2/H
BH3=H3/H
所述分别计算五部分的宽度值与人脸宽度值的比例,包括如下步骤:
提取人脸中左眼外侧发际点、右眼外侧发际点、左眼外眼角、左眼内眼角、右眼内眼角和右眼外眼角的x轴坐标值;
根据如下公式计算人脸宽度值W:
W=XhairR-XhairL
其中,XhairR和XhairL分别为右眼外侧发际点和左眼外侧发际点的x轴坐标值;
根据如下公式计算五部分的宽度值W1、W2、W3、W4和W5:
W1=XeyeL_out-XhairL
W2=XeyeL-in-XeyeL_out
W3=XeyeR_in-XeyeL-in
W4=XeyeR_out-XeyeR_in
W5=XhairR-XeyeR_out
其中,XeyeL_out,XhairL,XeyeL-in,XeyeR_in和XeyeR_out分别为左眼外眼角、左眼内眼角、右眼内眼角和右眼外眼角的x轴坐标值;
分别计算五部分的宽度值W1、W2、W3、W4和W5与人脸宽度之W的比例:
BW1=W1/W
BW2=W2/W
BW3=W3/W
BW4=W4/W
BW5=W5/W
最终得到的BH1、BH2、BH3、BW1、BW2、BW3、BW4、BW5即为确认的三庭五眼比例。
如图5所示,本发明实施例还提供一种人脸比例计算***,应用于所述的人脸比例计算方法,所述***包括:
特征点检测模块100,用于采用训练好的ASM形状模型,检测人脸图像中的下巴尖、左眼外侧发际点、右眼外侧发际点、三庭的两个分割点和五眼的四个分割点;以及检测人脸图像中的顶部中央发际点;
人脸范围确定模块200,用于根据顶部中央发际点和下巴尖之间的间距确定人脸高度范围,并根据左眼外侧发际点和右眼外侧发际点之间的间距确定人脸宽度范围;
人脸范围分割模块300,用于根据三庭的两个分割点将人脸高度范围分为三部分,并根据五眼的四个分割点将人脸宽度范围分为五部分;
比例信息计算模块400,用于分别计算高度范围的三部分的高度值与人脸高度值的比例,得到三庭的比例信息;并分别计算宽度范围的五部分的宽度值与人脸宽度值的比例,得到五眼的比例信息。
本发明实施例还提供一种人脸比例计算设备,包括处理器;存储器,其中存储有所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行所述的人脸比例计算方法的步骤。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为***、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“平台”。
下面参照图6来描述根据本发明的这种实施方式的电子设备600。图6显示的电子设备600仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图6所示,电子设备600以通用计算设备的形式表现。电子设备600的组件可以包括但不限于:至少一个处理单元610、至少一个存储单元620、连接不同平台组件(包括存储单元620和处理单元610)的总线630、显示单元640等。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元610执行,使得所述处理单元610执行本说明书上述电子处方流转处理方法部分中描述的根据本发明各种示例性实施方式的步骤。例如,所述处理单元610可以执行如图1中所示的步骤。
所述存储单元620可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)6201和/或高速缓存存储单元6202,还可以进一步包括只读存储单元(ROM)6203。
所述存储单元620还可以包括具有一组(至少一个)程序模块6205的程序/实用工具6204,这样的程序模块6205包括但不限于:操作***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线630可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、***总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备600也可以与一个或多个外部设备700(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备600交互的设备通信,和/或与使得该电子设备600能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口650进行。并且,电子设备600还可以通过网络适配器660与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。网络适配器660可以通过总线630与电子设备600的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备600使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID***、磁带驱动器以及数据备份存储平台等。
本发明实施例还提供一种计算机可读存储介质,用于存储程序,所述程序被执行时实现所述的人脸比例计算方法的步骤。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述电子处方流转处理方法部分中描述的根据本发明各种示例性实施方式的步骤。
参考图7所示,描述了根据本发明的实施方式的用于实现上述方法的程序产品800,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
所述计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
本发明所提供的人脸比例计算方法、***、设备及存储介质具有下列优点:
本发明在获得人脸图像后,采用训练好的ASM形状模型提取人脸结构特征点,提取并标记人脸图像中用于计算人脸三庭五眼比例关系的关键特征点信息,计算得到三庭间的三个像素间距、五眼间的五个像素间距、脸部高度像素间距、脸部宽度像素间距,然后分别计算三庭间的三个像素间距与脸部高度像素间距的比值,分别计算五眼间的五个像素间距与脸宽像素间距的比值,确认人脸面部五眼的比例信息,从而提高了三庭五眼特征点检测的准确性;进一步可以通过肤色信息查找并标记人脸图像中额头顶部中央发际点,作为人脸高度范围的边缘点,提高顶部中央发际点的检测准确性。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。

Claims (12)

1.一种人脸比例计算方法,其特征在于,所述方法包括如下步骤:
基于训练模型检测人脸图像中的下巴尖、左眼外侧发际点、右眼外侧发际点、三庭的两个分割点和五眼的四个分割点;
检测人脸图像中的顶部中央发际点;
根据顶部中央发际点和下巴尖之间的间距确定人脸高度范围;
根据左眼外侧发际点和右眼外侧发际点之间的间距确定人脸宽度范围;
根据三庭的两个分割点和人脸高度范围计算三庭的比例信息;
根据五眼的四个分割点和人脸宽度范围计算五眼的比例信息。
2.根据权利要求1所述的人脸比例计算方法,其特征在于,所述检测人脸图像中的下巴尖、左眼外侧发际点、右眼外侧发际点、三庭的两个分割点和五眼的四个分割点之前,还包括如下步骤:
采集面部图像,在面部图像中检测人脸区域,人脸区域的高度和宽度分别为HF和WF,人脸区域的中心点为CF点;
以CF点为中心点,以HF*(1+k1)为高度,以WF*(1+k2)为宽度,从面部图像中提取得到人脸图像,其中k1和k2为预设的扩大比例,其中k1∈(0,0.5),k2∈(0,0.5)。
3.根据权利要求1所述的人脸比例计算方法,其特征在于,所述检测人脸图像中的顶部中央发际点,包括如下步骤:
提取人脸图像中的肤色信息,得到人脸肤色分布图,对人脸肤色分布图进行灰度处理,得到肤色灰度图;
在所述肤色灰度图中查找灰度值高于预设灰度阈值且位于预设顶部中央发际点位置范围内的点,作为备选顶部中央发际点;
将所述备选顶部中央发际点中位置最高的点作为顶部中央发际点。
4.根据权利要求3所述的人脸比例计算方法,其特征在于,所述预设灰度阈值为SkinGray*k3,其中,SkinGray为肤色灰度图中的平均灰度值,其中k3为阈值调整系数,且k3∈(0.3~0.8)。
5.根据权利要求3所述的人脸比例计算方法,其特征在于,在所述人脸图像中建立坐标系,以人脸图像的左上角点为原点,宽度方向为x轴方向,高度方向为y轴方向;
所述位于预设顶部中央发际点位置范围内的点的坐标值满足如下条件:
3*faceWidth/8<XfaceT<5*faceWidth/8
Yeyebrow/3<YfaceT<Yeyebrow
其中,faceWidth为人脸图像的宽度值,Yeyebrow为眉毛尾点的纵坐标,XfaceT和YfaceT分别为顶部中央发际点的x轴和y轴坐标值。
6.根据权利要求3所述的人脸比例计算方法,其特征在于,所述三庭的分割点包括鼻下点、左眉毛尾点和右眉毛尾点,所述位于预设顶部中央发际点位置范围内的点的坐标值满足如下条件:
3*faceWidth/8<XfaceT<5*faceWidth/8
(YeyebrowL+YeyebrowR)/6<YfaceT<(YeyebrowL+YeyebrowR)/2
其中,faceWidth为人脸图像的宽度值,YeyebrowL和YeyebrowR分别为左眉毛尾点和右眉毛尾点的纵坐标,XfaceT和YfaceT分别为顶部中央发际点的x轴和y轴坐标值。
7.根据权利要求1所述的人脸比例计算方法,其特征在于,所述三庭的分割点包括鼻下点和眉毛尾点,所述五眼的分割特征点包括左眼外眼角、左眼内眼角、右眼内眼角和右眼外眼角。
8.根据权利要求7所述的人脸比例计算方法,其特征在于,在所述人脸图像中建立坐标系,以人脸图像的左上角点为原点,宽度方向为x轴方向,高度方向为y轴方向;
所述根据三庭的两个分割点和人脸高度范围计算三庭的比例信息,包括如下步骤:
提取人脸图像中的下巴尖、顶部中央发际点、眉毛尾点和鼻下点的y轴坐标值;
根据如下公式计算人脸高度值H:
H=YfaceB-YfaceT
其中,YfaceB和YfaceT分别为人脸图像中下巴尖和顶部中央发际点的y轴坐标值;
根据如下公式计算三部分的高度值H1、H2和H3:
H1=Yeyebrow-YfaceT
H2=Ynose-Yeyebrow
H3=YfaceB-Ynose
其中,Yeyebrow和Ynose分别为眉毛尾点和鼻下点的y轴坐标值;
分别计算三部分的高度值H1、H2和H3与人脸高度值H的比例。
9.根据权利要求8所述的人脸比例计算方法,其特征在于,所述根据五眼的四个分割点和人脸宽度范围计算五眼的比例信息,包括如下步骤:
提取人脸中左眼外侧发际点、右眼外侧发际点、左眼外眼角、左眼内眼角、右眼内眼角和右眼外眼角的x轴坐标值;
根据如下公式计算人脸宽度值W:
W=XhairR-XhairL
其中,XhairR和XhairL分别为右眼外侧发际点和左眼外侧发际点的x轴坐标值;
根据如下公式计算五部分的宽度值W1、W2、W3、W4和W5:
W1=XeyeL_out-XhairL
W2=XeyeL-in-XeyeL_out
W3=XeyeR_in-XeyeL-in
W4=XeyeR_out-XeyeR_in
W5=XhairR-XeyeR_out
其中,XeyeL_out,XhairL,XeyeL-in,XeyeR_in和XeyeR_out分别为左眼外眼角、左眼内眼角、右眼内眼角和右眼外眼角的x轴坐标值;
分别计算五部分的宽度值W1、W2、W3、W4和W5与人脸宽度之W的比例。
10.一种人脸比例计算***,其特征在于,应用于权利要求1至9中任一项所述的人脸比例计算方法,所述***包括:
特征点检测模块,用于基于训练模型检测人脸图像中的下巴尖、左眼外侧发际点、右眼外侧发际点、三庭的两个分割点和五眼的四个分割点;以及检测人脸图像中的顶部中央发际点;
人脸范围确定模块,用于根据顶部中央发际点和下巴尖之间的间距确定人脸高度范围,并根据左眼外侧发际点和右眼外侧发际点之间的间距确定人脸宽度范围;
人脸范围分割模块,用于根据三庭的两个分割点将人脸高度范围分为三部分,并根据五眼的四个分割点将人脸宽度范围分为五部分;
比例信息计算模块,用于分别计算高度范围的三部分的高度值与人脸高度值的比例,得到三庭的比例信息;并分别计算宽度范围的五部分的宽度值与人脸宽度值的比例,得到五眼的比例信息。
11.一种人脸比例计算设备,其特征在于,包括:
处理器;
存储器,其中存储有所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1至9中任一项所述的人脸比例计算方法的步骤。
12.一种计算机可读存储介质,用于存储程序,其特征在于,所述程序被执行时实现权利要求1至9中任一项所述的人脸比例计算方法的步骤。
CN201810939046.8A 2018-08-17 2018-08-17 人脸比例计算方法、***、设备及存储介质 Pending CN110837757A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810939046.8A CN110837757A (zh) 2018-08-17 2018-08-17 人脸比例计算方法、***、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810939046.8A CN110837757A (zh) 2018-08-17 2018-08-17 人脸比例计算方法、***、设备及存储介质

Publications (1)

Publication Number Publication Date
CN110837757A true CN110837757A (zh) 2020-02-25

Family

ID=69573657

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810939046.8A Pending CN110837757A (zh) 2018-08-17 2018-08-17 人脸比例计算方法、***、设备及存储介质

Country Status (1)

Country Link
CN (1) CN110837757A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111738989A (zh) * 2020-06-02 2020-10-02 北京全域医疗技术集团有限公司 一种器官勾画方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102024156A (zh) * 2010-11-16 2011-04-20 中国人民解放军国防科学技术大学 彩色人脸图像中的唇部区域定位方法
CN104021550A (zh) * 2014-05-22 2014-09-03 西安理工大学 一种人脸三庭五眼自动定位及比例确定方法
CN104408462A (zh) * 2014-09-22 2015-03-11 广东工业大学 面部特征点快速定位方法
CN105844252A (zh) * 2016-04-01 2016-08-10 南昌大学 一种面部关键部位的疲劳检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102024156A (zh) * 2010-11-16 2011-04-20 中国人民解放军国防科学技术大学 彩色人脸图像中的唇部区域定位方法
CN104021550A (zh) * 2014-05-22 2014-09-03 西安理工大学 一种人脸三庭五眼自动定位及比例确定方法
CN104408462A (zh) * 2014-09-22 2015-03-11 广东工业大学 面部特征点快速定位方法
CN105844252A (zh) * 2016-04-01 2016-08-10 南昌大学 一种面部关键部位的疲劳检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
何俊 等: "基于ASM和肤色模型的疲劳驾驶检测" *
李尚国: "基于肤色和人脸特征的人眼定位方法" *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111738989A (zh) * 2020-06-02 2020-10-02 北京全域医疗技术集团有限公司 一种器官勾画方法及装置
CN111738989B (zh) * 2020-06-02 2023-10-24 北京全域医疗技术集团有限公司 一种器官勾画方法及装置

Similar Documents

Publication Publication Date Title
CN108229509B (zh) 用于识别物体类别的方法及装置、电子设备
CN108701216B (zh) 一种人脸脸型识别方法、装置和智能终端
US10216979B2 (en) Image processing apparatus, image processing method, and storage medium to detect parts of an object
US20160371539A1 (en) Method and system for extracting characteristic of three-dimensional face image
Kalogerakis et al. Learning 3D mesh segmentation and labeling
CN105740780B (zh) 人脸活体检测的方法和装置
CN108629336B (zh) 基于人脸特征点识别的颜值计算方法
CN106845416B (zh) 障碍物识别方法及装置、计算机设备及可读介质
WO2023010758A1 (zh) 一种动作检测方法、装置、终端设备和存储介质
CN110909618B (zh) 一种宠物身份的识别方法及装置
WO2008154314A1 (en) Salient object detection
CN110610127B (zh) 人脸识别方法、装置、存储介质及电子设备
US9082000B2 (en) Image processing device and image processing method
US20230022554A1 (en) Automatic pressure ulcer measurement
CN106407978B (zh) 一种结合似物度的无约束视频中显著物体检测方法
CN108416304B (zh) 一种利用上下文信息的三分类人脸检测方法
JP2015125731A (ja) 人物属性推定装置、人物属性推定方法及びプログラム
KR20110103223A (ko) 얼굴 인식을 위한 sift 알고리즘을 이용한 키포인트 매칭 시스템 및 방법
CN113436735A (zh) 基于人脸结构度量的体重指数预测方法、设备和存储介质
CN112818946A (zh) 年龄识别模型的训练、年龄识别方法、装置及电子设备
EP3843038A1 (en) Image processing method and system
CN110837757A (zh) 人脸比例计算方法、***、设备及存储介质
CN109858379A (zh) 笑容真诚度检测方法、装置、存储介质和电子设备
CN113780040A (zh) 唇部关键点的定位方法及装置、存储介质、电子设备
CN111967383A (zh) 年龄估计方法、年龄估计模型的训练方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20200225

RJ01 Rejection of invention patent application after publication