CN108108715A - 基于生物启发和深度属性学习相结合的人脸美感预测方法 - Google Patents

基于生物启发和深度属性学习相结合的人脸美感预测方法 Download PDF

Info

Publication number
CN108108715A
CN108108715A CN201711493994.5A CN201711493994A CN108108715A CN 108108715 A CN108108715 A CN 108108715A CN 201711493994 A CN201711493994 A CN 201711493994A CN 108108715 A CN108108715 A CN 108108715A
Authority
CN
China
Prior art keywords
face
aesthetic feeling
facial image
user
aesthetic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201711493994.5A
Other languages
English (en)
Inventor
纪荣嵘
陈福海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen University
Original Assignee
Xiamen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen University filed Critical Xiamen University
Priority to CN201711493994.5A priority Critical patent/CN108108715A/zh
Publication of CN108108715A publication Critical patent/CN108108715A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/179Human faces, e.g. facial parts, sketches or expressions metadata assisted face recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Geometry (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

基于生物启发和深度属性学习相结合的人脸美感预测方法,涉及一种人脸美感预测方法。首先通过眼动仪获取用户观察人脸图像时的眼动信息,进而提取出人观看人脸时的审美空间区域,通过聚类将审美空间区域划分为若干特征空间,然后通过监督学习和卷积神经网络方法训练出人脸美感检测器,训练出的人脸美感检测器对于一张正面的人脸图像,预处理后能够得到人脸图像的美感等级。通过收集图像的中层属性特征信息提取了用户观察图像时的审美空间区域,通过得到的人脸美感模型充分验证了决定人脸美感的审美特征区域,并且相对于其他人脸美感评价方法在准确率方面有了很大的提升。

Description

基于生物启发和深度属性学习相结合的人脸美感预测方法
技术领域
本发明涉及一种人脸美感预测方法,特别是涉及一种基于生物启发和深度属性学习相结合的人脸美感预测方法。
背景技术
在当前人脸相关应用中,人脸美感预测受到了越来越多人的关注,在客户端和移动端也得到了相关的应用,例如在用户进行人脸拍照时,实时返回一个当前人脸的美感分数,帮助人们找出理想的拍照角度。但目前人脸美感技术中最关键的挑战在于提取具有判别性和感知能力的特征来区分人脸面部分美感。到目前为止,现有刻画人脸美感的方法主要依赖于手动提取的图像底层特征,比如人脸的几何特征的空间位置的计算,或人脸图像的全局特征的判别等。对于基于几何特征的方法,大多数的方法是,首先手动或自动的对人脸的关键点进行标注,根据这些关键点的位置计算人脸各个器官的比例关系,然后通过训练得到分类回归模型,用于人脸美感的分类回归。对于基于人脸的全局特征的方法,将整个预处理后的人脸图像输入提取整张人脸的特征信息来进行人脸美感评价模型的训练,不过由于人脸图像的维度过高,造成的问题有,计算复杂度过高,且在高维空间中的分布稀疏,分类效果并不是很好。
中国专利201110177113.5发明提供了一种基于几何特征的人脸美感分析方法,通过基于组合策略的局部几何特征进行组合描述,并采用基于记忆的动态加权核密度估计(MDKDE)构建弱分类器,利用Adaboost集成学习机制实现特征的集成,得到人脸美感精确类别。与以往基于几何特征的人脸美感分析技术不同的是,发明从欧氏距离、斜率和面积等多角度选取描述人脸美感的局部几何特征,构成人脸美感的单一描述,并由局部几何特征描述进行组合得到组合特征描述,并采用MDKDE构建Adaboost集成学习的弱分类器,对任意输入的人脸图像获得了较好的分类结果。
以上这两种方法不能揭示图像语意信息的有效表达,尽管基于几何特征的方法对人脸美感的分析也具有相关性,但是仍旧不能清晰的解释人类大脑是如何利用这些几何特征去分析和判别出人脸的美感,并没有用科学的方法去统计和验证其合理性。对于基于全局特征的美感分析方法,存在着很多人类大脑不关注的区域和噪声,可能存在对人脸审美的判别中造成不可逆影响的情况。我们知道,在人脑感知***中,当评估人脸的美感问题时,人脑趋向于有选择的关注那些有吸引力的人脸位置区域,在这样情况下,提取人脸显著特征位置显得尤为重要了。
发明内容
本发明所要解决的技术问题在于针对上述现有技术的不足,提供基于生物启发和深度属性学习相结合的人脸美感预测方法。
本发明包括以下步骤:
1)人脸图像的预处理;
2)人脸显著特征位置的提取;
3)获取人脸图像的美感等级标签;
4)人脸美感模型的建立。
在步骤1)中,所述人脸图像的预处理包括人脸检测、人脸关键点定位、人脸图像归一化处理等;所述人脸图像的预处理的具体方法,包括以下步骤:
(1)对人脸图像进行人脸检测及人脸关键点的定位,具体方法包括但不限于基于opencv的人脸检测和人脸关键点的定位、基于人脸关键点位置的手工标注等;
(2)根据人脸关键点的位置进行人脸图像几何归一化处理,将人脸表情子图像变换为统一的尺寸;
(3)人脸图像的灰度归一化处理,用来增强图像亮度,减弱光线和光照强度的影响。
在步骤2)中,所述人脸显著特征位置的提取的具体方法可为:
(1)根据步骤1)中预处理后的人脸图像,由眼动仪获取用户观察图像时的眼动信息,通过眼动追踪仪获取用户的眼动扫描和追踪数据,计算用户眼球在图像的焦点位置;
(2)根据得到的用户眼球在图像的焦点位置,分析并提取用户关注的人脸显著特征点集合;
(3)将用户扫视过的人脸特征点的集合进行筛选;所述筛选为删除所有用户扫视过的人脸特征点频度小于5的特征点;
(4)将筛选后的用户扫视的人脸特征点进行聚类,得到所有用户关注的图像焦点位置,即聚类后的簇心,其中定义为凝视点(POG),由凝视点(POG)得到用户的凝视区域,用户的凝视区域计算如下:
S=d·tan(θ)
其中,S为用户的凝视区域,d为用户到实验主机屏幕的水平距离,θ为视觉广度,取值为6度;tan()为正切函数。
在步骤3)中,所述获取人脸图像的美感等级标签的具体方法可为:针对步骤1)中预处理后的人脸图像,通过实验获取至少20用户对于人脸图像之间的美感相对排名,然后通过包括但不限于TrueSkill算法将美感的相对排名转换为人脸图像的美感评分,进而转化为美感等级标签。
在步骤4)中,所述人脸美感模型的建立的具体方法可为:
(1)根据步骤2)得到的凝视区域,将步骤1)进行预处理之后的人脸图像凝视区域之外的区域进行高斯模糊处理;
(2)将人脸图像划分为训练集合和测试集合;
(3)根据步骤2)得到的用户观察人脸时的凝视区域及步骤3)得到的人脸图像的美感标签通过包括但不限于监督学习和卷积神经网络的方法训练出人脸美感评价模型。
本发明的实验评价标准为准确度(Accuracy),反映了预测的人脸美感类别与标注的美感类别之间的一致程度。
不同方法在人脸美感预测任务上的效果比较参见表1。
表1
方法 二分类(%) 三分类(%)
AutoDL 68.7 63.0
ManualRegion 65.1 59.9
DBP 63.9 50.4
Data-Driven 68.0 56.6
Bio-AttriBank 72.1 65.3
Bio-AttriBank-PCA 73.5 65.8
其中AutoDL、ManualRegion、DBP和Data-Driven为近两年最佳的人脸美感预测方法,Bio-AttriBank为本发明提出的基于生物启发和深度属性学习相结合的人脸美感预测方法,Bio-AttriBank-PCA为本发明提出的基于生物启发和深度属性学习相结合的人脸美感预测方法的变种。由表1可知,本发明在二分类和三分类的人脸美感预测任务上都取得最佳的效果。
本发明首次提出了基于人脸显著特征的人脸美感预测方法,建立起人在进行人脸美感分析时的情感桥梁。
本发明首先通过眼动仪获取用户观察人脸图像时的眼动信息,进而提取出人观看人脸时的审美空间区域,通过聚类将审美空间区域划分为若干特征空间,然后通过监督学习和卷积神经网络方法训练出人脸美感检测器,训练出的人脸美感检测器对于一张正面的人脸图像,预处理后能够得到人脸图像的美感等级。通过收集图像的中层属性特征信息提取了用户观察图像时的审美空间区域,通过得到的人脸美感模型充分验证了决定人脸美感的审美特征区域,并且相对于其他人脸美感评价方法在准确率方面有了很大的提升。
附图说明
图1为本发明实例中凝视点(POG)分布热区图及聚类后簇心位置;
图2为本发明实例中凝视区域S的确定过程;
图3为本发明实例中的标定的人脸美感分数;
图4为本发明实例中训练网络结构。
具体实施方式
以下实施例将结合附图对本发明作进一步的说明。
1.人脸图像的预处理
(1)对人脸图像进行人脸检测并进行人脸关键点的定位,具体方法包括但不限于基于opencv的人脸检测和人脸关键点的定位;
(2)根据人脸关键点的位置进行人脸图像几何归一化处理,将人脸表情子图像变换为统一的尺寸。具体方法为,根据左右眼的坐标值旋转图像,保证人脸方向的一致性,根据面部特征点和几何模型确定矩阵特征区域,以两眼中心点为基准,左右方向剪切两眼中心的距离d,垂直方向各取0.5d和1.5d的矩形区域进行剪裁,最后将剪裁之后的图像进行尺度变换为统一的尺寸,这里为128×128的大小;
(3)人脸图像的灰度归一化处理,用来增强图像亮度,减弱光线和光照强度的影响。
2.凝视点(POG)的确定
本发明中,为了建立起人在进行美感分析时的情感桥梁,从两个方面来提取图像的特征。首先,利用相对于底层特征属性更具有说服力图像的中层属性检测器来提取图像的特征;另一方面,使用一个更加自然的方法去提取人在判断人脸美感时的人眼重点观看的位置,本方法借助于心理学仪器眼动仪来实现,用眼动仪来记录人在进行美感分析时的凝视点(POG)来反映人的视觉关注点。图1中(a)图是在眼动实验中在经过用户对4000多张图片扫视之后统计筛选后得到的POG分布热区图,但是,由于视觉广度(visual span)的影响,关注位置被限制在焦距范围内,因此将POG点聚类为若干个人脸美感兴趣区域,其中聚类之后的簇心如图1中(b)图所示。
3.凝视区域S的确定
如图2所示,首先由POG得到若干簇心位置,然后考虑视觉广度(visual span)的影响,得到凝视区域Sfield如图所示,用户的凝视区域计算如下:
S=d·tan(θ)
其中,S为用户的凝视区域,d为用户到实验主机屏幕的水平距离,θ为视觉广度,取值为6度,tan()为正切函数。
4.人脸图像美感等级标签的确定
通过实验得到人脸图像之间美感的相对排序是简单的,但直接通过实验确定人脸图像美感分数却相对困难,为了解决这个问题,借助TrueSkill算法将人脸图像之间美感的相对排序转换为绝对的美感分数。
5.人脸美感模型的建立
给定预处理后的N个人脸图像集合D,对于任意一张人脸图像及其美感标签,首先对每个人脸图像进行高斯模糊后得到高斯模糊后的图像。由步骤3得到的凝视区域,将图像集合中第i张图像的第j个凝视区域定义为为第j个矩形块。然后利用第j个凝视区域的位置对高斯模糊后的人脸图像Gi进行替换得到待训练人脸图像。最后,通过应用卷积神经网络(CNN)和softmax函数的前向传播,输出第j属性检测器的概率估计。为了训练每个属性检测器的模型利用交叉熵方法并将损失反向传播用于更新每个深度网络层的参数。为了预测第i个人脸图片的美感等级,串联不同属性的概率估计并且将其送入最后的已训练的softmax层来产生最后的美感等级。
在模型训练之前,修改了LeNet模型的层数来进行训练,网络结构如图4所示,对于每个生物启发的属性检测器,拿整张经过上述处理后的人脸图像(大小128×128)作为输入,将带有凝视区域和全局区域的整个肖像图像(伸缩成128×128像素的图像)输入到网络中,最后训练出所需的人脸美感预测模型。

Claims (6)

1.基于生物启发和深度属性学习相结合的人脸美感预测方法,其特征在于包括以下步骤:
1)人脸图像的预处理;
2)人脸显著特征位置的提取;
3)获取人脸图像的美感等级标签;
4)人脸美感模型的建立。
2.如权利要求1所述基于生物启发和深度属性学习相结合的人脸美感预测方法,其特征在于在步骤1)中,所述人脸图像的预处理包括人脸检测、人脸关键点定位、人脸图像归一化处理。
3.如权利要求1所述基于生物启发和深度属性学习相结合的人脸美感预测方法,其特征在于在步骤1)中,所述人脸图像的预处理的具体方法,包括以下步骤:
(1)对人脸图像进行人脸检测及人脸关键点的定位,具体方法包括但不限于基于opencv的人脸检测和人脸关键点的定位、基于人脸关键点位置的手工标注;
(2)根据人脸关键点的位置进行人脸图像几何归一化处理,将人脸表情子图像变换为统一的尺寸;
(3)人脸图像的灰度归一化处理,用来增强图像亮度,减弱光线和光照强度的影响。
4.如权利要求1所述基于生物启发和深度属性学习相结合的人脸美感预测方法,其特征在于在步骤2)中,所述人脸显著特征位置的提取的具体方法为:
(1)根据步骤1)中预处理后的人脸图像,由眼动仪获取用户观察图像时的眼动信息,通过眼动追踪仪获取用户的眼动扫描和追踪数据,计算用户眼球在图像的焦点位置;
(2)根据得到的用户眼球在图像的焦点位置,分析并提取用户关注的人脸显著特征点集合;
(3)将用户扫视过的人脸特征点的集合进行筛选;所述筛选为删除所有用户扫视过的人脸特征点频度小于5的特征点;
(4)将筛选后的用户扫视的人脸特征点进行聚类,得到所有用户关注的图像焦点位置,即聚类后的簇心,其中定义为凝视点,由凝视点得到用户的凝视区域,用户的凝视区域计算如下:
S=d·tan(θ)
其中,S为用户的凝视区域,d为用户到实验主机屏幕的水平距离,θ为视觉广度,取值为6度;tan()为正切函数。
5.如权利要求1所述基于生物启发和深度属性学习相结合的人脸美感预测方法,其特征在于在步骤3)中,所述获取人脸图像的美感等级标签的具体方法为:针对步骤1)中预处理后的人脸图像,通过实验获取至少20用户对于人脸图像之间的美感相对排名,然后通过包括但不限于TrueSkill算法将美感的相对排名转换为人脸图像的美感评分,进而转化为美感等级标签。
6.如权利要求1所述基于生物启发和深度属性学习相结合的人脸美感预测方法,其特征在于在步骤4)中,所述人脸美感模型的建立的具体方法为:
(1)根据步骤2)得到的凝视区域,将步骤1)进行预处理之后的人脸图像凝视区域之外的区域进行高斯模糊处理;
(2)将人脸图像划分为训练集合和测试集合;
(3)根据步骤2)得到的用户观察人脸时的凝视区域及步骤3)得到的人脸图像的美感标签通过包括但不限于监督学习和卷积神经网络的方法训练出人脸美感评价模型。
CN201711493994.5A 2017-12-31 2017-12-31 基于生物启发和深度属性学习相结合的人脸美感预测方法 Pending CN108108715A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711493994.5A CN108108715A (zh) 2017-12-31 2017-12-31 基于生物启发和深度属性学习相结合的人脸美感预测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711493994.5A CN108108715A (zh) 2017-12-31 2017-12-31 基于生物启发和深度属性学习相结合的人脸美感预测方法

Publications (1)

Publication Number Publication Date
CN108108715A true CN108108715A (zh) 2018-06-01

Family

ID=62215240

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711493994.5A Pending CN108108715A (zh) 2017-12-31 2017-12-31 基于生物启发和深度属性学习相结合的人脸美感预测方法

Country Status (1)

Country Link
CN (1) CN108108715A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109199411A (zh) * 2018-09-28 2019-01-15 南京工程学院 基于模型融合的案件知情者识别方法
CN110148013A (zh) * 2019-04-22 2019-08-20 阿里巴巴集团控股有限公司 一种用户标签分布预测方法、装置及***
CN113689324A (zh) * 2021-07-06 2021-11-23 清华大学 一种基于二分类标签的人像物件的自动增删方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102254180A (zh) * 2011-06-28 2011-11-23 北京交通大学 一种基于几何特征的人脸美感分析方法
CN106815604A (zh) * 2017-01-16 2017-06-09 大连理工大学 基于多层信息融合的注视点检测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102254180A (zh) * 2011-06-28 2011-11-23 北京交通大学 一种基于几何特征的人脸美感分析方法
CN106815604A (zh) * 2017-01-16 2017-06-09 大连理工大学 基于多层信息融合的注视点检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
李璐: "融合生物启发与深度属性学习的人脸美感预测方法", 《中国优秀硕士学位论文全文数据库》 *
毛慧芸: "人脸美丽吸引力的特征分析与机器学习", 《中国博士学位论文全文数据库》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109199411A (zh) * 2018-09-28 2019-01-15 南京工程学院 基于模型融合的案件知情者识别方法
CN109199411B (zh) * 2018-09-28 2021-04-09 南京工程学院 基于模型融合的案件知情者识别方法
CN110148013A (zh) * 2019-04-22 2019-08-20 阿里巴巴集团控股有限公司 一种用户标签分布预测方法、装置及***
CN110148013B (zh) * 2019-04-22 2023-01-24 创新先进技术有限公司 一种用户标签分布预测方法、装置及***
CN113689324A (zh) * 2021-07-06 2021-11-23 清华大学 一种基于二分类标签的人像物件的自动增删方法及装置
CN113689324B (zh) * 2021-07-06 2024-04-26 清华大学 一种基于二分类标签的人像物件的自动增删方法及装置

Similar Documents

Publication Publication Date Title
CN104850825B (zh) 一种基于卷积神经网络的人脸图像颜值计算方法
Graham et al. Statistical regularities in art: Relations with visual coding and perception
CN102254180B (zh) 一种基于几何特征的人脸美感分析方法
Liu et al. Advances in computational facial attractiveness methods
CN107977671A (zh) 一种基于多任务卷积神经网络的舌象分类方法
CN109117864A (zh) 基于异构特征融合的冠心病风险预测方法、模型及***
CN107481188A (zh) 一种图像超分辨率重构方法
CN109902912B (zh) 一种基于性格特征的个性化图像美学评价方法
CN107785061A (zh) 孤独症谱系障碍儿童情绪能力干预***
CN104298753B (zh) 基于人脸图像处理的人才测评方法
CN110197729A (zh) 基于深度学习的静息态fMRI数据分类方法和装置
CN109902558A (zh) 一种基于cnn-lstm的人体健康深度学习预测方法
CN103971106B (zh) 多视角人脸图像性别识别方法及装置
CN109544518A (zh) 一种应用于骨骼成熟度评估的方法及其***
CN106778687A (zh) 基于局部评估和全局优化的注视点检测方法
CN107590478A (zh) 一种基于深度学习的年龄估计方法
CN106340000A (zh) 骨龄评估方法
CN108108715A (zh) 基于生物启发和深度属性学习相结合的人脸美感预测方法
CN110298303A (zh) 一种基于长短时记忆网络扫视路径学习的人群识别方法
CN110135327A (zh) 一种基于多区域特征学习模型的驾驶员行为识别方法
CN110428364A (zh) 帕金森声纹语谱图样本扩充方法、装置及计算机存储介质
Vogel et al. Category structure determines the relative attractiveness of global versus local averages.
Bhimavarapu et al. Analysis and characterization of plant diseases using transfer learning
CN107862246A (zh) 一种基于多视角学习的眼睛注视方向检测方法
KR101150768B1 (ko) 피문 분석을 이용한 적성검사 방법 및 그 방법을 기록한 컴퓨터로 읽을 수 있는 기록매체

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20180601