CN101034433A - 人脸表情图像的分类及语义评判量化方法 - Google Patents

人脸表情图像的分类及语义评判量化方法 Download PDF

Info

Publication number
CN101034433A
CN101034433A CN 200710019296 CN200710019296A CN101034433A CN 101034433 A CN101034433 A CN 101034433A CN 200710019296 CN200710019296 CN 200710019296 CN 200710019296 A CN200710019296 A CN 200710019296A CN 101034433 A CN101034433 A CN 101034433A
Authority
CN
China
Prior art keywords
sigma
gamma
expression
theta
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN 200710019296
Other languages
English (en)
Other versions
CN100447808C (zh
Inventor
郑文明
王海贤
周晓彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CNB2007100192961A priority Critical patent/CN100447808C/zh
Publication of CN101034433A publication Critical patent/CN101034433A/zh
Application granted granted Critical
Publication of CN100447808C publication Critical patent/CN100447808C/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明涉及在语义评判基础上对人脸表情图像分类及语义评判并进行量化的分析方法。本发明利用训练人脸表情图像样本集,提取表情特征形成标记图LG向量,将其投影到主成分PCA子空间中,利用这些降维后的LG向量学习混合多维t-分布,作为该图像六种基本情感的语义评判,按照哪个表情所占的概率最大,从而把该图像判到该表情类中。解决了现有技术存在的不明确、自动人脸表情识别困难,难以克服的奇异性等缺陷。本发明是一种极度柔韧和功能强大的基于统计的建模工具,提供了一个更鲁棒方法,避免了对观测样本所属分量的后验概率的极端估计,训练样本不需要标记,不需要任何后处理,对野值不太敏感,避免了这种人工评判。

Description

人脸表情图像的分类及语义评判量化方法
技术领域
本发明涉及一种人脸表情图像的分析方法,特别涉及在语义评判基础上对人脸表情图像分类及语义评判并进行量化的分析方法。
背景技术
目前,从计算机视觉和模式识别的角度进行人脸表情识别研究是目前表情识别研究的一个崭新方向,这种人脸表情的识别能力是智能计算机的标志之一,对它的研究使得具有情感敏感的人机交互成为可能。当计算机拥有这种识别情感的能力时,它就具有和人一样的识别他人情感的能力,这在教育、医疗、安检、娱乐、商务、社会发展等领域具有广泛的应用前景。此外,通过计算机的分析和处理手段,将情感的研究从感性认知角度,上升为可识别模型,对在认知科学上探索大脑对信息的分析与处理的机理、进一步加深对大脑中情感概念的解析和理解将具有极其重要的科学意义。
人脸表情图像的研究在1971年由Ekman和Friesen假定了六种基本情感,即恐惧、愤怒、悲伤、高兴、厌恶及惊奇,每种情感都有独特的内容,并且和唯一一种人脸表情相关联。过去,人脸表情的分析主要是心理学家的研究课题,但现在利用计算机进行图像序列的自动人脸表情识别研究已经开始并取得了一定的有意义的成果。
在本发明之前,用计算机进行自动人脸表情识别的方法,大体上有两种方案:一是把表情识别看成是普通的模式分类问题,其最终目的是把人脸表情图像简单地划分到六种基本情感中的一种,比如流行的广义判别分析(GeneralizedDiscriminant Analysis,以下简称GDA)、线性判别分析(Linear DiscriminantAnalysis,以下简称LDA),它们都是子空间学习方法,使得投影后的不同类的数据点尽量分散而同一类中的数据点尽量聚集;另一个经典的研究是Ekman的面部运动编码***(Facial Action Coding System,简称FACS),FACS用44块运动单元(Action Unit,AU)来描述所有可能的、视觉上可区分的关于位置和强度的面部运动,表情可通过单个AU或多个AU的线性组合来建模。这二种方法都是直接把人脸表情映射到由Ekman和Friesen定义的六种基本情感类别中的一个。然而,这六种情感类别却是描述性的,因此,不是十分明确;其次,一种表情分到多个情感类别也是可能的,例如,微笑的嘴巴和扬眉是惊奇和高兴的混合。这些都使得目前的自动人脸表情识别方法变得困难,上面两种方法也都不能给出人脸表情语义的量化评判。虽然从数据回归分析的角度,可以估计人脸图像相应的各基本情感成分,比如核典型相关分析(Kernel Canonical CorrelationAnalysis,以下简称KCCA)方法,它通过建立人脸图像同其对应的基本情感数据之间的关系模型,然后利用这个关系模型对未知人脸表情图像进行预测估计,但这种方法需要对训练样本进行人工的语义评判,而且在回归中还存在难以克服的奇异性问题。
发明内容
本发明的目的就在于克服上述缺陷,设计、研制一种采用有限混合多维t-分布对表情特征建模,并将每一个分量分布对应一个基本情感状态,则人脸表情分析可期望用有限混合模型来进行量化分类、评判的方法。
本发明的技术方案是:
人脸表情图像的分类及语义评判量化方法,其主要技术步骤如下:
(1)利用训练人脸表情图像样本集,提取表情特征形成标记图LG向量;
(2)将这些LG向量投影到主成分PCA子空间中,丢弃那些较小的主成分;
(3)利用这些降维后的LG向量学习混合多维t-分布,设x1,…,xn为样本量为n的p维LG向量,它们独立地抽自一个g-分量的混合多维t-分布:
f ( x i ; Θ ) = Σ j = 1 g π j f j ( x i ; θ j )
其中,分量概率密度函数fj(xi;θj)表示给定xi来自第j个分量时xi的条件概率密度函数,θj为参数,混合比例πj非负且满足 Σ j = 1 g π j = 1 , 有三组参数:混合比例πj,向量θj,分量数目g,模型中参数集Θ=(π1,…πg-1,θ1,…,θg),参数 π g = 1 - Σ j = 1 g - 1 π j , 在表情研究中,令g=6为基本表情的类别数,fj(xi;θj)为p-维t-分布:
f j ( x j ; θ j ) = t p ( x i ; μ j , Σ j , γ j )
= Γ ( γ j + p 2 ) | Σ j | - 1 2 ( Γ ( 1 2 ) ) p Γ ( γ j 2 ) γ j p 2 ( 1 + ( x i - μ j ) T Σ j - 1 ( x i - μ j ) γ j ) - ( γ j + p ) 2
其中,θj=(μj,∑j,γj)T,∑j是一正定矩阵,γj是自由度,Gamma函数 Γ ( s ) = ∫ 0 ∞ e - x x s - 1 dx ( s > 0 ) , 利用期望最大化算法,迭代计算模型参数Θ的极大似然估计,即具体地说,在E-步,利用目前Θ的估计
Figure A20071001929600067
计算xi来自第j个分量地后验概率
Z ^ ij ( k ) = π ^ j ( k ) t p ( x i ; μ ^ j ( k ) , Σ ^ j ( k ) , γ ^ j ( k ) ) Σ l = 1 g π ^ l ( k ) t p ( x i ; μ ^ l ( k ) , Σ ^ l ( k ) , γ ^ l ( k ) )
及条件概率
ω ^ ij ( k ) = γ ^ j ( k ) + p γ ^ j ( k ) + ( x i - μ ^ j ( k ) ) T Σ ^ j ( k ) - 1 ( x j - μ ^ j ( k ) )
在M-步,参数πj,μj,∑j分别被更新为:
π ^ j ( k + 1 ) = 1 n Σ i = 1 n z ^ ij ( k )
μ ^ j ( k + 1 ) = Σ i = 1 n z ^ ij ( k ) ω ^ ij ( k ) x i Σ i = 1 n z ^ ij ( k ) ω ^ ij ( k )
Σ ^ j ( k + 1 ) = Σ i = 1 n z ^ ij ( k ) ω ^ ij ( k ) ( x i - μ ^ j ( k + 1 ) ) ( x i - μ ^ j ( k + 1 ) ) T Σ i = 1 n z ^ ij ( k ) ω ^ ij ( k )
自由度的更新估计
Figure A20071001929600076
是下面非线性方程的解:
Figure A20071001929600077
- log ( γ j ( k ) + p 2 ) = 0
(4)对于一个测试人脸表情图像t,用它来自每个分量的后验概率
z ^ j = π ^ j t p ( t ; μ ^ j , Σ ^ j , γ ^ j ) Σ l = 1 6 π ^ l t p ( t ; μ ^ l , Σ ^ l , γ ^ l )
作为该图像六种基本情感的语义评判,其中,j=1,…,6,参数
Figure A200710019296000710
为EM学习算法中迭代收敛后的值,且在语义评判中,按照哪个表情所占的概率最大,从而把该图像判到该表情类中。
本发明的优点和效果在于有限混合模型是一种极度柔韧和功能强大的基于统计的建模工具,它假定每个样本是以一定的概率π1,…,πg来自g个类(cluster)(或基本总体,underlying population),而每个总体的概率密度形式已知,待估计的是一些参数,有限混合模型还可逼近任意复杂的概率密度函数,所以有限混合模型提供了一种无监督的分类、Bayes学习、特征选择的一种正式方法。我们常用Gauss混合分布来对多维数据集进行聚类或拟合,但在许多应用中,Gauss分布的尾部比需要的要轻,而且分量均值和方差矩阵的估计会受到关于分量的非典型观测样本的严重影响;作为一种鲁棒的替代方法,采用多维t-混合分布建模是一种标准的选择,且t-分布比Gauss分布有较重(heavy)的尾部,因而它提供了一个比Gauss分布更鲁棒方法;此外,t-混合模型避免了对观测样本所属分量的后验概率的极端估计;t-混合分布实际上是把Gauss混合分布的分量密度嵌入到一类更广泛的椭球对称分布中,而该分布有个额外参数——自由度γ,且当γ趋于无穷时,t-分布趋于Gauss分布,所以参数γ可视为鲁棒“调谐”(tune)参数,它本质上起到抵制非典型观测样本的作用。γ可以预先给定,也可从数据集估计而得,因而它提供了一种适应性鲁棒过程。
采用有限混合多维t-分布对表情特征建模具体有以下的优点:
1.利用人脸表情图像的所属分布的后验概率,不仅能够对表情图像进行分类,更重要的是可以对表情语义进行评判。在一些应用中,量化估计六种基本情感是非常重要的,也是必须的,而这恰恰相反是本发明所能做到的;
2.本发明与GDA、LDA等流行的人脸表情识别方法相比,这些方法都只能把人脸表情分到六种基本情感类别中的一个,而不能给出表情语义的量化评判。另外,这些方法是有监督的,而本发明是无监督的方法,在很多的实际应用里,大量的没有类别标记的样本很容易得到,而标记样本的获得则要花费很大代价,因为标记大量样本是相当费力、费时的,而本发明的训练样本不需要标记。
3.而本发明与KCCA方法相比,其优势是:一是它不需要任何后处理,而KCCA需要进行额外的回归分析得出表情语义估计,这不仅增加了计算量,而且在回归分析中存在着难以解决的奇异性问题;二是本发明不需要对训练样本进行人工的语义评判,而这是KCCA方法所避免不了的,对大的训练集进行人工评判是花相当代价和困难的,它需要组织专门的心里学专家来实施,然而本发明则避免了这种人工评判。
4.由于混合多维t-分布的内在鲁棒性和柔韧性,本发明对野值(outliers)不太敏感,而其它的人脸表情识别方法则易受野值的干扰。
附图说明
图1——用混合多维t-分布对六种人脸表情:恐惧、愤怒、悲伤、高兴、厌恶及惊奇进行建模型的示意图。
图2——混合了六种人脸表情的人脸图。
图3——日本女性人脸表情库中部分人脸表情图。
图4——标记了34个信仰点的人脸表情图。
图5——六种人脸表情的心理学家与本发明的语义评判分析图。
图6——日本女性人脸表情库上多种实验结果对比表图。
图7——日本女性人脸表情库上分类的融合矩阵表图。
具体实施方式
如图1、2所示,人脸表情的情感状态可以视为是六种基本情感状态恐惧、愤怒、悲伤、高兴、厌恶及惊奇的混合,如果我们用有限混合模型中的每一个分量分布对应一个基本情感状态,则人脸表情分析可期望用有限混合模型来刻画,图1形象地解释了这个模型。
本发明技术方案实施的主要技术步骤具体如下:
1.利用训练人脸表情图像样本集,提取表情特征形成标记图(Labeled Graph,以下简称LG)向量,LG向量比信仰点的几何位置更能体现表情特征,而且具有较好的通用性,不易受光照等因素的影响;
2.考虑到LG向量的维数可能很高,我们投影这些LG向量到主成分(PrincipalComponent Analysis,以下简称PCA)子空间中,进一步提取表情主成分,丢弃那些较小的主成分,避免“维数灾难”,同时,利用PCA进行预降维的另一个好处是可以消除噪声;
3.利用这些降维后的LG向量学习混合多维t-分布;设x1,…,xn为样本量为n的p维LG向量,它们独立地抽自一个g-分量的混合多维t-分布:
f ( x i ; Θ ) = Σ j = 1 g π j f j ( x i ; θ j )
其中fj(xi;θj)(又被称为分量概率密度函数)表示给定xi来自第j个分量时xi的条件概率密度函数,θj为参数,πj(又被称为混合比例)非负且满足 Σ j = 1 g π j = 1 , 我们需要估计三组参数:混合比例πj,向量θj,分量数目g。所以模型中参数集Θ=(π1,…πg-1,θ1,…,θg),参数 π g = 1 - Σ j = 1 g - 1 π j · 在表情研究中,我们令g=6为基本表情的类别数,fj(xi;θj)为p-维t-分布:
f j ( x j ; θ j ) = t p ( x i ; μ j , Σ j , γ j )
= Γ ( γ j + p 2 ) | Σ j | - 1 2 ( Γ ( 1 2 ) ) p Γ ( γ j 2 ) γ j p 2 ( 1 + ( x i - μ j ) T Σ j - 1 ( x i - μ j ) γ j ) - ( γ j + p ) 2
其中j=1,…,g,i=1,…,n,θj=(μj,∑j,γj)T,∑j是一正定矩阵,γj是自由度,Gamma函数 Γ ( s ) = ∫ 0 ∞ e - x x s - 1 dx ( s > 0 ) . 利用期望最大化(ExpectationMaximization,以下简称EM)算法,我们迭代计算模型参数Θ的最大似然估计。具体地说,在E-步,利用目前Θ的估计
Figure A20071001929600101
计算xi来自第j个分量的后验概率
Z ^ ij ( k ) = π ^ j ( k ) t p ( x i ; μ ^ j ( k ) , Σ ^ j ( k ) , γ ^ j ( k ) ) Σ l = 1 g π ^ l ( k ) t p ( x i ; μ ^ l ( k ) , Σ ^ l ( k ) , γ ^ l ( k ) )
及条件概率
ω ^ ij ( k ) = γ ^ j ( k ) + p γ ^ j ( k ) + ( x i - μ ^ j ( k ) ) T Σ ^ j ( k ) - 1 ( x j - μ ^ j ( k ) )
在M-步,参数πj,μj,∑j分别被更新为:
π ^ j ( k + 1 ) = 1 n Σ i = 1 n z ^ ij ( k )
μ ^ j ( k + 1 ) = Σ i = 1 n z ^ ij ( k ) ω ^ ij ( k ) x i Σ i = 1 n z ^ ij ( k ) ω ^ ij ( k )
Σ ^ j ( k + 1 ) = Σ i = 1 n z ^ ij ( k ) ω ^ ij ( k ) ( x i - μ ^ j ( k + 1 ) ) ( x i - μ ^ j ( k + 1 ) ) T Σ i = 1 n z ^ ij ( k ) ω ^ ij ( k )
自由度的更新估计
Figure A20071001929600107
是下面非线性方程的解:
Figure A20071001929600108
- log ( γ j ( k ) + p 2 ) = 0
EM的迭代算法可以保证似然函数的单调增加,在很温和的条件下,迭代收敛到极大似然估计,从而使得求解混合模型极大似然估计这一复杂问题转化为两步迭代计算;当自由度γ已知时,上面的迭代是封闭的,而混合多维t-分布一个令人感兴趣的优点就是自由度γ也可以和其它参数一样从训练样本集估计得到,γ本质上起到抵制非典型观测样本的作用,从而使得混合多维t-分布比Gauss混合模型更具有鲁棒性。
4.对于一个测试人脸表情图像t,我们用它来自每个分量的后验概率,
z ^ j = π ^ j t p ( t ; μ ^ j , Σ ^ j , γ ^ j ) Σ l = 1 6 π ^ l t p ( t ; μ ^ l , Σ ^ l , γ ^ l )
作为该图像六种基本情感的语义评判,其中j=1,…,6,参数
Figure A20071001929600112
为EM学习算法中迭代收敛后的值。此外,我们可以在语义评判中,按照哪个表情所占的概率最大,从而把该图像判到该表情类中。用后验概率的六个值作为六种人脸表情的语义评判是十分恰当和优美的:人脸表情的情感状态可以视为是六种基本情感状态的混合,而后验概率则表示来自每个情感的可能性,也即比例,它们之和也恰好为l,而且后验概率还充分综合了先验知识和训练样本的信息,有效地刻画了表情信息。这种无监督地鲁棒而量化地获得人脸表情的语义评判是本发明所独有的。
对表情特征提取,采用对每个人脸图像进行手工标记34个信仰点,然后计算在这些信仰点上的Gabor滤波系数,最后联合所有这些信仰点上系数的幅值形成LG向量;实验表明滤波系数比信仰点的几何位置更能刻画表情特征;二维Gabor小波核是一种平面波:
= g u , v ( y ) = | | k u , v | | 2 σ 2 exp ( - | | k u , v | | 2 | | y | | 2 2 σ 2 ) ( exp ( i k u , v y ) - exp ( σ 2 2 ) )
其中向量y表示信仰点的位置,ku,v被定义为ku,v=kvexp(iφu),其中u核和v分别表示Gabor核的方向和尺度,kv=π/2v(v∈{1,…,5}),及φu=πu/6(u∈{0,…,5})。所以,对每个人脸表情图像,LG的维数为1020(=34×5×6),其中Gabor核采用了5个尺度和6个方向。
对LG向量的降维,我们采用常规的PCA方法。PCA是对描述观测数据的坐标***的一个正交变换,它旨在用原始变量的线性组合获得较少的互不相关的新变量,同时尽可能多地保持输入数据集所包含的信息。代数上说,PCA归结为矩阵特征分解问题;几何上说,PCA可视为坐标轴旋转,且新坐标轴按照它们能够解释输入数据集信息的多少排序。主投影方向就是样本方差矩阵的主要特征向量。
对有限混合t-分布的学习是采用EM算法。把有限混合t-分布解释成适宜的“丢失值”(missing value)问题,则可用EM算法两步(即E步和M步)迭代计算模型参数的极大似然估计。E步是在给定的观测样本集x的条件下,用Θ目前的估计值
Figure A20071001929600114
,对完全数据向量的对数似然函数lnLC(Θ)关于丢失值求条件期望 Q ( Θ ; Θ ( k ) ) = E Θ ( k ) [ 1 n L c ( Θ ) | x ] . 第(k+1)次迭代时,M步在参数空间里寻找Θ=Θ(k+1)来最大化Q(Θ;Θ(k)),即 Θ ( k + 1 ) = arg max Θ Q ( Θ ; Θ ( k ) ) .
实验结果分析,在日本女性人脸表情库(Japanese Female FacialExpression,以下简称JAFFE)的测试中,体现了本发明的有效性。
JAFFE表情数据库由10位日本女性的表情图像组成,总共有213幅表情图像,每幅图像的大小为256×256像素,灰度级为256;JAFFE数据库覆盖7种基本表情(即:恐惧、愤怒、悲伤、高兴、厌恶及惊奇六种基本表情+中性表情),各种表情图像的数目大致相等,即每位女性均含有2-4幅各种表情图像。图3显示了JAFFE人脸表情数据库中的部分表情图像。从图3中我们还可以看出,每个人物在图像中的位置大致相同,即眼睛和嘴巴的位置大致对齐,这些特性可以简化研究。此外,该数据库还附带了每幅原始图像的基本表情成分大小的数据,这些数据可以为研究人脸表情提供一个基本参考数据。实验中,我们用六种基本表情的图像(不包括中性表情图像)作为训练样本,所以训练样本的个数为183。
我们用PCA把LG向量的维数降到25。利用后验概率
Figure A20071001929600123
(j=1,…,6,)量化计算一副图像的六种基本表情的比例。一个例子如图4、5所示,图4表示的是一个已标记34个信仰点的人脸表情图像,而图5是它的语义评判;可见,本发明所得到的语义评判与专家的人工评判很接近。基于这个语义评判,可把这个表情图像分到高兴这一类,因为高兴所占的比例最大。
对分类而言,把本发明的分类性能与三种常用的表情分类方法相比较:GDA、LDA、KCCA。
在实验中采用“Leave-One-Subject-Out”与人无关的交叉验证策略进行实验,在每一次的“Leave-One-Subject-Out”测试中,选择某一个人的所有图像作为测试样本集,而其他9个人的图像作为训练样本集,整个实验重复10次,每个人的所有图像都作为一次测试样本集,对试验结果求平均得到最后的识别率。
实验结果列于图6中,其中核函数的定义为:d-阶多项式核,k(xi,xj)=(xi·xj)d,Gauss核,k(xi,xj)=exp(-‖xi-xj2/σ),(σ>0)。从图6可见,本发明可以取得最好的识别率。需要指出的是:本发明和LDA、CCA都是在原始输入空间计算,而本发明比LDA、CCA的识别率要显著地高,即使把LDA、CCA变换到核空间,本发明也比GDA、KCCA的识别率要高,可以期望如果把本发明也变换到核空间,那么将会取得更高的识别率。考虑到***对不同表情的识别能力不尽相同,在图7中列出了六中基本表情分类的融合矩阵。

Claims (5)

1.人脸表情图像的分类及语义评判量化方法,其步骤如下:
(1)利用训练人脸表情图像样本集,提取表情特征形成标记图LG向量;
(2)将这些LG向量投影到主成分PCA子空间中,丢弃那些较小的主成分;
(3)利用这些降维后的LG向量学习混合多元t-分布,设x1,…,xn为样
本量为n的p维LG向量,它们独立地抽自一个g-分量的混合多元t-分布:
f ( x i ; Θ ) = Σ j = 1 g π j f j ( x i ; θ j )
其中,分量概率密度函数fj(xi;θj)表示给定xi来自第j个分量时xi的条件概率密度函数,θj为参数,混合比例πj非负且满足 Σ j = 1 g π j = 1 , 有三组参数:混合比例πj,向量θj,分量数目g,模型中参数集Θ=(π1,…πg-1,θ1,…,θg),参数 π g = 1 - Σ j = 1 g - 1 π j , 在表情研究中,令g=6为基本表情的类别数,fj(xi;θj)为p-维t-分布:
f j ( x i ; θ j ) = t p ( x i ; μ j , Σ j , γ j )
= Γ ( γ j + p 2 ) | Σ j | - 1 2 ( Γ ( 1 2 ) ) p Γ ( γ j 2 ) γ j p 2 ( 1 + ( x i - μ j ) T Σ j - 1 ( x i - μ j ) γ j ) ( γ j + p ) 2
其中,θj=(μj,∑j,γj)T,∑j是一正定矩阵,γj是自由度,Gamma函数 Γ ( s ) = ∫ 0 ∞ e - x x s - 1 dx (s>0),利用期望最大化算法,迭代计算模型参数Θ的极大似然估计,即具体地说,在E-步,利用目前Θ的估计
Figure A2007100192960002C7
计算xi来自第j个分量地后验概率
z ^ ij ( k ) = π ^ j ( k ) t p ( x i ; μ ^ j ( k ) , Σ ^ j ( k ) , γ ^ j ( k ) ) Σ l = 1 g π ^ l ( k ) t p ( x i ; μ ^ l ( k ) , Σ ^ l ( k ) , γ ^ l ( k ) )
及条件概率
ω ^ ij ( k ) = γ ^ j ( k ) + p γ ^ j ( k ) + ( x i - μ ^ j ( k ) ) T Σ ^ j ( k ) - 1 ( x i - μ ^ j ( k ) )
在M-步,参数πj,μj,∑j分别被更新为:
π ^ j ( k + 1 ) = 1 n Σ i = 1 n z ^ ij ( k )
μ ^ j ( k + 1 ) = Σ i = 1 n z ^ ij ( k ) ω ^ ij ( k ) x i Σ i = 1 n z ^ ij ( k ) ω ^ ij ( k )
Σ ^ j ( k + 1 ) = Σ i = 1 n z ^ ij ( k ) ω ^ ij ( k ) ( x i - μ ^ j ( k + 1 ) ) ( x i - μ ^ j ( k + 1 ) ) T Σ i = 1 n z ^ ij ( k ) ω ^ ij ( k )
自由度的更新估计
Figure A2007100192960003C5
是下面非线性方程的解:
Figure A2007100192960003C6
- log ( γ j ( k ) + p 2 ) = 0
(4)对于一个测试人脸表情图像t,用它来自每个分量的后验概率
z ^ j = π ^ j t p ( t ; μ ^ j , Σ ^ j , γ ^ j ) Σ l = 1 6 π ^ l t p ( t ; μ ^ l , Σ ^ l , γ ^ l )
作为该图像六种基本情感的语义评判,其中,j=1,…,6,参数
Figure A2007100192960003C9
为EM学习算法中迭代收敛后的值,且在语义评判中,
按照哪个表情所占的概率最大,从而把该图像判到该表情类中。
2.根据权利要求1所述的人脸表情图像的分类及语义评判量化方法,其特征在于对表情特征提取采取如下做法:对每个人脸图像,手工标记34个信仰点,计算在这些信仰点上的Gabor滤波系数,再联合所有这些信仰点上系数的幅值形成LG向量,而二维Gabor小波核是一种平面波:
g u , v ( y ) = | | k u , v | | 2 σ 2 exp ( - | | k u , v | | 2 | | y | | 2 2 σ 2 ) ( exp ( ik u , v y ) - exp ( σ 2 2 ) )
其中,向量y表示信仰点的位置,ku,v被定义为ku,v=kv exp(iφu),其中u核和v分别表示Gabor核的方向和尺度,kv=π/2v(v∈{1,…,5}),及
φu=πu/6(u∈{0,…,5}),所以,对每个人脸表情图像,LG的维数为1020(=34×5×6)。
3.根据权利要求2所述的人脸表情图像的分类及语义评判量化方法,其特征在于Gabor核采用了5个尺度、6个方向。
4.根据权利要求1所述的人脸表情图像的分类及语义评判量化方法,其特征在于步骤(1)中,投影方向就是样本方差矩阵的主要特征向量。
5.根据权利要求1所述的人脸表情图像的分类及语义评判量化方法,其特征在于对有限混合t-分布的学习采用EM算法,即将有限混合t-分布采用EM算法两步迭代计算模型参数的极大似然估计,即E步是在给定的观测样本集x的条件下,用Θ目前的估计值
Figure A2007100192960004C1
对完全数据向量的对数似然函数lnLc(Θ)关于丢失值求条件期望 Q ( Θ ; Θ ( k ) ) = E Θ ( k ) [ ln L c ( Θ ) | x ] , 第(k+1)次迭代时,M步在参数空间里寻找Θ=Θ(k+1)来最大化Q(Θ;Θ(k)),即
Θ ( k + 1 ) = arg max Θ Q ( Θ ; Θ ( k ) ) .
CNB2007100192961A 2007-01-12 2007-01-12 人脸表情图像的分类及语义评判量化方法 Expired - Fee Related CN100447808C (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CNB2007100192961A CN100447808C (zh) 2007-01-12 2007-01-12 人脸表情图像的分类及语义评判量化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CNB2007100192961A CN100447808C (zh) 2007-01-12 2007-01-12 人脸表情图像的分类及语义评判量化方法

Publications (2)

Publication Number Publication Date
CN101034433A true CN101034433A (zh) 2007-09-12
CN100447808C CN100447808C (zh) 2008-12-31

Family

ID=38730981

Family Applications (1)

Application Number Title Priority Date Filing Date
CNB2007100192961A Expired - Fee Related CN100447808C (zh) 2007-01-12 2007-01-12 人脸表情图像的分类及语义评判量化方法

Country Status (1)

Country Link
CN (1) CN100447808C (zh)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101315663B (zh) * 2008-06-25 2010-06-09 中国人民解放军国防科学技术大学 一种基于区域潜在语义特征的自然场景图像分类方法
CN101561868B (zh) * 2009-05-19 2011-08-10 华中科技大学 基于高斯特征的人体运动情感识别方法
CN102388347A (zh) * 2009-02-02 2012-03-21 易朋创新公司 异型电子器件的检测方法
CN102647542A (zh) * 2011-02-22 2012-08-22 株式会社理光 图像处理设备和图像处理方法
CN104346629A (zh) * 2014-10-24 2015-02-11 华为技术有限公司 一种模型参数训练方法、装置及***
CN105917305A (zh) * 2013-08-02 2016-08-31 埃莫蒂安特公司 基于图像情感内容的过滤和快门拍摄
CN106156787A (zh) * 2015-04-21 2016-11-23 盐城工学院 多模态湿地生态生境场景核空间溯源方法及装置
CN106250897A (zh) * 2016-07-27 2016-12-21 合肥高晶光电科技有限公司 一种根据特征值进行色选方法
CN106951856A (zh) * 2017-03-16 2017-07-14 腾讯科技(深圳)有限公司 表情包提取方法及装置
CN108288048A (zh) * 2018-02-09 2018-07-17 中国矿业大学 基于改进头脑风暴优化算法的面部情绪识别特征选择方法
CN109285603A (zh) * 2018-08-28 2019-01-29 长安大学 一种口腔诊断装置及图像处理方法
CN109284713A (zh) * 2018-09-21 2019-01-29 上海健坤教育科技有限公司 一种基于摄像头采集表情数据的情绪识别分析***
CN109830280A (zh) * 2018-12-18 2019-05-31 深圳壹账通智能科技有限公司 心理辅助分析方法、装置、计算机设备和存储介质
CN110175578A (zh) * 2019-05-29 2019-08-27 厦门大学 应用于刑侦的基于深度森林的微表情识别方法
CN110647856A (zh) * 2019-09-29 2020-01-03 大连民族大学 一种基于公理化模糊集理论的人脸表情识别的方法
CN110827264A (zh) * 2019-11-06 2020-02-21 四川济通工程试验检测有限公司 一种混凝土构件表观缺陷的评价***
CN111950481A (zh) * 2020-08-17 2020-11-17 广州华多网络科技有限公司 图像中面部表情量化、识别方法及其装置、设备与介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1323370C (zh) * 2004-05-28 2007-06-27 中国科学院计算技术研究所 一种色情图像检测方法
CN100349173C (zh) * 2005-12-15 2007-11-14 上海交通大学 用支持向量机多类分类器搜索特征点新位置的方法
CN100397410C (zh) * 2005-12-31 2008-06-25 北京中星微电子有限公司 基于视频的面部表情识别方法及装置

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101315663B (zh) * 2008-06-25 2010-06-09 中国人民解放军国防科学技术大学 一种基于区域潜在语义特征的自然场景图像分类方法
CN102388347A (zh) * 2009-02-02 2012-03-21 易朋创新公司 异型电子器件的检测方法
CN101561868B (zh) * 2009-05-19 2011-08-10 华中科技大学 基于高斯特征的人体运动情感识别方法
CN102647542A (zh) * 2011-02-22 2012-08-22 株式会社理光 图像处理设备和图像处理方法
CN102647542B (zh) * 2011-02-22 2014-07-09 株式会社理光 图像处理设备和图像处理方法
CN105917305B (zh) * 2013-08-02 2020-06-26 埃莫蒂安特公司 基于图像情感内容的过滤和快门拍摄
CN105917305A (zh) * 2013-08-02 2016-08-31 埃莫蒂安特公司 基于图像情感内容的过滤和快门拍摄
CN104346629B (zh) * 2014-10-24 2018-01-12 开源物联网(广州)有限公司 一种模型参数训练方法、装置及***
CN104346629A (zh) * 2014-10-24 2015-02-11 华为技术有限公司 一种模型参数训练方法、装置及***
CN106156787A (zh) * 2015-04-21 2016-11-23 盐城工学院 多模态湿地生态生境场景核空间溯源方法及装置
CN106250897A (zh) * 2016-07-27 2016-12-21 合肥高晶光电科技有限公司 一种根据特征值进行色选方法
CN106951856A (zh) * 2017-03-16 2017-07-14 腾讯科技(深圳)有限公司 表情包提取方法及装置
CN108288048A (zh) * 2018-02-09 2018-07-17 中国矿业大学 基于改进头脑风暴优化算法的面部情绪识别特征选择方法
CN108288048B (zh) * 2018-02-09 2021-11-23 中国矿业大学 基于改进头脑风暴优化算法的面部情绪识别特征选择方法
CN109285603A (zh) * 2018-08-28 2019-01-29 长安大学 一种口腔诊断装置及图像处理方法
CN109284713A (zh) * 2018-09-21 2019-01-29 上海健坤教育科技有限公司 一种基于摄像头采集表情数据的情绪识别分析***
CN109830280A (zh) * 2018-12-18 2019-05-31 深圳壹账通智能科技有限公司 心理辅助分析方法、装置、计算机设备和存储介质
CN110175578B (zh) * 2019-05-29 2021-06-22 厦门大学 应用于刑侦的基于深度森林的微表情识别方法
CN110175578A (zh) * 2019-05-29 2019-08-27 厦门大学 应用于刑侦的基于深度森林的微表情识别方法
CN110647856A (zh) * 2019-09-29 2020-01-03 大连民族大学 一种基于公理化模糊集理论的人脸表情识别的方法
CN110647856B (zh) * 2019-09-29 2023-04-18 大连民族大学 一种基于公理化模糊集理论的人脸表情识别的方法
CN110827264A (zh) * 2019-11-06 2020-02-21 四川济通工程试验检测有限公司 一种混凝土构件表观缺陷的评价***
CN111950481A (zh) * 2020-08-17 2020-11-17 广州华多网络科技有限公司 图像中面部表情量化、识别方法及其装置、设备与介质

Also Published As

Publication number Publication date
CN100447808C (zh) 2008-12-31

Similar Documents

Publication Publication Date Title
CN100447808C (zh) 人脸表情图像的分类及语义评判量化方法
Shen et al. HEp-2 image classification using intensity order pooling based features and bag of words
CN111738143B (zh) 一种基于期望最大化的行人重识别方法
Crouzet et al. What are the visual features underlying rapid object recognition?
Erdogan et al. Visual shape perception as Bayesian inference of 3D object-centered shape representations.
Haloi A novel plsa based traffic signs classification system
CN113688894B (zh) 一种融合多粒度特征的细粒度图像分类方法
Hassairi et al. Supervised image classification using deep convolutional wavelets network
Steinberg et al. A Bayesian nonparametric approach to clustering data from underwater robotic surveys
CN114067915A (zh) 一种基于深度对抗变分自编码器的scRNA-seq数据降维方法
Tabernik et al. Towards deep compositional networks
CN115862120A (zh) 可分离变分自编码器解耦的面部动作单元识别方法及设备
CN1858773A (zh) 一种基于Gabor相位模式的图像识别方法
Kumar et al. Multi-modal information extraction and fusion with convolutional neural networks
Kamal et al. Facial emotion recognition for human-computer interactions using hybrid feature extraction technique
Pan et al. Pseudo-set frequency refinement architecture for fine-grained few-shot class-incremental learning
Al-Atroshi et al. Facial Expression Recognition Based on Deep Learning: An Overview
He et al. A hierarchical probabilistic model for rapid object categorization in natural scenes
Akbas et al. Object detection through exploration with a foveated visual field
Kotykhin Analysis of existing image classification problems using convolutional neural networks
Levy et al. Painter classification using genetic algorithms
Wu et al. Methods of recognizing true and fake smiles by using AU6 and AU12 in a holistic way
Alameer Biologically-inspired hierarchical architectures for object recognition
Khan et al. Introducing urdu digits dataset with demonstration of an efficient and robust noisy decoder-based pseudo example generator. Symmetry. 2022; 14 (10): 1976
Mokhayeri et al. A novel facial feature extraction method based on ICM network for affective recognition

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C17 Cessation of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20081231

Termination date: 20120112