CN101872424A - 基于Gabor变换最优通道模糊融合的人脸表情识别方法 - Google Patents

基于Gabor变换最优通道模糊融合的人脸表情识别方法 Download PDF

Info

Publication number
CN101872424A
CN101872424A CN 201010215503 CN201010215503A CN101872424A CN 101872424 A CN101872424 A CN 101872424A CN 201010215503 CN201010215503 CN 201010215503 CN 201010215503 A CN201010215503 A CN 201010215503A CN 101872424 A CN101872424 A CN 101872424A
Authority
CN
China
Prior art keywords
channel
human face
gabor
sorter
facial expression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN 201010215503
Other languages
English (en)
Other versions
CN101872424B (zh
Inventor
印勇
李荣岗
张梅
张思杰
唐渝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Picohood Technology Co ltd
Original Assignee
Chongqing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University filed Critical Chongqing University
Priority to CN 201010215503 priority Critical patent/CN101872424B/zh
Publication of CN101872424A publication Critical patent/CN101872424A/zh
Application granted granted Critical
Publication of CN101872424B publication Critical patent/CN101872424B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明提供了一种基于Gabor变换最优通道模糊融合的人脸表情识别方法,包括以下步骤:S1.将Gabor滤波器划分为十一个通道,由Gabor滤波器对规范化处理后的人脸表情图像进行二维Gabor小波变换以提取人脸表情图像的纹理特征;S2.建立与各个通道一一对应的分类器,将各个通道提取的纹理特征分别送入对应的分类器中进行分类识别,计算各个分类器对各种表情的识别率和清晰度,选取识别率和清晰度的综合排名靠前的四个分类器为最优分类器;S3.将四个最优分类器进行模糊融合处理,得到人脸表情识别结果。该人脸识别方法具有计算量小、计算速度快和识别精度高的优点。

Description

基于Gabor变换最优通道模糊融合的人脸表情识别方法
技术领域
本发明涉及一种模式识别方法,具体地讲,是一种用于在计算机视觉研究中机器自动识别人脸表情的基于Gabor(音译:盖伯)变换最优通道模糊融合的人脸表情识别方法。
背景技术
利用计算机技术完成对人的面部表情的自动识别是目前计算机模式识别研究中的一个热点问题。在一个人脸表情识别***中,人脸表情特征的提取和分类器的设置是最关键的两个技术。由于影响人脸表情识别性能的因素很多,如环境、光照、年龄、姿态、图像分辨率和成像噪声等因素都会对人脸识别结果造成一定的影响,因此目前的特征提取算法虽然取得了一些进展,但是还不够成熟和完善。同时,由于人脸表情分类是一个非常复杂的问题,如何选取性能最优的分类器也是模式识别研究中的一个重要课题。
在专利申请《人脸部件特征和Gabor人脸特征融合的人脸识别方法及其装置》(专利申请号为200810104401.6)中公开了一种利用Gabor小波进行人脸表情特征提取的方法,其对人脸表情图像进行Gabor小波变换然后对Gabor特征图像进行PCA(principal component analysis,主成分分析),具有比较高的识别率,但是其计算量比较大,识别的精确度也还有进一步提高的余地。
发明内容
针对现有技术的不足,本发明的目的是提供一种计算速度快的基于Gabor变换最优通道模糊融合的人脸表情识别方法。
为此,本发明提供了一种基于Gabor变换最优通道模糊融合的人脸表情识别方法,包括以下步骤:S1.将Gabor滤波器划分为十一个通道,由Gabor滤波器对规范化处理后的人脸表情图像进行二维Gabor小波变换以提取人脸表情图像的纹理特征;S2.建立与各个通道一一对应的分类器,将各个通道提取的纹理特征分别送入对应的分类器中进行分类识别,计算各个分类器对各种表情的识别率和清晰度,选取识别率和清晰度的综合排名靠前的四个分类器为最优分类器;S3.将四个最优分类器进行模糊融合处理,得到人脸表情识别结果。
根据本发明的一个方面,步骤S1中规范化处理按照以下步骤进行:S101.首先计算人脸表情图像的行复杂度,根据人脸的行复杂度变化曲线,找出曲线上的最大值对应的坐标作为眼睛区域的中心线,然后截取出竖直方向眼睛的大***置,再用垂直投影法截取出水平方向的位置,以完成对眼睛的粗定位,然后利用眼睛区域的几何分布特点结合Hough变换以完成对眼睛的精确定位;
S102.利用旋转公式对人脸表情图像的角度矫正,旋转公式为其中,旋转角度θ为瞳孔连线和水平方向的夹角,[x0,y0]为原始坐标,[x,y]为旋转后坐标;S103.在瞳孔连线的上方取0.5d宽度,下方取1.5d宽度,以瞳孔连线的中心为基准点,左右各取d宽度对人脸表情图像进行裁剪,其中,d为瞳孔连线长度;利用双线性插值法将人脸表情图像进行缩放;利用直方图均衡化方法对人脸表情图像进行光照补偿。
根据本发明的另一个方面,Gabor滤波器的表达式为
Figure BSA00000190267600031
其中,
Figure BSA00000190267600032
Figure BSA00000190267600033
δ=2π,u代表Gabor滤波器的方向,v代表Gabor滤波器的尺度,划分的十一个通道为:
Channel(通道)1:v=0,π/6,2π/6,3π/6,4π/6,5π/6;
Channel 2:v=1,
Figure BSA00000190267600035
π/6,2π/6,3π/6,4π/6,5π/6;
Channel 3:v=2,π/6,2π/6,3π/6,4π/6,5π/6;
Channel 4:v=3,
Figure BSA00000190267600037
π/6,2π/6,3π/6,4π/6,5π/6;
Channel 5:v=4,
Figure BSA00000190267600038
π/6,2π/6,3π/6,4π/6,5π/6;
Channel 6:
Figure BSA00000190267600039
v=0,1,2,3,4;
Channel 7:
Figure BSA000001902676000310
v=0,1,2,3,4;
Channel 8:
Figure BSA000001902676000311
v=0,1,2,3,4;
Channel 9:
Figure BSA000001902676000312
v=0,1,2,3,4;
Channel 10:
Figure BSA000001902676000313
v=0,1,2,3,4;
Channel 11:
Figure BSA000001902676000314
v=0,1,2,3,4。
根据本发明的另一个方面,在步骤S1中还包括对人脸表情图像的纹理特征进行二次降维处理,二次降维处理为:S111.对人脸表情图像进行非均匀采样得到采样后的人脸表情图像;S112.对采样后的人脸表情图像采用双向二维主成分分析法进行变换。
根据本发明的又一个方面,步骤S2中,计算识别率Pij为Pij=n/N,其中,n是类别Cj中正确识别的样本个数,N是类别Cj的样本总数;计算清晰度Uij
Figure BSA000001902676000315
其中,Aj为分类器Xi对类别Cj的理想输出,Bk为分类器Xi对第k个样本的实际输出,n是正确识别的样本个数。
根据本发明的又一个方面,步骤S3中模糊融合处理采用的模糊积分为j=1,2,…,n,其中,Gj(t)为模糊测度,hj=(h1i,h2j,...,hmj)为待测样本对于类别Cj的各个分类器的输出值,μj为模糊积分值,然后在n个μj中选取最大分值,将最大值所对应的类别Cj作为模糊融合处理后的输出结果,计算模糊测度Gj(t)的步骤为:S301.计算模糊密度gij=Pij×Uij,其中分类器Xi对类别Cj的识别率为Pij,清晰度为Uij,对于一个类别Cj的模糊密度记为gj=(g1j,g2j,...,gmj);S302.根据公式
Figure BSA00000190267600042
由模糊密度gij计算出λ值;S303.待测样本对各个分类器的输出值hj=(h1i,h2j,...,hmj),按从大到小排序,同时模糊密度gij也按从大到小排序;S304.计算模糊测度Gj(t),令Gj(1)=g1j,则Gj(t)=gtj+(1+λgtj)Gj(t-1),t=2,3,...,m。
与现有技术相比,本发明的有益效果是:该基于Gabor变换最优通道模糊融合的人脸表情识别方法利用不同尺度、不同方向的Gabor小波系数对不同人脸表情识别率和清晰度的贡献不同的特点,通过最优通道的选取,可以充分发挥最优通道的优越性,由于只选取了部分性能最好的四个通道,也可以起到了一定的降维作用,减少了计算量,节约了运算时间。该方法中还采用模糊积分融合算法通过对最优通道对应地分类器进行合理的模糊积分融合处理,提高了最终识别结果的识别率。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本发明的基于Gabor变换最优通道模糊融合的人脸表情识别方法的流程图;
图2为本发明的基于Gabor变换最优通道模糊融合的人脸表情识别方法中对眼睛精确定位的图像;
图3-1为本发明的基于Gabor变换最优通道模糊融合的人脸表情识别方法中角度矫正前的图像;
图3-2为本发明的基于Gabor变换最优通道模糊融合的人脸表情识别方法中角度矫正后的图像;
图4为本发明的基于Gabor变换最优通道模糊融合的人脸表情识别方法中预处理后的图像;
图5为本发明的基于Gabor变换最优通道模糊融合的人脸表情识别方法中非均匀采样的原理示意图;
图6为本发明的基于Gabor变换最优通道模糊融合的人脸表情识别方法的识别率曲线图;
图7为本发明的基于Gabor变换最优通道模糊融合的人脸表情识别方法的清晰度曲线图;
图8为本发明的基于Gabor变换最优通道模糊融合的人脸表情识别方法中模糊融合处理原理示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的器件或具有相同或类似功能的器件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
图1示出的是本发明的基于Gabor变换最优通道模糊融合的人脸表情识别方法的流程。该基于Gabor变换最优通道模糊融合的人脸表情识别方法包括提取有效纹理特征、选取最优分类器和模糊融合处理等三个主要步骤,各步骤的具体操作将在下文中详细描述。
S1.将Gabor滤波器划分为十一个通道,由Gabor滤波器对规范化处理后的人脸表情图像进行二维Gabor小波变换以提取所述人脸表情图像的纹理特征。
在步骤S1中,首先需要对人脸表情图像进行规范化处理,规范化处理包括对眼睛的精确定位、人脸表情图像的角度矫正、图像的裁剪、尺度归一化和光照补偿等步骤。
S101.首先计算人脸表情图像的行复杂度,根据人脸的行复杂度变化曲线,找出曲线上的最大值对应的坐标作为眼睛区域的中心线,然后截取出竖直方向眼睛的大***置,再用垂直投影法截取出水平方向的位置,以完成对眼睛的粗定位,然后利用眼睛区域的几何分布特点结合Hough(音译:霍夫)变换以完成对眼睛的精确定位。Hough变换的实质是将图像空间中具有一定关系的象元进行聚类,寻找能把这些象元用某一解析形式联系起来的参数空间中的累积对应点。
图像R的行复杂度定义为:
λ i = Σ j = 1 M | R ( i , j + 1 ) - R ( i , j ) | - - - ( 1 )
为了突出眼睛区域还可以加入加权因子k,加权因子k为
k = 1 0 < i < 0.25 N N / 4 0.25 N &le; i &le; 0.75 N 0.75 ( N - i ) i > 0.75 N - - - ( 2 )
其中,N为图像的总行数。经过眼睛定位后的图像如图2所示。
S102.利用旋转公式对人脸表情图像的角度矫正,旋转公式为
[ x , y , 1 ] = [ x 0 , y 0 , 1 ] cos &theta; sin &theta; 0 - sin &theta; cos &theta; 0 0 0 1 - - - ( 3 )
其中,旋转角度θ为瞳孔连线和水平方向的夹角,为正值时是顺时针旋转,为负值时是逆时针旋转,[x0,y0]为原始坐标,[x,y]为旋转后坐标,经过角度矫正前的图像如图3-1所示,角度矫正后的图像如图3-2所示。
S103.在瞳孔连线的上方取0.5d宽度,下方取1.5d宽度,以瞳孔连线的中心为基准点,左右各取d宽度对人脸表情图像进行裁剪,其中,d为瞳孔连线长度,裁剪后得到的图像能够清楚展示眼睛和嘴巴,可以集中地展现人的面部表情。利用双线性插值法将人脸表情图像进行缩放成统一的大小。利用直方图均衡化方法对人脸表情图像进行光照补偿。经过上述步骤后可以得到的一系列标准化人脸表情图像如图4所示。
人脸表情的特征提取就是对人脸的器官特征、纹理区域和预定义的特征点进行定位和提取。在标准化预处理的基础上,需要对人脸表情图像的人脸表情特征进行有效的提取。提取的特征既要尽可能多的保留不同人脸表情所特有的特征,又要尽量去除外在和内在的噪声干扰,同时,要使提取特征的维数尽可能的低。本方法利用了5个尺度、6个方向的二维Gabor小波变换提取图像的纹理特征。即:将Gabor函数和人脸表情图像进行卷积处理。
Gabor滤波器的表达式为
&psi; uv ( x , y ) = | | k &RightArrow; | | 2 &delta; 2 exp ( - | | k &RightArrow; | | 2 ( x 2 + y 2 ) 2 &delta; 2 ) exp i k &RightArrow; x y - exp ( - &delta; 2 2 ) - - - ( 4 )
其中,
Figure BSA00000190267600081
Figure BSA00000190267600082
δ=2π,u代表Gabor滤波器的方向,v代表Gabor滤波器的尺度,说明了二维Gabor函数就有尺度伸缩性和方向旋转性。Gabor小波是由Gabor函数通过尺度伸缩和方向旋转而生成的一簇复函数系,或者说Gabor小波是有Gabor滤波器通过旋转和伸缩形成的一组滤波器。
为了更好的达到提取有效特征的要求,采用了通道划分的方法,划分出尺度和方向两类通道。根据5个尺度、6个方向的二维Gabor滤波器划分的十一个通道为:
Channel(通道)1:v=0,
Figure BSA00000190267600083
π/6,2π/6,3π/6,4π/6,5π/6;
Channel 2:v=1,
Figure BSA00000190267600084
π/6,2π/6,3π/6,4π/6,5π/6;
Channel 3:v=2,
Figure BSA00000190267600085
π/6,2π/6,3π/6,4π/6,5π/6;
Channel 4:v=3,
Figure BSA00000190267600086
π/6,2π/6,3π/6,4π/6,5π/6;
Channel 5:v=4,
Figure BSA00000190267600087
π/6,2π/6,3π/6,4π/6,5π/6;
Channel 6:
Figure BSA00000190267600088
v=0,1,2,3,4;
Channel 7:
Figure BSA00000190267600089
v=0,1,2,3,4;
Channel 8:
Figure BSA000001902676000810
v=0,1,2,3,4;
Channel 9:
Figure BSA000001902676000811
v=0,1,2,3,4;
Channel 10:
Figure BSA000001902676000812
v=0,1,2,3,4;
Channel 11:
Figure BSA000001902676000813
v=0,1,2,3,4。
对象元I(x,y)进行卷积处理为
T = &psi; uv ( x , y ) &CircleTimes; I ( x , y ) = &Integral; &Integral; I ( u , v ) &psi; ( x - u , y - v ) dudv - - - ( 5 )
对各个通道提取的特征还可以进行二次降维处理,二次降维处理为:
S111.对人脸表情图像进行非均匀采样得到采样后的人脸表情图像。由于已经对眼睛进行了定位,只需要根据人脸器官的几何规律估计出嘴巴的大致位置,对于眼睛和嘴巴附近采用密集采样,在脸颊部位采用稀疏采样。为了保留原始表情图像较为完整的信息,采样的间隔不宜太大,在眼睛和嘴巴区域本文采用间隔5个像素点的距离进行采样,在脸颊区域采用间隔15个像素点的距离进行采样,这样对原始128×128的人脸表情图像进行非均匀采样后,共得到328个采样点,如图5所示。
S112.对采样后的人脸表情图像采用2D-2DPCA(two-directionaltwo-dimensional principal component analysis,双向二维主成分分析法)进行变换以实现第二次降维。
在2D-2DPCA中假设Ai是第i个训练样本(i=1,2,...,M)构成的矩阵,M是训练样本的个数,训练样本的均值为
Figure BSA00000190267600091
训练样本的类间散布矩阵
S x = 1 M &Sigma; i = 1 M ( A i - A &OverBar; ) T ( A i - A &OverBar; ) .
然后求Sx的特征值和特征向量,并将特征值从大到小排列(λ1≥λ2≥...≥λM)其特征值也随之相应的变化(ξ1,ξ2,...,ξM)。为了简单,一般选取前k个较大的特征值所对应的特征向量构成最佳的投影矩阵:U=[ξ1,ξ2,...ξk],则每个样本的特征为:B=AU。实现了对图像矩阵的列向量的压缩处理。为了对行向量进行压缩,上述类间散布矩阵Sx应该定义成:
Figure BSA00000190267600093
其它步骤和求U的方法相同,就可以得到投影矩阵V。
得到了投影矩阵U和V,就可以根据线性变换表达式
Figure BSA00000190267600094
对图像矩阵进行2D-2DPCA降维处理。
S2.建立与各个通道一一对应的分类器,将各个通道提取的所述纹理特征分别送入对应的所述分类器中进行分类识别,计算各个分类器对各种表情的识别率和清晰度,选取所述识别率和清晰度的综合排名靠前的四个分类器为最优分类器。
所选取的通道在所有通道中的整体性能必须是最优的。某个尺度或者方向的小波系数和某种表情之间存在着一定的联系,不同的表情引起的面部器官形变的方向有差别,形变的程度也是有差别的,这种形变和方向的差异就会体现在了Gabor小波不同的尺度和方向上,也就是说各个通道对人脸表情识别率的贡献程度不同。本方法对所有通道的整体性能进行考核,根据如下4条最优通道选取原则,选取出四个最优通道。
最优通道选取原则:①考虑各个通道对应分类器对总体平均识别率的影响;②考虑各通道对不同人脸表情识别率的影响;③考虑Gabor小波变换多尺度多方向的优越性,也就是同时考虑各尺度和方向对识别率的影响;④不同通道在人脸表情识别中对应不同分类器,考虑其清晰度的差别。
本方法在考核通道性能时,是把每一个通道提取的特征送入BP(BackPropagation,反向传播算法)神经网络进行分类识别,构成一个分类器,可以看出通道和分类器之间存在着一一对应的关系。所以本方法中所提到的通道的性能是通道和分类器结合起来的综合特征。
分类器的设计:本发明采用了BP神经网络进行分类器的设计。输入层的节点数,即网络的输入个数是由问题外部描述定义的,根据提取特征的维数来确定输入层的节点数。本发明的一个实施例中设计了600个输入层的节点。输出层的节点数取决于两个方面:输出数据类型和表示该类型所需要的数据大小。本方法要识别七种人脸表情:高兴、害怕、厌恶、悲伤、惊奇、生气、中性,它们分别用七位二进制数0000001,0000010,……,1000000来表示,所以输出层选为7个节点。对于一个具体的问题进行隐层节点的选择时,当训练集确定之后,输入层和输出层的节点数也就随之确定了,而隐层的节点数却是可以变化的,本方法根据下述公式并结合实际情况选取的隐层节点数为25:
n = ni + n 0 + a - - - ( 6 )
其中,n为隐层节点数,ni为输入节点数,n0为输出节点数,a为1~10之间的常数。
BP网络算法的激活函数一般采用满足光滑、单调递增、上下有界等条件的Sigmoid型函数(S型函数),在某些特定情况下,还可能采用纯线性函数。在实际应用中,各层之间可以选择不相同的激活函数。
在本发明的一个实施例中,在输入层和隐层之间选择激活函数为
f ( n ) = 2 ( 1 + e - 2 n ) - 1 - - - ( 7 )
在隐层和输出层之间选择激活函数为
f ( n ) = 1 1 + e - n - - - ( 8 )
网络在进行学***滑这样的局部最小。动量能够通过把权重变得与上次权重变化的部分和由算法规则得到的新变化的和相同而加入到网络学习中去。上一次权重变化对动量的影响由一个动量常数来决定,它能够设为0到1之间的任意值。当动量常数为0时,权重变化之根据梯度得到。当动量常数为1时新的权重变化等于上次的权重变化,梯度值被忽略了,动量常数的具体值可以根据具体的BP网络环境进行设置。最小均方误差的设置是为了使所有样品的实际输出和期望输出之间的误差稳定在一个较小的值以内。一般而言,训练的最小均方误差限不必设置太小,这样可以提高训练速度和分类器速度。在实施例中,将学习速率取为0.21,动量常数取为0.95,最小均方误差取为0.001。
为了对通道性能进行定量考核,本方法在JAFFE(The Japanese FemaleFacial Expression,日本女性人脸表情)数据库中进行了考核测试,为了解决BP网络训练所需大样本的问题,将表情库中的样本分成三组,具体分组方法见表1。将这三组样本进行了循环测试,共做3次实验。这样从另一个角度考虑,相当于将训练样本数增加到了426幅,同时测试样本数也相应增加到213幅。
表1
Figure BSA00000190267600121
步骤S2中,计算识别率Pij
Pij=n/N                   (9)
其中,n是类别Cj中正确识别的样本个数,N是类别Cj的样本总数,识别率Pij表示的是正确识别的概率,各个通道对应分类器对不同人脸表情识别率的统计结果如图6所示。
计算清晰度Uij
U ij = 1 n &Sigma; k = 1 n U ( A j , B k ) = 1 n &Sigma; k = 1 n ( 1 - 1 N &Sigma; m = 1 N | A j ( m ) - B k ( m ) | ) - - - ( 10 )
其中,Aj为分类器Xi对类别Cj的理想输出,Bk为分类器Xi对第k个样本的实际输出,n是正确识别的样本个数,各个通道对应分类器的清晰度曲线如图7所示。
计算各个分类器对各种表情的识别率和清晰度,选取识别率和清晰度的综合排名靠前的四个分类器为最优分类器,具体而言,按识别率从高到低对所有分类器进行一次排名,再按清晰度从高到低对所有分类器进行一次排名,然后将各分类器在两次排名中的名次相加得到综合排名,从中选取综合排名最靠前的四个分类器。
从图6中可以看出channel 4、5、8、11这四个通道不仅在平均识别率和单个人脸表情种类识别率上表现较好,而且包含了两个尺度通道和两个方向通道,代表性地涵盖了所有尺度和方向,可以充分且均衡地发挥Gabor滤波器组在不同尺度和方向上的优良性质。同时,在清晰度方面从图7中可以看出,这四个通道对应分类器在清晰度方面含有两个有利于对样本进行分类的特点:①channel 4、5、11这三个通道对应的分类器清晰度较高;②channel 8对应的分类器对不同人脸表情的清晰度差别较大。可见所选的这四个通道所对应的通道综合性能在所有通道里是最优的,具有较好的代表性。
S3.将四个最优分类器进行模糊融合处理,得到人脸表情识别结果。
步骤S3中,模糊融合处理采用的模糊积分表达式为
&mu; j = max { min t ( G j ( t ) , h tj | t = 1,2 , . . . , m ) } , j = 1,2 , . . . , n - - - ( 11 )
其中,Gj(t)为模糊测度,hj=(h1i,h2j,...,hmj)为待测样本对于类别Cj的各个分类器的输出值,μj为模糊积分值,表示在n个μj中选取最大的模糊积分值,将最大值所对应的类别作为模糊融合处理后的输出结果。Sugeno(关野模型)模糊积分融合中,模糊密度是一个十分重要的参数。在本方法选取模糊密度时,同时考虑了分类器的识别率和其清晰度。计算模糊测度Gj(t)的步骤为:
S301.计算模糊密度gij=Pij×Uij,其中分类器Xi对类别Cj的识别率为Pij,清晰度为Uij,对于一个类别Cj的模糊密度记为gj=(g1j,g2j,..,gmj)。
S302.根据公式
Figure BSA00000190267600142
由模糊密度gij计算出λ值。
S303.待测样本对各个分类器的输出值hj=(h1i,h2j,...,hmj),按从大到小排序,同时模糊密度gij也按从大到小排序。
S304.计算模糊测度Gj(t),令Gj(1)=g1j,则Gj(t)=gij+(1+λgtj)Gj(t-1),t=2,3,…,m。
在公式(11)中将模糊测度Gj(t)和输出值htj(t=1,2,…,m)相比较提取二者中较小的那个值,这样就会得到一个m维的向量,然后再取该向量中的最大值,这样就得到了第j类的模糊积分值μj(j=1,2,…,n),接着按照最大隶属度原则进行分类,即在所有的n个μj中选取最大的模糊积分值,将该最大值所对应的类别Cj作为模糊融合后的识别结果。
采用步骤S3对最优通道对应的分类器进行模糊积分融合处理后,最终得到的人脸表情识别结果如表2所示。
表2
  表情种类   生气   厌恶   害怕   高兴   中性   悲伤   惊奇   总计
  识别率   0.9667   1   0.9375   1   0.9667   0.9677   1   0.9765
该***中部分过程所耗时间如表3所示。
表3
方法   特征提取和降维时间   多分类器的融合时间
  最优通道模糊融合 0.2878s 0.0018s
由于是本算法是三组循环实验结果综合后得出的识别率,这三组实验所得识别率的标准差是0.0215,标准差较小,说明本发明的基于Gabor变换最优通道模糊融合的人脸表情识别方法性能比较稳定。
在针对本发明的基于Gabor变换最优通道模糊融合的人脸表情识别方法进行实验时,通过识别率验证了本方法的有效性、合理性,通过标准差证明了其具有稳定性,通过实验过程的时间对比,体现了时间上的优越性。由此可见,本方法可以有效地对静态人脸表情图像进行分类识别,具有计算量小、计算速度快、识别精度高的优点。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (6)

1.一种基于Gabor变换最优通道模糊融合的人脸表情识别方法,其特征在于包括以下步骤:
S1.将Gabor滤波器划分为十一个通道,由所述Gabor滤波器对规范化处理后的人脸表情图像进行二维Gabor小波变换以提取所述人脸表情图像的纹理特征;
S2.建立与各个通道一一对应的分类器,将各个通道提取的所述纹理特征分别送入对应的所述分类器中进行分类识别,计算各个分类器对各种表情的识别率和清晰度,选取所述识别率和清晰度的综合排名靠前的四个分类器为最优分类器;
S3.将四个最优分类器的识别结果进行模糊融合处理,得到人脸表情识别结果。
2.根据权利要求1所述的基于Gabor变换最优通道模糊融合的人脸表情识别方法,其特征在于:步骤S1中所述规范化处理按照以下步骤进行;
S101.首先计算所述人脸表情图像的行复杂度,根据人脸的行复杂度变化曲线,找出曲线上的最大值对应的坐标作为眼睛区域的中心线,然后截取出竖直方向眼睛的大***置,再用垂直投影法截取出水平方向的位置,以完成对眼睛的粗定位,然后利用眼睛区域的几何分布特点结合Hough变换以完成对眼睛的精确定位;
S102.利用旋转公式对所述人脸表情图像的角度矫正,所述旋转公式为
[ x , y , 1 ] = [ x 0 , y 0 , 1 ] cos &theta; sin &theta; 0 - sin &theta; cos &theta; 0 0 0 1 ,
其中,旋转角度θ为瞳孔连线和水平方向的夹角,[x0,y0]为原始坐标,[x,y]为旋转后坐标;
S103.在瞳孔连线的上方取0.5d宽度,下方取1.5d宽度,以所述瞳孔连线的中心为基准点,左右各取d宽度对所述人脸表情图像进行裁剪,其中,d为瞳孔连线长度;利用双线性插值法将所述人脸表情图像进行缩放;利用直方图均衡化方法对所述人脸表情图像进行光照补偿。
3.根据权利要求1所述的基于Gabor变换最优通道模糊融合的人脸表情识别方法,其特征在于:步骤S1中所述Gabor滤波器的表达式为
&psi; uv ( x , y ) = | | k &RightArrow; | | 2 &delta; 2 exp ( - | | k &RightArrow; | | 2 ( x 2 + y 2 ) 2 &delta; 2 ) exp i k &RightArrow; x y - exp ( - &delta; 2 2 ) ,
其中,
Figure FSA00000190267500024
δ=2π,u代表Gabor滤波器的方向,v代表Gabor滤波器的尺度,
划分的十一个通道为:
Channel 1:v=0,
Figure FSA00000190267500025
π/6,2π/6,3π/6,4π/6,5π/6;
Channel 2:v=1,
Figure FSA00000190267500026
π/6,2π/6,3π/6,4π/6,5π/6;
Channel 3:v=2,
Figure FSA00000190267500027
π/6,2π/6,3π/6,4π/6,5π/6;
Channel 4:v=3,
Figure FSA00000190267500028
π/6,2π/6,3π/6,4π/6,5π/6;
Channel 5:v=4,
Figure FSA00000190267500029
π/6,2π/6,3π/6,4π/6,5π/6;
Channel 6:
Figure FSA000001902675000210
v=0,1,2,3,4;
Channel 7:
Figure FSA000001902675000211
v=0,1,2,3,4;
Channel 8:
Figure FSA00000190267500031
v=0,1,2,3,4;
Channel 9:
Figure FSA00000190267500032
v=0,1,2,3,4;
Channel 10:v=0,1,2,3,4;
Channel 11:
Figure FSA00000190267500034
v=0,1,2,3,4。
4.根据权利要求1所述的基于Gabor变换最优通道模糊融合的人脸表情识别方法,其特征在于:步骤S1中还包括对所述人脸表情图像的纹理特征进行二次降维处理,所述二次降维处理为:
S111.对所述人脸表情图像进行非均匀采样得到采样后的人脸表情图像;
S112.对所述采样后的人脸表情图像采用双向二维主成分分析法进行变换。
5.根据权利要求1所述的基于Gabor变换最优通道模糊融合的人脸表情识别方法,其特征在于:步骤S2中,计算所述识别率Pij
Pij=n/N,
其中,n是类别Cj中正确识别的样本个数,N是类别Cj的样本总数;
计算所述清晰度Uij
U ij = 1 n &Sum; k = 1 n U ( A j , B k ) = 1 n &Sum; k = 1 n ( 1 - 1 N &Sum; m = 1 N | A j ( m ) - B k ( m ) | ) ,
其中,Aj为分类器Xi对类别Cj的理想输出,Bk为分类器Xi对第k个样本的实际输出,n是正确识别的样本个数。
6.根据权利要求1所述的基于Gabor变换最优通道模糊融合的人脸表情识别方法,其特征在于:步骤S3中所述模糊融合处理采用的模糊积分为
&mu; j = max { min t ( G j ( t ) , h tj ) | t = 1,2 , . . . , m } , j = 1,2 , . . . , n
其中,Gj(t)为模糊测度,hj=(h1i,h2j,...,hmj)为待测样本对于类别Cj的各个分类器的输出值,μj为模糊积分值,然后在n个μj中选取最大值,将所述最大值所对应的类别Cj作为模糊融合处理后的输出结果,计算所述模糊测度Gj(t)的步骤为:
S301.计算模糊密度gij=Pij×Uij,其中分类器Xi对类别Cj的识别率为Pij,清晰度为Uij,对于一个类别Cj的模糊密度记为gj=(g1j,g2j,...,gmj);
S302.根据公式
Figure FSA00000190267500041
由模糊密度gij计算出λ值;
S303.待测样本对各个分类器的输出值hj=(h1i,h2j,...,hmj),按从大到小排序,同时模糊密度gij也按从大到小排序;
S304.计算模糊测度Gj(t),令Gj(1)=g1j,则Gj(t)=gtj+(1+λgtj)Gj(t-1),t=2,3,…,m。
CN 201010215503 2010-07-01 2010-07-01 基于Gabor变换最优通道模糊融合的人脸表情识别方法 Expired - Fee Related CN101872424B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 201010215503 CN101872424B (zh) 2010-07-01 2010-07-01 基于Gabor变换最优通道模糊融合的人脸表情识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 201010215503 CN101872424B (zh) 2010-07-01 2010-07-01 基于Gabor变换最优通道模糊融合的人脸表情识别方法

Publications (2)

Publication Number Publication Date
CN101872424A true CN101872424A (zh) 2010-10-27
CN101872424B CN101872424B (zh) 2013-03-27

Family

ID=42997279

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 201010215503 Expired - Fee Related CN101872424B (zh) 2010-07-01 2010-07-01 基于Gabor变换最优通道模糊融合的人脸表情识别方法

Country Status (1)

Country Link
CN (1) CN101872424B (zh)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102779271A (zh) * 2012-06-28 2012-11-14 南京信息工程大学 基于谱稀疏典型相关分析的表情语义稀疏量化方法
CN102880862A (zh) * 2012-09-10 2013-01-16 Tcl集团股份有限公司 一种人脸表情的识别方法及***
CN102880855A (zh) * 2011-08-16 2013-01-16 武汉大学 一种基于云模型的人脸表情识别方法
CN103324911A (zh) * 2013-05-30 2013-09-25 苏州福丰科技有限公司 一种基于人脸识别的防作弊***
CN103971131A (zh) * 2014-05-13 2014-08-06 华为技术有限公司 一种预设表情识别方法和装置
CN104574334A (zh) * 2015-01-12 2015-04-29 北京航空航天大学 一种利用模糊度量和形态学交替算子的红外与可见光图像融合方法
CN104636492A (zh) * 2015-03-04 2015-05-20 浪潮电子信息产业股份有限公司 一种基于模糊积分特征融合的动态数据分级方法
CN104915658A (zh) * 2015-06-30 2015-09-16 东南大学 一种基于情感分布学习的情感成分分析方法及其***
CN105303149A (zh) * 2014-05-29 2016-02-03 腾讯科技(深圳)有限公司 人物图像的展示方法和装置
CN105488461A (zh) * 2015-11-24 2016-04-13 苏州铭冠软件科技有限公司 基于Gabor特征的人脸检测方法
CN106250825A (zh) * 2016-07-22 2016-12-21 厚普(北京)生物信息技术有限公司 一种在医保应用中场景自适应的人脸识别***
CN106355195A (zh) * 2016-08-22 2017-01-25 中国科学院深圳先进技术研究院 用于测量图像清晰度值的***及其方法
CN106407899A (zh) * 2016-08-30 2017-02-15 电子科技大学 基于局部纹理特征的人群密度谱估计方法
CN106778487A (zh) * 2016-11-19 2017-05-31 南宁市浩发科技有限公司 一种2dpca人脸识别方法
CN107292322A (zh) * 2016-03-31 2017-10-24 华为技术有限公司 一种图像分类方法、深度学习模型及计算机***
CN107292256A (zh) * 2017-06-14 2017-10-24 西安电子科技大学 基于辅任务的深度卷积小波神经网络表情识别方法
CN107945102A (zh) * 2017-10-23 2018-04-20 深圳市朗形网络科技有限公司 一种图片合成的方法及装置
CN108090479A (zh) * 2018-01-26 2018-05-29 湖北工业大学 一种改进Gabor变换和更新消失点的车道检测方法
CN108682024A (zh) * 2018-04-20 2018-10-19 长沙学院 一种图像清晰度匹配方法和***
CN110264544A (zh) * 2019-05-30 2019-09-20 腾讯科技(深圳)有限公司 图片处理方法和装置、存储介质及电子装置
CN110321825A (zh) * 2019-06-25 2019-10-11 深圳市壹鸽科技有限公司 一种视频情感分析方法
CN111582136A (zh) * 2020-04-30 2020-08-25 京东方科技集团股份有限公司 表情识别方法及装置、电子设备、存储介质
CN112634208A (zh) * 2020-12-09 2021-04-09 浙江求是数理医学研究院 基于深度学习的超声影像混合训练方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1271140A (zh) * 1999-04-21 2000-10-25 中国科学院自动化研究所 基于纹理分析的字体和笔迹识别方法
CN1828630A (zh) * 2006-04-06 2006-09-06 上海交通大学 基于流形学习的人脸姿势识别方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1271140A (zh) * 1999-04-21 2000-10-25 中国科学院自动化研究所 基于纹理分析的字体和笔迹识别方法
CN1828630A (zh) * 2006-04-06 2006-09-06 上海交通大学 基于流形学习的人脸姿势识别方法

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102880855B (zh) * 2011-08-16 2015-01-28 武汉大学 一种基于云模型的人脸表情识别方法
CN102880855A (zh) * 2011-08-16 2013-01-16 武汉大学 一种基于云模型的人脸表情识别方法
CN102779271A (zh) * 2012-06-28 2012-11-14 南京信息工程大学 基于谱稀疏典型相关分析的表情语义稀疏量化方法
CN102779271B (zh) * 2012-06-28 2015-06-17 南京信息工程大学 基于谱稀疏典型相关分析的表情语义稀疏量化方法
CN102880862B (zh) * 2012-09-10 2017-04-19 Tcl集团股份有限公司 一种人脸表情的识别方法及***
CN102880862A (zh) * 2012-09-10 2013-01-16 Tcl集团股份有限公司 一种人脸表情的识别方法及***
CN103324911A (zh) * 2013-05-30 2013-09-25 苏州福丰科技有限公司 一种基于人脸识别的防作弊***
CN103971131A (zh) * 2014-05-13 2014-08-06 华为技术有限公司 一种预设表情识别方法和装置
CN105303149A (zh) * 2014-05-29 2016-02-03 腾讯科技(深圳)有限公司 人物图像的展示方法和装置
CN104574334A (zh) * 2015-01-12 2015-04-29 北京航空航天大学 一种利用模糊度量和形态学交替算子的红外与可见光图像融合方法
CN104636492A (zh) * 2015-03-04 2015-05-20 浪潮电子信息产业股份有限公司 一种基于模糊积分特征融合的动态数据分级方法
CN104636492B (zh) * 2015-03-04 2017-12-05 浪潮电子信息产业股份有限公司 一种基于模糊积分特征融合的动态数据分级方法
CN104915658A (zh) * 2015-06-30 2015-09-16 东南大学 一种基于情感分布学习的情感成分分析方法及其***
CN104915658B (zh) * 2015-06-30 2018-03-20 东南大学 一种基于情感分布学习的情感成分分析方法及其***
CN105488461A (zh) * 2015-11-24 2016-04-13 苏州铭冠软件科技有限公司 基于Gabor特征的人脸检测方法
CN107292322A (zh) * 2016-03-31 2017-10-24 华为技术有限公司 一种图像分类方法、深度学习模型及计算机***
CN106250825A (zh) * 2016-07-22 2016-12-21 厚普(北京)生物信息技术有限公司 一种在医保应用中场景自适应的人脸识别***
CN106355195A (zh) * 2016-08-22 2017-01-25 中国科学院深圳先进技术研究院 用于测量图像清晰度值的***及其方法
WO2018035794A1 (zh) * 2016-08-22 2018-03-01 中国科学院深圳先进技术研究院 用于测量图像清晰度值的***及其方法
CN106407899B (zh) * 2016-08-30 2019-07-19 电子科技大学 基于局部纹理特征的人群密度谱估计方法
CN106407899A (zh) * 2016-08-30 2017-02-15 电子科技大学 基于局部纹理特征的人群密度谱估计方法
CN106778487A (zh) * 2016-11-19 2017-05-31 南宁市浩发科技有限公司 一种2dpca人脸识别方法
CN107292256A (zh) * 2017-06-14 2017-10-24 西安电子科技大学 基于辅任务的深度卷积小波神经网络表情识别方法
CN107292256B (zh) * 2017-06-14 2019-12-24 西安电子科技大学 基于辅任务的深度卷积小波神经网络表情识别方法
CN107945102A (zh) * 2017-10-23 2018-04-20 深圳市朗形网络科技有限公司 一种图片合成的方法及装置
CN108090479A (zh) * 2018-01-26 2018-05-29 湖北工业大学 一种改进Gabor变换和更新消失点的车道检测方法
CN108090479B (zh) * 2018-01-26 2020-05-12 湖北工业大学 一种改进Gabor变换和更新消失点的车道检测方法
CN108682024B (zh) * 2018-04-20 2021-05-18 长沙学院 一种图像清晰度匹配方法和***
CN108682024A (zh) * 2018-04-20 2018-10-19 长沙学院 一种图像清晰度匹配方法和***
CN110264544A (zh) * 2019-05-30 2019-09-20 腾讯科技(深圳)有限公司 图片处理方法和装置、存储介质及电子装置
CN110264544B (zh) * 2019-05-30 2023-08-25 腾讯科技(深圳)有限公司 图片处理方法和装置、存储介质及电子装置
CN110321825A (zh) * 2019-06-25 2019-10-11 深圳市壹鸽科技有限公司 一种视频情感分析方法
CN111582136A (zh) * 2020-04-30 2020-08-25 京东方科技集团股份有限公司 表情识别方法及装置、电子设备、存储介质
CN111582136B (zh) * 2020-04-30 2024-04-16 京东方科技集团股份有限公司 表情识别方法及装置、电子设备、存储介质
CN112634208A (zh) * 2020-12-09 2021-04-09 浙江求是数理医学研究院 基于深度学习的超声影像混合训练方法
CN112634208B (zh) * 2020-12-09 2022-07-05 浙江求是数理医学研究院 基于深度学习的超声影像混合训练方法

Also Published As

Publication number Publication date
CN101872424B (zh) 2013-03-27

Similar Documents

Publication Publication Date Title
CN101872424B (zh) 基于Gabor变换最优通道模糊融合的人脸表情识别方法
CN112418074B (zh) 一种基于自注意力的耦合姿态人脸识别方法
CN110348319B (zh) 一种基于人脸深度信息和边缘图像融合的人脸防伪方法
CN106971174B (zh) 一种cnn模型、cnn训练方法以及基于cnn的静脉识别方法
CN108564129B (zh) 一种基于生成对抗网络的轨迹数据分类方法
Liu et al. A new benchmark on the recognition of handwritten Bangla and Farsi numeral characters
Cevikalp et al. Efficient object detection using cascades of nearest convex model classifiers
Santos et al. An off-line signature verification method based on the questioned document expert's approach and a neural network classifier
CN102163281B (zh) 基于AdaBoost框架和头部颜色的实时人体检测方法
CN100560025C (zh) 带有弱分类器的组合系数的人脸检测方法
CN105894047A (zh) 一种基于三维数据的人脸分类***
Banerjee et al. A new wrapper feature selection method for language-invariant offline signature verification
CN106909946A (zh) 一种多模态融合的商品分类***
CN105760833A (zh) 一种人脸特征识别方法
CN109961093A (zh) 一种基于众智集成学习的图像分类方法
CN102436637A (zh) 从头部图像中自动分割头发的方法及其***
CN105893916A (zh) 一种对检测人脸的预处理、特征提取到降维描述的新方法
CN105956570A (zh) 基于唇部特征和深度学习的笑脸识别方法
Makinist et al. Average neural face embeddings for gender recognition
CN112507914A (zh) 一种基于存折、票据字符ocr识别方法和识别***
CN109886164B (zh) 一种异常手势的识别与处理方法
JP2004178569A (ja) データ分類装置、物体認識装置、データ分類方法及び物体認識方法
CN100449567C (zh) 一种基于块内相关性的二维主元分析人脸识别方法
Liang et al. Location property of convolutional neural networks for image classification
Arreola et al. Fast support vector machine classification using linear SVMs

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
ASS Succession or assignment of patent right

Owner name: BEIJING MIAOWEI TECHNOLOGY CO., LTD.

Free format text: FORMER OWNER: CHONGQING UNIVERSITY

Effective date: 20140121

C41 Transfer of patent application or patent right or utility model
COR Change of bibliographic data

Free format text: CORRECT: ADDRESS; FROM: 400044 SHAPINGBA, CHONGQING TO: 100102 CHAOYANG, BEIJING

TR01 Transfer of patent right

Effective date of registration: 20140121

Address after: 100102 Beijing city in Chaoyang District Lize Park 106 Building 5 layer 505C

Patentee after: BEIJING PICOHOOD TECHNOLOGY Co.,Ltd.

Address before: 400044 Shapingba street, Shapingba District, Chongqing, No. 174

Patentee before: Chongqing University

CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20130327