CN111126364A - 一种基于分组卷积神经网络的表情识别方法 - Google Patents

一种基于分组卷积神经网络的表情识别方法 Download PDF

Info

Publication number
CN111126364A
CN111126364A CN202010235994.0A CN202010235994A CN111126364A CN 111126364 A CN111126364 A CN 111126364A CN 202010235994 A CN202010235994 A CN 202010235994A CN 111126364 A CN111126364 A CN 111126364A
Authority
CN
China
Prior art keywords
image
neural network
expression
convolution
convolutional neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010235994.0A
Other languages
English (en)
Inventor
赵光哲
张雷
杨瀚霆
何艳清
张倚萌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Civil Engineering and Architecture
Original Assignee
Beijing University of Civil Engineering and Architecture
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Civil Engineering and Architecture filed Critical Beijing University of Civil Engineering and Architecture
Priority to CN202010235994.0A priority Critical patent/CN111126364A/zh
Publication of CN111126364A publication Critical patent/CN111126364A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及人工智能领域,具体提供一种基于分组卷积神经网络的表情识别方法,包括:S1:搭建并训练分组卷积神经网络模型;S2:提取输入图像信息;所述分组卷积网络模型将每个卷积层分解为深度卷积和点卷积,再将每个所述点卷积分组;S3:搭建人脸校正器;S4:采用人脸校正器检测并校正输入图像,获得预处理图像;S5:采用分组卷积神经网络模型分类预处理图像中的人脸表情。本发明解决了现有技术存在的识别准确率较低,识别速度慢的技术问题,在保证准确率的同时还具有较高的实时性。

Description

一种基于分组卷积神经网络的表情识别方法
技术领域
本发明涉及计算机视觉领域,尤其涉及一种基于分组卷积神经网络的表情识别方法。
背景技术
情绪是人类在强烈心理活动下产生的认知体验,是引导社会环境中交流的重要元素。情绪的引发有多种来源,包括心情、性格、动机等。面部表情作为独特的信号传递***,能够表达人的心理状态,是分析情绪的有效方法之一。表情识别主要有如下四个流程:人脸定位、人脸校正、特征提取和表情分类。特征提取和表情分类作为流程中的重要部分,是表情识别的核心难点问题。传统方法使用手工设计的几何特征和外观特征提取面部信息,其中几何特征基于图像中的几何属性,外观特征基于图像的灰度信息。这些方法对于特定数据分布具有很高的识别精度,但是难以处理大范围的姿态变化,泛化到其他数据集时效果差。近年来,基于数据驱动的方法备受关注。例如,卷积神经网络模型通过权值共享和下采样的方式直接从数据中学习特征,对姿态、遮挡和光线等变化具有鲁棒性。但是为了获得更高的准确率,学者不断加深模型的深度,导致模型参数量过多。这不利于模型的训练和实际应用的使用。
发明内容
为解决现有技术存在的识别准确率较低,识别速度慢的技术问题,本发明提供一种基于分组卷积神经网络的表情识别方法,包括:
S1:搭建并训练分组卷积神经网络模型;
S2:提取输入图像信息;所述分组卷积神经网络模型将每个卷积层分解为深度卷积和点卷积,再将每个所述点卷积分组;
S3:搭建人脸校正器;
S4:采用人脸校正器检测并校正输入图像,获得预处理图像;
S5:采用分组卷积神经网络模型分类预处理图像中的人脸表情;
所述S2包括:
S2.1:将输入图像转换为灰度图像;
S2.2:复制灰度图像,获得三套包含同样数据的第一灰度图像,第二灰度图像,第三灰度图像;
S2.3:采用第一频道采集第一灰度图像获得第一频道数据,第二频道采集第二灰度图像获得第二频道数据,第三频道采集第三灰度图像获得第三频道数据,根据第一频道数据、第二频道数据、第三频道数据组成的卷积层输出的计算公式如下:
Figure 748585DEST_PATH_IMAGE001
其中,f 1 为线性整流函数,f 2 为卷积层计算函数,卷积核为3乘3,f 3 为批归一化函数,x i 为采集的每个像素点的值,conv为卷积,E为期望,Var为方差,[·]为张量的连接,F output 为卷积层输出。
优选的,所述搭建人脸校正器采用HOG特征和SVM算法。
优选的,所述S4包括:通过逻辑回归树,检测输入图像中人脸的至少四个检测图像基准点,通过所述人脸校正器的至少四个校正基准点匹配所述至少四个检测图像基准点,根据所述至少四个校正基准点分割输入图像,获得预处理图像。
优选的,所述S1包括:
获取训练样本,所述训练样本包括至少1000张第一表情图像;
使用数据增广方法,将每一张第一表情图像进行旋转,和/或,裁剪,和/或,放缩,获得至少10张对应所述第一表情图像的第二表情图像;
随机抠除第二表情图像中至少一个图块,获得带有空白区域的第三表情图像;
使用第三表情图像训练分组卷积神经网络模型。
优选的,所述搭建人脸校正器采用HOG特征和SVM算法的步骤包括:
根据梯度直方图计算方法获得人脸图像的HOG特征:
Figure 355147DEST_PATH_IMAGE002
其中,
Figure 614090DEST_PATH_IMAGE003
为指定像素点的横坐标,
Figure 102840DEST_PATH_IMAGE004
为指定像素点的纵坐标,
Figure 105431DEST_PATH_IMAGE005
Figure 628817DEST_PATH_IMAGE006
代表图像中
Figure 980032DEST_PATH_IMAGE007
点水平方向和垂直方向的梯度值,
Figure 221658DEST_PATH_IMAGE003
Figure 700044DEST_PATH_IMAGE004
的取值范围为0到255,
Figure 77935DEST_PATH_IMAGE008
代表像素点的梯度值,
Figure 367097DEST_PATH_IMAGE009
代表像素点的梯度方向,
Figure 830439DEST_PATH_IMAGE010
取值限定在0到180度之间;
根据支持向量机原理搭建人脸SVM模型;
使用获得的标准人脸图像HOG特征训练人脸SVM模型,获得训练结果;
使用训练结果形成人脸校正器。
优选的,根据FERPLUS表情识别数据库训练分组卷积神经网络模型的步骤包括:
计算梯度值
Figure 174833DEST_PATH_IMAGE010
Figure 672810DEST_PATH_IMAGE011
其中
Figure 116561DEST_PATH_IMAGE012
为当前梯度更新方向,
Figure 332779DEST_PATH_IMAGE013
为上一步梯度的更新方向,
Figure 402235DEST_PATH_IMAGE014
为根据梯度二次导数计算得到的当前梯度,
Figure 754718DEST_PATH_IMAGE015
Figure 431687DEST_PATH_IMAGE016
为衰减权重,
Figure 869622DEST_PATH_IMAGE010
为更新梯度值。
优选的,利用分组卷积神经网络模型构建的至少一类分类表情分类器,根据输入核函数层的提取特征得到由所有表情的预测概率组成的向量,计算公式如下:
Figure 555818DEST_PATH_IMAGE017
其中
Figure 700492DEST_PATH_IMAGE018
为第
Figure 813941DEST_PATH_IMAGE019
类表情的标签,
Figure 739172DEST_PATH_IMAGE020
为第
Figure 963480DEST_PATH_IMAGE019
类输入特征,
Figure 919584DEST_PATH_IMAGE021
为广义的代表稠密网络的所有权值,
Figure 203935DEST_PATH_IMAGE022
为由所有表情的预测概率组成的向量,
Figure 537834DEST_PATH_IMAGE023
为转置,
Figure 565832DEST_PATH_IMAGE019
Figure 373514DEST_PATH_IMAGE024
Figure 828766DEST_PATH_IMAGE025
为整数变量。
本发明提供的技术方案在人脸定位和人脸校正的基础上,利用分组卷积神经网络模型将人脸特征提取和表情分类的流程结合在一起,以实现对人脸的表情识别,在实验室环境下单摄像头和图像处理实现了对人脸表情的识别,在保证准确率的同时还具有较高的实时性,有效地分析人脸表情信息。
附图说明
图1为本发明实施例一提供的基于分组卷积神经网络的表情识别方法的流程图。
图2为本发明实施例一提供的人脸检测器的检测示意图。
图3为本发明实施例一提供的人脸校正器的校正示意图。
图4为本发明实施例一提供的分组卷积神经网络表情识别框架图。
图5为本发明实施例一提供的分组卷积神经网络迭代周期图。
图6为本发明实施例一提供的分组卷积神经网络提取的特征图。
图7为本发明实施例一提供的分组卷积神经网络在FERPLUS数据集上的混淆矩阵。
具体实施方式
下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护范围。
实施例一
本实施例提供了一种基于分组卷积神经网络的表情识别方法,如图1-4所示。如图1所示,本实施例提供的一种基于分组卷积神经网络的表情识别方法包含四个部分:输入单帧图像、人脸检测、人脸校正、表情识别。从原始输入图像开始,经过两个环节的图像处理,然后预测人脸表情的分类。
本实施例提供的人脸检测器的具体构建过程如下:
首先,识别精度和计算时间为人机交互环境之中检测和定位人脸的两个标准,但是考虑到表情识别***的实时性,在保证一定精度的前提之下,需要选取计算速度更快的特征和学习算法。因此,本实施例使用HOG特征和SVM分类器。
本实施例根据HOG特征和SVM算法形成人脸检测器,用于检测单帧图像之中的人脸位置。具体来说,本实施例获取训练样本,所述训练样本包括3000张LFW数据库中的人脸图像;根据方向梯度直方图的生成方法计算人脸图像的HOG特征;使用提取的HOG特征训练人脸检测SVM模型;根据训练结果形成人脸检测器。 所述HOG特征梯度计算公式如下:
Figure 728589DEST_PATH_IMAGE026
其中,
Figure 232382DEST_PATH_IMAGE003
为指定像素点的横坐标,
Figure 268471DEST_PATH_IMAGE004
为指定像素点的纵坐标,
Figure 894625DEST_PATH_IMAGE005
Figure 16165DEST_PATH_IMAGE006
代表图像中
Figure 572917DEST_PATH_IMAGE007
点水平方向和垂直方向的梯度值,
Figure 729092DEST_PATH_IMAGE003
Figure 526146DEST_PATH_IMAGE004
的取值范围为0到255,
Figure 134982DEST_PATH_IMAGE008
代表像素点的梯度值,
Figure 980578DEST_PATH_IMAGE009
代表像素点的梯度方向,
Figure 991260DEST_PATH_IMAGE010
取值限定在0到180度之间;
图2为本实施例一提供的人脸检测器的检测示意图。如图2所示,原始图像输入后,首先计算出图像的HOG特征形式,然后将训练后的标准人脸HOG特征与其进行比对,最后找到原始图像中人脸的位置并输出。
本实施例使用回归树集合检测人脸图块中的基准点,以对所述单帧图像之中的人脸进行校正。具体来说,获取训练样本,所属训练样本包括2000张训练人脸图像和330张测试人脸图像;使用形状不变特征分割的回归树集合对所述训练样本进行训练;使用训练结果构成人脸校正器。图3为本实施例一提供的人脸校正器的校正示意图。如图3所示,人脸图块输入后,首先计算出人脸的68个特征点,然后与标准人脸的68个特征点进行比对,最后对人脸图块进行校正。
本实施例利用分组卷积神经网络对校正后的人脸进行特征提取和预测,以获得表情分类。具体来说,搭建分组卷积网络模型;根据分组卷积和深度可分离卷积对网络模型进行优化;获得人脸表情识别数据库;使用数据增广等方法对表情数据进行预处理;使用预处理的表情图像数据集进行训练;将训练结果作为最终表情分类器。
考虑到真实环境中的应用需要高实时性,过于庞大的神经网络架构会导致计算量增加。通过减少分组卷积神经网络中的稠密块的数量和增长率,以及瓶颈层和压缩层的设置,减少模型参数量,从而使得学习更有表征性的特征。如图4所示,本实施例设计的分组卷积神经网络包含3个稠密块而且增长率设置为12,即包含3个内含12个卷积层的模块;稠密块和压缩层的超参数都设置为0.5,可以取得较好优化效果。
在提取输入图像信息时,首先将输入图像转化为灰度图像,根据上述稠密块数量的优化计算,复制灰度图像,获得三套包含同样数据的灰度图像数据,并采用三个频道分别采集三套灰度图像数据。在每个稠密块中设置12层的卷积层,每个卷积层的操作由线性整流函数、批归一化函数和3乘3的卷积计算组合成的,每一层的卷积层组合计算后生成的特征图张量将会被连接到后续的卷积层输入中。对于输入数据的频道数为3的情况下,第l层卷积网络将有
Figure 959216DEST_PATH_IMAGE027
个特征图。由于密集连接会导致模型计算量过大,模型训练速度慢。本实施例使用分组卷积和深度可分离卷积对卷积层进行优化。使用分组卷积,将每个卷积层中的点卷积进行分组操作;使用深度可分离卷积,将每个卷积层中的常规卷积分解成深度卷积和点卷积。为优化计算速度,本实施例针对整流函数,批归一化函数和卷积层计算函数三种函数进行组合,获得最优化组合算法设计,形成的卷积层组合计算公式如下:
Figure 740834DEST_PATH_IMAGE001
其中,f 1 为线性整流函数,f 2 为卷积层计算函数,卷积核为3乘3,f 3 为批归一化函数,x i 为采集的每个像素点的值,conv为卷积,E为期望,Var为方差,[·]为张量的连接,F output 为卷积层输出。
48乘48像素人脸图像提取出的标准HOG特征维数为324,相比于以原始像素为特征的维数减少了85.94%。根据梯度提取的区域大小,HOG特征维数范围为324-576。
在每个稠密块的中间存在过渡层,目的是完成参数压缩和调整计算变量。经过3个稠密块后,模型计算的特征张量将会输入全连接网络层,该层联合核函数将图像中提取的特征映射成1×7的向量,其中每个位置的值代表该类别表情的自信度,由所有表情的预测概率组成的向量计算公式如下
Figure 452438DEST_PATH_IMAGE017
其中
Figure 583205DEST_PATH_IMAGE018
为第
Figure 722062DEST_PATH_IMAGE019
类表情的标签,
Figure 977594DEST_PATH_IMAGE020
为第
Figure 492889DEST_PATH_IMAGE019
类输入特征,
Figure 478162DEST_PATH_IMAGE021
为广义的代表稠密网络的所有权值,
Figure 787921DEST_PATH_IMAGE022
为由所有表情的预测概率组成的向量,
Figure 780017DEST_PATH_IMAGE023
为转置,
Figure 833423DEST_PATH_IMAGE019
Figure 673203DEST_PATH_IMAGE024
Figure 153863DEST_PATH_IMAGE025
为整数变量。
本实施例利用分组卷积神经网络训练表情分类器。对于深度卷积神经网络模型而言,为了达到高准确率,需要大量的训练数据,故本实施例采用FERFIN数据集作为训练数据集。FERFIN数据集改进自FER2013数据集,包含“中立”图像12858例、“开心”图像9354例、“惊讶”图像4462例、“悲伤”图像4351例、“愤怒”图像3082例、“厌恶”图像575例和“害怕”图像816例,总计35498例48乘48像素的灰白人物表情图像。
考虑到表情识别任务中存在的姿态、光线、遮挡等变化,因此本实施例分两步对FERFIN数据库进行处理。针对每一张图片使用数据增广方法,将原始图片翻转、旋转、裁剪、放缩和变形获得十二张新图片;将新图片随机截取走16乘16像素的图块,获得带有空白区域的图片。
为了加快分组卷积网络模型的收敛速度,本实施例使用下述动量方法替代常规的梯度下降方法获得梯度,动量方法计算公式如下:
Figure 649567DEST_PATH_IMAGE028
其中
Figure 241085DEST_PATH_IMAGE012
为当前梯度更新方向,
Figure 889366DEST_PATH_IMAGE013
为上一步梯度的更新方向,
Figure 540928DEST_PATH_IMAGE014
为根据梯度二次导数计算得到的当前梯度,
Figure 320665DEST_PATH_IMAGE015
Figure 715874DEST_PATH_IMAGE016
为衰减权重,
Figure 467929DEST_PATH_IMAGE010
为更新梯度值。
如图5所示,使用分组卷积和深度可分离卷积优化后的网络模型在FERPLUS数据集上的学习曲线,横坐标表示训练的迭代周期(Epoch),纵轴表示在验证数据集上的准确率。DenseNet-1,2,3分别拥有3,3,4个Dense Block,其中DenseNet-1,2的每个Dense Block中包含12层卷积层,而DenseNet-3的卷积层数依次是6,12,24,16。前两个模型是经过调试,尝试在降低模型复杂度的同时增加准确率而获得的预料不到的最佳的模型,第三个模型则是参考国际图像分类大赛中的卷积模型使用的卷积层层数而设定的。可以看到,三个模型在学习过程中的准确率都在25个迭代周期内达到75%以上,并且波动小,收敛快。
如图6所示,为所使用的优化DenseNet网络提取的特征图,从左往右表示所提取的特征随着Dense Block的增加而更加抽象。使用DenseNet-2模型,采用4个Dense Block,卷积层层数依次是6,12,24,16。可以看到最后特征图中,模型的关注点在于特殊的几何图形,这些图形可能涵盖了所有在“开心”类别图像中出现的纹理线条。
如图7所示,所使用模型在FERPLUS数据集上的混淆矩阵,使用的是DenseNet-2模型,采用4个Dense Block,卷积层层数依次是6,12,24,16。其中在针对“开心”类别,准确率和召回率分别达到了96.07%和96.67%,F1参数值为91.61%。在厌恶类别表现最差准确率为88.24%,召回率为50%,一部分原因在于数据集中的“厌恶”类别数据较少且难以分辨区别。
本发明提供的基于分组卷积神经网络的表情识别方法包括:预处理人脸表情数据,训练分组卷积神经网络模型获得表情分类器,训练人脸检测器,训练人脸校正器,基于单帧图像的人脸检测,基于单帧图像的人脸校正和记录,基于单帧图像的表情识别,获得表情分类。本实施例通过优化之后的分组卷积神经网络的表情模型,使用实验室环境下的单摄像头和网络传输方案实现了在线的表情识别,在保证准确率的同时还具有较高的实时性。
以上所述的具体实施例,对本发明的目的,技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (7)

1.一种基于分组卷积神经网络的表情识别方法,其特征在于,包括:
S1:搭建并训练分组卷积神经网络模型;
S2:提取输入图像信息;所述分组卷积神经网络模型将每个卷积层分解为深度卷积和点卷积,再将每个所述点卷积分组;
S3:搭建人脸校正器;
S4:采用人脸校正器检测并校正输入图像,获得预处理图像;
S5:采用分组卷积神经网络模型分类预处理图像中的人脸表情;
所述S2包括:
S2.1:将输入图像转换为灰度图像;
S2.2:复制灰度图像,获得三套包含同样数据的第一灰度图像,第二灰度图像,第三灰度图像;
S2.3:采用第一频道采集第一灰度图像获得第一频道数据,第二频道采集第二灰度图像获得第二频道数据,第三频道采集第三灰度图像获得第三频道数据,根据第一频道数据、第二频道数据、第三频道数据组成的卷积层输出的计算公式如下:
Figure 292165DEST_PATH_IMAGE001
其中,f 1 为线性整流函数,f 2 为卷积层计算函数,卷积核为3乘3,f 3 为批归一化函数,x i 为采集的每个像素点的值,conv为卷积,E为期望,Var为方差,[·]为张量的连接,F output 为卷积层输出。
2.根据权利要求1所述的基于分组卷积神经网络的表情识别方法,其特征在于,所述搭建人脸校正器采用HOG特征和SVM算法。
3.根据权利要求1所述的基于分组卷积神经网络的表情识别方法,其特征在于,所述S4包括:通过逻辑回归树,检测输入图像中人脸的至少四个检测图像基准点,通过所述人脸校正器的至少四个校正基准点匹配所述至少四个检测图像基准点,根据所述至少四个校正基准点分割输入图像,获得预处理图像。
4.根据权利要求1所述的基于分组卷积神经网络的表情识别方法,其特征在于,所述S1包括:
获取训练样本,所述训练样本包括至少1000张第一表情图像;
使用数据增广方法,将每一张第一表情图像进行旋转,和/或,裁剪,和/或,放缩,获得至少10张对应所述第一表情图像的第二表情图像;
随机抠除第二表情图像中至少一个图块,获得带有空白区域的第三表情图像;
使用第三表情图像训练分组卷积神经网络模型。
5.根据权利要求2所述的基于分组卷积神经网络的表情识别方法,其特征在于,所述搭建人脸校正器采用HOG特征和SVM算法的步骤包括:
根据梯度直方图计算方法获得人脸图像的HOG特征:
Figure 918318DEST_PATH_IMAGE002
其中,
Figure 305437DEST_PATH_IMAGE003
为指定像素点的横坐标,
Figure 596610DEST_PATH_IMAGE004
为指定像素点的纵坐标,
Figure 752785DEST_PATH_IMAGE005
Figure 549839DEST_PATH_IMAGE006
代表图像中
Figure 158675DEST_PATH_IMAGE007
点水平方向和垂直方向的梯度值,
Figure 332168DEST_PATH_IMAGE003
Figure 280532DEST_PATH_IMAGE004
的取值范围为0到255,
Figure 248488DEST_PATH_IMAGE008
代表像素点的梯度值,
Figure 344620DEST_PATH_IMAGE009
代表像素点的梯度方向,
Figure 790645DEST_PATH_IMAGE010
取值限定在0到180度之间;
根据支持向量机原理搭建人脸SVM模型;
使用获得的标准人脸图像HOG特征训练人脸SVM模型,获得训练结果;
使用训练结果形成人脸校正器。
6.根据权利要求1所述的基于分组卷积神经网络的表情识别方法,其特征在于,根据FERPLUS表情识别数据库训练分组卷积神经网络模型的步骤包括:
计算梯度值
Figure 609827DEST_PATH_IMAGE010
Figure 748685DEST_PATH_IMAGE011
其中
Figure 332113DEST_PATH_IMAGE012
为当前梯度更新方向,
Figure 581829DEST_PATH_IMAGE013
为上一步梯度的更新方向,
Figure 567102DEST_PATH_IMAGE014
为根据梯度二次导数计算得到的当前梯度,
Figure 814544DEST_PATH_IMAGE015
Figure 885268DEST_PATH_IMAGE016
为衰减权重,
Figure 938675DEST_PATH_IMAGE010
为更新梯度值。
7.根据权利要求1所述的基于分组卷积神经网络的表情识别方法,其特征在于,利用分组卷积神经网络模型构建的至少一类分类表情分类器,根据输入核函数层的提取特征得到由所有表情的预测概率组成的向量,计算公式如下:
Figure 778455DEST_PATH_IMAGE017
其中
Figure 446065DEST_PATH_IMAGE018
为第
Figure 738506DEST_PATH_IMAGE019
类表情的标签,
Figure 595604DEST_PATH_IMAGE020
为第
Figure 289890DEST_PATH_IMAGE019
类输入特征,
Figure 879135DEST_PATH_IMAGE021
为广义的代表稠密网络的所有权值,
Figure 924451DEST_PATH_IMAGE022
为由所有表情的预测概率组成的向量,
Figure 319660DEST_PATH_IMAGE023
为转置,
Figure 868453DEST_PATH_IMAGE019
Figure 956495DEST_PATH_IMAGE024
Figure 909014DEST_PATH_IMAGE025
为整数变量。
CN202010235994.0A 2020-03-30 2020-03-30 一种基于分组卷积神经网络的表情识别方法 Pending CN111126364A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010235994.0A CN111126364A (zh) 2020-03-30 2020-03-30 一种基于分组卷积神经网络的表情识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010235994.0A CN111126364A (zh) 2020-03-30 2020-03-30 一种基于分组卷积神经网络的表情识别方法

Publications (1)

Publication Number Publication Date
CN111126364A true CN111126364A (zh) 2020-05-08

Family

ID=70493875

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010235994.0A Pending CN111126364A (zh) 2020-03-30 2020-03-30 一种基于分组卷积神经网络的表情识别方法

Country Status (1)

Country Link
CN (1) CN111126364A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113052037A (zh) * 2021-03-16 2021-06-29 蔡勇 一种采用ai技术判断移动车辆与人形方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101615245A (zh) * 2009-07-30 2009-12-30 上海交通大学 基于avr和增强lbp的表情识别方法
CN107292256A (zh) * 2017-06-14 2017-10-24 西安电子科技大学 基于辅任务的深度卷积小波神经网络表情识别方法
CN107330420A (zh) * 2017-07-14 2017-11-07 河北工业大学 基于深度学习带有旋转信息的人脸表情识别方法
CN108108677A (zh) * 2017-12-12 2018-06-01 重庆邮电大学 一种基于改进的cnn人脸表情识别方法
CN108319900A (zh) * 2018-01-16 2018-07-24 南京信息工程大学 一种基本表情分类方法
CN110020582A (zh) * 2018-12-10 2019-07-16 平安科技(深圳)有限公司 基于深度学习的人脸情绪识别方法、装置、设备及介质
CN110414371A (zh) * 2019-07-08 2019-11-05 西南科技大学 一种基于多尺度核卷积神经网络的实时人脸表情识别方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101615245A (zh) * 2009-07-30 2009-12-30 上海交通大学 基于avr和增强lbp的表情识别方法
CN107292256A (zh) * 2017-06-14 2017-10-24 西安电子科技大学 基于辅任务的深度卷积小波神经网络表情识别方法
CN107330420A (zh) * 2017-07-14 2017-11-07 河北工业大学 基于深度学习带有旋转信息的人脸表情识别方法
CN108108677A (zh) * 2017-12-12 2018-06-01 重庆邮电大学 一种基于改进的cnn人脸表情识别方法
CN108319900A (zh) * 2018-01-16 2018-07-24 南京信息工程大学 一种基本表情分类方法
CN110020582A (zh) * 2018-12-10 2019-07-16 平安科技(深圳)有限公司 基于深度学习的人脸情绪识别方法、装置、设备及介质
CN110414371A (zh) * 2019-07-08 2019-11-05 西南科技大学 一种基于多尺度核卷积神经网络的实时人脸表情识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
GUANGZHE ZHAO 等: "Expression Recognition Method Based on a Lightweight Convolutional Neural Network", 《DIGITAL OBJECT IDENTIFIER》 *
VASU, BHAVAN KUMAR: "Visualizing Resiliency of Deep Convolutional Network Interpretations For Aerial Imagery", 《ROCHESTER INSTITUTE OF TECHNOLOGY, THESIS.》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113052037A (zh) * 2021-03-16 2021-06-29 蔡勇 一种采用ai技术判断移动车辆与人形方法

Similar Documents

Publication Publication Date Title
CN109815826B (zh) 人脸属性模型的生成方法及装置
CN109492529A (zh) 一种多尺度特征提取及全局特征融合的人脸表情识别方法
CN112766158A (zh) 基于多任务级联式人脸遮挡表情识别方法
CN111814611B (zh) 一种嵌入高阶信息的多尺度人脸年龄估计方法及***
CN110321805B (zh) 一种基于时序关系推理的动态表情识别方法
CN111401116B (zh) 基于增强卷积和空时lstm网络的双模态情感识别方法
CN116311483B (zh) 基于局部面部区域重构和记忆对比学习的微表情识别方法
CN113420794B (zh) 一种基于深度学习的二值化Faster R-CNN柑橘病虫害识别方法
Xu et al. Face expression recognition based on convolutional neural network
CN112883931A (zh) 基于长短期记忆网络的实时真假运动判断方法
CN112418032A (zh) 一种人体行为识别方法、装置、电子设备及存储介质
CN111160327B (zh) 一种基于轻量化卷积神经网络的表情识别方法
CN116129013A (zh) 一种生成虚拟人动画视频的方法、装置及存储介质
CN114170657A (zh) 融合注意力机制与高阶特征表示的面部情感识别方法
CN116758621B (zh) 基于自注意力机制的遮挡人脸面部表情深度卷积识别方法
CN111126364A (zh) 一种基于分组卷积神经网络的表情识别方法
CN116740808A (zh) 基于深度学习目标检测和图像分类的动物行为识别方法
CN116311472A (zh) 基于多层次图卷积网络的微表情识别方法及装置
CN115965836A (zh) 一种语义可控的人体行为姿态视频数据扩增***及方法
CN113420608A (zh) 一种基于密集时空图卷积网络的人体异常行为识别方法
CN113343773A (zh) 基于浅层卷积神经网络的人脸表情识别***
TW202030651A (zh) 應用於深度學習之預特徵萃取方法
CN115019363B (zh) 一种基于mid-Xception网络的轻量级人脸表情识别方法
Li Expression Recognition of Classroom Children’s Game Video Based on Improved Convolutional Neural Network
CN115983986B (zh) 一种针对视频面审人像的衣着暴露等级识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20200508

WD01 Invention patent application deemed withdrawn after publication