CN109784154B - 基于深度神经网络的情绪识别方法、装置、设备及介质 - Google Patents

基于深度神经网络的情绪识别方法、装置、设备及介质 Download PDF

Info

Publication number
CN109784154B
CN109784154B CN201811503089.8A CN201811503089A CN109784154B CN 109784154 B CN109784154 B CN 109784154B CN 201811503089 A CN201811503089 A CN 201811503089A CN 109784154 B CN109784154 B CN 109784154B
Authority
CN
China
Prior art keywords
picture
face
data
convolution
identified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811503089.8A
Other languages
English (en)
Other versions
CN109784154A (zh
Inventor
盛建达
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN201811503089.8A priority Critical patent/CN109784154B/zh
Publication of CN109784154A publication Critical patent/CN109784154A/zh
Application granted granted Critical
Publication of CN109784154B publication Critical patent/CN109784154B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于深度神经网络的情绪识别方法、装置、设备及介质,所述方法包括:接收待识别的人脸图片;按照预设的处理方式对待识别的人脸图片进行预处理,得到待识别图片;将待识别图片输入预设的深度残差网络模型中;使用输入层对待识别图片进行多通道数据提取,得到待识别图片对应的人脸图片数据;采用卷积层对人脸图片数据进行特征数据提取,得到待识别图片的人脸特征;使用全连接层对人脸特征进行分类回归,得到待识别图片中人脸的情绪状态。本发明的实施例通过预设的深度残差网络模型对人脸图片的预测精确度更高,提高模型对人脸情绪识别的准确率。

Description

基于深度神经网络的情绪识别方法、装置、设备及介质
技术领域
本发明涉及生物识别技术领域,尤其涉及一种基于深度神经网络的情绪识别方法、装置、设备及介质。
背景技术
随着科学技术的发展,人工智能技术也得到了飞快的发展,人脸情绪识别是人工智能领域的关键技术,人脸情绪的识别是研究如何使计算机从静态图像或者视频序列中获取人脸表情并加以辨别的技术,对于人机交互与情感计算的研究有重要的意义,一般地,人脸的基本情绪可以分为7种,即开心、悲伤、恐惧、生气、惊讶、厌恶和平静。
目前的人脸情绪的识别方法主要采用随机森林算法或者SVM(Support VectorMachine,支持向量机)分类器对人脸样本图片进行学习训练,得到情绪识别模型,但是,由于人脸图片的表情的类别较多和规律比较复杂,现有的人脸情绪识别方法无法对人脸图片中更深层次的数据特征进行学习,使得现有的情绪识别模型对人物情绪的识别准确率不高。
发明内容
本发明实施例中提供一种基于深度神经网络的情绪识别方法、装置、设备及介质,以解决目前人物情绪识别的准确率低的问题。
一种基于深度神经网络的情绪识别方法,包括:
接收待识别的人脸图片;
按照预设的处理方式对所述待识别的人脸图片进行预处理,得到所述待识别图片;
将所述待识别图片输入预设的深度残差网络模型中,其中,所述预设的深度残差网络模型包括输入层、卷积层和全连接层;
使用所述输入层对所述待识别图片进行多通道数据提取,得到所述待识别图片对应的人脸图片数据;
采用所述卷积层对所述人脸图片数据进行特征数据提取,得到所述待识别图片的人脸特征;
使用所述全连接层对所述人脸特征进行分类回归,得到所述待识别图片的识别结果,其中,所述识别结果包括所述待识别图片中人脸的情绪状态。
一种基于深度神经网络的情绪识别装置,包括:
图片接收模块,用于接收待识别的人脸图片;
图片处理模块,用于按照预设的处理方式对所述待识别的人脸图片进行预处理,得到待识别图片;
图片识别模块,用于将所述待识别图片输入预设的深度残差网络模型中,其中,所述预设的深度残差网络模型包括输入层、卷积层和全连接层;
数据提取模块,用于使用所述输入层对所述待识别图片进行多通道数据提取,得到所述待识别图片对应的人脸图片数据;
特征提取模块,用于采用所述卷积层对所述人脸图片数据进行特征数据提取,得到所述待识别图片的人脸特征;
情绪输出模块,用于使用所述全连接层对所述人脸特征进行分类回归,得到所述待识别图片的识别结果,其中,所述识别结果包括所述待识别图片中人脸的情绪状态。
一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述基于深度神经网络的情绪识别方法。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述基于深度神经网络的情绪识别方法。
上述基于深度神经网络的情绪识别方法、装置、设备及介质,通过接收待识别的人脸图片,按照预设的处理方式对待识别的人脸图片进行预处理,得到待识别图片,并将预处理后的待识别图片输入预设的深度残差网络模型中,使用深度残差网络模型中的输入层对待识别图片进行多通道数据提取,得到待识别图片对应的人脸图片数据,再采用卷积层对人脸图片数据进行特征数据提取,得到待识别图片的人脸特征,最后,使用全连接层对人脸特征进行分类回归,得到待识别图片的识别结果,从而确定待识别图片中人脸的情绪状态。通过对待识别图片进行预处理,将图片中的噪声数据去除,能够提高模型的识别速率和准确率,并且使用卷积层对待识别图片中的人脸进行深层次的特征数据的提取,使得深度残差网络模型对人脸图片的预测精确度更高,提高模型对人脸情绪识别的准确率。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例中基于深度神经网络的情绪识别方法的一应用环境示意图;
图2是本发明一实施例中基于深度神经网络的情绪识别方法的一流程图;
图3是本发明一实施例中基于深度神经网络的情绪识别方法中步骤S5的一具体流程图;
图4是本发明一实施例中基于深度神经网络的情绪识别方法中卷积层处理的一具体流程图;
图5是本发明一实施例中基于深度神经网络的情绪识别方法中提取待识别图片的特征数据的一具体流程图;
图6是本发明一实施例中基于深度神经网络的情绪识别方法中卷积层处理的另一具体流程图;
图7是本发明一实施例中基于深度神经网络的情绪识别方法中步骤S2的一具体流程图;
图8是本发明一实施例中基于深度神经网络的情绪识别方法中步骤S6的一具体流程图;
图9是本发明一实施例中基于深度神经网络的情绪识别装置的一原理框图;
图10是本发明一实施例中计算机设备的一示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本申请实施例提供的基于深度神经网络的情绪识别方法,可应用在如图1的应用环境中,该应用环境包括服务端和客户端,其中,服务端和客户端之间通过网络进行连接,用户通过客户端输入待识别图片,服务端接收待识别图片,并使用预设的深度残差网络模型对待识别的人脸图片进行识别,识别得到待识别图片中人物的情绪。客户端具体可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备,服务端具体可以用独立的服务器或者多个服务器组成的服务器集群实现。本发明实施例提供基于深度神经网络的情绪识别的方法应用于服务端。
在一实施例中,图2示出本实施例中基于深度神经网络的情绪识别方法的一流程图,该方法应用在图1中的服务端,用于识别人脸图片中人物的情绪,提高人脸情绪识别的准确率。如图2所示,该基于深度神经网络的情绪识别方法包括步骤S1至步骤S6,详述如下:
S1:接收待识别的人脸图片。
在本实施例中,服务端通过网络接收客户端发送的待识别的人脸图片,该待识别的人脸图片是指需要对图片中人物的情绪进行识别的人脸图片,其中,待识别的人脸图片的图片格式包括但不限于jpg、png和jpeg等格式,具体可以是客户端从互联网中获取的人脸图片,也可以是用户通过客户端拍摄的人脸图片,或者是摄像机拍摄的单帧人脸图片等等。
S2:按照预设的处理方式对待识别的人脸图片进行预处理,得到待识别图片。
具体地,其中,预设的处理方式是指预先设置对待识别的人脸图片进行尺寸、灰度和形状等变换处理的方式,用于将待识别的人脸图片转换成预设规格的待识别图片,该预设规格包括但不限于预设的尺寸、预设的灰度等级和预设的形状等,以便后续的图片处理更加高效,提高图片的数据处理效率。
其中,待识别图片的预设规格可以根据实际应用的需要进行设置,此处不做限制,例如,待识别图片的像素的尺寸可以设置为168*168,也可以设置为256*256等。
具体地,服务端先使用预设的人脸检测算法获取待识别的人脸图片中的人脸区域,该预设的人脸检测算法可以根据图片中的人脸五官检测得到人脸区域,从待识别的人脸图片中裁剪出人脸所在的区域,得到裁剪后的人脸图片,再将裁剪得到的人脸图片的像素的尺寸转换为预设尺寸的图片,得到预设尺寸的图片,再对该预设尺寸的图片进行灰度化和去噪等处理,消除待识别的人脸图片中的噪声信息,增强与人脸相关的信息的可检测性和简化图片数据,并将预处理之后的图片作为待识别图片,实现对待识别的人脸图片的预处理。
例如,可以预先将待识别图片的像素尺寸设置为168*168,对一尺寸为[1280,720]的待识别的人脸图片,通过预设的人脸检测算法检测出待识别的人脸图片中人脸的区域,并从待识别的人脸图片中裁剪出人脸所在的区域,再将裁剪得到的待识别的人脸图片的尺寸转换为[168,168]尺寸的图片,并且通过对预设尺寸的图片进行灰度化和去噪等处理,从而得到预设规格的待识别图片。
S3:将待识别图片输入预设的深度残差网络模型中,其中,预设的深度残差网络模型包括输入层、卷积层和全连接层。
在本实施例中,预设的深度残差网络模型是基于ResNet(Residual Networks,深度残差网络)构建的神经网络模型,ResNet是一种深度学习的神经网络,深度残差网络模型是指在ResNet网络结构中引入一个深度残差学习框架进行机器模型的训练,解决退化问题的深度学习模型。
可以理解地,对于深度学习神经网络,当深度加深,学习能力增强,因此深度网络会比较浅的网络效果好,但是深度网络残差消失,会导致退化问题(degradation,越深的网络的性能反而比较浅的网络差),影响深度学习神经网络的学习效果。因此,深度残差网络模型在ResNet网络结构中引入一个深度残差网络来解决退化问题,以便获得较好的预测效果。
具体地,预设的深度残差网络模型包括输入层、卷积层和全连接层,输入层是用于对图片的通道数据进行提取的网络层,卷积层是用于对图片的特征信息进行提取的网络层,全连接层是用于将提取到的特征信息进行回归分析的网络层。
S4:使用输入层对待识别图片进行多通道数据提取,得到待识别图片对应的人脸图片数据。
具体地,在预设的深度残差网络模型中,使用输入层中预设的通道对待识别图片进行多通道数据的提取,能够得到用于描述待识别图片的人脸图片数据,从而将图片中的信息进行数字化,便于机器模型的识别分析。
其中,多通道数据是指,针对图片中的一个像素点,若需要用多个数值进行描述该像素点,则该多个数值组成的向量即为图片的多通道数据。
可选地,本发明实施例中输入层的通道个数可以设置为3,通过R(红)、G(绿)和B(蓝)三个分量进行描述待识别图片中的像素点,也即,可以使用向量(R、G、B)表示待识别图片中的像素点,其中,每个通道的分量的取值范围均为[0,255],0表示纯黑色,255表示纯白色。
S5:采用卷积层对人脸图片数据进行特征数据提取,得到待识别图片的人脸特征。
在本实施例中,卷积层具体可以包括多个卷积单元,并且卷积层是将输入数据和三个卷积单元进行叠加得到的跳跃结构作为卷积层的基本结构,采用预设的深度残差网络模型中的卷积层对待识别图片进行卷积计算,该卷积计算是用于提取表示待识别图片的人脸的特征信息的卷积操作,从而提取得到待识别图片的人脸特征。
其中,卷积层中卷积单元的数量可以预先进行设置,并且预设数量的卷积单元按照预设的顺序排列,例如,卷积层具体可以包括16*3个卷积单元,共有48个卷积单元,但并不限于此,具体的卷积单元的数量可以根据实际应用的需要进行设置,此处不做限制。
值得一提的是,第一个卷积单元是用于提取待识别图片中的一些低层次的特征信息,例如,图片的边缘、线条和角等低层次的特征信息,越深层级的卷积单元能从低层次的特征信息中迭代计算获取待识别图片中更复杂的特征信息。
S6:使用全连接层对人脸特征进行分类回归,得到待识别图片的识别结果,其中,识别结果包括待识别图片中人脸的情绪状态。
具体地,服务端在预设的深度残差网络模型的全连接层中,使用全连接层中预设的激活函数对人脸特征进行回归分析,得到待识别图片的人脸特征属于每个预设的情绪状态的概率值,从而实现对人脸特征的分类,并将概率值最大的情绪状态输出作为待识别图片的识别结果,得到待识别图片中人物的情绪状态,其中,预先设置的人物的情绪状态包括但不限于开心、悲伤、恐惧、生气、惊讶、焦躁、厌恶和平静等情绪,但并不限于此,具体可以根据实际应用的需要设置情绪的类别。
进一步地,激活函数用于对待识别图片的人脸特征进行回归分析,得到待识别图片的人脸特征与预设的情绪状态之间的相关性的函数,激活函数具体可以是sigmoid、rule和Softmax等激活函数,本实施例中,可以采用Softmax激活函数对输入全连接层的人脸特征进行分类回归,能够直观地比较深度残差网络模型预测待识别图片中的人脸属于每个情绪状态的概率值。
在图2对应的实施例中,通过接收待识别图片,按照预设的处理方式对待识别图片进行预处理,将预处理后的待识别图片输入预设的深度残差网络模型中,使用深度残差网络模型中的输入层对待识别图片进行多通道数据提取,得到待识别图片对应的人脸图片数据,再采用卷积层对人脸图片数据进行特征数据提取,得到待识别图片的人脸特征,最后,使用全连接层对人脸特征进行分类回归,得到待识别图片的识别结果,从而确定待识别图片中人脸的情绪状态。通过对待识别图片进行预处理,将图片中的噪声数据去除,能够提高模型的识别速率和准确率,并且使用卷积层对待识别图片中的人脸进行深层次的特征数据的提取,使得深度残差网络模型对人脸图片的预测精确度更高,提高模型对人脸情绪识别的准确率。
在一实施例中,本实施例对步骤S5中所提及的采用卷积层对人脸图片数据进行特征数据提取,得到待识别图片的人脸特征的具体实现方法进行详细说明。
请参阅图3,图3示出了步骤S5的一具体流程图,详述如下:
S51:采用卷积层对人脸图片数据进行卷积计算,得到卷积数据。
在本实施例中,在卷积层的每个卷积单元中预先设置不同预设尺寸的视觉感知范围的卷积核,根据每个卷积单元中的卷积核确定该卷积单元对应的卷积计算函数,并根据预设的卷积核对人脸图片数据进行卷积计算,从而将人脸图片数据与预设的卷积核相乘,得到卷积数据,该卷积数据能够描述待识别图片中人脸的特征信息,其中,卷积核的尺寸可以根据实际应用的需要进行设置,例如,卷积核可以预先设置为1×1、3×3或者5×5等,卷积核的单位为像素。
S52:对卷积数据和人脸图片数据进行叠加运算处理,得到特征数据。
具体地,对卷积数据和人脸图片数据进行叠加运算处理,将人脸图片数据和卷积数据提取的特征信息进行合并,得到待识别图片的人脸特征。
下面以一个具体的实施例对卷积层的卷积运算方式进行详细的说明:
例如,在一具体实施例中,如图4所示,图4示出了一卷积层的卷积运算过程,该卷积层包括第一卷积单元、第二卷积单元和第三卷积单元,具体处理流程如下:
S401:使用第一卷积单元对人脸图片数据进行特征数据提取,得到第一卷积数据;
S402:使用第二卷积单元对第一卷积数据进行特征数据提取,得到第二卷积数据;
S403:使用第三卷积单元对第二卷积数据进行特征数据提取,得到第三卷积数据;
S404:对人脸图片数据和第三卷积数据进行叠加运算处理,得到待识别图片的人脸特征。
在图3对应的实施例中,通过采用卷积层对人脸图片数据进行卷积计算,得到卷积数据,并对卷积数据和人脸图片数据进行叠加运算处理,得到待识别图片的人脸特征,能够得到用于描述待识别图片中人脸的特征信息,加强特征信息在神经网络模型中的传递效果,以便对待识别图片中人物的情绪进行识别,从而有效提高预设的深度残差网络模型的预测准确率。
在一实施例中,如图5所示,本实施例对步骤S52中所提及的对卷积数据和人脸图片数据进行叠加运算处理,得到人脸特征的具体实现方法进行详细说明。
S521:若卷积数据的维度与人脸图片数据的维度相一致,则对卷积数据和人脸图片数据进行求和运算处理。
具体地,维度是指数据的存储形式,例如,(x,y)是一个二维数据,(x,y,z)是一个三维数据,对卷积数据的维度与人脸图片数据的维度进行检测,若卷积数据的维度与人脸图片数据的维度相一致,则对卷积数据和人脸图片数据进行求和运算处理,在同一维度上,将卷积数据和人脸图片数据处于同一维度的数据相加,从而将卷积数据和人脸图片数据进行叠加,加强待识别图片中人脸的特征信息在神经网络模型中的传递。
S522:若卷积数据的维度与人脸图片数据的维度不一致,则对人脸图片数据进行维度变换处理,得到与卷积数据的维度相同的人脸图片数据,并对维度变换后的人脸图片数据和卷积数据进行求和运算处理。
具体地,在对卷积数据的维度与人脸图片数据的维度进行检测后,若卷积数据的维度与人脸图片数据的维度不一致,则对人脸图片数据进行维度变换处理,按照预设的卷积单元对人脸图片数据进行降维或者升维处理,得到与卷积数据的维度相同的人脸图片数据,再对维度变换后的人脸图片数据和卷积数据进行求和运算处理,在同一维度上,将卷积数据和维度变换后的人脸图片数据处于同一维度的数据相加。
例如,在一具体实施例中,如图6所示,图6示出了在一卷积层中,卷积数据的维度与人脸图片数据的维度不一致的卷积运算过程,该卷积层包括第四卷积单元、第五卷积单元和第六卷积单元,具体处理流程如下:
S601:使用第四卷积单元对人脸图片数据进行特征数据提取,得到第四卷积数据;
S602:使用第五卷积单元对第四卷积数据进行特征数据提取,得到第五卷积数据;
S603:使用第六卷积单元对第五卷积数据进行特征数据提取,得到第六卷积数据;
S604:对人脸图片数据进行维度变换处理,得到与第六卷积数据相同维度的人脸图片数据;
S605:对维度变换后的人脸图片数据和第六卷积数据进行求和运算处理,得到待识别图片的人脸特征。
需要说明的是,在卷积层中的每个卷积单元,根据不同的预设的卷积核对输入该卷积单元的输入数据进行卷积计算,得到的卷积数据可能会存在卷积数据的维度与输入数据的维度不同,这是由于在卷积计算过程中对输入数据的特征提取时,对输入数据的降维或者升维处理所造成,而对输入数据的降维或者升维处理是用于提取待识别图片的深层次特征的操作。
S523:获取求和运算处理的结果作为人脸特征。
具体地,将卷积数据和人脸图片数据在相应维度上的数据相加,获取求和运算处理的结果作为人脸特征,加强待识别图片中人脸的特征信息在神经网络模型中的传递。
在图5对应的实施例中,通过对卷积数据的维度与人脸图片数据的维度进行检测,针对卷积数据的维度与人脸图片数据的维度相一致的数据,直接对卷积数据和人脸图片数据进行求和运算处理,而对于卷积数据的维度与人脸图片数据的维度不一致的数据,则对人脸图片数据进行维度变换处理,得到与卷积数据的维度相同的人脸图片数据,再使用维度变换后的人脸图片数据和卷积数据进行求和运算处理,并将求和运算处理的结果作为人脸特征,从而加强待识别图片中人脸的特征信息在神经网络模型中的传递,并能根据待识别图片中人脸的特征信息进行分析得到人物的情绪状态,提高预设的深度残差网络模型的识别准确率。
在一实施例中,本实施例对步骤S2中所提及的按照预设的处理方式对待识别的人脸图片进行预处理,得到待识别图片的具体实现方法进行详细说明。
请参阅图7,图7示出了步骤S2的一具体流程图,详述如下:
S21:对待识别的人脸图片进行灰度级变换处理,得到灰度图片。
具体地,灰度图片是指只含亮度信息,不含色彩信息的图片,灰度级变换处理是将含有亮度和色彩的待识别图片变换成灰度图片的过程,按照公式(1)使用预设的灰度值变换函数对待识别的人脸图片进行灰度级变换处理:
g(x,y)=T(f(x,y))公式(1)
其中,f为待识别的人脸图片,T为预设的灰度值变换函数,g为灰度图片,x和y分别表示待识别的人脸图片中的横坐标与纵坐标,f(x,y)表示待识别的人脸图片中坐标点(x,y)对应的像素值,g(x,y)表示灰度图片中坐标点(x,y)对应的像素值。
S22:对灰度图片进行去噪处理,得到预处理后的待识别图片。
具体地,图像噪声是指存在于图像数据中的不必要的或多余的干扰信息,例如,高斯噪声、瑞利噪声、伽马噪声和椒盐噪声等,噪声会人脸图片的识别造成影响,因此,可以采用均值滤波、中值滤波或者维纳滤波等方法对灰度图片进行噪声去除处理。
可选地,服务端可以采用中值滤波对灰度图片进行噪声去除处理,中值滤波法是一种非线性的信号处理技术,通过将噪声点的灰度值替换为该噪声点的邻域窗口内的所有像素点的灰度值的中值,使得周围的像素点的灰度值接近的真实值,从而消除孤立的噪声点。
在图7对应的实施例中,通过对待识别的人脸图片进行灰度级变换处理,得到灰度图片,并对灰度图片进行去噪处理,得到待识别图片,使得待识别图片更加规范化,并且待识别图片的细节更加清楚,易于被识别,以便后续的模型训练过程对待识别图片的处理能够更加高效,减少待识别图片的复杂度和信息处理量,从而提高机器学习模型的训练速率和识别准确率。
在一实施例中,全连接层包括M个分类器,其中,M为正整数,本实施例对步骤S6中所提及的使用全连接层对人脸特征进行分类回归,得到待识别图片的识别结果的具体实现方法进行详细说明。
请参阅图8,图8示出了步骤S6的一具体流程图,详述如下:
S61:使用全连接层的M个分类器对人脸特征进行回归计算,得到待识别图片的M种情绪状态的概率,其中,每个分类器对应一种情绪状态。
具体地,预设的深度残差网络模型的全连接层中有M个训练好的分类器,该分类器具体可以是Softmax回归分类器,用于对输入全连接层的人脸特征进行回归计算,得到该人脸特征与每个分类器对应的情绪状态的相似度,该相似度具体可以由概率值表示,共得到待识别图片中人脸的M种情绪状态的概率值,以表示待识别图片中的人脸属于每种情绪状态的概率,其中,每个分类器对应一种情绪状态,情绪状态的具体种类可以根据实际应用的需要进行设置,并且,分类器的概率值越大,则人脸特征与每个分类器对应的情绪状态的相似度越高。
S62:从M个概率中,选取概率最大的情绪状态作为待识别图片中人脸的情绪状态,得到待识别图片的识别结果。
具体地,根据步骤S61得到的待识别图片中的人脸属于每种情绪状态的概率值,从M种情绪状态的概率中,选取概率值最大的情绪状态作为待识别图片中人脸的情绪状态,并将该情绪状态输出,作为待识别图片的识别结果。
例如,如表1所示,全连接层一共有8个训练好的分类器,分类器1到分类器8对应的情绪状态分别为开心、悲伤、恐惧、生气、惊讶、焦躁、厌恶和平静,表1示出了预设的深度残差网络模型对一待识别图片进行预测,得到该待识别图片中的人脸属于每一种情绪状态的概率值的预测结果,根据表1可知,由于该待识别图片中的人脸属于分类器5对应的情绪状态“惊讶”的概率值最大,因此,可以确定该待识别图片中人物的情绪状态为惊讶。
表1.待识别图片的预测结果
在图8对应的实施例中,通过使用全连接层的分类器对人脸特征进行回归计算,得到待识别图片中的人脸属于每一种情绪状态的概率值的预测结果,从而直观地对待识别图片中的人脸属于每个情绪状态的概率值进行比较,并选取概率最大的情绪状态作为待识别图片的识别结果,确定待识别图片中人物的情绪状态,实现了对待识别图片中人物的情绪状态的识别。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
在一实施例中,提供一种基于深度神经网络的情绪识别装置,该基于深度神经网络的情绪识别装置与上述实施例中基于深度神经网络的情绪识别方法一一对应。如图9所示,该基于深度神经网络的情绪识别装置包括:图片接收模块91、图片处理模块92、图片识别模块93、数据提取模块94、特征提取模块95和情绪输出模块96。各功能模块详细说明如下:
图片接收模块91,用于接收待识别的人脸图片;
图片处理模块92,用于按照预设的处理方式对待识别的人脸图片进行预处理,得到待识别图片;
图片识别模块93,用于将待识别图片输入预设的深度残差网络模型中,其中,预设的深度残差网络模型包括输入层、卷积层和全连接层;
数据提取模块94,用于使用输入层对待识别图片进行多通道数据提取,得到待识别图片对应的人脸图片数据;
特征提取模块95,用于采用卷积层对人脸图片数据进行特征数据提取,得到待识别图片的人脸特征;
情绪输出模块96,用于使用全连接层对人脸特征进行分类回归,得到待识别图片的识别结果,其中,识别结果包括待识别图片中人脸的情绪状态。
进一步地,特征提取模块95包括:
卷积计算子模块951,用于采用卷积层对人脸图片数据进行卷积计算,得到卷积数据;
特征获取子模块952,用于对卷积数据和人脸图片数据进行叠加运算处理,得到人脸特征。
进一步地,特征获取子模块952包括:
第一计算单元9521,用于若卷积数据的维度与人脸图片数据的维度相一致,则对卷积数据和人脸图片数据进行求和运算处理;
第二计算单元9522,用于若卷积数据的维度与人脸图片数据的维度不一致,则对人脸图片数据进行维度变换处理,得到与卷积数据的维度相同的人脸图片数据,并对维度变换后的人脸图片数据和卷积数据进行求和运算处理;
结果获取单元9523,用于获取求和运算处理的结果作为人脸特征。
进一步地,图片处理模块92包括:
第一处理子模块921,用于对待识别的人脸图片进行灰度级变换处理,得到灰度图片;
第二处理子模块922,用于对灰度图片进行去噪处理,得到预处理后的待识别图片。
进一步地,全连接层包括M个分类器,其中,M为正整数,情绪输出模块96包括:
回归分析子模块961,用于使用全连接层的M个分类器对人脸特征进行回归计算,得到待识别图片的M种情绪状态的概率,其中,每个分类器对应一种情绪状态;
情绪确定子模块962,用于从M个概率中,选取概率最大的情绪状态作为待识别图片中人脸的情绪状态,得到待识别图片的识别结果。
关于基于深度神经网络的情绪识别装置的具体限定可以参见上文中对于基于深度神经网络的情绪识别方法的限定,在此不再赘述。上述基于深度神经网络的情绪识别装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图10所示。该计算机设备包括通过***总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作***、计算机程序和数据库。该内存储器为非易失性存储介质中的操作***和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种基于深度神经网络的情绪识别方法。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述实施例中基于深度神经网络的情绪识别方法中的步骤,例如图2所示的步骤S1至步骤S6,或者,处理器执行计算机程序时实现上述实施例中基于深度神经网络的情绪识别装置的各模块/单元的功能,例如图9所示模块91至模块96的功能。为避免重复,这里不再赘述。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述实施例中基于深度神经网络的情绪识别方法中的步骤,例如图2所示的步骤S1至步骤S6,或者,处理器执行计算机程序时实现上述实施例中基于深度神经网络的情绪识别装置的各模块/单元的功能,例如图9所示模块91至模块96的功能。为避免重复,这里不再赘述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

Claims (6)

1.一种基于深度神经网络的情绪识别方法,其特征在于,所述基于深度神经网络的情绪识别方法包括:
接收待识别的人脸图片;
按照预设的处理方式对所述待识别的人脸图片进行预处理,得到待识别图片;
将所述待识别图片输入预设的深度残差网络模型中,其中,所述预设的深度残差网络模型包括输入层、卷积层和全连接层;
使用所述输入层对所述待识别图片进行多通道数据提取,得到所述待识别图片对应的人脸图片数据;多通道数据是指,针对图片中的一个像素点,若需要用多个数值进行描述该像素点,则该多个数值组成的向量即为图片的多通道数据;
采用所述卷积层对所述人脸图片数据进行特征数据提取,得到所述待识别图片的人脸特征;
使用所述全连接层对所述人脸特征进行分类回归,得到所述待识别图片的识别结果,其中,所述识别结果包括所述待识别图片中人脸的情绪状态;所述采用所述卷积层对所述人脸图片数据进行特征数据提取,得到所述待识别图片的人脸特征包括:采用所述卷积层对所述人脸图片数据进行卷积计算,得到卷积数据;对所述卷积数据和所述人脸特征数据进行叠加运算处理,得到所述人脸特征;所述对所述卷积数据和所述人脸特征数据进行叠加运算处理,得到所述人脸特征包括:若所述卷积数据的维度与所述人脸特征数据的维度相一致,则对所述卷积数据和所述人脸特征数据进行求和运算处理;若所述卷积数据的维度与所述人脸特征数据的维度不一致,则对所述人脸特征数据进行维度变换处理,得到与所述卷积数据的维度相同的所述人脸特征数据,并对维度变换后的所述人脸特征数据和所述卷积数据进行求和运算处理;获取所述求和运算处理的结果作为所述人脸特征。
2.如权利要求1所述的基于深度神经网络的情绪识别方法,其特征在于,所述按照预设的处理方式对所述待识别的人脸图片进行预处理,得到待识别图片包括:
对所述待识别的人脸图片进行灰度级变换处理,得到灰度图片;
对所述灰度图片进行去噪处理,得到所述预处理后的所述待识别图片。
3.如权利要求1至2任一项所述的基于深度神经网络的情绪识别方法,其特征在于,所述全连接层包括M个分类器,其中,M为正整数,所述使用所述全连接层对所述人脸特征进行分类回归,得到所述待识别图片的识别结果包括:
使用所述全连接层的M个分类器对所述人脸特征进行回归计算,得到所述待识别图片的M种情绪状态的概率,其中,每个所述分类器对应一种所述情绪状态;
从M个所述概率中,选取概率最大的情绪状态作为所述待识别图片中人脸的情绪状态,得到所述待识别图片的所述识别结果。
4.一种基于深度神经网络的情绪识别装置,其特征在于,所述基于深度神经网络的情绪识别装置包括:
图片接收模块,用于接收待识别的人脸图片;
图片处理模块,用于按照预设的处理方式对所述待识别的人脸图片进行预处理,得到待识别图片;
图片识别模块,用于将所述待识别图片输入预设的深度残差网络模型中,其中,所述预设的深度残差网络模型包括输入层、卷积层和全连接层;
数据提取模块,用于使用所述输入层对所述待识别图片进行多通道数据提取,得到所述待识别图片对应的人脸图片数据;多通道数据是指,针对图片中的一个像素点,若需要用多个数值进行描述该像素点,则该多个数值组成的向量即为图片的多通道数据;
特征提取模块,用于采用所述卷积层对所述人脸图片数据进行特征数据提取,得到所述待识别图片的人脸特征;
情绪输出模块,用于使用所述全连接层对所述人脸特征进行分类回归,得到所述待识别图片的识别结果,其中,所述识别结果包括所述待识别图片中人脸的情绪状态;
所述特征提取模块包括:卷积计算子模块,用于采用所述卷积层对所述人脸图片数据进行卷积计算,得到卷积数据;特征获取子模块,用于对所述卷积数据和所述人脸图片数据进行叠加运算处理,得到所述人脸特征;
所述特征获取子模块包括:第一计算单元,用于若所述卷积数据的维度与所述人脸图片数据的维度相一致,则对所述卷积数据和所述人脸图片数据进行求和运算处理;第二计算单元,用于若所述卷积数据的维度与所述人脸图片数据的维度不一致,则对所述人脸图片数据进行维度变换处理,得到与所述卷积数据的维度相同的所述人脸图片数据,并对维度变换后的所述人脸图片数据和所述卷积数据进行求和运算处理;结果获取单元,用于获取所述求和运算处理的结果作为所述人脸特征。
5.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至3任一项所述基于深度神经网络的情绪识别方法。
6.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至3任一项所述基于深度神经网络的情绪识别方法。
CN201811503089.8A 2018-12-10 2018-12-10 基于深度神经网络的情绪识别方法、装置、设备及介质 Active CN109784154B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811503089.8A CN109784154B (zh) 2018-12-10 2018-12-10 基于深度神经网络的情绪识别方法、装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811503089.8A CN109784154B (zh) 2018-12-10 2018-12-10 基于深度神经网络的情绪识别方法、装置、设备及介质

Publications (2)

Publication Number Publication Date
CN109784154A CN109784154A (zh) 2019-05-21
CN109784154B true CN109784154B (zh) 2023-11-24

Family

ID=66496812

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811503089.8A Active CN109784154B (zh) 2018-12-10 2018-12-10 基于深度神经网络的情绪识别方法、装置、设备及介质

Country Status (1)

Country Link
CN (1) CN109784154B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110610131B (zh) * 2019-08-06 2024-04-09 平安科技(深圳)有限公司 人脸运动单元的检测方法、装置、电子设备及存储介质
CN110693508A (zh) * 2019-09-02 2020-01-17 中国航天员科研训练中心 多通道协同的心理生理主动感知方法及服务机器人
CN110866469B (zh) * 2019-10-30 2024-07-16 腾讯科技(深圳)有限公司 一种人脸五官识别方法、装置、设备及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107247947A (zh) * 2017-07-07 2017-10-13 北京智慧眼科技股份有限公司 人脸属性识别方法及装置
CN107784324A (zh) * 2017-10-17 2018-03-09 杭州电子科技大学 基于深度残差网络的白血细胞多分类识别方法
CN108830262A (zh) * 2018-07-25 2018-11-16 上海电力学院 自然状态下多角度人脸表情识别方法
CN108921061A (zh) * 2018-06-20 2018-11-30 腾讯科技(深圳)有限公司 一种表情识别方法、装置和设备
CN108932495A (zh) * 2018-07-02 2018-12-04 大连理工大学 一种汽车前脸参数化模型全自动生成方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107247947A (zh) * 2017-07-07 2017-10-13 北京智慧眼科技股份有限公司 人脸属性识别方法及装置
CN107784324A (zh) * 2017-10-17 2018-03-09 杭州电子科技大学 基于深度残差网络的白血细胞多分类识别方法
CN108921061A (zh) * 2018-06-20 2018-11-30 腾讯科技(深圳)有限公司 一种表情识别方法、装置和设备
CN108932495A (zh) * 2018-07-02 2018-12-04 大连理工大学 一种汽车前脸参数化模型全自动生成方法
CN108830262A (zh) * 2018-07-25 2018-11-16 上海电力学院 自然状态下多角度人脸表情识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于神经网络的人脸表情识别;梁瑞奇;;电子制作(第20期);第46-48页 *

Also Published As

Publication number Publication date
CN109784154A (zh) 2019-05-21

Similar Documents

Publication Publication Date Title
CN109657582B (zh) 人脸情绪的识别方法、装置、计算机设备及存储介质
US10902245B2 (en) Method and apparatus for facial recognition
US10936919B2 (en) Method and apparatus for detecting human face
CN110020582B (zh) 基于深度学习的人脸情绪识别方法、装置、设备及介质
CN108509915B (zh) 人脸识别模型的生成方法和装置
US20230081645A1 (en) Detecting forged facial images using frequency domain information and local correlation
CN112784670A (zh) 基于像素差异的对象检测
CN109784154B (zh) 基于深度神经网络的情绪识别方法、装置、设备及介质
WO2021137946A1 (en) Forgery detection of face image
CN113066002A (zh) 对抗样本的生成方法、神经网络的训练方法、装置及设备
CN112395979A (zh) 基于图像的健康状态识别方法、装置、设备及存储介质
CN116311214B (zh) 车牌识别方法和装置
CN113221718A (zh) 公式识别方法、装置、存储介质和电子设备
US20230343137A1 (en) Method and apparatus for detecting key point of image, computer device and storage medium
US12046062B2 (en) Intelligent visual reasoning over graphical illustrations using a MAC unit
CN116484224A (zh) 一种多模态预训练模型的训练方法、装置、介质及设备
Xu et al. SFRNet: Feature Extraction‐Fusion Steganalysis Network Based on Squeeze‐and‐Excitation Block and RepVgg Block
CN115223181A (zh) 基于文本检测的报告材料***文字识别方法和装置
CN112801960B (zh) 图像处理方法及装置、存储介质、电子设备
CN114445632A (zh) 图片处理方法及装置
CN113971830A (zh) 一种人脸识别方法、装置、存储介质及电子设备
Singh et al. Application of error level analysis in image spam classification using deep learning model
CN117370934B (zh) 一种敏感信息发现模型的多模态数据增强方法
US10762607B2 (en) Method and device for sensitive data masking based on image recognition
Yu-Dong et al. Image Quality Predictor with Highly Efficient Fully Convolutional Neural Network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant