CN112800998A - 融合注意力机制和dmcca的多模态情感识别方法及*** - Google Patents

融合注意力机制和dmcca的多模态情感识别方法及*** Download PDF

Info

Publication number
CN112800998A
CN112800998A CN202110159085.8A CN202110159085A CN112800998A CN 112800998 A CN112800998 A CN 112800998A CN 202110159085 A CN202110159085 A CN 202110159085A CN 112800998 A CN112800998 A CN 112800998A
Authority
CN
China
Prior art keywords
emotion
expression
electroencephalogram
vector
feature vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110159085.8A
Other languages
English (en)
Other versions
CN112800998B (zh
Inventor
卢官明
朱清扬
卢峻禾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Posts and Telecommunications filed Critical Nanjing University of Posts and Telecommunications
Priority to CN202110159085.8A priority Critical patent/CN112800998B/zh
Publication of CN112800998A publication Critical patent/CN112800998A/zh
Application granted granted Critical
Publication of CN112800998B publication Critical patent/CN112800998B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Optimization (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Pure & Applied Mathematics (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Signal Processing (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明公开了一种融合注意力机制和鉴别多重集典型相关分析(DMCCA)的多模态情感识别方法及***。该方法包括:对经过预处理后的脑电信号、外周生理信号和面部表***分别提取脑电信号特征、外周生理信号特征和表情特征;使用注意力机制分别提取有鉴别力的脑电情感特征、外周生理情感特征、表情情感特征;对脑电情感特征、外周生理情感特征和表情情感特征使用DMCCA方法,得到脑电‑外周生理‑表情多模态情感特征;使用分类器对多模态情感特征进行分类识别。本发明采用注意力机制选择性地重点关注各模态中更具情感鉴别力的特征,并结合DMCCA充分利用不同模态情感特征之间的相关性和互补性,可以有效提高情感识别的准确率和鲁棒性。

Description

融合注意力机制和DMCCA的多模态情感识别方法及***
技术领域
本发明涉及情感识别和人工智能技术领域,尤其涉及一种融合注意力机制和鉴别多重集典型相关分析(DMCCA)的多模态情感识别方法及***。
背景技术
人类情感是伴随着人的意识过程产生的心理和生理状态,在人际交流中起着重要作用。随着人工智能等技术的不断进步,获得更加智能化、人性化的人机交互(Human–Computer Interactions,HCIs)体验越来越受到人们的关注。人们对机器智能化的要求越来越高,期望机器能够具有感知、理解甚至表达情感的能力,实现人性化的人机交互,更好地为人类服务。情感识别作为情感计算的一个分支,是实现人-机情感交互的基础和核心技术,已经成为计算机科学、认知科学和人工智能等领域的研究热点,受到了学术界和工业界的广泛关注。例如,在临床医疗护理中,如果能够知道患者,尤其是有表达障碍的患者的情感状态,就可以采取不同的护理措施,以提高护理质量。此外,在对精神障碍患者的心理行为监控、情感机器人的人-机友好交互等方面也得到了越来越多的关注。
以往对情感识别的研究大多集中在通过单一模态的信息来识别人类情感状态,比如基于语音的情感识别、基于面部表情的情感识别等。由于单一的语音或表情信息所表达的情感信息是不完整的,且容易受到外界各种因素的影响,例如面部表情识别容易受遮挡和光照变化的影响,而基于语音的情感识别容易受环境噪音干扰和不同受试者的声音差异的影响,此外,有时候人们为了掩盖自己的真实情感而强颜欢笑、装腔作势或沉默不语,此时,面部表情或身体姿态具有一定的欺骗性,而当人们沉默不语时基于语音的情感识别方法就会失效,所以,单模态情感识别存在一定的局限性。因此,越来越多的研究人员将目光转向基于多模态信息融合的情感识别研究,期望能够利用各个模态信息之间的互补性,来构建鲁棒的情感识别模型,以达到更高的情感识别准确率。
目前,在进行多模态情感识别研究中,比较常用的信息融合策略有决策层融合和特征层融合。决策层融合通常基于各模态单独识别的结果,再依据相关规则,如均值(Mean)规则、求和(Sum)规则、最大值(Max)规则、少数服从多数的投票表决机制等,做出决策判断,得到最终的识别结果。决策层融合技术根据不同模态信息对于情感识别的贡献不同,比较全面地考虑了不同模态信息之间的差异性,但却忽略了不同模态信息之间的相关性。基于决策层融合的多模态情感识别性能不仅与单个模态的情感识别率有关,还依赖于决策层融合算法的性能。特征层融合是指将多个模态的情感特征联合起来,形成一个融合特征向量。特征层融合方法利用了不同模态情感特征的互补性,但如何确定不同模态情感特征的权值,以体现不同特征在情感分类识别中的差异性,是进行多模态特征融合的关键,目前仍然是面临挑战的开放课题。
发明内容
发明目的:针对单模态情感识别准确率低、鲁棒性差以及现有多模态情感特征融合方法存在的缺点,本发明的目的是提供一种融合注意力机制和鉴别多重集典型相关分析(DMCCA)的多模态情感识别方法及***,通过引入注意力机制选择性地重点关注各模态中有鉴别力的情感特征,并结合DMCCA充分利用不同模态情感特征之间的相关性和互补性,可以有效提高多模态情感识别的准确率和鲁棒性。
技术方案:本发明为实现上述发明目的采用以下技术方案:
一种融合注意力机制和DMCCA的多模态情感识别方法,包括以下步骤:
(1)对经过预处理后的脑电信号和面部表***分别使用各自训练好的神经网络模型提取脑电信号特征向量和表情特征向量,对预处理后的外周生理信号,通过抽取信号波形描述符及其统计特征,提取外周生理信号特征向量;
(2)对所述的脑电信号特征向量、外周生理信号特征向量、表情特征向量分别通过线性变换矩阵映射成若干组特征向量,并分别使用注意力机制模块确定不同特征向量组的重要性权重,通过加权融合形成维数相同的有鉴别力的脑电情感特征向量、外周生理情感特征向量、表情情感特征向量;
(3)对所述的脑电情感特征向量、外周生理情感特征向量和表情情感特征向量,使用鉴别多重集典型相关分析(DMCCA)方法,通过最大化同一类别样本的不同模态情感特征之间的相关性,确定各情感特征向量的投影矩阵,并将各情感特征向量投影到一个公共子空间,相加融合后得到脑电-外周生理-表情多模态情感特征向量;
(4)使用分类器对多模态情感特征向量进行分类识别,得到情感类别。
进一步地,步骤(2)中使用注意力机制模块提取有鉴别力的脑电情感特征、外周生理情感特征、表情情感特征的具体步骤包括:
(2.1)将步骤(1)提取到的脑电信号特征以矩阵形式表示成
Figure BDA0002935593770000031
并通过线性变换矩阵W(1)映射成M1组特征向量
Figure BDA0002935593770000032
4≤M1≤16,每组特征向量的维数为N,16≤N≤64,令
Figure BDA0002935593770000033
其线性变换表达式为:
E(1)=(F(1))TW(1)
其中,上标(1)代表脑电模态,T表示转置符号;
使用第一个注意力机制模块来确定不同特征向量组的重要性权重,通过加权融合形成有鉴别力的脑电情感特征向量,其中第r组脑电信号特征向量的权重
Figure BDA0002935593770000034
以及脑电情感特征向量x(1)表示为:
Figure BDA0002935593770000035
Figure BDA0002935593770000036
其中,r=1,2,…,M1
Figure BDA0002935593770000037
表示第r组脑电信号特征向量,
Figure BDA0002935593770000038
为可训练的线性变换参数向量,exp(·)表示以自然常数e为底的指数函数;
(2.2)将步骤(1)提取到的外周生理信号特征以矩阵形式表示成
Figure BDA0002935593770000039
并通过线性变换矩阵W(2)映射成M2组特征向量
Figure BDA00029355937700000310
4≤M2≤16,令
Figure BDA00029355937700000311
Figure BDA00029355937700000312
其线性变换表达式为:
E(2)=(F(2))TW(2)
其中,上标(2)代表外周生理模态;
使用第二个注意力机制模块来确定不同特征向量组的重要性权重,通过加权融合形成有鉴别力的外周生理情感特征向量,其中第s组外周生理信号特征向量的权重
Figure BDA0002935593770000041
以及外周生理情感特征向量x(2)表示为:
Figure BDA0002935593770000042
Figure BDA0002935593770000043
其中,s=1,2,…,M2
Figure BDA0002935593770000044
表示第s组外周生理信号特征向量,
Figure BDA0002935593770000045
为可训练的线性变换参数向量;
(2.3)将步骤(1)提取到的表情特征以矩阵形式表示成
Figure BDA0002935593770000046
并通过线性变换矩阵W(3)映射成M3组特征向量
Figure BDA0002935593770000047
4≤M3≤16,令
Figure BDA0002935593770000048
Figure BDA0002935593770000049
其线性变换表达式为:
E(3)=(F(3))TW(3)
其中,上标(3)代表表情模态;
使用第三个注意力机制模块来确定不同特征向量组的重要性权重,通过加权融合形成有鉴别力的表情情感特征向量,其中第t组表情特征向量的权重
Figure BDA00029355937700000410
以及表情情感特征向量x(3)表示为:
Figure BDA00029355937700000411
Figure BDA00029355937700000412
其中,t=1,2,…,M3
Figure BDA00029355937700000413
表示第t组表情特征向量,
Figure BDA00029355937700000414
为可训练的线性变换参数向量。
进一步地,步骤(3)具体包括以下子步骤:
(3.1)获取通过训练得到的分别对应于脑电情感特征、外周生理情感特征和表情情感特征的DMCCA投影矩阵
Figure BDA0002935593770000051
Figure BDA0002935593770000052
Figure BDA0002935593770000053
32≤d≤128;
(3.2)分别使用投影矩阵Ω、Φ和Ψ将步骤(2)提取到的脑电情感特征向量x(1)、外周生理情感特征向量x(2)和表情情感特征向量x(3)投影到一个d维的公共子空间,其中脑电情感特征向量x(1)到d维公共子空间的投影为ΩTx(1),外周生理情感特征向量x(2)到d维公共子空间的投影为ΨTx(2),表情情感特征向量x(3)到d维公共子空间的投影为ΨTx(3)
(3.3)将ΩTx(1)、ΦTx(2)和ΨTx(3)进行融合,得到脑电-外周生理-表情多模态情感特征向量为ΩTx(1)Tx(2)Tx(3)
进一步地,步骤(3.1)中的投影矩阵Ω、Φ和Ψ通过以下步骤的训练得到:
(3.1.1)从训练样本集中分别抽取各情感类别的训练样本生成3组情感特征向量
Figure BDA0002935593770000054
其中
Figure BDA0002935593770000055
M为训练样本数,N为
Figure BDA0002935593770000056
的维数,i=1,2,3,m=1,2,…,M;令i=1代表脑电模态,i=2代表外周生理模态,i=3代表表情模态,
Figure BDA0002935593770000057
代表脑电情感特征向量,
Figure BDA0002935593770000058
代表外周生理情感特征向量,
Figure BDA0002935593770000059
代表表情情感特征向量;
(3.1.2)计算X(i)中各列向量的均值,对X(i)进行中心化操作;
(3.1.3)基于鉴别多重集典型相关分析(DMCCA)的思想求得一组投影矩阵Ω、Φ和Ψ,使得同类样本在公共投影子空间的线性相关性最大,同时最大化模态内数据的类间散布与最小化模态内数据的类内散布,令X(i)的投影向量为
Figure BDA00029355937700000510
i=1,2,3,DMCCA的目标函数为:
Figure BDA0002935593770000061
其中,
Figure BDA0002935593770000062
表示X(i)的类内散布矩阵,
Figure BDA0002935593770000063
表示X(i)的类间散布矩阵,cov(·,·)表示协方差,i,j∈{1,2,3};
构建如下优化模型并求解得到投影矩阵Ω、Φ和Ψ:
Figure BDA0002935593770000064
进一步地,使用拉格朗日乘子法(Lagrange multiplier)求解DMCCA目标函数的优化模型,可得到如下拉格朗日(Lagrange)函数:
Figure BDA0002935593770000065
其中,λ是拉格朗日乘子,再分别求L(w(1),w(2),w(3))对w(1)、w(2)和w(3)的偏导数并令其为零,即令
Figure BDA0002935593770000066
得到
Figure BDA0002935593770000067
进一步对上式作简化处理,则可获得如下的广义特征值问题:
Figure BDA0002935593770000068
通过求解上式中的广义特征值问题,选取前d个最大特征值λ1≥λ2≥…≥λd对应的特征向量,即可得到投影矩阵
Figure BDA0002935593770000071
Figure BDA0002935593770000072
Figure BDA0002935593770000073
基于相同的发明构思,本发明提供的融合注意力机制和DMCCA的多模态情感识别***,包括:
特征初步提取模块,用于对经过预处理后的脑电信号和面部表***分别使用各自训练好的神经网络模型提取脑电信号特征向量和表情特征向量,对预处理后的外周生理信号,通过抽取信号波形描述符及其统计特征,提取外周生理信号特征向量;
特征鉴别增强模块,用于对所述的脑电信号特征向量、外周生理信号特征向量、表情特征向量分别通过线性变换矩阵映射成若干组特征向量,并分别使用注意力机制模块确定不同特征向量组的重要性权重,通过加权融合形成维数相同的有鉴别力的脑电情感特征向量、外周生理情感特征向量、表情情感特征向量;
投影矩阵确定模块,用于使用鉴别多重集典型相关分析(DMCCA)方法,通过最大化同一类别样本的不同模态情感特征之间的相关性,确定各情感特征向量的投影矩阵;
特征融合模块,用于对所述的脑电情感特征向量、外周生理情感特征向量和表情情感特征向量,通过各自对应的投影矩阵投影到一个公共子空间,相加融合后得到脑电-外周生理-表情多模态情感特征向量;
以及,分类识别模块,用于使用分类器对多模态情感特征向量进行分类识别,得到情感类别。
基于相同的发明构思,本发明提供的融合注意力机制和DMCCA的多模态情感识别***,包括至少一台计算设备,所述计算设备包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述计算机程序被加载至处理器时实现所述的融合注意力机制和DMCCA的多模态情感识别方法。
有益效果:与现有技术相比,本发明具有以下技术效果:
(1)本发明采用注意力机制选择性地重点关注各模态中对情感识别起关键作用的显著性特征,自适应地学习具有情感鉴别能力的特征,可以有效提高多模态情感识别的准确率和鲁棒性。
(2)本发明采用鉴别多重集典型相关分析方法,引入了样本的类别信息,通过最大化同一类别样本不同模态情感特征之间的相关性,以及最大化同一模态情感特征的类间散布与最小化同一模态情感特征的类内散布,能够挖掘不同模态之间非线性的相关关系,充分利用脑电情感特征、外周生理情感特征和表情情感特征之间的相关性和互补性,同时又消除了一些无效的冗余特征,可以有效提高特征表示的鉴别力与鲁棒性。
(3)与单模态情感识别方法相比,本发明综合利用了情感表达过程中的多种模态信息,能够结合不同模态的特点并充分利用其互补性来挖掘多模态情感特征,可以有效提高情感识别的准确率和鲁棒性。
附图说明
图1是本发明实施例的方法流程图;
图2是本发明实施例的结构图。
具体实施方式
为了更加详细了解本发明,下面结合说明书附图和具体实施例对本发明做进一步详细的说明。
如图1和图2所示,本发明实施例提供的一种融合注意力机制和DMCCA的多模态情感识别方法,主要包括如下步骤:
(1)对经过预处理后的脑电信号和面部表***分别使用各自训练好的神经网络模型提取脑电信号特征向量和表情特征向量,对预处理后的外周生理信号,通过抽取信号波形描述符及其统计特征,提取外周生理信号特征向量。
本实施例中采用DEAP(Database for Emotion Analysis using PhysiologicalSignals)情感数据库,在实际中也可以采用其他的包含脑电、外周生理信号、面部表***的情感数据库。本实施例中使用的DEAP数据库是由英国伦敦玛丽皇后大学的Koelstra等人采集并到公开的多模态情感数据库。该数据库包含32名受试者在观看40个时长均为1分钟的不同种类音乐视频片段诱发刺激下产生的生理信号、外周生理信号以及前22名受试者在观看音乐视频片段时的面部表***。每个受试者需要进行40次实验,并且在每次实验结束后都要进行及时的自我评估(Self-assessment Manikins,SAM),需要在SAM问卷调查表上进行40次自我评估。SAM问卷调查表包含受试者对视频的唤醒度(Arousal)、效价度(Valence)、支配度(Dominance)和喜好度(Liking)的心理量表。唤醒度表示人的状态兴奋程度,变化范围由平静状态逐渐过渡到兴奋状态,用数字1到9的分值来衡量;效价度也称愉悦度,表示人的心情愉悦程度,变化范围由消极(Negative)状态逐渐过渡到积极(Positive)状态,也用数字1到9的分值来衡量;支配度的变化范围从顺从(或“无控制”)到支配(或“有控制”);喜好度表示受试者对视频的个人喜好。每位受试者需要在每次实验后选择代表情感状态的分值,用作后面的情感分类的类别和识别分析。
在DEAP数据库中,生理信号采用512Hz采样、128Hz复采样(官方提供了经过预处理的复采样数据),每个受试者的生理信号矩阵为40×40×8064(40个不同种类音乐视频片段,40个生理信号通道,8064个采样点)。在采集的40个生理信号通道中,前32个通道采集的是脑电信号,后8个通道采集的是外周生理信号。8064个采样数据则是在128Hz采样率下时长为63s的数据,每一段信号记录前,都有3s静默时间。
在本发明实施例中,我们采用同时具有脑电信号、外周生理信号和面部表情的880个样本作为训练样本,在唤醒度、效价度、支配度和喜好度的4个维度上分别做二分类识别。
用于提取脑电信号特征的神经网络模型可以采用长短时记忆(Long Short-TermMemory,LSTM)网络或卷积神经网络(Convolutional Neural Network,CNN),用于提取表情特征的神经网络模型可以采用3D卷积神经网络、CNN-LSTM等。在本实施例中,使用训练好的卷积神经网络(CNN)模型对预处理后的脑电信号进行特征提取,得到256维的脑电信号特征向量;对预处理后的心电、呼吸、眼电、肌电等外周生理信号,通过抽取信号波形的低层描述符(Low Level Descriptor,LLD)及其统计特征(包括平均值、标准偏差、功率谱、中值、最大值和最小值),提取了128维的外周生理信号特征向量;对预处理后的面部表***使用训练好的CNN-LSTM模型提取256维的表情特征向量。
(2)对脑电信号特征向量、外周生理信号特征向量、表情特征向量分别使用注意力机制模块提取有鉴别力的脑电情感特征向量、外周生理情感特征向量、表情情感特征向量。
(3)对脑电情感特征向量、外周生理情感特征向量和表情情感特征向量,使用鉴别多重集典型相关分析(DMCCA)方法,得到脑电-外周生理-表情多模态情感特征向量。
(4)使用分类器对多模态情感特征向量进行分类识别,得到情感类别。
进一步地,步骤(2)中使用注意力机制模块提取有鉴别力的脑电情感特征、外周生理情感特征、表情情感特征的具体步骤包括:
(2.1)将步骤(1)提取到的脑电信号特征以矩阵形式表示成
Figure BDA0002935593770000101
并通过线性变换矩阵W(1)映射成M1组特征向量
Figure BDA0002935593770000102
4≤M1≤16,每组特征向量的维数为N,16≤N≤64,令
Figure BDA0002935593770000103
其线性变换表达式为:
E(1)=(F(1))TW(1)
其中,上标(1)代表脑电模态,T表示转置符号。
使用第一个注意力机制模块来确定不同特征向量组的重要性权重,通过加权融合形成有鉴别力的脑电情感特征向量,其中第r组脑电信号特征向量的权重
Figure BDA0002935593770000104
以及脑电情感特征向量x(1)表示为:
Figure BDA0002935593770000105
Figure BDA0002935593770000106
其中,r=1,2,…,M1
Figure BDA0002935593770000107
表示第r组脑电信号特征向量,
Figure BDA0002935593770000108
为可训练的线性变换参数向量,exp(·)表示以自然常数e为底的指数函数。在本实施例中,M1=8,N=32。
为了训练线性变换矩阵W(1)的参数,需要在第一个注意力机制模块之后连接一个softmax分类器,将第一个注意力机制模块输出的脑电情感特征向量x(1)连接到softmax分类器的C个输出节点,经过softmax函数之后输出一个概率分布向量
Figure BDA0002935593770000111
其中c∈[1,C],C为情感类别数。
进一步地,由下式所示的交叉熵损失函数来训练线性变换矩阵W(1)的参数。
Figure BDA0002935593770000112
Figure BDA0002935593770000113
其中,x(1)为32维的脑电情感特征向量;
Figure BDA0002935593770000114
表示softmax分类模型预测情感类别的概率分布向量;
Figure BDA0002935593770000115
表示第m个脑电样本的真实情感类别标签,当采用one-hot编码时,若第m个脑电样本的真实情感类别标签为c,则
Figure BDA0002935593770000116
否则
Figure BDA0002935593770000117
表示softmax分类模型将第m个脑电样本预测为类别c的概率;Loss(1)表示线性变换矩阵W(1)在训练过程中的损失函数;在本实施例中,C=2,M=880。
通过误差反向传播算法不断迭代训练,直至模型参数达到最优。之后,就可对新输入的测试样本的脑电信号提取脑电情感特征向量x(1)
(2.2)将步骤(1)提取到的外周生理信号特征以矩阵形式表示成
Figure BDA0002935593770000118
并通过线性变换矩阵W(2)映射成M2组特征向量
Figure BDA0002935593770000119
4≤M2≤16,令
Figure BDA00029355937700001110
Figure BDA00029355937700001111
其线性变换表达式为:
E(2)=(F(2))TW(2)
其中,上标(2)代表外周生理模态。
使用第二个注意力机制模块来确定不同特征向量组的重要性权重,通过加权融合形成有鉴别力的外周生理情感特征向量,其中第s组外周生理信号特征向量的权重
Figure BDA00029355937700001112
以及外周生理情感特征向量x(2)表示为:
Figure BDA00029355937700001113
Figure BDA0002935593770000121
其中,s=1,2,…,M2
Figure BDA0002935593770000122
表示第s组外周生理信号特征向量,
Figure BDA0002935593770000123
为可训练的线性变换参数向量。在本实施例中,M2=4。
为了训练线性变换矩阵W(2)的参数,需要在第二个注意力机制模块之后连接一个softmax分类器,将第二个注意力机制模块输出的外周生理情感特征向量x(2)连接到softmax分类器的C个输出节点,经过softmax函数之后输出一个概率分布向量
Figure BDA0002935593770000124
进一步地,由下式所示的交叉熵损失函数来训练线性变换矩阵W(2)的参数。
Figure BDA0002935593770000125
Figure BDA0002935593770000126
其中,x(2)为32维的外周生理情感特征向量;
Figure BDA0002935593770000127
表示softmax分类模型预测情感类别的概率分布向量;
Figure BDA0002935593770000128
表示第m个外周生理信号样本的真实情感类别标签,当采用one-hot编码时,若第m个外周生理信号样本的真实情感类别标签为c,则
Figure BDA0002935593770000129
否则
Figure BDA00029355937700001210
表示softmax分类模型将第m个外周生理信号样本预测为类别c的概率;Loss(2)表示线性变换矩阵W(2)在训练过程中的损失函数;在本实施例中,C=2,M=880。
通过误差反向传播算法不断迭代训练,直至模型参数达到最优。之后,就可对新输入的测试样本的外周生理信号提取外周生理情感特征向量x(2)
(2.3)将步骤(1)提取到的表情特征以矩阵形式表示成
Figure BDA00029355937700001211
并通过线性变换矩阵W(3)映射成M3组特征向量
Figure BDA00029355937700001212
4≤M3≤16,令
Figure BDA00029355937700001213
Figure BDA00029355937700001214
其线性变换表达式为:
E(3)=(F(3))TW(3)
其中,上标(3)代表表情模态。
使用第三个注意力机制模块来确定不同特征向量组的重要性权重,通过加权融合形成有鉴别力的表情情感特征向量,其中第t组表情特征向量的权重
Figure BDA0002935593770000131
以及表情情感特征向量x(3)表示为:
Figure BDA0002935593770000132
Figure BDA0002935593770000133
其中,t=1,2,…,M3
Figure BDA0002935593770000134
表示第t组表情特征向量,
Figure BDA0002935593770000135
为可训练的线性变换参数向量。在本实施例中,M3=8。
为了训练线性变换矩阵W(3)的参数,需要在第三个注意力机制模块之后连接一个softmax分类器,将第三个注意力机制模块输出的表情情感特征向量x(3)连接到softmax分类器的C个输出节点,经过softmax函数之后输出一个概率分布向量
Figure BDA0002935593770000136
进一步地,由下式所示的交叉熵损失函数来训练线性变换矩阵W(3)的参数。
Figure BDA0002935593770000137
Figure BDA0002935593770000138
其中,x(3)为32维的表情情感特征向量;
Figure BDA0002935593770000139
表示softmax分类模型预测情感类别的概率分布向量;
Figure BDA00029355937700001310
表示第m个表***样本的真实情感类别标签,当采用one-hot编码时,若第m个表***样本的真实情感类别标签为c,则
Figure BDA00029355937700001311
否则
Figure BDA00029355937700001312
表示softmax分类模型将第m个表***样本预测为类别c的概率;Loss(3)表示线性变换矩阵W(3)在训练过程中的损失函数;在本实施例中,C=2,M=880。
通过误差反向传播算法不断迭代训练,直至模型参数达到最优。之后,就可对新输入的测试样本的表***提取表情情感特征向量x(3)
进一步地,步骤(3)具体包括以下子步骤:
(3.1)获取通过训练得到的分别对应于脑电情感特征、外周生理情感特征和表情情感特征的DMCCA投影矩阵
Figure BDA0002935593770000141
Figure BDA0002935593770000142
Figure BDA0002935593770000143
32≤d≤128。在本实施例中,d=40。
(3.2)分别使用投影矩阵Ω、Φ和Ψ将步骤(2)提取到的脑电情感特征向量x(1)、外周生理情感特征向量x(2)和表情情感特征向量x(3)投影到一个d维的公共子空间,其中脑电情感特征向量x(1)到d维公共子空间的投影为ΩTx(1),外周生理情感特征向量x(2)到d维公共子空间的投影为ΦTx(2),表情情感特征向量x(3)到d维公共子空间的投影为ΨTx(3)
(3.3)将ΩTx(1)、ΦTx(2)和ΨTx(3)进行融合,得到脑电-外周生理-表情多模态情感特征向量为ΩTx(1)Tx(2)Tx(3)
进一步地,步骤(3.1)中的投影矩阵Ω、Φ和Ψ通过以下步骤的训练得到:
(3.1.1)对于训练样本集中的C类情感类别的样本生成3组情感特征向量
Figure BDA0002935593770000144
其中
Figure BDA0002935593770000145
M为训练样本数(本例中样本集中数据量不大,所有样本参与计算,数据量大的样本集可随机抽取各情感类别的样本),i=1,2,3,m=1,2,…,M;令i=1代表脑电模态,i=2代表外周生理模态,i=3代表表情模态,
Figure BDA0002935593770000146
代表脑电情感特征向量,
Figure BDA0002935593770000147
代表外周生理情感特征向量,
Figure BDA0002935593770000148
代表表情情感特征向量;在本实施例中,C=2,M=880,N=32。
(3.1.2)计算X(i)中各列向量的均值
Figure BDA0002935593770000149
对X(i)进行中心化操作,得到
Figure BDA00029355937700001410
为了便于描述,下面将中心化后的
Figure BDA00029355937700001411
仍记为X(i),即假设
Figure BDA00029355937700001412
均已被中心化。
(3.1.3)鉴别多重集典型相关分析(DMCCA)的思想旨在求得一组投影矩阵Ω、Φ和Ψ,使得同类样本在公共投影子空间的线性相关性最大,同时还最大化了模态内数据的类间散布与最小化了模态内数据的类内散布,令X(i)的投影向量为
Figure BDA0002935593770000151
i=1,2,3,DMCCA的目标函数为:
Figure BDA0002935593770000152
其中,
Figure BDA0002935593770000153
表示X(i)的类内散布矩阵,
Figure BDA0002935593770000154
表示X(i)的类间散布矩阵,cov(·,·)表示协方差,i,j∈{1,2,3}。
对DMCCA目标函数的求解可以表示为如下的优化模型:
Figure BDA0002935593770000155
(3.1.4)使用拉格朗日乘子法(Lagrange multiplier)求解DMCCA目标函数的优化模型,可得到如下拉格朗日(Lagrange)函数:
Figure BDA0002935593770000156
其中,λ是拉格朗日乘子,再分别求L(w(1),w(2),w(3))对w(1)、w(2)和w(3)的偏导数并令其为零,即令
Figure BDA0002935593770000157
得到
Figure BDA0002935593770000158
进一步对上式作简化处理,则可获得如下的广义特征值问题:
Figure BDA0002935593770000161
通过求解上式中的广义特征值问题,选取前d个最大特征值λ1≥λ2≥…≥λd对应的特征向量,即可得到投影矩阵
Figure BDA0002935593770000162
Figure BDA0002935593770000163
Figure BDA0002935593770000164
在本实施例中,d=40。
基于相同的发明构思,本发明实施例提供的融合注意力机制和DMCCA的多模态情感识别***,包括:
特征初步提取模块,用于对经过预处理后的脑电信号和面部表***分别使用各自训练好的神经网络模型提取脑电信号特征向量和表情特征向量,对预处理后的外周生理信号,通过抽取信号波形描述符及其统计特征,提取外周生理信号特征向量;
特征鉴别增强模块,用于对的脑电信号特征向量、外周生理信号特征向量、表情特征向量分别通过线性变换矩阵映射成若干组特征向量,并分别使用注意力机制模块确定不同特征向量组的重要性权重,通过加权融合形成维数相同的有鉴别力的脑电情感特征向量、外周生理情感特征向量、表情情感特征向量;
投影矩阵确定模块,用于使用DMCCA方法,通过最大化同一类别样本的不同模态情感特征之间的相关性,确定各情感特征向量的投影矩阵;
特征融合模块,用于对的脑电情感特征向量、外周生理情感特征向量和表情情感特征向量,通过各自对应的投影矩阵投影到一个公共子空间,相加融合后得到脑电-外周生理-表情多模态情感特征向量;
以及,分类识别模块,用于使用分类器对多模态情感特征向量进行分类识别,得到情感类别。
各模块的具体实现参考上述方法实施例,不再赘述。本领域技术人员可以理解,可以对实施例中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个***中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。
基于相同的发明构思,本发明实施例提供的融合注意力机制和DMCCA的多模态情感识别***,包括至少一台计算设备,该计算设备包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,该计算机程序被加载至处理器时实现上述的融合注意力机制和DMCCA的多模态情感识别方法。
本发明所公开的技术方案既包含了上述实施方案中涉及的技术方法,也包括由以上技术方法任意组合成的技术方案。本技术领域的普通技术人员,在不脱离本发明的原理的前提下,可以作出一定的改善和修饰,这些改善和修饰也被认为本发明的保护范围。

Claims (7)

1.融合注意力机制和DMCCA的多模态情感识别方法,其特征在于,所述方法包括以下步骤:
(1)对经过预处理后的脑电信号和面部表***分别使用各自训练好的神经网络模型提取脑电信号特征向量和表情特征向量,对预处理后的外周生理信号,通过抽取信号波形描述符及其统计特征,提取外周生理信号特征向量;
(2)对所述的脑电信号特征向量、外周生理信号特征向量、表情特征向量分别通过线性变换矩阵映射成若干组特征向量,并分别使用注意力机制模块确定不同特征向量组的重要性权重,通过加权融合形成维数相同的有鉴别力的脑电情感特征向量、外周生理情感特征向量、表情情感特征向量;
(3)对所述的脑电情感特征向量、外周生理情感特征向量和表情情感特征向量,使用鉴别多重集典型相关分析(DMCCA)方法,通过最大化同一类别样本的不同模态情感特征之间的相关性,确定各情感特征向量的投影矩阵,并将各情感特征向量投影到一个公共子空间,相加融合后得到脑电-外周生理-表情多模态情感特征向量;
(4)使用分类器对多模态情感特征向量进行分类识别,得到情感类别。
2.根据权利要求1所述的融合注意力机制和DMCCA的多模态情感识别方法,其特征在于,步骤(2)包括以下子步骤:
(2.1)将步骤(1)提取到的脑电信号特征以矩阵形式表示成
Figure FDA0002935593760000011
并通过线性变换矩阵W(1)映射成M1组特征向量
Figure FDA0002935593760000012
4≤M1≤16,每组特征向量的维数为N,16≤N≤64,令
Figure FDA0002935593760000013
其线性变换表达式为:
E(1)=(F(1))TW(1)
其中,上标(1)代表脑电模态,T表示转置符号;
使用第一个注意力机制模块来确定不同特征向量组的重要性权重,通过加权融合形成有鉴别力的脑电情感特征向量,其中第r组脑电信号特征向量的权重
Figure FDA0002935593760000014
以及脑电情感特征向量x(1)表示为:
Figure FDA0002935593760000021
Figure FDA0002935593760000022
其中,r=1,2,…,M1
Figure FDA0002935593760000023
表示第r组脑电信号特征向量,
Figure FDA0002935593760000024
为可训练的线性变换参数向量,exp(·)表示以自然常数e为底的指数函数;
(2.2)将步骤(1)提取到的外周生理信号特征以矩阵形式表示成
Figure FDA0002935593760000025
并通过线性变换矩阵W(2)映射成M2组特征向量
Figure FDA0002935593760000026
4≤M2≤16,令
Figure FDA0002935593760000027
Figure FDA0002935593760000028
其线性变换表达式为:
E(2)=(F(2))TW(2)
其中,上标(2)代表外周生理模态;
使用第二个注意力机制模块来确定不同特征向量组的重要性权重,通过加权融合形成有鉴别力的外周生理情感特征向量,其中第s组外周生理信号特征向量的权重
Figure FDA0002935593760000029
以及外周生理情感特征向量x(2)表示为:
Figure FDA00029355937600000210
Figure FDA00029355937600000211
其中,s=1,2,…,M2
Figure FDA00029355937600000212
表示第s组外周生理信号特征向量,
Figure FDA00029355937600000213
为可训练的线性变换参数向量;
(2.3)将步骤(1)提取到的表情特征以矩阵形式表示成
Figure FDA00029355937600000214
并通过线性变换矩阵W(3)映射成M3组特征向量
Figure FDA0002935593760000031
4≤M3≤16,令
Figure FDA0002935593760000032
Figure FDA0002935593760000033
其线性变换表达式为:
E(3)=(F(3))TW(3)
其中,上标(3)代表表情模态;
使用第三个注意力机制模块来确定不同特征向量组的重要性权重,通过加权融合形成有鉴别力的表情情感特征向量,其中第t组表情特征向量的权重
Figure FDA0002935593760000034
以及表情情感特征向量x(3)表示为:
Figure FDA0002935593760000035
Figure FDA0002935593760000036
其中,t=1,2,…,M3
Figure FDA0002935593760000037
表示第t组表情特征向量,
Figure FDA0002935593760000038
为可训练的线性变换参数向量。
3.根据权利要求2所述的融合注意力机制和DMCCA的多模态情感识别方法,其特征在于,步骤(3)包括以下子步骤:
(3.1)获取通过训练得到的分别对应于脑电情感特征、外周生理情感特征和表情情感特征的DMCCA投影矩阵
Figure FDA0002935593760000039
Figure FDA00029355937600000310
Figure FDA00029355937600000311
32≤d≤128;
(3.2)分别使用投影矩阵Ω、Φ和Ψ将步骤(2)提取到的脑电情感特征向量x(1)、外周生理情感特征向量x(2)和表情情感特征向量x(3)投影到一个d维的公共子空间,其中脑电情感特征向量x(1)到d维公共子空间的投影为ΩTx(1),外周生理情感特征向量x(2)到d维公共子空间的投影为ΦTx(2),表情情感特征向量x(3)到d维公共子空间的投影为ΨTx(3)
(3.3)将ΩTx(1)、ΦTx(2)和ΨTx(3)进行融合,得到脑电-外周生理-表情多模态情感特征向量为ΩTx(1)Tx(2)Tx(3)
4.根据权利要求3所述的融合注意力机制和DMCCA的多模态情感识别方法,其特征在于,步骤(3.1)中的投影矩阵Ω、Φ和Ψ通过以下步骤的训练得到:
(3.1.1)从训练样本集中分别抽取各情感类别的训练样本生成3组情感特征向量
Figure FDA0002935593760000041
其中
Figure FDA0002935593760000042
M为训练样本数,i=1,2,3,m=1,2,…,M;令i=1代表脑电模态,i=2代表外周生理模态,i=3代表表情模态,
Figure FDA0002935593760000043
代表脑电情感特征向量,
Figure FDA0002935593760000044
代表外周生理情感特征向量,
Figure FDA0002935593760000045
代表表情情感特征向量;
(3.1.2)计算X(i)中各列向量的均值,对X(i)进行中心化操作;
(3.1.3)基于鉴别多重集典型相关分析(DMCCA)的思想求得一组投影矩阵Ω、Φ和Ψ,使得同类样本在公共投影子空间的线性相关性最大,同时最大化模态内数据的类间散布与最小化模态内数据的类内散布,令X(i)的投影向量为
Figure FDA0002935593760000046
DMCCA的目标函数为:
Figure FDA0002935593760000047
其中,
Figure FDA0002935593760000048
表示X(i)的类内散布矩阵,
Figure FDA0002935593760000049
Figure FDA00029355937600000410
表示X(i)的类间散布矩阵,cov(·,·)表示协方差,i,j∈{1,2,3};构建如下优化模型并求解得到投影矩阵Ω、Φ和Ψ:
Figure FDA00029355937600000411
5.根据权利要求4所述的融合注意力机制和DMCCA的多模态情感识别方法,其特征在于,使用拉格朗日乘子法求解所构建的DMCCA目标函数的优化模型,具体为:将优化模型表示为如下拉格朗日函数:
Figure FDA0002935593760000051
其中,λ是拉格朗日乘子,再分别求L(w(1),w(2),w(3))对w(1)、w(2)和w(3)的偏导数并令其为零,即令
Figure FDA0002935593760000052
得到
Figure FDA0002935593760000053
进一步对上式作简化处理,则可获得如下的广义特征值问题:
Figure FDA0002935593760000054
通过求解上式中的广义特征值问题,选取前d个最大特征值λ1≥λ2≥…≥λd对应的特征向量,即可得到投影矩阵
Figure FDA0002935593760000055
Figure FDA0002935593760000056
Figure FDA0002935593760000057
6.融合注意力机制和DMCCA的多模态情感识别***,其特征在于,包括:
特征初步提取模块,用于对经过预处理后的脑电信号和面部表***分别使用各自训练好的神经网络模型提取脑电信号特征向量和表情特征向量,对预处理后的外周生理信号,通过抽取信号波形描述符及其统计特征,提取外周生理信号特征向量;
特征鉴别增强模块,用于对所述的脑电信号特征向量、外周生理信号特征向量、表情特征向量分别通过线性变换矩阵映射成若干组特征向量,并分别使用注意力机制模块确定不同特征向量组的重要性权重,通过加权融合形成维数相同的有鉴别力的脑电情感特征向量、外周生理情感特征向量、表情情感特征向量;
投影矩阵确定模块,用于使用鉴别多重集典型相关分析(DMCCA)方法,通过最大化同一类别样本的不同模态情感特征之间的相关性,确定各情感特征向量的投影矩阵;
特征融合模块,用于对所述的脑电情感特征向量、外周生理情感特征向量和表情情感特征向量,通过各自对应的投影矩阵投影到一个公共子空间,相加融合后得到脑电-外周生理-表情多模态情感特征向量;
以及,分类识别模块,用于使用分类器对多模态情感特征向量进行分类识别,得到情感类别。
7.融合注意力机制和DMCCA的多模态情感识别***,其特征在于,包括至少一台计算设备,所述计算设备包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述计算机程序被加载至处理器时实现根据权利要求1-5任一项所述的融合注意力机制和DMCCA的多模态情感识别方法。
CN202110159085.8A 2021-02-05 2021-02-05 融合注意力机制和dmcca的多模态情感识别方法及*** Active CN112800998B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110159085.8A CN112800998B (zh) 2021-02-05 2021-02-05 融合注意力机制和dmcca的多模态情感识别方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110159085.8A CN112800998B (zh) 2021-02-05 2021-02-05 融合注意力机制和dmcca的多模态情感识别方法及***

Publications (2)

Publication Number Publication Date
CN112800998A true CN112800998A (zh) 2021-05-14
CN112800998B CN112800998B (zh) 2022-07-29

Family

ID=75814276

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110159085.8A Active CN112800998B (zh) 2021-02-05 2021-02-05 融合注意力机制和dmcca的多模态情感识别方法及***

Country Status (1)

Country Link
CN (1) CN112800998B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113269173A (zh) * 2021-07-20 2021-08-17 佛山市墨纳森智能科技有限公司 一种建立情感识别模型和识别人物情感的方法和装置
CN113297981A (zh) * 2021-05-27 2021-08-24 西北工业大学 一种基于注意力机制的端到端脑电情感识别方法
CN113326781A (zh) * 2021-05-31 2021-08-31 合肥工业大学 基于面部视频的非接触式焦虑识别方法和装置
CN113616209A (zh) * 2021-08-25 2021-11-09 西南石油大学 基于时空注意力机制的精神***症患者甄别方法
CN113729710A (zh) * 2021-09-26 2021-12-03 华南师范大学 一种融合多生理模态的实时注意力评估方法及***
CN113749656A (zh) * 2021-08-20 2021-12-07 杭州回车电子科技有限公司 基于多维生理信号的情感识别方法和装置
CN114298189A (zh) * 2021-12-20 2022-04-08 深圳市海清视讯科技有限公司 疲劳驾驶检测方法、装置、设备及存储介质
CN114947852A (zh) * 2022-06-14 2022-08-30 华南师范大学 一种多模态情感识别方法、装置、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108510456A (zh) * 2018-03-27 2018-09-07 华南理工大学 基于感知损失的深度卷积神经网络的草图简化方法
CN109145983A (zh) * 2018-08-21 2019-01-04 电子科技大学 一种基于轻量化网络的实时场景图像语义分割方法
CN109543502A (zh) * 2018-09-27 2019-03-29 天津大学 一种基于深度多尺度神经网络的语义分割方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108510456A (zh) * 2018-03-27 2018-09-07 华南理工大学 基于感知损失的深度卷积神经网络的草图简化方法
CN109145983A (zh) * 2018-08-21 2019-01-04 电子科技大学 一种基于轻量化网络的实时场景图像语义分割方法
CN109543502A (zh) * 2018-09-27 2019-03-29 天津大学 一种基于深度多尺度神经网络的语义分割方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
袁秋壮等: "基于深度学习神经网络的SAR星上目标识别***研究", 《上海航天》 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113297981B (zh) * 2021-05-27 2023-04-07 西北工业大学 一种基于注意力机制的端到端脑电情感识别方法
CN113297981A (zh) * 2021-05-27 2021-08-24 西北工业大学 一种基于注意力机制的端到端脑电情感识别方法
CN113326781A (zh) * 2021-05-31 2021-08-31 合肥工业大学 基于面部视频的非接触式焦虑识别方法和装置
CN113326781B (zh) * 2021-05-31 2022-09-02 合肥工业大学 基于面部视频的非接触式焦虑识别方法和装置
CN113269173A (zh) * 2021-07-20 2021-08-17 佛山市墨纳森智能科技有限公司 一种建立情感识别模型和识别人物情感的方法和装置
CN113749656A (zh) * 2021-08-20 2021-12-07 杭州回车电子科技有限公司 基于多维生理信号的情感识别方法和装置
CN113749656B (zh) * 2021-08-20 2023-12-26 杭州回车电子科技有限公司 基于多维生理信号的情感识别方法和装置
CN113616209A (zh) * 2021-08-25 2021-11-09 西南石油大学 基于时空注意力机制的精神***症患者甄别方法
CN113616209B (zh) * 2021-08-25 2023-08-04 西南石油大学 基于时空注意力机制的精神***症患者甄别方法
CN113729710A (zh) * 2021-09-26 2021-12-03 华南师范大学 一种融合多生理模态的实时注意力评估方法及***
CN114298189A (zh) * 2021-12-20 2022-04-08 深圳市海清视讯科技有限公司 疲劳驾驶检测方法、装置、设备及存储介质
CN114947852B (zh) * 2022-06-14 2023-01-10 华南师范大学 一种多模态情感识别方法、装置、设备及存储介质
CN114947852A (zh) * 2022-06-14 2022-08-30 华南师范大学 一种多模态情感识别方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN112800998B (zh) 2022-07-29

Similar Documents

Publication Publication Date Title
CN112800998B (zh) 融合注意力机制和dmcca的多模态情感识别方法及***
Abdullah et al. Multimodal emotion recognition using deep learning
CN108805087B (zh) 基于多模态情绪识别***的时序语义融合关联判断子***
CN108899050B (zh) 基于多模态情绪识别***的语音信号分析子***
CN108877801B (zh) 基于多模态情绪识别***的多轮对话语义理解子***
CN108805089B (zh) 基于多模态的情绪识别方法
CN108805088B (zh) 基于多模态情绪识别***的生理信号分析子***
CN106886792B (zh) 一种基于分层机制构建多分类器融合模型的脑电情感识别方法
CN112784798A (zh) 一种基于特征-时间注意力机制的多模态情感识别方法
CN111210846B (zh) 基于集成流形降维的帕金森语音识别***
Schels et al. Multi-modal classifier-fusion for the recognition of emotions
Jinliang et al. EEG emotion recognition based on granger causality and capsnet neural network
Rayatdoost et al. Subject-invariant EEG representation learning for emotion recognition
Lu et al. Speech depression recognition based on attentional residual network
CN116230234A (zh) 多模态特征一致性心理健康异常识别方法及***
Xie et al. WT feature based emotion recognition from multi-channel physiological signals with decision fusion
Chen et al. Patient emotion recognition in human computer interaction system based on machine learning method and interactive design theory
Tang et al. Eye movement prediction based on adaptive BP neural network
Peng Research on Emotion Recognition Based on Deep Learning for Mental Health
Nakisa Emotion classification using advanced machine learning techniques applied to wearable physiological signals data
Akalya devi et al. Multimodal emotion recognition framework using a decision-level fusion and feature-level fusion approach
Li et al. An optimized multi-label TSK fuzzy system for emotion recognition of multimodal physiological signals
Zhao et al. Multiscale Global Prompt Transformer for EEG-Based Driver Fatigue Recognition
Li et al. Acoustic-articulatory emotion recognition using multiple features and parameter-optimized cascaded deep learning network
Guo et al. Emotion Recognition based on Physiological Signals Multi-head Attention Contrastive Learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant