CN113569924B - 一种基于支持向量机多核协作的情绪辨识分类方法 - Google Patents
一种基于支持向量机多核协作的情绪辨识分类方法 Download PDFInfo
- Publication number
- CN113569924B CN113569924B CN202110778426.XA CN202110778426A CN113569924B CN 113569924 B CN113569924 B CN 113569924B CN 202110778426 A CN202110778426 A CN 202110778426A CN 113569924 B CN113569924 B CN 113569924B
- Authority
- CN
- China
- Prior art keywords
- core
- ticket
- support vector
- vector machine
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000012706 support-vector machine Methods 0.000 title claims abstract description 33
- 230000008451 emotion Effects 0.000 title description 4
- 230000008909 emotion recognition Effects 0.000 claims abstract description 21
- 238000012549 training Methods 0.000 claims abstract description 16
- 238000012360 testing method Methods 0.000 claims abstract description 12
- 230000007246 mechanism Effects 0.000 claims abstract description 9
- 238000012545 processing Methods 0.000 claims description 8
- 238000009499 grossing Methods 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 3
- 238000005266 casting Methods 0.000 claims description 2
- 238000000605 extraction Methods 0.000 claims description 2
- 238000007781 pre-processing Methods 0.000 claims description 2
- 230000009471 action Effects 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 18
- 230000000694 effects Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000036772 blood pressure Effects 0.000 description 2
- 238000003066 decision tree Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000029058 respiratory gaseous exchange Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000002570 electrooculography Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000035479 physiological effects, processes and functions Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/259—Fusion by voting
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Psychiatry (AREA)
- Developmental Disabilities (AREA)
- Heart & Thoracic Surgery (AREA)
- Educational Technology (AREA)
- Hospice & Palliative Care (AREA)
- Psychology (AREA)
- Social Psychology (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Child & Adolescent Psychology (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开了一种基于支持向量机多核协作的情绪辨识分类方法,包括获取样本数据,所述样本数据分为训练样本和测试样本;将训练样本输入两个不同核函数类型的支持向量机分类器进行模型训练;将测试样本输入至两个已完成训练的不同核函数类型的支持向量机分类器,比较和判别两者输出的预测标签;若两者预测标签一致则直接输出该类标签;若两者预测标签不一致,则利用多核协作策略,通过分析各核的决策值,制定相应的表决机制来共同判别该样本的最终标签。本发明从多核协作分类的角度出发,减少了传统的支持向量机单核作用的局限性。
Description
技术领域
本发明涉及数据处理技术领域,尤其涉及一种基于支持向量机多核协作的情绪辨识分类方法。
背景技术
随人机交互的需求激增,情绪作为人心理状态的内在反映,在许多领域已受到广泛关注。开展情绪辨识方法研究对于实现人机共融具有长远意义。常用于情绪辨识的信号包括:语音、面部表情、手势姿态、脑电及其他生理信号等。其中生理信号如肌电、血压等作为内在的信号源,更宜反映真实的、细微的情绪状态。
一般来说,选择一个好的分类方法对于实现情绪辨识来说至关重要。常见的分类方法包括:决策树、随机森林、支持向量机、极限学习机等。不同的分类器具有不同的分类特性。决策树是基于树结构进行决策,其机制就是通过判定每个属性分类的纯度来进行自上而下的决策分类。极限学习机是一种新型的快速学习算法,对于单隐层神经网络,极限学习机可以随机初始化输入权重和偏置并得到相应的输出权重。
支持向量机作为一种强分类器,通过定义特征空间的间隔最大化,在二分类问题中突出的性能效果已受到广泛研究者的青睐。采用一对一的训练策略来构建多组二分类器可以实现多分类问题的识别。现实中,许多信号的特征往往是非线性的,因此各类核函数的引入使得复杂的非线性问题得以解决。不同的核函数具有各自的特性。一般基于单核决策的SVM存在一定的局限性,尤其是在处理多分类问题时,随辨识类别数目的增多,辨识的难度、问题的复杂性亦会随之增大。因此,组合不同核函数的支持向量机进行决策,探究其之间的共性和补偿性具有重要的研究意义。
发明内容
本发明的目的是提供一种基于支持向量机多核协作的情绪辨识分类方法,弥补了单核决策的局限性,从而改善分类效果,提升情绪辨识分类的精度。
本发明为实现上述发明目的采用如下技术方案:
本发明提供了一种基于支持向量机多核协作的情绪辨识分类方法,包括:
获取样本数据,所述样本数据分为训练样本和测试样本;
将训练样本输入两个不同核函数类型的支持向量机分类器进行模型训练;
将测试样本输入至两个已完成训练的不同核函数类型的支持向量机分类器,比较和判别两者输出的预测标签;
若两者预测标签一致则直接输出该类标签;
若两者预测标签不一致,则利用多核协作辨识策略,通过分析各核的决策值,制定相应的表决机制来共同判别该样本的最终标签。
进一步地,采用hold-out方法将样本数据分为训练样本和测试样本。
进一步地,两个不同核函数类型其中一个核函数类型选用多项式核,另一个核函数类型选用径向基核。
进一步地,若两者预测标签不一致,则利用多核协作辨识策略,通过分析各核的决策值,制定相应的表决机制来共同判别该样本的最终标签的方法包括:
找出预测标签不同的测试样本,并从各核中取出相应的决策值;
对取出的决策值进行归一化处理,处理要求如下:
考虑最高票的决策值,将各核的最高票的各决策值转化为对应的有效值,公式如下:
其中,m表示最高票的票数,wi表示相应决策值ni的有效性;
按每票的有效值,若票值中存在有效性小于P%的票,判定为无效票,反之为有效票;
评估各核整体的投票环境,判定依据如下:
各核的有效票数不等时,投出有效票值多的核函数所决策出的预测标签;
各核的有效票数相等时,依据各核的决策值,计算各自的均方差,投出差值小的核函数所决策出的预测标签;
输出最终的预测标签。
进一步地,样本数据的生成方法包括:
获取预处理生理信号;
根据信号特性,提取所需要的特征并作归一化处理,生成样本数据。
进一步地,预处理生理信号的方法包括:
提取相关生理信号,降低采样频率,去除基线和眼电伪迹并对各类生理信号进行数据划分。
进一步地,提取所需要的特征包括:
几何平均、调和平均、峭度、最大值、平均值、中值、最小值、阈值、斜度、标准差和方差。
进一步地,采用数据平滑处理和去趋势的方式进行特征提取。
进一步地,所述数据平滑处理和去趋势的方式包括:
移动标准差移动方差/>移动均值/>移动中位数mmad=median(|Ai-median(A)|);
其中,A是一个移动的向量,向量的长度为N,Ai表示A中第i个向量值,μ表示均值。
本发明的有益效果如下:
本发明从多核协作分类的角度出发,减少了传统的支持向量机单核作用的局限性;
基于支持向量机投票决策的原理,从内部分析多核协作决策的可能性,探究多核决策值之间的共性和互补性,有利于改善支持向量机最终的分类性能。
附图说明
图1为根据本发明实施例提供的一种基于支持向量机多核协作的情绪辨识分类方法的流程框图;
图2为根据本发明实施例提供的一种基于支持向量机多核协作的情绪辨识分类方法中多核协作辨识策略的整体示意图;
图3为根据本发明实施例提供的一种基于支持向量机多核协作的情绪辨识分类方法中协作决策机制的具体流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明所涉及方法的整体流程图如图1所示,包括以下步骤:
步骤1:预处理相关生理信号。相关的生理信号包括:呼吸(RSP)、血压(BVP)、皮电(GSR)、肌电(EMG)及眼电(EOG)。降低采样频率至128Hz,每个训练样本去除眼电伪迹和前3秒的基线。对各类生理信号进行数据划分,6秒一段并作3秒的重叠。
步骤2:根据信号特性,提取所需要的特征并作归一化处理。常见的提取的特征包括:最大值(max)、最小值(min)、方差(var)、标准差(std)、中值(median)、均值(mean)、范围(range)、几何平均(geometric mean)、调和平均(harmonic mean)。采用一些数据平滑处理和去趋势的方法,同样提取以上特征,可以获得更多不同类型下的特征值。数据平滑处理和去趋势的方法包括:移动标准差(movstd)移动方差(movvar)移动均值(movmean)/>移动中位数(movmad)mmad=median(|Ai-median(A)|),A是一个移动的向量,向量的长度为N,Ai表示A中第i个向量值,μ表示均值。
步骤3:多核协作辨识策略的整体示意图如图2所示。首先样本数据分为训练样本和测试样本,将训练样本分别输入不同核函数类型的支持向量机分类器进行模型训练,一个核函数类型选用多项式核,另一个核函数类型选用径向基核。
步骤4:其次,将测试样本分别输入两个训练好的不同核函数类型的支持向量机分类器,比较和判别两者输出的预测标签。若两者标签一致则直接输出该类标签,若两者标签不一致,则利用多核协作策略,通过分析各核的决策值,制定相应的表决机制来共同判别该样本的最终标签。
协作决策机制的具体流程如图3所示:
(1)从模型中找出预测标签不同的样本,并从各自的核函数模型中取出相应的决策值。
(2)对取出的决策值各自进行归一化处理。处理要求如下:只需考虑两模型已预测标签的决策值(即最高票),将各核最高票的各决策值转化为对应的有效票值,公式如下:i∈(1,2,...,m),m表示最高票的票数,wi表示相应决策值ni的有效性。按每票的有效值,若票值中存在有效性小于P%的票(P取5-6),判定为无效票,反之为有效票。
(3)评估各核整体的投票环境。判定依据依据主要有两条,一为各核的有效票数不等时,投出有效票多的核函数所决策出的预测标签,二为各核的有效票数相等时,依据各核的决策值,计算各自的标准差,投出差值小的核函数所决策出的预测标签。以下是投票情况的分类讨论:
Step 1.若两核都是2票的情况,则按以下条件进行决策:
a.按各核的有效票数决策,投出有效票值多的对应的标签。
b.若有效票数相等,按各票决策值的均方差,投出差小的票数所对应的标签。
Step 2.若两核中一类是3票,另一类是2票的情况,则按以下条件进行决策:
a.按各核的有效票数决策,投出有效票值多的对应的标签。
b.若有效票数都为2,按有效票的均方差,投出差小的票数所对应的标签。当有效票有且都为1时,投出原本是3票核的对应的标签。
Step 3.若两核都是3票,,则按以下条件进行决策:
a.按各核的有效票数决策,投出有效票值多的对应的标签。此处可将单核内存在两票值均小于Q%(Q取8-10),也判定为都失效(仅适用Step 3)。
b.若有效票都为3,比较除最高有效票值以外的两决策值的均方根,投出差小的标签。若有效票数都为2,按有效票的均方差,投出差小的票数所对应的标签。当有效票有且都为1时,比较各自全部决策值的均方差,投出差小的票数所对应的标签。
需要注意的是,Step1,2,3都是相互独立的情况。
(4)输出最终的预测标签
需要说明得的是,本实施例受限于两核各自的决策精度,若两核决策精度越高且差异较小,效果越好。
为了验证本发明的有效性,本发明所用的一种基于支持向量机多核协作的情绪辨识分类方法在国际公开的数据库DEAP(A Database for Emotion Analysis UsingPhysiological Signals)上进行验证。对于多人的四分类情绪辨识问题,本实例在实验对象s23-s32(10人)和实验对象s01-s22(22人)上分别验证,实验结果如表1所示:
表1本发明方法与单核比较多人情绪辨识率
由表1可以看出,在单核的辨识率中,RBF核函数的实验精度整体明显要好于多项式核函数,而本发明提出的多核协作辨识分类的方法明显要高于单核辨识中的任意一种。从而反映了本发明方法的有效性和优越性。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。
Claims (7)
1.一种基于支持向量机多核协作的情绪辨识分类方法,其特征在于,所述方法包括:
获取样本数据,所述样本数据分为训练样本和测试样本;
将训练样本输入两个不同核函数类型的支持向量机分类器进行模型训练;
将测试样本输入至两个已完成训练的不同核函数类型的支持向量机分类器,比较和判别两者输出的预测标签;
若两者预测标签一致则直接输出该预测标签;
若两者预测标签不一致,则利用多核协作辨识策略,通过分析各核的决策值,制定相应的表决机制来共同判别该样本的最终标签;
两个不同核函数类型其中一个核函数类型选用多项式核,另一个核函数类型选用径向基核;
若两者预测标签不一致,则利用多核协作辨识策略,通过分析各核的决策值,制定相应的表决机制来共同判别该样本的最终标签的方法包括:
找出预测标签不同的测试样本,并从各核中取出相应的决策值;
对取出的决策值进行归一化处理,处理要求如下:
考虑最高票的决策值,将各核的最高票的各决策值转化为对应的有效值,公式如下:;
其中,m表示最高票的票数,表示相应决策值/>的有效性;
按每票的有效值,若票值中存在有效性小于P%的票,判定为无效票,反之为有效票;
评估各核整体的投票环境,判定依据如下:
各核的有效票数不等时,投出有效票值多的核函数所决策出的预测标签;
各核的有效票数相等时,依据各核的决策值,计算各自的均方差,投出差值小的核函数所决策出的预测标签;
输出最终的预测标签。
2.根据权利要求1所述的一种基于支持向量机多核协作的情绪辨识分类方法,其特征在于,采用hold-out方法将样本数据分为训练样本和测试样本。
3.根据权利要求1所述的一种基于支持向量机多核协作的情绪辨识分类方法,其特征在于,样本数据的生成方法包括:
获取预处理生理信号;
根据信号特性,提取所需要的特征并作归一化处理,生成样本数据。
4.根据权利要求3所述的一种基于支持向量机多核协作的情绪辨识分类方法,其特征在于,预处理生理信号的方法包括:
提取相关生理信号,降低采样频率,去除基线和眼电伪迹并对各类生理信号进行数据划分。
5.根据权利要求3或4所述的一种基于支持向量机多核协作的情绪辨识分类方法,其特征在于,提取所需要的特征包括:
几何平均、调和平均、峭度、最大值、平均值、中值、最小值、阈值、斜度、标准差和方差。
6.根据权利要求5所述的一种基于支持向量机多核协作的情绪辨识分类方法,其特征在于,采用数据平滑处理和去趋势的方式进行特征提取。
7.根据权利要求6所述的一种基于支持向量机多核协作的情绪辨识分类方法,其特征在于,所述数据平滑处理和去趋势的方式包括:
移动标准差、移动方差/>、移动均值、移动中位数/>;
其中,A是一个移动的向量,向量的长度为N,表示A中第i个向量值,/>表示均值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110778426.XA CN113569924B (zh) | 2021-07-09 | 2021-07-09 | 一种基于支持向量机多核协作的情绪辨识分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110778426.XA CN113569924B (zh) | 2021-07-09 | 2021-07-09 | 一种基于支持向量机多核协作的情绪辨识分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113569924A CN113569924A (zh) | 2021-10-29 |
CN113569924B true CN113569924B (zh) | 2024-03-12 |
Family
ID=78164276
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110778426.XA Active CN113569924B (zh) | 2021-07-09 | 2021-07-09 | 一种基于支持向量机多核协作的情绪辨识分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113569924B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115715680A (zh) * | 2022-12-01 | 2023-02-28 | 杭州市第七人民医院 | 一种基于***电势的焦虑判别方法及装置 |
CN117131465B (zh) * | 2023-10-26 | 2024-01-30 | 中国铁塔股份有限公司 | 单管塔损伤识别方法、装置、电子设备及可读存储介质 |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101339607A (zh) * | 2008-08-15 | 2009-01-07 | 北京中星微电子有限公司 | 人脸识别方法及***、人脸识别模型训练方法及*** |
CN101419671A (zh) * | 2008-11-10 | 2009-04-29 | 北方工业大学 | 基于模糊支持向量机的人脸性别识别方法 |
CN101615245A (zh) * | 2009-07-30 | 2009-12-30 | 上海交通大学 | 基于avr和增强lbp的表情识别方法 |
KR101149603B1 (ko) * | 2011-10-14 | 2012-05-29 | (주)올라웍스 | 표정 인식 방법, 장치, 및 이 방법을 실행하기 위한 컴퓨터 판독 가능한 기록 매체 |
CN102915447A (zh) * | 2012-09-20 | 2013-02-06 | 西安科技大学 | 一种基于二叉树支持向量机的分类方法 |
CN103258532A (zh) * | 2012-11-28 | 2013-08-21 | 河海大学常州校区 | 一种基于模糊支持向量机的汉语语音情感识别方法 |
CN106778796A (zh) * | 2016-10-20 | 2017-05-31 | 江苏大学 | 基于混合式协同训练的人体动作识别方法及*** |
CN107273845A (zh) * | 2017-06-12 | 2017-10-20 | 大连海事大学 | 一种基于置信区域和多特征加权融合的人脸表情识别方法 |
CN107392105A (zh) * | 2017-06-23 | 2017-11-24 | 广东工业大学 | 一种基于反向协同显著区域特征的表情识别方法 |
CN107633203A (zh) * | 2017-08-17 | 2018-01-26 | 平安科技(深圳)有限公司 | 面部情绪识别方法、装置及存储介质 |
CN108309328A (zh) * | 2018-01-31 | 2018-07-24 | 南京邮电大学 | 一种基于自适应模糊支持向量机的情绪识别方法 |
CN109199414A (zh) * | 2018-10-30 | 2019-01-15 | 武汉理工大学 | 一种基于脑电信号的视听诱发情绪识别方法及*** |
CN111134667A (zh) * | 2020-01-19 | 2020-05-12 | 中国人民解放军战略支援部队信息工程大学 | 基于脑电信号的时间迁移情绪识别方法及*** |
CN112617860A (zh) * | 2020-12-31 | 2021-04-09 | 山东师范大学 | 基于锁相值构建的脑功能连接网络的情绪分类方法及*** |
CN113011493A (zh) * | 2021-03-18 | 2021-06-22 | 华南理工大学 | 基于多核宽度学习脑电情绪分类方法、装置、介质及设备 |
CN113065577A (zh) * | 2021-03-09 | 2021-07-02 | 北京工业大学 | 一种面向目标的多模态情感分类方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10489690B2 (en) * | 2017-10-24 | 2019-11-26 | International Business Machines Corporation | Emotion classification based on expression variations associated with same or similar emotions |
-
2021
- 2021-07-09 CN CN202110778426.XA patent/CN113569924B/zh active Active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101339607A (zh) * | 2008-08-15 | 2009-01-07 | 北京中星微电子有限公司 | 人脸识别方法及***、人脸识别模型训练方法及*** |
CN101419671A (zh) * | 2008-11-10 | 2009-04-29 | 北方工业大学 | 基于模糊支持向量机的人脸性别识别方法 |
CN101615245A (zh) * | 2009-07-30 | 2009-12-30 | 上海交通大学 | 基于avr和增强lbp的表情识别方法 |
KR101149603B1 (ko) * | 2011-10-14 | 2012-05-29 | (주)올라웍스 | 표정 인식 방법, 장치, 및 이 방법을 실행하기 위한 컴퓨터 판독 가능한 기록 매체 |
CN102915447A (zh) * | 2012-09-20 | 2013-02-06 | 西安科技大学 | 一种基于二叉树支持向量机的分类方法 |
CN103258532A (zh) * | 2012-11-28 | 2013-08-21 | 河海大学常州校区 | 一种基于模糊支持向量机的汉语语音情感识别方法 |
CN106778796A (zh) * | 2016-10-20 | 2017-05-31 | 江苏大学 | 基于混合式协同训练的人体动作识别方法及*** |
CN107273845A (zh) * | 2017-06-12 | 2017-10-20 | 大连海事大学 | 一种基于置信区域和多特征加权融合的人脸表情识别方法 |
CN107392105A (zh) * | 2017-06-23 | 2017-11-24 | 广东工业大学 | 一种基于反向协同显著区域特征的表情识别方法 |
CN107633203A (zh) * | 2017-08-17 | 2018-01-26 | 平安科技(深圳)有限公司 | 面部情绪识别方法、装置及存储介质 |
CN108309328A (zh) * | 2018-01-31 | 2018-07-24 | 南京邮电大学 | 一种基于自适应模糊支持向量机的情绪识别方法 |
CN109199414A (zh) * | 2018-10-30 | 2019-01-15 | 武汉理工大学 | 一种基于脑电信号的视听诱发情绪识别方法及*** |
CN111134667A (zh) * | 2020-01-19 | 2020-05-12 | 中国人民解放军战略支援部队信息工程大学 | 基于脑电信号的时间迁移情绪识别方法及*** |
CN112617860A (zh) * | 2020-12-31 | 2021-04-09 | 山东师范大学 | 基于锁相值构建的脑功能连接网络的情绪分类方法及*** |
CN113065577A (zh) * | 2021-03-09 | 2021-07-02 | 北京工业大学 | 一种面向目标的多模态情感分类方法 |
CN113011493A (zh) * | 2021-03-18 | 2021-06-22 | 华南理工大学 | 基于多核宽度学习脑电情绪分类方法、装置、介质及设备 |
Non-Patent Citations (3)
Title |
---|
基于一对一极限学习机的人脸表情识别方法;张小庆;于威威;;计算机***应用;20151015(第10期);全文 * |
基于多核学习SVM的图像分类识别算法;李红丽;许春香;马耀锋;;现代电子技术(第06期);全文 * |
基于最优支持度的证据融合表情识别方法;刘娟;胡敏;黄忠;;电子测量与仪器学报(第05期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113569924A (zh) | 2021-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200275873A1 (en) | Emotion analysis method and device and computer readable storage medium | |
CN113569924B (zh) | 一种基于支持向量机多核协作的情绪辨识分类方法 | |
CN112800998B (zh) | 融合注意力机制和dmcca的多模态情感识别方法及*** | |
Niu et al. | Facial expression recognition based on weighted principal component analysis and support vector machines | |
CN111461176A (zh) | 基于归一化互信息的多模态融合方法、装置、介质及设备 | |
Seng et al. | Multimodal emotion and sentiment modeling from unstructured Big data: Challenges, architecture, & techniques | |
Kini et al. | Large margin mixture of AR models for time series classification | |
Kächele et al. | Ensemble methods for continuous affect recognition: Multi-modality, temporality, and challenges | |
Wei et al. | A novel speech emotion recognition algorithm based on wavelet kernel sparse classifier in stacked deep auto-encoder model | |
Mini et al. | EEG based direct speech BCI system using a fusion of SMRT and MFCC/LPCC features with ANN classifier | |
Jinliang et al. | EEG emotion recognition based on granger causality and capsnet neural network | |
CN111310656A (zh) | 基于多线性主成分分析的单次运动想象脑电信号识别方法 | |
Chao et al. | Supervised nonnegative matrix factorization to predict ICU mortality risk | |
CN112353397A (zh) | 一种心电图信号身份识别方法 | |
Södergren et al. | Detecting COVID-19 from Audio Recording of Coughs Using Random Forests and Support Vector Machines. | |
Shen et al. | A high-precision feature extraction network of fatigue speech from air traffic controller radiotelephony based on improved deep learning | |
Liu et al. | Multiscale-multichannel feature extraction and classification through one-dimensional convolutional neural network for Speech emotion recognition | |
CN113421546A (zh) | 基于跨被试多模态的语音合成方法及相关设备 | |
Tellai et al. | An efficient speech emotion recognition based on a dual-stream CNN-transformer fusion network | |
Tang et al. | Eye movement prediction based on adaptive BP neural network | |
Xu et al. | Emotion recognition research based on integration of facial expression and voice | |
Jacaruso | Accuracy improvement for Fully Convolutional Networks via selective augmentation with applications to electrocardiogram data | |
Pan et al. | A universal emotion recognition method based on feature priority evaluation and classifier reinforcement | |
Iskhakova et al. | Method for reducing the feature space dimension in speech emotion recognition using convolutional neural networks | |
Zhou | [Retracted] Analysis of Psychological and Emotional Tendency Based on Brain Functional Imaging and Deep Learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |