CN114492560A - 一种基于迁移学习的脑电情绪分类方法 - Google Patents
一种基于迁移学习的脑电情绪分类方法 Download PDFInfo
- Publication number
- CN114492560A CN114492560A CN202111513601.9A CN202111513601A CN114492560A CN 114492560 A CN114492560 A CN 114492560A CN 202111513601 A CN202111513601 A CN 202111513601A CN 114492560 A CN114492560 A CN 114492560A
- Authority
- CN
- China
- Prior art keywords
- electroencephalogram
- emotion
- layer
- domain
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 59
- 238000000034 method Methods 0.000 title claims abstract description 32
- 238000013526 transfer learning Methods 0.000 title claims abstract description 9
- 238000012549 training Methods 0.000 claims abstract description 33
- 230000005012 migration Effects 0.000 claims abstract description 32
- 238000013508 migration Methods 0.000 claims abstract description 32
- 230000003044 adaptive effect Effects 0.000 claims abstract description 6
- 238000007781 pre-processing Methods 0.000 claims abstract description 6
- 230000006870 function Effects 0.000 claims description 25
- 230000004913 activation Effects 0.000 claims description 13
- 238000011176 pooling Methods 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 10
- 230000007246 mechanism Effects 0.000 claims description 8
- 238000010606 normalization Methods 0.000 claims description 8
- 210000004556 brain Anatomy 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 6
- 230000007704 transition Effects 0.000 claims description 6
- 238000004070 electrodeposition Methods 0.000 claims description 5
- 238000001914 filtration Methods 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 5
- 230000009466 transformation Effects 0.000 claims description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 230000005611 electricity Effects 0.000 claims description 2
- 238000012360 testing method Methods 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 10
- 230000000694 effects Effects 0.000 description 6
- 230000008909 emotion recognition Effects 0.000 description 6
- 238000012546 transfer Methods 0.000 description 4
- 230000006978 adaptation Effects 0.000 description 3
- 230000003213 activating effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/369—Electroencephalography [EEG]
- A61B5/372—Analysis of electroencephalograms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
- A61B5/7267—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Psychiatry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Public Health (AREA)
- Evolutionary Biology (AREA)
- Veterinary Medicine (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Pathology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Psychology (AREA)
- Probability & Statistics with Applications (AREA)
- Signal Processing (AREA)
- Physiology (AREA)
- Fuzzy Systems (AREA)
- Child & Adolescent Psychology (AREA)
- Developmental Disabilities (AREA)
- Educational Technology (AREA)
- Hospice & Palliative Care (AREA)
- Social Psychology (AREA)
Abstract
基于迁移学习的脑电情绪分类方法,步骤包括:S100:使用62导联脑电数据采集设备采集脑电信号,作为训练样本;S200:对训练样本进行预处理;S300:构建基于深度域适应网络的脑电情绪迁移模型,该模型由一个特征提取器、一个类别预测器、一个域分类器组成;S400:将预处理好的训练样本输入到所述构建好的迁移模型中,混合经过预处理的源域有标签情绪脑电数据和目标域无标签情绪脑电数据共同对迁移模型进行迭代训练;S500:训练后选取准确率最高的一次,作为最终用于识别脑电情绪的迁移模型;S600:使用所述最终用于识别脑电情绪的迁移模型对脑电情绪进行分类。该方法能够让迁移模型能有效地解决脑电情绪跨被试迁移问题。
Description
技术领域
本公开属于生物特征识别、人工智能技术领域,特别涉及一种基于迁移学习的脑电情绪分类方法。
背景技术
情感无论是在人们的日常生活还是科研学习当中都充当着至关重要的角色。脑机接口作为人与机器之间沟通、合作、共融的桥梁,如果能够识别人类的情感,会极大地增强人机合作的安全性和效率。因此,基于脑电信号的情绪识别技术得到了广泛地关注。
目前,研究者们利用卷积神经网络对脑电特征进行识别,得到了高于传统的SVM的准确率。但是,脑电的非平稳性导致这些为单个被试训练的模型难以为其他被试所用。情绪脑电数据,尤其是带标签的数据收集困难,很难用包含多被试脑电特征的数据直接训练出一个跨被试效果好的模型。这两个问题直接导致了情绪识别模型跨被试应用困难,为情感脑机接口的泛化带来负面影响。为解决模型跨被试应用困难的问题,部分研究者将目光转向域自适应方法。域适应是迁移学习的一个子领域,该研究的目标是在降低不同域之间差异的同时,保持不同类别的判别信息,早期的域适应方法倾向于减小源域和目标域在特定空间的距离。这种方法仅从边缘分布出发进行域适应,存在数据利用率低,效果较差的问题。
发明内容
为了解决上述问题,本公开提供了一种基于迁移学习的脑电情绪分类方法,其包括如下步骤:
S100:使用62导联脑电数据采集设备采集脑电信号,采集来自源域的有标签情绪脑电数据和来自目标域的无标签情绪脑电数据,作为训练样本;
S200:对所述训练样本进行预处理;
S300:构建基于深度域适应网络的脑电情绪迁移模型,该模型由一个特征提取器、一个类别预测器、一个域分类器组成;
S400:将预处理好的训练样本输入到所述构建好的迁移模型中,混合经过预处理的源域有标签情绪脑电数据和目标域无标签情绪脑电数据共同对迁移模型进行迭代训练;
S500:训练后选取准确率最高的一次,作为最终用于识别脑电情绪的迁移模型;
S600:使用所述最终用于识别脑电情绪的迁移模型对脑电情绪进行分类。
通过上述技术方案,本方法解决脑电情绪跨被试迁移困难的问题,降低脑电情绪识别和训练的难度和训练成本。本方法针对不同个体脑电数据差异性大,导致训练后的模型泛化性低,无法快速部署的问题,通过构建基于深度域适应网络的脑电情绪迁移模型,对脑电原始数据的5个频带分别计算微分熵,并按照电极位置转换为三维矩阵,使用基于注意力机制的DenseNet网络对脑电数据提取深层的特征,提高对特征的利用率,降低对数据量的需求,减少计算量。将提取到的深层特征输入深度域适应网络,通过梯度反转让网络混淆源域和目标域,使得两个域的分布更相似,提升迁移模型的性能和情绪识别的准确度。让迁移模型能有效地解决脑电情绪跨被试迁移问题,提升迁移模型在跨被试情绪识别中的应用效果,具有较好的应用前景。
附图说明
图1是本公开一个实施例中所提供的一种基于迁移学习的脑电情绪分类方法流程图;
图2是本公开一个实施例中所提供的脑电采集设备62通道电极分布示意图;
图3是本公开一个实施例中微分熵特征转换为2维矩阵示意图;
图4是本公开一个实施例中脑电电极映射至二维平面过程示意图;
图5是本公开一个实施例中脑电情绪数据预处理过程示意图;
图6是本公开一个实施例中迁移模型结构示意图;
图7是本公开一个实施例中特征提取器网络架构参数示意图;
图8是本公开一个实施例中特征提取器网络结构结构示意图;
图9是本公开一个实施例中密集块(Dense Block)结构示意图;
图10是本公开一个实施例中过渡层模块结构示意图;
图11是本公开一个实施例中空间注意力模块结构示意图。
具体实施方式
下面将参照附图1至图11更详细地描述本发明的具体实施例。在一个实施例中,如图1所示,本公开提供了一种基于迁移学习的脑电情绪分类方法,其包括如下步骤:
S100:使用62导联脑电数据采集设备采集脑电信号,采集来自源域的有标签情绪脑电数据和来自目标域的无标签情绪脑电数据,作为训练样本;
S200:对所述训练样本进行预处理;
S300:构建基于深度域适应网络的脑电情绪迁移模型,该模型由一个特征提取器、一个类别预测器、一个域分类器组成;
S400:将预处理好的训练样本输入到所述构建好的迁移模型中,混合经过预处理的源域有标签情绪脑电数据和目标域无标签情绪脑电数据共同对迁移模型进行迭代训练;
S500:训练后选取准确率最高的一次,作为最终用于识别脑电情绪的迁移模型;
S600:使用所述最终用于识别脑电情绪的迁移模型对脑电情绪进行分类。
就该实施例而言,该方法通过构建基于深度域自适应网络的脑电情绪迁移模型,将从5个频带中提取到的微分熵特征按照电极位置映射到二维平面转化为二维矩阵,将5个二维矩阵叠加为一个三维矩阵。使用基于注意力机制的DenseNet网络作为特征提取器对脑电数据提取深层的特征,通过梯度反转让网络混淆源域和目标域,使得两个域的分布更相似,提升迁移模型的性能和情绪识别的准确度。
使用62导联脑电数据采集设备采集脑电信号,受试者需要佩戴脑电数据采集设备坐在实验室中观看预先准备好的情绪激发材料,产生对应的情绪脑电信号,采样频率设置为1000Hz,采集来自源域的有标签情绪脑电数据和来自目标域的无标签情绪脑电数据,作为训练样本。脑电采集设备62通道电极分布如图2所示。
模型每经过一个epoch,都会自动记录当前准确率最高的模型参数。当模型完成训练时,就能得到分类准确率最高的模型。
在另一个实施例中,所述步骤S200进一步包括:
S201:对来自源域的有标签情绪脑电数据和来自目标域的无标签情绪脑电数据做带通滤波,滤除噪音;
S202:将滤波后的数据降采样到200Hz;
S203:将经过滤波和降采样后的数据分割为1秒每段,并对分割后数据的5个频带分别计算微分熵;
S204:将所述微分熵按照电极位置映射至二维平面转化为5个二维矩阵;
S205:将所述5个二维矩阵叠加为一个三维矩阵。
就该实施例而言,脑电数据预处理具体为首先对采集到的数据使用巴特沃斯带通滤波器做一个1-50Hz的带通滤波,以滤除噪声。然后通过降采样,将脑电数据降采样到200Hz来降低计算量,即将原始脑电数据的采样频率从原来的1000Hz降低为200Hz。之后将经过滤波和降采样后的数据分割为1秒每段,即每秒数据维度为62x200。对分割后的数据分别在5个频段即delta(1-3Hz),theta(4-7Hz),alpha(8-13Hz),beta(14-30Hz),gamma(31-50Hz),这5个频带上计算微分熵。微分熵的计算公式为:
DE=-∫p(x)log(p(x))dx
其中,x为随机变量,p(x)表示连续信息的概率密度函数。若对一段特定长度的近似服从高斯分布N(μ,σ2)的脑电数据计算微分熵,则其微分熵为:
其中,μ表示平均值,σ2表示方差。而x则为随机变量。然后通过转换函数将得到的微分熵特征按照电极位置映射至二维平面转化为5个二维矩阵,从而得到5个9x9的矩阵,如图3和图4所示。之后使用双三次插值法对得到的矩阵进行插值,得到5个32x32的矩阵,将5个频带的二维矩阵叠加为一个三维矩阵,得到一个32x32x5的三维矩阵,具体过程如图5所示。
同时组合5个频带的微分熵特征比单独使用一个频带的微分熵特征,训练效果更好。
在另一个实施例中,迁移模型结构如图6所示,所述步骤S300进一步包括:
S301:使用基于注意力机制的DenseNet网络对预处理过后的脑电数据提取深层特征;
S302:将提取到的深层特征分别输入到所述类别预测器和所述域分类器中,根据得到的结果计算损失值,其中域分类器与特征提取器之间有一层梯度反转层,在前向传播中实现恒等变换,在反向传播中梯度方向自动取反。
就该实施例而言,通过最小化类别分类损失,实现情绪的精准分类,最大化域分类损失,混淆源域数据和目标域数据。
在另一个实施例中,所述特征提取器使用的是基于注意力机制的DenseNet网络,去掉了最后的全连接层。
就该实施例而言,特征提取器网络架构参数如图7所示,基于注意力机制的DenseNet网络由于其采用了密集连接机制,能够充分地利用所有层的特征,对特征的利用率更高,一定程度上减轻了训练数据较少的问题。
在另一个实施例中,如图8所示,所述DenseNet网络由1个输入层、2个密集块、1个过渡层、2个空间注意力模块和一个输出层组成。
在另一个实施例中,所述输入层由一个3x3的卷积层组成;所述输出层由一个批量归一化层、一个ReLu激活函数和一个全局平均池化层组成。
在另一个实施例中,如图9和图10所示,所述密集块由一个瓶颈层、一个批量归一化层、一个ReLu激活函数、一个3x3卷积层组成,其中瓶颈层由一个批量归一化层、一个ReLu激活函数、一个1x1卷积层组成;所述过渡层由一个批量归一化层、一个ReLu激活函数、一个1x1卷积层、一个2x2平均池化层组成。
就该实施例而言,密集块(Dense Block)是包含很多层的模块,每个层的特征图大小相同,没有池化层,层与层之间采用密集连接方式。过渡层是用来连接两个相邻的密集块(Dense Block)的,并且通过池化层使特征图大小降低,减少计算量。
在另一个实施例中,如图11所示,所述空间注意力模块由一个全局平均池化层、一个全局最大池化层、一个3x3卷积层和一个Sigmoid激活函数组成。
就该实施例而言,空间注意力模块负责重新分配权重,让网络更关注贡献程度高的特征。空间注意力模块首先对特征做一个基于通道的全局最大池化和全局平均池化,然后将得到的结果基于通道拼接在一起,然后经过一个3x3卷积层,然后经过Sigmoid函数激活得到空间注意力权重,再将该权重与该模块的输入特征相乘就得到了最终的空间注意力特征。
在另一个实施例中,所述类别预测器和域分类器使用了两层全连接层,所述两层全连接层的卷积核数量均为50,其中,所述类别预测器的激活函数使用的是Softmax函数,所述域分类器的激活函数使用的是Sigmoid函数。
就该实施例而言,将提取到的深层特征分别输入到类别预测器和域分类器中,根据得到的结果计算损失值,通过最小化类别分类损失,实现情绪的精准分类,最大化域分类损失,混淆源域数据和目标域数据。其中域分类器与特征提取器之间有一层梯度反转层,在前向传播中实现恒等变换,在反向传播中梯度方向自动取反,通过梯度反转让网络混淆源域和目标域,使得两个域的分布更相似。其数学表示如下:
Rλ(x)=x (1)
其中Rλ(x)是梯度反转层的伪函数,x表示梯度更新时传播的参数,参数I则表示一个单位矩阵,λ为一参数。公式(1)是在前向传播中参数恒等变换的公式,公式(2)是在反向传播中梯度自动取反的公式。
在梯度反转层中,参数λ并不是固定不变的,而是动态变化的。其变化表达式如下:
其中p代表迭代进程相对值,即当前迭代次数与总迭代次数的比率,γ为常数10。
在另一个实施例中,所述模型训练过程中采用Adam优化器对损失函数进行优化。
就该实施例而言,训练过程中,网络采用Adam优化器对损失函数进行优化,初始学习率为0.0001。训练的批量大小为64,epoch设置为100。将所有的训练样本完整训练一次称作一个epoch。训练100次后选取准确率最高的一次,作为最终用于识别情绪的迁移模型。最小化类别分类损失,实现情绪的精准分类。最大化域分类损失,进一步混淆源域数据和目标域数据。
尽管以上结合附图对本发明的实施方案进行了描述,但本发明并不局限于上述的具体实施方案和应用领域,上述的具体实施方案仅仅是示意性的、指导性的,而不是限制性的。本领域的普通技术人员在本说明书的启示下和在不脱离本发明权利要求所保护的范围的情况下,还可以做出很多种的形式,这些均属于本发明保护之列。
Claims (10)
1.一种基于迁移学习的脑电情绪分类方法,其包括如下步骤:
S100:使用62导联脑电数据采集设备采集脑电信号,采集来自源域的有标签情绪脑电数据和来自目标域的无标签情绪脑电数据,作为训练样本;
S200:对所述训练样本进行预处理;
S300:构建基于深度域适应网络的脑电情绪迁移模型,该模型由一个特征提取器、一个类别预测器、一个域分类器组成;
S400:将预处理好的训练样本输入到所述构建好的迁移模型中,混合经过预处理的源域有标签情绪脑电数据和目标域无标签情绪脑电数据共同对迁移模型进行迭代训练;
S500:训练后选取准确率最高的一次,作为最终用于识别脑电情绪的迁移模型;
S600:使用所述最终用于识别脑电情绪的迁移模型对脑电情绪进行分类。
2.根据权利要求1所述的方法,所述步骤S200进一步包括,优选的:
S201:对来自源域的有标签情绪脑电数据和来自目标域的无标签情绪脑电数据做带通滤波,滤除噪音;
S202:将滤波后的数据降采样到200Hz;
S203:将经过滤波和降采样后的数据分割为1秒每段,并对分割后数据的5个频带分别计算微分熵;
S204:将所述微分熵按照电极位置映射至二维平面转化为5个二维矩阵;
S205:将所述5个二维矩阵叠加为一个三维矩阵。
3.根据权利要求1所述的方法,所述步骤S300进一步包括:
S301:使用基于注意力机制的DenseNet网络对预处理过后的脑电数据提取深层特征;
S302:将提取到的深层特征分别输入到所述类别预测器和所述域分类器中,根据得到的结果计算损失值,其中域分类器与特征提取器之间有一层梯度反转层,在前向传播中实现恒等变换,在反向传播中梯度方向自动取反。
4.根据权利要求1所述的方法,所述特征提取器使用的是基于注意力机制的DenseNet网络,去掉了最后的全连接层。
5.根据权利要求4所述的方法,所述DenseNet网络由1个输入层、2个密集块、1个过渡层、2个空间注意力模块和一个输出层组成。
6.根据权利要求4所述的方法,所述输入层由一个3x3的卷积层组成;所述输出层由一个批量归一化层、一个ReLu激活函数和一个全局平均池化层组成。
7.根据权利要求4所述的方法,所述密集块由一个瓶颈层、一个批量归一化层、一个ReLu激活函数、一个3x3卷积层组成,其中瓶颈层由一个批量归一化层、一个ReLu激活函数、一个1x1卷积层组成;所述过渡层由一个批量归一化层、一个ReLu激活函数、一个1x1卷积层、一个2x2平均池化层组成。
8.根据权利要求4所述的方法,所述空间注意力模块由一个全局平均池化层、一个全局最大池化层、一个3x3卷积层和一个Sigmoid激活函数组成。
9.根据权利要求1所述的方法,所述类别预测器和域分类器使用了两层全连接层,所述两层全连接层的卷积核数量均为50,其中,所述类别预测器的激活函数使用的是Softmax函数,所述域分类器的激活函数使用的是Sigmoid函数。
10.根据权利要求1所述的方法,所述模型训练过程中采用Adam优化器对损失函数进行优化。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111513601.9A CN114492560A (zh) | 2021-12-06 | 2021-12-06 | 一种基于迁移学习的脑电情绪分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111513601.9A CN114492560A (zh) | 2021-12-06 | 2021-12-06 | 一种基于迁移学习的脑电情绪分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114492560A true CN114492560A (zh) | 2022-05-13 |
Family
ID=81492204
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111513601.9A Pending CN114492560A (zh) | 2021-12-06 | 2021-12-06 | 一种基于迁移学习的脑电情绪分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114492560A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115105079A (zh) * | 2022-07-26 | 2022-09-27 | 杭州罗莱迪思科技股份有限公司 | 基于自注意力机制的脑电情绪识别方法及其应用 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110610168A (zh) * | 2019-09-20 | 2019-12-24 | 合肥工业大学 | 一种基于注意力机制的脑电情绪识别方法 |
CN111616721A (zh) * | 2020-05-31 | 2020-09-04 | 天津大学 | 基于深度学习和脑机接口的情绪识别***及应用 |
CN112036454A (zh) * | 2020-08-17 | 2020-12-04 | 上海电力大学 | 一种基于多核密集连接网络的图像分类方法 |
CN112690793A (zh) * | 2020-12-28 | 2021-04-23 | 中国人民解放军战略支援部队信息工程大学 | 情绪脑电迁移模型训练方法、***及情绪识别方法和设备 |
CN113157096A (zh) * | 2021-04-26 | 2021-07-23 | 杭州电子科技大学 | 基于深度子域关联适应网络的脑电情感迁移方法 |
US20210295135A1 (en) * | 2020-03-18 | 2021-09-23 | Wuyi University | Method for identifying p300 signal based on ms-cnn, device and storage medium |
CN113627518A (zh) * | 2021-08-07 | 2021-11-09 | 福州大学 | 利用迁移学习实现多通道卷积-递归神经网络脑电情感识别模型的方法 |
-
2021
- 2021-12-06 CN CN202111513601.9A patent/CN114492560A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110610168A (zh) * | 2019-09-20 | 2019-12-24 | 合肥工业大学 | 一种基于注意力机制的脑电情绪识别方法 |
US20210295135A1 (en) * | 2020-03-18 | 2021-09-23 | Wuyi University | Method for identifying p300 signal based on ms-cnn, device and storage medium |
CN111616721A (zh) * | 2020-05-31 | 2020-09-04 | 天津大学 | 基于深度学习和脑机接口的情绪识别***及应用 |
CN112036454A (zh) * | 2020-08-17 | 2020-12-04 | 上海电力大学 | 一种基于多核密集连接网络的图像分类方法 |
CN112690793A (zh) * | 2020-12-28 | 2021-04-23 | 中国人民解放军战略支援部队信息工程大学 | 情绪脑电迁移模型训练方法、***及情绪识别方法和设备 |
CN113157096A (zh) * | 2021-04-26 | 2021-07-23 | 杭州电子科技大学 | 基于深度子域关联适应网络的脑电情感迁移方法 |
CN113627518A (zh) * | 2021-08-07 | 2021-11-09 | 福州大学 | 利用迁移学习实现多通道卷积-递归神经网络脑电情感识别模型的方法 |
Non-Patent Citations (1)
Title |
---|
娄晓光;陈兰岚;宋振振;: "基于多源域迁移学习的脑电情感识别", 计算机工程与设计, no. 07, 16 July 2020 (2020-07-16) * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115105079A (zh) * | 2022-07-26 | 2022-09-27 | 杭州罗莱迪思科技股份有限公司 | 基于自注意力机制的脑电情绪识别方法及其应用 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112244873B (zh) | 一种基于混合神经网络的脑电时空特征学习与情感分类方法 | |
CN111062250B (zh) | 基于深度特征学习的多受试者运动想象脑电信号识别方法 | |
CN110069958B (zh) | 一种密集深度卷积神经网络的脑电信号快速识别方法 | |
CN112001306A (zh) | 基于深度卷积对抗生成神经网络的脑电信号解码方法 | |
CN108280414A (zh) | 一种基于能量特征的运动想象脑电信号的识别方法 | |
CN113157096B (zh) | 基于深度子域关联适应网络的脑电情感迁移方法 | |
CN113010013A (zh) | 一种基于Wasserstein距离的运动想象脑电迁移学习方法 | |
CN115919330A (zh) | 基于多层次se注意力和图卷积的eeg情绪状态分类方法 | |
CN115105076A (zh) | 基于动态卷积残差多源迁移的脑电情绪识别方法及*** | |
CN118051831B (zh) | 基于CNN-Transformer合作网络模型的水声目标识别方法 | |
CN112465069A (zh) | 一种基于多尺度卷积核cnn的脑电情绪分类方法 | |
CN114492560A (zh) | 一种基于迁移学习的脑电情绪分类方法 | |
CN114578967A (zh) | 一种基于脑电信号的情感识别方法及*** | |
CN113052099A (zh) | 一种基于卷积神经网络的ssvep分类方法 | |
CN113842151B (zh) | 一种基于高效多源胶囊网络的跨被试eeg认知状态检测方法 | |
CN116304821A (zh) | 一种基于特征融合的脑电信号识别方法 | |
CN115969392A (zh) | 基于张量化频空注意力域适应网络的跨时段脑纹识别方法 | |
CN114757273A (zh) | 一种基于协同对比正则化平均教师模型的脑电信号分类方法 | |
CN110448273B (zh) | 一种基于支持向量机的低功耗癫痫预测电路 | |
CN117257242B (zh) | 一种癫痫分类方法和*** | |
CN118228129B (zh) | 一种基于深度迁移学习的运动想象脑电信号分类方法 | |
CN117493963B (zh) | 一种基于多尺度双曲对比学习的跨被试脑电情感识别方法及设备 | |
CN115982558B (zh) | 脑电运动意图分类模型建立方法及其应用 | |
CN112906539B (zh) | 一种基于eeg数据的物体识别方法 | |
CN111368922B (zh) | 一种用于物体分类的点云处理网络架构 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |