CN112446289B - 一种提高p300拼写器性能的方法 - Google Patents
一种提高p300拼写器性能的方法 Download PDFInfo
- Publication number
- CN112446289B CN112446289B CN202011026768.8A CN202011026768A CN112446289B CN 112446289 B CN112446289 B CN 112446289B CN 202011026768 A CN202011026768 A CN 202011026768A CN 112446289 B CN112446289 B CN 112446289B
- Authority
- CN
- China
- Prior art keywords
- output
- speller
- neural network
- layer
- spelling
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/02—Preprocessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/08—Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Machine Translation (AREA)
Abstract
本发明提供了一种提高P300拼写器性能的方法。所述方法如下:对P300拼写器的信号数据集进行预处理得到样本集;将样本集进行主成分分析特征提取,得到特征集;将特征集通过动态收敛微分神经网络进行识别分类,得到的若干个神经网络识别分类输出值;将若干个神经网络识别分类输出值进行集成平均得到P300拼写器的信号分类结果;将P300拼写器的信号分类结果结合P300拼写器的拼写界面得到最终的拼写字符。本发明使用神经动力学公式进行参数矩阵的更新,具有更好的收敛性的同时拥有更快的收敛速度。本发明采用滑动平均滤波来优化信号,本发明使用自主构建的动态收敛微分神经网络替代原有的SVM分类器,提高信号分类准确率和处理速度。
Description
技术领域
本发明涉及脑电信号识别控制领域,特别涉及一种提高P300拼写器性能的方法。
背景技术
在脑机接口***中,脑电图(EEG)信号应用于身体残疾、脑损伤或其他运动障碍的人。目前,无创BCI***一般基于感觉运动节律(SMR)、慢皮层电位(SCP)和P300事件相关电位(ERP)。在上述信号中,P300信号在BCI中有着广泛的应用,如拼写器、神经反馈训练工具、脑控移动平台。P300信号在拼写器中面临的主要挑战是低信噪比、高维数、分类器变异性以及过拟合问题导致分类困难。
现有的***中(S.Kundu and S.Ari,"P300 detection with brain-computerinterface application using PCA and ensemble of weighted SVMs,"IETE Journalof Research,vol.64,no.3,pp.406–414,2018.)预处理采用降采样的方法对原始信号进行处理,容易导致信号失真。
发明内容
本发明的目的在于克服一般技术的不足,提供了一种提高P300拼写器性能的方法。
本发明的目的至少通过如下技术方案之一实现。
一种提高P300拼写器性能的方法,包括如下步骤:
S1、对P300拼写器的信号数据集进行预处理得到样本集;
S2、将步骤S1中得到的样本集进行主成分分析特征提取,得到特征集;
S3、将步骤S2中得到的特征集通过动态收敛微分神经网络进行识别分类,得到的若干个神经网络识别分类输出值;
S4、将步骤S3中得到的若干个神经网络识别分类输出值进行集成平均得到P300拼写器的信号分类结果;
S5、将步骤S4中得到的P300拼写器的信号分类结果结合P300拼写器的拼写界面得到最终的拼写字符。
进一步地,步骤S1中,所述预处理包括时间窗截取、带通滤波、滑动平均滤波和训练集平衡,具体包括以下步骤:
首先对采集得到的信号设定0~667ms的时间窗来捕捉视觉刺激后300ms出现的P300信号正峰,然后对此时间段的信号进行带通滤波和滑动平均滤波,最后对正负类不平衡的训练集以排列组合方式做平衡处理,得到样本集。
进一步地,步骤S2中,对样本集进行主成分分析提取关键特征,得到特征集,减少数据维度。
进一步地,步骤S3中,动态收敛微分神经网络为三层前馈网络,网络的输入为xi(i=1,2,...,m),其中m为输入层神经元的数量;隐含层的输入输出关系表示为:
Oh(j)=g(Ih(j)),j=1,2,...,n;
式中,n为隐含层神经元个数,vij、bh(j)分别为第j个神经元的权值和偏置;隐含层激活函数采用softsign函数,即:
g(x)=x/(1+|x|).;
输出层的输入和输出表示为:
Oo(r)=f(Io(r)),r=1,2,...,p;
式中,p为输出层神经元数量,wjr、bo(r)分别为第r个神经元的权值和偏置;f(·)作为输出层的激活函数,也使用了softsign激活函数;
为了更好地表示得到的状态方程,定义了一些新的符号,具体如下:
X=(x1,x2,...,xm,1)T
表示网络的输入;
表示输入层与隐含层之间的权值矩阵;
表示隐含层与输出层之间的权值矩阵;
H=(Oh(1),...,Oh(j),...,Oh(n),1)T
表示隐含层的输出;
O=(Oo(1),...,Oo(r),...,Oo(p),1)T
表示输出层的输出。
进一步地,动态收敛微分神经网络需要通过如下三个步骤构建:
S3.1、定义向量误差函数ε(t)=f(W(t)H(t))-Y=O(t)-Y,其中Y为样本集的标签,H(t)=g(V(t)X)为隐含层的输出;
S3.2、为使误差收敛于零,选取神经动力学公式其中,设计参数为λ>0,具体根据实验的需要适当设置,Φ(·)代表一个单调递增的奇激活函数;
S3.3、根据向量误差函数和神经动力学公式,得到隐式动力学方程的神经动力学模型其中H(t)=g(V(t)X)为隐含层的输出;由于所有的计算都是在计算机中进行的,所以需要上述所有变量的离散形式,具体包括H(t)被定义为H(k):
式中k为迭代历元和步长Δk=1;
为了计算权矩阵V(k)和W(k),利用控制变量法交替得到权矩阵V(k)和W(k)。
进一步地,利用控制变量法交替得到权矩阵V(k)和W(k),包括以下步骤:
S3.3.1、假设V(k)是相邻迭代中的一个恒定向量,W(k+1)的更新过程如下:
W(k+1)=W(k)+ΔW(k);
式中H+(k)为H(k)的伪逆;
S3.3.2、固定则V(k+1)的更新过程如下:
V(k+1)=V(k)+ΔV(k);
式中X+为网络输入X的伪逆,W+(k)为W(k)的伪逆。
进一步地,步骤S4中,采用集成分类器的方法消除分类器变异性,具体通过集成平均方法将每个分类器即动态收敛微分神经网络的输出进行平均,得到一个稳定输出即P300拼写器的信号分类结果。
进一步地,步骤S5中,通过P300拼写器的信号分类结果中最大的两个值确定预测字符的行和列,结合P300拼写界面得到预测字符。
相比于现有技术,本发明的优点在于:
本发明使用神经动力学公式进行参数矩阵的更新,且整个神经网络只包含一层隐藏层,因此具有更好的收敛性的同时拥有更快的收敛速度。本发明采用滑动平均滤波来优化信号,此外,本发明使用自主构建的动态收敛微分神经网络替代原有的SVM分类器,提高信号分类准确率和处理速度。
附图说明
图1为P300拼写器用户界面示意图,其中图1a为拼写器屏幕示意图,图1b为字符所在行列位置信息示意图;
图2为本发明一种提高P300拼写器性能的方法的总体流程图;
图3为本发明的数据预处理流程图;
图4为本发明提出的动态收敛微分神经网络算法原理图。
具体实施方式
下面结合附图和实施例对本发明的具体实施做进一步的说明。
实施例:
本实施例中,图1所示为P300拼写器用户界面。用户界面由36个字符(6×6矩阵)组成。拼写原则描述如下:字符的位置由矩阵的行和列的交点决定。用户始终将注意力放在需要的字符上。在这个过程中,字符矩阵的所有行和列都被依次随机点亮。当所需字符的行或列被点亮时,由于视觉刺激产生P300信号。通过检测用户的P300信号,可以得到所需字符的位置。对于一个epoch或一轮,有12个闪烁(每次一行或一列,拼字板有六行六列),所需字符只需要其中两行。一个历元重复15次。此外,每次闪烁表示单行或列点亮100ms,空白75ms。由64通道数据采集***采集,所有信号以240hz采样,从0.1到60hz滤波。
本实施例中,对BCI竞赛II和III数据集进行测试。BCI竞赛II数据集包括来自单一对象的数据,包括42个训练字符和31个测试字符。BCI2000***收集的BCI竞赛III数据集包含来自两个对象的数据,即分别给出了85个训练字符和100个测试字符。
一种提高P300拼写器性能的方法,如图2所示,包括如下步骤:
S1、对P300拼写器的信号数据集进行预处理得到样本集;
如图3所示,所述预处理包括时间窗截取、带通滤波、滑动平均滤波和训练集平衡,具体包括以下步骤:
本实施例中,根据P300拼写器的信号的定义,在视觉刺激后约300ms出现一个P300信号的正峰。0~667ms的时间窗范围足以获得关于P300拼写器的信号的有用信息。首先对采集得到的信号设定0~667ms的时间窗来捕捉视觉刺激后300ms出现的P300拼写器的信号正峰,然后对此时间段的信号进行带通滤波和滑动平均滤波,每个通道的信号使用一个0.1~20Hz的8阶Chebyshev类型I滤波器。由于原始信号在667ms期间以240hz采样,因此每个单通道获得160个样本。对于64通道,每个数据样本的维数为64×160=10240。然后,以5个离散样本为间隔,进行滑动平均滤波,以减小数据维数,保证所有信号工作。现在,单个数据样本的维度是10240/5=2048,这是P300或非P300对象的维度。因为一个周期包含12个闪烁,其中两个包含所需的P300信号。这样,可以在一个周期内获得2个P300目标和10个非P300目标。显然,训练数据集是不平衡的。为了平衡类的分布,基于所有的P300正样本和随机的10个非P300负样本构建单一数据集。为了减少分类器的可变性,所有原始训练数据的可能组合被使用。最后对正负类不平衡的训练集以排列组合方式做平衡处理,从10个非P300目标中随机选择2个,有45种不同的组合,得到样本集C10 2=45个数据集。
S2、将步骤S1中得到的样本集进行主成分分析特征提取关键特征,本实施例中,以99%的贡献率对样本集中属性的主成分进行提取得到特征集,减少数据维度;
S3、将步骤S2中得到的特征集通过动态收敛微分神经网络进行识别分类,得到的若干个神经网络识别分类输出值;
动态收敛微分神经网络为三层前馈网络,网络的输入为xi(i=1,2,...,m),其中m为输入层神经元的数量;隐含层的输入输出关系表示为:
Oh(j)=g(Ih(j)),j=1,2,...,n (2)
式中,n为隐含层神经元个数,vij、bh(j)分别为第j个神经元的权值和偏置;隐含层激活函数采用softsign函数,即:
g(x)=x/(1+|x|).;
输出层的输入和输出表示为:
Oo(r)=f(Io(r)),r=1,2,...,p (4)
式中,p为输出层神经元数量,wjr、bo(r)分别为第r个神经元的权值和偏置;f(·)作为输出层的激活函数,也使用了softsign激活函数;
为了更好地表示得到的状态方程,定义了一些新的符号,具体如下:
X=(x1,x2,...,xm,1)T
表示网络的输入;
表示输入层与隐含层之间的权值矩阵;
表示隐含层与输出层之间的权值矩阵;
H=(Oh(1),...,Oh(j),...,Oh(n),1)T
表示隐含层的输出;
O=(Oo(1),...,Oo(r),...,Oo(p),1)T
表示输出层的输出。
动态收敛微分神经网络需要通过如下三个步骤构建:
S3.1、与梯度下降法使用的标量误差函数不同,定义如下向量误差函数:
ε(t)=f(W(t)H(t))-Y=O(t)-Y (5)
其中Y为样本集的标签,H(t)=g(V(t)X)为隐含层的输出;事实上,V(t)、W(t)、H(t)和O(t)是显示时间t下的矩阵V、W、H、O。该学习算法的目标是通过修正权矩阵V(t)和W(t)来最小化误差ε(t)。
S3.2、为使误差收敛于零,选取神经动力学公式即:
其中,设计参数为λ>0,具体根据实验的需要适当设置;Φ(·)代表一个单调递增的奇激活函数,本实施例中,采用能量激活函数,即:
式中,设计参数n≥2和r≥2为整数。本实施例中,参数r=2和n=4。
S3.3、根据向量误差函数和神经动力学公式,得到隐式动力学方程的神经动力学模型:
其中H(t)=g(V(t)X)为隐含层的输出;在实验中,V(t)和W(t)从初始随机矩阵V(0)和W(0)开始收敛到式(7)的理论解V*(t)和W*(t)。
由于所有的计算都是在计算机中进行的,所以需要上述所有变量的离散形式,具体包括H(t)被定义为H(k):
式中k为迭代历元和步长Δk=1;
为了计算权矩阵V(k)和W(k),利用控制变量法交替得到权矩阵V(k)和W(k),包括以下步骤:
S3.3.1、假设V(k)是相邻迭代中的一个恒定向量,即和/>式(7)可转化为
由于步长Δk=1,因此W(k+1)的更新过程如下:
W(k+1)=W(k)+ΔW(k) (11)
式中H+(k)为H(k)的伪逆。
S3.3.2、固定式(7)可变换为
其中是隐含层输出的导数,可以表示为
式中I(k)=V(k)X为隐含层的输入,为隐含层激活函数的导数。
将式(13)代入式(12)并且则V(k+1)的更新过程为
V(k+1)=V(k)+ΔV(k) (15)
式中X+为网络输入X的伪逆,W+(k)为W(k)的伪逆。
至此,提出的动态收敛微分神经网络构建完毕。
S4、将步骤S3中得到的若干个神经网络识别分类输出值进行集成平均得到P300拼写器的信号分类结果;
采用集成分类器的方法消除分类器变异性,具体通过集成平均方法将每个分类器即动态收敛微分神经网络的输出进行平均,得到一个稳定输出即P300拼写器的信号分类结果。
本实施例中,在预处理阶段,对于45个不同的数据集,45个动态收敛微分神经网络模型被训练。对于每一个数据集,构造单一的网络模型,用主成分分析提取特征。
训练完成后,将测试数据输入到所有的分类器中,对分类器的得分进行平均。假设第k个分类器的输出分数为fk,其维数为12。也就是说,fk表示第k个分类器的6行与6列的输出分数。
S5、将步骤S4中得到的P300拼写器的信号分类结果结合P300拼写器的拼写界面得到最终的拼写字符。
通过P300拼写器的信号分类结果中最大的两个值确定预测字符的行和列,结合P300拼写界面得到预测字符。
在平均45个分类器输出后的12个结果中,最大的2个分数是最有可能的行和列,因为所需的字符位置是由行和列的交叉位置提供的。
具体来说,每个周期之后,所有行和列的输出分数fk都由第k个分类器计算。然后将所有分类器的平均分数Sr|c定义为
其中J=15和K=45分别表示周期数和分类器的数量,表示第j个epoch中PCA后所有行和列的测试集。在那之后,字符的位置可以确定如下:
其中Cpos和Rpos分别表示预测字符的列号和行号。
Claims (6)
1.一种提高P300拼写器性能的方法,其特征在于,包括如下步骤:
S1、对P300拼写器的信号数据集进行预处理得到样本集;
S2、将步骤S1中得到的样本集进行主成分分析特征提取,得到特征集;
S3、将步骤S2中得到的特征集通过动态收敛微分神经网络进行识别分类,得到的若干个神经网络识别分类输出值;动态收敛微分神经网络为三层前馈网络,网络的输入为xi(i=1,2,...,m),其中m为输入层神经元的数量;隐含层的输入输出关系表示为:
Oh(j)=g(Ih(j)),j=1,2,...,n;
式中,n为隐含层神经元个数,vij、bh(j)分别为第j个神经元的权值和偏置;隐含层激活函数采用softsign函数,即:
g(x)=x/(1+|x|).;
输出层的输入和输出表示为:
Oo(r)=f(Io(r)),r=1,2,...,p;
式中,p为输出层神经元数量,wjr、bo(r)分别为第r个神经元的权值和偏置;f(·)作为输出层的激活函数,也使用了softsign激活函数;
为了更好地表示得到的状态方程,定义了一些新的符号,具体如下:
X=(x1,x2,...,xm,1)T
表示网络的输入;
表示输入层与隐含层之间的权值矩阵;
表示隐含层与输出层之间的权值矩阵;
H=(Oh(1),...,Oh(j),...,Oh(n),1)T
表示隐含层的输出;
O=(Oo(1),...,Oo(r),...,Oo(p),1)T
表示输出层的输出;
动态收敛微分神经网络需要通过如下三个步骤构建:
S3.1、定义向量误差函数ε(t)=f(W(t)H(t))-Y=O(t)-Y,其中Y为样本集的标签,H(t)=g(V(t)X)为隐含层的输出;
S3.2、为使误差收敛于零,选取神经动力学公式其中,设计参数为λ>0,具体根据实验的需要适当设置,Φ(·)代表一个单调递增的奇激活函数;
S3.3、根据向量误差函数和神经动力学公式,得到隐式动力学方程的神经动力学模型其中H(t)=g(V(t)X)为隐含层的输出;H(t)被定义为H(k):
式中k为迭代历元和步长Δk=1;
为了计算权矩阵V(k)和W(k),利用控制变量法交替得到权矩阵V(k)和W(k);
S4、将步骤S3中得到的若干个神经网络识别分类输出值进行集成平均得到P300拼写器的信号分类结果;
S5、将步骤S4中得到的P300拼写器的信号分类结果结合P300拼写器的拼写界面得到最终的拼写字符。
2.根据权利要求1所述的一种提高P300拼写器性能的方法,其特征在于,步骤S1中,所述预处理包括时间窗截取、带通滤波、滑动平均滤波和训练集平衡,具体包括以下步骤:
首先对采集得到的信号设定0~667ms的时间窗来捕捉视觉刺激后300ms出现的P300信号正峰,然后对此时间段的信号进行带通滤波和滑动平均滤波,最后对正负类不平衡的训练集以排列组合方式做平衡处理,得到样本集。
3.根据权利要求2所述的一种提高P300拼写器性能的方法,其特征在于,步骤S2中,对样本集进行主成分分析提取关键特征,得到特征集,减少数据维度。
4.根据权利要求1所述的一种提高P300拼写器性能的方法,其特征在于,利用控制变量法交替得到权矩阵V(k)和W(k),包括以下步骤:
S3.3.1、假设V(k)是相邻迭代中的一个恒定向量,W(k+1)的更新过程为W(k+1)=W(k)+ΔW(k),式中H+(k)为H(k)的伪逆;
S3.3.2、固定则V(k+1)的更新过程为V(k+1)=V(k)+ΔV(k),式中X+为网络输入X的伪逆,W+(k)为W(k)的伪逆。
5.根据权利要求4所述的一种提高P300拼写器性能的方法,其特征在于,步骤S4中,采用集成分类器的方法消除分类器变异性,具体通过集成平均方法将每个分类器即动态收敛微分神经网络的输出进行平均,得到一个稳定输出即P300拼写器的信号分类结果。
6.根据权利要求5所述的一种提高P300拼写器性能的方法,其特征在于,步骤S5中,通过P300拼写器的信号分类结果中最大的两个值确定预测字符的行和列,结合P300拼写界面得到预测字符。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011026768.8A CN112446289B (zh) | 2020-09-25 | 2020-09-25 | 一种提高p300拼写器性能的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011026768.8A CN112446289B (zh) | 2020-09-25 | 2020-09-25 | 一种提高p300拼写器性能的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112446289A CN112446289A (zh) | 2021-03-05 |
CN112446289B true CN112446289B (zh) | 2023-08-22 |
Family
ID=74735897
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011026768.8A Active CN112446289B (zh) | 2020-09-25 | 2020-09-25 | 一种提高p300拼写器性能的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112446289B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113887374B (zh) * | 2021-09-27 | 2024-04-16 | 华南理工大学 | 一种基于动态收敛微分神经网络的脑控喝水*** |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101520857A (zh) * | 2009-03-31 | 2009-09-02 | 天津大学 | 一种基于神经网络的永磁球形电动机逆运动学求解方法 |
CN103204193A (zh) * | 2013-04-08 | 2013-07-17 | 浙江大学 | 一种欠驱动双足机器人行走控制方法 |
CN103472725A (zh) * | 2013-09-18 | 2013-12-25 | 河海大学常州校区 | 一种基于名义控制器的神经网络全调节的控制方法 |
CN104656442A (zh) * | 2014-12-30 | 2015-05-27 | 河海大学常州校区 | 微陀螺仪神经网络动态pid全局滑模控制方法 |
CN107463250A (zh) * | 2017-07-11 | 2017-12-12 | 天津大学 | 提高脑力负荷状态下p300拼写器使用效果的方法 |
CN108304917A (zh) * | 2018-01-17 | 2018-07-20 | 华南理工大学 | 一种基于lstm网络的p300信号检测方法 |
CN108960182A (zh) * | 2018-07-19 | 2018-12-07 | 大连理工大学 | 一种基于深度学习的p300事件相关电位分类识别方法 |
CN109389059A (zh) * | 2018-09-26 | 2019-02-26 | 华南理工大学 | 一种基于cnn-lstm网络的p300检测方法 |
CN110458219A (zh) * | 2019-08-01 | 2019-11-15 | 北京邮电大学 | 一种基于stft-cnn-rvfl的φ-otdr振动信号识别算法 |
-
2020
- 2020-09-25 CN CN202011026768.8A patent/CN112446289B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101520857A (zh) * | 2009-03-31 | 2009-09-02 | 天津大学 | 一种基于神经网络的永磁球形电动机逆运动学求解方法 |
CN103204193A (zh) * | 2013-04-08 | 2013-07-17 | 浙江大学 | 一种欠驱动双足机器人行走控制方法 |
CN103472725A (zh) * | 2013-09-18 | 2013-12-25 | 河海大学常州校区 | 一种基于名义控制器的神经网络全调节的控制方法 |
CN104656442A (zh) * | 2014-12-30 | 2015-05-27 | 河海大学常州校区 | 微陀螺仪神经网络动态pid全局滑模控制方法 |
CN107463250A (zh) * | 2017-07-11 | 2017-12-12 | 天津大学 | 提高脑力负荷状态下p300拼写器使用效果的方法 |
CN108304917A (zh) * | 2018-01-17 | 2018-07-20 | 华南理工大学 | 一种基于lstm网络的p300信号检测方法 |
CN108960182A (zh) * | 2018-07-19 | 2018-12-07 | 大连理工大学 | 一种基于深度学习的p300事件相关电位分类识别方法 |
CN109389059A (zh) * | 2018-09-26 | 2019-02-26 | 华南理工大学 | 一种基于cnn-lstm网络的p300检测方法 |
CN110458219A (zh) * | 2019-08-01 | 2019-11-15 | 北京邮电大学 | 一种基于stft-cnn-rvfl的φ-otdr振动信号识别算法 |
Also Published As
Publication number | Publication date |
---|---|
CN112446289A (zh) | 2021-03-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110069958B (zh) | 一种密集深度卷积神经网络的脑电信号快速识别方法 | |
CN108960182B (zh) | 一种基于深度学习的p300事件相关电位分类识别方法 | |
CN109389059A (zh) | 一种基于cnn-lstm网络的p300检测方法 | |
CN111709267B (zh) | 深度卷积神经网络的脑电信号情感识别方法 | |
CN110070105A (zh) | 基于元学习实例快速筛选的脑电情绪识别方法、*** | |
AU2019101151A4 (en) | Classify Mental States from EEG Signal Using Xgboost Algorithm | |
WO2021184599A1 (zh) | 一种基于ms-cnn的p300信号识别方法、装置及存储介质 | |
Thenmozhi et al. | Feature selection using extreme gradient boosting Bayesian optimization to upgrade the classification performance of motor imagery signals for BCI | |
CN112446289B (zh) | 一种提高p300拼写器性能的方法 | |
CN109009098B (zh) | 一种运动想象状态下的脑电信号特征识别方法 | |
CN112884063A (zh) | 基于多元时空卷积神经网络的p300信号检测识别方法 | |
Lu et al. | The detection of p300 potential based on deep belief network | |
Wang et al. | ST-CapsNet: linking spatial and temporal attention with capsule network for P300 detection improvement | |
Kwon et al. | Friend-guard adversarial noise designed for electroencephalogram-based brain–computer interface spellers | |
CN112381124B (zh) | 一种基于动态逆学习网络的提高脑机接口性能的方法 | |
Nashed et al. | A deep learning approach to single-trial classification for P300 spellers | |
Sharma et al. | Quantification of Mental Workload Using a Cascaded Deep One-dimensional Convolution Neural Network and Bi-directional Long Short-Term Memory Model | |
Indira et al. | Deep learning methods for data science | |
Tan et al. | A convolution network of multi-windows spatial-temporal feature analysis for single-trial EEG classification in RSVP task | |
CN116340825A (zh) | 一种基于迁移学习的跨被试rsvp脑电信号的分类方法 | |
Shojaedini et al. | A new method to improve the performance of deep neural networks in detecting P300 signals: optimizing curvature of error surface using genetic algorithm | |
Leong et al. | Noisy component extraction (NoiCE) | |
Du et al. | InceptionSSVEP: a multi-scale convolutional neural network for steady-state visual evoked potential classification | |
CN113408444A (zh) | 一种基于cnn-svm的事件相关电位信号分类方法 | |
Tang et al. | A channel selection method for event related potential detection based on random forest and genetic algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |