CN110069958B - 一种密集深度卷积神经网络的脑电信号快速识别方法 - Google Patents

一种密集深度卷积神经网络的脑电信号快速识别方法 Download PDF

Info

Publication number
CN110069958B
CN110069958B CN201810057413.1A CN201810057413A CN110069958B CN 110069958 B CN110069958 B CN 110069958B CN 201810057413 A CN201810057413 A CN 201810057413A CN 110069958 B CN110069958 B CN 110069958B
Authority
CN
China
Prior art keywords
layer
convolution
output
input
pooling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810057413.1A
Other languages
English (en)
Other versions
CN110069958A (zh
Inventor
李阳
张先锐
雷梦颖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN201810057413.1A priority Critical patent/CN110069958B/zh
Publication of CN110069958A publication Critical patent/CN110069958A/zh
Application granted granted Critical
Publication of CN110069958B publication Critical patent/CN110069958B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出一种密集深度卷积神经网络对脑电信号(EEG)的快速识别方法,结合运动想象脑电信号具有时间和空间特征的特点,在卷积神经网络中使用特征连接的方法,设计一种适用于运动想象脑电信号的卷积神经网络。本发明设计的卷积神经网络可以同时提取时间、空间的特征,又将不同卷积层之间的输出相互连接,减少了权值的数量,达到抗过拟合和特征重用的目的。首先将滤波、重采样后的原始数据输入密集深度卷积神经网络,接着通过反向传播与随机梯度下降算法更新网络每一层的参数,最后测试网络,将测试数据输入训练好的网络,对输出结果进行分析。与2017年提出的Shallow ConvNet方法相比,本发明在信号识别准确率和kappa值上提高了5%和0.066。

Description

一种密集深度卷积神经网络的脑电信号快速识别方法
技术领域
本发明涉及原始脑电信号的快速识别、适用于脑电信号的卷积神经网络的设计、模式分类及深度学习,属于信号处理和模式识别技术领域。
背景技术
脑机接口(brain-computer interface,BCI)技术可以在人脑和外部设备之间建立连接,达到不依赖人体肌肉与外部环境进行交流和控制的目的。BCI技术主要处理过程包括记录大脑活动,脑电(Electroencephalogram,EEG)信号处理,信号识别,然后根据识别结果控制外部设备。目前,适用于BCI的脑电信号类型有很多种如P300,稳态视觉诱发电位和运动想象等。P300是由偶然出现的小概率闪烁信号诱发的脑电信号,视觉诱发电位的刺激是以一个固定频率出现的闪烁画面,而运动想象信号只需受试者想象执行某个部位的动作,无需真正执行,运动想象脑电信号具有易采集、无须外界刺激、可实现异步通信等特点,所以运动想象脑电信号成为目前应用最多的EEG信号类型之一。
对于运动想象脑电信号的特征提取,共空间模式(common spatial pattern,CSP)的方法比较常用,但是该算法的特征提取效果依赖于算法指定的频率带宽范围。在此基础上提出的滤波器组共空间模式算法(Filter Bank Common Spatial Pattern,FBCSP)设计了滤波器组,扩大了频率范围,对每个滤波器都使用CSP算法,再从滤波器组的输出中选取可用的特征,该算法在BCIIV datasets 2a数据集上取得了准确率为68%的分类效果。但FBCSP算法仍需要先验知识来设计各个频率带宽的范围,需要人工提取特征后再进行分类,然而大脑信号非常复杂,很多采集的信号还没有找到明确的意义,手动提取特征会造成信息的损失。
近年来,随着深度学***均池化等操作可以得到输入的原始运动想象信号属于每个类别的概率,是一种端到端的自动识别方法。端到端指卷积神经网络不需要任何先验知识,从原始运动想象脑电信号中学习得到特征,直接得到最终分类结果。在BCIIV2a数据集上使用Shallow ConvNet结构,准确率达到72%,比传统的FBCSP方法高出5%,可见使用卷积神经网络可以明显提高运动想象脑电信号的识别准确率。但是该模型的准确率仍不高,因为使用的卷积层只有两层,而直接加深模型又会导致过拟合严重,所以无法提取更深层的特征。本发明研究如何结合运动想象脑电信号的特征,调整模型的连接方式和超参数,在加深模型深度的同时避免加重过拟合,提高运动想象脑电信号识别准确率。
发明内容
本发明在Shallow ConvNet基础上,提出一种密集深度卷积神经网络。本发明在BCIIV2a数据集上测试得到77%的准确率,与Shallow ConvNet网络在BCIIV2a数据集上得到72%的准确率相比,本发明的准确率仍高出5%,可见本发明对运动想象脑电信号识别准确率有明显提高。与Shallow ConvNet相比本发明提出的密集连接方法将中间卷积层的输入输出特征图相连接作为下一层的输入,这样两个卷积层产生的特征图都可以直接传递到下一层,在不增加参数量的情况下充分利用了中间层的特征,所以使得本发明提出的模型准确率更高。
本发明设计了一种密集深度卷积神经网络,实现对原始运动想象脑电信号的端到端识别,包括如下步骤:
⑴对脑电信号进行三阶带通0-40hz滤波,过滤掉一些信号采集时的噪声或者其它无关的成分;
⑵对滤波后的信号重采样,原因是输入卷积神经网络的数据长度需要保持一致,要保证相同时间长度下的数据量相同,所以需要对不同采样频率的数据采样至同一频率;
⑶从以上预处理过的数据中截取固定长度的事件,并获取其对应的标签;
⑷设计密集深度卷积神经网络,与常规卷积神经网络采用连续的卷积、池化操作不同,本发明设计的密集卷积神经网络,将中间两个卷积层的输入输出特征图相连接后作为下一层的输入;
⑸训练密集深度卷积神经网络。采用平方误差函数作为损失函数计算预测值与标签的误差,通过反向传播与随机梯度下降算法更新网络每一层的参数,至准确率收敛到某个值,或出现准确率下降时,停止训练;
⑹测试密集深度卷积神经网络,网络的参数不再改变,输入测试数据以及标签,对输出结果进行分析。
上述步骤⑷的具体步骤如下:
①数据输入层:输入数据的格式为四维数组n×m×990×22,数组各个维度意义为样本数×特征图数×采样点数×通道数;
②时间卷积层:对数据进行时间维度的卷积操作,卷积核大小为11×1,产生25个特征图;
③空间卷积层:为减小数据维度,对数据进行空间卷积,把所有通道映射到一个特征图中,卷积核大小为22×1,卷积后进入激活函数,特征图个数仍为25;
④池化层:输入为上层激活函数的输出,池化核大小为3×1,步长为3;
⑤特征连接层:池化后的数据先进入两个连续的卷积池化层,第一个卷积核大小为1×1,个数为200,第二个卷积核大小为11×1,个数为50,将第二个卷积层激活后的50个输出特征图与第一个卷积层的25个输入特征图相连接,所以输出一共有75个特征图;
⑥池化层:操作同④;
⑦网络最后两层是全连接层和输出层,全连接层将上层池化后的输出展开为一维数据,标签有四类,所以输出层有四个神经元,输出结果为输入数据属于各个类别的概率值。
需要注意的是网络的每一次卷积操作后都对数据进行一次批正则化操作再输入激活函数,Ioffe等证明在深度神经网络中使用批正则化操作可以明显减少迭代次数,同时减少每次迭代需要的计算时间。
上述步骤⑸具体操作如下:
①从BCIIV2a数据集的训练集中分离20%作为验证集,剩下80%作为训练集,而测试集不变;
②第一次训练,首先在训练集上迭代训练,然后在验证集上测试。当在验证集上的测试准确率不再变化或者出现准确率下降时停止训练,记录下此时在验证集上表现最好的准确率,并保存该模型。经过多次实验,发现该数据集迭代次数达到1000次后模型准确率已不在变化,所以对于BCIIV2a数据集,最大迭代次数设为1000;
③第二次训练,将训练集和验证集混合在一起作为新的训练集,在验证集上测试。在新的训练集上继续训练,在原来验证集上测试,直至在验证集上的准确率高于②记录的值并且不再变化为止,或者达到1000次迭代次数后停止训练;
④第二次训练结束后将模型保存,输入测试数据和标签,记录测试结果。
本发明所提供的面向运动想象脑电信号快速识别方法的优点包括:
①原始脑电信号数据只需滤波、重采样这些简单操作即可用于训练神经网络,是一种端到端的方法,不需要对信号进行时频分析,也不需要先验知识来手动挑选特征,从而避免了信息损失;
②与Shallow ConvNet模型相比,本发明提出的密集卷积神经网络层数更多,可以提取更深层的特征;
③本发明提出了特征连接层,将中间卷积层的输入输出连接起来再传递到下一层,不仅有效解决梯度消失问题,而且支持特征重用,没有增加参数数量,在数据量小时可以有效抑制过拟合;
④模型泛化能力强,根据数据集的不同,只需改变输入输出层的参数,微调其它层的一些超参数,即可应用到类似的运动想象脑电信号数据集。
附图说明
图1为本发明提出的密集深度卷积神经网络结构图。
图2为本发明的数据处理、训练和测试过程流程图。
图3为Shallow ConvNet在BCIIV 2a上的分类结果混淆矩阵。
图4为本发明的网络在BCIIV 2a上的分类结果混淆矩阵。
具体实施方式
下面结合附图和具体实施方式对本发明作进一步的详细说明。本发明主要利用卷积神经网络的权值共享与局部感受野思想,将中间层输出特征图的通道相连接来提高识别准确率。卷积神经网络每个神经元对不同的特征图进行卷积时采用相同的卷积核,将大大减少权重参数量,而在卷积操作后,让卷积的输入输出相连接,实现特征的重复利用,这样在卷积后只产生非常少的新特征图,达到降低冗余性的目的。本发明的密集深度卷积神经网络使用随机梯度下降方法对误差进行反向传播,调整卷积核的权重,最后通过全连接和线性分类层得到输入数据属于每个类别的概率。
本发明的卷积神经网络特征提取分类方法,具体包括以下步骤:
⑴获取数据。本发明的数据来源于2008年柏林BCI研究组提供的数据集BCICompetition IV Dataset2a。该数据集共9组,分别采集自9名健康的受试者,分为训练数据和测试数据两部分。对于每个受试者,执行左手、右手、脚、舌四类运动想象;
⑵数据预处理,采样频率为100Hz,使用Scipy库滤波器工具箱中的3阶Butterworth滤波器,设为0-40hz的带通滤波器,过滤掉高频信号以及部分噪声;
⑶设计密集深度卷积神经网络,网络结构可参照图1。第一层为输入层,输入数据为990×22,22代表22个通道,990为采样点个数。第二层为时间卷积层,对数据进行时间维度的卷积操作,卷积核大小为11×1,产生25个特征图。第三层为空间卷积层,卷积核大小为22×1,通过Relu激活函数后,得到25个特征图。第四层是池化层,池化范围是3×1,池化方式采用最大池化,步长为3。接着是特征连接层,先是1×1卷积层,卷积核个数是200,然后是11×1卷积层,卷积核个数是50,经过特征连接进入池化层。网络最后两层是全连接和线性分类层,数据标签有四类,所以全连接后有四个输出单元,输出结果为输入数据属于各个类别的概率值;
⑷训练密集深度卷积神经网络;
本发明的网络采用平方误差代价函数作为评判,公式如下:
Figure BDA0001554199760000041
其中N代表样本个数,c代表样本类数,
Figure BDA0001554199760000042
表示第n个样本对应标签的第k维,
Figure BDA0001554199760000043
表示第n个样本对应网络输出的第k个输出。
第一层为数据输入层,输入数据格式固定,没有需要训练的参数。
第二层为时间卷积层,每次输入一个批次的样本,用大小为11×1,步长为1并且随机初始化的25个卷积核对输入图像进行卷积,得到25个特征图,该层没有偏置和激活函数,公式如下:
Figure BDA0001554199760000051
其中,
Figure BDA0001554199760000052
为第l层的第j个特征图,Mj为输入的特征图集合,
Figure BDA0001554199760000053
是输入的第i种特征图和输出的第j种特征图之间的连接所用的卷积核。
第三层为空间卷积层,输入为上层卷积后的输出,卷积核大小为22×1,输入和输出特征图个数均为25,但该层有激活函数,无偏置项,公式如下:
Figure BDA0001554199760000054
其中
Figure BDA0001554199760000055
为第l层的第j个特征图,Mj为输入的特征图集合,
Figure BDA0001554199760000056
为本层选用的卷积核,f为激活函数Relu函数,即f(x)=max(0,x)。
第四层为池化层,大小为3×1,步长为3,输入为25个特征图,池化不改变特征图个数,所以也会得到25个输出特征图,公式如下:
Figure BDA0001554199760000057
其中,
Figure BDA0001554199760000058
为第l-1层的第j个特征图,
Figure BDA0001554199760000059
为第l层偏置,f是池化层的激活函数,这里无激活函数,所以f=f(x)。其中down()表示一个下采样函数,这里是将相邻3个像素值取最大一个,所以下采样函数为max()。
第五层为特征连接层,该层包括两层卷积层,第一个卷积层的输入为池化后的25个特征图,采用1×1大小的卷积核,步长为1进行卷积,产生200个特征图,再通过relu函数激活进入下一卷积层。第二个卷积核大小为11×1,步长为1,输入为200个特征图,输出为50个特征图,relu激活后将第二个卷积的50个输出特征图和第一个卷积输入的25个特征图相连接作为新的输出特征图,公式如下:
xl=Hl([x0,x1]) (5)
其中Hl(·)表示特征连接操作,x0为特征连接层第一个卷积的输入,x1为特征连接层第二个卷积的输出。
第六层为池化层,输入为特征连接后的特征图,池化大小为3×1,步长为3,同第四层操作。
第七层为全连接层,其将上层的特征图展开并全连接,转化为一维数据。
最后为输出层,通过sigmoid激活函数输出需要的分类结果。
⑸各层误差的计算及传播;
①对于最后的输出层,可以直接算出网络产生的激活值与实际值之间的误差,公式如下:
Figure BDA0001554199760000061
其中第nl层表示输出层,
Figure BDA0001554199760000062
表示输出层未经过激活函数的权重加权,hw,b(x)表示输出结果,y表示标准输出,
Figure BDA0001554199760000063
表示nl层的第i个输出,
Figure BDA0001554199760000064
表示求导。
②对于l=n1-1,n1-2,n1-3,···,2各层误差,通用公式为:
Figure BDA0001554199760000065
其中wl+1为第l+1层的权重,δ(l+1)为第l+1层计算的误差,符号
Figure BDA0001554199760000066
表示每个元素相乘,f′(ul)表示对该层的输出ul求导。
如果第l层为卷积层,该层下层为池化层,池化层的一个像素对应卷积层的输出图的一块3×1大小的像素,那么就出现大小不匹配现象,因此需要将池化层进行上采样,公式为:
Figure BDA0001554199760000067
其中up(·)表示上采样操作,
Figure BDA0001554199760000068
表示第l+1层权重,δ(l+1)为第l+1层计算的误差。
如果第l层为下采样层,第l+1层为卷积层则公式为:
Figure BDA0001554199760000069
其中conv2为卷积实现函数,rot180表示将卷积核翻转180度。
⑹计算最终需要的偏导数,并更新权重参数,使用公式为;
Figure BDA00015541997600000610
Figure BDA00015541997600000611
其中
Figure BDA00015541997600000612
表示旧的权值,
Figure BDA00015541997600000613
为新的权值,η是学习率。
Figure BDA00015541997600000614
表示旧的偏置,
Figure BDA00015541997600000615
为新的偏置。
①对于卷积层,权重更新公式为:
Figure BDA00015541997600000616
其中
Figure BDA00015541997600000617
Figure BDA00015541997600000618
在做卷积时,与kij做卷积的每一个patch,(u,v)是patch中心,输出特征图中(u,v)位置的值是由输入特征图中(u,v)位置的patch和卷积核kij卷积所得的值。
②对于池化层,权重更新公式为:
Figure BDA0001554199760000071
其中
Figure BDA0001554199760000072
⑺测试网络,加入测试数据以及真实标签,将输出结果与真实标签比较,得到输出结果的混淆矩阵对模型进行分析。
本发明的效果可以通过实验结果进一步说明。实验的测试数据采用BCI竞赛的官方数据BCIIV2a。该数据集一共有九个受试者,每个受试者均有训练集和测试集。数据的标签有四类,分别为左手、右手、脚以及舌的运动想象。每一类标签对应数据有72个样本,所以一个受试者的训练集和测试集分别有288个样本。图3和图4是使用Shallow ConvNet和本发明的方法分类得到的混淆矩阵。根据图3计算得到ShallowConvNet的准确率为72%,kappa值为0.632,根据图4计算本发明的准确率为77%,kappa值0.698。本发明的方法与ShallowConvNet相比较,本发明提出的密集深度卷积神经网络识别准确率高出5%,kappa值高出0.066,可见本发明对运动想象脑电信号分类效果明显提升。

Claims (3)

1.一种密集深度卷积神经网络的运动想象脑电信号快速识别方法,其特征在于包括:
A)把运动想象脑电信号输入密集连接型深度卷积神经网络,其中所述密集连接型深度卷积神经网络包括:
作为第一层的输入层,其输入数据为22个通道990个采样点的990×22数据,
作为第二层的时间卷积层,其对数据进行时间维度的卷积操作,卷积核大小为11×1,产生25个特征图,
作为第三层的空间卷积层,其卷积核大小为22×1,用于通过Relu激活函数后,得到25个特征图,
作为第四层的第一池化层,池化范围是3×1,池化方式采用最大池化,步长为3,
第一池化层之后的特征连接层的输出进入第二池化层,
第二池化层,
第二池化层之后的全连接层,
全连接层之后的线性分类层,数据标签有四个类别,全连接后有四个输出单元,输出结果为输入数据属于各个类别的概率值,
其中:
时间卷积层每次输入一个批次的样本,用大小为11×1,步长为1并且随机初始化的25个卷积核对输入图像进行卷积,得到25个特征图,该层没有偏置和激活函数,公式如下:
Figure FDA0003296278760000011
其中,
Figure FDA0003296278760000012
为第l层的第j个特征图,Mj为输入的特征图集合,
Figure FDA0003296278760000013
是输入的第i种特征图和输出的第j种特征图之间的连接所用的卷积核,
空间卷积层的输入为时间卷积层的输出,卷积核大小为22×1,输入和输出特征图个数均为25,该层有激活函数,无偏置项,公式如下:
Figure FDA0003296278760000014
其中
Figure FDA0003296278760000015
为第l层的第j个特征图,Mj为输入的特征图集合,
Figure FDA0003296278760000016
为本层选用的卷积核,f为激活函数Relu函数,即f(x)=max(0,x),
第一池化层的输入为25个特征图,池化不改变特征图个数,得到25个输出特征图,公式如下:
Figure FDA0003296278760000017
其中,
Figure FDA0003296278760000018
为第l-1层的第j个特征图,
Figure FDA0003296278760000019
为第l层偏置,f是池化层的激活函数,这里无激活函数,所以f=f(x),其中down(·)表示一个下采样函数,这里是将相邻3个像素值取最大一个,所以下采样函数为max(·),
特征连接层包括两个卷积层,其中:第一个卷积层的输入为第一池化层池化后的25个特征图,采用1×1大小的卷积核和步长1进行卷积,产生200个特征图,再通过relu函数激活进入第二个卷积层;第二个卷积层的卷积核大小为11×1,步长为1,其输入为第一个卷积层输出的200个特征图,其输出为50个特征图,第二个卷积的50个输出特征图经relu激活后和第一个卷积输入的25个特征图相连接作为新的输出特征图,公式如下:
xl=Hl([x0,x1]) (5)
其中Hl(·)表示拼接操作,x0为第一个卷积的输入,x1为第二个卷积的输出,
第二池化层的输入为上述拼接后的所述新的输出特征图,池化大小为3×1,步长为3,
全连接层其将第二池化层输出的特征图展开并全连接,转化为一维数据,
线性分类层通过sigmoid激活函数输出输入数据属于各个类别的概率值,
B)计算和传播各层的误差,包括:
①对于最后的输出层直接算出网络的各层产生的激活值与实际值之间的误差,公式如下:
Figure FDA0003296278760000021
其中第nl层表示输出层,
Figure FDA0003296278760000022
表示输出层的未经过激活函数的权重,hw,b(x)表示输出结果,y表示标准输出,
Figure FDA0003296278760000023
表示输出层的第i个输出,
Figure FDA0003296278760000024
表示求导,
②对于l=n1-1,n1-2,n1-3,…,2各层误差,通用公式为:
Figure FDA0003296278760000025
其中wl+1为第l+1层的权重,δl+1为第l+1层计算的误差,符号·表示每个元素相乘,f′(ul)表示对该层的输出ul求导,
当第l层为卷积层时,该层的下层为池化层,池化层的一个像素对应卷积层的输出图的一块像素(3×1),则为了消除大小不匹配现象,将池化层进行上采样,公式为:
Figure FDA0003296278760000026
其中up(·)表示上采样操作,
Figure FDA0003296278760000027
表示第l+1层权重,δ(l+1)为第l+1层计算的误差,
当第l层为下采样层时,第l+1层为卷积层,则误差公式为:
Figure FDA0003296278760000028
其中conv2为卷积实现函数,rot180表示将卷积核翻转180度,
C)更新权重参数,使用公式为:
Figure FDA0003296278760000031
Figure FDA0003296278760000032
其中
Figure FDA0003296278760000033
表示旧的权值,
Figure FDA0003296278760000034
为新的权值,η是学习率,
Figure FDA0003296278760000035
表示旧的偏置,
Figure FDA0003296278760000036
为新的偏置,
其中:
①对于卷积层,权重更新公式为:
Figure FDA0003296278760000037
其中
Figure FDA0003296278760000038
Figure FDA0003296278760000039
在做卷积时,与kij做卷积的每一个patch,(u,v)是patch中心,输出特征图中(u,v)位置的值是由输入特征图中(u,v)位置的patch和卷积核kij卷积所得的值,
②对于池化层,权重更新公式为:
Figure FDA00032962787600000310
其中
Figure FDA00032962787600000311
2.根据权利要求1所述的密集深度卷积神经网络的运动想象脑电信号快速识别方法,其特征在于在所述步骤A之前进行如下操作:对原始获取的运动想象脑电信号进行三阶带通0-40hz滤波,获取运动想象脑电信号与运动想象相关较大的频带的信号分量;
对滤波后的信号分量进行重采样,把不同采样频率的数据采样至同一频率,以使输入卷积神经网络的数据长度保持一致,保证相同时间长度下的数据量相同;
从以上预处理过的数据中截取固定长度的事件,并获取其对应的标签,作为输入输入密集连接型深度卷积神经网络的运动想象脑电信号。
3.根据权利要求1所述的密集深度卷积神经网络的运动想象脑电信号快速识别方法,其特征在于:
数据标签的所述四个类别分别为左手、右手、脚以及舌的运动想象。
CN201810057413.1A 2018-01-22 2018-01-22 一种密集深度卷积神经网络的脑电信号快速识别方法 Active CN110069958B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810057413.1A CN110069958B (zh) 2018-01-22 2018-01-22 一种密集深度卷积神经网络的脑电信号快速识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810057413.1A CN110069958B (zh) 2018-01-22 2018-01-22 一种密集深度卷积神经网络的脑电信号快速识别方法

Publications (2)

Publication Number Publication Date
CN110069958A CN110069958A (zh) 2019-07-30
CN110069958B true CN110069958B (zh) 2022-02-01

Family

ID=67364510

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810057413.1A Active CN110069958B (zh) 2018-01-22 2018-01-22 一种密集深度卷积神经网络的脑电信号快速识别方法

Country Status (1)

Country Link
CN (1) CN110069958B (zh)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110458066B (zh) * 2019-07-31 2022-11-18 同济大学 一种基于静息态脑电数据的年龄段分类方法
CN110543831A (zh) * 2019-08-13 2019-12-06 同济大学 一种基于卷积神经网络的脑纹识别方法
CN110555468A (zh) * 2019-08-15 2019-12-10 武汉科技大学 一种联合递归图和cnn的脑电信号识别方法及***
CN110796175A (zh) * 2019-09-30 2020-02-14 武汉大学 一种基于轻量卷积神经网络的脑电数据的在线分类方法
CN110765920B (zh) * 2019-10-18 2023-03-24 西安电子科技大学 基于卷积神经网络的运动想象分类方法
CN111012336B (zh) * 2019-12-06 2022-08-23 重庆邮电大学 时空特征融合的并行卷积网络运动想象脑电图分类方法
CN111368884B (zh) * 2020-02-22 2023-04-07 杭州电子科技大学 一种基于矩阵变量高斯模型的运动想象脑电特征提取方法
CN111339975B (zh) * 2020-03-03 2023-04-21 华东理工大学 基于中心尺度预测与孪生神经网络的目标检测识别跟踪方法
CN111428648B (zh) * 2020-03-26 2023-03-28 五邑大学 一种脑电信号生成网络、方法及存储介质
CN111709267B (zh) * 2020-03-27 2022-03-29 吉林大学 深度卷积神经网络的脑电信号情感识别方法
CN111407269A (zh) * 2020-03-30 2020-07-14 华南理工大学 一种基于增强学习的eeg信号情感识别方法
CN111638249B (zh) * 2020-05-31 2022-05-17 天津大学 基于深度学习的含水率测量方法及其在油井开采中的应用
CN111783857A (zh) * 2020-06-18 2020-10-16 内蒙古工业大学 基于非线性网络信息图的运动想象脑机接口
CN111882036B (zh) * 2020-07-22 2023-10-31 广州大学 卷积神经网络训练方法、脑电信号识别方法、装置和介质
CN112528819B (zh) * 2020-12-05 2023-01-20 西安电子科技大学 基于卷积神经网络的p300脑电信号分类方法
CN112633365B (zh) * 2020-12-21 2024-03-19 西安理工大学 一种镜卷积神经网络模型及运动想象脑电识别算法
CN112890828A (zh) * 2021-01-14 2021-06-04 重庆兆琨智医科技有限公司 一种密集连接门控网络的脑电信号识别方法及***
CN112818876B (zh) * 2021-02-04 2022-09-20 成都理工大学 一种基于深度卷积神经网络的电磁信号提取与处理方法
CN113057653B (zh) * 2021-03-19 2022-11-04 浙江科技学院 一种基于信道混合卷积神经网络的运动脑电信号分类方法
CN113642528B (zh) * 2021-09-14 2022-12-09 西安交通大学 一种基于卷积神经网络的手部运动意图分类方法
CN113791691B (zh) * 2021-09-18 2022-05-20 中国科学院自动化研究所 一种脑电信号波段定位方法及装置
CN114004257A (zh) * 2021-11-02 2022-02-01 南京邮电大学 基于轻量级卷积神经网络的肌电手势识别方法
CN114652326B (zh) * 2022-01-30 2024-06-14 天津大学 基于深度学习的实时脑疲劳监测装置及数据处理方法
CN114781441B (zh) * 2022-04-06 2024-01-26 电子科技大学 Eeg运动想象分类方法及多空间卷积神经网络模型
CN114818803A (zh) * 2022-04-25 2022-07-29 上海韶脑传感技术有限公司 基于神经元优化的单侧肢体患者运动想象脑电建模方法
CN115337026B (zh) * 2022-10-19 2023-03-10 之江实验室 一种基于卷积神经网络的eeg信号特征检索方法、装置
CN116630697B (zh) * 2023-05-17 2024-04-05 安徽大学 一种基于有偏选择池化的图像分类方法
CN117763399B (zh) * 2024-02-21 2024-05-14 电子科技大学 一种自适应变长信号输入的神经网络分类方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105068644A (zh) * 2015-07-24 2015-11-18 山东大学 一种基于卷积神经网络的p300脑电信号检测方法
CN106821681A (zh) * 2017-02-27 2017-06-13 浙江工业大学 一种基于运动想象的上肢外骨骼控制方法及***
CN107506774A (zh) * 2017-10-09 2017-12-22 深圳市唯特视科技有限公司 一种基于局部注意掩模的分段感知神经网络方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10417529B2 (en) * 2015-09-15 2019-09-17 Samsung Electronics Co., Ltd. Learning combinations of homogenous feature arrangements
US20170132511A1 (en) * 2015-11-10 2017-05-11 Facebook, Inc. Systems and methods for utilizing compressed convolutional neural networks to perform media content processing

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105068644A (zh) * 2015-07-24 2015-11-18 山东大学 一种基于卷积神经网络的p300脑电信号检测方法
CN106821681A (zh) * 2017-02-27 2017-06-13 浙江工业大学 一种基于运动想象的上肢外骨骼控制方法及***
CN107506774A (zh) * 2017-10-09 2017-12-22 深圳市唯特视科技有限公司 一种基于局部注意掩模的分段感知神经网络方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Deep learning with convolutional neural networks for decoding and visualization of EEG pathology;R. T. Schirrmeister等;《2017 IEEE Signal Processing in Medicine and Biology Symposium 》;20171202;第1-7页 *
Densely connected convolutional networks;Gao Huang等;《2017 IEEE Conference on Computer Vision and Pattern Recognition》;20170726;第2261-2269页 *

Also Published As

Publication number Publication date
CN110069958A (zh) 2019-07-30

Similar Documents

Publication Publication Date Title
CN110069958B (zh) 一种密集深度卷积神经网络的脑电信号快速识别方法
Shoieb et al. Computer-aided model for skin diagnosis using deep learning
CN108491077B (zh) 一种基于多流分治卷积神经网络的表面肌电信号手势识别方法
CN111062250B (zh) 基于深度特征学习的多受试者运动想象脑电信号识别方法
CN110353675B (zh) 基于图片生成的脑电信号情感识别方法及装置
CN112120694B (zh) 一种基于神经网络的运动想象脑电信号分类方法
Kumar et al. Breast cancer classification of image using convolutional neural network
CN108959895B (zh) 一种基于卷积神经网络的脑电信号eeg身份识别方法
CN110353702A (zh) 一种基于浅层卷积神经网络的情感识别方法及***
CN110991406B (zh) 一种基于rsvp脑电特征的弱小目标检测方法及***
CN108960182A (zh) 一种基于深度学习的p300事件相关电位分类识别方法
CN112022153B (zh) 基于卷积神经网络的脑电信号检测方法
CN107424145A (zh) 基于三维全卷积神经网络的核磁共振图像的分割方法
CN112450947B (zh) 一种针对情绪唤醒度的动态脑网络分析方法
CN113627401A (zh) 融合双注意力机制的特征金字塔网络的肌电手势识别方法
CN108921141B (zh) 一种基于深度自编码神经网络的脑电信号eeg特征提取方法
CN107967686B (zh) 一种联合动态脑网络和长短时记忆网络的癫痫识别装置
CN112465069B (zh) 一种基于多尺度卷积核cnn的脑电情绪分类方法
CN111428601B (zh) 一种基于ms-cnn的p300信号识别方法、装置及存储介质
WO2021212715A1 (zh) 精神***症分类识别方法、运行控制装置及医疗设备
CN109325410B (zh) 一种基于卷积神经网络的脑电信号eeg特征提取方法
CN111832431A (zh) 一种基于cnn的情绪脑电分类方法
CN115919330A (zh) 基于多层次se注意力和图卷积的eeg情绪状态分类方法
CN110889335B (zh) 基于多通道时空融合网络人体骨架双人交互行为识别方法
CN113180659A (zh) 一种基于三维特征和空洞全卷积网络的脑电情感识别***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant