CN109359610A - 构建cnn-gb模型的方法及***、数据特征分类方法 - Google Patents
构建cnn-gb模型的方法及***、数据特征分类方法 Download PDFInfo
- Publication number
- CN109359610A CN109359610A CN201811257725.3A CN201811257725A CN109359610A CN 109359610 A CN109359610 A CN 109359610A CN 201811257725 A CN201811257725 A CN 201811257725A CN 109359610 A CN109359610 A CN 109359610A
- Authority
- CN
- China
- Prior art keywords
- cnn
- network model
- eeg data
- model
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/02—Preprocessing
- G06F2218/04—Denoising
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/08—Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了构建CNN‑GB模型的方法及***、数据特征分类方法,属于人工智能BCI技术领域,解决的问题是如何结合CNN模型和GB算法对脑电信号进行特征提取与分类识别,得到效能高的最优特征集,使其分类精确度高。其方法包括采集脑电数据;基于Caffe深度学习框架构建CNN网络模型;训练CNN网络模型;训练GB网络模型。其***包括脑电数据采集模块、CNN网络配置模块和GB网络配置模块。其分类方法包括采集脑电数据;获得训练后的CNN网络模型和训练后的GB网络模型;由训练后的CNN网络模型对脑电数据进行特征提取,由训练后的GB网络模型对提取的特征进行分类。结合CNN模型和GB算法提高了分类精确度。
Description
技术领域
本发明涉及人工智能BCI技术领域,具体地说是构建CNN-GB模型的方法及***、数据特征分类方法。
背景技术
对于大脑意识正常但是具有运动障碍的患者而言,大脑发出的指令不能得到执行会给生活带来极大的不便。基于运动想象的BCI(英文全称为Brain Computer Interface,中文翻译为脑机接口技术)通信***摒弃了传统的神经肌肉通信通路,建立了全新的大脑与外界信息交流的通道,通过人脑与外部设备直接“通话”进而实现人类想法的表达或者设备的操控。
对采集的脑电信号进行特征提取与分类识别是BIC通信***的重要内容之一,由于大脑活动的复杂性,认知状态下的脑电信号并不是简单的脑认知信号和干扰信号的叠加,而是一种非线性的、时变的信号,因此增加了脑电信号提取的难度。
鉴于深度学习的迅猛发展,卷积神经网络CNN的出现为繁琐的特征提取工程带来了新的思路,借助CNN可在原始的脑电数据上进行端到端的信息提取,并且可在多个层级之间完成这种提取任务。CNN模型包括输入层、隐藏层和输出层,具有清晰的权值共享概念,权重共享是指同层神经网元之间连接的权值是共享的,这个重要的特点能够极大减少模型的复杂度。
GB算法消除先验知识对弱分类器影响的同时,不会降低分类运算效率,并且具有好的实际应用性。
基于上述CNN模型以及GB算法的优点,如何结合CNN模型和GB算法对脑电信号进行特征提取与分类识别,以得到效能高的最优特征集,使其分类精确度高,是需要解决的技术问题。
发明内容
本发明的技术任务是提供一种构建CNN-GB模型的方法及***、数据特征分类方法,来解决如何结合CNN模型和GB算法对脑电信号进行特征提取与分类识别,以得到效能高的最优特征集,使其分类精确度高的问题。
本发明的技术任务是按以下方式实现的:
构建CNN-GB模型的方法,包括如下步骤:
S100、采集脑电数据,并对脑电数据进行预处理;
S200、基于Caffe(英文全称为Convolutional Architecture for Fast FeatureEmbedding,中文翻译为快速特征嵌入和卷积体系结构)深度学习框架构建CNN网络模型,CNN网络模型包括但不限于卷积层、池化层、全连接层和损失层;
S300、选取一部分脑电数据作为训练集,通过训练集训练CNN网络模型并更新CNN网络模型的网络参数,得到训练后的CNN网络模型,并输出脑电数据的特征;
S400、通过脑电数据的特征训练GB网络模型并更新GB网络模型的网络参数,得到训练后的GB网络模型;
上述训练后的CNN网络模型用于对脑电数据进行特征提取,上述训练后的GB网模型用于对提取的特征进行分类。
进一步的,步骤S100中,采集脑电数据包括如下分步骤:
基于国际BCI Competition III竞赛数据库中的Dataset I,通过脑电信号采集设备按照预设的采用频率进行数据采样,并将采集到的脑电数据依据以试验次数×信道数目×采样数目的规格进行存储,所述脑电数据为多信道脑电数据。
进一步的,步骤S100中对脑电数据进行预处理包括如下步骤:
对脑电数据进行滤波处理,用于滤除带外噪声干扰;
或者,对脑电数据进行降采样处理,用于在不丢失脑电数据的特征信息的条件下,去除噪声和伪迹干扰;
或者,对脑电数据进行滤波处理,用于滤除带外噪声干扰,并对脑电数据进行降采样处理,用于在不丢失脑电数据的特征信息的条件下,去除噪声和伪迹干扰。
进一步的,步骤S200中,卷积层的激活函数设置为Relu(英文全称为RectifiedLinear Unit,中文翻译为修正线性单元)函数,池化层设置为最大值池化方式,上述卷积层、池化层和全连接层相互堆叠用于对脑电数据进行特征提取。
进一步的,步骤S300将脑电数据作为训练集输入构建的CNN网络模型,通过误差反向传播和随机梯度下降方法更新CNN网络模型的网络参数,包括如下分步骤:
S310、通过卷积层、池化层和全连接层对脑电数据进行特征提取,并输出训练集的标签;
S320、通过损失层将输出的训练集的标签与正确的训练集的标签进行对比生成网络误差,利用误差反向传播更新CNN网络模型的网络参数;
S330、利用随机梯度下降法计算CNN网络模型的最小损失函数,通过最小化误差值,优化CNN网络模型的网络参数。
进一步的,步骤S310包括如下分步骤:
S311、通过卷积层对脑电数据进行卷积处理,得到脑电数据的特征;
S312、通过池化层按照最大池化的方式对获得的脑电数据的特征进行池化操作;
S313、通过全连接层将池化后的脑电数据的特征表征为一个长向量特征。
进一步的,步骤S400中将OLS回归作为GB网络模型的最小化损失函数,并通过GB网络模型对通过CNN网络模型提取的脑电数据的特征进行分类,包括如下分步骤:
S410、沿着梯度下降的方向,计算GB网络模型的最小化损失函数的梯度,其中,伯努利对数似然函数的一阶导数计算公式为:
其中,N表示正整数,O表示CNN网络模型提取的特征为全连接层的输出的数据,oi为O对应的子集,Y为训练集对应的标签集,其子集yi表示与oi相对应的标签,Fm表示分类器,分类器的初始值F0=0,Fm经过M次迭代后不断更新,其中对数回归模型中的伯努利似然对数的表达式为:
其中,m=1,2,......,M,pm表示对数回归模型,对数回归模型的初始值预设为p0=(yi=1|oi)=0.5,对数回归模型的表达式为:
S420、通过OLS回归选择弱分类器的最适合梯度弱分类器fm的计算公式为:
鉴于弱分类器的输出是在时间t处将脑电数据特征样本的矢量om(t)投影到回归系数a上,即:
f(oi;a,t)=aToi(t)
选择最小化误差时的(am,tm)作为弱分类器的参数:
fm(oi)=f(oi;a,t)
S430、计算弱分类器的权重,弱分类器的权重的计算公式为:
S440、对弱分类器的权重的进行缩小处理,并通过迭代方式生成强分类器,强分类器的计算公式为:
Fm=Fm-1+εγmfm
S450、基于上述公式计算得到新的对数回归值,对数回归值的表达式为:
构建CNN-GB模型的***,能够实现如上述任一项所述的构建CNN-GB模型的方法,包括:
脑电数据采集模块,用于采集并存储脑电数据,并对脑电数据进行预处理;
CNN网络配置模块,用于构建CNN网络模型,并用于通过误差反向传播和随机梯度下降法更新CNN网络模型的网络参数,得到训练后的CNN网络模型;
GB网络配置模块,用于构建GB网络模型,并用于通过脑电数据的特征训练GB网络模型并更新GB网络模型的网路参数,得到训练后的GB网络模型。
数据特征提取和分类方法,包括如下步骤:
L100、采集脑电数据,并对脑电数据进行预处理,上述脑电数据为多信道数据,且上述脑电数据共有一个训练集和一个测试集;
L200、以训练集为输入,根据上述任一项所述的构建CNN-GB模型的方法构建CNN-GB模型,获得训练后的CNN网络模型和训练后的GB网络模型;
L300、以测试集为输入,通过上述训练后的CNN网络模型对脑电数据进行特征提取,通过训练后的GB网络模型对提取的特征进行分类。
进一步的,还包括:
L400、通过训练后的GB网络模型预测测试集的标签,并将预测的测试集和标签与真实的测试集的标签进行对比生成分类准确率,基于上述分类准确率对分类效果进行评估。
本发明的构建CNN-GB模型的方法及***、数据特征分类方法具有以下优点:通过GB算法对CNN网络模型进行训练,实现了通过CNN网络模型提取脑电数据的特征后,利用传统的GB分类器进行数据分类,在一定程度上克服了CNN网络权重训练不充分的缺点,提高了分类的准确度。
附图说明
下面结合附图对本发明进一步说明。
附图1为实施例1构建CNN-GB模型的方法的流程框图;
附图2为脑电数据采集设备示意图;
附图3为CNN网络模型在训练过程中的误差图;
附图4为实施例3中步骤L400中得到的分类准确率;
图中,1、铂电极,2、大脑右半球皮层。
具体实施方式
参照说明书附图和具体实施例对本发明的构建CNN-GB模型的方法及***、数据特征分类方法作以下详细地说明。
实施例1:
附图1所示,本发明的构建CNN-GB模型的方法,包括如下步骤:
S100、采集脑电数据,并对脑电数据进行预处理;
S200、基于Caffe深度学习框架构建CNN网络模型,CNN网络模型包括但不限于卷积层、池化层、全连接层和损失层;
S300、选取一部分脑电数据作为训练集,通过训练集训练CNN网络模型并更新CNN网络模型的网络参数,得到训练后的CNN网络模型,并输出脑电数据的特征;
S400、通过脑电数据的特征训练GB网络模型并更新GB网络模型的网络参数,得到训练后的GB网络模型;
上述训练后的CNN网络模型用于对脑电数据进行特征提取,上述训练后的GB网模型用于对提取的特征进行分类。
其中,步骤S100中,基于国际BCI Competition III竞赛数据库中的Dataset I,通过脑电信号采集设备按照预设的采用频率进行数据采样,采集到的脑电数据为多信道脑电数据,并将采集到的脑电数据依据以试验次数×信道数目×采样数目的规格进行存储。
如附图2所示:在一个患有病灶性癫痫病患者大脑右半球运动皮层表面上放置一个尺寸为8×8cm、规格为8×8的网格状铂电极,通过64个信道来采集ECoG脑电信号,在采集过程中,此受试者会面对电脑屏幕,根据图像提示重复想象伸舌头和左小指的两类运动,脑电信号采集设备将以1000Hz的采样率进行数据的采样,同时以1和-1两个不同的数字来标记这两类不同的运动想象。本实施例中采集到的脑电数据的存储结构分别为278×64×3000和100×64×3000。所有的实验数据均是来自同一个受试者,并且是在一个星期内不同的两天时间内完成的,因此时间上的间隔、设备的状态甚至受试者轻微的心理、生理变化都有可能影响到脑电信号的正确采集,一定程度上加大了分类的不准确性风险。
步骤S100中对脑电数据进行预处理采用的方式为:包括对脑电数据降采样处理,降采样是在原始1000Hz采样序列中按照事先设置的采样间隔,再进行等间隔采样,以此得到新的采样序列,重新采样的数据要求在不丢失原始采样数据特征信息的条件下,还可以进一步去除部分噪声和伪迹干扰。在实际应用中预处理也可采用滤波处理,通过滤波滤除带外噪声干扰,增强脑电数据;或者采用滤波处理和降采样处理的结合。
CNN网络模型是由一系列的层不断堆叠而成的,本实施例中步骤S200中构建的CNN网络模型包括卷积层、池化层、全连接层和损失层。
卷积层是CNN网络模型中最主要的组成层之一,卷积层是使用一系列卷积核与多通道输入数据做卷积的线性计算层。卷积层为CNN网络模型的输入层,若输入的脑电数据为X(i),CNN网络的偏置项为bi,其中i=1,2,3,......,N,N为正整数,则脑电数据经过卷积层后的表达式为:
ci=Relu(W(r)s*X(i)+bi)
其中,W(r)s表示第s个卷积核,Relu表示CNN网络模型的激活函数,表达式为:y=max(0,x),max表示求元素最大值操作。
池化层是一种缩小数据规模的非线性计算层,常见的池化方式有两种:最大值池化和平均值池化。本实施例中采用最大值池化方式。
全连接层是一种对输入的数据直接做线性变换关系的线性计算层。可作为最终的分类层使用,其中输出的神经元的值可以代表每个输出类别的概率。本实施例中全连接层作为特征提取层,具有512个神经元,与卷积层和池化层配合用于对脑电数据进行特征提取。
Dropout机制用于实现让网络在学习过程中按照预先设定的概率丢失一部分隐藏的节点输出结果。本发明在全连接层中引用了此机制,具体的,让全连接层最终的输出不是网络所得全部的输出值,而是随机以0.5的概率输出一部分数据(剩下0.5的输出数据被丢弃),进而可以让网络学习更多的数据特征,减小网络拟合程度,使得网络学习更加充分,增强泛化能力。
损失层采用softmax激活函数(别称为:归一化指数函数),损失层可以衡量网络学习效果。在通过CNN网络模型训练训练集的过程中,误差反向传递尤为重要,正向传播时,损失层通过将CNN网络模型最后一层的输出结果与真实的数据进行对比得到误差,再将误差进行反向传播进而更新网络参数。
本实施例中卷积层和池化层均共四层、全连接层和损失层均共一层,并设置为四个池化核大小为1×4、步长为1×2的最大值池化层,通过上述最大值池化层依次对经过每层卷积层对应的脑电数据特征进行池化计算。具体地,本实施例中步骤S300包括如下分步骤:
S310、通过卷积层、池化层和全连接层对脑电数据进行特征提取,并输出训练集的标签;
S320、通过损失层将输出的训练集的标签与正确的训练集的标签进行对比生成网络误差,利用误差反向传播更新CNN网络模型的网络参数;
S330、利用随机梯度下降法计算CNN网络模型的最小损失函数,通过最小化误差值,优化CNN网络模型的网络参数。
步骤S310包括如下分步骤:
S311、通过卷积层对脑电数据进行卷积处理,得到脑电数据的特征,具体操作为:采用四层卷积层依次对脑电数据进行特征提取,且每层卷积层的卷积核大小为1×5,每层卷积输出的神经元数目依次为96,128,256,384;
S312、通过池化层按照最大池化的方式对获得的脑电数据的特征进行池化操作,具体操作为:按照最大值池化的方式,在每层卷积层上依次连接有一个池化层,设定池化层中池化核大小为k,从数据的第i位置开始进行池化,其计算方式如下:
pi=max(c[i,i+k])
S313、通过全连接层将池化后的脑电数据的特征表征为一个长向量特征。
步骤S330中,采用随机梯度下降(Stochastic Gradient Dencent,SGD)法来寻找CNN网络模型中最下的损失函数,使得权值能沿着误差梯度小下降的方法进行更新,其计算方法如下:
其中,E表示误差,Wi表示网络权重,bi表示偏差,Wi'表示更新前的网络权重,bi'表示更新前的偏差,i为大于零的整数,μ为训练过程中的学习速率,初始值设定为0.001,每迭代400次将采样将为原来的1/10,为偏导数运算符号。
步骤S400中将OLS回归作为GB网络模型的最小化损失函数,并通过GB网络模型对通过CNN网络模型提取的脑电数据的特征进行分类,包括如下分步骤:
S410、沿着梯度下降的方向,计算GB网络模型的最小化损失函数的梯度,其中,伯努利对数似然函数的一阶导数计算公式为:
其中,N表示正整数,O表示CNN网络模型提取的特征为全连接层的输出的数据,oi为O对应的子集,Y为训练集对应的标签集,其子集yi表示与oi相对应的标签,Fm表示分类器,分类器的初始值F0=0,Fm经过M次迭代后不断更新,其中对数回归模型中的伯努利似然对数的表达式为:
其中,m=1,2,......,M,pm表示对数回归模型,对数回归模型的初始值预设为p0=(yi=1|oi)=0.5,对数回归模型的表达式为:
S420、通过OLS回归选择弱分类器的最适合梯度弱分类器fm的计算公式为:
鉴于弱分类器的输出是在时间t处将脑电数据特征样本的矢量om(t)投影到回归系数a上,即:
f(oi;a,t)=aToi(t)
选择最小化误差时的(am,tm)作为弱分类器的参数:
fm(oi)=f(oi;a,t)
S430、计算弱分类器的权重,弱分类器的权重的计算公式为:
S440、对弱分类器的权重的进行缩小处理,并通过迭代方式生成强分类器,强分类器的计算公式为:
Fm=Fm-1+εγmfm
其中,ε表示一个极小的正数,用于对分类器器的权重进行缩小处理。
S450、基于上述公式计算得到新的对数回归值,对数回归值的表达式为:
通过上述步骤,可得到训练后的CNN网络模型和训练后的GB网络模型,通过训练后的CNN网络模型对脑电数据锦进行特征提取,通过训练后的GB网络模型对提取的特征进行分类,从而可实现脑电数据的特征提取和分类。在具体使用时,采集到的脑电数据可共有一个训练集和一个测试集,通过训练集训练上述CNN-GN模型,得到训练后的CNN网络模型和训练后的GB网路模型,然后通过训练后的CNN网络模型和训练后的GB网路模型对测试集进行训练,实现脑电数据的特征提取和分类。
实施例2:
本发明提供构建CNN-GB模型的***,包括:
脑电数据采集模块,用于采集并存储脑电数据,并对脑电数据进行预处理;
CNN网络配置模块,用于构建CNN网络模型,并用于通过误差反向传播和随机梯度下降法更新CNN网络模型的网络参数,得到训练后的CNN网络模型;
GB网络配置模块,用于构建GB网络模型,并用于通过脑电数据的特征训练GB网络模型并更新GB网络模型的网路参数,得到训练后的GB网络模型。
其中,脑电数据采集模块中为具如下功能的模块:
基于国际BCI Competition III竞赛数据库中的Dataset I,通过脑电信号采集设备按照预设的采用频率进行数据采样,并将采集到的脑电数据依据以试验次数×信道数目×采样数目的规格进行存储,所述脑电数据为多信道脑电数据;
对脑电数据进行滤波处理,用于滤除带外噪声干扰;
或者,对脑电数据进行降采样处理,用于在不丢失脑电数据的特征信息的调节下,去除噪声和伪迹干扰;
或者,对脑电数据进行滤波处理,用于滤除带外噪声干扰,并对脑电数据进行降采样处理,用于在不丢失脑电数据的特征信息的调节下,去除噪声和伪迹干扰。
CNN网络配置模块,为具有如下功能的模块:
基于Caffe深度学习框架构建CNN网络模型,该CNN网络模型包括但不限于卷积层、池化层、全连接层和损失层,卷积层的激活函数设置为Relu函数,池化层设置为最大值池化方式,上述卷积层、池化层和全连接层相互堆叠用于对脑电数据进行特征提取;
通过训练集训练CNN网络模型并更新CNN网络模型的网络参数,得到训练后的CNN网络模型,并输出脑电数据的特征。
其中,CNN网络配置模块中通过训练集训练CNN网络模型并更新CNN网络模型的网络参数,得到训练后的CNN网络模型,并输出脑电数据的特征,这一功能的实现过程为:
(1)通过卷积层、池化层和全连接层对脑电数据进行特征提取,并输出训练集的标签;
(2)通过损失层将输出的训练集的标签与正确的训练集的标签进行对比生成网络误差,利用误差反向传播更新CNN网络模型的网络参数;
(3)利用随机梯度下降法计算CNN网络模型的最小损失函数,通过最小化误差值,优化CNN网络模型的网络参数。
通过该CNN网络配置模块可实现实施例1中下述两个步骤:基于Caffe深度学习框架构建CNN网络模型,CNN网络模型包括卷积层、池化层、全连接层和损失层;通过训练集训练CNN网络模型并更新CNN网络模型的网络参数,得到训练后的CNN网络模型,并输出脑电数据的特征。
通过GB网络配置模块可实现实施例1中下述步骤:通过脑电数据的特征训练GB网络模型并更新GB网络模型的网络参数,得到训练后的GB网络模型。
本实施例的构建CNN-GB模型的***,通过该***可实现实施例1公开的构建CNN-GB模型的方法。
实施例3:
本发明提供一种数据特征提取和分类方法,包括如下步骤:
L100、采集脑电数据,并对脑电数据进行预处理,上述脑电数据为多信道数据,且上述脑电数据共有一个训练集和一个测试集;
L200、以训练集为输入,根据实施例1公开的构建CNN-GB模型的方法构建CNN-GB模型,获得训练后的CNN网络模型和训练后的GB网络模型;
L300、以测试集为输入,通过上述训练后的CNN网络模型对脑电数据进行特征提取,通过训练后的GB网络模型对提取的特征进行分类。
作为本实施例的进一步改进,还包括对获得的测试集的分类进行评估,包括如下步骤:
通过训练后的GB网络模型预测测试集的标签,并将预测的测试集和标签与真实的测试集的标签进行对比生成分类准确率,基于上述分类准确率对分类效果进行评估。
本实施例中,基于上述分类准确率与CNN网络模型的分类准确率的对比,得出分类效果评估。
分类准确率的计算方式为:
如如图2和附图4所示,通过GB算法训练的CNN网络模型得到的分类准确率,其精度为其精度最高为92%,较之CNN模型分类准确率高出3个点。通过上面具体实施方式,所述技术领域的技术人员可容易的实现本发明。但是应当理解,本发明并不限于上述的具体实施方式。在公开的实施方式的基础上,所述技术领域的技术人员可任意组合不同的技术特征,从而实现不同的技术方案。除说明书所述的技术特征外,均为本专业技术人员的已知技术。
Claims (10)
1.构建CNN-GB模型的方法,其特征在于包括如下步骤:
S100、采集脑电数据,并对脑电数据进行预处理;
S200、基于Caffe深度学习框架构建CNN网络模型,CNN网络模型包括但不限于卷积层、池化层、全连接层和损失层;
S300、选取一部分脑电数据作为训练集,通过训练集训练CNN网络模型并更新CNN网络模型的网络参数,得到训练后的CNN网络模型,并输出脑电数据的特征;
S400、通过脑电数据的特征训练GB网络模型并更新GB网络模型的网络参数,得到训练后的GB网络模型;
上述训练后的CNN网络模型用于对脑电数据进行特征提取,上述训练后的GB网模型用于对提取的特征进行分类。
2.根据权利要求1所述的构建CNN-GB模型的方法,其特征在于步骤S100中,采集脑电数据包括如下分步骤:
基于国际BCI Competition III竞赛数据库中的Dataset I,通过脑电信号采集设备按照预设的采用频率进行数据采样,并将采集到的脑电数据依据以试验次数×信道数目×采样数目的规格进行存储,所述脑电数据为多信道脑电数据。
3.根据权利要求1所述的构建CNN-GB模型的方法,其特征在于步骤S100中对脑电数据进行预处理包括如下步骤:
对脑电数据进行滤波处理,用于滤除带外噪声干扰;
或者,对脑电数据进行降采样处理,用于在不丢失脑电数据的特征信息的条件下,去除噪声和伪迹干扰;
或者,对脑电数据进行滤波处理,用于滤除带外噪声干扰,并对脑电数据进行降采样处理,用于在不丢失脑电数据的特征信息的条件下,去除噪声和伪迹干扰。
4.根据权利要求1、2或3所述的构建CNN-GB模型的方法,其特征在于步骤S200中,卷积层的激活函数设置为Relu函数,池化层设置为最大值池化方式,上述卷积层、池化层和全连接层相互堆叠用于对脑电数据进行特征提取。
5.根据权利要求4所述的构建CNN-GB模型的方法,其特征在于步骤S300将脑电数据作为训练集输入构建的CNN网络模型,通过误差反向传播和随机梯度下降方法更新CNN网络模型的网络参数,包括如下分步骤:
S310、通过卷积层、池化层和全连接层对脑电数据进行特征提取,并输出训练集的标签;
S320、通过损失层将输出的训练集的标签与正确的训练集的标签进行对比生成网络误差,利用误差反向传播更新CNN网络模型的网络参数;
S330、利用随机梯度下降法计算CNN网络模型的最小损失函数,通过最小化误差值,优化CNN网络模型的网络参数。
6.根据权利要求5所述的构建CNN-GB模型的方法,其特征在于步骤S310包括如下分步骤:
S311、通过卷积层对脑电数据进行卷积处理,得到脑电数据的特征;
S312、通过池化层按照最大池化的方式对获得的脑电数据的特征进行池化操作;
S313、通过全连接层将池化后的脑电数据的特征表征为一个长向量特征。
7.根据权利要求5所述的构建CNN-GB模型的方法,其特征在于步骤S400中将OLS回归作为GB网络模型的最小化损失函数,并通过GB网络模型对通过CNN网络模型提取的脑电数据的特征进行分类,包括如下分步骤:
S410、沿着梯度下降的方向,计算GB网络模型的最小化损失函数的梯度,其中,伯努利对数似然函数的一阶导数计算公式为:
其中,N表示正整数,O表示CNN网络模型提取的特征为全连接层的输出的数据,oi为O对应的子集,Y为训练集对应的标签集,其子集yi表示与oi相对应的标签,Fm表示分类器,分类器的初始值F0=0,Fm经过M次迭代后不断更新,其中对数回归模型中的伯努利似然对数的表达式为:
其中,m=1,2,......,M,pm表示对数回归模型,对数回归模型的初始值预设为p0=(yi=1|oi)=0.5,对数回归模型的表达式为:
S420、通过OLS回归选择弱分类器的最适合梯度弱分类器fm的计算公式为:
鉴于弱分类器的输出是在时间t处将脑电数据特征样本的矢量om(t)投影到回归系数a上,即:
f(oi;a,t)=aToi(t)
选择最小化误差时的(am,tm)作为弱分类器的参数:
fm(oi)=f(oi;a,t)
S430、计算弱分类器的权重,弱分类器的权重的计算公式为:
S440、对弱分类器的权重的进行缩小处理,并通过迭代方式生成强分类器,强分类器的计算公式为:
Fm=Fm-1+εγmfm
S450、基于上述公式计算得到新的对数回归值,对数回归值的表达式为:
8.构建CNN-GB模型的***,其特征在于能够实现如权利要求1-7任一项所述的构建CNN-GB模型的方法,包括:
脑电数据采集模块,用于采集并存储脑电数据,并对脑电数据进行预处理;
CNN网络配置模块,用于构建CNN网络模型,并用于通过误差反向传播和随机梯度下降法更新CNN网络模型的网络参数,得到训练后的CNN网络模型;
GB网络配置模块,用于构建GB网络模型,并用于通过脑电数据的特征训练GB网络模型并更新GB网络模型的网路参数,得到训练后的GB网络模型。
9.数据特征提取和分类方法,其特征在于包括如下步骤:
L100、采集脑电数据,并对脑电数据进行预处理,上述脑电数据为多信道数据,且上述脑电数据共有一个训练集和一个测试集;
L200、以训练集为输入,根据权利要求1-7任一项所述的构建CNN-GB模型的方法构建CNN-GB模型,获得训练后的CNN网络模型和训练后的GB网络模型;
L300、以测试集为输入,通过上述训练后的CNN网络模型对脑电数据进行特征提取,通过训练后的GB网络模型对提取的特征进行分类。
10.根据权利要求9所述的数据特征提和分类方法,其特征在于还包括:
L400、通过训练后的GB网络模型预测测试集的标签,并将预测的测试集和标签与真实的测试集的标签进行对比生成分类准确率,基于上述分类准确率对分类效果进行评估。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811257725.3A CN109359610A (zh) | 2018-10-26 | 2018-10-26 | 构建cnn-gb模型的方法及***、数据特征分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811257725.3A CN109359610A (zh) | 2018-10-26 | 2018-10-26 | 构建cnn-gb模型的方法及***、数据特征分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109359610A true CN109359610A (zh) | 2019-02-19 |
Family
ID=65346989
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811257725.3A Pending CN109359610A (zh) | 2018-10-26 | 2018-10-26 | 构建cnn-gb模型的方法及***、数据特征分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109359610A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110909876A (zh) * | 2019-11-27 | 2020-03-24 | 上海交通大学 | 基于多生理参数和cnn的体征信息监测方法和*** |
CN111387975A (zh) * | 2020-03-20 | 2020-07-10 | 徐州市健康研究院有限公司 | 基于机器学习的脑电信号识别方法 |
CN112149724A (zh) * | 2020-09-14 | 2020-12-29 | 浙江大学 | 一种基于类内紧凑度的脑电数据特征提取方法 |
CN112381314A (zh) * | 2020-11-24 | 2021-02-19 | 京东数字科技控股股份有限公司 | 模型训练、出险率预测方法、装置、电子设备及存储介质 |
CN113842152B (zh) * | 2021-09-28 | 2023-05-30 | 西交利物浦大学 | 脑电信号分类网络训练方法、分类方法、设备及存储介质 |
CN117893528A (zh) * | 2024-03-13 | 2024-04-16 | 云南迪安医学检验所有限公司 | 一种心脑血管疾病分类模型的构建方法及装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107844755A (zh) * | 2017-10-23 | 2018-03-27 | 重庆邮电大学 | 一种结合dae和cnn的脑电信号特征提取与分类方法 |
-
2018
- 2018-10-26 CN CN201811257725.3A patent/CN109359610A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107844755A (zh) * | 2017-10-23 | 2018-03-27 | 重庆邮电大学 | 一种结合dae和cnn的脑电信号特征提取与分类方法 |
Non-Patent Citations (1)
Title |
---|
严爱玉: "基于Stockwell变换与Boosting算法的自动癫痫检测", 《中国优秀硕士学位论文全文数据库》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110909876A (zh) * | 2019-11-27 | 2020-03-24 | 上海交通大学 | 基于多生理参数和cnn的体征信息监测方法和*** |
CN111387975A (zh) * | 2020-03-20 | 2020-07-10 | 徐州市健康研究院有限公司 | 基于机器学习的脑电信号识别方法 |
CN111387975B (zh) * | 2020-03-20 | 2022-06-17 | 徐州市健康研究院有限公司 | 基于机器学习的脑电信号识别方法 |
CN112149724A (zh) * | 2020-09-14 | 2020-12-29 | 浙江大学 | 一种基于类内紧凑度的脑电数据特征提取方法 |
CN112381314A (zh) * | 2020-11-24 | 2021-02-19 | 京东数字科技控股股份有限公司 | 模型训练、出险率预测方法、装置、电子设备及存储介质 |
CN113842152B (zh) * | 2021-09-28 | 2023-05-30 | 西交利物浦大学 | 脑电信号分类网络训练方法、分类方法、设备及存储介质 |
CN117893528A (zh) * | 2024-03-13 | 2024-04-16 | 云南迪安医学检验所有限公司 | 一种心脑血管疾病分类模型的构建方法及装置 |
CN117893528B (zh) * | 2024-03-13 | 2024-05-17 | 云南迪安医学检验所有限公司 | 一种心脑血管疾病分类模型的构建方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109359610A (zh) | 构建cnn-gb模型的方法及***、数据特征分类方法 | |
CN111134666B (zh) | 一种多通道脑电数据的情绪识别方法及电子装置 | |
CN111126263B (zh) | 一种基于双半球差异性模型的脑电情感识别方法及装置 | |
CN111652066A (zh) | 基于多自注意力机制深度学习的医疗行为识别方法 | |
CN108491077A (zh) | 一种基于多流分治卷积神经网络的表面肌电信号手势识别方法 | |
CN112800998B (zh) | 融合注意力机制和dmcca的多模态情感识别方法及*** | |
CN111544855B (zh) | 基于蒸馏学习和深度学习纯意念控制智能康复方法及应用 | |
CN107168524A (zh) | 一种基于深度学习混合模型的稳态视觉诱发电位分类方法 | |
CN111582342A (zh) | 一种图像识别方法、装置、设备以及可读存储介质 | |
Wan et al. | EEG fading data classification based on improved manifold learning with adaptive neighborhood selection | |
CN113012811B (zh) | 一种结合深度卷积网络和图神经网络的中医证候诊断和健康评价方法 | |
CN113180659B (zh) | 一种基于三维特征和空洞全卷积网络的脑电情感识别方法 | |
US20230101539A1 (en) | Physiological electric signal classification processing method and apparatus, computer device and storage medium | |
CN109948427A (zh) | 一种基于长短时记忆模型的意念识别方法 | |
CN113749657A (zh) | 一种基于多任务胶囊的脑电情绪识别方法 | |
CN110244854A (zh) | 一种多类别脑电数据识别的人工智能方法 | |
CN111753683A (zh) | 一种基于多专家卷积神经网络的人体姿态识别方法 | |
CN110096991A (zh) | 一种基于卷积神经网络的手语识别方法 | |
CN115481695A (zh) | 一种利用多分支特征提取的运动想象分类方法 | |
CN112668486A (zh) | 一种预激活残差深度可分离卷积网络面部表情识别方法、装置和载体 | |
WO2022100187A1 (zh) | 一种基于移动端对用户的情感进行识别与监测方法 | |
CN114145745A (zh) | 基于图的多任务自监督情绪识别方法 | |
CN114169364A (zh) | 一种基于时空图模型的脑电情感识别方法 | |
CN116763324A (zh) | 基于多尺度和多注意力的单通道脑电信号睡眠分期方法 | |
CN116484913A (zh) | 一种基于深度强化学习和双额叶残差网络的脑电情感识别*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190219 |