CN101546389A - 一种主方向神经网络*** - Google Patents

一种主方向神经网络*** Download PDF

Info

Publication number
CN101546389A
CN101546389A CN200810102802A CN200810102802A CN101546389A CN 101546389 A CN101546389 A CN 101546389A CN 200810102802 A CN200810102802 A CN 200810102802A CN 200810102802 A CN200810102802 A CN 200810102802A CN 101546389 A CN101546389 A CN 101546389A
Authority
CN
China
Prior art keywords
hidden layer
neuron
layer
neural network
network system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN200810102802A
Other languages
English (en)
Inventor
殷维栋
王守觉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Semiconductors of CAS
Original Assignee
Institute of Semiconductors of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Semiconductors of CAS filed Critical Institute of Semiconductors of CAS
Priority to CN200810102802A priority Critical patent/CN101546389A/zh
Publication of CN101546389A publication Critical patent/CN101546389A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种主方向神经网络***,采用4层前馈式结构,包括输入层、第一隐层、第二隐层和输出层,输入层包含D个神经元,第一隐层包含K组神经元,每组神经元包含3个神经元,第二隐层包含K个神经元,输出层为一个神经元,D和K均为自然数;输入层用于接收D维向量,每个神经元对应接收D维向量中的一个分量;第一隐层将接收自输入层的D维向量映射至第二隐层中的神经元,第一隐层中每组神经元对应第二隐层中的一个神经元;第二隐层将接收自第一隐层的3K维向量映射至输出层中的神经元;输出层将第二隐层的结果进行有偏置w0的线性加权,然后输出。本发明克服了陷入局部极小的困难和对噪声的敏感性。

Description

一种主方向神经网络***
技术领域
本发明涉及人工智能技术领域,尤其涉及一种主方向神经网络***。
背景技术
机器学习研究的问题是怎样让机器进行学习,从而具备智能。人工神经网络是实现机器学习的强有力的手段,原因在于人工神经网络研究的基本出发点是模仿生物神经网络。
人工神经网络由大量神经元互连而成,单个神经元的功能可以非常简单,但是它们之间复杂连接而成的网络却具有极强的非线性映射,分布式存储,并行处理和容错能力,这些是实现智能的基础。
人工神经网络的非常重要的优势在于实现非线性映射逼近,而这无论是在模式识别领域还是在机器学习领域都是十分关键的性质,正是由于这个特点,我们在人工智能的很多方面都可以看到神经网络的存在,神经网络已经成为一种重要的工具得到了广泛的应用。
当前得到广泛应用的网络有BP网络、RBF网络、Hopfield网络、SOM网络、LVQ网络、ART系列的网络等。国内也有一批学者在神经网络模型方面做出了贡献,比如王守觉院士提出的基于高维空间几何分析理论的神经网络模型。
王守觉院士提出的思想富有启发性,其思想的出发点是要从形象思维的角度考察人工智能问题,特别的,他对于传统模式识别提出质疑,认为应该从认识而不是划分的角度来思考模式识别问题。基于这一思想,王院士提出了仿生模式识别和高维空间信息学,特别是构建了超香肠模型并在实践中取得了优异的效果。
神经网络由于其非线性映射能力,既可以用来做函数回归,也可以用于模式识别领域。例如BP网络在模式识别方面有广泛应用,RBF网络由于其结构简单,算法收敛快等优点广泛的应用于函数回归方面。但它们都有缺点,例如BP网络收敛慢而且容易陷入性能函数的局部极小;RBF网络对噪声比较敏感。
我们一方面为克服陷入局部极小的困难,借鉴RBF网络主体结构,另一方面要克服其对噪声的敏感性,因而考虑对每个自然聚类采用多个代表点。
发明内容
(一)要解决的技术问题
有鉴于此,本发明的主要目的在于提供一种主方向神经网络***,以克服陷入局部极小的困难,并克服对噪声的敏感性。
(二)技术方案
为达到上述目的,本发明提供了一种主方向神经网络***,该神经网络***采用4层前馈式结构,包括输入层、第一隐层、第二隐层和输出层,输入层包含D个神经元,第一隐层包含K组神经元,每组神经元进一步包含3个神经元,第二隐层包含K个神经元,输出层为一个神经元,其中D和K均为自然数;
所述输入层用于接收D维向量x=(x1x2…xD),每个神经元对应接收D维向量中的一个分量,并将该D维向量x=(x1x2…xD)映射至第一隐层中的各神经元;
所述第一隐层将接收自输入层的D维向量x=(x1x2…xD)映射至第二隐层中的神经元,第一隐层中每组神经元对应第二隐层中的一个神经元;
所述第二隐层将接收自第一隐层的3K维向量映射至输出层中的神经元;
所述输出层将第二隐层的结果进行有偏置w0的线性加权,然后输出。
优选地,所述输入层将该D维向量x=(x1x2…xD)映射至第一隐层中的各神经元通过以下运算实现:输入向量与第j聚类的3个代表点
Figure A200810102802D00061
的距离的r(r≥1)次方。
优选地,所述第一隐层将接收自输入层的D维向量x=(x1x2…xD)映射至第二隐层中的神经元通过以下运算实现:将第一隐层得到的结果求和后作相应的非线性映射
Figure A200810102802D00062
优选地,所述基函数宽度可调参数λj,j=1,2,...,K是随聚类的特性而变的,能够反映输入空间的数据的近似分布。
优选地,该神经网络***采用各聚类第一主方向上的3个代表点
Figure A200810102802D00063
并且由这3个代表点构成一个几何形体来覆盖样本数据点。
优选地,该神经网络***采用神经网络的映射逼近,具体过程分为以下两个阶段:第一阶段是实现输入空间样本的自然聚类,第二阶段是基于覆盖模型的映射求解。
优选地,所述第一阶段通过非监督方法得到,所述第二阶段通过监督学习得到。
优选地,所述第一阶段的自然聚类采用的是基于马氏距离的K均值聚类,以更好的发掘出样本数据的方向性分布结构,为基于主方向的几何形体覆盖做好铺垫。
(三)有益效果
从上述技术方案可以看出,本发明具有以下效果:
1、本发明提供的这种主方向神经网络***,借鉴了RBF网络的思想,局部响应,整体平滑,同时借鉴了王守觉院士的高维几何形体覆盖的思想,通过对输入空间样本的覆盖来实现映射,RBF网络对每一聚类使用一个代表中心,而主方向神经网络则采用各聚类第一主方向上的3个代表点
Figure A200810102802D00064
并且由这3个代表点构成一个几何形体来覆盖样本数据点。
2、本发明提供的这种主方向神经网络***,具有更好的逼近性能和更优的抗噪声性能,克服了陷入局部极小的困难,并克服了对噪声的敏感性。
附图说明
图1是本发明提供的主方向神经网络的结构示意图;
图2是覆盖框架的示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。
本发明提供的这种主方向神经网络***,构建在某个函数集在连续函数空间中的稠密性的基础上的,这为网络的逼近性能提供了理论保障。将神经网络的映射逼近问题分为两个阶段,第一阶段是实现输入空间样本的自然聚类,第二阶段是基于覆盖模型的映射求解。第一阶段通过非监督方法得到,第二阶段通过监督学习得到。该神经网络***不仅结构清晰,而且算法易于理解并具有很好的可操作性。我们用实例验证过该网络,发现它不仅具有很好的非线性逼近能力,而且具有好的抗噪声干扰能力。
如图1所示,图1是本发明提供的主方向神经网络的结构示意图,该神经网络***采用4层前馈式结构,包括输入层、第一隐层、第二隐层和输出层,输入层包含D个神经元,第一隐层包含K组神经元,每组神经元进一步包含3个神经元,第二隐层包含K个神经元,输出层为一个神经元,其中D和K均为自然数。
所述输入层用于接收D维向量x=(x1x2…xD),每个神经元对应接收D维向量中的一个分量,并将该D维向量x=(x1x2…xD)映射至第一隐层中的各神经元。所述第一隐层将接收自输入层的D维向量x=(x1x2…xD)映射至第二隐层中的神经元,第一隐层中每组神经元对应第二隐层中的一个神经元。所述第二隐层将接收自第一隐层的3K维向量映射至输出层中的神经元。所述输出层将第二隐层的结果进行有偏置w0的线性加权,然后输出。
所述输入层将该D维向量x=(x1x2…xD)映射至第一隐层中的各神经元通过以下运算实现:输入向量与第j聚类的3个代表点的距离的r(r≥1)次方。
所述第一隐层将接收自输入层的D维向量x=(x1x2…xD)映射至第二隐层中的神经元通过以下运算实现:将第一隐层得到的结果求和后作相应的非线性映射
Figure A200810102802D00081
所述基函数宽度可调参数λj,j=1,2,...,K是随聚类的特性而变的,能够反映输入空间的数据的近似分布。
该神经网络***采用各聚类第一主方向上的3个代表点
Figure A200810102802D00082
并且由这3个代表点构成一个几何形体来覆盖样本数据点。
该神经网络***采用神经网络的映射逼近,具体过程分为以下两个阶段:第一阶段是实现输入空间样本的自然聚类,第二阶段是基于覆盖模型的映射求解。所述第一阶段通过非监督方法得到,所述第二阶段通过监督学习得到。所述第一阶段的自然聚类采用的是基于马氏距离的K均值聚类,以更好的发掘出样本数据的方向性分布结构,为基于主方向的几何形体覆盖做好铺垫。
通过分析RBF等网络和借鉴仿生模式识别和高维空间复杂形体覆盖的思想,我们认为,用神经网络作非线性映射可以分两个阶段考虑:第一,是样本所在的区域的覆盖表示,第二是基于这一表示的映射建模。这里我们分别予以说明。
第一个阶段依赖于样本点在高维空间中的几何分布,一些常用的网络,如BP网络以超平面划分的形式表示样本所在的区域,RBF网络以超球面表示,FAM则是采用一些矩形来表示,仿生模式识别是以超香肠表示。
第二阶段是映射建模,不同的神经网络具有不同的建模方法,例如BP网络采用基于Sigmoid基函数的线性组合来构建映射模型,而RBF网络则是基于径向基函数的线性组合来构建模型,
基于上面的分析,我们总结得到处理这类问题的统一框架,称之为覆盖框架,如附图2所示。
这里作一些必要的说明:映射
Figure A200810102802D0008082036QIETU
由样本数据的几何分布决定,得到该映射的过程是无监督的,称映射
Figure A200810102802D0008082036QIETU
为样本的自然聚类。映射φ是建立在自然聚类基础上的覆盖映射,实现映射φ的实质就是对样本数据集所在的几何区域进行表示,我们称映射φ为表示映射。接下来需要确立输入空间到输出空间的映射关系。映射ξ:X′→Y′是神经网络的映射模型,不同神经网络的这个模型假定是不同的。ξ:X′→Y′应该在X′的子集X,即样本集上满足映射要求,我们依据ξ在数据集上的限制ξ|X:X→Y确定模型参数,从而确定了映射ξ。神经网络的泛化能力体现在 X ′ ⊃ X 上,ξ能够对训练样本外的数据实现映射。
设C(Rs)是Rs上的连续函数全体构成集合,它关于数乘和加法运算构成一个线性空间,定义连续函数间的乘法运算后构成一个代数。为简化符号起见,该代数依然记为C(Rs)。
我们考虑C(Rs)的一个子集
Figure A200810102802D0009141611QIETU
,这里r≥1是一个常数。
定义G的非负张成集合如下: H = { Σ i = 1 m λ i g i : m ∈ N , λ i ≥ 0 , g i ∈ G , i = 1,2 , . . . , m }
设函数φ(x)=exp(-x),x≥0,考虑下列函数集:
我们希望F成为C(Rs)中的基本集,事实上确实如此。
定理1:
Figure A200810102802D00093
是C(Rs)中的基本集。
有了这些准备工作后,我们提出一种基于覆盖框架的神经网络模型,基本思想是利用各自然聚类第一主方向(最大方差方向)上的几个特殊点作为该聚类的代表,以这些代表点构建的某种几何形体实现对该类样本点的覆盖。
仿照函数集的形式,为构建一个可用的网络,我们要求神经网络实现如下的映射:
Ψ ( x ) = Σ j = 1 K w j exp ( - λ j Σ l = 1 3 | | x - c l j | | r ) + w 0
可以看到,这种神经网络的结构与经典的径向基函数神经网络是有共同之处的,而不同之处在于,径向基函数神经网络应用一个代表点表示一个聚类,用其超球邻域覆盖样本,而主方向神经网络利用第一主方向上3个点表示一个聚类,用形体 Σ l = 1 3 | | x - c l j | | r ≤ const 来覆盖第j聚类的样本点。有趣的是,当r=2时,容易证明这是一个超球,同于径向基函数神经网络的覆盖形体。
依据覆盖框架,主方向神经网络的训练算法分为两个关键阶段:第一阶段是实现自然聚类。第二阶段是监督学习,获得网络需要存储的各连接权值和输出偏置。
为了更精细的刻画样本数据的分布特征,我们采用基于马氏距离的K均值聚类。设有K类,类j来自总体Xj,D维随机向量Xj均值向量为μj,协方差矩阵为∑j,根据最大后验准则,判决函数为:
d j ( z ) = 1 2 ( x - μ j ) T Σ j - 1 ( x - μ j ) + 1 2 ln ( det ( Σ j ) - ln P ( ω j ) + 1 2 D ln ( 2 π ) , j = 1,2 , · · · , K
判决方法为: z &Element; &omega; j 0 &DoubleLeftRightArrow; d j 0 ( z ) < d j ( z ) , &ForAll; j &NotEqual; j 0 , j &Element; { 1,2 , . . . , K }
根据映射模型 &Psi; ( x ) = &Sigma; j = 1 K w j exp ( - &lambda; j &Sigma; l = 1 3 | | x - c l j | | r ) + w 0 , 需要确定的量有
Figure A200810102802D00107
各聚类的3个代表点
Figure A200810102802D0010082614QIETU
由无监督学习来确定,选取第一主方向pj上与中心μj成对称分布的两个点,连同μj一起作为第j聚类的3个代表点,用方程描述为 c l j = &mu; j + 2 ( l - 2 ) &sigma; l p j , l = 1,2,3 ; j = 1,2 , . . . , K , 这里σj>0,j=1,2,...,K为各类样本第一主方向上的标准差,
Figure A200810102802D00109
是∑j的最大特征值,pj为相应的特征向量,我们只对其方向感兴趣,故将其长度定为1。
Figure A200810102802D00111
可以用乘幂法确定,也可以用∑j的奇异值分解(SVD)来确定。
参数λj可以和wj一起由一个最优化问题确定,但该问题不是凸优化问题,求解比较困难,而且存在陷入局部极小的困难。为简化求解,我们给出确定λj的经验方法: &lambda; j = ( &kappa; &sigma; j ) r , j = 1,2 , . . . , K , 这里κ≥0为可调参数,这样就只需要调整好参数κ>0,就可以确定λj。κ越大,基函数越尖锐;κ越小,基函数越平坦。
连接权值wj和输出偏置w0由监督学习来确定。设有M个训练样本(xi,di)∈Rs×R,i=1,2,...,M,那么导出如下的含有K+1个未知数的线性方程组:
&Sigma; j = 1 K w j exp ( - &lambda; j &Sigma; l = 1 3 | | x i - c l j | | r ) + w 0 = d i , i = 1,2 , . . . , M
当M>K+1时,这是一个超定的线性方程组,通过伪逆法可以求其最小二乘意义下的解。
综上所述,我们有如下的学习算法1:
算法1
Step1:输入数据集Xi,输入预聚类数K,容许误差界ε。
Step2:采用一定的算法,选取初始中心μj,并设定初始协方差矩阵和初始分布∑j=I,P(ωj)=1/K,j=1,2,...,K。
Step3:对每一个观测Xi,计算dj(Xi), index ( i ) = arg min j d j ( X i )
Step4:判断是否有空的聚类,若存在空聚类,则剔除该聚类,重新设置初始分布,转向Step3。
Step5:按index重新计算各聚类中心向量和协方差矩阵以及分布。
Step6:判别新的中心向量与原来中心向量的距离是否都小于容许误差界ε。若是,则输出聚类的相关信息,算法结束;否则,更新各聚类中心向量和协方差矩阵以及分布,然后转向Step3。
Step7:依据乘幂法或奇异值分解计算
Figure A200810102802D00121
Step8:计算 c l j = &mu; j + 2 ( l - 2 ) &sigma; j p j , l = 1,2,3 ; j = 1,2 , . . . , K , &lambda; j = ( &kappa; &sigma; j ) r , j = 1,2 , . . . , K ;
Step9:采用伪逆法求解下面的超定线性方程组,得到最小二乘意义下的解,得到连接权值和偏置
&Sigma; j = 1 K w j exp ( - &lambda; j &Sigma; l = 1 3 | | x i - c l j | | r ) + w 0 = d i , i = 1,2 , . . . , M ;
至此,完成网络的全部训练过程,使用网络时只需要将测试向量代入映射表达式中求取映射函数值即可。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

1、一种主方向神经网络***,其特征在于,该神经网络***采用4层前馈式结构,包括输入层、第一隐层、第二隐层和输出层,输入层包含D个神经元,第一隐层包含K组神经元,每组神经元进一步包含3个神经元,第二隐层包含K个神经元,输出层为一个神经元,其中D和K均为自然数;
所述输入层用于接收D维向量x=(x1x2…xD),每个神经元对应接收D维向量中的一个分量,并将该D维向量x=(x1x2…xD)映射至第一隐层中的各神经元;
所述第一隐层将接收自输入层的D维向量x=(x1x2…xD)映射至第二隐层中的神经元,第一隐层中每组神经元对应第二隐层中的一个神经元;
所述第二隐层将接收自第一隐层的3K维向量映射至输出层中的神经元;
所述输出层将第二隐层的结果进行有偏置w0的线性加权,然后输出。
2、根据权利要求1所述的主方向神经网络***,其特征在于,所述输入层将该D维向量x=(x1x2…xD)映射至第一隐层中的各神经元通过以下运算实现:输入向量与第j聚类的3个代表点
Figure A200810102802C00021
的距离的r(r≥1)次方。
3、根据权利要求1所述的主方向神经网络***,其特征在于,所述第一隐层将接收自输入层的D维向量x=(x1x2…xD)映射至第二隐层中的神经元通过以下运算实现:将第一隐层得到的结果求和后作相应的非线性映射
Figure A200810102802C00022
4、根据权利要求3所述的主方向神经网络***,其特征在于,所述基函数宽度可调参数λ1,j=1,2,...,K是随聚类的特性而变的,能够反映输入空间的数据的近似分布。
5、根据权利要求1所述的主方向神经网络***,其特征在于,该神经网络***采用各聚类第一主方向上的3个代表点
Figure A200810102802C00023
并且由这3个代表点构成一个几何形体来覆盖样本数据点。
6、根据权利要求1所述的主方向神经网络***,其特征在于,该神经网络***采用神经网络的映射逼近,具体过程分为以下两个阶段:第一阶段是实现输入空间样本的自然聚类,第二阶段是基于覆盖模型的映射求解。
7、根据权利要求6所述的主方向神经网络***,其特征在于,所述第一阶段通过非监督方法得到,所述第二阶段通过监督学习得到。
8、根据权利要求6所述的主方向神经网络***,其特征在于,所述第一阶段的自然聚类采用的是基于马氏距离的K均值聚类,以更好的发掘出样本数据的方向性分布结构,为基于主方向的几何形体覆盖做好铺垫。
CN200810102802A 2008-03-26 2008-03-26 一种主方向神经网络*** Pending CN101546389A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN200810102802A CN101546389A (zh) 2008-03-26 2008-03-26 一种主方向神经网络***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN200810102802A CN101546389A (zh) 2008-03-26 2008-03-26 一种主方向神经网络***

Publications (1)

Publication Number Publication Date
CN101546389A true CN101546389A (zh) 2009-09-30

Family

ID=41193515

Family Applications (1)

Application Number Title Priority Date Filing Date
CN200810102802A Pending CN101546389A (zh) 2008-03-26 2008-03-26 一种主方向神经网络***

Country Status (1)

Country Link
CN (1) CN101546389A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103870876A (zh) * 2014-03-24 2014-06-18 上海其明信息技术有限公司 快速搜索前馈环并将其可视化的方法
CN105243421A (zh) * 2015-10-19 2016-01-13 湖州师范学院 一种基于cnn声发射识别动静态部件间摩擦故障的方法
RU2575417C2 (ru) * 2011-08-18 2016-02-20 Сименс Акциенгезелльшафт Способ компьютерного моделирования технической системы
US9292790B2 (en) 2012-11-20 2016-03-22 Qualcom Incorporated Piecewise linear neuron modeling
US10133981B2 (en) 2011-08-18 2018-11-20 Siemens Aktiengesellschaft Method for the computer-assisted modeling of a wind power installation or a photovoltaic installation with a feed forward neural network
CN109117942A (zh) * 2018-07-23 2019-01-01 上海七牛信息技术有限公司 一种神经网络以及神经网络***
CN110442721A (zh) * 2018-11-28 2019-11-12 腾讯科技(深圳)有限公司 神经网络语言模型、训练方法、装置及存储介质
CN111160547A (zh) * 2016-12-23 2020-05-15 中科寒武纪科技股份有限公司 一种人工神经网络运算的装置及方法

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10133981B2 (en) 2011-08-18 2018-11-20 Siemens Aktiengesellschaft Method for the computer-assisted modeling of a wind power installation or a photovoltaic installation with a feed forward neural network
RU2575417C2 (ru) * 2011-08-18 2016-02-20 Сименс Акциенгезелльшафт Способ компьютерного моделирования технической системы
US9292790B2 (en) 2012-11-20 2016-03-22 Qualcom Incorporated Piecewise linear neuron modeling
US9477926B2 (en) 2012-11-20 2016-10-25 Qualcomm Incorporated Piecewise linear neuron modeling
CN103870876A (zh) * 2014-03-24 2014-06-18 上海其明信息技术有限公司 快速搜索前馈环并将其可视化的方法
CN103870876B (zh) * 2014-03-24 2016-07-06 上海其明信息技术有限公司 快速搜索前馈环并将其可视化的方法
CN105243421B (zh) * 2015-10-19 2018-04-03 湖州师范学院 一种基于cnn声发射识别动静态部件间摩擦故障的方法
CN105243421A (zh) * 2015-10-19 2016-01-13 湖州师范学院 一种基于cnn声发射识别动静态部件间摩擦故障的方法
CN111160547A (zh) * 2016-12-23 2020-05-15 中科寒武纪科技股份有限公司 一种人工神经网络运算的装置及方法
CN111160547B (zh) * 2016-12-23 2024-04-09 中科寒武纪科技股份有限公司 一种人工神经网络运算的装置及方法
CN109117942A (zh) * 2018-07-23 2019-01-01 上海七牛信息技术有限公司 一种神经网络以及神经网络***
CN110442721A (zh) * 2018-11-28 2019-11-12 腾讯科技(深圳)有限公司 神经网络语言模型、训练方法、装置及存储介质
CN110442721B (zh) * 2018-11-28 2023-01-06 腾讯科技(深圳)有限公司 神经网络语言模型、训练方法、装置及存储介质
RU2785362C1 (ru) * 2022-09-09 2022-12-06 Федеральное государственное автономное образовательное учреждение высшего образования "Национальный исследовательский Томский политехнический университет" Устройство для моделирования солнечной электростанции в энергетической системе

Similar Documents

Publication Publication Date Title
Yang et al. Feed-forward neural network training using sparse representation
CN101546389A (zh) 一种主方向神经网络***
CN106529818B (zh) 基于模糊小波神经网络的水质评价预测方法
Zeng et al. Sensitivity analysis of multilayer perceptron to input and weight perturbations
Kang et al. A weight-incorporated similarity-based clustering ensemble method based on swarm intelligence
CN106778745A (zh) 一种车牌识别方法及装置、用户设备
Wang A generalized ellipsoidal basis function based online self-constructing fuzzy neural network
Cococcioni et al. On reducing computational overhead in multi-objective genetic Takagi–Sugeno fuzzy systems
Muneeswaran et al. Performance evaluation of radial basis function networks based on tree seed algorithm
CN110009030A (zh) 基于stacking元学习策略的污水处理故障诊断方法
CN106647272A (zh) 基于k均值改进卷积神经网络的机器人路径规划方法
CN116108383A (zh) 一种基于改进樽海鞘多输出支持向量的船舶航迹预测方法
CN111798037A (zh) 一种基于堆叠式极限学习机框架的数据驱动最优潮流计算方法
CN107563518A (zh) 一种基于社会力模型群优化算法的极限学习机的学习方法
Gao et al. Road Traffic Freight Volume Forecast Using Support Vector Machine Combining Forecasting.
Yang et al. Evolutionary multi-objective neural architecture search for generalized cognitive diagnosis models
CN109711536A (zh) 一种基于同源连续性的超香肠神经网络模型及其构建方法
CN110739030B (zh) 一种乙烯生产过程小样本的软测量方法
Shi et al. A semi-supervised hierarchical ensemble clustering framework based on a novel similarity metric and stratified feature sampling
Wu et al. Fault diagnosis of TE process based on incremental learning
Alejo et al. An empirical study for the multi-class imbalance problem with neural networks
Duan MCEDA: A novel many-objective optimization approach based on model and clustering
Oh et al. Multi-FNN identification based on HCM clustering and evolutionary fuzzy granulation
CN109685105B (zh) 一种基于无监督宽度学习的高光谱图像聚类方法
CN106650921A (zh) 区间值型直觉模糊小脑神经网络模型

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C12 Rejection of a patent application after its publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20090930