CN111680783A - 基于新型小波激励函数的深度学习训练和优化方法及*** - Google Patents
基于新型小波激励函数的深度学习训练和优化方法及*** Download PDFInfo
- Publication number
- CN111680783A CN111680783A CN202010450014.9A CN202010450014A CN111680783A CN 111680783 A CN111680783 A CN 111680783A CN 202010450014 A CN202010450014 A CN 202010450014A CN 111680783 A CN111680783 A CN 111680783A
- Authority
- CN
- China
- Prior art keywords
- neural network
- deep neural
- training
- function
- wavelet
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000006870 function Effects 0.000 title claims abstract description 125
- 238000012549 training Methods 0.000 title claims abstract description 70
- 238000000034 method Methods 0.000 title claims abstract description 68
- 230000005284 excitation Effects 0.000 title claims abstract description 42
- 238000013135 deep learning Methods 0.000 title claims abstract description 18
- 238000013528 artificial neural network Methods 0.000 claims abstract description 92
- 230000008569 process Effects 0.000 claims abstract description 47
- 238000012545 processing Methods 0.000 claims abstract description 22
- 238000005457 optimization Methods 0.000 claims description 17
- 235000009413 Ratibida columnifera Nutrition 0.000 claims description 5
- 241000510442 Ratibida peduncularis Species 0.000 claims description 5
- 230000008034 disappearance Effects 0.000 abstract description 5
- 230000000694 effects Effects 0.000 abstract description 5
- 238000004880 explosion Methods 0.000 abstract description 5
- 230000005540 biological transmission Effects 0.000 abstract description 3
- 238000009826 distribution Methods 0.000 description 17
- 238000003062 neural network model Methods 0.000 description 8
- 238000003860 storage Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000003672 processing method Methods 0.000 description 3
- 230000003321 amplification Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- OAICVXFJPJFONN-UHFFFAOYSA-N Phosphorus Chemical compound [P] OAICVXFJPJFONN-UHFFFAOYSA-N 0.000 description 1
- 238000013476 bayesian approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000006386 memory function Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了基于新型小波激励函数的深度学习训练和优化方法及***,其中方法包括:将训练数据输入至深度神经网络进行训练;将待处理数据输入至已训练的深度神经网络处理,输出处理结果;其中,深度神经网络包括输入层、隐藏层和输出层,深度神经网络的激励函数采用紧框架高斯小波函数。能使数据能量的传播是恒定的,不会使数据在传播过程中发散,确保训练过程收敛;使深度神经网络具有强非线性拟合特性而能够快速收敛,同时还克服了深度神经网络中的梯度不稳定性而容易导致训练过程梯度***、消失或过拟合的问题。从而能对大量数据完成快速训练且训练精度高,提高数据处理效果。
Description
技术领域
本发明涉及深度神经网络领域,特别是基于新型小波激励函数的深度学习训练和优化方法及***。
背景技术
目前,深度神经网络已经得到广泛的应用,被应用到各行各业和日常生活中,提高了生活生产的智能化水平。例如在信息领域、医学领域、交通领域、农业领域等方面的应用。但是,深度神经网络存在以下的问题:梯度的不稳定性而容易导致梯度***或消失、过拟合;训练速度慢、数据在传播过程中易发散、训练精度低。导致深度神经网络训练精度低,且训练效率低。
发明内容
本发明的目的在于至少解决现有技术中存在的技术问题之一,提供基于新型小波激励函数的深度学习训练和优化方法及***。
本发明解决其问题所采用的技术方案是:
本发明的第一方面,提供了基于新型小波激励函数的深度学习训练和优化方法,包括以下步骤:
将训练数据输入至深度神经网络进行训练;
将待处理数据输入至已训练的所述深度神经网络处理,输出处理结果;
其中,所述深度神经网络包括输入层、隐藏层和输出层,所述深度神经网络的激励函数采用紧框架高斯小波函数。
根据本发明的第一方面,所述紧框架高斯小波函数具体为具有紧框架的墨西哥帽高斯小波。
根据本发明的第一方面,在前向传播过程中,所述紧框架高斯小波函数的式子具体为:
根据本发明的第一方面,在反向传播过程中,所述紧框架高斯小波函数的式子具体为:
本发明的第二方面,基于新型小波激励函数的深度学习训练和优化***,包括:
训练模块,用于将训练数据输入至深度神经网络进行训练;
处理模块,用于将待处理数据输入至已训练的所述深度神经网络处理,输出处理结果;
其中,所述深度神经网络包括输入层、隐藏层和输出层,所述深度神经网络的激励函数采用紧框架高斯小波函数。
根据本发明的第二方面,所述紧框架高斯小波函数具体为具有紧框架的墨西哥帽高斯小波。
根据本发明的第二方面,在前向传播过程中,所述紧框架高斯小波函数的式子具体为:
根据本发明的第二方面,在反向传播过程中,所述紧框架高斯小波函数的式子具体为:
上述方案至少具有以下的有益效果:采用紧框架高斯小波作为深度神经网络的激励函数,能使数据能量的传播是恒定的,不会使数据在传播过程中发散,确保训练过程收敛;使深度神经网络具有强非线性拟合特性而能够快速收敛,同时还克服了深度神经网络中的梯度不稳定性而容易导致训练过程梯度***或消失、过拟合的问题。从而使深度神经网络能对大量数据完成快速训练且训练精度高,提高数据处理效果。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
下面结合附图和实例对本发明作进一步说明。
图1是本发明实施例基于新型小波激励函数的深度学习训练和优化方法的流程图;
图2是深度神经网络的基本结构图;
图3是前向传播过程的紧框架高斯小波函数的波形图;
图4是反向传播过程的紧框架高斯小波函数的波形图;
图5是采用紧框架高斯小波函数的深度神经网络与采用其他函数作为激励函数的深度神经网络对于具有三层隐藏层的深度神经网络的训练损失曲线对比图;
图6是采用紧框架高斯小波函数的深度神经网络与采用其他函数作为激励函数的深度神经网络对于具有十层隐藏层的深度神经网络的训练损失曲线对比图;
图7是采用紧框架高斯小波函数的深度神经网络与采用其他函数作为激励函数的深度神经网络对于具有三层隐藏层的深度神经网络的Jacobian矩阵对比图;
图8是采用紧框架高斯小波函数的深度神经网络与采用其他函数作为激励函数的深度神经网络对于具有十层隐藏层的深度神经网络的Jacobian矩阵对比图。
具体实施方式
本部分将详细描述本发明的具体实施例,本发明之较佳实施例在附图中示出,附图的作用在于用图形补充说明书文字部分的描述,使人能够直观地、形象地理解本发明的每个技术特征和整体技术方案,但其不能理解为对本发明保护范围的限制。
参照图1,本发明的某些实施例,提供了基于新型小波激励函数的深度学习训练和优化方法,包括以下步骤:
步骤S100、将训练数据输入至深度神经网络进行训练;
步骤S200、将待处理数据输入至已训练的深度神经网络处理,输出处理结果;
其中,参照图2,深度神经网络包括输入层10、隐藏层20和输出层30,深度神经网络的激励函数采用紧框架高斯小波函数。
具体地,紧框架高斯小波函数具体为具有紧框架的墨西哥帽高斯小波。
进一步,在反向传播过程中,紧框架高斯小波函数的式子具体为:
其波形参照图4。
在步骤S100中,输入训练数据至深度神经网络进行训练时,通常是使用优化算法来优化权重值w以及超参数θ,以最佳地将输入映射到输出。但由于欺骗性的局部极小值,训练过程中难以得到好的权重值w或超参数θ,也可能导致训练时间的加长,也可以导致训练失败。
对于深度神经网络,从输入层10向隐藏层20,梯度趋于变小。由于梯度的不稳定性,就容易产生梯度消失或者梯度***的问题。
在步骤S100中,对于深度神经网络的训练过程,包括前向传播过程和反向传播过程。前向传播过程的目的是基于预定义的损失函数计算深度神经网络模型的输出与实际真值之间的误差值。而在反向传播过程中,主要是更新权重值w和偏差。从损失函数得到的误差值从输出层30传播回输入层10,然后依次算每个隐藏层20的误差,并根据各自的误差值计算可训练参数的梯度,最后使用不同的基于梯度的优化器更新权重值w和偏差。
对于深度神经网络,能够将输入数据非线性地映射到超平面上,以便可以检测输入数据中隐藏的更多特征。而这种非线性拟合能力主要来自于深度神经网络的激励函数。
对于深度神经网络,采用紧框架高斯小波函数作为激励函数。其输出在任何位置上的每个点都是高斯型的。其可以建立深度神经网络模型的性能与超参数之间的关系,通过贝叶斯优化方法解决由先验到更新优化方程的后验,从而找到优化的超参数,提升深度神经网络模型的各项性能指标。另外,由于紧框架高斯小波函数的稀疏性,训练过程中将可以使部分权重值设为零,这既可以减少计算的复杂度,也可以减少层与层之间的连接,从而简化了深度神经网络的结构,提高了训练速度。紧框架高斯小波函数的能量是恒定的并且取决于框架边界,紧框架高斯小波函数的能量可以具体表示为:其中,A和B分别是紧框架高斯小波函数的上边界和下边界,a0是放大参数a离散化得到的参数,b0是移动参数b离散化得到的参数。是当紧框架高斯小波函数作为深度神经网络的激励函数时,数据的能量的传播是恒定的,不会使数据传播过程发散,从而确保了深度神经网络在训练过程中的收敛性。
深度神经网络的输入输出关系可以表示为:y=Ax+e,其中A为权重集,e为误差。则在训练中有xi=wijxi-1+bi和a=f(xi-1),权重集的权重值的逐步更新可以使得误差最小。即当权重按梯度下降方向变化时,作为更新和调整权重的一种方法,权重的调整是根据每一层输入与实际输出之间的差异大小而变化。这可以加速收敛过程,其中当差异较大时采取较大的调整,而在差异较小时采取较小的调整。这也可以避免发散,发散发生的过程则是由于调整太大或太小。
紧框架高斯小波函数作为激励函数,具有良好的高斯过程。高斯过程对观察数据采用贝叶斯方法并提供了完整的后验概率分布的功能。在贝叶斯推理中,概率分布描述了对一个有限维数变量的值的可能性。高斯过程是函数高斯分布的扩展,是函数空间的分布,其输出在任何位置上的每个点都是高斯型。与高斯过程一样,高斯分布完全取决于其均值和方差,均值m(x)和方差k(x)都是函数,在输入空间上可以变化。另外,高斯过程还可以建立深度神经网络模型的性能与超参数(如深度神经网络的学习率、隐藏层数等)之间的关系,通过贝叶斯优化方法解决由先验到更新优化方程的后验,从而找到优化的超参数,提升深度神经网络模型的各项性能指标。
对于输入位置x的函数值f,假如未知变量f的先验分布是p(f),则建立输入x与观察输出y之间关系得函数变量f的似然是p(y|f,x)。根据贝叶斯规则,在给定观察结果的情况下,可以更新后验概率为:p(y|x)则为了确保后验概率的归一化。则可以得出函数值在特定输入f(x)上的概率分布。高斯过程的所有函数值均是高斯型,因此有其中x1,…,xN是输入值,则该式可以表示为根据高斯过程在函数值上的先验分布得到后验分布为
高斯过程对于训练数据和测试数据,其分布是多维的高斯,依据训练数据的处理可以估算预测分布。其对于超参数θ=[θ1,θ2,…,θN′],其后验分布是通过贝叶斯优化方法可以得到由先验分布到更新优化方程的后验分布而获得最优值。采用高斯先验分布可以通过设置比较小的权重作为较可能的先验分布,使深度神经网络模型变化更平滑,从而克服过拟合的问题,并使深度神经网络模型朝着偏差最小的方向快速收敛。
采用紧框架高斯小波函数作为激励函数,紧框架高斯小波函数的小波变换的性质使深度神经网络训练提速和具有降噪的效果,从而能更准确地建立输入输出模型。小波是各种函数空间的无条件基,这意味着将信号的能量压缩成由小波变换得到的少量系数,具有稀疏性。小波域中的这些系数能够表示原始数据,这有助于降低计算复杂度和所需的硬件资源。
对于深度神经网络,第l个隐藏层的logits数据通过小波逆变换可以表示为由于深度神经网络的训练过程就是要求出最佳权重值,小波变换的稀疏性使深度神经网络的训练过程将的部分权重值设为零,这可以减少计算的复杂度,也可以减少层与层之间的连接,从而简化了深度神经网络的结构,提高了训练速度。
对于紧框架高斯小波函数,框架是定义在离散小波族上的。离散小波族表示为:ψm,n(t)=a0 -m/2ψ(a0 -mt-nb0)。当存在0<A,B<∞时,如果有A||x||2≤∑m,n|〈x,ψm,n>|2≤B||x||2,则构成一个框架,此时A和B分别是框架的上边界和下边界。当A=B时,有紧框架。离散小波族的能量表示为:
当m=1时,对于ω≠0,如果ψm,n构成以A和B为边界的框架,则有当m=1时,有对于1≤|ω|≤a0,可以得到因此有 则当A=B时,则紧框架高斯小波函数的能量表示为:可以得出,紧框架高斯小波函数是恒定的并且取决于框架边界。当使用紧框架高斯小波函数作为深度神经网络的激励函数和微分函数时,信号能量的传播是恒定的,不会使信号传播过程发散,从而确保收敛。
两者均为高斯型,其中fmexh(x)的均值和方差分别是0和0.05,gmexh(x)的均值和方差分别是0和0.088。
用紧框架高斯小波函数的深度神经网络,与采用其他函数作为激励函数的深度神经网络进行对比,例如采用了Morlet函数、sigmoid函数、ReLU函数、LeReLU函数和ELU函数。采用多个顺序数据样本作为输入。参照图5,可以看出,对于具有三层隐藏层20的深度神经网络,采用紧框架高斯小波函数的深度神经网络相比其他深度神经网络,性能最好且最稳定。在训练过程中能快速使损失趋于零且一直维持于零,波动小。参照图6,同样地,可以看出,对于具有十层隐藏层20的深度神经网络,采用紧框架高斯小波函数的深度神经网络相比其他深度神经网络,性能最好且最稳定。
采用Jacobian矩阵来量化深度神经网络模型各层对的分布的变化,从而描述训练过程的稳定性。参照图7,可以看出,对于具有三层隐藏层20的深度神经网络,采用紧框架高斯小波函数的深度神经网络,相比采用其他函数作为激励函数的深度神经网络,具有更高的稳定性。参照图8,同样地,可以看出,对于具有十层隐藏层20的深度神经网络,采用紧框架高斯小波函数的深度神经网络,相比采用其他函数作为激励函数的深度神经网络,具有更高的稳定性。
综合比较,无论对于具有三层隐藏层20的深度神经网络还是具有十层隐藏层20的深度神经网络,采用紧框架高斯小波函数的深度神经网络都具有最好且稳定的表现;Morlet函数仅在具有三层隐藏层20的深度神经网络作为激励函数使深度神经网络收敛;ReLU函数和LeReLU函数仅在具有十层隐藏层20的深度神经网络作为激励函数使深度神经网络收敛;ELU函数和sigmoid函数对于以上两种深度神经网络均表现不佳。
综上,采用紧框架高斯小波作为深度神经网络的激励函数,能使数据能量的传播是恒定的,不会使数据在传播过程中发散,确保训练过程收敛;使深度神经网络具有强非线性拟合特性而能够快速收敛,同时还克服了深度神经网络中的梯度不稳定性而容易导致训练过程梯度***或消失、过拟合的问题。从而使深度神经网络能对大量数据完成快速训练且训练精度高,提高数据处理效果。
对于该数据处理方法,可以应用到大数据场景上,例如人脸识别、无人机导航等方面,提高了数据训练的速度和精度,同样使后续的数据处理的速度和精度得到显著提升。
本发明的某些实施例,提供了基于新型小波激励函数的深度学习训练和优化***,包括:
训练模块,用于将训练数据输入至深度神经网络进行训练;
处理模块,用于将待处理数据输入至已训练的深度神经网络处理,输出处理结果;
其中,深度神经网络包括输入层10、隐藏层20和输出层30,深度神经网络的激励函数采用紧框架高斯小波函数。
具体地,紧框架高斯小波函数具体为具有紧框架的墨西哥帽高斯小波。
进一步,在前向传播过程中,紧框架高斯小波函数的式子具体为:
进一步,在反向传播过程中,紧框架高斯小波函数的式子具体为:
本发明的某些实施例,提供了电子设备,电子设备包括:
存储器,存储至少一个指令;及
处理器,执行存储器中存储的指令以实现如方法实施例所述的数据处理方法。
存储器可用于存储计算机程序和/或模块,处理器通过运行或执行存储在存储器内的计算机程序和/或模块,以及调用存储在存储器内的数据,实现电子设备的各种功能。存储器可主要包括存储程序区和存储数据区。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡,安全数字卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
存储器可以是电子设备的外部存储器和/或内部存储器。进一步地,存储器可以是集成电路中没有实物形式的具有存储功能的电路,如RAM、FIFO等。或者,存储器也可以是具有实物形式的存储器,如内存条、TF卡等等。
处理器执行电子设备的操作***以及安装的各类应用程序。处理器执行应用程序以实现方法实施例中的步骤。或者,处理器执行计算机程序时实现装置实施例中各模块的功能。
本发明的某些实施例,提供了存储介质,存储介质存储有可执行指令,可执行指令能被电子设备执行,使电子设备执行如方法实施例所述的数据处理方法。
存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。
以上所述,只是本发明的较佳实施例而已,本发明并不局限于上述实施方式,只要其以相同的手段达到本发明的技术效果,都应属于本发明的保护范围。
Claims (8)
1.基于新型小波激励函数的深度学习训练和优化方法,其特征在于,包括以下步骤:
将训练数据输入至深度神经网络进行训练;
将待处理数据输入至已训练的所述深度神经网络处理,输出处理结果;
其中,所述深度神经网络包括输入层、隐藏层和输出层,所述深度神经网络的激励函数采用紧框架高斯小波函数。
2.根据权利要求1所述的基于新型小波激励函数的深度学习训练和优化方法,其特征在于,所述紧框架高斯小波函数具体为具有紧框架的墨西哥帽高斯小波。
5.基于新型小波激励函数的深度学习训练和优化***,其特征在于,包括:
训练模块,用于将训练数据输入至深度神经网络进行训练;
处理模块,用于将待处理数据输入至已训练的所述深度神经网络处理,输出处理结果;
其中,所述深度神经网络包括输入层、隐藏层和输出层,所述深度神经网络的激励函数采用紧框架高斯小波函数。
6.根据权利要求5所述的基于新型小波激励函数的深度学习训练和优化***,其特征在于,所述紧框架高斯小波函数具体为具有紧框架的墨西哥帽高斯小波。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010450014.9A CN111680783A (zh) | 2020-05-25 | 2020-05-25 | 基于新型小波激励函数的深度学习训练和优化方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010450014.9A CN111680783A (zh) | 2020-05-25 | 2020-05-25 | 基于新型小波激励函数的深度学习训练和优化方法及*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111680783A true CN111680783A (zh) | 2020-09-18 |
Family
ID=72453795
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010450014.9A Pending CN111680783A (zh) | 2020-05-25 | 2020-05-25 | 基于新型小波激励函数的深度学习训练和优化方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111680783A (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105787517A (zh) * | 2016-03-11 | 2016-07-20 | 西安电子科技大学 | 基于小波稀疏自编码器的极化sar图像分类方法 |
CN106955112A (zh) * | 2017-03-17 | 2017-07-18 | 泉州装备制造研究所 | 基于量子小波神经网络模型的脑电波情绪认知方法 |
-
2020
- 2020-05-25 CN CN202010450014.9A patent/CN111680783A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105787517A (zh) * | 2016-03-11 | 2016-07-20 | 西安电子科技大学 | 基于小波稀疏自编码器的极化sar图像分类方法 |
CN106955112A (zh) * | 2017-03-17 | 2017-07-18 | 泉州装备制造研究所 | 基于量子小波神经网络模型的脑电波情绪认知方法 |
Non-Patent Citations (2)
Title |
---|
薛美盛 等: "小波神经网络预测控制在加热炉炉温控制中的应用", 冶金自动化, no. 05, 10 September 2018 (2018-09-10), pages 1 - 5 * |
郑勋烨: "小波理论及其在图像处理中的应用", 31 August 2018, 西安交通大学出版社, pages: 9 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhang et al. | Imbalanced data classification based on scaling kernel-based support vector machine | |
Kulis et al. | Low-Rank Kernel Learning with Bregman Matrix Divergences. | |
Ghasemipour et al. | Why so pessimistic? estimating uncertainties for offline rl through ensembles, and why their independence matters | |
US8527432B1 (en) | Semi-supervised learning based on semiparametric regularization | |
CN111025914B (zh) | 基于通信受限的神经网络***远程状态估计方法及装置 | |
Van Leeuwen et al. | Assimilating data into scientific models: An optimal coupling perspective | |
Lu et al. | Radial Basis Function Neural Network Based on an Improved Exponential Decreasing Inertia Weight‐Particle Swarm Optimization Algorithm for AQI Prediction | |
Shirvani | Novel solutions and applications of the object partitioning problem | |
Zhu et al. | Augmented online sequential quaternion extreme learning machine | |
Chen et al. | Leveraging multitime Hamilton–Jacobi PDEs for certain scientific machine learning problems | |
Xu et al. | Uncoupled regression from pairwise comparison data | |
CN111680783A (zh) | 基于新型小波激励函数的深度学习训练和优化方法及*** | |
Amato et al. | Additive model selection | |
Zhao et al. | A novel binary bat algorithm with chaos and Doppler effect in echoes for analog fault diagnosis | |
Reddy et al. | Modelling and control of nonlinear resonating processes: part I—system identification using orthogonal basis function | |
Smith et al. | Faster variational quantum algorithms with quantum kernel-based surrogate models | |
Chen et al. | Clustering algorithm of density difference optimized by mixed teaching and learning | |
Tsai et al. | A novel type-2 fuzzy identification method based on the improved membership function | |
Liu et al. | A convex-nonconvex strategy for grouped variable selection | |
Liu et al. | Accurate on-line support vector regression incorporated with compensated prior knowledge | |
Kůrková | Neural network learning as an inverse problem | |
Er et al. | A systematic method to guide the choice of ridge parameter in ridge extreme learning machine | |
Li et al. | Machine Learning Algorithms | |
Bhaskar et al. | Managing data in SVM supervised algorithm for data mining technology | |
Yang et al. | A sparse estimate based on variational approximations for semiparametric generalized additive models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |