CN106875002A - 基于梯度下降法与广义逆的复值神经网络训练方法 - Google Patents
基于梯度下降法与广义逆的复值神经网络训练方法 Download PDFInfo
- Publication number
- CN106875002A CN106875002A CN201710091587.5A CN201710091587A CN106875002A CN 106875002 A CN106875002 A CN 106875002A CN 201710091587 A CN201710091587 A CN 201710091587A CN 106875002 A CN106875002 A CN 106875002A
- Authority
- CN
- China
- Prior art keywords
- hidden layer
- complex value
- sample
- output
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Complex Calculations (AREA)
Abstract
本发明涉及一种基于梯度下降法与广义逆的复值神经网络训练方法,步骤一,选择单隐层复值神经网络模型;步骤二,利用梯度下降法和广义逆计算单隐层复值神经网络中的权值矩阵和权值向量,步骤三,根据权值矩阵和权值向量,获取复值神经网络网络参数,进行计算均方误差;将迭代次数加1,返回步骤二。本发明的隐层输入权值是通过梯度下降法迭代产生,输出权值始终通过广义逆来求解。本方法迭代次数少,相应的训练时间短,收敛速度快,并且学习效率高,同时所需的隐层节点个数少。因此,本发明比BSCBP方法与CELM方法能够较为准确的反映复值神经网络模型的性能。
Description
技术领域
本发明属于图像处理、模式识别和通信传输的技术领域,尤其涉及一种基于梯度下降法与广义逆的复值神经网络训练方法。
背景技术
在图像处理、模式识别和通信传输等方面利用神经网络建模的方法进行样本训练与测试有广泛的应用。在训练样本中的神经网络模型建模,神经网络信号(输入信号和输出信号以及权值参数),可以为实数值和复数值,从而神经网络分为实值神经网络和复值神经网络。现有的神经网络建模方法多数是建立的实值神经网络模型,但随着电子信息科学的迅速发展,复数值信号越来越频繁地出现在工程实践中,仅考虑实值的计算无法良好的解决实际问题,而复值神经网络可以解决一些实值神经网络所解决不了的问题。复值神经网络是通过复数参数和变量(即信号的输入、输出以及网络权值均为复数)来处理复数信息的神经网络。因此,一系列复值神经网络的模型被陆续提出并加以深入研究。
在Batch Split-Complex Backpropagation Algorithm中提出了一种BSCBP方法用于训练复值神经网络。激活函数选择实虚部型激活函数,对隐层输入的实虚部分别激活,避免奇异点的出现;BSCBP方法先给输入权值矩阵以及输出权值矩阵进行随机赋值,再通过梯度下降法进行梯度更新,最后计算测试样本的精度。但是,基于梯度下降法的BSCBP模型需要多次迭代训练,消耗时间长并且学习效率较低。
在Fully Complex Extreme Learning Machine中提出了一种CELM方法将ELM方法从实数域扩展到复数域,并应用于非线性信道均衡。CELM只需要设置合适的网络隐层节点个数,对网络的输入权值进行随机赋值,输出层权值的最优解通过最小二乘法得到,激活函数可以选sigmoid函数、(反)三角函数以及(反)双曲函数,与BSCBP不同的是,激活函数对隐层的输入矩阵直接激活。整个过程一次完成,无需迭代,因此具有参数选择容易、学习速度极快的优点。但是CELM方法为了弥补隐层节点参数的随意性选择,往往需要较多的隐层节点个数,且训练精度有待进一步提高。
综上所述,BSCBP在训练时速度缓慢,精度较低,CELM方法虽然速度快,但所需要的网络隐层节点数过多,且精度也有待提高,现有技术中对于如何同时解决复值神经网络训练方法中训练速度慢、精度低和网络隐层节点数过多的问题,尚缺乏有效的解决方案。
发明内容
本发明为了解决上述问题,克服传统的复值神经网络训练方法中无法同时解决训练速度慢、精度低和网络隐层节点数过多的问题,提供一种基于梯度下降法与广义逆的复值神经网络训练方法(Gradient based Generalized Complex Neural Networks,简称GGCNN)。
为了实现上述目的,本发明采用如下技术方案:
一种基于梯度下降法与广义逆的复值神经网络训练方法,所述方法步骤包括:
(1)选择单隐层复值神经网络模型对样本数据集进行建模;
(2)根据步骤(1)中选择的单隐层复值神经网络模型,利用广义逆计算所述单隐层复值神经网络中的权值矩阵,将迭代次数初始值设置为1,利用梯度下降法计算所述单隐层复值神经网络中的权值向量;
(3)根据步骤(2)中计算出的所述权值矩阵和所述权值向量,获取复值神经网络网络参数,计算当前样本数据的均方误差;判断当前迭代次数是否等于最大迭代次数,若是,结束训练;若否,将当前迭代次数加1,返回步骤(2)。
优选的,所述步骤(1)中的样本数据集包括训练样本数据集或测试数据集。
优选的,所述步骤(1)中的所述单隐层复值神经网络模型为:
所述单隐层复值神经网络模型中的输入层、隐层和输出层神经元个数分别为L、M和1;
给定Q个输入样本,其样本矩阵为Z=(zij)L×Q=ZR+iZI,其中,ZR为Z的实部,ZI为Z的虚部;
第q个样本的输入为其中,i=1,2…L;
输入样本相应的理想输出矩阵为D=(d1,d2…dQ)T=DR+iDI,其中,DR为D的实部,DI为D的虚部;
第q个样本的理想输出为dq∈C。
优选的,所述单隐层复值神经网络模型中的所述隐层的激活函数为gc:C→C;
连接输入层和隐层的权值矩阵为W=(wij)M×L=WR+iWI,其中,WR为W的实部,WI为W的虚部;
输入层与第i个隐节点的连接权值记为wi=(wi1,wi2…wiL)∈CL,其中,i=1,2…M;
连接隐层和输出层的权值向量为V=(v1,v2…vM)T=VR+iVI,其中,VR为V的实部,VI为V的虚部;
第k个隐节点与输出层的连接权值记为vk∈C,其中,k=1,2…M。
优选的,所述步骤(2)中的具体步骤为:
(2-1)初始化输入层到隐层的权值矩阵,获取初始权值矩阵W0,W0在给定区间内随机赋值;
(2-2)利用梯度下降法和广义逆计算单隐层复值神经网络中的权值矩阵和权值向量。
优选的,所述步骤(2-2)中的所述通过广义逆计算隐层到输出层的权值矩阵V的具体步骤为:
(2-2a-1)根据步骤(2-1)中的所述初始权值矩阵W0与步骤(1)中的样本矩阵Z计算隐层的输入矩阵U=(uij)M×Q,
(2-2a-2)对矩阵步骤(2-2a-1)中的所述输入矩阵U的实部和虚部分别激活,得到隐层的输出矩阵H=(hij)M×Q,H=gc(UR))+igc(UI))=HR+iHI,其中,HR为H的实部,HI为H的虚部;
(2-2a-3):通过广义逆计算隐层到输出层的权值矩阵V,
其中,H为步骤(2-2a-2)中隐层的输出矩阵,D为步骤(1)中的所述理想输出矩阵。
优选的,所述步骤(2-2)中的对初始权值矩阵W0进行优化具体步骤为:
(2-2b-1):设置初始迭代次数k=1,最大迭代次数为K;
(2-2b-2):计算均方误差E关于隐层权值W的梯度;
(2-2b-3):权值更新公式为其中,n=1,2,…,η为学习率。
优选的,所述步骤(2-2b-2)中均方误差E关于隐层权值W的梯度分成两部分计算,先求E对WR的梯度,再求E对WI的梯度,其中,WR为W实部,WI为W的虚部;
式中,zq为第q个样本的输入向量,zq,R为第q个样本的输入向量的实部,zq,I为第q个样本的输入向量的虚部,gc为隐层的激活函数,为第q个样本在第m个隐节点处的输入,为第q个样本在第m个隐节点的输入的实部,为第q个样本在第m个隐节点的输入的虚部。
优选的,所述步骤(3)中的具体步骤为:
(3-1)输出层的激活函数选择线性函数,则输出层的输入等于输出层的输出,网络的实际输出为O=(o1,o2…oQ)T,第q个样本的实际输出为oq∈C,q=1,2…Q,将矩阵O分为OR(实部)和OI(虚部)两部分,O=HTV=OR+iOI第q个样本的实际输出:
其中,vR为隐层到输出层权值向量的实部,vI为隐层到输出层权值向量的虚部,hq,R为第q个样本隐层输出向量的实部,hq,I为第q个样本隐层输出向量的虚部;
(3-2)计算当前样本数据的均方误差,判断当前迭代次数k是否等于最大迭代次数K,若是,结束训练;若否,将当前迭代次数加1,返回步骤(2-2b-2)。
优选的,所述步骤(3)中的计算当前样本数据的均方误差采用:
其中,oq为第q个样本的实际输出,dq为第q个样本的理想输出。
本发明的有益效果:
1、本发明的一种基于梯度下降法与广义逆的复值神经网络训练方法,隐层输入权值是通过梯度下降法迭代产生,输出权值始终通过广义逆来求解。因此,与BSCBP相比,本方法迭代次数少,相应的训练时间短,收敛速度快,并且学习效率高。与CELM相比,所需的隐层节点个数少,并且学习效率高。因此,本发明比BSCBP方法与CELM方法精度高,能够较为准确的反映复值神经网络模型的性能。
2、本发明的一种基于梯度下降法与广义逆的复值神经网络训练方法,求解从隐层到输出层旳权值时,采用了广义逆的方法,无需迭代,一步求出输出权值的最小范数最小二乘解,相比于基于梯度下降法的相关方法(如CBP方法)训练速度要快。
附图说明
图1是本发明的方法流程示意图;
图2是本发明与BSCBP和CELM建模方法对比的曲线图。
具体实施方式:
应该指出,以下详细说明都是例示性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面结合附图与实施例对本发明作进一步说明。
实施例1:
在本实施例中引用文献“Channel Equalization Using Adaptive ComplexRadial Basis Function Networks”中的4-QAM信号的非线性失真的三维均衡器模型。其中,均衡器的输入为
均衡器的理想输出为0.7+0.7i,0.7-0.7i,-0.7+0.7i,-0.7-0.7i。
在本实施例中训练数据集和测试数据集分别取整体样本数据集的70%和30%。
首先,通过本发明的一种基于梯度下降法与广义逆的复值神经网络训练方法对数据集进行建模。
一种基于梯度下降法与广义逆的复值神经网络训练方法,其方法流程图如图1所示,所述方法步骤包括:
(1)选择单隐层复值神经网络模型对样本训练数据集或样本测试数据集进行建模;
所述步骤(1)中的所述单隐层复值神经网络模型为:
所述单隐层复值神经网络模型中的输入层、隐层和输出层神经元个数分别为L、M和1;
给定Q个输入样本,其样本矩阵为Z=(zij)L×Q=ZR+iZI,其中,ZR为
Z的实部,ZI为Z的虚部;
第q个样本的输入为其中,i=1,2…L;
输入样本相应的理想输出矩阵为D=(d1,d2…dQ)T=DR+iDI,其中,DR为D的实部,DI为D的虚部;
第q个样本的理想输出为dq∈C。
所述单隐层复值神经网络模型中的所述隐层的激活函数为gc:C→C;
连接输入层和隐层的权值矩阵为W=(wij)M×L=WR+iWI,其中,WR为W的实部,WI为W的虚部;
输入层与第i个隐节点的连接权值记为wi=(wi1,wi2…wiL)∈CL,其中,i=1,2…M;
连接隐层和输出层的权值向量为V=(v1,v2…vM)T=VR+iVI,其中,VR为V的实部,VI为V的虚部;
第k个隐节点与输出层的连接权值记为vk∈C,其中,k=1,2…M。
(2)根据步骤(1)中选择的单隐层复值神经网络模型,利用广义逆计算所述单隐层复值神经网络中的权值矩阵,将迭代次数初始值设置为1,利用梯度下降法计算所述单隐层复值神经网络中的权值向量;
步骤S21:初始化输入层到隐层的权值矩阵,获取初始权值矩阵W0,W0在给定区间随机赋值;
步骤S22:隐层的输入矩阵为U=(uij)M×Q,矩阵U分为UR(实部)和UI(虚部)两部分,U=WZ=UR+iUI,第q个样本第m个隐层节点的输入:
式中,xq为第q个输入样本的实部,yq为第q个输入样本的虚部,为第m个隐节点的输入权向量的实部,为第m个隐节点的输入权向量的虚部;
步骤S23:对矩阵U的实部和虚部分别激活,得到隐层的输出矩阵为H=(hij)M×Q,矩阵H分为HR(实部)和HI(虚部)两部分,H=gc(UR)+igc(UI)=HR+iHI
步骤S24:通过广义逆计算隐层到输出层的权值矩阵V,
步骤S25:对初始权值矩阵W0进行优化,优化步骤S25如下子步骤:
步骤S251:设置初始迭代次数k=1;(最大迭代次数为K)
步骤S252:计算均方误差E关于隐层权值W的梯度,分成两部分计算,先求E对WR的梯度,再求E对WI的梯度,
步骤S27:权值更新公式为Wn+1=Wn+ΔWnn为迭代次数n=1,2,…,其中而即第m个隐节点在第n次迭代时的梯度;学习率η为常数;
(3)根据步骤(2)中计算出的所述权值矩阵和所述权值向量,获取复值神经网络网络参数,计算当前样本数据的均方误差;判断当前迭代次数是否等于最大迭代次数,若是,结束训练;若否,将当前迭代次数加1,返回步骤(2)。
步骤S31:输出层的激活函数选择线性函数,则输出层的输入等于输出层的输出,网络的实际输出为O=(o1,o2…oQ)T,第q个样本的实际输出为oq∈C,q=1,2…Q,将矩阵O分为OR(实部)和OI(虚部)两部分,O=HTV=OR+iOI第q个样本的实际输出:
式中,vR为隐层到输出层权值向量的实部,vI为隐层到输出层权值向量的虚部,hq,R为第q个样本隐层输出向量的实部,hq,I为第q个样本隐层输出向量的虚部;
步骤S32:计算训练样本的误差函数:
令k=k+1,返回步骤S22(隐层到输出层的权值矩阵V始终通过广义逆来求解)。
本实施例中包括两个对比建模方法,BSCBP方法和CELM方法。CELM方法是文献“Fully complex extreme learning machine”中的方法,该方法是对输入权值矩阵随机赋值,输出权值矩阵通过广义逆来求解。分别通过BSCBP方法和CELM方法对数据集(文献“Channel Equalization Using Adaptive Complex Radial Basis Function Networks”中的4-QAM信号的非线性失真的三维均衡器模型进行处理。其中,均衡器的输入为
均衡器的理想输出为0.7+0.7i,0.7-0.7i,-0.7+0.7i,-0.7-0.7i)进行建模。实验结果如图2所示。
从图2中可以看出在网络结构相同的条件下,本方法的训练误差均低于BSCBP方法和CELM方法,说明本发明方法有效地优化了训练权值,达到了很高的训练精度。
本发明方法中,隐层的输入权值矩阵通过梯度下降法进行更新,因此,与CELM相比,在初始权值相同的条件下,GGCNN模型需要的隐节点数远远少于CELM所需的隐节点数,且小于CELM模型产生的均方误差;
本发明的基于梯度下降法与广义逆的复值神经网络的建模方法(Gradient basedGeneralized Complex Neural Networks,简称GGCNN方法)中,隐层的输出权值矩阵通过广义逆来求解,无需迭代,一步求出输出权值矩阵的最小范数最小二乘解。因此在初始权值与隐节点个数相同的条件下,本发明方法不仅比BSCBP训练速度快,并且训练误差和测试误差均有大幅度降低,详细对比结果如表1所示。
表1
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (10)
1.一种基于梯度下降法与广义逆的复值神经网络训练方法,其特征是:所述方法步骤包括:
(1)选择单隐层复值神经网络模型对样本数据集进行建模;
(2)根据步骤(1)中选择的单隐层复值神经网络模型,利用广义逆计算所述单隐层复值神经网络中的权值矩阵,将迭代次数初始值设置为1,利用梯度下降法计算所述单隐层复值神经网络中的权值向量;
(3)根据步骤(2)中计算出的所述权值矩阵和所述权值向量,获取复值神经网络网络参数,计算当前样本数据的均方误差;判断当前迭代次数是否等于最大迭代次数,若是,结束训练;若否,将当前迭代次数加1,返回步骤(2)。
2.如权利要求1所述的一种基于梯度下降法与广义逆的复值神经网络训练方法,其特征是:所述步骤(1)中的所述单隐层复值神经网络模型为:
所述单隐层复值神经网络模型中的输入层、隐层和输出层神经元个数分别为L、M和1;给定Q个输入样本;其样本矩阵为Z=(zij)L×Q、输入样本相应的理想输出矩阵为D=(d1,d2…dQ)T均为复数;第q个样本的输入为 其中,i=1,2…L;第q个样本的理想输出为dq∈C。
3.如权利要求2所述的一种基于梯度下降法与广义逆的复值神经网络训练方法,其特征是:所述步骤(1)中的所述单隐层复值神经网络模型中的所述隐层的激活函数为gc:C→C;连接输入层和隐层的权值矩阵为W=(wij)M×L=WR+iWI,其中,WR为W的实部,WI为W的虚部;输入层与第i个隐节点的连接权值记为wi=(wi1,wi2…wiL)∈CL,其中,i=1,2…M;连接隐层和输出层的权值向量为V=(v1,v2…vM)T=VR+iVI,其中,VR为V的实部,VI为V的虚部;第k个隐节点与输出层的连接权值记为vk∈C,其中,k=1,2…M。
4.如权利要求3所述的一种基于梯度下降法与广义逆的复值神经网络训练方法,其特征是:所述步骤(2)中的具体步骤为:
(2-1)初始化输入层到隐层的权值矩阵,获取初始权值矩阵W0,W0在给定区间内随机赋值;
(2-2)利用梯度下降法和广义逆计算单隐层复值神经网络中的权值矩阵和权值向量。
5.如权利要求4所述的一种基于梯度下降法与广义逆的复值神经网络训练方法,其特征是:所述步骤(2-2)中的所述通过广义逆计算隐层到输出层的权值矩阵V的具体步骤为:
(2-2a-1)根据步骤(2-1)中的所述初始权值矩阵W0与步骤(1)中的样本矩阵Z计算隐层的输入矩阵U=(uij)M×Q,
(2-2a-2)对矩阵步骤(2-2a-1)中的所述输入矩阵U的实部和虚部分别激活,得到隐层的输出矩阵H=(hij)M×Q,H=gc(UR)+igc(UI)=HR+iHI,其中,HR为H的实部,HI为H的虚部;
(2-2a-3):通过广义逆计算隐层到输出层的权值矩阵V,
其中,H为步骤(2-2a-2)中隐层的输出矩阵,D为步骤(1)中的所述理想输出矩阵。
6.如权利要求4所述的一种基于梯度下降法与广义逆的复值神经网络训练方法,其特征是:所述步骤(2-2)中的对初始权值矩阵W0进行优化具体步骤为:
(2-2b-1):设置初始迭代次数k=1,最大迭代次数为K;
(2-2b-2):计算均方误差E关于隐层权值W的梯度;
(2-2b-3):权值更新公式为其中,n=1,2,…,η为学习率。
7.如权利要求6所述的一种基于梯度下降法与广义逆的复值神经网络训练方法,其特征是:所述步骤(2-2b-2)中均方误差E关于隐层权值W的梯度分成 两部分计算,先求E对WR的梯度,再求E对WI的梯度,其中,WR为W实部,WI为W的虚部;
8.如权利要求7所述的一种基于梯度下降法与广义逆的复值神经网络训练方法,其特征是:
式中,zq为第q个样本的输入向量,zq,R为第q个样本的输入向量的实部,zq,I为第q个样本的输入向量的虚部,gc为隐层的激活函数,为第q个样本在第m个隐节点处的输入,为第q个样本在第m个隐节点的输入的实部,为第q个样本在第m个隐节点的输入的虚部。
9.如权利要求1所述的一种基于梯度下降法与广义逆的复值神经网络训练方法,其特征是:所述步骤(3)中的具体步骤为:
(3-1)输出层的激活函数选择线性函数,则输出层的输入等于输出层的输出,网络的实际输出为O=(o1,o2…oQ)T,第q个样本的实际输出为oq∈C,q=1,2…Q,将矩阵O分为OR(实部)和OI(虚部)两部分,O=HTV=OR+iOI第q个样本的实际输出:
其中,vR为隐层到输出层权值向量的实部,vI为隐层到输出层权值向量的虚部,hq,R为第q个样本隐层输出向量的实部,hq,I为第q个样本隐层输出向量的虚部;
(3-2)计算当前样本数据的均方误差,判断当前迭代次数k是否等于最大迭代次数K,若是,结束训练;若否,将当前迭代次数加1,返回步骤(2-2b-2)。
10.如权利要求9所述的一种基于梯度下降法与广义逆的复值神经网络训练方法,其特征是:所述步骤(3)中的计算当前样本数据的均方误差采用:
其中,oq为第q个样本的实际输出,dq为第q个样本的理想输出。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710091587.5A CN106875002A (zh) | 2017-02-20 | 2017-02-20 | 基于梯度下降法与广义逆的复值神经网络训练方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710091587.5A CN106875002A (zh) | 2017-02-20 | 2017-02-20 | 基于梯度下降法与广义逆的复值神经网络训练方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106875002A true CN106875002A (zh) | 2017-06-20 |
Family
ID=59166995
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710091587.5A Pending CN106875002A (zh) | 2017-02-20 | 2017-02-20 | 基于梯度下降法与广义逆的复值神经网络训练方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106875002A (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108334947A (zh) * | 2018-01-17 | 2018-07-27 | 上海爱优威软件开发有限公司 | 一种智能优化的sgd训练方法及*** |
CN109255308A (zh) * | 2018-11-02 | 2019-01-22 | 陕西理工大学 | 存在阵列误差的神经网络到达角估计方法 |
CN109274624A (zh) * | 2018-11-07 | 2019-01-25 | 中国电子科技集团公司第三十六研究所 | 一种基于卷积神经网络的载波频偏估计方法 |
CN110011733A (zh) * | 2019-03-25 | 2019-07-12 | 华中科技大学 | 一种基于动量因子的解偏振复用方法及*** |
CN110034827A (zh) * | 2019-03-25 | 2019-07-19 | 华中科技大学 | 一种基于逆向观测误差的解偏振复用方法及*** |
CN110824922A (zh) * | 2019-11-22 | 2020-02-21 | 电子科技大学 | 基于六阶b-样条小波神经网络的史密斯预估补偿方法 |
CN111950711A (zh) * | 2020-08-14 | 2020-11-17 | 苏州大学 | 复值前向神经网络的二阶混合构建方法及*** |
CN112148730A (zh) * | 2020-06-30 | 2020-12-29 | 网络通信与安全紫金山实验室 | 一种使用矩阵广义逆来分批次提取产品数据特征的方法 |
CN112770013A (zh) * | 2021-01-15 | 2021-05-07 | 电子科技大学 | 一种基于边采样的异质信息网络嵌入方法 |
CN113158582A (zh) * | 2021-05-24 | 2021-07-23 | 苏州大学 | 基于复数值前向神经网络的风速预测方法 |
US11120333B2 (en) | 2018-04-30 | 2021-09-14 | International Business Machines Corporation | Optimization of model generation in deep learning neural networks using smarter gradient descent calibration |
CN114091327A (zh) * | 2021-11-10 | 2022-02-25 | 中国航发沈阳发动机研究所 | 一种发动机腔体雷达散射特性确定方法 |
WO2023216383A1 (zh) * | 2022-05-13 | 2023-11-16 | 苏州大学 | 基于复值神经网络的复值时序信号预测方法 |
US11863221B1 (en) * | 2020-07-14 | 2024-01-02 | Hrl Laboratories, Llc | Low size, weight and power (swap) efficient hardware implementation of a wide instantaneous bandwidth neuromorphic adaptive core (NeurACore) |
-
2017
- 2017-02-20 CN CN201710091587.5A patent/CN106875002A/zh active Pending
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108334947A (zh) * | 2018-01-17 | 2018-07-27 | 上海爱优威软件开发有限公司 | 一种智能优化的sgd训练方法及*** |
US11120333B2 (en) | 2018-04-30 | 2021-09-14 | International Business Machines Corporation | Optimization of model generation in deep learning neural networks using smarter gradient descent calibration |
CN109255308A (zh) * | 2018-11-02 | 2019-01-22 | 陕西理工大学 | 存在阵列误差的神经网络到达角估计方法 |
CN109255308B (zh) * | 2018-11-02 | 2023-07-21 | 陕西理工大学 | 存在阵列误差的神经网络到达角估计方法 |
CN109274624B (zh) * | 2018-11-07 | 2021-04-27 | 中国电子科技集团公司第三十六研究所 | 一种基于卷积神经网络的载波频偏估计方法 |
CN109274624A (zh) * | 2018-11-07 | 2019-01-25 | 中国电子科技集团公司第三十六研究所 | 一种基于卷积神经网络的载波频偏估计方法 |
CN110034827A (zh) * | 2019-03-25 | 2019-07-19 | 华中科技大学 | 一种基于逆向观测误差的解偏振复用方法及*** |
CN110011733A (zh) * | 2019-03-25 | 2019-07-12 | 华中科技大学 | 一种基于动量因子的解偏振复用方法及*** |
CN110824922A (zh) * | 2019-11-22 | 2020-02-21 | 电子科技大学 | 基于六阶b-样条小波神经网络的史密斯预估补偿方法 |
CN112148730A (zh) * | 2020-06-30 | 2020-12-29 | 网络通信与安全紫金山实验室 | 一种使用矩阵广义逆来分批次提取产品数据特征的方法 |
US11863221B1 (en) * | 2020-07-14 | 2024-01-02 | Hrl Laboratories, Llc | Low size, weight and power (swap) efficient hardware implementation of a wide instantaneous bandwidth neuromorphic adaptive core (NeurACore) |
CN111950711A (zh) * | 2020-08-14 | 2020-11-17 | 苏州大学 | 复值前向神经网络的二阶混合构建方法及*** |
CN112770013A (zh) * | 2021-01-15 | 2021-05-07 | 电子科技大学 | 一种基于边采样的异质信息网络嵌入方法 |
CN113158582A (zh) * | 2021-05-24 | 2021-07-23 | 苏州大学 | 基于复数值前向神经网络的风速预测方法 |
WO2022247049A1 (zh) * | 2021-05-24 | 2022-12-01 | 苏州大学 | 基于复数值前向神经网络的风速预测方法 |
CN114091327A (zh) * | 2021-11-10 | 2022-02-25 | 中国航发沈阳发动机研究所 | 一种发动机腔体雷达散射特性确定方法 |
CN114091327B (zh) * | 2021-11-10 | 2022-09-20 | 中国航发沈阳发动机研究所 | 一种发动机腔体雷达散射特性确定方法 |
WO2023216383A1 (zh) * | 2022-05-13 | 2023-11-16 | 苏州大学 | 基于复值神经网络的复值时序信号预测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106875002A (zh) | 基于梯度下降法与广义逆的复值神经网络训练方法 | |
WO2023019601A1 (zh) | 基于结构优化算法的复值神经网络的信号调制识别方法 | |
CN107730003A (zh) | 一种支持多电器类型高精度的nilm实现方法 | |
CN108416755A (zh) | 一种基于深度学习的图像去噪方法及*** | |
CN106991440B (zh) | 一种基于空间金字塔的卷积神经网络的图像分类方法 | |
CN110472779A (zh) | 一种基于时间卷积网络的电力***短期负荷预测方法 | |
CN107301864A (zh) | 一种基于Maxout神经元的深度双向LSTM声学模型 | |
CN107766794A (zh) | 一种特征融合系数可学习的图像语义分割方法 | |
CN109255340A (zh) | 一种融合多种改进vgg网络的人脸识别方法 | |
CN107132516A (zh) | 一种基于深度置信网络的雷达一维距离像目标识别方法 | |
CN106203625A (zh) | 一种基于多重预训练的深层神经网络训练方法 | |
CN104636985A (zh) | 一种改进bp神经网络的输电线路无线电干扰预测方法 | |
CN107102727A (zh) | 基于elm神经网络的动态手势学习与识别方法 | |
CN107798385A (zh) | 基于块张量分解的循环神经网络稀疏连接方法 | |
CN106022465A (zh) | 改进人工蜂群优化的极限学习机方法 | |
CN108182260A (zh) | 一种基于语义选择的多变量时间序列分类方法 | |
CN113190688A (zh) | 基于逻辑推理和图卷积的复杂网络链接预测方法及*** | |
CN110807544A (zh) | 一种基于机器学习的油田剩余油饱和度分布的预测方法 | |
CN111191785A (zh) | 一种基于拓展搜索空间的结构搜索方法 | |
CN111950711A (zh) | 复值前向神经网络的二阶混合构建方法及*** | |
CN115688908A (zh) | 一种基于剪枝技术的高效神经网络搜索与训练方法 | |
CN111058840A (zh) | 一种基于高阶神经网络的有机碳含量(toc)评价方法 | |
CN104050505A (zh) | 一种基于带学习因子蜂群算法的多层感知器训练方法 | |
CN113468466B (zh) | 基于神经网络的一维波动方程求解方法 | |
CN113807040A (zh) | 一种面向微波电路的优化设计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170620 |