CN111832704A - 一种卷积输入式的嵌套递归神经网络的设计方法 - Google Patents

一种卷积输入式的嵌套递归神经网络的设计方法 Download PDF

Info

Publication number
CN111832704A
CN111832704A CN202010611409.2A CN202010611409A CN111832704A CN 111832704 A CN111832704 A CN 111832704A CN 202010611409 A CN202010611409 A CN 202010611409A CN 111832704 A CN111832704 A CN 111832704A
Authority
CN
China
Prior art keywords
unit
input
convolution
data
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010611409.2A
Other languages
English (en)
Inventor
张萌
曹晗翔
范津安
张倩茹
朱佳蕾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN202010611409.2A priority Critical patent/CN111832704A/zh
Publication of CN111832704A publication Critical patent/CN111832704A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种卷积输入式的嵌套递归神经网络的设计方法,包括如下步骤:将当前时刻输入数据和上时刻输出数据进行数据组合和卷积操作处理;对卷积后的结果进行均等拆分,作为原长短期记忆网络单元中的各个门控单元;在内层嵌套单元中进行卷积操作作为输入,再进行和长短期记忆网络单元相同的门控计算操作,得出内层嵌套单元的输出;将内层嵌套单元的输出作为外层单元的记忆单元值,再经由输出门得到整体单元的最终输出值。本发明提出了嵌套式的递归神经网络和卷积输入的结合,既提高了模型对拟合长时间关联的数据的性能,又提取了特征关系之间的局部关联,减少了一定的参数量;得较一般的递归神经网络具有更高的准确率和更少的参数。

Description

一种卷积输入式的嵌套递归神经网络的设计方法
技术领域
本发明属于数据处理技术领域,涉及一种递归神经网络单元设计方法,具体涉及一种卷积输入式的嵌套递归神经网络的设计方法。
背景技术
随着物联网时代网络技术和硬件的发展,用户与互联设备数量呈***式增长。2017年,物联网设备数量首次超越全球人口总数75亿,而到2020年,这个数量预计将会增长到300亿以上。然而物联网设备的应用仍然处于初级阶段,由于设备的大规模数量和自身结构的简单特性,依旧面临着许多的安全隐患。其中最为重要的是来自互联网的恶意入侵的安全问题。
递归神经网络被广泛应用于时间序列的预测;对于来自网络的入侵攻击而言,攻击都具有一定的时效性,尤其DDOS攻击可能持续高达几分钟,这就为攻击数据使用递归神经网络建模提供了事实依据。事实上,基于LSTM(长短期记忆网络)及其变种的优秀鲁棒性和拟合能力,其已经广泛应用于时间序列预测任务中并取得了远远优于传统机器学习的效果。
随着递归神经网络(RNN)经典结构长短期记忆网络(Long Short Term Memory,LSTM)的提出,RNN结构的鲁棒性得到提高,更易于训练。自2012年后深度学习的兴起和硬件计算能力的飞速提高,RNN再次成为研究的热门领域,在入侵检测领域,基于深度学习的RNN也取得了更多成就。
门机制是最早最经典的研究。相较于基本的的RNN单元,长短期记忆网络(LSTM),增强了传统RNN对于长时间步信息的记忆能力,缓和了梯度消失的问题,奠定了RNN大规模应用的基础。之后简化的Gated Recurrent Unit(GRU),将长短期记忆网络的4个门简化为2个门,大量减少了参数个数,精度几乎没有下降,这也为RNN的硬件部署提供了可能。NestedLSTMs构思了一种嵌套式的LSTM结构,将原记忆存储单元Ct替换为另一个完整的LSTM单元,大大增强了长期记忆的能力。Convolutional LSTM将原LSTM结构中的输入及门的矩阵运算替换为二维卷积,提高了传统LSTM对于时空信息的记忆能力,较少了参数个数。Grid LSTM对使用较多的Stacked LSTM结构提出了改进,构思了一种可以定义维度的LSTM结构,可以用于高维度复杂模型的建模。
相关研究人员在RNN时间展开的序列上也做了许多改进。CW-RNN把RNN中每个时间步都连接的隐层改为多组不同递归周期的隐层,使得较远的依赖通过少数几次较长周期隐层递归得到,减小了长依赖信息的学习能力。Dilated RNN提出了一种跳跃连接,能够自由地和不同的RNN单元结合,减少网络参数,提高训练效率。
对于训练中的优化问题,产生了一些权重初始化方法。1.Unitary-RNN针对RNN的梯度消失和***问题提出了一种参数矩阵的酉矩阵初始化方法,通过特殊的参数化技巧把权重矩阵表达成一个形式上较复杂但计算上很高效的形式,使得参数更新后新的参数矩阵仍为酉矩阵。2.Kanai S[Preventing gradient explosions in gated recurrent units[C]//Advances in Neural Information Processing Systems.2017:435-444]认为RNN的梯度***是由于非线性***的分歧点引起的,并在某种情形下找到参数迭代的一个稳定点,控制参数在某个区域内更新从而达到防止梯度***的效果。
RNN在网络入侵检测中也产生了诸多应用。Kim J[Applying recurrent neuralnetwork to intrusion detection with hessian free optimization[C]//international Workshop on Information Security Applications.Springer,Cham,2015:357-369.]为解决RNN存在的一些故有问题,提出了Hessian树优化方法,避免梯度***和消失对训练造成影响;对KDD CUP 99数据集的数据预处理做了详细的说明,包括符号特征,布尔特征,百分比特征以及数字特征的不同处理方法,舍弃原数据中与攻击无关的特征。KIM T-Y[Web traffic anomaly detection using C-LSTM neural networks[J].2018,106(66-76.]提出了一种C-LSTM用于网络流量检测的方法,首先利用CNN提取大量数据中的高维特征,然后再将LSTM作为分类器进行训练,在Yahoo S5 Web数据集上达到98.7%准确率,优于同样的LSTM,CNN和GRU结构。MCDERMOTT C D[Botnet Detection inthe Internet of Things using Deep Learning Approaches;proceedings of the 2018International Joint Conference on Neural Networks(IJCNN),F,2018[C].IEEE.]就僵尸网络(Botenet)制作了一份数据集,使用词嵌入(Word Embedding)的方法进行数据的预处理,再使用BLSTM结构进行序列建模,结果显示对与单攻击和多攻击向量而言,准确率均达到90%以上。YIN C[A deep learning approach for intrusion detection usingrecurrent neural networks[J].2017,5(21954-61.]将RNN作为入侵检测***的关键部分,对NSL-KDD数据集做了二分类和多分类的预测,给出了详细实验结果,结果表示优于传统算法。
但是,现有递归神经网络建模网络入侵数据时对长时间序列敏感度差、且测试准确率较低,所以需要一个新的技术方案来解决这个问题。
发明内容
发明目的:为了克服现有技术中存在的现有递归神经网络建模网络入侵数据时对长时间序列敏感度差和测试准确率较低的问题,提供一种卷积输入式的嵌套递归神经网络的设计方法,其在解决了这些问题的基础上,同时一定程度上减少了参数的使用数量,并考虑到了特征之间的局部关联,提高了测试准确率。
技术方案:为实现上述目的,本发明提供一种卷积输入式的嵌套递归神经网络的设计方法,包括如下步骤:
S1:将当前时刻输入数据和上时刻输出数据进行数据组合和卷积操作处理;
S2:对卷积后的结果进行均等拆分,作为原长短期记忆网络单元中的各个门控单元,经过门控计算操作后进入外层单元;处理上时刻保留信息和当前时刻输入,作为内层嵌套单元的输入;
S3:在内层嵌套单元中进行卷积操作作为输入,再进行和长短期记忆网络单元相同的门控计算操作,得出内层嵌套单元的输出;
S4:将内层嵌套单元的输出作为外层单元的记忆单元值,再经由输出门得到整体单元的最终输出值。
进一步的,所述步骤S1具体为:将当前时刻输入数据和上时刻输出数据进行组合,对组合数据中经过数值化处理的每一条数据,选择卷积核进行一维卷积。
进一步的,所述步骤S1和步骤S3中的卷积操作具体为:将每一条数据作为输入,将输出扩增为隐层单元数量的通道数。
进一步的,所述步骤S1和步骤S2中的两个输入部分在原数据的通道数维度下拼接。
进一步的,所述步骤S2中处理好的上时刻保留信息和当前时刻输入信息的组合,等于构成单层长短期记忆网络单元的记忆单元。
进一步的,所述步骤S2和步骤S3中门控计算操作采用激活函数进行计算。
进一步的,所述激活函数包括sigmoid函数和tanh函数。
本发明方法将长短期记忆网络单元中的存储单元替换为一个与外部基本相同的长短期记忆单元,构成一种嵌套结构;将数据输入记忆单元后的矩阵乘法操作改变为一维卷积操作,扩展数据输出维度。对于网络入侵数据而言,递归神经网络已经成为一种重要且行之有效的方法,但是其方法的准确性、参数数量以及计算复杂度一直是其面向场景应用的掣肘。本发明提出了嵌套式的递归神经网络和卷积输入的结合,既提高了模型对拟合长时间关联的数据的性能,又提取了特征关系之间的局部关联,减少了一定的参数量;得较一般的递归神经网络具有更高的准确率和更少的参数。
有益效果:本发明与现有技术相比,将传统的长短期记忆网络单元改进为一种卷积作为输入、内外嵌套传统的长短期记忆网络单元的的新结构,嵌套结构可以使模型拟合长时间序列数据时更加准确,卷积输入可以有效的提取单条特征之间的局部关联,现有递归神经网络建模网络入侵数据时对长时间序列敏感度差和测试准确率较低的问题,与传统的长短期记忆网络单元相比,新的单元结构效果提升明显,能够有效提高测试准确率。
附图说明
图1为卷积输入式嵌套递归神经网络(C-NLSTM)内部单元结构图;
图2为第一时间步外层卷积示意图;
图3为其余情况下的卷积示意图;
图4为长短期记忆网络记忆单元示意图;
图5为长短期记忆网络时间展开示意图。
具体实施方式
下面结合附图和具体实施例,进一步阐明本发明。
本发明设计了一种卷积输入式的嵌套递归神经网络(C-NLSTM),其设计方法包括如下步骤:
(1)将当前时刻输入数据和上时刻输出数据组合,对数据中经过数值化处理的每一条数据,选择合适的卷积核进行1维卷积;
(2)对卷积后的结果进行均等拆分,作为原长短期记忆网络单元中的各个门控单元,进入外层单元;处理上时刻保留信息和该时刻输入,作为内层嵌套单元的输入。
(3)在内层嵌套单元中进行相似的卷积操作作为输入,再进行和长短期记忆网络单元相同的门控计算操作,得出内层嵌套单元的输出。
(4)将内层嵌套单元的输出作为外层单元的记忆单元值,再经由输出门得到整体单元的最终输出值。
(5)将由步骤(1)-(4)构成的基于卷积输入式的嵌套递归神网络单元进行指定时间步的展开,进行训练和预测。
步骤(1)和(3)中卷积操作具体为:将每一条数据作为输入,将输出扩增为隐层单元数量的通道数。
步骤(1)和(2)中两个输入部分在原数据的通道数维度下拼接。
步骤(2)中处理好的上时刻保留信息和当前时刻输入信息的组合,等于构成单层长短期记忆网络单元的记忆单元。
本实施例中将上述方法进行实际应用,得到如图1所示的卷积输入式嵌套递归神经网络,其具体的设计过程如下:
1、首先数据从外层单元进入,当前输入xt和上一时刻输出ht-1在原数据的通道数维度上进行拼接,形成实际单元输入数据。假设连续t条数据之间相互关联,每条数据具有i个特征,需要进入模型的输入包括:当前外层输入xt和上一时刻输出ht-1。若为初始时间步t=0,则上一时刻输出ht-1不存在,且外层输入xt只有一个通道,输入形状表示为[i,1];其余时间步t=1,2...时,外层输入xt矩阵大小为[i,h],上一时刻输出ht-1矩阵大小为[i,h],所以模型的输入大小为[i,2*h]。
2、进行外层卷积操作,如图2所示,操作过程具体为:对实际单元输入的外层数据进行一维卷积操作,如图2所示,在时间步t=0时,外层一维卷积的计算中,使用一维卷积核[k,1,4*h]对输入数据进行卷积,其中卷积核大小为k,输入卷积通道数为1,输出卷积通道数为4*h。对原输入矩阵进行补零操作,使得卷积后的特征数与卷积之前输入的特征数i相同,卷积输出结果为[i,4*h]。
当进行到时间步t=1及以后时,卷积计算方法如图3所示。此时外层卷积使用一维卷积核[k,2*h,4*h]对输入数据进行卷积,其中卷积核大小为k,输入卷积通道数为2*h,输出卷积通道数为4*h。卷积操作对原输入进行补零操作,使得卷积后的特征数与卷积之前输入的特征数i相同,卷积输出结果为[i,4*h]。
接着将卷积结果在通道数维度上4等分为外层单元的4个门控单元Zi,Zf,Zg,Zo,每个单元形状为[i,h]。
Zi,Zf,Zg,Zo=[i,h]
长短期记忆网络(LSTM)单元的基本原理由公式表示如下:
Zf=σ(Wfxt+Ufht-1+bf)
Zi=σ(Wixt+Uiht-1+bi)
Zo=σ(Woxt+Uoht-1+bo)
Ct=Zf⊙Ct-1+Zi⊙tanh(Wcxt+Ucht-1+bc)
ht=ZoΘtanh(Ct)
Ot=f(Woht+bo)
依照长短期记忆网络单元的公式对外层输入数据进行处理:
Ct=σf(Zf)⊙Ct-1i(Zi)⊙σc(Zg)
σf,σi和σc为激活函数,这里分别取sigmoid和tanh函数:
Figure BDA0002562256330000061
Figure BDA0002562256330000062
经过激活函数sigmoid后,门控单元Zf和Zi就被缩放为所有值均在[0,1]范围内的矩阵,可以对上一时刻存储值Ct-1和当前时刻经过处理的输入σc(Zg)进行加权的选取,起到对上时刻存储值的部分遗忘和对当前输入的选通作用。该操作不影响数据形状大小,输出Ct大小仍为[i,h]。
然后,取外部存储单元Ct的两部分分别作为内层单元的输入
Figure BDA0002562256330000063
Figure BDA0002562256330000064
如下面公式所示:
Figure BDA0002562256330000065
Figure BDA0002562256330000066
Figure BDA0002562256330000067
这里激活函数σf,σi和σc与前述相同,内层输入
Figure BDA0002562256330000068
Figure BDA0002562256330000069
大小仍为[i,h]。
进入内层单元后,将
Figure BDA00025622563300000610
Figure BDA00025622563300000611
在通道数维度上进行拼接,形成内层单元的输入数据,形状大小为[i,2*h]。
3、对于内层输入的数据的一维卷积操作,其与时间步t=1以后的外层一维卷积计算过程相同,如图3所示,使用一维卷积核[k,2*h,4*h]对输入数据进行卷积,其中卷积核大小为k,输入通道数为2*h,输出通道数为4*h。卷积操作对原输入进行补零操作,使得卷积后的特征数与卷积之前输入的特征数i相同,卷积后结果为[i,4*h]。
接着将卷积结果在通道数维度上4等分为内层单元的4的门控单元
Figure BDA00025622563300000612
每个单元形状为[i,h]。
Figure BDA00025622563300000613
依照长短期记忆网络单元的公式对外层输入数据进行处理:
Figure BDA00025622563300000614
Figure BDA00025622563300000615
Figure BDA0002562256330000071
Figure BDA0002562256330000072
Figure BDA0002562256330000073
为激活函数,这里分别取sigmoid和tanh函数:
Figure BDA0002562256330000074
Figure BDA0002562256330000075
同样的,经过激活函数sigmoid后,门控单元
Figure BDA0002562256330000076
Figure BDA0002562256330000077
就被缩放为所有值均在[0,1]范围内的四维矩阵,可以对上一时刻存储值
Figure BDA0002562256330000078
当前时刻经过处理的输入
Figure BDA0002562256330000079
和当前时刻输出
Figure BDA00025622563300000710
进行加权的选取,起到对上时刻存储值的部分遗忘、对当前时刻输入和输出的选通。该操作不影响数据形状大小,输出Ct
Figure BDA00025622563300000711
大小仍为[i,h]。
4、得出内层单元的输出
Figure BDA00025622563300000712
将该输出作为原外层单元的存储单元Ct,回到外层单元,对该输出按如下公式进行处理:
Figure BDA00025622563300000713
Ot=σo(Zo)
ht=OtΘσh(Ct)
其中,σo和σh为激活函数,这里分别取sigmoid和tanh函数:
Figure BDA00025622563300000714
Figure BDA00025622563300000715
由于计算不改变原形状大小,故Ct和ht大小均为[i,h],这与开头假设外层输出大小为[i,h]相符。
据此得出整个单元的最终输出ht以及内部存储值Ct,完成了该完整单元在当前时间步t的前向计算。接着使用得到的ht与t+1时间步的输入xt+1拼接作为t+1时间步的模型输入,进行t+1时间步的前向计算,直到时间步达到最大值后停止前向计算。
本实施例中获得如图4所示的长短期记忆网络记忆单元示意图,输入xt和ht-1,和大小为(特征维度数*隐层单元数)的权重矩阵做矩阵乘法,得到的矩阵;再在隐层单元数维度上均分为四个门控矩阵,用于控制各个内容的选通,依据长短期记忆网络公式得到Ct存储单元和最终的输出Ot
据此得出整个单元的最终输出ht以及内部存储值Ct,完成了该完整单元在当前时间步t的前向计算。接着使用得到的ht与t+1时间步的输入xt+1拼接作为t+1时间步的模型输入,进行t+1时间步的前向计算,直到时间步达到最大值后停止前向计算。
参照图5,将递归神经网络单元按照指定时间步展开。这里的单元是的长短期记忆网络单元的一种统称,也可指代本发明中设计的单元。在t时间步计算过程中,一个单元的输入为当前输入xt与前一时间步输出ht-1的拼接,存储单元及其输入为Ct和Ct-1,当前时刻的输出为ht。按指定时间步展开后,前一时间步的输出ht-1与xt构成当前时间步的输入;输入经过计算后的值与前一时刻存储单元值Ct-1的一定比例相加,得到当前存储单元值Ct;对当前存储单元值进行计算得到当前时刻输出ht。在t+1时间步计算过程中,使用xt+1与t时间步输出ht拼接构成单元输入,其余计算与t时间步中相同。
为了验证本发明方法的有效性,使用本方法和经典LSTM在做相同情况下的对比试验。
实验使用tensorflow开源框架,其中C-NLSTM单元为自身实现,设计了四个输入超参数,分别为嵌套层数、输入形状、隐层单元数和一维卷积核的大小。LSTM单元为tensorflow框架中tf.nn.rnn_cell库中的BasicLSTM单元。
对数据进行one-hot编码(遍历每一列中的所有不同值,并将所有不同值各成一类,属于该类的标1,不属于该类的标0)。将数据输入进C-NLSTM或LSTM单元,并获取返回张量,最后设置一个全连接层用于最后的二分类。
表1为使用C-NLSTM单元和一般LSTM单元在KDD99数据集上的对比,为了保证对比的有效性,两种方法使用了相同的超参数和训练轮数,具体设置及结果见表1。
表1
Figure BDA0002562256330000081
可以看到,在完全相同超参数和软硬件条件下,C-NLSTM在KDD99数据集上的准确率达到了98.46%,较LSTM的准确率97.33%得到了一定提升。且新单元对于长时间依赖的数据具有更强的拟合能力,可以有效的提取相邻特征之间的关联,适合大数据集的学习。

Claims (7)

1.一种卷积输入式的嵌套递归神经网络的设计方法,其特征在于:包括如下步骤:
S1:将当前时刻输入数据和上时刻输出数据进行数据组合和卷积操作处理;
S2:对卷积后的结果进行均等拆分,作为原长短期记忆网络单元中的各个门控单元,经过门控计算操作后进入外层单元;处理上时刻保留信息和当前时刻输入,作为内层嵌套单元的输入;
S3:在内层嵌套单元中进行卷积操作作为输入,再进行和长短期记忆网络单元相同的门控计算操作,得出内层嵌套单元的输出;
S4:将内层嵌套单元的输出作为外层单元的记忆单元值,再经由输出门得到整体单元的最终输出值。
2.根据权利要求1所述的一种卷积输入式的嵌套递归神经网络的设计方法,其特征在于:所述步骤S1具体为:将当前时刻输入数据和上时刻输出数据进行组合,对组合数据中经过数值化处理的每一条数据,选择卷积核进行一维卷积。
3.根据权利要求1所述的一种卷积输入式的嵌套递归神经网络的设计方法,其特征在于:所述步骤S1和步骤S3中的卷积操作具体为:将每一条数据作为输入,将输出扩增为隐层单元数量的通道数。
4.根据权利要求1所述的一种卷积输入式的嵌套递归神经网络的设计方法,其特征在于:所述步骤S1和步骤S2中的两个输入部分在原数据的通道数维度下拼接。
5.根据权利要求1所述的一种卷积输入式的嵌套递归神经网络的设计方法,其特征在于:所述步骤S2中处理好的上时刻保留信息和当前时刻输入信息的组合,等于构成单层长短期记忆网络单元的记忆单元。
6.根据权利要求1所述的一种卷积输入式的嵌套递归神经网络的设计方法,其特征在于:所述步骤S2和步骤S3中门控计算操作采用激活函数进行计算。
7.根据权利要求6所述的一种卷积输入式的嵌套递归神经网络的设计方法,其特征在于:所述激活函数包括sigmoid函数和tanh函数。
CN202010611409.2A 2020-06-30 2020-06-30 一种卷积输入式的嵌套递归神经网络的设计方法 Pending CN111832704A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010611409.2A CN111832704A (zh) 2020-06-30 2020-06-30 一种卷积输入式的嵌套递归神经网络的设计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010611409.2A CN111832704A (zh) 2020-06-30 2020-06-30 一种卷积输入式的嵌套递归神经网络的设计方法

Publications (1)

Publication Number Publication Date
CN111832704A true CN111832704A (zh) 2020-10-27

Family

ID=72900825

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010611409.2A Pending CN111832704A (zh) 2020-06-30 2020-06-30 一种卷积输入式的嵌套递归神经网络的设计方法

Country Status (1)

Country Link
CN (1) CN111832704A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112613597A (zh) * 2020-11-30 2021-04-06 河南汇祥通信设备有限公司 一种综合管廊风险自动识别卷积神经网络模型及构建方法
CN112990598A (zh) * 2021-03-31 2021-06-18 浙江禹贡信息科技有限公司 一种水库水位时间序列预测方法与***

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106372724A (zh) * 2016-08-31 2017-02-01 西安西拓电气股份有限公司 一种人工神经网络算法
CN107451655A (zh) * 2017-07-17 2017-12-08 上海电机学院 一种集“分类与聚类”为一体的模糊神经网络算法
CN107480774A (zh) * 2017-08-11 2017-12-15 山东师范大学 基于集成学习的动态神经网络模型训练方法和装置
CN110503182A (zh) * 2018-05-18 2019-11-26 杭州海康威视数字技术股份有限公司 深度神经网络中的网络层运算方法及装置
CN110874625A (zh) * 2018-08-31 2020-03-10 杭州海康威视数字技术股份有限公司 一种深度神经网络量化方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106372724A (zh) * 2016-08-31 2017-02-01 西安西拓电气股份有限公司 一种人工神经网络算法
CN107451655A (zh) * 2017-07-17 2017-12-08 上海电机学院 一种集“分类与聚类”为一体的模糊神经网络算法
CN107480774A (zh) * 2017-08-11 2017-12-15 山东师范大学 基于集成学习的动态神经网络模型训练方法和装置
CN110503182A (zh) * 2018-05-18 2019-11-26 杭州海康威视数字技术股份有限公司 深度神经网络中的网络层运算方法及装置
CN110874625A (zh) * 2018-08-31 2020-03-10 杭州海康威视数字技术股份有限公司 一种深度神经网络量化方法及装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112613597A (zh) * 2020-11-30 2021-04-06 河南汇祥通信设备有限公司 一种综合管廊风险自动识别卷积神经网络模型及构建方法
CN112613597B (zh) * 2020-11-30 2023-06-30 河南汇祥通信设备有限公司 一种综合管廊风险自动识别卷积神经网络模型及构建方法
CN112990598A (zh) * 2021-03-31 2021-06-18 浙江禹贡信息科技有限公司 一种水库水位时间序列预测方法与***

Similar Documents

Publication Publication Date Title
CN104834747B (zh) 基于卷积神经网络的短文本分类方法
Van Haaren et al. Markov network structure learning: A randomized feature generation approach
CN112070277B (zh) 基于超图神经网络的药物-标靶相互作用预测方法
CN106294618A (zh) 搜索方法及装置
Xu et al. GenExp: Multi-objective pruning for deep neural network based on genetic algorithm
CN106815244A (zh) 文本向量表示方法及装置
CN111832704A (zh) 一种卷积输入式的嵌套递归神经网络的设计方法
Wang et al. Channel pruning via lookahead search guided reinforcement learning
CN111144500A (zh) 基于解析高斯机制的差分隐私深度学习分类方法
CN113239354A (zh) 一种基于循环神经网络的恶意代码检测方法及***
CN107579821A (zh) 密码字典生成方法及计算机可读存储介质
CN115099461A (zh) 基于双分支特征提取的太阳辐射预测方法及***
Zheng Network intrusion detection model based on convolutional neural network
Kumar et al. Wind speed prediction using deep learning-LSTM and GRU
CN116542701A (zh) 一种基于cnn-lstm组合模型的碳价预测方法及***
Qamar et al. Artificial neural networks: An overview
Wang et al. Graph interpolating activation improves both natural and robust accuracies in data-efficient deep learning
CN111353534A (zh) 一种基于自适应分数阶梯度的图数据类别预测方法
CN118035448A (zh) 基于伪标签去偏的引文网络中论文领域分类方法、装置及介质
CN111783688B (zh) 一种基于卷积神经网络的遥感图像场景分类方法
CN116318845B (zh) 一种正负样本比例不平衡条件下的dga域名检测方法
CN109977194A (zh) 基于无监督学习的文本相似度计算方法、***、设备及介质
Tirumala Exploring neural network layers for knowledge discovery
CN114881172A (zh) 一种基于加权词向量和神经网络的软件漏洞自动分类方法
CN114187966A (zh) 一种基于生成对抗网络的单细胞rna序列缺失值填补方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20201027

RJ01 Rejection of invention patent application after publication