CN113469357A - 一种人工神经网络到脉冲神经网络的映射方法 - Google Patents
一种人工神经网络到脉冲神经网络的映射方法 Download PDFInfo
- Publication number
- CN113469357A CN113469357A CN202110651765.1A CN202110651765A CN113469357A CN 113469357 A CN113469357 A CN 113469357A CN 202110651765 A CN202110651765 A CN 202110651765A CN 113469357 A CN113469357 A CN 113469357A
- Authority
- CN
- China
- Prior art keywords
- neural network
- artificial neural
- pulsed
- parameter
- quantization
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 135
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000013507 mapping Methods 0.000 title claims abstract description 20
- 238000013139 quantization Methods 0.000 claims abstract description 48
- 239000011159 matrix material Substances 0.000 claims abstract description 24
- 238000013138 pruning Methods 0.000 claims abstract description 19
- 230000008569 process Effects 0.000 claims abstract description 18
- 238000012360 testing method Methods 0.000 claims description 14
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000012546 transfer Methods 0.000 claims description 7
- 238000011002 quantification Methods 0.000 claims description 4
- 238000012421 spiking Methods 0.000 claims description 4
- 230000005540 biological transmission Effects 0.000 claims description 3
- 230000006835 compression Effects 0.000 claims description 3
- 238000007906 compression Methods 0.000 claims description 3
- 230000036540 impulse transmission Effects 0.000 claims description 3
- 238000012549 training Methods 0.000 abstract description 9
- 210000002569 neuron Anatomy 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000031018 biological processes and functions Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000012528 membrane Substances 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Probability & Statistics with Applications (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
本发明涉及神经网络技术领域,具体为一种人工神经网络到脉冲神经网络的映射方法。本发明通过对人工神经网络非结构化剪枝,获取随机稀疏的权值矩阵,再设定多个量化位数,使用K均值原型聚类初始化质心,确定量化阈值,测试人工神经网络的识别率并在不满足预期精度时对质心进行微调,对比后得出最佳量化位数。再使用最佳量化位数重复量化过程,设定脉冲化量化最大值,使用交叉熵评估量化前和量化后的序列相似性。得出交叉熵最小的最大值后,完成脉冲神经网络的脉冲化,最终实现从人工神经网络到脉冲神经网络的映射。相比现有技术本发明训练过程简单且映射过程中损失的精度低。
Description
技术领域
本发明涉及神经网络技术领域,具体为一种人工神经网络到脉冲神经网络的映射方法。
背景技术
人工神经网络(ANN)是由大量处理单元互联组成的非线性、自适应信息处理***,由大量的神经元即节点之间相互联接构成。每个节点代表一种特定的输出函数,称为激励函数。每两个节点间的连接都代表一个对于通过该连接信号的加权值,称之为权重,这相当于神经网络的记忆。网络的输出则根据网络的连接方式,权重值和激励函数的不同而不同。目前人工神经网络广泛应用于图像处理、自然语言处理等领域,拥有成熟的训练算法,模型性能更好,表现能力强。
脉冲神经网络(SNN)属于第三代神经网络,它仿照生物神经元的运作机制,使用最拟合生物神经元的模型来进行计算,弥合了神经科学和机器学习之间的差距,比传统人工神经网络更加强大。脉冲神经网络使用脉冲序列接受信息,脉冲是发生在时间点上的离散时间,而并非传统的连续值。神经元之间的通信也是通过脉冲来进行,一旦神经元达到了某一电位,即当膜电位大于它的阈值时,脉冲就会出现,每个峰值由代表生物过程的微分方程表示。随后达到电位的神经元会被重置。此外,脉冲神经网络通常是稀疏连接的,并会利用特殊的网络拓扑,具有功耗低、资源消耗少等特点。但由于脉冲不可微的特性,在不损失准确时间信息的前提下,不能使用梯度下降方法来对脉冲神经网络进行训练,因此当前实现人工神经网络转脉冲神经网络大多采用诸如STDP(Spike Timing Dependent Plasticity)等生物课解释性无监督学习方法,而该类型方法存在训练过程困难以及精度低的问题。
发明内容
针对上述存在问题或不足,为了解决现有人工神经网络转脉冲神经网络方法存在训练过程困难以及精度低的问题,本发明提供了一种人工神经网络到脉冲神经网络的映射方法。
一种人工神经网络到脉冲神经网络的映射方法,包括以下步骤:
S1、对目标人工神经网络进行剪枝。
针对目标人工神经网络参数矩阵的每个参数,根据目标人工神经网络的精度需求设定一个阈值TH,采用非结构化剪枝,删除对神经网络最终预测精度贡献小的冗余参数,以得到一个随机稀疏的参数矩阵。对于设定的阈值TH,若参数的绝对值大于阈值TH,则参数保留,若参数的绝对值小于阈值TH,则参数置0,即删除对目标人工神经网络最终预测精度贡献小的冗余参数。由于冗余参数出现位置随机,剪枝后得到一个随机稀疏的参数矩阵,此时参数矩阵使用稀疏矩阵的压缩存储方式进行存储。剪枝得到的小网络在精度上与原始网络相当,但运行速度更快,模型文件更小,从而降低计算与存储开销。
S2:对剪枝后的人工神经网络使用K均值原型聚类进行参数分类及量化。
根据预期精度设定一个量化位数n,n≥1,然后使用K均值原型聚类(K-means)对S1剪枝后的人工神经网络进行参数分类及量化。最终神经网络的每层参数都被分成2n个类别,每一类的质心值也被同时输出。其中n是预设的量化位数,从1开始依次增加,人工神经网络的卷积层越复杂,需要预先指定的量化位数也越大。
量化是一种近似的过程,以适度的误差为代价,使无限精度(或很高精度)的数值可以使用较少的位数表示。这里的量化是指所有的权值都从指定的一系列值中进行选择替代,即完成所有权值的数值共享。
S3:对剪枝后的人工神经网络进行参数替换。
对S1所得到的稀疏参数矩阵中的每个参数,都在S2中被分到一个具体的簇内。基于S2对每个参数的分类,将分在同一簇内的参数均替换成所属簇对应输出的质心值,以降低对存储容量的需求。
即确定对于每一个权值使用哪个量化输出代替值,这一步通常使用一维的K均值原型聚类确定。一个簇内的权值均共享一个值(质心值)。需要注意的是,一旦某个权值指定,使用量化输出的值进行量化,这一选择关系不再发生改变,即下一步量化输出微调,单个权值的量化误差变大。
S4:测试S3参数替换后人工神经网络的精度;
若精度满足性能指标,则进入S6;
若精度不满足性能指标,则根据S3替换的结果,对S2中通过K均值原型聚类得到的质心值进行微调。
微调过程:首先进行正常的前向传播和反向传播,获得参数对应的梯度和学习率;然后对属于同一类内所有参数对应的梯度依次进行求和、乘以学习率,再从原质心值中减去。微调完成后,S3得到的参数稀疏矩阵变成了一个稀疏矩阵加一个查找表,进一步降低了功耗,减少了资源消耗。
S5:对此时的人工神经网络再次进行精度测试。
对于S4得到的人工神经网络:如果精度满足性能指标,则进行下一步;如果精度仍不满足,返回S2,依次增大量化位数,循环迭代,直至精度满足性能指标。
S6:设定人工神经网络脉冲化最大值MAX,对人工神经网络进行脉冲化。
输入S5所得人工神经网络的测试数据,收集其每层的输出数据即待脉冲化数据,从0到待脉冲化数据的最大值之间指定一个值作为脉冲化最大值MAX,若待脉冲化数据超过当前指定的脉冲化最大值MAX,直接替换为当前指定的脉冲化最大值MAX,若小于当前指定的脉冲化最大值MAX的值,对待脉冲化数据进行等距无偏移量化,公式如下:
其中X为待脉冲化数据,T为脉冲化最大值MAX,F是脉冲化后可表示的最大值,F的大小是需求指定的脉冲周期数。由此可以得出量化后的脉冲神经网络脉冲传递参数的序列。对神经网路进行脉冲化,即从数值传递参数变为由脉冲传递参数,使用脉冲在时间维度上传递参数近似于对数值的等距无偏移量化。
S7:使用交叉熵评估S6脉冲化前后神经网络的序列相似性。
计算S6中设定的脉冲化最大值MAX下的交叉熵。交叉熵的计算方法如公式所示:
其中p(i)是S5所得人工神经网络的数值传递参数的序列,q(i)是S6所得脉冲神经网络的脉冲传递参数的序列。交叉熵公式用以判断p(i)和q(i)序列的相似性,公式计算结果越小,即表明两个序列越相近,脉冲化的效果也就越好。
S8:寻找最小的交叉熵对应的脉冲化最大值MAX并进行人工神经网络脉冲化。
将待脉冲化数据范围的所有值从小到大作为脉冲化最大值MAX重复S6到S7依次遍历,并选择最小的交叉熵所对应的脉冲化最大值MAX,再次进行人工神经网络脉冲化,实现从人工神经网络到脉冲神经网络的映射。
进一步的,所述S2中K均值原型聚类初始质心的获取采用均匀量化,即在参数的最大值和最小值之间均匀的进行量化输出。量化过程中通过K均值原型聚类获取初始质心的方法通常有三种实现方法,分别为均匀量化,随机量化和按密度量化;因均匀量化的初始化效果较好,在权值的最大值和最小值之间隔均匀的去量化输出,得到初始结果。
本发明通过将目标人工神经网络(已完成训练)的权重参数直接映射到脉冲神经网络中,代替脉冲神经网络的训练过程,解决脉冲神经网络难以进行训练的问题。具体包括依次剪枝、量化和脉冲化三个步骤,及该方法中各个超参数(剪枝阈值TH、量化位数和脉冲化最大值MAX)对映射结果的影响测试,在小幅度降低预测效果的前提下,保证了脉冲神经网络功耗低、资源消耗少的优秀特性。本发明结合人工神经网络的训练过程和脉冲神经网络的预测过程,尝试在人工神经元的高性能和脉冲神经元的低功耗中再次进行折中,将人工神经网络训练获得的高性能模型映射到脉冲神经元的低功耗前向传播过程中。相比现有技术本发明训练过程简单且映射过程中损失的精度低。
附图说明
图1是本发明的映射流程图;
图2是实施例人工神经网络的剪枝示意图;
图3是实施例人工神经网络参数量化的流程图;
图4是实施例实现参数量化的示意图;
图5是实施例人工神经网络进行脉冲化,映射到脉冲神经网络的流程图;
图6是实施例所得脉冲神经网络示意图。
具体实施方式
下面结合附图和实施例对本发明进行详细的描述,以便本领域的技术人员更好地理解本发明。需要特别提醒注意的是,在以下的描述中,当已知功能和设计的详细描述也许会淡化本发明的主要内容时,这些描述在这里将会被忽略。
为了测试本发明的转换效果,首先搭建了一个使用MNIST进行手写数字识别的人工神经网络做为待训练的目标人工神经网络,其网络结构如表(1)所示,该网络在MNIST训练集训练,测试集下测试,测试准确率为97.9%。
表(1):神经网络结构,其中c表示输出channel数量,k表示kernel尺寸,s表示stride
S1、对目标人工神经网络进行剪枝。
如图2所示,针对目标人工神经网络参数矩阵的每个参数,采用非结构化剪枝,删除对神经网络最终预测精度贡献小的冗余参数,以得到一个随机稀疏的参数矩阵。设定的阈值TH为0.02,若参数的绝对值大于阈值TH,则参数保留,若参数的绝对值小于阈值TH,则参数置0,即删除对目标人工神经网络最终预测精度贡献小的冗余参数。由于冗余参数出现位置随机,剪枝后得到一个随机稀疏的参数矩阵,此时参数矩阵使用稀疏矩阵的压缩存储方式进行存储。剪枝得到的小网络在精度上与原始网络相当,但运行速度更快,模型文件更小,从而降低计算与存储开销。经过测试,剪枝后人工神经网络的准确率为96.3%。
S2:对剪枝后的人工神经网络使用K均值原型聚类进行参数分类及量化。
实施例人工神经网络参数量化的流程图见图3。根据预期精度设定一个量化位数n,然后使用K均值原型聚类(K-means)对S1剪枝后的人工神经网络进行参数分类及量化。量化是一种近似的过程,以适度的误差为代价,使无限精度(或很高精度)的数值可以使用较少的位数表示。这里的量化是指所有的权值都从指定的一系列值中进行选择替代,即完成所有权值的数值共享。K均值原型聚类方法采用均匀量化,即在参数的最大值和最小值之间均匀的进行量化输出。最终神经网络的每层参数都被分成2n个类别,每一类的质心值也被同时输出。本实施例设置为n=4。
S3:对剪枝后的人工神经网络进行参数替换。
对S1所得到的稀疏参数矩阵中的每个参数,都在S2中被分到一个具体的簇。将分在同一簇的参数均替换成S2中这个簇所输出的质心值,以降低对存储容量的需求。
S4:测试S3参数替换后人工神经网络的精度。
若精度满足性能指标,则进入S6;
若精度不满足性能指标,则根据S3替换的结果,对S2中通过K均值原型聚类得到的质心值进行微调;
微调过程:首先进行正常的前向传播和反向传播,获得参数对应的梯度和学习率;然后对属于同一类内所有参数对应的梯度依次进行求和、乘以学习率,再从原质心值中减去;
微调完成后,S3得到的参数稀疏矩阵变成了一个稀疏矩阵加一个查找表;进一步降低了功耗,减少了资源消耗。实施例实现参数量化的示意图见图4。
S5:对此时的人工神经网络再次进行精度测试。
对于S4得到的人工神经网络进行测试,此时的准确率为96.7%,精度满足性能指标。
S6:设定人工神经网络脉冲化最大值MAX,对人工神经网络进行脉冲化。
实施例人工神经网络进行脉冲化,映射到脉冲神经网络的流程图见图5。输入S5所得人工神经网络的测试数据,收集其每层的输出数据即待脉冲化数据,从0到待脉冲化数据的最大值之间指定一个值作为脉冲化最大值MAX,若待脉冲化数据超过当前指定的脉冲化最大值MAX,直接替换为当前指定的脉冲化最大值MAX,若小于当前指定的脉冲化最大值MAX的值,对待脉冲化数据进行等距无偏移量化,公式如下:
其中X为待脉冲化数据,T为脉冲化最大值MAX,F是脉冲化后可表示的最大值,F的大小是需求指定的脉冲周期数,此处设定为256。由此可以得出量化后的脉冲神经网络脉冲传递参数的序列。对神经网路进行脉冲化,即从数值传递参数变为由脉冲传递参数,使用脉冲在时间维度上传递参数近似于对数值的等距无偏移量化。
S7:使用交叉熵评估S6脉冲化前后神经网络的序列相似性。
计算S6中设定的脉冲化最大值MAX下的交叉熵。交叉熵的计算方法如公式所示:
其中p(i)是S5所得人工神经网络的数值传递参数的序列,q(i)是S6所得脉冲神经网络的脉冲传递参数的序列。交叉熵公式用以判断p(i)和q(i)序列的相似性,公式计算结果越小,即表明两个序列越相近,脉冲化的效果也就越好。
S8:寻找最小的交叉熵对应的脉冲化最大值MAX并进行人工神经网络脉冲化。
将待脉冲化数据范围的所有值从小到大作为脉冲化最大值MAX重复S6到S7依次遍历,并选择最小的交叉熵所对应的脉冲化最大值MAX。在本实施例中,第一层的脉冲化最大值MAX为1.7853,第二层为8.1125,第三层为11.4399,第四层为7.1004,第五层为9.4372。再次进行人工神经网络脉冲化,实现从人工神经网络到脉冲神经网络的映射,示意图见图6。测试最终的脉冲神经网络的准确率为93.6%,达到目标精度需求,实现了人工神经网络到脉冲神经网络的高效转换。
综上可见,本发明的方法通过对人工神经网络非结构化剪枝,获取随机稀疏的权值矩阵,再设定多个量化位数,使用K均值原型聚类初始化质心,确定量化阈值,测试人工神经网络的识别率并在精度不符合预期时对质心进行微调,对比后得出最佳量化位数。再使用最佳量化位数重复量化过程,设定脉冲化量化最大值,使用交叉熵评估量化前和量化后的序列相似性。得出交叉熵最小的最大值后,完成脉冲神经网络的脉冲化,最终实现从人工神经网络到脉冲神经网络的映射。
Claims (2)
1.一种人工神经网络到脉冲神经网络的映射方法,其特征在于,包括以下步骤:
S1、对目标人工神经网络进行剪枝;
针对目标人工神经网络参数矩阵的每个参数,根据目标人工神经网络的精度需求设定一个阈值TH,采用非结构化剪枝,以得到一个随机稀疏的参数矩阵,此时参数矩阵使用稀疏矩阵的压缩存储方式进行存储;
S2:对剪枝后的人工神经网络使用K均值原型聚类进行参数分类及量化;
根据预期精度设定一个量化位数n,n≥1,然后使用K均值原型聚类对S1剪枝后的人工神经网络进行参数分类及量化;最终神经网络的每层参数都被分成2n个类别,每一类的质心值也被同时输出;
S3:对剪枝后的人工神经网络进行参数替换;
基于S2对每个参数的分类,将分在同一簇内的参数均替换成所属簇对应输出的质心值,以降低对存储容量的需求;
S4:测试S3参数替换后人工神经网络的精度;
若精度满足性能指标,则进入S6;
若精度不满足性能指标,则根据S3替换的结果,对S2中通过K均值原型聚类得到的质心值进行微调;
微调过程:首先进行正常的前向传播和反向传播,获得参数对应的梯度和学习率;然后对属于同一类内所有参数对应的梯度依次进行求和、乘以学习率,再从原质心值中减去;
微调完成后,S3得到的参数稀疏矩阵变成了一个稀疏矩阵加一个查找表;
S5:对此时的人工神经网络再次进行精度测试;
对于S4得到的人工神经网络:如果精度满足性能指标,则进行下一步;如果精度仍不满足,返回S2,依次增大量化位数,循环迭代,直至精度满足性能指标;
S6:设定人工神经网络脉冲化最大值MAX,对人工神经网络进行脉冲化;
输入S5所得人工神经网络的测试数据,收集其每层的输出数据即待脉冲化数据,从0到待脉冲化数据的最大值之间指定一个值作为脉冲化最大值MAX,若待脉冲化数据超过当前指定的脉冲化最大值MAX,直接替换为当前指定的脉冲化最大值MAX,若小于当前指定的脉冲化最大值MAX的值,对待脉冲化数据进行等距无偏移量化,公式如下:
其中X为待脉冲化数据,T为脉冲化最大值MAX,F是脉冲化后可表示的最大值,F的大小是需求指定的脉冲周期数;
由此得出量化后的脉冲神经网络脉冲传递参数的序列;
S7:使用交叉熵评估S6脉冲化前后神经网络的序列相似性;
计算S6中设定的脉冲化最大值MAX下的交叉熵,交叉熵的计算方法如公式所示:
其中p(i)是S5所得人工神经网络的数值传递参数的序列,q(i)是S6所得脉冲神经网络的脉冲传递参数的序列,交叉熵公式用以判断p(i)和q(i)序列的相似性;
S8:寻找最小的交叉熵对应的脉冲化最大值MAX并进行人工神经网络脉冲化;
将待脉冲化数据范围的所有值从小到大作为脉冲化最大值MAX重复S6到S7依次遍历,然后选择遍历后最小的交叉熵所对应的脉冲化最大值MAX,再次进行人工神经网络脉冲化,实现从人工神经网络到脉冲神经网络的映射。
2.如权利要求1所述人工神经网络到脉冲神经网络的映射方法,其特征在于:所述S2中K均值原型聚类的初始质心获取采用均匀量化。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110651765.1A CN113469357A (zh) | 2021-06-11 | 2021-06-11 | 一种人工神经网络到脉冲神经网络的映射方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110651765.1A CN113469357A (zh) | 2021-06-11 | 2021-06-11 | 一种人工神经网络到脉冲神经网络的映射方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113469357A true CN113469357A (zh) | 2021-10-01 |
Family
ID=77869703
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110651765.1A Pending CN113469357A (zh) | 2021-06-11 | 2021-06-11 | 一种人工神经网络到脉冲神经网络的映射方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113469357A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114997235A (zh) * | 2022-06-13 | 2022-09-02 | 脉冲视觉(北京)科技有限公司 | 基于脉冲信号的目标检测处理方法、装置、设备和介质 |
-
2021
- 2021-06-11 CN CN202110651765.1A patent/CN113469357A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114997235A (zh) * | 2022-06-13 | 2022-09-02 | 脉冲视觉(北京)科技有限公司 | 基于脉冲信号的目标检测处理方法、装置、设备和介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112633497B (zh) | 一种基于重加权膜电压的卷积脉冲神经网络的训练方法 | |
CN107688850B (zh) | 一种深度神经网络压缩方法 | |
CN109816026B (zh) | 卷积神经网络和脉冲神经网络的融合装置及方法 | |
US10984308B2 (en) | Compression method for deep neural networks with load balance | |
CN110070172B (zh) | 基于双向独立循环神经网络的序列预测模型的建立方法 | |
CN111860982A (zh) | 一种基于vmd-fcm-gru的风电场短期风电功率预测方法 | |
US20220114455A1 (en) | Pruning and/or quantizing machine learning predictors | |
Paupamah et al. | Quantisation and pruning for neural network compression and regularisation | |
CN112906828A (zh) | 一种基于时域编码和脉冲神经网络的图像分类方法 | |
CN110119760B (zh) | 一种基于层次化多尺度循环神经网络的序列分类方法 | |
CN114186672A (zh) | 一种用于脉冲神经网络的高效高精度训练算法 | |
CN114154401A (zh) | 基于机器学习和观测数据的土壤侵蚀模数计算方法及*** | |
CN115936070A (zh) | 一种低延时低功耗脉冲神经网络转换方法 | |
CN112232440A (zh) | 一种运用特异化神经元团实现脉冲神经网络信息记忆和区分的方法 | |
CN113469357A (zh) | 一种人工神经网络到脉冲神经网络的映射方法 | |
Goswami et al. | Automatic object recognition from satellite images using artificial neural network | |
CN115345222A (zh) | 一种基于TimeGAN模型的故障分类方法 | |
CN117034060A (zh) | 基于ae-rcnn的洪水分级智能预报方法 | |
CN117458480A (zh) | 基于改进lof的光伏发电功率短期预测方法及*** | |
CN117233633A (zh) | 一种基于AGA-Elman算法的电池健康度预测方法 | |
CN111260054A (zh) | 一种提高联想记忆脉冲神经网络准确度的学习方法 | |
CN115952915A (zh) | 一种使用模糊熵分类的能耗预测优化方法 | |
CN114004295B (zh) | 一种基于对抗增强的小样本图像数据拓展方法 | |
CN113111774B (zh) | 一种基于主动增量式微调的雷达信号调制方式识别方法 | |
CN115861779A (zh) | 一种基于有效特征表示的无偏场景图生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20211001 |
|
RJ01 | Rejection of invention patent application after publication |