CN113255905A - 脉冲神经网络中神经元的信号处理方法及该网络训练方法 - Google Patents

脉冲神经网络中神经元的信号处理方法及该网络训练方法 Download PDF

Info

Publication number
CN113255905A
CN113255905A CN202110808342.6A CN202110808342A CN113255905A CN 113255905 A CN113255905 A CN 113255905A CN 202110808342 A CN202110808342 A CN 202110808342A CN 113255905 A CN113255905 A CN 113255905A
Authority
CN
China
Prior art keywords
neuron
neural network
loss
pulse
membrane voltage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110808342.6A
Other languages
English (en)
Other versions
CN113255905B (zh
Inventor
西克·萨迪克·尤艾尔阿明
邢雁南
魏德尔·菲利普
鲍尔·菲利克斯·克里斯琴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Shizhi Technology Co ltd
Original Assignee
Chengdu Shizhi Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Shizhi Technology Co ltd filed Critical Chengdu Shizhi Technology Co ltd
Priority to CN202110808342.6A priority Critical patent/CN113255905B/zh
Publication of CN113255905A publication Critical patent/CN113255905A/zh
Priority to PCT/CN2021/123091 priority patent/WO2023284142A1/zh
Priority to US18/251,000 priority patent/US20230385617A1/en
Application granted granted Critical
Publication of CN113255905B publication Critical patent/CN113255905B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Neurology (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种脉冲神经网络中神经元的信号处理方法及该网络训练方法。不同于目前普遍使用的单脉冲机制,其被设计成多脉冲机制。该神经元的信号处理方法包括:接收步骤:至少一个所述神经元接收至少一路输入脉冲序列;累积步骤:基于所述至少一路输入脉冲序列加权求和,获得膜电压;激活步骤:当所述膜电压超过阈值后,基于所述膜电压与所述阈值的比值确定该神经元激发的脉冲的幅度。为解决日益增长的配置参数规模带来的训练算法耗时、低效问题,通过多脉冲机制、周期指数函数代理梯度、添加抑制神经元活跃程度作为损失等技术手段,实现了脉冲神经网络高效训练,仍能维持拟神态硬件低功耗,还带来了精度、收敛速度提升等方面的技术效果。

Description

脉冲神经网络中神经元的信号处理方法及该网络训练方法
技术领域
本发明涉及一种脉冲神经元,具体涉及一种脉冲神经网络中神经元的信号处理方法及该网络训练方法。
背景技术
脉冲神经网络(spiking neural network, SNN)是当前最佳的模拟生物神经工作原理的神经网络。但是限于其内在的不连续性和非线性机制,很难为SNN构造出高效的监督学习算法,而这又是该领域一个十分重要的课题。脉冲生成函数是不可微分的,所以传统标准的误差反向传播算法不能与SNN直接兼容。一种流行的途径是使用代理梯度去解决这个问题,比如现有技术1:
现有技术1:Shrestha S B, Orchard G. Slayer: Spike layer errorreassignment in time[J]. arXiv preprint arXiv:1810.08646, 2018.
然而这类技术在每个时间步上仅支持单脉冲机制,对于诸如DVS数据等具有极高时间分辨率输入的脉冲数据,使用单脉冲机制将导致极大的、不可承受的模拟时间步数量,这将会导致面对复杂任务时,尤其是面对日益增长的配置参数规模,单脉冲机制的网络训练方式将变得极其低效。
为了解决/缓解上述技术问题,本发明提出一种在一个模拟时间步上能产生多个脉冲的自动可微分脉冲神经元模型和训练方法,该种模型/训练方法能够极大提升训练效率。
发明内容
为提升脉冲神经网络训练效率,本发明通过如下方式实现该目的:
一种脉冲神经网络中神经元的信号处理方法,该脉冲神经网络包括若干层,每一所述的层包括若干所述的神经元,其特征在于,该信号处理方法包括如下步骤:
接收步骤:至少一个所述神经元接收至少一路输入脉冲序列;
累积步骤:基于所述至少一路输入脉冲序列加权求和,获得膜电压;
激活步骤:当所述膜电压超过阈值后,基于所述膜电压与所述阈值的比值确定该神经元激发的脉冲的幅度。
在某类实施例中:所述基于所述膜电压与所述阈值的比值确定该神经元激发的脉冲的幅度,具体为:在单个模拟时间步,激发的脉冲的幅度与所述膜电压与所述阈值的比值相关。
在某类实施例中:所述基于所述膜电压与所述阈值的比值确定该神经元激发的脉冲的幅度,具体为:
在单个模拟时间步,激发的脉冲的幅度与单位脉冲幅度的比值,等于所述膜电压与所述阈值的比值向下取整的值。
在某类实施例中:所述的基于所述至少一路输入脉冲序列加权求和,获得膜电压,具体包括:基于后突触电位核与每路输入脉冲序列卷积后加权求和,获得膜电压。
在某类实施例中:所述的基于所述至少一路输入脉冲序列加权求和,获得膜电压,具体包括:基于后突触电位核与每路输入脉冲序列卷积后加权求和,以及不应期核与所述神经元输出脉冲序列的卷积,获得膜电压。
在某类实施例中:
Figure 523007DEST_PATH_IMAGE001
其中,𝜐(𝑡) 是神经元膜电压,𝜔𝑗是第𝑗个突触权重,𝜖(𝑡)是后突触电位核,𝑠𝑗 (𝑡)是第𝑗个输入脉冲序列,‘*’为卷积操作,t 为时间。
在某类实施例中:
Figure 486152DEST_PATH_IMAGE002
其中, 𝜐(𝑡)是神经元膜电压,𝜂(𝑡)是不应期核,𝑠'(𝑡)是所述神经元输出脉冲序列,𝜔𝑗是第𝑗个突触权重,𝜖(𝑡)是后突触电位核,
Figure 141256DEST_PATH_IMAGE003
是第j个输入脉冲序列,‘*’为卷积操作,t为时间。
在某类实施例中:其中的后突触电位核
Figure 474148DEST_PATH_IMAGE004
,突触动态函数
Figure 462089DEST_PATH_IMAGE005
,膜动态函数
Figure 222235DEST_PATH_IMAGE006
Figure 863169DEST_PATH_IMAGE007
是突触时间常数、
Figure 671856DEST_PATH_IMAGE008
是膜时间常数,t 为时间。
不应期核
Figure 717566DEST_PATH_IMAGE009
,𝜃为阈值,当𝜐(𝑡) ≥ 𝜃时,𝑠'(𝑡)= ⌊𝜐(𝑡)/𝜃⌋ ,否则𝑠'(𝑡) = 0。
一种脉冲神经网络训练方法,所述脉冲神经网络包括若干层,每一所述的层包括若干神经元,其特征在于:
所述神经元在网络训练中处理信号时,包括如下步骤:
接收步骤:至少一个所述神经元接收至少一路输入脉冲序列;
累积步骤:基于所述至少一路输入脉冲序列加权求和,获得膜电压;
激活步骤:当所述膜电压超过阈值后,基于所述膜电压与所述阈值的比值确定该神经元激发的脉冲的幅度;
所述脉冲神经网络的总损失包括第一损失和第二损失,其中所述第一损失反映的是脉冲神经网络的预期输出结果与脉冲神经网络实际输出结果之间的差距,所述第二损失反映的是神经元的活性或活动程度。
在某类实施例中:该训练方法还包括:
检测输出迹的峰值;
在输出迹的所述峰值对应的时刻,计算第一损失;
计算第二损失,该第二损失反映神经元的活性/活动程度;
合并第一损失和第二损失至总损失中;
依据总损失的对应的函数,采用误差反向传播算法对所述神经网络进行训练。
在某类实施例中:所述合并第一损失和第二损失至总损失中,具体为:
Figure 117455DEST_PATH_IMAGE010
,其中参数𝛼是一个调节参数,总损失为
Figure 747150DEST_PATH_IMAGE011
,第一损失为
Figure 654801DEST_PATH_IMAGE012
,第二损失为
Figure 584711DEST_PATH_IMAGE013
在某类实施例中:所述第二损失为
Figure 391386DEST_PATH_IMAGE014
其中,T为时长,𝑁neurons为神经元集群规模,
Figure 242799DEST_PATH_IMAGE015
,𝐻(∙)是Heaviside函数,
Figure 721185DEST_PATH_IMAGE016
是在t时间步的第i个神经元。
在某类实施例中:所述第一损失为
Figure 738557DEST_PATH_IMAGE017
其中,当类的标签c与当前输入相符时,𝜆c = 1,否则𝜆c = 0; 是神经网络预测当前输入属于分类c的相对的可能性大小指示。
在某类实施例中:使用周期指数函数或Heaviside函数作为代理梯度。
一种训练设备,包括存储器,和耦合至该存储器至少一个处理器,其特征在于:其被配置为可以执行上述任意一项所包括的神经网络训练方法。
一种存储设备,其特征在于:其被配置为存储有通过编程语言将上述任意一项所包括的神经网络训练方法编写而成的源代码,或/和可以直接在机器上运行的机器代码。
一种神经网络加速器,其特征在于:其上部署有上述任意一项所包括的神经网络训练方法所训练出的神经网络配置参数。
一种拟神态芯片,其特征在于:其上部署有上述任意一项所包括的神经网络训练方法所训练出的神经网络配置参数。
一种神经网络配置参数部署方法,其特征在于:将上述任意一项所包括的神经网络训练方法所训练出的神经网络配置参数部署至神经网络加速器中。
一种神经网络配置参数部署设备,其特征在于:其上存储有将上述任意一项所包括的神经网络训练方法所训练出的神经网络配置参数,并通过信道将配置参数传输至神经网络加速器。
除上述目的外,相比于现有技术,本发明的某些不同的实施例还具有如下优点之一或多个:
1、除了提升训练速度外,对于相同的模型和训练方法,还可以提升模型/训练方法的精度;
2、抑制神经元的活跃程度,保持计算的稀疏性,降低拟神态芯片的功耗。
3、脉冲节拍的学习可以更快速收敛。
4、计算膜电压时,在一个时间周期通过卷积操作的计算量远比逐个时间步计算量要低。
以上披露的技术方案、技术特征、技术手段,与后续的具体实施方式部分中所描述的技术方案、技术特征、技术手段之间可能不完全相同、一致。但是该部分披露的这些新的技术方案同样属于本发明文件所公开的众多技术方案的一部分,该部分披露的这些新的技术特征、技术手段与后续具体实施方式部分公开的技术特征、技术手段是以相互合理组合的方式,披露更多的技术方案,是具体实施方式部分的有益补充。与此相同,说明书附图中的部分细节内容可能在说明书中未被明确描述,但是如果本领域技术人员基于本发明其它相关文字或附图的描述、本领域的普通技术知识、其它现有技术(如会议、期刊论文等),可以推知其技术含义,那么该部分未明确被文字记载的技术方案、技术特征、技术手段,同样属于本发明所披露的技术内容,且如上描述的一样可以被用于组合,以获得相应的新的技术方案。本发明任意位置所披露的所有技术特征所组合出的技术方案,用于支撑对技术方案的概括、专利文件的修改、技术方案的披露。
附图说明
图1是SNN神经网络架构示意图;
图2是单脉冲神经元信号处理机制示意图;
图3是多脉冲神经元信号处理机制示意图;
图4是代理梯度的函数图;
图5是训练过程中损失函数构造流程图;
图6是输出迹与峰值时刻示意图;
图7是神经元被训练后在精确时刻发射脉冲与神经元集群被训练后生成图样示意图。
具体实施方式
本发明中任意位置出现所述的“脉冲”,均指的是拟神态领域中的spike,其也被称为“尖峰”,并非一般电路里的Pulse。所述的训练算法,可以以计算机代码的形式编写成计算机程序,存储在存储介质中,并被计算机(如具有高性能GPU设备、FPGA、ASIC等)处理器读取,在训练数据(各种各样的数据集)、训练算法的训练下,获得用于可部署至模拟神经形态设备(如类脑芯片)中的神经网络配置参数。配置有该参数的拟神态器件将获得推理能力,根据传感器(如感知光线明暗变化的DVS、专用的声音信号采集设备等)获取的信号,拟神态器件对其进行推理,并输出(比如导线、无线通信模块等)推理结果至其它外部电子设备(如MCU等),实现联动效果。对于下文未详细披露与神经网络相关的技术方案和细节,一般均属于本领域的常规技术手段/公知常识,由于篇幅限制,本发明不对其详细介绍。文中的“基于…”或类似表述,表明至少利用了这里所述的技术特征来达到某个目的,这并不暗示仅仅只是利用了所述的技术特征,其可能还包括其它的技术特征,尤其是权利要求中。除非是除法含义,本发明中任意位置处的“/”均表示逻辑“或”。
SNN与传统的人工神经网络具有相似的拓扑结构,但是却拥有截然不同的信息处理机制。参考图1所示的SNN网络结构,在采集到语音信号后,经过编码层(包含若干编码神经元)对语音信号编码后,编码神经元将输出脉冲传递给下一层的隐藏层。隐藏层包括若干神经元(图中以圆圈示意),每个神经元对输入的每路脉冲序列根据突触权重进行加权求和,然后基于激活(也称激励)函数输出脉冲序列,并传递至下一层。图中所示的仅仅是包含一个隐藏层的网络结构,网络可以被设计具有多层的隐藏层。最后,在网络的输出层输出结果。
1、神经元模型
神经元的模型是神经网络的基础单元,利用该基础单元可以构建出不同的神经网络架构,本发明并非旨在面对特定的网络架构,而是任何利用该神经元模型的SNN。根据数据集和训练/学习算法,对具有特定结构的网络模型进行训练后,获得学习后的神经网络配置参数。部署该训练好的配置参数的神经网络加速器(如类脑芯片),对于任意的输入,比如声音、图像信号等,神经网络可以轻松完成推理工作,实现人工智能。
在某类实施例中,LIF神经元模型使用突触时间常数
Figure 683510DEST_PATH_IMAGE007
、膜时间常数
Figure 597719DEST_PATH_IMAGE018
。神经元的亚阈值动态特性可以使用如下公式描述:
Figure 348638DEST_PATH_IMAGE019
其中,
Figure 564724DEST_PATH_IMAGE020
Figure 70792DEST_PATH_IMAGE021
均为导数/微商的记法,即
Figure 194999DEST_PATH_IMAGE022
Figure 749609DEST_PATH_IMAGE023
;𝜐(𝑡)是膜电压,
Figure 774196DEST_PATH_IMAGE024
是突触电流,𝜔𝑗是第𝑗个突触权,是输入脉冲序列(train)中的第𝑗个/路(“/”为逻辑“或”),t为时间。
为了进一步提升模拟效率,在某类实施例中,本发明通过如下脉冲响应(SRM)模型模拟LIF神经元:
Figure 90646DEST_PATH_IMAGE025
其中:后突触电位(PSP,post synaptic potential)核
Figure 200684DEST_PATH_IMAGE026
,突触动态函数
Figure 558985DEST_PATH_IMAGE027
,膜动态函数
Figure 611648DEST_PATH_IMAGE028
,不应期核(refractorykernel)
Figure 833419DEST_PATH_IMAGE029
,其同样属于负指数核函数且带有与膜电压(membranepotential)一样的时间常数
Figure 368437DEST_PATH_IMAGE008
,“*”为卷积操作,j是计数标号,𝑠'或𝑠'(𝑡)均为神经元输出脉冲序列,t为时间。即,基于后突触电位核与每路输入脉冲序列卷积后加权求和,以及不应期核与所述神经元输出脉冲序列的卷积,获得膜电压。
在某替代实施例中,非泄露IAF(Integrate And Fire)神经元为:
Figure 327166DEST_PATH_IMAGE030
其中:后突触电位核
Figure 765494DEST_PATH_IMAGE031
,突触动态函数
Figure 659631DEST_PATH_IMAGE032
,膜动态函数
Figure 242797DEST_PATH_IMAGE028
,“*”为卷积操作,j是计数标号。即,基于后突触电位核与每路输入脉冲序列卷积后加权求和,获得膜电压。
在传统的SNN解决方案中,对于每个时间步,都会循环使用脉冲激励函数去计算膜电压,这是一种耗时的操作。然而在本发明中,比如针对100个时间步,通过上述的核函数对这100个时间步的输入脉冲进行卷积,由此可以获得针对这100个时间步对应的膜电压,由此极大地提升了神经元的信息处理效率。
传统LIF模型中,在膜电压超过阈值𝜃后就会被重置至静息电位(restingpotential)。参考图2,对于一个单脉冲机制的神经元,其接收多路/至少一路脉冲序列(前脉冲)𝑠𝑗,在突触权重𝜔𝑗的加权下求和,然后获得的膜电压与阈值𝜃相比较,如果超出了该阈值,神经元就在该时间步(t1~t4)产生一个后脉冲,所有的生成的脉冲均具有统一的固定单位幅度,构成神经元输出脉冲序列,这就是所谓的“单脉冲机制”。
通常现有技术中,在单个模拟时间步(time step)中并不会使用后文所述的“多脉冲”机制,尤其是时间步足够小时可以不需要多脉冲机制。但是更小时间步的单脉冲机制意味着大量的、不可承受的模拟时间步数量,这使得训练算法极其低效。
然而在某类实施例中,我们会减去一个阈值𝜃,该阈值是一个固定值,在某些实施例中也可设置成动态值。如果膜电压超过了N𝜃,这个神经元就产生N倍单位脉冲幅度的脉冲(可以形象称之为N个脉冲、多脉冲,指的是同一时间步上振幅的叠加),膜电压就按比例地减去,其中N是一个正整数值。这样做的好处是可以提升优化模拟的时间和计算效率。神经元输出脉冲序列用数学语言描述即为:
Figure 880583DEST_PATH_IMAGE033
即,在某类实施例中,当神经元的膜电压满足一定条件后,在一个模拟的时间步中依据膜电压与阈值的关系,决定生成的脉冲的幅度,即本发明的“多脉冲”(multi-spikes)机制(这里的“多”脉冲,可以理解成多个单位幅度脉冲叠加在同一个时间步上)。具体的多脉冲机制生成的脉冲幅度,可以是根据膜电压与固定值(如阈值)的比值关系来确定,比如可以是上述公式中𝜐(𝑡)/𝜃的高斯函数(向下取整),也可以是某种其它函数变换关系,比如高斯函数向上取整,或前述取整后数值的某种线性、非线性变换,即在单个模拟时间步,激发的脉冲的幅度与所述膜电压与所述阈值的比值相关。此处的“
Figure 265428DEST_PATH_IMAGE034
”含义为具有单位幅度的脉冲(即单位脉冲)。即上述公式披露了:在单个模拟时间步,激发的脉冲的幅度与单位脉冲幅度的比值,等于所述膜电压与所述阈值的比值向下取整的值。
参考图3,与单脉冲机制神经元不同,在接收至少一路/个前脉冲(输入脉冲序列)后,如果神经元的膜电压超过了阈值𝜃若干倍,那么神经元在该时间步(t1~t4)就产生单位振幅若干倍(或与该倍数相关的)高度的后脉冲,构成神经元输出脉冲序列。
这种产生多脉冲的机制允许在模拟时间步时更具鲁棒性。这种机制带来的好处还包括在模拟中可以选择相对更大的时间步。在实践中,我们发现一些神经元不时就会产生这种所谓的多脉冲。
以上描述的是在训练设备中的训练阶段/方法,神经元的信号处理方法。应注意到,在拟神态硬件(如类脑芯片)中,并不存在(模拟)时间步的概念,且无法生成上述的“多脉冲”,因此在实际的拟神态硬件中,前述的振幅角度的多脉冲会以时间轴上连续的多个(等于前述的单位振幅倍数)脉冲的形式出现。比如,在训练算法中生成幅度为5个单位的脉冲,对应地,在拟神态器件中连续生成5个幅度固定的脉冲。
综上,上述公开了一种脉冲神经网络中神经元的信号处理方法,该脉冲神经网络包括若干层,所述的每一层包括若干所述的神经元,该信号处理方法包括如下步骤:
接收步骤:至少一个所述神经元接收至少一路输入脉冲序列;
累积步骤:基于所述至少一路输入脉冲序列加权求和,获得膜电压;
激活步骤:当所述膜电压超过阈值后,基于所述膜电压与所述阈值的比值确定该神经元激发的脉冲的幅度。
以上神经元的信号处理方式,可以作为脉冲神经网络训练方法的一个基本模块/步骤而存在。脉冲神经网络中可以包括若干上述的神经元,并由此构成若干网络的层(layer)。
事实上,在神经网络的推理阶段同样可以应用上述神经元的信号处理方法。
上述神经元模型可以被应用于各种各样的神经网络架构中,比如已有的各种网络架构、某种全新的神经网络架构,本发明对具体的神经网络的架构不做限定。
2、代理梯度
网络训练阶段,需要将网络预测的误差传递至网络各层,以调整权重等配置参数,是的网络的损失函数值降到最低,这就是网络的误差反向传播训练方法。不同的训练方法会导致不同的网络训练性能、效率,现有技术中存在不少训练方案,但是这些训练方法基本都会基于梯度的概念,尤其是传统的ANN网络。为此,本发明中脉冲神经网络训练方法涉及如下技术手段:
为解决SNN脉冲梯度的不可导问题,本发明使用了代理梯度(surrogategradient)方案。在某类实施例中,参考图4,为适应神经元的多脉冲行为,方案在训练过程中的反向传播阶段选用周期指数函数作为代理梯度,本发明对具体的周期指数函数的参数不做限定。当膜电压超过神经元的阈值N(≥1)倍,这个周期指数函数就发出尖峰。梯度函数(gradient function)可以在一个神经元将要发出脉冲或已发出脉冲时,最大化参数的影响,且是周期指数函数的一个变体(variant)。
周期指数函数的极简形式是图4中的Heaviside函数。该Heaviside函数类似ReLU单元,其具有有限范围的膜电压且梯度为0,这将可能阻止神经网络以低水平活动学习。在某个替代的实施例中,在训练过程中的反向传播阶段,使用上述Heaviside函数作为代理梯度。
上述代理梯度方案可以被应用于各种反向传播训练模型中,比如某种全新的训练模型,本发明对具体的训练方案不做限定。
3、损失函数
在脉冲神经网络训练方法中,一般会涉及到损失函数,这是对当前网络的训练结果的一种评价指标。损失值越大,代表该网络性能越差,反之则越好。本发明中脉冲神经网络训练方法涉及如下技术手段:
一种脉冲神经网络训练方法,所述脉冲神经网络包括若干层,每一所述的层包括若干神经元,其特征在于:
所述神经元在网络训练中处理信号时,包括如下步骤:
接收步骤:至少一个所述神经元接收至少一路输入脉冲序列;
累积步骤:基于所述至少一路输入脉冲序列加权求和,获得膜电压;
激活步骤:当所述膜电压超过阈值后,基于所述膜电压与所述阈值的比值确定该神经元激发的脉冲的幅度;
所述脉冲神经网络的总损失包括第一损失和第二损失,其中所述第一损失反映的是脉冲神经网络的预期输出结果与脉冲神经网络实际输出结果之间的差距,所述第二损失反映的是神经元的活性或活动程度。
在分类任务中,一般地,对每个输出神经元计算采样长度内(over the samplelength)输出(outputs)的和的交叉熵,就可以决定输出的类/class。虽然这样会有不错的分类精度,但是在给定时刻的输出迹(output trace)的幅度并不代表着网络预测。换言之,这种做法在流(steaming)模式下行不通。为此,参考图 5我们设计了全新的总损失函数
Figure 554634DEST_PATH_IMAGE035
和脉冲神经网络训练方法,所述脉冲神经网络的总损失包括第一损失和第二损失,其中所述第一损失反映的是脉冲神经网络的预期输出结果与脉冲神经网络实际输出结果之间的差距,所述第二损失反映的是神经元的活性/活动程度。具体包括:
Step 31:检测输出迹的峰值;
Step 33:在输出迹的所述峰值对应的时刻,计算第一损失
Figure 860982DEST_PATH_IMAGE036
。在某类具体实施例中,第一损失是根据交叉熵损失(cross entropy loss)函数来确定的。具体地,该交叉熵损失函数为:
Figure 332152DEST_PATH_IMAGE037
其中,当类的标签c(也即分类c)与当前输入相符时,
Figure 368241DEST_PATH_IMAGE038
,否则
Figure 338602DEST_PATH_IMAGE039
Figure 899290DEST_PATH_IMAGE040
是神经网络预测当前输入属于分类c的相对的可能性大小的指示(比如概率/几率或其某种函数映射值)。第一损失反映的是脉冲神经网络的预期输出结果与脉冲神经网络实际输出结果之间的差距。
输出迹的所述峰值对应的时刻,可以被称为峰值时刻
Figure 144458DEST_PATH_IMAGE041
,参考图6,该时刻下能够最大程度激活输出迹。
在某类具体实施例中,上述神经网络预测当前输入属于分类c的相对的可能性大小的指示
Figure 972736DEST_PATH_IMAGE040
可以通过softmax函数来计算:
Figure DEST_PATH_IMAGE042
其中,
Figure 753479DEST_PATH_IMAGE043
Figure 535884DEST_PATH_IMAGE044
均是神经网络输出的logits值,i是第i个分类的计数标记,
Figure 850322DEST_PATH_IMAGE043
是输入数据属于分类c的分数,
Figure 267528DEST_PATH_IMAGE045
是输入数据属于第i个分类的分数,e为自然对数函数的底数,分母为对全部的分类对应的
Figure 468440DEST_PATH_IMAGE046
进行求和。
对于时域任务,输入
Figure 439938DEST_PATH_IMAGE047
,神经网络的输出
Figure 731635DEST_PATH_IMAGE048
(logits值)是时长T上的时间序列。t时刻的神经网络输出:
Figure 268927DEST_PATH_IMAGE049
其中,
Figure 79888DEST_PATH_IMAGE050
是神经网络变换,
Figure 37218DEST_PATH_IMAGE051
是神经网络的配置参数,
Figure 959037DEST_PATH_IMAGE052
t时刻网络的内部状态。
对于尖峰-损失(peak-loss),本发明把每个输出迹的尖峰送入softmax函数,并且所述尖峰是通过如下方式得到的:
Figure 881994DEST_PATH_IMAGE053
其中
Figure 642619DEST_PATH_IMAGE054
即上述的峰值时刻,参考图6,是能够最大激活输出迹的时刻。
申请人发现,LIF神经元在学习的过程中的活动可以急剧地变化。这可能出现在每个时间步上都以高速率发送脉冲而潜在地消除了使用脉冲神经元的优势,因而不再具有稀疏性。这可能会导致拟神态器件实施这样的网络后却具有较高的能耗。
Step 35:计算第二损失
Figure 57551DEST_PATH_IMAGE055
,该第二损失反映神经元的活性/活动程度。
为了抑制/限制神经元的活性/活动而依然保持稀疏活动,在总损失
Figure 484859DEST_PATH_IMAGE056
中还包括第二损失
Figure 373574DEST_PATH_IMAGE055
,总损失
Figure 198442DEST_PATH_IMAGE057
是合并了/包括第一损失
Figure 428566DEST_PATH_IMAGE058
和第二损失
Figure 659565DEST_PATH_IMAGE055
后的损失。第二损失也称为激活损失,是为了惩罚激活过多的神经元而设置的损失。
可选地,第二损失定义如下:
Figure 557114DEST_PATH_IMAGE059
,该第二损失取决于具有
Figure 116665DEST_PATH_IMAGE060
规模的神经元集群(population)响应具有T时长的输入而产生的总脉冲超出数(total excess number of spikes)
Figure 771768DEST_PATH_IMAGE061
,其中
Figure 806458DEST_PATH_IMAGE062
,此处的
Figure 230617DEST_PATH_IMAGE063
是Heaviside函数,
Figure 898752DEST_PATH_IMAGE016
是在t时间步的第i个神经元。
Figure 572310DEST_PATH_IMAGE061
也即在每个时间箱(bin)中所有超过1的神经元N i 的脉冲的和。
Step 37: 合并第一损失
Figure 177735DEST_PATH_IMAGE064
和第二损失
Figure 282832DEST_PATH_IMAGE055
至总损失
Figure 417141DEST_PATH_IMAGE056
中。
在某类实施例中,上述合并方式为:
Figure 843574DEST_PATH_IMAGE065
,其中参数𝛼是一个调节参数,可选地其等于0.01。在可替代的实施例中,上述合并方式还包括其它任何合理的将第二损失考虑在内的方式,比如以非线性方式合并第一损失和第二损失。
这里的总损失与第一损失和第二损失,均指的是对应的损失函数的值。这些损失均是根据对应的损失函数,如
Figure 211278DEST_PATH_IMAGE066
,计算得出的。
Step 39:依据总损失对应的函数
Figure 672346DEST_PATH_IMAGE067
,采用误差反向传播算法对神经网络进行训练。
时序反向传播算法(Backpropagation through time,BPTT),是一种本领域所熟 知的基于梯度的神经网络训练(有时也称学习)方法。通常根据损失函数(本发明中是总损 失函数
Figure 476092DEST_PATH_IMAGE068
)值的大小来反馈调节神经网络的权重(weights)等配置参数,最后使得损失函 数的值朝着最小化方向优化,完成学习/训练过程。
对于本发明,任何合理的BPTT算法均可适用于上述训练,本发明对于BPTT算法的具体的形式不做限定。
虽然以上各个Step后均辅以数字区分,但是这些数字的大小并不暗示绝对的步骤执行顺序,并且数字之间差值也不暗示其还可能存在的其它步骤的数量。
4、神经网络相关产品
除了前述的神经网络架构、训练方法外,本发明还披露如下与神经网络相关的产品。限于篇幅,前述的神经网络架构、训练方法此处不再赘述。以下均采用引用的方式,将前述的全部神经网络架构及其训练方法中的任意一种或多种,包含至相关的产品中,并作为产品的一部分。
一种训练设备,包括存储器,和耦合至该存储器至少一个处理器,其被配置为可以执行上述任意一项所包括的神经网络训练方法。
训练设备可以是普通的计算机、服务器、专用于机器学习的训练设备(如包括高性能GPU的计算设备)、高性能计算机,也可以是FPGA设备、ASIC设备等。
一种存储设备,其被配置为存储有通过编程语言将上述任意一项所包括的神经网络训练方法编写而成的源代码,或/和可以直接在机器上运行的机器代码。
该存储设备包括但不限于RAM、ROM,磁盘,固态硬盘、光盘等记忆载体,其有可能是训练设备的一部分,也有可能与训练设备是远程分离的。
一种神经网络加速器,其上部署有上述任意一项所包括的神经网络训练方法所训练出的神经网络配置参数。
神经网络加速器是一种用于加速神经网络模型计算的硬件设备,其可能是一种协处理器而被配置在CPU的一侧,而被配置为执行特定的任务,如诸如关键词检测等基于事件触发的检测。
一种拟神态芯片,其上部署有上述任意一项所包括的神经网络训练方法所训练出的神经网络配置参数。
拟神态芯片/类脑芯片,即模拟生物神经元形态工作方式而开发出来的芯片,通常其是基于事件触发的,具有低功耗、低延迟响应、无隐私泄露的特点。现有的拟神态芯片有Intel的Loihi、IBM的TrueNorth、Synsense的Dynap-CNN等。
一种神经网络配置参数部署方法,将上述任意一项所包括的神经网络训练方法所训练出的神经网络配置参数部署至神经网络加速器中。
借助于专用的部署软件,该部署阶段将训练阶段生成的配置数据(其可以是直接存储于训练设备中,也可以是存储于未示出的专用的部署设备)通过信道(如线缆、各种类型的网络等)传输至神经网络加速器(如人工智能芯片、混合信号类脑芯片)的存储单元,如模拟突触的存储单元等。如此即可完成神经网络加速器的配置参数部署流程。
一种神经网络配置参数部署设备,其上存储有将上述任意一项所包括的神经网络训练方法所训练出的神经网络配置参数,并通过信道将配置参数传输至神经网络加速器。
5、性能测试
首先,本发明所提出的多脉冲机制,并不会影响网络模型的正常功能。为验证该结论,作为举例,利用现有技术1中所述的网络和训练方法,申请人重复了现有技术1中的脉冲图样(pattern)任务,该重复验证模型中包括了250个输入神经元以接收随机/冻结输入,以及25个隐藏神经元以学习精确脉冲节拍(times)。参考图7的A部分,SNN能够在大约400个世代(epochs)后,即可完成精确脉冲节拍,而原模型则需要739个世代才能到达收敛状态。
同样地,除了脉冲节拍可以被精确地学习外,为了进一步验证脉冲数量也能被准确学习,与先前的实验类似,我们这次以RGB图像的图样去训练神经元集群去发射脉冲,目标图像具有3通道的350*355像素,且定义第一维度为时间,其它维度为神经元。由此,我们训练1065个神经元去发射脉冲以反映所有3个通道的像素值,并把它们输出的脉冲序列绘制成RGB图。如图7的B部分所示,脉冲图样可以精确地反映Logo,这证明了神经元集群可以准确地学习脉冲节拍和脉冲数量。
同样地,除了脉冲节拍可以被精确地学习外,为了进一步验证脉冲数量也能被准确学习,与先前的实验类似,我们这次以RGB图像的图样去训练神经元集群去发射脉冲,目标图像具有3通道的350*355像素,且定义第一维度为时间,其它维度为神经元。由此,我们训练1065个神经元去发射脉冲以反映所有3个通道的像素值,并把它们输出的脉冲序列绘制成RGB图。如图7的B部分所示,脉冲图样可以精确地反映Logo,这证明了神经元集群可以准确地学习脉冲节拍和脉冲数量。
表1:不同模型下N-MNIST数据集上的而表现
模型 训练(%) 测试(%) 测试(带脉冲输出,%) 耗时
IAF(本发明) 99.62 98.61 98.39 6.5小时
LIF(本发明) 99.49 97.93 95.75 6.5小时
SRM(SLAYER) 95.85 93.41 93.41 42.5小时
表1展示了不同模型下N-MNIST数据集上的而表现。对于使用IAF神经元模型的方案,在该数据集下表现的最好,不论是训练还是测试集,均表现最佳,LIF模型次之,二者训练耗时均为6.5小时。而最后一行展示的现有技术1中的模型,训练耗时42.5小时,大约是所提出方案的6-7倍,且精度也不及所提出的新方案。
表2:不同时间步长度下不同编码层脉冲生成机制对精度性能的影响
IAF时间步 多脉冲(训练) 多脉冲(测试) 单脉冲(训练) 单脉冲(测试)
1ms 100 94.0 100 93.0
5ms 99.6 96.0 99.4 87.0
10ms 100 96.0 98.2 86.0
50ms 99.7 93.0 95.8 81.0
100ms 100 94.0 95.3 87.0
表2展示了面对小N-MNIST数据集,在其它网络结构相同,但在不同时间步长度(1~100ms)下、仅仅编码层对输入信号的不同编码机制(即产生多脉冲或单脉冲)情况下网络性能的对比。从表中可以得知,即便是在编码层,随着时间步的增大,不论是训练阶段还是测试阶段,单脉冲机制的网络性能下降最为明显,尤其是对于测试集。该结果也凸显了多脉冲机制在精度方面的性能优势。
尽管已经参考本发明的具体特征和实施例描述了本发明,但是在不脱离本发明的情况下可以对其进行各种修改和组合。因此,说明书和附图应简单地视为由所附权利要求限定的本发明的一些实施例的说明,并且预期涵盖落入本发明范围内的任何和所有修改、变化、组合或等同物。因此,尽管已经详细描述了本发明及其优点,但是在不脱离由所附权利要求限定的本发明的情况下,可以进行各种改变、替换和变更。此外,本申请的范围不旨在限于说明书中描述的过程、机器、制造、物质组成、装置、方法和步骤的特定实施例。
本领域普通技术人员从本发明的公开内容将容易理解,可以根据本发明应用执行与本文描述的相应实施例实质上相同功能或达到实质上相同的结果的当前存在或稍后开发的过程、机器、制造、物质组成、装置、方法或步骤。因此,所附权利要求目的在于在其范围内包括这样的过程、机器、制造、物质组成、装置、方法或步骤。
为了实现更好的技术效果或出于某些应用的需求,本领域技术人员可能在本发明的基础之上,对技术方案作出进一步的改进。然而,即便该部分改进/设计具有创造性或/和进步性,只要利用了本发明权利要求所覆盖的技术特征,依据“全面覆盖原则”,该技术方案同样应落入本发明的保护范围之内。
所附的权利要求中所提及的若干技术特征可能存在替代的技术特征,或者对某些技术流程的顺序、物质组织顺序可以重组。本领域普通技术人员知晓本发明后,容易想到该些替换手段,或者改变技术流程的顺序、物质组织顺序,然后采用了基本相同的手段,解决基本相同的技术问题,达到了基本相同的技术效果,因此即便权利要求中明确限定了上述手段或/和顺序,然而该些修饰、改变、替换,均应依据“等同原则”而落入权利要求的保护范围。
对于权利要求中有明确的数值限定的,通常情况下,本领域技术人员能够理解,该数值附近的其它合理数值同样能够应用于某具体的实施方式中。这些未脱离本发明构思的通过细节规避的设计方案,同样落入该权利要求的保护范围。
结合本文中所公开的实施例中描述的各方法步骤和单元,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各实施例的步骤及组成。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。本领域普通技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明所要求保护的范围。
此外,本文示例的执行指令的任何模块、组件或设备可以包括或以其它方式访问用于存储信息的非暂时性计算机/处理器可读存储介质或介质,诸如,计算机/处理器可读指令、数据结构、程序模块和/或其它数据。任何这种非暂时性计算机/处理器存储介质可以是设备的一部分或者可访问或可连接到设备。本文描述的任何应用或模块可以使用计算机/处理器可读/可执行指令来实现,该指令可以由这种非暂时性计算机/处理器可读存储介质存储或以其它方式保持。

Claims (15)

1.一种脉冲神经网络中神经元的信号处理方法,该脉冲神经网络包括若干层,每一所述的层包括若干所述的神经元,其特征在于,该信号处理方法包括如下步骤:
接收步骤:至少一个所述神经元接收至少一路输入脉冲序列;
累积步骤:基于所述至少一路输入脉冲序列加权求和,获得膜电压;
激活步骤:当所述膜电压超过阈值后,基于所述膜电压与所述阈值的比值确定该神经元激发的脉冲的幅度。
2.根据权利要求1所述的脉冲神经网络中神经元的信号处理方法,其特征在于:所述基于所述膜电压与所述阈值的比值确定该神经元激发的脉冲的幅度,具体为:
在单个模拟时间步,激发的脉冲的幅度与所述膜电压与所述阈值的比值相关。
3.根据权利要求1所述的脉冲神经网络中神经元的信号处理方法,其特征在于:所述基于所述膜电压与所述阈值的比值确定该神经元激发的脉冲的幅度,具体为:
在单个模拟时间步,激发的脉冲的幅度与单位脉冲幅度的比值,等于所述膜电压与所述阈值的比值向下取整的值。
4.根据权利要求1-3任一项所述的脉冲神经网络中神经元的信号处理方法,其特征在于:所述的基于所述至少一路输入脉冲序列加权求和,获得膜电压,具体包括:
基于后突触电位核与每路输入脉冲序列卷积后加权求和,获得膜电压。
5.根据权利要求4所述的脉冲神经网络中神经元的信号处理方法,其特征在于:所述的基于所述至少一路输入脉冲序列加权求和,获得膜电压,具体包括:
基于后突触电位核与每路输入脉冲序列卷积后加权求和,以及不应期核与所述神经元输出脉冲序列的卷积,获得膜电压。
6.根据权利要求4所述的脉冲神经网络中神经元的信号处理方法,其特征在于:
Figure 551266DEST_PATH_IMAGE002
其中,𝜐(𝑡) 是神经元膜电压,𝜔𝑗是第𝑗个突触权重,𝜖(𝑡)是后突触电位核,𝑠𝑗 (𝑡)是第𝑗个
输入脉冲序列,‘*’为卷积操作,t 为时间。
7.根据权利要求5所述的脉冲神经网络中神经元的信号处理方法,其特征在于:
Figure 782920DEST_PATH_IMAGE004
其中,𝜐(𝑡)是神经元膜电压,𝜂(𝑡)是不应期核,𝑠'(𝑡)是所述神经元输出脉冲序列,𝜔𝑗是第𝑗个突触权重,𝜖(𝑡)是后突触电位核,𝑠𝑗 (𝑡)是第𝑗个输入脉冲序列,‘*’为卷积操作,t 为时间。
8. 根据权利要求6 所述的脉冲神经网络中神经元的信号处理方法,其特征在于:
其中的后突触电位核
Figure 969182DEST_PATH_IMAGE006
,突触动态函数
Figure 738293DEST_PATH_IMAGE008
,膜动态函数
Figure 818244DEST_PATH_IMAGE010
Figure 627325DEST_PATH_IMAGE012
是突触时间常数、
Figure 956675DEST_PATH_IMAGE014
是膜时间常数,t 为时间。
9.根据权利要求7 所述的脉冲神经网络中神经元的信号处理方法,其特征在于:
其中的后突触电位核
Figure 342526DEST_PATH_IMAGE015
,突触动态函数
Figure 214667DEST_PATH_IMAGE016
,膜动态函数
Figure 83397DEST_PATH_IMAGE017
Figure 900043DEST_PATH_IMAGE018
是突触时间常数、
Figure 244630DEST_PATH_IMAGE014
是膜时间常数,t 为时间;
不应期核
Figure 548441DEST_PATH_IMAGE020
,𝜃为阈值,当𝜐(𝑡) ≥ 𝜃时,𝑠'(𝑡)= ⌊𝜐(𝑡)/𝜃⌋ ,否则𝑠'(𝑡) = 0。
10.一种脉冲神经网络训练方法,所述脉冲神经网络包括若干层,每一所述的层包括若干神经元,其特征在于:
所述神经元在网络训练中处理信号时,包括如下步骤:
接收步骤:至少一个所述神经元接收至少一路输入脉冲序列;
累积步骤:基于所述至少一路输入脉冲序列加权求和,获得膜电压;
激活步骤:当所述膜电压超过阈值后,基于所述膜电压与所述阈值的比值确定该神经元激发的脉冲的幅度;
所述脉冲神经网络的总损失包括第一损失和第二损失,其中所述第一损失反映的是脉冲神经网络的预期输出结果与脉冲神经网络实际输出结果之间的差距,所述第二损失反映的是神经元的活性或活动程度。
11.根据权利要求10 所述的脉冲神经网络训练方法,其特征在于:该训练方法还包括:
检测输出迹的峰值;
在输出迹的所述峰值对应的时刻,计算第一损失;
计算第二损失,该第二损失反映神经元的活性或活动程度;
合并第一损失和第二损失至总损失中;
依据总损失对应的函数,采用误差反向传播算法对所述神经网络进行训练。
12.根据权利要求11 所述的脉冲神经网络训练方法,其特征在于:所述合并第一损失和
第二损失至总损失中,具体为:
Figure 650389DEST_PATH_IMAGE022
,其中参数𝛼是一个调节参数,总损失为
Figure 878633DEST_PATH_IMAGE024
,第一损失为
Figure 589974DEST_PATH_IMAGE026
,第二损失为
Figure 108812DEST_PATH_IMAGE028
13.根据权利要求10 所述的脉冲神经网络训练方法,其特征在于:所述第二损失为
Figure 555230DEST_PATH_IMAGE030
, 其中,T 为时长,𝑁neurons为神经元集群规模,
Figure 690676DEST_PATH_IMAGE032
,𝐻(∙)是Heaviside 函数,
Figure 690862DEST_PATH_IMAGE034
是在t 时间步的第i个神经元。
14.根据权利要求10 所述的脉冲神经网络训练方法,其特征在于:所述第一损失为
Figure 362408DEST_PATH_IMAGE036
其中,当类的标签c 与当前输入相符时,𝜆c = 1,否则𝜆c = 0;𝑝c是神经网络预测当前输入属于分类c 的相对的可能性大小指示。
15.根据权利要求10-14 任一项所述的脉冲神经网络训练方法,其特征在于:
使用周期指数函数或Heaviside 函数作为代理梯度。
CN202110808342.6A 2021-07-16 2021-07-16 脉冲神经网络中神经元的信号处理方法及该网络训练方法 Active CN113255905B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202110808342.6A CN113255905B (zh) 2021-07-16 2021-07-16 脉冲神经网络中神经元的信号处理方法及该网络训练方法
PCT/CN2021/123091 WO2023284142A1 (zh) 2021-07-16 2021-10-11 脉冲神经网络中神经元的信号处理方法及该网络训练方法
US18/251,000 US20230385617A1 (en) 2021-07-16 2021-10-11 Signal processing method for neuron in spiking neural network and method for training said network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110808342.6A CN113255905B (zh) 2021-07-16 2021-07-16 脉冲神经网络中神经元的信号处理方法及该网络训练方法

Publications (2)

Publication Number Publication Date
CN113255905A true CN113255905A (zh) 2021-08-13
CN113255905B CN113255905B (zh) 2021-11-02

Family

ID=77180574

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110808342.6A Active CN113255905B (zh) 2021-07-16 2021-07-16 脉冲神经网络中神经元的信号处理方法及该网络训练方法

Country Status (3)

Country Link
US (1) US20230385617A1 (zh)
CN (1) CN113255905B (zh)
WO (1) WO2023284142A1 (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113408713A (zh) * 2021-08-18 2021-09-17 成都时识科技有限公司 消除数据副本的方法、神经网络处理器及电子产品
CN113408671A (zh) * 2021-08-18 2021-09-17 成都时识科技有限公司 一种对象识别方法及装置、芯片及电子设备
CN113627603A (zh) * 2021-10-12 2021-11-09 成都时识科技有限公司 在芯片中实现异步卷积的方法、类脑芯片及电子设备
CN114861892A (zh) * 2022-07-06 2022-08-05 深圳时识科技有限公司 芯片在环代理训练方法及设备、芯片及电子设备
CN114970829A (zh) * 2022-06-08 2022-08-30 中国电信股份有限公司 脉冲信号处理方法、装置、设备及存储
CN114998996A (zh) * 2022-06-14 2022-09-02 中国电信股份有限公司 具有运动属性信息的信号处理方法、装置、设备及存储
CN115169547A (zh) * 2022-09-09 2022-10-11 深圳时识科技有限公司 神经形态芯片及电子设备
WO2023284142A1 (zh) * 2021-07-16 2023-01-19 成都时识科技有限公司 脉冲神经网络中神经元的信号处理方法及该网络训练方法
CN116205784A (zh) * 2023-05-04 2023-06-02 北京科技大学 一种基于事件时间触发神经元的光流识别***
CN116306857A (zh) * 2023-05-18 2023-06-23 湖北大学 一种基于神经元膜高低电位采样的脉冲电路
WO2023202313A1 (zh) * 2022-04-18 2023-10-26 北京大学 位置预测方法、装置、电子设备及存储介质
TWI832406B (zh) * 2022-09-01 2024-02-11 國立陽明交通大學 反向傳播訓練方法和非暫態電腦可讀取媒體
WO2024074072A1 (zh) * 2022-10-08 2024-04-11 鹏城实验室 脉冲神经网络加速器学习方法、装置、终端及存储介质

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115862338B (zh) * 2023-03-01 2023-05-16 天津大学 一种机场交通流量预测方法、***、电子设备及介质
CN116056285B (zh) * 2023-03-23 2023-06-23 浙江芯源交通电子有限公司 一种基于神经元电路的信号灯控制***及电子设备
CN117556877B (zh) * 2024-01-11 2024-04-02 西南交通大学 基于数据脉冲特征评估的脉冲神经网络训练方法

Citations (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06274661A (ja) * 1993-03-18 1994-09-30 Hitachi Ltd シナプス回路およびそれを用いたニューラルネットワークシステム
CN105760930A (zh) * 2016-02-18 2016-07-13 天津大学 用于aer的多层脉冲神经网络识别***
EP3340125A1 (en) * 2016-12-20 2018-06-27 INTEL Corporation Temporally encoding a static spatial image
CN108681772A (zh) * 2018-04-02 2018-10-19 北京大学 多模态神经元电路及神经元实现方法
CN108710770A (zh) * 2018-05-31 2018-10-26 杭州电子科技大学 一种面向多脉冲神经网络监督学习的精确突触调整方法
US20190034782A1 (en) * 2017-07-31 2019-01-31 Intel Corporation Variable epoch spike train filtering
CN109948504A (zh) * 2019-03-13 2019-06-28 东软睿驰汽车技术(沈阳)有限公司 一种车道线识别方法及装置
CN110210563A (zh) * 2019-06-04 2019-09-06 北京大学 基于Spike cube SNN的图像脉冲数据时空信息学习及识别方法
CN110647034A (zh) * 2019-09-04 2020-01-03 北京航空航天大学 一种脉冲等离子体推力器的神经网络控制方法
CN110659730A (zh) * 2019-10-10 2020-01-07 电子科技大学中山学院 基于脉冲神经网络的端到端功能性脉冲模型的实现方法
US20200019838A1 (en) * 2018-07-11 2020-01-16 The Board Of Trustees Of The Leland Stanford Junior University Methods and apparatus for spiking neural network computing based on randomized spatial assignments
CN110705428A (zh) * 2019-09-26 2020-01-17 北京智能工场科技有限公司 一种基于脉冲神经网络的脸部年龄识别***及方法
US20200160146A1 (en) * 2018-11-20 2020-05-21 Electronics And Telecommunications Research Institute Spike neural network circuit including comparator operated by conditional bias current
CN111639754A (zh) * 2020-06-05 2020-09-08 四川大学 一种神经网络的构建、训练、识别方法和***、存储介质
WO2020241356A1 (ja) * 2019-05-30 2020-12-03 日本電気株式会社 スパイキングニューラルネットワークシステム、学習処理装置、学習処理方法および記録媒体
CN112101535A (zh) * 2020-08-21 2020-12-18 中国科学院深圳先进技术研究院 脉冲神经元的信号处理方法及相关装置
CN112130118A (zh) * 2020-08-19 2020-12-25 复旦大学无锡研究院 基于snn的超宽带雷达信号处理***及处理方法
CN112183739A (zh) * 2020-11-02 2021-01-05 中国科学技术大学 基于忆阻器的低功耗脉冲卷积神经网络的硬件架构
CN112328398A (zh) * 2020-11-12 2021-02-05 清华大学 任务处理方法及装置、电子设备和存储介质
CN112529176A (zh) * 2020-12-03 2021-03-19 鹏城实验室 一种加速脉冲神经网络的训练方法、终端及存储介质
CN112633497A (zh) * 2020-12-21 2021-04-09 中山大学 一种基于重加权膜电压的卷积脉冲神经网络的训练方法
CN112699956A (zh) * 2021-01-08 2021-04-23 西安交通大学 一种基于改进脉冲神经网络的神经形态视觉目标分类方法
CN112906828A (zh) * 2021-04-08 2021-06-04 周士博 一种基于时域编码和脉冲神经网络的图像分类方法
CN112990429A (zh) * 2021-02-01 2021-06-18 深圳市华尊科技股份有限公司 机器学习方法、电子设备及相关产品
CN113111758A (zh) * 2021-04-06 2021-07-13 中山大学 一种基于脉冲神经网络的sar图像舰船目标识别方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108304913A (zh) * 2017-12-30 2018-07-20 北京理工大学 一种利用脉冲神经元阵列来实现卷积功能的方法
FR3083896B1 (fr) * 2018-07-12 2021-01-08 Commissariat Energie Atomique Circuit neuromorphique impulsionnel implementant un neurone formel
CN112465134B (zh) * 2020-11-26 2022-05-03 重庆邮电大学 一种基于lif模型的脉冲神经网络神经元电路
CN113033795B (zh) * 2021-03-29 2022-10-14 重庆大学 基于时间步的二值脉冲图的脉冲卷积神经网络硬件加速器
CN113255905B (zh) * 2021-07-16 2021-11-02 成都时识科技有限公司 脉冲神经网络中神经元的信号处理方法及该网络训练方法

Patent Citations (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06274661A (ja) * 1993-03-18 1994-09-30 Hitachi Ltd シナプス回路およびそれを用いたニューラルネットワークシステム
CN105760930A (zh) * 2016-02-18 2016-07-13 天津大学 用于aer的多层脉冲神经网络识别***
EP3340125A1 (en) * 2016-12-20 2018-06-27 INTEL Corporation Temporally encoding a static spatial image
US20190034782A1 (en) * 2017-07-31 2019-01-31 Intel Corporation Variable epoch spike train filtering
CN108681772A (zh) * 2018-04-02 2018-10-19 北京大学 多模态神经元电路及神经元实现方法
CN108710770A (zh) * 2018-05-31 2018-10-26 杭州电子科技大学 一种面向多脉冲神经网络监督学习的精确突触调整方法
US20200019838A1 (en) * 2018-07-11 2020-01-16 The Board Of Trustees Of The Leland Stanford Junior University Methods and apparatus for spiking neural network computing based on randomized spatial assignments
US20200160146A1 (en) * 2018-11-20 2020-05-21 Electronics And Telecommunications Research Institute Spike neural network circuit including comparator operated by conditional bias current
CN109948504A (zh) * 2019-03-13 2019-06-28 东软睿驰汽车技术(沈阳)有限公司 一种车道线识别方法及装置
WO2020241356A1 (ja) * 2019-05-30 2020-12-03 日本電気株式会社 スパイキングニューラルネットワークシステム、学習処理装置、学習処理方法および記録媒体
CN110210563A (zh) * 2019-06-04 2019-09-06 北京大学 基于Spike cube SNN的图像脉冲数据时空信息学习及识别方法
CN110647034A (zh) * 2019-09-04 2020-01-03 北京航空航天大学 一种脉冲等离子体推力器的神经网络控制方法
CN110705428A (zh) * 2019-09-26 2020-01-17 北京智能工场科技有限公司 一种基于脉冲神经网络的脸部年龄识别***及方法
CN110659730A (zh) * 2019-10-10 2020-01-07 电子科技大学中山学院 基于脉冲神经网络的端到端功能性脉冲模型的实现方法
CN111639754A (zh) * 2020-06-05 2020-09-08 四川大学 一种神经网络的构建、训练、识别方法和***、存储介质
CN112130118A (zh) * 2020-08-19 2020-12-25 复旦大学无锡研究院 基于snn的超宽带雷达信号处理***及处理方法
CN112101535A (zh) * 2020-08-21 2020-12-18 中国科学院深圳先进技术研究院 脉冲神经元的信号处理方法及相关装置
CN112183739A (zh) * 2020-11-02 2021-01-05 中国科学技术大学 基于忆阻器的低功耗脉冲卷积神经网络的硬件架构
CN112328398A (zh) * 2020-11-12 2021-02-05 清华大学 任务处理方法及装置、电子设备和存储介质
CN112529176A (zh) * 2020-12-03 2021-03-19 鹏城实验室 一种加速脉冲神经网络的训练方法、终端及存储介质
CN112633497A (zh) * 2020-12-21 2021-04-09 中山大学 一种基于重加权膜电压的卷积脉冲神经网络的训练方法
CN112699956A (zh) * 2021-01-08 2021-04-23 西安交通大学 一种基于改进脉冲神经网络的神经形态视觉目标分类方法
CN112990429A (zh) * 2021-02-01 2021-06-18 深圳市华尊科技股份有限公司 机器学习方法、电子设备及相关产品
CN113111758A (zh) * 2021-04-06 2021-07-13 中山大学 一种基于脉冲神经网络的sar图像舰船目标识别方法
CN112906828A (zh) * 2021-04-08 2021-06-04 周士博 一种基于时域编码和脉冲神经网络的图像分类方法

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
BEATRIZ DOS等: ""A modified nanoelectronic spiking neural model"", 《JOURNAL OF COMPUTATIONAL ELECTRONICS》 *
FRIEDEMANN ZENKE等: ""SuperSpike:Supervised Learning in multi-layer spiking neural network"", 《ARXIV》 *
SUMIT BAM SHRESTHA等: ""SLAYER:Spike Layer Error Reassignment in Time"", 《32ND CONFERRENCE ON NEURAL INFORMATION PROCESSING SYSTEMS》 *
YU MIAO等: ""A Supervised Multi-Spike Learning Algorithm for Spiking Neural Networks"", 《2018 INTERNATIONAL JOINT CONFERENCE ON NEURAL NETWORKS》 *
刘峻臣等: ""基于神经网络与时域校验的信号分选方法"", 《雷达科学与技术》 *
安全等: ""脉冲响应神经网络的构建"", 《信息与控制》 *
尚瑛杰等: ""仿生型脉冲神经网络学习算法和网络模型"", 《计算机工程与设计》 *
徐彦等: ""脉冲神经元脉冲序列学习方法综述"", 《计算机应用》 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023284142A1 (zh) * 2021-07-16 2023-01-19 成都时识科技有限公司 脉冲神经网络中神经元的信号处理方法及该网络训练方法
CN113408671A (zh) * 2021-08-18 2021-09-17 成都时识科技有限公司 一种对象识别方法及装置、芯片及电子设备
CN113408713B (zh) * 2021-08-18 2021-11-16 成都时识科技有限公司 消除数据副本的方法、神经网络处理器及电子产品
CN113408713A (zh) * 2021-08-18 2021-09-17 成都时识科技有限公司 消除数据副本的方法、神经网络处理器及电子产品
CN113627603A (zh) * 2021-10-12 2021-11-09 成都时识科技有限公司 在芯片中实现异步卷积的方法、类脑芯片及电子设备
WO2023202313A1 (zh) * 2022-04-18 2023-10-26 北京大学 位置预测方法、装置、电子设备及存储介质
CN114970829A (zh) * 2022-06-08 2022-08-30 中国电信股份有限公司 脉冲信号处理方法、装置、设备及存储
CN114970829B (zh) * 2022-06-08 2023-11-17 中国电信股份有限公司 脉冲信号处理方法、装置、设备及存储
CN114998996A (zh) * 2022-06-14 2022-09-02 中国电信股份有限公司 具有运动属性信息的信号处理方法、装置、设备及存储
CN114998996B (zh) * 2022-06-14 2024-04-05 中国电信股份有限公司 具有运动属性信息的信号处理方法、装置、设备及存储
CN114861892A (zh) * 2022-07-06 2022-08-05 深圳时识科技有限公司 芯片在环代理训练方法及设备、芯片及电子设备
TWI832406B (zh) * 2022-09-01 2024-02-11 國立陽明交通大學 反向傳播訓練方法和非暫態電腦可讀取媒體
CN115169547B (zh) * 2022-09-09 2022-11-29 深圳时识科技有限公司 神经形态芯片及电子设备
CN115169547A (zh) * 2022-09-09 2022-10-11 深圳时识科技有限公司 神经形态芯片及电子设备
WO2024074072A1 (zh) * 2022-10-08 2024-04-11 鹏城实验室 脉冲神经网络加速器学习方法、装置、终端及存储介质
CN116205784A (zh) * 2023-05-04 2023-06-02 北京科技大学 一种基于事件时间触发神经元的光流识别***
CN116306857B (zh) * 2023-05-18 2023-07-18 湖北大学 一种基于神经元膜高低电位采样的脉冲电路
CN116306857A (zh) * 2023-05-18 2023-06-23 湖北大学 一种基于神经元膜高低电位采样的脉冲电路

Also Published As

Publication number Publication date
US20230385617A1 (en) 2023-11-30
WO2023284142A1 (zh) 2023-01-19
CN113255905B (zh) 2021-11-02

Similar Documents

Publication Publication Date Title
CN113255905B (zh) 脉冲神经网络中神经元的信号处理方法及该网络训练方法
CN110210563B (zh) 基于Spike cube SNN的图像脉冲数据时空信息学习及识别方法
CN109215349B (zh) 基于深度学习的长时交通流量预测方法
Zhang et al. Prediction of sea surface temperature using long short-term memory
CN110427654B (zh) 一种基于敏感状态的滑坡预测模型构建方法及***
CN110070172B (zh) 基于双向独立循环神经网络的序列预测模型的建立方法
EP3293681A1 (en) Spatio-temporal spiking neural networks in neuromorphic hardware systems
KR20160123309A (ko) 확률적 스파이킹 베이지안망들에 대한 이벤트-기반 추론 및 학습
Chao et al. Forecasting exchange rate with deep belief networks
US20150206050A1 (en) Configuring neural network for low spiking rate
KR20170031695A (ko) 신경망들에서의 콘볼루션 동작의 분해
JP2017515205A (ja) Coldニューロンスパイクタイミングバックプロバゲーション
KR20160138042A (ko) 스파이킹 뉴럴 네트워크들을 사용하는 이미지들의 불변의 객체 표현
CN111144552A (zh) 一种粮食品质多指标预测方法及装置
CN113935475A (zh) 具有脉冲时刻偏移量的脉冲神经网络的仿真与训练方法
KR101825933B1 (ko) 좌표 변환을 위한 위상 코딩
Giampaolo et al. Investigating random variations of the forward-forward algorithm for training neural networks
Gao et al. Deep learning for sequence pattern recognition
CN111260054B (zh) 一种提高联想记忆脉冲神经网络准确度的学习方法
US9449272B2 (en) Doppler effect processing in a neural network model
Shen et al. Lasso regression based on halton sequence initialized capuchin search algorithm
Reddy et al. Effect of image colourspace on performance of convolution neural networks
Van Komen et al. A feedforward neural network for source range and ocean seabed classification using time-domain features
CN112288078B (zh) 一种基于脉冲神经网络的自学习、小样本学习和迁移学习的方法与***
TWI832406B (zh) 反向傳播訓練方法和非暫態電腦可讀取媒體

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant