CN113962371A - 一种基于类脑计算平台的图像识别方法及*** - Google Patents

一种基于类脑计算平台的图像识别方法及*** Download PDF

Info

Publication number
CN113962371A
CN113962371A CN202111584185.1A CN202111584185A CN113962371A CN 113962371 A CN113962371 A CN 113962371A CN 202111584185 A CN202111584185 A CN 202111584185A CN 113962371 A CN113962371 A CN 113962371A
Authority
CN
China
Prior art keywords
neural network
synaptic
neuron
brain
computing platform
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111584185.1A
Other languages
English (en)
Other versions
CN113962371B (zh
Inventor
包文笛
胡蝶
乔树山
周玉梅
尚德龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhongke Nanjing Intelligent Technology Research Institute
Original Assignee
Zhongke Nanjing Intelligent Technology Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhongke Nanjing Intelligent Technology Research Institute filed Critical Zhongke Nanjing Intelligent Technology Research Institute
Priority to CN202111584185.1A priority Critical patent/CN113962371B/zh
Publication of CN113962371A publication Critical patent/CN113962371A/zh
Application granted granted Critical
Publication of CN113962371B publication Critical patent/CN113962371B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/061Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using biological neurons, e.g. biological neurons connected to an integrated circuit
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Neurology (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于类脑计算平台的图像识别方法及***,该方法包括:构建脉冲神经网络;脉冲神经网络包括近似最大池化层,近似最大池化层包括突触前神经元集群和突触后神经元集群,突触前神经元集群包括多个顺序排列的神经元组,各神经元组中突触前神经元数量相同,突触前神经元集群中第i个神经元组中突触前神经元均与突触后神经元集群中第i个突触后神经元连接,当第i个神经元组中突触前神经元输入的脉冲累计超过设定阈值时,第i个突触后神经元发放一次脉冲;将训练好的脉冲神经网络部署到类脑计算平台;采用部署到类脑计算平台上的脉冲神经网络进行图像识别。本发明降低了图像识别在硬件平台计算时的能耗。

Description

一种基于类脑计算平台的图像识别方法及***
技术领域
本发明涉及神经网络技术领域,特别是涉及一种基于类脑计算平台的图像识别方法及***。
背景技术
使用卷积神经网络在常用的CPU等硬件平台进行图像识别,往往需要较高的能耗。而利用脉冲神经网络在类脑计算平台完成图像识别任务,能有效降低功耗,并达到与卷积神经网络在CPU等硬件平台相似的精度,同时脉冲神经网络的结构更简单,有效减小计算量。
而脉冲神经网络中,模拟卷积神经网络进行的最大池化,目前还未在类脑计算平台上真正实现,大多都是通过模拟器模拟的方式进行最大池化的操作。
在模拟器实现的脉冲神经网络的最大池化中,由于脉冲神经网络的特殊性,如何定义最大池化中的“最大”是问题的关键。大多数方式采取通过发放脉冲的个数或累积的阈值电压进行定义,并且在构建网络时,需要中间层神经元,以及调整用于连接的突触。但这样的方式难以在硬件平台实现,且耗费内存,不利于神经元的计算。
而为了实现端对端的任务,且为了最大池化在提取特征时,有效减小卷积层参数误差造成估计均值的偏移,并且为了减小能耗,在类脑计算平台搭建脉冲神经网络,在类脑计算平台实现脉冲神经网络的最大池化成为搭建脉冲神经网络中关键的一环。
发明内容
本发明的目的是提供一种基于类脑计算平台的图像识别方法及***,降低了图像识别在硬件平台计算时的能耗。
为实现上述目的,本发明提供了如下方案:
一种基于类脑计算平台的图像识别方法,包括:
构建脉冲神经网络;所述脉冲神经网络包括依次连接的卷积层、近似最大池化层和分类器,所述近似最大池化层包括突触前神经元集群和突触后神经元集群,所述突触前神经元集群包括多个顺序排列的神经元组,各神经元组中突触前神经元数量相同,所述突触前神经元集群中第i个神经元组中突触前神经元均与所述突触后神经元集群中第i个突触后神经元连接,当第i个神经元组中突触前神经元输入的脉冲累计超过设定阈值时,第i个突触后神经元发放一次脉冲;
对所述脉冲神经网络进行图像识别的训练,获得训练好的脉冲神经网络;
将训练好的脉冲神经网络部署到类脑计算平台;
采用部署到类脑计算平台上的脉冲神经网络进行图像识别。
可选地,所述脉冲神经网络的输入为一维脉冲序列。
可选地,所述近似最大池化层和所述分类器之间为全连接。
可选地,所述对所述脉冲神经网络进行图像识别的训练,获得训练好的脉冲神经网络,具体包括:
通过反向传播的方式,训练所述卷积层到所述近似最大池化层的神经元之间的突触连接权重和所述近似最大池化层到所述分类器的神经元之间的突触连接权重,将训练好的各权重进行存储。
可选地,所述设定阈值为2。
本发明还公开了一种基于类脑计算平台的图像识别***,包括:
脉冲神经网络构建模块,用于构建脉冲神经网络;所述脉冲神经网络包括依次连接的卷积层、近似最大池化层和分类器,所述近似最大池化层包括突触前神经元集群和突触后神经元集群,所述突触前神经元集群包括多个顺序排列的神经元组,各神经元组中突触前神经元数量相同,所述突触前神经元集群中第i个神经元组中突触前神经元均与所述突触后神经元集群中第i个突触后神经元连接,当第i个神经元组中突触前神经元的输入的脉冲累计超过设定阈值时,第i个突触后神经元发放一次脉冲;
脉冲神经网络训练模块,用于对所述脉冲神经网络进行图像识别的训练,获得训练好的脉冲神经网络;
脉冲神经网络部署模块,用于将训练好的脉冲神经网络部署到类脑计算平台;
图像识别模块,用于采用部署到类脑计算平台上的脉冲神经网络进行图像识别。
可选地,所述脉冲神经网络的输入为一维脉冲序列。
可选地,所述近似最大池化层和所述分类器之间为全连接。
可选地,所述脉冲神经网络训练模块,具体包括:
脉冲神经网络训练单元,用于通过反向传播的方式,训练所述卷积层到所述近似最大池化层的神经元之间的突触连接权重和所述近似最大池化层到所述分类器的神经元之间的突触连接权重,将训练好的各权重进行存储。
可选地,所述设定阈值为2。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明通过构建与卷积神经网络类似的脉冲神经网络,通过近似最大池化层中突触前神经元集群和突触后神经元集群及设置阈值的方式在类脑计算平台实现最大池化,减小提取特征时,卷积层参数误差造成估计均值的偏移,同时实现降维,减少运算量,降低图像识别在硬件平台计算时的能耗。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一种基于类脑计算平台的图像识别方法流程示意图;
图2为本发明脉冲神经网络结构示意图;
图3为本发明突触前神经元与突触后神经元之间的连接关系示意图;
图4为本发明一种基于类脑计算平台的图像识别***结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种基于类脑计算平台的图像识别方法及***,降低了图像识别在硬件平台计算时的能耗。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
图1为本发明一种基于类脑计算平台的图像识别方法流程示意图,如图1所示,一种基于类脑计算平台的图像识别方法,包括:
步骤101:构建脉冲神经网络;脉冲神经网络包括依次连接的卷积层、近似最大池化层和分类器,近似最大池化层包括突触前神经元集群和突触后神经元集群,突触前神经元集群包括多个顺序排列的神经元组,各神经元组中突触前神经元数量相同,突触前神经元集群中第i个神经元组中突触前神经元均与突触后神经元集群中第i个突触后神经元连接,当第i个神经元组中突触前神经元输入的脉冲累计超过设定阈值时,第i个突触后神经元发放一次脉冲。
近似最大池化层的突触前神经元集群与卷积层连接,近似最大池化层的突触后神经元集群与分类器连接。
近似最大池化层用于通过设定一维滑动窗口对输入进行取样,连续两次取样的区域不重叠。设定一维滑动窗口的滑动步长与神经元组中突触前神经元个数相同。
脉冲神经网络的输入为一维脉冲序列。具体为,获得待识别图像的二值图,对二值图进行脉冲编码。例如输入图像为28×28的二值图,即输入图像为尺寸28×28的矩阵。将该矩阵进行变换,转化为一列长度为784的0、1向量,即完成编码。
将编码好的脉冲序列,如图2中的数字序列,输入与卷积神经网络等价的脉冲神经网络。
脉冲神经网络中的主要计算包含下图中的三个部分,即卷积计算、近似最大池化计算以及分类计算,如图2所示,图2中脉冲神经网络通过卷积层、近似最大池层和分类器分别进行卷积,近似最大池和分类操作。通过卷积和池化计算,提取脉冲序列的特征,之后进入分类器,进行打印字母识别。本发明中卷积层和近似最大池化层均采取多对一的连接方式,以达到卷积和池化计算的目的,而近似最大池化层和分类层(分类器)之间采用全连接。
设定阈值为2。
步骤102:对脉冲神经网络进行图像识别的训练,获得训练好的脉冲神经网络。
脉冲神经网络通过有监督学习,即反向传播的方式,在CPU上进行卷积层到近似池化层和近似池化层到分类层的神经元之间突触连接的权重训练,之后将训练好的权重取出并保存在CPU文件中,准备后续进行调用。
其中,步骤102具体包括:
通过反向传播的方式,训练卷积层到近似最大池化层的神经元之间的突触连接权重和近似最大池化层到分类器的神经元之间的突触连接权重,将训练好的各权重进行存储。
步骤103:将训练好的脉冲神经网络部署到类脑计算平台。
其中,步骤103具体包括利用SpikingJelly软件框架中的ann2snn库,将卷积层等价转换为脉冲神经网络的形式,将脉冲神经网络完整部署到类脑计算平台上,并将之前训练好并保存在CPU文件中的权重取出,载入到类脑计算平台并进行测试。
脉冲神经网络部署在硬件平台时,卷积采取类似卷积神经网络的方式进行,之后采用近似最大池化,替换原本卷积神经网络中会使用的最大池化。近似最大池化实现方法如下:
1)首先确定滑动窗口尺寸和滑动步长。由于最大池化通常采取一般池化的方式,即滑动窗口两次取样的区域不重叠,因此,如滑动窗口尺寸为4(即滑动窗口内包含四个神经元),则步长也为4(即假设神经元编号为1,2,……那么第一次取编号为1,2,3,4的神经元,第二次取编号为5,6,7,8的神经元,依此类推)。不同于卷积神经网络中,池化层的二维滑动窗口,在脉冲神经网络中,通常使用一维的滑动窗口,即向量的形式。
2)在类脑计算平台创建Population(集群)。近似最大池化需要两个神经元的Population即可实现,分别为突触前神经元的Population和突触后神经元的Population。两个Population之间的连接方式将在步骤3)中通过举例的方式说明。
3)建立连接。如步骤1)中举例的,滑动窗口尺寸为4,步长也为4时,编号为1,2,3,4的突触前神经元均与编号为1的突触后神经元进行连接;编号为5,6,7,8的突触前神经元均与编号为2的突触后神经元进行连接,依此类推。用于连接的突触权重均设置为固定值1,如图3所示。
4)设定阈值。当四个突触前神经元的脉冲发放在突触后神经元上累计超过设定阈值,则突触后神经元发放一次脉冲,实现对最大池化在脉冲神经网络上的近似,如图3所示,如图中第一列编号1,2,3,4,5,6,7,8为突触前神经元,第二列编号1,2为突触后神经元,Threshold表示设定阈值。
近似最大池化层的输出值即为分类层的输入,将近似最大池化层产生的脉冲序列输入分类层,从而对打印字母进行识别。近似最大池化层与分类层采取全连接的方式,突触权重为事先在CPU中训练好并保存的权重。
步骤104:采用部署到类脑计算平台上的脉冲神经网络进行图像识别。
近似最大池化层和分类器之间为全连接。
本发明将由卷积神经网络转化而来的脉冲神经网络部署在类脑计算平台上,对最大池化进行近似,利用阈值对突触后神经元是否发放脉冲进行调控,从而实现在硬件平台上进行脉冲卷积神经网络的运算。脉冲卷积神经网络中,最大池化是重要的一环,最大池化能完成对数据最显著信息特征的提取和处理,同时实现降维,减少硬件平台的运算量,从而减小能耗,以便于在类脑计算平台完成打印字母的识别任务。
本发明将卷积神经网络替换成对应的脉冲神经网络,并部署在了类脑计算平台上,实现打印字母的识别任务。相比于用CPU完成该任务,本发明利用类脑计算平台,功耗更低,同时依然能够保持识别的准确性。
本发明中采用的近似最大池化的方式,为首个在类脑计算平台实现的脉冲神经网络近似最大池化。最大池化广泛应用于卷积神经网络,用于减小提取特征时,卷积层参数误差造成估计均值的偏移。同时,能够实现降维,减少运算量,降低硬件平台计算时的能耗。
脉冲神经网络中,最大池化起到相似的作用。但由于脉冲神经网络的特殊性,即必须提前确定好神经元的连接,而在卷积神经网络中实现的最大池化是在选择出最大值之后,才建立连接,因此无法直接应用于脉冲神经网络;并且类脑计算平台无法进行反向传播。以上两点决定了只有极少数在脉冲神经网络中实现最大池化的方式能够在硬件平台上实现。
本发明中在硬件平台实现的近似最大池化,主要优势如下:
本发明仅需要建立两个神经元的Population,不同于其他在脉冲神经网络中实现最大池化的方案,往往需要建立三个Population。本发明方法有效节省了类脑计算平台的计算空间,有利于实现实时计算的脉冲神经网络。
本发明中通过阈值调节通过的脉冲,更符合生物特性,并且该方法能够有效地在类脑计算平台实现。通常,在脉冲神经网络中使用的最大池化方法,往往需要一个中间层,中间层用于记录脉冲发放数量或累积到的电压,之后再将脉冲发放数量最多或累积电压最大的神经元连接到最大池化的输出层,而目前类脑计算平台都是事先创建好连接,因此这样的方式难以在硬件平台实现。此外,使用本发明方法中采用的近似最大池化,相比于一般使用在脉冲神经网络中的最大池化方法,能够保留更多的信息。
通过最大池化,能有效减少下层的数据量,从而减少计算量,提高计算效率。
同时,由于最大池化在脉冲神经网络部署到类脑计算平台时,一直难以实现,导致现今图像识别领域常用的卷积神经网络,转化为脉冲神经网络的工作,一直无法以端对端的方式顺利开展。而类脑计算平台具备低功耗优势,能够以低成本完成大运算量的计算。本方法为此提供了切实可行的解决方案。
图4为本发明一种基于类脑计算平台的图像识别***结构示意图,如图4所示,一种基于类脑计算平台的图像识别***,包括:
脉冲神经网络构建模块201,用于构建脉冲神经网络;脉冲神经网络包括依次连接的卷积层、近似最大池化层和分类器,近似最大池化层包括突触前神经元集群和突触后神经元集群,突触前神经元集群包括多个顺序排列的神经元组,各神经元组中突触前神经元数量相同,突触前神经元集群中第i个神经元组中突触前神经元均与突触后神经元集群中第i个突触后神经元连接,当第i个神经元组中突触前神经元输入的脉冲累计超过设定阈值时,第i个突触后神经元发放一次脉冲,突触前神经元集群中突触前神经元与卷积层连接,突触后神经元与分类器连接。
脉冲神经网络训练模块202,用于对脉冲神经网络进行图像识别的训练,获得训练好的脉冲神经网络。
脉冲神经网络部署模块203,用于将训练好的脉冲神经网络部署到类脑计算平台。
图像识别模块204,用于采用部署到类脑计算平台上的脉冲神经网络进行图像识别。
脉冲神经网络的输入为一维脉冲序列。
近似最大池化层和分类器之间为全连接。
脉冲神经网络训练模块202,具体包括:
脉冲神经网络训练单元,用于通过反向传播的方式,训练卷积层到近似最大池化层的神经元之间的突触连接权重和近似最大池化层到分类器的神经元之间的突触连接权重,将训练好的各权重进行存储。
设定阈值为2。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的***而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。

Claims (10)

1.一种基于类脑计算平台的图像识别方法,其特征在于,包括:
构建脉冲神经网络;所述脉冲神经网络包括依次连接的卷积层、近似最大池化层和分类器,所述近似最大池化层包括突触前神经元集群和突触后神经元集群,所述突触前神经元集群包括多个顺序排列的神经元组,各神经元组中突触前神经元数量相同,所述突触前神经元集群中第i个神经元组中突触前神经元均与所述突触后神经元集群中第i个突触后神经元连接,当第i个神经元组中突触前神经元输入的脉冲累计超过设定阈值时,第i个突触后神经元发放一次脉冲;
对所述脉冲神经网络进行图像识别的训练,获得训练好的脉冲神经网络;
将训练好的脉冲神经网络部署到类脑计算平台;
采用部署到类脑计算平台上的脉冲神经网络进行图像识别。
2.根据权利要求1所述的基于类脑计算平台的图像识别方法,其特征在于,所述脉冲神经网络的输入为一维脉冲序列。
3.根据权利要求1所述的基于类脑计算平台的图像识别方法,其特征在于,所述近似最大池化层和所述分类器之间为全连接。
4.根据权利要求1所述的基于类脑计算平台的图像识别方法,其特征在于,所述对所述脉冲神经网络进行图像识别的训练,获得训练好的脉冲神经网络,具体包括:
通过反向传播的方式,训练所述卷积层到所述近似最大池化层的神经元之间的突触连接权重和所述近似最大池化层到所述分类器的神经元之间的突触连接权重,将训练好的各权重进行存储。
5.根据权利要求1所述的基于类脑计算平台的图像识别方法,其特征在于,所述设定阈值为2。
6.一种基于类脑计算平台的图像识别***,其特征在于,包括:
脉冲神经网络构建模块,用于构建脉冲神经网络;所述脉冲神经网络包括依次连接的卷积层、近似最大池化层和分类器,所述近似最大池化层包括突触前神经元集群和突触后神经元集群,所述突触前神经元集群包括多个顺序排列的神经元组,各神经元组中突触前神经元数量相同,所述突触前神经元集群中第i个神经元组中突触前神经元均与所述突触后神经元集群中第i个突触后神经元连接,当第i个神经元组中突触前神经元输入的脉冲累计超过设定阈值时,第i个突触后神经元发放一次脉冲;
脉冲神经网络训练模块,用于对所述脉冲神经网络进行图像识别的训练,获得训练好的脉冲神经网络;
脉冲神经网络部署模块,用于将训练好的脉冲神经网络部署到类脑计算平台;
图像识别模块,用于采用部署到类脑计算平台上的脉冲神经网络进行图像识别。
7.根据权利要求6所述的基于类脑计算平台的图像识别***,其特征在于,所述脉冲神经网络的输入为一维脉冲序列。
8.根据权利要求6所述的基于类脑计算平台的图像识别***,其特征在于,所述近似最大池化层和所述分类器之间为全连接。
9.根据权利要求6所述的基于类脑计算平台的图像识别***,其特征在于,所述脉冲神经网络训练模块,具体包括:
脉冲神经网络训练单元,用于通过反向传播的方式,训练所述卷积层到所述近似最大池化层的神经元之间的突触连接权重和所述近似最大池化层到所述分类器的神经元之间的突触连接权重,将训练好的各权重进行存储。
10.根据权利要求6所述的基于类脑计算平台的图像识别***,其特征在于,所述设定阈值为2。
CN202111584185.1A 2021-12-23 2021-12-23 一种基于类脑计算平台的图像识别方法及*** Active CN113962371B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111584185.1A CN113962371B (zh) 2021-12-23 2021-12-23 一种基于类脑计算平台的图像识别方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111584185.1A CN113962371B (zh) 2021-12-23 2021-12-23 一种基于类脑计算平台的图像识别方法及***

Publications (2)

Publication Number Publication Date
CN113962371A true CN113962371A (zh) 2022-01-21
CN113962371B CN113962371B (zh) 2022-05-20

Family

ID=79473713

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111584185.1A Active CN113962371B (zh) 2021-12-23 2021-12-23 一种基于类脑计算平台的图像识别方法及***

Country Status (1)

Country Link
CN (1) CN113962371B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114202068A (zh) * 2022-02-17 2022-03-18 浙江大学 面向类脑计算芯片的自学习实现***
CN114399033A (zh) * 2022-03-25 2022-04-26 浙江大学 基于神经元指令编码的类脑计算***和计算方法
CN115063597A (zh) * 2022-07-11 2022-09-16 北京理工大学 一种基于类脑学习的图像识别方法
CN115063597B (zh) * 2022-07-11 2024-07-26 北京理工大学 一种基于类脑学习的图像识别方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110210563A (zh) * 2019-06-04 2019-09-06 北京大学 基于Spike cube SNN的图像脉冲数据时空信息学习及识别方法
CN110378476A (zh) * 2019-07-11 2019-10-25 中国人民解放军国防科技大学 脉冲卷积神经网络的最大池化层的近似实现方法、***及介质
US20200210807A1 (en) * 2017-07-25 2020-07-02 Commissariat A L'Energie Atomique Et Aux Energie Alternatives Computer for spiking neural network with maximum aggregation
CN111858989A (zh) * 2020-06-09 2020-10-30 西安工程大学 一种基于注意力机制的脉冲卷积神经网络的图像分类方法
CN112784976A (zh) * 2021-01-15 2021-05-11 中山大学 一种基于脉冲神经网络的图像识别***及方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200210807A1 (en) * 2017-07-25 2020-07-02 Commissariat A L'Energie Atomique Et Aux Energie Alternatives Computer for spiking neural network with maximum aggregation
CN110210563A (zh) * 2019-06-04 2019-09-06 北京大学 基于Spike cube SNN的图像脉冲数据时空信息学习及识别方法
CN110378476A (zh) * 2019-07-11 2019-10-25 中国人民解放军国防科技大学 脉冲卷积神经网络的最大池化层的近似实现方法、***及介质
CN111858989A (zh) * 2020-06-09 2020-10-30 西安工程大学 一种基于注意力机制的脉冲卷积神经网络的图像分类方法
CN112784976A (zh) * 2021-01-15 2021-05-11 中山大学 一种基于脉冲神经网络的图像识别***及方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114202068A (zh) * 2022-02-17 2022-03-18 浙江大学 面向类脑计算芯片的自学习实现***
CN114399033A (zh) * 2022-03-25 2022-04-26 浙江大学 基于神经元指令编码的类脑计算***和计算方法
CN115063597A (zh) * 2022-07-11 2022-09-16 北京理工大学 一种基于类脑学习的图像识别方法
CN115063597B (zh) * 2022-07-11 2024-07-26 北京理工大学 一种基于类脑学习的图像识别方法

Also Published As

Publication number Publication date
CN113962371B (zh) 2022-05-20

Similar Documents

Publication Publication Date Title
CN110738090B (zh) 使用神经网络进行端到端手写文本识别的***和方法
CN110555523B (zh) 一种基于脉冲神经网络的短程跟踪方法及***
CN113962371B (zh) 一种基于类脑计算平台的图像识别方法及***
Kambhatla et al. Fast non-linear dimension reduction
CN110298663B (zh) 基于序列宽深学习的欺诈交易检测方法
US20190005380A1 (en) Classifying features using a neurosynaptic system
CN111507150B (zh) 利用基于深度神经网络的多重图像块组合识别人脸的方法
KR101644998B1 (ko) Convolutional Neural Network를 이용하여 비정상 입력 데이터를 검출하는 방법 및 장치
Wang et al. General-purpose LSM learning processor architecture and theoretically guided design space exploration
CN109165730B (zh) 交叉阵列神经形态硬件中状态量化网络实现方法
CN110766070A (zh) 一种基于循环自编码器的稀少信号识别方法及装置
CN114595874A (zh) 一种基于动态神经网络的超短期电力负荷预测方法
CN114490065A (zh) 一种负载预测方法、装置及设备
CN111091839A (zh) 语音唤醒方法、装置、存储介质及智能设备
CN109670582B (zh) 一种全定点化神经网络的设计方法
WO2021038793A1 (ja) 学習システム、学習方法、及びプログラム
CN112241802A (zh) 一种风电功率的区间预测方法
CN111783688B (zh) 一种基于卷积神经网络的遥感图像场景分类方法
Harikrishnan et al. Handwritten digit recognition with feed-forward multi-layer perceptron and convolutional neural network architectures
CN111882028B (zh) 用于卷积神经网络的卷积运算装置
CN116168394A (zh) 图像文本识别方法和装置
Kussul et al. Neural network with ensembles
JP7230324B2 (ja) ニューラルネットワークの学習方法、コンピュータプログラム及びコンピュータ装置
CN114463591A (zh) 深度神经网络图像分类方法、装置、设备和存储介质
CN113988281A (zh) 基于忆阻器结构的长短时记忆网络实现方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant