CN107748914A - 人工神经网络运算电路 - Google Patents
人工神经网络运算电路 Download PDFInfo
- Publication number
- CN107748914A CN107748914A CN201710983606.5A CN201710983606A CN107748914A CN 107748914 A CN107748914 A CN 107748914A CN 201710983606 A CN201710983606 A CN 201710983606A CN 107748914 A CN107748914 A CN 107748914A
- Authority
- CN
- China
- Prior art keywords
- neural network
- artificial neural
- control instruction
- learning parameter
- buffer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 37
- 210000002569 neuron Anatomy 0.000 claims abstract description 38
- 230000007935 neutral effect Effects 0.000 claims description 28
- 230000001537 neural effect Effects 0.000 claims description 20
- 230000006870 function Effects 0.000 claims description 13
- 230000000644 propagated effect Effects 0.000 claims description 7
- 210000004027 cell Anatomy 0.000 claims description 5
- 230000005284 excitation Effects 0.000 claims description 5
- 230000003068 static effect Effects 0.000 claims description 5
- 241000208340 Araliaceae Species 0.000 claims 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 claims 1
- 235000003140 Panax quinquefolius Nutrition 0.000 claims 1
- 235000008434 ginseng Nutrition 0.000 claims 1
- 210000004218 nerve net Anatomy 0.000 claims 1
- 238000000034 method Methods 0.000 description 8
- 235000013399 edible fruits Nutrition 0.000 description 4
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000005036 nerve Anatomy 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000002490 cerebral effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种人工神经网络运算电路。其中,该人工神经网络运算电路包括:控制器,用于向至少一个神经元发送控制指令及学习参数;至少一个神经元,与控制器连接,用于根据控制指令及学习参数对输入数据进行神经元运算,并输出运算结果。本发明解决了CPU对于人工神经网络运算效率较低的技术问题。
Description
技术领域
本发明涉及图像处理领域,具体而言,涉及一种人工神经网络运算电路。
背景技术
人工神经网络(Artificial Neural Network),是20世纪80年代以来人工智能领域兴起的研究热点,它从生物信息处理角度对大脑神经元网络进行抽象,按不同的连接方式组成不同的网络。人工神经网络特有的非线性适应性信息处理能力,克服了传统人工智能方法对于直觉,如模式、语音识别、非结构化信息处理等方面的缺陷,使之在模式识别、智能控制、优化组合、预测等领域得到成功应用。
然而,人工神经网络是并行分布式***,传统的CPU和GPU对于人工神经网络,运算效率低下,成本高昂,功耗过大。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本发明实施例提供了一种人工神经网络运算电路,以至少解决CPU对于人工神经网络运算效率较低的技术问题。
根据本发明实施例的一个方面,提供了一种人工神经网络运算电路,包括:控制器,用于向至少一个神经元发送控制指令及学习参数;所述至少一个神经元,与所述控制器连接,用于根据所述控制指令及所述学习参数对输入数据进行神经元运算,并输出运算结果。
可选地,所述至少一个神经元包括:缓冲器,用于存储所述控制指令、所述输入数据以及所述学习参数;计算电路,与所述缓冲器连接,用于根据所述控制指令及所述学习参数对所述输入数据进行神经元运算。
可选地,所述缓冲器包括:指令缓冲器,用于存储所述控制指令;数据缓冲器,用于存储接收到的所述输入数据和所述学习参数。
可选地,所述计算电路用于执行以下步骤根据所述控制指令及所述学习参数对所述输入数据进行神经元运算:读取所述指令缓冲器中存储的所述控制指令;若所述控制指令为反向传播指令,从所述数据缓冲器中读取所述学习参数;根据所述反向传播指令修正所述学习参数;将修正后的所述学习存入所述数据缓冲器。
可选地,所述计算电路用于执行以下步骤根据所述控制指令及所述学习参数对所述输入数据进行神经元运算:读取所述指令缓冲器中存储的所述控制指令;若所述控制指令为前向传播指令,从所述数据缓冲器读取所述输入数据和所述学习参数;依据所述学习参数对所述输入数据进行加权求和,得到加权求和结果;将所述加权求和结果输入预设激励函数,得到所述运算结果。
可选地,所述计算电路用于执行以下步骤依据所述学习参数对所述输入数据进行加权求和,得到加权求和结果:计算所述输入数据与所述学习参数的乘积;对各个所述乘积进行求和运算,得到所述加权求和结果。
可选地,所述人工神经网络运算电路包括N层神经网络,每层神经网络包括至少一个神经元,所述N层神经网络中最后一层神经网络中的至少一个神经元将运算结果输出至所述控制器,N为正整数。
可选地,所述控制器,还用于接收所述最后一层神经网络中的至少一个神经元输出的运算结果;将所述运算结果与目标值进行比较,生成误差信号;根据所述误差信号生成反向传播指令;将所述反向传播指令作为所述控制指令。
可选地,所述N层神经网络中第一层神经网络与输入层全连接。
可选地,所述缓冲器中的存储介质包括以下至少之一:寄存器单元、静态存储器、动态存储器。
在本发明实施例中,采用控制器向至少一个神经元发送控制指令及学习参数;所述至少一个神经元根据所述控制指令及所述学习参数对输入数据进行神经元运算,并输出运算结果的方式,通过设计适用于人工神经网络的硬件电路结构,达到了减小CPU的性能要求的目的,从而实现了提供人工神经网络运算速度的技术效果,进而解决了CPU对于人工神经网络运算效率较低的技术问题。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是根据本发明实施例的一种可选的人工神经网络运算电路的结构示意图;
图2是根据本发明实施例的另一种可选的人工神经网络运算电路的结构示意图;
图3是根据本发明实施例的又一种可选的人工神经网络运算电路的结构示意图;
图4是根据本发明实施例的一种可选的神经元运算的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、***、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
根据本发明实施例,提供了一种人工神经网络运算电路的结构实施例,图1是根据本发明实施例的人工神经网络运算电路,如图1所示,该人工神经网络运算电路包括:控制器10和至少一个神经元12。
其中,控制器10,用于向至少一个神经元12发送控制指令及学习参数;至少一个神经元12,与控制器10连接,用于根据控制指令及学习参数对输入数据进行神经元运算,并输出运算结果。
结合图2所示,以两层神经网络为例进行说明,输入层D0/D1/D2接收外部数据(相当于输入数据),并将其传导到第一隐层(即第一层神经网络),输入数据可以为音频或视频数据;第一隐层的神经元00、神经元01、神经元02与输入层全连接(也可为部分连接),根据控制器的控制指令对输入数据进行神经元运算,神经元的学习参数由控制器产生并传送给对应的神经元,第一隐层将运算结果传送给下一层神经网络,第二隐层(即第二神经网络)的神经元10、神经元11根据上一层的输入、学习参数及控制指令进行神经元运算并输出结果。
在本发明实施例中,采用控制器向至少一个神经元发送控制指令及学习参数;至少一个神经元根据控制指令及学习参数对输入数据进行神经元运算,并输出运算结果的方式,通过设计适用于人工神经网络的硬件电路结构,达到了减小CPU的性能要求的目的,从而实现了提供人工神经网络运算速度的技术效果,进而解决了CPU对于人工神经网络运算效率较低的技术问题。
可选地,如图3所示,至少一个神经元12包括:缓冲器120和计算电路122。
其中,缓冲器120,用于存储控制指令、输入数据以及学习参数;计算电路122,与缓冲器120连接,用于根据控制指令及学习参数对输入数据进行神经元运算。
可选地,结合图1及图3所示,缓冲器120包括:指令缓冲器1200,用于存储控制指令;数据缓冲器1202,用于存储接收到的输入数据和学习参数。
本实施例中,结合图3所示,神经元12由指令缓冲器1200,数据缓冲器1202和计算电路122构成,指令缓冲器1200接收控制器10产生的前向传播指令或者后向传播指令(其中,控制指令包括前向传播指令或者后向传播指令),数据缓冲器1202接收输入数据和学习参数并存储下来,计算电路122进行专用的神经元运算。
其中,指令缓冲器1200接收到控制器10的控制指令,将控制指令缓冲在存储介质中,存储介质可为寄存器单元、SRAM(静态存储器)、DRAM(动态存储器)等;数据缓冲器1202接收输入数据及学习参数,并将其存储到对应的存储介质中,存储介质也可为寄存器单元、SRAM(静态存储器)、DRAM(动态存储器)等;计算电路122根据控制指令及学习参数对输入数据进行神经元运算。
可选地,计算电路122用于执行以下步骤根据控制指令及学习参数对输入数据进行神经元运算:读取指令缓冲器中存储的控制指令;若控制指令为反向传播指令,从数据缓冲器中读取学习参数;根据反向传播指令修正学习参数;将修正后的学习存入数据缓冲器。
计算电路122根据控制器10产生的前向指令对输入数据进行神经元运算,神经元12的学习参数由控制器10产生并传送给对应的神经元12,第i层神经网络将运算结果传送给第i+1神经网络,第i+1神经网络根据上一层的输入、学习参数及前向传播指令进行神经元运算并输出结果。以此类推,控制器10依据最后一层神经网络的输出结果跟预设值最比对,由此产生误差信号,再由误差信号的大小产生反向传播指令,并调整各层神经元的学习参数,依次迭代下去,直到最终的误差信号小于某一规定阈值为止,其中0<i<N,i为整数。
可选地,计算电路122用于执行以下步骤根据控制指令及学习参数对输入数据进行神经元运算:读取指令缓冲器中存储的控制指令;若控制指令为前向传播指令,从数据缓冲器读取输入数据和学习参数;依据学习参数对输入数据进行加权求和,得到加权求和结果;将加权求和结果输入预设激励函数,得到运算结果。
具体地,计算电路122用于执行以下步骤依据学习参数对输入数据进行加权求和,得到加权求和结果:计算输入数据与学习参数的乘积;对各个乘积进行求和运算,得到加权求和结果。
如图4所示,D0、D1、D2、D3为输入数据,w0、w1、w2、w3为对应权值(即学习参数),SUM为求和运算,f为预设激励函数,可以为sigmoid函数或者tanh函数等函数。计算电路122读取指令缓冲器1200的控制指令,如前向传播指令,就到数据缓冲器1202中取出对应的输入数据和学习参数,根据输入节点(输入数据)的权值(学习参数)进行加权求和,再将其加权求和结果输入一预设激励函数中,预设激励函数可以为sigmoid、tanh等函数运算,并将结果输出,如果读取到反向传播指令,专用运算电路会从数据缓冲器中取出对应的学习参数,对其进行一次修正,再存入数据缓冲器。
其中,sigmoid函数,即f(x)=1/(1+e-x),是神经元的非线性作用函数;tanh函数用于返回任意实数的双曲正切值。
可选地,人工神经网络运算电路包括N层神经网络,每层神经网络包括至少一个神经元,N层神经网络中最后一层神经网络中的至少一个神经元将运算结果输出至控制器,N为正整数。
可选地,控制器10,还用于接收最后一层神经网络中的至少一个神经元输出的运算结果;将运算结果与目标值进行比较,生成误差信号;根据误差信号生成反向传播指令;将反向传播指令作为控制指令。
结合图2所示,仍以两层神经网络为例进行说明,控制器依据第二隐层的输出结果跟目标值进行比对,由此生成误差信号,再由误差信号的大小产生反向传播指令,并调整各层神经元的学习参数,依次迭代下去,直到最终的误差信号小于某一规定阈值为止。
可选地,N层神经网络中第一层神经网络与输入层全连接。
可选地,缓冲器中的存储介质包括以下至少之一:寄存器单元、静态存储器、动态存储器。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如单元的划分,可以为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (10)
1.一种人工神经网络运算电路,其特征在于,包括:
控制器,用于向至少一个神经元发送控制指令及学习参数;
所述至少一个神经元,与所述控制器连接,用于根据所述控制指令及所述学习参数对输入数据进行神经元运算,并输出运算结果。
2.根据权利要求1所述的人工神经网络运算电路,其特征在于,所述至少一个神经元包括:
缓冲器,用于存储所述控制指令、所述输入数据以及所述学习参数;
计算电路,与所述缓冲器连接,用于根据所述控制指令及所述学习参数对所述输入数据进行神经元运算。
3.根据权利要求2所述的人工神经网络运算电路,其特征在于,所述缓冲器包括:
指令缓冲器,用于存储所述控制指令;
数据缓冲器,用于存储接收到的所述输入数据和所述学习参数。
4.根据权利要求3所述的人工神经网络运算电路,其特征在于,所述计算电路用于执行以下步骤根据所述控制指令及所述学习参数对所述输入数据进行神经元运算:
读取所述指令缓冲器中存储的所述控制指令;
若所述控制指令为反向传播指令,从所述数据缓冲器中读取所述学习参数;
根据所述反向传播指令修正所述学习参数;
将修正后的所述学习存入所述数据缓冲器。
5.根据权利要求3所述的人工神经网络运算电路,其特征在于,所述计算电路用于执行以下步骤根据所述控制指令及所述学习参数对所述输入数据进行神经元运算:
读取所述指令缓冲器中存储的所述控制指令;
若所述控制指令为前向传播指令,从所述数据缓冲器读取所述输入数据和所述学习参数;
依据所述学习参数对所述输入数据进行加权求和,得到加权求和结果;
将所述加权求和结果输入预设激励函数,得到所述运算结果。
6.根据权利要求5所述的人工神经网络运算电路,其特征在于,所述计算电路用于执行以下步骤依据所述学习参数对所述输入数据进行加权求和,得到加权求和结果:
计算所述输入数据与所述学习参数的乘积;
对各个所述乘积进行求和运算,得到所述加权求和结果。
7.根据权利要求1至6中任一项所述的人工神经网络运算电路,其特征在于,所述人工神经网络运算电路包括N层神经网络,每层神经网络包括至少一个神经元,所述N层神经网络中最后一层神经网络中的至少一个神经元将运算结果输出至所述控制器,N为正整数。
8.根据权利要求7所述的人工神经网络运算电路,其特征在于,所述控制器,还用于接收所述最后一层神经网络中的至少一个神经元输出的运算结果;将所述运算结果与目标值进行比较,生成误差信号;根据所述误差信号生成反向传播指令;将所述反向传播指令作为所述控制指令。
9.根据权利要求7所述的人工神经网络运算电路,其特征在于,所述N层神经网络中第一层神经网络与输入层全连接。
10.根据权利要求2所述的人工神经网络运算电路,其特征在于,所述缓冲器中的存储介质包括以下至少之一:寄存器单元、静态存储器、动态存储器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710983606.5A CN107748914A (zh) | 2017-10-19 | 2017-10-19 | 人工神经网络运算电路 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710983606.5A CN107748914A (zh) | 2017-10-19 | 2017-10-19 | 人工神经网络运算电路 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107748914A true CN107748914A (zh) | 2018-03-02 |
Family
ID=61252636
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710983606.5A Pending CN107748914A (zh) | 2017-10-19 | 2017-10-19 | 人工神经网络运算电路 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107748914A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109739703A (zh) * | 2018-12-28 | 2019-05-10 | 北京中科寒武纪科技有限公司 | 调错方法及相关产品 |
CN110363291A (zh) * | 2018-03-26 | 2019-10-22 | 上海寒武纪信息科技有限公司 | 神经网络的运算方法、装置、计算机设备和存储介质 |
CN111523653A (zh) * | 2019-02-03 | 2020-08-11 | 上海寒武纪信息科技有限公司 | 运算装置及方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030120363A1 (en) * | 2001-12-21 | 2003-06-26 | Quicksilver Technology, Inc. | IC for universal computing with near zero programming complexity |
CN102880908A (zh) * | 2012-09-11 | 2013-01-16 | 天津大学 | 一种基于bp神经网络的再制造零件环境损耗的计算方法 |
CN104145281A (zh) * | 2012-02-03 | 2014-11-12 | 安秉益 | 神经网络计算装置和***及其方法 |
CN104641385A (zh) * | 2012-09-14 | 2015-05-20 | 国际商业机器公司 | 神经核心电路 |
CN106372724A (zh) * | 2016-08-31 | 2017-02-01 | 西安西拓电气股份有限公司 | 一种人工神经网络算法 |
CN106991477A (zh) * | 2016-01-20 | 2017-07-28 | 南京艾溪信息科技有限公司 | 一种人工神经网络压缩编码装置和方法 |
CN106991478A (zh) * | 2016-01-20 | 2017-07-28 | 南京艾溪信息科技有限公司 | 用于执行人工神经网络反向训练的装置和方法 |
CN106991476A (zh) * | 2016-01-20 | 2017-07-28 | 南京艾溪信息科技有限公司 | 用于执行人工神经网络正向运算的装置和方法 |
CN107766936A (zh) * | 2016-08-22 | 2018-03-06 | 耐能有限公司 | 人造神经网络、人造神经元及人造神经元的控制方法 |
-
2017
- 2017-10-19 CN CN201710983606.5A patent/CN107748914A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030120363A1 (en) * | 2001-12-21 | 2003-06-26 | Quicksilver Technology, Inc. | IC for universal computing with near zero programming complexity |
CN104145281A (zh) * | 2012-02-03 | 2014-11-12 | 安秉益 | 神经网络计算装置和***及其方法 |
CN102880908A (zh) * | 2012-09-11 | 2013-01-16 | 天津大学 | 一种基于bp神经网络的再制造零件环境损耗的计算方法 |
CN104641385A (zh) * | 2012-09-14 | 2015-05-20 | 国际商业机器公司 | 神经核心电路 |
CN106991477A (zh) * | 2016-01-20 | 2017-07-28 | 南京艾溪信息科技有限公司 | 一种人工神经网络压缩编码装置和方法 |
CN106991478A (zh) * | 2016-01-20 | 2017-07-28 | 南京艾溪信息科技有限公司 | 用于执行人工神经网络反向训练的装置和方法 |
CN106991476A (zh) * | 2016-01-20 | 2017-07-28 | 南京艾溪信息科技有限公司 | 用于执行人工神经网络正向运算的装置和方法 |
CN107766936A (zh) * | 2016-08-22 | 2018-03-06 | 耐能有限公司 | 人造神经网络、人造神经元及人造神经元的控制方法 |
CN106372724A (zh) * | 2016-08-31 | 2017-02-01 | 西安西拓电气股份有限公司 | 一种人工神经网络算法 |
Non-Patent Citations (2)
Title |
---|
F. PIAZZA 等: "Neural networks with digital LUT activation functions", 《PROCEEDINGS OF 1993 INTERNATIONAL CONFERENCE ON NEURAL NETWORKS (IJCNN-93-NAGOYA, JAPAN)》 * |
朱文龙: "基于遗传算法的BP神经网络在多目标优化中的应用研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110363291A (zh) * | 2018-03-26 | 2019-10-22 | 上海寒武纪信息科技有限公司 | 神经网络的运算方法、装置、计算机设备和存储介质 |
CN109739703A (zh) * | 2018-12-28 | 2019-05-10 | 北京中科寒武纪科技有限公司 | 调错方法及相关产品 |
CN109739703B (zh) * | 2018-12-28 | 2020-01-17 | 中科寒武纪科技股份有限公司 | 调错方法及相关产品 |
CN111523653A (zh) * | 2019-02-03 | 2020-08-11 | 上海寒武纪信息科技有限公司 | 运算装置及方法 |
CN111523653B (zh) * | 2019-02-03 | 2024-03-29 | 上海寒武纪信息科技有限公司 | 运算装置及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107918794A (zh) | 基于计算阵列的神经网络处理器 | |
US11521068B2 (en) | Method and system for neural network synthesis | |
CN107169563B (zh) | 应用于二值权重卷积网络的处理***及方法 | |
US11461626B2 (en) | Brain-like computing chip and computing device | |
CN106022468B (zh) | 人工神经网络处理器集成电路及该集成电路的设计方法 | |
CN107578095B (zh) | 神经网络计算装置及包含该计算装置的处理器 | |
CN106485317A (zh) | 一种神经网络加速器以及神经网络模型的实现方法 | |
CN109472356A (zh) | 一种可重构神经网络算法的加速装置及方法 | |
CN107766935B (zh) | 多层人造神经网络 | |
CN107748914A (zh) | 人工神经网络运算电路 | |
CN107527090A (zh) | 应用于稀疏神经网络的处理器和处理方法 | |
CN107622305A (zh) | 用于神经网络的处理器和处理方法 | |
CN106203622B (zh) | 神经网络运算装置 | |
CN107862380A (zh) | 人工神经网络运算电路 | |
CN109214508B (zh) | 信号处理的***和方法 | |
CN107944545A (zh) | 应用于神经网络的计算方法及计算装置 | |
CN209231976U (zh) | 一种可重构神经网络算法的加速装置 | |
CN108647776A (zh) | 一种卷积神经网络卷积膨胀处理电路及方法 | |
CN109993275A (zh) | 一种信号处理方法及装置 | |
CN107169566A (zh) | 动态神经网络模型训练方法和装置 | |
CN108009635A (zh) | 一种支持增量更新的深度卷积计算模型 | |
CN109753319A (zh) | 一种释放动态链接库的装置及相关产品 | |
CN109299487A (zh) | 神经网络模型、加速器、建模方法及装置、介质及*** | |
CN114519425A (zh) | 一种规模可扩展的卷积神经网络加速*** | |
CN109978143B (zh) | 一种基于simd架构的堆栈式自编码器及编码方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180302 |
|
RJ01 | Rejection of invention patent application after publication |