CN109791626B - 神经网络权重编码方法、计算装置及硬件*** - Google Patents
神经网络权重编码方法、计算装置及硬件*** Download PDFInfo
- Publication number
- CN109791626B CN109791626B CN201780042640.0A CN201780042640A CN109791626B CN 109791626 B CN109791626 B CN 109791626B CN 201780042640 A CN201780042640 A CN 201780042640A CN 109791626 B CN109791626 B CN 109791626B
- Authority
- CN
- China
- Prior art keywords
- weight
- matrix
- analog circuit
- neural network
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Neurology (AREA)
- Complex Calculations (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
一种用于神经网络的非拼接权重编码方法,包括:权重定点化步骤,将权重矩阵的每个矩阵元素转换为具有预定比特位数的第一数(S210);误差引入步骤,在所述第一数中引入具有预定标准差的噪声,获得第二数(S220);和训练步骤,对以第二数表示的权重矩阵进行训练,训练至收敛后,再将训练结果作为最终的权重矩阵写入对应表示一个矩阵元素的单个模拟电路器件中(S230),其中,通过单个模拟电路器件而非多个模拟电路器件的拼接来表示单个矩阵元素。根据所述用于神经网络的编码方法,可以在不影响效果的情况下,极大的降低资源的消耗,从而节省资源开销,以在有限资源的条件下布置规模巨大的神经网络。
Description
技术领域
本发明总体地涉及神经网络技术领域,更具体地涉及用于神经网络的权重编码方法、计算装置以及硬件***。
背景技术
随着摩尔定律逐渐失效,现有芯片工艺进步放缓,人们不得不面向新应用和新器件。近年来,神经网络(Neural Network,NN)计算取得了突破性进展,在图像识别、语言识别、自然语言处理等诸多领域均取得了很高的准确率,但神经网络需要海量计算资源,现有的通用处理器已经很难满足深度学习的计算需求,设计专用芯片已经成为了一个重要的发展方向。与此同时,忆阻器的出现为神经网络芯片设计提供了一种高效的解决方案,忆阻器具有高密度、非易失、低功耗、存算合一、易于3D等优点,在神经网络计算中可以利用其阻值可调的特点作为可编程权重,并利用其存算合一的优点作高速乘加器。
神经网络组成单元均为神经元,由大量神经元相互连接成网络。神经元之间的连接可以看作带权重的有向边,神经元的输出会被神经元之间的连接所加权,然后传递给所连到的神经元,而每个神经元接收到的所有输入会被累加起来进行进一步处理,产生神经元的输出。神经网络的建模通常以若干神经元为一层,层与层之间相互连接来构建,图1所示的是一种链状的神经网络,图中每一个圆表示一个神经元,每一个箭头表示神经元之间的连接,每个连接均有权重,***经网络的结构不限于链状的网络结构。
神经网络的核心计算是矩阵向量乘操作,包含n个神经元的层Ln产生的输出可以用长度为n的向量Vn表示,与包含m个神经元的层Lm全相联,连接权重可以表示成矩阵Mn×m,矩阵大小为n行m列,每个矩阵元素表示一个连接的权重。则加权之后输入到Lm的向量为Mn× mVn,这样的矩阵向量乘法运算是神经网络最核心的计算。
由于矩阵向量乘计算量非常大,在现有的通用处理器上进行大量的矩阵乘运算需要耗费大量的时间,因此神经网络加速芯片也都是以加速矩阵乘法运算为主要的设计目标。忆阻器阵列恰好能胜任上述工作。首先V为一组输入电压,电压与忆阻器电导G相乘并叠加输出电流,输出电流与接地电阻Rs相乘得到输出电压V’,整个过程在模拟电路下实现,具有速度快,面积小的优点。
然而使用基于忆阻器的芯片计算也存在精度低、扰动大,数模/模数转换开销大,矩阵规模受限等不足。而且虽然忆阻器可以高效地进行矩阵向量乘法运算,但是由于忆阻器芯片矩阵向量乘是在模拟电路中实现,所以不可避免的带来噪声和扰动,所以相对于神经网络,忆阻器的计算结果是不准确的。
由于忆阻器的工艺限制,使用忆阻器表示权重会有一定的误差。如图3所示,不同级的权重会有一定的重叠。为了避免重叠,现有方法一般是使用若干个低精度的忆阻器拼接来表示一个高精度权重,每个忆阻器精度都很低的情况下,可以认为权重数据是准确的。以用2个2比特忆阻器表示4比特权重为例,用一个2比特忆阻器来表示权重低2位,另一个表示高2位。
现有的ISAAC技术首先用浮点数训练一个神经网络,然后将权重数据“写入”忆阻器。ISAAC是用4个2比特忆阻器器件来表示一个8比特的权重,这样可以利用更多的资源来提高矩阵运算精度。
ISAAC使用拼接的方法来表示权重,效率比较低,需要很多的资源,比如表示一个1个权重,就需要4个忆阻器器件。
与ISAAC类似,现有的PRIME技术首先也用浮点数训练一个神经网络,然后使用2个3比特精度的输入电压来表示一个6比特输入,2个4比特的忆阻器器件来表示一个8比特的权重,并且将正、负的权重分别用两组阵列表示。
PRIME使用正负相加和高低位拼接方法来来表示权重,也需要大量的资源。即表示一个1个权重,就需要4个忆阻器器件。
基于忆阻器器件实现神经网络,必须克服权重读取误差的问题,这个问题是由器件特性和现有工艺造成的,目前难以避免。这些现有技术使用若干个低精度可以认为是“没有误差”的忆阻器拼接来表示一个高精度的权重,需要大量的资源,资源利用效率低。
因此,需要一种用于基于忆阻器神经网络的权重表示技术,以解决上述问题。
发明内容
鉴于上述情况,做出了本发明。
根据本发明的一个方面,提供了一种用于神经网络的非拼接权重训练方法,包括:权重定点化步骤,将权重矩阵的每个矩阵元素转换为具有预定比特位数的第一数;误差引入步骤,在所述第一数中引入具有预定标准差的噪声,获得第二数;和训练步骤,对以第二数表示的权重矩阵进行训练,训练至收敛后,得到训练结果,其中,所述训练结果将作为最终的权重矩阵,其各个矩阵元素被逐个写入对应表示一个矩阵元素的单个模拟电路器件中,其中通过单个模拟电路器件而非多个模拟电路器件的拼接来表示单个矩阵元素。
根据上述非拼接权重训练方法,在权重定点化步骤中,可以通过线性关系或对数关系进行第一数的转换。
根据上述非拼接权重训练方法,所述噪声可以为模拟电路的读写误差,并且服从正态分布规律。
根据上述非拼接权重训练方法,所述模拟电路器件可以为忆阻器、电容比较器或者电压比较器。
根据上述非拼接权重训练方法,所述第一数可以为定点数并且第二数可以为浮点数。
根据本发明的另一方面,提供了一种用于神经网络的非拼接权重编码方法,包括如下步骤:将权重矩阵的每个矩阵元素逐个写入对应表示一个矩阵元素的单个模拟电路器件中,以便通过单个模拟电路器件而非多个模拟电路器件的拼接来表示单个矩阵元素,其中,所述权重矩阵是通过上述非拼接权重训练方法得到的。
根据上述非拼接权重编码方法,在写入步骤之前,可以还包括如下步骤:权重定点化步骤,将权重矩阵的每个矩阵元素转换为具有预定比特位数的第一数;误差引入步骤,在所述第一数中引入具有预定标准差的噪声,获得第二数;和训练步骤,对以第二数表示的权重矩阵进行训练,训练至收敛后,得到训练结果。
根据本发明的另一方面,提供了一种神经网络芯片,具有通过模拟电路器件以硬件形式执行矩阵向量乘的操作的基本模块,其中,权重矩阵的每个矩阵元素被逐个写入对应表示一个矩阵元素的单个模拟电路器件中,以便通过单个模拟电路器件而非多个模拟电路器件的拼接来表示权重矩阵的单个矩阵元素。
根据上述神经网络芯片,所述权重矩阵可以是上述非拼接权重训练方法得到的。
根据本发明的又一方面,提供了一种计算装置,包括存储器和处理器,存储器上存储有计算机可执行指令,所述计算机可执行指令当被处理器执行时执行根据上述非拼接权重训练方法或根据上述非拼接权重编码方法。
根据本发明的又一方面,提供了一种神经网络***,包括:根据上述的计算装置;以及根据上述的神经网络芯片。
根据本发明,提供了一种用于神经网络的编码方法,可以在不影响效果的情况下,极大的降低资源的消耗,从而节省资源开销,以在有限资源的条件下布置规模巨大的神经网络。
附图说明
从下面结合附图对本发明实施例的详细描述中,本发明的这些和/或其它方面和优点将变得更加清楚并更容易理解,其中:
图1示出了链状的神经网络的示意图。
图2示出了基于忆阻器的交叉开关结构的示意图。
图3示出了在一个忆阻器上划分8级权重的权重统计分布图。
图4示出了根据本发明的神经网络的编码技术的应用情境的示意图。
图5示出了根据本发明的编码方法的总体流程图。
图6示出了使用现有高低位拼接方法和根据本发明的编码方法的实验效果对比。
具体实施方式
为了使本领域技术人员更好地理解本发明,下面结合附图和具体实施方式对本发明作进一步详细说明。
本申请提供一种新的编码方法(下文称为RLevel编码方法),其与现有方法的本质区别在于,新的编码方法并不要求使用单个器件表示的权重值不发生重叠,而是将这种误差引入训练当中。通过对含有噪声的权重矩阵进行训练,并使之能够训练至收敛,最后将收敛后的数值写入单个器件中,由此既能够增强该模型的抗噪能力,也能够减少表示矩阵元素的器件的数量,降低了成本和资源消耗。
下面将结合附图对本申请的技术原理和实施方式进行详细分析。
图3示出了在一个忆阻器上划分8级权重的权重统计分布图。
如图3所示,由于忆阻器器件引起的误差近似于正态分布,假设器件的误差服从正态分布N(μ,σ2),如果用忆阻器电导值来表示一个n比特的值,则μ有2n个可能的值。这里,本领域技术人员可以理解,为了简化计算,对应不同电导值μ,采用相同的标准差σ。
虽然,在下面的具体实施方式中以忆阻器作为示例进行说明,但是除了忆阻器以外的其他能够实现矩阵向量乘的电路器件也是可以的,比如电容或电压比较器。
根据正态分布叠加的性质:统计独立的常态随机变量X~(μx,σx 2),Y~(μy,σy 2),那么它们的和也满足正态分布U=X+Y~(μx+μy,σx 2+σy 2)。
假设如现有技术那样,用2个器件拼接来表示一个高精度权重。l和h分别代表低位和高位器件,权重表示为2n*h+l,低位和高位的误差分别是L~(l,σ2),H~(h,σ2),则2n*H~(h,22n*σ2)。权重的取值范围是22n-l,权重误差的标准差是我们把取值范围与标准差作为最终精度的标准,则拼接权重方法的精度为:
相比,本申请中,用一个器件来表示高精度权重,其精度是(2n-l)/σ。
从上述结果可见,使用高低位拼接方法和单个器件表示权重的精度基本相同。
图4示出了根据本发明的神经网络的编码技术的应用情境的示意图。如图4所示,本公开的总体发明构思在于:将神经网络应用1100所采用的网络模型1200通过编码方法1300进行权重编码,将结果写入神经网络芯片1400的忆阻器器件,从而解决了基于忆阻器神经网络的权重表示需要大量器件的问题,最终在不明显损失精度的前提下,节省了大量的资源。
一、编码方法
图5示出了根据本发明的编码方法的总体流程图,包括如下步骤:
1、权重定点化步骤S210,将权重矩阵的每个矩阵元素转换为具有预定比特位数的第一数;
根据硬件设计(单个忆阻器器件的精度需要硬件支持),在前向网络中,将每一个权重值转换为一定精度的定点数,得到定点化权重。
这里,为了更好地说明本发明的方法,以下面的表1的2*2大小的权重矩阵A为例子进一步说明。
表1初始权重矩阵A
0.2641 | 0.8509 |
0.3296 | 0.6740 |
当以4比特作为预定比特位数,将每个权重值转化为4比特定点数。其中,矩阵中的最大值0.8509对应于4比特的最大值,即24-1=15,而其他值相应地进行线性换算而得到定点化权重,获得表2的定点数矩阵。
表2定点数矩阵B
5.0000 | 15.0000 |
6.0000 | 12.0000 |
需要说明的是,上面是通过线性方式进行定点数的转换,但是本领域技术人员可以理解,也可以不通过线性方式,而通过对数或者其他计算方式进行转换。
2、误差引入步骤S220,在所述第一数中引入具有预定标准差的噪声,获得第二数。
根据忆阻器器件特性,加入标准差为σ的正态分布的噪声进行训练,即权重w=w+Noise,Noise~(0,σ2)。需要说明的是,在这里,将第一数设定为定点数,而第二数等于第一数加噪音,因此第二数为浮点数。例如0、1、2、3四个定点数,加入了噪音,变成-0.1、1.02、2.03、2.88四个浮点数,但是这样的设定并非限制性的,第一数也可以是浮点数。
3、训练步骤S230,对以第二数表示的权重矩阵进行训练,训练至收敛后,再将训练结果作为最终的权重矩阵写入用于权重矩阵计算的电路器件中。
二、理论验证
下面给出实际的示例来从理论角度说明以同样的输入,使用根据本发明的RLevel编码方法的输出和根据现有技术的高低位拼接方法的输出有着接近的精度。
如果用两个2比特进行拼接,定点数矩阵B(表2)分解为高位矩阵H(表3)和低位矩阵L(表4):
表3高位矩阵H
1.0000 | 3.0000 |
1.0000 | 3.0000 |
表4低位矩阵L
1.0000 | 3.0000 |
2.0000 | 0.0000 |
拼接中,定点数矩阵B等于高位矩阵H*4+低位矩阵L,即B=4*H+L,不管高位还是低位,最大值对应于2比特的最大值,即3。
下面为了更好地模拟实际误差的引入,将定点数矩阵B分别按照RLevel方法和高低位拼接方法转换为4*10-6至4*10-5的电导值,则得到表5的Rlevel电导矩阵RC、高位电导矩阵HC和低位电导矩阵LC。
需要注意的是,根据本发明的训练过程并不会将矩阵转换为电导值,而是在第一数的基础上增加标准差为σ的正态分布的噪声进行训练。此处是为了说明,实际误差的引入是由于忆阻器器件或者其他所使用的电路器件在读取和写入过程中由于噪声和扰动而引起的,因此下面基于作为模拟值的电导值进行数据分析。
表5电导矩阵
假设输入电压为:
0.10 0.15
【无噪声】
如果没有噪声,则基于上述输入电压,Rlevel电导矩阵RC、高位电导矩阵HC和低位电导矩阵LC的输出分别为:
表6电导矩阵输出
Rlevel输出RC_out | 高位输出HC_out | 低位输出LC_out | 拼接输出HLC_out |
4.36000000E-06 | 4.0000E-06 | 1.0000E-05 | 2.18000000E-05 |
8.92000000E-06 | 5.8000E-06 | 4.6000E-06 | 4.46000000E-05 |
上述拼接输出为按照高位输出*4+低位输出。
如果将表6的结果,即Rlevel输出RC_out和拼接输出HL_out,转换为8比特定点数进行比较,则可以看出两者均为:
125.255.
【加入噪声】
如果对电导矩阵加入均值为0且标准差为0.05*4*10-5(即大约为5%)的噪声,则得到表7的噪声矩阵。
表7噪声矩阵
仍然假设输入电压为:
0.10 0.15
则Rlevel、高位和低位噪声矩阵输出分别为:
表8噪声矩阵输出
Rlevel输出RN_out | 高位输出HN_out | 低位输出LN_out | 拼接输出HLN_out |
4.5550E-06 | 4.2578E-06 | 6.3242E-06 | 2.3355E-05 |
9.0081E-06 | 9.9704E-06 | 4.1181E-06 | 4.4000E-05 |
如果将表8的结果,即Rlevel输出RN_out和拼接输出HLN_out,转换为8比特定点数进行比较,则可以看出两者分别为:
Rlevel输出:129.00 255.00
拼接输出:135.00 255.00
由最终结果可见,无论加入噪声还是不加入噪声,根据本发明的RLevel编码方法都与现有技术的高低位拼接方法的输出有着非常接近的精度,因此,从理论角度验证了本发明的方案的实用性和可行性。
三、数据验证
为了从实验数据角度验证本发明的编码方法的有效性,申请人做了一系列的实验。
图6示出了使用现有高低位拼接方法和根据本发明的RLevel编码方法的实验效果对比。
本次实验使用卷积神经网络对CIFAR10数据集进行分类。该数据集有60000个32*32像素的彩色图片,每张图片都属于10种分类之一。如图6所示,横坐标为权重精度,纵坐标为正确率。图中有两根线,下面的线是使用RLevel方法,分别用一个器件表示2、4、6、8比特的权重,而上面的线是以分别为1、2、3、4比特的2个器件拼接来表示2、4、6、8比特。
如图6所示,在本次实验中,用RLevel方法的准确率与用高低位拼接方法的准确率非常接近,但是由于只使用了一个器件,而不需要多个器件的拼接,属于非拼接编码,因此可以节省50%的资源。如此,根据本发明的权重编码方法,不需要采用高低位拼接,就能够提供与现有的高低位拼接基本相同的精度,既解决了通过忆阻器等模拟电路来进行神经网络的权重矩阵计算需要布置大量电路器件的问题,也降低了成本,节省了资源。
以上已经描述了本发明的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。因此,本发明的保护范围应该以权利要求的保护范围为准。
Claims (10)
1.一种用于神经网络的非拼接权重训练方法,包括:
权重定点化步骤,将权重矩阵的每个矩阵元素转换为具有预定比特位数的第一数;
误差引入步骤,在所述第一数中引入具有预定标准差的噪声,获得第二数;和
训练步骤,对以第二数表示的权重矩阵进行训练,训练至收敛后,得到训练结果,
其中,所述训练结果将作为最终的权重矩阵,其各个矩阵元素被逐个写入对应表示一个矩阵元素的单个模拟电路器件中,其中通过单个模拟电路器件而非多个模拟电路器件的拼接来表示单个矩阵元素。
2.根据权利要求1所述的非拼接权重训练方法,其中,在权重定点化步骤中,通过线性关系或对数关系进行第一数的转换。
3.根据权利要求1所述的非拼接权重训练方法,其中,所述噪声为模拟电路的读写误差,并且服从正态分布规律。
4.根据权利要求1所述的非拼接权重训练方法,其中,所述模拟电路器件为忆阻器、电容比较器或者电压比较器。
5.根据权利要求1所述的非拼接权重训练方法,其中,所述第一数为定点数并且第二数为浮点数。
6.一种用于神经网络的非拼接权重编码方法,包括如下步骤:将权重矩阵的每个矩阵元素逐个写入对应表示一个矩阵元素的单个模拟电路器件中,以便通过单个模拟电路器件而非多个模拟电路器件的拼接来表示单个矩阵元素,
其中,所述权重矩阵是通过权利要求1到5中任一项所述的非拼接权重训练方法得到的。
7.根据权利要求6所述的非拼接权重编码方法,其中,在写入步骤之前,还包括如下步骤:
权重定点化步骤,将权重矩阵的每个矩阵元素转换为具有预定比特位数的第一数;
误差引入步骤,在所述第一数中引入具有预定标准差的噪声,获得第二数;和
训练步骤,对以第二数表示的权重矩阵进行训练,训练至收敛后,得到训练结果。
8.一种神经网络芯片,具有通过模拟电路器件以硬件形式执行矩阵向量乘的操作的基本模块,
其中,权重矩阵的每个矩阵元素被逐个写入对应表示一个矩阵元素的单个模拟电路器件中,以便通过单个模拟电路器件而非多个模拟电路器件的拼接来表示权重矩阵的单个矩阵元素,其中所述权重矩阵是通过权利要求1到5中任一项所述的非拼接权重训练方法得到的。
9.一种计算装置,包括存储器和处理器,存储器上存储有计算机可执行指令,所述计算机可执行指令当被处理器执行时执行权利要求1到5中任一项所述的非拼接权重训练方法或权利要求6到7中任一项所述的非拼接权重编码方法。
10.一种神经网络***,包括:
如权利要求9所述的计算装置;以及
如权利要求8所述的神经网络芯片。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2017/119821 WO2019127363A1 (zh) | 2017-12-29 | 2017-12-29 | 神经网络权重编码方法、计算装置及硬件*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109791626A CN109791626A (zh) | 2019-05-21 |
CN109791626B true CN109791626B (zh) | 2022-12-27 |
Family
ID=66495542
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780042640.0A Active CN109791626B (zh) | 2017-12-29 | 2017-12-29 | 神经网络权重编码方法、计算装置及硬件*** |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN109791626B (zh) |
WO (1) | WO2019127363A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12033064B2 (en) | 2020-02-18 | 2024-07-09 | Hangzhou Zhicun Intelligent Technology Co., Ltd. | Neural network weight matrix adjusting method, writing control method and related apparatus |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10678244B2 (en) | 2017-03-23 | 2020-06-09 | Tesla, Inc. | Data synthesis for autonomous control systems |
US11893393B2 (en) | 2017-07-24 | 2024-02-06 | Tesla, Inc. | Computational array microprocessor system with hardware arbiter managing memory requests |
US10671349B2 (en) | 2017-07-24 | 2020-06-02 | Tesla, Inc. | Accelerated mathematical engine |
US11409692B2 (en) | 2017-07-24 | 2022-08-09 | Tesla, Inc. | Vector computational unit |
US11157441B2 (en) | 2017-07-24 | 2021-10-26 | Tesla, Inc. | Computational array microprocessor system using non-consecutive data formatting |
US11561791B2 (en) | 2018-02-01 | 2023-01-24 | Tesla, Inc. | Vector computational unit receiving data elements in parallel from a last row of a computational array |
US11215999B2 (en) | 2018-06-20 | 2022-01-04 | Tesla, Inc. | Data pipeline and deep learning system for autonomous driving |
US11361457B2 (en) | 2018-07-20 | 2022-06-14 | Tesla, Inc. | Annotation cross-labeling for autonomous control systems |
US11636333B2 (en) | 2018-07-26 | 2023-04-25 | Tesla, Inc. | Optimizing neural network structures for embedded systems |
US11562231B2 (en) | 2018-09-03 | 2023-01-24 | Tesla, Inc. | Neural networks for embedded devices |
SG11202103493QA (en) | 2018-10-11 | 2021-05-28 | Tesla Inc | Systems and methods for training machine models with augmented data |
US11196678B2 (en) | 2018-10-25 | 2021-12-07 | Tesla, Inc. | QOS manager for system on a chip communications |
US11816585B2 (en) | 2018-12-03 | 2023-11-14 | Tesla, Inc. | Machine learning models operating at different frequencies for autonomous vehicles |
US11537811B2 (en) | 2018-12-04 | 2022-12-27 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
US11610117B2 (en) | 2018-12-27 | 2023-03-21 | Tesla, Inc. | System and method for adapting a neural network model on a hardware platform |
US10997461B2 (en) | 2019-02-01 | 2021-05-04 | Tesla, Inc. | Generating ground truth for machine learning from time series elements |
US11150664B2 (en) | 2019-02-01 | 2021-10-19 | Tesla, Inc. | Predicting three-dimensional features for autonomous driving |
US11567514B2 (en) | 2019-02-11 | 2023-01-31 | Tesla, Inc. | Autonomous and user controlled vehicle summon to a target |
US10956755B2 (en) | 2019-02-19 | 2021-03-23 | Tesla, Inc. | Estimating object properties using visual image data |
CN110796241B (zh) * | 2019-11-01 | 2022-06-17 | 清华大学 | 基于忆阻器的神经网络的训练方法及其训练装置 |
CN111027619B (zh) * | 2019-12-09 | 2022-03-15 | 华中科技大学 | 一种基于忆阻器阵列的K-means分类器及其分类方法 |
WO2021163866A1 (zh) * | 2020-02-18 | 2021-08-26 | 杭州知存智能科技有限公司 | 神经网络权重矩阵调整方法、写入控制方法以及相关装置 |
CN115481562B (zh) * | 2021-06-15 | 2023-05-16 | 中国科学院微电子研究所 | 多并行度优化方法、装置、识别方法和电子设备 |
CN114282478B (zh) * | 2021-11-18 | 2023-11-17 | 南京大学 | 一种修正可变电阻器件阵列点乘误差的方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105224986A (zh) * | 2015-09-29 | 2016-01-06 | 清华大学 | 基于忆阻器件的深度神经网络*** |
CN106650922A (zh) * | 2016-09-29 | 2017-05-10 | 清华大学 | 硬件神经网络转换方法、计算装置、编译方法和神经网络软硬件协作*** |
CN106796668A (zh) * | 2016-03-16 | 2017-05-31 | 香港应用科技研究院有限公司 | 用于人工神经网络中比特深度减少的方法和*** |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10580401B2 (en) * | 2015-01-27 | 2020-03-03 | Google Llc | Sub-matrix input for neural network layers |
US10748064B2 (en) * | 2015-08-27 | 2020-08-18 | International Business Machines Corporation | Deep neural network training with native devices |
CN107085628A (zh) * | 2017-03-21 | 2017-08-22 | 东南大学 | 一种细胞神经网络可调权值模块仿真方法 |
-
2017
- 2017-12-29 CN CN201780042640.0A patent/CN109791626B/zh active Active
- 2017-12-29 WO PCT/CN2017/119821 patent/WO2019127363A1/zh active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105224986A (zh) * | 2015-09-29 | 2016-01-06 | 清华大学 | 基于忆阻器件的深度神经网络*** |
CN106796668A (zh) * | 2016-03-16 | 2017-05-31 | 香港应用科技研究院有限公司 | 用于人工神经网络中比特深度减少的方法和*** |
CN106650922A (zh) * | 2016-09-29 | 2017-05-10 | 清华大学 | 硬件神经网络转换方法、计算装置、编译方法和神经网络软硬件协作*** |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12033064B2 (en) | 2020-02-18 | 2024-07-09 | Hangzhou Zhicun Intelligent Technology Co., Ltd. | Neural network weight matrix adjusting method, writing control method and related apparatus |
Also Published As
Publication number | Publication date |
---|---|
CN109791626A (zh) | 2019-05-21 |
WO2019127363A1 (zh) | 2019-07-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109791626B (zh) | 神经网络权重编码方法、计算装置及硬件*** | |
US20220374688A1 (en) | Training method of neural network based on memristor and training device thereof | |
CN107844828B (zh) | 神经网络中的卷积计算方法和电子设备 | |
CN108108811B (zh) | 神经网络中的卷积计算方法和电子设备 | |
Schorn et al. | An efficient bit-flip resilience optimization method for deep neural networks | |
CN107340993B (zh) | 运算装置和方法 | |
CN110991633B (zh) | 一种基于忆阻网络的残差神经网络模型及其应用方法 | |
Cai et al. | Low bit-width convolutional neural network on RRAM | |
CN109791628B (zh) | 神经网络模型分块压缩方法、训练方法、计算装置及*** | |
Kim et al. | Input voltage mapping optimized for resistive memory-based deep neural network hardware | |
CN112070204B (zh) | 一种基于阻变存储器的神经网络映射方法、加速器 | |
CN108897716B (zh) | 通过存储器读写操作来缩减计算量的数据处理装置及方法 | |
CN107423816A (zh) | 一种多计算精度神经网络处理方法和*** | |
CN105718943A (zh) | 基于粒子群优化算法的特征选择方法 | |
CN114067157A (zh) | 基于忆阻器的神经网络优化方法、装置及忆阻器阵列 | |
CN114330042A (zh) | 基于sn曲线的程序载荷谱编制方法、***和存储介质 | |
CN112598123A (zh) | 神经网络的权值的量化方法、量化装置及存储介质 | |
CN115035017A (zh) | 细胞密度分群方法、装置、电子设备及存储介质 | |
CN117273109A (zh) | 基于量子神经元的混合神经网络的构建方法及装置 | |
CN114897159A (zh) | 一种基于神经网络的快速推断电磁信号入射角的方法 | |
Shin et al. | Fault-Free: A Framework for Analysis and Mitigation of Stuck-at-Fault on Realistic ReRAM-Based DNN Accelerators | |
Kozu et al. | Low power neural network by reducing SRAM operating voltage | |
Wang et al. | Deep neural network mapping and performance analysis on tiled rram architecture | |
US20220108203A1 (en) | Machine learning hardware accelerator | |
Fukuda et al. | Robustness Evaluation of Restricted Boltzmann Machine against Memory and Logic Error |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |