CN114677548A - 基于阻变存储器的神经网络图像分类***及方法 - Google Patents
基于阻变存储器的神经网络图像分类***及方法 Download PDFInfo
- Publication number
- CN114677548A CN114677548A CN202210579664.2A CN202210579664A CN114677548A CN 114677548 A CN114677548 A CN 114677548A CN 202210579664 A CN202210579664 A CN 202210579664A CN 114677548 A CN114677548 A CN 114677548A
- Authority
- CN
- China
- Prior art keywords
- value
- layer
- convolution
- quantized
- quantization
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了基于阻变存储器的神经网络图像分类***及方法,***包括依次连接的输入层、一组卷积层和全连接层,为卷积层配合设置卷积量化层、卷积反量化层、激活层和池化层,方法包括步骤S1:对待分类的图像进行归一化,得到归一化后的图像;步骤S2:对归一化后的图像进行训练集和测试集的构建;步骤S3:构建基于阻变存储器的神经网络模型;步骤S4:将训练集输入到基于阻变存储器的神经网络模型中,进行量化感知训练,得到量化感知训练后的模型参数,包括如下步骤:步骤S5:将测试集图像输入训练好的神经网络,进行进行前向推理测试。
Description
技术领域
本发明涉及神经网络图像分类技术领域,尤其是涉及基于阻变存储器的神经网络图像分类***及方法。
背景技术
随着深度学习的快速发展,神经网络技术已经广泛应用于图像识别,语音识别,自然语言处理等多种领域。神经网络的应用通常部署在边缘设备端。传统的芯片架构中,内存和计算分离,计算单元要先从内存中读取数据,计算完成后再存回内存。然而面对神经网络高并发的需求,传统的芯片架构需要频繁的搬运数据,会导致巨大的功耗和计算瓶颈。
阻变存储器(ReRAM),又称为忆阻器,具有低功耗、结构简单、工作速度快以及阻值可控可变等优点,同时忆阻器可以实现逻辑运算,矩阵乘法等多种运算形式。利用忆阻器存算一体的特性可以减少数据的搬运,降低存储的需求。因此,ReRAM有很大的潜力可以解决传统芯片架构所带来的问题。近年来,基于忆阻器的神经网络加速器为神经网络的推理提供了一种有效的解决方案。
虽然ReRAM对于实现神经网络的推理有很大的优势,但是在实现的过程中需要对神经网络模型进行压缩,这会导致图像识别精度的损失。合理有效的量化方法在精度损失较低的情况下,可以减少数据的存储空间,提高计算的速度。现有的主流深度学习平台如tensorflow、pytorch的神经网络量化算法,在卷积算子、全连接算子操作之后,数据会超出量化的位宽。因此需要缩放到量化的位宽,算法上需要乘以一个浮点小数来进行缩放,在硬件上需要通过左移和右移两个操作来近似算法上的缩放操作。然而由于ReRAM器件的电导范围和每层输入的量化位宽有限,进行以上操作资源占用率高,操作复杂。
发明内容
为解决现有技术的不足,基于器件和算法协同设计的思想,结合了ReRAM器件的电导范围和每层输入的量化位宽有限的特性,通过设计约束条件来优化量化因子的位宽,使得量化因子采用最优的2的幂次方,且在卷积后进行缩放的操作过程中仅需要右移有限位数即可,实现操作简单,达到了既降低图像识别精度的损失,又提升图像识别的速度,降低资源占用率的目的,本发明采用如下的技术方案:
一种基于阻变存储器的神经网络图像分类***,包括依次连接的输入层、一组卷积层、全连接层,为卷积层配合设置卷积量化层、卷积反量化层、激活层和池化层,输入层用于获取训练集图像,卷积量化层对输入层的输入值和第一卷积层的卷积进行量化,得到量化后的输入值和卷积核,卷积反量化层对量化后的输入值和卷积核进行反量化,得到的第一卷积层输出反量化后的值,基于数字域对应在存储设备上的位进行移位操作,得到第一卷积层输出反量化移位后的值,通过激活层对反量化移位后的值进行激活操作,通过池化层对激活后的值进行池化操作,将池化后的值作为下一卷积量化层的输入值,直至最后一个卷积层对应的池化输出,将最后的池化输出经全连接层得到训练集图像的分类预测结果,根据预测结果与训练集真值的误差,进行反向传播,训练基于阻变存储器的神经网络模型,由于量化的方法中采用了四舍五入法,无法进行梯度求解,因此误差在反向传播的过程中,跳过量化层直接回传到量化前的值,通过更新量化之前值的权重,优化网络参数,从而降低量化所带来的精度损失;将待分类图像输入训练好的***中,通过卷积量化层对输入层的输入值和第一卷积层的卷积进行量化,将得到的输入层的量化值、第一卷积层的量化值进行卷积操作,得到第一卷积层输出的量化值,将输入层的量化值映射为阻变存储器的电压值,将第一卷积层的量化值映射为阻变存储器的电导值,将卷积操作的结果映射为阻变存储器输出的电流值,将电流值转换成电压值,并基于电压值对应在存储设备上的位进行移位操作,得到第一卷积层输出量化移位后的值,通过激活层对量化后的值进行激活操作,通过池化层对激活后的值进行池化操作,将池化后的值作为下一卷积量化层的输入值,直至最后一个卷积层对应的池化输出,将最后的池化输出经全连接层得到待分类图像的分类结果。
进一步地,所述阻变存储器构成阻变存储器阵列,将输入层的量化值映射为阻变存储器的电压值输入第一列阻变存储器,将卷积层的量化值映射为各阻变存储器的电导值,每一列阻变存储器输出的电流值为该列输入的量化值与卷积层的量化值进行卷积操作。
进一步地,所述卷积层包括第一卷积层和第二卷积层,分别为第一、第二卷积层分别配合设置卷积量化层、卷积反量化层、激活层和池化层。
进一步地,所述量化的过程如下:
公式(1)表示浮点的卷积操作;
公式(2)计算浮点值映射到定点值的最小值;
公式(3)计算浮点值映射到定点值的最大值;
通过公式(5)求出每一层的量化值;
进一步地,将量化后的输入值和卷积核分别进行反量化,然后通过公式(6)将反量化后的输入值与反量化后的卷积核进行卷积操作,得到第一卷积层输出的反量化后的浮点值;
通过公式(6)可退出公式(7):
一种基于阻变存储器的神经网络图像分类方法,包括如下步骤:
步骤S1:对待分类的图像进行归一化,得到归一化后的图像;
步骤S2:对归一化后的图像进行训练集和测试集的构建;
步骤S3:构建基于阻变存储器的神经网络模型;
步骤S4:将训练集输入到基于阻变存储器的神经网络模型中,进行量化感知训练,得到量化感知训练后的模型参数,包括如下步骤:
步骤S4-1:对输入层的输入值和第一卷积层的卷积进行量化,得到量化后的输入值和卷积核;
步骤S4-2:将量化后的输入值和卷积核分别进行反量化,通过激活层对反量化后
的值进行激活操作,通过池化层对激活后的值进行池化操作,得到第一卷积层输出反量化
后的值,基于数字域对应在存储设备上的位进行移位操作,得到第一卷积层输出反量化移
位后的值;具体地在数字域除以后(对应硬件存储设备上的移位操作,
右移位后),得到卷积层输出量化后的值。右移操作实现了步骤
S4中公式(7)的剩余操作,最后通过激活操作和最大池化操作得到池化后的值;
步骤S4-3:通过激活层对反量化后的值进行激活操作,通过池化层对激活后的值进行池化操作,将池化后的值作为下一卷积量化层的输入值,直至最后一个卷积层对应的池化输出,将最后的池化输出经全连接层得到训练集图像的分类预测结果,根据预测结果与训练集真值的误差,进行反向传播,训练基于阻变存储器的神经网络模型,由于量化的方法中采用了四舍五入法,无法进行梯度求解,因此误差在反向传播的过程中,跳过量化层直接回传到量化前的值,通过更新量化之前值的权重,优化网络参数,从而降低量化所带来的精度损失;
步骤S5:将测试集图像输入训练好的神经网络,进行前向推理测试,包括如下步骤:
步骤S5-1:将测试集作为输入,通过步骤S3、步骤S4得到的输入层的量化值、第一卷积层的量化值进行卷积操作,得到第一卷积层输出的量化值,将输入层的量化值映射为阻变存储器的电压值,将第一卷积层的量化值映射为阻变存储器的电导值,将卷积操作的结果映射为阻变存储器输出的电流值;
步骤S5-2:将电流值转换成电压值,并基于电压值进行移位操作,得到第一卷积层输出量化移位后的值,通过激活层对量化后的值进行激活操作,通过池化层对激活后的值进行池化操作,将池化后的值作为下一卷积量化层的输入值,直至最后一个卷积层对应的池化输出,将最后的池化输出经全连接层得到测试集图像的分类结果。
进一步地,所述步骤S4-1具体的量化方法,包括如下步骤:
公式(1)表示浮点的卷积操作;
公式(2)计算浮点值映射到定点值的最小值;
公式(3)计算浮点值映射到定点值的最大值;
约束条件:
通过公式(5)求出每一层的量化值;
进一步地,所述步骤S4-2中,将量化后的输入值和卷积核分别进行反量化,然后通过公式(6)将反量化后的输入值与反量化后的卷积核进行卷积操作,得到第一卷积层输出的反量化后的浮点值;
通过公式(6)可推出公式(7):
进一步地,所述步骤S5-2中,构建阻变存储器构成阻变存储器阵列,将输入层的量化值映射为阻变存储器的电压值输入第一列阻变存储器,将卷积层的量化值映射为各阻变存储器的电导值,每一列阻变存储器输出的电流值为该列输入的量化值与卷积层的量化值进行卷积操作。
一种基于阻变存储器的神经网络图像分类装置,包括一个或多个处理器,用于实现所述的基于阻变存储器的神经网络图像分类方法。
本发明的优势和有益效果在于:
本发明提出的基于阻变存储器的神经网络图像分类***及方法,由于ReRAM器件的电导范围有限,需要有限的位宽来存储卷积核。由于每层输入的量化位宽有限,需要有限的位宽来存储卷积后的输出值。本发明通过设计约束条件来优化量化因子的位宽,使得量化因子采用最优的2的幂次方,在卷积后缩放的操作过程中仅需要右移有限位数即可,操作简单。降低ADC(模拟转数字电路)右移所带来的精度损失。同时进行量化感知训练,降低量化本身所带来的精度的损失,同时提升了模型的推理速度。
附图说明
图1是本发明实施例的方法流程图。
图2是本发明实施例中训练基于阻变存储器的神经网络模型的流程图。
图3是本发明实施例中通过训练好的模型进行图像分类预测的流程图。
图4是本发明实施例中输入图像的部分示例图。
图5是本发明实施例中基于ReRAM的交叉阵列图。
图6是浮点模型与本发明实施例的方法对测试集每一类的分类精度对比图。
图7是本发明实施例的装置结构图。
具体实施方式
以下结合附图对本发明的具体实施方式进行详细说明。应当理解的是,此处所描述的具体实施方式仅用于说明和解释本发明,并不用于限制本发明。
如图1至图3所示,本发明的实施示例是对fashion mnist数据集进行分类。如图4所示,数据集一共有50000个训练样本,10000个测试样本。每个样本是尺寸为28*28的灰度图像。数据集一共有10类,分别是T恤,裤子,套衫,连衣裙,上衣,凉鞋,衬衫,运动鞋,书包,短靴。
本发明提出的基于阻变存储器的神经网络图像分类***,包括依次连接的输入层、一组卷积层、全连接层,为卷积层配合设置卷积量化层、卷积反量化层、激活层和池化层,输入层用于获取训练集图像,卷积量化层对输入层的输入值和第一卷积层的卷积进行量化,得到量化后的输入值和卷积核,卷积反量化层对量化后的输入值和卷积核进行反量化,得到的第一卷积层输出反量化后的值,基于数字域对应在存储设备上的位进行移位操作,得到第一卷积层输出反量化移位后的值,通过激活层对反量化移位后的值进行激活操作,通过池化层对激活后的值进行池化操作,将池化后的值作为下一卷积量化层的输入值,直至最后一个卷积层对应的池化输出,将最后的池化输出经全连接层得到训练集图像的分类预测结果,根据预测结果与训练集真值的误差,进行反向传播,训练基于阻变存储器的神经网络模型,由于量化的方法中采用了四舍五入法,无法进行梯度求解,因此误差在反向传播的过程中,跳过量化层直接回传到量化前的值,通过更新量化之前值的权重,优化网络参数,从而降低量化所带来的精度损失;将待分类图像输入训练好的***中,通过卷积量化层对输入层的输入值和第一卷积层的卷积进行量化,将得到的输入层的量化值、第一卷积层的量化值进行卷积操作,得到第一卷积层输出的量化值,将输入层的量化值映射为阻变存储器的电压值,将第一卷积层的量化值映射为阻变存储器的电导值,将卷积操作的结果映射为阻变存储器输出的电流值,将电流值转换成电压值,并基于电压值进行移位操作,得到第一卷积层输出量化移位后的值,通过激活层对量化后的值进行激活操作,通过池化层对激活后的值进行池化操作,将池化后的值作为下一卷积量化层的输入值,直至最后一个卷积层对应的池化输出,将最后的池化输出经全连接层得到待分类图像的分类结果。
阻变存储器构成阻变存储器阵列,将输入层的量化值映射为阻变存储器的电压值输入第一列阻变存储器,将卷积层的量化值映射为各阻变存储器的电导值,每一列阻变存储器输出的电流值为该列输入的量化值与卷积层的量化值进行卷积操作。
卷积层包括第一卷积层和第二卷积层,分别为第一、第二卷积层分别配合设置卷积量化层、卷积反量化层、激活层和池化层。
本发明提出的基于阻变存储器的神经网络图像分类方法,包括如下步骤:
步骤S1:对待分类的图像进行归一化,得到归一化后的图像;将图像的像素值归一化到0-1之间,本发明实施例中,对fashion mnist数据集中所有样本的像素值除以255进行归一化操作后,样本像素值的范围变为[0,1]。
步骤S2:对归一化后的图像进行训练集和测试集的构建;选取fashion mnist中的训练样本作为训练集,fashion mnist中的测试样本作为测试集。
步骤S3:构建基于阻变存储器的神经网络模型;
具体地神经网络模型结构为:输入层→第一卷积量化层→第一卷积反量化层→激活层→池化层→第二卷积量化层→第二卷积反量化层→激活层→池化层→全连接量化层→全连接反量化层→softmax层。每一层权重参数的尺寸设置如下:
步骤S4:将训练集输入到基于阻变存储器的神经网络模型中,进行量化感知训练,得到量化感知训练后的模型参数,包括如下步骤:
本发明实施例中,量化位宽为8bit, 输入量化到[0,255],每层的权重参数量化到[-128, 127]。具体步骤如下:
步骤S4-1:对输入层的输入值和第一卷积层的卷积进行量化,得到量化后的输入值和卷积核;具体的量化方法如下:
公式(1)表示浮点的卷积操作;
公式(2)计算浮点值映射到定点值的最小值;
公式(3)计算浮点值映射到定点值的最大值;
公式(4)的约束条件使得定点值的范围尽可能的接近浮点值的范围以减少量化所带来的精度损失;
约束条件:
通过公式(5)可以求出每一层的量化值;
步骤S4-2:将量化后的输入值和卷积核分别进行反量化,通过激活层对反量化后的值进行激活操作,通过池化层对激活后的值进行池化操作,得到第一卷积层输出反量化后的值,基于数字域对应在存储设备上的位进行移位操作,得到第一卷积层输出反量化移位后的值;
通过公式(6)将量化后的输入值和卷积核分别进行反量化,然后将反量化后的输入值与反量化后的卷积核进行卷积操作,得到第一卷积输出层反量化后的浮点值;
步骤S4-3:通过激活层对反量化移位后的值进行激活操作,通过池化层对激活后的值进行池化操作,将池化后的值作为下一卷积量化层的输入值,直至最后一个卷积层对应的池化输出,将最后的池化输出经全连接层得到训练集图像的分类预测结果,根据预测结果与训练集真值的误差,进行反向传播,训练基于阻变存储器的神经网络模型,由于量化的方法中采用了四舍五入法,无法进行梯度求解,因此误差在反向传播的过程中,跳过量化层直接回传到量化前的值,通过更新量化之前值的权重,优化网络参数,从而降低量化所带来的精度损失;
具体地,将第一卷积输出层反量化后的浮点值,输入到下一层中作为下一层的输入。以此类推,可以得到全连接层的浮点值,然后通过softmax分类器得到网络的输出,通过求解网络输出与人工标记的正确类别之间的误差并对误差进行反向传播,由于量化的方法中采用了四舍五入法,无法进行梯度求解,因此,误差在反向传播的过程中会跳过量化层直接回传到量化之前的浮点值,通过更新量化之前的浮点权重来优化网络参数,从而降低量化所带来的精度损失。最后得到量化感知训练后的神经网络模型。
步骤S5:将测试集图像输入训练好的神经网络,进行前向推理测试。
具体地,将量化感知训练后的神经网络模型映射到ReRAM忆阻器上,输入测试集,进行前向推理测试。具体步骤为如图5所示,图5中的V表示电压值,G表示电导值,I表示电流值。
步骤S5-1:将测试集作为输入,通过步骤S3、步骤S4得到的输入层的量化值、第
一卷积层的量化值进行卷积操作,得到第一卷积层输出的量化值,将输入层的量
化值映射为阻变存储器的电压值,将第一卷积层的量化值映射为阻变存储器的电导
值,将卷积操作的结果映射为阻变存储器输出的电流值;
步骤S5-2:将电流值转换成电压值,并基于电压值对应在存储设备上的位进行移位操作,得到第一卷积层输出量化移位后的值,通过激活层对量化移位后的值进行激活操作,通过池化层对激活后的值进行池化操作,将池化后的值作为下一卷积量化层的输入值,直至最后一个卷积层对应的池化输出,将最后的池化输出经全连接层得到测试集图像的分类结果。
具体地,将步骤S5-1输出的电流值经过ADC转换成电压,然后转换成数值,最后在
数字域除以后(即再硬件存储设备上进行移位操作,右移位后),得到卷积层输出量化后的值。右移操作实现了步骤4公
式(7)中的剩余操作,最后通过激活操作和最大池化操作得到池化后的值。
以此类推,得到全连接层的量化值,将全连接层量化值的最大值的索引作为网络预测的类别。其中池化层和全连接层用软件来实现。
下面结合仿真实验对本发明的效果做进一步的说明:
1、仿真条件:
本发明的仿真实验是在NVIDIA GV100的硬件环境和Pytorch1.5的软件环境下进行的。
2、仿真内容与结果分析:
对于fashion minist数据集的分类问题。如图6所示的直方图中,深灰色的直方图表示用浮点精度的模型对测试集进行前向推理的分类结果,浅灰色的直方图表示本发明8bit量化以后的模型对测试集进行前向推理的分类结果。从图中可以看出,使用浮点模型对测试集进行测试的结果与本发明的基于阻变存储器的量化方法测试结果进行比较,二者对于每一类的识别精度相差较小。表1展示了二者分别对测试集的平均识别精度,可以看出,本发明的基于阻变存储器的量化方法几乎没有精度的损失,但是可以加快模型的推理速度。
表1:浮点模型与本发明量化后的模型精度对比表
测试方法 | 平均识别精度 |
浮点模型对测试集进行推理测试 | 0.8864 |
本发明对测试集进行推理测试 | 0.8852 |
综上所述,本发明提出了基于阻变存储器的神经网络模型量化方法,该方法结合了ReRAM器件的电导范围和每层输入的量化位宽有限的特性,由于ReRAM器件的电导范围有限,需要有限的位宽来存储卷积核。每层输入的量化位宽有限,需要有限的位宽来存储卷积后的输出值。本发明通过设计约束条件来优化量化因子的位宽,使得量化因子采用最优的2的幂次方,在卷积后缩放的操作过程中仅需要右移有限位数即可,操作简单。降低ADC(模拟转数字电路)右移所带来的精度损失。同时进行量化感知训练,降低量化本身所带来的精度的损失,同时提升了模型的推理速度。对于fashion mnist数据集分类,与浮点精度相比,8bit量化精度损失低于0.5个百分点。
与前述基于阻变存储器的神经网络图像分类方法的实施例相对应,本发明还提供了基于阻变存储器的神经网络图像分类装置的实施例。
参见图7,本发明实施例提供的基于阻变存储器的神经网络图像分类装置,包括一个或多个处理器,用于实现上述实施例中的基于阻变存储器的神经网络图像分类方法。
本发明基于阻变存储器的神经网络图像分类装置的实施例可以应用在任意具备数据处理能力的设备上,该任意具备数据处理能力的设备可以为诸如计算机等设备或装置。装置实施例可以通过软件实现,也可以通过硬件或者软硬件结合的方式实现。以软件实现为例,作为一个逻辑意义上的装置,是通过其所在任意具备数据处理能力的设备的处理器将非易失性存储器中对应的计算机程序指令读取到内存中运行形成的。从硬件层面而言,如图7所示,为本发明基于阻变存储器的神经网络图像分类装置所在任意具备数据处理能力的设备的一种硬件结构图,除了图7所示的处理器、内存、网络接口、以及非易失性存储器之外,实施例中装置所在的任意具备数据处理能力的设备通常根据该任意具备数据处理能力的设备的实际功能,还可以包括其他硬件,对此不再赘述。
上述装置中各个单元的功能和作用的实现过程具体详见上述方法中对应步骤的实现过程,在此不再赘述。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本发明方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
本发明实施例还提供一种计算机可读存储介质,其上存储有程序,该程序被处理器执行时,实现上述实施例中的基于阻变存储器的神经网络图像分类方法。
所述计算机可读存储介质可以是前述任一实施例所述的任意具备数据处理能力的设备的内部存储单元,例如硬盘或内存。所述计算机可读存储介质也可以是任意具备数据处理能力的设备的外部存储设备,例如所述设备上配备的插接式硬盘、智能存储卡(Smart Media Card,SMC)、SD卡、闪存卡(Flash Card)等。进一步的,所述计算机可读存储介质还可以既包括任意具备数据处理能力的设备的内部存储单元也包括外部存储设备。所述计算机可读存储介质用于存储所述计算机程序以及所述任意具备数据处理能力的设备所需的其他程序和数据,还可以用于暂时地存储已经输出或者将要输出的数据。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的范围。
Claims (10)
1.一种基于阻变存储器的神经网络图像分类***,包括依次连接的输入层、一组卷积层和全连接层,其特征在于:为卷积层配合设置卷积量化层、卷积反量化层、激活层和池化层,输入层用于获取训练集图像,卷积量化层对输入层的输入值和第一卷积层的卷积进行量化,得到量化后的输入值和卷积核,卷积反量化层对量化后的输入值和卷积核进行反量化,反量化后的输入值和卷积核进行卷积操作得到第一卷积层输出反量化后的值,基于数字域进行移位操作,得到第一卷积层输出反量化移位后的值,通过激活层对反量化移位后的值进行激活操作,对激活后的值进行池化操作,将池化后的值作为下一卷积量化层的输入值,直至最后一个卷积层对应的池化输出,将最后的池化输出经全连接层得到训练集图像的分类预测结果,根据预测结果与训练集真值的误差,进行反向传播,训练基于阻变存储器的神经网络模型,反向传播的过程中,跳过量化层直接回传到量化前的值,通过更新量化之前值的权重,优化网络参数;将待分类图像输入训练好的***中,通过卷积量化层对输入层的输入值和第一卷积层的卷积进行量化,将得到的输入层的量化值、第一卷积层的量化值进行卷积操作,得到第一卷积层输出的量化值,将输入层的量化值映射为阻变存储器的电压值,将第一卷积层的量化值映射为阻变存储器的电导值,将卷积操作的结果映射为阻变存储器输出的电流值,将电流值转换成电压值,并基于电压值进行移位操作,得到第一卷积层输出量化移位后的值,通过激活层对量化后的值进行激活操作,通过池化层对激活后的值进行池化操作,将池化后的值作为下一卷积量化层的输入值,直至最后一个卷积层对应的池化输出,将最后的池化输出经全连接层得到待分类图像的分类结果。
2.根据权利要求1所述的基于阻变存储器的神经网络图像分类***,其特征在于:所述阻变存储器构成阻变存储器阵列,将输入层的量化值映射为阻变存储器的电压值输入第一列阻变存储器,将卷积层的量化值映射为各阻变存储器的电导值,每一列阻变存储器输出的电流值为该列输入的量化值与卷积层的量化值进行卷积操作。
3.根据权利要求1所述的基于阻变存储器的神经网络图像分类***,其特征在于:所述卷积层包括第一卷积层和第二卷积层,分别为第一、第二卷积层分别配合设置卷积量化层、卷积反量化层、激活层和池化层。
4.根据权利要求1至3之一所述的基于阻变存储器的神经网络图像分类***,其特征在于:所述量化的过程如下:
公式(1)表示浮点的卷积操作;
其中,表示输入层的浮点值,表示第一卷积层的卷积核的浮点值,表示卷积操
作;分别将输入层的浮点值和第一卷积层的卷积核的浮点值映射到定点值,通过公式(2)、
公式(3)和公式(4)来确定最优的定点值的小数位宽;
公式(2)计算浮点值映射到定点值的最小值;
公式(3)计算浮点值映射到定点值的最大值;
通过公式(5)求出每一层的量化值;
6.一种基于阻变存储器的神经网络图像分类方法,其特征在于包括如下步骤:
步骤S1:对待分类的图像进行归一化,得到归一化后的图像;
步骤S2:对归一化后的图像进行训练集和测试集的构建;
步骤S3:构建基于阻变存储器的神经网络模型;
步骤S4:将训练集输入到基于阻变存储器的神经网络模型中,进行量化感知训练,得到量化感知训练后的模型参数,包括如下步骤:
步骤S4-1:对输入层的输入值和第一卷积层的卷积核进行量化,得到量化后的输入值和卷积核;
步骤S4-2:将量化后的输入值和卷积核分别进行反量化,反量化后的输入值和卷积核进行卷积操作得到第一卷积层输出反量化后的值,基于数字域进行移位操作,得到第一卷积层输出反量化移位后的值;
步骤S4-3:通过激活层对反量化移位后的值进行激活操作,通过池化层对激活后的值进行池化操作,将池化后的值作为下一卷积量化层的输入值,直至最后一个卷积层对应的池化输出,将最后的池化输出经全连接层得到训练集图像的分类预测结果,根据预测结果与训练集真值的误差,进行反向传播,训练基于阻变存储器的神经网络模型,反向传播的过程中,跳过量化层直接回传到量化前的值,通过更新量化之前值的权重,优化网络参数;
步骤S5:将测试集图像输入训练好的神经网络,进行前向推理测试,包括如下步骤:
步骤S5-1:将测试集作为输入,通过步骤S3、步骤S4得到的输入层的量化值、第一卷积层的量化值进行卷积操作,得到第一卷积层输出的量化值,将输入层的量化值映射为阻变存储器的电压值,将第一卷积层的量化值映射为阻变存储器的电导值,将卷积操作的结果映射为阻变存储器输出的电流值;
步骤S5-2:将电流值转换成电压值,并基于电压值进行移位操作,得到第一卷积层输出量化移位后的值,通过激活层对量化后的值进行激活操作,通过池化层对激活后的值进行池化操作,将池化后的值作为下一卷积量化层的输入值,直至最后一个卷积层对应的池化输出,将最后的池化输出经全连接层得到测试集图像的分类结果。
7.根据权利要求6所述的一种基于阻变存储器的神经网络图像分类方法,其特征在于:所述步骤S4-1具体的量化方法,包括如下步骤:
公式(1)表示浮点的卷积操作;
其中,表示输入层的浮点值,表示第一卷积层的卷积核的浮点值,表示卷积操
作;分别将输入层的浮点值和第一卷积层的卷积核的浮点值映射到定点值,通过公式(2)、
公式(3)和公式(4)来确定最优的定点值的小数位宽;
公式(2)计算浮点值映射到定点值的最小值;
公式(3)计算浮点值映射到定点值的最大值;
通过公式(5)求出每一层的量化值;
9.根据权利要求6所述的一种基于阻变存储器的神经网络图像分类方法,其特征在于:所述步骤S5-2中,构建阻变存储器构成阻变存储器阵列,将输入层的量化值映射为阻变存储器的电压值输入第一列阻变存储器,将卷积层的量化值映射为各阻变存储器的电导值,每一列阻变存储器输出的电流值为该列输入的量化值与卷积层的量化值进行卷积操作。
10.一种基于阻变存储器的神经网络图像分类装置,其特征在于,包括一个或多个处理器,用于实现权利要求6-9中任一项所述的基于阻变存储器的神经网络图像分类方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210579664.2A CN114677548B (zh) | 2022-05-26 | 2022-05-26 | 基于阻变存储器的神经网络图像分类***及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210579664.2A CN114677548B (zh) | 2022-05-26 | 2022-05-26 | 基于阻变存储器的神经网络图像分类***及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114677548A true CN114677548A (zh) | 2022-06-28 |
CN114677548B CN114677548B (zh) | 2022-10-14 |
Family
ID=82080811
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210579664.2A Active CN114677548B (zh) | 2022-05-26 | 2022-05-26 | 基于阻变存储器的神经网络图像分类***及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114677548B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115311506A (zh) * | 2022-10-11 | 2022-11-08 | 之江实验室 | 基于阻变存储器的量化因子优化的图像分类方法及装置 |
CN115905546A (zh) * | 2023-01-06 | 2023-04-04 | 之江实验室 | 基于阻变存储器的图卷积网络文献识别装置与方法 |
CN116561050A (zh) * | 2023-04-07 | 2023-08-08 | 清华大学 | 面向rram存算一体芯片的细粒度映射方法及装置 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB201704751D0 (en) * | 2017-03-24 | 2017-05-10 | Imagination Tech Ltd | Floating point to fixed point conversion |
US20190042948A1 (en) * | 2017-08-04 | 2019-02-07 | Samsung Electronics Co., Ltd. | Method and apparatus for generating fixed-point quantized neural network |
CN110363281A (zh) * | 2019-06-06 | 2019-10-22 | 上海交通大学 | 一种卷积神经网络量化方法、装置、计算机和存储介质 |
CN111260048A (zh) * | 2020-01-14 | 2020-06-09 | 上海交通大学 | 一种基于忆阻器的神经网络加速器中激活函数的实现方法 |
CN111382788A (zh) * | 2020-03-06 | 2020-07-07 | 西安电子科技大学 | 基于二值量化网络的高光谱图像分类方法 |
CN111612147A (zh) * | 2020-06-30 | 2020-09-01 | 上海富瀚微电子股份有限公司 | 深度卷积网络的量化方法 |
CN111695671A (zh) * | 2019-03-12 | 2020-09-22 | 北京地平线机器人技术研发有限公司 | 训练神经网络的方法及装置、电子设备 |
CN112561049A (zh) * | 2020-12-23 | 2021-03-26 | 首都师范大学 | 一种基于忆阻器的dnn加速器的资源分配方法及装置 |
CN112884133A (zh) * | 2021-03-24 | 2021-06-01 | 苏州科达科技股份有限公司 | 卷积神经网络量化方法、***、设备及存储介质 |
WO2021179587A1 (zh) * | 2020-03-10 | 2021-09-16 | 北京迈格威科技有限公司 | 神经网络模型量化方法、装置、电子设备及计算机可读存储介质 |
CN114330694A (zh) * | 2021-12-31 | 2022-04-12 | 上海集成电路装备材料产业创新中心有限公司 | 实现卷积运算的电路及其方法 |
CN114418057A (zh) * | 2020-10-28 | 2022-04-29 | 华为技术有限公司 | 卷积神经网络的运算方法及相关设备 |
-
2022
- 2022-05-26 CN CN202210579664.2A patent/CN114677548B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB201704751D0 (en) * | 2017-03-24 | 2017-05-10 | Imagination Tech Ltd | Floating point to fixed point conversion |
US20190042948A1 (en) * | 2017-08-04 | 2019-02-07 | Samsung Electronics Co., Ltd. | Method and apparatus for generating fixed-point quantized neural network |
CN111695671A (zh) * | 2019-03-12 | 2020-09-22 | 北京地平线机器人技术研发有限公司 | 训练神经网络的方法及装置、电子设备 |
CN110363281A (zh) * | 2019-06-06 | 2019-10-22 | 上海交通大学 | 一种卷积神经网络量化方法、装置、计算机和存储介质 |
CN111260048A (zh) * | 2020-01-14 | 2020-06-09 | 上海交通大学 | 一种基于忆阻器的神经网络加速器中激活函数的实现方法 |
CN111382788A (zh) * | 2020-03-06 | 2020-07-07 | 西安电子科技大学 | 基于二值量化网络的高光谱图像分类方法 |
WO2021179587A1 (zh) * | 2020-03-10 | 2021-09-16 | 北京迈格威科技有限公司 | 神经网络模型量化方法、装置、电子设备及计算机可读存储介质 |
CN111612147A (zh) * | 2020-06-30 | 2020-09-01 | 上海富瀚微电子股份有限公司 | 深度卷积网络的量化方法 |
CN114418057A (zh) * | 2020-10-28 | 2022-04-29 | 华为技术有限公司 | 卷积神经网络的运算方法及相关设备 |
CN112561049A (zh) * | 2020-12-23 | 2021-03-26 | 首都师范大学 | 一种基于忆阻器的dnn加速器的资源分配方法及装置 |
CN112884133A (zh) * | 2021-03-24 | 2021-06-01 | 苏州科达科技股份有限公司 | 卷积神经网络量化方法、***、设备及存储介质 |
CN114330694A (zh) * | 2021-12-31 | 2022-04-12 | 上海集成电路装备材料产业创新中心有限公司 | 实现卷积运算的电路及其方法 |
Non-Patent Citations (2)
Title |
---|
DARRYL D.LIN 等,: "Fixed point quantization of deep convolutional networks", 《PROCEEDINGS OF THE 33RD INTERNATIONAL CONFERENCE ON MACHINE LEARNING,PMLR4 8》 * |
孙磊 等,: "改进的基于嵌入式SoC卷积神经网络识别模型", 《计算机应用与软件》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115311506A (zh) * | 2022-10-11 | 2022-11-08 | 之江实验室 | 基于阻变存储器的量化因子优化的图像分类方法及装置 |
CN115905546A (zh) * | 2023-01-06 | 2023-04-04 | 之江实验室 | 基于阻变存储器的图卷积网络文献识别装置与方法 |
CN116561050A (zh) * | 2023-04-07 | 2023-08-08 | 清华大学 | 面向rram存算一体芯片的细粒度映射方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN114677548B (zh) | 2022-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108701250B (zh) | 数据定点化方法和装置 | |
CN114677548B (zh) | 基于阻变存储器的神经网络图像分类***及方法 | |
CN108345939B (zh) | 基于定点运算的神经网络 | |
CN108510067B (zh) | 基于工程化实现的卷积神经网络量化方法 | |
CN110413255B (zh) | 人工神经网络调整方法和装置 | |
CN109002889B (zh) | 自适应迭代式卷积神经网络模型压缩方法 | |
US20200250539A1 (en) | Processing method and device | |
WO2019238029A1 (zh) | 卷积神经网络***和卷积神经网络量化的方法 | |
CN107516129A (zh) | 基于维度自适应的Tucker分解的深度网络压缩方法 | |
CN110880038A (zh) | 基于fpga的加速卷积计算的***、卷积神经网络 | |
CN115311506B (zh) | 基于阻变存储器的量化因子优化的图像分类方法及装置 | |
US20200265300A1 (en) | Processing method and device, operation method and device | |
WO2020001401A1 (zh) | 深度神经网络中的网络层运算方法及装置 | |
US11704556B2 (en) | Optimization methods for quantization of neural network models | |
US20210182670A1 (en) | Method and apparatus with training verification of neural network between different frameworks | |
CN110874627B (zh) | 数据处理方法、数据处理装置及计算机可读介质 | |
Shahshahani et al. | Memory optimization techniques for fpga based cnn implementations | |
CN112598129A (zh) | 基于ReRAM神经网络加速器的可调硬件感知的剪枝和映射框架 | |
CN116188878A (zh) | 基于神经网络结构微调的图像分类方法、装置和存储介质 | |
US10733498B1 (en) | Parametric mathematical function approximation in integrated circuits | |
CN113240090B (zh) | 图像处理模型生成方法、图像处理方法、装置及电子设备 | |
CN114239799A (zh) | 一种高效目标检测方法、设备、介质和*** | |
CN115905546B (zh) | 基于阻变存储器的图卷积网络文献识别装置与方法 | |
CN112613604A (zh) | 神经网络的量化方法及装置 | |
CN112183744A (zh) | 一种神经网络剪枝方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |