CN111553471A - 一种数据分析处理方法及装置 - Google Patents

一种数据分析处理方法及装置 Download PDF

Info

Publication number
CN111553471A
CN111553471A CN202010666380.8A CN202010666380A CN111553471A CN 111553471 A CN111553471 A CN 111553471A CN 202010666380 A CN202010666380 A CN 202010666380A CN 111553471 A CN111553471 A CN 111553471A
Authority
CN
China
Prior art keywords
data
matrix
activation
effective
weight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010666380.8A
Other languages
English (en)
Inventor
栾国庆
王必胜
张弥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Xinyihua Digital Technology Co ltd
Original Assignee
Beijing Xinyihua Digital Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Xinyihua Digital Technology Co ltd filed Critical Beijing Xinyihua Digital Technology Co ltd
Priority to CN202010666380.8A priority Critical patent/CN111553471A/zh
Publication of CN111553471A publication Critical patent/CN111553471A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

本发明提供一种数据分析处理方法及装置,所述方法包括:获取待处理的输入数据输入到神经网络模型;利用神经网络模型中的计算单元对输入数据进行卷积运算,神经网络模型根据输入数据确定输入到各计算单元的激活和权重,根据激活及权重确定激活矩阵及权重矩阵,对激活矩阵及权重矩阵的有效数据进行压缩编码,并存储有效数据及所述有效数据矩阵位置的编码索引,卷积时根据编码索引读取对应的有效数据进行卷积运算;根据卷积运算的结果,得到数据处理后的数据。利用本申请提供的方法,利用特定的压缩编码方式对激活及权重矩阵进行编码,能够充分利用神经网络的稀疏性,提高了数据处理速度且降低了卷积运算时占用的功耗。

Description

一种数据分析处理方法及装置
技术领域
本发明涉及神经网络领域,特别涉及一种数据分析处理方法及装置。
背景技术
随着集成电路设计和制造工艺的进步,神经网络作为深度学习领域中最热门的网络结构之一,目前已广泛应用在计算机视觉领域与语言处理领域,其中,卷积神经网络(Convolutional Neural Networks,CNN)是一种源自人工神经网络的多层感知器,它对图像的处理与特征提取具有高度的适应性使之成为当前模式识别和图像识别领域的研究热点,现有的大部分CNN实现主要是基于通用处理器CPU,图形处理器GPU或是专用集成电路(Application Specific Integrated Circuits,ASIC)实现的。CPU为了满足通用性,芯片面积有很大一部分都用于复杂的数据控制流和Cache缓冲部分,现有的缓冲部分用于存储对权值数据和图像数据的压缩编码,具体将片外存储空间中的压缩数据,通过解码单元解码后数据存储在缓冲区域,依次进行后续的对权值数据和图像数据的调度工作,进行卷积计算等操作,最后输入给全局缓冲区,经过编码单元将结果压缩输出给片外存储空间,而卷积是神经网络的基本运算过程,而留给运算单元的面积并不多,所以无法充分地挖掘CNN内部的并行性。
卷积核在输入的激活数据上滑动进行卷积计算输出新的数据,卷积计算如图1所示,卷积核的个数为M,每个卷积核尺寸为R*S,通道数为C,输入激活的个数为N,尺寸为H*W,通道数为C,输出数据的个数为N,尺寸为E*F,通道数为M。目前一个神经网络模型中通常包含数以百万计甚至千万计的参数和十几层甚至几十层的网络,需要非常大的计算代价和存储空间,现有技术中,在神经网络中采用加入激活函数以使神经网络具有非线性,并利用剪枝蒸馏等方法,来减少神经网络的计算代价及存储空间,采用上述方式,能在不影响神经网络性能的情况下,降低神经网络计算代价和存储空间。与此同时,神经网络的稀疏性大大增加,其中稀疏性(Sparsity)指的是在二维矩阵中表示含有大量空值数据的程度。
对于进行稀疏处理后的神经网络中的激活和权重的压缩方式,现有技术上采用RLC压缩编码方法,此种方式,虽然可以减少神经网络外部存储的资源需求与功耗,但在内部计算时仍然使用原始数据(即神经网络中的各计算单元在计算时,仍有无效的数据被带入计算),将权值数据和激活数据拆分为矩阵,映射到不同的计算单元内,进行卷积计算,计算结果输出至其他计算单元进行累加,相较于将原始矩阵直接进行卷积计算,实际所需要计算单元的数量并没有减少,且无效数据也要仍占用内部存储空间;采用增加卷积核个数与通道数增加的方式,则需要更多的计算单元来完成计算,且计算单元之间仍需要不少的交互次数,相应的,交互次数越多,相应地功耗越大,占用的缓存空间越多,处理速度越慢,计算单元与存储器之间交互所需的功耗可能会要大于计算单元之间交互所需的功耗,在资源有限地情况下,上述方式并不是合理的加速计算方式,而传统的硬件平台并不能很好的利用神经网络数据结构的稀疏性,导致产生了大量的不必要的计算与数据搬移,造成了不必要的功耗浪费,目前的神经网络领域中,亟待提出一种能够充分利用神经网络的稀疏性对数据进行分析处理的方法。
发明内容
传统的硬件平台并不能很好的利用神经网络数据结构的稀疏性,导致产生了大量的不必要的计算与数据搬移,造成了不必要的功耗浪费,目前的神经网络领域中,本发明提供一种能够上述问题,充分利用神经网络的稀疏性对数据进行分析处理的方法。
本发明的第一方面提供一种数据分析处理方法,所述方法包括:
获取待处理的输入数据输入到神经网络模型;
利用神经网络模型中的计算单元对输入数据进行卷积运算,其中,神经网络模型对输入各计算单元的输入数据及权重进行稀疏处理得到激活矩阵及权重矩阵,对所述激活矩阵及权重矩阵的有效数据进行压缩编码,并存储所述有效数据及所述有效数据矩阵位置的编码索引,卷积时根据所述编码索引读取对应的有效数据进行卷积运算;
根据卷积运算的结果,得到数据处理后的数据。
可选地,对所述激活矩阵及权重矩阵的有效数据进行压缩编码,包括:
利用完全状态编码CSC方式,根据所述激活矩阵/权重矩阵中有效激活数据/有效权重数据所在的行数和列数,对有效激活数据/有效权重数据压缩编码。
可选地,存储所述有效数据之前,还包括:
将所述激活矩阵中有效激活数据压缩,按照第一预设映射规则映射为第一向量,所述第一向量的末端包括结束索引标识;
将所述权重矩阵中的有效权重数据,按照第二预设映射规则映射为第二向量,所述第二向量的末端包括结束索引标识。
可选地,对有效激活数据/有效权重数据压缩编码,包括:
分别确定有效激活数据/有效权重数据在激活矩阵/权重矩阵中的行数,得到对应的行向量;
按照如下规则分别激活矩阵/权重矩阵中各列的映射数据,得到对应的地址向量:
确定激活矩阵/权重矩阵中当前列是否存在有效激活数据/有效权重数据,若是,将该列及之前列的有效激活数据/有效权重数据总数作为映射数据,否则,将指定数据作为映射数据。
可选地,所述行向量的末端包括结束索引标识,所述地址向量的末端包括结束索引标识。
可选地,卷积时根据编码索读取对应的有效数据进行卷积运算,包括:
根据所述行向量确定当前读取的有效激活数据/有效权重数据在激活矩阵/权重矩阵中的行数;
根据所述地址向量确定当前读取的有效激活数据/有效权重数据在激活矩阵/权重矩阵中的列数;
按照卷积规则将激活矩阵中的有效激活数据与权重矩阵中对应位置的有效权重数据,进行卷积运算。
可选地,存储所述有效数据及所述有效数据矩阵位置的编码索引,包括:
将所述有效数据按照第一存储规则,将所述编码索引按照第二存储规则,存储到外部存储单元;
其中,卷积时根据所述第一存储规则和第二存储规则,确定读取的编码索引解码的有效数据的存储位置。
可选地,所述外部存储单元为如下至少一种:静态随机存取存储器SRAM、动态随机存储器DRAM、增强动态随机存取存储器EDRAM、寄存器BP或非易失存储器NVM。
可选地,对所述激活矩阵及权重矩阵的有效数据压缩编码,包括:
根据所述激活矩阵及权重矩阵中有效数据的分布,确定所述激活矩阵及权重矩阵的稀疏度;
确定所述稀疏度大于稀疏阈值时,对所述激活矩阵及权重矩阵的有效数据压缩编码。
可选地,还包括:
确定所述稀疏度不大于稀疏阈值时对所述激活矩阵中的全部数据和权重矩阵中的全部数据分别进行转化存储;
卷积时读取激活矩阵和权重矩阵的全部数据进行卷积运算,所述全部数据包括无效数据,确定当前运算的数据包含无效数据时,利用时钟门控方式跳过包含无效数据的运算步骤。
可选地,对所述激活矩阵中的全部数据和权重矩阵中的全部数据分别进行转化存储,包括:
将所述激活矩阵和权重矩阵中的全部数据,按所述全部数据的在矩阵中的排列顺序转化为数据向量存储到外部存储单元,并将所述数据向量对应的行向量、地址向量固定为预设值存储到外部存储单元。
本发明第二方面提供一种数据分析处理装置,所述装置包括如下单元:
数据输入单元,用于获取待处理的输入数据输入到神经网络模型;
编解码单元,用于利用神经网络模型中的计算单元对输入数据进行卷积运算,其中,神经网络模型根据输入数据确定输入到各计算单元的激活和权重,根据所述激活及权重确定激活矩阵及权重矩阵,对所述激活矩阵及权重矩阵的有效数据进行压缩编码,并存储所述有效数据及所述有效数据矩阵位置的编码索引,卷积时根据所述编码索引读取对应的有效数据进行卷积运算;
数据输出单元,用于根据卷积运算的结果,得到数据处理后的数据。
可选地,编解码单元对所述激活矩阵及权重矩阵的有效数据进行压缩编码,包括:
利用完全状态编码CSC方式,根据所述激活矩阵/权重矩阵中有效激活数据/有效权重数据所在的行数和列数,对有效激活数据/有效权重数据压缩编码。
可选地,编解码单元存储所述有效数据之前,还包括:
将所述激活矩阵中有效激活数据压缩,按照第一预设映射规则映射为第一向量,所述第一向量的末端包括结束索引标识;
将所述权重矩阵中的有效权重数据,按照第二预设映射规则映射为第二向量,所述第二向量的末端包括结束索引标识。
可选地,编解码单元对有效激活数据/有效权重数据压缩编码,包括:
分别确定有效激活数据/有效权重数据在激活矩阵/权重矩阵中的行数,得到对应的行向量;
按照如下规则分别激活矩阵/权重矩阵中各列的映射数据,得到对应的地址向量:
确定激活矩阵/权重矩阵中当前列是否存在有效激活数据/有效权重数据,若是,将该列及之前列的有效激活数据/有效权重数据总数作为映射数据,否则,将指定数据作为映射数据。
可选地,所述行向量的末端包括结束索引标识,所述地址向量的末端包括结束索引标识。
可选地,编解码单元卷积时根据编码索读取对应的有效数据进行卷积运算,包括:
根据所述行向量确定当前读取的有效激活数据/有效权重数据在激活矩阵/权重矩阵中的行数;
根据所述地址向量确定当前读取的有效激活数据/有效权重数据在激活矩阵/权重矩阵中的列数;
按照卷积规则将激活矩阵中的有效激活数据与权重矩阵中对应位置的有效权重数据,进行卷积运算。
可选地,存储所述有效数据及所述有效数据矩阵位置的编码索引,包括:
将所述有效数据按照第一存储规则,将所述编码索引按照第二存储规则,存储到外部存储单元;
其中,卷积时根据所述第一存储规则和第二存储规则,确定读取的编码索引解码的有效数据的存储位置。
可选地,所述外部存储单元为如下至少一种:静态随机存取存储器SRAM、动态随机存储器DRAM、增强动态随机存取存储器EDRAM、寄存器BP或非易失存储器NVM。
可选地,对所述激活矩阵及权重矩阵的有效数据压缩编码,包括:
根据所述激活矩阵及权重矩阵中有效数据的分布,确定所述激活矩阵及权重矩阵的稀疏度;
确定所述稀疏度大于稀疏阈值时,对所述激活矩阵及权重矩阵的有效数据压缩编码。
可选地,编解码单元还包括:
确定所述稀疏度不大于稀疏阈值时,对所述激活矩阵中的全部数据和权重矩阵中的全部数据分别进行转化存储;
卷积时读取激活矩阵和权重矩阵的全部数据进行卷积运算,所述全部数据包括无效数据,确定当前运算的数据包含无效数据时,利用时钟门控方式跳过包含无效数据的运算步骤。
可选地,编解码单元对所述激活矩阵中的全部数据和权重矩阵中的全部数据分别进行转化存储,包括:
将所述激活矩阵和权重矩阵中的全部数据,按所述全部数据的在矩阵中的排列顺序转化为数据向量存储到外部存储单元,并将所述数据向量对应的行向量、地址向量固定为预设值存储到外部存储单元。
本发明第三方面提供一种计算机可读存储介质,计算机程序被处理器执行时实现本发明第一方面提供的任一所述的方法。
利用本申请提供的方法,利用特定的压缩编码方式对激活及权重矩阵进行编码,能够充分利用神经网络的稀疏性,提高了数据处理速度且降低了卷积运算占用的功耗。
附图说明
图1为一种卷积计算方法示意图;
图2a为一种数据分析处理***的示意图;
图2b为一种数据分析处理***中计算单元的示意图;
图3为一种数据分析处理方法流程图;
图4为一种数据分析处理方法完整流程图;
图5为一种数据分析处理装置的单元结构图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
目前一个神经网络模型中通常包含数以百万计甚至千万计的参数和十几层甚至几十层的网络,需要非常大的计算代价和存储空间,此外,激活函数(比如relu)也会增加神经网络的稀疏性,而传统的硬件平台并不能很好的利用神经网络数据结构的稀疏性,导致产生了大量的不必要的计算与数据搬移,造成了不必要的功耗浪费。
传统的硬件平台不能很好的利用神经网络数据结构的稀疏性的原因为在内部卷积计算时,由于神经网络的稀疏性造成许多的无效数据参与到卷积计算中,在神经网络模型无效数据过多时,通过加入激活函数以及剪枝蒸馏等方法后,但现有技术中,在计算时仍然使用原始的数据进行重复卷积计算,将计算结果输出至其他计算单元进行累加,实际的计算过程并没有被简化。
基于上述的问题,本发明实施例提出一种数据分析处理的***,所述***如图2a及图2b所示,通过将待处理的数据放入到神经网络模型中,并经过神经网络模型中的计算单元102加速处理,相比于原始数据处理方法能够进行计算过程的简化,充分的利用了神经网络数据结构的稀疏性,降低了功耗。
其中,计算单元102中包括:激活索引存储单元103、激活存储单元104、权重索引存储单元105、权重存储单元106、输出存储单元107、运算单元108及控制单元109,其中神经网络模型根据输入数据确定输入到各计算单元的激活和权重,根据所述激活及权重确定激活矩阵及权重矩阵,将权重矩阵和激活矩阵进行压缩编码,并存储在外部存储单元110中。
计算单元102的具体计算过程为,由计算单元102从外部存储单元110获取已经进行压缩编码的权重及激活对应的编码值,由计算单元102中的激活索引存储单元103、激活存储单元104用于读取激活对应的编码值,其中,激活索引存储单元103用于读取激活对应的索引地址,激活存储单元104用于读取激活数据大小,权重索引存储单元105、权重存储单元106用于读取权重对应的编码值,其中,权重索引存储单元105用于读取权重对应的索引地址,权重存储单元106用于读取权重数据大小,根据读取上述单元确定原始激活矩阵和权重矩阵中的有效激活数据及有效权重数据,并将各个有效激活数据及有效权重矩阵输入到运算单元108进行计算,控制单元109控制运算单元108利用有效激活数据及有效权重数据完成一次卷积后,将卷积计算结果放入到输出存储单元107,并在完成该计算单元102中的所有卷积后,由控制单元109控制输出存储单元107中的所有卷积计算结果与由Psmi接口输入的部分和进行和运算,并通过Psmo接口将部分和结果输出其他计算单元102中,还将各计算单元输出的激活值进行压缩编码存储在外部存储单元110中。
本发明实施例提供一种数据分析处理方法,如图3所示,应用于上述数据分析处理的***的神经网络模型中,包括如下步骤:
步骤S301,获取待处理的输入数据输入到神经网络模型;
其中,首先获取待处理的输入数据,所述输入数据为可以转化为矩阵的数据,例如,图像为各像素排成二维矩阵的阵列,或视频为多幅图像累加形成一个向前延伸排成组成的三维矩阵的阵列,本申请的实施例优选的应用于对于图像的识别及分析处理,但不限于对于图像的处理,亦可以为对于语音、文本、信号数据的处理,即具有空间结构的数据都可以被本申请实施例提供的方法进行处理分析,本领域技术人员应当知晓,这里不再赘述;
对于图像处理具体可以为,利用图像的色彩空间CIE Lab色彩空间或YUV色彩空间或RGB色彩空间或灰度色彩空间,确定图像的色彩通道,对应于不同的色彩空间,其通道参数有所不同,通过通道参数将输入的图像转化为矩阵数据。
步骤S302,利用神经网络模型中的计算单元对输入数据进行卷积运算,其中,神经网络模型根据输入数据确定输入到各计算单元的激活和权重,根据所述激活及权重确定激活矩阵及权重矩阵,对所述激活矩阵及权重矩阵的有效数据进行压缩编码,并存储所述有效数据及所述有效数据矩阵位置的编码索引,卷积时根据所述编码索引读取对应的有效数据进行卷积运算;
其中,利用神经网络模型中的计算单元对输入数据进行卷积运算,利用卷积核在输入数据对应的矩阵上进行一定步长的滑动,得到原始矩阵,可选的,因输入数据的数据量很大,且某些大型神经网络的权重数据也很大,那么由神经网络模型输出的特征图也会很大,所以可以对输入到神经网络模型中的权重及输入数据进行分块处理,令每个计算单元,每次只计算输入数据的其中一部分,并将重复使用的数据存储在各计算单元中,以减少对数据的重复读取,降低功耗。
然后,神经网络模型根据输入数据确定输入到各计算单元的激活和权重,根据所述激活及权重确定激活矩阵及权重矩阵,可选地,还可以利用网络剪枝、知识蒸馏等方式对原始矩阵中的无效数据进行处理,所述无效数据为对最终结果或损失函数影响较小的数据,可以利用矩阵中各参数的绝对值大小来评估数据最终结果或损失函数的影响,或利用激活函数处理矩阵,使得神经网络具有非线性的特性,例如,在原始矩阵中,可以利用线性整流relu作为激活函数,导致小于零的激励被置为零,使得原始矩阵变得稀疏,以提高各层神经网络的计算速度,其他激活函数可以为:ReLU、Leaky Relu、ELU、PReLU、RReLU等,在权重矩阵中,可以通过剪枝确定某些需要被减去的权重,上述处理的具体方式,本领域技术人员应当知晓,这里不再赘述。
在获取激活矩阵和权重矩阵后,对所述激活矩阵及与该激活矩阵对应的权重矩阵进行压缩处理,其中压缩的方式可以为各类压缩编码方式,其目的是,为了减小激活矩阵和权重矩阵在外部存储单元占用的空间。
在进行压缩处理后,因进行神经网络的计算单元的存储空间较小,故在外部存储单元中存储各压缩编码数据,在需要进行卷积计算时,再将外部存储的压缩编码读取到神经网络中的计算单元中。
但若仅压缩存储了激活矩阵及权重矩阵的压缩编码,在各计算单元读取压缩编码时,还原的仍然是带有无效数据的激活矩阵和权重矩阵,虽然可以减少神经网络模型外部存储的资源需求与功耗,但在内部计算时仍然使用原始数据,即神经网络模型中的各计算单元在计算时,仍有无效的数据被带入计算,内部计算时仍会产生大量的功耗;
针对上述问题,对所述激活矩阵及权重矩阵的有效数据进行压缩编码,可以分为如下两个部分,将激活矩阵及权重矩阵中的有效数据进行压缩编码,所述有效数据为矩阵中非0参数,因仅压缩了非0参数,对于矩阵中各参数在矩阵空间上的分布并不清楚,故还需要以地址索引的方式进行编码,并存储激活矩阵及权重矩阵中的有效数据的矩阵的位置信息。
可选地,将矩阵位置信息以索引方式进行编码存储,具体方式可以为在用于压缩激活矩阵及权重矩阵中的有效数据每个压缩编码上都标识有该数据在激活矩阵及权重矩阵上的原始位置,或分别利用多个压缩编码,存储激活矩阵及权重矩阵中的有效数据的各类位置信息,如利用第一压缩编码后的向量存储各有效数据的大小、利用第二压缩编码后的向量存储对应有效数据的行位置、利用第三压缩编码后的向量存储对应激活矩阵及权重矩阵中各列有效数据的数据个数等方式进行存储,具体压缩编码方式本领域人员应当知晓,这里不再赘述。
因压缩编码的方式进行了改变,故神经网络中各计算单元对于压缩编码的解码方式也产生了变化,解码时利用所述有效数据矩阵位置的编码索引确定有效数据在原始的激活矩阵和权重矩阵中的位置,并根据压缩编码确定激活矩阵和权重矩阵中有效数据的大小。
在进行神经网络卷积计算时,各个计算单元无需还原压缩编码对应的原始激活矩阵和权重矩阵,只需确定压缩编码中,有效激活数据及有效权重数据的大小及对应在原矩阵中的位置,根据所述位置进行卷积运算,能够得到该层激活矩阵与该激活矩阵对应的权重矩阵的卷积结果。
步骤S303,根据卷积运算的结果,得到数据处理后的数据。
当其中至少一个计算单元完成计算时,经线性整流(relu)处理及池化处理,从至少一个计算单元输出计算结果,确定至少一个计算单元计算完毕后,将计算单元的结果输出,得到经计算单元处理后的结果,池化(Pooling layer),通常在卷积层之后会得到维度很大的特征,将特征切成几个区域,取其最大值或平均值,得到新的、维度较小的特征,此种处理方式为池化处理。
作为一种可选的实施方式,对所述激活矩阵及权重矩阵的有效数据压缩编码,包括:
根据所述激活矩阵及权重矩阵中有效数据的分布,确定所述激活矩阵及权重矩阵的稀疏度;
确定所述稀疏度大于稀疏阈值时,对所述激活矩阵及权重矩阵的有效数据压缩编码。
具体的,在确定激活矩阵及权重矩阵的稀疏度大于稀疏阈值时,对所述激活矩阵及权重矩阵的有效数据压缩编码,其中,稀疏阈值确定方式为,针对激活矩阵及权重矩阵的稀疏度,以某种压缩编码方式编码后,对应的压缩编码向量的占用空间会小于对应原始激活矩阵及权重矩阵占用的空间,或针对激活矩阵及权重矩阵的稀疏度,利用该种压缩编码方式相比于原始激活矩阵及权重矩阵耗费的功耗要低于原功耗。
作为一种可选的实施方式,对所述激活矩阵及权重矩阵的有效数据进行压缩编码,包括:
利用完全状态编码CSC方式,根据所述激活矩阵/权重矩阵中有效激活数据/有效权重数据所在的行数和列数,对有效激活数据/有效权重数据压缩编码。
具体的,对激活矩阵和权重矩阵分别进行压缩编码,将有效激活数据/有效权重数据压缩编码,以向量vector的方式进行存储。
可选地,存储所述有效数据之前,还包括:
将所述激活矩阵中有效激活数据压缩,按照第一预设映射规则映射为第一向量,所述第一向量的末端包括结束索引标识;
将所述权重矩阵中的有效权重数据,按照第二预设映射规则映射为第二向量,所述第二向量的末端包括结束索引标识。
例如,将权重或激活有效数据(非零数据)存储在一个数据向量data vector里,所述预设映射规则可以为从上到下或从左到右等方式进行映射。
如下表1所示,为一个输入数据的激活矩阵示意。
表1
Figure 338253DEST_PATH_IMAGE001
其中,表格中无数据的表示数据为0,为无效数据,利用从上到下的映射规则得到数据向量data vector为{a,b,c,d,e,f,g,h,i,j,k,l}。
作为一种可选的实施方式,对有效激活数据/有效权重数据压缩编码,包括:
分别确定有效激活数据/有效权重数据在激活矩阵/权重矩阵中的行数,得到对应的行向量;
按照如下规则分别激活矩阵/权重矩阵中各列的映射数据,得到对应的地址向量:
确定激活矩阵/权重矩阵中当前列是否存在有效激活数据/有效权重数据,若是,将该列及之前列的有效激活数据/有效权重数据总数作为映射数据,否则,将指定数据作为映射数据。
具体的,将激活及权重矩阵位置信息以索引方式进行编码存储,在得到上述实施方式得到的数据向量{a,b,c,d,e,f,g,h,i,j,k,l}后,对应上述有效激活数据/有效权重数据在激活矩阵/权重矩阵中的行数,得到对应的行向量count vector{1,2,0,1,3,2,3,1,3,0,1,2},行向量中每个数都对应数据向量中各数据的行数;
按照如下规则,确定索引向量,确定激活矩阵/权重矩阵中当前列是否存在有效激活数据/有效权重数据,若是,将该列及之前列的有效激活数据/有效权重数据总数作为映射数据,否则,将指定数据作为映射数据。例如,根据表1的激活矩阵,能够得到该地址向量{2,5,max,6,7,max,9},则以“max”来标明一列都是无效数据,本领域人员应当知晓,这里不再赘述。
可选地,还可以使用带有行列位置标识的数据向量进行编码压缩{a2行1列,b3行1列,c1 行2列,d2行2列,e4行2列,f3行3列,g4行5列,h2行6列,i4行6列,j1行8列,k2行8列,l2行8列},利用上述方式,同样可以对于激活矩阵及权重矩阵进行压缩编码,并减少计算单元内部的数据流动与计算,降低***功耗,提高***工作效率。
作为一种可选的实施方式,所述行向量的末端包括结束索引标识,所述地址向量的末端包括结束索引标识。
上述得到的行向量的末端包括结束索引标识,所述地址向量的末端包括结束索引标识。
例如,表1对应的增加结束索引标识的数据向量为{a,b,c,d,e,f,g,h,i,j,k,l,0},表1对应的增加结束索引标识的行向量为{1,2,0,1,3,2,3,1,3,0,1,2,0},表1对应的增加结束索引标识的地址向量为{2,5,max,6,7,max,9,0},由于结束索引标识的存在,可以使计算单元在读取各向量时,减少运行的逻辑资源。
作为一种可选的实施方式,存储所述有效数据及在解码时用于确定所述有效数据矩阵位置的编码索引,包括:
将所述有效数据按照第一存储规则,将所述编码索引按照第二存储规则,存储到外部存储单元;
其中,卷积时根据所述第一存储规则和第二存储规则,确定读取的编码索引解码的有效数据的存储位置。
其中,上述的第一存储规则或第二存储规则可以为N进制的方式进行存储或采用ASCII码等方式对有效数据及编码索引进行存储;
作为一种可选的实施方式,卷积时根据编码索读取对应的有效数据进行卷积运算,包括:
根据所述行向量确定当前读取的有效激活数据/有效权重数据在激活矩阵/权重矩阵中的行数;
根据所述地址向量确定当前读取的有效激活数据/有效权重数据在激活矩阵/权重矩阵中的列数;
按照卷积规则将激活矩阵中的有效激活数据与权重矩阵中对应位置的有效权重数据,进行卷积运算。
具体的,神经网络的计算单元根据数据向量及行向量,确定有效激活数据/有效权重数据在激活矩阵/权重矩阵中的行数及数据大小,并根据地址向量确定有效激活数据/有效权重数据在激活矩阵/权重矩阵中的列数;
在确定各个有效激活数据/有效权重数据的行列位置后,按预定的卷积计算方式,仅利用有效的有效激活数据与有效权重数据进行依次卷积计算。
作为一种可选的实施方式,确定所述稀疏度不大于稀疏阈值时,对所述激活矩阵中的全部数据和权重矩阵中的全部数据分别进行转化存储;
卷积时读取激活矩阵和权重矩阵的全部数据进行卷积运算,所述全部数据包括无效数据,确定当前运算的数据包含无效数据时,利用时钟门控方式跳过包含无效数据的运算步骤。
若激活矩阵或权重矩阵的稀疏度较小时,利用压缩编码方式对激活矩阵及权重矩阵进行压缩编码,会导致对应的压缩编码向量的占用空间会大于对应原始激活矩阵及权重矩阵占用的空间,或压缩编码向量相比于原始激活矩阵及权重矩阵耗费的功耗高于原功耗,此时对激活矩阵或权重矩阵再进行压缩编码,无法降低原功耗及占用空间;
那么对于稀疏度较小的激活矩阵或权重矩阵,对所述激活矩阵中的全部数据和权重矩阵中的全部数据分别进行直接转化并存储,将所述激活矩阵和权重矩阵中的全部数据,按所述全部数据的在矩阵中的排列顺序转化为数据向量存储到外部存储单元,并将所述数据向量对应的行向量、地址向量固定为预设值存储到外部存储单元。
具体的,将激活矩阵或权重矩阵中的全部数据转化为数据向量,所述数据向量中包括激活矩阵或权重矩阵中的全部数据,其转化方式为,将全部数据按在激活矩阵或权重矩阵的顺序,从左到右或从上到下进行转化得到数据向量,并且将该数据向量对应的行向量及地址向量固定为预设值存储在外部存储单元中,本实施例中,预设值为0;
卷积时读取数据向量、行向量及地址向量,确定所述行向量及地址向量均为0时,利用包含全部数据的数据向量进行卷积运算,在所述全部数据包括无效数据,确定当前运算的数据包含无效数据时,利用时钟门控方式跳过包含无效数据的运算步骤。
可选地,本实施例中,神经网络中计算单元的每次计算是由外部的时钟控制单元进行驱动控制,利用时钟控制单元的发送控制信号,在以确定读取的激活数据/权重数据为无效数据时,跳过无效数据的卷积运算步骤,能够减少计算单元内部的数据流动与计算,降低***功耗,提高***工作效率。
作为一种可选的实施方式,所述外部存储单元为如下至少一种:静态随机存取存储器SRAM、动态随机存储器DRAM、增强动态随机存取存储器EDRAM、寄存器BP或非易失存储器NVM。
如图4所示,为一种数据分析处理方法的完整流程图;
步骤S401,获取待处理的输入数据输入到神经网络模型;
步骤S402,神经网络模型根据输入数据确定输入到各计算单元的激活和权重,根据所述激活及权重确定激活矩阵及权重矩阵;
步骤S403,根据所述激活矩阵及权重矩阵中有效数据的分布,确定所述激活矩阵及权重矩阵的稀疏度,确定所述稀疏度大于稀疏阈值时执行步骤S404,确定所述稀疏度不大于稀疏阈值时执行步骤S405;
步骤S404,对所述激活矩阵及权重矩阵的有效数据进行压缩编码;
步骤S405,对所述激活矩阵中的全部数据和权重矩阵中的全部数据分别进行转化存储;
步骤S406,将有效数据及所述有效数据矩阵位置的编码索引存储在外部存储单元;
步骤S407,卷积时读取激活矩阵和权重矩阵的全部数据进行卷积运算,所述全部数据包括无效数据,确定当前运算的数据包含无效数据时,利用时钟门控方式跳过包含无效数据的运算步骤;
步骤S408,卷积时从外部存储单元读取对应的有效数据及编码索引进行卷积运算;
步骤S409,根据至少一个计算单元输出的卷积运算的结果,得到数据处理后的数据。
利用本申请提供的方法,利用特定的CSC压缩编码方式对激活及权重矩阵进行编码,能够充分利用神经网络的稀疏性,提高了数据处理速度且降低了卷积运算占用的功耗。
本发明提供一种数据分析处理装置,如图5所示,所述装置包括如下单元:
数据输入单元501,用于获取待处理的输入数据输入到神经网络模型;
编解码单元502,用于利用神经网络模型中的计算单元对输入数据进行卷积运算,其中,神经网络模型根据输入数据确定输入到各计算单元的激活和权重,根据所述激活及权重确定激活矩阵及权重矩阵,对所述激活矩阵及权重矩阵的有效数据进行压缩编码,并存储所述有效数据及所述有效数据矩阵位置的编码索引,卷积时根据所述编码索引读取对应的有效数据进行卷积运算;
数据输出单元503,用于根据卷积运算的结果,得到数据处理后的数据。
可选地,编解码单元502对所述激活矩阵及权重矩阵的有效数据进行压缩编码,包括:
利用完全状态编码CSC方式,根据所述激活矩阵/权重矩阵中有效激活数据/有效权重数据所在的行数和列数,对有效激活数据/有效权重数据压缩编码。
可选地,编解码单元502存储所述有效数据之前,还包括:
将所述激活矩阵中有效激活数据压缩,按照第一预设映射规则映射为第一向量,所述第一向量的末端包括结束索引标识;
将所述权重矩阵中的有效权重数据,按照第二预设映射规则映射为第二向量,所述第二向量的末端包括结束索引标识。
可选地,编解码单元502对有效激活数据/有效权重数据压缩编码,包括:
分别确定有效激活数据/有效权重数据在激活矩阵/权重矩阵中的行数,得到对应的行向量;
按照如下规则分别激活矩阵/权重矩阵中各列的映射数据,得到对应的地址向量:
确定激活矩阵/权重矩阵中当前列是否存在有效激活数据/有效权重数据,若是,将该列及之前列的有效激活数据/有效权重数据总数作为映射数据,否则,将指定数据作为映射数据。
可选地,所述行向量的末端包括结束索引标识,所述地址向量的末端包括结束索引标识。
可选地,编解码单元502卷积时根据编码索读取对应的有效数据进行卷积运算,包括:
根据所述行向量确定当前读取的有效激活数据/有效权重数据在激活矩阵/权重矩阵中的行数;
根据所述地址向量确定当前读取的有效激活数据/有效权重数据在激活矩阵/权重矩阵中的列数;
按照卷积规则将激活矩阵中的有效激活数据与权重矩阵中对应位置的有效权重数据,进行卷积运算。
可选地,存储所述有效数据及所述有效数据矩阵位置的编码索引,包括:
将所述有效数据按照第一存储规则,将所述编码索引按照第二存储规则,存储到外部存储单元;
其中,卷积时根据所述第一存储规则和第二存储规则,确定读取的编码索引解码的有效数据的存储位置。
可选地,所述外部存储单元为如下至少一种:静态随机存取存储器SRAM、动态随机存储器DRAM、增强动态随机存取存储器EDRAM、寄存器BP或非易失存储器NVM。
可选地,对所述激活矩阵及权重矩阵的有效数据压缩编码,包括:
根据所述激活矩阵及权重矩阵中有效数据的分布,确定所述激活矩阵及权重矩阵的稀疏度;
确定所述稀疏度大于稀疏阈值时,对所述激活矩阵及权重矩阵的有效数据压缩编码。
可选地,编解码单元502还包括:
确定所述稀疏度不大于稀疏阈值时,对所述激活矩阵中的全部数据和权重矩阵中的全部数据分别进行转化存储;
卷积时读取激活矩阵和权重矩阵的全部数据进行卷积运算,所述全部数据包括无效数据,确定当前运算的数据包含无效数据时,利用时钟门控方式跳过包含无效数据的运算步骤。
可选地,编解码单元502对所述激活矩阵中的全部数据和权重矩阵中的全部数据分别进行转化存储,包括:
将所述激活矩阵和权重矩阵中的全部数据,按所述全部数据的在矩阵中的排列顺序转化为数据向量存储到外部存储单元,并将所述数据向量对应的行向量、地址向量固定为预设值存储到外部存储单元。
本发明实施例还提供一种计算机可读存储介质,计算机程序被处理器执行时实现上述实施例提供的任一所述的数据分析处理方法。
本领域内的技术人员应明白,本申请的实施例可提供为方法、***、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。

Claims (13)

1.一种数据分析处理方法,其特征在于,所述方法包括:
获取待处理的输入数据输入到神经网络模型;
利用神经网络模型中的计算单元对输入数据进行卷积运算,其中,神经网络模型根据输入数据确定输入到各计算单元的激活和权重,根据所述激活及权重确定激活矩阵及权重矩阵,对所述激活矩阵及权重矩阵的有效数据进行压缩编码,并存储所述有效数据及所述有效数据矩阵位置的编码索引,卷积时根据所述编码索引读取对应的有效数据进行卷积运算;
根据卷积运算的结果,得到数据处理后的数据。
2.根据权利要求1所述的方法,其特征在于,对所述激活矩阵及权重矩阵的有效数据进行压缩编码,包括:
利用完全状态编码CSC方式,根据所述激活矩阵/权重矩阵中有效激活数据/有效权重数据所在的行数和列数,对有效激活数据/有效权重数据压缩编码。
3.根据权利要求1所述的方法,其特征在于,存储所述有效数据之前,还包括:
将所述激活矩阵中有效激活数据压缩,按照第一预设映射规则映射为第一向量,所述第一向量的末端包括结束索引标识;
将所述权重矩阵中的有效权重数据,按照第二预设映射规则映射为第二向量,所述第二向量的末端包括结束索引标识。
4.根据权利要求2所述的方法,其特征在于,对有效激活数据/有效权重数据压缩编码,包括:
分别确定有效激活数据/有效权重数据在激活矩阵/权重矩阵中的行数,得到对应的行向量;
按照如下规则分别激活矩阵/权重矩阵中各列的映射数据,得到对应的地址向量:
确定激活矩阵/权重矩阵中当前列是否存在有效激活数据/有效权重数据,若是,将该列及之前列的有效激活数据/有效权重数据总数作为映射数据,否则,将指定数据作为映射数据。
5.根据权利要求4所述的方法,其特征在于,所述行向量的末端包括结束索引标识,所述地址向量的末端包括结束索引标识。
6.根据权利要求2所述的方法,其特征在于,卷积时根据编码索读取对应的有效数据进行卷积运算,包括:
根据所述行向量确定当前读取的有效激活数据/有效权重数据在激活矩阵/权重矩阵中的行数;
根据所述地址向量确定当前读取的有效激活数据/有效权重数据在激活矩阵/权重矩阵中的列数;
按照卷积规则将激活矩阵中的有效激活数据与权重矩阵中对应位置的有效权重数据,进行卷积运算。
7.根据权利要求1所述的方法,其特征在于,存储所述有效数据及所述有效数据矩阵位置的编码索引,包括:
将所述有效数据按照第一存储规则,将所述编码索引按照第二存储规则,存储到外部存储单元;
其中,卷积时根据所述第一存储规则和第二存储规则,确定读取的编码索引解码的有效数据的存储位置。
8.根据权利要求7所述的方法,其特征在于,所述外部存储单元为如下至少一种:静态随机存取存储器SRAM、动态随机存储器DRAM、增强动态随机存取存储器EDRAM、寄存器BP或非易失存储器NVM。
9.根据权利要求1所述的方法,其特征在于,对所述激活矩阵及权重矩阵的有效数据压缩编码,包括:
根据所述激活矩阵及权重矩阵中有效数据的分布,确定所述激活矩阵及权重矩阵的稀疏度;
确定所述稀疏度大于稀疏阈值时,对所述激活矩阵及权重矩阵的有效数据压缩编码。
10.根据权利要求9所述的方法,其特征在于,还包括:
确定所述稀疏度不大于稀疏阈值时,对所述激活矩阵中的全部数据和权重矩阵中的全部数据分别进行转化存储;
卷积时读取激活矩阵和权重矩阵的全部数据进行卷积运算,所述全部数据包括无效数据,确定当前运算的数据包含无效数据时,利用时钟门控方式跳过包含无效数据的运算步骤。
11.根据权利要求10所述的方法,其特征在于,对所述激活矩阵中的全部数据和权重矩阵中的全部数据分别进行转化存储,包括:
将所述激活矩阵和权重矩阵中的全部数据,按所述全部数据的在矩阵中的排列顺序转化为数据向量存储到外部存储单元,并将所述数据向量对应的行向量、地址向量固定为预设值存储到外部存储单元。
12.一种数据分析处理装置,其特征在于,所述装置包括如下单元:
数据输入单元,用于获取待处理的输入数据输入到神经网络模型;
编解码单元,用于利用神经网络模型中的计算单元对输入数据进行卷积运算,其中,神经网络模型根据输入数据确定输入到各计算单元的激活和权重,根据所述激活及权重确定激活矩阵及权重矩阵,对所述激活矩阵及权重矩阵的有效数据进行压缩编码,并存储所述有效数据及所述有效数据矩阵位置的编码索引,卷积时根据所述编码索引读取对应的有效数据进行卷积运算;
数据输出单元,用于根据卷积运算的结果,得到数据处理后的数据。
13.一种计算机可读存储介质,其特征在于,计算机程序被处理器执行时实现如权利要求1-11任一所述的方法。
CN202010666380.8A 2020-07-13 2020-07-13 一种数据分析处理方法及装置 Pending CN111553471A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010666380.8A CN111553471A (zh) 2020-07-13 2020-07-13 一种数据分析处理方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010666380.8A CN111553471A (zh) 2020-07-13 2020-07-13 一种数据分析处理方法及装置

Publications (1)

Publication Number Publication Date
CN111553471A true CN111553471A (zh) 2020-08-18

Family

ID=72008856

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010666380.8A Pending CN111553471A (zh) 2020-07-13 2020-07-13 一种数据分析处理方法及装置

Country Status (1)

Country Link
CN (1) CN111553471A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113469326A (zh) * 2021-06-24 2021-10-01 上海寒武纪信息科技有限公司 在神经网络模型中执行剪枝优化的集成电路装置及板卡
CN113537488A (zh) * 2021-06-29 2021-10-22 杭州电子科技大学 一种基于稀疏向量矩阵计算的神经网络加速器及加速方法
CN113888538A (zh) * 2021-12-06 2022-01-04 成都考拉悠然科技有限公司 一种基于内存分块模型的工业异常检测方法
CN114723033A (zh) * 2022-06-10 2022-07-08 成都登临科技有限公司 数据处理方法、装置、ai芯片、电子设备及存储介质
CN116167425A (zh) * 2023-04-26 2023-05-26 浪潮电子信息产业股份有限公司 一种神经网络加速方法、装置、设备及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107689224A (zh) * 2016-08-22 2018-02-13 北京深鉴科技有限公司 合理使用掩码的深度神经网络压缩方法
CN107977704A (zh) * 2017-11-10 2018-05-01 中国科学院计算技术研究所 权重数据存储方法和基于该方法的神经网络处理器
CN108647774A (zh) * 2018-04-23 2018-10-12 福州瑞芯微电子股份有限公司 一种优化稀疏性矩阵运算的神经网络方法和电路
CN109902810A (zh) * 2017-12-11 2019-06-18 北京中科寒武纪科技有限公司 神经网络运算设备和方法
CN111242277A (zh) * 2019-12-27 2020-06-05 中国电子科技集团公司第五十二研究所 一种基于fpga设计的支持稀疏剪枝的卷积神经网络加速器

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107689224A (zh) * 2016-08-22 2018-02-13 北京深鉴科技有限公司 合理使用掩码的深度神经网络压缩方法
CN107977704A (zh) * 2017-11-10 2018-05-01 中国科学院计算技术研究所 权重数据存储方法和基于该方法的神经网络处理器
CN109902810A (zh) * 2017-12-11 2019-06-18 北京中科寒武纪科技有限公司 神经网络运算设备和方法
CN108647774A (zh) * 2018-04-23 2018-10-12 福州瑞芯微电子股份有限公司 一种优化稀疏性矩阵运算的神经网络方法和电路
CN111242277A (zh) * 2019-12-27 2020-06-05 中国电子科技集团公司第五十二研究所 一种基于fpga设计的支持稀疏剪枝的卷积神经网络加速器

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113469326A (zh) * 2021-06-24 2021-10-01 上海寒武纪信息科技有限公司 在神经网络模型中执行剪枝优化的集成电路装置及板卡
CN113469326B (zh) * 2021-06-24 2024-04-02 上海寒武纪信息科技有限公司 在神经网络模型中执行剪枝优化的集成电路装置及板卡
CN113537488A (zh) * 2021-06-29 2021-10-22 杭州电子科技大学 一种基于稀疏向量矩阵计算的神经网络加速器及加速方法
CN113888538A (zh) * 2021-12-06 2022-01-04 成都考拉悠然科技有限公司 一种基于内存分块模型的工业异常检测方法
CN114723033A (zh) * 2022-06-10 2022-07-08 成都登临科技有限公司 数据处理方法、装置、ai芯片、电子设备及存储介质
CN114723033B (zh) * 2022-06-10 2022-08-19 成都登临科技有限公司 数据处理方法、装置、ai芯片、电子设备及存储介质
CN116167425A (zh) * 2023-04-26 2023-05-26 浪潮电子信息产业股份有限公司 一种神经网络加速方法、装置、设备及介质
CN116167425B (zh) * 2023-04-26 2023-08-04 浪潮电子信息产业股份有限公司 一种神经网络加速方法、装置、设备及介质

Similar Documents

Publication Publication Date Title
CN111553471A (zh) 一种数据分析处理方法及装置
US20220012593A1 (en) Neural network accelerator and neural network acceleration method based on structured pruning and low-bit quantization
CN111062472B (zh) 一种基于结构化剪枝的稀疏神经网络加速器及其加速方法
KR102636710B1 (ko) 계층적 가중치 희소 컨볼루션 프로세싱을 위한 방법 및 시스템
CN112292816B (zh) 处理核心数据压缩和存储***
CN111382867B (zh) 神经网络压缩的方法、数据处理的方法及相关装置
KR20180101055A (ko) 뉴럴 네트워크 장치 및 뉴럴 네트워크 장치의 동작 방법
CN110135227B (zh) 一种基于机器学习的激光点云室外场景自动分割方法
CN111783937A (zh) 一种神经网络构建方法以及***
US20210382716A1 (en) Processing core with metadata actuated conditional graph execution
CN107613301A (zh) 一种图像处理方法及装置
EP4283876A1 (en) Data coding method and related device
IT202000018043A1 (it) Procedimenti e sistemi di elaborazione di rete neurale artificiale
CN111240746A (zh) 一种浮点数据反量化及量化的方法和设备
CN114071141A (zh) 一种图像处理方法及其设备
CN110569970B (zh) 一种应用于卷积神经网络中硬件加速器的数据传输方法
CN115086660B (zh) 基于点云属性预测的解码、编码方法、解码器及编码器
CN115913245A (zh) 数据编码方法、数据解码方法以及数据处理装置
Sakr et al. Memory-efficient CMSIS-NN with replacement strategy
CN115662346B (zh) Demura补偿值压缩方法和***
CN116489391A (zh) 图像矢量量化编码、文图模型训练及使用方法和装置
CN116258782A (zh) 图像压缩方法、图像编码方法、图像解码方法及装置
US20190221006A1 (en) Selecting encoding options
CN115130672A (zh) 一种软硬件协同优化卷积神经网络计算的方法及装置
US20210224632A1 (en) Methods, devices, chips, electronic apparatuses, and storage media for processing data

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20200818

RJ01 Rejection of invention patent application after publication