CN114662689A - 一种神经网络的剪枝方法、装置、设备及介质 - Google Patents
一种神经网络的剪枝方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN114662689A CN114662689A CN202210332430.8A CN202210332430A CN114662689A CN 114662689 A CN114662689 A CN 114662689A CN 202210332430 A CN202210332430 A CN 202210332430A CN 114662689 A CN114662689 A CN 114662689A
- Authority
- CN
- China
- Prior art keywords
- random access
- pruning
- access memories
- neural network
- array
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种神经网络的剪枝方法、装置、设备及介质,包括:根据预先配置的PE阵列的总行数和预设的筛选通道数,获取随机存取存储器的总数量;根据所述总数量配置若干随机存取存储器,并将每一通道的输入特征图数据分别存入每一所述随机存取存储器中;对若干所述随机存取存储器进行分组,得到若干小组随机存取存储器;当接收到剪枝信号时,根据通道选择信号,对输入特征图数据进行选择,将每一小组内的不同通道的输入特征图数据输入至PE阵列,以实现神经网络的剪枝操作。采用本发明实施例能够提高神经网络模型的处理效率。
Description
技术领域
本发明涉及神经网络的剪枝技术领域,尤其涉及一种神经网络的剪枝方法、装置、设备及介质。
背景技术
近年来,神经网络大量应用在计算机视觉、机器翻译、语音识别等领域中,然而随着神经网络技术的发展,其网络结构的设计愈发复杂,卷积核对应的权重矩阵中,所包含的权重数量也越来越多,增加了神经网络的运算工作量和参数量,使得神经网络难以部署在计算能力和存储空间有限的硬件资源上。因此,有必要研究一种神经网络的剪枝方法,对神经网络进行剪枝处理。
发明内容
本发明提供一种神经网络的剪枝方法、装置、设备及介质,能够提高神经网络模型的处理效率。
为实现上述目的,本发明实施例提供了一种神经网络的剪枝方法,包括:
根据预先配置的PE阵列的总行数和预设的筛选通道数,获取随机存取存储器的总数量;
根据所述总数量配置若干随机存取存储器,并将每一通道的输入特征图数据分别存入每一所述随机存取存储器中;
对若干所述随机存取存储器进行分组,得到若干小组随机存取存储器;其中,每一小组随机存取存储器存储有N/2^p个通道的输入特征图数据,N为PE阵列的总行数,2^p为筛选通道数,p≥1,p为整数;
当接收到剪枝信号时,根据通道选择信号,对输入特征图数据进行选择,将每一小组内的不同通道的输入特征图数据输入至PE阵列,以实现神经网络的剪枝操作。
作为上述方案的改进,所述神经网络的剪枝方法,还包括:
当接收到非剪枝信号时,根据所述输入特征图数据的通道数,将所述输入特征图数据输入至对应所述通道数的PE阵列的行内。
作为上述方案的改进,所述根据预先配置的PE阵列的总行数和预设的筛选通道数,获取随机存取存储器的数量,包括:
将预先配置的PE阵列的总行数和预设的筛选通道数相乘,得到随机存取存储器的数量。
作为上述方案的改进,所述对若干所述随机存取存储器进行分组,得到若干小组随机存取存储器,包括:
根据所述总行数将若干所述随机存取存储器分为若干大组随机存取存储器;其中,每一大组随机存取存储器包括数量为所述总行数的随机存取存储器;
对每一大组随机存取存储器,将所述输入特征图数据的通道数除以所述筛选通道数的余数作为分组的依据,将每一大组随机存取存储器分为若干小组随机存取存储器。
作为上述方案的改进,所述神经网络的剪枝方法还包括:
获取剪枝后的输入特征图数据的通道,并选取与所述通道相同的卷积核数据进行压缩。
作为上述方案的改进,所述神经网络的剪枝方法还包括:
将剪枝后的输入特征图数据输入至预先配置的PE阵列,以进行卷积计算。
为实现上述目的,本发明还实施例提供了一种神经网络的剪枝装置,包括控制器,所述控制器被配置为:
根据预先配置的PE阵列的总行数和预设的筛选通道数,获取随机存取存储器的总数量;
根据所述总数量配置若干随机存取存储器,并将每一通道的输入特征图数据分别存入每一所述随机存取存储器中;
对若干所述随机存取存储器进行分组,得到若干小组随机存取存储器;其中,每一小组随机存取存储器存储有N/2^p个通道的输入特征图数据,N为PE阵列的总行数,2^p为筛选通道数,p≥1,p为整数;
当接收到剪枝信号时,根据通道选择信号,对输入特征图数据进行选择,将每一小组内的不同通道的输入特征图数据输入至PE阵列,以实现神经网络的剪枝操作。
为实现上述目的,本发明还实施例提供了一种神经网络的剪枝设备,包括处理器、存储器以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器在执行所述计算机程序时实现如上述所述的神经网络的剪枝方法。
为实现上述目的,本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质包括存储的计算机程序;其中,所述计算机程序在运行时控制所述计算机可读存储介质所在的设备执行如上述所述的神经网络的剪枝方法。
与现有技术相比,本发明实施例提供的一种神经网络的剪枝方法、装置、设备及介质,通过根据预先配置的PE阵列的总行数和预设的筛选通道数,获取随机存取存储器的总数量;根据所述总数量配置若干随机存取存储器,并将每一通道的输入特征图数据分别存入每一所述随机存取存储器中;对若干所述随机存取存储器进行分组,得到若干小组随机存取存储器;当接收到剪枝信号时,根据通道选择信号,对输入特征图数据进行选择,将每一小组内的不同通道的输入特征图数据输入至PE阵列,实现了神经网络的剪枝功能,能够提高神经网络模型的处理效率。
附图说明
图1是本发明实施例提供的一种神经网络的剪枝方法的流程图;
图2是现有技术的输入特征数据传输给PE阵列的示意图;
图3是本发明实施例提供的进行剪枝时,输入特征图数据传输给PE阵列的示意图;
图4是本发明实施例提供的不进行剪枝时,输入特征图数据传输给PE阵列的示意图;
图5是本发明实施例提供的一种神经网络的剪枝设备的结构框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参见图1,图1是本发明实施例提供的一种神经网络的剪枝方法的流程图,所述神经网络的剪枝方法,包括:
S1、根据预先配置的PE阵列的总行数和预设的筛选通道数,获取随机存取存储器的总数量;
具体地,所述根据预先配置的PE阵列的总行数和预设的筛选通道数,获取随机存取存储器的数量,包括:
将预先配置的PE阵列的总行数和预设的筛选通道数相乘,得到随机存取存储器的数量。
S2、根据所述总数量配置若干随机存取存储器,并将每一通道的输入特征图数据分别存入每一所述随机存取存储器中;
优选地,所述随机存取存储器为块随机存储器(block ram,BRAM)。
S3、对若干所述随机存取存储器进行分组,得到若干小组随机存取存储器;其中,每一小组随机存取存储器存储有N/2^p个通道的输入特征图数据,N为PE阵列的总行数,2^p为筛选通道数,p≥1,p为整数;
所述对若干所述随机存取存储器进行分组,得到若干小组随机存取存储器,包括:
根据所述总行数将若干所述随机存取存储器分为若干大组随机存取存储器;其中,每一大组随机存取存储器包括数量为所述总行数的随机存取存储器;
对每一大组随机存取存储器,将所述输入特征图数据的通道数除以所述筛选通道数的余数作为分组的依据,将每一大组随机存取存储器分为若干小组随机存取存储器。
S4、当接收到剪枝信号时,根据通道选择信号,对输入特征图数据进行选择,将每一小组内的不同通道的输入特征图数据输入至PE阵列,以实现神经网络的剪枝操作。
值得说明的是,通过解码神经网络,获取到该神经网络是否需要剪枝;
可以理解的时,在进行剪枝操作时,本发明实施例能够在同一个时钟周期读出所有小组的输入特征图数据。
考虑到目前大多数加速器中PE阵列的工作模式类似或等同于脉动阵列,没有剪枝功能时,输入特征图数据存储分组数应等于PE阵列的行数,以满足PE脉动阵列工作时对于输入特征图数据的需求,其数据存储方式及输入特征数据传输给PE脉动阵列的方式如图2所示,每行的输入特征图数据来源于不同的RAM,PE阵列中每行的输入特征图数据相同。
在本发明实施例中支持对输入特征图数据进行剪枝,同时也兼容无需剪枝的输入特征图数据,其存储方式如图3所示,当p=1,N=8时,需要存入至=N*2^p=16个RAM中。
将N*2^p个RAM分成2p*2p个小组,即每N个通道的输入特征图数据存为一大组、对于每个大组,根据通道数除以2p的余数,再将每个大组分为2p个小组,每个小组存储N/2p个通道的输入特征图数据。
当p=1时,N=8时,对于剪枝的数据,在存储输入特征图数据的过程中,按照低8个通道、高8个通道分别存入大组,在每个大组内,根据通道号的余数(0、1)分成两个小组。当接收到剪枝信号开始进行剪枝操作时,根据模型训练过程中的通道选择信号,将每一小组内的每一通道的输入特征图数据输入至PE阵列对应的行内,即对数据进行选择,将输入特征图数据从16个通道压缩至8个通道,选择后输入特征图数据在PE阵列内进行运算。
在另一优选实施例中,所述神经网络的剪枝方法,还包括:
当接收到非剪枝信号时,根据所述输入特征图数据的通道数,将所述输入特征图数据输入至对应所述通道数的PE阵列的行内。
示例性的,当无需进行剪枝操作时,2p*N个RAM将存储2p个点N个通道的输入特征图数据,输入特征图数据存储方式、输入给PE阵列的方式如图4所示,输入特征图数据根据存储数据的通道号传输给PE阵列对应行。此时,在剪枝过程中存储高8通道数据的8个RAM将存储下一个点的8个通道的输入特征图数据。
在另一优选实施例中,所述神经网络的剪枝方法还包括:
获取剪枝后的输入特征图数据的通道,并选取与所述通道相同的卷积核数据进行压缩。
在本发明实施例中,PE阵列中的输入特征图数据是以广播方式传送给M个卷积核,即坐标为(N,0)~(N,M)的PE阵列的输入特征图数据是相同的。为了满足PE阵列的这一工作模式,对于每M个卷积核,输入特征图数据选择的通道应该一致。若需要将输入特征数据的通道进行压缩,在进行模型训练的过程中,对每M个卷积核,卷积核数据压缩过程中应选取和剪枝后的输入特征图数据相同的通道。
在另一优选实施例中,所述神经网络的剪枝方法还包括:
将剪枝后的输入特征图数据输入至预先配置的PE阵列,以进行所述当前卷积层的卷积计算。
可以理解的是,在PE阵列中,对于同一个点的数据,每个周期计算其中一个通道的输入特征图数据与权重数据的乘积,并与之前通道的运算结果相累加。即M个时钟周期后,计算出某一个点的输入特征数据与权重数据的结果。
本发明实施例所提供的一种神经网络的剪枝方法,通过根据预先配置的PE阵列的总行数和预设的筛选通道数,获取随机存取存储器的总数量;根据所述总数量配置若干随机存取存储器,并将每一通道的输入特征图数据分别存入每一所述随机存取存储器中;对若干所述随机存取存储器进行分组,得到若干小组随机存取存储器;当接收到剪枝信号时,根据通道选择信号,对输入特征图数据进行选择,将每一小组内的不同通道的输入特征图数据输入至PE阵列,实现了神经网络的剪枝功能,能够提高神经网络模型的处理效率。
本发明实施例提供的一种神经网络的剪枝装置,包括控制器,所述控制器被配置为:
根据预先配置的PE阵列的总行数和预设的筛选通道数,获取随机存取存储器的总数量;
根据所述总数量配置若干随机存取存储器,并将每一通道的输入特征图数据分别存入每一所述随机存取存储器中;
对若干所述随机存取存储器进行分组,得到若干小组随机存取存储器;其中,每一小组随机存取存储器存储有N/2^p个通道的输入特征图数据,N为PE阵列的总行数,2^p为筛选通道数,p≥1,p为整数;
当接收到剪枝信号时,根据通道选择信号,对输入特征图数据进行选择,将每一小组内的不同通道的输入特征图数据输入至PE阵列,以实现神经网络的剪枝操作。
优选地,所述神经网络的剪枝方法,还包括:
当接收到非剪枝信号时,根据所述输入特征图数据的通道数,将所述输入特征图数据输入至对应所述通道数的PE阵列的行内。
优选地,所述根据预先配置的PE阵列的总行数和预设的筛选通道数,获取随机存取存储器的数量,包括:
将预先配置的PE阵列的总行数和预设的筛选通道数相乘,得到随机存取存储器的数量。
优选地,所述对若干所述随机存取存储器进行分组,得到若干小组随机存取存储器,包括:
根据所述总行数将若干所述随机存取存储器分为若干大组随机存取存储器;其中,每一大组随机存取存储器包括数量为所述总行数的随机存取存储器;
对每一大组随机存取存储器,将所述输入特征图数据的通道数除以所述筛选通道数的余数作为分组的依据,将每一大组随机存取存储器分为若干小组随机存取存储器。
优选地,所述神经网络的剪枝方法还包括:
获取剪枝后的输入特征图数据的通道,并选取与所述通道相同的卷积核数据进行压缩。
优选地,所述神经网络的剪枝方法还包括:
将剪枝后的输入特征图数据输入至预先配置的PE阵列,以进行卷积计算。
值得说明的是,本发明实施例所述的神经网络的剪枝装置的工作过程可参考上述实施例所述的神经网络的剪枝方法的工作过程,在此不再赘述。
本发明实施例所提供的一种神经网络的剪枝装置,通过在将输入特征图数据输入至PE阵列之前,对输入特征数据的通道进行选择,实现了神经网络的剪枝功能,能够提高神经网络模型的处理效率。
参见图5,图5是本发明实施例提供的一种神经网络的剪枝设备20的结构框图,所述神经网络的剪枝设备20包括:处理器21、存储器22以及存储在所述存储器22中并可在所述处理器21上运行的计算机程序。所述处理器21执行所述计算机程序时实现上述神经网络的剪枝方法实施例中的步骤。或者,所述处理器21执行所述计算机程序时实现上述各装置实施例中各模块/单元的功能。
示例性的,所述计算机程序可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器22中,并由所述处理器21执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序在所述神经网络的剪枝设备20中的执行过程。
所述神经网络的剪枝设备20可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述神经网络的剪枝设备20可包括,但不仅限于,处理器21、存储器22。本领域技术人员可以理解,所述示意图仅仅是神经网络的剪枝设备20的示例,并不构成对神经网络的剪枝设备20的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述神经网络的剪枝设备20还可以包括输入输出设备、网络接入设备、总线等。
所称处理器21可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器21是所述神经网络的剪枝设备20的控制中心,利用各种接口和线路连接整个神经网络的剪枝设备20的各个部分。
所述存储器22可用于存储所述计算机程序和/或模块,所述处理器21通过运行或执行存储在所述存储器22内的计算机程序和/或模块,以及调用存储在存储器22内的数据,实现所述神经网络的剪枝设备20的各种功能。所述存储器22可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器22可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(SecureDigital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
其中,所述神经网络的剪枝设备20集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器21执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。
需说明的是,以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。另外,本发明提供的装置实施例附图中,模块之间的连接关系表示它们之间具有通信连接,具体可以实现为一条或多条通信总线或信号线。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
本发明实施例一种计算机可读存储介质,所述计算机可读存储介质包括存储的计算机程序;其中,所述计算机程序在运行时控制所述计算机可读存储介质所在的设备执行如上述实施例所述的神经网络的剪枝方法。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。
Claims (9)
1.一种神经网络的剪枝方法,其特征在于,包括:
根据预先配置的PE阵列的总行数和预设的筛选通道数,获取随机存取存储器的总数量;
根据所述总数量配置若干随机存取存储器,并将每一通道的输入特征图数据分别存入每一所述随机存取存储器中;
对若干所述随机存取存储器进行分组,得到若干小组随机存取存储器;其中,每一小组随机存取存储器存储有N/2^p个通道的输入特征图数据,N为PE阵列的总行数,2^p为筛选通道数,p≥1,p为整数;
当接收到剪枝信号时,根据通道选择信号,对输入特征图数据进行选择,将每一小组内的不同通道的输入特征图数据输入至PE阵列,以实现神经网络的剪枝操作。
2.如权利要求1所述的神经网络的剪枝方法,其特征在于,所述神经网络的剪枝方法,还包括:
当接收到非剪枝信号时,根据所述输入特征图数据的通道数,将所述输入特征图数据输入至对应所述通道数的PE阵列的行内。
3.如权利要求1所述的神经网络的剪枝方法,其特征在于,所述根据预先配置的PE阵列的总行数和预设的筛选通道数,获取随机存取存储器的数量,包括:
将预先配置的PE阵列的总行数和预设的筛选通道数相乘,得到随机存取存储器的数量。
4.如权利要求1所述的神经网络的剪枝方法,其特征在于,所述对若干所述随机存取存储器进行分组,得到若干小组随机存取存储器,包括:
根据所述总行数将若干所述随机存取存储器分为若干大组随机存取存储器;其中,每一大组随机存取存储器包括数量为所述总行数的随机存取存储器;
对每一大组随机存取存储器,将所述输入特征图数据的通道数除以所述筛选通道数的余数作为分组的依据,将每一大组随机存取存储器分为若干小组随机存取存储器。
5.如权利要求1所述的神经网络的剪枝方法,其特征在于,所述神经网络的剪枝方法还包括:
获取剪枝后的输入特征图数据的通道,并选取与所述通道相同的卷积核数据进行压缩。
6.如权利要求1所述的神经网络的剪枝方法,其特征在于,所述神经网络的剪枝方法还包括:
将剪枝后的输入特征图数据输入至预先配置的PE阵列,以进行卷积计算。
7.一种神经网络的剪枝装置,其特征在于,包括控制器,所述控制器被配置为:
根据预先配置的PE阵列的总行数和预设的筛选通道数,获取随机存取存储器的总数量;
根据所述总数量配置若干随机存取存储器,并将每一通道的输入特征图数据分别存入每一所述随机存取存储器中;
对若干所述随机存取存储器进行分组,得到若干小组随机存取存储器;其中,每一小组随机存取存储器存储有N/2^p个通道的输入特征图数据,N为PE阵列的总行数,2^p为筛选通道数,p≥1,p为整数;
当接收到剪枝信号时,根据通道选择信号,对输入特征图数据进行选择,将每一小组内的不同通道的输入特征图数据输入至PE阵列,以实现神经网络的剪枝操作。
8.一种神经网络的剪枝设备,其特征在于,包括处理器、存储器以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器在执行所述计算机程序时实现如权利要求1~6任一项所述的神经网络的剪枝方法。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质包括存储的计算机程序;其中,所述计算机程序在运行时控制所述计算机可读存储介质所在的设备执行如权利要求1~6任一项所述的神经网络的剪枝方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210332430.8A CN114662689A (zh) | 2022-03-31 | 2022-03-31 | 一种神经网络的剪枝方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210332430.8A CN114662689A (zh) | 2022-03-31 | 2022-03-31 | 一种神经网络的剪枝方法、装置、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114662689A true CN114662689A (zh) | 2022-06-24 |
Family
ID=82032437
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210332430.8A Pending CN114662689A (zh) | 2022-03-31 | 2022-03-31 | 一种神经网络的剪枝方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114662689A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115374935A (zh) * | 2022-09-15 | 2022-11-22 | 重庆大学 | 一种神经网络的剪枝方法 |
-
2022
- 2022-03-31 CN CN202210332430.8A patent/CN114662689A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115374935A (zh) * | 2022-09-15 | 2022-11-22 | 重庆大学 | 一种神经网络的剪枝方法 |
CN115374935B (zh) * | 2022-09-15 | 2023-08-11 | 重庆大学 | 一种神经网络的剪枝方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107437110B (zh) | 卷积神经网络的分块卷积优化方法及装置 | |
CN103810020B (zh) | 虚拟机弹性伸缩方法及装置 | |
US10803638B2 (en) | Efficient display of data points in a user interface | |
CN109165728B (zh) | 一种卷积神经网络的基本计算单元及计算方法 | |
CN111542839B (zh) | 一种反卷积神经网络的硬件加速方法、装置和电子设备 | |
CN111079917B (zh) | 张量数据分块存取的方法及装置 | |
WO2022057420A1 (zh) | 数据处理方法、装置、电子设备以及存储介质 | |
KR20190066473A (ko) | 뉴럴 네트워크에서 컨볼루션 연산을 처리하는 방법 및 장치 | |
US11468145B1 (en) | Storage of input values within core of neural network inference circuit | |
CN109214508B (zh) | 信号处理的***和方法 | |
CN109754359A (zh) | 一种应用于卷积神经网络的池化处理的方法及*** | |
CN110780921A (zh) | 数据处理方法和装置、存储介质及电子装置 | |
US20230196113A1 (en) | Neural network training under memory restraint | |
CN107424184A (zh) | 一种基于卷积神经网络的图像处理方法、装置及移动终端 | |
CN112463383A (zh) | 一种gpu分配方法、***、存储介质及设备 | |
CN111310115B (zh) | 数据处理方法、装置及芯片、电子设备、存储介质 | |
CN114662689A (zh) | 一种神经网络的剪枝方法、装置、设备及介质 | |
CN113407254B (zh) | 表单生成方法、装置、电子设备及存储介质 | |
CN111338787A (zh) | 一种数据处理方法及装置、存储介质、电子装置 | |
CN112149047A (zh) | 数据的处理方法及装置、存储介质和电子装置 | |
CN110874284A (zh) | 数据处理的方法和装置 | |
CN117271100A (zh) | 算法芯片集群调度方法、装置、计算机设备和存储介质 | |
CN108108189A (zh) | 一种计算方法及相关产品 | |
US20230083565A1 (en) | Image data processing method and apparatus, storage medium, and electronic device | |
CN114860460B (zh) | 一种数据库加速的方法、装置、计算机设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |