CN109635936A - 一种基于重训练的神经网络剪枝量化方法 - Google Patents

一种基于重训练的神经网络剪枝量化方法 Download PDF

Info

Publication number
CN109635936A
CN109635936A CN201811641867.XA CN201811641867A CN109635936A CN 109635936 A CN109635936 A CN 109635936A CN 201811641867 A CN201811641867 A CN 201811641867A CN 109635936 A CN109635936 A CN 109635936A
Authority
CN
China
Prior art keywords
retraining
beta pruning
model
weight
pruning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811641867.XA
Other languages
English (en)
Inventor
杨常星
钟宇清
黄磊
莫冬春
宋蕴
胡俊
陈伟
钟天浪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou National Chip Science & Technology Co Ltd
Original Assignee
Hangzhou National Chip Science & Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou National Chip Science & Technology Co Ltd filed Critical Hangzhou National Chip Science & Technology Co Ltd
Priority to CN201811641867.XA priority Critical patent/CN109635936A/zh
Publication of CN109635936A publication Critical patent/CN109635936A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于重训练的神经网络剪枝量化方法。本发明方法首先载入已训练好的神经网络模型,对训练好的神经网络模型中的权重和数据同时进行剪枝处理和量化处理,对权重更新以及迭代重训练,将完成重训练得到的神经网络模型进行测试集评估,依据评估结果判断是否保存该模型;同时根据设定的条件,判断是否重新进行下一轮重训练;最后依据神经网络模型压缩比评价指标,从保存的模型中输出最优的剪枝量化模型。本发明方法将剪枝量化技术加入到深度网络重训练中,对模型的权重和数据同时做剪枝量化处理,通过重训练,得到一种更适合于推断的权重分布,在保持原模型精度下,取得较好的网络压缩收益,提升神经网络模型在实际推断中的速度。

Description

一种基于重训练的神经网络剪枝量化方法
技术领域
本发明属于计算机技术领域,具体是深度学习技术领域,涉及一种基于重训练的神经网络剪枝量化方法。
背景技术
当前,深度神经网络在计算机视觉领域不断取得突破性进展,其技术已被推广到诸多相关领域,如语音识别、文本理解、翻译、游戏等,同样取得了杰出成果。但随着深度神经网络性能的提升,模型的参数量和计算量也越来越大,严重制约了模型的推断速度。对实时性要求高的终端设备,资源需求高的神经网络模型更是大大增加了部署难度。此外,训练好的神经网络往往耗费了巨大的资源,如果不能加以利用,也是一种浪费。
神经网络模型相比其它传统机器学习方法,具有更强的表征能力。在采用神经网络模型训练时,为了追求更高的模型性能,选取的网络结构复杂度往往会大于问题所需,导致训练好的神经网络模型具有很高的冗余性。因此,在保持模型精度的情况下,对深度网络模型进行压缩,受到越来越多的关注。
训练好的神经网络模型本身具有一定的稀疏度,即模型的权重包含一定的零值,且模型中存在较多接近于零的非零值。所以将这些小值通过剪枝量化并重训练“去除掉”,可以达到压缩模型的效果,从而提升推断过程。此外神经网络的层具有如下特点:低层网络主要提取丰富的纹理特征信息,高层网络主要提取语义信息。随着网络加深,这些数据的响应也是越来越稀疏的。图1展示了基于训练好的vgg16神经网络模型,第一层卷积conv1、第三层卷积conv2等部分层数据的响应,每层中小块的个数对应该层输出通道的个数。可以看出随着网络层结构的加深,数据稀疏性越来越明显。所以对模型的数据做剪枝量化处理,也会对模型权重的稀疏性带来收益。
针对神经网络模型的压缩问题,现有的解决方法有:
(1)对深度网络模型进行直接剪枝量化处理(不重训练),该方法虽然处理简单,但是难以兼顾模型精度和压缩收益。实际中许多神经网络模型不允许或仅允许轻微的模型精度下降,导致直接剪枝方法很难取得好的压缩收益。而当前存在的重训练方法则仅对网络的权重做处理,未考虑对数据的处理同样会对模型压缩带来收益。实际上对模型权重和数据同时做剪枝量化处理,等同于对模型权重做了双重约束,通过重训练获得的模型更具稀疏性。
(2)重新设计新型的轻量级网络,如shufflenet,squeezenet,mobilenet_v1,mobilenet_v2等。在imagenet数据集上,针对分类任务,采用这些更小的模型获得相近甚至超过Alexnet的模型精度。但这种方法则需要具有一定的创新性想法。
(3)采用知识蒸馏的方法提炼小网络,虽然蒸馏的网络(student)相比原来的网络(teacher)小,但仍需要重新训练,耗费仍然较大。而且在保持原有模型精度不变的情况下,不一定成功蒸馏出小网络。
发明内容
本发明目的就是针对现存技术的不足,提供一种基于重训练的神经网络剪枝量化方法。
该方法具体步骤包括:
S1.载入已训练好的神经网络模型;
S2.对步骤S1中训练好的神经网络模型中的权重和数据同时进行剪枝处理和量化处理;
S3.在步骤S2基础上对权重更新以及迭代重训练,所述对权重更新是步骤S2中剪枝量化前的权重;即利用剪枝量化后的权重和数据,对剪枝量化前的权重更新以及迭代重训练;
S4.将步骤S3完成重训练得到的神经网络模型进行测试集评估,依据评估结果判断是否保存该模型;同时根据设定的条件,判断是否返回步骤S1重新进行下一轮重训练;
S5.依据神经网络模型压缩比评价指标,从步骤S4保存的模型中输出最优的剪枝量化模型。
进一步,步骤S2具体包括:
S21.根据实际需求,选择神经网络模型部分或全部的网络层做剪枝量化处理,所述的网络层包含网络权重和输入的数据;至少选取一层网络做剪枝量化处理,所述的网络层结构具体包括:卷积神经网络CNN,循环神经网络层RNN,深度神经网络DNN;
S22.根据选择的待处理网络层,制定剪枝量化策略,即分别设置权重的剪枝比例和量化比特数、数据的剪枝比例和量化比特数;
所述的剪枝量化策略为选取剪枝比例PR和量化比特数QB;
S23.进行剪枝量化处理:对各层的剪枝量化处理采用先做剪枝后做量化,或先量化后剪枝,或只做剪枝,或只做量化。
进一步,步骤S3具体包括:
S31.根据剪枝量化处理后的权重和数据计算前向传播损失Loss;
S32.根据Loss,结合链式法则得到梯度,利用梯度通过反向传播更新权重;至此为剪枝量化的一个周期过程;
S33.根据设定的内部迭代步数m,进行步骤S2~S3的迭代重训练。
进一步,步骤S4具体包括:
S41.将重训练得到的神经网络模型进行测试集评估,得到重训练剪枝量化模型精度;
S42.将重训练剪枝量化模型精度与设定阈值θ进行对比,若大于或等于θ,则保存该次重训练的模型,若小于θ,不保存;θ=原始模型精度-允许模型精度的最大损失;
S43.判断模型重训练次数是否达到设定的外部迭代步数n,若达到,结束该重训练,否则返回步骤S1开始新一轮重训练。
进一步,步骤S5中的神经网络模型压缩比评价指标C=1-P×Q,P为权重剪枝率,Q为权重量化率,W′为权重非零量,W为权重总量,b为量化比特数,B为模型比特数;压缩比评价指标值越大说明模型压缩率越高,将压缩比评价指标值最大的作为最优的剪枝量化模型输出。
本发明方法将剪枝量化技术,加入到深度网络重训练中,对模型的权重和数据同时做剪枝量化处理,其本质是对模型的权重做双重约束。通过对处理的模型重训练,得到一种更适合于推断的权重分布,从而保持模型精度的同时取得较好的网络压缩收益。提升神经网络模型在实际推断中的速度。
附图说明
图1是神经网络vgg16在不同网络层上提取的特征示例图;
图2是本发明方法流程图;
图3是神经网络常规的前向传播和反向传播的流程图;
图4是本发明中剪枝量化在前向传播和反向传播中一个实施例的流程图;
图5是本发明的一个实施例的结果图。
具体实施方法
下面结合附图,借助实施例详细描述本发明。但应注意到:除非另外特殊说明,否则在实施例中阐述涉及的相对设置、数字表达式、字母表达式和数值不限定本发明的范围,提供这写实施例仅为了让相关人员更便于理解本发明。对相关领域的技术人员公知的技术方法可能不做过多描述。但一定条件下,本发明所述技术、方法和***应当被视为说明书的一部分。
神经网络中基本的计算模块包含两部分:输入数据x,权重WT,描述为:y=WTx。
根据神经网络的具体结构不同,WT和x会有不同的变型。若是卷积神经网络层,WT、x可用四维形式表示;若是深度神经网络层,WT、x可用二维形式表示;若是循环神经网络,也可用类似的多维形式表示。
此外,在线性输出y之后,还会进一步做其它的特征提取处理操作,如LRN,BN,Sigmoid,RELU及变体等。可用统一描述为:
目前的神经网络训练大多采用监督学习训练,所以根据预测z和标签l,计算前向损失Loss。然后借助链式法则求导进行反向传播更新。为了更好的解释,图3展示了上述前向传播和后向传播的基本过程。
本发明的基于重训练的神经网络剪枝量化方法及***不仅适用于稠密性的神经网络,而且对轻量级的网络依然有效。接下来,将以轻量级的网络mobilenet_v2为实施例,阐述本发明的具体实施。
首先,图2是根据本申请的发明适用于mobilenet_v2深度卷积神经网络的流程图。主要涉及两个迭代训练,内部迭代是对某种剪枝量化处理后的重训练,外部迭代是对不同的剪枝量化处理策略的重训练。
将已训练好的mobilenet_v2模型权重载入重训练***中。
选取部分或全部网络层用于剪枝量化处理,本实施例中选取所有的mobilenet_v2网络层,即对整个模型做剪枝量化处理。由于剪枝量化先后顺序不影响最终结果,本实施例采用了先量化后剪枝方式。
对mobilenet_v2模型权重和数据设定量化比特。原则上量化比特可选[2,T]中的任意整数。具体量化比特位可根据神经网络模型和实际需求选取,由于训练的mobilenet_v2是在32位浮点型数据类型上,此处量化比特统一设定为8bit。
根据已设定的量化比特对mobilenet_v2模型权重和数据量化。
设定mobilenet_v2模型的剪枝比例,这里提供三种方式:其一随机法,即随机初始化剪枝比例;其二一致法,即所有层的权重和数据的剪枝比例设定相同;其三侧重法,对权重和数据占整个模型越大,设定的剪枝比例越高。为了得到较好的剪枝策略,在外部迭代中会覆盖上述三种的选取剪枝比例的策略。
根据已设定的剪枝比例对mobilenet_v2模型权重和数据进行小值清零处理。
然后,对量化剪枝后的权重和数据,做其它相关处理,如BN、RELU等。
接下来,其它相关处理之后,计算模型的损失,由于该实施例是分类任务,采用交叉熵损失。并进行反向传播更新模型权重。在反向传播中,根据链式法则求导。其中对剪枝量化处理的偏导置为1,即剪枝量化操作无更新处理。实质只对剪枝量化处理前的权重进行更新。图4展示了本发明方法的前向传播和后向传播过程,需要注意的是为了突出本发明的特点,图中对部分操作做了省略描述。
模型反向更新后,根据设定的内部迭代步数重训练。需要注意的是,由于模型重训练相当于finetune训练。为防止模型发散,学习率相比初始训练要小,相应的迭代步数也不易过大。针对mobilenet_v2模型,重训练学习率设为1.0e-4,内部迭代步数5000.图5给出了基于重训练的神经网络剪枝量化方法及***的在mobilenet_v2上实施例的结果图,图中给出了第一层卷积conv1,第5层卷积conv5,第15层卷积conv15,重训练前后的权重分布。图中第一列对应未量化剪枝前的权重分布,第二、三、四列对应第0步、3000步、5000步剪枝量化及重训练的权重分布。
在达到迭代步数后,将重训练后的mobilenet_v2模型过测试集,评估精度。根据精度是否满足设定阈值,决定是否保存该次剪枝量化的重训练模型。这里按重训练模型精度不下降一个点为准则,若模型精度满足保存要求,则在保存模型的同时计算模型压缩率。
此外,在达到迭代步数时,还要判断是否所有的模型剪枝量化策略已迭代完。若没有,开始新一次的剪枝量化迭代。若完成,则从所保存的模型中挑选压缩比最大的模型作为最终的输出模型。

Claims (10)

1.一种基于重训练的神经网络剪枝量化方法,其特征在于该方法具体步骤包括:
S1.载入已训练好的神经网络模型;
S2.对步骤S1中训练好的神经网络模型中的权重和数据同时进行剪枝处理和量化处理;
S3.在步骤S2基础上对权重更新以及迭代重训练,所述对权重更新是步骤S2中剪枝量化前的权重;即利用剪枝量化后的权重和数据,对剪枝量化前的权重更新以及迭代重训练;
S4.将步骤S3完成重训练得到的神经网络模型进行测试集评估,依据评估结果判断是否保存该模型;同时根据设定的条件,判断是否返回步骤S1重新进行下一轮重训练;
S5.依据神经网络模型压缩比评价指标,从步骤S4保存的模型中输出最优的剪枝量化模型。
2.根据权利要求1所述的基于重训练的神经网络剪枝量化方法,其特征在于步骤S2具体包括:
S21.根据实际需求,选择神经网络模型部分或全部的网络层做剪枝量化处理,所述的网络层包含网络权重和输入的数据;至少选取一层网络做剪枝量化处理,所述的网络层结构具体包括:卷积神经网络CNN,循环神经网络层RNN,深度神经网络DNN;
S22.根据选择的待处理网络层,制定剪枝量化策略,即分别设置权重的剪枝比例和量化比特数、数据的剪枝比例和量化比特数;
所述的剪枝量化策略为选取剪枝比例PR和量化比特数QB;
S23.进行剪枝量化处理:对各层的剪枝量化处理采用先做剪枝后做量化,或先量化后剪枝,或只做剪枝,或只做量化。
3.根据权利要求1所述的基于重训练的神经网络剪枝量化方法,其特征在于步骤S3具体包括:
S31.根据剪枝量化处理后的权重和数据计算前向传播损失Loss;
S32.根据Loss,结合链式法则得到梯度,利用梯度通过反向传播更新权重;至此为剪枝量化的一个周期过程;
S33.根据设定的内部迭代步数m,进行步骤S2~S3的迭代重训练。
4.根据权利要求1所述的基于重训练的神经网络剪枝量化方法,其特征在于步骤S4具体包括:
S41.将重训练得到的神经网络模型进行测试集评估,得到重训练剪枝量化模型精度;
S42.将重训练剪枝量化模型精度与设定阈值θ进行对比,若大于或等于θ,则保存该次重训练的模型,若小于θ,不保存;θ=原始模型精度-允许模型精度的最大损失;
S43.判断模型重训练次数是否达到设定的外部迭代步数n,若达到,结束该重训练,否则返回步骤S1开始新一轮重训练。
5.根据权利要求1所述的基于重训练的神经网络剪枝量化方法,其特征在于步骤S5中,所述的神经网络模型压缩比评价指标C=1-P×Q,P为权重剪枝率,Q为权重量化率,W′为权重非零量,W为权重总量,b为量化比特数,B为模型比特数;压缩比评价指标值越大说明模型压缩率越高,将压缩比评价指标值最大的作为最优的剪枝量化模型输出。
6.如权利要求2所述的一种基于重训练的神经网络剪枝量化方法,其特征在于:所述的剪枝处理,是将绝对值小于设定阈值τ的元素按设定的阈值进行置0处理,保留绝对值大于等于设定阈值τ的元素,τ=f(N×PR),f(·)为排序挑选函数,N为当前层权重或数据的总个数;所述的量化处理,是指将浮点型的权重和数据量化成定点的数值。
7.根据权利要求2所述的基于重训练的神经网络剪枝量化方法,其特征在于所述的卷积神经网络CNN包括常规卷积、空洞卷积、反卷积、分组卷积、分离卷积。
8.根据权利要求2所述的基于重训练的神经网络剪枝量化方法,其特征在于所述的剪枝比例PR为清除权重和数据中小值所占的比例,其中PR∈[0,1);所述的量化比特数QB是将网络权重和数据量化成的比特数,其中QB∈[2,T],T为神经网络模型的训练时浮点类型;当PR=0,QB∈(1,T),只做量化处理;当PR∈(0,1),QB=T,只做剪枝处理;当所述PR∈(0,1),QB∈[2,T),剪枝和量化均用于处理。
9.根据权利要求4所述的基于重训练的神经网络剪枝量化方法,其特征在于所述原始模型精度是未剪枝量化的原始模型在测试集上获得的,与所述步骤S4的测试集是同一数据集。
10.根据权利要求1所述的基于重训练的神经网络剪枝量化方法,其特征在于所述的剪枝量化方法直接用于神经网络原始模型训练中,即在原始训练中对权重直接进行双重约束,最终获得的神经网络模型便是稀疏化的模型。
CN201811641867.XA 2018-12-29 2018-12-29 一种基于重训练的神经网络剪枝量化方法 Pending CN109635936A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811641867.XA CN109635936A (zh) 2018-12-29 2018-12-29 一种基于重训练的神经网络剪枝量化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811641867.XA CN109635936A (zh) 2018-12-29 2018-12-29 一种基于重训练的神经网络剪枝量化方法

Publications (1)

Publication Number Publication Date
CN109635936A true CN109635936A (zh) 2019-04-16

Family

ID=66054776

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811641867.XA Pending CN109635936A (zh) 2018-12-29 2018-12-29 一种基于重训练的神经网络剪枝量化方法

Country Status (1)

Country Link
CN (1) CN109635936A (zh)

Cited By (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110047468A (zh) * 2019-05-20 2019-07-23 北京达佳互联信息技术有限公司 语音识别方法、装置及存储介质
CN110069715A (zh) * 2019-04-29 2019-07-30 腾讯科技(深圳)有限公司 一种信息推荐模型训练的方法、信息推荐的方法及装置
CN110097186A (zh) * 2019-04-29 2019-08-06 济南浪潮高新科技投资发展有限公司 一种神经网络异构量化训练方法
CN110245753A (zh) * 2019-05-27 2019-09-17 东南大学 一种基于幂指数量化的神经网络压缩方法
CN110276452A (zh) * 2019-06-28 2019-09-24 北京中星微电子有限公司 神经网络模型的剪枝方法、装置、设备和人工智能芯片
CN110807514A (zh) * 2019-10-25 2020-02-18 中国科学院计算技术研究所 一种基于lo正则的神经网络剪枝方法
CN110889503A (zh) * 2019-11-26 2020-03-17 中科寒武纪科技股份有限公司 数据处理方法、装置、计算机设备和存储介质
CN110909667A (zh) * 2019-11-20 2020-03-24 北京化工大学 面向多角度sar目标识别网络的轻量化设计方法
CN111160519A (zh) * 2019-12-02 2020-05-15 上海交通大学 基于结构冗余检测的卷积神经网络模型剪枝方法
CN111242287A (zh) * 2020-01-15 2020-06-05 东南大学 一种基于通道l1范数剪枝的神经网络压缩方法
CN111355725A (zh) * 2020-02-26 2020-06-30 北京邮电大学 一种网络入侵数据的检测方法及装置
CN111368976A (zh) * 2020-02-27 2020-07-03 杭州国芯科技股份有限公司 基于神经网络特征识别的数据压缩方法
CN111461212A (zh) * 2020-03-31 2020-07-28 中国科学院计算技术研究所 一种用于点云目标检测模型的压缩方法
CN111553169A (zh) * 2020-06-25 2020-08-18 北京百度网讯科技有限公司 语义理解模型的剪枝方法、装置、电子设备和存储介质
CN111582471A (zh) * 2020-04-17 2020-08-25 中科物栖(北京)科技有限责任公司 一种神经网络模型压缩方法及装置
CN111598238A (zh) * 2020-07-17 2020-08-28 支付宝(杭州)信息技术有限公司 深度学习模型的压缩方法及装置
CN111612144A (zh) * 2020-05-22 2020-09-01 深圳金三立视频科技股份有限公司 一种应用于目标检测的剪枝方法及终端
CN111814975A (zh) * 2020-07-09 2020-10-23 广东工业大学 一种基于剪枝的神经网络模型构建方法及相关装置
CN111814736A (zh) * 2020-07-23 2020-10-23 上海东普信息科技有限公司 快递面单信息的识别方法、装置、设备及存储介质
CN112001477A (zh) * 2020-06-19 2020-11-27 南京理工大学 一种基于深度学习的目标检测YOLOv3的模型优化算法
CN112016674A (zh) * 2020-07-29 2020-12-01 魔门塔(苏州)科技有限公司 一种基于知识蒸馏的卷积神经网络的量化方法
WO2020245936A1 (ja) * 2019-06-05 2020-12-10 日本電信電話株式会社 推論処理装置および推論処理方法
CN112149805A (zh) * 2020-09-24 2020-12-29 济南大学 基于框架搜索的深度神经网络的加速与压缩方法及***
CN112183747A (zh) * 2020-09-29 2021-01-05 华为技术有限公司 神经网络训练的方法、神经网络的压缩方法以及相关设备
CN112488285A (zh) * 2019-09-12 2021-03-12 上海大学 基于神经网络权重数据分布特点的量化方法
CN112734029A (zh) * 2020-12-30 2021-04-30 中国科学院计算技术研究所 一种神经网络通道剪枝方法、存储介质及电子设备
CN112766397A (zh) * 2021-01-27 2021-05-07 歌尔股份有限公司 一种分类网络及其实现方法和装置
CN113011581A (zh) * 2021-02-23 2021-06-22 北京三快在线科技有限公司 神经网络模型压缩方法、装置、电子设备及可读存储介质
CN113052307A (zh) * 2021-03-16 2021-06-29 上海交通大学 一种面向忆阻器加速器的神经网络模型压缩方法及***
WO2021143070A1 (zh) * 2020-01-16 2021-07-22 北京智芯微电子科技有限公司 深度神经网络模型的压缩方法、装置及存储介质
CN113255822A (zh) * 2021-06-15 2021-08-13 中国人民解放军国防科技大学 一种用于图像检索的双重知识蒸馏方法
CN113329358A (zh) * 2021-04-29 2021-08-31 广州中国科学院软件应用技术研究所 一种基于risc-v指令集的aiot多制式边缘网关通信***及设备
WO2021174790A1 (zh) * 2020-03-05 2021-09-10 重庆大学 稀疏量化神经网络编码模式识别方法与***
CN113408723A (zh) * 2021-05-19 2021-09-17 北京理工大学 一种面向遥感应用的卷积神经网络剪枝和量化同步压缩方法
CN113627595A (zh) * 2021-08-06 2021-11-09 温州大学 一种基于概率的MobileNetV1网络通道剪枝方法
WO2021253857A1 (zh) * 2020-06-18 2021-12-23 苏州浪潮智能科技有限公司 一种融合裁剪与量化的模型压缩方法及***
CN114330714A (zh) * 2022-03-08 2022-04-12 北京环境特性研究所 卷积神经网络剪枝优化方法、装置、电子设备及存储介质
CN114667544A (zh) * 2020-08-14 2022-06-24 腾讯美国有限责任公司 具有可堆叠嵌套模型结构的多速率神经图像压缩方法和装置
CN115049058A (zh) * 2022-08-17 2022-09-13 北京智芯微电子科技有限公司 拓扑识别模型的压缩方法、装置、电子设备及介质
CN115546775A (zh) * 2022-12-05 2022-12-30 成都寒芒科技有限公司 一种基于图像技术和深度学习融合的烤烟分级方法及***
CN116167413A (zh) * 2023-04-20 2023-05-26 国网山东省电力公司济南供电公司 深度卷积神经网络量化剪枝联合优化的方法及***
US11842260B2 (en) 2020-09-25 2023-12-12 International Business Machines Corporation Incremental and decentralized model pruning in federated machine learning
CN118133929A (zh) * 2024-05-06 2024-06-04 浙江大学 一种基于节点冻结加速神经网络训练的方法及装置

Cited By (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110097186B (zh) * 2019-04-29 2023-04-18 山东浪潮科学研究院有限公司 一种神经网络异构量化训练方法
CN110069715A (zh) * 2019-04-29 2019-07-30 腾讯科技(深圳)有限公司 一种信息推荐模型训练的方法、信息推荐的方法及装置
CN110097186A (zh) * 2019-04-29 2019-08-06 济南浪潮高新科技投资发展有限公司 一种神经网络异构量化训练方法
CN110069715B (zh) * 2019-04-29 2022-12-23 腾讯科技(深圳)有限公司 一种信息推荐模型训练的方法、信息推荐的方法及装置
CN110047468B (zh) * 2019-05-20 2022-01-25 北京达佳互联信息技术有限公司 语音识别方法、装置及存储介质
CN110047468A (zh) * 2019-05-20 2019-07-23 北京达佳互联信息技术有限公司 语音识别方法、装置及存储介质
CN110245753A (zh) * 2019-05-27 2019-09-17 东南大学 一种基于幂指数量化的神经网络压缩方法
WO2020245936A1 (ja) * 2019-06-05 2020-12-10 日本電信電話株式会社 推論処理装置および推論処理方法
JPWO2020245936A1 (zh) * 2019-06-05 2020-12-10
JP7215572B2 (ja) 2019-06-05 2023-01-31 日本電信電話株式会社 推論処理装置および推論処理方法
CN110276452A (zh) * 2019-06-28 2019-09-24 北京中星微电子有限公司 神经网络模型的剪枝方法、装置、设备和人工智能芯片
CN112488285A (zh) * 2019-09-12 2021-03-12 上海大学 基于神经网络权重数据分布特点的量化方法
CN110807514A (zh) * 2019-10-25 2020-02-18 中国科学院计算技术研究所 一种基于lo正则的神经网络剪枝方法
CN110909667A (zh) * 2019-11-20 2020-03-24 北京化工大学 面向多角度sar目标识别网络的轻量化设计方法
CN110889503A (zh) * 2019-11-26 2020-03-17 中科寒武纪科技股份有限公司 数据处理方法、装置、计算机设备和存储介质
CN110889503B (zh) * 2019-11-26 2021-05-04 中科寒武纪科技股份有限公司 数据处理方法、装置、计算机设备和存储介质
CN111160519B (zh) * 2019-12-02 2023-12-08 上海交通大学 基于结构冗余检测的卷积神经网络模型剪枝方法
CN111160519A (zh) * 2019-12-02 2020-05-15 上海交通大学 基于结构冗余检测的卷积神经网络模型剪枝方法
CN111242287A (zh) * 2020-01-15 2020-06-05 东南大学 一种基于通道l1范数剪枝的神经网络压缩方法
WO2021143070A1 (zh) * 2020-01-16 2021-07-22 北京智芯微电子科技有限公司 深度神经网络模型的压缩方法、装置及存储介质
CN111355725A (zh) * 2020-02-26 2020-06-30 北京邮电大学 一种网络入侵数据的检测方法及装置
CN111368976B (zh) * 2020-02-27 2022-09-02 杭州国芯科技股份有限公司 基于神经网络特征识别的数据压缩方法
CN111368976A (zh) * 2020-02-27 2020-07-03 杭州国芯科技股份有限公司 基于神经网络特征识别的数据压缩方法
WO2021174790A1 (zh) * 2020-03-05 2021-09-10 重庆大学 稀疏量化神经网络编码模式识别方法与***
CN111461212A (zh) * 2020-03-31 2020-07-28 中国科学院计算技术研究所 一种用于点云目标检测模型的压缩方法
CN111461212B (zh) * 2020-03-31 2023-04-07 中国科学院计算技术研究所 一种用于点云目标检测模型的压缩方法
CN111582471A (zh) * 2020-04-17 2020-08-25 中科物栖(北京)科技有限责任公司 一种神经网络模型压缩方法及装置
CN111612144B (zh) * 2020-05-22 2021-06-15 深圳金三立视频科技股份有限公司 一种应用于目标检测的剪枝方法及终端
CN111612144A (zh) * 2020-05-22 2020-09-01 深圳金三立视频科技股份有限公司 一种应用于目标检测的剪枝方法及终端
WO2021253857A1 (zh) * 2020-06-18 2021-12-23 苏州浪潮智能科技有限公司 一种融合裁剪与量化的模型压缩方法及***
CN112001477A (zh) * 2020-06-19 2020-11-27 南京理工大学 一种基于深度学习的目标检测YOLOv3的模型优化算法
CN111553169A (zh) * 2020-06-25 2020-08-18 北京百度网讯科技有限公司 语义理解模型的剪枝方法、装置、电子设备和存储介质
CN111553169B (zh) * 2020-06-25 2023-08-25 北京百度网讯科技有限公司 语义理解模型的剪枝方法、装置、电子设备和存储介质
CN111814975A (zh) * 2020-07-09 2020-10-23 广东工业大学 一种基于剪枝的神经网络模型构建方法及相关装置
CN111814975B (zh) * 2020-07-09 2023-07-28 广东工业大学 一种基于剪枝的神经网络模型构建方法及相关装置
CN111598238A (zh) * 2020-07-17 2020-08-28 支付宝(杭州)信息技术有限公司 深度学习模型的压缩方法及装置
CN111814736A (zh) * 2020-07-23 2020-10-23 上海东普信息科技有限公司 快递面单信息的识别方法、装置、设备及存储介质
CN111814736B (zh) * 2020-07-23 2023-12-29 上海东普信息科技有限公司 快递面单信息的识别方法、装置、设备及存储介质
CN112016674A (zh) * 2020-07-29 2020-12-01 魔门塔(苏州)科技有限公司 一种基于知识蒸馏的卷积神经网络的量化方法
CN114667544A (zh) * 2020-08-14 2022-06-24 腾讯美国有限责任公司 具有可堆叠嵌套模型结构的多速率神经图像压缩方法和装置
CN112149805B (zh) * 2020-09-24 2023-08-22 法正互联(北京)科技有限公司 基于框架搜索的深度神经网络的加速与压缩方法及***
CN112149805A (zh) * 2020-09-24 2020-12-29 济南大学 基于框架搜索的深度神经网络的加速与压缩方法及***
US11842260B2 (en) 2020-09-25 2023-12-12 International Business Machines Corporation Incremental and decentralized model pruning in federated machine learning
WO2022068314A1 (zh) * 2020-09-29 2022-04-07 华为技术有限公司 神经网络训练的方法、神经网络的压缩方法以及相关设备
CN112183747A (zh) * 2020-09-29 2021-01-05 华为技术有限公司 神经网络训练的方法、神经网络的压缩方法以及相关设备
CN112734029A (zh) * 2020-12-30 2021-04-30 中国科学院计算技术研究所 一种神经网络通道剪枝方法、存储介质及电子设备
CN112766397B (zh) * 2021-01-27 2023-12-05 歌尔股份有限公司 一种分类网络及其实现方法和装置
CN112766397A (zh) * 2021-01-27 2021-05-07 歌尔股份有限公司 一种分类网络及其实现方法和装置
CN113011581A (zh) * 2021-02-23 2021-06-22 北京三快在线科技有限公司 神经网络模型压缩方法、装置、电子设备及可读存储介质
CN113011581B (zh) * 2021-02-23 2023-04-07 北京三快在线科技有限公司 神经网络模型压缩方法、装置、电子设备及可读存储介质
CN113052307A (zh) * 2021-03-16 2021-06-29 上海交通大学 一种面向忆阻器加速器的神经网络模型压缩方法及***
CN113052307B (zh) * 2021-03-16 2022-09-06 上海交通大学 一种面向忆阻器加速器的神经网络模型压缩方法及***
CN113329358B (zh) * 2021-04-29 2022-10-18 广州中国科学院软件应用技术研究所 一种基于risc-v指令集的aiot多制式边缘网关通信***及设备
CN113329358A (zh) * 2021-04-29 2021-08-31 广州中国科学院软件应用技术研究所 一种基于risc-v指令集的aiot多制式边缘网关通信***及设备
CN113408723A (zh) * 2021-05-19 2021-09-17 北京理工大学 一种面向遥感应用的卷积神经网络剪枝和量化同步压缩方法
CN113255822A (zh) * 2021-06-15 2021-08-13 中国人民解放军国防科技大学 一种用于图像检索的双重知识蒸馏方法
CN113627595A (zh) * 2021-08-06 2021-11-09 温州大学 一种基于概率的MobileNetV1网络通道剪枝方法
CN113627595B (zh) * 2021-08-06 2023-07-25 温州大学 一种基于概率的MobileNetV1网络通道剪枝方法
CN114330714B (zh) * 2022-03-08 2022-06-14 北京环境特性研究所 卷积神经网络剪枝优化方法、装置、电子设备及存储介质
CN114330714A (zh) * 2022-03-08 2022-04-12 北京环境特性研究所 卷积神经网络剪枝优化方法、装置、电子设备及存储介质
CN115049058B (zh) * 2022-08-17 2023-01-20 北京智芯微电子科技有限公司 拓扑识别模型的压缩方法、装置、电子设备及介质
CN115049058A (zh) * 2022-08-17 2022-09-13 北京智芯微电子科技有限公司 拓扑识别模型的压缩方法、装置、电子设备及介质
CN115546775A (zh) * 2022-12-05 2022-12-30 成都寒芒科技有限公司 一种基于图像技术和深度学习融合的烤烟分级方法及***
CN116167413A (zh) * 2023-04-20 2023-05-26 国网山东省电力公司济南供电公司 深度卷积神经网络量化剪枝联合优化的方法及***
CN118133929A (zh) * 2024-05-06 2024-06-04 浙江大学 一种基于节点冻结加速神经网络训练的方法及装置

Similar Documents

Publication Publication Date Title
CN109635936A (zh) 一种基于重训练的神经网络剪枝量化方法
CN110175628A (zh) 一种基于自动搜索与知识蒸馏的神经网络剪枝的压缩算法
CN106779075A (zh) 一种计算机中采用剪枝方法改进的神经网络
CN107766324A (zh) 一种基于深度神经网络的文本一致性分析方法
CN112000770B (zh) 面向智能问答的基于语义特征图的句子对语义匹配方法
WO2020057593A1 (zh) 一种卷积神经网络的卷积处理方法、装置及存储介质
CN114241230A (zh) 目标检测模型剪枝方法和目标检测方法
CN109889923A (zh) 利用结合视频描述的分层自注意力网络总结视频的方法
CN113157919A (zh) 语句文本方面级情感分类方法及***
CN113190655A (zh) 一种基于语义依赖的空间关系抽取方法及装置
CN111062511B (zh) 基于决策树与神经网络的水产养殖病害预测方法及***
WO2023019899A1 (zh) 神经网络实时剪枝方法、***及神经网络加速器
Qi et al. Learning low resource consumption cnn through pruning and quantization
Rao et al. Plant Disease Detection using Convolutional Neural Networks
Wang et al. A Convolutional Neural Network Pruning Method Based On Attention Mechanism.
CN108805280A (zh) 一种图像检索的方法和装置
Wen et al. MapReduce-based BP neural network classification of aquaculture water quality
Wang et al. Efficient deep convolutional model compression with an active stepwise pruning approach
CN110888944B (zh) 基于多卷积窗尺寸注意力卷积神经网络实体关系抽取方法
Wang et al. Codinet: Path distribution modeling with consistency and diversity for dynamic routing
Sun et al. A Review of AIoT-based Edge Devices and Lightweight Deployment
Xia et al. Efficient synthesis of compact deep neural networks
Ascia et al. Improving inference latency and energy of network-on-chip based convolutional neural networks through weights compression
Qasaimeh et al. An efficient hardware architecture for sparse convolution using linear feedback shift registers
Mishra et al. Wrpn & apprentice: Methods for training and inference using low-precision numerics

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190416