CN115049055A - 基于动态双可训练界限的超分神经网络的量化方法 - Google Patents
基于动态双可训练界限的超分神经网络的量化方法 Download PDFInfo
- Publication number
- CN115049055A CN115049055A CN202210761410.2A CN202210761410A CN115049055A CN 115049055 A CN115049055 A CN 115049055A CN 202210761410 A CN202210761410 A CN 202210761410A CN 115049055 A CN115049055 A CN 115049055A
- Authority
- CN
- China
- Prior art keywords
- trainable
- layer
- neural network
- network
- hyper
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 45
- 238000000034 method Methods 0.000 title claims abstract description 33
- 230000009977 dual effect Effects 0.000 title claims abstract description 15
- 238000011002 quantification Methods 0.000 title abstract description 6
- 230000004913 activation Effects 0.000 claims abstract description 46
- 238000013139 quantization Methods 0.000 claims abstract description 45
- 238000012549 training Methods 0.000 claims abstract description 31
- 238000012546 transfer Methods 0.000 claims abstract description 10
- 238000013459 approach Methods 0.000 claims description 8
- 238000011176 pooling Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 4
- 230000006835 compression Effects 0.000 abstract description 5
- 238000007906 compression Methods 0.000 abstract description 5
- 230000001133 acceleration Effects 0.000 abstract description 4
- 238000001994 activation Methods 0.000 description 32
- 238000013527 convolutional neural network Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 101100365548 Caenorhabditis elegans set-14 gene Proteins 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 239000000126 substance Substances 0.000 description 3
- 230000015556 catabolic process Effects 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- VGDVDUNAKOZZAO-UHFFFAOYSA-N (2,4-dinitrophenyl) 4-[bis(4-methoxyphenyl)-phenylmethoxy]butanoate Chemical compound C1=CC(OC)=CC=C1C(C=1C=CC(OC)=CC=1)(C=1C=CC=CC=1)OCCCC(=O)OC1=CC=C([N+]([O-])=O)C=C1[N+]([O-])=O VGDVDUNAKOZZAO-UHFFFAOYSA-N 0.000 description 1
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000001303 quality assessment method Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Feedback Control In General (AREA)
Abstract
基于动态双可训练界限的超分神经网络的量化方法,涉及人工神经网络的压缩与加速。1)统计超分神经网络每一层激活值的最大值分布和最小值分布;2)选择最大值分布方差和最小值分布方差之和最大的P%层,对其激活值应用具有可训练上界和下界的、具有动态门控制器的量化器,其他层的激活值应用有可训练上界和下界的量化器;3)对网络权重应用非对称的上界和下界的量化器;4)使用量化器量化神经网络,初始化动态门控制器的权重,使用L1损失、结构转移损失训练量化网络,直至达到预定的训练轮数;5)训练结束保留量化网络权重,即得量化后的量化网络。
Description
技术领域
本发明涉及人工神经网络的压缩与加速,尤其是涉及一种基于动态双可训练界限的超分神经网络的量化方法。
背景技术
单图像超分辨率(SISR)是low-level计算机视觉领域中一个经典而又富有挑战性的研究课题。它的目标是从给定的低分辨率(LR)图像构造高分辨率(HR)图像。近年来伴随着深度卷积神经网络(DCNN)的革命,这导致了在SISR任务中的许多最新进展。回顾在SISR中DCNN的发展,破纪录的性能往往伴随着模型复杂性的急剧增加。SRCNN(Dong C,Loy CC,He K,et al.Learning a deep convolutional network for image super-resolution[C]//European conference on computer vision.Springer,Cham,2014:184-199.)是第一个将DCNN集成到SR的工作,它只有三个卷积层,总共有57K个参数。然后,EDSR(Lim B,SonS,Kim H,et al.Enhanced deep residual networks for single image super-resolution[C]//Proceedings of the IEEE conference on computer vision andpattern recognition workshops.2017:136-144.)构造了一个参数为1.5M的64层CNN。RDN(Zhang Y,Tian Y,Kong Y,et al.Residual dense network for image super-resolution[C]//Proceedings of the IEEE conference on computer vision andpattern recognition.2018:2472-2481.)配备了残余致密块,引入151个卷积层,参数为22M。此外,它需要大约5896G浮点运算(FLOPs)才能生成一幅1920x1080的图像(放大系数x4)。一方面,基于DCNN的SR模型的高内存占用和计算成本阻碍它们在许多资源匮乏的平台上的部署,如智能手机、可穿戴设备、嵌入式设备等。另一方面,SR在这些设备上尤其流行,用户拍摄后必须提高照片分辨率。因此,基于DCNN的SR模型的压缩已经得到了学术界和工业界的广泛关注。
通过离散DCNN内的全精度权重和激活,网络量化已成为最有前途的技术之一。它不仅减少低精度表示的内存存储,还减少更高效整数运算的计算成本。因此,为基于DCNN的SR模型挖掘专门的量化方法近年来在研究界引起越来越多的关注。例如,PAMS(Li H,YanC,Lin S,et al.Pams:Quantized super-resolution via parameterized max scale[C]//European Conference on Computer Vision.Springer,Cham,2020:564-580.)设计一个具有可学习剪裁的分层量化器,以处理大范围的激活,但在超低精度设置(例如2位和3位)中会出现严重的性能下降。最近的一项研究DAQ(Hong C,Kim H,Baik S,et al.DAQ:Channel-Wise Distribution-Aware Quantization for Deep Image Super-ResolutionNetworks[C]//Proceedings of the IEEE/CVF Winter Conference on Applications ofComputer Vision.2022:2675-2684.)采用一种基于通道分布的量化方案。尽管取得这些进展,但性能改进的代价是标准化和非标准化特征映射带来的巨大开销,以及昂贵的单通道量化器。
因此,在进行超低精度量化时,现有的研究要么陷入严重的额外成本,要么陷入严重的性能下降。
发明内容
本发明的目的是针对当前超分神经网络在执行低比特位量化时,提出一种基于动态双可训练界限的超分神经网络的量化方法,只需要应用本发明设计的分层量化器,可直接从头训练得到量化网络,同时性能更高。
本发明包括以下步骤:
1)统计超分神经网络每一层激活值的最大值分布和最小值分布;
2)选择最大值分布方差和最小值分布方差之和最大的P%层,对其激活值应用具有可训练上界和下界、具有动态门控制器的量化器,其他层的激活值应用有可训练上界和下界的量化器;
3)对网络权重应用非对称的上界和下界的量化器;
4)使用量化器量化神经网络,初始化动态门控制器的权重,使用L1损失、结构转移损失训练量化网络,直至达到预定的训练轮数;
5)训练结束保留量化网络权重,即得量化后的量化网络。
在步骤1)中,所述统计超分神经网络每一层激活值的最大值分布和最小值分布,使用预训练好的超分神经网络前向训练集合的图片,记录每一层激活值的最大值和最小值;预训练好的超分神经网络指的是已经在目标数据集上训练好的网络模型。
在步骤2)中,所述选择最大值分布方差和最小值分布方差之和最大的P%层,对其激活值应用具有可训练上界和下界、具有动态门控制器的量化器,其他层的激活值应用有可训练上界和下界的量化器的具体方法为:使用步骤1)得到的每一层最大值分布,统计该分布的方差,记为为第l层的最大值分布的方差,使用步骤1)得到的每一层最小值分布,统计该分布的方差,记为为第l层的最小值分布的方差;加和第l层最大值分布方差和最小值分布方差,记为选择DIl值最大的P%的层应用具有可训练上界和下界的、具有动态门控制器的量化器,其他层应用有可训练上界和下界的量化器;
其中,具有可训练上界和下界的量化器设计如下:
所述动态门控制器设计如下:
βl,βu=2*Sigmoid(Conv2(BN(Conv1(AvgPooling(F)))))
其中,AvgPooling表示平均池化,把输入的特征图F从C*H*W池化成C*1*1,随后Conv1是一个1*1卷积,输出通道数是32,BN表示Batchnormalization层,Conv2是一个1*1卷积,输出通道数是2,最后再通过一个Sigmoid函数,并乘以2;得到βl,βu两个调整系数,其取值范围是[0,2],分别将βl,βu乘以l,u来动态地基于输入特征图F调整其的可训练上界和下界;此时,具有可训练上界和下界的、具有动态门控制器的量化器为:
其中,α′l=αl*βl,α′u=αu*βu;注意αu,αl可训练;对于激活值,使用逐层量化的方式。
在步骤3)中,所述非对称的上界和下界的量化器定义如下:
其中,wl,wu分别取权重的(100-M)分位数和M分位数;F表示网络的激活值;round表示把其输入舍入到最近的整数;是缩放因子,用于把一个全精度数和整数的相互转换,b表示量化位宽;对于权重,使用逐层的量化方式。
在步骤4)中,所述使用量化器量化神经网络,初始化动态门控制器的权重,使用L1损失、结构转移损失训练量化网络,直至达到预定的训练轮数,包括:
所述L1损失:
所述结构转移损失:
其中,F′s,F′T分别是全精度网络和量化网络激活值结构特征,如下计算:
其中,F∈RC*H*w是高级特征模块的输出;
总的损失函数:
L=L1+1000LSKT
本发明可应用于在图像超分领域上的卷积神经网络,与现有技术相比,本发明具有以下突出优点:
通过大量的实验验证,本发明提出的基于动态双可训练界限的超分神经网络的量化方法不仅实现简单,计算量和参数额外开销小,且大大提高性能,同时性能超过各种主流的量化方法,尤其是在当所有层被量化为非常低的比特位时。
附图说明
图1为本发明的动态门控制器。
图2为本发明的算法框架图。
具体实施方式
本发明的目的是针对当前超分神经网络在执行低比特位量化时性能下降的问题,提出一种基于动态双可训练界限的超分神经网络的量化方法,只需要应用本发明设计的分层量化器,可直接从头训练得到量化网络,同时性能更高。涉及人工神经网络的压缩与加速。
本发明实施例算法框架图如图2所示。
1.符号说明
F(W1,W2,...,WL)表示一个L层的全精度卷积神经网络(CNN),其中,Wi表示第i个卷积层,该层的卷积核个数为outi,该层的卷积核权重可以表示为:
其中,Wj i表示第i个卷积层的第j个卷积核,每个卷积核Wj i为,
其中,ini,widthi,heighti分别是第i层的输入通道数、卷积核的宽和高。给定第i个卷积层的输入ai-1(即上一层的输出),则第i个卷积层的卷积结果可以表示为:
Ai=σ(Oi)
σ表示激活函数。
量化算法的目标是得到一个可以用低比特位进行运算的神经网络,此时卷积运算表示为:
为了获得量化网络,对预训练的全精度网络进行量化。量化方式如下:
其中,l,u表示裁剪上下界。m表示全精度输入,可以是网络权重W或者激活值A。round表示把其输入舍入到最近的整数。是缩放因子,用于把一个全精度数和整数的相互转换,b表示量化位宽。对于权重,使用了逐通道的量化方式,即每个输出通道都有单独的裁剪上下界和缩放因子。对于激活值,使用了逐层量化的方式,即每层共享同样的一个裁剪上下界和缩放因子。获得了量化值q后,可以用缩放因子将其反量化回随后进行运算。对于两个量化后的值的卷积运算,可以使用:
其中,s1,s2可以预先计算保存,而q1,q2都是低精度值,因此可以只用低精度的卷积运算来代替原本的全精度运算。
2.动态双可训练界限的超分神经网络分析
现有的超分神经网络的量化方法都为激活值使用了对称量化器,在执行低比特位量化时性能会有显著下降。为了提高量化网络的性能,本发明一种基于动态双可训练界限的超分神经网络的量化方法。双可训练界限可以同时适应对称(设置αl=-αu)和非对称的激活值,为了进一步适应动态变化的激活值,本发明还提出了动态门控制器,来基于输入动态调整裁剪阈值。在执行低比特位量化时,只需要应用本发明设计的分层量化器,可直接从头训练得到量化网络,同时性能更高。
3.训练说明
本发明包括以下步骤:
1)统计超分神经网络每一层激活值的最大值分布和最小值分布;
2)选择最大值分布方差和最小值分布方差之和最大的P%层,对其激活值应用具有可训练上界和下界的、具有动态门控制器的量化器,其他层的激活值应用有可训练上界和下界的量化器;
3)对网络权重应用非对称的上界和下界的量化器;
4)使用量化器量化神经网络,初始化动态门控制器的权重,使用L1损失、结构转移损失训练量化网络,直至达到预定的训练轮数;
5)训练结束保留量化网络权重,即得量化后的量化网络。
在步骤1)中,统计超分神经网络每一层激活值的最大值分布和最小值分布,使用预训练好的超分神经网络前向训练集合的图片,记录每一层激活值的最大值和最小值。预训练好的超分神经网络指的是已经在目标数据集上训练好的网络模型。
在步骤2)中,选择最大值分布方差和最小值分布方差之和最大的P%的层,应用具有可训练上界和下界的、具有动态门控制器的量化器,其他层应用有可训练上界和下界的量化器。使用步骤1)得到的每一层最大值分布,统计该分布的方差,记为为第1层的最大值分布的方差,使用步骤1)得到的每一层最小值分布,统计该分布的方差,记为为第1层的最小值分布的方差。加和第l层最大值分布方差和最小值分布方差,记为 选择DIl值最大的P%的层应用具有可训练上界和下界的、具有动态门控制器的量化器,其他层应用有可训练上界和下界的量化器。
其中,有可训练上界和下界的量化器设计如下:
动态门控制器设计如下:
βl,βu=2*Sigmoid(Conv2(BN(Conv1(AvgPooling(F)))))
其中,AvgPooling表示平均池化,把输入的特征图F从C*H*W池化成C*1*1,随后Conv1是一个1*1卷积,输出通道数是32,BN表示Batchnormalization层,Conv2是一个1*1卷积,输出通道数是2,最后再通过一个Sigmoid函数,并乘以2。流程图参考图1。
最终得到βl,βu两个调整系数,其取值范围是[0,2],分别将βl,βu乘以l,u来动态地基于输入特征图F调整其的可训练上界和下界。此时,具有可训练上界和下界的、具有动态门控制器的量化器为:
其中,α′l=αl*βl,α′u=αu*βu。注意αu,αl可训练。对于激活值,使用逐层量化的方式。
在步骤3)中,对网络权重应用非对称的上界和下界的量化器,非对称的上界和下界的量化器定义如下:
其中,wl,wu分别取权重的(100-M)分位数和M分位数。F表示网络的激活值。round表示把其输入舍入到最近的整数。是缩放因子,用于把一个全精度数和整数的相互转换,b表示量化位宽。对于权重,使用逐层的量化方式。
4)使用量化器量化神经网络,初始化动态门控制器的权重,使用L1损失、结构转移损失训练量化网络,直至达到预定的训练轮数。
对权重和激活值都量化后,总的算法流程如图2所示。
L1损失:
结构转移损失:
其中,F′s,F′T分别是全精度网络和量化网络激活值结构特征,可以如下计算:
其中,F∈RC*H*w是高级特征模块的输出。
总的损失函数:
L=L1+1000LSKT
5)训练结束保留量化网络权重,即得量化后的量化网络。
4.实现细节
所有模型都在DIV2K的训练集上进行训练,包括800幅图像(Timofte R,AgustssonE,Van Gool L,et al.Ntire 2017challenge on single image super-resolution:Methods and results[C]//Proceedings of the IEEE conference on computer visionand pattern recognition workshops.2017:114-125.),并在四个标准基准上进行测试,包括(Bevilacqua M,Roumy A,Guillemot C,et al.Low-complexity single-imagesuper-resolution based on nonnegative neighbor embedding[J].2012.)、Set14(Ledig C,Theis L,Huszár F,et al.Photo-realistic single image super-resolutionusing a generative adversarial network[C]//Proceedings of the IEEE conferenceon computer vision and pattern recognition.2017:4681-4690.)、BSD100(Martin D,Fowlkes C,Tal D,et al.A database of human segmented natural images and itsapplication to evaluating segmentation algorithms and measuring ecologicalstatistics[C]//Proceedings Eighth IEEE International Conference on ComputerVision.ICCV 2001.IEEE,2001,2:416-423.)和Urban100(Huang J B,Singh A,AhujaN.Single image super-resolution from transformed self-exemplars[C]//Proceedings of the IEEE conference on computer vision and patternrecognition.2015:5197-5206.)。评估x2和x4的两个放大因子。
量化SR模型包括EDSR(Lim B,Son S,Kim H,et al.Enhanced deep residualnetworks for single image super-resolution[C]//Proceedings of the IEEEconference on computer vision and pattern recognition workshops.2017:136-144.)、RDN(Zhang Y,Tian Y,Kong Y,et al.Residual dense network for image super-resolution[C]//Proceedings of the IEEE conference on computer vision andpattern recognition.2018:2472-2481.)和SRResNet(Ledig C,Theis L,Huszár F,etal.Photo-realistic single image super-resolution using a generativeadversarial network[C]//Proceedings of the IEEE conference on computer visionand pattern recognition.2017:4681-4690.)。将其量化为4位、3位和2位,并与SOTA竞争对手DoReFa(Zhou S,Wu Y,Ni Z,et al.Dorefa-net:Training low bitwidthconvolutional neural networks with low bitwidth gradients[J].arXiv preprintarXiv:1606.06160,2016.)、Tensorflow Lite(TF Lite)(Jacob B,Kligys S,Chen B,etal.Quantization and training of neural networks for efficient integer-arithmetic-only inference[C]//Proceedings of the IEEE conference on computervision and pattern recognition.2018:2704-2713.)、PACT(Choi J,Wang Z,Venkataramani S,et al.Pact:Parameterized clipping activation for quantizedneural networks[J].arXiv preprint arXiv:1805.06085,2018.)和PAMS(Li H,Yan C,Lin S,et al.Pams:Quantized super-resolution via parameterized max scale[C]//European Conference on Computer Vision.Springer,Cham,2020:564-580.)进行比较。
Y通道上的PSNR和SSIM(Wang Z,Bovik A C,Sheikh H R,et al.Image qualityassessment:from error visibility to structural similarity[J].IEEEtransactions on image processing,2004,13(4):600-612.)被作为评价指标。对于量化模型,量化高层特征提取模块的权重和激活。低级特征提取和重建模块设置为全精度。批量大小设置为16,优化器为Adam(Kingma D P,Ba J.Adam:A method for stochasticoptimization[J].arXiv preprint arXiv:1412.6980,2014.),其中,β1=0.9$,β2=0.999$和∈=10-8。将初始学***均RGB对训练图像进行预处理。在训练过程中,采用随机水平翻转和垂直旋转来增加数据。所有实验都是用Pytorch(Paszke A,Gross S,Massa F,etal.Pytorch:An imperative style,high-performance deep learning library[J].Advances in neural information processing systems,2019,32.)实现的。
5.应用领域
本发明可以应用于超分卷积神经网络,以实现对超分卷积神经网络的压缩和加速。
表1、表2和表3分别显示EDSR、RDN和SRResNet在不同数据集上的定量结果。可以看出,在这些具有不同比特宽度的量化SR模型上,本发明(DDTB)始终优于所有比较方法。
表1
表2
表3
对于EDSR,在4位的情况下,本发明大大优于PAMS。例如,对于4位EDSRx4,本发明在Urban100上获得0.37dB的PSNR增益。在执行超低位量化时,可以观察到更显著的改进。例如,当量化EDSRx4到2位时,本发明在Set5、Set14、BSD100和Urban100上获得了0.94dB、0.66dB、0.36dB和0.70dB的性能增益。
对于RDN,将模型量化为4位时,本发明略优于现有的PACT。在超低比特率方面,优越的性能尤为明显。具体来说,对于2位RDNx4,本发明在Set5、Set14、BSD100和Urban100上的性能增益分别为0.64dB、0.45dB、0.26dB和0.51dB。
SRResNet的结果还表明,本发明在超低精度下的性能提升更为显著。对于2位SRResNetx4,本发明在Set5、Set14、BSD100和Urban100上的性能分别提高了0.65dB、0.47dB、0.30dB和0.69dB,而对于2位SRResNetx2,性能增益分别为1.15dB、0.79dB、0.67dB和1.80dB。
上述实施例仅为本发明的较佳实施例,不能被认为用于限定本发明的实施范围。凡依本发明申请范围所作的均等变化与改进等,均应仍归属于本发明的专利涵盖范围之内。
Claims (8)
1.基于动态双可训练界限的超分神经网络的量化方法,其特征在于包括以下步骤:
1)统计超分神经网络每一层激活值的最大值分布和最小值分布;
2)选择最大值分布方差和最小值分布方差之和最大的P%层,对其激活值应用具有可训练上界和下界、具有动态门控制器的量化器,其他层的激活值应用有可训练上界和下界的量化器;
3)对网络权重应用非对称的上界和下界的量化器;
4)使用量化器量化神经网络,初始化动态门控制器的权重,使用L1损失、结构转移损失训练量化网络,直至达到预定的训练轮数;
5)训练结束保留量化网络权重,即得量化后的量化网络。
2.如权利要求1所述基于动态双可训练界限的超分神经网络的量化方法,其特征在于在步骤1)中,所述统计超分神经网络每一层激活值的最大值分布和最小值分布,使用预训练好的超分神经网络前向训练集合的图片,记录每一层激活值的最大值和最小值;预训练好的超分神经网络指已经在目标数据集上训练好的网络模型。
3.如权利要求1所述基于动态双可训练界限的超分神经网络的量化方法,其特征在于在步骤2)中,所述选择最大值分布方差和最小值分布方差之和最大的P%层,对其激活值应用具有可训练上界和下界、具有动态门控制器的量化器,其他层的激活值应用有可训练上界和下界的量化器的具体方法为:使用步骤1)得到的每一层最大值分布,统计该分布的方差,记为为第l层的最大值分布的方差,使用步骤1)得到的每一层最小值分布,统计该分布的方差,记为为第l层的最小值分布的方差;加和第l层最大值分布方差和最小值分布方差,记为选择DIl值最大的P%的层应用具有可训练上界和下界的量化器和具有动态门控制器的量化器,其他层应用有可训练上界和下界的量化器。
5.如权利要求3所述基于动态双可训练界限的超分神经网络的量化方法,其特征在于所述动态门控制器设计如下:
βl,βu=2*Sigmoid(Conv2(BW(Conv1(AvgPooling(F)))))
其中,AvgPooling表示平均池化,把输入的特征图F从C*H*W池化成C*1*1,随后Conv1是一个1*1卷积,输出通道数是32,BN表示Batchnormalization层,Conv2是一个1*1卷积,输出通道数是2,最后再通过一个Sigmoid函数,并乘以2;得到βl,βu两个调整系数,其取值范围是[0,2],分别将βl,βu乘以l,u来动态地基于输入特征图F调整其的可训练上界和下界。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210761410.2A CN115049055B (zh) | 2022-06-29 | 2022-06-29 | 基于动态双可训练界限的超分神经网络的量化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210761410.2A CN115049055B (zh) | 2022-06-29 | 2022-06-29 | 基于动态双可训练界限的超分神经网络的量化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115049055A true CN115049055A (zh) | 2022-09-13 |
CN115049055B CN115049055B (zh) | 2024-06-04 |
Family
ID=83165637
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210761410.2A Active CN115049055B (zh) | 2022-06-29 | 2022-06-29 | 基于动态双可训练界限的超分神经网络的量化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115049055B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117689044A (zh) * | 2024-02-01 | 2024-03-12 | 厦门大学 | 一种适用于视觉自注意力模型的量化方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111007724A (zh) * | 2019-12-19 | 2020-04-14 | 哈尔滨工业大学 | 一种基于区间ii型模糊神经网络的高超音速飞行器指定性能量化跟踪控制方法 |
US20200264876A1 (en) * | 2019-02-14 | 2020-08-20 | Microsoft Technology Licensing, Llc | Adjusting activation compression for neural network training |
US20210150268A1 (en) * | 2017-07-13 | 2021-05-20 | Peking University Shenzhen Graduate School | Method of using deep discriminate network model for person re-identification in image or video |
CN113836804A (zh) * | 2021-09-15 | 2021-12-24 | 向前 | 基于卷积神经网络的动物识别模型建立方法及其应用*** |
CN114239861A (zh) * | 2021-12-16 | 2022-03-25 | 华侨大学 | 基于多教师联合指导量化的模型压缩方法及*** |
CN114429209A (zh) * | 2022-01-27 | 2022-05-03 | 厦门大学 | 基于细粒度数据分布对齐的神经网络后训练量化方法 |
-
2022
- 2022-06-29 CN CN202210761410.2A patent/CN115049055B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210150268A1 (en) * | 2017-07-13 | 2021-05-20 | Peking University Shenzhen Graduate School | Method of using deep discriminate network model for person re-identification in image or video |
US20200264876A1 (en) * | 2019-02-14 | 2020-08-20 | Microsoft Technology Licensing, Llc | Adjusting activation compression for neural network training |
CN111007724A (zh) * | 2019-12-19 | 2020-04-14 | 哈尔滨工业大学 | 一种基于区间ii型模糊神经网络的高超音速飞行器指定性能量化跟踪控制方法 |
CN113836804A (zh) * | 2021-09-15 | 2021-12-24 | 向前 | 基于卷积神经网络的动物识别模型建立方法及其应用*** |
CN114239861A (zh) * | 2021-12-16 | 2022-03-25 | 华侨大学 | 基于多教师联合指导量化的模型压缩方法及*** |
CN114429209A (zh) * | 2022-01-27 | 2022-05-03 | 厦门大学 | 基于细粒度数据分布对齐的神经网络后训练量化方法 |
Non-Patent Citations (3)
Title |
---|
YUNSHAN ZHONG 等: "IntraQ:Learning Synthetic Images with Intra-Class Heterogeneity for Zero-Shot Network Quantization", 2022 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION(CVPR), 27 September 2022 (2022-09-27) * |
李现国;孙叶美;杨彦利;苗长云;: "基于中间层监督卷积神经网络的图像超分辨率重建", 中国图象图形学报, no. 07, 16 July 2018 (2018-07-16) * |
毛雪宇;彭艳兵;: "增量角度域损失和多特征融合的地标识别", 中国图象图形学报, no. 08, 12 August 2020 (2020-08-12) * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117689044A (zh) * | 2024-02-01 | 2024-03-12 | 厦门大学 | 一种适用于视觉自注意力模型的量化方法 |
Also Published As
Publication number | Publication date |
---|---|
CN115049055B (zh) | 2024-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7236873B2 (ja) | オートエンコーダ装置、データ処理システム、データ処理方法及びプログラム | |
CN109002889B (zh) | 自适应迭代式卷积神经网络模型压缩方法 | |
CN111489364B (zh) | 基于轻量级全卷积神经网络的医学图像分割方法 | |
US11582481B2 (en) | Encoding and decoding image data | |
CN110659725B (zh) | 神经网络模型的压缩与加速方法、数据处理方法及装置 | |
CN108596841B (zh) | 一种并行实现图像超分辨率及去模糊的方法 | |
CN107516129A (zh) | 基于维度自适应的Tucker分解的深度网络压缩方法 | |
Agustsson et al. | Soft-to-hard vector quantization for end-to-end learned compression of images and neural networks | |
CN111147862B (zh) | 一种基于目标编码的端到端图像压缩方法 | |
CN111641832A (zh) | 编码方法、解码方法、装置、电子设备及存储介质 | |
CN110717868B (zh) | 视频高动态范围反色调映射模型构建、映射方法及装置 | |
CN110753225A (zh) | 一种视频压缩方法、装置及终端设备 | |
CN109523016B (zh) | 面向嵌入式***的多值量化深度神经网络压缩方法及*** | |
KR20180080365A (ko) | 영역-기반 이미지 압축 | |
CN106658003A (zh) | 一种基于字典学习的图像压缩***的量化方法 | |
CN114386595B (zh) | 一种基于超先验架构的sar图像压缩方法 | |
JP2023505647A (ja) | ニューラルネットワークモデルの圧縮 | |
CN115049055A (zh) | 基于动态双可训练界限的超分神经网络的量化方法 | |
CN114429209A (zh) | 基于细粒度数据分布对齐的神经网络后训练量化方法 | |
CN114970853A (zh) | 一种跨范围量化的卷积神经网络压缩方法 | |
Liu et al. | Computation-performance optimization of convolutional neural networks with redundant kernel removal | |
CN113111889A (zh) | 用于边缘计算端的目标检测网络处理方法 | |
CN110189262B (zh) | 基于神经网络以及直方图匹配的图像去雾方法 | |
CN114943335A (zh) | 一种三值神经网络逐层优化方法 | |
CN117172301A (zh) | 一种适用于超分网络的分布灵活子集量化方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |