CN114611673A - 神经网络压缩方法、装置、设备及可读存储介质 - Google Patents

神经网络压缩方法、装置、设备及可读存储介质 Download PDF

Info

Publication number
CN114611673A
CN114611673A CN202210264300.5A CN202210264300A CN114611673A CN 114611673 A CN114611673 A CN 114611673A CN 202210264300 A CN202210264300 A CN 202210264300A CN 114611673 A CN114611673 A CN 114611673A
Authority
CN
China
Prior art keywords
neural network
sparse
deep learning
loss
learning neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210264300.5A
Other languages
English (en)
Inventor
陈武辉
巫继强
赵昊立
郑子彬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN202210264300.5A priority Critical patent/CN114611673A/zh
Publication of CN114611673A publication Critical patent/CN114611673A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

本申请公开了神经网络压缩方法、装置、设备及可读存储介质,本申请获取待压缩的多层级深度学习神经网络及网络损失;确定与多层级深度学习神经网络对应的稀疏编码及稀疏权重,如此,可去除多层级深度学习神经网络中冗余参数及权重;确定稀疏编码损失及稀疏权重损失;将网络损失、稀疏编码损失及稀疏权重损失进行融合,得到压缩损失;利用压缩损失对多层级深度学习神经网络进行压缩,得到压缩后的多层级深度学习神经网络。可见,本申请可实现对该待压缩的多层级深度学习神经网络进行双重压缩,减少冗余参数,以降低神经网络的计算性能损耗。本申请对多层级深度学习神经网络的各层级进行稀疏编码及稀疏权重,可避免深度学习神经网络中的强串扰问题。

Description

神经网络压缩方法、装置、设备及可读存储介质
技术领域
本申请涉及互联网技术领域,更具体地说,涉及一种神经网络压缩方法、装置、设备及可读存储介质。
背景技术
随着互联网技术的发展,深度学习神经网络因其能在复杂环境中出色地完成决策任务而受到了广泛关注。例如,深度学习神经网络可以应用于医学图像分割,提供端到端的图像分割结果,以帮助医生更准确地诊断病情;深度学习神经网络也可以用于智能电网的脆弱性分析,找出智能电网的脆弱环节;深度学习神经网络还可以用于机器人的动作控制;深度学习神经网络还可以用于物联网设备的资源分配决策、任务卸载;深度学习神经网络还可以用于自动驾驶技术等。
但是,在现有技术中,深度学习神经网络普遍具有高冗余性,这导致了深度学习神经网络控制性能的下降且极大地影响了深度学习神经网络的实用性。如何有效地减少深度学习神经网络中的冗余参数,降低神经网络的计算性能损耗,是一个值得关注的问题。
综上所述,亟需一种神经网络压缩方法,用于压缩深度学习神经网络中的冗余参数,以降低神经网络的计算性能损耗。
发明内容
有鉴于此,本申请提供了一种神经网络压缩方法、装置、设备及可读存储介质,用于压缩深度学习神经网络中的冗余参数,以降低神经网络的计算性能损耗。
为了实现上述目的,现提出的方案如下:
一种神经网络压缩方法,包括:
获取待压缩的多层级深度学习神经网络及其对应的网络损失;
确定与所述多层级深度学习神经网络对应的稀疏编码及稀疏权重;
确定所述稀疏编码对应的稀疏编码损失及所述稀疏权重对应的稀疏权重损失;
将所述网络损失、所述稀疏编码损失及稀疏权重损失进行融合,得到融合后的压缩损失;
利用所述压缩损失对所述多层级深度学习神经网络的各层级输出过程中的参数进行压缩,得到压缩后的多层级深度学习神经网络。
可选的,确定与所述多层级深度学习神经网络对应的稀疏编码,包括:
确定所述多层级深度学习神经网络中各层级的输出分布及与所述稀疏编码对应的编码期望值;
利用SKL散度,并基于输出分布及编码期望值,得到分布差值;
基于所述分布差值与所述输出分布,得到所述多层级深度学习神经网络的稀疏编码。
可选的,利用SKL散度,并基于输出分布及编码期望值,得到分布差值,包括:
利用SKL散度的定义,确定分布差值计算式;
基于输出分布、编码期望值及所述分布差值计算式,计算得到多层级深度学习神经网络各层级的分布差值。
可选的,确定与所述多层级深度学习神经网络对应的稀疏权重,包括:
获取所述多层级深度学习神经网络每一层级对应的权重系数集合;
确定与所述稀疏权重对应的权重调节参数;
利用正则化技术及所述权重调节参数,对每一权重系数集合中的各权重系数进行缩小,得到与所述多层级深度学习神经网络对应的稀疏权重。
可选的,所述利用正则化技术及所述权重调节参数,对每一权重系数集合中的各权重系数进行缩小,包括:
利用对数正则化技术及所述权重调节参数,对每一权重系数集合中的各权重系数进行缩小。
可选的,利用所述压缩损失对所述多层级深度学习神经网络的各层级输出过程中的参数进行压缩,包括:
基于所述压缩损失,并利用随机梯度下降法,更新所述多层级深度学习神经网络的各层级的参数集合中的各权重系数集合及偏置集合;
基于所述压缩损失,并利用正则化器的近端算子,修剪所述多层级深度学习神经网络的各层级对应的权重系数集合;
其中,所述多层级深度学习神经网络的各层级的参数集合中的各权重系数集合及偏置集合的更新过程,和所述多层级深度学习神经网络的各层级对应的权重系数集合的修剪过程交替迭代。
可选的,确定所述稀疏编码对应的稀疏编码损失及所述稀疏权重对应的稀疏权重损失,包括:
确定与所述稀疏编码对应的编码系数;
确定与所述稀疏权重对应的权重参数;
将所述编码系数与各层级的稀疏编码相乘,得到稀疏编码损失;
将所述权重参数与各层级的稀疏权重相乘,得到稀疏权重损失;
将所述网络损失、所述稀疏编码损失及所述稀疏权重损失进行融合,得到融合后的压缩损失,包括:
将所述网络损失、所述稀疏编码损失及稀疏权重损失进行求和,得到压缩损失。
一种神经网络压缩装置,包括:
损失获取单元,用于获取待压缩的多层级深度学习神经网络及其对应的网络损失;
稀疏确定单元,用于确定与所述多层级深度学习神经网络对应的稀疏编码及稀疏权重;
损失确定单元,用于确定所述稀疏编码对应的稀疏编码损失及所述稀疏权重对应的稀疏权重损失;
损失融合单元,用于将所述网络损失、所述稀疏编码损失及所述稀疏权重损失进行融合,得到融合后的压缩损失;
网络压缩单元,用于利用所述压缩损失对所述多层级深度学习神经网络的各层级输出过程中的参数进行压缩,得到压缩后的多层级深度学习神经网络。
一种神经网络压缩设备,包括存储器和处理器;
所述存储器,用于存储程序;
所述处理器,用于执行所述程序,实现上述的神经网络压缩方法的各个步骤。
一种可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时,实现如上述的神经网络压缩方法的各个步骤。
从上述的技术方案可以看出,本申请提供的神经网络压缩方法通过获取待压缩的多层级深度学习神经网络及其对应的网络损失;随后,可以确定与所述多层级深度学习神经网络对应的稀疏编码及稀疏权重,如此,通过稀疏编码及稀疏权重,可以实现去除多层级深度学习神经网络中冗余参数及冗余权重;接着,可以确定所述稀疏编码对应的稀疏编码损失及所述稀疏权重对应的稀疏权重损失;然后,可以将所述网络损失、所述稀疏编码损失及所述稀疏权重损失进行融合,得到融合后的压缩损失;最后,可以利用所述压缩损失对所述多层级深度学习神经网络的各层级输出过程中的参数进行压缩,得到压缩后的多层级深度学习神经网络,实现即使对多层级深度学习神经网络进行压缩,也可以实现该多层级深度学习神经网络的分析功能。可见,本申请可以实现去除多层级深度学习神经网络中冗余参数及去除多层级深度学习神经网络中的冗余权重,即实现对该待压缩的多层级深度学习神经网络进行双重压缩,减少多层级深度学习神经网络中不必要的参数,以降低神经网络的计算性能损耗。
此外,本申请对多层级深度学习神经网络的各层级进行稀疏编码及稀疏权重,且本申请压缩后的多层级深度学习神经网络的各层级中都进行稀疏编码及稀疏权重,进行了双重稀疏,具有较大的稀疏性。在此基础上,本申请压缩后的多层级深度学习神经网络可以有效地避免多层级深度学习神经网络中的强串扰,有效降低了非局部输入之间的重叠,提高了正交性,这使得多层级深度学习神经网络对不同输入的区分度提高。因此,本申请压缩后的多层级深度学习神经网络可以有效地捕获深度学习中状态或实例的重要属性,并简化多层级深度学习神经网络的分析过程,从而提高多层级深度学习神经网络的分析性能。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请实施例公开的一种神经网络压缩方法流程图;
图2为本申请实施例公开的一种神经网络压缩结果示意图;
图3a-图3c为本申请实施例公开的不同的正则化器缩小各权重系数的速度示意图;
图4为本申请实施例公开的一种神经网络压缩装置结构框图;
图5为本申请实施例公开的一种神经网络压缩设备的硬件结构框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请提供的神经网络压缩方法、装置、设备及可读存储介质,可以应用于多个领域,例如自然语言领域、计算机视觉领域及音频处理领域等。
接下来结合图1对本申请的神经网络压缩方法进行详细介绍,包括如下步骤:
步骤S1、获取待压缩的多层级深度学习神经网络及其对应的网络损失。
该多层级深度学习神经网络可以为多种具有分析功能的多层级深度学习神经网络,例如,该多层级深度学习神经网络可以为应用于医学图像分割的神经网络,分析医学图像的最佳分割方式,为医生提供端到端的图像分割结果,以供医生作出更准确的诊断;又如,该多层级深度学习神经网络也可以为根据智能电网的网络拓扑分析智能电网脆弱性的神经网络,可以检查出智能电网的脆弱环节;再如,该多层级深度学习神经网络可以为根据坐标信息,控制机器人动作的神经网络;再如,该多层级深度学习神经网络可以为通过边缘计算,实现物联网设备的资源分配决策及任务卸载的神经网络;再如,该多层级深度学习神经网络可以为根据区域路路况,实现自动驾驶技术的神经网络。
具体地,可以获取一个待压缩的多层级深度学习神经网络。首先,可以将该待压缩的多层级深度学习神经网络中的状态和奖励序列表示成:
Figure BDA0003551997680000061
其中,状态用S表示和奖励用r表示,i表示某一时刻,t表示样本数据集的数量。Si和Si+1分别表示i和i+1时刻多层级深度学习神经网络的输入,
Figure BDA0003551997680000062
中的n(0)是指一个数,为多层级深度学习神经网络的输入向量的维度,也可以看做多层级深度学习神经网络第0层神经元的个数,R为实数集,基于此,
Figure BDA0003551997680000063
是一个维度为n(0)的实数向量的集合。
其次,可用L层深度学习神经网络拟合一个状态动作价值函数Q(Si,ai),实现通过该状态动作价值函数可以计算出在i时刻的状态Si中执行动作at的最终价值。
再次,可以设多层级深度学习神经网络的参数集为:
Figure BDA0003551997680000064
其中,W(1)表示第一层的多层级深度学习神经网络的权重系数集合,b(1)表示第一层的多层级深度学习神经网络的偏置。W(L)表示第L层的多层级深度学习神经网络的权重系数集合,L层为多层级深度学习神经网络的最后一层。b(L)表示第L层的多层级深度学习神经网络的偏置,L可以为除一以外,任意一个数值,例如,可以为5,也可以为30。因而,多层级深度学习神经网络的参数集由多层级深度学习神经网络的各层级权重系数集合及各层级偏置组成。n(L)和n(L-1)表示多层级深度学习神经网络第L层和第L-1层神经元的个数,
Figure BDA0003551997680000065
表示一个维度为n(L)的实数向量的集合。
Figure BDA0003551997680000066
表示一个维度为n(L)行,n(L-1)列的实数矩阵集合。
当多层级深度学习神经网络的输入为状态S时,多层级深度学习神经网络第l层的输出可以记为
Figure BDA0003551997680000067
其中,l为总层数为L的多层级深度学习神经网络中的任意一层。
可将多层级深度学习神经网络的最后一层即输出层的权重系数集合,记为Wa,从上述记载中,可知
Figure BDA0003551997680000071
对应于多层级深度学习神经网络(DQN)中的不同动作。而输出层使用线性激活,最终多层级深度学习神经网络的输出为动作价值的估计值:
Figure BDA0003551997680000072
其中,a为多层级深度学习神经网络的总执行动作,Qπ(Si,a)为多层级深度学习神经网络的状态价值的准确值。
Figure BDA0003551997680000079
表示使用多层级深度学习神经网络对状态价值进行估计的估计值。
Figure BDA0003551997680000073
表示输入为Si时,多层级深度学习神经网络第L层输出的转置。
Figure BDA0003551997680000074
表示估计值的另一种表达形式,表明估计值为多层级深度学习神经网络第L层的输出转置和最后一层权重Wa的乘积。
具体地,可以将标注有标签的样本集输入至待压缩的多层级深度学习神经网络中,得到待压缩的多层级深度学习神经网络各层级的输出。随后,可以基于各层级的输出与各层级对应的样本集的标签,计算待压缩的多层级深度学习神经网络的整体损失,作为网络损失。
为了获得多层级深度学习神经网络中准确的动作价值估计,可使用均方时间差误差来定义网络损失F,该网络损失F考虑了时间尺度上相邻状态之间的奖励差值,定义如下:
Figure BDA0003551997680000075
其中,rt+1表示t+1时刻的奖励,γ表示奖励衰减因子即折扣率,γt+1表示t+1时刻的折扣率。γt+1=0时,St表示终止状态,L表示多层级深度学习神经网络的最后一层。
Figure BDA0003551997680000076
表示输入为St时,多层级深度学习神经网络第L层的输出。
Figure BDA0003551997680000077
表示输入为St时,多层级深度学习神经网络第L层的输出的转置,
Figure BDA0003551997680000078
表示输入为St+1时,多层级深度学习神经网络第L层的输出的转置。
步骤S2、确定与所述多层级深度学习神经网络对应的稀疏编码及稀疏权重。
具体地,可以将多层级深度学习神经网络中所有隐藏层的输出,即多层级深度学习神经网络中每一层级表示的分布约束为一个稀疏性分布集合G,以此确定稀疏编码。进一步地,通过集合参数β控制稀疏性分布集合G的稀疏程度,从而控制稀疏编码的稀疏性。因而,可以通过确定稀疏性分布集合G的定义式,实现确定多层级深度学习神经网络对应的稀疏编码。
在本申请中,可以通过确定待压缩的多层级深度学习神经网络对应的稀疏编码,对多层级深度学习神经网络中的每一层级的输出进行约束,实现将多层级深度学习神经网络中的每一层级的输出分布变得稀疏,即,使得多层级深度学习神经网络每一层级的输出趋近为稀疏向量,去除多层级深度学习神经网络中的冗余参数。其中,输出分布是指多层级深度学习神经网络的每一层级的输出可以认为是一个随机变量,且该随机变量是符合某一种分布规律的,该分布规律中包含该随机变量的数据范围。
具体地,可以通过多种方式确定多层级深度学习神经网络对应的稀疏权重。例如,可以通过设定阈值,对多层级深度学习神经网络进行训练,从而确定稀疏权重,又如,可以通过对多层级深度学习神经网络的权重系数集合进行剪枝,从而确定稀疏权重。
多层级深度学习神经网络中每一层级的权重系数集合可以看作一个矩阵,可以通过将多层级深度学习神经网络中的每一层级的权重系数集合趋近为稀疏矩阵,实现将该矩阵变得稀疏,以此确定待压缩的多层级深度学习神经网络对应的稀疏权重,实现去除多层级深度学习神经网络的冗余权重。
参照图2,图2中的双重稀疏是指稀疏权重及稀疏编码。St是指多层级深度学习神经网络的输入,Q(St)为多层级深度学习神经网络的输出。图2中的圆圈表明该层级输出向量在某个维度上的值,虚线圆圈表明该维度的值为零。未压缩前,各层的输出向量在各个维度上皆存在数值,即,各层中皆不包含虚线圆圈,通过稀疏编码压缩后,各层输出向量在部分维度上的值为零,即,各层中出现了虚线圆圈如图2所示。
图2中的W(1)、W(2)及W(3)分别为第一层级深度学习神经网络的权重系数集合、第二层级深度学习神经网络的权重系数集合及第三层级深度学习神经网络的权重系数集合。各层级的权重系数集合皆为系数矩阵,在图2中,利用三个大方框表示第一层级、第二层级及第三层级的三个系数矩阵,而三个大方框中的每一小方框表示系数矩阵中的每一系数。且输入与第一层级连接的线段、第一层级与第二层级连接的线段及第二层级与第三层级连接的线段也表示各个系数矩阵中的系数。各层级对应的大方框中的小方框与各层级之间的线段一一对应,即大方框中的白色的小方框表明该系数为零,该系数对应的各层级之间的线段为虚线。未进行压缩时,各层级之间的线段为实线,因而各层级对应的系数矩阵较为复杂,通过对各层级的权重系数集合进行处理后,可以得到稀疏权重,如图2所示,表示系数矩阵的大方框变得稀疏。基于此,多层级深度学习神经网络的计算过程变得简单。
步骤S3、确定所述稀疏编码对应的稀疏编码损失及所述稀疏权重对应的稀疏权重损失。
具体地,可以将多层级深度学习神经网络的各层级增加稀疏编码后所导致的损失,确定为稀疏编码损失。可以将多层级深度学习神经网络的各层级增加稀疏权重后所导致的损失,确定为稀疏权重损失。
步骤S4、将所述网络损失、所述稀疏编码损失及所述稀疏权重损失进行融合,得到融合后的压缩损失。
具体地,可以将网络损失F、稀疏编码损失及稀疏权重损失相加,将相加后的结果作为压缩损失;也可以根据实际训练过程中,网络损失F、稀疏编码及稀疏权重的重要程度,确定网络损失F的表现权重、稀疏编码的表现权重及稀疏权重的表现权重。随后,按照网络损失F的表现权重、稀疏编码的表现权重及稀疏权重的表现权重进行加权,得到压缩损失。
步骤S5、利用所述压缩损失对所述多层级深度学习神经网络的各层级输出过程中的参数进行压缩,得到压缩后的多层级深度学习神经网络。
具体地,可以参照压缩损失,对多层级深度学习神经网络的各层级的参数进行更改修订,得到压缩后的多层级深度学习神经网络。
从上述的技术方案可以看出,本申请提供的神经网络压缩方法通过获取待压缩的多层级深度学习神经网络及其对应的网络损失;随后,可以确定与所述多层级深度学习神经网络对应的稀疏编码及稀疏权重,如此,通过稀疏编码及稀疏权重,可以实现去除多层级深度学习神经网络中冗余参数及冗余权重;接着,可以确定所述稀疏编码对应的稀疏编码损失及所述稀疏权重对应的稀疏权重损失;然后,可以将所述网络损失、所述稀疏编码损失及稀疏权重损失进行融合,得到融合后的压缩损失;最后,可以利用所述压缩损失对所述多层级深度学习神经网络的各层级输出过程中的参数进行压缩,得到压缩后的多层级深度学习神经网络,实现即使对多层级深度学习神经网络进行压缩,也可以实现该多层级深度学习神经网络的分析功能。可见,本申请可以实现去除多层级深度学习神经网络中冗余参数及去除多层级深度学习神经网络中的冗余权重,即实现对该待压缩的多层级深度学习神经网络进行双重压缩,减少多层级深度学习神经网络中不必要的参数,以降低神经网络的计算性能损耗。
此外,本申请对多层级深度学习神经网络的各层级进行稀疏编码及稀疏权重,且本申请压缩后的多层级深度学习神经网络的各层级中都进行稀疏编码及稀疏权重,进行了双重稀疏,具有较大的稀疏性。在此基础上,本申请压缩后的多层级深度学习神经网络可以有效地避免多层级深度学习神经网络中的强串扰,有效降低了非局部输入之间的重叠,提高了正交性,这使得多层级深度学习神经网络对不同输入的区分度提高。因此,本申请压缩后的多层级深度学习神经网络可以有效地捕获深度学习中状态或实例的重要属性,并简化多层级深度学习神经网络的分析过程,从而提高多层级深度学习神经网络的分析性能。
进一步地,在本申请的一些实施例中,对步骤S2中确定与所述多层级深度学习神经网络对应的稀疏编码的过程进行详细说明,具体步骤如下:
S10、确定所述多层级深度学习神经网络中各层级的输出分布及与所述稀疏编码对应的编码期望值。
具体地,可以通过确定所述多层级深度学习神经网络中各层级对应的输出分布函数,从而确定多层级深度学习神经网络中各层级的输出分布。该输出分布函数可以用G表示,且可以通过集合参数β控制G的稀疏程度。β即为调节编码期望值的参数值。
S11、利用SKL散度,并基于输出分布及编码期望值,得到分布差值。
具体地,可以先确定压缩后的多层级深度学习神经网络中各个层级的目标输出分布作为编码期望值。随后,利用SKL散度,确定压缩前后的多层级深度学习神经网络中各个层级的分布差值。
S12、基于所述分布差值与所述输出分布,得到所述多层级深度学习神经网络的稀疏编码。
具体地,将标注有标签的样本集输入至多层级深度学习神经网络后,得到输出分布。
利用分布差值与输出分布进行计算,可以得到所述多层级深度学习神经网络的稀疏编码。
由上述的技术方案可以看出,相比于上一个实施例,本实施例提供了一种确定多层级深度学习神经网络中各层级的稀疏编码的可选的方式,具体方式为利用SKL散度,确定各层级的稀疏编码。可见,通过上述步骤可以很好地确定各层级的稀疏编码,从而实现对多层级深度学习神经网络进行压缩。
进一步地,在本申请的一些实施例中,对S11、利用SKL散度,并基于输出分布及编码期望值,得到分布差值的过程进行详细说明,具体步骤如下:
S110、利用SKL散度的定义,确定分布差值计算式。
pη和pB分别为多层级深度学习神经网络中某一层级的输出分布和该层级的目标输出分布,pη和pB为分布集合,η的取值可以根据该层级的输出均值进行确定。对于属于指数分布族的pη和pB之间的SKL散度即分布差值可以被定义为DSKL(pη||pB),则该SKL散度表达式如下所示:
Figure BDA0003551997680000111
其中,
Figure BDA0003551997680000112
B=[η1,η2],pB={pb:b∈B}。η1和η2是描述pB性质的自然参数,用于确定输出分布的拟合目标,随着pB的不同而不同。B指的是实数区间。pB={pb:b∈B}表明在pB中的每一个元素pb都是一个指数分布,该指数分布的均值b位于区间B中。P和Q是两个不同的概率分布函数,用于解释KL散度的计算公式。p是目标输出分布中的任意一个元素。
而对于指数族,KL散度具有布雷格曼散度(Bregman divergence)的广义形式:
Figure BDA0003551997680000121
其中,pi为p分布的均值,qi为q分布的均值。
基于此,公示(3)中的SKL散度的非负且凸的形式可以改写为如下形式:
Figure BDA0003551997680000122
其中,β=-η-1为调节编码期望值的参数值。而
Figure BDA0003551997680000123
为多层级深度学习神经网络中各层级对应的输出分布,该输出分布为指数分布。B=(0,β],为多层级深度学习神经网络中各层级的稀疏编码对应的编码期望值。
Figure BDA0003551997680000124
为分布差值。
基于此,β可以决定一个指数分布的性质,当β值比较小的时候,指数分布会随机出更多的0值,即,各层级的输出会出现更多的0值。因此把一个β比较小的指数分布B作为多层级深度学习神经网络的某一层级的目标输出分布,在对多层级深度学习神经网络的训练过程中使用SKL正则化的手段让该层级的输出分布趋近于指数分布B,训练完成后,该层级的输出分布就可认为是符合指数分布B的,能够让该层级的输出为稀疏向量,得到了该层级的稀疏编码。
S111、基于输出分布、编码期望值及所述分布差值计算式,计算得到多层级深度学习神经网络各层级的分布差值。
具体地,多层级深度学习神经网络第l层的输出分布可以设置为
Figure BDA0003551997680000125
其中,第l层可以为多层级深度学习神经网络的任意一层。基于上述所确定的分布差值,多层级深度学习神经网络的分布函数G即实现稀疏编码的表达式如下所示:
Figure BDA0003551997680000126
其中,
Figure BDA0003551997680000127
为多层级深度学习神经网络中第l层对应的输出分布,计算式如下所示:
Figure BDA0003551997680000131
由上文中已证明,通过分布差值可以让多层级深度学习神经网络中某一层级的输出分布趋近于指数分布B,训练完成后,能够让该层级的输出为稀疏向量,得到了该层级的稀疏编码。通过公式(5)可以实现让多层级深度学习神经网络中的每一层级的输出分布趋近于对应的指数分布B,训练完成后,能够让多层级的输出皆为稀疏向量,得到了多层级的稀疏编码。
需要注意的是,每一层级对应的指数分布B可以是相同的,也可以是不同的。
由上述的技术方案可以看出,相比于上一个实施例,本实施例提供了一种利用SKL散度、输出分布及编码期望值,确定多层级深度学习神经网络中各层级的稀疏编码的可选的方式,具体方式为利用SKL散度的定义、输出分布及编码期望值,确定各层级的稀疏编码。可见,通过上述步骤可以很好地实现对多层级深度学习神经网络进行压缩。
进一步地,在本申请的一些实施例中,对步骤S2中确定与所述多层级深度学习神经网络对应的稀疏权重的过程进行详细说明,具体步骤如下:
S20、获取所述多层级深度学习神经网络每一层级对应的权重系数集合。
具体地,多层级深度学习神经网络中的各层级都有对应的权重系数集合,提取每一层级对应的权重系数集合,该权重系数集合为系数矩阵。
S21、确定与所述稀疏权重对应的权重调节参数。
具体地,权重调节参数是调节稀疏权重的稀疏性的参数,即,权重调节参数的大小决定了稀疏权重的整体的稀疏性。
S22、利用正则化技术及所述权重调节参数,对每一权重系数集合中的各权重系数进行缩小,得到与所述多层级深度学习神经网络对应的稀疏权重。
具体地,正则化技术有多种,此处提供可选的三种,如L1范数正则化技术、L2范数正则化技术及对数正则化技术。
可以根据选用的正则化技术的定义制定惩罚项,实现对各权重系数集合中的各权重系数进行缩小,得到与所述多层级深度学习神经网络对应的稀疏权重。
参照图3a-图3c,图3a-图3c中记录了三种正则化技术缩小权重稀疏的速度。
如图3a所示,L1范数正则化技术以相同的分速度缩小权重系数集合中各权重系数的值;如图3b所示,L2范数正则化技术以相同的合速度缩小权重系数集合中各权重系数的值;如图3c所示,对数正则化技术对小于阈值的权重系数的收缩速度快于L1范数正则化技术,而对大于阈值的权重系数的收缩速度较慢。
从上述技术方案可以看出,本实施例提供了一种确定多层级深度学习神经网络对应的稀疏权重的可选的方式,具体为利用正则化技术对各权重系数进行缩小,实现稀疏权重。可见,本实施例可以更好地确定稀疏权重,实现压缩多层级深度学习神经网络。
进一步地,在本申请的一些实施例中,对步骤S22中利用正则化技术及所述权重调节参数,对每一权重系数集合中的各权重系数进行缩小的过程进行详细说明,步骤如下:
S220、利用对数正则化技术及所述权重调节参数,对每一权重系数集合中的各权重系数进行缩小。
具体地,对数正则化技术对小于阈值的权重系数的收缩速度较快,而对大于阈值的权重系数的收缩速度较慢,小于阈值的权重稀疏可以认为是数值较小的权重系数,大于阈值的权重系数可以认为是数值较大的权重系数。因而,利用对数正则化技术可以尽可能缩小数值较小的权重系数,尽可能保留数值较大的权重系数。而数值较小的权重系数可以认为属于冗余权重,因而,可以实现去除冗余权重的目的。
获知每一权重系数集合及权重调节参数后,可以设定惩罚项公式对多层级深度学习神经网络的参数进行调节,得到缩小后的权重系数集合,实现确定稀疏权重。其中,惩罚项公式如下所示:
Figure BDA0003551997680000141
其中,δ为权重调节参数,用于调节稀疏权重的稀疏性,即,各权重系数的缩小程度。随着δ的减小,稀疏权重的稀疏性随之提高。l为多层级深度学习神经网络的任意一层,W(l)为多层级深度学习神经网络的任意一层的权重系数集合。
Figure BDA0003551997680000142
是W(l)中第k行j列的元素。W(l)一共有n(l)列,n(l-1)行。
从上述技术方案可以看出,相比于上述实施例,本实施例提供了一种利用对数正则化技术确定稀疏权重的可选的方式。通过对数正则化技术可以缩小各权重系数集合中的各权重系数,且在缩小过程中,对小于阈值的权重系数的缩小程度较大,对大于阈值的权重系数的缩小程度较小,能够去除冗余权重系数,获得更为稀疏的权重系数集合,实现更好地确定多层级深度学习神经网络的稀疏权重。
进一步地,在本申请的一些实施例中,对步骤S3、确定所述稀疏编码对应的稀疏编码损失及所述稀疏权重对应的稀疏权重损失的过程进行详细说明,具体步骤如下所示:
S30、确定与所述稀疏编码对应的编码系数。
具体地,编码系数为确定了目标输出分布后,在目标输出分布的基础上,通过编码系数控制稀疏编码的稀疏性调节幅度。编码系数越大,稀疏编码的稀疏性调节幅度也越大,多层级深度学习神经网络对应的稀疏编码的稀疏性也愈大。
S31、确定与所述稀疏权重对应的权重参数。
具体地,权重参数是在确定惩罚项之后,在利用惩罚项对多层级深度学习神经网络的权重系数集合进行剪枝的基础上,通过权重参数控制稀疏权重的稀疏性调节幅度。权重参数越大,多层级深度学习神经网络的权重系数被修剪得越多,多层级深度学习神经网络对应的稀疏权重的稀疏性也愈大。
S32、将所述编码系数与各层级的稀疏编码相乘,得到稀疏编码损失。
具体地,可以用λ表示编码系数,将λ与多层级深度学习神经网络的每一层级的稀疏编码相乘,并将每一层级相乘后的结果相加,相加后的结果为稀疏编码损失。
S33、将所述权重参数与各层级的稀疏权重相乘,得到稀疏权重损失。
具体地,可以用μ表示权重参数,将μ与多层级深度学习神经网络的每一层级的稀疏权重相乘,并将每一层级相乘后的结果相加,相加后的结果为稀疏权重损失。
在此基础上,对步骤S4、将所述网络损失、所述稀疏编码损失及稀疏权重损失进行融合,得到融合后的压缩损失的过程进行详细说明,步骤如下:
S34、将所述网络损失、所述稀疏编码损失及稀疏权重损失进行求和,得到压缩损失。
具体地,由上文中的网络损失F的表达式、多层级深度学习神经网络各层级的稀疏编码及稀疏权重惩罚项的表达式,可以得到压缩损失的表达式如下所示:
Figure BDA0003551997680000161
可见,压缩损失由整个时间段内的网络损失、多层级深度学习神经网络中各层级的稀疏编码损失之和及各层级的稀疏权重损失之和组成。
从上述技术方案可以看出,本实施例提供了一种融合压缩损失的可选的方式,通过上述的步骤可以很好地融合网络损失、稀疏编码损失及稀疏权重损失,从而对多层级深度学习神经网络进行压缩。
在本申请的一些实施例中,对步骤S4中利用所述压缩损失对所述多层级深度学习神经网络的各层级输出过程中的参数进行压缩的过程进行详细说明,其中,步骤S40多层级深度学习神经网络的各层级的参数集合中的各权重系数集合及偏置集合的更新过程,和步骤S41所述多层级深度学习神经网络的各层级对应的权重系数集合的修剪过程交替迭代。步骤S40和步骤S41的具体过程如下:
S40、基于所述压缩损失,并利用随机梯度下降法,更新所述多层级深度学习神经网络的各层级的参数集合中的各权重系数集合及偏置集合。
具体地,可以利用标注有标签的样本集的前向传播,获取多层级深度学习神经网络中所有隐藏层的输出及多层级深度学习神经网络的最终输出结果后,得到压缩损失。随后,可以利用反向传播随机梯度下降法及更新多层级深度学习神经网络的各层级的参数集合中的各权重系数集合及偏置集合。
压缩损失中的网络损失的偏导如下所示:
Figure BDA0003551997680000171
隐藏层神经元的梯度由两部分组成,一部分是来着网络损失F,它只在L层深度学习神经网络的L个隐藏层神经元中产生梯度,该梯度的计算表达式如下所示:
Figure BDA0003551997680000172
隐藏层神经元的另一部分梯度来自于压缩损失中的稀疏编码损失,该梯度的计算表达式如下所示:
Figure BDA0003551997680000173
其中,
Figure BDA0003551997680000174
是指取
Figure BDA0003551997680000175
的符号,若是该
Figure BDA0003551997680000176
那么
Figure BDA0003551997680000177
通过表达式(9)和(10)获取隐藏层神经元的梯度后,可以利用随机梯度下降法,更新所述多层级深度学习神经网络的各层级的参数集合中的各权重系数集合及偏置集合。
S41、基于所述压缩损失,并利用正则化器的近端算子,修剪所述多层级深度学习神经网络的各层级对应的权重系数集合。
具体地,仅关注多层级深度学习神经网络的权重系数集合时,压缩损失表达式如下所示:
Figure BDA0003551997680000178
其中,W为修剪后的多层级深度学习神经网络的每一权重系数集合,U为利用随机梯度下降法更新后的多层级深度学习神经网络的每一层级的参数集合中的每一权重系数集合。
基于此,可以利用正则化器的近端算子,得到修剪后的多层级深度学习神经网络的所有权重系数集合,计算方式如下所示:
Figure BDA0003551997680000181
其中,u=ukj是U中第k行j列的元素。
Figure BDA0003551997680000182
是W(l)中第k行j列的元素。近端算子Proxlog给出了对数正则化器的原子化封闭解,其处理高效,针对不同的权重系数,其缩小程度不同,能够保持数值大于阈值的权重系数几乎不变,即,数值较大的权重系数几乎不变,尽可能的缩小数值小于阈值的权重系数,即,数值较小的权重系数。基于此,可以诱导出具有更高稀疏性的稀疏权重。此外,μ是稀疏权重的关键,可以控制每一次迭代过程中权重系数减小的速度。
下面对本申请提供的神经网络压缩装置进行描述,下文描述的神经网络压缩装置与上文描述的神经网络压缩方法可相互对应参照。
首先,结合图4,对神经网络压缩装置进行介绍,如图4所示,该神经网络压缩装置可以包括:
网络损失获取单元1,用于获取待压缩的多层级深度学习神经网络及其对应的网络损失;
稀疏确定单元2,用于确定与所述多层级深度学习神经网络对应的稀疏编码及稀疏权重;
稀疏损失确定单元3,用于确定所述稀疏编码对应的稀疏编码损失及所述稀疏权重对应的稀疏权重损失;
损失融合单元4,用于将所述网络损失、所述稀疏编码损失及稀疏权重损失进行融合,得到融合后的压缩损失;
网络压缩单元5,用于利用所述压缩损失对所述多层级深度学习神经网络的各层级输出过程中的参数进行压缩,得到压缩后的多层级深度学习神经网络。
进一步地,该稀疏确定单元2可以包括:
编码确定单元,用于确定所述多层级深度学习神经网络中各层级的输出分布及与所述稀疏编码对应的编码期望值;
散度利用单元,用于利用SKL散度,并基于输出分布及编码期望值,得到分布差值;
编码得到单元,用于基于所述分布差值与所述输出分布,得到所述多层级深度学习神经网络的稀疏编码。
进一步地,该散度利用单元可以包括:
计算式确定单元,用于利用SKL散度的定义,确定分布差值计算式;
分布计算单元,用于基于输出分布、编码期望值及所述分布差值计算式,计算得到多层级深度学习神经网络各层级的分布差值。
进一步地,该稀疏确定单元2可以包括:
集合获取单元,用于获取所述多层级深度学习神经网络每一层级对应的权重系数集合;
参数确定单元,用于确定与所述稀疏权重对应的权重调节参数;
权重得到单元,用于利用正则化技术及所述权重调节参数,对每一权重系数集合中的各权重系数进行缩小,得到与所述多层级深度学习神经网络对应的稀疏权重。
进一步地,该权重得到单元可以包括:
系数缩小单元,用于利用对数正则化技术及所述权重调节参数,对每一权重系数集合中的各权重系数进行缩小。
进一步地,该稀疏损失确定单元3可以包括:
第一确定单元,用于确定与所述稀疏编码对应的编码系数;
第二确定单元,用于确定与所述稀疏权重对应的权重参数;
第三确定单元,用于将所述编码系数与各层级的稀疏编码相乘,得到稀疏编码损失;
第四确定单元,用于将所述权重参数与各层级的稀疏权重相乘,得到稀疏权重损失;
在此基础上,损失融合单元4可以包括:
第一损失融合单元,用于将所述网络损失、所述稀疏编码损失及稀疏权重损失进行求和,得到压缩损失。
进一步地,该网络压缩单元5可以包括:
参数更新单元,用于基于所述压缩损失,并利用随机梯度下降法,更新所述多层级深度学习神经网络的各层级的参数集合中的各权重系数集合及偏置集合;
权重更新单元,用于基于所述压缩损失,并利用正则化器的近端算子,修剪所述多层级深度学习神经网络的各层级对应的权重系数集合;
其中,所述多层级深度学习神经网络的各层级的参数集合中的各权重系数集合及偏置集合的更新过程,和所述多层级深度学习神经网络的各层级对应的权重系数集合的修剪过程交替迭代。
本申请实施例提供的神经网络压缩装置可应用于神经网络压缩设备,如手机、IPAD、PC终端等。可选的,图5示出了神经网络压缩设备的硬件结构框图,参照图5,神经网络压缩设备的硬件结构可以包括:至少一个处理器1,至少一个通信接口2,至少一个存储器3和至少一个通信总线4;
在本申请实施例中,处理器1、通信接口2、存储器3、通信总线4的数量为至少一个,且处理器1、通信接口2、存储器3通过通信总线4完成相互间的通信;
处理器1可能是一个中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路等;
存储器3可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatilememory)等,例如至少一个磁盘存储器;
其中,存储器存储有程序,处理器可调用存储器存储的程序,所述程序用于:
获取待压缩的多层级深度学习神经网络及其对应的网络损失;
确定与所述多层级深度学习神经网络对应的稀疏编码及稀疏权重;
确定所述稀疏编码对应的稀疏编码损失及所述稀疏权重对应的稀疏权重损失;
将所述网络损失、所述稀疏编码损失及稀疏权重损失进行融合,得到融合后的压缩损失;
利用所述压缩损失对所述多层级深度学习神经网络的各层级输出过程中的参数进行压缩,得到压缩后的多层级深度学习神经网络。
可选的,所述程序的细化功能和扩展功能可参照上文描述。
本申请实施例还提供一种存储介质,该存储介质可存储有适于处理器执行的程序,所述程序用于:
获取待压缩的多层级深度学习神经网络及其对应的网络损失;
确定与所述多层级深度学习神经网络对应的稀疏编码及稀疏权重;
确定所述稀疏编码对应的稀疏编码损失及所述稀疏权重对应的稀疏权重损失;
将所述网络损失、所述稀疏编码损失及稀疏权重损失进行融合,得到融合后的压缩损失;
利用所述压缩损失对所述多层级深度学习神经网络的各层级输出过程中的参数进行压缩,得到压缩后的多层级深度学习神经网络。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。本申请的各个实施例之间可以相互结合。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.一种神经网络压缩方法,其特征在于,包括:
获取待压缩的多层级深度学习神经网络及其对应的网络损失;
确定与所述多层级深度学习神经网络对应的稀疏编码及稀疏权重;
确定所述稀疏编码对应的稀疏编码损失及所述稀疏权重对应的稀疏权重损失;
将所述网络损失、所述稀疏编码损失及所述稀疏权重损失进行融合,得到融合后的压缩损失;
利用所述压缩损失对所述多层级深度学习神经网络的各层级输出过程中的参数进行压缩,得到压缩后的多层级深度学习神经网络。
2.根据权利要求1所述的方法,其特征在于,确定与所述多层级深度学习神经网络对应的稀疏编码,包括:
确定所述多层级深度学习神经网络中各层级的输出分布及与所述稀疏编码对应的编码期望值;
利用SKL散度,并基于输出分布及编码期望值,得到分布差值;
基于所述分布差值与所述输出分布,得到所述多层级深度学习神经网络的稀疏编码。
3.根据权利要求2所述的方法,其特征在于,利用SKL散度,并基于输出分布及编码期望值,得到分布差值,包括:
利用SKL散度的定义,确定分布差值计算式;
基于输出分布、编码期望值及所述分布差值计算式,计算得到多层级深度学习神经网络各层级的分布差值。
4.根据权利要求1所述的方法,其特征在于,确定与所述多层级深度学习神经网络对应的稀疏权重,包括:
获取所述多层级深度学习神经网络每一层级对应的权重系数集合;
确定与所述稀疏权重对应的权重调节参数;
利用正则化技术及所述权重调节参数,对每一权重系数集合中的各权重系数进行缩小,得到与所述多层级深度学习神经网络对应的稀疏权重。
5.根据权利要求4所述的方法,其特征在于,所述利用正则化技术及所述权重调节参数,对每一权重系数集合中的各权重系数进行缩小,包括:
利用对数正则化技术及所述权重调节参数,对每一权重系数集合中的各权重系数进行缩小。
6.根据权利要求4所述的方法,其特征在于,利用所述压缩损失对所述多层级深度学习神经网络的各层级输出过程中的参数进行压缩,包括:
基于所述压缩损失,并利用随机梯度下降法,更新所述多层级深度学习神经网络的各层级的参数集合中的各权重系数集合及偏置集合;
基于所述压缩损失,并利用正则化器的近端算子,修剪所述多层级深度学习神经网络的各层级对应的权重系数集合;
其中,所述多层级深度学习神经网络的各层级的参数集合中的各权重系数集合及偏置集合的更新过程,和所述多层级深度学习神经网络的各层级对应的权重系数集合的修剪过程交替迭代。
7.根据权利要求1所述的方法,其特征在于,确定所述稀疏编码对应的稀疏编码损失及所述稀疏权重对应的稀疏权重损失,包括:
确定与所述稀疏编码对应的编码系数;
确定与所述稀疏权重对应的权重参数;
将所述编码系数与各层级的稀疏编码相乘,得到稀疏编码损失;
将所述权重参数与各层级的稀疏权重相乘,得到稀疏权重损失;
将所述网络损失、所述稀疏编码损失及所述稀疏权重损失进行融合,得到融合后的压缩损失,包括:
将所述网络损失、所述稀疏编码损失及稀疏权重损失进行求和,得到压缩损失。
8.一种神经网络压缩装置,其特征在于,包括:
网络损失获取单元,用于获取待压缩的多层级深度学习神经网络及其对应的网络损失;
稀疏确定单元,用于确定与所述多层级深度学习神经网络对应的稀疏编码及稀疏权重;
稀疏损失确定单元,用于确定所述稀疏编码对应的稀疏编码损失及所述稀疏权重对应的稀疏权重损失;
损失融合单元,用于将所述网络损失、所述稀疏编码损失及稀疏权重损失进行融合,得到融合后的压缩损失;
网络压缩单元,用于利用所述压缩损失对所述多层级深度学习神经网络的各层级输出过程中的参数进行压缩,得到压缩后的多层级深度学习神经网络。
9.一种神经网络压缩设备,其特征在于,包括存储器和处理器;
所述存储器,用于存储程序;
所述处理器,用于执行所述程序,实现如权利要求1-7中任一项所述的神经网络压缩方法的各个步骤。
10.一种可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时,实现如权利要求1-7任一项的神经网络压缩方法的各个步骤。
CN202210264300.5A 2022-03-17 2022-03-17 神经网络压缩方法、装置、设备及可读存储介质 Pending CN114611673A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210264300.5A CN114611673A (zh) 2022-03-17 2022-03-17 神经网络压缩方法、装置、设备及可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210264300.5A CN114611673A (zh) 2022-03-17 2022-03-17 神经网络压缩方法、装置、设备及可读存储介质

Publications (1)

Publication Number Publication Date
CN114611673A true CN114611673A (zh) 2022-06-10

Family

ID=81865014

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210264300.5A Pending CN114611673A (zh) 2022-03-17 2022-03-17 神经网络压缩方法、装置、设备及可读存储介质

Country Status (1)

Country Link
CN (1) CN114611673A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115240006A (zh) * 2022-07-29 2022-10-25 南京航空航天大学 目标检测的卷积神经网络优化方法、装置及网络结构

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115240006A (zh) * 2022-07-29 2022-10-25 南京航空航天大学 目标检测的卷积神经网络优化方法、装置及网络结构
CN115240006B (zh) * 2022-07-29 2023-09-19 南京航空航天大学 目标检测的卷积神经网络优化方法、装置及网络结构

Similar Documents

Publication Publication Date Title
CN111737458B (zh) 基于注意力机制的意图识别方法、装置、设备及存储介质
WO2021155706A1 (zh) 利用不平衡正负样本对业务预测模型训练的方法及装置
CN110659744B (zh) 训练事件预测模型、评估操作事件的方法及装置
CN111950649B (zh) 基于注意力机制与胶囊网络的低照度图像分类方法
CN111507993A (zh) 一种基于生成对抗网络的图像分割方法、装置及存储介质
CN108629370B (zh) 一种基于深度置信网络的分类识别算法及装置
KR20190124846A (ko) 재귀적 신경망에서 시계열 데이터의 데이터 누락 및 노이즈에 강건한 gru 기반의 셀 구조 설계
CN113902131B (zh) 抵抗联邦学习中歧视传播的节点模型的更新方法
CN109508784A (zh) 一种神经网络激活函数的设计方法
CN113051130A (zh) 结合注意力机制的lstm网络的移动云负载预测方法及***
CN115695025A (zh) 网络安全态势预测模型的训练方法及装置
CN114611673A (zh) 神经网络压缩方法、装置、设备及可读存储介质
CN114444657A (zh) 一种图像处理方法、***、设备及可读存储介质
Urgun et al. Composite power system reliability evaluation using importance sampling and convolutional neural networks
CN111783936B (zh) 卷积神经网络构建方法、装置、设备及介质
CN112784909A (zh) 基于自注意力机制和自适应子网络的图像分类识别方法
CN109697511B (zh) 数据推理方法、装置及计算机设备
CN113807541B (zh) 决策***的公平性修复方法、***、设备及存储介质
CN115795005A (zh) 一种融合对比学习去噪优化的会话推荐方法及装置
CN112529637B (zh) 基于情景感知的服务需求动态预测方法及***
Maleki et al. Improvement of credit scoring by lstm autoencoder model
CN115131646A (zh) 基于离散系数的深度网络模型压缩方法
CN112559640B (zh) 图谱表征***的训练方法及装置
CN114706481A (zh) 一种基于眼动特征与DeepFM的直播购物兴趣度预测方法
CN117808040B (zh) 一种基于脑图的低遗忘热点事件预测方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination