CN111738418A - 超网络的训练方法和装置 - Google Patents

超网络的训练方法和装置 Download PDF

Info

Publication number
CN111738418A
CN111738418A CN202010567105.0A CN202010567105A CN111738418A CN 111738418 A CN111738418 A CN 111738418A CN 202010567105 A CN202010567105 A CN 202010567105A CN 111738418 A CN111738418 A CN 111738418A
Authority
CN
China
Prior art keywords
network
sub
super
hyper
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010567105.0A
Other languages
English (en)
Inventor
希滕
张刚
温圣召
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202010567105.0A priority Critical patent/CN111738418A/zh
Publication of CN111738418A publication Critical patent/CN111738418A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Abstract

本申请涉及人工智能、深度学习和图像处理技术领域,公开了超网络的训练方法和装置。该方法包括构建超网络的搜索空间并初始化超网络;执行迭代训练操作:采用超网络采样器对超网络的搜索空间进行修剪,基于修剪后的搜索空间采样第一子网络;采用样本媒体数据训练第一子网络,基于训练后的第一子网络的参数更新超网络,对迭代计数器的计数值加1;响应于确定迭代计数器的计数值达到预设的计数阈值,基于更新后的超网络以及修剪后的超网络的搜索空间确定第二子网络,测试第二子网络的性能;根据第二子网络的性能更新超网络采样器,响应于确定超网络未达到预设的收敛条件,基于更新后的超网络采样器执行迭代训练操作。该方法提升了超网络的准确性。

Description

超网络的训练方法和装置
技术领域
本公开的实施例涉及计算机技术领域,具体涉及人工智能、深度学习和图像处理技术领域,尤其涉及超网络的训练方法和装置。
背景技术
NAS(Neural Architecture Search,神经网络架构搜索)是通过评估不同的网络结构的性能来自动搜索出最优的网络结果的技术。早期的NAS工作需要评估独立的评估每个子网络的性能,因此搜索效率非常低。为了提升搜索效率,可以训练一个超网络,超网络所有网络结构共享超网络的参数。
然而,在参数共享过程中,几十亿个子网络共享一个大的超网络的参数,会导致超网络的性能与子网络的性能之间有很大的性能壁垒。从而导致基于超网络的子网络性能排序不能客观的反应出子网络的性能,由此导致基于超网络的网络结构搜索结果的最终性能并不理想。
发明内容
本公开的实施例提供了超网络的训练方法和装置、电子设备以及计算机可读存储介质。
根据第一方面,提供了一种超网络的训练方法,包括:构建超网络的搜索空间并初始化超网络;执行如下迭代训练操作:采用超网络采样器对当前的超网络的搜索空间进行修剪,并基于修剪后的当前的超网络的搜索空间采样出用于训练的第一子网络;采用样本媒体数据训练第一子网络,基于训练后的第一子网络的参数更新超网络,并对迭代计数器的计数值加1;响应于确定迭代计数器的计数值达到预设的计数阈值,基于更新后的超网络以及修剪后的当前的超网络的搜索空间确定用于评测的第二子网络,测试第二子网络的性能;根据第二子网络的性能更新超网络采样器,响应于确定超网络未达到预设的收敛条件,基于更新后的超网络采样器执行迭代训练操作。
根据第二方面,提供了一种超网络的训练装置,包括:构建单元,被配置为构建超网络的搜索空间并初始化超网络;训练单元,被配置为执行迭代训练操作;训练单元包括:修剪单元,被配置为执行迭代操作中的如下步骤:采用超网络采样器对当前的超网络的搜索空间进行修剪,并基于修剪后的当前的超网络的搜索空间采样出用于训练的第一子网络;更新单元,被配置为执行迭代操作中的如下步骤:采用样本媒体数据训练第一子网络,基于训练后的第一子网络的参数更新超网络,并对迭代计数器的计数值加1;确定单元,被配置为执行迭代操作中的如下步骤:响应于确定迭代计数器的计数值达到预设的计数阈值,基于更新后的超网络以及修剪后的当前的超网络的搜索空间确定用于评测的第二子网络,测试第二子网络的性能;评估单元,被配置为执行迭代操作中的如下步骤:根据第二子网络的性能更新超网络采样器,响应于确定超网络未达到预设的收敛条件,基于更新后的超网络采样器执行迭代训练操作。
根据第三方面,提供了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行第一方面提供的超网络的训练方法。
根据第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,计算机指令用于使计算机执行第一方面提供的超网络的训练方法。
根据本申请的技术通过在超网络的训练过程中对超网络的搜索空间进行修剪,使得超网络中的子网络数量逐步减少,从而可以解耦超网络中部分子网络的依赖关系,提升训练完成的超网络的准确性。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本公开的其它特征、目的和优点将会变得更明显:
图1是本公开的超网络的训练方法的一个实施例的流程图;
图2是本公开的超网络的训练方法的另一个实施例的流程图;
图3是本公开的超网络的训练方法的另一个实施例的流程图;
图4是本公开的超网络的训练方法的又一个实施例的流程图;
图5是本公开的超网络的训练装置的一个实施例的结构示意图;
图6是用来实现本公开的实施例的超网络的训练方法的电子设备的框图。
具体实施方式
下面结合附图和实施例对本公开作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本公开。
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
本公开的方法或装置可以应用于终端设备或服务器,或者可以应用于包括终端设备、网络和服务器的***架构。其中,网络用以在终端设备和服务器之间提供通信链路的介质,可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
终端设备可以是用户端设备,其上可以安装有各种客户端应用。例如,图像处理类应用、搜索应用、语音服务类应用等。终端设备可以是硬件,也可以是软件。当终端设备为硬件时,可以是各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、膝上型便携计算机和台式计算机等等。当终端设备为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
服务器可以是运行各种服务的服务器,例如运行基于图像、视频、语音、文本、数字信号等数据的目标检测与识别、文本或语音识别、信号转换等服务的服务器。服务器可以获取深度学习任务数据来构建训练样本,对用于执行深度学习任务的神经网络模型进行训练。
服务器可以是为终端设备上安装的应用提供后端支持的后端服务器。例如,服务器可根据终端的运行环境搜索适合终端设备运行的神经网络模型结构,具体可以构建超网络,对超网络进行训练,并基于训练完成的超网络评估不同结构的神经网络模型的性能,进而确定出与终端设备匹配的神经网络模型的结构。服务器还可以接收终端设备发送的待处理的数据,使用基于训练完成的超网络搜索出的神经网络模型对数据进行处理,并将处理结果返回至终端设备。
需要说明的是,服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务的多个软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
需要说明的是,本公开的实施例所提供的超网络的训练方法可以由服务器执行,相应地,超网络的训练装置可以设置于服务器中。
请参考图1,其示出了根据本公开的超网络的训练方法的一个实施例的流程100。该超网络的训练方法,包括如下步骤101和步骤102。
步骤101,构建超网络的搜索空间并初始化超网络。
在本实施例中,超网络的训练方法的执行主体可以首先构建超网络的搜索空间。超网络的搜索空间可以由超网络各层的可选子结构构建而成。可以设定超网络的层数,并为每一层配置至少一个可选子结构,如卷积结构,全连接结构、池化结构,归一化模块,等等。可以将搜索空间内每一层的各可选子结构与相邻层的各可选子结构分别连接,构成超网络。
需要说明的是,上述超网络可以用于搜索执行图像处理任务的神经网络模型,超网络的搜索空间可以基于图像处理中可用的神经网络的子结构构建。例如图像处理中常用的卷积层、池化层、全连接层、残差模块,等等。超网络的训练样本数据可以是图像数据。
可以随机地初始化超网络的参数,或者将超网络的各个参数初始化为预设的值。超网络的参数可以包括各层的子结构之间的连接参数,可以是权重参数、偏置参数等等。
步骤102,执行迭代训练操作。
具体地,迭代训练操作包括如下步骤1021、步骤1022、步骤1023和步骤1024。
在步骤1021中,采用超网络采样器对当前的超网络的搜索空间进行修剪,并基于修剪后的当前的超网络的搜索空间采样出用于训练的第一子网络。
超网络采样器用于对超网络的搜索空间进行修剪,从超网络的搜索空间中删除一些可选子结构,并基于修剪后的超网络的搜索空间进行子网络的采样。
超网络采样器可以是参数可调的神经网络模型,例如可以实现为循环神经网络。在本实施例中,循环神经网络输出的序列可以包括超网络的搜索空间的编码序列和采样出的子网络结构的编码序列。可以通过控制循环神经网络输出的序列的长度来控制超网络的搜索空间的编码序列的长度,在修剪超网络的搜索空间时,可以利用循环神经网络对输入的超网络的原搜索空间的编码进行处理,得到修剪后的搜索空间的编码序列和采用出的第一子网络的编码序列。并且,通过约束修剪后的搜索空间的编码序列的长度小于修剪前的搜索空间的编码序列的长度,可以实现利用循环神经网络的超网络搜索空间的修剪。
或者,上述超网络采样器可以实现为卷积神经网络,通过约束卷积神经网络输出的表征超网络的修剪后的搜索空间的编码序列的长度小于输入至卷积神经网络的表征超网络的修剪前的搜索空间的编码序列的长度,可以实现基于卷积神经网络的超网络搜索空间的修剪。
上述超网络采样器还可以实现为进化算法、强化学习算法、模拟退火算法等参数可调或策略可调的机器学习算法。在训练过程中预先定义超网络的搜索空间的编码规则,则可以利用超网络采样器输出修剪后的搜索空间的编码序列。
上述第一子网络是从当前迭代训练操作中修剪后的超网络的搜索空间中通过随机采样、均衡采样等采样方法得出的。第一子网络的初始参数可以从超网络中继承。
在步骤1022中,采用样本媒体数据训练第一子网络,基于训练后的第一子网络的参数更新超网络,并对迭代计数器的计数值加1。
在本实施例中,可以获取样本媒体数据。样本媒体数据可以是图像、文本、音频、视频等格式的样本数据,与具体的深度学习任务对应。例如人脸检测任务中样本媒体数据是人脸图像或包含人脸的视频;文本翻译任务中样本媒体数据是待翻译的文本。
可以利用样本媒体数据训练采样出的各第一子网络,在第一子网络收敛后得到训练后的第一子网络,可以将训练后的第一子网络中各子结构对应的参数同步更新至超网络中对应的子结构,由此实现超网络的参数更新。并且,可以将迭代计数器的计数值加1。其中,迭代计数器的初始计数值可以为0,或者可以是其他预设的数值。
在迭代训练操作中,迭代计数器可以用于记录基于同一超网络的搜索空间执行的迭代训练次数。
在步骤1023中,响应于确定迭代计数器的计数值达到预设的计数阈值,基于更新后的超网络以及修剪后的当前的超网络的搜索空间确定用于评测的第二子网络,测试第二子网络的性能。
若迭代计数器的计数值达到预设的计数阈值,可以评测这时的超网络的性能。该预设的计数阈值可以是一个值或两个以上值,例如可以为1000,1万,5万,则在迭代训练操作的次数分别达到1000,1万或5万时,均执行基于更新后的超网络以及修剪后的当前的超网络的搜索空间确定用于评测的第二子网络,测试第二子网络的性能的操作。具体可以基于更新后的超网络以及修剪后的当前的超网络的搜索空间确定用于评测的第二子网络,测试第二子网络的性能,作为更新后的超网络的性能评估结果,也即基于修剪后的当前的超网络的搜索空间的超网络训练结果进行评估。
可选地,可以基于更新后的超网络,从修剪后的当前的超网络的搜索空间中采样出用于评测的第二子网络,该第二子网络可以从更新后的超网络中继承对应的参数。这样,每一次评测超网络的性能时可以动态地基于当前更新后的超网络进行子网络采样并评估,能够获得较准确的性能评估结果。
用于评测的第二子网络可以是从修剪后的当前超网络的搜索空间中采样出的多个子网络,或者,用于评测的第二子网络的网络结构可以预先设定,第二子网络的参数可以从更新后的超网络中继承。
在步骤1024中,根据第二子网络的性能更新超网络采样器,响应于确定超网络未达到预设的收敛条件,基于更新后的超网络采样器执行迭代训练操作。
可以将各第二子网络的性能的统计结果(例如平均值等)作为当前更新后的超网络的性能评估结果。可以根据更新后的超网络的性能评估结果更新超网络采样器的参数或策略,例如可以将更新后的超网络的性能通过反向传播的方式传递给超网络采样器(例如将表征超网络的误差的损失值反向传播至作为超网络采样器的神经网络模型),或者将更新后的超网络的性能作为反馈信息(如强化学习中的奖励值reward、进化算法中的种群适应度),等等。超网络采样器可以根据该超网络的性能评估结果在下一次迭代训练操作中生成新的编码序列,从而实现超网络的搜索空间的进一步修剪。
若当前迭代训练操作中超网络的性能达到预设的性能标准,例如各第二子网络的精度达到75%,可以停止执行迭代训练操作。而当超网络的性能未达到预设的性能标准,或者超网络执行的迭代训练操作的次数未达到预设的次数阈值时,可以基于更新后的超网络采样器返回执行步骤1021至步骤1024。
可选地,上述预设的计数阈值为单个数值,例如10万,则还可以在迭代计数器的计数值达到预设的计数阈值之后,响应于确定超网络未达到预设的收敛条件,将迭代计数器的计数值重置为0。这样,通过重置迭代计数器可以在每执行若干次迭代训练操作后对超网络的搜索空间进行一次修剪,确保超网络的搜索空间的修剪过于频繁导致训练结果不准确。将迭代计数器的计数值重置为0,还可以实现在超网络的训练过程中多次逐级修剪超网络的搜索空间,使得超网络的搜索空间内的子网络的数量逐级减少,从而提升超网络的训练效率和基于超网络的模型结构自动搜索的搜索效率,同时保证基于超网络训练得到的子网络与独立训练的子网络的性能的排序之间的一致性。
本实施例的上述超网络的训练方法,通过构建超网络的搜索空间并初始化超网络;以及执行如下迭代训练操作:采用超网络采样器对当前的超网络的搜索空间进行修剪,并基于修剪后的当前的超网络的搜索空间采样出用于训练的第一子网络;采用样本媒体数据训练第一子网络,基于训练后的第一子网络的参数更新超网络,并对迭代计数器的计数值加1,迭代计数器的初始计数值为0;响应于确定迭代计数器的计数值达到预设的计数阈值,基于更新后的超网络以及修剪后的当前的超网络的搜索空间确定用于评测的第二子网络,测试第二子网络的性能;根据第二子网络的性能更新超网络采样器,响应于确定超网络未达到预设的收敛条件,基于更新后的超网络采样器执行迭代训练操作,能够有效地解耦超网络训练过程中各子网络之间的依赖关系,从而提升基于超网络获得的子网络的性能与独立训练的子网络的性能之间的一致性,提升超网络的准确性,从而提升基于超网络的网络结构自动搜索结果的有效性。并且,基于超网络搜索最优的神经网络模型结构能够有效节省人工设计的大量神经网络模型的训练和评估所消耗的计算资源。并且,由于在训练过程中迭代修剪超网络的搜索空间,简化超网络的结构,能够有效减少训练超网络所占用的处理器、内存等硬件资源,提升超网络的训练效率。
上述超网络可以是基于图像处理任务训练得到的,对应的样本媒体数据为样本图像数据。训练完成的超网络可以应用于搜索执行图像处理任务的神经网络模型,由于基于本实施例的方法训练完成的超网络中的子网络与独立训练的子网络的性能的排序之间的一致性,在应用于涉及大量矩阵运算的图像处理任务中时,采用根据本实施例的方法训练完成的超网络能够有效地减少评估不同的网络结构对图像处理任务的性能的计算,减少复杂运算的运算量,提升针对图像处理任务的最优神经网络模型搜索效率,在实际场景中能快速支持具体的图像处理任务场景中对应的神经网络模型的替换,快速上线性能良好的图像处理模型。
继续参考图2,其示出了本公开的超网络的训练方法的另一个实施例的流程示意图。如图2所示,本实施例的超网络的训练方法的流程200,包括以下步骤:
步骤201,构建超网络的搜索空间并初始化超网络。
步骤202,执行迭代训练操作。
在本实施例中,迭代训练操作包括步骤2021、步骤2022、步骤2023、步骤2024和步骤2025。
步骤2021,采用超网络采样器对当前的超网络的搜索空间进行修剪,并基于修剪后的当前的超网络的搜索空间采样出用于训练的第一子网络。
步骤2022,采用样本媒体数据训练第一子网络,基于训练后的第一子网络的参数更新超网络,并对迭代计数器的计数值加1。
其中,迭代计数器的初始计数值可以为0。
步骤201、步骤2021、步骤2022与前述实施例的步骤101、步骤1021、步骤1022一致,步骤201、步骤2021、步骤2022的具体实现方式可以参考前述步骤101、步骤1021、步骤1022的描述,此处不再赘述。
步骤2023,当迭代计数器的计数值未达到预设的计数阈值时,重复执行如下训练步骤直到迭代计数器的计数值达到预设的计数阈值:采用超网络采样器重新采样出用于训练的第三子网络,并采用样本媒体数据训练第三子网络,基于训练后的第三子网络的参数更新超网络,对迭代计数器的计数值加1。
在本实施例中,当迭代计数器的计数值未达到预设的计数阈值时,可以重复执行训练步骤,每执行一次训练步骤对迭代计数器的计数值加1,直到迭代计数器的计数值达到预设的阈值时停止执行上述训练步骤。
在训练步骤中,可以采用当前的超网络采样器重新采样出第三子网络用于训练。并基于样本媒体数据训练第三子网络,将训练后的第三子网络的参数同步至超网络中对应的子结构。这样,可以通过执行多次训练步骤对当前的超网络进行多轮迭代。
步骤2024,响应于确定迭代计数器的计数值达到预设的计数阈值,基于更新后的超网络以及修剪后的当前的超网络的搜索空间确定用于评测的第二子网络,测试第二子网络的性能。
步骤2025,根据第二子网络的性能更新超网络采样器,响应于确定超网络未达到预设的收敛条件,基于更新后的超网络采样器执行迭代训练操作。
上述步骤2024和步骤2025分别与前述实施例的步骤1023和步骤1024一致,步骤2024和步骤2025的具体实现方式可分别参考前述实施例的描述,此处不再赘述。
可选地,在测试第二子网络的性能之后,响应于确定超网络未达到预设的收敛条件,将迭代计数器的计数值重置为0。这样,可以通过重置迭代计数器实现超网络的搜索空间的逐级动态修剪,使得超网络中的网络结构和参数的数量减少,提升超网络的训练效率和基于训练完成的超网络进行模型结构自动搜索的效率。
本实施例的超网络的训练方法,在迭代计数器的计数值未达到预设的计数阈值时,基于相同的超网络的搜索空间对超网络进行迭代训练,使得每一个修剪后的超网络的搜索空间内的子结构都能得到充分的训练,从而提升训练后的超网络中的子网络的性能排序的准确性,而在迭代计数器的计数值达到预设的计数阈值时更新超网络采样器可以实现超网络的搜索空间的修剪,提升超网络的训练效率。
继续参考图3,其示出了根据本公开的超网络的训练方法的另一个实施例的流程示意图。如图3所示,本实施例的超网络的训练方法的流程300,包括以下步骤:
步骤301,构建超网络的搜索空间并初始化超网络。
本实施例的步骤301与前述实施例的步骤101相同,此处不再赘述。
步骤302,获取预设的评测用子网络结构。
评测用子网络结构可以是用于评测超网络性能的神经网络结构。在本实施例中,可以获取指定的子网络结构作为评测用子网络结构。需要说明的是,步骤301中构建的超网络的搜索空间包含预设的评测用子网络结构。在构建超网络的搜索空间时,可以将预设的评测用子网络结构的各子结构加入超网络对应层的可选子结构中。
在实践中,可以根据经验选定一些神经网络结构作为评测用子网络结构。或者,在一些场景中,需要评估预设的子网络结构的性能,则可以将预设的子网络结构作为评测用子网络结构。或者,可以随机地根据超网络的搜索空间选择一些子结构组建为评测用子网络结构。
步骤303,执行迭代训练操作。
迭代训练操作包括以下步骤3031、步骤3032、步骤3033和步骤3034。
在步骤3031中,采用超网络采样器,基于预设的结构约束条件对当前的超网络的搜索空间进行修剪,基于修剪后的当前的超网络的搜索空间采样出用于训练的第一子网络。
其中,预设的结构约束条件包括:修剪后的超网络的搜索空间包含评测用子网络结构。
超网络采样器可以实现为循环神经网络、卷积神经网络等神经网络,或者可以实现为强化学习算法等机器学习算法。超网络采样器可以通过控制输出的表征搜索空间内各层对应的子结构的序列的长度来实现超网络的搜索空间的修剪,或者通过在迭代训练过程中迭代调整超网络采样器的参数、参数的数量或搜索空间修剪策略来实现搜索空间的修剪。修剪后的超网络的搜索空间中包含的子结构的数量减少,从而基于该搜索空间组合得到的子网络的数量减少。
在本实施例中,可以对超网络采样器增加预设的结构约束条件,确保超网络采样器修剪后的超网络的搜索空间包含评测用子网络结构。在具体的实现中,可以根据利用超网络采样器对超网络的搜索空间进行修剪,并判断修剪后的超网络的搜索空间是否包含所有的评测用子网络结构,若是,则可以确定修剪后的超网络的搜索空间满足上述预设的结构约束条件,基于修剪后的当前超网络的搜索空间进行子网络采样。若修剪后的超网络的搜索空间未将所有的评测用子网络结构包含在内,则可以利用超网络采样器重新修剪超网络的搜索空间,直到修剪后的当前超网络的搜索空间包含所有的评测用子网络结构。
上述步骤3031中基于预设的结构约束条件对超网络的搜索空间进行修剪,可以确保在修剪超网络的搜索空间的过程中指定的评测用子网络结构不会被修剪,则训练完成的超网络包含各评测用子网络结构,使得本实施例的超网络的训练方法可以应用于需要评估指定的子网络结构的性能的场景中。
在一个示例性的场景中,用户期望对线上运行的模型结构的性能进行评估并评测其他模型结构的性能以决策是否对线上模型进行替换。此时可以采用本实施例的方法,将线上运行的模型结构作为评测用子网络结构,基于该线上运行的模型结构中包含的子结构进行扩展,构建超网络的搜索空间,并通过逐级动态修剪超网络的搜索空间来加快超网络的训练效率。在超网络训练完成后可以快速评测线上模型结构和其他模型结构的性能,从而提供可靠的决策依据。
步骤3032,采用样本媒体数据训练第一子网络,基于训练后的第一子网络的参数更新超网络,并对迭代计数器的计数值加1,迭代计数器的初始计数值可以为0。
步骤3033,响应于确定迭代计数器的计数值达到预设的计数阈值,将评测用子网络结构确定为第二子网络的结构,基于更新后的超网络确定第二子网络的参数,测试第二子网络的性能。
在本实施例中,可以将评测用子网络结构确定为在迭代训练过程中用于评测超网络性能的第二子网络的结构,并从更新后的超网络中获得第二子网络的子结构对应的参数,从而生成用于评测的第二子网络。
可以基于第二子网络的性能测试结果确定当前的更新后的超网络的性能,例如可以对各第二子网络的性能进行统计,取平均或加权和等统计数据作为超网络的性能评估结果。
步骤3034,根据第二子网络的性能更新超网络采样器,响应于确定超网络未达到预设的收敛条件,基于更新后的超网络采样器执行迭代训练操作。
上述步骤3032、步骤3034与前述实施例的步骤2022、步骤2024一致,此处不再赘述。
本实施例通过获取预设的评测用子网络结构并在超网络采样器修剪超网络的搜索空间时基于预设的结构约束条件进行修剪,确保评测用子网络结构不被修剪,能够针对性地提升训练完成的超网络的准确性。
继续参考图4,其示出了本公开的超网络的训练方法的又一个实施例的流程图。该超网络的训练方法的流程400,包括以下步骤:
步骤401,构建超网络的搜索空间并初始化超网络。
步骤402,获取预设的评测用子网络结构。
本实施例的步骤401和步骤402分别与前述实施例的步骤301和步骤302一致,此处不再赘述。
步骤403,执行迭代训练操作。迭代训练操作包括步骤4031、步骤4032、步骤4033和步骤4034。
步骤4031,采用超网络采样器对当前的超网络的搜索空间进行修剪,并基于修剪后的当前的超网络的搜索空间采样出用于训练的第一子网络。
步骤4032,采用样本媒体数据训练第一子网络,基于训练后的第一子网络的参数更新超网络,并对迭代计数器的计数值加1,迭代计数器的初始计数值可以为0。
步骤4033,响应于确定迭代计数器的计数值达到预设的计数阈值,将预设的评测用子网络结构中,包含在修剪后的当前的超网络的搜索空间内的子网络结构确定为第二子网络的结构,并基于更新后的超网络确定第二子网络的参数,测试第二子网络的性能。
步骤4034,根据第二子网络的性能更新超网络采样器,响应于确定超网络未达到预设的收敛条件,基于更新后的超网络采样器执行迭代训练操作。
上述迭代训练操作中,步骤4031、步骤4032、步骤4034分别与前述实施例的步骤2021、步骤2022、步骤2024一致,此处不再赘述。
在步骤4033中,当迭代计数器的计数值达到预设的计数阈值时,可以判断各评测用子网络结构是否包含在修剪后的超网络的搜索空间内,若是则将该评测用子网络结构作为第二子网络的结构,若否则删除该评测用子网络结构,可以从当前更新后的超网络中获取第二子网络的参数。之后利用测试数据测试第二子网络的性能,从而获得当前更新后的超网络的性能。
可选地,如果各评测用子网络结构均不包含在修剪后的超网络的搜索空间内,可以随机地从更新后的超网络中采样出一些子网络作为用于评测的第二子网络。
本实施例可以仅利用包含在修剪后的前的超网络的搜索空间内的评测用子网络来评测迭代训练过程中超网络的性能,能够获得更准确的评测结果,从而可以加快超网络的训练速度,提升超网络的准确性。
在上述各实施例的一些可选实现方式中,超网络的训练方法还可以包括:基于达到预设的收敛条件的超网络,通过执行模型结构搜索操作确定出用于执行媒体数据处理任务的神经网络模型。
其中,模型结构搜索操作包括从达到预设的收敛条件的超网络采样出子网络,并测试采样出的子网络的性能,根据各采样出的子网络的性能的排序确定出用于执行媒体数据处理任务的神经网络模型。也即,可以当超网络的性能达到预设的性能阈值,或者超网络执行的迭代训练操作的次数达到预设的次数阈值时,可以确定超网络达到预设的收敛条件,得到训练完成的超网络。可以基于训练完成的超网络评估其中各个子网络性能,根据性能对各个子网络进行排序,选择性能最好(即性能降序排序中排在首位的)的子网络作为搜索出的用于执行媒体数据处理任务的神经网络模型。该神经网络模型的结构是基于超网络自动搜索得出的性能最优的结构,且其参数在超网络训练过程中进行了迭代优化,可以用于直接处理媒体数据,或者可以对该神经网络模型通过进一步的训练进行优化,优化后执行媒体数据处理任务,能够获得更准确的媒体处理结果。
由于训练完成后的超网络对子结构进行了解耦,训练中各子网络之间的相互作用减少,训练完成后的超网络中各子网络的性能排序与独立训练的子网络的性能排序可以达到一致,因而可以利用训练完成的超网络准确、高效地搜索出性能最优的子网络结构,即提升了确定上述用于执行媒体数据处理任务的神经网络模型的效率,同时提升了确定出的神经网络模型的准确性。
请参考图5,作为对上述超网络的训练方法的实现,本公开提供了一种超网络的训练装置的一个实施例,该装置实施例与上述各方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的超网络的训练装置500包括构建单元501和训练单元502。其中,构建单元501被配置构建超网络的搜索空间并初始化超网络;训练单元502被配置为执行迭代训练操作;训练单元502包括:修剪单元5021,被配置为执行迭代操作中的如下步骤:采用超网络采样器对当前的超网络的搜索空间进行修剪,并基于修剪后的当前的超网络的搜索空间采样出用于训练的第一子网络;更新单元5022,被配置为执行迭代操作中的如下步骤:采用样本媒体数据训练第一子网络,基于训练后的第一子网络的参数更新超网络,并对迭代计数器的计数值加1;确定单元5023,被配置为执行迭代操作中的如下步骤:响应于确定迭代计数器的计数值达到预设的计数阈值,基于更新后的超网络以及修剪后的当前的超网络的搜索空间确定用于评测的第二子网络,测试第二子网络的性能;评估单元5024,被配置为执行迭代操作中的如下步骤:根据第二子网络的性能更新超网络采样器,响应于确定超网络未达到预设的收敛条件,基于更新后的超网络采样器执行迭代训练操作。
在一些实施例中,训练单元502还包括:重置单元,被配置为执行迭代操作中的如下步骤:测试第二子网络的性能之后,响应于确定超网络未达到预设的收敛条件,将迭代计数器的计数值重置为0。
在一些实施例中,上述训练单元502还包括:子训练单元,被配置为执行迭代操作中的如下步骤:当迭代计数器的计数值未达到预设的计数阈值时,重复执行如下训练步骤直到迭代计数器的计数值达到预设的计数阈值:采用超网络采样器重新采样出用于训练的第三子网络,并采用样本媒体数据训练第三子网络,基于训练后的第三子网络的参数更新超网络,对迭代计数器的计数值加1。
在一些实施例中,上述装置还包括:获取单元,被配置为获取预设的评测用子网络结构;修剪单元5021被配置为:采用超网络采样器,基于预设的结构约束条件对当前的超网络的搜索空间进行修剪,其中,预设的结构约束条件包括:修剪后的超网络的搜索空间包含评测用子网络结构。
在一些实施例中,上述确定单元5023被配置为按照如下方式确定用于评测的第二子网络:将评测用子网络结构确定为第二子网络的结构,基于更新后的超网络确定第二子网络的参数。
在一些实施例中,上述装置还包括:获取单元,被配置为获取预设的评测用子网络结构;上述确定单元5023被配置为按照如下方式确定用于评测的第二子网络:将预设的评测用子网络结构中,包含在修剪后的当前的超网络的搜索空间内的子网络结构确定为第二子网络的结构;基于更新后的超网络确定第二子网络的参数。
在一些实施例中,上述确定单元5023被配置为按照如下方式确定用于评测的第二子网络:基于更新后的超网络,从修剪后的当前的超网络的搜索空间中采样出用于评测的第二子网络。
在一些实施例中,上述装置还包括:搜索单元,被配置为基于达到预设的收敛条件的超网络,通过执行模型结构搜索操作确定出用于执行媒体数据处理任务的神经网络模型;其中,模型结构搜索操作包括从达到预设的收敛条件的超网络采样出子网络,并测试采样出的子网络的性能,根据各采样出的子网络的性能的排序确定出用于执行媒体数据处理任务的神经网络模型。
上述装置500与前述方法实施例中的步骤相对应。由此,上文针对超网络的训练方法描述的操作、特征及所能达到的技术效果同样适用于装置500及其中包含的单元,在此不再赘述。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图6所示,是根据本申请实施例的超网络的训练方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图6所示,该电子设备包括:一个或多个处理器601、存储器602,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器***)。图6中以一个处理器601为例。
存储器602即为本申请所提供的非瞬时计算机可读存储介质。其中,存储器存储有可由至少一个处理器执行的指令,以使至少一个处理器执行本申请所提供的超网络的训练方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的超网络的训练方法。
存储器602作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的超网络的训练方法对应的程序指令/单元/模块(例如,附图5所示的构建单元501和训练单元502)。处理器601通过运行存储在存储器602中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的超网络的训练方法。
存储器602可以包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需要的应用程序;存储数据区可存储根据用于生成神经网络的结构的电子设备的使用所创建的数据等。此外,存储器602可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器602可选包括相对于处理器601远程设置的存储器,这些远程存储器可以通过网络连接至用于生成神经网络的结构的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
超网络的训练方法的电子设备还可以包括:输入装置603和输出装置604。处理器601、存储器602、输入装置603和输出装置604可以通过总线605或者其他方式连接,图6中以通过总线605连接为例。
输入装置603可接收输入的数字或字符信息,以及产生与用于生成神经网络的结构的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置Y04可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的***和技术的各种实施方式可以在数字电子电路***、集成电路***、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程***上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储***、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储***、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的***和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的***和技术实施在包括后台部件的计算***(例如,作为数据服务器)、或者包括中间件部件的计算***(例如,应用服务器)、或者包括前端部件的计算***(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的***和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算***中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将***的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机***可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (18)

1.一种超网络的训练方法,包括:
构建超网络的搜索空间并初始化超网络;
执行如下迭代训练操作:
采用超网络采样器对当前的超网络的搜索空间进行修剪,并基于修剪后的当前的超网络的搜索空间采样出用于训练的第一子网络;
采用样本媒体数据训练所述第一子网络,基于训练后的所述第一子网络的参数更新所述超网络,并对迭代计数器的计数值加1;
响应于确定所述迭代计数器的计数值达到预设的计数阈值,基于更新后的超网络以及所述修剪后的当前的超网络的搜索空间确定用于评测的第二子网络,测试所述第二子网络的性能;
根据所述第二子网络的性能更新所述超网络采样器,响应于确定所述超网络未达到预设的收敛条件,基于更新后的超网络采样器执行所述迭代训练操作。
2.根据权利要求1所述的方法,其中,所述迭代训练操作还包括:
测试所述第二子网络的性能之后,响应于确定所述超网络未达到预设的收敛条件,将迭代计数器的计数值重置为0。
3.根据权利要求1或2所述的方法,其中,所述迭代训练操作还包括:当所述迭代计数器的计数值未达到预设的计数阈值时,重复执行如下训练步骤直到迭代计数器的计数值达到预设的计数阈值:
采用所述超网络采样器重新采样出用于训练的第三子网络,并采用样本媒体数据训练所述第三子网络,基于训练后的所述第三子网络的参数更新所述超网络,对迭代计数器的计数值加1。
4.根据权利要求1或2所述的方法,其中,所述方法还包括:
获取预设的评测用子网络结构;
所述采用超网络采样器对当前的超网络的搜索空间进行修剪,包括:
采用超网络采样器,基于预设的结构约束条件对当前的超网络的搜索空间进行修剪,其中,预设的结构约束条件包括:修剪后的超网络的搜索空间包含所述评测用子网络结构。
5.根据权利要求4所述的方法,其中,所述基于更新后的超网络以及所述修剪后的当前的超网络的搜索空间确定用于评测的第二子网络,包括:
将评测用子网络结构确定为第二子网络的结构,基于更新后的超网络确定所述第二子网络的参数。
6.根据权利要求1或2所述的方法,其中,所述方法还包括:
获取预设的评测用子网络结构;
所述基于更新后的超网络以及所述修剪后的当前的超网络的搜索空间确定用于评测的第二子网络,包括:
将所述预设的评测用子网络结构中,包含在所述修剪后的当前的超网络的搜索空间内的子网络结构确定为第二子网络的结构;
基于所述更新后的超网络确定所述第二子网络的参数。
7.根据权利要求1或2所述的方法,其中,所述基于更新后的超网络以及所述修剪后的当前的超网络的搜索空间确定用于评测的第二子网络,包括:
基于更新后的超网络,从所述修剪后的当前的超网络的搜索空间中采样出用于评测的第二子网络。
8.根据权利要求1或2所述的方法,其中,所述方法还包括:
基于达到所述预设的收敛条件的超网络,通过执行模型结构搜索操作确定出用于执行媒体数据处理任务的神经网络模型;
其中,所述模型结构搜索操作包括从所述达到所述预设的收敛条件的超网络采样出子网络,并测试采样出的子网络的性能,根据各采样出的子网络的性能的排序确定出用于执行媒体数据处理任务的神经网络模型。
9.一种超网络的训练装置,包括:
构建单元,被配置为构建超网络的搜索空间并初始化超网络;
训练单元,被配置为执行迭代训练操作;
所述训练单元包括:
修剪单元,被配置为执行所述迭代操作中的如下步骤:采用超网络采样器对当前的超网络的搜索空间进行修剪,并基于修剪后的当前的超网络的搜索空间采样出用于训练的第一子网络;
更新单元,被配置为执行所述迭代操作中的如下步骤:采用样本媒体数据训练所述第一子网络,基于训练后的所述第一子网络的参数更新所述超网络,并对迭代计数器的计数值加1;
确定单元,被配置为执行所述迭代操作中的如下步骤:响应于确定所述迭代计数器的计数值达到预设的计数阈值,基于更新后的超网络以及所述修剪后的当前的超网络的搜索空间确定用于评测的第二子网络,测试所述第二子网络的性能;
评估单元,被配置为执行所述迭代操作中的如下步骤:根据所述第二子网络的性能更新所述超网络采样器,响应于确定所述超网络未达到预设的收敛条件,基于更新后的超网络采样器执行所述迭代训练操作。
10.根据权利要求9所述的装置,其中,所述训练单元还包括:
重置单元,被配置为执行所述迭代操作中的如下步骤:测试所述第二子网络的性能之后,响应于确定所述超网络未达到预设的收敛条件,将迭代计数器的计数值重置为0。
11.根据权利要求9或10所述的装置,其中,所述训练单元还包括:
子训练单元,被配置为执行所述迭代操作中的如下步骤:当所述迭代计数器的计数值未达到预设的计数阈值时,重复执行如下训练步骤直到迭代计数器的计数值达到预设的计数阈值:
采用所述超网络采样器重新采样出用于训练的第三子网络,并采用样本媒体数据训练所述第三子网络,基于训练后的所述第三子网络的参数更新所述超网络,对迭代计数器的计数值加1。
12.根据权利要求9或10所述的装置,其中,所述装置还包括:
获取单元,被配置为获取预设的评测用子网络结构;
所述修剪单元被配置为:采用超网络采样器,基于预设的结构约束条件对当前的超网络的搜索空间进行修剪,其中,预设的结构约束条件包括:修剪后的超网络的搜索空间包含所述评测用子网络结构。
13.根据权利要求12所述的装置,其中,所述确定单元被配置为按照如下方式确定用于评测的第二子网络:
将评测用子网络结构确定为第二子网络的结构,基于更新后的超网络确定所述第二子网络的参数。
14.根据权利要求9或10所述的装置,其中,所述装置还包括:
获取单元,被配置为获取预设的评测用子网络结构;
所述确定单元被配置为按照如下方式确定用于评测的第二子网络:
将所述预设的评测用子网络结构中,包含在所述修剪后的当前的超网络的搜索空间内的子网络结构确定为第二子网络的结构;
基于所述更新后的超网络确定所述第二子网络的参数。
15.根据权利要求9或10所述的装置,其中,所述确定单元被配置为按照如下方式确定用于评测的第二子网络:
基于更新后的超网络,从所述修剪后的当前的超网络的搜索空间中采样出用于评测的第二子网络。
16.根据权利要求9或10所述的装置,其中,所述装置还包括:
搜索单元,被配置为基于达到所述预设的收敛条件的超网络,通过执行模型结构搜索操作确定出用于执行媒体数据处理任务的神经网络模型;
其中,所述模型结构搜索操作包括从所述达到所述预设的收敛条件的超网络采样出子网络,并测试采样出的子网络的性能,根据各采样出的子网络的性能的排序确定出用于执行媒体数据处理任务的神经网络模型。
17.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-8中任一项所述的方法。
18.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行权利要求1-8中任一项所述的方法。
CN202010567105.0A 2020-06-19 2020-06-19 超网络的训练方法和装置 Pending CN111738418A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010567105.0A CN111738418A (zh) 2020-06-19 2020-06-19 超网络的训练方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010567105.0A CN111738418A (zh) 2020-06-19 2020-06-19 超网络的训练方法和装置

Publications (1)

Publication Number Publication Date
CN111738418A true CN111738418A (zh) 2020-10-02

Family

ID=72651816

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010567105.0A Pending CN111738418A (zh) 2020-06-19 2020-06-19 超网络的训练方法和装置

Country Status (1)

Country Link
CN (1) CN111738418A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112784962A (zh) * 2021-01-21 2021-05-11 北京百度网讯科技有限公司 超网络的训练方法、装置、电子设备和存储介质
CN112949662A (zh) * 2021-05-13 2021-06-11 北京市商汤科技开发有限公司 一种图像处理方法、装置、计算机设备以及存储介质
CN113128680A (zh) * 2021-03-12 2021-07-16 山东英信计算机技术有限公司 一种神经网络训练方法、***、设备以及介质
WO2022141189A1 (zh) * 2020-12-30 2022-07-07 南方科技大学 一种循环神经网络精度和分解秩的自动搜索方法和装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110167024A1 (en) * 2010-01-05 2011-07-07 American Gnc Corporation Embedded health monitoring system based upon Optimized Neuro Genetic Fast Estimator (ONGFE)
CN110852438A (zh) * 2019-11-11 2020-02-28 北京百度网讯科技有限公司 模型生成方法和装置
WO2020082663A1 (zh) * 2018-10-26 2020-04-30 北京图森未来科技有限公司 一种深度神经网络的结构搜索方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110167024A1 (en) * 2010-01-05 2011-07-07 American Gnc Corporation Embedded health monitoring system based upon Optimized Neuro Genetic Fast Estimator (ONGFE)
WO2020082663A1 (zh) * 2018-10-26 2020-04-30 北京图森未来科技有限公司 一种深度神经网络的结构搜索方法及装置
CN110852438A (zh) * 2019-11-11 2020-02-28 北京百度网讯科技有限公司 模型生成方法和装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
李鸣;张鸿;: "基于卷积神经网络迭代优化的图像分类算法", 计算机工程与设计, no. 01 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022141189A1 (zh) * 2020-12-30 2022-07-07 南方科技大学 一种循环神经网络精度和分解秩的自动搜索方法和装置
CN112784962A (zh) * 2021-01-21 2021-05-11 北京百度网讯科技有限公司 超网络的训练方法、装置、电子设备和存储介质
CN113128680A (zh) * 2021-03-12 2021-07-16 山东英信计算机技术有限公司 一种神经网络训练方法、***、设备以及介质
CN113128680B (zh) * 2021-03-12 2022-06-10 山东英信计算机技术有限公司 一种神经网络训练方法、***、设备以及介质
CN112949662A (zh) * 2021-05-13 2021-06-11 北京市商汤科技开发有限公司 一种图像处理方法、装置、计算机设备以及存储介质

Similar Documents

Publication Publication Date Title
CN111667054B (zh) 生成神经网络模型的方法、装置、电子设备以及存储介质
CN111582453B (zh) 生成神经网络模型的方法和装置
CN110366734B (zh) 优化神经网络架构
CN111738418A (zh) 超网络的训练方法和装置
CN111539479A (zh) 生成样本数据的方法和装置
CN111667056B (zh) 用于搜索模型结构的方法和装置
CN111582479B (zh) 神经网络模型的蒸馏方法和装置
CN111563593B (zh) 神经网络模型的训练方法和装置
CN111708876A (zh) 生成信息的方法和装置
CN112579909A (zh) 对象推荐方法及装置、计算机设备和介质
CN114612749B (zh) 神经网络模型训练方法及装置、电子设备和介质
KR20210132578A (ko) 지식 그래프를 구축하는 방법, 장치, 기기 및 저장 매체
CN111582477B (zh) 神经网络模型的训练方法和装置
CN112559721B (zh) 人机对话***的调整方法、装置、设备、介质和程序产品
CN111667057A (zh) 用于搜索模型结构的方法和装置
CN111582454A (zh) 生成神经网络模型的方法和装置
CN111563592A (zh) 基于超网络的神经网络模型生成方法和装置
CN111460384A (zh) 策略的评估方法、装置和设备
CN111353601A (zh) 用于预测模型结构的延时的方法和装置
CN111639753A (zh) 用于训练超网络的方法、装置、设备以及存储介质
CN111914994A (zh) 多层感知机的生成方法、装置、电子设备及存储介质
CN114861910A (zh) 神经网络模型的压缩方法及装置、设备和介质
CN112784985A (zh) 神经网络模型的训练方法及装置、图像识别方法及装置
TW202314582A (zh) 與外部事件相關之對話系統內容
CN112580723B (zh) 多模型融合方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination