CN109615073B - 一种神经网络模型的构建方法、设备以及存储介质 - Google Patents

一种神经网络模型的构建方法、设备以及存储介质 Download PDF

Info

Publication number
CN109615073B
CN109615073B CN201811463775.7A CN201811463775A CN109615073B CN 109615073 B CN109615073 B CN 109615073B CN 201811463775 A CN201811463775 A CN 201811463775A CN 109615073 B CN109615073 B CN 109615073B
Authority
CN
China
Prior art keywords
array
neural network
network model
classification result
cell
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811463775.7A
Other languages
English (en)
Other versions
CN109615073A (zh
Inventor
刘红丽
李峰
刘宏刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhengzhou Yunhai Information Technology Co Ltd
Original Assignee
Zhengzhou Yunhai Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhengzhou Yunhai Information Technology Co Ltd filed Critical Zhengzhou Yunhai Information Technology Co Ltd
Priority to CN201811463775.7A priority Critical patent/CN109615073B/zh
Publication of CN109615073A publication Critical patent/CN109615073A/zh
Application granted granted Critical
Publication of CN109615073B publication Critical patent/CN109615073B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明公开了一种实现图像的分类的神经网络模型的构建方法,包括步骤:S1,构建单元结构搜索网络、体系结构搜索网络、图像训练集以及随机编码数组;S2,利用单元结构搜索网络、体系结构搜索网络以及随机编码数组生成神经网络模型;S3,将图像训练集输入神经网络模型得到实际分类结果;S4,判断实际分类结果是否满足预设条件,若不满足,则进行步骤S5;S5,根据实际分类结果以及图像训练集的理论分类更新单元结构搜索网络以及体系结构搜索网络;S6,重复S2‑S5,直到在S4得出实际分类结果满足预设条件的判断。本发明公开的方法将原搜索空间转换为单元结构搜索和体系结构搜索两个空间,通过自动学习方式搜索体系最佳结构,增强生成的模型架构的灵活性。

Description

一种神经网络模型的构建方法、设备以及存储介质
技术领域
本发明涉及图像分类领域,更具体地,特别是指一种神经网络模型的构建方法、设备以及可读存储介质。
背景技术
神经网络模型是一种可任意堆砌的模型结构,基础的组件包括FC(全连接层)、Convolution(卷积层)、Polling(池化层)、Activation(激活函数)等,后一个组件以前一个组件的输出作为输入,不同的组件连接方式和超参配置方式在不同应用场景有不同的效果。神经架构搜索(Neural Architecture Search,NAS),目标是从一堆神经网络组件中,搜索到一个最优的神经网络模型。其中,常见的搜索方法包括随机搜索、贝叶斯优化、进化算法、强化学习、基于梯度的算法等。
Zoph等人在2016年提出采用RNN去搜索一个最好的网络结构,但因搜索空间太大,耗时22,400GPU工作天数,于2017年改成采用强化学习搜索CNN的效果最好的卷积单元(conv cell),再用这些conv cell来构建一个更好的网络,但是该算法在CIFAR-10和ImageNet上获得当前最佳架构仍需要2000个GPU工作天数。人们已经提出了很多加速方法,例如提出多个架构之间共享权重,以及基于连续搜索空间的梯度下降的可微架构搜索。但这些算法都采用手工设定网络体系结构的方法,导致体系架构的灵活性存在挑战。
由此可见,当前神经架构搜索算存在如下问题:
(1)由于组合的方式太多,所以搜索空间巨大,函数计算代价巨大;
(2)手工设计模型体系结构,缺乏灵活性。
发明内容
有鉴于此,为了克服上述问题的至少一个方面,本发明实施例的提出一种用于实现图像的分类的神经网络模型的构建方法,包括以下步骤:
S1,构建单元结构搜索网络、体系结构搜索网络、图像训练集以及随机编码数组;
S2,利用单元结构搜索网络、体系结构搜索网络以及随机编码数组生成所述神经网络模型;
S3,将所述图像训练集输入所述神经网络模型以得到实际分类结果;
S4,根据图像训练集的理论分类来判断所述实际分类结果是否满足预设条件,若不满足,则进行步骤S5;
S5,根据所述实际分类结果以及所述理论分类来更新所述单元结构搜索网络以及所述体系结构搜索网络;
S6,重复步骤S2-S5,直到在S4得出实际分类结果满足预设条件的判断。
在一些实施例中,得到满足预设条件的实际分类结果的神经网络模型为最优的神经网络模型。
在一些实施例中,所述步骤S2进一步包括:
S21,利用所述单元结构搜索网络和所述体系结构搜索网络对所述随机编码数组进行搜索,得到单元结构编码数组和体系结构编码数组;以及
S22,利用解码器对所述单元结构编码数组和所述体系结构编码数组进行解码,得到所述神经网络模型。
在一些实施例中,所述单元结构编码数组包括下降单元数组和正常单元数组。
在一些实施例中,所述下降单元数组和所述正常单元数组均包括多个数据块,其中每个数据块均包括约束条件信息、深度学习操作信息和拼接操作信息。
在一些实施例中,所述体系结构编码数组用于实现所述单元结构编码数组的深度学习操作信息的选择以及拼接操作信息的选择。
在一些实施例中,所述步骤S4进一步包括:
S41,根据所述图像训练集的理论分类计算所述实际分类结果的误差值;
S42,判断所述误差值是否小于阈值,若所述误差值大于阈值,则进行步骤S5。
在一些实施例中,所述步骤S5进一步包括:
S41,利用所述实际分类结果和所述图像训练集的理论分类计算损失函数值;
S42,利用所述损失函数值更新所述单元结构搜索网络以及所述体系结构搜索网络。
基于同一发明构思,根据本发明的另一个方面,本发明的实施例还提供了一种计算机设备,包括:
至少一个处理器;以及
存储器,所述存储器存储有可在所述处理器上运行的计算机程序,所述处理器执行所述程序时执行如上所述的任一种构建神经网络模型的方法的步骤。
基于同一发明构思,根据本发明的另一个方面,本发明的实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时执行如上所述的任一种构建神经网络模型的方法的步骤。
本发明具有以下有益技术效果:本发明提供的实施例将原搜索空间转换为单元结构搜索和体系结构搜索两个空间,通过自动学习方式搜索体系最佳结构,增强生成的模型架构的灵活性,降低计算复杂度,实现架构的高效搜索。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的实施例。
图1为本发明的实施例提供的单元结构示意图;
图2为本发明的实施例提供的神经网络模型的结构示意图;
图3为本发明的实施例提供的神经网络模型的构建方法的流程示意图;
图4为本发明的实施例提供的单元结构搜索网络示意图;
图5为本发明的实施例提供的单元结构编码数组解码和体系结构编码数组解码流程图;
图6为本发明的实施例提供的计算机设备的结构示意图;
图7为本发明的实施例提供的计算机可读存储介质的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明实施例进一步详细说明。
需要说明的是,本发明实施例中所有使用“第一”和“第二”的表述均是为了区分两个相同名称非相同的实体或者非相同的参量,可见“第一”“第二”仅为了表述的方便,不应理解为对本发明实施例的限定,后续实施例对此不再一一说明。
根据本发明的一个方面,提供了一种用于实现图像分类的神经网络模型的构建方法,具体实现思路为首先生成随机数组,然后将其输入到根据单元结构搜索网络以及体系结构搜索网络构成的编码器中得到编码数组(单元结构编码数组和体系结构编码数组),接着按照解码规则将其解析为对应的***经网络模型。当图像训练集数据经过***经网络模型进行训练后,会产生对应损失函数(loss)值,最后根据损失函数(loss)值更新编码器,进而更新***经网络模型。
在本发明中,首先通过单元结构编码数组得到多个cell结构,其中每一个单元结构(cell)为最终架构的基石,然后再通过体系结构将多个cell结构串联形成一个卷积网络,进而得到神经网络模型。
如图1(a)所示,单元是由N个有序节点组成的有向无环图。每个节点x(i)都是一个卷积网络中的特征映射,每个有向边(i,j)是对x(i)的某种运算o(i,j)。假设每个单元有一个输入节点hi-1和一个输出节点hi+1。对于卷积单元,输入节点被定义为前一层的单元输出,节点hi为输入节点进行卷积操作后的特征映射。通过对所有未使用的中间节点在通道维度上应用拼接操作来获得单元的输出。
每个中间节点都是基于所有它之前的节点进行计算的:
Figure BDA0001889222710000052
其中γ取值为{0,1},当r取1时,表示求和操作,当γ取0时,表示拼接操作。还包括一个特殊的零操作来指示两个节点之间没有连接。因此学习的任务减少到学习其连边的操作。
令O表示一组候选操作集合(如卷积,最大池化,zero等),而每一个操作用o(·)表示。为了完全表示搜索空间,本发明将所有可能操作的选择参数化,公式如下:
Figure BDA0001889222710000051
其中,一对节点(i,j)的操作混合权重由维度|O|的矢量α(i,j)参数化。经过上面公式后,单元结构搜索的任务就转变成了对离散变量α={α(i,j)}的学习。搜索到最后,得到一个离散的最大可能操作对应的单元结构参数,那么α即为单元结构的编码(encoding),取值为{0,1}。如图1(b)所示,图中虚线对应零操作。
本文在O中操作共包括以下14种:
Figure BDA0001889222710000061
表1本发明搜索空间中可选择操作列表
对于第i个中间节点,共需(i+1)×14个参数。假设i=5,共需6×14个参数,其中包括4个中间节点和2个输入节点,参数过多。由于本文设定每个中间节点固定有且只有2个输入,为了简化计算量,因此本发明中将O空间改为O1和O2两个空间,也即单元结构搜索网络和体系结构搜索网络,其中O1表示该中间节点对于输入节点的选择,O2表示对于操作的选择。
编码模块用于将模型结构参数化表示,即不同的编码对应不同的模型结构,搜索最佳模型结构的过程可简化为搜索最佳编码的过程。
在本发明中,O2中的操作包括:identity,1x3和3x1 convolution,1x7和7x1convolution,3x3 dilated convolution,3x3 average pooling,3x3 max pooling,5x5max pooling,7x7 max pooling,1x1 convolution,3x3 convolution,3x3 depthwise-separable conv,5x5 depthwise-seperable conv,7x7 depthwise-separable conv。所有的操作步幅都是1,并且其卷积的特征映射被填充以保持它们的空间分辨率。并使用Relu-CONV-BN顺序进行卷积运算,并且每次可分离卷积总是被应用两次。
在本发明中,卷积单元包含N=5个节点(除hi-1,hi,hi+1外),其中输出节点定义为所有未使用中间节点的深度拼接。体系结构由多个单元结构堆叠(串联)形成。单元k的输入节点等同于单元k-1的输出,并且有必要***1x1卷积。为了使模型降维,体系结构有必要***下降单元(reduction cells),其连接输入节点的所有操作步幅为2。因此结构编码为(αnormal,αreduce),所有正常单元(normal cells)共享αnormal,所有reduce cells共享αreduce,也即单元结构编码数组包括下降单元数组和正常单元数组,并且下降单元数组和正常单元数组均包括多个数据块,其中每个数据块均包括约束条件信息、深度学习操作信息和拼接操作信息。而体系结构编码数组则用于实现所述单元结构编码数组的深度学习操作的选择以及拼接操作的选择,即将normal cells和reduce cells串联来构建模型。图2示出了一个神经网络模型,其中M、L、N表示normal cells重复的次数。
在一些实施例中,根据本发明的一个方面,本发明的实施例提出一种用于实现图像分类的神经网络模型的构建方法,如图3所示,可以包括以下步骤:
S1,构建单元结构搜索网络、体系结构搜索网络、图像训练集以及随机编码数组。
在一些实施例中,单元结构搜索网络的输入为上一个cell结构搜索的输出,最终输出代表cell结构的编码矩阵,本发明假设一个cell结构(如图4(a)所示,图中虚线表示跳跃连接)由五个结构相同的block(如图4(b)所示)组成。cell编码矩阵具体含义如下,每个block:前6列对应隐藏层A选择,中间13列对应o2空间中13种深度学习操作的选择;由于每个block有两个操作的2*19矩阵;最后有拼接操作选择1*2;因此将2*19变为1*38形式,后接1*2,得1*40编码矩阵。
本发明假设1个cell共5个block,得5*40。一共有两种cell(normal和reduce),所以cell搜索最后输出10*40矩阵。
结构搜索时约束条件如下:
(1)前6列对应输入的选择范围:第一个中间节点的输入只能从hi-1,hi中选择,第二个中间节点的输入只能从hi-1,hi,h0中选择,以此类推,直到第五个中间节点的输入可选择范围为hi-1,hi,h0,h1,h2,h3,未被选择的block最后进行拼接输出;0表示不使用,1表示使用,该6列只能有一个1出现。
(2)13种深度学习操作的选择范围:identity,1x3和3x1 convolution,1x7和7x1convolution,3x3 dilated convolution,3x3 average pooling,3x3 max pooling,5x5max pooling,7x7 max pooling,1x1 convolution,3x3 convolution,3x3 depthwise-separable conv,5x5 depthwise-seperable conv,7x7 depthwise-separable conv;0表示不使用,1表示使用,该13列只能有一个1出现。
(3)block中两个操作后的结合操作选择范围:元素相加、通道维度拼接;0表示不使用,1表示使用,该2列只能有一个1出现。
(4)reduce cell和normal cell相比维度下降,通道数增加,分成2个类实现。
体系结构搜索网络的输入为上一个体系结构搜索的输出,输出为体系结构的编码结果(体系层数*3矩阵,如表2)。
Normal cell Reduce cell None
1 0 0
0 0 1
0 1 0
表2体系结构编码(假设体系层数=10,则形成10*3矩阵)
不同于前人的工作将体系结构手工设定,本发明将体系结构也进行编码,进而搜索最佳模型,增强模型架构的灵活性,这是本发明的一大优势。
原搜索空间维度等于(cell空间维度*体系空间维度);现搜索空间维度等于(cell空间维度+体系空间维度);由于cell空间维度远超过上亿,而体系空间维度大约3layer_num,所以原搜索空间维度远远大于现搜索空间维度,而且原方式需多花大约3layer_num倍时间,随着net层数的增加,采用的现编解码方式优势越明显。
S2,利用单元结构搜索网络、体系结构搜索网络以及随机编码数组生成所述神经网络模型。
在一些实施例中,步骤S2还可以包括步骤:
S21,利用所述单元结构搜索网络和所述体系结构搜索网络对所述随机编码数组进行搜索,得到单元结构编码数组和体系结构编码数组;以及
S22,利用解码器对所述单元结构编码数组和所述体系结构编码数组进行解码,得到所述神经网络模型。
在一些实施例中,如图5所示,图5示出了单元结构编码数组解码规则和体系结构编码数组解码规则。其中单元结构编码数组解码规则如下,输入h_(i-1),卷积操作得h_i,取M[0][0:5]对应1的下标,根据编码规则可得隐藏层A,取M[0][6:18]对应1的下标,根据编码规则可得隐藏层A对应操作,同理,取M[0][19:24]对应1的下标,根据编码规则可得隐藏层B,取M[0][25:37]对应1的下标,根据编码规则可得隐藏层B对应操作,取M[0][38:39]对应1的下标,根据编码规则可得隐藏层融合操作,从而获得新隐藏层。根据M[1][]解码第2个block的结构,依次类推共解码5个block,最后拼接在一起得cell结构。体系结构编码数组解码规则如下,输入images batch,取N[0][]对应1的下标,根据编码规则可知该层连接cell类型,依次类推,不断串联解码的cell结构,最后输出模型结构。
S3,将所述图像训练集输入所述神经网络模型以得到实际分类结果。
S4,根据图像训练集的理论分类来判断所述实际分类结果是否满足预设条件。
在一些实施例中,步骤S4可以包括:
S41,根据所述图像训练集的理论分类计算所述实际分类结果的误差值;
在一些实施例中,误差值可以为实际分类结果中错误的数值/总数值,例如,若总共有100个分类结果,其中正确分类结果有50个,则误差值为0.5。
S42,判断所述误差值是否小于阈值,若所述误差值大于阈值,则进行后续步骤。
需要说明的是,阈值可以根据实际需求设定,可以是0.05-0.15。例如,若想得到的结果更加准确,可以将阈值设置为较低的数值,例如0.1,或更低,例如0.05。
S5,根据所述实际分类结果以及所述理论分类来更新所述单元结构搜索网络以及所述体系结构搜索网络。
在一些实施例中,步骤S5还可以包括步骤:
S41,利用所述实际分类结果和所述图像训练集的理论分类计算损失函数值;
S42,利用所述损失函数值更新所述单元结构搜索网络和所述体系结构搜索网络。
在一些实施例中,可以采取现有技术中的技术方案以实现利用损失函数值对单元结构搜索网络和所述体系结构搜索网络进行更新。例如,可以利用损失函数值更新单元结构搜索网络和所述体系结构搜索网络的参数。
在一些实施例中,通过损失函数值不断更新单元结构搜索网络和体系结构搜索网络,最终得到一个最优的损失函数值,此时,得到的神经网络模型即为最优模型。
S6,重复步骤S2-S5,直到在S4得出实际分类结果满足预设条件的判断。
基于同一发明构思,根据本发明的另一个方面,如图6所示,本发明的实施例还提供了一种计算机设备501,包括:
至少一个处理器520;以及
存储器510,所述存储器510存储有可在所述处理器上运行的计算机程序511,所述处理器520执行所述程序时执行如上所述的任一种构建神经网络模型的方法的步骤。
基于同一发明构思,根据本发明的另一个方面,如图7所示,本发明的实施例还提供了一种计算机可读存储介质601,所述计算机可读存储介质601存储有计算机程序610,所述计算机程序610被处理器执行时执行如上所述的任一种构建神经网络模型的方法的步骤。
最后需要说明的是,本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(ROM)或随机存储记忆体(RAM)等。上述计算机程序的实施例,可以达到与之对应的前述任意方法实施例相同或者相类似的效果。
此外,典型地,本发明实施例公开所述的装置、设备等可为各种电子终端设备,例如手机、个人数字助理(PDA)、平板电脑(PAD)、智能电视等,也可以是大型终端设备,如服务器等,因此本发明实施例公开的保护范围不应限定为某种特定类型的装置、设备。本发明实施例公开所述的客户端可以是以电子硬件、计算机软件或两者的组合形式应用于上述任意一种电子终端设备中。
此外,根据本发明实施例公开的方法还可以被实现为由CPU执行的计算机程序,该计算机程序可以存储在计算机可读存储介质中。在该计算机程序被CPU执行时,执行本发明实施例公开的方法中限定的上述功能。
此外,上述方法步骤以及***单元也可以利用控制器以及用于存储使得控制器实现上述步骤或单元功能的计算机程序的计算机可读存储介质实现。
此外,应该明白的是,本文所述的计算机可读存储介质(例如,存储器)可以是易失性存储器或非易失性存储器,或者可以包括易失性存储器和非易失性存储器两者。作为例子而非限制性的,非易失性存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦写可编程ROM(EEPROM)或快闪存储器。易失性存储器可以包括随机存取存储器(RAM),该RAM可以充当外部高速缓存存储器。作为例子而非限制性的,RAM可以以多种形式获得,比如同步RAM(DRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据速率SDRAM(DDR SDRAM)、增强SDRAM(ESDRAM)、同步链路DRAM(SLDRAM)、以及直接Rambus RAM(DRRAM)。所公开的方面的存储设备意在包括但不限于这些和其它合适类型的存储器。
本领域技术人员还将明白的是,结合这里的公开所描述的各种示例性逻辑块、模块、电路和算法步骤可以被实现为电子硬件、计算机软件或两者的组合。为了清楚地说明硬件和软件的这种可互换性,已经就各种示意性组件、方块、模块、电路和步骤的功能对其进行了一般性的描述。这种功能是被实现为软件还是被实现为硬件取决于具体应用以及施加给整个***的设计约束。本领域技术人员可以针对每种具体应用以各种方式来实现所述的功能,但是这种实现决定不应被解释为导致脱离本发明实施例公开的范围。
结合这里的公开所描述的各种示例性逻辑块、模块和电路可以利用被设计成用于执行这里所述功能的下列部件来实现或执行:通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其它可编程逻辑器件、分立门或晶体管逻辑、分立的硬件组件或者这些部件的任何组合。通用处理器可以是微处理器,但是可替换地,处理器可以是任何传统处理器、控制器、微控制器或状态机。处理器也可以被实现为计算设备的组合,例如,DSP和微处理器的组合、多个微处理器、一个或多个微处理器结合DSP和/或任何其它这种配置。
结合这里的公开所描述的方法或算法的步骤可以直接包含在硬件中、由处理器执行的软件模块中或这两者的组合中。软件模块可以驻留在RAM存储器、快闪存储器、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、可移动盘、CD-ROM、或本领域已知的任何其它形式的存储介质中。示例性的存储介质被耦合到处理器,使得处理器能够从该存储介质中读取信息或向该存储介质写入信息。在一个替换方案中,存储介质可以与处理器集成在一起。处理器和存储介质可以驻留在ASIC中。ASIC可以驻留在用户终端中。在一个替换方案中,处理器和存储介质可以作为分立组件驻留在用户终端中。
在一个或多个示例性设计中,所述功能可以在硬件、软件、固件或其任意组合中实现。如果在软件中实现,则可以将所述功能作为一个或多个指令或代码存储在计算机可读介质上或通过计算机可读介质来传送。计算机可读介质包括计算机存储介质和通信介质,该通信介质包括有助于将计算机程序从一个位置传送到另一个位置的任何介质。存储介质可以是能够被通用或专用计算机访问的任何可用介质。作为例子而非限制性的,该计算机可读介质可以包括RAM、ROM、EEPROM、CD-ROM或其它光盘存储设备、磁盘存储设备或其它磁性存储设备,或者是可以用于携带或存储形式为指令或数据结构的所需程序代码并且能够被通用或专用计算机或者通用或专用处理器访问的任何其它介质。此外,任何连接都可以适当地称为计算机可读介质。例如,如果使用同轴线缆、光纤线缆、双绞线、数字用户线路(DSL)或诸如红外线、无线电和微波的无线技术来从网站、服务器或其它远程源发送软件,则上述同轴线缆、光纤线缆、双绞线、DSL或诸如红外线、无线电和微波的无线技术均包括在介质的定义。如这里所使用的,磁盘和光盘包括压缩盘(CD)、激光盘、光盘、数字多功能盘(DVD)、软盘、蓝光盘,其中磁盘通常磁性地再现数据,而光盘利用激光光学地再现数据。上述内容的组合也应当包括在计算机可读介质的范围内。
以上是本发明公开的示例性实施例,但是应当注意,在不背离权利要求限定的本发明实施例公开的范围的前提下,可以进行多种改变和修改。根据这里描述的公开实施例的方法权利要求的功能、步骤和/或动作不需以任何特定顺序执行。此外,尽管本发明实施例公开的元素可以以个体形式描述或要求,但除非明确限制为单数,也可以理解为多个。
应当理解的是,在本文中使用的,除非上下文清楚地支持例外情况,单数形式“一个”旨在也包括复数形式。还应当理解的是,在本文中使用的“和/或”是指包括一个或者一个以上相关联地列出的项目的任意和所有可能组合。
上述本发明实施例公开实施例序号仅仅为了描述,不代表实施例的优劣。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本发明实施例公开的范围(包括权利要求)被限于这些例子;在本发明实施例的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,并存在如上所述的本发明实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。因此,凡在本发明实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明实施例的保护范围之内。

Claims (9)

1.一种神经网络模型的构建方法,所述神经网络模型用于实现图像的分类,所述方法包括步骤:
S1,构建单元结构搜索网络、体系结构搜索网络、图像训练集以及随机编码数组;
S2,利用单元结构搜索网络、体系结构搜索网络以及随机编码数组生成所述神经网络模型;
S3,将所述图像训练集输入所述神经网络模型以得到实际分类结果;
S4,根据所述图像训练集的理论分类来判断所述实际分类结果是否满足预设条件,若不满足,则进行步骤S5;
S5,根据所述实际分类结果以及所述理论分类来更新所述单元结构搜索网络以及所述体系结构搜索网络;
S6,重复步骤S2-S5,直到在S4得出实际分类结果满足预设条件的判断;
其中,所述步骤S2进一步包括:
S21,利用所述单元结构搜索网络和所述体系结构搜索网络对所述随机编码数组进行搜索,得到单元结构编码数组和体系结构编码数组;以及
S22,利用解码器对所述单元结构编码数组和所述体系结构编码数组进行解码,得到所述神经网络模型。
2.如权利要求1所述的方法,其特征在于,得出满足预设条件的实际分类结果的神经网络模型为最优的神经网络模型。
3.如权利要求1所述的方法,其特征在于,所述单元结构编码数组包括下降单元数组和正常单元数组。
4.如权利要求3所述的方法,其特征在于,所述下降单元数组和所述正常单元数组均包括多个数据块,其中每个数据块均包括约束条件信息、深度学习操作信息和拼接操作信息。
5.如权利要求4所述的方法,其特征在于,所述体系结构编码数组用于实现所述单元结构编码数组的深度学习操作信息的选择以及拼接操作信息的选择。
6.如权利要求1所述的方法,其特征在于,所述步骤S4进一步包括:
S41,根据所述图像训练集的理论分类计算所述实际分类结果的误差值;
S42,判断所述误差值是否小于阈值,若所述误差值大于阈值,则进行步骤S5。
7.如权利要求1所述的方法,其特征在于,所述步骤S5进一步包括:
S41,利用所述实际分类结果和所述图像训练集的理论分类计算损失函数值;
S42,利用所述损失函数值更新所述单元结构搜索网络以及所述体系结构搜索网络。
8.一种计算机设备,包括:
至少一个处理器;以及
存储器,所述存储器存储有可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时执行如权利要求1-7任意一项所述的方法。
9.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时执行权利要求1-7任意一项所述的方法。
CN201811463775.7A 2018-12-03 2018-12-03 一种神经网络模型的构建方法、设备以及存储介质 Active CN109615073B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811463775.7A CN109615073B (zh) 2018-12-03 2018-12-03 一种神经网络模型的构建方法、设备以及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811463775.7A CN109615073B (zh) 2018-12-03 2018-12-03 一种神经网络模型的构建方法、设备以及存储介质

Publications (2)

Publication Number Publication Date
CN109615073A CN109615073A (zh) 2019-04-12
CN109615073B true CN109615073B (zh) 2021-06-04

Family

ID=66006198

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811463775.7A Active CN109615073B (zh) 2018-12-03 2018-12-03 一种神经网络模型的构建方法、设备以及存储介质

Country Status (1)

Country Link
CN (1) CN109615073B (zh)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10678244B2 (en) 2017-03-23 2020-06-09 Tesla, Inc. Data synthesis for autonomous control systems
US10671349B2 (en) 2017-07-24 2020-06-02 Tesla, Inc. Accelerated mathematical engine
US11157441B2 (en) 2017-07-24 2021-10-26 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US11215999B2 (en) 2018-06-20 2022-01-04 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11361457B2 (en) 2018-07-20 2022-06-14 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
SG11202103493QA (en) 2018-10-11 2021-05-28 Tesla Inc Systems and methods for training machine models with augmented data
US11196678B2 (en) 2018-10-25 2021-12-07 Tesla, Inc. QOS manager for system on a chip communications
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US11150664B2 (en) 2019-02-01 2021-10-19 Tesla, Inc. Predicting three-dimensional features for autonomous driving
US10997461B2 (en) 2019-02-01 2021-05-04 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US10956755B2 (en) 2019-02-19 2021-03-23 Tesla, Inc. Estimating object properties using visual image data
CN110059804B (zh) * 2019-04-15 2021-10-08 北京迈格威科技有限公司 数据处理方法及装置
DE102019206620A1 (de) * 2019-04-18 2020-10-22 Robert Bosch Gmbh Verfahren, Vorrichtung und Computerprogramm zum Erstellen eines neuronalen Netzes
CN110175671B (zh) * 2019-04-28 2022-12-27 华为技术有限公司 神经网络的构建方法、图像处理方法及装置
CN110278370B (zh) * 2019-06-21 2020-12-18 上海摩象网络科技有限公司 自动生成拍摄控制机制的方法、装置、电子设备
CN112215332B (zh) * 2019-07-12 2024-05-14 华为技术有限公司 神经网络结构的搜索方法、图像处理方法和装置
CN110659721B (zh) * 2019-08-02 2022-07-22 杭州未名信科科技有限公司 一种目标检测网络的构建方法和***
CN110555514B (zh) * 2019-08-20 2022-07-12 北京迈格威科技有限公司 神经网络模型搜索方法、图像识别方法和装置
CN110428046B (zh) * 2019-08-28 2023-12-15 腾讯科技(深圳)有限公司 神经网络结构的获取方法及装置、存储介质
CN110659690B (zh) * 2019-09-25 2022-04-05 深圳市商汤科技有限公司 神经网络的构建方法及装置、电子设备和存储介质
CN110751267B (zh) * 2019-09-30 2021-03-30 京东城市(北京)数字科技有限公司 神经网络的结构搜索方法、训练方法、装置及存储介质
CN111191785B (zh) * 2019-12-20 2023-06-23 沈阳雅译网络技术有限公司 用于命名实体识别的基于拓展搜索空间的结构搜索方法
CN113326929A (zh) * 2020-02-28 2021-08-31 深圳大学 基于贝叶斯优化的渐进式可微分网络架构搜索方法及***
CN113469891A (zh) * 2020-03-31 2021-10-01 武汉Tcl集团工业研究院有限公司 一种神经网络架构搜索方法、训练方法、图像补全方法
CN113705276A (zh) * 2020-05-20 2021-11-26 武汉Tcl集团工业研究院有限公司 模型构建方法、模型构建装置、计算机设备及介质
CN111931904A (zh) * 2020-07-10 2020-11-13 华为技术有限公司 神经网络的构建方法和装置
CN114926698B (zh) * 2022-07-19 2022-10-14 深圳市南方硅谷半导体股份有限公司 基于演化博弈论的神经网络架构搜索的图像分类方法
CN117707795B (zh) * 2024-02-05 2024-05-10 南京邮电大学 基于图的模型划分的边端协同推理方法及***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106874956A (zh) * 2017-02-27 2017-06-20 陕西师范大学 图像分类卷积神经网络结构的构建方法
CN107172428A (zh) * 2017-06-06 2017-09-15 西安万像电子科技有限公司 图像的传输方法、装置和***
CN108021983A (zh) * 2016-10-28 2018-05-11 谷歌有限责任公司 神经架构搜索

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140249882A1 (en) * 2012-10-19 2014-09-04 The Curators Of The University Of Missouri System and Method of Stochastic Resource-Constrained Project Scheduling
CN105303252A (zh) * 2015-10-12 2016-02-03 国家计算机网络与信息安全管理中心 基于遗传算法的多阶段神经网络模型训练方法
CN106295803A (zh) * 2016-08-10 2017-01-04 中国科学技术大学苏州研究院 深度神经网络的构建方法
US10019655B2 (en) * 2016-08-31 2018-07-10 Adobe Systems Incorporated Deep-learning network architecture for object detection

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108021983A (zh) * 2016-10-28 2018-05-11 谷歌有限责任公司 神经架构搜索
CN106874956A (zh) * 2017-02-27 2017-06-20 陕西师范大学 图像分类卷积神经网络结构的构建方法
CN107172428A (zh) * 2017-06-06 2017-09-15 西安万像电子科技有限公司 图像的传输方法、装置和***

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Progressive Neural Architecture Search;Chenxi Liu1 等;《arXiv》;20180726;1-20 *

Also Published As

Publication number Publication date
CN109615073A (zh) 2019-04-12

Similar Documents

Publication Publication Date Title
CN109615073B (zh) 一种神经网络模型的构建方法、设备以及存储介质
US11531889B2 (en) Weight data storage method and neural network processor based on the method
CN107818367B (zh) 用于神经网络的处理***和处理方法
KR20160117537A (ko) 계층형 뉴럴 네트워크 장치, 판별기 학습 방법 및 판별 방법
CN111898750A (zh) 基于进化算法的神经网络模型压缩方法及装置
CN109902808B (zh) 一种基于浮点数位变异遗传算法优化卷积神经网络的方法
CN114462594A (zh) 神经网络训练方法、装置、电子设备及存储介质
CN113642726A (zh) 用于压缩激活数据的***和方法
CN113128432A (zh) 一种基于演化计算的多任务神经网络架构搜索方法
CN116109920A (zh) 一种基于Transformer的遥感图像建筑物提取方法
JP6795721B1 (ja) 学習システム、学習方法、及びプログラム
KR20230069578A (ko) 그래프 신경망을 이용한 부호 인지 추천 장치 및 방법
CN113691993A (zh) 基于图神经网络的5g连通簇基站群流量预测方法及***
KR102382491B1 (ko) 시퀀스 결정을 위한 방법 및 장치, 디바이스 및 저장 매체
CN112381147A (zh) 动态图片相似度模型建立、相似度计算方法和装置
CN112561050A (zh) 一种神经网络模型训练方法及装置
CN115294337B (zh) 训练语义分割模型的方法、图像语义分割方法及相关装置
CN111539517A (zh) 基于图结构矩阵特征向量的图卷积神经网络生成方法
CN111312340A (zh) 一种基于smiles的定量构效方法和装置
CN113905066B (zh) 物联网的组网方法、物联网的组网装置及电子设备
WO2022191730A1 (en) Accelerated execution of convolution operation by convolutional neural network
CN111143641A (zh) 深度学习模型的训练方法、装置及电子设备
CN113435572A (zh) 一种面向智能制造业的自进化神经网络模型的构建方法
CN112115914A (zh) 目标检测方法及装置、电子设备和存储介质
CN112232496A (zh) 一种基于Tensorcore处理int4数据类型的方法、***、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant