CN112766486A - 神经网络结构的搜索方法、终端、服务器及可读存储介质 - Google Patents

神经网络结构的搜索方法、终端、服务器及可读存储介质 Download PDF

Info

Publication number
CN112766486A
CN112766486A CN202011645194.2A CN202011645194A CN112766486A CN 112766486 A CN112766486 A CN 112766486A CN 202011645194 A CN202011645194 A CN 202011645194A CN 112766486 A CN112766486 A CN 112766486A
Authority
CN
China
Prior art keywords
neural network
network structure
parameter
training
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011645194.2A
Other languages
English (en)
Inventor
傅海裕
刘永恒
任智祥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Peng Cheng Laboratory
Original Assignee
Peng Cheng Laboratory
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Peng Cheng Laboratory filed Critical Peng Cheng Laboratory
Priority to CN202011645194.2A priority Critical patent/CN112766486A/zh
Publication of CN112766486A publication Critical patent/CN112766486A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种神经网络结构的搜索方法、终端、服务器及可读存储介质,方法包括:服务器确定是否存储有神经网络结构对应的第一参数;若确定存储有第一参数时,发送携带第一参数的训练指令至终端,以使终端根据第一参数搜索目标神经网络结构并采用训练数据对目标神经网络结构进行训练。本发明提高了神经网络结构的搜索方法的资源利用率。

Description

神经网络结构的搜索方法、终端、服务器及可读存储介质
技术领域
本发明涉及深度学习技术领域,尤其涉及一种神经网络结构的搜索方法、终端、服务器及可读存储介质。
背景技术
现有的神经网络结构的搜索方法都是在终端上进行训练,然后将训练结果发送到服务器进行神经网络结构的搜索,例如服务器需要单独为每一个终端搜索神经网络结构,而服务器在搜索神经网络结构的过程中,会存在部分终端等待服务器下发神经网络结构,终端的资源利用不合理。
发明内容
本发明实施例通过提供一种神经网络结构的搜索方法、终端、服务器及可读存储介质,旨在解决终端的资源利用不合理的技术问题。
本发明实施例提供一种神经网络结构的搜索方法,其特征在于,所述神经网络结构的搜索方法应用于终端,所述终端与服务器处于同一分布式架构中,所述神经网络结构的搜索方法包括:
接收所述服务器发送的训练指令;
根据所述训练指令获取神经网络结构对应的第一参数;
根据所第一参数进行神经网络结构的搜索,得到所述第一参数对应的目标神经网络结构;
采用训练数据对所述目标神经网络结构进行训练。
在一实施例中,所述接收所述服务器发送的训练指令的步骤之后,还包括:
解析所述训练指令,得到数据信息;
若所述数据信息包括神经网络结构对应的第一参数,执行所述根据所述训练指令获取神经网络结构对应的第一参数的步骤;
若所述数据信息包括预设神经网络结构,采用训练数据对所述预设神经网络结构进行训练。
在一实施例中,所述若所述数据信息包括预设神经网络结构,采用训练数据对所述预设神经网络结构进行训练的步骤之后,还包括:
获取训练后的目标神经网络结构对应的第二参数;
将所述第二参数发送至所述服务器,以供所述服务器基于所述第二参数生成训练指令。
在一实施例中,所述若所述数据信息包括预设神经网络结构,采用训练数据对所述预设神经网络结构进行训练的步骤之后,还包括:
获取训练后的目标神经网络结构发送至服务器以及共享存储队列,其中,所述终端在所述共享存储队列搜索第一参数对应的目标神经网络。
本发明实施例提供一种神经网络结构的搜索方法,所述神经网络结构的搜索方法应用于服务器,所述服务器与终端处于同一分布式架构中,所述神经网络结构的搜索方法包括:
获取预设神经网络结构对应的第一参数;
根据所述第一参数生成训练指令;
将所述训练指令至各个终端,其中,所述终端根据所述训练指令获取所述第一参数,并根据所述第一参数进行神经网络结构的搜索得到所述第一参数对应的目标神经网络结构,且采用训练数据对所述目标神经网络结构进行训练。
在一实施例中,所述获取预设神经网络结构对应的第一参数的步骤之后,还包括:
确定是否存储预设神经网络结构对应的第一参数;
若确定未存储有所述神经网络结构对应的第一参数时,根据所述预设神经网络结构生成训练指令,并将所述训练指令至所述终端,以使所述终端采用训练数据对所述预设神经网络结构进行训练;
若确定未存储有所述神经网络结构对应的第一参数时,执行所述获取神经网络结构对应的第一参数。
在一实施例中,所述将所述训练指令至各个终端的步骤之后,还包括:
接收所述终端发送的训练后的目标神经网络结构以及训练后的目标神经网络结构对应的第二参数;
根据训练后的目标神经网络结构以及所述第二参数,对所述预设神经网络以及所述第一参数进行更新。
本发明实施例还提供一种终端,所述终端包括:存储器、处理器及存储在所述存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上所述的神经网络结构的搜索方法的各个步骤。
本发明实施例还提供一种服务器,所述服务器包括:存储器、处理器及存储在所述存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上所述的神经网络结构的搜索方法的各个步骤。
本发明实施例还提供一种可读存储介质,所述可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述的神经网络结构的搜索方法的各个步骤。
在本实施例的技术方案中,终端接收所述服务器发送的训练指令;根据所述训练指令获取神经网络结构对应的第一参数;根据所第一参数进行神经网络结构的搜索,得到所述第一参数对应的目标神经网络结构;采用训练数据对所述目标神经网络结构进行训练。由于终端承载了将本该在服务器进行的将神经网络搜索的工作,服务器只需要发送目标神经网络结构对应的第一参数即可实现神经网络结构的搜索,让本该闲置的终端资源得到了合理利用,因此,本发明提高了神经网络结构的搜索方法的资源利用率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例涉及的终端的硬件构架示意图;
图2为本发明实施例涉及的服务器的硬件构架示意图;
图3为本发明神经网络结构的搜索方法第一实施例的流程示意图;
图4为本发明神经网络结构的搜索方法第二实施例的流程示意图;
图5为本发明神经网络结构的搜索方法第三实施例的流程示意图;
图6为本发明神经网络结构的搜索方法第四实施例的流程示意图;
图7为本发明神经网络结构的搜索方法第五实施例的流程示意图;
图8为本发明神经网络结构的搜索方法第六实施例的流程示意图;
图9为本发明神经网络结构的搜索方法第七实施例的流程示意图;
图10为本发明神经网络结构的搜索方法第八实施例涉及的终端与服务器的交互时序图。
具体实施方式
为了更好的理解上述技术方案,下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
本发明的主要解决方案是:终端接收所述服务器发送的训练指令;根据所述训练指令获取神经网络结构对应的第一参数;根据所第一参数进行神经网络结构的搜索,得到所述第一参数对应的目标神经网络结构;采用训练数据对所述目标神经网络结构进行训练。
由于终端承载了将本该在服务器进行的将神经网络搜索的工作,服务器只需要发送目标神经网络结构对应的第一参数即可实现神经网络结构的搜索,让本该闲置的终端资源得到了合理利用,因此,本发明提高了神经网络结构的搜索方法的资源利用率。
作为一种实现方式,终端可以如图1。
本发明实施例方案涉及的是终端,终端包括:处理器101,例如CPU,存储器102,通信总线103。其中,通信总线103用于实现这些组件之间的连接通信。
存储器102可以是高速RAM存储器,也可以是稳定的存储器(non-volatilememory),例如磁盘存储器。如图1,作为一种计算机存储介质的存储器103中可以包括检测程序;而处理器101可以用于调用存储器102中存储的检测程序,并执行以下操作:
接收所述服务器发送的训练指令;
根据所述训练指令获取神经网络结构对应的第一参数;
根据所第一参数进行神经网络结构的搜索,得到所述第一参数对应的目标神经网络结构;
采用训练数据对所述目标神经网络结构进行训练。
在一实施例中,处理器101可以用于调用存储器102中存储的检测程序,并执行以下操作:
解析所述训练指令,得到数据信息;
若所述数据信息包括神经网络结构对应的第一参数,执行所述根据所述训练指令获取神经网络结构对应的第一参数的步骤;
若所述数据信息包括预设神经网络结构,采用训练数据对所述预设神经网络结构进行训练。
在一实施例中,处理器101可以用于调用存储器102中存储的检测程序,并执行以下操作:
获取训练后的目标神经网络结构对应的第二参数;
将所述第二参数发送至所述服务器,以供所述服务器基于所述第二参数生成训练指令。
在一实施例中,处理器101可以用于调用存储器102中存储的检测程序,并执行以下操作:
获取训练后的目标神经网络结构发送至服务器以及共享存储队列,其中,所述终端在所述共享存储队列搜索第一参数对应的目标神经网络。
在本实施例的技术方案中,终端接收所述服务器发送的训练指令;根据所述训练指令获取神经网络结构对应的第一参数;根据所第一参数进行神经网络结构的搜索,得到所述第一参数对应的目标神经网络结构;采用训练数据对所述目标神经网络结构进行训练。由于终端承载了将本该在服务器进行的将神经网络搜索的工作,服务器只需要发送目标神经网络结构对应的第一参数即可实现神经网络结构的搜索,让本该闲置的终端资源得到了合理利用,因此,本发明提高了神经网络结构的搜索方法的资源利用率。
作为一种实现方式,终端可以如图2。
本发明实施例方案涉及的是服务器,服务器包括:处理器201,例如CPU,存储器202,通信总线203。其中,通信总线203用于实现这些组件之间的连接通信。
存储器202可以是高速RAM存储器,也可以是稳定的存储器(non-volatilememory),例如磁盘存储器。如图1,作为一种计算机存储介质的存储器203中可以包括检测程序;而处理器201可以用于调用存储器202中存储的检测程序,并执行以下操作:
获取预设神经网络结构对应的第一参数;
根据所述第一参数生成训练指令;
将所述训练指令至各个终端,其中,所述终端根据所述训练指令获取所述第一参数,并根据所述第一参数进行神经网络结构的搜索得到所述第一参数对应的目标神经网络结构,且采用训练数据对所述目标神经网络结构进行训练。
在一实施例中,处理器201可以用于调用存储器202中存储的检测程序,并执行以下操作:
确定是否存储预设神经网络结构对应的第一参数;
若确定未存储有所述神经网络结构对应的第一参数时,根据所述预设神经网络结构生成训练指令,并将所述训练指令至所述终端,以使所述终端采用训练数据对所述预设神经网络结构进行训练;
若确定未存储有所述神经网络结构对应的第一参数时,执行所述获取神经网络结构对应的第一参数。
在一实施例中,处理器201可以用于调用存储器202中存储的检测程序,并执行以下操作:
接收所述终端发送的训练后的目标神经网络结构以及训练后的目标神经网络结构对应的第二参数;
根据训练后的目标神经网络结构以及所述第二参数,对所述预设神经网络以及所述第一参数进行更新。
在本实施例的技术方案中,服务器确定是否存储有神经网络结构对应的第一参数;若确定存储有所述第一参数时,发送携带所述第一参数的训练指令至所述终端,以使所述终端根据所述第一参数搜索目标神经网络结构并采用训练数据对所述目标神经网络结构进行训练。由于服务器将本该在服务器进行的将神经网络搜索的工作给到了终端进行,服务器只需要发送目标神经网络结构对应的第一参数即可实现神经网络结构的搜索,让本该闲置的终端资源得到了合理利用,因此,本发明提高了神经网络结构的搜索方法的资源利用率。
为了更好的理解上述技术方案,下面将结合说明书附图以及具体的实施方式对上述技术方案进行详细的说明。
参照图3,图3为本发明神经网络结构的搜索方法的第一实施例,方法包括以下步骤:
步骤S10,接收所述服务器发送的训练指令。
在本实施例中,终端接收服务器的训练指令,终端包括电脑等类型的电子设备,在此不作限定,其中,训练指令用于指示终端设备获取神经网络结构并进行训练,具有代表性的网络结构有BP网络、RBF网络、Hopfield网络、自组织特征映射网络等,在此不做限定。
可选的,终端在获取服务器发送的训练命令后,初始化分布式框架,确保服务器与终端的网络通信正常,进行初始化操作后,服务器负责任务分发以将任务分发至分布式架构中的各个终端,通过开启socket后台服务,负责整个集群中的终端的控制,然后通过SHH对每个终端发起训练和搜索指令,其中,SSH为Secure Shell的缩写,SSH为建立在应用层和传输层基础上的安全协议。SSH较可靠,专为远程登录会话和其他网络服务提供安全性的协议。利用SSH协议可以有效防止远程管理过程中的信息泄露问题。SSH最初是UNIX***上的一个程序,后来又迅速扩展到其他操作平台。SSH在正确使用时可弥补网络中的漏洞。SSH客户端适用于多种平台。几乎所有UNIX平台-包括HP-UX、Linux、AIX、Solaris、Digital UNIX、Irix,以及其他平台,都可运行SSH。
可选的,终端接收到SHH命令后,启动训练程序并进行初始化,终端根据服务器的ip绑定socket服务端,通过socket向服务器发送获取开始训练的请求信号,服务器在接收到请求信号后,发送训练指令,具体的,服务器会判断是否存在神经网络结构对应的第一参数,如果否,则加载已准备好的预训练网络结构文件作为预设神经网络结构,添加到socket信息中,该信息由字典组成,包含了网络结构和神经网络结构对应的第一参数对应的键,然后服务器将socket信息发送到终端;如果是,则将神经网络结构对应的第一参数发送到终端。
步骤S20,根据所述训练指令获取神经网络结构对应的第一参数。
在本实施例中,上述第一参数为神经网络结构对应的参数,可用于在共享存储队列中搜索神经网络结构,可选的,可根据第一参数获取或者生成神经网络结构。
可选的,终端判断socket信息包含的是预设神经网络结构还是第一参数,如果是预设神经网络结构,则直接将预设神经网络结构用来训练。
步骤S30,根据所第一参数进行神经网络结构的搜索,得到所述第一参数对应的目标神经网络结构。
在本实施例中,如果是第一参数,则启动网络搜索进程根据第一参数进行网络结构搜索,再从共享存储队列中读取目标神经网络结构进行训练。
步骤S40,采用训练数据对所述目标神经网络结构进行训练。
在本实施例中,上述训练数据为对上述目标神经网络结构进行训练的训练集,在机器学习等领域中,一般需要将样本分成独立的三部分训练集(train set),验证集(validation set)和测试集(test set)。其中,训练集用来估计模型,验证集用来确定网络结构或者控制模型复杂程度的参数。
在本实施例的技术方案中,服务器确定是否存储有神经网络结构对应的第一参数;若确定存储有所述第一参数时,发送携带所述第一参数的训练指令至所述终端,以使所述终端根据所述第一参数搜索目标神经网络结构并采用训练数据对所述目标神经网络结构进行训练。由于服务器将本该在服务器进行的将神经网络搜索的工作给到了终端进行,服务器只需要发送目标神经网络结构对应的第一参数即可实现神经网络结构的搜索,让本该闲置的终端资源得到了合理利用,因此,本发明提高了神经网络结构的搜索方法的资源利用率。
参照图4,图4为本发明神经网络结构的搜索方法的第二实施例,基于第一实施例,步骤S10之后,还包括:
步骤S50,解析所述训练指令,得到数据信息。
在本实施例中,通过解析训练指令,获取其携带的数据信息,可选的,数据信息为上述socket信息。
步骤S60,若所述数据信息包括神经网络结构对应的第一参数,执行所述根据所述训练指令获取神经网络结构对应的第一参数的步骤。
步骤S70,若所述数据信息包括预设神经网络结构,采用训练数据对所述预设神经网络结构进行训练。
在本实施例中,上述预设神经网络结构为预先设置的,可选的,预设神经网络结构用于第一轮的神经网络结构的训练。具体的,服务器会判断是否存在神经网络结构对应的第一参数,如果否,则加载已准备好的预训练网络结构文件作为预设神经网络结构,添加到socket信息中,该信息由字典组成,包含了网络结构和神经网络结构对应的第一参数对应的键,然后服务器将socket信息发送到终端;如果是,则将神经网络结构对应的第一参数发送到终端。
在本实施例的技术方案中,在设置了预设神经网络结构后,在没有存储第一参数的情况下,可以使得本实施例的技术方案形成一个可自动进行神经网络结构搜索以及训练的闭环,提高了本实施例实施的灵活性。
参照图5,图5为本发明神经网络结构的搜索方法的第三实施例,基于第一或第二实施例,步骤S70之后,还包括:
步骤S80,获取训练后的目标神经网络结构对应的第二参数。
在本实施例中,终端在采用训练数据对所述预设神经网络结构或者目标神经网络结构进行训练后,会使得训练目标的参数发生改变,理论上来说,成为了一个新的神经网络结构。
步骤S90,将所述第二参数发送至所述服务器,以供所述服务器基于所述第二参数生成训练指令。
在本实施例中,可将上述第二参数进行存储,在下一轮训练中,可以作为第一参数在共享存储队列中搜索与其对应的神经网络以进行训练。
在本实施例的技术方案中,将训练得到的参数用于下一轮训练,可以使得本实施例的技术方案形成一个可自动进行神经网络结构搜索以及训练的闭环,提高了本实施例实施的灵活性。
参照图6,图6为本发明神经网络结构的搜索方法的第四实施例,基于第一至第三任一实施例,步骤S70之后,还包括:
步骤S100,获取训练后的目标神经网络结构发送至服务器以及共享存储队列,其中,所述终端在所述共享存储队列搜索第一参数对应的目标神经网络。
在本实施例中,在终端上用指定数据集完成训练和验证后,将包含正确率、loss等的训练及验证结果发送到服务器;在终端上由socket服务进程接收并将其打包成第一参数,用做下一轮神经网络结构搜索的参数来源;搜索结束将搜索到的神经网络结构添加到共享存储队列中以便下一轮训练进行读取;当前搜索和训练完成后,服务器根据终端返回的结束信息再次发起搜索和训练任务。开始新一轮的训练和搜索,可选的,当重复训练次数达到设定的迭代次数或运行时间,服务器的主进程会等待最新一轮训练和搜索结束后中止整个程序。
在本实施例的技术方案中,将目标神经降网络结构同时发送至共享存储队列以及服务器中进行保存,可使得终端在接收到服务器发送的目标神经网络模型的第一参数时,可直接根据第一参数在共享存储队列中搜索并得到对应的目标神经网络结构,而不用再重新生成目标神经网络结构,因此,提高了本实施例的实施效率。
参照图7,图7为本发明神经网络结构的搜索方法的第五实施例,基于第一至第四任一实施例,包括:
步骤S110,获取预设神经网络结构对应的第一参数。
步骤S120,根据所述第一参数生成训练指令。
步骤S130,将所述训练指令至各个终端,其中,所述终端根据所述训练指令获取所述第一参数,并根据所述第一参数进行神经网络结构的搜索得到所述第一参数对应的目标神经网络结构,且采用训练数据对所述目标神经网络结构进行训练。
在本实施例中,服务器端会查询存储器中是否已经存储有第一参数。
可选的,若确定存储有所述第一参数时,发送携带所述第一参数的训练指令至所述终端,以使所述终端根据所述第一参数搜索目标神经网络结构并采用训练数据对所述目标神经网络结构进行训练。
在本实施例中,服务器会判断是否存在神经网络结构对应的第一参数,如果否,则加载已准备好的预训练网络结构文件作为预设神经网络结构,添加到socket信息中,该信息由字典组成,包含了网络结构和神经网络结构对应的第一参数对应的键,然后服务器将socket信息发送到终端;如果是,则将神经网络结构对应的第一参数发送到终端。
在本实施例的技术方案中,服务器确定是否存储有神经网络结构对应的第一参数;若确定存储有所述第一参数时,发送携带所述第一参数的训练指令至所述终端,以使所述终端根据所述第一参数搜索目标神经网络结构并采用训练数据对所述目标神经网络结构进行训练。由于服务器将神经网络搜索的工作给到了终端,服务器只需要发送目标神经网络结构对应的第一参数即可实现神经网络结构的搜索,让本该闲置的终端资源得到了合理利用,因此,本发明提高了神经网络结构的搜索方法的资源利用率。
参照图8,图8为本发明神经网络结构的搜索方法的第六实施例,基于第一至第五任一实施例,步骤S110之后,还包括:
步骤S140,确定是否存储预设神经网络结构对应的第一参数。
步骤S150,若确定未存储有所述神经网络结构对应的第一参数时,根据所述预设神经网络结构生成训练指令,并将所述训练指令至所述终端,以使所述终端采用训练数据对所述预设神经网络结构进行训练。
步骤S160,若确定未存储有所述神经网络结构对应的第一参数时,执行所述获取神经网络结构对应的第一参数。
在本实施例中,在本实施例中,服务器会判断是否存在神经网络结构对应的第一参数,如果否,则加载已准备好的预训练网络结构文件作为预设神经网络结构,添加到socket信息中,该信息由字典组成,包含了网络结构和神经网络结构对应的第一参数对应的键,然后服务器将socket信息发送到终端;如果是,则将神经网络结构对应的第一参数发送到终端。
在本实施例的技术方案中,在设置了预设神经网络结构后,在没有存储第一参数的情况下,可以使得本实施例的技术方案形成一个可自动进行神经网络结构搜索以及训练的闭环,提高了本实施例实施的灵活性。
参照图9,图9为本发明神经网络结构的搜索方法的第七实施例,基于第一至第六任一实施例,步骤S130之后,还包括:
步骤S170,接收所述终端发送的训练后的目标神经网络结构以及训练后的目标神经网络结构对应的第二参数。
步骤S180,根据训练后的目标神经网络结构以及所述第二参数,对所述预设神经网络以及所述第一参数进行更新。
在本实施例的技术方案中,服务器可以将终端发送的目标神经网络结构进行参数提取并用于下一轮训练的第一参数,因此,可以使得本实施例的技术方案形成一个可自动进行神经网络结构搜索以及训练的闭环,提高了本实施例实施的灵活性。
请参照图10,图10为本发明第八实施例涉及的移动终端、服务器与锁体的交互时序图。
在第八实施例中,服务器向终端发送训练指令,终端向服务器发送训练请求,服务器确定是否存储有第一参数,服务器向终端发送第一参数,终端根据第一参数所述目标神经网络模型并训练,终端存储并发送训练后的目标神经网络模型,服务器存储目标神经网络模型,服务器发起下一轮训练指令。由于服务器将本该在服务器进行的将神经网络搜索的工作给到了终端进行,服务器只需要发送目标神经网络结构对应的第一参数即可实现神经网络结构的搜索,让本该闲置的终端资源得到了合理利用,因此,本发明提高了神经网络结构的搜索方法的资源利用率。
为实现上述目的,本发明实施例还提供一种终端,所述终端包括:存储器、处理器及存储在所述存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上所述的神经网络结构的搜索方法的各个步骤。
为实现上述目的,本发明实施例还提供一种服务器,所述服务器包括:存储器、处理器及存储在所述存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上所述的神经网络结构的搜索方法的各个步骤。
为实现上述目的,本发明实施例还提供一种可读存储介质,所述可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述的神经网络结构的搜索方法的各个步骤。
本领域内的技术人员应明白,本发明的实施例可提供为方法、***、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
应当注意的是,在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的部件或步骤。位于部件之前的单词“一”或“一个”不排除存在多个这样的部件。本发明可以借助于包括有若干不同部件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (10)

1.一种神经网络结构的搜索方法,其特征在于,所述神经网络结构的搜索方法应用于终端,所述终端与服务器处于同一分布式架构中,所述神经网络结构的搜索方法包括:
接收所述服务器发送的训练指令;
根据所述训练指令获取神经网络结构对应的第一参数;
根据所第一参数进行神经网络结构的搜索,得到所述第一参数对应的目标神经网络结构;
采用训练数据对所述目标神经网络结构进行训练。
2.如权利要求1所述的神经网络结构的搜索方法,其特征在于,所述接收所述服务器发送的训练指令的步骤之后,还包括:
解析所述训练指令,得到数据信息;
若所述数据信息包括神经网络结构对应的第一参数,执行所述根据所述训练指令获取神经网络结构对应的第一参数的步骤;
若所述数据信息包括预设神经网络结构,采用训练数据对所述预设神经网络结构进行训练。
3.如权利要求2所述的神经网络结构的搜索方法,其特征在于,所述若所述数据信息包括预设神经网络结构,采用训练数据对所述预设神经网络结构进行训练的步骤之后,还包括:
获取训练后的目标神经网络结构对应的第二参数;
将所述第二参数发送至所述服务器,以供所述服务器基于所述第二参数生成训练指令。
4.如权利要求2所述的神经网络结构的搜索方法,其特征在于,所述若所述数据信息包括预设神经网络结构,采用训练数据对所述预设神经网络结构进行训练的步骤之后,还包括:
获取训练后的目标神经网络结构发送至服务器以及共享存储队列,其中,所述终端在所述共享存储队列搜索第一参数对应的目标神经网络。
5.一种神经网络结构的搜索方法,其特征在于,所述神经网络结构的搜索方法应用于服务器,所述服务器与终端处于同一分布式架构中,所述神经网络结构的搜索方法包括:
获取预设神经网络结构对应的第一参数;
根据所述第一参数生成训练指令;
将所述训练指令至各个终端,其中,所述终端根据所述训练指令获取所述第一参数,并根据所述第一参数进行神经网络结构的搜索得到所述第一参数对应的目标神经网络结构,且采用训练数据对所述目标神经网络结构进行训练。
6.如权利要求5所述的神经网络结构的搜索方法,其特征在于,所述获取预设神经网络结构对应的第一参数的步骤之后,还包括:
确定是否存储预设神经网络结构对应的第一参数;
若确定未存储有所述神经网络结构对应的第一参数时,根据所述预设神经网络结构生成训练指令,并将所述训练指令至所述终端,以使所述终端采用训练数据对所述预设神经网络结构进行训练;
若确定未存储有所述神经网络结构对应的第一参数时,执行所述获取神经网络结构对应的第一参数。
7.如权利要求5或6所述的神经网络结构的搜索方法,其特征在于,所述将所述训练指令至各个终端的步骤之后,还包括:
接收所述终端发送的训练后的目标神经网络结构以及训练后的目标神经网络结构对应的第二参数;
根据训练后的目标神经网络结构以及所述第二参数,对所述预设神经网络以及所述第一参数进行更新。
8.一种终端,其特征在于,所述终端包括:存储器、处理器及存储在所述存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至4中任一项所述的神经网络结构的搜索方法的步骤。
9.一种服务器,其特征在于,所述服务器包括:存储器、处理器及存储在所述存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求5至7中任一项所述的神经网络结构的搜索方法的步骤。
10.一种可读存储介质,其特征在于,所述可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的神经网络结构的搜索方法的步骤。
CN202011645194.2A 2020-12-31 2020-12-31 神经网络结构的搜索方法、终端、服务器及可读存储介质 Pending CN112766486A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011645194.2A CN112766486A (zh) 2020-12-31 2020-12-31 神经网络结构的搜索方法、终端、服务器及可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011645194.2A CN112766486A (zh) 2020-12-31 2020-12-31 神经网络结构的搜索方法、终端、服务器及可读存储介质

Publications (1)

Publication Number Publication Date
CN112766486A true CN112766486A (zh) 2021-05-07

Family

ID=75698869

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011645194.2A Pending CN112766486A (zh) 2020-12-31 2020-12-31 神经网络结构的搜索方法、终端、服务器及可读存储介质

Country Status (1)

Country Link
CN (1) CN112766486A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113239077A (zh) * 2021-07-12 2021-08-10 深圳市永达电子信息股份有限公司 一种基于神经网络的搜索方法、***和计算机可读存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113239077A (zh) * 2021-07-12 2021-08-10 深圳市永达电子信息股份有限公司 一种基于神经网络的搜索方法、***和计算机可读存储介质

Similar Documents

Publication Publication Date Title
EP3958606A1 (en) Methods and devices for pushing and requesting model, storage medium and electronic device
CN107431651B (zh) 一种网络服务的生命周期管理方法及设备
CN112784989B (zh) 推理***、推理方法、电子设备及计算机存储介质
CN106657216B (zh) 序列号生成方法和装置
US20170163478A1 (en) Method,electronic device and system for updating client configuration in key-value pair database
CN111865629B (zh) 用于配置服务实例的方法、设备和计算机程序产品
JP6595625B2 (ja) 自動再チャージシステム、方法、およびサーバ
CN107690149B (zh) 触发网络策略更新的方法、管理功能实体及核心网设备
CN111431730B (zh) 一种业务处理方法、***、计算机设备及可读介质
CN109104368B (zh) 一种请求连接方法、装置、服务器及计算机可读存储介质
CN113691635A (zh) 调用微服务的方法、装置、电子设备和可读存储介质
CN110912805B (zh) 消息读取状态的同步方法、终端、服务端及***
CN112766486A (zh) 神经网络结构的搜索方法、终端、服务器及可读存储介质
CN114328026B (zh) 一种虚拟磁盘备份方法、装置、设备及介质
CN113704107B (zh) 应用测试方法、装置、设备及计算机可读存储介质
CN114221883B (zh) 消息测试方法、装置、服务器及存储介质
CN112988339B (zh) 一种数据管理方法及装置
CN112804313B (zh) 基于跨域边缘节点的数据同步方法、装置、设备及介质
CN105512544B (zh) 一种获取移动终端超级用户权限的方法及装置
CN111324368B (zh) 一种数据共享方法及服务器
CN110134461B (zh) 一种数据交互的通用处理方法及装置
CN112055058A (zh) 数据的存储方法、装置及计算机可读存储介质
CN108900602B (zh) 一种虚拟链接建立方法及相关装置
CN112685102A (zh) 一种网关插件热加载方法、装置、设备及介质
CN115955437B (zh) 一种数据传输方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination