CN114549929A - 模型训练方法、装置、电子设备和介质 - Google Patents

模型训练方法、装置、电子设备和介质 Download PDF

Info

Publication number
CN114549929A
CN114549929A CN202210156947.6A CN202210156947A CN114549929A CN 114549929 A CN114549929 A CN 114549929A CN 202210156947 A CN202210156947 A CN 202210156947A CN 114549929 A CN114549929 A CN 114549929A
Authority
CN
China
Prior art keywords
training
target
container
model
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210156947.6A
Other languages
English (en)
Inventor
张啸宇
陈刚
刘鹏
刘明浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202210156947.6A priority Critical patent/CN114549929A/zh
Publication of CN114549929A publication Critical patent/CN114549929A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本公开提供了一种模型训练方法、装置、电子设备和介质,涉及计算机技术领域,尤其涉及机器学习、容器技术、云原生技术、AI开发等技术领域。具体实现方案为:根据待训练模型的目标标识信息,构建与所述待训练模型对应的目标训练容器;在所述目标训练容器中对所述待训练模型进行训练,并确定所述目标训练容器的训练状态;根据所述训练状态获取模型训练结果。本公开实现了无需用户编写大量代码也可完成模型训练的效果,降低了模型训练所需的人工成本,提高了模型训练的效率。

Description

模型训练方法、装置、电子设备和介质
技术领域
本公开涉及计算机技术领域,尤其涉及机器学习、容器技术、云原生技术、AI开发等技术领域,特别涉及一种模型训练方法、装置、电子设备和介质。
背景技术
模型训练是通过预先准备的数据集进行机器学习,并最终产出训练模型的过程。模型训练过程比较复杂繁琐,涉及到训练数据集准备、数据迭代训练、落地模型文件和评估训练效果等等环节。
目前的模型训练过程需要用户在自身本地端进行大量的代码编写。
发明内容
本公开提供了一种用于对待训练模型进行自动训练的方法、装置、电子设备和介质。
根据本公开的一方面,提供了一种模型训练方法,包括:
根据待训练模型的目标标识信息,构建与所述待训练模型对应的目标训练容器;
在所述目标训练容器中对所述待训练模型进行训练,并确定所述目标训练容器的训练状态;
根据所述训练状态获取模型训练结果。
根据本公开的另一方面,提供了一种模型训练装置,包括:
训练容器构建模块,用于根据待训练模型的目标标识信息,构建与所述待训练模型对应的目标训练容器;
训练状态确定模块,用于在所述目标训练容器中对所述待训练模型进行训练,并确定所述目标训练容器的训练状态;
训练结果获取模块,用于根据所述训练状态获取模型训练结果。
根据本公开的另一方面,提供了一种电子设备,包括:
至少一个处理器;以及
与至少一个处理器通信连接的存储器;其中,
存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行本公开中任一项的方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,计算机指令用于使计算机执行本公开中任一项的方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,计算机程序在被处理器执行本公开中任一项的方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开实施例公开的一些模型训练方法的流程图;
图2A是根据本公开实施例公开的另一些模型训练方法的流程图;
图2B是根据本公开实施例公开的一些模型训练任务的节点示意图;
图3是根据本公开实施例公开的一些模型训练装置的结构示意图;
图4是用来实现本公开实施例公开的模型训练方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
申请人在研发过程中发现,目前的模型训练过程通常是用户在自身本地端通过人工方式编写训练算法代码,并在本地端执行模型训练流程。然而这种传统方式需要用户付出较大的人工成本,且模型训练的效率也较低。与此同时,模型训练对计算机硬件资源要求也较高,尤其是GPU硬件资源,因此若用户本地端硬件资源较差,则无法顺利执行模型训练流程。
图1是根据本公开实施例公开的一些模型训练方法的流程图,本实施例可以适用于无监督式的进行模型训练的情况。本实施例方法可以由本公开实施例公开的模型训练装置来执行,所述装置可采用软件和/或硬件实现,并可集成在任意的具有计算能力的电子设备上。
如图1所示,本实施例公开的模型训练方法可以包括:
S101、根据待训练模型的目标标识信息,构建与所述待训练模型对应的目标训练容器。
其中,待训练模型表示用户期望训练的模型,待训练模型的目标标识信息体现了待训练模型的具体模型类型,可选的将待训练模型的模型ID(Identity Document,身份标识号)作为目标标识信息,例如人脸识别模型、目标检测模型或者分类模型等等,本实施例并不对待训练模型的具体模型类型进行限定。训练容器表示用于进行模型训练的容器,容器则表示一种轻量级、可移植和自包含的软件打包技术,通过容器可将所有的应用程序都放到一个称之为“镜像”的软件包中,其他用户拿到“镜像”后,就能基于它去运行“镜像”里包含的所有的程序和文件。在本实施例中,训练容器包含有模型训练流程涉及的所有算法代码的镜像文件。
在一种实施方式中,用户操作客户端与服务端进行数据交互,其中本实施例中的服务端是基于kubernetes集群进行构建的。用户首先在客户端中输入验证信息,例如账号和密码等,客户端将验证信息发送给服务端,服务端对验证信息进行身份验证,在验证通过的情况下,服务端控制客户端在显示界面中展示服务端当前可提供训练服务的模型列表,用户在模型列表中选择至少一个模型作为待训练模型,客户端响应用户的选择操作,生成携带有待训练模型的目标标识信息的模型训练请求,进而将模型训练请求发送给服务端。
服务端从接收的模型训练请求中解析获取目标标识信息,并根据目标标识信息在配置参数模板中进行匹配,确定与目标标识信息相匹配的目标配置参数,并基于目标配置参数构建与待训练模型对应的目标训练容器。其中,目标配置参数包括但不限于版本apiVersion、资源kind、元数据metadata和目标状态spec等,版本apiVersion包含目标训练容器的版本信息,资源kind定义了目标训练容器的资源类型,元数据metadata包含了目标训练容器的资源名称和命名空间,目标状态spec定义了目标训练容器的名称、运行时的镜像和镜像的拉取策略,而镜像则包含了训练待训练模型涉及的所有算法代码。
示例性的,假设目标标识信息为“人脸识别模型”,服务端则在配置参数模板中获取与“人脸识别模型”相匹配的目标配置参数,并基于目标配置参数构建与“人脸识别模型”对应的目标训练容器。
通过根据待训练模型的目标标识信息,构建与待训练模型对应的目标训练容器,为后续基于目标训练容器进行模型训练奠定了数据基础。
S102、在所述目标训练容器中对所述待训练模型进行训练,并确定所述目标训练容器的训练状态。
在一种实施方式中,模型训练请求中还包括模型训练所需的训练数据的压缩包,服务端从模型训练请求中解析出压缩包并进行解压获取训练数据。服务端将训练数据导入至目标训练容器中,并根据目标训练容器的容器标识,控制启动目标训练容器采用训练数据对待训练模型进行训练。
在目标训练容器构建成功后,服务端还会根据目标训练容器的容器标识,对目标训练容器的训练状态进行监测。具体的,服务端预设有监测间隔时间,即在目标训练容器构建成功后,服务端根据监测间隔时间周期性的监测目标训练容器的训练状态。其中,训练状态包括训练完成状态和训练未完成状态。
S103、根据所述训练状态获取模型训练结果。
在一种实施方式中,服务端根据监测到的目标训练容器的训练状态,确定是否触发获取模型训练结果的操作。具体的,若监测到目标训练容器的训练状态为训练完成状态,服务端则触发获取模型训练结果,进而将模型训练结果反馈给客户端,供用户直接使用模型训练结果进行作业;若监测到目标训练容器的训练状态为训练未完成状态,服务端则继续对目标训练容器的训练状态进行监测,直至监测到目标训练容器的训练状态为训练完成状态为止。
本公开通过根据待训练模型的目标标识信息,构建与待训练模型对应的目标训练容器,在目标训练容器中对待训练模型进行训练,并确定目标训练容器的训练状态,进而根据训练状态获取模型训练结果,实现了在服务端的训练容器中对待训练模型进行无监督训练的效果,无需用户编写大量代码也可完成模型训练的效果,降低了模型训练所需的人工成本,提高了模型训练的效率。并且,由于整个模型训练流程都由服务端执行,节省了用户本地端的计算资源。
图2A是根据本公开实施例公开的另一些模型训练方法的流程图,基于上述技术方案进一步优化与扩展,并可以与上述各个可选实施方式进行结合。
如图2A所示,本实施例公开的模型训练方法可以包括:
S201、获取固定配置参数,并根据待训练模型的目标标识信息以及标识信息与动态配置参数之间的关联关系,确定所述目标标识信息关联的目标动态配置参数。
其中,固定配置参数表示通用配置参数,即无论构建何种训练容器均适用的配置参数,例如计算资源、存储资源和网络资源等等。动态配置参数表示与待训练模型相关的参数,待训练模型的类型不同则动态配置参数也不同,例如镜像文件内容以及镜像文件拉取策略等等。在本实施例中,服务端预先构建有标识信息与动态配置参数之间的关联关系,即根据标识信息即可确定与之对应的动态配置参数。
在一种实施方式中,服务端从配置参数模板中获取固定配置参数,并将目标标识信息与配置参数模板中记载的标识信息与动态配置参数之间的关联关系进行匹配,将与目标标识信息匹配的标识信息关联的动态配置参数,作为目标标识信息关联的目标动态配置参数。
S202、根据所述固定配置参数和所述目标动态配置参数,构建与所述待训练模型对应的目标训练容器。
在一种实施方式中,根据固定配置参数和目标动态配置参数,获取构建目标训练容器所需的相应资源,用于构建所述目标训练容器。
S203、获取模型训练请求中包括的地址信息,并根据所述地址信息获取目标训练数据,采用所述目标训练数据在所述目标训练容器中对所述待训练模型进行训练。
其中,客户端发送的模型训练请求中包括地址信息,地址信息表示目标训练数据在网络中的唯一访问地址,例如URL(Uniform Resource Locator,统一资源***)地址。
在一种实施方式中,服务端对模型训练请求进行解析获取地址信息,并根据地址信息进行资源访问,获取目标训练数据。服务端将训练数据导入至目标训练容器中,并根据目标训练容器的容器标识生成容器启动指令,根据容器启动指令控制目标训练容器执行镜像文件,用于基于镜像文件中包括的算法代码,采用训练数据对待训练模型进行训练。
S204、确定所述目标训练容器对应的容器构建时间,并根据所述目标标识信息确定所述目标训练容器对应的监测间隔时间。
其中,容器构建时间表示目标训练容器构建成功时对应的时间。监测间隔时间表示每次进行状态监测间隔的时间,例如间隔5秒进行一次状态监测,则监测间隔时间为5秒。
在一种实施方式中,在目标训练容器构建完成时服务端会接收到构建成功提示信息,进而记录该时刻作为容器构建时间。
在本实施例中设定不同的待训练模型对应不同的监测间隔时间,因此服务端根据待训练模型的目标标识信息,与标识信息和监测间隔时间之间的关联关系进行匹配,确定目标标识信息关联的监测间隔时间。
S205、根据所述容器构建时间以及所述监测间隔时间,确定所述目标训练容器对应的状态监测时间。
在一种实施方式中,将容器构建时间与监测间隔时间的和值,作为目标训练容器对应的状态监测时间。
示例性的,假设容器构建时间为7:00,监测间隔时间为1分钟,则将7:01、7:02、7:03、……,作为目标训练容器对应的状态监测时间。可选的,本实施例选取第一次状态监测时间作为目标训练容器对应的状态监测时间。
S206、根据所述状态监测时间对所述目标训练容器进行训练状态监测,确定所述目标训练容器的训练状态。
在一种实施方式中,将当前时间与状态监测时间进行比对,若确定当前时间到达状态监测时间,则触发对目标训练容器进行训练状态监测,确定目标训练容器的训练状态。
可选的,S206包括:
根据所述状态监测时间生成定时器,并在所述定时器触发的情况下,对所述目标训练容器进行训练状态监测。
在一种实施方式中,设定定时器为状态监测时间,并在定时器触发的情况下,服务端响应触发提示信息,根据目标训练容器的标识信息对目标训练容器进行训练状态监测。
通过根据状态监测时间生成定时器,并在定时器触发的情况下,对目标训练容器进行训练状态监测,从而无需实时将当前时间与状态监测时间进行比对,避免占用过多的线程,节省了计算资源。
可选的,在目标训练容器的数量至少为两个时,S206还包括以下步骤A和B:
A、确定各目标训练容器对应的状态监测时间分别与当前时间的时间差值,并根据所述时间差值对各所述状态监测时间进行排序。
其中,在本实施例中服务端可以并行执行多个模型训练任务,即服务端可能存在至少两个目标训练容器同时进行模型训练的情况,因此服务端需要对至少两个目标训练容器进行训练状态监测。
在一种实施方式中,服务端确定各个目标训练容器对应的状态监测时间,并确定各状态监测时间与当前时间之间的时间差值。例如,假设目标训练容器1的状态监测时间为8:00,目标训练容器2的状态监测时间为9:00,当前时间为7:00,则两者的时间差值分别为1个小时和2个小时。
服务端根据时间差值的大小对各状态监测时间进行排序,时间差值越小则状态监测时间的排序越靠前。例如,假设状态监测时间1与当前时间的时间差值为1个小时,状态监测时间2与当前时间的时间差值为2个小时,状态监测时间3与当前时间的时间差值为3个小时,则排序第一为状态监测时间1,排序第二的是状态监测时间2,排序第三的是状态监测时间3。
B、根据目标状态监测时间生成定时器,并在所述定时器触发的情况下,对所述目标状态监测时间对应的目标训练容器进行训练状态监测;其中,所述目标状态监测时间为当前排序第一的状态监测时间。
在一种实施方式中,将当前排序第一的状态监测时间作为目标状态监测时间。设定定时器为目标状态监测时间,并在定时器触发的情况下,服务端响应触发提示信息,根据目标状态监测时间对应的目标训练容器的标识信息,对该目标训练容器进行训练状态监测。
训练状态监测完成后,若确定对应的目标训练容器为训练未完成状态,则根据目标状态监测时间以及监测间隔时间计算下次状态监测时间,并将下次状态监测时间重新进行排序。并且,将原本的目标状态监测时间移除,而将当前排序第二的状态监测时间重新作为新的目标状态监测时间。
通过确定各目标训练容器对应的状态监测时间分别与当前时间的时间差值,并根据时间差值对各状态监测时间进行排序,进而根据目标状态监测时间生成定时器,并在定时器触发的情况下,对目标状态监测时间对应的目标训练容器进行训练状态监测;其中,目标状态监测时间为当前排序第一的状态监测时间,实现了根据队列排序的方式依次设置定时器的效果,使得服务端能够有序的对至少两个目标训练容器进行训练状态监测,并且避免占用过多的线程,节省了计算资源。
S207、在所述训练状态为训练完成状态的情况下,从预设存储路径中获取模型训练结果。
其中,预设存储路径为预先设置的用于存储模型训练结果的路径。当目标训练容器完成模型训练得到模型训练结果后,则将模型训练结果存储于预设存储路径的磁盘当中。
在一种实施方式中,当监测到目标训练容器的训练状态为训练完成状态的情况下,服务端则从预设存储路径的磁盘中获取模型训练结果,并将模型训练结果发送给客户端,使得用户在客户端中直接使用模型训练结果进行作业。
本公开通过获取固定配置参数,并根据待训练模型的目标标识信息以及标识信息与动态配置参数之间的关联关系,确定目标标识信息关联的目标动态配置参数,进而根据固定配置参数和目标动态配置参数,构建与待训练模型对应的目标训练容器,保证了目标训练容器能够适配于待训练模型,使得后续根据目标训练容器训练得到的模型训练结果更加准确;通过获取模型训练请求中包括的地址信息,并根据地址信息获取目标训练数据,采用目标训练数据在目标训练容器中对待训练模型进行训练,实现了根据地址信息获取目标训练数据的效果,无需在模型训练请求中携带数据量较大的原始数据,由于地址信息数据量较小,从而减少了数据传输压力;通过根据容器构建时间以及监测间隔时间,确定目标训练容器对应的状态监测时间,并根据状态监测时间对目标训练容器进行训练状态监测,确定目标训练容器的训练状态,实现了周期性对目标训练容器的训练状态进行监测的效果,保证了监测结果的时效性;通过在训练状态为训练完成状态的情况下,从预设存储路径中获取模型训练结果,实现了仅在训练完成时才会触发获取模型训练结果的操作,节省了计算资源。
在上述实施例的基础上,图2B是根据本公开实施例公开的一些模型训练任务的节点示意图,如图2B所示,将本实施例中模型训练的整个流程节点化,即将模型训练流程拆分成不同的子流程,不同的子流程抽象成不同的任务节点。模型训练任务包括:
数据准备节点20包括获取训练数据的流程。具体的,数据准备节点20包括的流程为:获取模型训练请求中包括的地址信息,并根据地址信息获取目标训练数据。
训练节点21包括构建目标训练容器,以及模型训练的流程。具体的,训练节点21包括的流程为:上述实施例中S201~S203相关的实施方式,本处不再展开进行论述。
监测节点22包括对目标训练容器的训练状态进行监测的流程。具体的,监测节点22包括的流程为:上述实施例中S204~S206相关的实施方式,本处不再展开进行论述。
训练结果获取节点23包括获取模型训练结果的流程。具体的,监测节点23包括的流程为:上述实施例中207相关的实施方式,本处不再展开进行论述。
数据准备节点20、训练节点21、监测节点22和训练结果获取节点23依次执行,并且每个节点的输出会作为下一次节点的输入。例如,数据准备节点20会将目标训练数据输出给训练节点21;训练节点21会将构建的目标训练容器的容器标识输出给监测节点22;监测节点22会将训练状态监测结果输出给训练结果获取节点23。
在执行各任务节点的过程中,还会将各任务节点的输出存储于服务端的磁盘中,即每执行完一个任务节点则将该任务节点的输出进行存储。当服务端在执行某个任务节点时突然宕机,当服务端重启后会从磁盘中获取上一节点的输出,重新执行该节点,从而实现了断点处理,提高了模型训练的稳定性和时效性。
本实施例中的服务端是并发执行模型训练任务的,即可以同时执行多个模型训练任务,而最大并发数是根据服务端的最大服务能力确定的,最大服务能力越大,则最大并发数也就越多。服务端每开始执行一个模型训练任务则将可并发数减1,服务端每执行结束一个模型训练任务则将可并发数加1,若当前可并发数为0,则服务端不再执行模型训练任务,以保证服务端的稳定性。
图3是根据本公开实施例公开的一些模型训练装置的结构示意图,可以适用于无监督式的进行模型训练的情况。本实施例装置可采用软件和/或硬件实现,并可集成在任意的具有计算能力的电子设备上。
如图3所示,本实施例公开的模型训练装置30可以包括训练容器构建模块31、训练状态确定模块32和训练结果获取模块33,其中:
训练容器构建模块31,用于根据待训练模型的目标标识信息,构建与所述待训练模型对应的目标训练容器;
训练状态确定模块32,用于在所述目标训练容器中对所述待训练模型进行训练,并确定所述目标训练容器的训练状态;
训练结果获取模块33,用于根据所述训练状态获取模型训练结果。
可选的,所述训练容器构建模块31,具体用于:
获取固定配置参数,并根据所述目标标识信息以及标识信息与动态配置参数之间的关联关系,确定所述目标标识信息关联的目标动态配置参数;
根据所述固定配置参数和所述目标动态配置参数,构建与所述待训练模型对应的目标训练容器。
可选的,所述训练状态确定模块32,具体用于:
确定所述目标训练容器对应的容器构建时间,并根据所述目标标识信息确定所述目标训练容器对应的监测间隔时间;
根据所述容器构建时间以及所述监测间隔时间,确定所述目标训练容器对应的状态监测时间;
根据所述状态监测时间对所述目标训练容器进行训练状态监测,确定所述目标训练容器的训练状态。
可选的,所述训练状态确定模块32,具体还用于:
根据所述状态监测时间生成定时器,并在所述定时器触发的情况下,对所述目标训练容器进行训练状态监测。
可选的,在所述目标训练容器的数量至少为两个时,所述训练状态确定模块32,具体还用于:
确定各目标训练容器对应的状态监测时间分别与当前时间的时间差值,并根据所述时间差值对各所述状态监测时间进行排序;
根据目标状态监测时间生成定时器,并在所述定时器触发的情况下,对所述目标状态监测时间对应的目标训练容器进行训练状态监测;其中,所述目标状态监测时间为当前排序第一的状态监测时间。
可选的,所述训练状态确定模块32,具体还用于:
获取模型训练请求中包括的地址信息,并根据所述地址信息获取目标训练数据;
采用所述目标训练数据在所述目标训练容器中对所述待训练模型进行训练。
可选的,所述训练结果获取模块33,具体用于:
在所述训练状态为训练完成状态的情况下,从预设存储路径中获取模型训练结果。
本公开实施例所公开的模型训练装置30可执行本公开实施例所公开的模型训练方法,具备执行方法相应的功能模块和有益效果。本实施例中未详尽描述的内容可以参考本公开方法实施例中的描述。
本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图4示出了可以用来实施本公开的实施例的示例电子设备400的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图4所示,设备400包括计算单元401,其可以根据存储在只读存储器(ROM)402中的计算机程序或者从存储单元408加载到随机访问存储器(RAM)403中的计算机程序,来执行各种适当的动作和处理。在RAM 403中,还可存储设备400操作所需的各种程序和数据。计算单元401、ROM 402以及RAM 403通过总线404彼此相连。输入/输出(I/O)接口405也连接至总线404。
设备400中的多个部件连接至I/O接口405,包括:输入单元406,例如键盘、鼠标等;输出单元407,例如各种类型的显示器、扬声器等;存储单元408,例如磁盘、光盘等;以及通信单元409,例如网卡、调制解调器、无线通信收发机等。通信单元409允许设备400通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元401可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元401的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元401执行上文所描述的各个方法和处理,例如模型训练方法。例如,在一些实施例中,模型训练方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元408。在一些实施例中,计算机程序的部分或者全部可以经由ROM 402和/或通信单元409而被载入和/或安装到设备400上。当计算机程序加载到RAM 403并由计算单元401执行时,可以执行上文描述的模型训练方法的一个或多个步骤。备选地,在其他实施例中,计算单元401可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行模型训练方法。
本文中以上描述的***和技术的各种实施方式可以在数字电子电路***、集成电路***、现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上***的***(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程***上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储***、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储***、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行***、装置或设备使用或与指令执行***、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体***、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的***和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的***和技术实施在包括后台部件的计算***(例如,作为数据服务器)、或者包括中间件部件的计算***(例如,应用服务器)、或者包括前端部件的计算***(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的***和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算***中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将***的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、区块链网络和互联网。
计算机***可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务中,存在的管理难度大,业务扩展性弱的缺陷。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (17)

1.一种模型训练方法,包括:
根据待训练模型的目标标识信息,构建与所述待训练模型对应的目标训练容器;
在所述目标训练容器中对所述待训练模型进行训练,并确定所述目标训练容器的训练状态;
根据所述训练状态获取模型训练结果。
2.根据权利要求1所述的方法,其中,所述根据待训练模型的目标标识信息,构建与所述待训练模型对应的目标训练容器,包括:
获取固定配置参数,并根据所述目标标识信息以及标识信息与动态配置参数之间的关联关系,确定所述目标标识信息关联的目标动态配置参数;
根据所述固定配置参数和所述目标动态配置参数,构建与所述待训练模型对应的目标训练容器。
3.根据权利要求1所述的方法,其中,所述确定所述目标训练容器的训练状态,包括:
确定所述目标训练容器对应的容器构建时间,并根据所述目标标识信息确定所述目标训练容器对应的监测间隔时间;
根据所述容器构建时间以及所述监测间隔时间,确定所述目标训练容器对应的状态监测时间;
根据所述状态监测时间对所述目标训练容器进行训练状态监测,确定所述目标训练容器的训练状态。
4.根据权利要求3所述的方法,其中,所述根据所述状态监测时间对所述目标训练容器进行训练状态监测,包括:
根据所述状态监测时间生成定时器,并在所述定时器触发的情况下,对所述目标训练容器进行训练状态监测。
5.根据权利要求4所述的方法,其中,在所述目标训练容器的数量至少为两个时,所述根据所述状态监测时间生成定时器,并在所述定时器触发的情况下,对所述目标训练容器进行训练状态监测,包括:
确定各目标训练容器对应的状态监测时间分别与当前时间的时间差值,并根据所述时间差值对各所述状态监测时间进行排序;
根据目标状态监测时间生成定时器,并在所述定时器触发的情况下,对所述目标状态监测时间对应的目标训练容器进行训练状态监测;其中,所述目标状态监测时间为当前排序第一的状态监测时间。
6.根据权利要求1所述的方法,其中,所述在所述目标训练容器中对所述待训练模型进行训练,包括:
获取模型训练请求中包括的地址信息,并根据所述地址信息获取目标训练数据;
采用所述目标训练数据在所述目标训练容器中对所述待训练模型进行训练。
7.根据权利要求1所述的方法,其中,所述根据所述训练状态获取模型训练结果,包括:
在所述训练状态为训练完成状态的情况下,从预设存储路径中获取模型训练结果。
8.一种模型训练装置,包括:
训练容器构建模块,用于根据待训练模型的目标标识信息,构建与所述待训练模型对应的目标训练容器;
训练状态确定模块,用于在所述目标训练容器中对所述待训练模型进行训练,并确定所述目标训练容器的训练状态;
训练结果获取模块,用于根据所述训练状态获取模型训练结果。
9.根据权利要求8所述的装置,其中,所述训练容器构建模块,具体用于:
获取固定配置参数,并根据所述目标标识信息以及标识信息与动态配置参数之间的关联关系,确定所述目标标识信息关联的目标动态配置参数;
根据所述固定配置参数和所述目标动态配置参数,构建与所述待训练模型对应的目标训练容器。
10.根据权利要求8所述的装置,其中,所述训练状态确定模块,具体用于:
确定所述目标训练容器对应的容器构建时间,并根据所述目标标识信息确定所述目标训练容器对应的监测间隔时间;
根据所述容器构建时间以及所述监测间隔时间,确定所述目标训练容器对应的状态监测时间;
根据所述状态监测时间对所述目标训练容器进行训练状态监测,确定所述目标训练容器的训练状态。
11.根据权利要求10所述的装置,其中,所述训练状态确定模块,具体还用于:
根据所述状态监测时间生成定时器,并在所述定时器触发的情况下,对所述目标训练容器进行训练状态监测。
12.根据权利要求11所述的装置,其中,在所述目标训练容器的数量至少为两个时,所述训练状态确定模块,具体还用于:
确定各目标训练容器对应的状态监测时间分别与当前时间的时间差值,并根据所述时间差值对各所述状态监测时间进行排序;
根据目标状态监测时间生成定时器,并在所述定时器触发的情况下,对所述目标状态监测时间对应的目标训练容器进行训练状态监测;其中,所述目标状态监测时间为当前排序第一的状态监测时间。
13.根据权利要求8所述的装置,其中,所述训练状态确定模块,具体还用于:
获取模型训练请求中包括的地址信息,并根据所述地址信息获取目标训练数据;
采用所述目标训练数据在所述目标训练容器中对所述待训练模型进行训练。
14.根据权利要求8所述的装置,其中,所述训练结果获取模块,具体用于:
在所述训练状态为训练完成状态的情况下,从预设存储路径中获取模型训练结果。
15.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的方法。
16.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-7中任一项所述的方法。
17.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-7中任一项所述的方法。
CN202210156947.6A 2022-02-21 2022-02-21 模型训练方法、装置、电子设备和介质 Pending CN114549929A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210156947.6A CN114549929A (zh) 2022-02-21 2022-02-21 模型训练方法、装置、电子设备和介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210156947.6A CN114549929A (zh) 2022-02-21 2022-02-21 模型训练方法、装置、电子设备和介质

Publications (1)

Publication Number Publication Date
CN114549929A true CN114549929A (zh) 2022-05-27

Family

ID=81674937

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210156947.6A Pending CN114549929A (zh) 2022-02-21 2022-02-21 模型训练方法、装置、电子设备和介质

Country Status (1)

Country Link
CN (1) CN114549929A (zh)

Similar Documents

Publication Publication Date Title
CN113656179B (zh) 云计算资源的调度方法及装置、电子设备和存储介质
US10949218B2 (en) Generating an execution script for configuration of a system
CN113867916A (zh) 任务处理方法、装置及电子设备
CN114298322A (zh) 联邦学习方法和装置、***、电子设备、计算机可读介质
CN110874272A (zh) 资源配置方法及装置、计算机可读存储介质、电子设备
KR20210156243A (ko) 딥러닝 프레임워크의 훈련 방법, 장치 및 저장 매체
CN110781180A (zh) 一种数据筛选方法和数据筛选装置
CN114428674A (zh) 任务调度方法、装置、设备以及存储介质
CN114997414B (zh) 数据处理方法、装置、电子设备和存储介质
CN114091672B (zh) 分布式模型推理方法及装置、电子设备和介质
CN106933857B (zh) 一种数据仓库中任务的调度方法、装置
CN113032093B (zh) 分布式计算方法、装置及平台
CN114201294A (zh) 一种任务处理方法、装置、***、电子设备及存储介质
CN113760638A (zh) 一种基于kubernetes集群的日志服务方法和装置
CN114549929A (zh) 模型训练方法、装置、电子设备和介质
CN115391204A (zh) 自动驾驶服务的测试方法、装置、电子设备及存储介质
CN112667255B (zh) 更新方法、装置、电子设备及存储介质
CN115357493A (zh) 测试方法、装置、电子设备和存储介质
CN112905270A (zh) 工作流实现方法、装置、平台、电子设备以及存储介质
CN112631843A (zh) 设备测试方法及装置、电子设备、可读介质、产品
CN113722141A (zh) 数据任务的延迟原因确定方法、装置、电子设备及介质
CN113434432B (zh) 一种推荐平台的性能测试方法、装置、设备、及介质
CN114117317A (zh) 模型处理方法、装置、设备以及存储介质
CN116821217A (zh) 数据的分发转换方法、装置、设备及存储介质
CN115967638A (zh) 一种设备仿真模拟***、方法、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination