CN117668543A - 一种模型训练方法、装置、存储介质及电子设备 - Google Patents

一种模型训练方法、装置、存储介质及电子设备 Download PDF

Info

Publication number
CN117668543A
CN117668543A CN202311619315.XA CN202311619315A CN117668543A CN 117668543 A CN117668543 A CN 117668543A CN 202311619315 A CN202311619315 A CN 202311619315A CN 117668543 A CN117668543 A CN 117668543A
Authority
CN
China
Prior art keywords
model
samples
sample set
training
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311619315.XA
Other languages
English (en)
Inventor
请求不公布姓名
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Moore Threads Technology Co Ltd
Original Assignee
Moore Threads Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Moore Threads Technology Co Ltd filed Critical Moore Threads Technology Co Ltd
Priority to CN202311619315.XA priority Critical patent/CN117668543A/zh
Publication of CN117668543A publication Critical patent/CN117668543A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本说明书公开了一种模型训练方法、装置、存储介质及电子设备,通过无标注样本集和目标样本集对第一模型进行半监督训练,并在半监督训练完成后,通过主动学习算法,从无标注样本集中重新确定目标样本,加入目标样本集中,进而基于无标注样本集和重新确定出的目标样本集对第一模型继续进行半监督训练,直至达到预设的迭代终止条件。本说明书提供的该模型训练方法,可通过主动学习算法,确定出对模型训练效果提升较高的目标样本,来添加到目标样本集中,从而更好地指导该第一模型进行训练,在保证训练得到的第一模型的准确性的同时,兼顾了样本确定效率和模型训练效率。

Description

一种模型训练方法、装置、存储介质及电子设备
技术领域
本说明书涉及人工智能领域,尤其涉及一种模型训练方法、装置、存储介质及电子设备。
背景技术
目前,随着技术的发展和与业务融合的需要,人工智能技术在多个领域实现了愈发广泛的应用。其中,使用模型来执行业务是人工智能技术最为常见的应用场景之一。
一般的,使用模型来执行业务的前提为预先训练得到用于执行业务的模型。基于此,本说明书提供一种模型训练方法。
发明内容
本说明书提供一种模型训练方法、***、装置、存储介质及电子设备,以部分的解决现有技术存在的上述问题。
本说明书采用下述技术方案:
本说明书提供一种模型训练方法,包括:
根据目标样本集中的样本及其标注,以及无标注样本集中的样本,对待训练的第一模型进行半监督训练;
根据半监督训练后的第一模型,通过主动学习算法,在无标注样本集中选择指定数量的样本,作为目标样本添加至所述目标样本集中,并确定所述目标样本集中各样本的标注;
根据重新确定出的目标样本集中的样本和标注,以及所述无标注样本集中的样本,继续对所述第一模型进行半监督训练,直至达到预设的迭代终止条件。
可选地,所述方法还包括:
获取无标注样本集;
根据待训练的第一模型,从所述无标注样本集中选择目标样本,并添加至目标样本集;
获得所述目标样本的标注。
可选地,根据目标样本集中的样本及其标注,以及无标注样本集中的样本,对待训练的第一模型进行半监督训练,包括:
从所述无标注样本集中,确定指定数量的指定样本,所述指定样本为用于训练所述第一模型的无标注样本;
针对每个指定样本,根据该指定样本和所述目标样本集中各样本的相似度,以及所述目标样本集中各样本的标注,确定该指定样本的伪标注;
通过待训练的所述第一模型,确定所述目标样本集中各样本分别对应的输出结果,以及各指定样本分别对应的输出结果;
根据所述目标样本集中各样本的输出结果及其标注之间的差距,以及所述各指定样本的输出结果及其伪标注之间的差距,对所述第一模型进行训练。
可选地,根据所述目标样本集中各样本的输出结果及其标注之间的差距,以及所述各指定样本的输出结果及其伪标注之间的差距,对所述第一模型进行训练,包括:
针对所述目标样本集中的每个样本,根据该样本的样本特征和其他样本的样本特征之间的第一相关度、该样本的标注类型和所述第一模型对应的第一任务的任务类型之间的第二相关度中的至少一种,确定该样本和所述第一模型的相关度;
根据所述相关度,确定该样本的权重,所述权重和所述相关度正相关;
根据所述目标样本集中各样本的输出结果及其标注之间的差距,以及所述目标样本集中各样本分别对应的权重,确定第一损失;
根据所述各指定样本的输出结果及其伪标注之间的差距,确定第二损失;
根据所述第一损失和第二损失确定总损失,并以所述总损失最小化为训练目标对所述第一模型进行训练。
可选地,所述第一模型对应于第一任务;
所述方法还包括:
接收第二模型对应的训练请求,并确定所述第二模型对应的第二任务;
当所述第一任务和所述第二任务相关时,将所述第一模型的模型参数作为所述第二模型的初始模型参数;
确定用于训练所述第二模型的参考样本集中的样本及其标注,并通过所述参考样本集,对待训练的所述第二模型进行训练。
可选地,确定用于训练所述第二模型的参考样本集中的样本及其标注,并通过所述参考样本集,对待训练的所述第二模型进行训练,包括:
根据待训练的所述第二模型,通过主动学习算法,从所述无标注样本集中确定指定数量的样本,作为参考样本添加至参考样本集,以及从所述目标样本集中确定指定数量的目标样本,作为参考样本添加至所述参考样本集中;
确定所述参考样本集中各样本分别对应的标注;
根据所述参考样本集中的样本和标注,对所述待训练的第二模型进行训练。
本说明书提供一种模型训练***,所述***包括样本确定单元和训练单元;其中:
所述样本确定单元,用于确定无标注样本集、目标样本集以及所述目标样本集中各样本的标注;根据半监督训练后的第一模型,通过主动学习算法,重新确定目标样本集中的样本及其标注;
所述训练单元,用于根据所述无标注样本集中的样本,以及所述目标样本集中的样本及其标注,对所述第一模型进行半监督训练,直至满足迭代终止条件。
本说明书提供一种模型训练装置,包括:
第一确定模块,用于根据目标样本集中的样本及其标注,以及无标注样本集中的样本,对待训练的第一模型进行半监督训练;
训练模块,用于根据半监督训练后的第一模型,通过主动学习算法,在无标注样本集中选择指定数量的样本,作为目标样本添加至所述目标样本集中,并确定所述目标样本集中各样本的标注;
第二确定模块,用于根据重新确定出的目标样本集中的样本和标注,以及所述无标注样本集中的样本,继续对所述第一模型进行半监督训练,直至达到预设的迭代终止条件。
本说明书提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述模型训练方法。
本说明书提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述模型训练方法。
本说明书采用的上述至少一个技术方案能够达到以下有益效果:
通过无标注样本集和目标样本集对第一模型进行半监督训练,并在半监督训练完成后,通过主动学习算法,从无标注样本集中重新确定目标样本,加入目标样本集中,进而基于无标注样本集和重新确定出的目标样本集对第一模型继续进行半监督训练,直至达到预设的迭代终止条件。
本说明书提供的该模型训练方法,可通过主动学习算法,确定出对模型训练效果提升较高的目标样本,来添加到目标样本集中,从而更好地指导该第一模型进行训练,在保证训练得到的第一模型的准确性的同时,兼顾了样本确定效率和模型训练效率。
附图说明
此处所说明的附图用来提供对本说明书的进一步理解,构成本说明书的一部分,本说明书的示意性实施例及其说明用于解释本说明书,并不构成对本说明书的不当限定。在附图中:
图1为本说明书提供的模型训练方法的流程示意图;
图2为本说明书提供的模型训练方法的流程示意图;
图3为本说明书提供的模型训练***的结构示意图;
图4为本说明书提供的模型训练装置的结构示意图;
图5为本说明书提供的对应于图1的电子设备示意图。
具体实施方式
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本说明书保护的范围。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
一般的,目前在训练模型的过程中,通常需要先确定用于对模型进行训练的带标注的训练样本,并在将训练样本确定好后,根据确定出的训练样本对模型进行有监督训练,以此来完成模型训练过程中的一次迭代过程。
然而,在一次迭代过程中,只有在对所有的训练样本进行标注的情况下,才能基于标注好的训练样本对模型进行训练。可见,样本标注阶段和模型训练过程是完全分离的。
或者,目前还可预先确定用于对模型进行训练的样本集,并对该样本集中的所有样本进行标注,每次迭代过程中可从该样本集中确定指定数量的带标注的训练样本,在该迭代过程中根据确定出的指定数量的带标注的训练样本对该模型参数进行调整。
但是,在需要人工对训练样本进行标注的情况下,人工标注成本高、耗时长的特点,使得目前在训练模型过程中,一次迭代过程所需的时间较长。而模型训练需要多次迭代,这就导致目前的模型训练耗时较长,训练效率较低。
基于此,本说明书提供一种模型训练方法,通过无标注样本集和目标样本集对第一模型进行半监督训练,并在半监督训练完成后,通过主动学习算法,从无标注样本集中重新确定目标样本,加入目标样本集中,进而基于无标注样本集和重新确定出的目标样本集对第一模型继续进行半监督训练,直至达到预设的迭代终止条件。
于是,本说明书提供的该模型训练方法,可通过主动学习算法,确定出对模型训练效果提升较高的目标样本,来添加到目标样本集中,从而更好地指导该第一模型进行训练,在保证训练得到的第一模型的准确性的同时,兼顾了样本确定效率和模型训练效率。
图1为本说明书提供的模型训练方法的流程示意图,具体包括以下步骤:
S100:根据目标样本集中的样本及其标注,以及无标注样本集中的样本,对待训练的第一模型进行半监督训练。
本说明书提供一种模型训练方法,该模型训练方法的执行过程可由用于进行模型训练的服务器执行。
基于上述对本说明书中的模型训练方法的简要说明,可见,本说明书中的模型训练方法,可基于无标注样本集和目标样本集,对该第一模型进行半监督训练。其中,该第一模型可用于执行指定业务,该指定业务可以是风控业务,也可以是图像分割业务,还可以是分类业务,该指定业务对应的具体业务类型可根据需要进行设置,本说明书对此不做限制。
具体的,该服务器可从无标注样本集包含的各无标注的训练样本中,确定指定数量的指定样本。其中,该指定样本为用于对该第一模型进行训练的无标注样本,该无标注样本即为无标注的训练样本。该指定数量可为一个也可为多个,该指定数量对应的具体数值可根据需要进行设置,本说明书对此不做限制。
然后,该服务器可针对每个指定样本,确定该指定样本和该目标样本集中的其他样本之间的相似度,并根据确定出的各相似度和该目标样本集中其他样本分别对应的标注,确定该指定样本的伪标注。
于是,该服务器可将该目标样本集中的各样本和确定出的各指定样本分别作为输入,输入到该待训练的第一模型中,得到该第一模型输出的该目标样本集中各样本分别对应的输出结果,以及各指定样本分别对应的输出结果。
最后,该服务器可根据目标样本集中各样本的输出结果及其标注之间的差距,以及各指定结果的输出结果及其伪标注之间的差距,确定损失,并以损失最小化为优化目标,对该第一模型进行训练,
当然,本说明书中的第一模型,还可采用下述方式进行半监督训练:
首先,该服务器可通过有标注的目标样本,对该第一模型迭代指定次数,以对该第一模型进行预训练。
接着,该服务器可从无标注样本集包含的各无标注的训练样本中,确定指定样本。
其次,该服务器可将指定样本输入该第一模型中,得到该第一模型确定出的该指定样本的输出结果。
然后,该服务器可根据该指定样本的输出结果,确定指定样本的标注。其中,该服务器可直接采用将该指定样本的输出结果作为该指定样本的标注的方式
则该服务器可在后续迭代过程中,将指定样本和该目标样本输入第一模型中,得到第一模型输出的该指定样本的输出结果和该目标样本的输出结果,并根据该指定样本的输出结果以及标注,以及目标样本的输出结果以及标注,确定损失,并以该损失最小化为训练目标,对该第一模型进行训练。
另外,上述在确定指定样本的标注过程中,该服务器也可采用根据该指定样本对应的历史输出结果和当前输出结果确定该指定样本的标注的方式,确定该指定样本的标注。如,每隔100个迭代过程,根据指定样本在当前迭代过程中的输出结果和上次确定出的该指定样本的标注,重新确定该指定样本的标注,以根据重新确定出的标注对该第一模型进行训练。
需要说明的是,上述两种半监督训练过程仅为本说明书中使用目标样本及其标注和无标注训练样本中各样本对第一模型进行半监督训练过程的示例说明。该服务器具体采用何种半监督方式对该第一模型进行训练,可根据需要进行设置,本说明书对此不做限制。应当说明,本说明书中无论采用何种半监督方式对该第一模型进行训练,都不会影响本说明书独立权利要求中通过主动学习的方式来确定目标样本,并通过半监督方式对第一模型进行训练这一方案的创造性。
S102:根据半监督训练后的第一模型,通过主动学习算法,在无标注样本集中选择指定数量的样本,作为目标样本添加至所述目标样本集中,并确定所述目标样本集中各样本的标注,
在本说明书提供的一个或多个实施例中,如前所述的,在对第一模型进行半监督训练后,该服务器可通过主动学习的方式,重新从无标注样本集包含的各无标注的训练样本中,确定半监督训练后的第一模型对应的目标样本,以避免需要对所有训练样本进行标注来对模型进行训练的情况出现。
于是,该服务器可将该无标注样本集包含的各训练样本作为输入,输入半监督训练后的第一模型中,得到该第一模型输出的各无标注的训练样本分别对应的输出结果。
然后,该服务器可针对每个无标注的训练样本,根据该训练样本的输出结果,确定该训练样本的准确率。
以该第一模型对应于二分类任务为例,假设模型输出的结果为训练样本属于预设分类的概率,则可认为输出结果处于40%-60%的训练样本的准确率较低,输出结果处于低于40%或高于60%的范围的训练样本的准确率较高。
最后,该服务器可从各无标注的训练样本中,确定准确率低于预设的准确率预置的训练样本,作为重新确定出的目标样本,并将重新确定出的目标样本添加到目标样本集中,以及确定重新确定出的目标样本的标注。
需要说明的是,上述基于各无标注样本分别对应的输出结果来确定目标样本的方式,仅为主动学习对应的示例之一。该服务器还可采用确定针对无标注样本集中的每个样本,确定该样本与目标样本集中各样本之间的差距,再根据确定出的差距,从无标注样本集中,确定差距最大的样本,作为目标样本,加入到目标样本集中。该服务器还可采用反馈式采样、自定义规则、最小承诺、多样式采样等多种主动学习方式,来确定目标样本。具体该服务器采用何种主动学习方式确定目标样本,可根据需要进行设置,本说明书对此不做限制。
另外,该服务器在确定出目标样本后,可直接将确定出的目标样本加入到该目标样本集中,也可先将目标样本集中的样本清空,再将确定出的目标样本添加到目标样本集中。具体如何将目标样本添加至该目标样本集,可根据需要进行设置,本说明书对此不做限制。
S104:根据重新确定出的目标样本集中的样本和标注,以及所述无标注样本集中的样本,继续对所述第一模型进行半监督训练,直至达到预设的迭代终止条件。
在本说明书提供的一个或多个实施例中,在重新确定出目标样本集后,该服务器可基于重新确定出的目标样本集中的样本和无标注样本集中的样本,继续对该第一模型进行半监督训练。
具体的,该服务器可将该半监督训练后的第一模型,重新作为待训练的第一模型,并继续从无标注样本集包含的各无标注的训练样本中,重新确定指定样本。其中,该指定样本为用于对该第一模型进行训练的无标注的训练样本。
然后,该服务器可根据重新确定出的指定样本和该目标样本集中的其他样本之间的相似度,确定该指定样本的伪标注。
接着,将该目标样本集中的各样本和各指定样本分别作为输入,输入待训练的第一模型中,得到该第一模型输出的该目标样本集中各样本分别对应的输出结果,以及各指定样本分别对应的输出结果。
最后,该服务器可根据目标样本集中各样本的输出结果及其标注之间的差距,以及各指定样本的输出结果及其伪标注之间的差距,确定损失,并以损失最小化为优化目标,对该第一模型进行训练,
需要说明的是,上述步骤S100和步骤S104中对第一模型进行半监督训练的过程,仅为半监督训练方式中的示例之一,该服务器具体采用何种半监督方式对该第一模型进行训练,可根据需要进行设置,本说明书对此不做限制。
基于图1所示的模型训练方法,通过无标注样本集和目标样本集对第一模型进行半监督训练,并在半监督训练完成后,通过主动学习算法,从无标注样本集中重新确定目标样本,加入目标样本集中,进而基于无标注样本集和重新确定出的目标样本集对第一模型继续进行半监督训练,直至达到预设的迭代终止条件。本说明书提供的该模型训练方法,可通过主动学习算法,确定出对模型训练效果提升较高的目标样本,来添加到目标样本集中,从而更好地指导该第一模型进行训练,在保证训练得到的第一模型的准确性的同时,兼顾了样本确定效率和模型训练效率。本说明书中的模型训练方法,可首先确定无标注样本集和目标。
另外,对模型进行训练,首先得确定出用于对模型进行训练的训练样本。而如前所述的,本说明书中的该模型训练方法,可基于无标注样本集和目标样本集对第一模型进行半监督训练。于是,该服务器可首先确定出无标注样本集和目标样本集。
具体的,该模型训练方法训练的第一模型可有其对应的训练任务,则该服务器可根据该训练任务,确定无标注的样本集。
以该训练任务为图像分割任务为例,则该服务器可确定若干无标注的图像,作为无标注的训练样本,添加到无标注样本集中。以该训练任务为障碍物识别任务为例,在该服务器可确定若干无标注的障碍物图像,作为无标注的训练样本。
接着,该服务器中从确定出的无标注样本集中包含的各无标注的训练样本中,随机选择指定数量的训练样本,作为目标样本。其中,该指定数量可为一个,也可为多个,该指定数量的具体数量可根据需要进行设置,本说明书对此不做限制。
然后,该服务器可将确定出的目标样本添加到目标样本集中。
最后,该服务器可确定该目标样本的标注。
其中,该服务器可根据该目标样本的标识,向用于进行标注的设备发送标注请求,并接收标注设备根据所述标注请求返回的带标注的目标样本,以此来确定目标样本的标注。当然,该服务器也可确定该目标样本和目标样本集中其他样本之间的相似度,并根据确定出的各相似度和该目标样本集中其他样本的标注,确定该目标样本的标注。具体重新确定出的该目标样本的标注如何确定可根据需要进行设置,本说明书对此不做限制。
进一步的,在确定该目标样本的标注这一过程,还可采用人机交互的方式。
具体的,当服务器确定出用于训练第一模型的目标样本后,可向用户展示目标样本和提示信息。其中,该目标样本和提示信息展示在用于进行信息展示的屏幕面板中,该提示信息用于提示用户对该目标样本进行标注。
于是,该服务器可对用户操作进行监测,并当监测到用户对目标样本的标注操作后,确定该目标样本的标注。
更进一步的,对于模型来说,训练样本越集中,则训练得到的模型越能够学习到训练样本的共性。因此,在对第一模型进行训练时,该服务器还可基于各样本分别对应的相关度,对模型进行训练。
具体的,该服务器可针对该目标样本集中的每个样本,确定该样本的样本特征,并确定该样本的样本特征和其他样本特征之间的第一相关度。
然后,该服务器可根据该第一相关度,确定该样本和该第一模型的相关度,并根据该相关度,确定该样本的权重。其中,该权重和该相关度正相关。
最后,该服务器可针对该目标样本集中的每个样本,根据该样本的输出结果和该样本的标注之间的差距,以及该样本的权重,确定该样本为该第一模型带来的第一差距。则根据目标样本集中各样本分别对应的第一差距,该服务器可确定第一损失,并根据各指定样本的输出结果及其伪标注之间的差距,确定第二损失,则根据该第一损失和第二损失,该服务器可确定总损失,并以总损失最小化为训练目标对该第一模型进行训练。
其中,该第一相关度和权重正相关,也就是说,针对每个训练样本,该训练样本与其他训练样本之间越相关,则该训练样本与该第一模型越相关,为该训练样本分配越高的权重,该训练样本为损失的贡献越高。
另外,对于模型来说,在无标注样本集中的某些样本有其对应的标注,但这些标注与该第一模型可能并不匹配。以该第一模型为多分类任务为例,存在某些训练样本有标注,但该标注对应于二分类任务的情况,在此情况下,该服务器应当针对每个训练样本,根据该训练样本对应的标注和该第一模型的相关度,对该第一模型进行训练。
具体的,该服务器可针对每个训练样本,确定该训练样本的标注类型,以及确定该第一模型对应的第一任务的任务类型。
然后,该服务器可确定该第一任务的任务类型和标注类型之间的第二相关度。以该第一任务的任务类型为n分类任务,该标注类型对应于m分类任务为例,若n=m,则该第一任务的任务类型和该标注类型之间的第二相关度为100%,n与m之间差距越小,该第二相关度越高,n与m之间差距越大,该第二相关度越小。
然后,该服务器可根据该第二相关度,确定该样本和该第一模型的相关度,并根据该相关度,确定该样本的权重。其中,该权重和该相关度正相关。
最后,该服务器可针对该目标样本集中的每个样本,根据该样本的输出结果和该样本的标注之间的差距,以及该样本的权重,确定该样本为该第一模型带来的第一差距。则根据目标样本集中各样本分别对应的第一差距,该服务器可确定第一损失,并根据各指定样本的输出结果及其伪标注之间的差距,确定第二损失,则根据该第一损失和第二损失,该服务器可确定总损失,并以总损失最小化为训练目标对该第一模型进行训练。
其中,该第二相关度和权重正相关,也就是说,针对每个训练样本,该训练样本的标注类型和该第一模型对应的任务类型之间越相关,则该训练样本与该第一模型越相关,为该训练样本分配越高的权重,该训练样本为损失的贡献越高。
也就是说,针对所述目标样本集中的每个样本,该样本和所述第一模型的相关度根据该样本的样本特征和其他样本的样本特征之间的第一相关度、该样本的标注类型和所述第一模型对应的第一任务的任务类型之间的第二相关度中的至少一种确定。
进一步的,对于模型来说,不同模型对应于不完全相同的任务。因此,存在两个模型对应于较为接近的训练任务的情况。在此情况下,若需要训练的第二模型与已经训练完成的第一模型的训练任务较为接近,则可直接将该第一模型的模型参数作为该第二模型的初始模型参数,来对第二模型进行迁移训练,以此来提高模型训练效率。
具体的,该服务器可接收第二模型的训练请求。于是,该服务器可确定该训练请求中携带的第二任务,作为该第二模型对应的第二任务。
接着,该服务器可确定该第二任务和该第一模型对应的第一任务的关联度。其中,该服务器可对该第一任务和该第二任务分别进行特征提取,确定该第一任务对应的第一特征和该第二任务对应的第二特征,再将该第一特征和该第二特征之间的相似度,作为该第二任务和该第一任务的关联度的方式,确定该关联度。
当然,该服务器也可预先设置有匹配规则,如,若第一任务和第二任务对应于相同类型的任务(如,目标物分类任务、图像分割任务、语义分割任务等),则第一任务和第二任务的关联度高于70%等。则该服务器可根据第一任务和第二任务,以及预设的匹配规则,确定该第一任务和第二任务之间的关联度。具体该关联度如何确定可根据需要进行设置,本说明书对此不做限制。
然后,该服务器可根据该关联度判断该第一任务和第二任务是否相关。若相关,则该服务器可将训练完成的第一模型的模型参数,作为该第二任务对应的待训练的第二模型的初始模型参数。若不相关,该服务器可初始化该第二模型的模型参数。
最后,该服务器可确定用于训练该第二模型的带标注的参考样本,添加到参考样本集中,并根据参考样本集对该待训练的第二模型进行训练。其中,该参考样本可为该训练请求中携带的,也可为该服务器参照上述确定目标样本集的方式确定的。
当然,该服务器可直接根据参考样本集对该第二模型进行有监督训练,也可将该参考样本集作为目标样本集,将第二模型作为第一模型,直接按照步骤S100-S104的步骤,对该第二模型进行训练。
更进一步的,在第一模型和该第二模型相关的情况下,该服务器可直接从目标样本集中确定参考样本。
具体的,首先,该服务器可根据该第二模型,从无标注样本集中确定参考样本,并将参考样本添加到参考样本集中。
然后,该服务器可从目标样本集中确定特定数量的目标样本,添加到该参考样本集中。也就是说,该服务器可采用大量与该第二模型相关的训练样本以及一小部分与该第一模型相关的训练样本,对该第二模型进行训练。
最后,该服务器可确定该参考样本集中各样本分别对应的标注,并根据该参考样本集中的样本和标注,对该第二模型进行训练。其中,该第二模型的训练过程,可采用全监督、自监督、半监督等多种训练方式。
基于同样思路,本说明书提供一种模型训练方法的流程示意图,如图2所示。
图2为本说明书提供的模型训练方法的流程示意图。其中,该模型训练方法应用于训练***,该训练***包括样本确定单元和训练单元。该样本确定单元用于确定无标注样本集、目标样本集和目标样本集中各目标样本的标注。该训练单元用于根据该目标样本集中的样本和标注,以及该无标注样本集中的样本,对该第一模型进行半监督训练。
于是,该样本确定单元可从无标注样本集中确定目标样本,并确定目标样本的标注,得到带标注的训练样本。
该训练单元可根据确定出的带标注的训练样本和该无标注样本集中的样本,对该第一模型进行半监督训练。
则在该第一模型半监督训练完成后,该样本确定单元可根据半监督训练后的第一模型,从该无标注样本集中重新确定目标样本,并根据重新确定出的目标样本,确定带标注的目标样本。
则该训练单元可根据重新确定出的带标注的目标样本继续上述迭代过程。直到到达迭代终止条件为止。
基于同样思路,本说明书还提供一种模型训练***,如图3所示。
图3为本说明书提供的模型训练***的结构示意图,其中,该模型训练方***包括样本确定单元和训练单元。
该样本确定单元可从无标注样本集中确定目标样本,并确定目标样本的标注,得到带标注的目标样本,添加到目标样本集中。
该训练单元可将该目标样本集中的样本和该无标注样本集中的样本分别输入该第一模型中,根据该第一模型输出的该目标样本集中各样本的输出结果及其标注,以及该第一模型输出的该无标注样本集中各样本的输出结果及其伪标注,确定损失,并根据损失对该第一模型进行调参,得到半监督训练后的第一模型。
则在该第一模型半监督训练完成后,该样本确定单元可根据半监督训练后的第一模型,继续从该无标注样本集中重新确定目标样本,添加到目标样本集中。
则该训练单元可根据重新确定出的带标注的目标样本继续上述迭代过程。直到到达迭代终止条件为止。
该样本确定单元和该训练单元的具体执行步骤可参见上述步骤S100-S104的描述,本说明书对此不再赘述。
基于同样思路,本说明书还提供一种模型训练装置,如图4所示。
图4为本说明书提供的模型训练装置的结构示意图,其中:
第一确定模块200,用于根据目标样本集中的样本及其标注,以及无标注样本集中的样本,对待训练的第一模型进行半监督训练;
训练模块202,用于根据半监督训练后的第一模型,通过主动学习算法,在无标注样本集中选择指定数量的样本,作为目标样本添加至所述目标样本集中,并确定所述目标样本集中各样本的标注;
第二确定模块204,用于根据重新确定出的目标样本集中的样本和标注,以及所述无标注样本集中的样本,继续对所述第一模型进行半监督训练,直至达到预设的迭代终止条件。
可选地,第一确定模块200,用于获取无标注样本集,根据待训练的第一模型,从所述无标注样本集中选择目标样本,并添加至目标样本集,获得所述目标样本的标注。
可选地,训练模块202,用于从所述无标注样本集中,确定指定数量的指定样本,所述指定样本为用于训练所述第一模型的无标注样本,针对每个指定样本,根据该指定样本和所述目标样本集中各样本的相似度,以及所述目标样本集中各样本的标注,确定该指定样本的伪标注,通过待训练的所述第一模型,确定所述目标样本集中各样本分别对应的输出结果,以及各指定样本分别对应的输出结果,根据所述目标样本集中各样本的输出结果及其标注之间的差距,以及所述各指定样本的输出结果及其伪标注之间的差距,对所述第一模型进行训练。
可选地,训练模块202,用于针对所述目标样本集中的每个样本,根据该样本的样本特征和其他样本的样本特征之间的第一相关度、该样本的标注类型和所述第一模型对应的第一任务的任务类型之间的第二相关度中的至少一种,确定该样本和所述第一模型的相关度,根据所述相关度,确定该样本的权重,所述权重和所述相关度正相关,根据所述目标样本集中各样本的输出结果及其标注之间的差距,以及所述目标样本集中各样本分别对应的权重,确定第一损失,根据所述各指定样本的输出结果及其伪标注之间的差距,确定第二损失,根据所述第一损失和第二损失确定总损失,并以所述总损失最小化为训练目标对所述第一模型进行训练。
可选地,第一确定模块200,用于接收第二模型对应的训练请求,并确定所述第二模型对应的第二任务,当所述第一任务和所述第二任务相关时,将所述第一模型的模型参数作为所述第二模型的初始模型参数,确定用于训练所述第二模型的参考样本集中的样本及其标注;训练模块202,用于通过所述参考样本集,对待训练的所述第二模型进行训练,其中,所述第一模型对应于第一任务。
可选地,第一确定模块200,用于根据待训练的所述第二模型,通过主动学习算法,从所述无标注样本集中确定指定数量的样本,作为参考样本添加至参考样本集,以及从所述目标样本集中确定指定数量的目标样本,作为参考样本添加至所述参考样本集中,确定所述参考样本集中各样本分别对应的标注;训练模块202,用于根据所述参考样本集中的样本和标注,对所述待训练的第二模型进行训练。
本说明书还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,计算机程序可用于执行上述图1提供的模型训练方法。
本说明书还提供了图5所示的电子设备的示意结构图。如图5所述,在硬件层面,该电子设备包括处理器、内部总线、网络接口、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述图1所述的模型训练方法。当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字***“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的***、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书的实施例可提供为方法、***、或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书是参照根据本说明书实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程病灶检测设备的处理器以产生一个机器,使得通过计算机或其他可编程病灶检测设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程病灶检测设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程病灶检测设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、***或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于***实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。

Claims (10)

1.一种模型训练方法,其特征在于,所述方法包括:
根据目标样本集中的样本及其标注,以及无标注样本集中的样本,对待训练的第一模型进行半监督训练;
根据半监督训练后的第一模型,通过主动学习算法,在无标注样本集中选择指定数量的样本,作为目标样本添加至所述目标样本集中,并确定所述目标样本集中各样本的标注;
根据重新确定出的目标样本集中的样本和标注,以及所述无标注样本集中的样本,继续对所述第一模型进行半监督训练,直至达到预设的迭代终止条件。
2.如权利要求1所述的方法,其特征在于,所述方法还包括:
获取无标注样本集;
根据待训练的第一模型,从所述无标注样本集中选择目标样本,并添加至目标样本集;
获得所述目标样本的标注。
3.如权利要求1所述的方法,其特征在于,根据目标样本集中的样本及其标注,以及无标注样本集中的样本,对待训练的第一模型进行半监督训练,包括:
从所述无标注样本集中,确定指定数量的指定样本,所述指定样本为用于训练所述第一模型的无标注样本;
针对每个指定样本,根据该指定样本和所述目标样本集中各样本的相似度,以及所述目标样本集中各样本的标注,确定该指定样本的伪标注;
通过待训练的所述第一模型,确定所述目标样本集中各样本分别对应的输出结果,以及各指定样本分别对应的输出结果;
根据所述目标样本集中各样本的输出结果及其标注之间的差距,以及所述各指定样本的输出结果及其伪标注之间的差距,对所述第一模型进行训练。
4.如权利要求3所述的方法,其特征在于,根据所述目标样本集中各样本的输出结果及其标注之间的差距,以及所述各指定样本的输出结果及其伪标注之间的差距,对所述第一模型进行训练,包括:
针对所述目标样本集中的每个样本,根据该样本的样本特征和其他样本的样本特征之间的第一相关度、该样本的标注类型和所述第一模型对应的第一任务的任务类型之间的第二相关度中的至少一种,确定该样本和所述第一模型的相关度;
根据所述相关度,确定该样本的权重,所述权重和所述相关度正相关;
根据所述目标样本集中各样本的输出结果及其标注之间的差距,以及所述目标样本集中各样本分别对应的权重,确定第一损失;
根据所述各指定样本的输出结果及其伪标注之间的差距,确定第二损失;
根据所述第一损失和第二损失确定总损失,并以所述总损失最小化为训练目标对所述第一模型进行训练。
5.如权利要求1所述的方法,其特征在于,所述第一模型对应于第一任务;
所述方法还包括:
接收第二模型对应的训练请求,并确定所述第二模型对应的第二任务;
当所述第一任务和所述第二任务相关时,将所述第一模型的模型参数作为所述第二模型的初始模型参数;
确定用于训练所述第二模型的参考样本集中的样本及其标注,并通过所述参考样本集,对待训练的所述第二模型进行训练。
6.如权利要求5所述的方法,其特征在于,确定用于训练所述第二模型的参考样本集中的样本及其标注,并通过所述参考样本集,对待训练的所述第二模型进行训练,包括:
根据待训练的所述第二模型,通过主动学习算法,从所述无标注样本集中确定指定数量的样本,作为参考样本添加至参考样本集,以及从所述目标样本集中确定指定数量的目标样本,作为参考样本添加至所述参考样本集中;
确定所述参考样本集中各样本分别对应的标注;
根据所述参考样本集中的样本和标注,对所述待训练的第二模型进行训练。
7.一种模型训练***,其特征在于,所述***包括样本确定单元和训练单元;其中:
所述样本确定单元,用于确定无标注样本集、目标样本集以及所述目标样本集中各样本的标注;根据半监督训练后的第一模型,通过主动学习算法,重新确定目标样本集中的样本及其标注;
所述训练单元,用于根据所述无标注样本集中的样本,以及所述目标样本集中的样本及其标注,对所述第一模型进行半监督训练,直至满足迭代终止条件。
8.一种模型训练装置,其特征在于,所述装置包括:
第一确定模块,用于根据目标样本集中的样本及其标注,以及无标注样本集中的样本,对待训练的第一模型进行半监督训练;
训练模块,用于根据半监督训练后的第一模型,通过主动学习算法,在无标注样本集中选择指定数量的样本,作为目标样本添加至所述目标样本集中,并确定所述目标样本集中各样本的标注;
第二确定模块,用于根据重新确定出的目标样本集中的样本和标注,以及所述无标注样本集中的样本,继续对所述第一模型进行半监督训练,直至达到预设的迭代终止条件。
9.一种计算机可读存储介质,所述存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现上述权利要求1~6任一项所述的方法。
10.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现上述权利要求1~6任一项所述的方法。
CN202311619315.XA 2023-11-29 2023-11-29 一种模型训练方法、装置、存储介质及电子设备 Pending CN117668543A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311619315.XA CN117668543A (zh) 2023-11-29 2023-11-29 一种模型训练方法、装置、存储介质及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311619315.XA CN117668543A (zh) 2023-11-29 2023-11-29 一种模型训练方法、装置、存储介质及电子设备

Publications (1)

Publication Number Publication Date
CN117668543A true CN117668543A (zh) 2024-03-08

Family

ID=90078237

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311619315.XA Pending CN117668543A (zh) 2023-11-29 2023-11-29 一种模型训练方法、装置、存储介质及电子设备

Country Status (1)

Country Link
CN (1) CN117668543A (zh)

Similar Documents

Publication Publication Date Title
CN109034183B (zh) 一种目标检测方法、装置及设备
CN113221555B (zh) 一种基于多任务模型的关键词识别方法、装置及设备
CN116663618B (zh) 一种算子优化方法、装置、存储介质及电子设备
CN115618964B (zh) 一种模型训练的方法、装置、存储介质及电子设备
CN112308113A (zh) 一种基于半监督的目标识别方法、设备及介质
CN116188971A (zh) 一种机器人物体识别方法、装置及存储介质
CN111222315B (zh) 一种电影剧本情节预测方法
CN116502633A (zh) 一种业务执行的方法、装置、存储介质及电子设备
CN116127305A (zh) 一种模型训练的方法、装置、存储介质及电子设备
CN111652286A (zh) 一种基于图嵌入的物体识别方法、设备及介质
CN117409466B (zh) 一种基于多标签控制的三维动态表情生成方法及装置
CN116757278B (zh) 一种预测模型的训练方法、装置、存储介质及电子设备
CN117828360A (zh) 一种模型训练、代码生成方法、装置、存储介质及设备
CN116402113B (zh) 一种任务执行的方法、装置、存储介质及电子设备
CN116151355B (zh) 一种模型训练和业务执行的方法、装置、介质及设备
CN116822606A (zh) 一种异常检测模型的训练方法、装置、设备及存储介质
CN116342888A (zh) 一种基于稀疏标注训练分割模型的方法及装置
CN117668543A (zh) 一种模型训练方法、装置、存储介质及电子设备
CN111598092A (zh) 图像中目标区域的确定方法、目标识别方法及装置
CN116434787B (zh) 一种语音情感识别的方法、装置、存储介质及电子设备
CN116821193B (zh) 一种基于代理模型近似处理的推理查询优化方法及装置
CN112115952B (zh) 一种基于全卷积神经网络的图像分类方法、设备及介质
CN115017915B (zh) 一种模型训练、任务执行的方法及装置
CN116186272B (zh) 一种联合训练方法、装置、存储介质及电子设备
CN115862675B (zh) 一种情感识别方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination