CN116432780A - 一种模型增量学习方法、装置、设备及存储介质 - Google Patents
一种模型增量学习方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN116432780A CN116432780A CN202310399396.0A CN202310399396A CN116432780A CN 116432780 A CN116432780 A CN 116432780A CN 202310399396 A CN202310399396 A CN 202310399396A CN 116432780 A CN116432780 A CN 116432780A
- Authority
- CN
- China
- Prior art keywords
- model
- preset
- training
- data set
- trained
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 238000012549 training Methods 0.000 claims abstract description 217
- 230000010354 integration Effects 0.000 claims abstract description 33
- 238000004590 computer program Methods 0.000 claims description 14
- 230000009191 jumping Effects 0.000 claims description 9
- 230000000694 effects Effects 0.000 abstract description 10
- 238000010586 diagram Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 9
- 238000002372 labelling Methods 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000003064 k means clustering Methods 0.000 description 2
- 238000012163 sequencing technique Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013506 data mapping Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000013585 weight reducing agent Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请公开了一种模型增量学***滑稳定。
Description
技术领域
本发明涉及模型训练技术领域,特别涉及一种模型增量学习方法、装置、设备及存储介质。
背景技术
随着人工智能的不断普及,机器学习中的模型训练已经广泛运用至各行各业,然而在模型训练的过程中,可能会出现概念漂移导致模型检测性能下降的问题。概念漂移分为真概念漂移和假概念漂移。假概念漂移为一次训练的数据无法涵盖到数据总体,新的数据来临需要对模型进行重新训练。真概念漂移为已有的训练数据的映射经过一段时间后发生了改变,从y=f(x)变为y=g(x),从而导致原有模型需要重新训练。参见图1所示,存在数据集D1,训练得到模型m1。经过一定时间,出现了数据D2。D2中的C代表新的数据出现,则模型m1无法对C进行预测;数据D1和D2的交叉部分A,如果存在数据映射函数发生变化,由y=f(x)变为y=g(x),则模型m1同样无法对A正确预测。
现有技术存在缓解概念漂移的方法,例如使用G-mean进行动态加权、使用K-means聚类算法确定数据之间的相似度以进行重训练等,前述方法虽然可以在一定程度上缓解冲突数据对模型的影响,但需要人工标注数据并且产生的虚拟数据会对模型产生负面影响陷入局部问题等,因此解决概念漂移问题,学习到数据C中的新知识和解决存在B中的冲突数据仍是现阶段需要关注的问题。
发明内容
有鉴于此,本发明的目的在于提供一种模型增量学***滑稳定。其具体方案如下:
第一方面,本申请公开了一种模型增量学习方法,包括:
获取若干历史预测结果作为当前待训练数据集,并基于预设数据更新规则对所述当前待训练数据集进行数据更新操作,以得到相应的更新后待训练数据集;
利用所述更新后待训练数据集进行模型训练以得到相应的当前训练模型,并基于预设模型添加规则将所述当前训练模型放入预设集成模型以更新所述预设集成模型;所述预设集成模型用于存储全部参与类别预测的所述训练模型;
对更新后的所述预设集成模型中每一所述训练模型进行权重更新操作以对预设权重调整器进行更新,利用更新后的所述预设集成模型和更新后的所述权重调整器进行类别预测操作以得到若干预测结果,并跳转至所述获取若干历史预测结果作为当前待训练数据集的步骤以进行下一轮模型迭代学习。
可选的,所述获取若干历史预测结果作为当前待训练数据集之前,还包括:
利用初始待训练数据集进行模型训练得到第一训练模型,并创建所述预设集成模型以将所述第一训练模型放入所述预设集成模型中。
可选的,所述获取若干历史预测结果作为当前待训练数据集之后,还包括:
计算本轮模型迭代学习的所述当前待训练数据集与上一轮的待训练数据集之间的相似度,并判断所述相似度是否小于预设相似度阈值;
若否,则确定所述当前待训练数据集中的保留数据,并直接利用所述预设集成模型和所述权重调整器进行类别预测操作以得到若干预测结果;所述保留数据用于在下一轮模型迭代学习时加入至下一轮的待训练数据集中。
可选的,所述基于预设数据更新规则对所述当前待训练数据集进行数据更新操作,以得到相应的更新后待训练数据集,包括:
若所述相似度小于所述预设相似度阈值,则基于预设数据更新规则对本轮模型迭代学习的所述当前待训练数据集进行数据更新操作以得到相应的更新后待训练数据集。
可选的,所述基于预设模型添加规则将所述当前训练模型放入预设集成模型以更新所述预设集成模型中,包括:
判断所述预设集成模型中全部所述训练模型的数量是否达到预设数量阈值;
若否,则直接将所述当前训练模型放入所述预设集成模型以更新所述预设集成模型;
若是,则利用预设模型剔除规则从所述预设集成模型中剔除一个训练模型,并将所述当前训练模型放入所述预设集成模型以更新所述预设集成模型。
可选的,所述对更新后的所述预设集成模型中每一训练模型进行权重更新操作以对预设权重调整器进行更新,包括:
基于预设数据选取规则从历史数据集中选取待预测数据集,并将所述待预测数据集输入至所述预设集成模型的每一所述训练模型中,以得到每一所述训练模型对应的第一预测值;
将每一所述训练模型的所述第一预测值拼接为数组并输入至所述预设权重调整器进行训练得到每一所述训练模型对应的权重,以对所述预设权重调整器进行更新。
可选的,所述利用更新后的所述预设集成模型和更新后的所述权重调整器进行类别预测操作以得到若干预测结果,包括:
获取预设数据集并将所述预设数据集输入至更新后的所述预设集成模型的每一所述训练模型中,以得到每一所述训练模型对应的第二预测值;
将每一所述训练模型对应的所述第二预测值拼接为数组并输入至更新后的所述权重调整器中进行类别预测操作,以得到若干预测结果。
第二方面,本申请公开了一种模型增量学习装置,包括:
数据更新模块,用于获取若干历史预测结果作为当前待训练数据集,并基于预设数据更新规则对所述当前待训练数据集进行数据更新操作,以得到相应的更新后待训练数据集;
模型更新模块,用于利用所述更新后待训练数据集进行模型训练以得到相应的当前训练模型,并基于预设模型添加规则将所述当前训练模型放入预设集成模型以更新所述预设集成模型;所述预设集成模型用于存储全部参与类别预测的所述训练模型;
权重更新模块,用于对更新后的所述预设集成模型中每一所述训练模型进行权重更新操作以对预设权重调整器进行更新;
预测结果确定模块,用于利用更新后的所述预设集成模型和更新后的所述权重调整器进行类别预测操作以得到若干预测结果,并跳转至所述获取若干历史预测结果作为当前待训练数据集的步骤以进行下一轮模型迭代学习。
第三方面,本申请公开了一种电子设备,包括:
存储器,用于保存计算机程序;
处理器,用于执行所述计算机程序以实现前述的模型增量学习方法。
第四方面,本申请公开了一种计算机可读存储介质,用于保存计算机程序,所述计算机程序被处理器执行时实现前述的模型增量学习方法。
可见,本申请通过获取若干历史预测结果作为当前待训练数据集,并基于预设数据更新规则对所述当前待训练数据集进行数据更新操作,以得到相应的更新后待训练数据集;利用所述更新后待训练数据集进行模型训练以得到相应的当前训练模型,并基于预设模型添加规则将所述当前训练模型放入预设集成模型以更新所述预设集成模型;所述预设集成模型用于存储全部参与类别预测的所述训练模型;对更新后的所述预设集成模型中每一所述训练模型进行权重更新操作以对预设权重调整器进行更新,利用更新后的所述预设集成模型和更新后的所述权重调整器进行类别预测操作以得到若干预测结果,并跳转至所述获取若干历史预测结果作为当前待训练数据集的步骤以进行下一轮模型迭代学***稳。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请公开的一种由于概念漂移产生的数据关系示意图;
图2为本申请公开的一种模型增量学习方法流程图;
图3为本申请公开的一种模型增量学习方法的整体流程图;
图4为本申请公开的一种具体的模型增量学习方法流程图;
图5为本申请公开的一种数据逼近式更新示意图;
图6为本申请公开的一种第一模型添加方法示意图;
图7为本申请公开的一种第二模型添加方法示意图;
图8为本申请公开的一种模型权重更新流程示意图;
图9为本申请公开的一种模型的类别预测流程示意图;
图10为本申请公开的一种模型增量学习装置结构示意图;
图11为本申请公开的一种电子设备结构图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
现有技术存在缓解概念漂移的方法,例如使用G-mean进行动态加权、使用K-means聚类算法确定数据之间的相似度以进行重训练等,前述方法虽然可以在一定程度上缓解冲突数据对模型的影响,但需要人工标注数据并且产生的虚拟数据会对模型产生负面影响陷入局部问题等,为解决概念漂移问题,学习到数据C中的新知识和解决存在B中的冲突数据,本申请公开了一种模型增量学习方法。
参见图1所示,本申请实施例公开了一种模型增量学习方法,包括:
步骤S11:获取若干历史预测结果作为当前待训练数据集,并基于预设数据更新规则对所述当前待训练数据集进行数据更新操作,以得到相应的更新后待训练数据集。
本实施例中,首先在之前模型的类别预测过程中,会产生若干历史预测结果,获取并利用若干所述历史预测结果作为本轮迭代训练的当前待训练数据集,接着基于预设数据更新规则对所述当前待训练数据集进行数据更新操作,以得到相应的更新后待训练数据集。这样一来,通过对数据进行更新操作可以将引起概念偏移的有效数据提取出来,以减少模型训练次数和重复数据对模型训练的参与和影响。
步骤S12:利用所述更新后待训练数据集进行模型训练以得到相应的当前训练模型,并基于预设模型添加规则将所述当前训练模型放入预设集成模型以更新所述预设集成模型;所述预设集成模型用于存储全部参与类别预测的所述训练模型。
本实施例中,数据更新操作完成后,利用所述更新后待训练数据集进行模型训练操作,以得到本轮迭代训练相应的当前训练模型,然后基于预设模型添加规则将所述当前训练模型放入预设集成模型中,以更新所述预设集成模型,其中所述预设集成模型中存储了全部参与类别预测的所述训练模型。这样一来,利用更新后的数据对模型进行训练,可以利用有效数据快速构建新的训练模型。
步骤S13:对更新后的所述预设集成模型中每一所述训练模型进行权重更新操作以对预设权重调整器进行更新,利用更新后的所述预设集成模型和更新后的所述权重调整器进行类别预测操作以得到若干预测结果,并跳转至所述获取若干历史预测结果作为当前待训练数据集的步骤以进行下一轮模型迭代学习。
本实施例中,将所述当前训练模型添加至所述预设集成模型中后,对更新后的所述预设集成模型中的每一个所述训练模型进行权重更新操作,以对预设权重调整器进行更新,利用更新后的所述预设集成模型和更新后的所述权重调整器进行类别预测操作,以得到若干预测结果,然后跳转至步骤S11以进行下一轮模型迭代训练,并在下一轮训练中利用本轮得到的预测结果进行模型迭代学习,需要指出的是,所述预设权重调整器可以看作是一个线性神经网络,通过所述预设集成模型得到的预测值包括每一个训练模型输出的若干按类别的概率预测值,例如若所述预设集成模型中有n个训练模型,每个训练模型输出的类别有3个,则通过预设集成模型输出的预测值有3n个,即每一个类别都有n个概率预测值,通过预设权重调整器将每一个类别的n个概率预测值进行线性组合,使得每一个类别最终都有一个相应的概率预测值,即最终得到3个概率预测值,以便于用户利用数据进行预测等。这样一来,通过利用所述预设集成模型中的已有模型强化有效模型对数据的预测,可以在一定程度上缓解甚至解决概念漂移问题造成的模型检测性能下降等问题。
参见图3所示,为本申请提出的模型增量学习的整体流程图,首先为模型初始训练,即在首次进行模型训练时需要先利用预设初始数据进行训练得到初始模型,以便后续不断对模型进行迭代增量学习,接着当获取到新的待训练数据时判断是否需要对数据进行更新,若是则对数据进行更新操作后再进行模型更新和权重调整操作,若无需对数据进行更新操作,则可以直接利用之前迭代训练生成的模型进行模型更新和权重调整操作,最后利用本轮训练得到的更新后模型进行类别预测操作,至此本轮模型迭代训练结束。
可见,本申请通过获取若干历史预测结果作为当前待训练数据集,并基于预设数据更新规则对所述当前待训练数据集进行数据更新操作,以得到相应的更新后待训练数据集;利用所述更新后待训练数据集进行模型训练以得到相应的当前训练模型,并基于预设模型添加规则将所述当前训练模型放入预设集成模型以更新所述预设集成模型;所述预设集成模型用于存储全部参与类别预测的所述训练模型;对更新后的所述预设集成模型中每一所述训练模型进行权重更新操作以对预设权重调整器进行更新,利用更新后的所述预设集成模型和更新后的所述权重调整器进行类别预测操作以得到若干预测结果,并跳转至所述获取若干历史预测结果作为当前待训练数据集的步骤以进行下一轮模型迭代学***稳。
基于上述实施例可知,本申请提出的模型增量学习方法中包括数据更新、模型更新、权重调整和类别预测等操作,接下来将对一轮模型迭代训练的过程进行详细的描述。参见图4所示,本申请实施例公开了一种具体的模型增量学习方法,包括:
步骤S201:利用初始待训练数据集进行模型训练得到第一训练模型,并创建预设集成模型以将所述第一训练模型放入所述预设集成模型中。
本实施例中,在首次进行模型训练时,由于此时还没有任何训练模型存在,因此需要利用初始待训练数据集进行模型训练得到第一训练模型m1,并创建预设集成模型M以将所述第一训练模型放入所述预设集成模型中,此时所述预设集成模型为M←{m1}。其中所述初始待训练数据集可以为用户预先获取到的需要进行训练的数据集,在此将不做具体限制。这样一来,在首次进行模型训练时创建所述预设集成模型和第一训练模型,以便后续可以直接利用第一训练模型进行类别预测得到的预测结果进行增量学习。
步骤S202:获取若干历史预测结果作为当前待训练数据集,计算本轮模型迭代学习的所述当前待训练数据集与上一轮的待训练数据集之间的相似度,并判断所述相似度是否小于预设相似度阈值。
本实施例中,利用上一轮模型迭代训练得到的训练模型进行类别预测得到若干历史预测结果后,在本轮模型迭代训练中获取若干所述历史预测结果作为当前待训练数据集Di,其中i为模型更新的次数,例如若当前为第二轮模型迭代,则此时的当前待训练数据为D2,以此类推。接着将当前待训练数据集Di中的数据标签确定为1,将上一轮的待训练数据集Di-1中的数据标签确定为0,将标签确定好的数据集Di和数据集Di-1汇总得到新的数据集Dm,使用所述数据集Dm进行模型训练以得到模型Mc后,利用所述模型Mc计算所述数据集Dm的AUC(Area Under Curve,即ROC曲线下与坐标轴围成的面积)指标,然后利用所述AUC指标计算本轮模型迭代学习的所述当前训练数据集Di与上一轮的待训练数据集Di-1之间的相似度需要说明的是,得到所述新的数据集Dm和所述模型Mc仅仅为了计算相似度,对所述预设集成模型无关,所述模型Mc并不会放入所述预设集成模型中,当相似度计算完毕,所述新的数据集Dm和所述模型Mc即没有任何使用价值。所述相似度/>的计算公式如下所示:
S=max(1-AUC,AUC)
其中,S为中间参数,max为取最大值,AUC为上述AUC指标,为所述当前训练数据集Di与上一轮的待训练数据集Di-1之间的相似度。利用上述公式确定出所述相似度/>后,判断所述相似度/>是否小于预设相似度阈值thresh,在具体的实施例中,可以将所述预设相似度阈值thresh设置为0.8,也可以根据模型情况自定调整所述预设相似度阈值,在此不做具体限定。
步骤S203:若否,则确定所述当前待训练数据集中的保留数据,并直接利用所述预设集成模型和所述权重调整器进行类别预测操作以得到若干预测结果;所述保留数据用于在下一轮模型迭代学习时加入至下一轮的待训练数据集中。
本实施例中,若所述相似度大于或等于所述预设相似度阈值thresh,则说明所述当前待训练数据集Di与上一轮的待训练数据集Di-1中的数据十分相似,数据偏移量较少,模型的类别预测效果还较为稳定,无需对模型进行迭代更新,需要确定所述当前待训练数据集Di的保留数据Di-s,其中所述保留数据Di-s的计算公式如下所示:
需要指出的是,所述保留数据Di-s中的s与上述的中间参数S无关,仅为一个指代保留数据的参数。参见图5所述,为对所述当前待训练数据集Di与上一轮的待训练数据集Di-1进行数据逼近式更新的示意图。本申请的数据更新过程使用数据逼近算法进行更新,需要输入携带有预测概率的数据集合Di和Di-1,最终输出所述当前训练数据集Di与上一轮的待训练数据集Di-1相交部分的数据A,由属于所述当前训练数据集Di的Ai和属于上一轮的待训练数据集Di-1的Ai-1组成;所述当前训练数据集Di中独立部分的数据B,上一轮的待训练数据集Di-1中独立部分的数据C。在数据逼近式更新的过程中,会产生许多数据,包括数据集Di-1中真实标签为0预测为1的样本集合N1;数据Di中真实标签为1预测为0的样本集合N2;对Di-1中真实标签为0预测为0的样本概率p进行降序排序集合V1;对Di中真实标签为1预测为1的样本概率p进行降序排序集合V2;数据V1中TOP-Size(N1)数据集合B,其中Size(N1)为集合N1样本数量;数据V2中TOP-Size(N2)数据集合C,其中Size(N2)为集合N2样本数量;N1∪(V1-B),即数据A中属于Di-1的部分Ai-1;N2∪(V2-C),即数据A中属于Di的部分Ai;Di与Di-1相交部分的数据A,即Ai-1∪Ai。
本实施例中,计算确定所述保留数据Di-s后,由于无需进行后续的数据更新、模型更新和权重更新操作,可以直接利用上一轮模型迭代学习得到的所述预设集成模型和所述权重调整器进行类别预测操作得到若干预测结果,并跳转至步骤S202以进行下一轮模型迭代学习,需要说明的是,在本轮模型迭代学习中得到的所述保留数据Di-s将在下一轮模型迭代学习时加入至下一轮的待训练数据集中,这样一来,可以避免使用重复数据不断对模型进行训练,最大化的利用有效数据对模型进行训练,减少模型迭代次数提高模型增量学习的效率。
步骤S204:若所述相似度小于所述预设相似度阈值,则基于预设数据更新规则对本轮模型迭代学习的所述当前待训练数据集进行数据更新操作以得到相应的更新后待训练数据集。
本实施例中,若所述相似度小于所述预设相似度阈值thresh,则基于预设数据更新规则对本轮模型迭代学习的所述当前待训练数据集Di进行数据更新操作以得到相应的更新后待训练数据集Di-u。其中,确定更新后待训练数据集Di-u的计算公式如下所示:
步骤S205:利用所述更新后待训练数据集进行模型训练以得到相应的当前训练模型,并判断所述预设集成模型中全部所述训练模型的数量是否达到预设数量阈值。
本实施例中,数据更新操作完成后,利用所述更新后待训练数据集Di-u进行模型训练,以得到本轮模型迭代学习的当前训练模型,然后判断所述预设集成模型M中的全部所述训练模型的数量是否达到预设数量阈值W,其中所述预设数量阈值即为时间窗口W,可以根据训练模型的具体需求进行设定,在此不做具体限制。
步骤S206:若否,则直接将所述当前训练模型放入所述预设集成模型以更新所述预设集成模型。
本实施例中,若所述预设集成模型M中的全部所述训练模型的数量未达到预设数量阈值W,即训练模型数量小于所述时间窗口W,则可以直接将所述当前训练模型放入所述预设集成模型M中,以更新所述预设集成模型。参见图6所示,实线框内的m1至mi+1组成所述预设集成模型M,虚线框为设定的时间窗口大小W,当所述预设集成模型M中的模型数量未超过所述时间窗口大小时,则直接将新增模型mi+1放入至所述预设集成模型M中。
步骤S207:若是,则利用预设模型剔除规则从所述预设集成模型中剔除一个训练模型,并将所述当前训练模型放入所述预设集成模型以更新所述预设集成模型。
本实施例中,若所述预设集成模型M中的全部所述训练模型的数量达到预设数量阈值W,则保留最新的K个训练模型,然后从其余的训练模型中随机选择一个训练模型进行剔除,并将所述当前训练模型放入至所述预设集成模型M中以更新所述预设集成模型M,其中参数K可以由用户根据模型自行设置,在此不做具体限定。参见图7所示,此时实线框内即预设集成模型内的训练模型数量已经达到预设数量阈值,则当新模型mi+1到来时,保留mi-k至mi的训练模型,从m1至mi-k-1中随机筛选一个训练模型进行剔除,并将新模型mi+1添加至所述预设集成模型中。
步骤S208:基于预设数据选取规则从历史数据集中选取待预测数据集,并将所述待预测数据集输入至所述预设集成模型的每一所述训练模型中,以得到每一所述训练模型对应的第一预测值。
本实施例中,参见图8所示,对所述预设集成模型M更新完成后,从最新的K个训练模型中对应的训练数据集Di-k至Di组成的历史数据集中,随机选取20%的数据作为待预测数据集Df,然后将所述待预测数据集Df输入至所述预设集成模型M的每一所述训练模型中进行类别预测,以得到每一所述训练模型输出的每个类别的第一预测值。
步骤S209:将每一所述训练模型的所述第一预测值拼接为数组并输入至所述预设权重调整器进行训练得到每一所述训练模型对应的权重,以对所述预设权重调整器进行更新。
本实施例中,将每一所述训练模型输出的所述第一预测值拼接为一维数组并输入至所述预设权重调整器中进行简单的训练得到每一个所述训练模型对应的权重,以对所述预设权重调整器进行更新。可以理解的是,在上一轮模型迭代过程中,所述预设集成模型中的每一个训练模型通过权重更新操作都有一个相应的权重,当本轮模型迭代生成了所述当前训练模型并放置于所述预设集成模型中后,由于所述当前训练模型为新添加的模型,还不存在对应的权重,因此需要对所述预设权重调整器进行更新,得到所述当前训练模型的权重,并更新其他训练模型对应的权重。
步骤S210:获取预设数据集并将所述预设数据集输入至更新后的所述预设集成模型的每一所述训练模型中,以得到每一所述训练模型对应的第二预测值。
本实施例中,参见图9所示,当数据更新、模型更新和权重更新操作全部完成后,获取预设数据集并将所述预设数据集输入至更新后的所述预设集成模型M的每一所述训练模型中,以得到每一所述训练模型输出的每个类别的第二预测值,其中所述预设数据集可以为新数据即在之前的模型训练中没有进行预测或训练的数据集,也可以为之前进行预测或训练的数据集,在此将不做具体限定。
步骤S211:将每一所述训练模型对应的所述第二预测值拼接为数组并输入至更新后的所述权重调整器中进行类别预测操作,以得到若干预测结果,并跳转至所述获取若干历史预测结果作为当前待训练数据集的步骤以进行下一轮模型迭代学习。
本实施例中,将每一所述训练模型对应的所述第二预测值拼接为一维数组并输入至更新后的所述权重调整其中进行类别预测操作,以得到若干预测结果即样本类别,当预测结果积累到一定程度时,跳转至步骤S202,以利用本轮产生的预测结果作为下一轮的待训练数据集进行下一轮模型迭代学习。
可见,本申请通过生成初始模型开启模型迭代学***滑性,达到较好的预测效果。
参考图10所述,本申请实施例还相应公开了一种模型增量学习装置,包括:
数据更新模块11,用于获取若干历史预测结果作为当前待训练数据集,并基于预设数据更新规则对所述当前待训练数据集进行数据更新操作,以得到相应的更新后待训练数据集;
模型更新模块12,用于利用所述更新后待训练数据集进行模型训练以得到相应的当前训练模型,并基于预设模型添加规则将所述当前训练模型放入预设集成模型以更新所述预设集成模型;所述预设集成模型用于存储全部参与类别预测的所述训练模型;
权重更新模块13,用于对更新后的所述预设集成模型中每一所述训练模型进行权重更新操作以对预设权重调整器进行更新;
预测结果确定模块14,用于利用更新后的所述预设集成模型和更新后的所述权重调整器进行类别预测操作以得到若干预测结果,并跳转至所述获取若干历史预测结果作为当前待训练数据集的步骤以进行下一轮模型迭代学习。
可见,本申请通过获取若干历史预测结果作为当前待训练数据集,并基于预设数据更新规则对所述当前待训练数据集进行数据更新操作,以得到相应的更新后待训练数据集;利用所述更新后待训练数据集进行模型训练以得到相应的当前训练模型,并基于预设模型添加规则将所述当前训练模型放入预设集成模型以更新所述预设集成模型;所述预设集成模型用于存储全部参与类别预测的所述训练模型;对更新后的所述预设集成模型中每一所述训练模型进行权重更新操作以对预设权重调整器进行更新,利用更新后的所述预设集成模型和更新后的所述权重调整器进行类别预测操作以得到若干预测结果,并跳转至所述获取若干历史预测结果作为当前待训练数据集的步骤以进行下一轮模型迭代学***稳。
在一些具体的实施例中,所述模型增量学习装置,还可以包括:
初始模型训练模块,用于利用初始待训练数据集进行模型训练得到第一训练模型,并创建所述预设集成模型以将所述第一训练模型放入所述预设集成模型中。
在一些具体的实施例中,所述模型增量学习装置,还可以包括:
相似度计算模块,用于计算本轮模型迭代学习的所述当前待训练数据集与上一轮的待训练数据集之间的相似度,并判断所述相似度是否小于预设相似度阈值;
保留数据确定模块,用于当所述相似度不小于预设相似度阈值,则确定所述当前待训练数据集中的保留数据,并直接利用所述预设集成模型和所述权重调整器进行类别预测操作以得到若干预测结果;所述保留数据用于在下一轮模型迭代学习时加入至下一轮的待训练数据集中。
在一些具体的实施例中,所述数据更新模块11,具体可以用于当所述相似度小于所述预设相似度阈值时,则基于预设数据更新规则对本轮模型迭代学习的所述当前待训练数据集进行数据更新操作以得到相应的更新后待训练数据集。
在一些具体的实施例中,所述模型更新模块12,具体可以包括:
数量判断单元,用于判断所述预设集成模型中全部所述训练模型的数量是否达到预设数量阈值;
第一模型更新单元,用于当所述预设集成模型中全部所述训练模型的数量未达到预设数量阈值时,则直接将所述当前训练模型放入所述预设集成模型以更新所述预设集成模型;
第二模型更新单元,用于当所述预设集成模型中全部所述训练模型的数量达到预设数量阈值时,则利用预设模型剔除规则从所述预设集成模型中剔除一个训练模型,并将所述当前训练模型放入所述预设集成模型以更新所述预设集成模型。
在一些具体的实施例中,所述权重更新模块13,具体可以包括:
第一预测值获取单元,用于基于预设数据选取规则从历史数据集中选取待预测数据集,并将所述待预测数据集输入至所述预设集成模型的每一所述训练模型中,以得到每一所述训练模型对应的第一预测值;
权重更新单元,用于将每一所述训练模型的所述第一预测值拼接为数组并输入至所述预设权重调整器进行训练得到每一所述训练模型对应的权重,以对所述预设权重调整器进行更新。
在一些具体的实施例中,所述预测结果确定模块14,具体可以包括:
第二预测值获取单元,用于获取预设数据集并将所述预设数据集输入至更新后的所述预设集成模型的每一所述训练模型中,以得到每一所述训练模型对应的第二预测值;
预测结果确定单元,用于将每一所述训练模型对应的所述第二预测值拼接为数组并输入至更新后的所述权重调整器中进行类别预测操作,以得到若干预测结果。
进一步的,本申请实施例还公开了一种电子设备,图11是根据一示例性实施例示出的电子设备20结构图,图中的内容不能认为是对本申请的使用范围的任何限制。
图11为本申请实施例提供的一种电子设备20的结构示意图。该电子设备20,具体可以包括:至少一个处理器21、至少一个存储器22、电源23、通信接口24、输入输出接口25和通信总线26。其中,所述存储器22用于存储计算机程序,所述计算机程序由所述处理器21加载并执行,以实现前述任一实施例公开的模型增量学习方法中的相关步骤。另外,本实施例中的电子设备20具体可以为电子计算机。
本实施例中,电源23用于为电子设备20上的各硬件设备提供工作电压;通信接口24能够为电子设备20创建与外界设备之间的数据传输通道,其所遵循的通信协议是能够适用于本申请技术方案的任意通信协议,在此不对其进行具体限定;输入输出接口25,用于获取外界输入数据或向外界输出数据,其具体的接口类型可以根据具体应用需要进行选取,在此不进行具体限定。
另外,存储器22作为资源存储的载体,可以是只读存储器、随机存储器、磁盘或者光盘等,其上所存储的资源可以包括操作***221、计算机程序222等,存储方式可以是短暂存储或者永久存储。
其中,操作***221用于管理与控制电子设备20上的各硬件设备以及计算机程序222,其可以是Windows Server、Netware、Unix、Linux等。计算机程序222除了包括能够用于完成前述任一实施例公开的由电子设备20执行的模型增量学习方法的计算机程序之外,还可以进一步包括能够用于完成其他特定工作的计算机程序。
进一步的,本申请还公开了一种计算机可读存储介质,用于存储计算机程序;其中,所述计算机程序被处理器执行时实现前述公开的模型增量学习方法。关于该方法的具体步骤可以参考前述实施例中公开的相应内容,在此不再进行赘述。
本说明书中各个实施例采用递进的方式描述,每一实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每一特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上对本申请所提供的技术方案进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
Claims (10)
1.一种模型增量学习方法,其特征在于,包括:
获取若干历史预测结果作为当前待训练数据集,并基于预设数据更新规则对所述当前待训练数据集进行数据更新操作,以得到相应的更新后待训练数据集;
利用所述更新后待训练数据集进行模型训练以得到相应的当前训练模型,并基于预设模型添加规则将所述当前训练模型放入预设集成模型以更新所述预设集成模型;所述预设集成模型用于存储全部参与类别预测的所述训练模型;
对更新后的所述预设集成模型中每一所述训练模型进行权重更新操作以对预设权重调整器进行更新,利用更新后的所述预设集成模型和更新后的所述权重调整器进行类别预测操作以得到若干预测结果,并跳转至所述获取若干历史预测结果作为当前待训练数据集的步骤以进行下一轮模型迭代学习。
2.根据权利要求1所述的模型增量学习方法,其特征在于,所述获取若干历史预测结果作为当前待训练数据集之前,还包括:
利用初始待训练数据集进行模型训练得到第一训练模型,并创建所述预设集成模型以将所述第一训练模型放入所述预设集成模型中。
3.根据权利要求1所述的模型增量学习方法,其特征在于,所述获取若干历史预测结果作为当前待训练数据集之后,还包括:
计算本轮模型迭代学习的所述当前待训练数据集与上一轮的待训练数据集之间的相似度,并判断所述相似度是否小于预设相似度阈值;
若否,则确定所述当前待训练数据集中的保留数据,并直接利用所述预设集成模型和所述权重调整器进行类别预测操作以得到若干预测结果;所述保留数据用于在下一轮模型迭代学习时加入至下一轮的待训练数据集中。
4.根据权利要求3所述的模型增量学习方法,其特征在于,所述基于预设数据更新规则对所述当前待训练数据集进行数据更新操作,以得到相应的更新后待训练数据集,包括:
若所述相似度小于所述预设相似度阈值,则基于预设数据更新规则对本轮模型迭代学习的所述当前待训练数据集进行数据更新操作以得到相应的更新后待训练数据集。
5.根据权利要求1所述的模型增量学习方法,其特征在于,所述基于预设模型添加规则将所述当前训练模型放入预设集成模型以更新所述预设集成模型,包括:
判断所述预设集成模型中全部所述训练模型的数量是否达到预设数量阈值;
若否,则直接将所述当前训练模型放入所述预设集成模型以更新所述预设集成模型;
若是,则利用预设模型剔除规则从所述预设集成模型中剔除一个训练模型,并将所述当前训练模型放入所述预设集成模型以更新所述预设集成模型。
6.根据权利要求1所述的模型增量学习方法,其特征在于,所述对更新后的所述预设集成模型中每一训练模型进行权重更新操作以对预设权重调整器进行更新,包括:
基于预设数据选取规则从历史数据集中选取待预测数据集,并将所述待预测数据集输入至所述预设集成模型的每一所述训练模型中,以得到每一所述训练模型对应的第一预测值;
将每一所述训练模型的所述第一预测值拼接为数组并输入至所述预设权重调整器进行训练得到每一所述训练模型对应的权重,以对所述预设权重调整器进行更新。
7.根据权利要求1至6任一项所述的模型增量学习方法,其特征在于,所述利用更新后的所述预设集成模型和更新后的所述权重调整器进行类别预测操作以得到若干预测结果,包括:
获取预设数据集并将所述预设数据集输入至更新后的所述预设集成模型的每一所述训练模型中,以得到每一所述训练模型对应的第二预测值;
将每一所述训练模型对应的所述第二预测值拼接为数组并输入至更新后的所述权重调整器中进行类别预测操作,以得到若干预测结果。
8.一种模型增量学习装置,其特征在于,包括:
数据更新模块,用于获取若干历史预测结果作为当前待训练数据集,并基于预设数据更新规则对所述当前待训练数据集进行数据更新操作,以得到相应的更新后待训练数据集;
模型更新模块,用于利用所述更新后待训练数据集进行模型训练以得到相应的当前训练模型,并基于预设模型添加规则将所述当前训练模型放入预设集成模型以更新所述预设集成模型;所述预设集成模型用于存储全部参与类别预测的所述训练模型;
权重更新模块,用于对更新后的所述预设集成模型中每一所述训练模型进行权重更新操作以对预设权重调整器进行更新;
预测结果确定模块,用于利用更新后的所述预设集成模型和更新后的所述权重调整器进行类别预测操作以得到若干预测结果,并跳转至所述获取若干历史预测结果作为当前待训练数据集的步骤以进行下一轮模型迭代学习。
9.一种电子设备,其特征在于,包括:
存储器,用于保存计算机程序;
处理器,用于执行所述计算机程序以实现如权利要求1至7任一项所述的模型增量学习方法。
10.一种计算机可读存储介质,其特征在于,用于保存计算机程序,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的模型增量学习方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310399396.0A CN116432780A (zh) | 2023-04-11 | 2023-04-11 | 一种模型增量学习方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310399396.0A CN116432780A (zh) | 2023-04-11 | 2023-04-11 | 一种模型增量学习方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116432780A true CN116432780A (zh) | 2023-07-14 |
Family
ID=87082843
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310399396.0A Pending CN116432780A (zh) | 2023-04-11 | 2023-04-11 | 一种模型增量学习方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116432780A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116959696A (zh) * | 2023-09-20 | 2023-10-27 | 武汉光盾科技有限公司 | 一种基于激光治疗仪的数据处理方法和装置 |
CN118090672A (zh) * | 2024-04-25 | 2024-05-28 | 奥谱天成(厦门)光电有限公司 | 猕猴桃特征检测方法、装置、介质及设备 |
-
2023
- 2023-04-11 CN CN202310399396.0A patent/CN116432780A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116959696A (zh) * | 2023-09-20 | 2023-10-27 | 武汉光盾科技有限公司 | 一种基于激光治疗仪的数据处理方法和装置 |
CN116959696B (zh) * | 2023-09-20 | 2023-12-08 | 武汉光盾科技有限公司 | 一种基于激光治疗仪的数据处理方法和装置 |
CN118090672A (zh) * | 2024-04-25 | 2024-05-28 | 奥谱天成(厦门)光电有限公司 | 猕猴桃特征检测方法、装置、介质及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116432780A (zh) | 一种模型增量学习方法、装置、设备及存储介质 | |
CN111260030B (zh) | 基于a-tcn电力负荷预测方法、装置、计算机设备及存储介质 | |
CN111612134A (zh) | 神经网络结构搜索方法、装置、电子设备及存储介质 | |
KR20190124846A (ko) | 재귀적 신경망에서 시계열 데이터의 데이터 누락 및 노이즈에 강건한 gru 기반의 셀 구조 설계 | |
CN113568727A (zh) | 一种基于深度强化学习的移动边缘计算任务分配方法 | |
US12005580B2 (en) | Method and device for controlling a robot | |
US20190228297A1 (en) | Artificial Intelligence Modelling Engine | |
Arnold | An active-set evolution strategy for optimization with known constraints | |
CN112215412A (zh) | 溶解氧预测方法及装置 | |
US11914672B2 (en) | Method of neural architecture search using continuous action reinforcement learning | |
CN117744754B (zh) | 大语言模型任务处理方法、装置、设备及介质 | |
CN114037772A (zh) | 一种图像生成器的训练方法、图像生成方法及装置 | |
CN114926701A (zh) | 一种模型训练方法、目标检测方法、以及相关设备 | |
CN111445024A (zh) | 一种医学影像识别训练方法 | |
CN113516163B (zh) | 基于网络剪枝的车辆分类模型压缩方法、装置及存储介质 | |
CN113657501A (zh) | 模型自适应训练方法、装置、设备、介质及程序产品 | |
CN115186096A (zh) | 针对特定类型分词的识别方法、装置、介质及电子设备 | |
CN110851647A (zh) | 音频内容流量智能分配方法、装置、设备及可读存储介质 | |
CN117540807A (zh) | 一种模型权重参数存储方法、装置、设备及存储介质 | |
CN115797752B (zh) | 一种模型训练方法、装置、设备及存储介质 | |
CN117910536B (zh) | 文本生成方法及其模型梯度剪枝方法、装置、设备、介质 | |
CN116957017A (zh) | 面向计算机设备中的神经网络模型的加速方法及装置 | |
CN117216530A (zh) | 一种模型信息确定方法、装置及*** | |
CN111753519A (zh) | 一种模型训练和识别方法、装置、电子设备及存储介质 | |
Shah | Application Layer Optimization of Big Data Transfer Throughput using RL |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |