CN109657805B - 超参数确定方法、装置、电子设备及计算机可读介质 - Google Patents

超参数确定方法、装置、电子设备及计算机可读介质 Download PDF

Info

Publication number
CN109657805B
CN109657805B CN201811495733.1A CN201811495733A CN109657805B CN 109657805 B CN109657805 B CN 109657805B CN 201811495733 A CN201811495733 A CN 201811495733A CN 109657805 B CN109657805 B CN 109657805B
Authority
CN
China
Prior art keywords
hyper
machine learning
learning model
model
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811495733.1A
Other languages
English (en)
Other versions
CN109657805A (zh
Inventor
王亚领
刘设伟
张博熠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Taikang Insurance Group Co Ltd
Taikang Online Property Insurance Co Ltd
Original Assignee
Taikang Insurance Group Co Ltd
Taikang Online Property Insurance Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Taikang Insurance Group Co Ltd, Taikang Online Property Insurance Co Ltd filed Critical Taikang Insurance Group Co Ltd
Priority to CN201811495733.1A priority Critical patent/CN109657805B/zh
Publication of CN109657805A publication Critical patent/CN109657805A/zh
Application granted granted Critical
Publication of CN109657805B publication Critical patent/CN109657805B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Stored Programmes (AREA)

Abstract

本公开涉及一种机器学习模型的超参数确定方法、装置、电子设备及计算机可读介质。该方法包括:获取机器学习模型的超参数的分布空间和分布方式;通过所述分布空间和所述分布方式,随机确定目标超参数;通过所述目标超参数构建初始机器学习模型;通过预设数据对所述初始机器学习模型进行交叉验证,获取模型训练误差;以及在所述模型训练误差满足阈值时,将所述目标超参数指定为所述机器学习模型的最优超参数。本公开涉及的机器学习模型的超参数确定方法、装置、电子设备及计算机可读介质,能够快速精确的获取机器学习模型的最优超参数,提高模型的构建速率和准确性。

Description

超参数确定方法、装置、电子设备及计算机可读介质
技术领域
本公开涉及计算机信息处理领域,具体而言,涉及一种机器学习模型的超参数确定方法、装置、电子设备及计算机可读介质。
背景技术
当前,机器学习模型在保险行业的多个业务场景中得到广泛的使用。保险行业中利用客户的历史业务数据建立机器学习模型,能够对客户的风险进行预测评估。不同的机器学习模型都有着不同数量的超参数,超参数选取的不同,会直接影响风控模型的准确率。
针对如何优化模型的超参数,传统的做法是利用网格搜索,即指定模型的超参数空间,以穷举的方式遍历所有可能的超参数组合,模型取得最好效果时所对应的超参数组合就是最优超参数组合。这种方法只能保证在指定的超参数空间内寻得最优超参数,对于取值为连续性的超参数不能进行全面有效的搜索,并且面对大量数据集和超参数数量较多的情况下,计算量非常大导致非常耗时。
保险行业的风险评估模型一般使用大规模的集成算法,其超参数数量十几个,而通过传统的网格超参数搜索耗时耗力,因此,需要一种新的机器学习模型的超参数确定方法、装置、电子设备及计算机可读介质。
在所述背景技术部分公开的上述信息仅用于加强对本公开的背景的理解,因此它可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
有鉴于此,本公开提供一种机器学习模型的超参数确定方法、装置、电子设备及计算机可读介质,能够快速精确的获取机器学习模型的最优超参数,提高模型的构建速率和准确性。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的一方面,提出一种机器学习模型的超参数确定方法,该方法包括:获取机器学习模型的超参数的分布空间和分布方式;通过所述分布空间和所述分布方式,随机确定目标超参数;通过所述目标超参数构建初始机器学习模型;通过预设数据对所述初始机器学习模型进行交叉验证,获取模型训练误差;以及在所述模型训练误差满足阈值时,将所述目标超参数指定为所述机器学习模型的最优超参数。
在本公开的一种示例性实施例中,获取机器学习模型的超参数的分布空间和分布方式包括:确定所述机器学习模型的模型特征;以及通过所述模型特征获取所述机器学习模型的超参数的所述分布空间和所述分布方式。
在本公开的一种示例性实施例中,通过所述分布空间和所述分布方式,随机确定目标超参数包括:根据所述分布空间确定超参数的取值范围和取值类型;在所述取值范围,基于所述分布方式随机确定满足取值类型要求的目标超参数。
在本公开的一种示例性实施例中,所述分布方式包括均匀分布和概率分布;基于所述分布方式随机确定满足取值类型要求的目标超参数包括:基于概率分布,随机确定满足取值类型要求的目标超参数;和\或基于均匀分布,随机确定满足取值类型要求的目标超参数。
在本公开的一种示例性实施例中,通过所述目标超参数构建初始机器学习模型包括:通过所述目标超参数构建初始梯度决策树模型。
在本公开的一种示例性实施例中,通过预设数据对所述初始机器学习模型进行交叉验证,获取模型训练误差包括:通过所述预设数据生成训练集数据与验证集数据;以及通过所述训练集数据与验证集数据对所述初始机器学习模型进行交叉验证以获取所述模型训练误差。
在本公开的一种示例性实施例中,通过所述训练集数据与验证集数据对所述初始机器学习模型进行交叉验证以获取所述模型训练误差包括:通过所述训练集数据对所述初始机器学习模型进行模型训练,获取目标机器学习模型;以及通过所述验证集数据对所述目标机器学习模型进行校验,获取所述模型训练误差。
在本公开的一种示例性实施例中,通过所述训练集数据对所述初始机器学习模型进行模型训练还包括:通过超参数的所述分布空间和所述分布方式确定所述机器学习模型的最大迭代次数。
在本公开的一种示例性实施例中,通过所述验证集数据对所述目标机器学习模型进行校验,获取所述模型训练误差包括:确定所述机器学习模型的评估指标;将所述验证集数据输入所述目标机器学习模型中获取评估指标;以及通过所述评估指标计算所述模型训练误差。
在本公开的一种示例性实施例中,还包括:在所述模型训练误差不满足阈值时,再次随机确定目标超参数以求取所述最优超参数。
根据本公开的一方面,提出一种机器学习模型的超参数确定装置,该装置包括:设定模块,用于获取机器学习模型的超参数的分布空间和分布方式;超参数模块,用于通过所述分布空间和所述分布方式,随机确定目标超参数;模型构建模块,用于通过所述目标超参数构建初始机器学习模型;验证模块,用于通过预设数据对所述初始机器学习模型进行交叉验证,获取模型训练误差;以及训练模块,用于在所述模型训练误差满足阈值时,将所述目标超参数指定为所述机器学习模型的最优超参数。
根据本公开的一方面,提出一种电子设备,该电子设备包括:一个或多个处理器;存储装置,用于存储一个或多个程序;当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如上文的方法。
根据本公开的一方面,提出一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如上文中的方法。
根据本公开的机器学习模型的超参数确定方法、装置、电子设备及计算机可读介质,通过随机超参数指定结合交叉验证的方式,能够快速精确的获取机器学习模型的最优超参数,提高模型的构建速率和准确性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性的,并不能限制本公开。
附图说明
通过参照附图详细描述其示例实施例,本公开的上述和其它目标、特征及优点将变得更加显而易见。下面描述的附图仅仅是本公开的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据一示例性实施例示出的一种机器学习模型的超参数确定方法及装置的***框图。
图2是根据一示例性实施例示出的一种机器学习模型的超参数确定方法的流程图。
图3是根据另一示例性实施例示出的一种机器学习模型的超参数确定方法的流程图。
图4是根据另一示例性实施例示出的一种机器学习模型的超参数确定方法的流程图。
图5是根据一示例性实施例示出的一种机器学习模型的超参数确定装置的框图。
图6是根据一示例性实施例示出的一种电子设备的框图。
图7是根据一示例性实施例示出一种计算机可读存储介质示意图。
具体实施方式
现在将参考附图更全面地描述示例实施例。然而,示例实施例能够以多种形式实施,且不应被理解为限于在此阐述的实施例;相反,提供这些实施例使得本公开将全面和完整,并将示例实施例的构思全面地传达给本领域的技术人员。在图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本公开的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本公开的各方面。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
应理解,虽然本文中可能使用术语第一、第二、第三等来描述各种组件,但这些组件不应受这些术语限制。这些术语乃用以区分一组件与另一组件。因此,下文论述的第一组件可称为第二组件而不偏离本公开概念的教示。如本文中所使用,术语“及/或”包括相关联的列出项目中的任一个及一或多者的所有组合。
本领域技术人员可以理解,附图只是示例实施例的示意图,附图中的模块或流程并不一定是实施本公开所必须的,因此不能用于限制本公开的保护范围。
在本公开中,参数是指:机器学习模型可以根据数据可以自动学习出的变量。比如,深度学习的权重,偏差等
在本公开中,超参数是指:用来确定模型的一些参数,超参数不同,模型是不同的,超参数一般就是根据经验确定的变量。在深度学习中,常见的超参数有:学习速率,迭代次数,层数,每层神经元的个数等等。
机器学习模型可例如梯度提升决策树方法(Gradient Boosting Decision Tree,GBDT),其超参数数量接近有20个,本公开的发明人发现,目前对于具有较多超参数的风险评估模型,现有的做法是利用网格超参数搜索,即指定模型的超参数空间,以穷举的方式遍历所有可能的超参数组合,所有超参数组合将会被评估,训练完成后选择最优模型所对应的超参数组合。
本公开提出的机器学习模型的超参数确定方法及装置,能够代替传统的网格超参数搜索方法,相比较于网格搜索,随机搜索简单快速有效,选择相对较少的超参数组合数量,并且添加超参数节点不影响性能,不会降低效率,不仅能够对连续性的超参数做到精准搜索,还能够大大提高模型训练的速度。
下面将通过具体实施例的方式对本公开的内容进行详细说明:
图1是根据一示例性实施例示出的一种机器学习模型的超参数确定方法及装置的***框图。
如图1所示,***架构100可以包括终端设备101、102、103,网络 104和服务器105。网络104用以在终端设备101、102、103和服务器105 之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105 交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如购物类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对用户利用终端设备 101、102、103所要计算的数据提供支持的后台服务器。服务器105可以对接收到数据进行分析等处理,并将处理结果(可例如为最优超参数)反馈给终端设备。
用户可通过终端设备101、102、103获取机器学习模型,终端设备 101、102、103可例如获取机器学习模型的超参数的分布空间和分布方式;终端设备101、102、103可例如通过所述分布空间和所述分布方式,随机确定目标超参数;终端设备101、102、103可例如通过所述目标超参数构建初始机器学习模型;以及终端设备101、102、103可例如通过预设数据对所述初始机器学习模型进行交叉验证,获取模型训练误差;终端设备 101、102、103可例如在所述模型训练误差满足阈值时,将所述目标超参数指定为所述机器学习模型的最优超参数。
用户可通过终端设备101、102、103获取机器学习模型,终端设备 101、102、103可例如获取机器学习模型转发至服务器105中,服务器105 可例如获取机器学习模型的超参数的分布空间和分布方式;服务器105 可例如通过所述分布空间和所述分布方式,随机确定目标超参数;服务器 105可例如通过所述目标超参数构建初始机器学习模型;以及服务器105 可例如通过预设数据对所述初始机器学习模型进行交叉验证,获取模型训练误差。服务器105还可例如在所述模型训练误差满足阈值时,将所述目标超参数指定为所述机器学习模型的最优超参数。服务器105还可例如将最优超参数返回终端设备101、102、103,终端设备101、102、103还可例如最优超参数构建机器学习模型,并通过机器学习模型进行其他的任务处理。
服务器105可以是一个实体的服务器,还可例如为多个服务器组成,需要说明的是,本公开实施例所提供的机器学习模型的超参数确定方法可以由服务器105和\或终端设备101、102、103执行,相应地,机器学习模型的超参数确定装置可以设置于服务器105和\或终端设备101、102、 103中。
图2是根据一示例性实施例示出的一种机器学习模型的超参数确定方法的流程图。机器学习模型的超参数确定方法20至少包括步骤S202 至S210。
如图2所示,在S202中,获取机器学习模型的超参数的分布空间和分布方式。可包括:确定所述机器学习模型的模型特征;以及通过所述模型特征获取所述机器学习模型的超参数的所述分布空间和所述分布方式。
在一个实施例中,确定所述机器学习模型的模型特征可例如为,首先确定机器学习模型的类别,其中,机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。机器学习模型按照可使用的数据类型分为监督学习和无监督学习两大类。具体可包括:线性分类器(如LR)、支持向量机(SVM)、朴素贝叶斯(NB)、K近邻(KNN)、决策树(DT)、集成模型(RF/GDBT 等);线性回归、支持向量机(SVM)、K近邻(KNN)、回归树(DT)、集成模型(ExtraTrees/RF/GDBT);数据聚类(K-means)/数据降维(PCA) 等等。不同类别和种类的机器学习模型具有不同的特征,也具有不同的超参数的相关信息。
根据不同的机器学习模型的模型特征和模型种类,对应这不同的超参数,可包括如下超参数:树模型中的数量或树的深度;矩阵分解中潜在因素的数量;学习率(多种模式);深层神经网络隐藏层数;k均值聚类中的簇数;训练神经网络的学习速率;支持向量机的C和sigma超参数;k 邻域中的k。
本公开中提到的超参数可包括上文中的任一种超参数的具体形式,或者是一种或多种的组合超参数形式。一般情况下,由多个不重种类的超参数可称为该机器学习模型的一组超参数,不失一般性,在本公开中统一用超参数进行指代。
在S204中,通过所述分布空间和所述分布方式,随机确定目标超参数。可包括:根据所述分布空间确定超参数的取值范围和取值类型;在所述取值范围,基于所述分布方式随机确定满足取值类型要求的目标超参数。
在一个实施例中,所述分布方式包括均匀分布和概率分布;基于所述分布方式随机确定满足取值类型要求的目标超参数包括:基于概率分布,随机确定满足取值类型要求的目标超参数;和\或基于均匀分布,随机确定满足取值类型要求的目标超参数。
其中,针对每一个超参数,可以使用可能取值范围内的概率分布,也可以指定一个离散的取值列表来对超参数进行随机采样。可例如,对于满足概率分布的超参数形式,可采依据其概率分布形式进行随机采样,确定目标超参数;而对于离散形式分布的超参数吗,可首先通过离散的超参数生成离散列表,然后在该离散列表中采用随机均匀采样的方式,确定目标超参数。
在S206中,通过所述目标超参数构建初始机器学习模型。如上文中的描述,在机器学习的上下文中,超参数是在开始学习过程之前设置值的参数,而不是通过训练得到的参数数据。通常情况下,需要对超参数进行优化,给学习机选择一组最优超参数,以提高学习的性能和效果。
超参数也是一种参数,它具有参数的特性,比如未知,也就是它不是一个已知常量。一种手工可配置的设置,需要为它根据已有或现有的经验指定“正确”的值,也就是人为为它设定一个值,它不是通过***学习得到的。
超参数可为机器学习模型指定如下特征:
定义关于模型的更高层次的概念,如复杂性或学习能力;
不能直接从标准模型培训过程中的数据中学习,需要预先定义;
可以通过设置不同的值,训练不同的模型和选择更好的测试值来决定。
在一个实施例中个,通过所述目标超参数构建初始梯度决策树模型,在梯度决策树模型中,可例如,梯度决策树中树的数量或树的深度是超参数,那么可通过上文中通过随机方式获取的超参数构建初始梯度提升决策树模型。
在S208中,通过预设数据对所述初始机器学习模型进行交叉验证,获取模型训练误差。可例如,通过所述预设数据生成训练集数据与验证集数据;以及通过所述训练集数据与验证集数据对所述初始机器学习模型进行交叉验证以获取所述模型训练误差。
其中,交叉验证(Cross-validation)主要用于建模应用中,例如PCR、 PLS回归建模中。在给定的建模样本中,拿出大部分样本进行建模型,留小部分样本用刚建立的模型进行预报,并求这小部分样本的预报误差,记录它们的平方加和。交叉验证有的时候也称作循环估计(Rotation Estimation),是一种统计学上将数据样本切割成较小子集的实用方法,关于通过预设数据对所述初始机器学习模型进行交叉验证,获取模型训练误差的详细内容将在图3对应的实施例中进行具体的描述。
在S210中,在所述模型训练误差满足阈值时,将所述目标超参数指定为所述机器学习模型的最优超参数。
其中,机器学习模型的训练采用交叉验证的方式,交叉验证的基本思想是把在某种意义下将原始数据(dataset)进行分组,一部分做为训练集 (train set),另一部分做为验证集(validation set),首先用训练集对机器学习模型进行训练,再利用验证集来测试训练得到的机器学习模型,以此来做为评价机器学习模型的性能指标。
在一个实施例中,常用的精度测试方法主要是交叉验证,例如10折交叉验证(10-fold cross validation),将数据集分成十份,轮流将其中 9份做训练集数据1份做验证集数据,10次的结果的均值作为对算法精度的估计,一般还需要进行多次10折交叉验证求均值,例如:10次10折交叉验证,以求更精确一点。可通过多次计算的方式确定模型训练误差。
根据本公开的机器学习模型的超参数确定方法,通过随机超参数指定结合交叉验证的方式,能够快速精确的获取机器学习模型的最优超参数,提高模型的构建速率和准确性。
保险行业根据大规模的集成算法建立风险评估模型,具有多个超参数,针对网格超参数搜索复杂耗时耗力的缺陷,根据本公开的机器学习模型的超参数确定方法,简单快速有效。
应清楚地理解,本公开描述了如何形成和使用特定示例,但本公开的原理不限于这些示例的任何细节。相反,基于本公开公开的内容的教导,这些原理能够应用于许多其它实施例。
图3是根据另一示例性实施例示出的一种机器学习模型的超参数确定方法的流程图。图3所示的机器学习模型的超参数确定方法30是对图 2所示的流程中S208“通过预设数据对所述初始机器学习模型进行交叉验证,获取模型训练误差”的详细描述。
如图3所示,在S302中,通过所述预设数据生成训练集数据与验证集数据。如上文所述,交叉验证的基本思想是把在某种意义下将原始数据进行分组,一部分做为训练集,另一部分做为验证集,首先将预设数据分为多组数据,可例如为10组,可将其中的9组数据作为训练集数据,另一组作为验证集数据。
在S304中,通过所述训练集数据对所述初始机器学习模型进行模型训练,获取目标机器学习模型。可例如,通过超参数的所述分布空间和所述分布方式确定所述机器学习模型的最大迭代次数。
在一个实施例中,对应一组超参数而言,超参数之间的随机组合的次数即为模型的迭代次数,利用不同的超参数组合进行模型训练,直到模型的训练误差达到设定的目标最小误差或者到达迭代次数为止。
在S306中,将所述验证集数据输入所述目标机器学习模型中获取评估指标。可例如,通过机器学习模型具体的应用场景确定评估指标。
在S308中,通过所述评估指标计算所述模型训练误差。可根据实际需求选取合适的模型评分指标,可例如在保险行业中,风险评估模型目标是尽可能多的准确预测出发生理赔的高风险客户,因此可以将召回率作为适应度函数,在召回率高的时候,可认为本次训练中获得的机器学习模型最好,进而可以确定召回率最高的模型中的各超参数的具体数值。
召回率的公式为:
Figure RE-GDA0001970184550000111
其中,recall为模型评估指数召回率,TP为模型分类正确的高风险客户的数量,FN为模型将实际高风险客户错误的分类为低风险的客户数量。
可例如,通过召回率设定模型误差阈值,通过预设数据对所述初始机器学习模型进行交叉验证,获取模型训练误差,在模型的训练误差小于阈值时,确定当前参数为最优超参数。
其中,机器学习模型不同的应用场景和应用环境中,还可根据其他的判定条件确定模型评估指标,进而生成不同的模型误差阈值,本申请不以此为限。
根据本公开的机器学习模型的超参数确定方法,利用随机超参数搜索结合交叉验证的方式,不仅能够简单快速找到最优超参数,还能够避免模型过拟合,提升模型的泛化能力。
图4是根据另一示例性实施例示出的一种机器学习模型的超参数确定方法的流程图。图4所示的机器学习模型的超参数确定方法40是对图 2所示的超参数确定方法20的补充描述。
如图4所示,在S402中,确定待评估的机器学习模型。
在S404中,确定超参数分布空间及分布方式。
在S406中,确定最大迭代次数和误差阈值。
在S408中,随机确定超参数。
在S410中,较差验证方式构建初始机器学习模型。
在S412中,计算模型评价指数。
在S414中,是否满足误差阈值。
在S416中,是否达到最大迭代次数。
在S418中,确定最优超参数。
在S420中,结束。
首先根据机器学习模型确定该模型的超参数空间。其次设定每个超参数的采样方式,设定模型训练目标最小误差,对超参数进行随机搜索,当模型的训练误差达到设定的目标最小误差,则停止搜索,否则继续进行随机搜索;达到最大迭代次数之后,如果计算出的模型评价指数的最小误差还是没有达到误差阈值的话,那么可认为最优超参数就是误差最小时所对应的超参数。每进行一次随机搜索就会采样一组超参数组合,利用该超参数组合结合交叉验证的方式建立模型,计算每一次交叉验证的模型评估指数,模型评估指数达到最优时所对应的超参数组合即为最优模型超参数组合;该方法能够对所有超参数进行快速精确的搜索,提高模型的训练速率和准确性。
根据本公开的机器学习模型的超参数确定方法,采用随机超参数搜索方法代替传统的网格超参数搜索方法利用在风险评估模型中,随机搜索简单快速有效,可以选择相对较少的超参数组合数量,并且添加超参数节点不影响性能,不会降低效率,不仅能够对连续性的超参数做到精准搜索,还能够大大提高模型训练的速度。
根据本公开的机器学习模型的超参数确定方法,在保险风险评估的业务场景中,业务需求是宁愿牺牲一些低风险客户的体验,也要更多的预测出高风险客户,因此采用召回率作为模型评价指标,这样通过随机搜索超参数建立的模型,能够最大限度预测出高风险客户,以此来降低赔付风险。
本领域技术人员可以理解实现上述实施例的全部或部分步骤被实现为由CPU执行的计算机程序。在该计算机程序被CPU执行时,执行本公开提供的上述方法所限定的上述功能。所述的程序可以存储于一种计算机可读存储介质中,该存储介质可以是只读存储器,磁盘或光盘等。
此外,需要注意的是,上述附图仅是根据本公开示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
下述为本公开装置实施例,可以用于执行本公开方法实施例。对于本公开装置实施例中未披露的细节,请参照本公开方法实施例。
图5是根据一示例性实施例示出的一种机器学习模型的超参数确定装置的框图。机器学习模型的超参数确定装置50包括:设定模块502,超参数模块504,模型构建模块506,以及验证模块508,训练模块510。
设定模块502用于获取机器学习模型的超参数的分布空间和分布方式;可包括:确定所述机器学习模型的模型特征;以及通过所述模型特征获取所述机器学习模型的超参数的所述分布空间和所述分布方式。
超参数模块504用于通过所述分布空间和所述分布方式,随机确定目标超参数;可包括:根据所述分布空间确定超参数的取值范围和取值类型;在所述取值范围,基于所述分布方式随机确定满足取值类型要求的目标超参数。
模型构建模块506用于通过所述目标超参数构建初始机器学习模型;
验证模块508用于通过预设数据对所述初始机器学习模型进行交叉验证,获取模型训练误差;可例如,通过所述预设数据生成训练集数据与验证集数据;以及通过所述训练集数据与验证集数据对所述初始机器学习模型进行交叉验证以获取所述模型训练误差。
训练模块510用于在所述模型训练误差满足阈值时,将所述目标超参数指定为所述机器学习模型的最优超参数。还可例如直到模型的训练达迭代次数达到最大训练次数为止。
根据本公开的机器学习模型的超参数确定装置,采用随机超参数搜索方法代替传统的网格超参数搜索方法利用在风险评估模型中,随机搜索简单快速有效,可以选择相对较少的超参数组合数量,并且添加超参数节点不影响性能,不会降低效率,不仅能够对连续性的超参数做到精准搜索,还能够大大提高模型训练的速度。
图6是根据一示例性实施例示出的一种电子设备的框图。
下面参照图6来描述根据本公开的这种实施方式的电子设备200。图 6显示的电子设备200仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图6所示,电子设备200以通用计算设备的形式表现。电子设备 200的组件可以包括但不限于:至少一个处理单元210、至少一个存储单元220、连接不同***组件(包括存储单元220和处理单元210)的总线 230、显示单元240等。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元210执行,使得所述处理单元210执行本说明书上述电子处方流转处理方法部分中描述的根据本公开各种示例性实施方式的步骤。例如,所述处理单元210可以执行如图2,图3,图4中所示的步骤。
所述存储单元220可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)2201和/或高速缓存存储单元2202,还可以进一步包括只读存储单元(ROM)2203。
所述存储单元220还可以包括具有一组(至少一个)程序模块2205 的程序/实用工具2204,这样的程序模块2205包括但不限于:操作***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线230可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、***总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备200也可以与一个或多个外部设备300(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备 200交互的设备通信,和/或与使得该电子设备200能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口250进行。并且,电子设备200 还可以通过网络适配器260与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。网络适配器260可以通过总线230与电子设备200的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备200使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID***、磁带驱动器以及数据备份存储***等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是 CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、或者网络设备等)执行根据本公开实施方式的上述方法。
图7示意性示出本公开示例性实施例中一种计算机可读存储介质示意图。
参考图7所示,描述了根据本公开的实施方式的用于实现上述方法的程序产品400,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本公开的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
所述计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如 Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该设备执行时,使得该计算机可读介质实现如下功能:获取机器学习模型的超参数的分布空间和分布方式;通过所述分布空间和所述分布方式,随机确定目标超参数;通过所述目标超参数构建初始机器学习模型;通过预设数据对所述初始机器学习模型进行交叉验证,获取模型训练误差;以及在所述模型训练误差满足阈值时,将所述目标超参数指定为所述机器学习模型的最优超参数。
本领域技术人员可以理解上述各模块可以按照实施例的描述分布于装置中,也可以进行相应变化唯一不同于本实施例的一个或多个装置中。上述实施例的模块可以合并为一个模块,也可以进一步拆分成多个子模块。
通过以上的实施例的描述,本领域的技术人员易于理解,这里描述的示例实施例可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施例的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是 CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本公开实施例的方法。
以上具体地示出和描述了本公开的示例性实施例。应可理解的是,本公开不限于这里描述的详细结构、设置方式或实现方法;相反,本公开意图涵盖包含在所附权利要求的精神和范围内的各种修改和等效设置。

Claims (8)

1.一种应用于保险行业业务数据的机器学习模型的超参数确定方法,其特征在于,包括:
获取机器学习模型的超参数的分布空间和分布方式;
通过所述分布空间和所述分布方式,随机确定目标超参数;
通过所述目标超参数构建初始机器学习模型;
通过保险行业业务数据的预设数据对所述初始机器学习模型进行交叉验证,获取模型训练误差;以及
在所述模型训练误差满足阈值时,将所述目标超参数指定为所述机器学习模型的最优超参数;
其中,所述通过保险行业业务数据的预设数据对所述初始机器学习模型进行交叉验证,获取模型训练误差包括:
通过所述预设数据生成训练集数据与验证集数据;
通过所述训练集数据对所述初始机器学习模型进行模型训练,获取目标机器学习模型,其中,将所述超参数之间的随机组合的次数确定为机器学习模型的最大迭代次数;
将所述验证集数据输入所述目标机器学习模型中获取评估指标,其中,所述评估指标为保险行业中的召回率;
通过所述评估指标计算所述模型训练误差。
2.如权利要求1所述的方法,其特征在于,获取机器学习模型的超参数的分布空间和分布方式包括:
确定所述机器学习模型的模型特征;以及
通过所述模型特征获取所述机器学习模型的超参数的所述分布空间和所述分布方式。
3.如权利要求1所述的方法,其特征在于,通过所述分布空间和所述分布方式,随机确定目标超参数包括:
根据所述分布空间确定超参数的取值范围和取值类型;
在所述取值范围,基于所述分布方式随机确定满足取值类型要求的目标超参数。
4.如权利要求3所述的方法,其特征在于,所述分布方式包括均匀分布和概率分布;
基于所述分布方式随机确定满足取值类型要求的目标超参数包括:
基于概率分布,随机确定满足取值类型要求的目标超参数;和\或
基于均匀分布,随机确定满足取值类型要求的目标超参数。
5.如权利要求1所述的方法,其特征在于,所述召回率的公式为:
Figure FDA0002927492970000021
其中,recall为召回率,TP为模型分类正确的高风险客户的数量,FN为模型将实际高风险客户错误的分类为低风险的客户数量。
6.一种应用于保险行业业务数据的机器学习模型的超参数确定装置,其特征在于,包括:
设定模块,用于获取机器学习模型的超参数的分布空间和分布方式;
超参数模块,用于通过所述分布空间和所述分布方式,随机确定目标超参数;
模型构建模块,用于通过所述目标超参数构建初始机器学习模型;
验证模块,用于通过保险行业业务数据的预设数据对所述初始机器学习模型进行交叉验证,获取模型训练误差;以及
训练模块,用于在所述模型训练误差满足阈值时,将所述目标超参数指定为所述机器学习模型的最优超参数;
其中,所述验证模块用于通过所述预设数据生成训练集数据与验证集数据;通过所述训练集数据对所述初始机器学习模型进行模型训练,获取目标机器学习模型,其中,将所述超参数之间的随机组合的次数确定为机器学习模型的最大迭代次数;将所述验证集数据输入所述目标机器学习模型中获取评估指标,其中,所述评估指标为保险行业中的召回率;通过所述评估指标计算所述模型训练误差。
7.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-5中任一所述的方法。
8.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1-5中任一所述的方法。
CN201811495733.1A 2018-12-07 2018-12-07 超参数确定方法、装置、电子设备及计算机可读介质 Active CN109657805B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811495733.1A CN109657805B (zh) 2018-12-07 2018-12-07 超参数确定方法、装置、电子设备及计算机可读介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811495733.1A CN109657805B (zh) 2018-12-07 2018-12-07 超参数确定方法、装置、电子设备及计算机可读介质

Publications (2)

Publication Number Publication Date
CN109657805A CN109657805A (zh) 2019-04-19
CN109657805B true CN109657805B (zh) 2021-04-23

Family

ID=66113069

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811495733.1A Active CN109657805B (zh) 2018-12-07 2018-12-07 超参数确定方法、装置、电子设备及计算机可读介质

Country Status (1)

Country Link
CN (1) CN109657805B (zh)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110110861B (zh) * 2019-05-09 2021-11-26 北京市商汤科技开发有限公司 确定模型超参数及模型训练的方法和装置、存储介质
CN110502998B (zh) * 2019-07-23 2023-01-31 平安科技(深圳)有限公司 车辆定损方法、装置、设备和存储介质
CN110728310B (zh) * 2019-09-27 2023-09-01 聚时科技(上海)有限公司 一种基于超参数优化的目标检测模型融合方法及融合***
CN110751269B (zh) * 2019-10-18 2022-08-05 网易(杭州)网络有限公司 图神经网络训练方法、客户端设备及***
CN110796557A (zh) * 2019-11-04 2020-02-14 泰康保险集团股份有限公司 数据处理方法及装置、电子设备和计算机可读存储介质
CN110991658A (zh) * 2019-11-28 2020-04-10 重庆紫光华山智安科技有限公司 模型训练方法、装置、电子设备和计算机可读存储介质
CN111027709B (zh) * 2019-11-29 2021-02-12 腾讯科技(深圳)有限公司 信息推荐方法、装置、服务器及存储介质
CN111260073A (zh) * 2020-01-09 2020-06-09 京东数字科技控股有限公司 数据处理方法、装置和计算机可读存储介质
CN111260243A (zh) * 2020-02-10 2020-06-09 京东数字科技控股有限公司 风险评估方法、装置、设备及计算机可读存储介质
CN113555008A (zh) * 2020-04-17 2021-10-26 阿里巴巴集团控股有限公司 一种针对模型的调参方法及装置
CN113592060A (zh) * 2020-04-30 2021-11-02 华为技术有限公司 一种神经网络优化方法以及装置
CN113742989A (zh) * 2020-05-27 2021-12-03 国家能源投资集团有限责任公司 燃烧优化控制方法、装置、存储介质及电子设备
CN111932269B (zh) * 2020-08-11 2023-08-18 中国工商银行股份有限公司 设备信息处理方法及装置
CN112132415A (zh) * 2020-08-31 2020-12-25 三盟科技股份有限公司 一种精准资助认定方法、***、计算机设备及存储介质
CN112347537B (zh) * 2020-10-27 2021-09-14 青岛超源博创科技发展有限公司 工程结构数值模型的校准方法、装置、电子设备及介质
CN112396231B (zh) * 2020-11-18 2023-09-29 京东科技控股股份有限公司 针对时空数据的建模方法、装置、电子设备及可读介质
CN112907088B (zh) * 2021-03-03 2024-03-08 杭州诚智天扬科技有限公司 一种清分模型的参数调整方法及***
CN113052252B (zh) * 2021-03-31 2024-03-26 北京字节跳动网络技术有限公司 超参数确定方法、装置、深度强化学习框架、介质及设备
CN112949214B (zh) * 2021-04-25 2023-07-21 顶象科技有限公司 机器学***台及电子设备
CN113806923B (zh) * 2021-08-26 2023-12-22 南京邮电大学 一种基于nlmixr包的药动学-药效学模型超参数自动学习方法及装置
CN114254764B (zh) * 2021-12-27 2024-04-05 西安交通大学 基于反馈的机器学习模型搜索方法、***、设备及介质
CN116861962A (zh) * 2022-03-24 2023-10-10 华为技术有限公司 一种数据处理方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107209873A (zh) * 2015-01-29 2017-09-26 高通股份有限公司 用于深度卷积网络的超参数选择
CN108062587A (zh) * 2017-12-15 2018-05-22 清华大学 一种无监督机器学习的超参数自动优化方法及***
CN108154430A (zh) * 2017-12-28 2018-06-12 上海氪信信息技术有限公司 一种基于机器学习和大数据技术的信用评分构建方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8489627B1 (en) * 2008-08-28 2013-07-16 Adobe Systems Incorporated Combined semantic description and visual attribute search
US20180285759A1 (en) * 2017-04-03 2018-10-04 Linkedin Corporation Online hyperparameter tuning in distributed machine learning

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107209873A (zh) * 2015-01-29 2017-09-26 高通股份有限公司 用于深度卷积网络的超参数选择
CN108062587A (zh) * 2017-12-15 2018-05-22 清华大学 一种无监督机器学习的超参数自动优化方法及***
CN108154430A (zh) * 2017-12-28 2018-06-12 上海氪信信息技术有限公司 一种基于机器学习和大数据技术的信用评分构建方法

Also Published As

Publication number Publication date
CN109657805A (zh) 2019-04-19

Similar Documents

Publication Publication Date Title
CN109657805B (zh) 超参数确定方法、装置、电子设备及计算机可读介质
Collin et al. Extending approximate Bayesian computation with supervised machine learning to infer demographic history from genetic polymorphisms using DIYABC Random Forest
Chen et al. A parallel genetic algorithm based feature selection and parameter optimization for support vector machine
CN113614738A (zh) 使用蒸馏的具有个体目标类别的多个模型的统一
US11693917B2 (en) Computational model optimizations
Bernaś et al. Segmentation of vehicle detector data for improved k‐nearest neighbours‐based traffic flow prediction
KR102237399B1 (ko) 인공지능 기반의 쇼핑몰 상품구매 예측 플랫폼 제공 장치 및 방법
CN110995459A (zh) 异常对象识别方法、装置、介质及电子设备
US20210089937A1 (en) Methods for automatically configuring performance evaluation schemes for machine learning algorithms
US11972355B2 (en) Method and system for generating best performing data models for datasets in a computing environment
CN106537423A (zh) 作为服务的自适应特征化
Li et al. Key quality characteristics selection for imbalanced production data using a two-phase bi-objective feature selection method
CN111178687A (zh) 金融风险分类方法、装置及电子设备
Pugelj et al. Predicting structured outputs k-nearest neighbours method
Tavakkoli et al. A novel forecasting model based on support vector regression and bat meta-heuristic (Bat–SVR): case study in printed circuit board industry
CA3216548A1 (en) Industry specific machine learning applications
Lee et al. Compact feature subset-based multi-label music categorization for mobile devices
Haridasan et al. Arithmetic Optimization with Deep Learning Enabled Churn Prediction Model for Telecommunication Industries.
Elder et al. Learning prediction intervals for model performance
Lassouaoui et al. A synergy Thompson sampling hyper‐heuristic for the feature selection problem
Qattous et al. PaCMAP-embedded convolutional neural network for multi-omics data integration
Lim et al. Memetic algorithm for multivariate time-series segmentation
Singh et al. Feature selection and hyper-parameter tuning technique using neural network for stock market prediction
US20210149793A1 (en) Weighted code coverage
KR102010031B1 (ko) 게임 지표 정보 예측 방법 및 장치

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address
CP03 Change of name, title or address

Address after: Floor 36, Zheshang Building, No. 718 Jianshe Avenue, Jiang'an District, Wuhan, Hubei 430019

Patentee after: TK.CN INSURANCE Co.,Ltd.

Patentee after: TAIKANG INSURANCE GROUP Co.,Ltd.

Address before: 156 fuxingmennei street, Xicheng District, Beijing 100031

Patentee before: TAIKANG INSURANCE GROUP Co.,Ltd.

Patentee before: TK.CN INSURANCE Co.,Ltd.