CN111461350B - 一种基于非线性集成模型的预测数据错误风险方法 - Google Patents

一种基于非线性集成模型的预测数据错误风险方法 Download PDF

Info

Publication number
CN111461350B
CN111461350B CN202010270673.4A CN202010270673A CN111461350B CN 111461350 B CN111461350 B CN 111461350B CN 202010270673 A CN202010270673 A CN 202010270673A CN 111461350 B CN111461350 B CN 111461350B
Authority
CN
China
Prior art keywords
model
data
samples
gbdt
risk
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010270673.4A
Other languages
English (en)
Other versions
CN111461350A (zh
Inventor
赖欣
刘若愚
王嘉寅
张选平
朱晓燕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Jiaotong University
Original Assignee
Xian Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Jiaotong University filed Critical Xian Jiaotong University
Priority to CN202010270673.4A priority Critical patent/CN111461350B/zh
Publication of CN111461350A publication Critical patent/CN111461350A/zh
Application granted granted Critical
Publication of CN111461350B publication Critical patent/CN111461350B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种基于非线性集成模型的预测数据错误风险方法,对数据进行预处理;进行数据编码;基于编码数据构建GBDT框架下的数据错误风险预测模型,通过梯度提升算法将若干个CART树的结果进行加权求和后输出为最终结果;训练GBDT模型,取出某一时间段内的所有样本,将其和全部样本分别输入到训练好的GBDT模型中进行预测;根据训练好的GBDT模型,计算所有输入的风险因素的特征重要性;根据特征重要性从高到低进行排序;使用确定的参数,以新数据集的所有样本作为输入数据,训练新的GBDT模型并取出相同时间段内的所有样本,和全部样本分别输入到训练好的新GBDT模型中进行预测。本发明实现了使用非线性的集成模型对数据错误风险的更准确的预测。

Description

一种基于非线性集成模型的预测数据错误风险方法
技术领域
本发明属于数据预测技术领域,具体涉及一种基于非线性集成模型的预测数据错误风险方法。
背景技术
现有的数据错误风险计算器主要基于两种思路:
(1)相关领域的专家依靠自身专业性知识背景筛选出他们认为重要的风险因素,通过线性模型(主要是逻辑回归模型)对这些风险因素进行学习和分析,进而对数据错误风险进行预测。
(2)使用机器学习模型(例如,遗传算法、XGBoost等)代替专家进行风险因素筛选,然后同样基于线性模型进行学习和预测。
然而,上述方法都有一个共同的局限性:它们的风险预测模型都是线性模型。尽管线性模型的形式简单、因素间关系直观且容易被非专家解释,但它具有明显劣势:
首先,它需要被关注的变量至少具有一定程度的相关性,并且通常还需要主观的建模决策(例如,要包括哪些交互项);其次,它对数据噪声的敏感性和多重共线性可能会产生误导性的结论;第三,线性模型的学习能力有限,当曲线下面积(英文名称:Area UnderCurve,英文缩写:AUC)接近0.9时,基于线性的模型很难进一步改进;第四,也是最重要的一点,线性模型难以学习风险因素间的高维非线性相关关系。
综上所述,仅使用线性模型来预测数据错误风险是不充分且不理想的,多个风险因素间的高维非线***互作用应该予以更多的关注。
发明内容
本发明所要解决的技术问题在于针对上述现有技术中的不足,提供一种基于非线性集成模型的预测数据错误风险方法,致力于学习高维非线性空间中各种风险因素之间的相互作用,以获得准确的风险评估;解决过于复杂的数据错误风险计算器难以用于实践的问题,对输入的风险因素进行了非主观地筛选,在保证预测精度的同时降低了数据维度和使用难度。
本发明采用以下技术方案:
一种基于非线性集成模型的预测数据错误风险方法,包括以下步骤:
S1、对数据进行预处理,去除无关因素、同效因素和重复因素;
S2、对于取值为分类变量形式的风险因素进行数据编码;
S3、基于编码数据构建GBDT框架下的数据错误风险预测模型,通过梯度提升算法将若干个CART树的结果进行加权求和后输出为最终结果;
S4、使用上一步中确定的参数,使用所有样本作为输入数据,训练一个GBDT模型;然后,取出某一时间段内的所有样本,将取出的样本和全部样本分别输入到训练好的GBDT模型中进行预测;
S5、根据训练好的GBDT模型,计算所有输入的风险因素的特征重要性;
S6、根据得到的特征重要性,从高到低对所有风险因素进行排序,保留排名前15的风险因素并重新构造数据集;
S7、使用步骤S4确定的参数,以新数据集的所有样本作为输入数据,训练一个新的GBDT模型;然后从新数据集中取出与步骤S4中相同时间段内的所有样本,将其和全部样本分别输入到训练好的新GBDT模型中进行预测。
具体的,步骤S1具体为:
S101、将无关因素和同效因素剔除;
S102、找出所有有重复记录的风险因素,如果某一因素拥有分类变量形式的记录,则保留该记录,删除其他重复记录;如果某一因素只有数值变量形式的记录,则保留其中数据质量最高的记录,删除其他重复记录。
具体的,步骤S2中,编码规则具体为:
对每个风险因素的每个取值都进行编码;对于取值表达着程度上高低关系的风险因素,按照从低到高的顺序进行编码;对于在不同因素中取值有对应关系的风险因素,将按照一致的编码顺序进行编码。
具体的,步骤S3具体为:
S301、假设包含N个样本的输入数据为X={x1,x2,...,xN},对应的标签为Y={y1,y2,...,yN},确定损失函数;
S302、GBDT在每轮迭代中创建一棵新的CART树,使用损失函数的负梯度拟合上一轮学***行于损失函数负梯度的函数来近似残差,并以最小化该残差作为优化目标,整个GBDT模型不断重复上述迭代优化过程,直到m=M,停止迭代,并返回整个过程中训练的所有CART树,作为最终模型构建GBDT框架;
S303、使用多层次网格搜索方法对参数进行选择,确定模型中树的个数、每棵树的深度、每棵树的叶结点个数、每次迭代的采样频次和每次迭代的采样比例。
进一步的,步骤S302中,当目前迭代次数m=M,最终模型为:
Figure BDA0002443040430000031
其中,M为最大迭代次数,wm为在第m次迭代中的权重,h为所使用的基学习器。
进一步的,步骤S303具体为:
S30301、为每个参数设置取值范围;
S30302、将参数放入一个集合中,选定其中一个参数,在集合中其他参数不变的情况下遍历所有取值,然后选择结果最好的参数取值;
S30303、对集合中的每个参数重复步骤S30302,直到集合中所有参数都得到各自的最优值;
S30304、清空集合,选择未选择过的参数放入,然后重复S30302和步骤S30303;
S30305、重复步骤S30302、S30303和步骤S30304,直到所有参数得到最优取值。
具体的,步骤S5具体为:
S501、给定某棵CART树的一个非叶节点k,计算未划分前的基尼值Ginik
S502、假设k最终以特征c进行划分,确定特征c在节点k上的重要性Vc,k
S503、将特征c在所有非叶节点上的重要性相加,得到特征c在整棵CART树上的重要性Vc
S504、将特征c在所有CART树上的重要性相加,得到特征c在整个GBDT模型中的重要性
Figure BDA0002443040430000041
进一步的,步骤S502中,特征c在节点k上的重要性Vc,k为:
Vc,k=Ginik-Ginikl-Ginikr
其中,Ginikl和Ginikr分别为划分后两个子节点的基尼值。
进一步的,步骤S503中,特征c在整棵CART树上的重要性Vc为:
Figure BDA0002443040430000051
进一步的,步骤S504中,特征c在整个GBDT模型中的重要性
Figure BDA0002443040430000052
为:
Figure BDA0002443040430000053
与现有技术相比,本发明至少具有以下有益效果:
本发明一种基于非线性集成模型的预测数据错误风险方法,解决了传统的线性预测模型精度有限且难以学习风险因素间非线***互作用的问题,预测精度优于现有技术。同时,本发明还可通过机器学习方法对输入数据进行非主观性降维,在保证预测精度优于现有技术的同时降低模型复杂度,提高了数据错误风险计算器在实践中的可使用性。
进一步的,对所有数据进行预处理,剔除无关风险因素(如文档性记录等),剔除在所有患者临床数据中取值相同的风险因素。
进一步的,找出所有有重复记录的风险因素,保留分类变量形式的记录,删除重复记录。如果没有分类变量形式的记录,则保留质量最高的数值变量形式的记录,删除重复记录。然后对所有数据的分类变量形式的风险因素按照一定规则进行编码。
进一步的,将所有数据输入到一个梯度提升树(英文名称:Gradient BoostingDecision Tree,英文缩写:GBDT)模型中进行训练,参数通过结合相关研究文献和多层网格搜索的结果来确定。同时,计算并记录每个风险因素的特征重要性。
进一步的,取出某一时间段内的所有数据,将这批数据与所有数据分别输入到训练好的GBDT模型中进行预测。
进一步的,对所有风险因素根据特征重要性从高到低进行排序,保留排名前15的风险因素,重新构造数据集。
进一步的,用所有新数据训练一个新的GBDT模型,参数与之前相同。然后分别将与之前同一时间段的新数据和所有新数据输入到训练好的新GBDT模型中进行预测。
综上所述,本发明实现了使用非线性的集成模型对数据错误风险的更准确的预测,并且通过对风险因素进行非主观地筛选实现了数据错误风险计算器的可使用性的提高。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
图1为本发明的流程示意图。
具体实施方式
本发明提供了一种基于非线性集成模型的预测数据错误风险方法,输入数据为数据—风险因素矩阵,其中每一行表示一条需要进行数据质量评估的预测数据,每一列代表一个风险因素。结合实际需要和数据的可用性选择风险因素。标签为每条预测数据的数据质量合格情况,不合格记为1,否则记为0。
请参阅图1,本发明一种基于非线性集成模型的预测数据错误风险方法,包括以下步骤:
S1、数据预处理
由于预测数据通常包含过多风险因素,且其中存在无关因素、同效因素和重复因素,因此需要进行预处理。
S101、将无关因素(如文档记录等)和同效因素(在所有患者临床数据中取值相同的因素)剔除
S102、找出所有有重复记录的风险因素。如果某一因素拥有分类变量形式的记录(例如,白细胞计数的高、正常和低),则保留该记录,删除其他重复记录。如果某一因素只有数值变量形式的记录,则保留其中数据质量最高的记录,删除其他重复记录。
S2、数据编码
对于取值为数值变量形式的风险因素不作处理,对于取值为分类变量形式的风险因素,依据以下规则进行编码:
(1)对每个风险因素的每个取值都进行编码,例如变量A共有[A1,A2,A3,A4]四个取值,则将它们分别编码为[1,2,3,4];
(2)对于取值表达着程度上高低关系的风险因素,按照从低到高的顺序进行编码,例如血清中尿素含量共有正常N、高H、非常高V三种取值,将N编码为1,H为2,V为3;
(3)对于在不同因素中取值有着对应关系的风险因素,例如所有用YES和NO进行记录的变量,将按照一致的编码顺序进行编码。
S3、基于编码数据构建GBDT框架下的数据错误风险预测模型
GBDT算法以分类回归树(英文名称:Classification and Regression Tree,英文缩写:CART)作为基学习器,以每轮迭代后的残差作为观测值,通过在负梯度上迭代地优化损失函数的方式来构建集成模型,然后通过梯度提升算法将若干个CART树的结果进行加权求和后输出为最终结果。
假设包含N个样本的输入数据为X={x1,x2,...,xN},对应的标签为Y={y1,y2,...,yN}。
S301、确定损失函数
本发明所用损失函数为二元对数似然损失函数(英文名称:binary logarithmiclikelihood loss function,英文缩写:binary log-loss),其定义为:
Figure BDA0002443040430000081
其中,pi为模型预测的输入样本xi的标签为1的概率。
S302、构建GBDT框架
GBDT在每轮迭代中都会创建一棵新的CART树,并使用损失函数的负梯度来拟合上一轮学习结果的残差,进而通过最小化损失函数来拟合本轮创建的新树。随着迭代次数的增加,训练过程中产生的残差会不断降低,从而使得加权求和后的结果不断逼近真实值。
假设最终得到的最优模型为:
Figure BDA0002443040430000082
为了使其易于处理,可将f(X)的搜索空间限制为搜索最优参数,即改写为参数形式:
Figure BDA0002443040430000083
假设每次迭代中新建立的基学习器方程以参数形式可以表示为h(X,θ)。由于GBDT的最终结果是由每个CART树的结果加权求和所得,因此前t次迭代的结果可表示为:
Figure BDA0002443040430000084
其中,wi、θi分别为在第i次迭代中基学习器的权重和参数。
根据树的前向分布算法,上式可改写为:
ft(X,θt)=ft-1(X,θt-1)+wth(X,θt)
此时,最小化前t次迭代的损失函数可以等价于:
Figure BDA0002443040430000091
使用残差Ψ(Y,ft-1(X,θt-1))来估计(wtt)。
当所用损失函数是易于获得残差或参数估计值的函数时,使用梯度下降法可以快速而简单地进行寻优。然而在实践中,一些自定义的损失函数难以做到,因此可以选择一个最平行于损失函数负梯度的函数来近似残差,并以最小化该残差作为优化目标。
给定前t-1次迭代的损失函数的负梯度Gt(xi),此时可以使用最小二乘法作为一般解决方案来替换困难优化任务,具体为:
Figure BDA0002443040430000092
则上式可改写为:
Figure BDA0002443040430000093
假设最大迭代次数为M,当目前迭代次数m=0时,初始化模型为:
Figure BDA0002443040430000094
其中,θ0分别初始化赋予的参数,c为初始模型拟合的常数。
随着迭代的进行,整个GBDT模型将不断重复上述迭代优化过程,直到m=M,停止迭代,并返回整个过程中训练的所有CART树,作为最终模型:
Figure BDA0002443040430000095
S303、选择参数并确定参数取值
本发明使用了多层次的网格搜索方法对参数进行选择,主要步骤为:
S30301、为每个参数设置取值范围;
S30302、选择少量的参数放入一个集合中,选定其中一个参数,在集合中其他参数不变的情况下遍历它的所有取值,然后选择其中结果最好的参数取值;
S30303、对集合中的每个参数重复步骤S30302,直到集合中所有参数都得到各自的最优值;
S30304、清空集合,选择一些新的未选择过的参数放入,然后重复S30302和步骤S30303;
S30305、重复步骤S30302、S30303和步骤S30304,直到所有参数得到最优取值。
另外,考虑到使用过多的参数会降低模型的泛化能力,因此对每个参数在其他参数不变的情况下评估它对结果的影响能力,最终选定了5个参数:模型中树的个数(英文名称:the number of trees,取值为500)、每棵树的深度(英文名称:the depth,取值为5)、每棵树的叶结点个数(英文名称:the number of leaf nodes,取值为12)、每次迭代的采样频次(英文名称:the bagging frequency,取值为1)和每次迭代的采样比例(英文名称:thebagging fraction,取值为0.1)。其余参数均为默认值。
S4、使用上一步中确定的参数,使用所有样本作为输入数据,训练一个GBDT模型。然后,取出某一时间段内的所有样本,将其和全部样本分别输入到训练好的GBDT模型中进行预测。
S5、根据训练好的GBDT模型,计算所有输入的风险因素的特征重要性;
GBDT模型的基学习器全部为CART树,在CART中,某一特征的重要性可通过计算其在所有非叶节点划分前后的基尼值(英文名称:Gini value)减少量来评估,减少量越大说明该特征越重要。将该特征在所有树中的重要性相加,可以得到其在整个GBDT模型中的重要性。主要步骤为:
S501、给定某棵CART树的一个非叶节点k,计算未划分前的基尼值:
Figure BDA0002443040430000111
其中,pk,i为k中第i类样本所占的比例,i=1,2,...,I。
S502、假设k最终以特征c进行划分,Ginikl和Ginikr分别为划分后两个子节点的基尼值,则特征c在节点k上的重要性为:
Vc,k=Ginik-Ginikl-Ginikr
如果k不以特征c进行划分,则Vc,k=0。
S503、将特征c在所有非叶节点上的重要性相加,可得其在整棵CART树上的重要性:
Figure BDA0002443040430000112
S504、将特征c在所有CART树上的重要性相加,可得其在整个GBDT模型中的重要性:
Figure BDA0002443040430000113
S6、根据得到的特征重要性,从高到低对所有风险因素进行排序,保留排名前15的风险因素并重新构造数据集;
S7、使用与步骤S4中相同的参数,以新数据集的所有样本作为输入数据,训练一个新的GBDT模型;然后,从新数据集中取出与步骤S4中相同时间段内的所有样本,将其和全部样本分别输入到训练好的新GBDT模型中进行预测。
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中的描述和所示的本发明实施例的组件可以通过各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
以某地区医院监管部门公布的2010-2012年的临床数据作为实验数据,覆盖普通外科、泌尿外科、整形外科和小儿外科等多个领域,包含15299条患者临床数据、116个风险因素和这些患者数据的质量合格情况(不合格则标签为1,否则为0)。
数据在使用前已经经过脱敏处理,删除了任何可能复现患者个人信息的数据特征。
本发明在Python3.7环境下借助微软第三方库LightGBM(获取途径:https://github.com/microsoft/LightGBM)进行实验。
原始数据经过预处理和编码后,转化为包含15299条患者临床数据、66个风险因素的输入矩阵,用来训练一个GBDT模型,随后将全部的三年数据和最后一年的数据分别输入到训练好的模型中进行预测,结果如表1所示。
表1.使用全部风险因素时本发明的结果
Figure BDA0002443040430000121
Figure BDA0002443040430000131
本发明在两组数据上的AUC均在0.95以上,HLc均在9以下,对应的P值也远大于0.05,说明本发明同时具有出色的准确度和校准度,这样的效果是基于线性模型的现有技术所难以达到的。
为了提高本发明的可使用性,通过计算风险因素的特征重要性,选出最重要的15个风险因素。随后,重新构造包含15299条临床数据、15个风险因素的新输入矩阵,采用与前一实验相同的模型参数,训练了一个新的GBDT模型,并分别将新的三年数据和新的最后一年数据输入其中进行预测,结果如表2所示。
表2.使用排名前15的风险因素时本发明的结果
AUC HL<sub>c</sub> HL<sub>c</sub>对应的P值
全部三年数据 0.915 10.859 0.210
最后一年数据 0.921 4.587 0.801
值得注意的是,该数据集是一个包含了多个不同外科领域的综合性数据集,而同一风险因素在不同领域中的意义可能有所不同,它可能在特定领域中起着关键的作用,但综合来看却没有那么重要。因此,在此数据中,每个风险因素或多或少都会对结果做出一定的贡献,删除它们必然产生一定的负面影响,这也是表2中结果相对于表1而言有所下降的原因。尽管如此,该结果仍然比基于线性模型的现有技术的结果要显著地好。
本发明采用了两种在数据错误风险计算器效果评估中常用的评价指标:曲线下面积(AUC)——用来评价模型准确度;Hosmer-Lemeshow检验(英文名称:Hosmer-Lemeshowtest,英文缩写:HLc)——用来评价模型的校准度。
(1)曲线下面积(AUC)
AUC是指“受试者工作特征曲线”(英文名称:Receiver OperatingCharacteristic curve,英文缩写:ROC)下的面积,AUC越高说明模型的准确度越高。ROC是以“假正例率”(英文名称:False Positive Rate,英文缩写:FPR)为横轴、以“真正例率”(英文名称:True Positive Rate,英文缩写:TPR)为纵轴来描绘模型预测结果的图像,二者定义分别为:
Figure BDA0002443040430000141
绘图过程为:
给定m+个正例和m-个反例,根据模型预测结果从高到低对样本进行排序;
将初始分类阈值设为最大,即所有样本的预测均为反例,此时TPR和FPR均为0,即图像初始点为原点;
将分类阈值依次设为每个样本的预测值,即依次将每个样本预测为正例,假设前一个样本点坐标为(x,y),当前样本点若为真正例,则其坐标为
Figure BDA0002443040430000142
否则为
Figure BDA0002443040430000143
在图中绘出所有坐标点后,以线段相连,所得图像即ROC。
给定ROC中所有点的坐标{(x1,y1),(x2,y2),...,(xm,ym)}(x1=0,xm=1),可得:
Figure BDA0002443040430000144
(2)Hosmer-Lemeshow检验(HLc)
Hosmer-Lemeshow检验是判断模型拟合优度的一种检验方法,用来评价预测值与标签的重合程度。在得到概率形式的模型预测值后,将所有样本的模型预测值按从小到大的顺序排列,并将等分为若干组。同时,样本相对应的标签也被分为相同组数。然后,Hosmer-Lemeshow检验的卡方统计量由下式计算得到:
Figure BDA0002443040430000151
其中,G为分组数,Og和Eg分别为组g内标签值的和及预测值的和,Ng为组g内样本个数,πg为组g内预测值的均值;HLc反映了预测值与标签的偏离程度,HLc越小,二者的拟合程度越高,模型的校准度越高。
综上所述,本发明一种基于非线性集成模型的预测数据错误风险方法,与现有的基于线性模型的数据错误风险计算器相比较,由于采用了可以捕捉风险因素间非线***互作用的非线性集成模型,从而使得本发明克服了现有技术在性能上的瓶颈,具有准确度上和校准度上的双重优势。第9部分中在真实临床数据上的实验,证明了本发明具有更好的效果和性能。
以上内容仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明权利要求书的保护范围之内。

Claims (10)

1.一种基于非线性集成模型的预测数据错误风险方法,其特征在于,包括以下步骤:
S1、对数据进行预处理,去除无关因素、同效因素和重复因素;
S2、对于取值为分类变量形式的风险因素进行数据编码;
S3、基于编码数据构建GBDT框架下的数据错误风险预测模型,通过梯度提升算法将若干个CART树的结果进行加权求和后输出为最终结果;
S4、使用上一步中确定的参数,使用所有样本作为输入数据,训练一个GBDT模型;然后,取出某一时间段内的所有样本,将取出的样本和全部样本分别输入到训练好的GBDT模型中进行预测;
S5、根据训练好的GBDT模型,计算所有输入的风险因素的特征重要性;
S6、根据得到的特征重要性,从高到低对所有风险因素进行排序,保留排名前15的风险因素并重新构造数据集;
S7、使用步骤S4确定的参数,以新数据集的所有样本作为输入数据,训练一个新的GBDT模型;然后从新数据集中取出与步骤S4中相同时间段内的所有样本,将其和全部样本分别输入到训练好的新GBDT模型中进行预测。
2.根据权利要求1所述的基于非线性集成模型的预测数据错误风险方法,其特征在于,步骤S1具体为:
S101、将无关因素和同效因素剔除;
S102、找出所有有重复记录的风险因素,如果某一因素拥有分类变量形式的记录,则保留该记录,删除其他重复记录;如果某一因素只有数值变量形式的记录,则保留其中数据质量最高的记录,删除其他重复记录。
3.根据权利要求1所述的基于非线性集成模型的预测数据错误风险方法,其特征在于,步骤S2中,编码规则具体为:
对每个风险因素的每个取值都进行编码;对于取值表达着程度上高低关系的风险因素,按照从低到高的顺序进行编码;对于在不同因素中取值有对应关系的风险因素,将按照一致的编码顺序进行编码。
4.根据权利要求1所述的基于非线性集成模型的预测数据错误风险方法,其特征在于,步骤S3具体为:
S301、假设包含N个样本的输入数据为X={x1,x2,...,xN},对应的标签为Y={y1,y2,...,yN},确定损失函数;
S302、GBDT在每轮迭代中创建一棵新的CART树,使用损失函数的负梯度拟合上一轮学***行于损失函数负梯度的函数来近似残差,并以最小化该残差作为优化目标,整个GBDT模型不断重复上述迭代优化过程,直到m=M,停止迭代,并返回整个过程中训练的所有CART树,作为最终模型构建GBDT框架;
S303、使用多层次网格搜索方法对参数进行选择,确定模型中树的个数、每棵树的深度、每棵树的叶结点个数、每次迭代的采样频次和每次迭代的采样比例。
5.根据权利要求4所述的基于非线性集成模型的预测数据错误风险方法,其特征在于,步骤S302中,当目前迭代次数m=M,最终模型为:
Figure FDA0002443040420000021
其中,M为最大迭代次数,wm为在第m次迭代中的权重,h为所使用的基学习器。
6.根据权利要求4所述的基于非线性集成模型的预测数据错误风险方法,其特征在于,步骤S303具体为:
S30301、为每个参数设置取值范围;
S30302、将参数放入一个集合中,选定其中一个参数,在集合中其他参数不变的情况下遍历所有取值,然后选择结果最好的参数取值;
S30303、对集合中的每个参数重复步骤S30302,直到集合中所有参数都得到各自的最优值;
S30304、清空集合,选择未选择过的参数放入,然后重复S30302和步骤S30303;
S30305、重复步骤S30302、S30303和步骤S30304,直到所有参数得到最优取值。
7.根据权利要求1所述的基于非线性集成模型的预测数据错误风险方法,其特征在于,步骤S5具体为:
S501、给定某棵CART树的一个非叶节点k,计算未划分前的基尼值Ginik
S502、假设k最终以特征c进行划分,确定特征c在节点k上的重要性Vc,k
S503、将特征c在所有非叶节点上的重要性相加,得到特征c在整棵CART树上的重要性Vc
S504、将特征c在所有CART树上的重要性相加,得到特征c在整个GBDT模型中的重要性Vc *
8.根据权利要求7所述的基于非线性集成模型的预测数据错误风险方法,其特征在于,步骤S502中,特征c在节点k上的重要性Vc,k为:
Vc,k=Ginik-Ginikl-Ginikr
其中,Ginikl和Ginikr分别为划分后两个子节点的基尼值。
9.根据权利要求7所述的基于非线性集成模型的预测数据错误风险方法,其特征在于,步骤S503中,特征c在整棵CART树上的重要性Vc为:
Figure FDA0002443040420000041
10.根据权利要求7所述的基于非线性集成模型的预测数据错误风险方法,其特征在于,步骤S504中,特征c在整个GBDT模型中的重要性Vc *为:
Vc *=∑Vc
CN202010270673.4A 2020-04-08 2020-04-08 一种基于非线性集成模型的预测数据错误风险方法 Active CN111461350B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010270673.4A CN111461350B (zh) 2020-04-08 2020-04-08 一种基于非线性集成模型的预测数据错误风险方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010270673.4A CN111461350B (zh) 2020-04-08 2020-04-08 一种基于非线性集成模型的预测数据错误风险方法

Publications (2)

Publication Number Publication Date
CN111461350A CN111461350A (zh) 2020-07-28
CN111461350B true CN111461350B (zh) 2022-12-09

Family

ID=71683634

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010270673.4A Active CN111461350B (zh) 2020-04-08 2020-04-08 一种基于非线性集成模型的预测数据错误风险方法

Country Status (1)

Country Link
CN (1) CN111461350B (zh)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110119540B (zh) * 2019-04-19 2022-05-03 电子科技大学 一种用于生存风险分析的多输出梯度提升树建模方法
CN110110906B (zh) * 2019-04-19 2023-04-07 电子科技大学 一种基于Efron近似优化的生存风险建模方法
CN110309771B (zh) * 2019-06-28 2023-03-24 南京丰厚电子有限公司 一种基于gbdt-insgaii的eas声磁***标签识别算法

Also Published As

Publication number Publication date
CN111461350A (zh) 2020-07-28

Similar Documents

Publication Publication Date Title
Varol Altay et al. Performance analysis of multi-objective artificial intelligence optimization algorithms in numerical association rule mining
US7801836B2 (en) Automated predictive data mining model selection using a genetic algorithm
CN110362723B (zh) 一种题目特征表示方法、装置及存储介质
Mieth et al. DeepCOMBI: explainable artificial intelligence for the analysis and discovery in genome-wide association studies
US8032473B2 (en) Generalized reduced error logistic regression method
CN110555459A (zh) 基于模糊聚类和支持向量回归的成绩预测方法
CN110069817A (zh) 一种基于改进灰鲸优化算法来构建预测模型的方法
Rahmani et al. Plant competition optimization: A novel metaheuristic algorithm
CN116170328A (zh) 图形编码的使用带宽预测方法及装置
Jayasundara et al. Interpretable student performance prediction using explainable boosting machine for multi-class classification
Tiruneh et al. Feature selection for construction organizational competencies impacting performance
Li Application of Machine learning and data mining in Medicine: Opportunities and considerations
CN112819256A (zh) 一种基于注意力机制的卷积时序房价预测方法
Scherger et al. A systematic overview of the prediction of business failure
CN111461350B (zh) 一种基于非线性集成模型的预测数据错误风险方法
Xue et al. Comparison of population-based algorithms for optimizing thinnings and rotation using a process-based growth model
Hein et al. Can we compare effect size of spatial genetic structure between studies and species using Moran eigenvector maps?
CN114821248A (zh) 面向点云理解的数据主动筛选标注方法和装置
Azghani et al. Intelligent modified mean shift tracking using genetic algorithm
CN113838519A (zh) 基于自适应基因交互正则化弹性网络模型的基因选择方法及***
Gower et al. Inference of population genetics parameters using discriminator neural networks: an adversarial Monte Carlo approach
CN112509640B (zh) 基因本体项名称生成方法、装置及存储介质
Kurz et al. Isolating cost drivers in interstitial lung disease treatment using nonparametric Bayesian methods
Ding et al. 2.4 Bayesian Analysis for Dimensionality and Complexity Reduction
CN118351943A (zh) 一种基于全连接神经网络的阿尔茨海默症基因预测算法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant