CN111429215B - 数据的处理方法和装置 - Google Patents
数据的处理方法和装置 Download PDFInfo
- Publication number
- CN111429215B CN111429215B CN202010192671.8A CN202010192671A CN111429215B CN 111429215 B CN111429215 B CN 111429215B CN 202010192671 A CN202010192671 A CN 202010192671A CN 111429215 B CN111429215 B CN 111429215B
- Authority
- CN
- China
- Prior art keywords
- training
- neural network
- convolutional neural
- network model
- variables
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title abstract description 14
- 238000012549 training Methods 0.000 claims abstract description 149
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 83
- 238000000034 method Methods 0.000 claims abstract description 47
- 238000012545 processing Methods 0.000 claims description 41
- 239000011159 matrix material Substances 0.000 claims description 22
- 238000003860 storage Methods 0.000 claims description 15
- 238000010801 machine learning Methods 0.000 abstract description 14
- 238000004590 computer program Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000010276 construction Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000006399 behavior Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000007477 logistic regression Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002265 prevention Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000012954 risk control Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0609—Buyer or seller confidence or verification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0633—Lists, e.g. purchase orders, compilation or processing
- G06Q30/0635—Processing of requisition or of purchase orders
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Strategic Management (AREA)
- Marketing (AREA)
- Economics (AREA)
- Development Economics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- General Business, Economics & Management (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种数据的处理方法和装置。该方法包括:获取训练数据集,其中,训练数据集中包含多个训练样本,其中,训练样本指的是以订单为粒度构造的变量;将训练数据集输入至卷积神经网络模型进行训练,得到训练后的卷积神经网络模型,并从训练后的卷积神经网络模型中的隐藏层提取出训练样本的新变量。通过本申请,解决了相关技术中为了避免输入机器学习模型的特征相关性太高,剔除部分高相关性特征,从而导致损失部分特征所蕴含的信息的技术问题。
Description
技术领域
本申请涉及机器学习技术领域,具体而言,涉及一种数据的处理方法和装置。
背景技术
如今互联网+移动支付的飞速普及,越来越多的用户体会到了***支付带来的便捷。同时,其作为常用支付手段之一引起不少欺诈分子的注意,***欺诈黑色产业链迅速形成,***交易欺诈案件呈现批量增长趋势,给金融机构和持卡人带来了巨大损失,扰乱了金融市场的秩序。
各行各业的平台上,每天具有成千上万的采用***支付的交易订单,进行风险控制时需要在每天海量的***交易中识别出使用盗用***支付的欺诈订单。随着人工智能的发展以及交易欺诈手法的不断升级,基于规则策略的传统反欺诈方法逐渐称为基础,利用机器学习和深度学习方法构建的反欺诈模型逐渐走入大众视线中并取得了不错的效果。利用机器学习和深度学习方法构建的反欺诈模型时,数据和特征决定了机器学习的上限,在数据和特征处理方面,主要包含数据预处理,特征构造以及特征选择这三部分,其目的是为了通过数据清洗、数据转换等方法将原始数据转化为大量具有一定业务意义的特征,从而更好地解释特定问题,并提升模型预测准确性。
其中,在特征构造方面,采用平移时间跨度构造特征,具体地,原始数据中基础信息字段有上千个,包含用户行为信息、用户画像信息、订单出行信息等,从中筛选出构造变量所需的基础字段,同时通过对业务及模型使用场景的深入理解与分析来构造变量。例如,从交易行为出发利用基础统计方法构造的频数或者比例型变量是变量库的主要组成部分,比如,通过账户号、手机号、邮箱和***等维度出发累计某段时间范围内的用户行为,统计3天内同***下账户号的次数,3天内同设备号下交易量的次数或同一张卡历史90天内银行通过的交易量等。
但是,上述平移时间跨度构造特征的方法会带来一个无法避免的问题,即特征间会存在着较强的相关性,同时由于不同业务的需求程度不同,如出行旅游需求并不如购物需求那么强烈必需,低频的原始数据更易构造,但也会存在高相关性,而高相关性的特征放入模型中训练会造成一系列问题。
在风控场景或者消费金融场景中,如果要利用逻辑回归算法构造解释性较强的模型,利用牛顿迭代法近似求解逻辑回归系数时,其中有对海森矩阵求逆的运算步骤,如果特征间的相关性过高,特征矩阵中的某些行会近似成倍数关系,极端情况下矩阵会非满秩行列式为零。即使能求解出矩阵的逆,也会导致求解出的系数相当不稳定,对y或者x的细微扰动很敏感。而如果利用基学习器是决策树的相关算法时,当特征间相关性过强,每棵树构建时选择列采样,可能采样得到的特征相关性过高,其余不相关特征无法进入模型,无形增加相关性特征的权重,造成每个基学习器生长类似。
由此可以看出,传统的机器学习算法对特征相关性的容忍度较低,在将特征输入模型前需要通过特征工程这一步来解决特征间高相关性问题,相关技术中主要的解决方法是在高相关性的特征中有选择的剔除部分特征。但是,虽然特征间相关性高可能代表其包含的信息较重复,直接剔除特征意味着少量信息的舍弃。
针对相关技术中为了避免输入机器学习模型的特征相关性太高,剔除部分高相关性特征,从而导致损失部分特征所蕴含的信息的技术问题,目前尚未提出有效的解决方案。
发明内容
本申请提供一种数据的处理方法和装置,以解决相关技术中为了避免输入机器学习模型的特征相关性太高,剔除部分高相关性特征,从而导致损失部分特征所蕴含的信息的技术问题。
根据本申请的一个方面,提供了一种数据的处理方法。该方法包括:获取训练数据集,其中,训练数据集中包含多个训练样本,其中,训练样本指的是以订单为粒度构造的变量;将训练数据集输入至卷积神经网络模型进行训练,得到训练后的卷积神经网络模型,并从训练后的卷积神经网络模型中的隐藏层提取出训练样本的新变量。
可选地,订单由主体和客体构成,训练样本为不同主体和客体在不同时间窗口下的特征值构成的矩阵,其中,主体用于表征订单的用户信息,客体用于表征订单的订单信息。
可选地,从训练后的卷积神经网络模型中的隐藏层提取出训练样本的新变量包括:识别出目标风险下矩阵中的无效特征区域;从隐藏层提取出无效特征区域包含的特征值;根据无效特征区域包含的特征值确定训练样本的新变量。
可选地,卷积神经网络模型的特征至少包括:局部连接以及权重共享,其中,局部连接为卷积神经网络模型中的多个局部区域内的所有节点与下一层节点的连接关系,权重共享为扫描局部区域时,节点的链接权重共享。
可选地,在得到训练后的卷积神经网络模型之后,该方法还包括:将训练样本的新变量输入主模型;使用主模型处理训练样本的新变量,得到预测结果。
根据本申请的另一方面,提供了一种数据的处理装置。该装置包括:获取单元,用于获取训练数据集,其中,训练数据集中包含多个训练样本,其中,训练样本指的是以订单为粒度构造的变量;训练单元,用于将训练数据集输入至卷积神经网络模型进行训练,得到训练后的卷积神经网络模型,并从训练后的卷积神经网络模型中的隐藏层提取出训练样本的新变量。
可选地,订单由主体和客体构成,训练样本为不同主体和客体在不同时间窗口下的特征值构成的矩阵,其中,主体用于表征订单的用户信息,客体用于表征订单的订单信息。
可选地,训练单元包括:识别模块,用于识别出目标风险下矩阵中的无效特征区域;处理模块,用于从隐藏层提取出无效特征区域包含的特征值;确定模块,用于根据无效特征区域包含的特征值确定训练样本的新变量。
可选地,卷积神经网络模型的特征至少包括:局部连接以及权重共享,其中,局部连接为卷积神经网络模型中的多个局部区域内的所有节点与下一层节点的连接关系,权重共享为扫描局部区域时,节点的链接权重共享。
可选地,该装置还包括:输入单元,用于在在得到训练后的卷积神经网络模型之后,将训练样本的新变量输入主模型;预测单元,用于使用主模型处理训练样本的新变量,得到预测结果。
为了实现上述目的,根据本申请的另一方面,提供了一种存储介质,存储介质包括存储的程序,其中,程序执行上述任意一种数据的处理方法。
为了实现上述目的,根据本申请的另一方面,提供了一种处理器,处理器用于运行程序,其中,程序运行时执行上述任意一种数据的处理方法。
通过本申请,采用以下步骤:获取训练数据集,其中,训练数据集中包含多个训练样本,其中,训练样本指的是以订单为粒度构造的变量;将训练数据集输入至卷积神经网络模型进行训练,得到训练后的卷积神经网络模型,并从训练后的卷积神经网络模型中的隐藏层提取出训练样本的新变量,解决了相关技术中为了避免输入机器学习模型的特征相关性太高,剔除部分高相关性特征,从而导致损失部分特征所蕴含的信息的技术问题。通过从训练后的卷积神经网络模型中的隐藏层提取出训练样本的新变量,进而达到了在分析订单情况时不受特征的高相关性的影响,也不会导致特征所蕴含的信息受损的效果。
附图说明
构成本申请的一部分的附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请实施例提供的数据的处理方法的流程图;
图2是根据本申请实施例提供的数据的处理方法中训练样本的示意图;
图3是根据本申请实施例提供的数据的处理方法中卷积神经网络模型训练的示意图;以及
图4是根据本申请实施例提供的数据的处理装置的示意图。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、***、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
为了便于描述,以下对本申请实施例涉及的部分名词或术语进行说明:
卷积神经网络:Convolutional Neural Network,简称CNN,是神经网络算法的一种,与传统神经网络相比,CNN模型在传统神经网络之前加入了“卷积层”,“卷积层”是对输入信息的“变换”,变换的应用条件一般是要求卷积对象有局部相关性,变换的宗旨是观察输入信息的局部特征,利用对局部特征的刻画来达到降低维度、减噪、提升预测效率的目的。
根据本申请的实施例,提供了一种数据的处理方法。
图1是根据本申请实施例的数据的处理方法的流程图。如图1所示,该方法包括以下步骤:
步骤S101,获取训练数据集,其中,训练数据集中包含多个训练样本,其中,训练样本指的是以订单为粒度构造的变量。
需要说明的是,CNN适用最成功的领域是图像识别领域,在图像识别过程中需要将图像与背景分离,消除背景带来的噪音,也即,适用CNN算法的数据特征为:数据本身包含不因噪声、位置或其他外力导致失真的具有指示能力的特征;且不同来源的特征在某种维度上存在较强的相关性或一致性,从而减少特征数量并增强整体的预测能力。
由于将图像输入神经网络时,是以像素矩阵的形式输入的,在风控场景下对订单进行分析时,可以将采集到的一个样本视化为一张图片,但是输入形式有别于传统机器学习模型的输入,具体地,若利用传统的机器学习方法预测订单是否是欺诈订单,一个样本指的是订单粒度下构造的所有变量,是1*n的向量,输入的训练数据是训练集中的m个样本,输入的是m*n的矩阵,而本实施例训练样本是以订单为粒度构造的变量,将一个样本类比为一张图片输入网络,也即,将一个样本包含的变量以矩阵形式输入网络中。
可选地,在本申请实施例提供的数据的处理方法中,订单由主体和客体构成,训练样本为不同主体和客体在不同时间窗口下的特征值构成的矩阵,其中,主体用于表征订单的用户信息,客体用于表征订单的订单信息。
具体地,训练样本对应的矩阵是各个主体与客体的组合下不同时间窗口的变量,如图2所示,主体可以为用户名uid、***cc等表用户信息,客体可以为订单号ord、手机号ctm等订单信息,不同的时间窗口可以为1小时、1天、3天、7天、15天等。
需要说明的是,在风控特定的业务场景下,如旅游场景下,由于在构造的同一个主体下统计客体频数或者比率型变量会滑动时间窗口(如1天、3天、7天、15天等),加上旅游场景交易低频的天然劣势,会导致上述类型的变量间存在高相关性。
步骤S102,将训练数据集输入至卷积神经网络模型进行训练,得到训练后的卷积神经网络模型,并从训练后的卷积神经网络模型中的隐藏层提取出训练样本的新变量。
具体地,训练数据集中包含高相关性的变量,本申请实施例对高相关性的变量无需进行变量筛选工作,尽可能多的保留原始信息,利用这些高相关变量构建卷积神经网络模型,经过一系列卷积等操作,最后在隐藏层中提取出新变量。
可选地,在本申请实施例提供的数据的处理方法中,卷积神经网络模型的特征至少包括:局部连接以及权重共享,其中,局部连接为卷积神经网络模型中的多个局部区域内的所有节点与下一层节点的连接关系,权重共享为扫描局部区域时,节点的链接权重共享。
需要说明的是,训练数据集被训练成何种结果,不仅取决于数据内容本身,还取决于如何被训练的,而CNN如何训练数据取决于模型的特征,CNN有两大特征分别是局部连接以及权重共享,如图3所示的CNN训练的简略图,先输入训练数据集,训练数据通过隐藏层(包括卷积层和全连接层)训练,最终进行输出,局部连接指的是先选择一个2x2的局部区域,用这个局部区域去扫描整张图片,每个输出节点并非像前馈神经网络中那样与全部的输入节点连接,而是部分连接,在同一个局部区域所圈起来的所有节点才会被统一连接到下一层的一个节点上;而权重共享则指的是当同一个局部区域扫过不同区域时,节点的链接权重是相同,如图3所示,即w1,w2,w3,w4,b是共用的。
可选地,在本申请实施例提供的数据的处理方法中,从训练后的卷积神经网络模型中的隐藏层提取出训练样本的新变量包括:识别出目标风险下矩阵中的无效特征区域;从隐藏层提取出无效特征区域包含的特征值;根据无效特征区域包含的特征值确定训练样本的新变量。
需要说明的是,类比图像矩阵中每一个点对应一个像素,本实施例则定义为每一个特征的取值,由于数据来源的关系,输入的矩阵天然存在局部相关性,通过大规模分析用户样本可以发现高风险用户在某些区域上有持续的共同或相似之处,体现出基本的“图片轮廓”,同时,存在一些区域的取值在高风险和低风险的用户之间并无差异,即在风险识别的目标下无效的特征区域,上述区分风险点的结果可以在CNN网络最后一层隐藏层中体现出
本实施例结合CNN自身的应用条件,类比图片识别模式,在风控场景针对频数或者比率型的特定特征间高相关性的数据通过CNN进行训练,并将CNN中最后一层隐藏层输出为新变量。
可选地,在本申请实施例提供的数据的处理方法中,在得到训练后的卷积神经网络模型之后,该方法还包括:将训练样本的新变量输入主模型;使用主模型处理训练样本的新变量,得到预测结果。
需要说明的是,由于区分风险点的结果可以在CNN网络最后一层隐藏层中体现出,将其作为变量提取出来再加入主模型中,最终得到订单是否为欺诈订单的预测结果,具体地,主模型可以为树模型等。
本申请实施例提供的数据的处理方法,通过获取训练数据集,其中,训练数据集中包含多个训练样本,其中,训练样本指的是以订单为粒度构造的变量;将训练数据集输入至卷积神经网络模型进行训练,得到训练后的卷积神经网络模型,并从训练后的卷积神经网络模型中的隐藏层提取出训练样本的新变量,解决了相关技术中为了避免输入机器学习模型的特征相关性太高,剔除部分高相关性特征,从而导致损失部分特征所蕴含的信息的技术问题。通过从训练后的卷积神经网络模型中的隐藏层提取出训练样本的新变量,进而达到了在分析订单情况时不受特征的高相关性的影响,也不会导致特征所蕴含的信息受损的效果。
需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机***中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
本申请实施例还提供了一种数据的处理装置,需要说明的是,本申请实施例的数据的处理装置可以用于执行本申请实施例所提供的用于数据的处理方法。以下对本申请实施例提供的数据的处理装置进行介绍。
图4是根据本申请实施例的数据的处理装置的示意图。如图4所示,该装置包括:获取单元10和训练单元20。
具体地,获取单元10,用于获取训练数据集,其中,训练数据集中包含多个训练样本,其中,训练样本指的是以订单为粒度构造的变量。
训练单元20,用于将训练数据集输入至卷积神经网络模型进行训练,得到训练后的卷积神经网络模型,并从训练后的卷积神经网络模型中的隐藏层提取出训练样本的新变量。
可选地,在本申请实施例提供的数据的处理装置中,订单由主体和客体构成,训练样本为不同主体和客体在不同时间窗口下的特征值构成的矩阵,其中,主体用于表征订单的用户信息,客体用于表征订单的订单信息。
可选地,在本申请实施例提供的数据的处理装置中,训练单元20包括:识别模块,用于识别出目标风险下矩阵中的无效特征区域;处理模块,用于从隐藏层提取出无效特征区域包含的特征值;确定模块,用于根据无效特征区域包含的特征值确定训练样本的新变量。
可选地,在本申请实施例提供的数据的处理装置中,卷积神经网络模型的特征至少包括:局部连接以及权重共享,其中,局部连接为卷积神经网络模型中的多个局部区域内的所有节点与下一层节点的连接关系,权重共享为扫描局部区域时,节点的链接权重共享。
可选地,在本申请实施例提供的数据的处理装置中,该装置还包括:输入单元,用于在在得到训练后的卷积神经网络模型之后,将训练样本的新变量输入主模型;预测单元,用于使用主模型处理训练样本的新变量,得到预测结果。
本申请实施例提供的数据的处理装置,通过获取单元10获取训练数据集,其中,训练数据集中包含多个训练样本,其中,训练样本指的是以订单为粒度构造的变量;训练单元20将训练数据集输入至卷积神经网络模型进行训练,得到训练后的卷积神经网络模型,并从训练后的卷积神经网络模型中的隐藏层提取出训练样本的新变量,解决了相关技术中为了避免输入机器学习模型的特征相关性太高,剔除部分高相关性特征,从而导致损失部分特征所蕴含的信息的技术问题,通过从训练后的卷积神经网络模型中的隐藏层提取出训练样本的新变量,进而达到了在分析订单情况时不受特征的高相关性的影响,也不会导致特征所蕴含的信息受损的效果。
所述数据的处理装置包括处理器和存储器,上述获取单元10和训练单元20等均作为程序单元存储在存储器中,由处理器执行存储在存储器中的上述程序单元来实现相应的功能。
处理器中包含内核,由内核去存储器中调取相应的程序单元。内核可以设置一个或以上,通过调整内核参数来解决为了避免输入机器学习模型的特征相关性太高,剔除部分高相关性特征,从而导致损失部分特征所蕴含的信息的技术问题。
存储器可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM),存储器包括至少一个存储芯片。
本发明实施例提供了一种存储介质,其上存储有程序,该程序被处理器执行时实现所述数据的处理方法。
本发明实施例提供了一种处理器,所述处理器用于运行程序,其中,所述程序运行时执行所述数据的处理方法。
本发明实施例提供了一种设备,设备包括处理器、存储器及存储在存储器上并可在处理器上运行的程序,处理器执行程序时实现以下步骤:获取训练数据集,其中,训练数据集中包含多个训练样本,其中,训练样本指的是以订单为粒度构造的变量;将训练数据集输入至卷积神经网络模型进行训练,得到训练后的卷积神经网络模型,并从训练后的卷积神经网络模型中的隐藏层提取出训练样本的新变量。
订单由主体和客体构成,训练样本为不同主体和客体在不同时间窗口下的特征值构成的矩阵,其中,主体用于表征订单的用户信息,客体用于表征订单的订单信息。
从训练后的卷积神经网络模型中的隐藏层提取出训练样本的新变量包括:识别出目标风险下矩阵中的无效特征区域;从隐藏层提取出无效特征区域包含的特征值;根据无效特征区域包含的特征值确定训练样本的新变量。
卷积神经网络模型的特征至少包括:局部连接以及权重共享,其中,局部连接为卷积神经网络模型中的多个局部区域内的所有节点与下一层节点的连接关系,权重共享为扫描局部区域时,节点的链接权重共享。
在得到训练后的卷积神经网络模型之后,该方法还包括:将训练样本的新变量输入主模型;使用主模型处理训练样本的新变量,得到预测结果。本文中的设备可以是服务器、PC、PAD、手机等。
本申请还提供了一种计算机程序产品,当在数据处理设备上执行时,适于执行初始化有如下方法步骤的程序:获取训练数据集,其中,训练数据集中包含多个训练样本,其中,训练样本指的是以订单为粒度构造的变量;将训练数据集输入至卷积神经网络模型进行训练,得到训练后的卷积神经网络模型,并从训练后的卷积神经网络模型中的隐藏层提取出训练样本的新变量。
订单由主体和客体构成,训练样本为不同主体和客体在不同时间窗口下的特征值构成的矩阵,其中,主体用于表征订单的用户信息,客体用于表征订单的订单信息。
从训练后的卷积神经网络模型中的隐藏层提取出训练样本的新变量包括:识别出目标风险下矩阵中的无效特征区域;从隐藏层提取出无效特征区域包含的特征值;根据无效特征区域包含的特征值确定训练样本的新变量。
卷积神经网络模型的特征至少包括:局部连接以及权重共享,其中,局部连接为卷积神经网络模型中的多个局部区域内的所有节点与下一层节点的连接关系,权重共享为扫描局部区域时,节点的链接权重共享。
在得到训练后的卷积神经网络模型之后,该方法还包括:将训练样本的新变量输入主模型;使用主模型处理训练样本的新变量,得到预测结果。
本领域内的技术人员应明白,本申请的实施例可提供为方法、***、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
存储器可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。存储器是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本申请的实施例可提供为方法、***或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
以上仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。
Claims (10)
1.一种数据的处理方法,其特征在于,包括:
获取训练数据集,其中,所述训练数据集中包含多个训练样本,其中,所述训练样本指的是以订单为粒度构造的变量,其中,每个训练样本包含的变量以矩阵形式呈现,所述订单由主体和客体构成,所述训练样本为不同主体和客体在不同时间窗口下的特征值构成的矩阵,所述主体用于表征所述订单的用户信息,所述客体用于表征所述订单的订单信息;
将所述训练数据集输入至卷积神经网络模型进行训练,得到训练后的卷积神经网络模型,并从所述训练后的卷积神经网络模型中的隐藏层提取出所述训练样本的新变量,其中,所述训练样本的新变量用于预测欺诈订单。
2.根据权利要求1所述的方法,其特征在于,从所述训练后的卷积神经网络模型中的隐藏层提取出所述训练样本的新变量包括:
识别出目标风险下所述矩阵中的无效特征区域;
从所述隐藏层提取出所述无效特征区域包含的特征值;
根据所述无效特征区域包含的特征值确定所述训练样本的新变量。
3.根据权利要求1所述的方法,其特征在于,所述卷积神经网络模型的特征至少包括:局部连接以及权重共享,其中,所述局部连接为所述卷积神经网络模型中的多个局部区域内的所有节点与下一层节点的连接关系,所述权重共享为扫描所述局部区域时,节点的链接权重共享。
4.根据权利要求1至3中任意一项所述的方法,其特征在于,在得到训练后的卷积神经网络模型之后,所述方法还包括:
将所述训练样本的新变量输入主模型;
使用所述主模型处理所述训练样本的新变量,得到预测结果。
5.一种数据的处理装置,其特征在于,包括:
获取单元,用于获取训练数据集,其中,所述训练数据集中包含多个训练样本,其中,所述训练样本指的是以订单为粒度构造的变量,其中,每个训练样本包含的变量以矩阵形式呈现,所述订单由主体和客体构成,所述训练样本为不同主体和客体在不同时间窗口下的特征值构成的矩阵,所述主体用于表征所述订单的用户信息,所述客体用于表征所述订单的订单信息;
训练单元,用于将所述训练数据集输入至卷积神经网络模型进行训练,得到训练后的卷积神经网络模型,并从所述训练后的卷积神经网络模型中的隐藏层提取出所述训练样本的新变量,其中,所述训练样本的新变量用于预测欺诈订单。
6.根据权利要求5所述的装置,其特征在于,所述训练单元包括:
识别模块,用于识别出目标风险下所述矩阵中的无效特征区域;
处理模块,用于从所述隐藏层提取出所述无效特征区域包含的特征值;
确定模块,用于根据所述无效特征区域包含的特征值确定所述训练样本的新变量。
7.根据权利要求5所述的装置,其特征在于,所述卷积神经网络模型的特征至少包括:局部连接以及权重共享,其中,所述局部连接为所述卷积神经网络模型中的多个局部区域内的所有节点与下一层节点的连接关系,所述权重共享为扫描所述局部区域时,节点的链接权重共享。
8.根据权利要求5至6中任意一项所述的装置,其特征在于,所述装置还包括:
输入单元,用于在在得到训练后的卷积神经网络模型之后,将所述训练样本的新变量输入主模型;
预测单元,用于使用所述主模型处理所述训练样本的新变量,得到预测结果。
9.一种存储介质,其特征在于,所述存储介质包括存储的程序,其中,在所述程序运行时控制所述存储介质所在设备执行权利要求1至4中任意一项所述数据的处理方法。
10.一种处理器,其特征在于,所述处理器用于运行程序,其中,所述程序运行时执行权利要求1至4中任意一项所述数据的处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010192671.8A CN111429215B (zh) | 2020-03-18 | 2020-03-18 | 数据的处理方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010192671.8A CN111429215B (zh) | 2020-03-18 | 2020-03-18 | 数据的处理方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111429215A CN111429215A (zh) | 2020-07-17 |
CN111429215B true CN111429215B (zh) | 2023-10-31 |
Family
ID=71547525
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010192671.8A Active CN111429215B (zh) | 2020-03-18 | 2020-03-18 | 数据的处理方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111429215B (zh) |
Citations (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107145893A (zh) * | 2017-03-13 | 2017-09-08 | 中国矿业大学 | 一种基于卷积深度网络的图像识别算法及*** |
CN107291822A (zh) * | 2017-05-24 | 2017-10-24 | 北京邮电大学 | 基于深度学习的问题分类模型训练方法、分类方法及装置 |
CN107609598A (zh) * | 2017-09-27 | 2018-01-19 | 武汉斗鱼网络科技有限公司 | 图像鉴别模型训练方法、装置及可读存储介质 |
CN108510194A (zh) * | 2018-03-30 | 2018-09-07 | 平安科技(深圳)有限公司 | 风控模型训练方法、风险识别方法、装置、设备及介质 |
CN108648020A (zh) * | 2018-05-15 | 2018-10-12 | 携程旅游信息技术(上海)有限公司 | 用户行为量化方法、***、设备及存储介质 |
CN109002890A (zh) * | 2018-07-11 | 2018-12-14 | 北京航空航天大学 | 卷积神经网络模型的建模方法及装置 |
CN109191191A (zh) * | 2018-08-20 | 2019-01-11 | 南京工业大学 | 基于代价敏感卷积神经网络的广告点击欺诈检测方法 |
CN109214441A (zh) * | 2018-08-23 | 2019-01-15 | 桂林电子科技大学 | 一种细粒度车型识别***及方法 |
CN109325508A (zh) * | 2017-07-31 | 2019-02-12 | 阿里巴巴集团控股有限公司 | 知识表示、机器学习模型训练、预测方法、装置以及电子设备 |
CN109725626A (zh) * | 2018-11-20 | 2019-05-07 | 厦门大学 | 一种多旋翼无人机动力***故障在线诊断***及方法 |
CN109743732A (zh) * | 2018-12-20 | 2019-05-10 | 重庆邮电大学 | 基于改进的cnn-lstm的垃圾短信判别方法 |
CN110084438A (zh) * | 2019-05-09 | 2019-08-02 | 上汽安吉物流股份有限公司 | 订单的预测方法及装置、物流***以及计算机可读介质 |
CN110276741A (zh) * | 2019-03-08 | 2019-09-24 | 腾讯科技(深圳)有限公司 | 结节检测及其模型训练的方法和装置以及电子设备 |
CN110321929A (zh) * | 2019-06-04 | 2019-10-11 | 平安科技(深圳)有限公司 | 一种提取文本特征的方法、装置及存储介质 |
CN110378408A (zh) * | 2019-07-12 | 2019-10-25 | 台州宏创电力集团有限公司 | 基于迁移学习和神经网络的电力设备图像识别方法和装置 |
CN110555714A (zh) * | 2018-06-04 | 2019-12-10 | 百度在线网络技术(北京)有限公司 | 用于输出信息的方法和装置 |
CN110674188A (zh) * | 2019-09-27 | 2020-01-10 | 支付宝(杭州)信息技术有限公司 | 一种特征提取方法、装置及设备 |
CN110689359A (zh) * | 2019-09-30 | 2020-01-14 | 支付宝(杭州)信息技术有限公司 | 对模型进行动态更新的方法及装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10460747B2 (en) * | 2016-05-10 | 2019-10-29 | Google Llc | Frequency based audio analysis using neural networks |
US20190122111A1 (en) * | 2017-10-24 | 2019-04-25 | Nec Laboratories America, Inc. | Adaptive Convolutional Neural Knowledge Graph Learning System Leveraging Entity Descriptions |
CN110084603B (zh) * | 2018-01-26 | 2020-06-16 | 阿里巴巴集团控股有限公司 | 训练欺诈交易检测模型的方法、检测方法以及对应装置 |
US11151450B2 (en) * | 2018-05-21 | 2021-10-19 | Fair Isaac Corporation | System and method for generating explainable latent features of machine learning models |
-
2020
- 2020-03-18 CN CN202010192671.8A patent/CN111429215B/zh active Active
Patent Citations (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107145893A (zh) * | 2017-03-13 | 2017-09-08 | 中国矿业大学 | 一种基于卷积深度网络的图像识别算法及*** |
CN107291822A (zh) * | 2017-05-24 | 2017-10-24 | 北京邮电大学 | 基于深度学习的问题分类模型训练方法、分类方法及装置 |
CN109325508A (zh) * | 2017-07-31 | 2019-02-12 | 阿里巴巴集团控股有限公司 | 知识表示、机器学习模型训练、预测方法、装置以及电子设备 |
CN107609598A (zh) * | 2017-09-27 | 2018-01-19 | 武汉斗鱼网络科技有限公司 | 图像鉴别模型训练方法、装置及可读存储介质 |
CN108510194A (zh) * | 2018-03-30 | 2018-09-07 | 平安科技(深圳)有限公司 | 风控模型训练方法、风险识别方法、装置、设备及介质 |
CN108648020A (zh) * | 2018-05-15 | 2018-10-12 | 携程旅游信息技术(上海)有限公司 | 用户行为量化方法、***、设备及存储介质 |
CN110555714A (zh) * | 2018-06-04 | 2019-12-10 | 百度在线网络技术(北京)有限公司 | 用于输出信息的方法和装置 |
CN109002890A (zh) * | 2018-07-11 | 2018-12-14 | 北京航空航天大学 | 卷积神经网络模型的建模方法及装置 |
CN109191191A (zh) * | 2018-08-20 | 2019-01-11 | 南京工业大学 | 基于代价敏感卷积神经网络的广告点击欺诈检测方法 |
CN109214441A (zh) * | 2018-08-23 | 2019-01-15 | 桂林电子科技大学 | 一种细粒度车型识别***及方法 |
CN109725626A (zh) * | 2018-11-20 | 2019-05-07 | 厦门大学 | 一种多旋翼无人机动力***故障在线诊断***及方法 |
CN109743732A (zh) * | 2018-12-20 | 2019-05-10 | 重庆邮电大学 | 基于改进的cnn-lstm的垃圾短信判别方法 |
CN110276741A (zh) * | 2019-03-08 | 2019-09-24 | 腾讯科技(深圳)有限公司 | 结节检测及其模型训练的方法和装置以及电子设备 |
CN110084438A (zh) * | 2019-05-09 | 2019-08-02 | 上汽安吉物流股份有限公司 | 订单的预测方法及装置、物流***以及计算机可读介质 |
CN110321929A (zh) * | 2019-06-04 | 2019-10-11 | 平安科技(深圳)有限公司 | 一种提取文本特征的方法、装置及存储介质 |
CN110378408A (zh) * | 2019-07-12 | 2019-10-25 | 台州宏创电力集团有限公司 | 基于迁移学习和神经网络的电力设备图像识别方法和装置 |
CN110674188A (zh) * | 2019-09-27 | 2020-01-10 | 支付宝(杭州)信息技术有限公司 | 一种特征提取方法、装置及设备 |
CN110689359A (zh) * | 2019-09-30 | 2020-01-14 | 支付宝(杭州)信息技术有限公司 | 对模型进行动态更新的方法及装置 |
Non-Patent Citations (2)
Title |
---|
基于卷积神经网络的互联网金融信用风险预测研究;王重仁;韩冬梅;;微型机与应用(第24期);全文 * |
深度学习中的卷积神经网络***设计及硬件实现;王昆;周骅;;电子技术应用(第05期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111429215A (zh) | 2020-07-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11501205B2 (en) | System and method for synthesizing data | |
CN110909984B (zh) | 业务数据处理模型训练方法、业务数据处理方法及装置 | |
Klaas | Machine learning for finance: principles and practice for financial insiders | |
CN112365075A (zh) | 一种股票价格走势预测方法、***、终端以及存储介质 | |
CN116485406A (zh) | 账户的检测方法及装置、存储介质和电子设备 | |
CN115545886A (zh) | 逾期风险识别方法、装置、设备及存储介质 | |
Arratia et al. | Convolutional neural networks, image recognition and financial time series forecasting | |
CN111325344A (zh) | 评估模型解释工具的方法和装置 | |
CN114048322A (zh) | 知识图谱的噪声识别方法、装置及计算机可读存储介质 | |
CN112508684B (zh) | 一种基于联合卷积神经网络的催收风险评级方法及*** | |
CN111507461B (zh) | 可解释性信息确定方法及装置 | |
CN112598526A (zh) | 资产数据的处理方法及装置 | |
CN111340102B (zh) | 评估模型解释工具的方法和装置 | |
CN111429215B (zh) | 数据的处理方法和装置 | |
Wu et al. | Customer churn prediction for commercial banks using customer-value-weighted machine learning models | |
Cardoso et al. | Credit analysis with a clustering RAM-based neural classifier. | |
Preetham et al. | A Stacked Model for Approving Bank Loans | |
CN112001425A (zh) | 一种数据处理方法、装置及计算机可读存储介质 | |
CN116800831B (zh) | 一种业务数据推送方法、装置、存储介质及处理器 | |
Buitrón et al. | Machine Learning in Finance: An Application of Predictive Models to Determine the Payment Probability of a Client | |
CN113515383B (zh) | ***资源数据分配方法和装置 | |
CN116935428A (zh) | 票据识别方法、装置和处理器及电子设备 | |
Florindo et al. | A pseudo-parabolic diffusion model to enhance deep neural texture features | |
Liu et al. | Credit Default of P2P Online Loans Based on Logistic Regression Model Under Factor Space Theory Risk Prediction Research | |
CN118297707A (zh) | 异常账户行为的确定方法、装置、存储介质以及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |