CN108280757A - 用户信用评估方法及装置 - Google Patents
用户信用评估方法及装置 Download PDFInfo
- Publication number
- CN108280757A CN108280757A CN201710076065.8A CN201710076065A CN108280757A CN 108280757 A CN108280757 A CN 108280757A CN 201710076065 A CN201710076065 A CN 201710076065A CN 108280757 A CN108280757 A CN 108280757A
- Authority
- CN
- China
- Prior art keywords
- sample
- sequence
- layer
- user
- rbm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q40/00—Finance; Insurance; Tax strategies; Processing of corporate or income taxes
- G06Q40/02—Banking, e.g. interest calculation or account maintenance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Finance (AREA)
- Accounting & Taxation (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Development Economics (AREA)
- Economics (AREA)
- Marketing (AREA)
- Strategic Management (AREA)
- Technology Law (AREA)
- General Business, Economics & Management (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种用户信用评估方法及装置,属于信息安全领域。所述方法包括:获取用户的第一行为序列和至少一个关联用户的第二行为序列;将用户的第一行为序列输入第一循环神经网络,得到用户的第一序列特征表示;将关联用户的第二行为序列输入第二循环神经网络,得到关联用户的第二序列特征表示;将第一序列特征表示和第二序列特征表示输入栈式自编码器,得到用户的组合特征衍生表示;将用户的组合特征衍生表示输入分类器,得到用户的信用评估数据。本发明自动进行特征抽取和特征组合衍生,解决了人工抽取特征和人工设计组合衍生特征考虑不全面、效率低、计算成本高的问题,达到了特征覆盖全面、提高效率、降低计算成本的效果。
Description
技术领域
本发明实施例涉及信息安全领域,特别涉及一种用户信用评估方法及装置。
背景技术
征信模型是用于根据用户的行为数据计算用户的信用评分的数据模型。征信模型广泛应用于互联网金融中的信用评估。
构建一个征信模型主要经历四个阶段:(1)基础特征抽取;(2)特征组合衍生;(3)征信模型构建;(4)模型效果验证。基础特征抽取用于从用户的行为数据中抽取与信用评估有关的特征;特征组合衍生用于将基础特征抽取阶段抽取到的特征进行组合,得到组合特征衍生表示;征信模型构建用于根据特征组合衍生阶段得到的组合特征衍生表示构建征信模型;模型效果验证用于对构建的征信模型进行使用效果的验证。其中,基础特征抽取和特征组合衍生被称为特征工程,特征工程通常需要人工参与完成。基础特征抽取通常是通过人工从用户的行为数据中抽取与信用评估有关的特征,比如:抽取用户某种行为发生的天数、次数、频率等。在特征组合衍生阶段,由于现有的征信模型所使用的分类器大多属于线性分类器,线性分类器不能自动地捕捉特征之间的交互关系,因此输入到分类器中的特征需要通过人工进行组合。
由于用户的行为数据中存在无法确切测量的特征,这类特征被称为隐含特征,隐含特征之间可能存在关联关系;而基于人工的基础特征抽取无法抽取隐含特征,并且也无法利用隐含特征之间的关联关系,从而产生基础特征抽取不全面的问题。另外,由于人工设计组合衍生特征通常是依赖人的先验知识,也可能产生考虑不全面的问题。并且随着基础特征数量的增加,特征组合的规模也会快速增长,靠人工进行基础特征抽取和特征组合衍生效率低、计算成本高。
发明内容
为了解决现有技术中通过人工抽取特征和人工设计组合衍生特征导致的考虑不全面、效率低、计算成本高的问题,本发明实施例提供了一种用户信用评估方法及装置。所述技术方案如下:
第一方面,提供了一种用户信用评估方法,所述方法包括:
获取用户的第一行为序列和至少一个关联用户的第二行为序列,所述关联用户是在社交网络与所述用户存在关联的其他用户;
将所述用户的第一行为序列输入第一循环神经网络,得到所述用户的第一序列特征表示;
将所述关联用户的第二行为序列输入第二循环神经网络,得到所述关联用户的第二序列特征表示;
将所述第一序列特征表示和所述第二序列特征表示输入栈式自编码器,得到所述用户的组合特征衍生表示;
将所述用户的组合特征衍生表示输入分类器,得到所述用户的信用评估数据;
其中,所述第一循环神经网络、所述第二循环神经网络和所述栈式自编码器中的模型参数是利用样本序列数据进行训练后确定的,所述第一循环神经网络和所述第二循环神经网络中的模型参数相同。
第二方面,提供了一种用户信用评估装置,所述装置包括:
第一获取模块,用于获取用户的第一行为序列和至少一个关联用户的第二行为序列,所述关联用户是在社交网络与所述用户存在关联的其他用户;
第一计算模块,用于将所述第一获取模块获取的所述用户的第一行为序列输入第一循环神经网络,得到所述用户的第一序列特征表示;
第二计算模块,用于将所述第一获取模块获取的所述关联用户的第二行为序列输入第二循环神经网络,得到所述关联用户的第二序列特征表示;
第三计算模块,用于将所述第一计算模块得到的所述第一序列特征表示和所述第二计算模块得到的所述第二序列特征表示输入栈式自编码器,得到所述用户的组合特征衍生表示;
第四计算模块,用于将所述第三计算模块得到的所述用户的组合特征衍生表示输入分类器,得到所述用户的信用评估数据;
其中,所述第一循环神经网络、所述第二循环神经网络和所述栈式自编码器中的模型参数是利用样本序列数据进行训练后确定的,所述第一循环神经网络和所述第二循环神经网络中的模型参数相同。
本发明实施例提供的技术方案带来的有益效果是:
一方面,通过利用样本序列数据训练第一循环神经网络和第二循环神经网络,使得第一循环神经网络在接收到用户的第一行为序列或第二循环神经网络在接收到关联用户的第二行为序列时,第一循环神经网络能够根据第一行为序列自动抽取出序列特征,第二循环神经网络能够根据第二行为序列自动抽取出序列特征,由于循环神经网络能够用于分析序列数据,因此在对第一行为序列或第二行为序列进行序列特征抽取时,不需要人工参与特征抽取工作,并且通过循环神经网络抽取到的序列特征包含隐含特征,对特征的覆盖更全面,且与人工抽取特征相比,通过循环神经网络进行特征抽取的效率提高,计算成本降低;另一方面,通过利用样本序列数据训练栈式自编码器,使得栈式自编码器在接收到循环神经网络输出的用户的序列特征表示后,能够根据用户的序列特征表示自动输出组合特征衍生表示,由于栈式自编码器能够根据用户的序列特征表示自动进行特征的组合衍生,从而不需要人工参与特征组合衍生的工作,避免了人工设计组合衍生特征时考虑不全面的问题,并且由于栈式自编码器进行特征组合衍生的效率提高,从而能够适用于大规模的特征组合衍生的工作,提高了特征组合衍生的效率,降低了计算成本。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一个实施例示出的实施环境的示意图;
图2A是本发明一个实施例提供的用户信用评估方法的方法流程图;
图2B是本发明一个实施例提供的征信模型的结构示意图;
图3A是本发明另一个实施例提供的用户信用评估方法的方法流程图;
图3B是本发明另一个实施例提供的征信模型的结构示意图;
图4A是本发明一个实施例提供的训练第一循环神经网络的方法的流程图;
图4B是本发明一个实施例提供的第一LSTM在训练时的结构示意图;
图4C是本发明一个实施例提供的第一LSTM单元的结构示意图;
图5A是本发明一个实施例提供的训练栈式自编码器的方法的流程图;
图5B是本发明另一个实施例提供的训练栈式自编码器的方法的流程图;
图5C是本发明一个实施例提供的RBM在训练时的结构示意图;
图5D是本发明一个实施例提供的RBM训练流程的示意图;
图5E是本发明一个实施例提供的栈式自编码器训练流程的示意图;
图6是本发明一个实施例提供的用户信用评估装置的结构方框图;
图7是本发明一个实施例中提供的服务器的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
图1是本发明一个实施例示出的实施环境的示意图,如图1所示,该实施环境包括:至少两个用户设备110、社交服务器120和数据管理服务器130。
用户设备110是诸如手机、平板电脑、便携式计算机和台式计算机之类的终端设备。可选地,用户设备110中可以安装社交类应用程序,可选地,社交类应用程序支持交易支付功能。图1中示例性地示出了3个用户设备110。
用户在用户设备110中的社交类应用程序中登录社交帐号后,用户可以通过社交帐号与其他用户进行社交活动,或者,在支持交易支付功能的社交类应用程序上通过社交帐号进行交易支付活动。
社交服务器120是为用户设备110提供社交服务的后台服务器,社交服务器120可以是一台服务器,也可以是由若干服务器组成的服务器集群,或者是一个云计算服务中心。社交服务器120用于记录每个社交帐号登录的用户设备和每个社交帐号的社交记录。每个社交帐号的一个社交记录或一次登录操作作为该社交帐号对应用户的一个行为数据,可选地,行为数据还可以是用户通过社交类应用程序进行的其他操作,比如用户与关联用户的互动操作等,关联用户是在社交网络与该用户存在关联的其他用户。在实际应用中,每个行为数据可以通过向量来描述用户的每一次操作行为的具体情况,包括操作行为的类型(比如聊天、转账、购物)、操作行为对应的数量(比如在线时长、转账金额、购物金额)等。
可选地,用户设备110可以通过无线网络方式或者有线网络方式与社交服务器120建立通信连接。
可选地,上述的无线网络或有线网络使用标准通信技术和/或协议。网络通常为因特网、但也可以是任何网络,包括但不限于局域网(英文:Local Area Network,简称:LAN)、城域网(英文:Metropolitan Area Network,简称:MAN)、广域网(英文:Wide AreaNetwork,简称:WAN)、移动、有线或者无线网络、专用网络或者虚拟专用网络的任何组合)。在一些实施例中,使用包括超文本标记语言(英文:Hyper Text Mark-up Language,简称:HTML)、可扩展标记语言(英文:Extensible Markup Language,简称:XML)等的技术和/或格式来代表通过网络交换的数据。此外还可以使用诸如安全套接字层(英文:Secure SocketLayer,简称:SSL)、传输层安全(英文:Trassport Layer Security,简称:TLS)、虚拟专用网络(英文:Virtual Private Network,简称:VPN)、网际协议安全(英文:Internet ProtocolSecurity,简称:IPsec)等常规加密技术来加密所有或者一些链路。在另一些实施例中,还可以使用定制和/或专用数据通信技术取代或者补充上述数据通信技术。
数据管理服务器130是对社交服务器120获取到的数据进行数据处理的后台服务器,数据管理服务器130可以是一台服务器,也可以是由若干服务器组成的服务器集群,或者是一个云计算服务中心。数据管理服务器130用于获取社交服务器120存储的每个社交帐号登录的用户设备和每个社交帐号的社交记录,即数据管理服务器130用户获取每个用户的行为数据。数据管理服务器130中建立有征信模型,数据管理服务器130用于将从社交服务器120获取的用户的行为数据输入该征信模型,得到该用户的信用评估数据。数据管理服务器130将计算得到的用户的信用评估数据发送给社交服务器120,社交服务器120根据用户的信用评估数据对不同用户的相关行为进行区分限制,比如对信用评估数据较低的用户申请贷款的行为进行否定或降低额度。
在其他示例性实施例中,上述社交服务器120和数据管理服务器130可以实现在同一服务器,或者同一服务器集群中,本实施例对此不作限定。
可选地,该实施环境还包括第三方服务器140。第三方服务器140用于提供各个用户的标签数据,标签数据是对用户的信用进行标注后的标签,比如用户的标签数据是优(概率=0.6)、差(概率=0.4),通常优的概率与差的概率的和为1。在实际应用中,第三方服务器140可以为银行机构的服务器,也可以为第三方金融机构的服务器。可选地,第三方服务器140还可以为存储用户标签数据的数据库。
数据管理服务器130从第三方服务器140中获取用户的标签数据,从社交服务器120获取的用户的行为数据,根据用户的行为数据和标签数据训练出用于计算信用评估数据的征信模型。
图2A是本发明一个实施例提供的用户信用评估方法的方法流程图,该用户信用评估方法以应用在图1所示的数据管理服务器130中举例说明。如图2A所示,该用户信用评估方法可以包括:
步骤201,获取用户的第一行为序列和至少一个关联用户的第二行为序列,关联用户是在社交网络与用户存在关联的其他用户。
用户的第一行为序列包括用户的n个时序上连续的向量,每个向量对应用户的1个行为数据,n为正整数。
关联用户的第二行为序列包括关联用户的m个时序上连续的向量,每个向量对应关联用户的1个行为数据,m为正整数。
时序上连续是指向量按照对应的行为数据发生的先后顺序进行排列。随着时间的增加,用户操作所产生的行为数据也在增加,则第一行为序列或第二行为序列中包含的向量也在增加,即第一行为序列或第二行为序列的长度会变长。
步骤202,将用户的第一行为序列输入第一循环神经网络,得到用户的第一序列特征表示。
循环神经网络(英文:Recurrent Neural Networks,简称:RNNs)用于处理序列形式的数据,循环神经网络的隐藏层内存在自我递归的连接,隐藏层的输入不仅包括当前时刻输入层的输出,而且还包括上一时刻隐藏层的输出。
第一循环神经网络中的模型参数是利用样本序列数据进行训练后确定的。样本序列数据包括:样本用户的第一样本行为数据、至少一个关联样本用户的第二样本行为序列和样本用户的标签数据,关联样本用户是在社交网络与样本用户存在关联的其他用户,标签数据是对样本用户的信用进行标注后的标签,标签数据通常是从银行或第三方金融机构获取到的。
第一序列特征表示是通过第一循环神经网络输出的关于用户的第一行为序列的隐含特征的一个向量,由于第一序列特征表示用于表示隐含特征,而隐含特征是通过人工进行基础特征抽取时无法抽取到的特征,因此第一循环神经网络抽取到的第一行为序列的基础特征更加全面。
步骤203,将关联用户的第二行为序列输入第二循环神经网络,得到关联用户的第二序列特征表示。
第二循环神经网络中的模型参数与第一循环神经网络中的模型参数相同,由于第一循环神经网络中的模型参数是利用样本序列数据进行训练后确定的,第一循环神经网络与第二循环神经网络的网络架构与需要实现的功能是一样的,因此第二循环神经网络中的模型参数直接设置为与第一循环神经网络中的模型参数相同。
第二序列特征表示是通过第二循环神经网络输出的关于关联用户的第二行为序列的隐含特征的一个向量,由于第二序列特征表示用于表示隐含特征,隐含特征是通过人工进行基础特征抽取时无法抽取到的特征,因此第二循环神经网络抽取到的第二行为序列的基础特征更加全面。
步骤204,将第一序列特征表示和第二序列特征表示输入栈式自编码器,得到用户的组合特征衍生表示。
第一序列特征表示和第二序列特征表示在输入栈式自编码器之前需要进行拼接,得到一个更长的向量。
由于第二序列特征表示是根据关联用户的第二行为序列抽取出的序列特征表示,关联用户与用户在社交网络存在关联,因此第二行为序列是对用户的第一行为序列的补充,可能包含一些社交属性的隐含特征。
第一序列特征表示和第二序列特征表示进行拼接后输入栈式自编码器,栈式自编码器可以捕获第一序列特征表示和第二序列特征表示之间的交互关系,对第一序列特征表示和第二序列特征表示进行组合特征衍生。
栈式自编码器中的模型参数是利用样本序列数据进行训练后确定的。
步骤205,将用户的组合特征衍生表示输入分类器,得到用户的信用评估数据。
分类器可以是线性分类器,如逻辑回归(Logistic Regression)模型,也可以是其他类型的分类器。
用户的信用评估数据是通过分类器根据用户的组合特征衍生表示得到的用于对用户的信用进行标注的数据,比如:用户A=(优0.8,差0.2)。
上述第一循环神经网络、第二循环神经网络、栈式自编码器和分类器构成对用户信用进行评估的征信模型,征信模型在构建前需要利用样本序列数据对第一循环神经网络、第二循环神经网络、栈式自编码器、分类器进行模型参数的训练,使得征信模型在进行用户信用评估时的准确度和可信度有保证。结合参考图2B,其示例性地示出了本实施例所涉及的征信模型的结构示意图。如图2B所示,征信模型20包括第一循环神经网络21、第二循环神经网络22、栈式自编码器23以及分类器24。第一循环神经网络21的输出、第二循环神经网络22的输出与栈式自编码器23的输入相连,栈式自编码器23的输出与分类器24的输入相连。
综上所述,本发明实施例提供的用户信用评估方法,一方面,通过利用样本序列数据训练第一循环神经网络和第二循环神经网络,使得第一循环神经网络在接收到用户的第一行为序列或第二循环神经网络在接收到关联用户的第二行为序列时,第一循环神经网络能够根据第一行为序列自动抽取出序列特征,第二循环神经网络能够根据第二行为序列自动抽取出序列特征,由于循环神经网络能够用于分析序列数据,因此在对第一行为序列或第二行为序列进行序列特征抽取时,不需要人工参与特征抽取工作,并且通过循环神经网络抽取到的序列特征包含隐含特征,对特征的覆盖更全面,且与人工抽取特征相比,通过循环神经网络进行特征抽取的效率提高,计算成本降低;另一方面,通过利用样本序列数据训练栈式自编码器,使得栈式自编码器在接收到循环神经网络输出的用户的序列特征表示后,能够根据用户的序列特征表示自动输出组合特征衍生表示,由于栈式自编码器能够根据用户的序列特征表示自动进行特征的组合衍生,从而不需要人工参与特征组合衍生的工作,避免了人工设计组合衍生特征时考虑不全面的问题,并且由于栈式自编码器进行特征组合衍生的效率提高,从而能够适用于大规模的特征组合衍生的工作,提高了特征组合衍生的效率,降低了计算成本。
由于第一行为序列、第二行为序列随着时间的增长会导致序列的长度过长,当序列的长度过长时,循环神经网络中传输的信息会很快地衰减,而长短记忆网络(英文:LongShort Term Memory,简称:LSTM)在RNNs的基础上增加了遗忘和强化学***均池化单元。
图3A是本发明另一个实施例提供的用户信用评估方法的方法流程图,该用户信用评估方法以应用在图1所示的数据管理服务器130中举例说明。如图3A所示,该用户信用评估方法可以包括:
步骤301,获取用户的第一行为序列,第一行为序列包括n个时序上连续的向量,每个向量对应用户的1个行为数据,n为正整数。
时序上连续是指向量按照对应的行为数据发生的先后顺序进行排列。
步骤302,将n个向量映射到同一值域空间中。
由于每个向量对应用户的1个行为数据,不同的行为数据使用的刻度不同,比如行为的类型、行为发生的时间、行为的场景是不同刻度的数据,不同刻度的含义举例来说,假设行为的类型是整数,行为发生的时间是保留小数点后两位,则行为的类型和行为发生的时间是不同刻度的。不同刻度的数据通常不能直接输入到LSTM单元,因此对于n个向量,数据管理服务器在将n个向量输入到LSTM单元之前,需要将n个向量的元素的取值映射到同一值域空间中,即将n个向量的元素的取值映射为相同刻度的。
步骤303,将映射后的n个时序上连续的向量按照时序顺序分别输入第一LSTM单元,得到n个第一LSTM单元的隐藏层输出的向量,将n个隐藏层输出的向量组成第一矩阵,其中,第i+1个第一LSTM单元的输入包括第i个第一LSTM单元的隐藏层的输出和第i+1个第一LSTM单元的输入层的输出,i为正整数,i<i+1<n。
结合参考图3B,第一LSTM单元321是第一LSTM 320的一部分,第一LSTM 320在征信模型使用过程中包括第一LSTM单元321和第一平均池化单元322。每个第一LSTM单元321包括输入层和隐藏层。
举例说明,假设n个向量按照时序顺序分别为向量x1、向量x2、…、向量xn,按照时序顺序,第一时刻,向量x1输入第一LSTM单元321的输入层,第一LSTM单元321的隐藏层输出向量h1;第二时刻,向量x2输入第一LSTM单元321的输入层,第二时刻第一LSTM单元321的隐藏层的输入为第一时刻的第一LSTM单元321的隐藏层的输出和第二时刻的第一LSTM单元321的输入层的输出,第二时刻第一LSTM单元321的隐藏层输出向量h2,后面依次类推。在n个向量全部输入第一LSTM单元321后,第一LSTM单元321输出n个隐藏层输出的向量,分别是向量h1、向量h2、…、向量hn。由此可知,
步骤304,将第一矩阵输入第一平均池化单元,得到用户的第一序列特征表示,第一平均池化单元用于对第一矩阵中的每列元素求平均。
结合参考图3B,在得到第一矩阵后,第一平均池化单元322需要对第一矩阵进行池化处理,即对第一矩阵中的每列元素求平均。比如,第一矩阵经过第一平均池化单元322后得到一个向量H1,向量H1为第一LSTM320根据第一行为序列抽取到的第一序列特征表示。
步骤305,获取关联用户的第二行为序列,第二行为序列包括m个时序上连续的向量,每个向量对应关联用户的1个行为数据,m为正整数。
关联用户是在社交网络中与用户存在关联的其他用户。获取关联用户的第二行为序列是为了对用户的第一行为序列进行补充,第二行为序列可能包含一些社交属性的隐含特征。
步骤306,将m个向量映射到同一值域空间中。
关联用户的m个向量被映射到的值域空间与用户的n个向量被映射到的值域空间相同。
步骤307,将映射后的m个时序上连续的向量按照时序顺序分别输入m个第二LSTM单元,得到m个第二LSTM单元的隐藏层输出的向量,将m个隐藏层输出的向量组成第二矩阵,其中,第i+1个第二LSTM单元的输入包括第i个第二LSTM单元的隐藏层的输出和第i+1个第二LSTM单元的输入层的输出,i为正整数,i<i+1<m。
结合参考图3B,第二LSTM单元331是第二LSTM 330的一部分,第二LSTM单元331在征信模型使用过程中包括第二LSTM单元331和第二平均池化单元332。每个第二LSTM单元331包括输入层和隐藏层。
举例说明,假设m个向量按照时序顺序分别为向量x1、向量x2、…、向量xm,按照时序顺序,第一时刻,向量x1输入第二LSTM单元331的输入层,第二LSTM单元331的隐藏层输出向量h1;第二时刻,向量x2输入第二LSTM单元331的输入层,第二时刻第二LSTM单元331的隐藏层的输入为第一时刻的第二LSTM单元331的隐藏层的输出和第二时刻的第二LSTM单元331的输入层的输出,第二时刻第二LSTM单元331的隐藏层输出向量h2,后面依次类推。在m个向量全部输入第二LSTM单元331后,第二LSTM单元331输出m个隐藏层输出的向量,分别是向量h1、向量h2、…、向量hm。由此可知,
步骤308,将第二矩阵输入第二平均池化单元,得到关联用户的第二序列特征表示;其中,当第二行为序列的数量为一个时,第二平均池化单元用于对第二矩阵中的每列元素求平均;当第二行为序列的数量为p个时,第二平均池化单元用于对每个第二矩阵中的每列元素求平均得到的p个第二序列特征表示求平均,p为正整数,p>1。
在社交网络上与用户存在关联的用户可能是一个也可能是多个,因此第二行为序列的数量可能是一个也可能是多个,得到的第二矩阵可能是一个也可能是多个。
结合参考图3B,图3B以关联用户的数量为一个进行示例性的说明。当关联用户的数量为一个时,第二平均池化单元332需要对第二矩阵做池化处理,即对第二矩阵中的每列元素求平均。比如,第二矩阵经过第二平均池化单元332后得到一个向量H2,向量H2为第二LSTM 330根据第二行为序列抽取到的第二序列特征表示。
当关联用户的数量为p个时,p个关联用户的第二行为序列分别通过第二LSTM单元331输出p个第二矩阵,第二平均池化单元332首先分别对各个第二矩阵进行池化处理,得到p个向量,然后对p个向量进行池化处理得到一个向量H2,向量H2为第二LSTM 330根据第二行为序列抽取到的第二序列特征表示。
步骤309,将第一序列特征表示和第二序列特征表示进行拼接,得到用户的序列特征表示。
第一序列特征表示是第一LSTM 320输出的一个向量H1,第二序列特征表示是第二LSTM 330输出的一个向量H2,将第一序列特征表示和第二序列特征表示拼接,即将向量H1和向量H2拼接,得到一个更长的向量H,向量H作为用户的序列特征表示。
步骤310,将用户的序列特征表示输入栈式自编码器,栈式自编码器的第i+1层RBM的输入层的输入为第i层RBM的隐藏层的输出,i为正整数,i<i+1<k。
结合参考图3B,栈式自编码器340包括k层受限玻尔兹曼机(英文:RestrictedBoltzmann Machines,简称:RBM)341,分别为第1RBM、第2RBM、…、第k RBM,k为正整数,每个RBM包括输入层和隐藏层。
步骤311,将第k层RBM的隐藏层的输出作为用户的组合特征衍生表示。
用户的序列特征衍生表示从第1层RBM的输入层输入后,每一层RBM的隐藏层的输出作为下一层RBM的输入层的输入,直到第k层RBM,即最后一层RBM的隐藏层的输出,得到的向量作为用户的组合特征衍生表示。
步骤312,将用户的组合特征衍生表示输入分类器,得到用户的信用评估数据。
结合参考图3B,第k RBM 341的隐藏层的输出作为用户的组合特征衍生表示,输入到分类器350,分类器350输出用户的信用评估数据。
综上所述,本发明实施例提供的用户信用评估方法,一方面,通过利用样本序列数据训练第一循环神经网络和第二循环神经网络,使得第一循环神经网络在接收到用户的第一行为序列或第二循环神经网络在接收到关联用户的第二行为序列时,第一循环神经网络能够根据第一行为序列自动抽取出序列特征,第二循环神经网络能够根据第二行为序列自动抽取出序列特征,由于循环神经网络能够用于分析序列数据,因此在对第一行为序列或第二行为序列进行序列特征抽取时,不需要人工参与特征抽取工作,并且通过循环神经网络抽取到的序列特征包含隐含特征,对特征的覆盖更全面,且与人工抽取特征相比,通过循环神经网络进行特征抽取的效率提高,计算成本降低;另一方面,通过利用样本序列数据训练栈式自编码器,使得栈式自编码器在接收到循环神经网络输出的用户的序列特征表示后,能够根据用户的序列特征表示自动输出组合特征衍生表示,由于栈式自编码器能够根据用户的序列特征表示自动进行特征的组合衍生,从而不需要人工参与特征组合衍生的工作,避免了人工设计组合衍生特征时考虑不全面的问题,并且由于栈式自编码器进行特征组合衍生的效率提高,从而能够适用于大规模的特征组合衍生的工作,提高了特征组合衍生的效率,降低了计算成本。
另外,通过将第一行为序列中的n个向量映射到同一值域空间,将第二行为序列中的m个向量映射到同一值域空间,使得第一行为序列和第二行为序列中的向量能够输入到LSTM单元,保证了第一序列特征表示和第二序列特征表示的正常抽取。
另外,通过使用LSTM从第一行为序列中抽取出第一序列特征表示,从第二行为序列中抽取第二序列特征表示,由于第i+1个LSTM隐藏层的输入包括第i个LSTM单元的隐藏层的输出和第i+1个LSTM单元的输入层的输出,使得当前时刻的隐藏层的输入不仅受到当前时刻的输入层的输出的影响,还受到上一时刻的隐层层的输出的影响,从而使得在第一行为序列或第二行为序列的长度过长时,避免出现不稳定梯度的问题。
另外,通过将用户的第一序列特征表示和关联用户的第二序列特征表示拼接起来作为用户的序列特征表示输入栈式自编码器进行,使得通过关联用户的第二序列特征表示对用户的第一序列特征表示进行补充,从而能够获取到社交属性方面的特征,对于序列特征的抽取更加全面。
征信模型在使用之前,需要对征信模型中的循环神经网络、栈式自编码器和分类器的模型参数进行训练,图4A是对第一LSTM或第二LSTM的训练过程进行示意说明,图5A是对栈式自编码器的训练过程进行示意说明。
图4A是本发明一个实施例提供的训练第一循环神经网络的方法的流程图,该方法以应用在图1所示的数据管理服务器130中举例说明。如图4A所示,该方法包括以下步骤:
步骤401,获取样本序列数据,样本序列数据包括:样本用户的第一样本行为序列、至少一个关联样本用户的第二样本行为序列和样本用户的标签数据,标签数据是对样本用户的信用进行标注后的标签,关联样本用户是在社交网络与样本用户存在关联的其他用户。
样本用户的第一样本行为序列包括样本用户的n个时序上连续的向量,每个向量对应样本用户的1个行为数据,n为正整数。
关联样本用户的第二样本行为序列包括关联样本用户的m个时序上连续的向量,每个向量对应关联样本用户的1个行为数据,m为正整数。
步骤402,将第一样本行为序列输入第一LSTM单元,得到训练特征序列。
第一LSTM单元是第一LSTM的一部分,结合参考图4B,第一LSTM 420在征信模型构建过程中包括第一LSTM单元421、第一平均池化单元422和第一训练分类器423。每个第一LSTM单元421包括输入层和隐藏层。
训练特征序列是第一样本行为序列中的n个向量全部输入第一LSTM单元421后,第一LSTM单元421的隐藏层输出的n个向量组成的序列。
可选地,第一样本行为序列在输入第一LSTM单元之前,需要将第一样本行为序列中的样本用户的n个行为数据对应的向量映射到同一值域空间中。
步骤403,将训练特征序列输入第一平均池化单元,得到训练样本序列特征表示。
第一平均池化单元用于对训练特征序列中的n个向量进行池化处理,即对训练特征序列中的n个向量求平均,求平均后得到的一个向量作为训练样本序列特征表示。
步骤404,将训练样本序列特征表示输入第一训练分类器,得到第一预测数据。
在征信模型的构建过程中,第一LSTM中的参数需要进行训练,第一LSTM尾部挂接第一训练分类器,用于根据训练样本序列特征表示输出第一预测数据,然后第一LSTM根据第一预测数据与样本用户的标签数据之间的差异对第一LSTM单元中的参数进行调整。第一LSTM的参数在初始状态时采用随机初始化,根据随机初始化的参数,第一LSTM输出第一预测数据,第一训练分类器根据第一预测数据和标签数据的差异对第一LSTM单元中的参数进行调整。
结合参考图4C,其示出了第一LSTM单元的结构,第一LSTM单元421包括记忆单元431、输入门432、输出门433、忘记门434和自我递归连接435。输入门432允许输入记忆单元431的信号改变记忆单元431或屏蔽输入记忆单元431的信号,输出门433允许记忆单元431输出的信号影响下一记忆单元或屏蔽记忆单元431输出的信号,忘记门434用于管理记忆单元431自我连接的状况,在有需要时,忘记门434用于控制记忆单元431忘记自身之前的状态。
可选地,用于对第一LSTM进行训练的第一训练分类器通常为SoftMax(软最大)。
步骤405,将第一预测数据和标签数据代入第一损失函数,判断第一损失函数是否收敛到极小值。
第一预测数据和标签数据的差异通过交叉熵度量,根据交叉熵和惩罚项组成第一损失函数。对第一LSTM单元的训练目标为第一损失函数收敛到极小值。
步骤406,当第一损失函数没有收敛到极小值时,利用误差反向传播算法对第一LSTM单元的参数进行调整,直到第一损失函数收敛到极小值。
第一损失函数没有收敛到极小值,表明第一预测数据与标签数据的差异过大,则表明当前第一LSTM单元的参数不合适,第一LSTM单元的参数需要进行调整,调整目标是使第一损失函数收敛到极小值。
步骤407,当第一损失函数收敛到极小值时,将调整后的第一LSTM单元的参数确定为第一循环神经网络的模型参数。
第一损失函数收敛到极小值,表明调整后的第一LSTM单元的参数是合适的,因此将调整后的第一LSTM单元的参数确定为第一循环神经网络或第一LSTM的模型参数。
综上所述,本发明实施例提供的训练第一循环神经网络的方法,通过将样本序列数据通过第一循环神经网络中的第一LSTM单元、第一平均池化单元和第一训练分类器得到第一预测数据,根据第一预测数据与样本用户的标签数据之间地差异对第一LSTM单元的参数进行调整,直到样本序列数据通过第一循环神经网络中的第一LSTM单元、第一平均池化单元和第一训练分类器得到的第一预测数据与样本用户的标签数据的差异小于第一阈值时,表明第一LSTM单元的参数被训练为模型参数,从而可以将训练得到的第一循环神经网络确定为用于对用户的行为序列进行序列特征抽取的模型。
需要补充说明的是,由于第二循环神经网络与第一循环神经网络的模型参数相同,当第一循环神经网络与第二循环神经网络为LSTM时,第一LSTM单元和第二LSTM单元的参数相同,由于第一LSTM单元的参数通过图4A所示的步骤训练完成,可选地,第二LSTM单元不需要进行训练,第二LSTM单元的参数直接设置为与第一LSTM单元训练后的参数相同。
在第一LSTM和第二LSTM训练完毕,得到第一LSTM和第二LSTM的模型参数后,训练成功的第一LSTM和第二LSTM的输出作为栈式自编码器的输入,栈式自编码器开始进行训练。
图5A是本发明一个实施例提供的训练栈式自编码器的方法的流程图,该方法以应用在图1所示的数据管理服务器130中举例说明。如图5A所示,该方法可以包括以下步骤:
步骤501,将第一样本行为序列输入第一LSTM单元,得到样本用户的第一特征序列。
可选地,第一样本行为序列在输入LSTM单元之前,需要将第一样本行为序列中的样本用户的n个行为数据对应的向量映射到同一值域空间中。
步骤502,将第一特征序列输入第一平均池化单元,得到第一样本序列特征表示。
步骤503,将第二样本行为序列输入第二LSTM单元,得到关联样本用户的第二特征序列。
可选的,第二样本行为序列在输入第二LSTM单元之前,需要将第二样本行为序列中的关联样本用户的m个行为数据对应的向量映射到同一值域空间中。
步骤504,将第二特征序列输入第二平均池化单元,得到第二样本序列特征表示。
可选地,当第二样本行为序列的数量为一个时,第二平均池化单元用于对第二特征序列求平均;当第二样本行为序列的数量为p个时,第二平均池化单元用于对每个第二特征序列求平均得到的p个第二样本序列特征表示求平均,p为正整数,p>1。
步骤505,将第一样本序列特征表示和第二样本序列特征表示进行拼接,得到样本用户的序列特征表示。
步骤501至步骤505与步骤301至步骤309类似,步骤301至步骤309中的第一行为序列和第二行为序列分别被替换成步骤501至步骤505中的第一样本行为序列和第二样本行为序列,对于确定样本用户的序列特征表示的具体实现,这里就不再赘述。
步骤506,将样本用户的序列特征表示输入栈式自编码器,样本用户的序列特征表示是根据样本序列数据计算得到的。
样本用户的序列特征表示的计算请参见步骤501至步骤505。在第一LSTM和第二LSTM训练完毕后,样本用户的序列特征表示不需要输入到第一训练分类器,直接输入到栈式自编码器。
栈式自编码器的训练包括两个阶段,第一阶段是预训练阶段,请参见步骤507;第二阶段是精调阶段,请参见步骤508。
步骤507,在预训练阶段,分别对每层RBM进行无监督学习训练,得到预训练后的RBM参数。
在预训练阶段,每层RBM单独进行训练,且在前一层RBM训练完成后,后一层RBM才开始进行训练。
RBM参数包括RBM的隐藏层的权重矩阵和偏置向量。
可选地,步骤507可以被替换成如图5B所示的步骤:
步骤507a,在对第i层RBM进行训练时,将预定特征表示输入第i层RBM的输入层,根据第i层RBM的第i权重矩阵和第i偏置向量计算第i层RBM的输出层的数据。
对于每一层RBM的训练目标是输入层的数据近似等于输出层的数据。结合参考图5C,图5C示出了RBM在训练时的结构,每层RBM 520包括输入层521、隐藏层522和输出层523。结合参考图5D,图5D示出了RBM的训练过程示意图,RBM 520的训练包括编码和解码两个阶段,编码器531将输入层521输入的向量x映射为隐藏层522的向量h,解码器532将隐藏层522的向量h映射为输出层的向量xrec。
对每层RBM 520的训练目标是x≈xrec,对于x和xrec之间的差异通过交叉熵L(x,xrec)来度量,交叉熵其中,dx表示向量包含的维度,x(i)表示向量x在第i维度的数据,xrec(i)表示向量xrec在第i维度的数据。损失函数Loss(θ)由交叉熵和惩罚项组成,损失函数其中,Dn表示向量空间,λ表示惩罚项的系数,Penalty表示惩罚项,惩罚项根据需求进行设置,是人工预设的公式。
当每一层RBM 520训练完成后,将输出层523丢弃,将隐藏层522的输出给下一层RBM 520的输入层521。
可选地,第i层RBM的隐藏层的输出作为第i+1层RBM的输入层的输入,i为正整数,i为1时预定特征表示是样本用户的序列特征表示,i大于1时预定特征表示是第i-1层RBM的隐藏层的输出,i<i+1<k。
步骤507b,将第i层RBM的输入层的数据和输出层的数据代入第二损失函数,判断第二损失函数是否收敛到极小值。
根据输入层的数据和输出层的数据计算损失函数是为了计算输入层的数据与输出层的数据之间的差异。
步骤507c,当第二损失函数没有收敛到极小值时,调整第i权重矩阵和第i偏置向量,将第i层RBM的输入层的数据和调整后的第i层RBM的输出层的数据代入第二损失函数,直到第二损失函数收敛到极小值。
步骤507d,当第二损失函数收敛到极小值时,将调整后的第i权重矩阵和第i偏置向量确定为预训练后的RBM参数。
在第i层RBM的参数训练完成后,去掉第i层RBM的输出层,将第i层RBM的隐藏层的输出给第i+1层RBM的输入层,第i+1层RBM使用相同的方法进行训练。
步骤508,在精调阶段,结合第二训练分类器对k层RBM进行有监督学习训练,有监督学习训练用于调整预训练后的RBM参数。
由于在预训练阶段,每层RBM的权重矩阵和偏置向量均进行过调整,因此在精调阶段,栈式自编码器根据标签数据对每层RBM参数进行更精确的调整。
可选地,步骤508可以被替换成如图5B所示的步骤:
步骤508a,将第k层RBM的隐藏层的输出作为训练组合特征衍生表示输入给第二训练分类器,得到第二预测数据。
在精调阶段,栈式自编码器尾部需要挂接第二训练分类器,用于根据RBM输出的训练组合特征衍生表示输出第二预测数据,然后栈式自编码器根据第二预测数据与样本用户的标签数据之间的差异对每层RBM参数进行进一步调整。
可选地,用于对栈式自编码器进行训练的第二训练分类器通常是SoftMax。
步骤508b,将第二预测数据和标签数据代入第三损失函数,判断第三损失函数是否收敛到极小值。
第二预测数据和标签数据的差异通过交叉熵度量,根据交叉熵和惩罚项组成第三损失函数。对栈式自编码器的训练目标为第三损失函数收敛到极小值。
步骤508c,当第三损失函数没有收敛到极小值时,利用误差反向传播算法对每层RBM的隐藏层的权重矩阵和偏置向量进行调整,直到第三损失函数收敛到极小值。
第三损失函数没有收敛到极小值,表明第二预测数据与标签数据的差异过大,则表明当前各层RBM参数不合适,每层RBM参数需要进行调整,调整目标是第三损失函数收敛到极小值。
步骤508d,当第三损失函数收敛到极小值时,将调整后的每层RBM的隐藏层的权重矩阵和偏置向量确定为栈式自编码器的模型参数。
第三损失函数收敛到极小值,表明调整后的各层RBM参数是合适的,因此将调整后的每层RBM参数确定为栈式自编码器的模型参数。
根据本实施例所描述的栈式自编码器的训练方法,图5E示出了栈式自编码器的训练过程示意图。如图5E所示,在预训练阶段50,k层RBM 520分别进行训练,图5E中RBM 520仅示出了输入层521和隐藏层522,前一层RBM 520训练完成后,前一层RBM 520将隐藏层522的输出给下一层RBM 520的输入层521。预训练阶段50对k层RBM 520全部训练完毕后,精调阶段51将每层RBM 520的隐藏层522抽取出来进行精调阶段51的训练,进入精调阶段51的隐藏层522的参数是经过预训练阶段50训练得到的。精调阶段51在第k层隐藏层522后面挂接第二训练分类器530。
可选地,在栈式自编码器训练完成后,征信模型中的分类器可以为第二训练分类器,也可以为其他类型的分类器。
栈式自编码器在训练完成后,栈式自编码器输出的组合特征衍生表示输入到分类器,用于分类器根据标签数据进行征信模型的训练。
综上所述,本发明实施例提供的训练栈式自编码器的方法,通过在第一循环神经网络和第二循环神经网络训练完毕后,将第一样本行为序列输入第一循环神经网络,得到第一样本序列特征表示,将第二样本行为序列输入第二循环神经网络,得到第二样本序列特征表示,将第一样本序列特征表示和第二样本序列特征表示拼接得到的样本用户的序列特征表示作为栈式自编码器的输入,栈式自编码器在训练时输出第二预测数据,根据第二预测数据和样本用户的标签数据对栈式自编码器中每层RBM的参数进行调整,直到样本用户的序列特征表示通过栈式自编码器得到的第二预测数据与样本用户的标签数据的差异小于第二阈值时,表明每层RBM的参数被训练为模型参数,从而可以将训练得到的栈式自编码器确定为用于对抽取的用户的序列特征表示进行组合特征衍生表示的模型。
图6是本发明一个实施例提供的用户信用评估装置的结构方框图,该用户信用评估装置以应用在图1所示的数据管理服务器130中举例说明。如图6所示,该用户信用评估装置包括:
第一获取模块610,用于实现上述步骤201、步骤301、步骤305以及其他任意隐含或公开的与获取相关的功能。
第一计算模块620,用于实现上述步骤202以及其他任意隐含或公开的与计算相关的功能。
第二计算模块630,用于实现上述步骤203以及其他任意隐含或公开的与计算相关的功能。
第三计算模块640,用于实现上述步骤204以及其他任意隐含或公开的与计算相关的功能。
第四计算模块650,用于实现上述步骤205、步骤312以及其他任意隐含或公开的与计算相关的功能。
可选地,第一计算模块620包括:第一计算单元和第二计算单元。
第一计算单元,用于实现上述步骤303以及其他任意隐含或公开的与计算相关的功能。
第二计算单元,用于实现上述步骤304以及其他任意隐含或公开的与计算相关的功能。
可选地,第二计算模块630包括:第三计算单元和第四计算单元。
第三计算单元,用于实现上述步骤307以及其他任意隐含或公开的与计算相关的功能。
第四计算单元,用于实现上述步骤308以及其他任意隐含或公开的与计算相关的功能。
可选地,该装置还包括:第二获取模块、第五计算模块、第六计算模块、第七计算模块、判断模块、调整模块、确定模块。
第二获取模块,用于实现上述步骤401以及其他任意隐含或公开的与获取相关的功能。
第五计算模块,用于实现上述步骤402以及其他任意隐含或公开的与计算相关的功能。
第六计算模块,用于实现上述步骤403以及其他任意隐含或公开的与计算相关的功能。
第七计算模块,用于实现上述步骤404以及其他任意隐含或公开的与计算相关的功能。
判断模块,用于实现上述步骤405以及其他任意隐含或公开的与判断相关的功能。
调整模块,用于实现上述步骤406以及其他任意隐含或公开的与调整相关的功能。
确定模块,用于实现上述步骤407以及其他任意隐含或公开的与调整相关的功能。
可选地,第三计算模块640,包括拼接单元、输入单元、第一确定单元。
拼接单元,用于实现上述步骤309以及其他任意隐含或公开的与拼接相关的功能。
输入单元,用于实现上述步骤310以及其他任意隐含或公开的与输入相关的功能。
第一确定单元,用于实现上述步骤311以及其他任意隐含或公开的与确定相关的功能。
可选地,该装置还包括:输入模块、第一训练模块、第二训练模块。
输入模块,用于实现上述步骤506以及其他任意隐含或公开的与输入相关的功能。
第一训练模块,用于实现上述步骤507以及其他任意隐含或公开的与训练相关的功能。
第二训练模块,用于实现上述步骤508以及其他任意隐含或公开的与训练相关的功能。
可选地,第一训练模块包括:第五计算单元、第一判断单元、第一调整单元、第二确定单元。
第五计算单元,用于实现上述步骤507a以及其他任意隐含或公开的与计算相关的功能。
第一判断单元,用于实现上述步骤507b以及其他任意隐含或公开的与判断相关的功能。
第一调整单元,用于实现上述步骤507c以及其他任意隐含或公开的与调整相关的功能。
第二确定单元,用于实现上述步骤507d以及其他任意隐含或公开的与确定相关的功能。
可选地,第二训练模块包括:第六计算单元、第二判断单元、第二调整单元、第三确定单元。
第六计算单元,用于实现上述步骤508a以及其他任意隐含或公开的与计算相关的功能。
第二判断单元,用于实现上述步骤508b以及其他任意隐含或公开的与判断相关的功能。
第二调整单元,用于实现上述步骤508c以及其他任意隐含或公开的与调整相关的功能。
第三确定单元,用于实现上述步骤508d以及其他任意隐含或公开的与确定相关的功能。
可选地,该装置还包括:第八计算模块、第九计算模块、第十计算模块、第十一计算模块、拼接模块。
第八计算模块,用于实现上述步骤501以及其他任意隐含或公开的与计算相关的功能。
第九计算模块,用于实现上述步骤502以及其他任意隐含或公开的与计算相关的功能。
第十计算模块,用于实现上述步骤503以及其他任意隐含或公开的与计算相关的功能。
第十一计算模块,用于实现上述步骤504以及其他任意隐含或公开的与计算相关的功能。
拼接模块,用于实现上述步骤505以及其他任意隐含或公开的与拼接相关的功能。
可选地,第一获取模块610,包括:第一映射单元和第二映射单元。
第一映射单元,用于实现上述步骤302以及其他任意隐含或公开的与映射相关的功能。
第二映射单元,用于实现上述步骤306以及其他任意隐含或公开的与映射相关的功能。
综上所述,本发明实施例提供的用户信用评估装置,通过利用样本序列数据训练第一循环神经网络、第二循环神经网络和栈式自编码器的模型参数,得到用于对用户信用进行评估的征信模型,将用户的第一行为序列输入第一循环神经网络得到第一序列特征表示,将关联用户的第二行为序列输入第二循环神经网络得到第二序列特征表示,将第一序列特征表示和第二序列特征表示输入栈式自编码器得到组合特征衍生表示,将组合特征衍生表示输入分类器得到用户的信用评估数据。由于在对用户的第一行为序列和关联用户的第二行为序列进行序列特征抽取和组合特征衍生时,均不需要人工参与,而是由计算机自动实现,从而解决了现有技术中通过人工抽取特征和人工设计组合衍生特征导致的考虑不全面、效率低、计算成本高的问题,达到了自动进行序列特征抽取和特征组合衍生,使得特征覆盖全面的效果,同时提高了效率,降低了计算成本。
需要说明的是:上述实施例中提供的用户信用评估装置在评估用户信用时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将服务器的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的用户信用评估装置与用户信用评估方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图7是本发明一个实施例中提供的服务器的结构示意图。该服务器可以是图1所示的数据管理服务器130,也可以是社交服务器120,还可以是第三方服务器140。具体来讲:服务器700包括中央处理单元(CPU)701、包括随机存取存储器(RAM)702和只读存储器(ROM)703的***存储器704,以及连接***存储器704和中央处理单元701的***总线705。所述服务器700还包括帮助计算机内的各个器件之间传输信息的基本输入/输出***(I/O***)706,和用于存储操作***713、应用程序714和其他程序模块715的大容量存储设备707。
所述基本输入/输出***706包括有用于显示信息的显示器708和用于用户输入信息的诸如鼠标、键盘之类的输入设备709。其中所述显示器708和输入设备709都通过连接到***总线705的输入/输出控制器710连接到中央处理单元701。所述基本输入/输出***706还可以包括输入输出控制器710以用于接收和处理来自键盘、鼠标、或电子触控笔等多个其他设备的输入。类似地,输入/输出控制器710还提供输出到显示屏、打印机或其他类型的输出设备。
所述大容量存储设备707通过连接到***总线705的大容量存储控制器(未示出)连接到中央处理单元701。所述大容量存储设备707及其相关联的计算机可读介质为服务器700提供非易失性存储。也就是说,所述大容量存储设备707可以包括诸如硬盘或者CD-ROM驱动器之类的计算机可读介质(未示出)。
不失一般性,所述计算机可读介质可以包括计算机存储介质和通信介质。计算机存储介质包括以用于存储诸如计算机可读指令、数据结构、程序模块或其他数据等信息的任何方法或技术实现的易失性和非易失性、可移动和不可移动介质。计算机存储介质包括RAM、ROM、EPROM、EEPROM、闪存或其他固态存储其技术,CD-ROM、DVD或其他光学存储、磁带盒、磁带、磁盘存储或其他磁性存储设备。当然,本领域技术人员可知所述计算机存储介质不局限于上述几种。上述的***存储器704和大容量存储设备707可以统称为存储器。
根据本发明的各种实施例,所述服务器700还可以通过诸如因特网等网络连接到网络上的远程计算机运行。也即服务器700可以通过连接在所述***总线705上的网络接口单元711连接到网络712,或者说,也可以使用网络接口单元711来连接到其他类型的网络或远程计算机***(未示出)。
本发明实施例还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中的存储器中所包含的计算机可读存储介质;也可以是单独存在,未装配入终端中的计算机可读存储介质。该计算机可读存储介质存储有一个或者一个以上程序,该一个或者一个以上程序被一个或者一个以上的处理器用来执行上述用户信用评估方法。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (20)
1.一种用户信用评估方法,其特征在于,所述方法包括:
获取用户的第一行为序列和至少一个关联用户的第二行为序列,所述关联用户是在社交网络与所述用户存在关联的其他用户;
将所述用户的第一行为序列输入第一循环神经网络,得到所述用户的第一序列特征表示;
将所述关联用户的第二行为序列输入第二循环神经网络,得到所述关联用户的第二序列特征表示;
将所述第一序列特征表示和所述第二序列特征表示输入栈式自编码器,得到所述用户的组合特征衍生表示;
将所述用户的组合特征衍生表示输入分类器,得到所述用户的信用评估数据;
其中,所述第一循环神经网络、所述第二循环神经网络和所述栈式自编码器中的模型参数是利用样本序列数据进行训练后确定的,所述第一循环神经网络和所述第二循环神经网络中的模型参数相同。
2.根据权利要求1所述的方法,其特征在于,所述第一循环神经网络包括第一长短记忆网络LSTM单元和第一平均池化单元,每个所述第一LSTM单元包括输入层和隐藏层;所述第一行为序列包括n个时序上连续的向量,每个所述向量对应所述用户的1个行为数据,n为正整数;
所述将所述用户的第一行为序列输入第一循环神经网络,得到所述用户的第一序列特征表示,包括:
将所述n个时序上连续的向量按照时序顺序分别输入n个所述第一LSTM单元,得到n个所述第一LSTM单元的隐藏层输出的向量,将n个所述隐藏层输出的向量组成第一矩阵,其中,第i+1个所述第一LSTM单元的输入包括第i个所述第一LSTM单元的隐藏层的输出和第i+1个所述第一LSTM单元的输入层的输出,i为正整数,i<i+1<n;
将所述第一矩阵输入所述第一平均池化单元,得到所述用户的第一序列特征表示,所述第一平均池化单元用于对所述第一矩阵中的每列元素求平均。
3.根据权利要求1所述的方法,其特征在于,所述第二循环神经网络包括第二LSTM单元和第二平均池化单元,每个所述第二LSTM单元包括输入层和隐藏层;所述第二行为序列包括m个时序上连续的向量,每个所述向量对应所述关联用户的1个行为数据,m为正整数;
所述将所述关联用户的第二行为序列输入第二循环神经网络,得到所述关联用户的第二序列特征表示,包括:
将所述m个时序上连续的向量按照时序顺序分别输入m个所述第二LSTM单元,得到m个所述第二LSTM单元的隐藏层输出的向量,将m个所述隐藏层输出的向量组成第二矩阵,其中,第i+1个所述第二LSTM单元的输入包括第i个所述第二LSTM单元的隐藏层的输出和第i+1个所述第二LSTM单元的输入层的输出,i为正整数,i<i+1<m;
将所述第二矩阵输入所述第二平均池化单元,得到所述关联用户的第二序列特征表示;其中,当所述第二行为序列的数量为一个时,所述第二平均池化单元用于对所述第二矩阵中的每列元素求平均;当所述第二行为序列的数量为p个时,所述第二平均池化单元用于对每个所述第二矩阵中的每列元素求平均得到的p个所述第二序列特征表示求平均,p为正整数,p>1。
4.根据权利要求1至3任一所述的方法,其特征在于,所述第一循环神经网络在训练时包括第一LSTM单元、第一平均池化单元和第一训练分类器;
所述第一循环神经网络的训练过程包括如下步骤:
获取所述样本序列数据,所述样本序列数据包括:样本用户的第一样本行为序列、至少一个关联样本用户的第二样本行为序列和所述样本用户的标签数据,所述标签数据是对所述样本用户的信用进行标注后的标签,所述关联样本用户是在社交网络与所述样本用户存在关联的其他用户;
将所述第一样本行为序列输入所述第一LSTM单元,得到训练特征序列;
将所述训练特征序列输入所述第一平均池化单元,得到训练样本序列特征表示;
将所述训练样本序列特征表示输入所述第一训练分类器,得到第一预测数据;
将所述第一预测数据和所述标签数据代入第一损失函数,判断所述第一损失函数是否收敛到极小值;
当所述第一损失函数没有收敛到极小值时,利用误差反向传播算法对所述第一LSTM单元的参数进行调整,直到所述第一损失函数收敛到极小值;
当所述第一损失函数收敛到极小值时,将调整后的所述第一LSTM单元的参数确定为所述第一循环神经网络的模型参数。
5.根据权利要求1所述的方法,其特征在于,所述栈式自编码器包括k层受限玻尔兹曼机RBM,每个所述RBM包括输入层和隐藏层,k为正整数;
所述将所述第一序列特征表示和所述第二序列特征表示输入栈式自编码器,得到所述用户的组合特征衍生表示,包括:
将所述第一序列特征表示和所述第二序列特征表示进行拼接,得到所述用户的序列特征表示;
将所述用户的序列特征表示输入所述栈式自编码器,所述栈式自编码器的第i+1层所述RBM的输入层的输入为第i层所述RBM的隐藏层的输出,i为正整数,i<i+1<k;
将第k层所述RBM的隐藏层的输出作为所述用户的组合特征衍生表示。
6.根据权利要求1或5所述的方法,其特征在于,所述栈式自编码器在训练时包括k层受限玻尔兹曼机RBM和第二训练分类器,k为正整数;
所述栈式自编码器的训练过程包括如下步骤:
将样本用户的序列特征表示输入所述栈式自编码器,所述样本用户的序列特征表示是根据所述样本序列数据计算得到的;
在预训练阶段,分别对每层所述RBM进行无监督学习训练,得到预训练后的RBM参数;
在精调阶段,结合所述第二训练分类器对k层所述RBM进行有监督学习训练,所述有监督学习训练用于调整所述预训练后的RBM参数。
7.根据权利要求6所述的方法,其特征在于,每个所述RBM在训练时包括输入层、隐藏层和输出层;
所述在预训练阶段,分别对每层所述RBM进行无监督学习训练,得到预训练后的RBM参数,包括:
在对第i层所述RBM进行训练时,将预定特征表示输入第i层所述RBM的输入层,根据第i层所述RBM的第i权重矩阵和第i偏置向量计算第i层所述RBM的输出层的数据;
将第i层所述RBM的输入层的数据和输出层的数据代入第二损失函数,判断所述第二损失函数是否收敛到极小值;
当所述第二损失函数没有收敛到极小值时,调整所述第i权重矩阵和所述第i偏置向量,将第i层所述RBM的输入层的数据和调整后的第i层所述RBM的输出层的数据代入所述第二损失函数,直到所述第二损失函数收敛到极小值;
当所述第二损失函数收敛到极小值时,将调整后的所述第i权重矩阵和所述第i偏置向量确定为所述预训练后的RBM参数;
其中,第i层所述RBM的隐藏层的输出作为第i+1层所述RBM的输入层的输入,i为正整数,i为1时所述预定特征表示是所述样本用户的序列特征表示,i大于1时所述预定特征表示是第i-1层所述RBM的隐藏层的输出,i<i+1<k。
8.根据权利要求6所述的方法,其特征在于,所述在精调阶段,结合所述第二训练分类器对k层所述RBM进行有监督学习训练,包括:
将第k层所述RBM的隐藏层的输出作为训练组合特征衍生表示输入给所述第二训练分类器,得到第二预测数据;
将所述第二预测数据和所述标签数据代入第三损失函数,判断所述第三损失函数是否收敛到极小值;
当所述第三损失函数没有收敛到极小值时,利用误差反向传播算法对每层所述RBM的隐藏层的权重矩阵和偏置向量进行调整,直到所述第三损失函数收敛到极小值;
当所述第三损失函数收敛到极小值时,将调整后的每层所述RBM的隐藏层的权重矩阵和偏置向量确定为所述栈式自编码器的模型参数。
9.根据权利要求6所述的方法,其特征在于,所述第一循环神经网络包括第一LSTM单元和第一平均池化单元;所述第二循环神经网络包括第二LSTM单元和第二平均池化单元;所述样本序列数据包括所述样本用户的第一样本行为序列、至少一个关联样本用户的第二样本行为序列和所述样本用户的标签数据,所述标签数据是对所述样本用户的信用进行标注后的标签,所述关联样本用户是在社交网络与所述样本用户存在关联的其他用户;
所述将样本用户的序列特征表示输入所述栈式自编码器之前,还包括:
将所述第一样本行为序列输入所述第一LSTM单元,得到所述样本用户的第一特征序列;
将所述第一特征序列输入所述第一平均池化单元,得到第一样本序列特征表示;
将所述第二样本行为序列输入所述第二LSTM单元,得到所述关联样本用户的第二特征序列,所述第二LSTM单元的参数与所述第一LSTM单元的参数相同;
将所述第二特征序列输入所述第二平均池化单元,得到第二样本序列特征表示;
将所述第一样本序列特征表示和所述第二样本序列特征表示进行拼接,得到所述样本用户的序列特征表示,所述样本用户的序列特征表示是所述栈式自编码器的输入;
其中,当所述第二样本行为序列的数量为一个时,所述第二平均池化单元用于对所述第二特征序列求平均;当所述第二样本行为序列的数量为p个时,所述第二平均池化单元用于对每个所述第二特征序列求平均得到的p个所述第二样本序列特征表示求平均,p为正整数,p>1。
10.根据权利要求1至9任一所述的方法,其特征在于,所述获取用户的第一行为序列和至少一个关联用户的第二行为序列,包括:
获取所述用户的第一行为序列所包括的n个向量,将所述n个向量映射到同一值域空间中,n为正整数;
获取所述关联用户的第二行为序列所包括的m个向量,将所述m个向量映射到所述同一值域空间中,m为正整数。
11.一种用户信用评估装置,其特征在于,所述装置包括:
第一获取模块,用于获取用户的第一行为序列和至少一个关联用户的第二行为序列,所述关联用户是在社交网络与所述用户存在关联的其他用户;
第一计算模块,用于将所述第一获取模块获取的所述用户的第一行为序列输入第一循环神经网络,得到所述用户的第一序列特征表示;
第二计算模块,用于将所述第一获取模块获取的所述关联用户的第二行为序列输入第二循环神经网络,得到所述关联用户的第二序列特征表示;
第三计算模块,用于将所述第一计算模块得到的所述第一序列特征表示和所述第二计算模块得到的所述第二序列特征表示输入栈式自编码器,得到所述用户的组合特征衍生表示;
第四计算模块,用于将所述第三计算模块得到的所述用户的组合特征衍生表示输入分类器,得到所述用户的信用评估数据;
其中,所述第一循环神经网络、所述第二循环神经网络和所述栈式自编码器中的模型参数是利用样本序列数据进行训练后确定的,所述第一循环神经网络和所述第二循环神经网络中的模型参数相同。
12.根据权利要求11所述的装置,其特征在于,所述第一循环神经网络包括第一长短记忆网络LSTM单元和第一平均池化单元,每个所述第一LSTM单元包括输入层和隐藏层;所述第一行为序列包括n个时序上连续的向量,每个所述向量对应所述用户的1个行为数据,n为正整数;
所述第一计算模块,包括:
第一计算单元,用于将所述n个时序上连续的向量按照时序顺序分别输入n个所述第一LSTM单元,得到n个所述第一LSTM单元的隐藏层输出的向量,将n个所述隐藏层输出的向量组成第一矩阵,其中,第i+1个所述第一LSTM单元的输入包括第i个所述第一LSTM单元的隐藏层的输出和第i+1个所述第一LSTM单元的输入层的输出,i为正整数,i<i+1<n;
第二计算单元,用于将所述第一计算单元得到的所述第一矩阵输入所述第一平均池化单元,得到所述用户的第一序列特征表示,所述第一平均池化单元用于对所述第一矩阵中的每列元素求平均。
13.根据权利要求11所述的装置,其特征在于,所述第二循环神经网络包括第二LSTM单元和第二平均池化单元,每个所述第二LSTM单元包括输入层和隐藏层;所述第二行为序列包括m个时序上连续的向量,每个所述向量对应所述关联用户的1个行为数据,m为正整数;
所述第二计算模块,包括:
第三计算单元,用于将所述m个时序上连续的向量按照时序顺序分别输入m个所述第二LSTM单元,得到m个所述第二LSTM单元的隐藏层输出的向量,将m个所述隐藏层输出的向量组成第二矩阵,其中,第i+1个所述第二LSTM单元的输入包括第i个所述第二LSTM单元的隐藏层的输出和第i+1个所述第二LSTM单元的输入层的输出,i为正整数,i<i+1<m;
第四计算单元,用于将所述第三计算单元得到的所述第二矩阵输入所述第二平均池化单元,得到所述关联用户的第二序列特征表示;其中,当所述第二行为序列的数量为一个时,所述第二平均池化单元用于对所述第二矩阵中的每列元素求平均;当所述第二行为序列的数量为p个时,所述第二平均池化单元用于对每个所述第二矩阵中的每列元素求平均得到的p个所述第二序列特征表示求平均,p为正整数,p>1。
14.根据权利要求11至13任一所述的装置,其特征在于,所述第一循环神经网络在训练时包括第一LSTM单元、第一平均池化单元和第一训练分类器;
所述装置还包括:
第二获取模块,用于获取所述样本序列数据,所述样本序列数据包括:样本用户的第一样本行为序列、至少一个关联样本用户的第二样本行为序列和所述样本用户的标签数据,所述标签数据是对所述样本用户的信用进行标注后的标签,所述关联样本用户是在社交网络与所述样本用户存在关联的其他用户;
第五计算模块,用于将所述第二获取模块获取的所述第一样本行为序列输入所述第一LSTM单元,得到训练特征序列;
第六计算模块,用于将所述第五计算模块得到的所述训练特征序列输入所述第一平均池化单元,得到训练样本序列特征表示;
第七计算模块,用于将所述第六计算模块得到的所述训练样本序列特征表示输入所述第一训练分类器,得到第一预测数据;
判断模块,用于将所述第七计算模块得到的所述第一预测数据和所述标签数据代入第一损失函数,判断所述第一损失函数是否收敛到极小值;
调整模块,用于当所述判断模块判断出所述第一损失函数没有收敛到极小值时,利用误差反向传播算法对所述第一LSTM单元的参数进行调整,直到所述第一损失函数收敛到极小值;
确定模块,用于当所述判断模块判断出所述第一损失函数收敛到极小值时,将调整后的所述第一LSTM单元的参数确定为所述第一循环神经网络的模型参数。
15.根据权利要求11所述的装置,其特征在于,所述栈式自编码器包括k层受限玻尔兹曼机RBM,每个所述RBM包括输入层和隐藏层,k为正整数;
所述第三计算模块,包括:
拼接单元,用于将所述第一计算模块得到的所述第一序列特征表示和所述第二计算模块得到的所述第二序列特征表示进行拼接,得到所述用户的序列特征表示;
输入单元,用于将所述拼接单元得到的所述用户的序列特征表示输入所述栈式自编码器,所述栈式自编码器的第i+1层所述RBM的输入层的输入为第i层所述RBM的隐藏层的输出,i为正整数,i<i+1<k;
第一确定单元,用于将第k层所述RBM的隐藏层的输出作为所述用户的组合特征衍生表示。
16.根据权利要求11或15所述的装置,其特征在于,所述栈式自编码器在训练时包括k层受限玻尔兹曼机RBM和第二训练分类器,k为正整数;
所述装置还包括:
输入模块,用于将样本用户的序列特征表示输入所述栈式自编码器,所述样本用户的序列特征表示是根据所述样本序列数据计算得到的;
第一训练模块,用于在预训练阶段,分别对每层所述RBM进行无监督学习训练,得到预训练后的RBM参数;
第二训练模块,用于在精调阶段,结合所述第二训练分类器对k层所述RBM进行有监督学习训练,所述有监督学习训练用于调整所述第一训练模块得到的所述预训练后的RBM参数。
17.根据权利要求16所述的装置,其特征在于,每个所述RBM在训练时包括输入层、隐藏层和输出层;
所述第一训练模块,包括:
第五计算单元,用于在对第i层所述RBM进行训练时,将预定特征表示输入第i层所述RBM的输入层,根据第i层所述RBM的第i权重矩阵和第i偏置向量计算第i层所述RBM的输出层的数据;
第一判断单元,用于将第i层所述RBM的输入层的数据和所述第五计算单元得到的输出层的数据代入第二损失函数,判断所述第二损失函数是否收敛到极小值;
第一调整单元,用于当所述第一判断单元判断出所述第二损失函数没有收敛到极小值时,调整所述第i权重矩阵和所述第i偏置向量,将第i层所述RBM的输入层的数据和调整后的第i层所述RBM的输出层的数据代入所述第二损失函数,直到所述第二损失函数收敛到极小值;
第二确定单元,用于当所述第一判断单元判断出所述第二损失函数收敛到极小值时,将调整后的所述第i权重矩阵和所述第i偏置向量确定为所述预训练后的RBM参数;
其中,第i层所述RBM的隐藏层的输出作为第i+1层所述RBM的输入层的输入,i为正整数,i为1时所述预定特征表示是所述样本用户的序列特征表示,i大于1时所述预定特征表示是第i-1层所述RBM的隐藏层的输出,i<i+1<k。
18.根据权利要求16所述的装置,其特征在于,所述第二训练模块,包括:
第六计算单元,用于将第k层所述RBM的隐藏层的输出作为训练组合特征衍生表示输入给所述第二训练分类器,得到第二预测数据;
第二判断单元,用于将所述第二预测数据和所述标签数据代入第三损失函数,判断所述第三损失函数是否收敛到极小值;
第二调整单元,用于当所述第二判断单元判断出所述第三损失函数没有收敛到极小值时,利用误差反向传播算法对每层所述RBM的隐藏层的权重矩阵和偏置向量进行调整,直到所述第三损失函数收敛到极小值;
第三确定单元,用于当所述第二判断单元判断出所述第三损失函数收敛到极小值时,将调整后的每层所述RBM的隐藏层的权重矩阵和偏置向量确定为所述栈式自编码器的模型参数。
19.根据权利要求16所述的装置,其特征在于,所述第一循环神经网络包括第一LSTM单元和第一平均池化单元;所述第二循环神经网络包括第二LSTM单元和第二平均池化单元;所述样本序列数据包括所述样本用户的第一样本行为序列、至少一个关联样本用户的第二样本行为序列和所述样本用户的标签数据,所述标签数据是对所述样本用户的信用进行标注后的标签,所述关联样本用户是在社交网络与所述样本用户存在关联的其他用户;
所述装置还包括:
第八计算模块,用于将所述第一样本行为序列输入所述第一LSTM单元,得到所述样本用户的第一特征序列;
第九计算模块,用于将所述第八计算模块得到的所述第一特征序列输入所述第一平均池化单元,得到第一样本序列特征表示;
第十计算模块,用于将所述第二样本行为序列输入所述第二LSTM单元,得到所述关联样本用户的第二特征序列,所述第二LSTM单元的参数与所述第一LSTM单元的参数相同;
第十一计算模块,用于将所述第十计算模块得到的所述第二特征序列输入所述第二平均池化单元,得到第二样本序列特征表示;
拼接模块,用于将所述第九计算模块得到的所述第一样本序列特征表示和所述第十一计算模块得到的所述第二样本序列特征表示进行拼接,得到所述样本用户的序列特征表示,所述样本用户的序列特征表示是所述栈式自编码器的输入;
其中,当所述第二样本行为序列的数量为一个时,所述第二平均池化单元用于对所述第二特征序列求平均;当所述第二样本行为序列的数量为p个时,所述第二平均池化单元用于对每个所述第二特征序列求平均得到的p个所述第二样本序列特征表示求平均,p为正整数,p>1。
20.根据权利要求11至19任一所述的装置,其特征在于,所述第一获取模块,包括:
第一映射单元,用于获取所述用户的第一行为序列所包括的n个向量,将所述n个向量映射到同一值域空间中,n为正整数;
第二映射单元,用于获取所述关联用户的第二行为序列所包括的m个向量,将所述m个向量映射到所述同一值域空间中,m为正整数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710076065.8A CN108280757B (zh) | 2017-02-13 | 2017-02-13 | 用户信用评估方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710076065.8A CN108280757B (zh) | 2017-02-13 | 2017-02-13 | 用户信用评估方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108280757A true CN108280757A (zh) | 2018-07-13 |
CN108280757B CN108280757B (zh) | 2021-08-17 |
Family
ID=62801124
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710076065.8A Active CN108280757B (zh) | 2017-02-13 | 2017-02-13 | 用户信用评估方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108280757B (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109102017A (zh) * | 2018-08-09 | 2018-12-28 | 百度在线网络技术(北京)有限公司 | 神经网络模型处理方法、装置、设备及可读存储介质 |
CN109615454A (zh) * | 2018-10-30 | 2019-04-12 | 阿里巴巴集团控股有限公司 | 确定用户金融违约风险的方法及装置 |
CN109978682A (zh) * | 2019-03-28 | 2019-07-05 | 上海拍拍贷金融信息服务有限公司 | 信用评分方法、装置以及计算机存储介质 |
CN110009482A (zh) * | 2019-03-12 | 2019-07-12 | 平安普惠企业管理有限公司 | 一种数据处理方法及装置 |
CN110135467A (zh) * | 2019-04-23 | 2019-08-16 | 北京淇瑀信息科技有限公司 | 一种基于数据拼接的模型训练方法、装置、***和记录介质 |
CN110415022A (zh) * | 2019-07-05 | 2019-11-05 | 阿里巴巴集团控股有限公司 | 处理用户行为序列的方法及装置 |
CN110674979A (zh) * | 2019-09-11 | 2020-01-10 | 腾讯科技(深圳)有限公司 | 风险预测模型的训练方法、预测方法及装置、介质和设备 |
CN111225236A (zh) * | 2020-01-20 | 2020-06-02 | 北京百度网讯科技有限公司 | 生成视频封面的方法、装置、电子设备以及计算机可读存储介质 |
CN111353001A (zh) * | 2018-12-24 | 2020-06-30 | 杭州海康威视数字技术股份有限公司 | 对用户进行分类的方法和装置 |
CN112819604A (zh) * | 2021-01-19 | 2021-05-18 | 浙江省农村信用社联合社 | 基于融合神经网络特征挖掘的个人信用评估方法与*** |
CN113011966A (zh) * | 2021-03-18 | 2021-06-22 | 中国光大银行股份有限公司 | 基于深度学习的信用评分方法及装置 |
CN113379534A (zh) * | 2021-06-11 | 2021-09-10 | 重庆农村商业银行股份有限公司 | 一种风险评估方法、装置、设备及存储介质 |
CN113537297A (zh) * | 2021-06-22 | 2021-10-22 | 同盾科技有限公司 | 一种行为数据预测方法及装置 |
CN113554077A (zh) * | 2021-07-13 | 2021-10-26 | 南京铉盈网络科技有限公司 | 基于多模态神经网络模型的工况评估及业务量预测方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104463603A (zh) * | 2014-12-05 | 2015-03-25 | 中国联合网络通信集团有限公司 | 一种信用评估方法及*** |
US20150154698A1 (en) * | 2013-12-03 | 2015-06-04 | Credibility Corp. | Hybridization of Personal and Business Credit and Credibility |
CN104866969A (zh) * | 2015-05-25 | 2015-08-26 | 百度在线网络技术(北京)有限公司 | 个人信用数据处理方法和装置 |
CN105701706A (zh) * | 2016-01-28 | 2016-06-22 | 北京量科邦信息技术有限公司 | 根据联系人的信用状况判断用户信用等级的方法 |
CN105931116A (zh) * | 2016-04-20 | 2016-09-07 | 帮帮智信(北京)教育投资有限公司 | 基于深度学习机制的自动化信用评分***及方法 |
CN106056444A (zh) * | 2016-05-25 | 2016-10-26 | 腾讯科技(深圳)有限公司 | 数据处理方法和装置 |
CN106156941A (zh) * | 2016-06-06 | 2016-11-23 | 腾讯科技(深圳)有限公司 | 一种用户信用评分优化方法和装置 |
-
2017
- 2017-02-13 CN CN201710076065.8A patent/CN108280757B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150154698A1 (en) * | 2013-12-03 | 2015-06-04 | Credibility Corp. | Hybridization of Personal and Business Credit and Credibility |
CN104463603A (zh) * | 2014-12-05 | 2015-03-25 | 中国联合网络通信集团有限公司 | 一种信用评估方法及*** |
CN104866969A (zh) * | 2015-05-25 | 2015-08-26 | 百度在线网络技术(北京)有限公司 | 个人信用数据处理方法和装置 |
CN105701706A (zh) * | 2016-01-28 | 2016-06-22 | 北京量科邦信息技术有限公司 | 根据联系人的信用状况判断用户信用等级的方法 |
CN105931116A (zh) * | 2016-04-20 | 2016-09-07 | 帮帮智信(北京)教育投资有限公司 | 基于深度学习机制的自动化信用评分***及方法 |
CN106056444A (zh) * | 2016-05-25 | 2016-10-26 | 腾讯科技(深圳)有限公司 | 数据处理方法和装置 |
CN106156941A (zh) * | 2016-06-06 | 2016-11-23 | 腾讯科技(深圳)有限公司 | 一种用户信用评分优化方法和装置 |
Non-Patent Citations (2)
Title |
---|
李梦园: "深度学习算法在表面缺陷识别中的应用研究", 《中国优秀硕士学位论文全文数据库》 * |
王雪娇: "基于深度学习的文本情感分析", 《中国优秀硕士学位论文全文数据库》 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109102017A (zh) * | 2018-08-09 | 2018-12-28 | 百度在线网络技术(北京)有限公司 | 神经网络模型处理方法、装置、设备及可读存储介质 |
CN109102017B (zh) * | 2018-08-09 | 2021-08-03 | 百度在线网络技术(北京)有限公司 | 神经网络模型处理方法、装置、设备及可读存储介质 |
CN109615454A (zh) * | 2018-10-30 | 2019-04-12 | 阿里巴巴集团控股有限公司 | 确定用户金融违约风险的方法及装置 |
CN111353001A (zh) * | 2018-12-24 | 2020-06-30 | 杭州海康威视数字技术股份有限公司 | 对用户进行分类的方法和装置 |
WO2020135420A1 (zh) * | 2018-12-24 | 2020-07-02 | 杭州海康威视数字技术股份有限公司 | 对用户进行分类的方法和装置 |
CN111353001B (zh) * | 2018-12-24 | 2023-08-18 | 杭州海康威视数字技术股份有限公司 | 对用户进行分类的方法和装置 |
CN110009482A (zh) * | 2019-03-12 | 2019-07-12 | 平安普惠企业管理有限公司 | 一种数据处理方法及装置 |
CN109978682A (zh) * | 2019-03-28 | 2019-07-05 | 上海拍拍贷金融信息服务有限公司 | 信用评分方法、装置以及计算机存储介质 |
CN110135467A (zh) * | 2019-04-23 | 2019-08-16 | 北京淇瑀信息科技有限公司 | 一种基于数据拼接的模型训练方法、装置、***和记录介质 |
CN110415022A (zh) * | 2019-07-05 | 2019-11-05 | 阿里巴巴集团控股有限公司 | 处理用户行为序列的方法及装置 |
CN110674979A (zh) * | 2019-09-11 | 2020-01-10 | 腾讯科技(深圳)有限公司 | 风险预测模型的训练方法、预测方法及装置、介质和设备 |
CN111225236A (zh) * | 2020-01-20 | 2020-06-02 | 北京百度网讯科技有限公司 | 生成视频封面的方法、装置、电子设备以及计算机可读存储介质 |
CN112819604A (zh) * | 2021-01-19 | 2021-05-18 | 浙江省农村信用社联合社 | 基于融合神经网络特征挖掘的个人信用评估方法与*** |
CN113011966A (zh) * | 2021-03-18 | 2021-06-22 | 中国光大银行股份有限公司 | 基于深度学习的信用评分方法及装置 |
CN113379534A (zh) * | 2021-06-11 | 2021-09-10 | 重庆农村商业银行股份有限公司 | 一种风险评估方法、装置、设备及存储介质 |
CN113537297A (zh) * | 2021-06-22 | 2021-10-22 | 同盾科技有限公司 | 一种行为数据预测方法及装置 |
CN113554077A (zh) * | 2021-07-13 | 2021-10-26 | 南京铉盈网络科技有限公司 | 基于多模态神经网络模型的工况评估及业务量预测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108280757B (zh) | 2021-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108280757A (zh) | 用户信用评估方法及装置 | |
TWI712981B (zh) | 風險辨識模型訓練方法、裝置及伺服器 | |
TWI788529B (zh) | 基於lstm模型的信用風險預測方法及裝置 | |
TWI784941B (zh) | 一種多重抽樣模型訓練方法及裝置 | |
Rehman et al. | The causal, linear and nonlinear nexus between sectoral FDI and infrastructure in Pakistan: Using a new global infrastructure index | |
WO2021088499A1 (zh) | 一种基于动态网络表征的***虚开识别方法及*** | |
CN110458697A (zh) | 用于评估风险的方法和装置 | |
DE112018002952T5 (de) | Datenabgleich basierend auf einer Computeranalyse von Daten | |
CN108665159A (zh) | 一种风险评估方法、装置、终端设备及存储介质 | |
CN112418520B (zh) | 一种基于联邦学习的***交易风险预测方法 | |
Liu et al. | Can listing information indicate borrower credit risk in online peer-to-peer lending? | |
CN113011646A (zh) | 一种数据处理方法、设备以及可读存储介质 | |
CN107590737A (zh) | 个人信用评分以及信用额度测算方法 | |
CN112861662A (zh) | 基于人脸和交互文本的目标对象行为预测方法及相关设备 | |
Wang et al. | Federated fuzzy k-means for privacy-preserving behavior analysis in smart grids | |
Li et al. | A time attention based fraud transaction detection framework | |
Ferrero et al. | Benefits of gradualism or costs of inaction? Monetary policy in times of uncertainty | |
Juvenal et al. | Export market diversification and productivity improvements: theory and evidence from Argentinean firms | |
CN116361759B (zh) | 一种基于量化权限指引的智能合规控制方法 | |
CN115809837B (zh) | 基于数字化模拟场景的金融企业管理方法、设备及介质 | |
Li et al. | An Intuitionistic Fuzzy Stochastic Decision‐Making Method Based on Case‐Based Reasoning and Prospect Theory | |
KR102249467B1 (ko) | 전문가 플랫폼의 전문가 경험지식 매칭 서비스 제공방법, 장치 및 프로그램 | |
CN114187081A (zh) | 估值表处理方法、装置、电子设备及计算机可读存储介质 | |
US11551317B2 (en) | Property valuation model and visualization | |
US11068993B1 (en) | Smart engine risk assessments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |