CN114723547A - 催收方法、装置、计算机设备及计算机程序产品 - Google Patents
催收方法、装置、计算机设备及计算机程序产品 Download PDFInfo
- Publication number
- CN114723547A CN114723547A CN202111469343.9A CN202111469343A CN114723547A CN 114723547 A CN114723547 A CN 114723547A CN 202111469343 A CN202111469343 A CN 202111469343A CN 114723547 A CN114723547 A CN 114723547A
- Authority
- CN
- China
- Prior art keywords
- repayment
- type
- collection
- machine
- call
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 153
- 238000004590 computer program Methods 0.000 title claims abstract description 38
- 230000008569 process Effects 0.000 claims abstract description 105
- 238000004458 analytical method Methods 0.000 claims abstract description 92
- 230000008451 emotion Effects 0.000 claims abstract description 86
- 230000000977 initiatory effect Effects 0.000 claims abstract description 15
- 238000012549 training Methods 0.000 claims description 140
- 230000006870 function Effects 0.000 claims description 94
- 230000015654 memory Effects 0.000 claims description 27
- 230000007935 neutral effect Effects 0.000 claims description 22
- 230000003197 catalytic effect Effects 0.000 claims description 15
- 238000012937 correction Methods 0.000 claims description 15
- 238000011084 recovery Methods 0.000 claims description 13
- 238000003860 storage Methods 0.000 claims description 7
- 238000003306 harvesting Methods 0.000 claims description 3
- 238000012360 testing method Methods 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 12
- 238000011478 gradient descent method Methods 0.000 description 12
- 238000013528 artificial neural network Methods 0.000 description 11
- 230000000694 effects Effects 0.000 description 9
- 230000000306 recurrent effect Effects 0.000 description 9
- 238000004880 explosion Methods 0.000 description 6
- 230000007787 long-term memory Effects 0.000 description 5
- 230000008033 biological extinction Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000006403 short-term memory Effects 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 239000003795 chemical substances by application Substances 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 230000008034 disappearance Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 1
- 238000010923 batch production Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 229910021389 graphene Inorganic materials 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000006386 memory function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q40/00—Finance; Insurance; Tax strategies; Processing of corporate or income taxes
- G06Q40/03—Credit; Loans; Processing thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Finance (AREA)
- General Health & Medical Sciences (AREA)
- Accounting & Taxation (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Economics (AREA)
- Marketing (AREA)
- Technology Law (AREA)
- Databases & Information Systems (AREA)
- Strategic Management (AREA)
- Development Economics (AREA)
- General Business, Economics & Management (AREA)
- Child & Adolescent Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请涉及一种催收方法、装置、计算机设备及计算机程序产品。方法包括:将还款项目信息输入至训练后的催收方式选择模型,输出催收方式类型;若为机器催收,则发起机器催收通话,在机器催收通话中向通话对象核实身份及还款项目;若核实正确,则获取通话对象对询问语音的第一答复语音,将第一答复语音转化为第一答复文本,将第一答复文本输入至训练后的情感分析模型,输出第一还款意愿类型;基于第一还款意愿类型,在机器催收通话中播报用于催收还款的催收语音。由于催收过程中,可以通过语音识别、情感分析等技术手段,识别出逾期客户的还款意愿,并根据不同场景准备解释、询问、试压等多套话术体系,从而可以提升智能催收的效率和成功率。
Description
技术领域
本申请涉及数据处理技术领域,特别是涉及一种催收方法、装置、计算机设备及计算机程序产品。
背景技术
目前常见的逾期欠款催收手段,都是通过电话对用户进行催收。传统的电话催收都是以由催收工作人员设定好固定的催收时间后,在到达催收时间时通过电话直接向用户播报预设的同样的催收语音。该过程主要是实现了信息提醒或告知的作用,与短信提醒效果接近,播报的内容死板,难以达到有效的催收效果。在某些情况下,还会导致大量逾期客户对客服坐席的呼叫,产生额外的人力消耗。
发明内容
基于此,有必要针对上述技术问题,提供一种提高催收效果的催收方法、装置、计算机设备及计算机程序产品。
第一方面,本申请一种催收方法,该方法包括:
获取待催收的还款项目信息,将还款项目信息输入至训练后的催收方式选择模型,输出催收方式类型,催收方式类型为机器催收或者人工催收;
若催收方式类型为机器催收,则发起机器催收通话,在机器催收通话中向通话对象核实身份及还款项目;
若核实正确,则在机器催收通话中播报用于确认还款意愿的询问语音,获取通话对象在机器催收通话中对询问语音的第一答复语音,将第一答复语音转化为第一答复文本,将第一答复文本输入至训练后的情感分析模型,输出第一还款意愿类型,第一还款意愿类型为积极型、中立型或消极型;
基于第一还款意愿类型,在机器催收通话中播报用于催收还款的催收语音。
在其中一个实施例中,情感分析模型的训练过程,包括:
获取训练文本及对应的分类标签,分类标签为以下三种分类结果中的任意一种,以下三种分类结果分别为积极型、中立型或消极型;
将训练文本输入至情感分析模型,输出训练文本的预测分类结果,基于预测分类结果与分类标签之间的差异,调整情感分析模型中的参数,直至训练停止条件时结束训练,得到训练后的情感分析模型。
在其中一个实施例中,情感分析模型中包括门结构,参数为门结构的门权重参数;基于预测分类结果与分类标签之间的差异,调整情感分析模型中的参数,包括:
对于第t次训练过程,随机获取门权重参数的n组取值及每组取值下情感分析模型对应的损失函数值,t为不小于1的正整数,n为不小于2的正整数;
根据n组取值及每组取值下情感分析模型对应的损失函数值,在第t次训练过程中调整门权重参数的取值。
在其中一个实施例中,n为3;根据多组取值及每组取值下情感分析模型对应的损失函数值,在第t次训练过程中调整门权重参数的取值,包括:
从每组取值下情感分析模型对应的损失函数值中,确定最大损失函数值,将最大损失函数值及最大损失函数值对应的取值作为第一空间点,将剩下的两组取值中每组取值及每组取值对应的损失函数值分别作为第二空间点及第三空间点;
根据第一空间点及第二空间点,确定第一梯度下降方向,根据第一空间点及第三空间点,确定第二梯度下降方向,根据每组取值对应的损失函数值,计算第一步长及第二步长;
根据第一梯度下降方向、第二梯度下降方向、第一步长及第二步长,在第 t次训练过程中调整门权重参数的取值。
在其中一个实施例中,根据第一梯度下降方向、第二梯度下降方向、第一步长及第二步长,在第t次训练过程中调整门权重参数的取值,包括:
对第一梯度下降方向及第二梯度下降方向进行整合,得到第t次训练过程中门权重参数的梯度下降方向;
根据第t次训练过程中门权重参数的梯度下降方向、第t-1次训练过程中门权重参数的梯度下降方向、第一步长及第二步长,在第t次训练过程中调整门权重参数的取值。
在其中一个实施例中,情感分析模型所使用的损失函数为:
其中,λ(yi_true,yi_pred)表示修正项,yi_true的取值是基于第i个训练样本的分类标签所确定的,yi_pred的取值是基于第i个训练样本的预测分类结果所确定的,n表示训练样本的总数量。
第二方面,本申请还提供了一种催收装置,该装置包括:
获取模块,用于获取待催收的还款项目信息,将还款项目信息输入至训练后的催收方式选择模型,输出催收方式类型,催收方式类型为机器催收或者人工催收;
发起模块,用于当催收方式类型为机器催收时,则发起机器催收通话,在机器催收通话中向通话对象核实身份及还款项目;
预测模块,用于当核实正确时,则在机器催收通话中播报用于确认还款意愿的询问语音,获取通话对象在机器催收通话中对询问语音的第一答复语音,将第一答复语音转化为第一答复文本,将第一答复文本输入至训练后的情感分析模型,输出第一还款意愿类型,第一还款意愿类型为积极型、中立型或消极型;
播报模块,用于基于第一还款意愿类型,在机器催收通话中播报用于催收还款的催收语音。
第三方面,本申请还提供了一种计算机设备,该计算机设备包括存储器和处理器,存储器存储有计算机程序,处理器执行计算机程序时实现以下步骤:
获取待催收的还款项目信息,将还款项目信息输入至训练后的催收方式选择模型,输出催收方式类型,催收方式类型为机器催收或者人工催收;
若催收方式类型为机器催收,则发起机器催收通话,在机器催收通话中向通话对象核实身份及还款项目;
若核实正确,则在机器催收通话中播报用于确认还款意愿的询问语音,获取通话对象在机器催收通话中对询问语音的第一答复语音,将第一答复语音转化为第一答复文本,将第一答复文本输入至训练后的情感分析模型,输出第一还款意愿类型,第一还款意愿类型为积极型、中立型或消极型;
基于第一还款意愿类型,在机器催收通话中播报用于催收还款的催收语音。
第四方面,本申请还提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取待催收的还款项目信息,将还款项目信息输入至训练后的催收方式选择模型,输出催收方式类型,催收方式类型为机器催收或者人工催收;
若催收方式类型为机器催收,则发起机器催收通话,在机器催收通话中向通话对象核实身份及还款项目;
若核实正确,则在机器催收通话中播报用于确认还款意愿的询问语音,获取通话对象在机器催收通话中对询问语音的第一答复语音,将第一答复语音转化为第一答复文本,将第一答复文本输入至训练后的情感分析模型,输出第一还款意愿类型,第一还款意愿类型为积极型、中立型或消极型;
基于第一还款意愿类型,在机器催收通话中播报用于催收还款的催收语音。
第五方面,本申请还提供了一种计算机程序产品。计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现以下步骤:
获取待催收的还款项目信息,将还款项目信息输入至训练后的催收方式选择模型,输出催收方式类型,催收方式类型为机器催收或者人工催收;
若催收方式类型为机器催收,则发起机器催收通话,在机器催收通话中向通话对象核实身份及还款项目;
若核实正确,则在机器催收通话中播报用于确认还款意愿的询问语音,获取通话对象在机器催收通话中对询问语音的第一答复语音,将第一答复语音转化为第一答复文本,将第一答复文本输入至训练后的情感分析模型,输出第一还款意愿类型,第一还款意愿类型为积极型、中立型或消极型;
基于第一还款意愿类型,在机器催收通话中播报用于催收还款的催收语音。
上述催收方法、装置、计算机设备及计算机程序产品,由于催收过程中,可以通过语音识别、情感分析等技术手段,识别出逾期客户的还款意愿,并根据不同场景准备解释、询问、试压等多套话术体系,从而可以提升智能催收的效率和成功率。
附图说明
图1为一个实施例中催收过程的实施场景示意图;
图2为一个实施例中催收方法的流程示意图;
图3为一个实施例中情感分析模型的工作过程示意图;
图4为一个实施例中催收流程示意图;
图5为一个实施例中循环神经网络的结构示意图;
图6为另一个实施例中催收方法的流程示意图;
图7为另一个实施例中催收流程示意图;
图8为一个实施例中催收装置的结构框图;
图9为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
可以理解,本申请所使用的术语“第一”、“第二”等可在本文中用于描述各种专业名词,但除非特别说明,这些专业名词不受这些术语限制。这些术语仅用于将一个专业名词与另一个专业名词区分。举例来说,在不脱离本申请的范围的情况下,第三预设阈值与第四预设阈值可以相同可以不同。
目前常见的逾期欠款催收手段,都是通过电话对用户进行催收。传统的电话催收都是以由催收工作人员设定好固定的催收时间后,在到达催收时间时通过电话直接向用户播报预设的同样的催收语音。该过程主要是实现了信息提醒或告知的作用,与短信提醒效果接近,播报的内容死板,催收话术较为单一,无法做到在与客户的沟通中动态调整策略,难以达到有效的催收效果,只能起到告知作用,对于大部分客户无法有效提升其还款意愿。在某些情况下,还会导致大量逾期客户对客服坐席的呼叫,产生额外的人力消耗。
基于上述需求,本申请实施例提供了一种催收方法,该方法可以应用不同服务器与终端之间,具体可以应用于如图1所示的应用环境中。其中,服务器 102可以向终端104拨打催收电话以进行通信(如语音通话)。数据存储***可以存储服务器102需要处理的数据,数据存储***可以集成在服务器102上,也可以放在云上或其他网络服务器上。服务器102通过获取用于催收电话的催收语音,将催收语音传输至终端104,由终端104对催收语音进行接收及播报。其中,服务器102可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一些实施例中,参见图2,提供了一种催收方法。以该方法应用于图1 中的服务器102为例进行说明,包括以下步骤:
202、获取待催收的还款项目信息,将还款项目信息输入至训练后的催收方式选择模型,输出催收方式类型,催收方式类型为机器催收或者人工催收。
其中,还款项目信息主要是用于核实后续通话对象的还款项目是否正确,还款项目可以为房贷项目、消费贷项目或者经营贷项目等。可以理解的是,对于有些还款项目适合机器催收,如房贷等,而有些还款项目适合人工催收,如某些短期贷款等。进一步地,还款项目信息还可以包括还款项目的还款情况,如是否经历过逾期以及剩下未还款数额等。因此,本步骤中可以先通过训练后的催收方式选择模型,基于还款项目信息确定催收方式类型。其中,催收方式选择模型可以是基于还款项目样本信息及对应的分类标签对深度学习模型进行训练后得到的。
204、若催收方式类型为机器催收,则发起机器催收通话,在机器催收通话中向通话对象核实身份及还款项目。
其中,若催收方式类型为人工催收,则可以直接转至人工坐席。机器催收通话可以是服务器102拨打至终端104,在机器催收通话中可以播报“请问是否XXX,您是不是之前办理XXX贷款”之类的语音,供通话对象进行确认,以核实通话对象的身份及还款项目。
206、若核实正确,则在机器催收通话中播报用于确认还款意愿的询问语音,获取通话对象在机器催收通话中对询问语音的第一答复语音,将第一答复语音转化为第一答复文本,将第一答复文本输入至训练后的情感分析模型,输出第一还款意愿类型,第一还款意愿类型为积极型、中立型或消极型。
其中,若核实正确,则说明通话对象即为还款项目信息对应的催收对象,且还款项目信息也是正确的。由此,可以再询问通话对象的还款意愿。情感分析模型可以为通过卷积神经网络建模实现。但由于卷积神经网络没有记忆功能,无法有效实现上下文串联,且使用卷积神经网络的全连接模式过于冗余而低效,在特征理解方面也存在不足。因此,在本申请实施例中,可以采用循环神经网络。
循环神经网络主要是以序列(sequence)数据为输入,在序列的演进方向进行递归(recursion)且所有节点(循环单元)按链式连接的递归神经网络。进一步地,可以采用长短期记忆网络。长短期记忆网络是一种时间循环神经网络,是为了解决一般循环神经网络所存在的长期依赖问题而专门设计出来的,所有循环神经网络都具有一种重复神经网络模块的链式形式。
可以理解的是,基于智能催收场景的评估,本申请实施例使用循环神经网络中的长短期记忆网络进行建模,可以改善循环神经网络中存在的长期依赖问题,在100个量级的序列中可以做到很好的支撑,具有长时记忆功能,适用于文本情感分析问题。其中,将第一答复文本输入至情感分析模型,输出第一还款意愿类型的过程可参考图3。在图3中,深度学习模型即可为长短期记忆网络模型;智能催收通话记录中所产生的通话文本即可为第一答复文本或者后续通话中通话对象的通话文本,答复文本均为自然语言文本;情感分析结果即为第一还款意愿类型或者后续分析得到的还款意愿类型。
208、基于第一还款意愿类型,在机器催收通话中播报用于催收还款的催收语音。
其中,第一还款意愿类型可以为通话对象在听到确认还款意愿的询问语音时的初次答复。可以理解的是,若第一还款意愿类型为消极型,则说明通话对象基本没有还款意愿,则可以再次播报施加还款压力的催收语音。上述步骤 202至步骤208中所提及的催收过程可参考图4,其中,情感分析批处理主要指的是对刚开始确定还款意愿的询问语音进行处理,以确定刚开始答复所使用的初始话术。而机器催收通话中后续通话对象的回复内容,则可以通过实时情感分析,确定实时答复所使用的话术。
本申请实施例提供的方法,由于催收过程中,可以通过语音识别、情感分析等技术手段,识别出逾期客户的还款意愿,并根据不同场景准备解释、询问、试压等多套话术体系,从而可以提升智能催收的效率和成功率。
在一些实施例中,提供了一种情感分析模型的训练方法。以该方法应用于图1中的服务器102为例进行说明,包括以下步骤:获取训练文本及对应的分类标签,分类标签为以下三种分类结果中的任意一种,以下三种分类结果分别为积极型、中立型或消极型;将训练文本输入至情感分析模型,输出训练文本的预测分类结果,基于预测分类结果与分类标签之间的差异,调整情感分析模型中的参数,直至训练停止条件时结束训练,得到训练后的情感分析模型。其中,训练停止条件可以为情感分析模型收敛,本申请实施例对此不作具体限定。
本申请实施例提供的方法,由于催收过程中,可以通过语音识别、情感分析等技术手段,识别出逾期客户的还款意愿,并根据不同场景准备解释、询问、试压等多套话术体系,从而可以提升智能催收的效率和成功率。
在相关技术中通常采用的是梯度下降算法调整参数,然而梯度下降法存在梯度消失和梯度***等不确定性而造成参数调整失效。因此,在本申请中可以采用伪梯度下降算法来调整长短时记忆网络模型中的参数。在一些实施例中,情感分析模型中包括门结构,参数为门结构的门权重参数;相应地,本申请实施例不对基于预测分类结果与分类标签之间的差异,调整情感分析模型中的参数的方式作具体限定,包括但不限于:对于第t次训练过程,随机获取门权重参数的n组取值及每组取值下情感分析模型对应的损失函数值,t为不小于1的正整数,n为不小于2的正整数;根据n组取值及每组取值下情感分析模型对应的损失函数值,在第t次训练过程中调整门权重参数的取值。
具体地,以情感分析模型为循环神经网络模型为例,则其结构可参考图 5。在图5中,情感分析模型主要是由输出层、隐藏层、循环层及输入层所组成的。其中,多个节点可以按照时间线展开共同组成隐藏层及循环层。每一节点的简图可如图5中右半部分所示,每一节点有两个输入,分别为当前时刻网络的输入值Xt以及上一时刻网络的输出值St-1。每一节点有两个输出,分别为及当前时刻的单元状态Ot以及当前时刻网络的输出值St。图5中不同层的计算过程可分别参考如下公式(1)至(4):
St=f(UxsXt+WssSt-1);(1)
Ot=g(WsoSt);(2)
Ut=UxsXt+WssSt-1;(3)
Vt=WsoSt;(4)
而长短时记忆网络是在循环神经网络的基础上增加了若干个门,可以理解成神经网络中加入其它神经网络,而这些门是为了控制数级以及控制信息的流动量。长短时记忆网络一共引入了三个门,分别为输入门i、遗忘门f、输出门 o。输入门决定有多少信息可以流入单元节点,遗忘门决定单元节点有多少信息会被遗忘,输出门决定单元节点内有多少信息被输出。单元节点用来记忆之前的状态,可以使用sigmoid函数,从而使得使i,f,o的定义域为(0,1)。
长短时记忆网络中按照时间线展开的每一节点有三个输入,分别为当前时刻网络的输入值Xt、上一时刻LSTM的隐藏状态输出值ht-1以及上一时刻的单元状态Ct-1,每一节点有两个输出,分别为当前时刻LSTM的隐藏状态输出值ht以及当前时刻的单元状态Ct。以i代表输入门、f代表遗忘门、O代表输出门、C代表单元状态以及h代表隐藏状态为例,it、ft、Ot、Ct以及Ht的计算过程可参考如下公式(5)至(9):
it=sigmoid(Wxixt+Whiht-1+bi);(5)
ft=sigmoid(Wxfxt+Whfht-1+bf);(6)
Ot=sigmoid(Wxoxt+Whoht-1+bo);(7)
将门权重参数记为w,随机w的取值可以分别记为w1、w2、…、w3。可以理解的是,对于每种门权重参数的取值,均能计算得到的一种损失函数值。将损失函数值记为L,基于对应关系,将w与L组合在一起,则可以记为 (w0,L0)、(w1,L1)、…、(wn,Ln)。可以理解的是,以n为3为例,该3 组门权重参数的随机取值中,每组取值均对应一个损失函数值,该3个损失函数值中会存在一个最大损失函数值,并存在两个较小值。还可以理解的是,调整门权重参数的取值应当使得损失函数值尽量小,从而可以不朝着最大损失函数值对应的门权重参数的取值这个方向去调整,而是朝两个较小值对应的门权重参数的取值这个方向去调整。综上,即可指导门权重参数的取值如何调整。
本申请实施例提供的方法,由于模型克服了无法保留输入序列时的时序性的问题,可以挖掘到词语之间更深层次的关系,从而使得后续通过模型预测更加精准。另外,由于伪梯度下降法探究了在已标注的训练文本中合理的分类阈值区域,并根据该区域自定义了新的损失函数,让模型在训练过程中更有效率地选择性更新,从而可避免梯度下降法所带来的梯度消失和梯度***等不确定性,而造成参数调整失效,从而本申请可以使得模型训练愈加趋向稳定。
在一些实施例中,n为3;相应地,本申请实施例不对根据多组取值及每组取值下情感分析模型对应的损失函数值,在第t次训练过程中调整门权重参数的取值的方式作具体限定,包括但不限于:从每组取值下情感分析模型对应的损失函数值中,确定最大损失函数值,将最大损失函数值及最大损失函数值对应的取值作为第一空间点,将剩下的两组取值中每组取值及每组取值对应的损失函数值分别作为第二空间点及第二空间点;根据第一空间点及第二空间点,确定第一梯度下降方向,根据第一空间点及第三空间点,确定第二梯度下降方向,根据每组取值对应的损失函数值,计算第一步长及第二步长;根据第一梯度下降方向、第二梯度下降方向、第一步长及第二步长,在第t次训练过程中调整门权重参数的取值。
具体地,将(w0,L0)、(w1,L1)及(w2,L2)分别作为3个点,分别记为x0、x1及x2。其中,wi表示门权重参数的取值。至于具体是哪种门的门权重参数,本申请实施例对此不作具体限定,可以为输入们、遗忘门或者输出门。若最大损失函数值为L0,即损失函数值最大的点为x0,即为第一空间点。剩下的两组取值及其对应的损失函数值,也即x1及x2,x1可以作为第二空间点,x2可以作为第三空间点。
由于x1及x2对应的损失函数值均小于x0对应的损失函数值,从而可以确定x0至x1的方向是为使得损失函数值降低的方向,也即第一梯度下降方向。同理,可以确定x0至x2的方向也是为使得损失函数值降低的方向,也即第二梯度下降方向。而步长即为门权重参数的取值的调整幅度,第一步长可以根据最大损失函数值与第二空间点对应的损失函数值计算得到,第二步长可以根据最大损失函数值与第三空间点对应的损失函数值计算得到,如采用两者差值计算得到,本申请实施例对此不作具体限定。
综上,可以确定门权重参数取值的两种调整方向及两种步长。实际实施过程中可以选择其中一种调整方向及一种步长,对第t次训练过程中门权重参数的取值进行调整。或者,可以将第一梯度下降方向及第一步长作为一个方向矢量,将第二梯度下降方向及第二步长作为另一个方向矢量,将该两个方向矢量进行合并,得到第三梯度下降方向及第三步长,从而基于第三梯度下降方向及第三步长,对第t次训练过程中门权重参数的取值进行调整,本申请实施例对此不作具体限定。可以理解的是,由于第一梯度下降方向与第二梯度下降方向均是使得损失函数值降低的方向,从而两者的合并方向也是为使得损失函数值降低的方向,也即第三梯度下降方向。
考虑到损失函数值减小的越多的方向,步长应该设置的越大。由此,第一步长及第二步长的计算过程可分别参考如下公式(10)至(11):
p1=(L0-L1)/((L0-L1)+(L0-L2));(10)
p2=(L0-L2)/((L0-L1)+(L0-L2));(11)
将第一梯度下降方向记为d1=x0x1,即表示由x0至x1的方向。将第二梯度下降方向记为d2=x0x2,即表示由x0至x2的方向。上述提及的合并过程可参考如下公式(12):
x0x3=d1×p1+d2×p2;(12)
其中,x0x3即可代表合并后的第三梯度下降方向及第三步长,从而可以确定调整后的门权重参数的取值x3,以及进而可以确定对应的损失函数值L3。每次训练过程均可以基于上述过程,调整们权重参数的取值,直至达到训练停止条件,如模型的准确率趋向稳定。
本申请实施例提供的方法,由于伪梯度下降法探究了在已标注的训练文本中合理的分类阈值区域,并根据该区域自定义了新的损失函数,让模型在训练过程中更有效率地选择性更新,从而可避免梯度下降法所带来的梯度消失和梯度***等不确定性,而造成参数调整失效,从而本申请可以使得模型训练愈加趋向稳定。
在一些实施例中,本申请实施例不对根据第一梯度下降方向、第二梯度下降方向、第一步长及第二步长,在第t次训练过程中调整门权重参数的取值的方式作具体限定,包括但不限于:对第一梯度下降方向及第二梯度下降方向进行整合,得到第t次训练过程中门权重参数的梯度下降方向;根据第t次训练过程中门权重参数的梯度下降方向、第t-1次训练过程中门权重参数的梯度下降方向、第一步长及第二步长,在第t次训练过程中调整门权重参数的取值。
其中,上述过程主要是考虑到每次训练过程随机取值的不确定性。由此,在本申请实施例可以先确定第t次训练过程中门权重参数的梯度下降方向,再结合第t-1次训练过程中门权重参数的梯度下降方向,对门权重参数的取值进行调整。实际实施过程中,第t次训练过程中门权重参数的梯度下降方向可以通过上述整合过程得到,也可以基于梯度下降法计算得到,本申请实施例对此不作具体限定。
以第t次训练过程中门权重参数的梯度下降方向是基于梯度下降法计算得到的为例,相应地,本申请实施例不对根据第t次训练过程中门权重参数的梯度下降方向、第t-1次训练过程中门权重参数的梯度下降方向、第一步长及第二步长,在第t次训练过程中调整门权重参数的取值的方式作具体限定,包括但不限于:确定第t次训练过程中门权重参数的梯度下降方向的反方向;将反方向与第t-1次训练过程中门权重参数的梯度下降方向进行合并,将第一步长与第二步长进行合并;基于合并后的结果,在第t次训练过程中调整门权重参数的取值。
本申请实施例提供的方法,由于伪梯度下降法探究了在已标注的训练文本中合理的分类阈值区域,并根据该区域自定义了新的损失函数,让模型在训练过程中更有效率地选择性更新,从而可避免梯度下降法所带来的梯度消失和梯度***等不确定性,而造成参数调整失效,从而本申请可以使得模型训练愈加趋向稳定。另外,由于可采用第t次训练过程中门权重参数的梯度下降方向的反方向进行门权重参数的取值调整,从而可以对下降方向起到修正作用,以保证训练过程的准确性。
在相关技术中,交叉熵的损失函数通常表示形式为如下公式(13):
可以理解的是,该损失函数对于具有“中立的”还款意愿类型的训练文本很难进行区分。由此,可以对损失函数进行修改。在一些实施例中,提供了一种损失函数的计算方法;以该方法应用于图1中的服务器102为例进行说明,包括以下公式(14):
其中,λ(yi_true,yi_pred)表示修正项,yi_true的取值是基于第i个训练样本的分类标签所确定的,yi_pred的取值是基于第i个训练样本的预测分类结果所确定的,n表示训练样本的总数量。
修正项的计算过程可参考如下公式(15):
其中,m即为用于区分“中立的”还款意愿类型的训练文本所设定的阈值,m大于0且小于1。μ(x)表示状态更新方程。当x>0,μ(x)=1;当x=0,μ(x)=0.5;当x<0,μ(x)=0。
对于第i个训练文本,若该训练文本对应的***标签为积极型,则yi_true为1。此时,λ(1,yi_pred)=1-μ(yi_pred-m)。若yi_pred大于m,即情感分析模型的预测分类结果为积极型的概率值大于m,则此时修正项为0。此时,损失函数值达可以到最小值,门权重参数的取值可以不再更新,情感分析模型的训练过程可以停止。当yi_pred不大于m时,则修正项λ(1,yi_pred)=1。此时,损失函数值还未达到最小值,可以继续更新门权重参数的取值,也即可以继续对情感分析模型的训练过程。
若该训练文本对应的***标签为消极型,则yi_true为0。此时,λ(0,yi_pred)=1-μ(1-m)μ(0.9-yi_pred-m)。若yi_pred小于0.9-m,则修正项的值为0。此时,损失函数值达可以到最小值,门权重参数的取值可以不再更新,情感分析模型的训练过程可以停止。若yi_pred不小于0.9-m,则修正项为λ(0,yi_pred)=1。此时,损失函数值还未达到最小值,可以继续更新门权重参数的取值,也即可以继续对情感分析模型的训练过程。
本申请实施例提供的方法,由于考虑了难以区分的“中立型”的还款意愿类型,为此在损失函数中添加了修正项,并在修正项中添加了预设阈值m以用于区分,从而使得模型训练过程可以更有效率地选择性更新,进而能尽快达到最优点,以提高模型训练效率。
在一些实施例中,参见图6,还提供了一种催收方法。以该方法应用于图 1中的服务器102为例进行说明,包括以下步骤:
602、获取待催收的还款项目信息,将还款项目信息输入至训练后的催收方式选择模型,输出催收方式类型,催收方式类型为机器催收或者人工催收。
本步骤的过程可参考上述实施例的内容,此处不再赘述。
604、若催收方式类型为机器催收,则发起机器催收通话,在机器催收通话中向通话对象核实身份及还款项目。
本步骤的过程可参考上述实施例的内容,此处不再赘述。
606、若核实正确,则在机器催收通话中播报用于确认还款意愿的询问语音,获取通话对象在机器催收通话中对询问语音的第一答复语音,将第一答复语音转化为第一答复文本,将第一答复文本输入至训练后的情感分析模型,输出第一还款意愿类型,第一还款意愿类型为积极型、中立型或消极型。
本步骤的过程可参考上述实施例的内容,此处不再赘述。
608、若第一还款意愿类型为消极型,则在机器催收通话中播报轻度施压催收语音,获取通话对象在机器催收通话中对轻度施压催收语音的第二答复语音,将第二答复语音转化为第二答复文本,将第二答复文本输入至情感分析模型,输出第二还款意愿类型。
610、若第二还款意愿类型为消极型,则在机器催收通话中播报重度施压催收语音,获取通话对象在机器催收通话中对重度施压催收语音的第三答复语音,将第三答复语音转化为第三答复文本,将第三答复文本输入至情感分析模型,输出第三还款意愿类型。
612、若第三还款意愿类型为消极型,则在机器催收通话中播报转至人工坐席的提示语音,并转至人工坐席催收。
其中,轻度施压催收语音可以为“还款是您应该的义务,请按时还款”,重度施压催收语音可以为“请按时还款,要不然您会负相应法律责任”。可以理解的是,经过一次询问、一次轻度催收及一次重度催收,若通话对象依然是消极面对还款,则可以认定通过机器自动催收比较难完成款项催收。由此,可以转至人工坐席进行催收。结合上述过程,实际催收流程可参考图7。
本申请实施例提供的方法,在智能催收过程中,可通过语音转换将客户语音转换为文本,并使用长短期记忆模型进行文本情感分析,通过询问、播报、解释等话术,获取客户还款意向。若客户还款态度消极,则进一步采取轻度、重度施压等话术调整措施,促进客户还款。由于可以递进式地进行催收,从而可提升催收效果。
应该理解的是,虽然如上的各实施例所涉及的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,如上的各实施例所涉及的流程图中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
基于同样的发明构思,本申请实施例还提供了一种用于实现上述所涉及的催收方法的催收装置。该装置所提供的解决问题的实现方案与上述方法中所记载的实现方案相似,故下面所提供的一个或多个催收装置实施例中的具体限定可以参见上文中对于催收方法的限定,在此不再赘述。
在一个实施例中,如图8所示,提供了一种催收装置,包括:获取模块 802、发起模块804、预测模块806及播报模块808,其中:
获取模块802,用于获取待催收的还款项目信息,将还款项目信息输入至训练后的催收方式选择模型,输出催收方式类型,催收方式类型为机器催收或者人工催收;
发起模块804,用于当催收方式类型为机器催收时,则发起机器催收通话,在机器催收通话中向通话对象核实身份及还款项目;
预测模块806,用于当核实正确时,则在机器催收通话中播报用于确认还款意愿的询问语音,获取通话对象在机器催收通话中对询问语音的第一答复语音,将第一答复语音转化为第一答复文本,将第一答复文本输入至训练后的情感分析模型,输出第一还款意愿类型,第一还款意愿类型为积极型、中立型或消极型;
播报模块808,用于基于第一还款意愿类型,在机器催收通话中播报用于催收还款的催收语音。
在一些实施例中,该装置还包括:获取子模块、输出子模块及调整子模块;
获取子模块,用于获取训练文本及对应的分类标签,分类标签为以下三种分类结果中的任意一种,以下三种分类结果分别为积极型、中立型或消极型;
输出子模块,用于将训练文本输入至情感分析模型,输出训练文本的预测分类结果;
调整子模块,用于基于预测分类结果与分类标签之间的差异,调整情感分析模型中的参数,直至训练停止条件时结束训练,得到训练后的情感分析模型。
在一些实施例中,情感分析模型中包括门结构,参数为门结构的门权重参数;调整子模块包括获取单元及调整单元;
获取单元,用于对于第t次训练过程,随机获取门权重参数的n组取值及每组取值下情感分析模型对应的损失函数值,t为不小于1的正整数,n为不小于2的正整数;
调整单元,用于根据n组取值及每组取值下情感分析模型对应的损失函数值,在第t次训练过程中调整门权重参数的取值。
在一些实施例中,n为3;调整单元包括确定子单元、计算子单元及调整子单元;
确定子单元,用于从每组取值下情感分析模型对应的损失函数值中,确定最大损失函数值,将最大损失函数值及最大损失函数值对应的取值作为第一空间点,将剩下的两组取值中每组取值及每组取值对应的损失函数值分别作为第二空间点及第三空间点;
计算子单元,用于根据第一空间点及第二空间点,确定第一梯度下降方向,根据第一空间点及第三空间点,确定第二梯度下降方向,根据每组取值对应的损失函数值,计算第一步长及第二步长;
调整子单元,用于根据第一梯度下降方向、第二梯度下降方向、第一步长及第二步长,在第t次训练过程中调整门权重参数的取值。
在一些实施例中,调整子单元,用于对第一梯度下降方向及第二梯度下降方向进行整合,得到第t次训练过程中门权重参数的梯度下降方向;根据第t 次训练过程中门权重参数的梯度下降方向、第t-1次训练过程中门权重参数的梯度下降方向、第一步长及第二步长,在第t次训练过程中调整门权重参数的取值。
在一些实施例中,装置中涉及到的情感分析模型所使用的损失函数为:
其中,λ(yi_true,yi_pred)表示修正项,yi_true的取值是基于第i个训练样本的分类标签所确定的,yi_pred的取值是基于第i个训练样本的预测分类结果所确定的,n表示训练样本的总数量。
本发明实施例提供的装置,由于催收过程中,可以通过语音识别、情感分析等技术手段,识别出逾期客户的还款意愿,并根据不同场景准备解释、询问、试压等多套话术体系,从而可以提升智能催收的效率和成功率。
其次,由于模型克服了无法保留输入序列时的时序性的问题,可以挖掘到词语之间更深层次的关系,从而使得后续通过模型预测更加精准。
再者,由于伪梯度下降法探究了在已标注的训练文本中合理的分类阈值区域,并根据该区域自定义了新的损失函数,让模型在训练过程中更有效率地选择性更新,从而可避免梯度下降法所带来的梯度消失和梯度***等不确定性,而造成参数调整失效,从而本申请可以使得模型训练愈加趋向稳定。
另外,由于伪梯度下降法探究了在已标注的训练文本中合理的分类阈值区域,并根据该区域自定义了新的损失函数,让模型在训练过程中更有效率地选择性更新,从而可避免梯度下降法所带来的梯度消失和梯度***等不确定性,而造成参数调整失效,从而本申请可以使得模型训练愈加趋向稳定。
最后,由于考虑了难以区分的“中立型”的还款意愿类型,为此在损失函数中添加了修正项,并在修正项中添加了预设阈值m以用于区分,从而使得模型训练过程可以更有效率地选择性更新,进而能尽快达到最优点,以提高模型训练效率。
关于催收装置的具体限定可以参见上文中对于催收方法的限定,在此不再赘述。上述催收装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图9所示。该计算机设备包括通过***总线连接的处理器、存储器和网络接口。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质和内存储器。该非易失性存储介质存储有操作***、计算机程序和数据库。该内存储器为非易失性存储介质中的操作***和计算机程序的运行提供环境。该计算机设备的数据库用于存储变量数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种催收方法。
本领域技术人员可以理解,图9中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
获取待催收的还款项目信息,将还款项目信息输入至训练后的催收方式选择模型,输出催收方式类型,催收方式类型为机器催收或者人工催收;
若催收方式类型为机器催收,则发起机器催收通话,在机器催收通话中向通话对象核实身份及还款项目;
若核实正确,则在机器催收通话中播报用于确认还款意愿的询问语音,获取通话对象在机器催收通话中对询问语音的第一答复语音,将第一答复语音转化为第一答复文本,将第一答复文本输入至训练后的情感分析模型,输出第一还款意愿类型,第一还款意愿类型为积极型、中立型或消极型;
基于第一还款意愿类型,在机器催收通话中播报用于催收还款的催收语音。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
获取训练文本及对应的分类标签,分类标签为以下三种分类结果中的任意一种,以下三种分类结果分别为积极型、中立型或消极型;
将训练文本输入至情感分析模型,输出训练文本的预测分类结果,基于预测分类结果与分类标签之间的差异,调整情感分析模型中的参数,直至训练停止条件时结束训练,得到训练后的情感分析模型。
在一个实施例中,情感分析模型中包括门结构,参数为门结构的门权重参数;处理器执行计算机程序时还实现以下步骤:
对于第t次训练过程,随机获取门权重参数的n组取值及每组取值下情感分析模型对应的损失函数值,t为不小于1的正整数,n为不小于2的正整数;
根据n组取值及每组取值下情感分析模型对应的损失函数值,在第t次训练过程中调整门权重参数的取值。
在一个实施例中,n为3;处理器执行计算机程序时还实现以下步骤:
从每组取值下情感分析模型对应的损失函数值中,确定最大损失函数值,将最大损失函数值及最大损失函数值对应的取值作为第一空间点,将剩下的两组取值中每组取值及每组取值对应的损失函数值分别作为第二空间点及第三空间点;
根据第一空间点及第二空间点,确定第一梯度下降方向,根据第一空间点及第三空间点,确定第二梯度下降方向,根据每组取值对应的损失函数值,计算第一步长及第二步长;
根据第一梯度下降方向、第二梯度下降方向、第一步长及第二步长,在第 t次训练过程中调整门权重参数的取值。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
对第一梯度下降方向及第二梯度下降方向进行整合,得到第t次训练过程中门权重参数的梯度下降方向;
根据第t次训练过程中门权重参数的梯度下降方向、第t-1次训练过程中门权重参数的梯度下降方向、第一步长及第二步长,在第t次训练过程中调整门权重参数的取值。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
其中,λ(yi_true,yi_pred)表示修正项,yi_true的取值是基于第i个训练样本的分类标签所确定的,yi_pred的取值是基于第i个训练样本的预测分类结果所确定的,n表示训练样本的总数量。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取待催收的还款项目信息,将还款项目信息输入至训练后的催收方式选择模型,输出催收方式类型,催收方式类型为机器催收或者人工催收;
若催收方式类型为机器催收,则发起机器催收通话,在机器催收通话中向通话对象核实身份及还款项目;
若核实正确,则在机器催收通话中播报用于确认还款意愿的询问语音,获取通话对象在机器催收通话中对询问语音的第一答复语音,将第一答复语音转化为第一答复文本,将第一答复文本输入至训练后的情感分析模型,输出第一还款意愿类型,第一还款意愿类型为积极型、中立型或消极型;
基于第一还款意愿类型,在机器催收通话中播报用于催收还款的催收语音。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
获取训练文本及对应的分类标签,分类标签为以下三种分类结果中的任意一种,以下三种分类结果分别为积极型、中立型或消极型;
将训练文本输入至情感分析模型,输出训练文本的预测分类结果,基于预测分类结果与分类标签之间的差异,调整情感分析模型中的参数,直至训练停止条件时结束训练,得到训练后的情感分析模型。
在一个实施例中,情感分析模型中包括门结构,参数为门结构的门权重参数;计算机程序被处理器执行时还实现以下步骤:
对于第t次训练过程,随机获取门权重参数的n组取值及每组取值下情感分析模型对应的损失函数值,t为不小于1的正整数,n为不小于2的正整数;
根据n组取值及每组取值下情感分析模型对应的损失函数值,在第t次训练过程中调整门权重参数的取值。
在一个实施例中,n为3;计算机程序被处理器执行时还实现以下步骤:
从每组取值下情感分析模型对应的损失函数值中,确定最大损失函数值,将最大损失函数值及最大损失函数值对应的取值作为第一空间点,将剩下的两组取值中每组取值及每组取值对应的损失函数值分别作为第二空间点及第三空间点;
根据第一空间点及第二空间点,确定第一梯度下降方向,根据第一空间点及第三空间点,确定第二梯度下降方向,根据每组取值对应的损失函数值,计算第一步长及第二步长;
根据第一梯度下降方向、第二梯度下降方向、第一步长及第二步长,在第 t次训练过程中调整门权重参数的取值。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
对第一梯度下降方向及第二梯度下降方向进行整合,得到第t次训练过程中门权重参数的梯度下降方向;
根据第t次训练过程中门权重参数的梯度下降方向、第t-1次训练过程中门权重参数的梯度下降方向、第一步长及第二步长,在第t次训练过程中调整门权重参数的取值。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
其中,λ(yi_true,yi_pred)表示修正项,yi_true的取值是基于第i个训练样本的分类标签所确定的,yi_pred的取值是基于第i个训练样本的预测分类结果所确定的,n表示训练样本的总数量。
需要说明的是,本申请所涉及的用户信息(包括但不限于用户设备信息、用户个人信息等)和数据(包括但不限于用于分析的数据、存储的数据、展示的数据等),均为经用户授权或者经过各方充分授权的信息和数据。
在一个实施例中,提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现上述各方法实施例中的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-OnlyMemory,ROM)、磁带、软盘、闪存、光存储器、高密度嵌入式非易失性存储器、阻变存储器(ReRAM)、磁变存储器(Magnetoresistive Random Access Memory, MRAM)、铁电存储器(Ferroelectric Random Access Memory,FRAM)、相变存储器(Phase Change Memory,PCM)、石墨烯存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器等。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器 (Static Random Access Memory,SRAM)或动态随机存取存储器(DynamicRandom Access Memory,DRAM)等。本申请所提供的各实施例中所涉及的数据库可包括关系型数据库和非关系型数据库中至少一种。非关系型数据库可包括基于区块链的分布式数据库等,不限于此。本申请所提供的各实施例中所涉及的处理器可为通用处理器、中央处理器、图形处理器、数字信号处理器、可编程逻辑器、基于量子计算的数据处理逻辑器等,不限于此。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请的保护范围应以所附权利要求为准。
Claims (10)
1.一种催收方法,其特征在于,所述方法包括:
获取待催收的还款项目信息,将所述还款项目信息输入至训练后的催收方式选择模型,输出催收方式类型,所述催收方式类型为机器催收或者人工催收;
若所述催收方式类型为机器催收,则发起机器催收通话,在所述机器催收通话中向通话对象核实身份及还款项目;
若核实正确,则在所述机器催收通话中播报用于确认还款意愿的询问语音,获取所述通话对象在所述机器催收通话中对所述询问语音的第一答复语音,将所述第一答复语音转化为第一答复文本,将所述第一答复文本输入至训练后的情感分析模型,输出第一还款意愿类型,所述第一还款意愿类型为积极型、中立型或消极型;
基于所述第一还款意愿类型,在所述机器催收通话中播报用于催收还款的催收语音。
2.根据权利要求1所述的方法,其特征在于,所述情感分析模型的训练过程,包括:
获取训练文本及对应的分类标签,分类标签为以下三种分类结果中的任意一种,所述以下三种分类结果分别为积极型、中立型或消极型;
将所述训练文本输入至情感分析模型,输出所述训练文本的预测分类结果,基于所述预测分类结果与所述分类标签之间的差异,调整所述情感分析模型中的参数,直至训练停止条件时结束训练,得到训练后的情感分析模型。
3.根据权利要求2所述的方法,其特征在于,所述情感分析模型中包括门结构,所述参数为所述门结构的门权重参数;所述基于所述预测分类结果与所述分类标签之间的差异,调整所述情感分析模型中的参数,包括:
对于第t次训练过程,随机获取所述门权重参数的n组取值及每组取值下所述情感分析模型对应的损失函数值,所述t为不小于1的正整数,所述n为不小于2的正整数;
根据所述n组取值及每组取值下所述情感分析模型对应的损失函数值,在第t次训练过程中调整所述门权重参数的取值。
4.根据权利要求3所述的方法,其特征在于,所述n为3;所述根据所述多组取值及每组取值下所述情感分析模型对应的损失函数值,在第t次训练过程中调整所述门权重参数的取值,包括:
从每组取值下所述情感分析模型对应的损失函数值中,确定最大损失函数值,将所述最大损失函数值及所述最大损失函数值对应的取值作为第一空间点,将剩下的两组取值中每组取值及每组取值对应的损失函数值分别作为第二空间点及第三空间点;
根据所述第一空间点及所述第二空间点,确定第一梯度下降方向,根据所述第一空间点及所述第三空间点,确定第二梯度下降方向,根据每组取值对应的损失函数值,计算第一步长及第二步长;
根据所述第一梯度下降方向、所述第二梯度下降方向、所述第一步长及所述第二步长,在第t次训练过程中调整所述门权重参数的取值。
5.根据权利要求4所述的方法,其特征在于,所述根据所述第一梯度下降方向、所述第二梯度下降方向、所述第一步长及所述第二步长,在第t次训练过程中调整所述门权重参数的取值,包括:
对所述第一梯度下降方向及所述第二梯度下降方向进行整合,得到第t次训练过程中所述门权重参数的梯度下降方向;
根据第t次训练过程中所述门权重参数的梯度下降方向、第t-1次训练过程中所述门权重参数的梯度下降方向、所述第一步长及所述第二步长,在第t次训练过程中调整所述门权重参数的取值。
7.一种催收装置,其特征在于,所述装置包括:
获取模块,用于获取待催收的还款项目信息,将所述还款项目信息输入至训练后的催收方式选择模型,输出催收方式类型,所述催收方式类型为机器催收或者人工催收;
发起模块,用于当所述催收方式类型为机器催收时,则发起机器催收通话,在所述机器催收通话中向通话对象核实身份及还款项目;
预测模块,用于当核实正确时,则在所述机器催收通话中播报用于确认还款意愿的询问语音,获取所述通话对象在所述机器催收通话中对所述询问语音的第一答复语音,将所述第一答复语音转化为第一答复文本,将所述第一答复文本输入至训练后的情感分析模型,输出第一还款意愿类型,所述第一还款意愿类型为积极型、中立型或消极型;
播报模块,用于基于所述第一还款意愿类型,在所述机器催收通话中播报用于催收还款的催收语音。
8.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至6中任一项所述的方法的步骤。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至6中任一项所述的方法的步骤。
10.一种计算机程序产品,包括计算机程序,其特征在于,该计算机程序被处理器执行时实现权利要求1至6中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111469343.9A CN114723547A (zh) | 2021-12-03 | 2021-12-03 | 催收方法、装置、计算机设备及计算机程序产品 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111469343.9A CN114723547A (zh) | 2021-12-03 | 2021-12-03 | 催收方法、装置、计算机设备及计算机程序产品 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114723547A true CN114723547A (zh) | 2022-07-08 |
Family
ID=82234638
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111469343.9A Pending CN114723547A (zh) | 2021-12-03 | 2021-12-03 | 催收方法、装置、计算机设备及计算机程序产品 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114723547A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116153330A (zh) * | 2023-04-04 | 2023-05-23 | 杭州度言软件有限公司 | 一种智能电话语音机器人控制方法 |
-
2021
- 2021-12-03 CN CN202111469343.9A patent/CN114723547A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116153330A (zh) * | 2023-04-04 | 2023-05-23 | 杭州度言软件有限公司 | 一种智能电话语音机器人控制方法 |
CN116153330B (zh) * | 2023-04-04 | 2023-06-23 | 杭州度言软件有限公司 | 一种智能电话语音机器人控制方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210248993A1 (en) | Systems and methods for providing automated natural language dialogue with customers | |
US9437215B2 (en) | Predictive video analytics system and methods | |
CN108021934B (zh) | 多要素识别的方法及装置 | |
CN111695415A (zh) | 图像识别模型的构建方法、识别方法及相关设备 | |
WO2020077874A1 (zh) | 问答数据处理方法、装置、计算机设备和存储介质 | |
CN113569017B (zh) | 一种模型处理方法、装置、电子设备及存储介质 | |
US10440187B1 (en) | Bootstrapped predicative routing in CRM | |
CN116049360A (zh) | 基于客户画像的智能语音对话场景话术干预方法及*** | |
CN109635079A (zh) | 一种用户意图的确定方法、装置、计算机设备和存储介质 | |
US20220201121A1 (en) | System, method and apparatus for conversational guidance | |
CN114723547A (zh) | 催收方法、装置、计算机设备及计算机程序产品 | |
CN115374266A (zh) | 基于剧情交互节点的交互方法、装置、设备和存储介质 | |
CN112989046B (zh) | 实时话术预判方法、装置、计算机设备和存储介质 | |
CN115525740A (zh) | 对话应答语句的生成方法、装置、电子设备及存储介质 | |
CN113011195A (zh) | 基于预训练语言模型的推荐***效果增强方法及装置 | |
CN112597292A (zh) | 问题回复推荐方法、装置、计算机设备和存储介质 | |
US20220375468A1 (en) | System method and apparatus for combining words and behaviors | |
CN113873087A (zh) | 外呼方法、装置、计算机设备和存储介质 | |
Patel et al. | Interactive voice response field classifiers | |
CN114898739A (zh) | 语音呼叫的应答处理方法、装置、计算机设备、存储介质 | |
CN115934901A (zh) | 智能对话的方法、装置、电子设备及存储介质 | |
CN117493658A (zh) | 信息推送模型的训练方法、信息推送方法及设备 | |
CN117236384A (zh) | 终端换机预测模型的训练及预测方法、装置和存储介质 | |
CN114282643A (zh) | 数据处理方法及装置、计算设备 | |
CN114969280A (zh) | 对话生成方法及装置、对话预测模型的训练方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |