CN110727770A - 请求的智能筛选方法、装置、计算机设备和存储介质 - Google Patents

请求的智能筛选方法、装置、计算机设备和存储介质 Download PDF

Info

Publication number
CN110727770A
CN110727770A CN201910816251.XA CN201910816251A CN110727770A CN 110727770 A CN110727770 A CN 110727770A CN 201910816251 A CN201910816251 A CN 201910816251A CN 110727770 A CN110727770 A CN 110727770A
Authority
CN
China
Prior art keywords
user
target user
generator
request
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910816251.XA
Other languages
English (en)
Inventor
郭鸿程
吕伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
OneConnect Smart Technology Co Ltd
Original Assignee
OneConnect Smart Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by OneConnect Smart Technology Co Ltd filed Critical OneConnect Smart Technology Co Ltd
Priority to CN201910816251.XA priority Critical patent/CN110727770A/zh
Publication of CN110727770A publication Critical patent/CN110727770A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本申请揭示了一种请求的智能筛选方法、装置、计算机设备和存储介质,请求的智能筛选方法包括:通过智能问答获取目标用户的请求信息;在数据库中获取与目标用户基本信息对应的目标用户信息;通过将请求信息和目标用户信息导入判断模型判断目标用户是否为高危用户;在判定目标用户不是高危用户时,则判断目标用户的请求额度是否在目标用户的可申请额度阈值范围内;在判定目标用户的请求额度在目标用户的可申请额度阈值范围内时,则直接通过与请求信息相对应的请求。通过智能问答形式获取目标客户的请求信息,能够帮助不具备独立书写能力的用户准确输入请求信息,而且还能够筛选出符合条件的非高危用户进行快速放款,提高放款效率,提高用户体验。

Description

请求的智能筛选方法、装置、计算机设备和存储介质
技术领域
本申请涉及到计算机领域,特别是涉及到一种请求的智能筛选方法、装置、计算机设备和存储介质。
背景技术
现有的贷款用户需要通过服务人员或自己填写资料,由服务人员帮助填写存在素质风险,当服务人员本身素质存在问题时,有可能给贷款申请人造成不必要的损失,如果由自己填写,又有一些人因为自身的文化水平和生活技能的限制导致无法独立完成填写资料的操作,例如不会输入法;另外,在请求审核阶段,需要对用户的请求内容进行综合判断,人工审核时效率低下且容易出错,因此如何规避素质风险、服务无法独立完成填写资料的用户以及如何提高审核效率是一种亟需解决的问题。
发明内容
本申请的主要目的为提供一种请求的智能筛选方法、装置、计算机设备和存储介质,通过问答的方式获取用户的资料信息,能够获取无法独立完成填写资料的用户的请求信息,而且能够提高与请求信息对应的请求的审核效率。
为了实现上述发明目的,本申请提出一种请求的智能筛选方法,包括:
通过智能问答获取目标用户的请求信息,请求信息包括请求额度和目标用户基本信息;
在数据库中获取与目标用户基本信息对应的目标用户信息;
通过将请求信息和目标用户信息导入判断模型判断目标用户是否为高危用户,判断模型包括第一生成器和第一判别器,第一生成器用于生成目标用户的评价信息,第一判别器用于判断评价信息是否达到预设的高危用户标准,评价信息包括目标用户的可申请额度阈值范围;
在判定目标用户不是高危用户时,则判断目标用户的请求额度是否在目标用户的可申请额度阈值范围内;
在判定目标用户的请求额度在目标用户的可申请额度阈值范围内时,则直接通过与请求信息相对应的请求。
进一步地,通过将请求信息和由数据库中获得的目标用户信息导入判断模型判断目标用户是否为高危用户之后,方法还包括:
若是高危用户,则向设定单元发送提醒信息。
进一步地,通过智能问答获取目标用户的请求信息的方法包括:
获取目标用户问题;
根据问题优化模型生成与目标用户问题对应的目标生成问题,问题优化模型基于生成式对抗网络训练得到,问题优化模型包括第二生成器和第二判别器,第二生成器用于生成与目标用户问题对应的目标生成问题;
根据第二判别器判断目标生成问题的生成质量是否高于第一预设阈值,生成质量用于指示目标生成问题为规范问题的概率;
若是,则根据目标生成问题确定目标答案,目标***括目标用户的请求信息。
进一步地,获取目标用户问题之前,方法还包括:
获得训练集,训练集包括源用户问题-源规范问题对,源用户问题-源规范问题对用于表示源用户问题和与源用户问题对应的源规范问题的集合;
根据训练集进行生成式对抗网络训练获得问题优化模型。
进一步地,获得训练集包括:
计算标准数据集中的标准问题与用户日志中的各源用户问题的相似度值,标准数据集用于存储标准问题,用户日志包括用户与问答***的交互记录;
将与标准问题的相似度值大于第二预设阈值的源用户问题作为候选用户问题,以确定候选用户问题中与标准问题语义一致的问题进而得到源用户问题-源规范问题对,标准问题包含于源规范问题。
进一步地,根据训练集进行生成式对抗网络训练获得问题优化模型的步骤包括:
将训练集中的源用户问题输入至第二生成器,以使得第二生成器进行模型训练,并根据训练后的模型得到生成问题;
获取第二生成器所得到的生成问题,并将生成问题保存在生成数据集中,生成数据集用于存储生成问题;
将训练集中的源规范问题和生成数据集中的生成问题输入至第二判别器,以使得第二判别器以训练集中的源规范问题作为正例样本,以生成数据集中的生成问题作为负例样本进行模型训练;
将第二生成器所生成的生成问题输入至第二判别器,以使得第二判别器对生成问题进行归属率判别,其中,归属率用于指示问题属于标准数据集或者生成数据集的概率;
获取第二判别器对生成问题的判别结果;
将判别结果输入至第二生成器,以使得第二生成器根据第二判别器所判别的生成问题以及判别结果进行模型训练,并根据训练后的模型生成新的生成问题;
获取第二生成器所生成的新的生成问题,并将新的生成问题保存在生成数据集中;
判断是否达到预设的合格条件;
若达到合格条件,则结束对问题优化模型的对抗性训练,获得最终的问题优化模型;若未达到合格条件,使第二生成器和第二判别器依此进行循环的对抗性训练。
进一步地,判断是否达到预设的合格条件的步骤包括:
判断第二判别器判别第二生成器生成的问题所得到的判别结果的变化量是否小于第三预设阈值;
若判定小于第三预设阈值,则判定达到预设的合格条件。
本申请还提出一种请求的智能筛选装置,包括:
获取模块,用于通过智能问答获取目标用户的请求信息,请求信息包括请求额度和目标用户基本信息;
提取模块,用于在数据库中获取与目标用户基本信息对应的目标用户信息;
筛选模块,用户通过将请求信息和目标用户信息导入判断模型判断目标用户是否为高危用户,判断模型包括第一生成器和第一判别器,第一生成器用于生成目标用户的评价信息,第一判别器用于判断评价信息是否达到预设的高危用户标准,评价信息包括目标用户的可申请额度阈值范围;
额度判断模块,用于在判定目标用户不是高危用户时,则判断目标用户的请求额度是否在目标用户的可申请额度阈值范围内;
核准模块,用于在判定目标用户的请求额度在目标用户的可申请额度阈值范围内时,则直接通过该请求。
本申请还提出一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述方法的步骤。
本申请还提出一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述的方法的步骤。
本申请请求的智能筛选方法、装置、计算机设备和存储介质,通过智能问答形式获取目标客户的请求信息,不但降低了素质风险,而且能够帮助不具备独立书写能力的用户准确输入请求信息,用户体验更好,而且还能够筛选出符合条件的非高危用户进行快速放款,提高了放款效率,提高了用户体验。
附图说明
图1是本申请请求的智能筛选方法一实施例的流程示意图;
图2是本申请请求的智能筛选装置一实施例的结构示意框图;
图3为本申请一实施例的计算机设备的结构示意框图。
本申请目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
参照图1,本申请提出一种请求的智能筛选方法,包括:
S1、通过智能问答获取目标用户的请求信息,请求信息包括请求额度和目标用户基本信息;
S2、在数据库中获取与目标用户基本信息对应的目标用户信息;
S3、通过将请求信息和目标用户信息导入判断模型判断目标用户是否为高危用户,判断模型包括第一生成器和第一判别器,第一生成器用于生成目标用户的评价信息,第一判别器用于判断评价信息是否达到预设的高危用户标准,评价信息包括目标用户的可申请额度阈值范围;
S4、在判定目标用户不是高危用户时,则判断目标用户的请求额度是否在目标用户的可申请额度阈值范围内;
S5、在判定目标用户的请求额度在目标用户的可申请额度阈值范围内时,则直接通过与请求信息相对应的请求。
在上述步骤S1中,通过智能问答的方式获取目标用户的请求信息时,可以通过语音问答的方式获取用户的贷款请求信息,语音通常要更加高效,通过语音可以快速获取信息,效率更高,也可以使文化程度不高的目标用户更加容易提出请求,更方便填写请求信息,其中请求额度和请求理由可以是多组,例如有多个理由,每个理由对应一个额度,即有多项分请求,总的请求额度为多个理由对应的额度的和,智能问答的方式不仅仅包括语音的往来,也包括期间的图片上传、实物扫描、二维码扫描、磁卡扫描等操作,用户的基本信息即可以通过用户语音问答方式获得,也可以通过图片上传并通过语音问答确认等方式获得。
在上述步骤S2中,目标用户信息为通过目标用户基本信息在数据库中的匹配获得,其中,由数据库中获得的目标用户信息包括目标客户的负债量、信用不良记录等信息,为提高目标客户信息的及时性,数据库可以为多方数据共同支持第三方数据库,多个借贷方实时上传用户的基本借贷信息、信用不良信息等等,用户的信息实时更新,获得的数据更加及时,有助于借贷方降低风险。
在上述步骤S3中,通过将所述请求信息和由数据库中获得的目标用户信息导入判断模型,第一生成器识别请求信息和由数据库中获得的目标用户信息,过滤掉无意义信息,生成符合格式标准的目标用户的评价信息,第一判别器用于比较第一生成器生成的评价信息和预设的标准评价信息,判断评价信息是否达到高危用户的标准,当达到高危用户的标准则判定目标用户为高危用户。判断模型对在数据库中获取的目标客户信息进行特征选择,目标客户信息为原始特征集合。特征选择是一个从原始特征集合中选择最优子集的过程,在该过程中,对一个给定特征子集的优良性通过一个特定的评价标准(evaluationcriterion)进行衡量,通过特征选择,将原始特征集合中的冗余(redundant)特征和不相关(irrelevant)特征除去,而保留有用特征。
在上述步骤S4中,在一些实施例中可以就总的请求额度进行判断,在另一些实施例中,当具有多项分请求,而总的请求额度不在可申请额度阈值范围内时,可以将各项请求进行组合成多个分组,每个分组至少包括一项分请求,判断每组的请求额度之和是否在可申请额度阈值范围内,并对在可申请额度阈值范围内的组的请求额度进行对比,找出请求额度最高的那一分组,确定该分组符合要求。
在上述步骤S5中,即可以对总的请求额度在目标用户的可申请额度阈值范围内时,直接通过该请求;也可以就总的请求额度不在目标用户的可申请额度阈值范围内时,但是筛选出一个分组,且该分组的请求额度在目标用户的可申请额度阈值范围内时,直接通过该请求。
进一步地,通过将请求信息和目标用户信息导入判断模型判断目标用户是否为高危用户的步骤S3之后,方法还包括:
S41、若是高危用户,则向设定单元发送提醒信息。
在上述步骤S41中,设定单元可以为负责异常请求审核的复审部门、负责异常请求自动审核的复核***,以及对异常申请进行统计的数据库等等,提醒信息中可以包括判断目标用户是高危用户的依据,目标用户的请求信息等等。
进一步地,步骤S1通过智能问答获取目标用户的请求信息的方法包括:
S11、获取目标用户问题;
S12、根据问题优化模型生成与目标用户问题对应的目标生成问题,问题优化模型基于生成式对抗网络训练得到,问题优化模型包括第二生成器和第二判别器,第二生成器用于生成与目标用户问题对应的目标生成问题;
S13、根据第二判别器判断目标生成问题的生成质量是否高于第一预设阈值,生成质量用于指示目标生成问题为规范问题的概率;
S14、若高于第一预设阈值,则根据目标生成问题确定目标答案,目标***括目标用户的请求信息。
在上述步骤S11中,获取目标用户问题,可以是通过引导问题获取目标用户问题,例如,请问您需要什么服务?1为####、2为###......等等可以是目标用户有明确选择的问题。
在上述步骤S12-S14中,问题优化模型基于生成式对抗网络训练得到,问题优化模型包括第二生成器和第二判别器;第二生成器用于生成与目标用户问题对应的目标生成问题,第二判别器用于判断目标生成问题的生成质量是否高于第一预设阈值,生成质量用于指示目标生成问题为规范问题的概率,该目标生成问题为规范问题的概率通过对模型的训练会越来越准确,第一预设阈值可以随着准确率的提高而提高。
进一步地,步骤S1获取目标用户问题之前,方法还包括:
S10、获得训练集,训练集包括源用户问题-源规范问题对,源用户问题-源规范问题对用于表示源用户问题和与源用户问题对应的源规范问题的集合;
S20、根据训练集进行生成式对抗网络训练获得问题优化模型。
步骤S10中,通常,深度神经网络被用于监督学习的任务中,即有大量的标注数据用来进行模型的训练。因此,在针对问题优化模型的模型训练前,需获得训练数据,本申请中,为便于理解,定义训练集为训练数据的集合,包括源用户问题和与该源用户问题相对应的源规范问题集合。对于每一个用户问题,人工去撰写与该用户问题对应的标准问题比较难以实施,一方面,成本较大;另一方面,难以指定一个规范的写法标准。本申请中,可以利用现有的标准数据集和用户日志构造训练集,其中标准数据集中包括标准问题,可以理解的是,该标准数据集中还存储与各标准问题对应的标准答案;用户日志包括用户与问答***的交互记录,包括热点问题统计、未解决问题统计等等,因此可以将用户日志中未解决的问题作为源用户问题,标准数据集中的标准问题作为源规范问题。
步骤S20中,问题优化模型根据训练集进行生成式对抗网络训练获得,根据训练集将基础的问题优化模型,通过生成式对抗网络训练获得最终的问题优化模型,并将最终的问题优化模型应用于步骤S12。
进一步地,步骤S10获得训练集包括:
S101、计算标准数据集中的标准问题与用户日志中的各源用户问题的相似度值,标准数据集用于存储标准问题,用户日志包括用户与问答***的交互记录;
S102、将与标准问题的相似度值大于第二预设阈值的源用户问题作为候选用户问题,以确定候选用户问题中与标准问题语义一致的问题进而得到源用户问题-源规范问题对,标准问题包含于源规范问题。
在上述步骤S101中,计算标准数据集中的标准问题与用户日志中的各源用户问题的相似度值;
对于标准问题与源用户问题之间相似度值的计算,可以采用基于向量空间模型(voctor space model,VSM)的TF-IDF(term frequency inverted document frequency)算法,该算法实现如下:
(1)根据词频统计出语料库中出现的所有词w1,w2,w3…wn;
(2)把每一个问题表示为一个n维向量:T=<T1,T2,…,Ti,…,Tn>;
其中,Ti=n*log(M/m),1≤i≤n,n为词语wi在该问题中出现的次数即TF值,m为语料库中包含词语wi的问题数量,M为语料库中的问题总数量,log(M/m)即IDF值。以上Ti的综合表达式反映了一个关键词的出现频率和这个关键词对不同句子的分辨能力,即:一个词语在某个句子中出现的次数越多,则它对该句子越重要。
(3)设任意两个问题的n维向量分别为T’和T”,则其相似度可以用两个句子向量的余弦夹角计算如下:
Figure BDA0002186436010000081
可以理解的是,本申请中语料库包括了标准数据集中的标准问题与用户日志中的源用户问题,故可通过上述算法计算得到标准数据集中的标准问题与用户日志中的各源用户问题的相似度值。
需要说明的是,实际应用中,计算两个问题之间的相似度值的方法有多种,例如还可以采用语义词典方法、词性词序结合的方法、依存树法或者编辑距离法,具体本申请不做限定。
在上述步骤S102中,将与标准问题的相似度值大于第二预设阈值的源用户问题作为候选用户问题;
在计算得到标准问题与各源用户问题的相似度值后,将与标准问题的相似度值大于第二预设阈值的源用户问题作为候选用户问题,可以理解的是,该候选用户问题的个数可以为0,1或者多个。
需要说明的是,实际应用中,确定候选用户问题的方式有多种,例如,还可以将源用户问题按照与标准问题的相似度值从大到小的顺序进行排序,选择该排序中前预置数目个源用户问题作为候选用户问题,故确定候选用户问题的方式具体本申请不做限定。
可选的,为了保证候选用户问题与标准问题的语义一致性,实际应用中,可通过人工审核来去除候选用户问题中语义不一致的问题,例如,标准问题为“申请费多少钱?”,确定的候选用户问题包括“多少钱申请费?”,“申请费是好多钱?”和“多少钱的是申请费?”,故通过审核将候选用户问题中语义不一致的问题“多少钱的是申请费?”去除。
在确定标准用户问题对应的候选用户问题后,由于候选用户问题中可能包括多个问题,例如标准问题A,其对应的候选用户问题包括{用户问题A,用户问题B,用户问题C},则得到的源用户问题-源规范问题对包括用户问题A-标准问题A,用户问题B-标准问题A和用户问题C-标准问题A。
可以理解的是,不同的标准用户问题可以对应相同的源用户问题,例如,假设“夕阳红999什么时候发售?”和“夕阳红999的上架时间是什么?”均为标准问题,源用户问题为“什么时候能开抢夕阳红999?”,则该源用户问题与两个标准问题均对应。
需要说明的是,除了通过上述自动构建训练集的方式,实际应用中训练集的获得方式还有多种,例如由人工编辑源用户问题-源规范问题对等,具体此处不做限定。
进一步地,步骤S20包括:
S201、将训练集中的源用户问题输入至第二生成器,以使得第二生成器进行模型训练,并根据训练后的模型得到生成问题;
S202、获取第二生成器所得到的生成问题,并将生成问题保存在生成数据集中,生成数据集用于存储生成问题;
S203、将训练集中的源规范问题和生成数据集中的生成问题输入至第二判别器,以使得第二判别器以训练集中的源规范问题作为正例样本,以生成数据集中的生成问题作为负例样本进行模型训练;
S204、将第二生成器所生成的生成问题输入至第二判别器,以使得第二判别器对生成问题进行归属率判别,其中,归属率用于指示问题属于标准数据集或者生成数据集的概率;
S205、获取第二判别器对生成问题的判别结果;
S206、将判别结果输入至第二生成器,以使得第二生成器根据第二判别器所判别的生成问题以及判别结果进行模型训练,并根据训练后的模型生成新的生成问题;
S207、获取第二生成器所生成的新的生成问题,并将新的生成问题保存在生成数据集中;
S208、判断是否达到预设的合格条件;
S209、若达到合格条件,则结束对问题优化模型的对抗性训练,获得最终的问题优化模型;若未达到合格条件,使所述第二生成器和第二判别器依此进行循环的对抗性训练。
步骤S201-S202根据训练集训练问题优化模型;
获得训练集后,基于该训练集对问题优化模型进行训练,其中问题优化模型包括第二生成器和第二判别器。本申请中,采用对抗性训练的思想,来交替训练第二生成器和第二判别器,并用最终得到的第二生成器将用户问题改写为规范问题。具体地,第二生成器是一个概率生成模型,其目标为生成与训练数据(即训练集中的源规范问题)分布一致的样本(即自然语言的问题)。第二判别器则是一个分类器,其目标为准确判别一个样本(即一个自然语言问题)是来自训练数据、还是来自第二生成器。这样一来,第二生成器和第二判别器形成“对抗”,第二生成器不断优化使得第二判别器无法区分出生成样本和训练数据样本的区别,而第二判别器不断优化使得能够分辨这种区别。第二生成器和第二判别器交替训练,最终达到平衡:第二生成器能生成完全符合训练数据分布的样本(以至第二判别器无法分辨),而第二判别器则能够敏感的分辨任何不符合训练数据分布的样本。
请参阅图3,为本申请实施例提供的一种可能的训练流程,第二生成器负责根据源用户问题,生成与标准问题同样的词汇和描述风格的生成问题。可以使用一个改进版的递归神经网络(recurrent neural network,RNN)作为自然语言问题的第二生成器,其输入是将训练集中的源用户问题分词后得到词序列,例如,假设源用户问题为“保险缴费晚了,可以续保么?”对该问题进行分词,得“保险/缴费/晚了/,/可以/续保/么/?”,再将该问题中的每个词或者标点用向量代替,即通过一个词嵌入层embedding,将词映射成词向量,其中,所谓词向量,即将自然语言中的每一个词映射成一个固定长度的向量,将所有这些向量放在一起形成一个词向量空间,而每一个向量则为该空间中的一个点,在这个空间上引入“距离”,则可以根据词之间的距离来判断它们之间的(词法、语义上的)相似性了。
再用双向长短期记忆网络(Bi-directional long short-term memory,Bi-LSTM)来建模词之间的序列依赖关系。Bi-LSTM输出转换后的词向量,作为one-hot attention层的输入。one-hot attention层每次从Bi-LSTM的输出中无重复地选择一个或多个词,结合历史状态信息,来更新当前状态向量。最后根据当前状态,计算出输出的词。
步骤S203-S207第二判别器负责判别第二生成器所生成的生成问题与源规范问题之间的差异,通过第二生成器所生成的生成问题训练第二判别器,本申请中,可以从以下三个方面来判断生成问题的质量:(1)字面上与源规范问题之间的差异;(2)生成问题与源规范问题在词向量空间上的差异,主要衡量二者在语义上的差别;(3)生成问题与源规范问题包含的实体差异,保证生成问题与源规范问题的实体尽可能一致。第二判别器将判别结果通过梯度形式,反馈给第二生成器,使得第二生成器在接收到梯度后,更新网络参数值,从而改进下次生成问题的质量。
需要说明的是,实际应用中,也可以采用LSTM或者其他网络替代Bi-LSTM网络得到第二生成器,具体本申请不做限定。下面将以LSRM为例来说明:
具体的,递归神经网络接收一个变长的输入序列(比如,一个自然语言的句子,可以看作是词的序列),依次计算每个隐藏状态变量(hidden state):第i个状态变量通过当前的输入词和上一步的状态变量计算:hi=fh(xi,hi-1),其中fh是一个多层神经网络。一种简单的实现的方式是fh(xi,hi-1)=φh(Uxi+Whi-1),其中φh是一个sigmoid函数,例如:
Figure BDA0002186436010000111
实际中,可以使用更复杂的LSTM(Long Short-Term Memory)或者GRU(Gated Recurrent Unit)来对fh进行建模。同时,当每个状态变量确定后,递归神经网络能够不断产生词,并最终构成一个序列(即一个自然语言的句子)。第i个词产生的概率为:p(yi|y1,...,yi-1)=gh(hi,yi-1)=φg(Eyi-1+Wohi),整句话产生的概率为:
Figure BDA0002186436010000121
由此,当给递归神经网络一个随机的初始输入向量,就能产生得到一句话,而其中的参数,决定了能够产生的自然语言的分布。
步骤S209中,使所述第二生成器和第二判别器依此进行循环的对抗性训练,为不断重复步骤S201-S207,设置第二判别器模型与第二生成器模型进行对抗性训练,从而强化第二生成器生成干扰问题的能力,同时强化第二判别器判别问题的概率的能力,训练第二判别器具体可以为:
将训练集中的K个源规范问题和生成数据集中的L个生成问题输入至第二判别器,以使得第二判别器以训练集中的K个源规范问题作为正例样本,以所述生成数据集中的L个生成问题作为负例样本进行模型训练;将所述第二生成器所生成的生成问题输入至所述第二判别器,以使得所述第二判别器对所述生成问题进行归属率判别,其中,所述归属率用于指示问题属于所述标准数据集或者所述生成数据集的概率。其中,K和L为大于或等于1的正整数,K和L的具体取值可以相同,也可以不同。
本申请实施例中,可以使用卷积神经网络(Convolutional Neural Network,CNN)作为自然语言问题的第二判别器。
具体的,对于输入的序列,采用卷积(convolution)+池化(pooling)的计算方式。卷积的一种计算方式为:
Figure BDA0002186436010000122
其中表示卷积后第i个位置的第j个特征的值,k表示滑动窗口的长度。池化的一种计算方式为求最大值(max-pooling):
Figure BDA0002186436010000124
这种卷积和池化的方式可以反复多次进行。最后,通过对z=[z1,z2,...,zl]取softmax,得到判别函数:DCNN(q)=φ(Wqz+bq)。这里DCNN(q)给出了一个问题是否来自标准数据集(即是否为规范问题)的概率。
在第二生成器模型与第二判别器模型的训练过程中,可以通过两者进行对抗性训练,从而增加两个模型的能力。因此,本申请实施例中,还可以包含如下步骤:
获取第二判别器对生成问题的判别结果,将判别结果输入至第二生成器,以使得第二生成器根据第二判别器所判别的生成问题以及判别结果进行模型训练,并根据训练后的模型生成新的生成问题;再获取第二生成器所生成的新的生成问题,并将新的生成问题保存在生成数据集中。将训练集中的K个源规范问题和生成数据集中随机的L个生成问题输入至第二判别器,以使得第二判别器以训练集中的K个源规范问题作为正例样本,以所述生成数据集中的L个生成问题作为负例样本进行模型训练;其中,L个生成问题集合包含新的生成问题。
第二判别器根据所述正例样本和所述负例样本对所述第二生成器进行模型训练,通过训练后的第二判别器的模型对第二生成器所生成的每个生成问题的归属率进行判别,并将判别结果发送给所述第二生成器,以使得所述第二生成器根据所述所述第二判别器所判别的新的生成问题和判别结果进行模型训练。依此进行循环的对抗性训练,从而提高第二生成器生成干扰问题的能力,提高第二判别器判别生成问题归属率的能力。
参照上述的举例,具体的,第二判别器的训练方法为:
步骤1、从训练集中随机采样m个源规范问题
Figure BDA0002186436010000131
作为正例样本;
步骤2、从第二生成器
Figure BDA0002186436010000132
中选取l个问题
Figure BDA0002186436010000133
作为负例样本;
步骤3、对于第二判别器DCNN(q;θD),θD为函数中的参数。优化目标函数:
Figure BDA0002186436010000134
具体的,采用梯度下降算法求解θD
Figure BDA0002186436010000135
具体的,第二生成器的训练方法可以为:
步骤1、生成n个随机向量
Figure BDA0002186436010000136
其中p(z)=N(0,σ2I)为正态分布;
步骤2、根据第二生成器
Figure BDA0002186436010000137
生成n个问题:
Figure BDA0002186436010000138
步骤3、对于n个问题,用第二判别器得到其判别结果:
Figure BDA0002186436010000139
步骤4、对于第二生成器优化目标函数:
Figure BDA00021864360100001311
具体的,定义回报函数:
Figure BDA00021864360100001312
目标函数即:
采用梯度下降算法求解θG
Figure BDA0002186436010000142
根据REINFORCE算法得到:
Figure BDA0002186436010000143
对于递归神经网络(RNN),可以计算得到:
Figure BDA0002186436010000144
步骤S208,通过预设的规则判断对问题优化模型的训练是否达到合格条件,当达到合格条件后即可应用最终的问题优化模型,避免无休止的训练导致的后期效率不高的问题,提高工作效率。
在一些实施例中步骤S208判断是否达到预设的合格条件包括:
S2081、判断第二判别器判别第二生成器生成的问题所得到的判别结果的变化量是否小于第三预设阈值;
S2082、若判定小于第三预设阈值,则判定达到预设的合格条件。
在步骤S2081-S2082中,当所述第二判别器判别所述第二生成器生成的问题所得到的判别结果的变化量小于第三预设阈值时,则停止向所述第二判别器输入所述第二生成器生成的问题,并停止向所述第二生成器输入所述第二判别器的判别结果,以结束对所述问题优化模型的训练。
当所述第二判别器根据所获取的所有正例样本和负例样本进行问题的归属率的判别所得到的判别结果的变化量小于第三预设阈值时,则停止向第二判别器输入从所述训练集以及所述生成数据集中选取的问题集合,并停止向第二生成器输入第二判别器的判别结果,以结束对问题优化模型的训练。
即,对抗性训练中,会交替训练第二判别器和第二生成器,直至达到平衡。当第二生成器的能力和第二判别器的能力训练到一定程度后,第二判别器判别第二生成器所生成的问题的归属率将趋向稳定。比如,以固定样本为例,当第二判别器以固定的正例样本和固定的负例样本作为判别问题的依据时,若预设的次数(比如20次)内所判别的第二生成器所生成的生成问题的归属标准数据集的概率浮动在0.39~0.41,则表示第二判别器的判别能力趋向稳定,此时,则可以停止训练第二生成器和第二判别器的模型。
在另一些实施例中步骤S208判断是否达到预设的合格条件包括:
S2083、判断迭代次数是否达到第四预设阈值;
S2084、若判定迭代次数达到第四预设阈值,则判定达到预设的合格条件。
在步骤S2083-S2084中,当迭代次数达到第四预设阈值时,则停止向所述第二判别器输入所述第二生成器生成的问题,并停止向所述第二生成器输入所述第二判别器的判别结果,以结束对所述问题优化模型的训练,所述第二生成器生成一次问题以及所述判断器判断一次所述第二生成器生成的问题表示一次迭代。
还可以通过第二生成器和第二判别器的迭代次数作为判断条件来确定是否停止训练,其中第二生成器生成一次问题以及判断其判断一次第二生成器生成的问题表示一次迭代。比如,设置1000次迭代指标,若第二生成器生成过1000次后,则可以停止训练,若第二判别器判断过1000次后,则可以停止训练。
结束对问题优化模型的训练后,将训练好的问题优化模型导出文件,传到模型服务器上,以RESTful Web服务对外提供服务,或者直接作为本地文件,以供在线服务程序加载调用。
本申请还提出一种请求的智能筛选装置,包括:
获取模块1,用于通过智能问答获取目标用户的请求信息,请求信息包括请求额度和目标用户基本信息;
提取模块2,用于在数据库中获取与目标用户基本信息对应的目标用户信息;
筛选模块3,用户通过将请求信息和目标用户信息导入判断模型判断目标用户是否为高危用户,判断模型包括第一生成器和第一判别器,第一生成器用于生成目标用户的评价信息,第一判别器用于判断评价信息是否达到预设的高危用户标准,评价信息包括目标用户的可申请额度阈值范围;
额度判断模块4,用于在判定目标用户不是高危用户时,则判断目标用户的请求额度是否在目标用户的可申请额度阈值范围内;
核准模块5,用于在判定目标用户的请求额度在目标用户的可申请额度阈值范围内时,则直接通过与请求信息相对应的请求。
请求的智能筛选装置还包括:
提醒模块,用于在筛选模块3判定目标用户是高危用户后,则向设定单元发送提醒信息。
获取模块1包括:
获取单元,用于获取目标用户问题;
生成单元,用于根据问题优化模型生成与目标用户问题对应的目标生成问题,问题优化模型基于生成式对抗网络训练得到,问题优化模型包括第二生成器和第二判别器,第二生成器用于生成与目标用户问题对应的目标生成问题;
判断单元,用于根据第二判别器判断目标生成问题的生成质量是否高于第一预设阈值,生成质量用于指示目标生成问题为规范问题的概率;
决定单元,用于若目标生成问题的生成质量高于第一预设阈值,则根据目标生成问题确定目标答案,目标***括目标用户的请求信息。
请求的智能筛选装置还包括:
第二获取模块,用于获得训练集,训练集包括源用户问题-源规范问题对,源用户问题-源规范问题对用于表示源用户问题和与源用户问题对应的源规范问题的集合;
第二训练模块,根据训练集进行生成式对抗网络训练获得问题优化模型。
第二获取模块包括:
计算单元,用于计算标准数据集中的标准问题与用户日志中的各源用户问题的相似度值,标准数据集用于存储标准问题,用户日志包括用户与问答***的交互记录;
第二判断单元,用于将与标准问题的相似度值大于第二预设阈值的源用户问题作为候选用户问题,以确定候选用户问题中与标准问题语义一致的问题进而得到源用户问题-源规范问题对,标准问题包含于源规范问题。
第二训练模块包括:
训练子模块,用于将训练集中的源用户问题输入至第二生成器,以使得第二生成器进行模型训练,并根据训练后的模型得到生成问题;
集合子模块,用于获取第二生成器所得到的生成问题,并将生成问题保存在生成数据集中,生成数据集用于存储生成问题;
样本获取子模块,用于将训练集中的源规范问题和生成数据集中的生成问题输入至第二判别器,以使得第二判别器以训练集中的源规范问题作为正例样本,以生成数据集中的生成问题作为负例样本进行模型训练;
归属率判别子模块,用于将第二生成器所生成的生成问题输入至第二判别器,以使得第二判别器对生成问题进行归属率判别,其中,归属率用于指示问题属于标准数据集或者生成数据集的概率;
判别结果获取子模块,用于获取第二判别器对生成问题的判别结果;
训练模型子模块,用于将判别结果输入至第二生成器,以使得第二生成器根据第二判别器所判别的生成问题以及判别结果进行模型训练,并根据训练后的模型生成新的生成问题;
更新数据集子模块,用于获取第二生成器所生成的新的生成问题,并将新的生成问题保存在生成数据集中;
合格判断子模块,用于判断是否达到预设的合格条件;
结束子模块,用于若达到合格条件,则结束对问题优化模型的对抗性训练,获得最终的问题优化模型;
对抗训练子模块,用于若未达到合格条件,使第二生成器和第二判别器依此进行循环的对抗性训练。
在一些实施例中,合格判断子模块包括:
变量判断单元,用于判断第二判别器判别第二生成器生成的问题所得到的判别结果的变化量是否小于第三预设阈值;
第一合格判定单元,若判定小于第三预设阈值,则判定达到预设的合格条件。
在另一些实施例中,合格判断子模块包括:
迭代判断单元,用于判断迭代次数是否达到第四预设阈值;
第二合格判定单元,若判定迭代次数达到第四预设阈值,则判定达到预设的合格条件。
在一些实施例中,请求的智能筛选装置同时包括两种合格判断子模块,按照满足合格条件的先后顺序,采用在先原则,结束对问题优化模型的训练,即当一种合格判断子模块在先得出达到预设的合格条件的结果,那么就不再用另一种合格判断子模块进行判断了。
本申请还提出一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述方法的步骤。
本申请实施例中还提供一种计算机设备,该计算机设备可以是服务器,其内部结构可以如图3所示。该计算机设备包括通过***总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设计的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作***、计算机程序和数据库。该内存器为非易失性存储介质中的操作***和计算机程序的运行提供环境。该计算机设备的数据库用于存储数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种请求的智能筛选方法。通过问答形式获取目标客户的请求信息,不但降低了素质风险,而且能够帮助不具备独立书写能力的用户准确输入请求信息,用户体验更好,而且还能够筛选出符合条件的非高危用户进行快速放款,提高了放款效率,提高了用户体验。
本申请还提出一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述的请求的智能筛选方法的步骤。
本申请请求的智能筛选方法、装置、计算机设备和存储介质,通过问答形式获取目标客户的请求信息,不但降低了素质风险,而且能够帮助不具备独立书写能力的用户准确输入请求信息,用户体验更好,而且还能够筛选出符合条件的非高危用户进行快速放款,提高了放款效率,提高了用户体验。
以上仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。

Claims (10)

1.一种请求的智能筛选方法,其特征在于,包括:
通过智能问答获取目标用户的请求信息,所述请求信息包括请求额度和目标用户基本信息;
在数据库中获取与所述目标用户基本信息对应的目标用户信息;
将所述请求信息和所述目标用户信息导入判断模型判断所述目标用户是否为高危用户,所述判断模型包括第一生成器和第一判别器,所述第一生成器用于生成所述目标用户的评价信息,所述第一判别器用于判断所述评价信息是否达到预设的高危用户标准,所述评价信息包括所述目标用户的可申请额度阈值范围;
在判定所述目标用户不是高危用户时,则判断所述目标用户的请求额度是否在目标用户的可申请额度阈值范围内;
在判定所述目标用户的请求额度在目标用户的可申请额度阈值范围内时,则直接通过与所述请求信息相对应的请求。
2.根据权利要求1所述的请求的智能筛选方法,其特征在于,所述通过将所述请求信息和由数据库中获得的目标用户信息导入判断模型判断所述目标用户是否为高危用户之后,所述方法还包括:
若是高危用户,则向设定单元发送提醒信息。
3.根据权利要求1所述的请求的智能筛选方法,其特征在于,所述通过智能问答获取目标用户的请求信息的方法包括:
获取目标用户问题;
根据问题优化模型生成与所述目标用户问题对应的目标生成问题,所述问题优化模型基于生成式对抗网络训练得到,所述问题优化模型包括第二生成器和第二判别器,所述第二生成器用于生成与所述目标用户问题对应的目标生成问题;
根据所述第二判别器判断所述目标生成问题的生成质量是否高于第一预设阈值,所述生成质量用于指示所述目标生成问题为规范问题的概率;
若是,则根据所述目标生成问题确定目标答案,所述目标***括所述目标用户的请求信息。
4.根据权利要求3所述的请求的智能筛选方法,其特征在于,所述获取目标用户问题之前,所述方法还包括:
获得训练集,所述训练集包括源用户问题-源规范问题对,所述源用户问题-源规范问题对用于表示源用户问题和与所述源用户问题对应的源规范问题的集合;
根据所述训练集进行生成式对抗网络训练获得所述问题优化模型。
5.根据权利要求4所述的请求的智能筛选方法,其特征在于,所述获得训练集包括:
计算标准数据集中的标准问题与用户日志中的各源用户问题的相似度值,所述标准数据集用于存储所述标准问题,所述用户日志包括用户与问答***的交互记录;
将与所述标准问题的相似度值大于第二预设阈值的源用户问题作为候选用户问题,以确定所述候选用户问题中与所述标准问题语义一致的问题进而得到所述源用户问题-源规范问题对,所述标准问题包含于所述源规范问题。
6.根据权利要求5所述的请求的智能筛选方法,其特征在于,所述根据所述训练集进行生成式对抗网络训练获得所述问题优化模型的步骤包括:
将所述训练集中的源用户问题输入至所述第二生成器,以使得所述第二生成器进行模型训练,并根据训练后的模型得到生成问题;
获取所述第二生成器所得到的生成问题,并将所述生成问题保存在生成数据集中,所述生成数据集用于存储所述生成问题;
将所述训练集中的源规范问题和所述生成数据集中的生成问题输入至所述第二判别器,以使得所述第二判别器以所述训练集中的源规范问题作为正例样本,以所述生成数据集中的生成问题作为负例样本进行模型训练;
将所述第二生成器所生成的生成问题输入至所述第二判别器,以使得所述第二判别器对所述生成问题进行归属率判别,其中,所述归属率用于指示问题属于所述标准数据集或者所述生成数据集的概率;
获取所述第二判别器对所述生成问题的判别结果;
将所述判别结果输入至所述第二生成器,以使得所述第二生成器根据所述第二判别器所判别的生成问题以及所述判别结果进行模型训练,并根据训练后的模型生成新的生成问题;
获取所述第二生成器所生成的新的生成问题,并将所述新的生成问题保存在所述生成数据集中;
判断是否达到预设的合格条件;
若达到合格条件,则结束对所述问题优化模型的对抗性训练,获得最终的所述问题优化模型;若未达到合格条件,使所述第二生成器和第二判别器依此进行循环的对抗性训练。
7.根据权利要求6所述的请求的智能筛选方法,其特征在于,所述判断是否达到预设的合格条件的步骤包括:
判断所述第二判别器判别所述第二生成器生成的问题所得到的判别结果的变化量是否小于第三预设阈值;
若判定小于所述第三预设阈值,则判定达到预设的合格条件。
8.一种请求的智能筛选装置,其特征在于,包括:
获取模块,用于通过智能问答获取目标用户的请求信息,所述请求信息包括请求额度和目标用户基本信息;
提取模块,用于在数据库中获取与所述目标用户基本信息对应的目标用户信息;
筛选模块,用户通过将所述请求信息和所述目标用户信息导入判断模型判断所述目标用户是否为高危用户,所述判断模型包括第一生成器和判别器,所述第一生成器用于生成所述目标用户的评价信息,所述判别器用于判断所述评价信息是否达到预设的高危用户标准,所述评价信息包括所述目标用户的可申请额度阈值范围;
额度判断模块,用于在判定所述目标用户不是高危用户时,则判断所述目标用户的请求额度是否在目标用户的可申请额度阈值范围内;
核准模块,用于在判定所述目标用户的请求额度在目标用户的可申请额度阈值范围内时,则直接通过该请求。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
CN201910816251.XA 2019-08-30 2019-08-30 请求的智能筛选方法、装置、计算机设备和存储介质 Pending CN110727770A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910816251.XA CN110727770A (zh) 2019-08-30 2019-08-30 请求的智能筛选方法、装置、计算机设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910816251.XA CN110727770A (zh) 2019-08-30 2019-08-30 请求的智能筛选方法、装置、计算机设备和存储介质

Publications (1)

Publication Number Publication Date
CN110727770A true CN110727770A (zh) 2020-01-24

Family

ID=69218904

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910816251.XA Pending CN110727770A (zh) 2019-08-30 2019-08-30 请求的智能筛选方法、装置、计算机设备和存储介质

Country Status (1)

Country Link
CN (1) CN110727770A (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104616194A (zh) * 2014-12-31 2015-05-13 腾讯科技(深圳)有限公司 一种数据处理方法及支付平台
CN107886425A (zh) * 2017-10-25 2018-04-06 上海壹账通金融科技有限公司 信贷评估方法、装置、设备及计算机可读存储介质
CN108389121A (zh) * 2018-02-07 2018-08-10 平安普惠企业管理有限公司 贷款数据处理方法、装置、计算机设备和存储介质
CN109509085A (zh) * 2018-11-27 2019-03-22 平安科技(深圳)有限公司 贷前信息处理方法、装置、计算机设备及存储介质
CN109584048A (zh) * 2018-11-30 2019-04-05 上海点融信息科技有限责任公司 基于人工智能对申请者进行风险评级的方法和装置
CN109685639A (zh) * 2018-08-21 2019-04-26 深圳壹账通智能科技有限公司 贷款审核方法、装置、设备及计算机可读存储介质
CN110009479A (zh) * 2019-03-01 2019-07-12 百融金融信息服务股份有限公司 信用评价方法及装置、存储介质、计算机设备

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104616194A (zh) * 2014-12-31 2015-05-13 腾讯科技(深圳)有限公司 一种数据处理方法及支付平台
CN107886425A (zh) * 2017-10-25 2018-04-06 上海壹账通金融科技有限公司 信贷评估方法、装置、设备及计算机可读存储介质
CN108389121A (zh) * 2018-02-07 2018-08-10 平安普惠企业管理有限公司 贷款数据处理方法、装置、计算机设备和存储介质
CN109685639A (zh) * 2018-08-21 2019-04-26 深圳壹账通智能科技有限公司 贷款审核方法、装置、设备及计算机可读存储介质
CN109509085A (zh) * 2018-11-27 2019-03-22 平安科技(深圳)有限公司 贷前信息处理方法、装置、计算机设备及存储介质
CN109584048A (zh) * 2018-11-30 2019-04-05 上海点融信息科技有限责任公司 基于人工智能对申请者进行风险评级的方法和装置
CN110009479A (zh) * 2019-03-01 2019-07-12 百融金融信息服务股份有限公司 信用评价方法及装置、存储介质、计算机设备

Similar Documents

Publication Publication Date Title
CN110019732B (zh) 一种智能问答方法以及相关装置
CN110390408B (zh) 交易对象预测方法和装置
CN109299245B (zh) 知识点召回的方法和装置
CN111159367B (zh) 一种信息处理方法及相关设备
CN114330354B (zh) 一种基于词汇增强的事件抽取方法、装置及存储介质
CN111259647A (zh) 基于人工智能的问答文本匹配方法、装置、介质及电子设备
CN112148831B (zh) 图文混合检索方法、装置、存储介质、计算机设备
CN111753167A (zh) 搜索处理方法、装置、计算机设备和介质
CN112434211A (zh) 一种数据处理方法、装置、存储介质及设备
CN114358657A (zh) 一种基于模型融合的岗位推荐方法及装置
CN116204714A (zh) 推荐方法、装置、电子设备及存储介质
CN114491023A (zh) 一种文本处理方法、装置、电子设备和存储介质
CN116521936B (zh) 一种基于用户行为分析的课程推荐方法、装置及存储介质
CN111143533B (zh) 一种基于用户行为数据的客服方法及***
CN108304568A (zh) 一种房地产公众预期大数据处理方法及***
CN112184292A (zh) 基于人工智能决策树的营销方法和装置
CN112995248A (zh) 信息推送方法、装置及设备
CN112989054B (zh) 一种文本处理方法和装置
CN110727770A (zh) 请求的智能筛选方法、装置、计算机设备和存储介质
CN111382246B (zh) 文本的匹配方法、匹配装置、终端及计算机可读存储介质
CN113571198A (zh) 转化率预测方法、装置、设备及存储介质
CN113239699A (zh) 一种融合多特征的深度知识追踪方法及***
CN115238165A (zh) 基于机器学习的信息推送方法及装置、存储介质、终端
CN116523024B (zh) 召回模型的训练方法、装置、设备及存储介质
CN111259138A (zh) 一种税务领域短文本的情感分类方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination