CN109102157A - 一种基于深度学习的银行工单派单方法及*** - Google Patents
一种基于深度学习的银行工单派单方法及*** Download PDFInfo
- Publication number
- CN109102157A CN109102157A CN201810755334.8A CN201810755334A CN109102157A CN 109102157 A CN109102157 A CN 109102157A CN 201810755334 A CN201810755334 A CN 201810755334A CN 109102157 A CN109102157 A CN 109102157A
- Authority
- CN
- China
- Prior art keywords
- work order
- term vector
- event
- matrix
- convolutional neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0631—Resource planning, allocation, distributing or scheduling for enterprises or organisations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q40/00—Finance; Insurance; Tax strategies; Processing of corporate or income taxes
- G06Q40/02—Banking, e.g. interest calculation or account maintenance
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Human Resources & Organizations (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Development Economics (AREA)
- Finance (AREA)
- Accounting & Taxation (AREA)
- Entrepreneurship & Innovation (AREA)
- Computing Systems (AREA)
- Technology Law (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Educational Administration (AREA)
- Probability & Statistics with Applications (AREA)
- Game Theory and Decision Science (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- Machine Translation (AREA)
Abstract
本发明提供了一种基于深度学习的银行工单派单方法及***,包括:根据接收的事件工单的概述文本生成所述事件工单对应的词向量矩阵;将所述词向量矩阵输入到基于历史事件工单训练得到的神经网络模型,确定所述事件工单对应的工单解决***;所述神经网络模型包括:一级卷积神经网络层及二级卷积神经网络层;将所述事件工单派发到确定的所述工单解决***。本发明采用基于深度学习的智能分派工单的技术方案,具有提高派单准确率、工单处理效率,节省人力成本及事件工单解决时间的技术效果,有效地提升了客户满意度的有益效果。
Description
技术领域
本发明涉及银行事件工单的派单技术领域,尤其涉及一种基于深度学习的银行工单派单方法及***。
背景技术
随着银行业后端信息***数目的日益庞大及功能复杂化,银行业后端信息***在运行过程中频繁发生各类异常情况。作为IT连续性管理中的事件管理,目前各银行通过后端的事件工单管理***处理各异常情况所产生的事件工单,而事件工单处理的时效性是整个事件管理中非常重要的一个因素。其中,处理事件工单的过程主要包括:工单录入、事件分析、工单上报、事件解决、结果反馈。将事件工单派发给正确的事件工单解决***是事件分析的主要目的,也是事件工单处理时效性中非常关键的一个因素,目前普遍采用人工方式即由事件分析人根据事件的描述对事件工单进行分派。
目前人工派单的方式存在如下缺陷:
1、事件工单分派准确率低。通常事件工单是根据上报人员所选事件工单解决***进行自动分派,由于目前银行IT化程度高,***数量多,***间关系复杂,上报人员往往无法正确选择事件工单对应的事件工单解决***,因此导致分派准确率较低。一旦分派错误,将会影响事件工单的流转,降低解决事件工单的效率。
2、事件工单分派人力成本高。由于程序缺陷、客户操作等问题,会出现相似的事件工单,对于这类事件工单有经验的人员能参照历史处理方案进行处理。这种依赖于经验的模式需要投入大量有经验的人,同时还需要对没有经验的人员或者新人进行大量培训,造成较高的人力成本支出。
现有技术方案之一:建立工单知识库是现有的技术方案之一,商业银行积累了大量的历史事件工单数据,事件工单数据的维度包括:问题概述信息、问题原因分类、问题解决方案,构成了工单问题及处理方案的全景信息。工单知识库建立在这些信息基础之上,根据关键字检索以获取历史事件工单解决方案。建立工单知识库能够解决部分问题,但这种方式并没有考虑到中文语义,同样的关键字在不同的上下文中所表达的含义可能并不相同,所描述的业务场景也可能不同。所以用脱离语境的关键字或词语极有可能匹配到不正确的历史数据,无法准确地提供派单参考依据。另外使用关键字搜索出的结果本身没有什么规律,如果搜索到的结果数量较大,仍需要人工分析,无法显著提升工单派单准确率。
现有技术方案之二:使用机器学习来挖掘历史事件工单数据中的规律,实现事件工单的智能分类,比如使用主题模型实现事件工单主题特征的提取、分类与匹配。这种方式首先提取一系列事件工单特征值,如概述、类别、解决方案等,这些特征值构成特征向量;再设置特征向量权值;然后基于概率模型利用线性判别式分析算法进行训练,最终生成一个工单分类器。此方案虽然可以实现智能化派单,但是事件工单主题特征提取难度大,特征向量权值设置依靠人工经验,特征分析准确性较低,直接影响工单分类器的准确率。同时,当主题特征发生变化时,需重新进行特征分析,增加了运维成本。
因此针对银行事件工单的数据量大、数据具有多样性及复杂性、事件工单的特征难以提取及特征分析成本高等特点,如何提高银行事件工单的派单效率、准确性,并降低派单的成本是当前亟待解决的技术问题。
发明内容
为了解决现有技术中的缺陷,本发明提供了一种基于深度学习的银行工单派单方法及***,通过智能分派工单的技术方案,具有提高派单准确率、工单处理效率,节省人力成本及事件工单解决时间的技术效果,有效地提升了客户满意度。
为了实现上述目的,本发明提供了一种基于深度学习的银行工单派单方法,包括:
根据接收的事件工单的概述文本生成所述事件工单对应的词向量矩阵;
将所述词向量矩阵输入到基于历史事件工单训练得到的神经网络模型,确定所述事件工单对应的工单解决***;所述神经网络模型包括:一级卷积神经网络层及二级卷积神经网络层;
将所述事件工单派发到确定的所述工单解决***。
一实施例中,所述根据接收的事件工单的概述文本生成所述事件工单对应的词向量矩阵,包括:
根据预先存储的词典,将接收的所述事件工单的概述文本进行分词;
根据预先存储的语料库,将所述事件工单的各词转化为对应的词向量;
根据各所述词向量生成所述事件工单对应的词向量矩阵。
一实施例中,该基于深度学习的银行工单派单方法还包括:
根据从各工单解决***抽取的多个各历史事件工单的概述文本生成对应的词向量矩阵;所述历史事件工单包括:概述文本、词向量矩阵及第一分类标签;所述第一分类标签用于标识对应的工单解决***;
将所述历史事件工单划分为训练工单及验证工单;
将各所述训练工单对应的词向量矩阵作为所述一级卷积神经网络层的训练数据进行训练,得到各所述训练工单的第二分类标签;所述第二分类标签用于标识所述二级卷积神经网络层;
将各所述第二分类标签对应的训练工单的词向量矩阵及第一分类标签作为各所述第二分类标签标识的二级卷积神经网络层的训练数据进行训练,获得各所述二级卷积神经网络层的权重参数矩阵并输出各所述训练工单的第一分类标签;所述词向量矩阵与所述权重参数矩阵的积用于标识所述词向量矩阵对应的训练工单的第一分类标签;
根据各所述验证工单的第一分类标签,将各所述验证工单对应的词向量矩阵输入对应的二级卷积神经网络层,获得各所述二级卷积神经网络层的最优权重参数矩阵,并为各所述二级卷积神经网络层加载对应的最优权重参数矩阵。
一实施例中,所述将各所述历史事件训练工单对应的词向量矩阵作为所述一级卷积神经网络层的训练数据进行训练,得到各所述训练工单历史事件工单的第二分类标签,包括:
基于Kmeans算法计算每两个所述训练工单对应的词向量矩阵之间的距离;
根据各所述词向量矩阵之间的距离,对各所述词向量矩阵对应的训练工单进行聚类;
将聚类后的各所述训练工单对应的词向量矩阵作为所述一级卷积神经网络层的训练数据进行训练,得到各所述训练工单的第二分类标签。
一实施例中,将接收的所述事件工单的概述文本进行分词时,采用正向最大匹配原则。
一实施例中,所述将所述词向量矩阵输入到基于历史事件工单训练得到的神经网络模型,确定所述事件工单对应的工单解决***,包括:
将所述词向量矩阵输入所述一级卷积神经网络层,生成所述事件工单的第二分类标签;
将所述事件工单输入所述事件工单的第二分类标签对应的二级卷积神经网络层,确定所述事件工单对应的工单解决***。
本发明还提供了一种基于深度学习的银行工单派单***,包括:
词向量矩阵生成单元,用于根据接收的事件工单的概述文本生成所述事件工单对应的词向量矩阵;
工单解决***确定单元,用于将所述词向量矩阵输入到基于历史事件工单训练得到的神经网络模型,确定所述事件工单对应的工单解决***;所述神经网络模型包括:一级卷积神经网络层及二级卷积神经网络层;
工单解决***派发单元,用于将所述事件工单派发到确定的所述工单解决***。
一实施例中,所述词向量矩阵生成单元包括:
分词模块,用于根据预先存储的词典,将接收的所述事件工单的概述文本进行分词;
词向量生成模块,用于根据预先存储的语料库,将所述事件工单的各词转化为对应的词向量;
词向量矩阵生成单元,用于根据各所述词向量生成所述事件工单对应的词向量矩阵。
一实施例中,该基于深度学习的银行工单派单***还包括:
历史事件工单获取模块,用于根据从各工单解决***抽取的各历史事件工单的概述文本生成对应的词向量矩阵;所述历史事件工单包括:概述文本及第一分类标签;所述第一分类标签用于标识对应的工单解决***;
历史事件工单划分单元,用于将所述历史事件工单划分为训练工单及验证工单;
一级卷积神经网络层训练单元,用于将各所述训练工单对应的词向量矩阵作为所述一级卷积神经网络层的训练数据进行训练,得到各所述训练工单的第二分类标签;所述第二分类标签用于标识所述二级卷积神经网络层;
二级卷积神经网络层训练单元,用于将各所述第二分类标签对应的训练工单的词向量矩阵及第一分类标签作为各所述第二分类标签标识的二级卷积神经网络层的训练数据进行训练,获得各所述二级卷积神经网络层的权重参数矩阵并输出各所述训练工单的第一分类标签;所述词向量矩阵与所述权重参数矩阵的积用于标识所述词向量矩阵对应的训练工单的第一分类标签;
权重参数矩阵加载单元,用于根据各所述验证工单的第一分类标签,将各所述验证工单对应的词向量矩阵输入对应的二级卷积神经网络层,获得各所述二级卷积神经网络层的最优权重参数矩阵,并为各所述二级卷积神经网络层加载对应的最优权重参数矩阵。
一实施例中,所述一级卷积神经网络层训练单元包括:
距离计算模块,用于基于Kmeans算法计算每两个所述训练工单对应的词向量矩阵之间的距离;
聚类模块,用于根据各所述词向量矩阵之间的距离,对各所述词向量矩阵对应的训练工单进行聚类;
第二分类标签生成模块,用于将聚类后的各所述训练工单对应的词向量矩阵作为所述一级卷积神经网络层的训练数据进行训练,得到各所述训练工单的第二分类标签。
一实施例中,所述距离计算模块包括:
获取词向量子模块,用于获取任意两个所述训练工单对应的词向量矩阵的各词向量;
词向量距离生成子模块,用于根据一所述词向量矩阵的各词向量与另一所述词向量矩阵的对应位置的词向量的差值的平方,获得各词向量的距离;
词向量矩阵距离生成子模块,用于将各所述词向量的距离求和,生成所述两个训练工单对应的词向量矩阵之间的距离。
一实施例中,所述工单解决***确定单元包括:
第二分类标签生成模块,用于将所述词向量矩阵输入所述一级卷积神经网络层,生成所述事件工单的第二分类标签;
工单解决***确定模块,用于将所述事件工单输入所述事件工单的第二分类标签对应的二级卷积神经网络层,确定所述事件工单对应的工单解决***。
本发明还提供一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
根据接收的事件工单的概述文本生成所述事件工单对应的词向量矩阵;
将所述词向量矩阵输入到基于历史事件工单训练得到的神经网络模型,确定所述事件工单对应的工单解决***;所述神经网络模型包括:一级卷积神经网络层及二级卷积神经网络层;
将所述事件工单派发到确定的所述工单解决***。
本发明还提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
根据接收的事件工单的概述文本生成所述事件工单对应的词向量矩阵;
将所述词向量矩阵输入到基于历史事件工单训练得到的神经网络模型,确定所述事件工单对应的工单解决***;所述神经网络模型包括:一级卷积神经网络层及二级卷积神经网络层;
将所述事件工单派发到确定的所述工单解决***。
本发明提供的一种基于深度学习的银行工单派单方法及***,包括:根据接收的事件工单的概述文本生成所述事件工单对应的词向量矩阵;将所述词向量矩阵输入到基于历史事件工单训练得到的神经网络模型,确定所述事件工单对应的工单解决***;所述神经网络模型包括:一级卷积神经网络层及二级卷积神经网络层;将所述事件工单派发到确定的所述工单解决***。本发明采用基于深度学习的智能分派工单的技术方案,具有提高派单准确率、工单处理效率,节省人力成本及事件工单解决时间的技术效果,有效地提升了客户满意度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明的一种基于深度学习的银行工单派单方法流程图;
图2是本发明一实施例中的基于深度学习的银行工单派单方法流程图;
图3是本发明一实施例中S203的流程图;
图4是本发明一实施例中S101的流程图;
图5是本发明的一种基于深度学习的银行工单派单的结构示意图;
图6是本发明一实施例中词向量矩阵生成单元的结构示意图;
图7是本发明一实施例中的基于深度学习的银行工单派单的结构示意图;
图8是本发明一实施例中的一级卷积神经网络层训练单元的结构示意图;
图9是本发明一实施例中的距离计算模块的结构示意图;
图10是本发明一实施例中的工单解决***确定单元的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明涉及的相关技术术语简介如下:
事件工单(简称工单):客户或业务人员在使用银行***过程中遇到的问题或故障,录入相关问题或故障的信息后所生成的电子联系单即是事件工单。事件工单的解决通过一个或多个涉及方在工单处理***上审批处理来实现。
联邦卷积神经网络(FCNN,Federal Convolutional Neural Network):一种多层卷积神经网络。本发明所使用的是两级卷积神经网络层,第一级卷积神经网络层实现事件工单业务类别的分类,第二级卷积神经网络层实现事件工单***的分类。
针对现有技术中存在的缺陷,本发明提供了一种基于深度学习的银行工单派单方法,其流程图如图1所示,该方法包括如下步骤:
S101:根据接收的事件工单的概述文本生成事件工单对应的词向量矩阵。
S102:将词向量矩阵输入到基于历史事件工单训练得到的神经网络模型,确定事件工单对应的工单解决***。其中,神经网络模型包括:一级卷积神经网络层及二级卷积神经网络层。
S103:将事件工单派发到确定的工单解决***。
由图1所示的流程可知,本发明采用将接收的事件工单的概述文本生成对应的词向量矩阵,再将词向量矩阵输入到基于历史事件工单训练得到的神经网络模型中,从而确定该事件工单对应的工单解决***,将该事件工单派发到确定的工单解决***中的技术方案。本发明利用深度学习技术将现有技术中的人工派单替换为通过神经网络模型进行智能派单的方案,减少了事件工单处理工作中的人力成本投入,降低企业运营成本,同时显著提升了派单准确率,降低了整个事件工单解决时间,有效地提升了客户满意度。
为了使本领域的技术人员更好的了解本发明,下面列举一个更为详细的实施例,如图2所示,本发明实施例提供的基于深度学习的银行工单派单方法,包括:
S201:根据从各工单解决***抽取的各历史事件工单的概述文本生成对应的词向量矩阵。其中,历史事件工单包括:概述文本及第一分类标签,第一分类标签用于标识对应的工单解决***。
步骤S201具体包括如下步骤:
根据预先存储的词典,将从各工单解决***抽取的各历史事件工单的概述文本进行分词。
首先对各历史事件工单的概述文本做数据清洗,具体为对各历史事件工单的概述文本中的标点、特殊符号等,然后根据预先存储的词典对概述文本进行分词操作,将概述文本分解为中文最基本的元素——词。由于银行***事件内容的复杂性和专业性,在本发明中,分词采用了正向最大匹配原则,即词典中如果存在“交通银行”,则文本中的“交通银行”会作为一个词,而不是“交通”和“银行”两个词。为了最大程度保证分词的准确性,在进行分词时在默认词典基础上添加了银行业专业词汇作为补充。
根据预先存储的语料库,将各历史事件工单的各词转化为对应的词向量。
语料库为包含大量中文词的库,并且利用word2vec将语料库的各词汇转化为一个稠密词向量空间,根据语料库将各历史事件工单的对应的词转化为词向量。
根据各词向量生成对应的历史事件工单的词向量矩阵。
由每个历史事件工单的各词向量生成事件工单对应的词向量矩阵。
具体实施时,本地的各工单解决***中存储了处理完成的事件工单,记为历史事件工单。每个历史事件工单包括:概述文本及第一分类标签。其中概述文本用于表述各事件工单对应的具体问题或故障,词向量矩阵与各事件工单具有一一对应的关系,第一分类标签为事件工单被分派到对应的工单解决***后产生的数据,第一分类标签用于唯一标识对应的一个工单解决***。
S202:将历史事件工单划分为训练工单及验证工单。
具体实施时,将抽取的多个历史事件工单划分为两部分,一部分历史事件工单为训练工单,另一部分历史事件工单为验证工单。训练工单及验证工单均从历史事件工单随机选取,并且训练工单的个数及验证工单的个数基本相当即可,本发明不以此为限。
S203:将各训练工单对应的词向量矩阵作为一级卷积神经网络层的训练数据进行训练,得到各训练工单的第二分类标签。其中,第二分类标签用于标识二级卷积神经网络层。
具体实施时,各训练工单对应的词向量矩阵作作为训练数据,对一级卷积神经网络层进行训练,经过一级卷积神经网络层的训练后,为各训练工单输出一个第二分类标签。多个训练工单可以对应一个第二分类标签,每个第二分类标签均用于标识一个二级卷积神经网络层,如图3所示,步骤S203具体包括以下步骤:
S301:基于Kmeans算法计算每两个训练工单对应的词向量矩阵之间的距离。
基于Kmeans算法,其中Kmeans算法是输入聚类个数k,以及包含n个数据对象的数据库,输出满足方差最小标准k个聚类的一种算法。kmeans算法接受输入量k;然后将n个数据对象划分为k个聚类以便使得所获得的聚类满足:同一聚类中的对象相似度较高;而不同聚类中的对象相似度较小。聚类相似度是利用各聚类中对象的均值所获得一个“中心对象”(引力中心)来进行计算的。Kmeans算法计算过程如下:
(1)从n个数据对象任意选择k个对象作为初始聚类中心;
(2)根据每个聚类对象的均值(中心对象),计算每个对象与这些中心对象的距离;并根据最小距离重新对相应对象进行划分;
(3)重新计算每个(有变化)聚类的均值(中心对象);
(4)计算标准测度函数,当满足一定条件,如函数收敛时,则算法终止;如果条件不满足则回到步骤(2)。
为了确定第二分类标签的数量,本发明基于Kmeans算法使用以下公式(1)计算两个训练工单对应的词向量矩阵之间的距离,从而对训练工单进行聚类,词向量矩阵之间的距离越近则代表对应的两个训练工单的概述文本内容的相似度越高。本实施例中获取一个训练工单的词向量矩阵A,另一个训练工单的词向量矩阵B,其中A=(a[1],a[2],a[3],…,a[n]),B=(b[1],b[2],b[3],…,b[n]),n为正整数,a[1]、a[2]、a[3]、……、a[n]为词向量矩阵A的词向量,b[1]、b[2]、b[3]、……、b[n]为词向量矩阵B的词向量。
词向量矩阵A对应的训练工单与词向量矩阵B对应的训练工单之间的距离d(A,B)具体采用公式(1)进行计算:
S302:根据各词向量矩阵之间的距离,对各词向量矩阵对应的训练工单进行聚类。
具体实施时,基于Kmeans算法,根据各词向量矩阵之间的距离,对各词向量矩阵对应的训练工单进行聚类。
S303:将聚类后的各训练工单对应的词向量矩阵作为一级卷积神经网络层的训练数据进行训练,得到各训练工单的第二分类标签。
具体实施时,根据聚类后的各训练工单对应的词向量矩阵作为一级卷积神经网络层的训练数据,对一级卷积神经网络层进行训练,使属于同一类的训练工单分配相同的第二分类标签,最终一级卷积神经网络层输出各训练工单对应的第二分类标签。
S204:将各第二分类标签对应的训练工单的词向量矩阵及第一分类标签作为各第二分类标签标识的二级卷积神经网络层的训练数据进行训练,获得各二级卷积神经网络层的权重参数矩阵并输出各训练工单的第一分类标签。其中各第二分类标签对应的词向量矩阵和初始权重参数获得该样本所属第一分类标签的分值,并与第一分类标签的正确分类比较获得损失值,经多次迭代获得损失值最小的权重参数即各二级卷积神经网络层的权重参数矩阵。具体实施时,每个第二分类标签唯一对应一个联邦卷积神经网络模型的二级卷积神经网络层,多个训练工单可以对应一个第二分类标签。第二分类标签的个数为k个,其中m个训练工单均分配了第一个第二分类标签。将m个训练工单对应的词向量矩阵以及m个训练工单对应的第一分类标签,作为第一个第二分类标签对应的第一个二级卷积神经网络层的训练数据。通过对训练数据的训练,获得第一个二级卷积神经网络层的权重参数矩阵。其中每个训练工单对应的词向量矩阵与权重参数矩阵的积,均用于标识当前词向量矩阵对应的训练工单的第一分类标签。第一个第二分类标签对应的m个训练工单中可以有相同的第一分类标签。例如:第二分类标签为网络转账业务,对应二级卷积神经网络层为网络转账业务层,第二分类标签对应20个训练工单,将20个训练工单对应的20个词向量矩阵作为网络转账业务层的训练数据。其中10个训练工单的第一分类标签均为手机银行-工单解决***,2个训练工单的第一分类标签均为微信支付-工单解决***,3个训练工单的第一分类标签均为支付宝支付-工单解决***,5个训练工单的第一分类标签均为网上银行-工单解决***。通过训练20个训练工单对应的20个词向量矩阵及20个训练工单对应的第一分类标签,获得网络转账业务层的权重参数矩阵并输出20个训练工单对应的第一分类标签。其余各二级卷积神经网络层训练过程相同,本发明不以上述数据为限。
S205:根据各验证工单的第一分类标签,将各验证工单对应的词向量矩阵输入对应的二级卷积神经网络层,获得各二级卷积神经网络层的最优权重参数矩阵,并为各二级卷积神经网络层加载对应的最优权重参数矩阵。
具体实施时,验证工单与训练工单是从各工单解决***抽取的不相同的历史事件工单。根据各验证工单的第一分类标签,将各验证工单对应的词向量矩阵输入对应的二级卷积神经网络层,获得二级卷积神经网络层输出的各验证工单的第一分类标签准确率。
如果本次迭代的二级卷积神经网络层输出第一分类标签准确率的准确率达到预设的值,则本次迭代的二级卷积神经网络层采用的权重参数矩阵为最优权重参数矩阵,结束迭代并为各二级卷积神经网络层加载对应的最优权重参数矩阵。训练的迭代次数为预设参数,每次迭代后记录准确率,在迭代完成后保存准确率最高的那次权重参数作为最优参数矩阵,并作为各二级卷积神经网络层加载使用。
如果二级卷积神经网络层输出第一分类标签准确率的准确率未达到预设的值,则从步骤S201开始进行下次迭代计算,重新生成各二级卷积神经网络层对应的权重参数矩阵。
S206:根据接收的事件工单的概述文本生成事件工单对应的词向量矩阵。
如图4所示,步骤S206具体包括如下步骤:
S401:根据预先存储的词典,将接收的事件工单的概述文本进行分词。
首先对事件工单的概述文本做数据清洗,具体为事件工单的概述文本中的标点、特殊符号等,然后根据预先存储的词典对概述文本进行分词操作,将概述文本分解为中文最基本的元素——词。由于银行***事件内容的复杂性和专业性,在本发明中,分词采用了正向最大匹配原则,即词典中如果存在“交通银行”,则文本中的“交通银行”会作为一个词,而不是“交通”和“银行”两个词。为了最大程度保证分词的准确性,在进行分词时在默认词典基础上添加了银行业专业词汇作为补充。
S402:根据预先存储的语料库,将事件工单的各词转化为对应的词向量。
语料库为包含大量中文词的库,并且利用word2vec将语料库的各词汇转化为一个稠密词向量空间,根据语料库将事件工单的各词转化为词向量。
S403:根据各词向量生成事件工单对应的词向量矩阵。
由事件工单的各词向量生成事件工单对应的词向量矩阵。
S207:将词向量矩阵输入到基于历史事件工单训练得到的神经网络模型,确定事件工单对应的工单解决***。其中,神经网络模型包括:一级卷积神经网络层及二级卷积神经网络层。
具体实施时,首先将词向量矩阵输入一级卷积神经网络层,生成事件工单的第二分类标签。
然后将事件工单输入其第二分类标签对应的二级卷积神经网络层,确定事件工单对应的工单解决***。
S208:将事件工单派发到确定的工单解决***。
本发明利用深度学习技术将现有技术中的人工派单替换为通过神经网络模型进行智能派单的方案,减少了事件工单处理工作中的人力成本投入,降低企业运营成本,同时显著提升了派单准确率,降低了整个事件工单解决时间,有效地提升了客户满意度。
基于与上述基于深度学习的银行工单派单方法相同的申请构思,本发明还提供了一种基于深度学习的银行工单派单***,如下面实施例所述。由于该基于深度学习的银行工单派单***解决问题的原理与基于深度学习的银行工单派单方法相似,因此该***的实施可以参见基于深度学习的银行工单派单方法的实施,重复之处不再赘述。
图5为本申请实施例的基于深度学习的银行工单派单***的结构示意图,如图5所示,该基于深度学习的银行工单派单***包括:词向量矩阵生成单元101、工单解决***确定单元102及工单解决***派发单元103。
词向量矩阵生成单元101,用于根据接收的事件工单的概述文本生成事件工单对应的词向量矩阵;
工单解决***确定单元102,用于将词向量矩阵输入到基于历史事件工单训练得到的神经网络模型,确定事件工单对应的工单解决***;神经网络模型包括:一级卷积神经网络层及二级卷积神经网络层;
工单解决***派发单元103,用于将事件工单派发到确定的工单解决***。
在一个实施例中,如图6所示,词向量矩阵生成单元101包括:分词模块201、词向量生成模块202及词向量矩阵生成单元203。
分词模块201,用于根据预先存储的词典,将接收的事件工单的概述文本进行分词;
词向量生成模块202,用于根据预先存储的语料库,将事件工单的各词转化为对应的词向量;
词向量矩阵生成单元203,用于根据各词向量生成事件工单对应的词向量矩阵。
在一个实施例中,如图7所示,该基于深度学习的银行工单派单***还包括:历史事件工单获取模块104、历史事件工单划分单元105、一级卷积神经网络层训练单元106、二级卷积神经网络层训练单元107及权重参数矩阵加载单元108。
历史事件工单获取模块104,用于从各工单解决***抽取多个历史事件工单;历史事件工单包括:概述文本、词向量矩阵及第一分类标签;第一分类标签用于标识对应的工单解决***;
历史事件工单划分单元105,用于将历史事件工单划分为训练工单及验证工单;
一级卷积神经网络层训练单元106,用于将各训练工单对应的词向量矩阵作为一级卷积神经网络层的训练数据进行训练,得到各训练工单的第二分类标签;第二分类标签用于标识二级卷积神经网络层;
二级卷积神经网络层训练单元107,用于将各第二分类标签对应的训练工单的词向量矩阵及第一分类标签作为各第二分类标签标识的二级卷积神经网络层的训练数据进行训练,获得各二级卷积神经网络层的权重参数矩阵并输出各训练工单的第一分类标签;词向量矩阵与权重参数矩阵的积用于标识词向量矩阵对应的训练工单的第一分类标签;
权重参数矩阵加载单元108,用于根据各验证工单的第一分类标签,将各验证工单对应的词向量矩阵输入对应的二级卷积神经网络层,获得各二级卷积神经网络层的最优权重参数矩阵,并为各二级卷积神经网络层加载对应的最优权重参数矩阵。
在一个实施例中,如图8所示,一级卷积神经网络层训练单元106包括:距离计算模块301、聚类模块302及第二分类标签生成模块303。
距离计算模块301,用于基于Kmeans算法计算每两个训练工单对应的词向量矩阵之间的距离;
聚类模块302,用于根据各词向量矩阵之间的距离,对各词向量矩阵对应的训练工单进行聚类;
第二分类标签生成模块303,用于将聚类后的各训练工单对应的词向量矩阵作为一级卷积神经网络层的训练数据进行训练,得到各训练工单的第二分类标签。
在一个实施例中,如图9所示,距离计算模块301包括:获取词向量子模块401、词向量距离生成子模块402及词向量矩阵距离生成子模块403。
获取词向量子模块401,用于获取任意两个训练工单对应的词向量矩阵的各词向量;
词向量距离生成子模块402,用于根据一词向量矩阵的各词向量与另一词向量矩阵的对应位置的词向量的差值的平方,获得各词向量的距离;
词向量矩阵距离生成子模块403,用于将各词向量的距离求和,生成两个训练工单对应的词向量矩阵之间的距离。
在一个实施例中,如图10所示,工单解决***确定单元102包括:第二分类标签生成模块501及工单解决***确定模块502。
第二分类标签生成模块501,用于将词向量矩阵输入一级卷积神经网络层,生成事件工单的第二分类标签;
工单解决***确定模块502,用于将事件工单输入事件工单的第二分类标签对应的二级卷积神经网络层,确定事件工单对应的工单解决***。
基于与上述基于深度学习的银行工单派单方法相同的申请构思,本申请提供一种计算机设备,如下面实施例所述。由于该计算机设备解决问题的原理与基于深度学习的银行工单派单方法相似,因此该计算机设备的实施可以参见基于深度学习的银行工单派单方法的实施,重复之处不再赘述。
在一个实施例中,计算机设备包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,如图1所示,所述处理器执行所述计算机程序时实现以下步骤:
S101:根据接收的事件工单的概述文本生成事件工单对应的词向量矩阵。
S102:将词向量矩阵输入到基于历史事件工单训练得到的神经网络模型,确定事件工单对应的工单解决***。其中,神经网络模型包括:一级卷积神经网络层及二级卷积神经网络层。
S103:将事件工单派发到确定的工单解决***。
基于与上述基于深度学习的银行工单派单方法相同的申请构思,本申请提供一种计算机可读存储介质,如下面实施例所述。由于该计算机可读存储介质解决问题的原理与基于深度学习的银行工单派单方法相似,因此该计算机可读存储介质的实施可以参见基于深度学习的银行工单派单方法的实施,重复之处不再赘述。
在一个实施例中,计算机可读存储介质上存储有计算机程序,如图1所示,该计算机程序被处理器执行时实现以下步骤:
S101:根据接收的事件工单的概述文本生成事件工单对应的词向量矩阵。
S102:将词向量矩阵输入到基于历史事件工单训练得到的神经网络模型,确定事件工单对应的工单解决***。其中,神经网络模型包括:一级卷积神经网络层及二级卷积神经网络层。
S103:将事件工单派发到确定的工单解决***。
本发明提供的基于深度学习的银行工单派单方法及***,包括:根据接收的事件工单的概述文本生成事件工单对应的词向量矩阵;将词向量矩阵输入到基于历史事件工单训练得到的神经网络模型,确定事件工单对应的工单解决***;神经网络模型包括:一级卷积神经网络层及二级卷积神经网络层;将事件工单派发到确定的工单解决***。本发明采用基于深度学习的智能分派工单的技术方案,具有提高派单准确率、工单处理效率,节省人力成本及事件工单解决时间的技术效果,有效地提升了客户满意度。
本领域内的技术人员应明白,本发明的实施例可提供为方法、***、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明中应用了具体实施例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (14)
1.一种基于深度学习的银行工单派单方法,其特征在于,包括:
根据接收的事件工单的概述文本生成所述事件工单对应的词向量矩阵;
将所述词向量矩阵输入到基于历史事件工单训练得到的神经网络模型,确定所述事件工单对应的工单解决***;所述神经网络模型包括:一级卷积神经网络层及二级卷积神经网络层;
将所述事件工单派发到确定的所述工单解决***。
2.根据权利要求1所述的基于深度学习的银行工单派单方法,其特征在于,所述根据接收的事件工单的概述文本生成所述事件工单对应的词向量矩阵,包括:
根据预先存储的词典,将接收的所述事件工单的概述文本进行分词;
根据预先存储的语料库,将所述事件工单的各词转化为对应的词向量;
根据各所述词向量生成所述事件工单对应的词向量矩阵。
3.根据权利要求2所述的基于深度学习的银行工单派单方法,其特征在于,还包括:
根据从各工单解决***抽取的各历史事件工单的概述文本生成对应的词向量矩阵;所述历史事件工单包括:概述文本及第一分类标签;所述第一分类标签用于标识对应的工单解决***;
将所述历史事件工单划分为训练工单及验证工单;
将各所述训练工单对应的词向量矩阵作为所述一级卷积神经网络层的训练数据进行训练,得到各所述训练工单的第二分类标签;所述第二分类标签用于标识所述二级卷积神经网络层;
将各所述第二分类标签对应的训练工单的词向量矩阵及第一分类标签作为各所述第二分类标签标识的二级卷积神经网络层的训练数据进行训练,获得各所述二级卷积神经网络层的权重参数矩阵并输出各所述训练工单的第一分类标签;所述词向量矩阵与所述权重参数矩阵的积用于标识所述词向量矩阵对应的训练工单的第一分类标签;
根据各所述验证工单的第一分类标签,将各所述验证工单对应的词向量矩阵输入对应的二级卷积神经网络层,获得各所述二级卷积神经网络层的最优权重参数矩阵,并为各所述二级卷积神经网络层加载对应的最优权重参数矩阵。
4.根据权利要求3所述的基于深度学习的银行工单派单方法,其特征在于,所述将各所述历史事件训练工单对应的词向量矩阵作为所述一级卷积神经网络层的训练数据进行训练,得到各所述训练工单历史事件工单的第二分类标签,包括:
基于Kmeans算法计算每两个所述训练工单对应的词向量矩阵之间的距离;
根据各所述词向量矩阵之间的距离,对各所述词向量矩阵对应的训练工单进行聚类;
将聚类后的各所述训练工单对应的词向量矩阵作为所述一级卷积神经网络层的训练数据进行训练,得到各所述训练工单的第二分类标签。
5.根据权利要求2所述的基于深度学习的银行工单派单方法,其特征在于,将接收的所述事件工单的概述文本进行分词时,采用正向最大匹配原则。
6.根据权利要求3所述的基于深度学习的银行工单派单方法,其特征在于,所述将所述词向量矩阵输入到基于历史事件工单训练得到的神经网络模型,确定所述事件工单对应的工单解决***,包括:
将所述词向量矩阵输入所述一级卷积神经网络层,生成所述事件工单的第二分类标签;
将所述事件工单输入所述事件工单的第二分类标签对应的二级卷积神经网络层,确定所述事件工单对应的工单解决***。
7.一种基于深度学习的银行工单派单***,其特征在于,包括:
词向量矩阵生成单元,用于根据接收的事件工单的概述文本生成所述事件工单对应的词向量矩阵;
工单解决***确定单元,用于将所述词向量矩阵输入到基于历史事件工单训练得到的神经网络模型,确定所述事件工单对应的工单解决***;所述神经网络模型包括:一级卷积神经网络层及二级卷积神经网络层;
工单解决***派发单元,用于将所述事件工单派发到确定的所述工单解决***。
8.根据权利要求7所述的基于深度学习的银行工单派单***,其特征在于,所述词向量矩阵生成单元包括:
分词模块,用于根据预先存储的词典,将接收的所述事件工单的概述文本进行分词;
词向量生成模块,用于根据预先存储的语料库,将所述事件工单的各词转化为对应的词向量;
词向量矩阵生成单元,用于根据各所述词向量生成所述事件工单对应的词向量矩阵。
9.根据权利要求8所述的基于深度学习的银行工单派单***,其特征在于,还包括:
历史事件工单获取模块,用于根据从各工单解决***抽取的各历史事件工单的概述文本生成对应的词向量矩阵;所述历史事件工单包括:概述文本及第一分类标签;所述第一分类标签用于标识对应的工单解决***;历史事件工单的词向量矩阵生成单元,用于根据各所述概述文本生成对应的词向量矩阵;
历史事件工单划分单元,用于将所述历史事件工单划分为训练工单及验证工单;
一级卷积神经网络层训练单元,用于将各所述训练工单对应的词向量矩阵作为所述一级卷积神经网络层的训练数据进行训练,得到各所述训练工单的第二分类标签;所述第二分类标签用于标识所述二级卷积神经网络层;
二级卷积神经网络层训练单元,用于将各所述第二分类标签对应的训练工单的词向量矩阵及第一分类标签作为各所述第二分类标签标识的二级卷积神经网络层的训练数据进行训练,获得各所述二级卷积神经网络层的权重参数矩阵并输出各所述训练工单的第一分类标签;所述词向量矩阵与所述权重参数矩阵的积用于标识所述词向量矩阵对应的训练工单的第一分类标签;
权重参数矩阵加载单元,用于根据各所述验证工单的第一分类标签,将各所述验证工单对应的词向量矩阵输入对应的二级卷积神经网络层,获得各所述二级卷积神经网络层的最优权重参数矩阵,并为各所述二级卷积神经网络层加载对应的最优权重参数矩阵。
10.根据权利要求9所述的基于深度学习的银行工单派单***,其特征在于,所述一级卷积神经网络层训练单元包括:
距离计算模块,用于基于Kmeans算法计算每两个所述训练工单对应的词向量矩阵之间的距离;
聚类模块,用于根据各所述词向量矩阵之间的距离,对各所述词向量矩阵对应的训练工单进行聚类;
第二分类标签生成模块,用于将聚类后的各所述训练工单对应的词向量矩阵作为所述一级卷积神经网络层的训练数据进行训练,得到各所述训练工单的第二分类标签。
11.根据权利要求10所述的基于深度学习的银行工单派单***,其特征在于,所述距离计算模块包括:
获取词向量子模块,用于获取任意两个所述训练工单对应的词向量矩阵的各词向量;
词向量距离生成子模块,用于根据一所述词向量矩阵的各词向量与另一所述词向量矩阵的对应位置的词向量的差值的平方,获得各词向量的距离;
词向量矩阵距离生成子模块,用于将各所述词向量的距离求和,生成所述两个训练工单对应的词向量矩阵之间的距离。
12.根据权利要求9所述的基于深度学习的银行工单派单***,其特征在于,所述工单解决***确定单元包括:
第二分类标签生成模块,用于将所述词向量矩阵输入所述一级卷积神经网络层,生成所述事件工单的第二分类标签;
工单解决***确定模块,用于将所述事件工单输入所述事件工单的第二分类标签对应的二级卷积神经网络层,确定所述事件工单对应的工单解决***。
13.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现以下步骤:
根据接收的事件工单的概述文本生成所述事件工单对应的词向量矩阵;
将所述词向量矩阵输入到基于历史事件工单训练得到的神经网络模型,确定所述事件工单对应的工单解决***;所述神经网络模型包括:一级卷积神经网络层及二级卷积神经网络层;
将所述事件工单派发到确定的所述工单解决***。
14.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现以下步骤:
根据接收的事件工单的概述文本生成所述事件工单对应的词向量矩阵;
将所述词向量矩阵输入到基于历史事件工单训练得到的神经网络模型,确定所述事件工单对应的工单解决***;所述神经网络模型包括:一级卷积神经网络层及二级卷积神经网络层;
将所述事件工单派发到确定的所述工单解决***。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810755334.8A CN109102157A (zh) | 2018-07-11 | 2018-07-11 | 一种基于深度学习的银行工单派单方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810755334.8A CN109102157A (zh) | 2018-07-11 | 2018-07-11 | 一种基于深度学习的银行工单派单方法及*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109102157A true CN109102157A (zh) | 2018-12-28 |
Family
ID=64845862
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810755334.8A Pending CN109102157A (zh) | 2018-07-11 | 2018-07-11 | 一种基于深度学习的银行工单派单方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109102157A (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109871702A (zh) * | 2019-02-18 | 2019-06-11 | 深圳前海微众银行股份有限公司 | 联邦模型训练方法、***、设备及计算机可读存储介质 |
CN110442692A (zh) * | 2019-07-25 | 2019-11-12 | 阿里巴巴集团控股有限公司 | 一种用于问题派单及其训练的方法和装置 |
CN111191529A (zh) * | 2019-12-17 | 2020-05-22 | 中移(杭州)信息技术有限公司 | 一种处理异常工单的方法及*** |
CN111242196A (zh) * | 2020-01-06 | 2020-06-05 | 广西师范大学 | 可解释性深度学习的差分隐私保护方法 |
CN111507682A (zh) * | 2020-04-03 | 2020-08-07 | 北京市天元网络技术股份有限公司 | 工单处理方法及装置 |
CN111881296A (zh) * | 2020-07-31 | 2020-11-03 | 深圳市万物云科技有限公司 | 一种基于社区场景的工单处理方法及相关组件 |
CN112561403A (zh) * | 2021-01-18 | 2021-03-26 | 杭银消费金融股份有限公司 | 业务工单处理方法及*** |
CN113191509A (zh) * | 2021-05-27 | 2021-07-30 | 广州广电运通智能科技有限公司 | 基于维修人员画像的智能派单方法、设备、介质及产品 |
CN113298145A (zh) * | 2021-05-24 | 2021-08-24 | 中国邮政储蓄银行股份有限公司 | 标签填充方法及装置 |
CN114118817A (zh) * | 2021-11-30 | 2022-03-01 | 济南农村商业银行股份有限公司 | 一种银行阳光办贷贷款审查派单方法、装置和*** |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103488662A (zh) * | 2013-04-01 | 2014-01-01 | 哈尔滨工业大学深圳研究生院 | 基于图形处理单元的自组织映射神经网络聚类方法及*** |
CN104850946A (zh) * | 2015-05-06 | 2015-08-19 | 智慧城市信息技术有限公司 | 紧急事件分发方法、装置及*** |
CN105118013A (zh) * | 2015-07-29 | 2015-12-02 | 北京嘀嘀无限科技发展有限公司 | 一种订单的分配方法及装置 |
US20170169329A1 (en) * | 2015-12-15 | 2017-06-15 | Kabushiki Kaisha Toshiba | Server, system and search method |
CN106875264A (zh) * | 2017-03-31 | 2017-06-20 | 北京京东尚科信息技术有限公司 | 订单信息管理方法、装置和订单分拣*** |
CN107346344A (zh) * | 2017-07-24 | 2017-11-14 | 北京京东尚科信息技术有限公司 | 文本匹配的方法和装置 |
CN107767206A (zh) * | 2016-08-23 | 2018-03-06 | 北京嘀嘀无限科技发展有限公司 | 订单分配方法及装置 |
CN108009284A (zh) * | 2017-12-22 | 2018-05-08 | 重庆邮电大学 | 采用半监督卷积神经网络的法律文本分类方法 |
-
2018
- 2018-07-11 CN CN201810755334.8A patent/CN109102157A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103488662A (zh) * | 2013-04-01 | 2014-01-01 | 哈尔滨工业大学深圳研究生院 | 基于图形处理单元的自组织映射神经网络聚类方法及*** |
CN104850946A (zh) * | 2015-05-06 | 2015-08-19 | 智慧城市信息技术有限公司 | 紧急事件分发方法、装置及*** |
CN105118013A (zh) * | 2015-07-29 | 2015-12-02 | 北京嘀嘀无限科技发展有限公司 | 一种订单的分配方法及装置 |
US20170169329A1 (en) * | 2015-12-15 | 2017-06-15 | Kabushiki Kaisha Toshiba | Server, system and search method |
CN107767206A (zh) * | 2016-08-23 | 2018-03-06 | 北京嘀嘀无限科技发展有限公司 | 订单分配方法及装置 |
CN106875264A (zh) * | 2017-03-31 | 2017-06-20 | 北京京东尚科信息技术有限公司 | 订单信息管理方法、装置和订单分拣*** |
CN107346344A (zh) * | 2017-07-24 | 2017-11-14 | 北京京东尚科信息技术有限公司 | 文本匹配的方法和装置 |
CN108009284A (zh) * | 2017-12-22 | 2018-05-08 | 重庆邮电大学 | 采用半监督卷积神经网络的法律文本分类方法 |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109871702A (zh) * | 2019-02-18 | 2019-06-11 | 深圳前海微众银行股份有限公司 | 联邦模型训练方法、***、设备及计算机可读存储介质 |
CN110442692A (zh) * | 2019-07-25 | 2019-11-12 | 阿里巴巴集团控股有限公司 | 一种用于问题派单及其训练的方法和装置 |
CN111191529A (zh) * | 2019-12-17 | 2020-05-22 | 中移(杭州)信息技术有限公司 | 一种处理异常工单的方法及*** |
CN111191529B (zh) * | 2019-12-17 | 2023-04-28 | 中移(杭州)信息技术有限公司 | 一种处理异常工单的方法及*** |
CN111242196A (zh) * | 2020-01-06 | 2020-06-05 | 广西师范大学 | 可解释性深度学习的差分隐私保护方法 |
CN111242196B (zh) * | 2020-01-06 | 2022-06-21 | 广西师范大学 | 可解释性深度学习的差分隐私保护方法 |
CN111507682A (zh) * | 2020-04-03 | 2020-08-07 | 北京市天元网络技术股份有限公司 | 工单处理方法及装置 |
CN111881296A (zh) * | 2020-07-31 | 2020-11-03 | 深圳市万物云科技有限公司 | 一种基于社区场景的工单处理方法及相关组件 |
CN112561403A (zh) * | 2021-01-18 | 2021-03-26 | 杭银消费金融股份有限公司 | 业务工单处理方法及*** |
CN113298145A (zh) * | 2021-05-24 | 2021-08-24 | 中国邮政储蓄银行股份有限公司 | 标签填充方法及装置 |
CN113191509A (zh) * | 2021-05-27 | 2021-07-30 | 广州广电运通智能科技有限公司 | 基于维修人员画像的智能派单方法、设备、介质及产品 |
CN114118817A (zh) * | 2021-11-30 | 2022-03-01 | 济南农村商业银行股份有限公司 | 一种银行阳光办贷贷款审查派单方法、装置和*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109102157A (zh) | 一种基于深度学习的银行工单派单方法及*** | |
CN108470022B (zh) | 一种基于运维管理的智能工单质检方法 | |
CN109033497B (zh) | 一种面向高并发的多阶段数据挖掘算法智能选择方法 | |
CN106570778A (zh) | 一种基于大数据的数据集成与线损分析计算的方法 | |
CN109598517B (zh) | 商品通关处理、对象的处理及其类别预测方法和装置 | |
CN113312447A (zh) | 基于概率标签估计的半监督日志异常检测方法 | |
CN113837308B (zh) | 基于知识蒸馏的模型训练方法、装置、电子设备 | |
CN115547466B (zh) | 基于大数据的医疗机构登记评审***及其方法 | |
CN113706291A (zh) | 欺诈风险预测方法、装置、设备及存储介质 | |
CN111695979A (zh) | 一种原材料与成品的关系分析方法、装置及设备 | |
CN115330435A (zh) | 一种碳排放权价格指标体系建立方法、装置、设备及介质 | |
CN113628043B (zh) | 基于数据分类的投诉有效性判断方法、装置、设备及介质 | |
CN110287495A (zh) | 一种电力营销专业词识别方法及*** | |
CN111930944B (zh) | 文件标签分类方法及装置 | |
CN109583773A (zh) | 一种纳税信用积分确定的方法、***及相关装置 | |
CN111209955A (zh) | 基于深度神经网络和随机森林的飞机电源***故障识别方法 | |
CN116611911A (zh) | 基于支持向量机的信用风险预测方法及装置 | |
CN114372835B (zh) | 综合能源服务潜力客户识别方法、***及计算机设备 | |
CN114912854A (zh) | 地铁列车运行调整方法、装置、电子设备及存储介质 | |
Wang et al. | A knowledge discovery case study of software quality prediction: Isbsg database | |
CN114387005A (zh) | 一种基于图分类的套利团伙识别方法 | |
CN109919811B (zh) | 基于大数据的保险代理人培养方案生成方法及相关设备 | |
CN111652102A (zh) | 一种输电通道目标物辨识方法及*** | |
CN108520042B (zh) | 实现经侦工作中嫌疑人涉案角色标定和角色评估的***及方法 | |
CN112541042B (zh) | 一种千万数量级下轻量级的社交网络的生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20181228 |