CN111552789A - 一种客服知识库自学习方法及装置 - Google Patents
一种客服知识库自学习方法及装置 Download PDFInfo
- Publication number
- CN111552789A CN111552789A CN202010343622.XA CN202010343622A CN111552789A CN 111552789 A CN111552789 A CN 111552789A CN 202010343622 A CN202010343622 A CN 202010343622A CN 111552789 A CN111552789 A CN 111552789A
- Authority
- CN
- China
- Prior art keywords
- blind spot
- knowledge
- neural network
- network model
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000003062 neural network model Methods 0.000 claims abstract description 97
- 230000001502 supplementing effect Effects 0.000 claims abstract description 18
- 238000012549 training Methods 0.000 claims description 22
- 239000002245 particle Substances 0.000 claims description 11
- 238000004422 calculation algorithm Methods 0.000 claims description 10
- 239000000047 product Substances 0.000 claims description 10
- 239000013589 supplement Substances 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000000151 deposition Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 229910052709 silver Inorganic materials 0.000 description 1
- 239000004332 silver Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/355—Class or cluster creation or modification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/01—Customer relationship services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q40/00—Finance; Insurance; Tax strategies; Processing of corporate or income taxes
- G06Q40/02—Banking, e.g. interest calculation or account maintenance
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Business, Economics & Management (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Finance (AREA)
- Accounting & Taxation (AREA)
- Marketing (AREA)
- Strategic Management (AREA)
- Databases & Information Systems (AREA)
- General Business, Economics & Management (AREA)
- Economics (AREA)
- Development Economics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Technology Law (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开了一种客服知识库自学习方法及装置,所述方法包括:获取盲点知识;将所述盲点知识输入到预先建立的多层前馈神经网络模型中,获得所述盲点知识对应的至少一个问题集合;在所述客服知识库中分别查找所述问题集合对应的各个答案数据;计算所述各个答案数据与所述盲点知识的文本相似度,将最高的文本相似度对应的答案数据作为所述盲点知识对应的答案数据;将所述盲点知识与所述盲点知识对应的答案数据均补充至所述客服知识库中。通过不断的获取盲点知识与盲点知识对应的答案数据,然后将其均补充到客服知识库中,实现寻找盲点知识对应的客服知识库的自学习。
Description
技术领域
本发明涉及数据处理技术领域,尤其是涉及一种客服知识库自学习方法及装置。
背景技术
客服知识库是存储客服知识的数据库。例如,银行业中的客服知识库包括常见问题解答知识、网点知识、理财知识、坐席常用知识等。银行业的客服知识库用于解答客户问题和为银行机器人提供数据支撑。
在日常使用中,经常会出现客户提出一个问题,然后收到“对不起,该问题暂时没有答案”的回答。这些只有问题没有答案的知识被称为盲点知识,盲点知识是客服知识库中遗漏掉的知识。
现有技术中,通过人工寻找盲点知识的答案并将其补充到客服知识库中,工作量较大且时间花费较多。
发明内容
针对上述问题,本申请提供一种客服知识库自学习方法及装置,用于把盲点知识及其答案自动补充到知识库中。
在本申请第一方面提供一种客服知识库自学习方法,所述客服知识库包括问题数据以及与所述问题数据对应的答案数据,所述方法包括:
获取盲点知识;其中,所述盲点知识为无效答案数据对应的问题数据;
将所述盲点知识输入到预先建立的多层前馈神经网络模型中,获得所述盲点知识对应的至少一个问题集合;
在所述客服知识库中分别查找所述问题集合对应的各个答案数据;
计算所述各个答案数据与所述盲点知识的文本相似度,将最高的文本相似度对应的答案数据作为所述盲点知识对应的答案数据;
将所述盲点知识与所述盲点知识对应的答案数据均补充至所述客服知识库中。
可选的,所述将所述盲点知识输入到预先建立的多层前馈神经网络模型中,获得所述盲点知识对应的至少一个问题集合,具体包括:
将所述盲点知识输入到预先建立的多层前馈神经网络模型中,利用粒子群算法调节所述多层前馈神经网络模型的正则化参数和所述多层前馈神经网络模型的迭代次数,获得所述盲点知识对应的至少一个问题集合。
可选的,预先建立所述多层前馈神经网络模型,具体包括:
将历史盲点数据和所述历史盲点数据的属性标签数据输入至所述多层前馈神经网络模型进行训练,得到所述多层前馈神经网络模型;
其中,所述历史盲点数据的属性标签数据包括知识场景、知识标题、提问时间、产品标签、客户标签和渠道标签中的一种或多种。
可选的,所述将历史盲点数据和所述历史盲点数据的属性标签数据输入至所述多层前馈神经网络模型进行训练,得到所述多层前馈神经网络模型,具体包括:
将所述历史盲点数据输入到所述多层前馈神经网络模型中,获得所述历史盲点数据对应的至少一个预测问题集合;
基于所述预测问题集合、所述历史盲点数据的属性标签数据与所述多层前馈神经网络模型的损失函数训练调整所述多层前馈神经网络模型的参数,获得所述预先建立的多层前馈神经网络模型。
可选的,所述在所述客服知识库中分别查找所述问题集合对应的各个答案数据,包括:
通过句法逻辑将所述客服知识库分层;
在分层后的客服知识库中查找所述问题集合对应的各个答案数据。
在本申请第二方面提供一种客服知识库自学习装置,所述客服知识库包括问题数据以及与所述问题数据对应的答案数据,所述装置包括:
获取单元、神经网络模型单元、查找单元、计算单元和补充单元;
所述获取单元,用于获取盲点知识;其中,所述盲点知识为无效答案数据对应的问题数据;
所述神经网络模型单元,用于将所述盲点知识输入到预先建立的多层前馈神经网络模型中,获得所述盲点知识对应的至少一个问题集合;
所述查找单元,用于在所述客服知识库中分别查找所述问题集合对应的各个答案数据;
所述计算单元,用于计算所述各个答案数据与所述盲点知识的文本相似度,将最高的文本相似度对应的答案数据作为所述盲点知识对应的答案数据;
所述补充单元,用于将所述盲点知识与所述盲点知识对应的答案数据均补充至所述客服知识库中。
可选的,所述神经网络模型单元具体用于将所述盲点知识输入到预先建立的多层前馈神经网络模型中,利用粒子群算法调节所述多层前馈神经网络模型的正则化参数和所述多层前馈神经网络模型的迭代次数,获得所述盲点知识对应的至少一个问题集合。
可选的,所述神经网络模型单元包括训练单元,具体用于将历史盲点数据和所述历史盲点数据的属性标签数据输入至所述多层前馈神经网络模型进行训练,得到所述多层前馈神经网络模型;
其中,所述历史盲点数据的属性标签数据包括知识场景、知识标题、提问时间、产品标签、客户标签和渠道标签中的一种或多种。
可选的,所述训练单元具体用于将所述历史盲点数据输入到所述多层前馈神经网络模型中,获得所述历史盲点数据对应的至少一个预测问题集合;
基于所述预测问题集合、所述历史盲点数据的属性标签数据与所述多层前馈神经网络模型的损失函数训练调整所述多层前馈神经网络模型的参数,获得所述预先建立的多层前馈神经网络模型。
可选的,所述查找单元具体用于通过句法逻辑将所述客服知识库分层;在分层后的客服知识库中查找所述问题集合对应的各个答案数据相对于现有技术,本申请上述技术方案的优点在于:
在本申请实施例中,首先,获得盲点知识后,可以通过预先建立的多层前馈神经网络模型,获得盲点知识在客服知识库中对应的问题集合,寻找盲点知识对应的客服知识类型属于一对多分类问题,预先建立的多层前馈神经网络能够逼近任何非线性函数,能够较快将盲点知识进行分类,寻找盲点知识对应的问题集合;然后,计算问题集合对应的各个答案数据与盲点知识的文本相似度,将最高的文本相似度对应的答案数据作为盲点知识的答案数据,可以获得更加准确的盲点知识的答案数据;最后,将盲点知识与盲点知识对应的答案数据均补充到客服知识库中,实现更新完善客服知识库中的数据,通过不断的获取盲点知识与盲点知识对应的答案数据,然后将其均补充到客服知识库中,实现客服知识库的自学习。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为本申请提供的一种客服知识库自学习方法的流程图;
图2为本申请提供的一种客服知识库自学习装置的示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在很多行业的客服务场景下,以银行行业为例,例如可以有银行APP中自动回答用户问题的客服机器人、通过电话回答用户问题的客服服人员、银行大厅中回答用户问题的客服机器人等客服务场景,在这些场景中,客服通过查询客服知识库回答用户的问题。但是经常会出现用户在提出一个问题后,经常后收到类似于“对不起,我不知道”等没有实质答案的无效答案。无效答案对应的问题被称为盲点知识,盲点知识是可能不常用的冷门知识或者新增的问题却没有添加到客服知识库中。
目前,在收集到盲点知识后,再通过人工寻找答案并将其补充至客服知识库中,工作量大且耗时长。
为了解决这一问题,在本申请实施例中,首先,获得盲点知识后,可以通过预先建立的多层前馈神经网络模型,获得盲点知识在客服知识库中对应的问题集合,寻找盲点知识对应的客服知识类型属于一对多分类问题,预先建立的多层前馈神经网络模型能够逼近任何非线性函数,能够较快将盲点知识进行分类,寻找盲点知识对应的问题集合;然后,计算问题集合对应的各个答案数据与盲点知识的文本相似度,将最高的文本相似度对应的答案数据作为盲点知识的答案数据,可以获得更加准确的盲点知识的答案数据;最后,将盲点知识与盲点知识对应的答案数据均补充到客服知识库中,实现更新完善客服知识库中的数据,通过不断的获取盲点知识与盲点知识对应的答案数据,然后将其均补充到客服知识库中,实现客服知识库的自学习。
参见图1,示出了本申请实施例中一种客服知识库自学习方法的流程示意图。在本实施例中,所述方法例如可以包括以下步骤:
S101:获取盲点知识;其中,所述盲点知识为无效答案数据对应的问题数据。
为客服知识库更加完善,应先获取盲点知识为数据分析提供基础。盲点知识的获取方式有多种,本申请不限定盲点知识的获取方式,例如可以在日志中获取盲点知识,或者通过上报渠道获取盲点知识,还可以通过定时脚本自动收集盲点知识。
以在日志中获取盲点知识为例,通过固定话术“对不起,我不知道”或预设的关键词“无法”等方式在日志中寻找无效答案数据,并将无效答案数据对应的问题数据作为盲点知识进行收集。
S102:将所述盲点知识输入到预先建立的多层前馈神经网络模型中,获得所述盲点知识对应的至少一个问题集合。
需要说明的是,由于客服知识属于非常繁杂的业务场景,例如银行的客服知识库,虽然可以将其按照例如“产品”、“分行”、“客户类型”、“渠道”等进行分类,但是在“产品”类别下还具有成千上万个问题。例如“富登通知存款”、“富登定活两便”、“富登整存整取”、“富登零存整取”、“富等大额存单”等等。
而本申请实施例根据上述场景的特点,即一个问题可能在客服知识库中对应多个问题,预先建立了多层前馈神经网络模型。该神经网络模型具有强大的非线性映射能力,能够实现一个从输入到输出的映射功能,以任意精度逼近任何非线性连续函数。这个特点使得多层前馈神经网络模型模型适合于求解内部机制复杂、分类多样的问题。
将获得的盲点知识输入到预先建立的多层前馈神经网络模型中,可以获得该盲点知识在客服知识库中对应的问题集合。该问题集合可以是一个,也可以是多个。
例如,盲点知识为“我想办一个中国银行X主题的Visa***,我需要什么材料?”,将该盲点知识输入到预先建立的多层前馈神经网络模型中,会获得一个关于“X主题***”的问题集合。该问题集合对应于客服知识库中的“产品”下X主题中关于***的多个问题。同理还可以获得“产品”和“分行”分别对应的两个问题集合,在此不再一一举例。
在一种可能实现的方式中,用户提出一个问题需要在短时间内对该问题进行回答,这就需要快速的响应用户,提高对问题答案的查找速度。又由于客服知识库是一个非常庞大的数据库,遍历查找起来会使用户的等待时间较长,从而导致用户的体验感差。所以,可以通过粒子群算法对预先建立的多层前馈神经网络模型进行参数调节。
采用较小惯性因子与随机权重的原则,其中较小惯性因子有利于对当前的搜索区域进行精确局部搜索,加速算法收敛,随机的选择权重,使得微粒历史速度对当前速度的影响是随机的,以实现利用粒子群算法快速调节多层前馈神经网络模型的正则化参数与迭代次数。
具体的,可以将所述盲点知识输入到预先建立的多层前馈神经网络模型中,利用粒子群算法调节所述多层前馈神经网络模型的正则化参数和所述多层前馈神经网络模型的迭代次数,获得所述盲点知识对应的至少一个问题集合。
通过采用粒子群算法可以提高搜索速度和搜索效率、且粒子群算法简单,非常适合高响应低延迟的客服服务领域。
具体应用中,多层前馈神经网络模型的训练过程实际上是指在获取历史盲点数据以及对应的属性标签数据的基础上,将历史盲点数据和所述历史盲点数据的属性标签数据输入至所述多层前馈神经网络模型进行训练,不断迭代优化参数,例如当模型指标中的auc最高时,停止迭代,将此时的优化参数代入到模型中,得到所述多层前馈神经网络模型。
获取历史盲点数据的属性标签数据是通过例如特征工程等方式获得的,可以是知识场景、知识标题、提问时间、产品标签、客户标签和渠道标签中的一种或多种。
在本申请实施例一种可选的实施方式中,预先建立的多层神经网络模型的训练步骤例如可以包括以下步骤:
步骤A:将所述历史盲点数据输入到所述多层前馈神经网络模型中,获得所述历史盲点数据对应的至少一个预测问题集合;
步骤B:基于所述预测问题集合、所述历史盲点数据的属性标签数据与所述多层前馈神经网络模型的损失函数训练调整所述多层前馈神经网络模型的参数,获得所述预先建立的多层前馈神经网络模型。
S103:在所述客服知识库中分别查找所述问题集合对应的各个答案数据。
获得问题集合后,在客服知识中查找到问题集合中每个问题对应的答案数据。
在一种可能的实现方式中,可以通过句法逻辑将所述客服知识库分层;在分层后的客服知识库中查找所述问题集合对应的各个答案数据。
具体的,把客服知识库中的数据按照句法逻辑,即主、谓、宾、补进行分层,然后以树的形式展示。在银行中存在大量相似、具有强规则性的知识,如“中银富登对公单位协定存款介绍”、“中银富登特色定期存款再接再厉介绍”、“中银富登个人人民币存款介绍”、“中银富登个人活期储蓄存款介绍”、“中银富登特色定期存款鑫鑫向荣介绍”等,通过按照句法逻辑将所述客服知识库分层,可以快速的在分层后的客服知识库中查找所述问题集合对应的各个答案数据,提高搜索答案的速度。
S104:计算所述各个答案数据与所述盲点知识的文本相似度,将最高的文本相似度对应的答案数据作为所述盲点知识对应的答案数据。
生成句法分析树以后,计算所述各个答案数据与盲点知识的文本相似度,例如在客服知识库中“中银富登_存贷款计息规定”中有这样一段话:“金融机构通知存款是客户在存款时不约定存期,支取时须提前通知银行,并约定支取日和金额方能支取的存款。存款须一次性存入,可以一次或分次支取。通知存款无论实际存期多长,按存款人提前通知的期限长短划分品种,开办人民币一天和七天通知存款。”,这段话是介绍通知存款特性的,如果盲点知识是“通知存库能不能多次存入呢”,显然,盲点知识跟这段话匹配度较高,因为“通知存款”和“存入”都是这篇源文档出现较少的词,两者文本相似度较高。可以将“金融机构通知存款是客户在存款时不约定存期,支取时须提前通知银行,并约定支取日和金额方能支取的存款。存款须一次性存入,可以一次或分次支取。通知存款无论实际存期多长,按存款人提前通知的期限长短划分品种,开办人民币一天和七天通知存款。”作为盲点知识“通知存库能不能多次存入呢”的答案数据。
S105:将所述盲点知识与所述盲点知识对应的答案数据均补充至所述客服知识库中。
由于客服知识库包括问题数据以及与问题数据对应的答案数据,所以应该将盲点知识与盲点知识对应的答案数据对应后,均补充到客服知识库中,以便后续再出现与盲点知识类似的问题,用户就可以获得该问题的有效答案。
在本申请实施例中,首先,获得盲点知识后,可以通过预先建立的多层前馈神经网络模型,获得盲点知识在客服知识库中对应的问题集合,寻找盲点知识对应的客服知识类型属于一对多分类问题,预先建立的多层前馈神经网络模型能够逼近任何非线性函数,能够较快将盲点知识进行分类,寻找盲点知识对应的问题集合;然后,计算问题集合对应的各个答案数据与盲点知识的文本相似度,将最高的文本相似度对应的答案数据作为盲点知识的答案数据,可以获得更加准确的盲点知识的答案数据;最后,将盲点知识与盲点知识对应的答案数据均补充到客服知识库中,实现更新完善客服知识库中的数据,通过不断的获取盲点知识与盲点知识对应的答案数据,然后将其均补充到客服知识库中,实现客服知识库的自学习。
本发明实施例除了提供的客服知识库自学习方法外,还提供了客服知识库自学习装置,如图2所示,包括:获取单元201、神经网络模型单元202、查找单元203、计算单元204和补充单元205,其中:
获取单元201,用于获取盲点知识;其中,所述盲点知识为无效答案数据对应的问题数据;
神经网络模型单元202,用于将所述盲点知识输入到预先建立的多层前馈神经网络模型中,获得所述盲点知识对应的至少一个问题集合;
查找单元203,用于在所述客服知识库中分别查找所述问题集合对应的各个答案数据;
计算单元204,用于计算所述各个答案数据与所述盲点知识的文本相似度,将最高的文本相似度对应的答案数据作为所述盲点知识对应的答案数据;
补充单元205,用于将所述盲点知识与所述盲点知识对应的答案数据均补充至所述客服知识库中。
在一种可能实现的方式中,神经网络模型单元202具体用于将所述盲点知识输入到预先建立的多层前馈神经网络模型中,利用粒子群算法调节所述多层前馈神经网络模型的正则化参数和所述多层前馈神经网络模型的迭代次数,获得所述盲点知识对应的至少一个问题集合。
在一种可能实现的方式中,神经网络模型单元202包括训练单元,具体用于将历史盲点数据和所述历史盲点数据的属性标签数据输入至所述多层前馈神经网络模型进行训练,得到所述多层前馈神经网络模型;
其中,所述历史盲点数据的属性标签数据包括知识场景、知识标题、提问时间、产品标签、客户标签和渠道标签中的一种或多种。
在一种可能实现的方式中,训练单元具体用于将所述历史盲点数据输入到所述多层前馈神经网络模型中,获得所述历史盲点数据对应的至少一个预测问题集合;基于所述预测问题集合、所述历史盲点数据的属性标签数据与所述多层前馈神经网络模型的损失函数训练调整所述多层前馈神经网络模型的参数,获得所述预先建立的多层前馈神经网络模型。
在一种可能实现的方式中,查找单元203具体用于通过句法逻辑将所述客服知识库分层;在分层后的客服知识库中查找所述问题集合对应的各个答案数据。
采用本申请实施例提供的客服知识库自学习装置,首先,获得盲点知识后,可以通过预先建立的多层前馈神经网络模型,获得盲点知识在客服知识库中对应的问题集合,寻找盲点知识对应的客服知识类型属于一对多分类问题,预先建立的多层前馈神经网络模型能够逼近任何非线性函数,能够较快将盲点知识进行分类,寻找盲点知识对应的问题集合;然后,计算问题集合对应的各个答案数据与盲点知识的文本相似度,将最高的文本相似度对应的答案数据作为盲点知识的答案数据,可以获得更加准确的盲点知识的答案数据;最后,将盲点知识与盲点知识对应的答案数据均补充到客服知识库中,实现更新完善客服知识库中的数据,通过不断的获取盲点知识与盲点知识对应的答案数据,然后将其均补充到客服知识库中,实现客服知识库的自学习。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元及模块可以是或者也可以不是物理上分开的。另外,还可以根据实际的需要选择其中的部分或者全部单元和模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上所述仅是本发明的具体实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (10)
1.一种客服知识库自学习方法,其特征在于,所述客服知识库包括问题数据以及与所述问题数据对应的答案数据,所述方法包括:
获取盲点知识;其中,所述盲点知识为无效答案数据对应的问题数据;
将所述盲点知识输入到预先建立的多层前馈神经网络模型中,获得所述盲点知识对应的至少一个问题集合;
在所述客服知识库中分别查找所述问题集合对应的各个答案数据;
计算所述各个答案数据与所述盲点知识的文本相似度,将最高的文本相似度对应的答案数据作为所述盲点知识对应的答案数据;
将所述盲点知识与所述盲点知识对应的答案数据均补充至所述客服知识库中。
2.根据权利要求1所述的方法,其特征在于,所述将所述盲点知识输入到预先建立的多层前馈神经网络模型中,获得所述盲点知识对应的至少一个问题集合,具体包括:
将所述盲点知识输入到预先建立的多层前馈神经网络模型中,利用粒子群算法调节所述多层前馈神经网络模型的正则化参数和所述多层前馈神经网络模型的迭代次数,获得所述盲点知识对应的至少一个问题集合。
3.根据权利要求1所述的方法,其特征在于,预先建立所述多层前馈神经网络模型,具体包括:
将历史盲点数据和所述历史盲点数据的属性标签数据输入至所述多层前馈神经网络模型进行训练,得到所述多层前馈神经网络模型;
其中,所述历史盲点数据的属性标签数据包括知识场景、知识标题、提问时间、产品标签、客户标签和渠道标签中的一种或多种。
4.根据权利要求3所述的方法,其特征在于,所述将历史盲点数据和所述历史盲点数据的属性标签数据输入至所述多层前馈神经网络模型进行训练,得到所述多层前馈神经网络模型,具体包括:
将所述历史盲点数据输入到所述多层前馈神经网络模型中,获得所述历史盲点数据对应的至少一个预测问题集合;
基于所述预测问题集合、所述历史盲点数据的属性标签数据与所述多层前馈神经网络模型的损失函数训练调整所述多层前馈神经网络模型的参数,获得所述预先建立的多层前馈神经网络模型。
5.根据权利要求1所述的方法,其特征在于,所述在所述客服知识库中分别查找所述问题集合对应的各个答案数据,包括:
通过句法逻辑将所述客服知识库分层;
在分层后的客服知识库中查找所述问题集合对应的各个答案数据。
6.一种客服知识库自学习装置,其特征在于,所述客服知识库包括问题数据以及与所述问题数据对应的答案数据,所述装置包括:
获取单元、神经网络模型单元、查找单元、计算单元和补充单元;
所述获取单元,用于获取盲点知识;其中,所述盲点知识为无效答案数据对应的问题数据;
所述神经网络模型单元,用于将所述盲点知识输入到预先建立的多层前馈神经网络模型中,获得所述盲点知识对应的至少一个问题集合;
所述查找单元,用于在所述客服知识库中分别查找所述问题集合对应的各个答案数据;
所述计算单元,用于计算所述各个答案数据与所述盲点知识的文本相似度,将最高的文本相似度对应的答案数据作为所述盲点知识对应的答案数据;
所述补充单元,用于将所述盲点知识与所述盲点知识对应的答案数据均补充至所述客服知识库中。
7.根据权利要求6所述的装置,其特征在于,所述神经网络模型单元具体用于将所述盲点知识输入到预先建立的多层前馈神经网络模型中,利用粒子群算法调节所述多层前馈神经网络模型的正则化参数和所述多层前馈神经网络模型的迭代次数,获得所述盲点知识对应的至少一个问题集合。
8.根据权利要求6所述的装置,其特征在于,所述神经网络模型单元包括训练单元,具体用于将历史盲点数据和所述历史盲点数据的属性标签数据输入至所述多层前馈神经网络模型进行训练,得到所述多层前馈神经网络模型;
其中,所述历史盲点数据的属性标签数据包括知识场景、知识标题、提问时间、产品标签、客户标签和渠道标签中的一种或多种。
9.根据权利要求8所述的装置,其特征在于,所述训练单元具体用于将所述历史盲点数据输入到所述多层前馈神经网络模型中,获得所述历史盲点数据对应的至少一个预测问题集合;
基于所述预测问题集合、所述历史盲点数据的属性标签数据与所述多层前馈神经网络模型的损失函数训练调整所述多层前馈神经网络模型的参数,获得所述预先建立的多层前馈神经网络模型。
10.根据权利要求6所述的装置,其特征在于,所述查找单元具体用于通过句法逻辑将所述客服知识库分层;在分层后的客服知识库中查找所述问题集合对应的各个答案数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010343622.XA CN111552789B (zh) | 2020-04-27 | 2020-04-27 | 一种客服知识库自学习方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010343622.XA CN111552789B (zh) | 2020-04-27 | 2020-04-27 | 一种客服知识库自学习方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111552789A true CN111552789A (zh) | 2020-08-18 |
CN111552789B CN111552789B (zh) | 2024-05-10 |
Family
ID=72003044
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010343622.XA Active CN111552789B (zh) | 2020-04-27 | 2020-04-27 | 一种客服知识库自学习方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111552789B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112035440A (zh) * | 2020-09-01 | 2020-12-04 | 中国银行股份有限公司 | 知识库的管理方法、装置、电子设备和存储介质 |
CN112528010A (zh) * | 2020-12-15 | 2021-03-19 | 建信金融科技有限责任公司 | 知识推荐方法、装置、计算机设备及可读存储介质 |
CN116187958A (zh) * | 2023-04-25 | 2023-05-30 | 北京知果科技有限公司 | 一种基于结构树的知识产权服务管理方法及*** |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015058604A1 (zh) * | 2013-10-21 | 2015-04-30 | 北京奇虎科技有限公司 | 获取问答对相关联程度、优化搜索排名的装置和方法 |
CN104679910A (zh) * | 2015-03-25 | 2015-06-03 | 北京智齿博创科技有限公司 | 智能应答方法及*** |
CN107562789A (zh) * | 2017-07-28 | 2018-01-09 | 深圳前海微众银行股份有限公司 | 知识库问题更新方法、客服机器人以及可读存储介质 |
CN109189901A (zh) * | 2018-08-09 | 2019-01-11 | 北京中关村科金技术有限公司 | 一种智能客服***中自动发现新分类以及对应语料的方法 |
CN110109937A (zh) * | 2019-05-15 | 2019-08-09 | 北京市华风声像技术中心 | 一种科普知识测评与学习方法、***及设备 |
-
2020
- 2020-04-27 CN CN202010343622.XA patent/CN111552789B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015058604A1 (zh) * | 2013-10-21 | 2015-04-30 | 北京奇虎科技有限公司 | 获取问答对相关联程度、优化搜索排名的装置和方法 |
CN104679910A (zh) * | 2015-03-25 | 2015-06-03 | 北京智齿博创科技有限公司 | 智能应答方法及*** |
CN107562789A (zh) * | 2017-07-28 | 2018-01-09 | 深圳前海微众银行股份有限公司 | 知识库问题更新方法、客服机器人以及可读存储介质 |
CN109189901A (zh) * | 2018-08-09 | 2019-01-11 | 北京中关村科金技术有限公司 | 一种智能客服***中自动发现新分类以及对应语料的方法 |
CN110109937A (zh) * | 2019-05-15 | 2019-08-09 | 北京市华风声像技术中心 | 一种科普知识测评与学习方法、***及设备 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112035440A (zh) * | 2020-09-01 | 2020-12-04 | 中国银行股份有限公司 | 知识库的管理方法、装置、电子设备和存储介质 |
CN112035440B (zh) * | 2020-09-01 | 2023-08-08 | 中国银行股份有限公司 | 知识库的管理方法、装置、电子设备和存储介质 |
CN112528010A (zh) * | 2020-12-15 | 2021-03-19 | 建信金融科技有限责任公司 | 知识推荐方法、装置、计算机设备及可读存储介质 |
CN116187958A (zh) * | 2023-04-25 | 2023-05-30 | 北京知果科技有限公司 | 一种基于结构树的知识产权服务管理方法及*** |
CN116187958B (zh) * | 2023-04-25 | 2023-07-14 | 北京知果科技有限公司 | 一种基于结构树的知识产权服务管理方法及*** |
Also Published As
Publication number | Publication date |
---|---|
CN111552789B (zh) | 2024-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Delen et al. | Research challenges and opportunities in business analytics | |
CN109767255B (zh) | 一种通过大数据建模实现智能运营及精准营销的方法 | |
CN111552789A (zh) | 一种客服知识库自学习方法及装置 | |
Costa et al. | On using crowdsourcing and active learning to improve classification performance | |
US10572841B2 (en) | Actions for an information technology case | |
Moreno et al. | Data and artificial intelligence strategy: A conceptual enterprise big data cloud architecture to enable market-oriented organisations | |
CN110096581A (zh) | 一种基于用户行为构建问答体系推荐问的***及方法 | |
Casas-Valadez et al. | Decision Models in Marketing: The role of Sentiment Analysis from bibliometric analysis | |
Bvuma et al. | Comparative analysis of data storage solutions for responsive big data applications | |
Wang et al. | Toward a service-innovation ecosystem of enterprises in China | |
WO2020178626A1 (en) | Systems and methods for adaptive question answering | |
CN113918697A (zh) | 一种智能问答***的优化方法以及优化*** | |
Apte | The role of machine learning in business optimization | |
Pasayat et al. | Determination of essential features for predicting start-up success: an empirical approach using machine learning | |
Bagiwa | Big data: Concepts, approaches and challenges | |
US20230067687A1 (en) | System and method and apparatus for integrating conversational signals into a dialog | |
US20220147900A1 (en) | Continuous employee experience and efficiency evaluation based on collaboration circles | |
Ababneh et al. | Social media usage in education: big data perspective | |
Xiao et al. | Neural variational hybrid collaborative filtering | |
Morente-Molinera et al. | Managing multi-criteria group decision making environments with high number of alternatives using fuzzy ontologies | |
CN111552818A (zh) | 一种客服知识库查询方法及装置 | |
Sun et al. | Information acquisition and analysis technology of personalized recommendation system based on case-based reasoning for internet of things | |
US20230196030A1 (en) | Systems and methods relating to knowledge distillation in natural language processing models | |
US20230146292A1 (en) | Multi-task machine learning with heterogeneous data | |
Liu | Design of Personalized Catering Recommendation System based on Spark Platform |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |