CN111464707A - 外呼处理方法、装置及*** - Google Patents
外呼处理方法、装置及*** Download PDFInfo
- Publication number
- CN111464707A CN111464707A CN202010235007.7A CN202010235007A CN111464707A CN 111464707 A CN111464707 A CN 111464707A CN 202010235007 A CN202010235007 A CN 202010235007A CN 111464707 A CN111464707 A CN 111464707A
- Authority
- CN
- China
- Prior art keywords
- user
- model
- response voice
- voice
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title abstract description 9
- 230000004044 response Effects 0.000 claims abstract description 51
- 238000000034 method Methods 0.000 claims abstract description 47
- 238000012549 training Methods 0.000 claims description 25
- 238000012545 processing Methods 0.000 claims description 23
- 238000004590 computer program Methods 0.000 claims description 13
- 238000003062 neural network model Methods 0.000 claims description 9
- 238000012360 testing method Methods 0.000 claims description 9
- 230000003993 interaction Effects 0.000 abstract description 7
- 238000010586 diagram Methods 0.000 description 27
- 230000008569 process Effects 0.000 description 21
- 230000006870 function Effects 0.000 description 14
- 238000005516 engineering process Methods 0.000 description 10
- 238000012790 confirmation Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 238000012546 transfer Methods 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 238000003058 natural language processing Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 206010016256 fatigue Diseases 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000003867 tiredness Effects 0.000 description 1
- 208000016255 tiredness Diseases 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/527—Centralised call answering arrangements not requiring operator intervention
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
- G10L2015/0631—Creating reference templates; Clustering
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Signal Processing (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种外呼处理方法、装置及***,其中,该方法包括:根据预定事件呼叫用户;响应于与用户建立连接,接收来自用户的语音;基于预先训练的意图识别模型,对语音进行识别,以生成用户意图信息;根据用户意图信息和预定事件,输出相应的应答语音。通过本发明,可以实现低时延、高效实时的交互,从而可以提高用户的体验感。
Description
技术领域
本发明涉及信息技术领域,具体涉及一种外呼处理方法、装置及***。
背景技术
目前,银行***的外呼都是依靠客服人员进行操作的。客服人员由于数量上和工作时间上的限制,导致每日可进行的外呼数量有限,并且在人工客服***中,客户向客服反映问题的时候多数会遇到繁琐复杂的IVR(Interactive Voice Response,互动式语音应答)流程,使得客服难以对客户进行快速地接入。很多客服***中需要很多层、层层相套的IVR语音菜单,这些都会加大客户的等待时间。在客服***中,客服人员是化解客户矛盾,处理客户问题的关键所在,但是客服在接听了数百个客户电话后也会产生心理和生理上的疲劳、疲倦甚至逆反心理,而且每天的重复性工作,时间长了也会出现遗忘、少计、漏记客户信息等情况,甚至由于一些主观上的问题错误的理解客户的意图。
也就是说,在现有的银行外呼***中,人工服务已无法满足客户所需的低时延、高效实时的交互方式,导致了客户体验感较低。
发明内容
有鉴于此,本发明提供一种外呼处理方法、装置及***,以解决上述提及的至少一个问题。
根据本发明的第一方面,提供一种外呼处理方法,所述方法包括:根据预定事件呼叫用户;响应于与用户建立连接,接收来自用户的语音;基于预先训练的意图识别模型,对所述语音进行识别,以生成用户意图信息;根据所述用户意图信息和所述预定事件,输出相应的应答语音。
根据本发明的第二方面,提供一种外呼处理装置,所述装置包括:呼叫单元,用于根据预定事件呼叫用户;语音接收单元,用于响应于与用户建立连接,接收来自用户的语音;用户意图生成单元,用于基于预先训练的意图识别模型,对所述语音进行识别,以生成用户意图信息;应答语音输出单元,用于根据所述用户意图信息和所述预定事件,输出相应的应答语音。
根据本发明的第三方面,提供一种外呼处理***,所述***包括:上述的外呼处理装置、显示设备、存储设备,其中,所述显示设备用于显示所述预定事件的各步骤,所述存储设备用于存储所述预定事件的各步骤。
根据本发明的第四方面,提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述方法的步骤。
根据本发明的第五方面,本发明提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述方法的步骤。
由上述技术方案可知,通过根据预定事件来呼叫用户,当与用户建立连接后,接收用户的语音,并基于意图识别模型识别用户语音来生成用户意图,之后根据用户意图和预定事件来输出相应的应答语音,相比于现有技术的通过人工客服来实现外呼流程,本技术方案无需通过传统的IVR完成转接,也无需人工客服全程介入,因而可以实现低时延、高效实时的交互,从而可以提高用户的体验感。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本发明实施例的外呼处理方法的流程图;
图2是根据本发明实施例的个贷催收事件中的可选模型示意图;
图3是根据本发明实施例的外呼流程有限状态自动机的工作原理示意图;
图4是根据本发明实施例的话术配置界面示例图;
图5是根据本发明实施例的不同事件的话术配置示意图;
图6是根据本发明实施例的不同事件的用户意图类型示意图;
图7是根据本发明实施例的个贷催收事件流程节点示意图;
图8是根据本发明实施例的外呼处理***的结构框图;
图9是根据本发明实施例的外呼处理装置1的结构框图;
图10是根据本发明实施例的应答语音输出单元14的结构框图;
图11是根据本发明实施例的外呼处理装置1的详细结构框图;
图12是根据本发明实施例的模型训练单元16的结构框图;
图13是根据本发明实施例的智能外呼拖拽式流程配置***的结构框图;
图14是根据本发明实施例的电子设备的示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
鉴于现有的银行外呼***使用人工服务已无法满足客户所需的低时延、高效实时交互的要求,从而导致了客户体验感较低的问题。基于此,本发明实施例提供一种外呼处理方案,通过结合人工智能、自然语言理解技术、传统外呼***等技术,来实现外呼的低时延、方便和高可用性,提高客户的体验感。以下结合附图来详细描述本发明实施例。
图1是根据本发明实施例的外呼处理方法的流程图,如图1所示,该方法包括:
步骤101,根据预定事件呼叫用户。
这里的预定事件可以包括两大类,第一类是通知类事件,例如,***还款日通知事件、个人贷款催收事件等;第二类是营销类事件,例如,存款营销事件、生日祝福事件等。
步骤102,响应于与用户建立连接(例如,语音连接),接收来自用户的语音。
在实际操作中,当超过预定时间(例如,呼叫超过1分钟)还未接通用户时,外呼流程结束。
步骤103,基于预先训练的意图识别模型,对所述语音进行识别,以生成用户意图信息。
在实际操作中,当用户意图信息为转人工服务类型,例如,用户意图信息为投诉、或者要求转人工服务时,执行建立人工服务连接流程,与用户建立人工服务连接。
步骤104,根据所述用户意图信息和所述预定事件,输出相应的应答语音。
这里的应答语音可以预先为预定事件的各步骤设置,例如,根据该预定事件的历史应答语音来设置。
通过根据预定事件来呼叫用户,当与用户建立连接后,接收用户的语音,并基于意图识别模型识别用户语音来生成用户意图,之后根据用户意图和预定事件来输出相应的应答语音,相比于现有技术的通过人工客服来实现外呼流程,本发明实施例无需通过传统的IVR完成转接,也无需人工客服全程介入,因而可以实现低时延、高效实时的交互,从而可以提高用户的体验感。
上述意图识别模型可以通过如下方式来训练:获取所述预定事件的历史应答语音信息;根据预定规则将所述历史应答语音信息分类为训练集数据和测试集数据;基于所述训练集数据和测试集数据对预定的深度神经网络模型进行训练,以生成所述意图识别模型。
在实际操作中,可以将意图识别看成一个多分类的任务,因而这里的深度神经网络模型可以是分类模型或者机器学习模型,其中,分类模型可以是朴素贝叶斯模型、Logistic回归模型(线性回归分析模型)、决策树模型、KNN(K近邻,k-Nearest Neighbor)模型等,机器学习模型可以是MLP(Multilayer Perceptron,多层感知机)、CNN(卷积神经网络,Convolutional Neural Network)、RNN(Recurrent Neural Network,循环神经网络)等。
优选地,深度神经网络模型为包括第一模型和第二模型的组合模型,通过组合模型可以提高语音识别的准确性。
在实际操作中,不同事件选择的模型会有差别。例如,在个贷催收事件中,可以选用的模型如图2所示,例如,在客户身份确认步骤,可以选择KNN模型、RNN模型和CNN模型。一个好的组合模型在实际事件中可以起到较好的识别效果。例如,包含KNN模型和CNN模型的组合模型在语音识别中效果更佳。
对于上述步骤104,可以先基于有限状态自动机模型,根据所述用户意图信息执行所述预定事件的对应步骤;之后,根据所述对应步骤输出所述相应的应答语音。
这里的有限状态自动机模型可以是智能外呼流程有限状态自动机(OutdialingFinite-state Machine),可以视为智能外呼中的有限个状态和这些状态之间的转移和动作等行为的数学模型。智能外呼流程有限状态自动机主要由以下五元组M=(Q,Σ,δ,q0,F)构成。其中:
Q={q0,q1,…,qn}是智能外呼流程有限状态自动机有限状态集合,在任一确定的时刻,流程状态机只有一个确定的状态qi,例如在个贷催收事件中,有“开始”状态、“欢迎”状态、“身份确认”状态、“个贷播报”状态和“结束”状态等,这里的状态即事件的步骤(也可以称为节点),i为大于等于0的整数。
Σ={σ1,σ2,...,σn}表示了外呼流程中常见的用户的意图集合,在任一时刻的,流程状态机智能接收一个确定的用户意图σi,其中这些意图是通过人工智能对客户语音的识别结果,在该识别过程中,输入是客户语音(或者称为话术),输出是该语音所表达的客户意图,i为大于等于0的整数。
δ是智能外呼流程有限状态自动机状态转移函数,表示了在智能外呼给定状态下,根据输入,转入新状态的转移函数。例如,在个贷催收事件中,流程经过“欢迎”节点后将会自动转入到“身份确认”节点,δ就是节点之间的状态转移。
q0∈Q是智能外呼流程有限状态自动机的初始态。
图3是一个外呼流程有限状态自动机的工作原理示意图,其中,开始状态表示了智能外呼从此处开始,当该状态自动机处于输入监听态的时候,可以对用户语音进行识别,并使用状态转移函数转移到下一个状态。
如图3所示,当进入开始状态q0时,状态自动机处于输入监听态,当识别到用户语音的意图为“还款额查询”时,进入还款额播报状态q1,此时播放与还款额相应的语音,播放完毕后返回输入监听态;或者,当识别到用户语音的意图为“客户投诉”时,进入致歉状态,此时播放与致歉相应的语音,播放完毕后返回输入监听态;或者,当识别到用户语音的意图为“利息查询”时,进入利息播报状态,此时播放与利息相应的语音,播放完毕后返回输入监听态;或者,当识别到用户语音的意图为“结束”时,进入终止状态,此时返回输入监听态,之后结束流程。
在实际操作中,用于回应用户意图而播放的相应语音可以预先设置。也就是说,状态节点需要进行节点应答话术的预先配置,状态自动机中Σ表示了外呼涉及到的用户意图的集合,该项中的意图可以通过意图管理子模块进行配置和管理,在外呼过程中,也需要对使用到的模型和算法进行配置。
例如,图4是话术配置的界面示意图,如图4所示,当话术名称为开场问候时,即,在“欢迎”节点时,可以选择不同的应答话术,例如,先生/小姐/女士,您好!
在实际操作中,用于配置应答话术的配置表字段可以包括:事件、话术类型、话术文本以及节点对应的音频信息等。例如,图4可以是“个贷催收”流程的话术配置示意界面图,话术文本为相应的业务应答文本,例如“您好,这里是建设银行客户服务中心”,对应的音频信息为“20180425010001”,该编号为业务人员预先录制好的音频信息编号。音频信息对应的是在该状态节点时播放的音频,音频信息包括TTS(Text To Speech,从文本到语音)和录音文件等。在智能外呼中,涉及到的主要话术如图5所示。其中涉及到的事件包含有三类:生日祝福、***催收和个贷催收。不同的事件对应的节点话术是不同的,例如,在***催收流程中,对应的欢迎节点话术为“您好,这里是建设银行客户服务中心,您的信用***为……”;在生日祝福事件中,对应的欢迎节点话术为“您好,这里是建设银行客户服务中心,今天是您的生日,祝您生日快乐,……”。
对于语音识别的用户意图,在智能外呼过程中,常见的用户意图类型包括“是本人”、“非本人”、“拒绝”、“投诉”、“查询余额”和“查询利息”等,具体的如图6所示。在不同的事件中,意图可能会有一些差别,例如,在生日祝福这个场景中只有“是本人”,“非本人”,“接受”,“投诉”等意图,没有类似业务类的意图。
在实际操作中,不同事件的意图配置可以依据业务人员按照业务流程进行筛选,每个意图都可以用常见的客户话术来进行表示。在将业务人员的历史应答话术作为语料的基础上,通过数据筛选后结合自然语言处理技术,将语料分成训练和测试集进行训练,最后可得到不同场景下的深度学习模型,该模型可以根据客户的应答话术自动进行用户意图识别,智能化、自动化的识别当前交互过程中用户表达的意图,当识别到需要客服人工干预的意图时,例如,识别的意图为“***丢失”、“投诉”等场景时,上层服务可以通过快速的介入功能来帮助客户、解答客户疑惑和安抚客户情绪。
如果是现有的人工客服进行呼出,则存在大量的重复性劳动给工作人员带来了负面情绪,工作积极性不高,而且有效的电话跟进也没有达到很好的记录,而这些问题都可以通过自然语言的技术来解决。
在实际操作中,根据不同事件、不同状态可以选择或组合已经训练好的模型(例如,图2中的多个模型),来解决实际流程中复杂多变的环境和场景。模型配置可以分为两种配置,分别是DNN(深度神经网络,Deep Neural Networks)模型(这里的模型也可以称为引擎)和直连引擎。DNN模块表示使用训练好的DNN模块(例如,图2中的多个模型)进行意图识别后进行状态的跳转,而直连引擎则表示不需要经过意图识别直接跳转。以下基于图7来详细描述DNN模型和直连引擎。
图7是个贷催收事件流程节点示意图,如图7所示,“欢迎”节点的引擎类型为直连引擎,表示经过“欢迎”节点后直接进入“身份确认”节点,而“身份确认”节点的引擎类型为DNN模型,需要通过语音识别来判断“是否本人”后进入对应的流程节点。当识别意图为“客户本人”时,则进行“个贷催收”节点,播放相应的语音。当识别意图为“非客户本人”时,则进入“是否认识客户”节点,播放相应的语音等,当识别意图为“不认识”时,则进入“再见”节点,当识别意图为“认识”时,进入“转告”节点,播放相应的语音,例如,“请尽快转告某某(客户名字),核实贷款”之类。“再见”节点和“转告”节点也为直连引擎,之后直接结束。
在实际操作中,可以对业务事件进行配置,也可以根据不同状态节点进行配置,在配置过程中,需要配置模型类型、模型存放地址等。对于无条件转移的节点来说,可以不配置模型。如此,可以实现个性化定制的外呼流程。
本发明实施例联合现有外呼***和人工智能技术,实现了一个可以定制化,可动态配置的智能外呼方案,可以解决现有的外呼***中存在的问题和弊端,既避免了人工客服***中人类难以避免的生理和心理难关,也使得服务更加标准化,提高了用户的体验感。
基于相似的发明构思,本发明实施例还提供一种外呼处理***,如图8所示,该***包括:外呼处理装置1、显示设备2、存储设备3,其中,显示设备2用于以节点或者框图形式显示预定事件的各步骤,存储设备用于存储预定事件的各步骤。优选地,外呼处理装置1可以用于实现上述方法实施例中的流程。
图9是外呼处理装置1的结构框图,如图9所示,呼叫单元11、语音接收单元12、用户意图生成单元13和应答语音输出单元14,其中:
呼叫单元11,用于根据预定事件呼叫用户;
语音接收单元12,用于响应于与用户建立连接,接收来自用户的语音;
用户意图生成单元13,用于基于预先训练的意图识别模型,对所述语音进行识别,以生成用户意图信息;
应答语音输出单元14,用于根据所述用户意图信息和所述预定事件,输出相应的应答语音。
通过呼叫单元11根据预定事件来呼叫用户,当与用户建立连接后,语音接收单元12接收用户的语音,用户意图生成单元13基于意图识别模型识别用户语音来生成用户意图,之后应答语音输出单元14根据用户意图和预定事件来输出相应的应答语音,相比于现有技术的通过人工客服来实现外呼流程,本发明实施例无需通过传统的IVR完成转接,也无需人工客服全程介入,因而可以实现低时延、高效实时的交互,从而可以提高用户的体验感。
具体地,如图10所示,上述应答语音输出单元14包括:步骤执行模块141和应答语音输出模块142,其中:
步骤执行模块141,用于基于有限状态自动机模型,根据所述用户意图信息执行所述预定事件的对应步骤;
应答语音输出模块142,用于根据所述对应步骤输出所述相应的应答语音。
在实际操作中,如图11所示,上述装置1还包括:人工服务连接单元15,用于响应于所述用户意图信息为转人工服务类型,与所述用户建立人工服务连接。
在一个实施例中,继续参见图11,上述装置1还包括:模型训练单元16,用于训练所上述的意图识别模型。
图12是模型训练单元16的结构框图,如图12所示,该模型训练单元16包括:历史信息获取模块161、数据分类模块162和训练模块163,其中:
历史信息获取模块161,用于获取所述预定事件的历史应答语音信息;
数据分类模块162,用于根据预定规则将所述历史应答语音信息分类为训练集数据和测试集数据;
训练模块163,用于基于所述训练集数据和测试集数据对预定的深度神经网络模型进行训练,以生成所述意图识别模型。
优选地,深度神经网络模型可以为包括第一模型和第二模型的组合模型。这通过组合模型,可以提高语音识别的准确性。
在一个实施例中,继续参见图11,上述装置1还包括:应答语音设置单元17,用于预先为所述预定事件的各步骤设置相应的应答语音。
上述各单元、各模块、各子模块的具体执行过程,可以参见上述方法实施例中的描述,此处不再赘述。
在实际操作中,上述各单元、各模块、各子模块可以组合设置、也可以单一设置,本发明不限于此。
本发明实施例基于现有的外呼技术,结合自然语言理解等人工智能技术和银行业务的基本知识,通过智能化、可定制化流程配置,建立了一套便捷的较为完善的智能外呼配置***。
更进一步的,以上述***为基础,设计了一个智能外呼拖拽式流程配置***。以下结合图13所示的示例***结构来详细描述智能外呼拖拽式流程配置***。
如图13所示,该智能外呼拖拽式流程配置***包括:前端PJF框架131、可拖拽式Canvas模块132、后台数据存储模块133和智能外呼流程加载模块134四个部分,其中:
前端PJF框架131,是整合HTML(HyperText Markup Language,超文本标记语言)和Javascript(一种编程语言)后提供的一整套的前端界面框架平台,它提供了一整套的数据交互规范和前端界面格式,并提供了一套兼容不同操作***的方案,通过这个PJF框架,可以统一操作界面,并对数据交互提供一整套的完善的安全机制,保证了数据的安全和***的稳定。
拖拽式Canvas模块132,不仅可以提供画图功能,还可以提供不同类型的画图模块,例如,涉及的流程节点(或状态)可以使用矩形来表示,涉及的开始结束节点可以使用椭圆来表示,可参见图7所示。同时该模块提供了一个可拖拽式的界面,可以直接对业务事件、不同状态节点、识别模型类型等进行拖拽式的编辑和操作,还可以进行页面布局的个性化配置,实现了智能外呼流程所见即所得的功能(即,具有上述显示设备2的功能)。例如,个贷催收事件中,涉及到的流程节点如图7所示,事件从“开始”节点运行,自动进入“欢迎”节点,在“欢迎”节点会根据实际业务配置相应的欢迎话语,如果客户经过“身份确认”节点并确认是客户本人后,会接着经过“个贷通知”节点,最后到达“结束节点”后整个外呼个贷催收流程结束。
后台数据存储模块133保证了图形化的配置可以永久化的存储,同时结构化的数据存储机制保证了数据的完整性和正确性(即,具有上述存储设备3的功能),在实现的过程中,可以使用Oracle数据库,Oracle数据库健壮性较好,并且配套的文档也较为齐全,通过这种高效率的、可靠性好的、高吞吐的数据库保证了***的稳健型和运行速度。
智能外呼流程加载模块134通过将数据库里的结构化配置信息动态的加载到***中,从而保证外呼***的可靠流转。同时为了保证***的稳健性能和服务性能,实现了懒加载机制,客服的更改操作可以在空闲时刻进行重新加载,保证了***的稳定性能和提高了客户的满意度。
通过Canvas图形和拖拽式操作,客服人员可以按照银行业务流程进行配置,并通过Oracle数据库进行永久化保存,如此,可以使得模块之间的内聚程度更高,彼此之间的耦合也降低了。
在实际操作中,智能外呼拖拽式流程配置可以是统一客服的核心功能模板之一。具体而言,统一客服可以包括95533呼入子***、800呼入子***和外呼子***等。本发明实施例在利用银行业务基本金融知识,如还款方式、还款时间、业务办理、业务常识等数据,结合自然语言处理技术,并通过设置前端拖拽式的多个流程配置,例如,包括外呼过程中场景(即,事件)选择和切换、场景中的流程节点、流程使用的机器学习模型配置,建立了一套通用的较为完善的智能外呼拖拽式流程配置***。通过该***,可以进行动态调整交互流程,并可以在新的业务需求上添加新的场景和业务功能,从而使得外呼更加智能和个性化。
本发明实施例融合了前端HTML、Canvas,自然语言处理、机器学习模型技术,提供了一套通用的较为完善的智能外呼的流程配置方案,不仅仅具备常规外呼***的基本特征,还将机器学习算法融合在外呼***中,是一套较为智能化的外呼***,并且,实现了灵活的拖拽式的智能外呼流程配置***。
图14是根据本发明实施例的电子设备的示意图。图14所示的电子设备为通用数据处理装置,其包括通用的计算机硬件结构,其至少包括处理器1401和存储器1402。处理器1401和存储器1402通过总线1403连接。存储器1402适于存储处理器1401可执行的一条或多条指令或程序。该一条或多条指令或程序被处理器1401执行以实现上述外呼处理方法中的步骤。
上述处理器1401可以是独立的微处理器,也可以是一个或者多个微处理器集合。由此,处理器1401通过执行存储器1402所存储的命令,从而执行如上所述的本发明实施例的方法流程实现对于数据的处理和对于其他装置的控制。总线1403将上述多个组件连接在一起,同时将上述组件连接到显示控制器1404和显示装置以及输入/输出(I/O)装置1405。输入/输出(I/O)装置1405可以是鼠标、键盘、调制解调器、网络接口、触控输入装置、体感输入装置、打印机以及本领域公知的其他装置。典型地,输入/输出(I/O)装置1405通过输入/输出(I/O)控制器1406与***相连。
其中,存储器1402可以存储软件组件,例如操作***、通信模块、交互模块以及应用程序。以上所述的每个模块和应用程序都对应于完成一个或多个功能和在发明实施例中描述的方法的一组可执行程序指令。
本发明实施例还提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时以实现上述外呼处理方法的步骤。
综上所述,本发明实施例提供了一套智能外呼方案,该方案结合了自然语言处理技术和机器学习模型,将外呼***的流程进行了拖拽式配置,并且将配置可实时生效。通过本发明实施例,不仅可以对用户的应答进行快速的反馈,还可以减少业务人员的压力,业务人员可以通过前端界面拖拽式生成外呼流程并实时的生效,引入并建立了智能外呼有限状态自动机,提供了一种方便快捷的智能外呼配置方法,并在此基础上,横向拓展了不同的外呼场景,从而建立了一套通用的较为完善的智能外呼流程配置方案,实现了低时延、高效实时的交互,从而可以提高用户的体验感。
以上参照附图描述了本发明的优选实施方式。这些实施方式的许多特征和优点根据该详细的说明书是清楚的,因此权利要求旨在覆盖这些实施方式的落入其真实精神和范围内的所有这些特征和优点。此外,由于本领域的技术人员容易想到很多修改和改变,因此不是要将本发明的实施方式限于所例示和描述的精确结构和操作,而是可以涵盖落入其范围内的所有合适修改和等同物。
本领域内的技术人员应明白,本发明的实施例可提供为方法、***、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
本发明中应用了具体实施例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (15)
1.一种外呼处理方法,其特征在于,所述方法包括:
根据预定事件呼叫用户;
响应于与用户建立连接,接收来自用户的语音;
基于预先训练的意图识别模型,对所述语音进行识别,以生成用户意图信息;
根据所述用户意图信息和所述预定事件,输出相应的应答语音。
2.根据权利要求1所述的方法,其特征在于,生成用户意图信息之后,所述方法还包括:
响应于所述用户意图信息为转人工服务类型,与所述用户建立人工服务连接。
3.根据权利要求1所述的方法,其特征在于,通过如下方式训练所述意图识别模型:
获取所述预定事件的历史应答语音信息;
根据预定规则将所述历史应答语音信息分类为训练集数据和测试集数据;
基于所述训练集数据和测试集数据对预定的深度神经网络模型进行训练,以生成所述意图识别模型。
4.根据权利要求3所述的方法,其特征在于,所述深度神经网络模型为包括第一模型和第二模型的组合模型。
5.根据权利要求1所述的方法,其特征在于,根据所述用户意图信息和所述预定事件,输出相应的应答语音包括:
基于有限状态自动机模型,根据所述用户意图信息执行所述预定事件的对应步骤;
根据所述对应步骤输出所述相应的应答语音。
6.根据权利要求1所述的方法,其特征在于,所述方法还包括:
预先为所述预定事件的各步骤设置相应的应答语音。
7.一种外呼处理装置,其特征在于,所述装置包括:
呼叫单元,用于根据预定事件呼叫用户;
语音接收单元,用于响应于与用户建立连接,接收来自用户的语音;
用户意图生成单元,用于基于预先训练的意图识别模型,对所述语音进行识别,以生成用户意图信息;
应答语音输出单元,用于根据所述用户意图信息和所述预定事件,输出相应的应答语音。
8.根据权利要求7所述的装置,其特征在于,所述装置还包括:
人工服务连接单元,用于响应于所述用户意图信息为转人工服务类型,与所述用户建立人工服务连接。
9.根据权利要求7所述的装置,其特征在于,所述装置还包括:模型训练单元,用于训练所述意图识别模型,
所述模型训练单元包括:
历史信息获取模块,用于获取所述预定事件的历史应答语音信息;
数据分类模块,用于根据预定规则将所述历史应答语音信息分类为训练集数据和测试集数据;
训练模块,用于基于所述训练集数据和测试集数据对预定的深度神经网络模型进行训练,以生成所述意图识别模型。
10.根据权利要求9所述的装置,其特征在于,所述训练模块训练的深度神经网络模型为包括第一模型和第二模型的组合模型。
11.根据权利要求7所述的装置,其特征在于,所述应答语音输出单元包括:
步骤执行模块,用于基于有限状态自动机模型,根据所述用户意图信息执行所述预定事件的对应步骤;
应答语音输出模块,用于根据所述对应步骤输出所述相应的应答语音。
12.根据权利要求7所述的装置,其特征在于,所述装置还包括:
应答语音设置单元,用于预先为所述预定事件的各步骤设置相应的应答语音。
13.一种外呼处理***,其特征在于,所述***包括:权利要求7至12中任一项所述的外呼处理装置、显示设备、存储设备,其中,所述显示设备用于显示所述预定事件的各步骤,所述存储设备用于存储所述预定事件的各步骤。
14.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现权利要求1至6中任一项所述方法的步骤。
15.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现权利要求1至6中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010235007.7A CN111464707A (zh) | 2020-03-30 | 2020-03-30 | 外呼处理方法、装置及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010235007.7A CN111464707A (zh) | 2020-03-30 | 2020-03-30 | 外呼处理方法、装置及*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111464707A true CN111464707A (zh) | 2020-07-28 |
Family
ID=71680239
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010235007.7A Pending CN111464707A (zh) | 2020-03-30 | 2020-03-30 | 外呼处理方法、装置及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111464707A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111653262A (zh) * | 2020-08-06 | 2020-09-11 | 上海荣数信息技术有限公司 | 一种智能语音交互***及方法 |
CN112202977A (zh) * | 2020-09-03 | 2021-01-08 | 深圳市彬讯科技有限公司 | 用于装企运营的外呼处理方法、装置、设备及介质 |
CN112231027A (zh) * | 2020-09-27 | 2021-01-15 | 中国建设银行股份有限公司 | 一种任务型会话配置方法和*** |
CN113191882A (zh) * | 2021-05-24 | 2021-07-30 | 中国工商银行股份有限公司 | 对账提醒方法、装置、电子设备及介质 |
CN114051077A (zh) * | 2021-11-17 | 2022-02-15 | 南京优数信息技术有限公司 | 一种外呼数据的分配方法和*** |
CN117059082A (zh) * | 2023-10-13 | 2023-11-14 | 北京水滴科技集团有限公司 | 基于大模型的外呼通话方法、装置、介质和计算机设备 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101599137A (zh) * | 2009-07-15 | 2009-12-09 | 北京工业大学 | 自治操作条件反射自动机及在实现智能行为中的应用 |
CN103458056A (zh) * | 2013-09-24 | 2013-12-18 | 贵阳世纪恒通科技有限公司 | 自动外呼***基于自动分类技术的语音意图判定方法 |
CN104199825A (zh) * | 2014-07-23 | 2014-12-10 | 清华大学 | 一种信息查询方法和*** |
CN105590626A (zh) * | 2015-12-29 | 2016-05-18 | 百度在线网络技术(北京)有限公司 | 持续语音人机交互方法和*** |
CN107247726A (zh) * | 2017-04-28 | 2017-10-13 | 北京神州泰岳软件股份有限公司 | 适用于多业务场景的智能机器人的实现方法及装置 |
CN107331383A (zh) * | 2017-06-27 | 2017-11-07 | 苏州咖啦魔哆信息技术有限公司 | 一种基于人工智能电话外呼***及其实现方法 |
WO2017200080A1 (ja) * | 2016-05-20 | 2017-11-23 | 日本電信電話株式会社 | 対話方法、対話装置、及びプログラム |
CN108847226A (zh) * | 2017-04-12 | 2018-11-20 | 声音猎手公司 | 管理人机对话中的代理参与 |
CN109580656A (zh) * | 2018-12-24 | 2019-04-05 | 广东华中科技大学工业技术研究院 | 基于动态权重组合分类器的手机导光板缺陷检测方法及*** |
CN109726288A (zh) * | 2018-12-28 | 2019-05-07 | 上海点融信息科技有限责任公司 | 基于人工智能处理的文本分类方法和装置 |
CN109949805A (zh) * | 2019-02-21 | 2019-06-28 | 江苏苏宁银行股份有限公司 | 基于意图识别及有限状态自动机的智能催收机器人及催收方法 |
CN110110058A (zh) * | 2019-04-22 | 2019-08-09 | 南京硅基智能科技有限公司 | 一种外呼机器人的意向打分方法及*** |
CN110188361A (zh) * | 2019-06-10 | 2019-08-30 | 北京智合大方科技有限公司 | 结合文本、语音与情绪特征的语音意图识别方法及装置 |
CN110413791A (zh) * | 2019-08-05 | 2019-11-05 | 哈尔滨工业大学 | 基于cnn-svm-knn组合模型的文本分类方法 |
CN110738545A (zh) * | 2019-08-30 | 2020-01-31 | 深圳壹账通智能科技有限公司 | 基于用户意向识别的产品推荐方法、装置、计算机设备和存储介质 |
-
2020
- 2020-03-30 CN CN202010235007.7A patent/CN111464707A/zh active Pending
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101599137A (zh) * | 2009-07-15 | 2009-12-09 | 北京工业大学 | 自治操作条件反射自动机及在实现智能行为中的应用 |
CN103458056A (zh) * | 2013-09-24 | 2013-12-18 | 贵阳世纪恒通科技有限公司 | 自动外呼***基于自动分类技术的语音意图判定方法 |
CN104199825A (zh) * | 2014-07-23 | 2014-12-10 | 清华大学 | 一种信息查询方法和*** |
CN105590626A (zh) * | 2015-12-29 | 2016-05-18 | 百度在线网络技术(北京)有限公司 | 持续语音人机交互方法和*** |
WO2017200080A1 (ja) * | 2016-05-20 | 2017-11-23 | 日本電信電話株式会社 | 対話方法、対話装置、及びプログラム |
CN108847226A (zh) * | 2017-04-12 | 2018-11-20 | 声音猎手公司 | 管理人机对话中的代理参与 |
CN107247726A (zh) * | 2017-04-28 | 2017-10-13 | 北京神州泰岳软件股份有限公司 | 适用于多业务场景的智能机器人的实现方法及装置 |
CN107331383A (zh) * | 2017-06-27 | 2017-11-07 | 苏州咖啦魔哆信息技术有限公司 | 一种基于人工智能电话外呼***及其实现方法 |
CN109580656A (zh) * | 2018-12-24 | 2019-04-05 | 广东华中科技大学工业技术研究院 | 基于动态权重组合分类器的手机导光板缺陷检测方法及*** |
CN109726288A (zh) * | 2018-12-28 | 2019-05-07 | 上海点融信息科技有限责任公司 | 基于人工智能处理的文本分类方法和装置 |
CN109949805A (zh) * | 2019-02-21 | 2019-06-28 | 江苏苏宁银行股份有限公司 | 基于意图识别及有限状态自动机的智能催收机器人及催收方法 |
CN110110058A (zh) * | 2019-04-22 | 2019-08-09 | 南京硅基智能科技有限公司 | 一种外呼机器人的意向打分方法及*** |
CN110188361A (zh) * | 2019-06-10 | 2019-08-30 | 北京智合大方科技有限公司 | 结合文本、语音与情绪特征的语音意图识别方法及装置 |
CN110413791A (zh) * | 2019-08-05 | 2019-11-05 | 哈尔滨工业大学 | 基于cnn-svm-knn组合模型的文本分类方法 |
CN110738545A (zh) * | 2019-08-30 | 2020-01-31 | 深圳壹账通智能科技有限公司 | 基于用户意向识别的产品推荐方法、装置、计算机设备和存储介质 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111653262A (zh) * | 2020-08-06 | 2020-09-11 | 上海荣数信息技术有限公司 | 一种智能语音交互***及方法 |
CN112202977A (zh) * | 2020-09-03 | 2021-01-08 | 深圳市彬讯科技有限公司 | 用于装企运营的外呼处理方法、装置、设备及介质 |
CN112231027A (zh) * | 2020-09-27 | 2021-01-15 | 中国建设银行股份有限公司 | 一种任务型会话配置方法和*** |
CN113191882A (zh) * | 2021-05-24 | 2021-07-30 | 中国工商银行股份有限公司 | 对账提醒方法、装置、电子设备及介质 |
CN114051077A (zh) * | 2021-11-17 | 2022-02-15 | 南京优数信息技术有限公司 | 一种外呼数据的分配方法和*** |
CN114051077B (zh) * | 2021-11-17 | 2024-03-08 | 南京优数信息技术有限公司 | 一种外呼数据的分配方法和*** |
CN117059082A (zh) * | 2023-10-13 | 2023-11-14 | 北京水滴科技集团有限公司 | 基于大模型的外呼通话方法、装置、介质和计算机设备 |
CN117059082B (zh) * | 2023-10-13 | 2023-12-29 | 北京水滴科技集团有限公司 | 基于大模型的外呼通话方法、装置、介质和计算机设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111464707A (zh) | 外呼处理方法、装置及*** | |
US11087094B2 (en) | System and method for generation of conversation graphs | |
US10515104B2 (en) | Updating natural language interfaces by processing usage data | |
US11601552B2 (en) | Hierarchical interface for adaptive closed loop communication system | |
US11004013B2 (en) | Training of chatbots from corpus of human-to-human chats | |
CN112346567B (zh) | 基于ai的虚拟交互模型生成方法、装置及计算机设备 | |
KR102119468B1 (ko) | 상담원의 상담내용을 기반으로 상담 챗봇을 학습하는 시스템 및 방법 | |
US11721356B2 (en) | Adaptive closed loop communication system | |
US20210020165A1 (en) | Alert generator for adaptive closed loop communication system | |
US8346563B1 (en) | System and methods for delivering advanced natural language interaction applications | |
JP5259913B2 (ja) | ユーザの共同体のプリファランスエンコーディングの考慮を介したアプリケーションおよびサービスの個人化をサポートする統計的モデルおよび方法 | |
CN114556354A (zh) | 自动确定和呈现来自事件的个性化动作项 | |
CA3151051A1 (en) | Method for conversion and classification of data based on context | |
US11544721B2 (en) | Supporting automation of customer service | |
CN112364234B (zh) | 一种在线讨论的自动分组*** | |
US20210021709A1 (en) | Configurable dynamic call routing and matching system | |
CN116049360A (zh) | 基于客户画像的智能语音对话场景话术干预方法及*** | |
CN112434501A (zh) | 工单智能生成的方法、装置、电子设备及介质 | |
EP4020468A1 (en) | System, method and apparatus for conversational guidance | |
CN112579757A (zh) | 智能问答方法、装置、计算机可读存储介质及电子设备 | |
CN112231027A (zh) | 一种任务型会话配置方法和*** | |
CN113627194A (zh) | 信息抽取方法及装置、通信消息分类方法及装置 | |
KR102653266B1 (ko) | 인공지능 기반의 챗봇 대화 상담 시스템 및 그 방법 | |
US20230067687A1 (en) | System and method and apparatus for integrating conversational signals into a dialog | |
JP7101357B2 (ja) | アンケート調査のためのシステム、プログラム、および方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200728 |