CN111916111A - 带情感的智能语音外呼方法及装置、服务器、存储介质 - Google Patents

带情感的智能语音外呼方法及装置、服务器、存储介质 Download PDF

Info

Publication number
CN111916111A
CN111916111A CN202010699699.0A CN202010699699A CN111916111A CN 111916111 A CN111916111 A CN 111916111A CN 202010699699 A CN202010699699 A CN 202010699699A CN 111916111 A CN111916111 A CN 111916111A
Authority
CN
China
Prior art keywords
emotion
voice
customer service
voice data
client
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010699699.0A
Other languages
English (en)
Other versions
CN111916111B (zh
Inventor
林希帆
张雷妮
张奕宁
欧歆
关生力
王臻杰
刘柄廷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Construction Bank Corp
Original Assignee
China Construction Bank Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Construction Bank Corp filed Critical China Construction Bank Corp
Priority to CN202010699699.0A priority Critical patent/CN111916111B/zh
Publication of CN111916111A publication Critical patent/CN111916111A/zh
Application granted granted Critical
Publication of CN111916111B publication Critical patent/CN111916111B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/527Centralised call answering arrangements not requiring operator intervention

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Signal Processing (AREA)
  • Hospice & Palliative Care (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Child & Adolescent Psychology (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本申请实施例公开了带情感的智能语音外呼方法及装置、服务器、存储介质,包括:获取第一流程节点的客服语料和客户语料,将客服语料转化为第一客服语音数据并发送至目标客户;接收目标客户的语音数据,根据语音数据对应的目标客户文本与客户语料的匹配结果,确定第一流程节点所在的目标流程基线;根据第一流程节点在目标流程基线中的流程顺序值,确定下一个流程节点;根据语音数据的语音特征信息和情绪文本信息得到语音数据的情绪标签;根据情感对照矩阵和情绪标签得到目标情绪标签;根据目标情绪标签和下一个流程节点的客服语料生成第二客服语音数据,并将第二客服语音数据回复至目标客户。采用本申请,可以提高外呼成功率以及外呼语音的拟人度。

Description

带情感的智能语音外呼方法及装置、服务器、存储介质
技术领域
本申请涉及智能客服领域,尤其涉及带情感的智能语音外呼方法及装置、服务器、存储介质。
背景技术
目前,智能语音外呼主要是机器人将获取到的客户语音对应的文本与语料库中客户语料进行匹配,并根据匹配结果在语料库中得到客服语料,将客服语料对应的语音回复至客户,但是,上述外呼方法主要是根据客户语音得到与该客户语音匹配的客服语料进行回复,整个外呼过程没有目的性,容易在外呼过程中出现被客户带偏的情况,导致外呼成功率不高。此外,智能语音外呼主要是机器人机械地对客户语音进行分析,并根据分析得到的结果进行语音答复,其答复语音千篇一律,过于单调,并且,答复语音的拟人相似度很差,其中,答复语音的拟人度指机器人针对客户语音对应的情绪模拟人工客服所采用的回复情绪,与人工客服针对该客户语音对应的情绪所采用的情绪之间的相似度。
发明内容
本申请实施例提供一种带情感的智能语音外呼方法及装置、服务器、存储介质,以期,提高外呼成功率以及外呼语音的拟人度。
第一方面,为本申请实施例提供了一种带情感的智能语音外呼方法,包括:
获取第一流程节点对应的客服语料和客户语料,将所述客服语料转化为第一客服语音数据并发送至目标客户;
接收所述目标客户的语音数据,将所述语音数据对应的目标客户文本与所述客户语料进行匹配得到匹配结果;
根据所述匹配结果,确定所述第一流程节点在多条流程基线中对应的目标流程基线,所述多条流程基线是基于历史对话语音记录确定的,所述流程基线包括多个流程节点以及每个流程节点在所述流程基线中的流程顺序值;
根据所述第一流程节点在所述目标流程基线中的流程顺序值,确定所述第一流程节点对应的下一个流程节点,获取所述下一个流程节点对应的客服语料;
提取所述语音数据的语音特征信息和情绪文本信息;
将所述语音特征信息和所述情绪文本信息输入情感识别模型,得到所述语音数据的情绪标签,所述情感识别模型是基于样本语音集合中每个语音数据的情绪标签训练得到;
从情感对照矩阵中获取包含所述情绪标签的多组客服客户情绪对照组,所述情感对照矩阵包括至少一组客服客户情绪对照组以及每组客服客户情绪对照组对应的外呼成功概率,所述客服客户情绪对照组对应的外呼成功概率由所述历史对话语音记录中包含所述客服客户情绪对照组的客服情绪标签、客户情绪标签并且外呼成功的对话语音记录确定,其中,所述历史对话语音记录包括每个对话语音记录的客服情绪标签、客户情绪标签以及外呼结果;
将外呼成功概率最高的客服客户情绪对照组中的客服情绪标签确定为目标情绪标签;
根据所述目标情绪标签以及所述下一个流程节点对应的客服语料生成所述第二客服语音数据,并将所述第二客服语音数据回复至所述目标客户。
可选的,所述获取第一流程节点对应的客服语料和客户语料之前,还包括:
将所述历史对话语音记录中的每个对话语音记录转化为多个文本,所述多个文本中的每个文本携带对话顺序值,所述多个文本包括第一文本;
计算所述第一文本的关键词分别与各个流程类别各自的流程标签之间的匹配度,得到所述第一文本与所述各个流程类别之间的多个类别匹配度值;
将所述多个类别匹配度值中最大值对应的流程类别确定为所述第一文本的流程类别;
根据所述每个文本携带的对话顺序值以及所述每个文本的流程类别,得到每个对话语音记录的对话链路,进而得到所述历史对话语音记录的对话链路集合,所述对话链路包括多个流程节点,所述流程节点与所述流程类别一一对应;
将所述对话链路集合中出现次数大于预设出现次数阈值的对话链路确定为所述流程基线。
可选的,所述根据所述匹配结果,确定所述第一流程节点在多条流程基线中对应的目标流程基线,包括:
在所述多条流程基线中获取包含所述第一流程节点的至少一条可选流程基线,每条可选流程基线中的所述第一流程节点均携带所述目标客户文本与所述客户语料的预设匹配结果;
将所述至少一条可选流程基线中各自第一流程节点携带的预设匹配结果中与所述匹配结果一致的可选流程基线确定为所述目标流程基线。
可选的,所述从情感对照矩阵中获取包含所述情绪标签的多组客服客户情绪对照组之前,还包括:
将所述每个对话语音记录分为客户语音数据和客服语音数据;
将所述客户语音数据的语音特征信息和情绪文本信息输入所述情感识别模型,得到所述每个对话语音记录的客户情绪标签;
将所述客服语音数据的语音特征信息和情绪文本信息输入所述情感识别模型,得到所述每个对话语音记录的客服情绪标签;
根据所述每个对话语音记录的客户情绪标签、客服情绪标签以及外呼结果,计算得到所述情感对照矩阵。
可选的,所述历史对话语音记录包括第一对话语音记录;
所述将所述每个对话语音记录分为客户语音数据和客服语音数据,包括:
根据所述第一对话语音记录得到多个语音片段,提取所述多个语音片段中每个语音片段的MFCC特征;
将所述MFCC特征输入身份矢量模型得到所述每个语音片段的身份矢量特征;
计算所述第一对话语音记录中两两身份矢量特征之间的相似度;
根据所述相似度,对所述第一对话语音记录中各个语音片段进行聚类,得到第一说话人语音集合和第二说话人语音集合;
计算各个说话人语音集合对应的关键词分别与客服标签、客户标签之间的匹配度,将匹配度最高的标签确定为所述各个说话人语音集合对应的标签;
根据所述各个说话人语音集合对应的标签将所述第一对话语音记录分为所述客户语音数据和所述客服语音数据。
可选的,所述情感识别模型包括卷积层、循环层和转录层;
所述将所述语音特征信息和所述情绪文本信息输入情感识别模型,得到所述语音数据的情绪标签,包括:
对所述语音特征信息和所述情绪文本信息进行融合得到融合信息,将所述融合信息输入所述情感识别模型;
通过卷积层对所述融合信息进行特征提取,得到所述语音数据的情绪特征;
通过所述循环层对所述情绪特征进行预测,得到所述语音数据的预测序列;
通过所述转录层将所述预测序列转换为所述语音数据的情绪标签。
可选的,所述提取所述语音数据的情绪文本信息,包括:
将所述语音数据对应的文本信息拆分为至少一个词语;
计算所述至少一个词语中目标词语分别与预设情绪文本集合中每个情绪词的相关程度,得到所述目标词语与所述每个情绪词的多个相关程度值;
将所述多个相关程度值中的最大值确定为所述目标词语的情绪分值,从而得到所述文本信息中每个词语的情绪分值;
将情绪分值大于预设阈值的词语确定为所述语音数据的情绪文本信息。
可选的,所述语音特征信息包括基频;
所述提取所述语音数据的语音特征信息,包括:
对所述语音数据进行分帧得到至少一个语音帧,对所述至少一个语音帧中的每一语音帧进行小波分解,得到每一语音帧对应的多个小波分解信号,每个小波分解信号包括多个语音采样点的小波高频分解信号以及小波低频分解信号;
根据所述至少一个语音帧的每相邻两次小波分解对应的小波低频分解信号的幅值中的最大值确定目标小波分解次数;
根据所述目标小波分解次数下的小波高频分解信号的周期计算得到所述语音数据的基频。
第二方面,为本申请实施例提供了一种带情感的智能语音外呼装置,包括:
第一获取发送模块,用于获取第一流程节点对应的客服语料和客户语料,将所述客服语料转化为第一客服语音数据并发送至目标客户;
接收匹配模块,用于接收所述目标客户的语音数据,将所述语音数据对应的目标客户文本与所述客户语料进行匹配得到匹配结果;
确定目标基线模块,用于根据所述匹配结果,确定所述第一流程节点在多条流程基线中对应的目标流程基线,所述多条流程基线是基于历史对话语音记录确定的,所述流程基线包括多个流程节点以及每个流程节点在所述流程基线中的流程顺序值;
确定获取模块,用于根据所述第一流程节点在所述目标流程基线中的流程顺序值,确定所述第一流程节点对应的下一个流程节点,获取所述下一个流程节点对应的客服语料;
提取模块,用于提取所述语音数据的语音特征信息和情绪文本信息;
客户情绪获取模块,用于将所述语音特征信息和所述情绪文本信息输入情感识别模型,得到所述语音数据的情绪标签,所述情感识别模型是基于样本语音集合中每个语音数据的情绪标签训练得到;
获取对照组模块,用于从情感对照矩阵中获取包含所述情绪标签的多组客服客户情绪对照组,所述情感对照矩阵包括至少一组客服客户情绪对照组以及每组客服客户情绪对照组对应的外呼成功概率,所述客服客户情绪对照组对应的外呼成功概率由所述历史对话语音记录中包含所述客服客户情绪对照组的客服情绪标签、客户情绪标签并且外呼成功的对话语音记录确定,其中,所述历史对话语音记录包括每个对话语音记录的客服情绪标签、客户情绪标签以及外呼结果;
客服情绪确定模块,用于将外呼成功概率最高的客服客户情绪对照组中的客服情绪标签确定为目标情绪标签;
生成回复模块,用于根据所述目标情绪标签以及所述下一个流程节点对应的客服语料生成所述第二客服语音数据,并将所述第二客服语音数据回复至所述目标客户。
可选的,所述装置还包括:流程基线确定模块。
所述流程基线确定模块,用于将所述历史对话语音记录中的每个对话语音记录转化为多个文本,所述多个文本中的每个文本携带对话顺序值,所述多个文本包括第一文本;
计算所述第一文本的关键词分别与各个流程类别各自的流程标签之间的匹配度,得到所述第一文本与所述各个流程类别之间的多个类别匹配度值;
将所述多个类别匹配度值中最大值对应的流程类别确定为所述第一文本的流程类别;
根据所述每个文本携带的对话顺序值以及所述每个文本的流程类别,得到每个对话语音记录的对话链路,进而得到所述历史对话语音记录的对话链路集合,所述对话链路包括多个流程节点,所述流程节点与所述流程类别一一对应;
将所述对话链路集合中出现次数大于预设出现次数阈值的对话链路确定为所述流程基线。
可选的,所述确定目标基线模块,具体用于:
在所述多条流程基线中获取包含所述第一流程节点的至少一条可选流程基线,每条可选流程基线中的所述第一流程节点均携带所述目标客户文本与所述客户语料的预设匹配结果;
将所述至少一条可选流程基线中各自第一流程节点携带的预设匹配结果中与所述匹配结果一致的可选流程基线确定为所述目标流程基线。
可选的,所述装置还包括:情感对照矩阵确定模块。
所述情感对照矩阵确定模块,用于将所述每个对话语音数据分为客户语音数据和客服语音数据;
将所述客户语音数据的语音特征信息和情绪文本信息输入所述情感识别模型,得到所述每个对话语音记录的客户情绪标签;
将所述客服语音数据的语音特征信息和情绪文本信息输入所述情感识别模型,得到所述每个对话语音记录的客服情绪标签;
根据所述每个对话语音记录的客户情绪标签、客服情绪标签以及外呼结果,计算得到所述情感对照矩阵。
可选的,所述历史对话语音记录包括第一对话语音记录;
所述情感对照矩阵确定模块,用于根据所述第一对话语音数据得到多个语音片段,提取所述多个语音片段中每个语音片段的MFCC特征;
将所述MFCC特征输入身份矢量模型得到所述每个语音片段的身份矢量特征;
计算所述第一对话语音数据中两两身份矢量特征之间的相似度;
根据所述相似度,对所述第一对话语音数据中各个语音片段进行聚类,得到第一说话人语音集合和第二说话人语音集合;
计算各个说话人语音集合对应的关键词分别与客服标签、客户标签之间的匹配度,将匹配度最高的标签确定为所述各个说话人语音集合对应的标签;
根据所述各个说话人语音集合对应的标签将所述第一对话语音数据分为所述客户语音数据和所述客服语音数据。
可选的,所述情感识别模型包括卷积层、循环层和转录层;
所述客户情绪获取模块,具体用于:
对所述语音特征信息和所述情绪文本信息进行融合得到融合信息,将所述融合信息输入所述情感识别模型;
通过卷积层对所述融合信息进行特征提取,得到所述语音数据的情绪特征;
通过所述循环层对所述情绪特征进行预测,得到所述语音数据的预测序列;
通过所述转录层将所述预测序列转换为所述语音数据的情绪标签。
可选的,所述提取模块,具体用于:
将所述语音数据对应的文本信息拆分为至少一个词语;
计算所述至少一个词语中目标词语分别与预设情绪文本集合中每个情绪词的相关程度,得到所述目标词语与所述每个情绪词的多个相关程度值;
将所述多个相关程度值中的最大值确定为所述目标词语的情绪分值,从而得到所述文本信息中每个词语的情绪分值;
将情绪分值大于预设阈值的词语确定为所述语音数据的情绪文本信息。
第三方面,为本申请实施例提供了一种服务器,包括处理器、存储器和收发器,所述处理器、所述存储器和所述收发器相互连接,其中,所述存储器用于存储支持所述电子设备执行上述智能语音外呼方法的计算机程序,所述计算机程序包括程序指令;所述处理器被配置用于调用所述程序指令,执行如上述本申请实施例一方面中所述的带情感的智能语音外呼方法。
第四方面,为本申请实施例提供了一种存储介质,所述存储介质存储有计算机程序,所述计算机程序包括程序指令;所述程序指令当被处理器执行时使所述处理器执行如本申请实施例一方面中所述的带情感的智能语音外呼方法。
在本申请实施例中,获取第一流程节点对应的客服语料和客户语料,将客服语料转化为第一客服语音数据并发送至目标客户;接收目标客户的语音数据,将语音数据对应的目标客户文本与客户语料进行匹配得到匹配结果;根据匹配结果,确定第一流程节点在多条流程基线中对应的目标流程基线;根据第一流程节点在目标流程基线中的流程顺序值,确定第一流程节点对应的下一个流程节点,获取下一个流程节点对应的客服语料;提取语音数据的语音特征信息和情绪文本信息;将语音特征信息和情绪文本信息输入情感识别模型,得到语音数据的情绪标签;从情感对照矩阵中获取包含情绪标签的多组客服客户情绪对照组;将外呼成功概率最高的客服客户情绪对照组中的客服情绪标签确定为目标情绪标签;根据目标情绪标签以及下一个流程节点对应的客服语料生成第二客服语音数据,并将第二客服语音数据回复至目标客户。采用本申请,可以提高外呼成功率以及外呼语音的拟人度。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种带情感的智能语音外呼方法的流程示意图;
图2是本申请实施例提供的一种带情感的智能语音外呼方法的流程示意图;
图3是本申请实施例提供的一种带情感的智能语音外呼装置的结构示意图;
图4是本申请实施例提供的一种服务器的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
请参见图1,是本申请实施例提供的一种带情感的智能语音外呼方法的流程示意图。如图1所示,该方法实施例包括如下步骤:
S101,获取第一流程节点对应的客服语料和客户语料,将客服语料转化为第一客服语音数据并发送至目标客户。
其中,第一流程节点可以为多条流程基线上的任意一个流程节点。多条流程基线是基于历史对话语音记录确定的,具体实现过程请参见后续实施例的描述,此处不再赘述。
若第一流程节点为多条流程基线上的第一个流程节点,则在执行步骤S101之前,智能语音外呼装置拨打目标客户的电话,并在电话接通后,获取第一流程节点对应的客服语料和客户语料,将客服语料转化为第一客服语音数据并发送至目标客户。
具体的,智能语音外呼装置根据第一流程节点对应的流程类别,在语料库中获取该流程类别下的客服语料和客户语料,即第一流程节点对应的客服语料和客户语料,并将该客服语料转化为语音,得到第一客服语音数据,并将第一客服语音数据发送至目标客户。之后,执行步骤S102。
S102,接收目标客户的语音数据,将语音数据对应的目标客户文本与客户语料进行匹配得到匹配结果。
其中,客户语料包含多种类型的客户文本。
具体的,智能语音外呼装置接收目标客户的语音数据,将该语音数据转化为文本,得到目标客户文本,并计算目标客户文本的关键词分别与各种类型的客户文本的类型标签之间的匹配度,得到目标客户文本分别与各种类型的客户文本之间的匹配度值,示例性的,若目标客户文本的关键词为A、B、C,第一类的客户文本的类型标签为a、b、c,则目标客户文本与第一类的客户文本之间的匹配度值计算公式可以为目标客户文本的关键词A、B、C分别与第一类的客户文本的类型标签a、b、c之间的匹配度的总和,其中单个关键词与单个类型标签之间的匹配度可以通过预设的匹配度表格获得。根据上述方式计算得到目标客户文本与各种类型的客户文本之间的匹配度,得到多个匹配度值,并根据多个匹配度值中的最大值对应的类型确定匹配结果,示例性的,若多个匹配度值中的最大值对应的类型为第一类型,则得到匹配结果为第一类型匹配。
S103,根据匹配结果,确定第一流程节点在多条流程基线中对应的目标流程基线。
其中,所述多条流程基线是基于历史对话语音记录确定的,所述流程基线包括多个流程节点以及每个流程节点在所述流程基线中的流程顺序值。
一种可能的实施方式中,在所述多条流程基线中获取包含所述第一流程节点的至少一条可选流程基线,每条可选流程基线中的所述第一流程节点均携带所述目标客户文本与所述客户语料的预设匹配结果;
将所述至少一条可选流程基线中各自第一流程节点携带的预设匹配结果中与所述匹配结果一致的可选流程基线确定为所述目标流程基线。
举例来说,智能语音外呼装置从多条流程基线“流程基线1:机主确认-产品介绍-挽回-成功登记,流程基线2:机主确认-产品介绍-成功登记,流程基线3:机主确认-产品介绍-挽回-挽回失败,以及流程基线4:机主确认-确认失败”中获取包含产品介绍节点的可选流程基线,即流程基线1、流程基线2和流程基线3,其中,流程基线1、流程基线2和流程基线3中的产品介绍节点携带的目标客户文本与客户语料的预设匹配结果分别为第二类型匹配、第一类型匹配和第二类型匹配,第一类型匹配为同意购买,第二类型匹配为拒绝购买,则将与步骤S102中的匹配结果,即第一类型匹配,一致的流程基线2确定为目标流程基线。
S104,根据第一流程节点在目标流程基线中的流程顺序值,确定第一流程节点对应的下一个流程节点,获取下一个流程节点对应的客服语料。
具体的,智能语音外呼装置将第一流程节点在目标流程基线中的流程顺序值加1,得到下一个流程节点在目标流程基线中的流程顺序值,根据下一个流程节点在目标流程基线中的流程顺序值确定第一流程节点对应的下一个流程节点。
举例来说,智能语音外呼装置根据产品介绍节点在“目标流程基线:机主确认-产品介绍-成功登记”中的流程顺序值2,计算得到下一个流程节点在目标流程基线中的流程顺序值为3,则将目标流程基线中流程顺序值为3的成功登记节点确定为产品介绍节点对应的下一个流程节点。
之后,智能语音外呼装置根据下一个流程节点对应的流程类别在语料库中获取该流程节点对应的客服语料。
S105,提取语音数据的语音特征信息和情绪文本信息。
可选的,所述语音特征信息包括基频;
所述提取所述语音数据的语音特征信息,包括:
对所述语音数据进行分帧得到至少一个语音帧,对所述至少一个语音帧中的每一语音帧进行小波分解,得到每一语音帧对应的多个小波分解信号,每个小波分解信号包括多个语音采样点的小波高频分解信号以及小波低频分解信号;
根据所述至少一个语音帧的每相邻两次小波分解对应的小波低频分解信号的幅值中的最大值确定目标小波分解次数;
根据所述目标小波分解次数下的小波高频分解信号的周期计算得到所述语音数据的基频。
其中,基频也就是基音频率。声音是通过物体的振动产生的,在振动的过程中,会引起气流的瞬间变化,这些变化导致语音信号的瞬间锐变,产生一个突变点,相邻两次突变点之间的时间间隔长度的倒数即为此时的基音频率。由于小波对信号突变点的检测能力很强,因此,可以通过确定小波变换后的极大值点位置,从而确定基音频率。
下面对小波分解进行详细介绍,将客户的语音数据分帧后得到的至少一个语音帧进行小波分解,本实施例以至少一个语音帧中的第一语音帧进行示例性说明。可以理解的是,小波分解的过程可以认为是高低通滤波的过程,高低通滤波特性根据选用的滤波器型号不同而不同,示例性的,可以选用16抽头Daubechies8小波。通过高低通滤波器得到第1级小波分解信号,第1级小波分解信号中包括小波低频分解信号L1和小波高频分解信号H1,继续对第1级小波分解信号中的小波低频分解信号L1进行高低通滤波得到第2级小波分解信号中的小波低频分解信号L2和小波高频分解信号H2,对第2级小波分解信号中的小波低频分解信号L2进行高低通滤波得到第3级小波分解信号中的小波低频分解信号L3和小波高频分解信号H3,以此类推,可以对输入信号进行多级小波分解,此处只是作示例性说明。可以理解的是,L3和H3包含着L2的全部信息,L2和H2包含着L1的全部信息,L1和H1包含着第一语音帧的全部信息,所以L3、H3、H2和H1通过拼接组成的第一小波分解信号可以代表着第一语音帧。
在一种可能的实现方式中,智能语音外呼装置以16kHz为客户的语音数据的采样频率,以10ms为帧移,10ms为帧长,对该语音数据进行分帧,每一个语音帧包括160个语音采样点,针对每个语音帧进行小波分解,第一高通滤波后的小波高频分解信号中的语音采样点个数为160个,第一低通滤波后的小波低频分解信号中的语音采样点个数也为160个,组成第1级小波分解信号,为了使小波分解后的语音采样点个数可以保持和原来语音帧的语音采样点个数一致,可以对进行高通滤波和低通滤波之后的信号进行降采样,即将第一低通滤波后的小波低频分解信号进行降采样,第一低通滤波后的小波低频分解信号的采样频率为第一语音帧采样频率的一半,则第一低通滤波降采样后的小波低频分解信号中的语音采样点个数为80;同理的,第一高通滤波降采样后的小波高频分解信号中的语音采样点个数为80,则第1级小波分解信号中的语音采样点个数为第一低通滤波降采样和第一高通滤波降采样后语音采样点个数加起来的160,与一个语音帧信号的语音采样点个数一致。
进一步地,智能语音外呼装置计算该语音数据中的所有语音帧的第k+1次小波分解对应的小波低频分解信号的幅值中的最大值与所有语音帧的第k次小波分解对应的小波低频分解信号的幅值中的最大值的比值α,若所述比值小于第一预设阈值A,则将k+1确定为最佳小波分解次数。其中,第一预设阈值A可以为π/2。
之后,智能语音外呼装置根据第k+1次小波分解对应的小波高频分解信号的幅值从多个语音采样点中确定至少一个极大值采样点,按照采样顺序计算每两个相邻极大值采样点之间的时间间隔以及每一个时间间隔值出现的次数,若每一个时间间隔值出现的次数不同,则将出现次数最多的时间间隔值的倒数确定为基音频率;若每一个时间间隔值出现的次数相同,则可以将时间间隔值的最大值的倒数或者所有时间间隔值的平均值的倒数确定为基音频率。
可选的,所述语音特征信息还包括共振峰。智能语音外呼装置提取语音数据的共振峰的具体实施过程如下:
智能语音外呼装置利用线性预测编码(Linear Predictive Coding,LPC)模型将该语音数据用LPC形式来表示,即:
Figure BDA0002592566850000121
其中,u(n)为激励函数,G为增益参数,β为LPC参数,γ表示极点个数。
进一步地,根据该语音数据的LPC形式得到其相应的数字滤波器传递函数g(n)=z(n)/(G*u(n))=1/∏(1-aβ*n)=1/∏(1-nβ*n),其中,nβ是g(n)在n-平面上的第β个极点,g(n)的所有极点都在z平面的单位圆内。则第β个共振峰的频率和带宽分别为θβ/2πT和ln(rβ)/πT。对上述g(n)进行求根,得到语音数据的共振峰。
可选的,所述提取所述语音数据的情绪文本信息,包括:
将所述语音数据转化成文本信息,将所述文本信息拆分为至少一个词语;
计算所述至少一个词语中目标词语分别与预设情绪文本集合中每个情绪词的相关程度,得到所述目标词语与所述每个情绪词的多个相关程度值;
将所述多个相关程度值中的最大值确定为所述目标词语的情绪分值,从而得到所述文本信息中每个词语的情绪分值;
将情绪分值大于预设阈值的词语确定为所述语音数据的情绪文本信息。
具体的,智能语音外呼装置将客户的语音数据转化成文本信息,将文本信息拆分为至少一个词语,计算至少一个词语中的目标词语分别与预设情绪文本集合中每个情绪词的相关程度值,计算公式如下:
Figure BDA0002592566850000131
公式中,A表示包含目标词语T并且属于情绪词ci的词语个数,B表示包含目标词语T但不属于情绪词ci的词语个数,C表示不包含目标词语T并且属于情绪词ci的词语个数,D表示不包含目标词语T并且不属于情绪词ci的词语个数。
之后,将目标词语多个相关程度值中的最大值确定为目标词语的情绪分值,根据上述方式得到文本信息中每个词语的情绪分值,按照情绪分值大小对文本信息的至少一个词语进行排序,将情绪分值大于等于预设阈值的前k个词语确定为语音数据的情绪文本信息,即语音数据的一个k维情绪文本信息。
S106,将语音特征信息和情绪文本信息输入情感识别模型,得到语音数据的情绪标签。
智能语音外呼装置在将语音特征信息和情绪文本信息输入情感识别模型之前,可先通过卷积循环神经网络的方式得到情感识别模型。
具体的,智能语音外呼装置在人工外呼语音库中随机选择样本语音集合,该样本语音集合包括至少一个人工外呼语音以及每一个人工外呼语音的文本信息,通过人工标注的方式获得样本语音集合中每一个人工外呼语音的实际情绪标签,之后,智能语音外呼装置提取样本语音集合中每一个人工外呼语音的语音特征信息和情绪文本信息,这里智能语音外呼装置提取每一个人工外呼语音的语音特征信息和情绪文本信息的具体实现方式请参照本步骤中智能语音外呼装置提取语音数据的语音特征信息和情绪文本信息的具体实现方式,此处不再赘述,从而得到样本语音集合的语音特征信息和情绪文本信息,并按照一定比例将样本语音集合划分为训练集、验证集。例如,样本语音集合共有2000个人工外呼语音以及每一个人工外呼语音对应的文本信息,通过人工分类的方式得到愤怒、热情、平淡和悲伤情绪的语音分别为200个、1000个、600个和200个,按照7:3的比例得到训练集和验证集的语音数量分别为1400个和600个。
之后,智能语音外呼装置将样本语音集合的语音特征信息和情绪文本信息进行融合,得到每个人工外呼语音的融合信息。
具体的,首先对语音特征信息中的基频和共振峰进行融合,由于基频的数据量和共振峰的数据量相近,可以采用主成分分析法对共振峰进行优化,将基频连接到优化后的共振峰之后,得到每个人工外呼语音的音频特征,进一步地,将每个人工外呼语音的音频特征和情绪文本信息输入一个限制波尔兹曼机(restricted Boltzmann machine,RBM)模型,得到每个人工外呼语音的融合信息。
之后,智能语音外呼装置将训练集中每一个人工外呼语音的融合信息以及实际情绪标签输入初始卷积循环神经网络模型进行训练学习,得到第一卷积循环神经网络模型,并将验证集的融合信息输入第一卷积循环神经网络模型,得到验证集的预测情绪标签,计算验证集的预测情绪标签中与实际情绪标签一致的语音的个数在验证集中包含的语音的总个数中所占的比例,并根据该比例判断第一卷积循环神经网络模型是否达到收敛条件,举例来说,智能语音外呼装置计算得到验证集的预测情绪标签中与实际情绪标签一致的语音的个数在验证集中包含的语音的总个数中所占的比例为60%,没有达到收敛条件,即预设输出准确率95%,因此,智能语音外呼装置根据上述所占比例即模型的输出准确率,改变第一卷积循环神经网络模型的参数,如学习率、神经网络中每一层的权重等,直至第一卷积循环神经网络模型满足收敛条件,如模型的输出准确率达到95%,则将此时的第一卷积循环神经网络模型确定为情感识别模型。
之后,智能语音外呼装置将语音特征信息和情绪文本信息输入情感识别模型,得到音频数据的情绪标签。
可选的,所述情感识别模型包括卷积层、循环层和转录层;
所述将所述语音特征信息和所述情绪文本信息输入情感识别模型,得到所述语音数据的情绪标签,包括:
对所述语音特征信息和所述情绪文本信息进行融合得到融合信息,将所述融合信息输入所述情感识别模型;
通过卷积层对所述融合信息进行特征提取,得到所述语音数据的情绪特征;
通过所述循环层对所述情绪特征进行预测,得到所述语音数据的预测序列;
通过所述转录层将所述预测序列转换为所述语音数据的情绪标签。
具体的,智能语音外呼装置将语音数据的基频、共振峰和情绪文本信息进行融合,得到语音数据的融合信息,这里智能语音外呼装置得到语音数据的融合信息的具体实现方式请参照该步骤中得到样本语音集合中每个人工外呼语音的融合信息的具体实现方式,此处不再赘述。
之后,将语音数据的融合信息输入情感识别模型,并通过情感识别模型中的卷积层对输入的语音数据的融合信息进行特征提取,这里可以将情感识别模型中的卷积层理解为一个除去全连接层的标准卷积神经网络模型,语音数据的融合信息首先进入标准卷积神经网络模型中的卷积层,随机选取融合信息中的一小部分作为样本,并从这个小样本中学***均池化运算方法和最大池化运算方法。平均池化运算方法是在一个特征集合里计算出一个平均特征代表该特征集合的特征;最大池化运算是在一个特征集合里提取出最大特征代表该特征集合的特征。通过卷积层的卷积处理和池化层的池化处理,可以提取出融合信息的静态结构特征信息,即可以得到语音数据的情绪特征。
之后,将语音数据的情绪特征输入情感识别模型的循环层,这里情感识别模型的循环层可以理解为循环神经网络模型,虽然循环神经网络能够对时间序列建模,但其学习长期依赖信息的能力是有限的,即如果当前的输出与之前很长一段序列有关,其依赖关系是很难被学习到的,因为序列太长和长期依赖会导致梯度消失或梯度***。因此,本实施例中选用特殊的循环神经网络模型即长短时记忆网络(Long Short-Term Memory,LSTM)模型对语音数据的情绪特征进行预测,得到语音数据的预测序列,可以将语音数据的预测序列理解为一个具有N个元素的概率行向量,其中,概率行向量包括元素ai,元素ai表示该语音数据的情绪标签为第i个情绪标签的概率。
之后,将语音数据的预测序列送至转录层,可以将转录层理解为利用(Connectionist Temporal Classification,CTC)联结主义时间分类算法,根据具有N个元素的概率行向量找到具有最高概率的情绪标签,即为语音数据的情绪标签。
S107,从情感对照矩阵中获取包含情绪标签的多组客服客户情绪对照组。
其中,所述情感对照矩阵包括至少一组客服客户情绪对照组以及每组客服客户情绪对照组对应的外呼成功概率,所述客服客户情绪对照组对应的外呼成功概率由历史对话语音记录中包含所述客服客户情绪对照组的客服情绪标签、客户情绪标签并且外呼成功的对话语音记录确定,其中,所述历史对话语音记录包括每个对话语音记录的客服情绪标签、客户情绪标签以及外呼结果。
这里,先介绍获取情感对照矩阵的具体实现方式:智能语音外呼装置在将历史对话语音记录中每个对话语音记录分为客户语音数据和客服语音数据后,分别提取每个对话语音记录的客户语音数据和客服语音数据的语音特征信息和情绪文本信息,之后分别将每个对话语音记录的客户语音数据和客服语音数据的语音特征信息和情绪文本信息进行融合,得到客户语音数据的融合信息和客服语音数据的融合信息,将客户语音数据的融合信息和客服语音数据的融合信息输入情感识别模型,得到每个对话语音记录的客户情绪标签和客服情绪标签,并计算历史对话语音记录中客服情绪标签为第i个情绪标签、客户情绪标签为第j个情绪标签,并且外呼成功的对话语音记录个数与历史对话语音记录中客服情绪标签为第i个情绪标签、客户情绪标签为第j个情绪标签的对话语音记录个数之间的比值Pij,即得到一组客服客户情绪对照组,该客服客户情绪对照组中客服情绪标签为第i个情绪标签、客户情绪标签为第j个情绪标签,并且该客服客户情绪对照组的外呼成功概率为Pij,进而得到多组客服客户情绪对照组以及每组客服客户情绪对照组的外呼成功概率,即情感对照矩阵。
需要说明的是,情感对照矩阵为方阵,即该矩阵的行列数相等,并且,该矩阵的行数m、列数n均为大于等于3的整数,当n=3时,客服情绪标签、客户情绪标签包括负面情绪、中性情绪和正面情绪,当n=4,客服情绪标签、客户情绪标签包括愤怒、热情、平淡和悲伤。示例性的,当n=4时,情感对照矩阵如下:
Figure BDA0002592566850000161
其中,该情感对照矩阵中每一行表示当客服情绪为该行所对应的情绪标签时,客户情绪取不同情绪标签所对应的外呼成功概率,并且该情感对照矩阵包括16组客服客户情绪对照组以及每组客服客户情绪对照组对应的外呼成功概率,即愤怒-愤怒情绪对照组以及该组的外呼成功概率P11、愤怒-热情情绪对照组以及该组的外呼成功概率P12、愤怒-平淡情绪对照组以及该组的外呼成功概率P13、…、悲伤-悲伤情绪对照组以及该组的外呼成功概率P44
举例来说,智能语音外呼装置得到语音数据的情绪标签为平淡,则从情感对照矩阵中得到包含客户情绪标签为平淡的4组客服客户情绪对照组,即愤怒-平淡情绪对照组、热情-平淡情绪对照组、平淡-平淡情绪对照组和悲伤-平淡情绪对照组。
S108,将外呼成功概率最高的客服客户情绪对照组中的客服情绪标签确定为目标情绪标签。
举例来说,若包含客户情绪标签为平淡的4组客服客户情绪对照组中愤怒-平淡情绪对照组、热情-平淡情绪对照组、平淡-平淡情绪对照组和悲伤-平淡情绪对照组的外呼成功概率分别为0.2、0.9、0.5和0.1,则智能语音外呼装置将外呼成功功率最高的热情-平淡情绪对照组中的客服情绪标签,即热情,确定为目标情绪标签。
S109,根据目标情绪标签以及下一个流程节点对应的客服语料生成第二客服语音数据,并将第二客服语音数据回复至目标客户。
智能语音外呼装置根据下一流程节点的客服语料,并通过查找语音情感参数表格的方式获取目标情绪标签对应的情感参数,比如语速,语调等参数,并调整上述情感参数,从而生成情感为目标情绪标签,并且内容为下一个流程节点中客服语料的第二客服语音数据,并将第二客服语音数据回复至目标客户。
在本申请实施例中,智能语音外呼装置在将第一流程节点对应的客服语料转化为语音数据发送至目标客户后,根据目标客户的语音数据对应的目标客户文本与第一流程节点对应的客户语料进行匹配,并根据匹配结果确定第一流程节点在多条流程基线中对应的目标流程基线,根据第一流程节点在目标流程基线中的流程顺序值确定第一流程节点对应的下一个流程节点,之后智能语音外呼装置通过情感识别模型得到目标客户的语音数据的情绪标签,并根据该情绪标签将情感对照矩阵中包含该情绪标签并且外呼成功概率最高的客服客户情绪对照组中的客服情绪标签确定为目标情绪标签,根据目标情绪标签以及下一个流程节点对应的客服语料生成具有目标情绪的回复语音,并将该回复语音回复至目标客户,由于整个外呼过程均是基于根据历史对话语音记录得到的流程基线进行的,使得外呼过程更加具有针对性,此外,发送至目标客户的回复语音对应的情绪标签是情感对照矩阵中包含目标客户的语音数据的情绪标签并且外呼成功概率最高的客服客户情绪对照组中的客服情绪标签,因此,不仅提高了外呼营销成功率,还提高了外呼语音的拟人度。
请参见图2,是本申请实施例提供的一种带情感的智能语音外呼方法的流程示意图。如图2所示,该方法实施例包括如下步骤:
S201,根据历史对话语音记录确定多条流程基线。
一种可能的实施方式中,智能语音外呼装置将所述历史对话语音记录中的每个对话语音记录转化为多个文本,所述多个文本中的每个文本携带对话顺序值,所述多个文本包括第一文本;
计算所述第一文本的关键词分别与各个流程类别各自的流程标签之间的匹配度,得到所述第一文本与所述各个流程类别之间的多个类别匹配度值;
将所述多个类别匹配度值中最大值对应的流程类别确定为所述第一文本的流程类别;
根据所述每个文本携带的对话顺序值以及所述每个文本的流程类别,得到每个对话语音记录的对话链路,进而得到所述历史对话语音记录的对话链路集合,所述对话链路包括多个流程节点,所述流程节点与所述流程类别一一对应;
将所述对话链路集合中出现次数大于预设出现次数阈值的对话链路确定为所述流程基线。
具体的,智能语音外呼装置将历史对话语音记录中的每个对话语音记录均转化为文本,得到每个对话语音记录对应的多个文本,计算多个文本中第一文本的关键词与各个流程类别各自的流程标签之间的匹配度,得到第一文本与各个流程类别之间的多个类别匹配度值,示例性的,若第一文本的关键词A、B、C与第一流程类别的流程标签a、b、c之间的类别匹配度值计算公式可以为第一文本的关键词A、B、C分别与第一流程类别的流程类别标签a、b、c之间的匹配度的总和,其中单个关键词与单个流程类别标签之间的匹配度可以通过预设的匹配度表格获得。根据上述方式计算得到第一文本与各个流程类别之间的类别匹配度,得到多个类别匹配值,将多个类别匹配值中最大值对应的流程类别确定为第一文本的流程类别,根据上述方式得到每个对话语音记录中每个文本的流程类别,并将每个文本携带的对话顺序值按照从小到大的顺序对每个文本的流程类别进行排序,进而得到每个对话语音记录的对话链路,示例性的,若第一对话语音记录中文本a1至文本a7各自携带的对话顺序值分别为1-7,以及文本a1至文本a7的流程类别分别为机主确认、机主确认、产品介绍、产品介绍、挽回、挽回和成功登记,则得到第一对话语音记录的对话链路为机主确认-产品介绍-挽回-成功登记,该对话链路包括四个流程节点,分别为机主确认节点、产品介绍节点、挽回节点和成功登记节点,并且,上述四个流程节点对应的流程类别分别为机主确认、产品介绍、挽回和成功登记。根据上述方式,得到每个语音对话记录的对话链路,进而得到历史对话语音记录的对话链路集合,将对话链路集合中出现次数大于预设出现次数阈值(如100)的对话链路确定为流程基线,或者,将对话链路集合中的对话链路按照出现次数从高到低的顺序进行排序,得到排序后的对话链路集合,将排序后的对话链路集合中的前n个对话链路确定为流程基线。
S202,获取第一流程节点对应的客服语料和客户语料,将客服语料转化为第一客服语音数据并发送至目标客户。
在执行步骤S202之前,智能语音外呼装置根据历史对话语音记录确定语料库,具体实现方式如下:
可选的,所述历史对话语音记录包括第一对话语音记录,所述第一对话语音记录包括第一对话语音数据;
所述将所述每个对话语音数据分为客户语音数据和客服语音数据,包括:
根据所述第一对话语音数据得到多个语音片段,提取所述多个语音片段中每个语音片段的MFCC特征;
将所述MFCC特征输入身份矢量模型得到所述每个语音片段的身份矢量特征;
计算所述第一对话语音数据中两两身份矢量特征之间的相似度;
根据所述相似度,对所述第一对话语音数据中各个语音片段进行聚类,得到第一说话人语音集合和第二说话人语音集合;
计算各个说话人语音集合对应的关键词分别与客服标签、客户标签之间的匹配度,将匹配度最高的标签确定为所述各个说话人语音集合对应的标签;
根据所述各个说话人语音集合对应的标签将所述第一对话语音数据分为所述客户语音数据和所述客服语音数据。
具体的,智能语音外呼装置将第一对话语音数据通过高斯混合模型进行语音侦测得到多个只包含一位说话人的语音片段,将这些多个只包含一位说话人的语音片段串接成一个新的语音数据,将新的语音数据切割成许多长度相同并部分重叠的多个语音片段。
之后,智能语音外呼装置提取多个语音片段中每个语音片段的MFCC特征,具体实现方式如下:
智能语音外呼装置可以用有限长度的窗函数来截取每个语音片段形成分析帧,窗函数将需要处理区域以外的采样点置零来获得当前语音帧。
可选的,本申请实施例中的窗函数可以使用汉明窗窗函数,即,
Figure BDA0002592566850000201
其中,N为帧长,通常取256或512。
之后得到加窗处理后第n时刻对应的语音片段Sω(n),即,
Sω(n)=S(n)×ω(n)
其中,S(n)为第n时刻对应的语音片段,即n时刻的语音采样值。
之后,对加窗处理后第n时刻对应的语音片段Sω(n)进行预加重,使用y(n)=x(n)-ax(n-1)对加窗处理后的语音片段Sω(n)进行处理,其中x(n)为第n时刻加窗处理后的语音片段Sω(n)的语音采样值,a为预加重系数,a的值介于0.9和1之间,示例性的,a=0.9375,y(n)为经过预加重处理的信号。可以理解为,预加重处理将语音片段通过一个高通滤波器,对高频成分进行补偿,减少了***发音或麦克风录音的过程带来的高频损失。
在对语音片段进行加窗预加重处理得到语音片段的每一语音帧后,还需要对每一语音帧进行快速傅里叶变换得到每一语音帧的频谱。示例性的,每一语音帧可以通过以下公式完成离散傅里叶变换得到每一语音帧的频谱。
Figure BDA0002592566850000202
其中,x(n)为加窗预加重处理后的语音片段,N表示傅里叶变换的点数。
智能语音外呼装置对每一语音帧的频谱幅度取平方得到每一语音帧的能量谱,由于人耳在分辨语音时,耳蜗相当于一个滤波器组,在对数域上对语音进行滤波,即相比于频率f,梅尔频率fMel=2595×log(1+f/700)更接近人耳的听觉机理,故之后需要将每一语音帧的能量谱通过一组Mel频率滤波器组(M个Mel带通滤波器),得到M个Mel带通滤波器的输出功率谱。
智能语音外呼装置对输出功率谱取对数,之后进行反离散余弦变化,得到若干个MFCC系数(Mel-Frequency Cepstral Coefficients,梅尔频率倒谱系数),即静态特征,一般为12-16个,静态特征可以通过以下公式计算得到:
Figure BDA0002592566850000211
其中,x(k)为每个Mel带通滤波器的输出功率谱,C0为频谱能量。
之后,智能语音外呼装置将静态特征和频谱能量做一阶、二阶差分得到动态特征,并将静态特征和动态特征求和得到每一语音帧对应的特征向量,进而得到每个语音片段的MFCC特征。
可选的,身份矢量模型包括X-VECTOR模型。
之后,智能语音外呼装置将每个语音片段的MFCC特征输入训练好的X-VECTOR模型,得到每个语音片段的X-VECTOR特征,并计算两两X-VECTOR特征之间的余弦相似度S=<X1,X2>/(‖X1‖*‖X2‖),其中,X1和X2表示X-VECTOR特征,S表示两两X-VECTOR特征之间的夹角余弦值,当夹角越小时,两两X-VECTOR特征之间的相似度越高。
进一步地,根据所述相似度,对第一对话语音数据中各个语音片段进行聚类,得到第一说话人语音集合和第二说话人语音集合。
具体的,智能语音外呼装置运用k-means算法对第一对话语音数据中各个语音片段的X-VECTOR特征进行聚类,实现过程如下:1)随机从多个X-VECTOR特征中选取两个X-VECTOR特征作为两个群的群心,即群C1和群C2的群心分别为Q1和Q2;2)遍历剩下的X-VECTOR特征分别与Q1和Q2之间的相似度,并比较大小,若该X-VECTOR特征与Q1之间的相似度更高,则将该X-VECTOR特征分配到群C1,否则分配到群C2,根据上述方式将每个X-VECTOR特征分配完毕;3)重新计算群C1和群C2的群心,重复步骤2)和3),直到k-means算法达到收敛条件,如达到最大迭代次数,则聚类结束,得到第一说话人语音集合和第二说话人语音集合。
之后,计算各个说话人语音集合对应的关键词分别与客服标签、客户标签之间的匹配度,示例性的,若第一说话人语音集合对应的关键词为A、B、C,客服标签为a、b、c,则第一说话人语音集合与客服标签之间的匹配度计算公式可以为第一说话人语音集合对应的关键词为A、B、C分别与客服标签为a、b、c之间的匹配度的总和,其中单个关键词与单个客服标签之间的匹配度可以通过预设的匹配度表格获得。根据上述方式计算得到第一说话人语音集合与客户标签之间的匹配度,并将第一说话人语音集合分别与客户标签、客服标签之间的匹配度中匹配度最大的标签确定为第一说话人语音集合对应的标签。根据上述方式确定第二说话人语音集合对应的标签。进一步地,根据上述方式将历史对话语音记录中每个对话语音记录的对话语音数据分为客服语音数据和客户语音数据。
智能语音外呼装置将所有对话语音记录的客户语音数据和客服语音数据转化为文本,得到客户文本集合和客服文本集合。
将客户文本集合中的第一客户文本中的每个词语通过One-Hot Encoder的方式将每个词语转化为离散的符号,也就是说,第一客户文本中的每个词语对应一个行向量,该行向量中只有一个值为1,其余值都为0,即每个词语对应的行向量为该词语的初始词向量,其中,初始词向量的维数由人为设定,这里不做限定。由于不同的客户文本中包含的词语的个数不一样,为了使每个客户文本的初始矩阵的行列数一致,则将客户文本中的每个词语的初始词向量,按照每个词语在客户文本中的出现顺序进行排序,得到一个m行n列的矩阵,之后,将客户文本中包含的词语的个数l与初始矩阵的预设行数L进行比较,若词语的个数小于初始矩阵的预设行数,则在上述m行n列的矩阵中的第m+1行依次向下添加(L-l)个n维零向量后,得到一个L行n列的矩阵,即客户文本的初始矩阵。将客户文本的初始矩阵和包含预设值(隐含层神经元个数)个输入权重列向量的输入权重矩阵相乘,得到客户文本的文本矩阵,即得到每个词语的word2vec词向量。其中,输入权重矩阵是输入权重矩阵是基于样本文本集合以及该集合中每个文本的多个初始词向量训练得到的。训练过程可以理解为,Word2vec模型中的连续词袋(Continuous bag of words,CBOW)模型,即隐含层数量为1的神经网络模型,通过每一个文本中除目标词语外的其他词语的初始词向量对目标词语的词向量进行预测,得到目标词语的预测词向量,通过调整CBOW模型中的初始输入权重矩阵和初始输出权重矩阵,不断减小目标词语的预测词向量中的每个元素值与目标词语的初始词向量中的每个元素值之间的误差,当每个元素之间的误差值均达到最小时,则将此时调整后的初始输入权重矩阵确定为输入权重矩阵。
之后,将第一客户文本中每个词语的word2vec词向量输入预先训练好的基于语言模型的词向量(Embeddings from Language Models,ELMO)模型,对于每个词语的word2vec词向量而言,对于L层的Bilm模型,一共有2L+1个表示,每一层有一个前向LSTM输出和一个后向LSTM输出,两者建单拼接后,对于每一层就有了2X*1的列向量。将最顶层的LSTM输出的向量汇总,作为每个词语的ELMO向量,其中,ELMO模型是基于样本文本集合以及该集合中每个文本的多个word2vec词向量训练得到的,具体训练过程这里不再赘述。根据上述方式得到客户文本集合中每个客户文本的至少一个ELMO向量。运用k-means算法将客户文本集合中所有客户文本的ELMO向量进行聚类,实现过程如下:1)随机从多个ELMO向量中选取N个ELMO向量作为N个群的群心,即群C1、群C2、…、群CN的群心分别为Q1、Q2…、QN;2)遍历剩下的ELMO向量分别与Q1、Q2…、QN之间的欧几里得距离,并比较大小,若该ELMO向量与Q1之间的欧几里得距离最小,则将该ELMO向量分配到群C1,根据上述方式将每个ELMO向量分配完毕;3)重新计算群C1、群C2、…、群CN的群心,重复步骤2)和3),直到k-means算法达到收敛条件,如达到最大迭代次数,则聚类结束,得到N个文本集合,其中,N为流程类别的个数。
进一步地,计算N个文本集合中每个文本集合中出现的高频词与每个流程类别的流程类别标签之间的匹配度。若第一文本集合的高频词为A、B、C,第一流程类别的流程类别标签为a、b、c,则第一文本集合与所述第一流程类别之间的类别匹配度值计算公式可以为第一文本集合的高频词A、B、C分别与第一流程类别的流程类别标签a、b、c之间的匹配度的总和,其中单个高频词与单个流程类别标签之间的匹配度可以通过预设的匹配度表格获得。根据上述方式计算得到第一文本集合与各个流程类别之间的类别匹配度,得到多个类别匹配值,将多个类别匹配值中最高类别匹配值对应的流程类别确定为第一文本集合对应的流程类别,根据上述方式得到N个文本集合中每个文本集合对应的流程类别。
进一步地,根据上述方式将客服文本集合划分为N个文本集合,并得到N个文本集合中每个文本集合对应的流程类别。由于客服文本集合中每一个客服文本均携带外呼结果,则将N个文本集合中每个文本集合中外呼结果为成功,并且出现次数最多的文本确定为该文本集合对应的流程类别中的客服语料,进而得到语料库中每个流程类别对应的客服语料,根据上述方式得到语料库中每个流程类别对应的客户语料,运用k-means算法对各个流程类别中第一流程类别的客户语料所包含的所有客户文本的ELMO向量进行聚类,得到第一流程类别的客户语料的m个文本集合,将m个文本集合中第一文本集合的关键词与第一流程类别中的各个客户语料类型的类型标签进行匹配,得到多个匹配度值,将多个匹配度值中的最大值对应的客户语料类型确定为第一文本集合的客户语料类型,根据上述方式可以得到第一流程类别的客户语料中的每个文本集合的客户语料类型,进而得到各个流程类别的客户语料中的每个文本集合的客户语料类型,各个流程类别的客服语料和各个流程类别对应多种客户语料组成语料库,如表1所示。
表1、语料库
Figure BDA0002592566850000241
Figure BDA0002592566850000251
之后,智能语音外呼装置根据第一流程节点对应的流程类别,在语料库中获取该流程类别下的客服语料和客户语料,即第一流程节点对应的客服语料和客户语料,并将该客服语料转化为语音,得到第一客服语音数据,并将第一客服语音数据发送至目标客户。
S203,接收目标客户的语音数据,将语音数据对应的目标客户文本与客户语料进行匹配得到匹配结果。
S204,根据匹配结果,确定第一流程节点在多条流程基线中对应的目标流程基线。
其中,所述多条流程基线是基于历史对话语音记录确定的,所述流程基线包括多个流程节点以及每个流程节点在所述流程基线中的流程顺序值。
S205,根据第一流程节点在目标流程基线中的流程顺序值,确定第一流程节点对应的下一个流程节点,获取下一个流程节点对应的客服语料。
S206,提取语音数据的语音特征信息和情绪文本信息。
S207,将语音特征信息和情绪文本信息输入情感识别模型,得到语音数据的情绪标签。
S208,从情感对照矩阵中获取包含情绪标签的多组客服客户情绪对照组。
S209,将外呼成功概率最高的客服客户情绪对照组中的客服情绪标签确定为目标情绪标签。
S210,根据目标情绪标签以及下一个流程节点对应的客服语料生成第二客服语音数据,并将第二客服语音数据回复至目标客户。
这里,步骤S203-步骤S210的具体实现方式可参考图1对应的实施例中步骤S102-步骤S109的描述,此处不再赘述。
在本申请实施例中,智能语音外呼装置在将第一流程节点对应的客服语料转化为语音数据发送至目标客户后,根据目标客户的语音数据对应的目标客户文本与第一流程节点对应的客户语料进行匹配,并根据匹配结果确定第一流程节点在多条流程基线中对应的目标流程基线,根据第一流程节点在目标流程基线中的流程顺序值确定第一流程节点对应的下一个流程节点,之后智能语音外呼装置通过情感识别模型得到目标客户的语音数据的情绪标签,并根据该情绪标签将情感对照矩阵中包含该情绪标签并且外呼成功概率最高的客服客户情绪对照组中的客服情绪标签确定为目标情绪标签,根据目标情绪标签以及下一个流程节点对应的客服语料生成具有目标情绪的回复语音,并将该回复语音回复至目标客户,由于整个外呼过程均是基于根据历史对话语音记录得到的流程基线进行的,使得外呼过程更加具有针对性,此外,发送至目标客户的回复语音对应的情绪标签是情感对照矩阵中包含目标客户的语音数据的情绪标签并且外呼成功概率最高的客服客户情绪对照组中的客服情绪标签,因此,不仅提高了外呼营销成功率,还提高了外呼语音的拟人。
此外,智能语音外呼装置在接收到目标客户的语音数据后还可以通过以下方式确定第一流程节点对应的下一个流程节点:
智能语音外呼装置从多条流程基线中获取包含第一流程节点的多条可选流程基线,并根据第一流程节点在每条可选流程基线上的流程顺序值n,获取第一流程节点在每条可选流程基线上流程顺序值为n+1的可选流程节点,进而得到第一流程节点在多条可选流程基线上的多个可选流程节点,并计算语音数据对应的目标客户文本与每个可选流程节点对应的客户语料之间的匹配度,得到多个匹配度值,将多个匹配度值中的最大值对应的可选流程节点确定为第一流程节点对应的下一个流程节点。这里,每个流程节点对应的客户语料为智能语音外呼装置在该流程节点的上一个流程节点获取的客户语音转化的文本,其中,每个流程节点对应的客服语料和客户语料均是根据历史对话语音记录得到的,此外,流程基线中的第一个流程节点包含客服语料,不包含客户语料。
请参见图3,是本申请实施例提供的一种带情感的智能语音外呼装置的结构示意图。如图3所示,该带情感的智能语音外呼装置3包括第一获取发送模块31、接收匹配模块32、确定目标基线模块33、确定获取模块34、提取模块35、客户情绪获取模块36、获取对照组模块37、客服情绪确定模块38和生成回复模块39。
第一获取发送模块31,用于获取第一流程节点对应的客服语料和客户语料,将所述客服语料转化为第一客服语音数据并发送至目标客户;
接收匹配模块32,用于接收所述目标客户的语音数据,将所述语音数据对应的目标客户文本与所述客户语料进行匹配得到匹配结果;
确定目标基线模块33,用于根据所述匹配结果,确定所述第一流程节点在多条流程基线中对应的目标流程基线,所述多条流程基线是基于历史对话语音记录确定的,所述流程基线包括多个流程节点以及每个流程节点在所述流程基线中的流程顺序值;
确定获取模块34,用于根据所述第一流程节点在所述目标流程基线中的流程顺序值,确定所述第一流程节点对应的下一个流程节点,获取所述下一个流程节点对应的客服语料;
提取模块35,用于提取所述语音数据的语音特征信息和情绪文本信息;
客户情绪获取模块36,用于将所述语音特征信息和所述情绪文本信息输入情感识别模型,得到所述语音数据的情绪标签,所述情感识别模型是基于样本语音集合中每个语音数据的情绪标签训练得到;
获取对照组模块37,用于从情感对照矩阵中获取包含所述情绪标签的多组客服客户情绪对照组,所述情感对照矩阵包括至少一组客服客户情绪对照组以及每组客服客户情绪对照组对应的外呼成功概率,所述客服客户情绪对照组对应的外呼成功概率由所述历史对话语音记录中包含所述客服客户情绪对照组的客服情绪标签、客户情绪标签并且外呼成功的对话语音记录确定,其中,所述历史对话语音记录包括每个对话语音记录的客服情绪标签、客户情绪标签以及外呼结果;
客服情绪确定模块38,用于将外呼成功概率最高的客服客户情绪对照组中的客服情绪标签确定为目标情绪标签;
生成回复模块39,用于根据所述目标情绪标签以及所述下一个流程节点对应的客服语料生成所述第二客服语音数据,并将所述第二客服语音数据回复至所述目标客户。
可选的,所述装置还包括:流程基线确定模块310。
所述流程基线确定模块310,用于将所述历史对话语音记录中的每个对话语音记录转化为多个文本,所述多个文本中的每个文本携带对话顺序值,所述多个文本包括第一文本;
计算所述第一文本的关键词分别与各个流程类别各自的流程标签之间的匹配度,得到所述第一文本与所述各个流程类别之间的多个类别匹配度值;
将所述多个类别匹配度值中最大值对应的流程类别确定为所述第一文本的流程类别;
根据所述每个文本携带的对话顺序值以及所述每个文本的流程类别,得到每个对话语音记录的对话链路,进而得到所述历史对话语音记录的对话链路集合,所述对话链路包括多个流程节点,所述流程节点与所述流程类别一一对应;
将所述对话链路集合中出现次数大于预设出现次数阈值的对话链路确定为所述流程基线。
可选的,所述确定目标基线模块33,具体用于:
在所述多条流程基线中获取包含所述第一流程节点的至少一条可选流程基线,每条可选流程基线中的所述第一流程节点均携带所述目标客户文本与所述客户语料的预设匹配结果;
将所述至少一条可选流程基线中各自第一流程节点携带的预设匹配结果中与所述匹配结果一致的可选流程基线确定为所述目标流程基线。
可选的,所述装置还包括:情感对照矩阵确定模块311。
所述情感对照矩阵确定模块311,用于将所述每个对话语音数据分为客户语音数据和客服语音数据;
将所述客户语音数据的语音特征信息和情绪文本信息输入所述情感识别模型,得到所述每个对话语音记录的客户情绪标签;
将所述客服语音数据的语音特征信息和情绪文本信息输入所述情感识别模型,得到所述每个对话语音记录的客服情绪标签;
根据所述每个对话语音记录的客户情绪标签、客服情绪标签以及外呼结果,计算得到所述情感对照矩阵。
可选的,所述历史对话语音记录包括第一对话语音记录;
所述情感对照矩阵确定模块311,用于根据所述第一对话语音数据得到多个语音片段,提取所述多个语音片段中每个语音片段的MFCC特征;
将所述MFCC特征输入身份矢量模型得到所述每个语音片段的身份矢量特征;
计算所述第一对话语音数据中两两身份矢量特征之间的相似度;
根据所述相似度,对所述第一对话语音数据中各个语音片段进行聚类,得到第一说话人语音集合和第二说话人语音集合;
计算各个说话人语音集合对应的关键词分别与客服标签、客户标签之间的匹配度,将匹配度最高的标签确定为所述各个说话人语音集合对应的标签;
根据所述各个说话人语音集合对应的标签将所述第一对话语音数据分为所述客户语音数据和所述客服语音数据。
可选的,所述情感识别模型包括卷积层、循环层和转录层;
所述客户情绪获取模块36,具体用于:
对所述语音特征信息和所述情绪文本信息进行融合得到融合信息,将所述融合信息输入所述情感识别模型;
通过卷积层对所述融合信息进行特征提取,得到所述语音数据的情绪特征;
通过所述循环层对所述情绪特征进行预测,得到所述语音数据的预测序列;
通过所述转录层将所述预测序列转换为所述语音数据的情绪标签。
可选的,所述提取模块35,具体用于:
将所述语音数据对应的文本信息拆分为至少一个词语;
计算所述至少一个词语中目标词语分别与预设情绪文本集合中每个情绪词的相关程度,得到所述目标词语与所述每个情绪词的多个相关程度值;
将所述多个相关程度值中的最大值确定为所述目标词语的情绪分值,从而得到所述文本信息中每个词语的情绪分值;
将情绪分值大于预设阈值的词语确定为所述语音数据的情绪文本信息。
可以理解的,该带情感的智能语音外呼装置3用于实现图1和图2实施例中带情感的智能语音外呼装置所执行的步骤。关于图3的带情感的智能语音外呼装置3包括的功能块的具体实现方式及相应的有益效果,可参考前述图1和图2的实施例的具体介绍,这里不赘述。
上述图3所示实施例中的带情感的智能语音外呼装置3可以以图4所示的服务器400来实现。请参见图4,为本申请实施例提供了一种服务器的结构示意图。如图4所示,上述服务器400可以包括:一个或多个处理器401、存储器402和收发器403。上述处理器401、存储器402和收发器403通过总线404连接。其中,上述收发器403用于接收或者发送数据,上述存储器402用于存储计算机程序,该计算机程序包括程序指令;处理器401用于执行存储器402存储的程序指令,执行如下操作:
获取第一流程节点对应的客服语料和客户语料,将所述客服语料转化为第一客服语音数据并发送至目标客户;
接收所述目标客户的语音数据,将所述语音数据对应的目标客户文本与所述客户语料进行匹配得到匹配结果;
根据所述匹配结果,确定所述第一流程节点在多条流程基线中对应的目标流程基线,所述多条流程基线是基于历史对话语音记录确定的,所述流程基线包括多个流程节点以及每个流程节点在所述流程基线中的流程顺序值;
根据所述第一流程节点在所述目标流程基线中的流程顺序值,确定所述第一流程节点对应的下一个流程节点,获取所述下一个流程节点对应的客服语料;
提取所述语音数据的语音特征信息和情绪文本信息;
将所述语音特征信息和所述情绪文本信息输入情感识别模型,得到所述语音数据的情绪标签,所述情感识别模型是基于样本语音集合中每个语音数据的情绪标签训练得到;
从情感对照矩阵中获取包含所述情绪标签的多组客服客户情绪对照组,所述情感对照矩阵包括至少一组客服客户情绪对照组以及每组客服客户情绪对照组对应的外呼成功概率,所述客服客户情绪对照组对应的外呼成功概率由所述历史对话语音记录中包含所述客服客户情绪对照组的客服情绪标签、客户情绪标签并且外呼成功的对话语音记录确定,其中,所述历史对话语音记录包括每个对话语音记录的客服情绪标签、客户情绪标签以及外呼结果;
将外呼成功概率最高的客服客户情绪对照组中的客服情绪标签确定为目标情绪标签;
根据所述目标情绪标签以及所述下一个流程节点对应的客服语料生成所述第二客服语音数据,并将所述第二客服语音数据回复至所述目标客户。
可选的,上述处理器401获取第一流程节点对应的客服语料和客户语料之前,还具体执行以下操作:
将所述历史对话语音记录中的每个对话语音记录转化为多个文本,所述多个文本中的每个文本携带对话顺序值,所述多个文本包括第一文本;
计算所述第一文本的关键词分别与各个流程类别各自的流程标签之间的匹配度,得到所述第一文本与所述各个流程类别之间的多个类别匹配度值;
将所述多个类别匹配度值中最大值对应的流程类别确定为所述第一文本的流程类别;
根据所述每个文本携带的对话顺序值以及所述每个文本的流程类别,得到每个对话语音记录的对话链路,进而得到所述历史对话语音记录的对话链路集合,所述对话链路包括多个流程节点,所述流程节点与所述流程类别一一对应;
将所述对话链路集合中出现次数大于预设出现次数阈值的对话链路确定为所述流程基线。
可选的,上述处理器401根据所述匹配结果,确定所述第一流程节点在多条流程基线中对应的目标流程基线,具体执行以下操作:
在所述多条流程基线中获取包含所述第一流程节点的至少一条可选流程基线,每条可选流程基线中的所述第一流程节点均携带所述目标客户文本与所述客户语料的预设匹配结果;
将所述至少一条可选流程基线中各自第一流程节点携带的预设匹配结果中与所述匹配结果一致的可选流程基线确定为所述目标流程基线。
可选的,上述处理器401从情感对照矩阵中获取包含所述情绪标签的多组客服客户情绪对照组之前,具体执行以下操作:
将所述每个对话语音数据分为客户语音数据和客服语音数据;
将所述客户语音数据的语音特征信息和情绪文本信息输入所述情感识别模型,得到所述每个对话语音记录的客户情绪标签;
将所述客服语音数据的语音特征信息和情绪文本信息输入所述情感识别模型,得到所述每个对话语音记录的客服情绪标签;
根据所述每个对话语音记录的客户情绪标签、客服情绪标签以及外呼结果,计算得到所述情感对照矩阵。
可选的,所述历史对话语音记录包括第一对话语音记录;
上述处理器401将所述每个对话语音数据分为客户语音数据和客服语音数据,具体执行以下操作:
根据所述第一对话语音数据得到多个语音片段,提取所述多个语音片段中每个语音片段的MFCC特征;
将所述MFCC特征输入身份矢量模型得到所述每个语音片段的身份矢量特征;
计算所述第一对话语音数据中两两身份矢量特征之间的相似度;
根据所述相似度,对所述第一对话语音数据中各个语音片段进行聚类,得到第一说话人语音集合和第二说话人语音集合;
计算各个说话人语音集合对应的关键词分别与客服标签、客户标签之间的匹配度,将匹配度最高的标签确定为所述各个说话人语音集合对应的标签;
根据所述各个说话人语音集合对应的标签将所述第一对话语音数据分为所述客户语音数据和所述客服语音数据。
可选的,所述情感识别模型包括卷积层、循环层和转录层;
上述处理器401将所述语音特征信息和所述情绪文本信息输入情感识别模型,得到所述语音数据的情绪标签,具体执行以下操作:
对所述语音特征信息和所述情绪文本信息进行融合得到融合信息,将所述融合信息输入所述情感识别模型;
通过卷积层对所述融合信息进行特征提取,得到所述语音数据的情绪特征;
通过所述循环层对所述情绪特征进行预测,得到所述语音数据的预测序列;
通过所述转录层将所述预测序列转换为所述语音数据的情绪标签。
可选的,上述处理器401提取所述语音数据的情绪文本信息,具体执行以下操作:
将所述语音数据对应的文本信息拆分为至少一个词语;
计算所述至少一个词语中目标词语分别与预设情绪文本集合中每个情绪词的相关程度,得到所述目标词语与所述每个情绪词的多个相关程度值;
将所述多个相关程度值中的最大值确定为所述目标词语的情绪分值,从而得到所述文本信息中每个词语的情绪分值;
将情绪分值大于预设阈值的词语确定为所述语音数据的情绪文本信息。
在本申请实施例中还提供了一种计算机存储介质,可以用于存储图3所示实施例中上述带情感的智能语音外呼装置所用的计算机软件指令,其包含用于执行上述实施例中为带情感的智能语音外呼装置所设计的程序。该存储介质包括但不限于快闪存储器、硬盘、固态硬盘。
在本申请实施例中还提供了一种计算机程序产品,该计算机产品被计算设备运行时,可以执行上述图3所示实施例中为所设计的带情感的智能语音外呼装置。
本申请的说明书和权利要求书及所述附图中的术语“第一”、“第二”、“第三”和“第四”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、***、产品或设备没有限定于已列出的步骤或单元,而是可选的还包括没有列出的步骤或单元,或可选的还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
本申请中,“A和/或B”是指下述情况之一:A,B,A和B。“……中至少一个”是指所列出的各项或者任意数量的所列出的各项的任意组合方式,例如,“A、B和C中至少一个”是指下述情况之一:A,B,C,A和B,B和C,A和C,A、B和C这七种情况中的任一种。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random AccessMemory,RAM)等。
本申请实施例提供的方法及相关装置是参照本申请实施例提供的方法流程图和/或结构示意图来描述的,具体可由计算机程序指令实现方法流程图和/或结构示意图的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。这些计算机程序指令可提供到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或结构示意图一个方框或多个方框中指定的功能的装置。这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或结构示意图一个方框或多个方框中指定的功能。这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或结构示意一个方框或多个方框中指定的功能的步骤。
以上所揭露的仅为本申请较佳实施例而已,当然不能以此来限定本申请之权利范围,因此依本申请权利要求所作的等同变化,仍属本申请所涵盖的范围。

Claims (10)

1.一种带情感的智能语音外呼方法,其特征在于,包括:
获取第一流程节点对应的客服语料和客户语料,将所述客服语料转化为第一客服语音数据并发送至目标客户;
接收所述目标客户的语音数据,将所述语音数据对应的目标客户文本与所述客户语料进行匹配得到匹配结果;
根据所述匹配结果,确定所述第一流程节点在多条流程基线中对应的目标流程基线,所述多条流程基线是基于历史对话语音记录确定的,所述流程基线包括多个流程节点以及每个流程节点在所述流程基线中的流程顺序值;
根据所述第一流程节点在所述目标流程基线中的流程顺序值,确定所述第一流程节点对应的下一个流程节点,获取所述下一个流程节点对应的客服语料;
提取所述语音数据的语音特征信息和情绪文本信息;
将所述语音特征信息和所述情绪文本信息输入情感识别模型,得到所述语音数据的情绪标签,所述情感识别模型是基于样本语音集合中每个语音数据的情绪标签训练得到;
从情感对照矩阵中获取包含所述情绪标签的多组客服客户情绪对照组,所述情感对照矩阵包括至少一组客服客户情绪对照组以及每组客服客户情绪对照组对应的外呼成功概率,所述客服客户情绪对照组对应的外呼成功概率由所述历史对话语音记录中包含所述客服客户情绪对照组的客服情绪标签、客户情绪标签并且外呼成功的对话语音记录确定,其中,所述历史对话语音记录包括每个对话语音记录的客服情绪标签、客户情绪标签以及外呼结果;
将外呼成功概率最高的客服客户情绪对照组中的客服情绪标签确定为目标情绪标签;
根据所述目标情绪标签以及所述下一个流程节点对应的客服语料生成所述第二客服语音数据,并将所述第二客服语音数据回复至所述目标客户。
2.根据权利要求1所述的方法,其特征在于,所述获取第一流程节点对应的客服语料和客户语料之前,还包括:
将所述历史对话语音记录中的每个对话语音记录转化为多个文本,所述多个文本中的每个文本携带对话顺序值,所述多个文本包括第一文本;
计算所述第一文本的关键词分别与各个流程类别各自的流程标签之间的匹配度,得到所述第一文本与所述各个流程类别之间的多个类别匹配度值;
将所述多个类别匹配度值中最大值对应的流程类别确定为所述第一文本的流程类别;
根据所述每个文本携带的对话顺序值以及所述每个文本的流程类别,得到每个对话语音记录的对话链路,进而得到所述历史对话语音记录的对话链路集合,所述对话链路包括多个流程节点,所述流程节点与所述流程类别一一对应;
将所述对话链路集合中出现次数大于预设出现次数阈值的对话链路确定为所述流程基线。
3.根据权利要求1所述的方法,其特征在于,所述根据所述匹配结果,确定所述第一流程节点在多条流程基线中对应的目标流程基线,包括:
在所述多条流程基线中获取包含所述第一流程节点的至少一条可选流程基线,每条可选流程基线中的所述第一流程节点均携带所述目标客户文本与所述客户语料的预设匹配结果;
将所述至少一条可选流程基线中各自第一流程节点携带的预设匹配结果中与所述匹配结果一致的可选流程基线确定为所述目标流程基线。
4.根据权利要求1所述的方法,其特征在于,所述从情感对照矩阵中获取包含所述情绪标签的多组客服客户情绪对照组之前,还包括:
将所述每个对话语音记录分为客户语音数据和客服语音数据;
将所述客户语音数据的语音特征信息和情绪文本信息输入所述情感识别模型,得到所述每个对话语音记录的客户情绪标签;
将所述客服语音数据的语音特征信息和情绪文本信息输入所述情感识别模型,得到所述每个对话语音记录的客服情绪标签;
根据所述每个对话语音记录的客户情绪标签、客服情绪标签以及外呼结果,计算得到所述情感对照矩阵。
5.根据权利要求4所述的方法,其特征在于,所述历史对话语音记录包括第一对话语音记录;
所述将所述每个对话语音记录分为客户语音数据和客服语音数据,包括:
根据所述第一对话语音记录得到多个语音片段,提取所述多个语音片段中每个语音片段的MFCC特征;
将所述MFCC特征输入身份矢量模型得到所述每个语音片段的身份矢量特征;
计算所述第一对话语音记录中两两身份矢量特征之间的相似度;
根据所述相似度,对所述第一对话语音记录中各个语音片段进行聚类,得到第一说话人语音集合和第二说话人语音集合;
计算各个说话人语音集合对应的关键词分别与客服标签、客户标签之间的匹配度,将匹配度最高的标签确定为所述各个说话人语音集合对应的标签;
根据所述各个说话人语音集合对应的标签将所述第一对话语音记录分为所述客户语音数据和所述客服语音数据。
6.根据权利要求1所述的方法,其特征在于,所述情感识别模型包括卷积层、循环层和转录层;
所述将所述语音特征信息和所述情绪文本信息输入情感识别模型,得到所述语音数据的情绪标签,包括:
对所述语音特征信息和所述情绪文本信息进行融合得到融合信息,将所述融合信息输入所述情感识别模型;
通过卷积层对所述融合信息进行特征提取,得到所述语音数据的情绪特征;
通过所述循环层对所述情绪特征进行预测,得到所述语音数据的预测序列;
通过所述转录层将所述预测序列转换为所述语音数据的情绪标签。
7.根据权利要求1所述的方法,其特征在于,所述提取所述语音数据的情绪文本信息,包括:
将所述语音数据对应的文本信息拆分为至少一个词语;
计算所述至少一个词语中目标词语分别与预设情绪文本集合中每个情绪词的相关程度,得到所述目标词语与所述每个情绪词的多个相关程度值;
将所述多个相关程度值中的最大值确定为所述目标词语的情绪分值,从而得到所述文本信息中每个词语的情绪分值;
将情绪分值大于预设阈值的词语确定为所述语音数据的情绪文本信息。
8.一种带情感的智能语音外呼装置,其特征在于,包括:
第一获取发送模块,用于获取第一流程节点对应的客服语料和客户语料,将所述客服语料转化为第一客服语音数据并发送至目标客户;
接收匹配模块,用于接收所述目标客户的语音数据,将所述语音数据对应的目标客户文本与所述客户语料进行匹配得到匹配结果;
确定目标基线模块,用于根据所述匹配结果,确定所述第一流程节点在多条流程基线中对应的目标流程基线,所述多条流程基线是基于历史对话语音记录确定的,所述流程基线包括多个流程节点以及每个流程节点在所述流程基线中的流程顺序值;
确定获取模块,用于根据所述第一流程节点在所述目标流程基线中的流程顺序值,确定所述第一流程节点对应的下一个流程节点,获取所述下一个流程节点对应的客服语料;
提取模块,用于提取所述语音数据的语音特征信息和情绪文本信息;
客户情绪获取模块,用于将所述语音特征信息和所述情绪文本信息输入情感识别模型,得到所述语音数据的情绪标签,所述情感识别模型是基于样本语音集合中每个语音数据的情绪标签训练得到;
获取对照组模块,用于从情感对照矩阵中获取包含所述情绪标签的多组客服客户情绪对照组,所述情感对照矩阵包括至少一组客服客户情绪对照组以及每组客服客户情绪对照组对应的外呼成功概率,所述客服客户情绪对照组对应的外呼成功概率由所述历史对话语音记录中包含所述客服客户情绪对照组的客服情绪标签、客户情绪标签并且外呼成功的对话语音记录确定,其中,所述历史对话语音记录包括每个对话语音记录的客服情绪标签、客户情绪标签以及外呼结果;
客服情绪确定模块,用于将外呼成功概率最高的客服客户情绪对照组中的客服情绪标签确定为目标情绪标签;
生成回复模块,用于根据所述目标情绪标签以及所述下一个流程节点对应的客服语料生成所述第二客服语音数据,并将所述第二客服语音数据回复至所述目标客户。
9.一种服务器,其特征在于,包括处理器、存储器和收发器,所述处理器、存储器和收发器相互连接,其中,所述收发器用于接收或发送数据,所述存储器用于存储程序代码,所述处理器用于调用所述程序代码,执行如权利要求1-7任一项所述的带情感的智能语音外呼方法。
10.一种存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序包括程序指令;所述程序指令当被处理器执行时使所述处理器执行如权利要求1-7任一项所述的带情感的智能语音外呼方法。
CN202010699699.0A 2020-07-20 2020-07-20 带情感的智能语音外呼方法及装置、服务器、存储介质 Active CN111916111B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010699699.0A CN111916111B (zh) 2020-07-20 2020-07-20 带情感的智能语音外呼方法及装置、服务器、存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010699699.0A CN111916111B (zh) 2020-07-20 2020-07-20 带情感的智能语音外呼方法及装置、服务器、存储介质

Publications (2)

Publication Number Publication Date
CN111916111A true CN111916111A (zh) 2020-11-10
CN111916111B CN111916111B (zh) 2023-02-03

Family

ID=73280488

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010699699.0A Active CN111916111B (zh) 2020-07-20 2020-07-20 带情感的智能语音外呼方法及装置、服务器、存储介质

Country Status (1)

Country Link
CN (1) CN111916111B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112835805A (zh) * 2021-02-26 2021-05-25 中国银行股份有限公司 一种客服***的测试方法、装置及电子设备
CN112967725A (zh) * 2021-02-26 2021-06-15 平安科技(深圳)有限公司 语音对话数据处理方法、装置、计算机设备及存储介质
CN113593521A (zh) * 2021-07-29 2021-11-02 北京三快在线科技有限公司 语音合成方法、装置、设备及可读存储介质
CN113743126A (zh) * 2021-11-08 2021-12-03 北京博瑞彤芸科技股份有限公司 一种基于用户情绪的智能交互方法和装置
CN114025050A (zh) * 2021-11-08 2022-02-08 浙江百应科技有限公司 一种基于智能外呼和文本分析的语音识别方法及装置
CN114022192A (zh) * 2021-10-20 2022-02-08 百融云创科技股份有限公司 一种基于智能营销场景的数据建模方法及***
CN114242070A (zh) * 2021-12-20 2022-03-25 阿里巴巴(中国)有限公司 一种视频生成方法、装置、设备及存储介质
CN115083434A (zh) * 2022-07-22 2022-09-20 平安银行股份有限公司 一种情绪识别方法、装置、计算机设备及存储介质
CN115171731A (zh) * 2022-07-11 2022-10-11 腾讯科技(深圳)有限公司 一种情绪类别确定方法、装置、设备及可读存储介质
CN115188374A (zh) * 2022-06-22 2022-10-14 百融睿诚信息科技有限公司 话术更新方法及装置
CN116389644A (zh) * 2022-11-10 2023-07-04 八度云计算(安徽)有限公司 一种基于大数据分析的外呼***

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190182383A1 (en) * 2017-12-08 2019-06-13 Asapp, Inc. Transfer of customer support to automated processing
CN110298682A (zh) * 2019-05-22 2019-10-01 深圳壹账通智能科技有限公司 基于用户信息分析的智能决策方法、装置、设备及介质
CN110351444A (zh) * 2019-06-20 2019-10-18 杭州智飘网络科技有限公司 一种智能语音客服***
CN110442701A (zh) * 2019-08-15 2019-11-12 苏州思必驰信息科技有限公司 语音对话处理方法及装置
CN110457709A (zh) * 2019-08-16 2019-11-15 北京一链数云科技有限公司 外呼对话处理方法、装置及服务器
CN110895940A (zh) * 2019-12-17 2020-03-20 集奥聚合(北京)人工智能科技有限公司 智能语音交互方法及装置
CN110955770A (zh) * 2019-12-18 2020-04-03 圆通速递有限公司 一种智能对话***
CN110995945A (zh) * 2019-11-29 2020-04-10 中国银行股份有限公司 一种生成外呼流程的数据处理方法、装置、设备及***
CN111063370A (zh) * 2019-12-31 2020-04-24 中国银行股份有限公司 一种语音处理方法及装置
CN111078846A (zh) * 2019-11-25 2020-04-28 青牛智胜(深圳)科技有限公司 一种基于业务场景的多轮对话体系构建方法及***

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190182383A1 (en) * 2017-12-08 2019-06-13 Asapp, Inc. Transfer of customer support to automated processing
CN110298682A (zh) * 2019-05-22 2019-10-01 深圳壹账通智能科技有限公司 基于用户信息分析的智能决策方法、装置、设备及介质
CN110351444A (zh) * 2019-06-20 2019-10-18 杭州智飘网络科技有限公司 一种智能语音客服***
CN110442701A (zh) * 2019-08-15 2019-11-12 苏州思必驰信息科技有限公司 语音对话处理方法及装置
CN110457709A (zh) * 2019-08-16 2019-11-15 北京一链数云科技有限公司 外呼对话处理方法、装置及服务器
CN111078846A (zh) * 2019-11-25 2020-04-28 青牛智胜(深圳)科技有限公司 一种基于业务场景的多轮对话体系构建方法及***
CN110995945A (zh) * 2019-11-29 2020-04-10 中国银行股份有限公司 一种生成外呼流程的数据处理方法、装置、设备及***
CN110895940A (zh) * 2019-12-17 2020-03-20 集奥聚合(北京)人工智能科技有限公司 智能语音交互方法及装置
CN110955770A (zh) * 2019-12-18 2020-04-03 圆通速递有限公司 一种智能对话***
CN111063370A (zh) * 2019-12-31 2020-04-24 中国银行股份有限公司 一种语音处理方法及装置

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112967725A (zh) * 2021-02-26 2021-06-15 平安科技(深圳)有限公司 语音对话数据处理方法、装置、计算机设备及存储介质
CN112835805A (zh) * 2021-02-26 2021-05-25 中国银行股份有限公司 一种客服***的测试方法、装置及电子设备
CN113593521A (zh) * 2021-07-29 2021-11-02 北京三快在线科技有限公司 语音合成方法、装置、设备及可读存储介质
CN113593521B (zh) * 2021-07-29 2022-09-20 北京三快在线科技有限公司 语音合成方法、装置、设备及可读存储介质
CN114022192A (zh) * 2021-10-20 2022-02-08 百融云创科技股份有限公司 一种基于智能营销场景的数据建模方法及***
CN113743126A (zh) * 2021-11-08 2021-12-03 北京博瑞彤芸科技股份有限公司 一种基于用户情绪的智能交互方法和装置
CN113743126B (zh) * 2021-11-08 2022-06-14 北京博瑞彤芸科技股份有限公司 一种基于用户情绪的智能交互方法和装置
CN114025050A (zh) * 2021-11-08 2022-02-08 浙江百应科技有限公司 一种基于智能外呼和文本分析的语音识别方法及装置
CN114242070A (zh) * 2021-12-20 2022-03-25 阿里巴巴(中国)有限公司 一种视频生成方法、装置、设备及存储介质
CN115188374A (zh) * 2022-06-22 2022-10-14 百融睿诚信息科技有限公司 话术更新方法及装置
CN115171731A (zh) * 2022-07-11 2022-10-11 腾讯科技(深圳)有限公司 一种情绪类别确定方法、装置、设备及可读存储介质
CN115083434A (zh) * 2022-07-22 2022-09-20 平安银行股份有限公司 一种情绪识别方法、装置、计算机设备及存储介质
CN115083434B (zh) * 2022-07-22 2022-11-25 平安银行股份有限公司 一种情绪识别方法、装置、计算机设备及存储介质
CN116389644A (zh) * 2022-11-10 2023-07-04 八度云计算(安徽)有限公司 一种基于大数据分析的外呼***
CN116389644B (zh) * 2022-11-10 2023-11-03 八度云计算(安徽)有限公司 一种基于大数据分析的外呼***

Also Published As

Publication number Publication date
CN111916111B (zh) 2023-02-03

Similar Documents

Publication Publication Date Title
CN111916111B (zh) 带情感的智能语音外呼方法及装置、服务器、存储介质
JP5768093B2 (ja) 音声処理システム
EP4018437B1 (en) Optimizing a keyword spotting system
Demircan et al. Feature extraction from speech data for emotion recognition
CN111932296B (zh) 一种产品推荐方法及装置、服务器、存储介质
US5594834A (en) Method and system for recognizing a boundary between sounds in continuous speech
JPH06274200A (ja) 音声コード化装置及び方法
US5734793A (en) System for recognizing spoken sounds from continuous speech and method of using same
CN107767881B (zh) 一种语音信息的满意度的获取方法和装置
CN112017694B (zh) 语音数据的评测方法和装置、存储介质和电子装置
CN114550703A (zh) 语音识别***的训练方法和装置、语音识别方法和装置
CN113889090A (zh) 一种基于多任务学习的多语种识别模型的构建和训练方法
CN114708857A (zh) 语音识别模型训练方法、语音识别方法及相应装置
CN116631412A (zh) 一种通过声纹匹配判断语音机器人的方法
CN111968652A (zh) 一种基于3dcnn-lstm的说话人识别方法及存储介质
Thukroo et al. Spoken language identification system for kashmiri and related languages using mel-spectrograms and deep learning approach
CA2190619A1 (en) Speech-recognition system utilizing neural networks and method of using same
CN111640423B (zh) 一种词边界估计方法、装置及电子设备
Sakamoto et al. Stargan-vc+ asr: Stargan-based non-parallel voice conversion regularized by automatic speech recognition
Syfullah et al. Efficient vector code-book generation using K-means and Linde-Buzo-Gray (LBG) algorithm for Bengali voice recognition
Mengistu Automatic text independent amharic language speaker recognition in noisy environment using hybrid approaches of LPCC, MFCC and GFCC
Singh et al. Speaker Recognition Assessment in a Continuous System for Speaker Identification
Andra et al. Contextual keyword spotting in lecture video with deep convolutional neural network
CN114694688A (zh) 语音分析器和相关方法
Nijhawan et al. Real time speaker recognition system for hindi words

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant