CN112599151B - 语速评估方法、***、设备及存储介质 - Google Patents
语速评估方法、***、设备及存储介质 Download PDFInfo
- Publication number
- CN112599151B CN112599151B CN202011419524.6A CN202011419524A CN112599151B CN 112599151 B CN112599151 B CN 112599151B CN 202011419524 A CN202011419524 A CN 202011419524A CN 112599151 B CN112599151 B CN 112599151B
- Authority
- CN
- China
- Prior art keywords
- customer service
- speech
- user
- stream
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 24
- 238000000034 method Methods 0.000 claims abstract description 60
- 238000009499 grossing Methods 0.000 claims description 15
- 230000008034 disappearance Effects 0.000 claims description 13
- 238000003062 neural network model Methods 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 claims description 10
- 238000001514 detection method Methods 0.000 claims description 10
- 230000003993 interaction Effects 0.000 abstract description 6
- 238000012545 processing Methods 0.000 description 9
- 238000007689 inspection Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 206010071299 Slow speech Diseases 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/01—Customer relationship services
- G06Q30/015—Providing customer assistance, e.g. assisting a customer within a business location or via helpdesk
- G06Q30/016—After-sales
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/87—Detection of discrete points within a voice signal
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/51—Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
- H04M3/5175—Call or contact centers supervision arrangements
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Marketing (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Quality & Reliability (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- Economics (AREA)
- Finance (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明提供了一种语速评估方法、***、设备及存储介质,该语速评估方法包括如下步骤:采集客服和用户会话过程中的流式语音流;从所述流式语音流中分离出客服语音流和用户语音流;分别计算所述客服语音流和所述用户语音流的语速获得客服语速和用户语速;计算所述客服语速与所述用户语速的语速比并将其作为语速评估指标。本发明的语速评估方法通过采集客服与用户会话过程中的流式语音流,实时获得客服与用户交互时单句的语速比,并将其作为客服与用户交互的语速评估指标,当语速比在一定阈值范围外时,***可对客服的语速进行提醒和规范,从而提升客服服务过程中的用户体验。
Description
技术领域
本发明涉及数据处理领域,具体地说,涉及一种语速评估方法、***、设备及存储介质。
背景技术
在线旅游(Online Travel Agency,OTA)行业中客服数量较多,每天都有50万通话数量,其中涉及客服数量上万人,为了能够更好地提升服务质量,更有效地解决用户的困难是非常重要的,因此,客服质检显得尤为重要。
语速是评估客服对待用户态度的指标之一,也是规范客服服务的一个重要指标。当OTA客服与用户进行语音通话时,客服的语速影响着客人的服务体验,如出现客人与客服的语速相差较大,一般情况下该通话质量会受到质疑。当客人语速过快而客服语速较慢时,客服在解决用户需求时存在延迟或者服务的熟练程度较低;当客人语速较慢而客服语速过快时,可能客服急于完成通话会影响用户体验。
目前,在OTA场景的基于语速评估的质检***中,仍然没有一种能够完全的自动化、并及时地对存在语速对比过大行为的员工进行介入或者提醒的语速对比***,
目前,质检***中语速评估模块基于两个评估流程,分别为基于人工听取评估和基于语音识别结果整通录音根据汉字比时长计算得出。人工听取评估,质检员工根据所需业务场景在质检平台抽取录音,员工听录音通话且要记录抽检内容再根据客人和客服语速对比给出类别结果,其工作效率较低,不同质检员的标准不一,有较多风险信息难以发现,同时对于公司来说质检成本较高,覆盖率低。汉字比时长算法则在会话结束后对会话录音采用语音识别算法等手段获得客服整体的语速,无法实现实时对客服语速的监测从而介入以提高服务质量的目的。需要说明的是,在上述背景技术部分公开的信息仅用于加强对本发明的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
针对现有技术中的问题,本发明的目的在于提供了一种语速评估方法、***、设备及存储介质,该语速评估方法通过实时监测客服与用户会话时的单句语速比,据此可对客服的语速进行提醒和规范,从而提升客服服务过程中的用户体验。
本发明的一些实施例提供了一种语速评估方法,包括以下步骤:
采集客服和用户会话过程中的流式语音流;
从所述流式语音流中分离出客服语音流和用户语音流;
分别计算所述客服语音流和所述用户语音流的语速获得客服语速和用户语速;
计算所述客服语速与所述用户语速的语速比并将其作为语速评估指标。
根据本发明的一些示例,所述分别计算一所述客服语音流和所述用户语音流的语速获得客服语速和用户语速包括如下步骤:
分别将所述客服语音流和所述用户语音流转化为客服语音文本和用户语音文本;
分别计算所述客服语音流和所述用户语音流的音频时长获得客服音频时长和用户音频时长;
根据所述客服语音文本和所述客服音频时长获得所述客服语速;
根据所述用户语音文本和所述用户音频时长获得所述用户语速。
根据本发明的一些示例,所述分别计算所述客服语音流和所述用户语音流的音频时长获得客服音频时长和用户音频时长前,还包括如下步骤:
分别去除所述客服语音流和所述用户语音流中的噪音块。
根据本发明的一些示例,采用训练好的时延神经网络模型分别去除所述客服语音流和所述用户语音流中的噪音块。
根据本发明的一些示例,采用训练好的时延神经网络模型分别去除所述客服语音流和所述用户语音流中的噪音块包括如下步骤:
分别将所述客服语音流和所述用户语音流划分为包含N帧音频的I个第一音频块和J个第二音频块,其中,N、I和J为整数;
分别将I个所述第一音频块和J个所述第二音频块输入时延神经网络模型,分别获得第i个所述第一音频块的第t帧为噪音帧的概率Pt和第j个所述第二音频块的第s帧为噪音帧的概率Ps;
分别计算第i个所述第一音频块为噪音块的概率Pi和第j个所述第二音频块为噪音块的概率Pj,Pi和Pj分别为:
其中,i∈[1,I],j∈[1,J],s∈[1,N],t∈[1,N]以及λ∈[0,1];
判断Pi是否大于第一平滑阈值,如是,则从所述客服语音流中去除第i个所述第一音频块;
判断Pj是否大于第二平滑阈值,如Pj大于第二平滑阈值,则从所述用户语音流中去除第j个所述第二音频块。
根据本发明的一些示例,分别计算所述客服语音流和所述用户语音流的音频时长获得客服音频时长和用户音频时长还包括如下步骤:
利用语音端点检测模型获得所述客服语音流中的客服语音出现端点和客服语音消失端点;
计算所述客服语音出现端点和所述客服语音消失端点之间的音频的时长获得客服音频时长;
利用语音端点检测模型获得所述用户语音流中的用户语音出现端点和用户语音消失端点;
计算所述用户语音出现端点和所述用户语音消失端点之间的音频的时长获得用户音频时长。
根据本发明的一些示例,所述语速评估方法还包括将所述语速评估指标发送给客服。
根据本发明的一些示例,所述语速评估方法还包括如下步骤:
判断所述语速比是否大于第一语速阈值或所述语速比是否小于第二语速阈值;
如所述语速比大于第一语速阈值或所述语速比小于第二语速阈值,则向客服发送警示信息。
本发明的一些实施例还提供了一种语速评估***,用于实现所述的语速评估方法,其特征在于,包括语音采集模块、语音识别模块和计算模块,其中:
所述语音采集模块用于持续采集客服和用户会话过程中的流式语音流;
所述语音识别模块用于从所述流式语音流中分离出客服语音流和用户语音流;
所述计算模块用于分别计算所述客服语音流和所述用户语音流的语速获得客服语速和用户语速;
所述计算模块还用于计算所述客服语速与所述用户语速的语速比并将其作为语速评估指标。
本发明的实施例还提供了一种电子设备,包括:
处理器;
存储器,其中存储有所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行所述语速评估方法的步骤。
本发明的实施例还提供了一种计算机可读存储介质,用于存储程序,其特征在于,所述程序被执行时实现所述语速评估方法的步骤。
本发明的语速评估方法通过采集客服与用户会话过程中的流式语音流,实时获得客服与用户交互时单句的语速比,并将其作为客服与用户交互的语速评估指标,当语速比在一定阈值范围外时,***可对客服的语速进行提醒和规范,从而提升客服服务过程中的用户体验。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理,通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一实施例的语速评估方法的流程图;
图2为本发明一实施例的获得客服语速和用户语速的流程图;
图3为本发明一实施例的去除客服语音流中的噪音块的流程图;
图4为本发明一实施例的语速评估***的结构示意图;
图5为本发明一实施例的电子设备的结构示意图;
图6为本发明一实施例的计算机可读存储介质的结构示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
图1为本发明一实施例的语速评估方法的流程图,具体地,该语速评估方法包括以下步骤:
S100:采集客服和用户会话过程中的流式语音流;
S200:从所述流式语音流中分离出客服语音流和用户语音流;
S300:分别计算所述客服语音流和所述用户语音流的语速获得客服语速和用户语速;
S400:计算所述客服语速与所述用户语速的语速比U并将其作为语速评估指标。
图2为本发明一实施例的获得客服语速和用户语速的流程图,其中,S300步骤的分别计算一所述客服语音流和所述用户语音流的语速获得客服语速和用户语速可以具体地包括如下步骤:
S310:分别将所述客服语音流和所述用户语音流转化为客服语音文本和用户语音文本;此处的客服语音流和用户语音流的语音文本转化可以采用流式语音识别(StreamingSpeech Recognition,SSR),可以理解为边采集客服或用户的语音信号边进行语音文本的识别,即客户或用户边说话时边其所说的语音转化为文本。
S330:分别计算所述客服语音流和所述用户语音流的音频时长获得客服音频时长和用户音频时长;
S340:根据所述客服语音文本和所述客服音频时长获得所述客服语速;
S350:根据所述用户语音文本和所述用户音频时长获得所述用户语速。
上述流程中,步骤S340和步骤S350不限定执行顺序。
但是,在实际的场景中,客服和用户均可能处于嘈杂的噪音环境中,因此,S300步骤中,如果直接将语音流的音频时长作为客服或用户说话的有效时长,则在计算客服语速或用户语速时出现很大的偏差,极大的影响了客服语速或用户语速计算的准确性,从而影响后续的语速评估指标。
在本发明的另一些实施例中,***在执行S330分别计算所述客服语音流和所述用户语音流的音频时长获得客服音频时长和用户音频时长步骤前,可以执行分别去除所述客服语音流和所述用户语音流中的噪音块的S320步骤。
在一实施例中,采用训练好的时延神经网络模型(Time Delay Neural Network,TDNN)分别去除所述客服语音流和所述用户语音流中的噪音块。
采用训练好的时延神经网络模型分别去除所述客服语音流和所述用户语音流中的噪音块包括如下步骤:
分别将所述客服语音流和所述用户语音流划分为包含N帧音频的I个第一音频块和J个第二音频块,其中,N、I和J为整数;
分别将I个所述第一音频块和J个所述第二音频块输入时延神经网络模型,分别获得第i个所述第一音频块的第t帧为噪音帧的概率Pt和第j个所述第二音频块的第s帧为噪音帧的概率Ps;
分别计算第i个所述第一音频块为噪音块的概率Pi和第j个所述第二音频块为噪音块的概率Pj,Pi和Pj分别为:
其中,i∈[1,I],j∈[1,J],t∈[1,N],s∈[1,N]以及λ∈[0,1];
判断Pi是否大于第一平滑阈值,如是,则从所述客服语音流中去除第i个所述第一音频块,如果否,则保留所述第i个所述第一音频快;
判断Pj是否大于第二平滑阈值,如Pj大于第二平滑阈值,则从所述用户语音流中去除第j个所述第二音频块,如果否,则包括所述第j个所述第二音频块。
上述实施例中基于概率的对每个音频块进行平滑处理,下面以去除客服语音流中的噪音块的流程进一步阐述上述过程,见图3,具体地,包括如下步骤:
S321:将所述客服语音流划分为包含N帧音频的I个第一音频块,每个第一音频块大小为N帧,N值越小,去除噪音块的准确度越高,但是此时将加大***的计算量以及降低平滑的效率,因此,每个第一音频块大小N可根据实际场景设定。实施例中,N设置为10。
S322:将I个所述第一音频块输入时延神经网络模型,获得第i个所述第一音频块的第t帧为噪音帧的概率Pt;
S323:计算第i个所述第一音频块为噪音块的概率Pi,概率Pi可采用如下公式计算:
其中,i∈[1,I],,t∈[1,N],以及λ∈[0,1];
λ用于平衡有效帧的累积概率,其值可为[0,1]内的数值,实施例中可设置为0.9。步骤S323是对S322步骤中经延神经网络模型输出的每个第一音频块中每一帧音频为噪音帧的概率Pt进行后处理,概率Pi为第i个所述第一音频块的噪音的整体概率。采用后处理的方法规整有效帧可使得客服音频流在除噪过程中不会受到损失,不会影响后续的语音端点检测的准确性。
S324:判断Pi是否大于第一平滑阈值,如是,则S325从所述客服语音流中去除第i个所述第一音频块,如果否,则保留所述第i个所述第一音频块。
当第一音频块的噪音的整体概率Pi大于第一平滑阈值时,该第一音频块内的所有帧都平滑为噪音帧,此时,第一音频块可视为包含多个噪音帧的噪音块;当第一音频块的噪音的整体概率Pi小于等于第一平滑阈值时,该第一音频块内的所有帧都平滑为有效帧。
第一平滑阈值可以根据实际使用场景设定,在一实施例中,第一平滑阈值设置为0.95,即当一音频帧为噪音帧的概率Pi大于0.95时,将视为噪音块的第一音频块从客服语音流中去除。本发明利用时延神经网络模型在帧级别上识别噪音,去除客服语音流和用户语音流中的噪音块后再计算音频时长可有效地提高语音速度计算的准确性。
当然,本发明S310分别将所述客服语音流和所述用户语音流转化为客服语音文本和用户语音文本步骤前,也可作去除噪音帧的处理,为了保证语音文本转化的实时性,此处可采用计算量相对较小去除噪音帧的算法。通过上述方法去除客服语音流和用户语音流中的噪音块后再计算客服语音流和用户语音流的音频时长更准确,在此基础上计算的客服语速或用户语速计算也将更准确。
本发明的语速评估方法采用流式语音识别获得客服和用户实时语音文本,同时,引入时延神经网络模型去除语音流中的噪音块,使得语音文本对应的音频时长更精确,据此计算的客服或用户语速也将更精准。本发明中作为语速评估指标的客服语速与用户语速的语速比可以是一段设定周期时间内的语速比,也可以是对话中单句的语速比,如可为客服回答问题的语速与用户问句的语速之间的比值。此时,客服语音流和用户语音流的语音文本转化可以采用流式语音识别的同时,计算客服音频时长和用户音频时长可采用如下步骤:
利用语音端点检测模型(Voice Activity Detection,VAD)获得所述客服语音流中的客服语音出现端点和客服语音消失端点;
计算所述客服语音出现端点和所述客服语音消失端点之间的音频的时长获得客服音频时长;
利用语音端点检测模型获得所述用户语音流中的用户语音出现端点和用户语音消失端点;
计算所述用户语音出现端点和所述用户语音消失端点之间的音频的时长获得用户音频时长。
分别利用语音端点检测模型获取语音流中客服和用户语音出现端点和语音消失端点,同时可自动对客服和用户的对话进行匹配,组合成对话模式的方式,此时,根据匹配的客服和用户的对话的音频时长和实时转化语音文本中的文字数,可获得对话模式中客服语速和用户语速,从而获得对话模式中客服语速和用户语速的语速比。
本发明通过上述步骤实现了实时获取客服与用户交互时单句的语速比,其中,采用时延神经网络模型在帧级别上识别噪音,计算的语速比具有较高的准确性。
语速比U可以表示客服语速和用户语速差异程度,将客服语速与用户语速的语速比并将其作为语速评估指标,语速比U大致可以分为五个区域:语速缓慢区U∈(0,0.5]、语速较慢区U∈(0.5,0.8]、语速适当区U∈(0.8,1.2]、语速稍快区U∈(1.2,1.5]和语速较快区U>1.5。在实施例中,***可以将将所述语速评估指标发送给客服,客服可实时根据***反馈的语速比U调整语速,进而提升客服服务质量,提高用户体验。
在另外一些实施例中,所述语速评估方法还包括如下步骤:
判断所述语速比是否大于第一语速阈值或所述语速比是否小于第二语速阈值;
如所述语速比大于第一语速阈值或所述语速比小于第二语速阈值,则向客服发送警示信息。
如果所述语速比介于第一语速阈值和第二语速阈值之间,则判定语速正常。
即当客服语速和用户语速差异超过一定语速阈值时,向客服发送提醒。在实施例中,第一语速阈值可设置为1.2,第二语速阈值可为设置0.8。
本发明的一些实施例还提供了一种语速评估***,用于实现所述的语速评估方法。图4为本发明一实施例的语速评估***的结构示意图,具体地,该语速评估***包括语音采集模块M100、语音识别模块M200和计算模块M300,其中:
所述语音采集模块M100用于持续采集客服和用户会话过程中的流式语音流;
所述语音识别模块M200用于从所述流式语音流中分离出客服语音流和用户语音流;
所述计算模块M300用于分别计算所述客服语音流和所述用户语音流的语速获得客服语速和用户语速;
所述计算模块M300还用于计算所述客服语速与所述用户语速的语速比并将其作为语速评估指标。
实施例的语速评估***中的各个功能模块的功能实现方式均可以采用上述语速评估方法中各个步骤的具体实施方式来实现。例如,语音采集模块M100、语音识别模块M200和计算模块M300可以分别采用上述步骤S100至S400的具体实施方式实现其功能,此处不予赘述。
本发明的语速评估***具有完全的自动化,同时实时地获得高准确性的客服和用户会话中的单句语速比,将上述语速比作为语速评估指标,当语速评估指标不在设定的语音阈值范围内时,***可以发出提醒,实现对存在语速问题的客服进行介入,帮助客服调整语速,以更好的完成客服服务,提升客服服务过程中的用户体验。本发明的语速评估***解决现有的OTA行业中语速质检效率低、滞后性差和成本高的问题。并快速给出对话语速信息,及时的对存在语速对比过大行为的员工进行介入或者提醒。
下面参照图5来描述根据本发明的这种实施方式的电子设备600。图5显示的电子设备600仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图5所示,电子设备600以通用计算设备的形式表现。电子设备600的组件可以包括但不限于:至少一个处理单元610、至少一个存储单元620、连接不同平台组件(包括存储单元620和处理单元610)的总线630、显示单元640等。
其中,存储单元存储有程序代码,程序代码可以被处理单元610执行,使得处理单元610执行本说明书上述方法部分中描述的根据本发明各种示例性实施方式的步骤。例如,处理单元610可以执行如图1中所示的步骤。
存储单元620可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)6201和/或高速缓存存储单元6202,还可以进一步包括只读存储单元(ROM)6203。
存储单元620还可以包括具有一组(至少一个)程序模块6205的程序/实用工具6204,这样的程序模块6205包括但不限于:操作***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线630可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、***总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备600也可以与一个或多个外部设备700(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备600交互的设备通信,和/或与使得该电子设备600能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口650进行。并且,电子设备600还可以通过网络适配器660与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。网络适配器660可以通过总线630与电子设备600的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备600使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID***、磁带驱动器以及数据备份存储平台等。
本发明实施例还提供一种计算机可读存储介质,用于存储程序,程序被执行实现语速评估方法的步骤。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在终端设备上运行时,程序代码用于使终端设备执行本说明书上述方法部分中描述的根据本发明各种示例性实施方式的步骤。
参考图6所示,描述了根据本发明的实施方式的用于实现上述方法的程序产品800,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。
程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
综上所述,本发明提供了一种语速评估方法、***、设备及存储介质,该语速评估方法包括如下步骤:采集客服和用户会话过程中的流式语音流;从所述流式语音流中分离出客服语音流和用户语音流;分别计算所述客服语音流和所述用户语音流的语速获得客服语速和用户语速;计算所述客服语速与所述用户语速的语速比并将其作为语速评估指标。本发明的语速评估方法通过采集客服与用户会话过程中的流式语音流,实时获得客服与用户交互时的语速比,并将其作为客服与用户交互的语速评估指标,当语速比在一定阈值范围外时,***可对客服的语速进行提醒和规范,从而提升客服服务过程中的用户体验。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本领域技术人员而言,显然本申请不限于上述示范性实施例的细节,而且在不背离本申请的精神或基本特征的情况下,能够以其他的具体形式实现本申请。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本申请的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本申请内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。装置权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一、第二等词语用来表示名称,而并不表示任何特定的顺序。
Claims (7)
1.一种语速评估方法,其特征在于,包括以下步骤:
采集客服和用户会话过程中的流式语音流;
从所述流式语音流中分离出客服语音流和用户语音流;
分别计算所述客服语音流和所述用户语音流的语速获得客服语速和用户语速;
计算所述客服语速与所述用户语速的语速比并将其作为语速评估指标;
所述分别计算一所述客服语音流和所述用户语音流的语速获得客服语速和用户语速包括如下步骤:
分别将所述客服语音流和所述用户语音流转化为客服语音文本和用户语音文本;
分别计算所述客服语音流和所述用户语音流的音频时长获得客服音频时长和用户音频时长;
根据所述客服语音文本和所述客服音频时长获得所述客服语速;
根据所述用户语音文本和所述用户音频时长获得所述用户语速;
所述分别计算所述客服语音流和所述用户语音流的音频时长获得客服音频时长和用户音频时长前,还包括如下步骤:
采用训练好的时延神经网络模型分别去除所述客服语音流和所述用户语音流中的噪音块;
采用训练好的时延神经网络模型分别去除所述客服语音流和所述用户语音流中的噪音块包括如下步骤:
分别将所述客服语音流和所述用户语音流划分为包含N帧音频的I个第一音频块和J个第二音频块,其中,N、I和J为整数;
分别将I个所述第一音频块和J个所述第二音频块输入时延神经网络模型,分别获得第i个所述第一音频块的第t帧为噪音帧的概率Pt和第j个所述第二音频块的第s帧为噪音帧的概率Ps;
分别计算第i个所述第一音频块为噪音块的概率Pi和第j个所述第二音频块为噪音块的概率Pj,Pi和Pj分别为:
其中,i∈[1,I],j∈[1,J],s∈[1,N],t∈[1,N]以及λ∈[0,1];
判断Pi是否大于第一平滑阈值,如是,则从所述客服语音流中去除第i个所述第一音频块;
判断Pj是否大于第二平滑阈值,如Pj大于第二平滑阈值,则从所述用户语音流中去除第j个所述第二音频块。
2.根据权利要求1所述的语速评估方法,其特征在于,分别计算所述客服语音流和所述用户语音流的音频时长获得客服音频时长和用户音频时长还包括如下步骤:
利用语音端点检测模型获得所述客服语音流中的客服语音出现端点和客服语音消失端点;
计算所述客服语音出现端点和所述客服语音消失端点之间的音频的时长获得客服音频时长;
利用语音端点检测模型获得所述用户语音流中的用户语音出现端点和用户语音消失端点;
计算所述用户语音出现端点和所述用户语音消失端点之间的音频的时长获得用户音频时长。
3.根据权利要求1所述的语速评估方法,其特征在于,所述语速评估方法还包括将所述语速评估指标发送给客服。
4.根据权利要求1所述的语速评估方法,其特征在于,所述语速评估方法还包括如下步骤:
判断所述语速比是否大于第一语速阈值或所述语速比是否小于第二语速阈值;
如所述语速比大于第一语速阈值或所述语速比小于第二语速阈值,则向客服发送警示信息。
5.一种语速评估***,用于实现权利要求1至4任意一项所述的语速评估方法,其特征在于,包括语音采集模块、语音识别模块和计算模块,其中:
所述语音采集模块用于持续采集客服和用户会话过程中的流式语音流;
所述语音识别模块用于从所述流式语音流中分离出客服语音流和用户语音流;
所述计算模块用于分别计算所述客服语音流和所述用户语音流的语速获得客服语速和用户语速;
所述计算模块还用于计算所述客服语速与所述用户语速的语速比并将其作为语速评估指标。
6.一种电子设备,其特征在于,包括:
处理器;
存储器,其中存储有所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1至4任意一项所述语速评估方法的步骤。
7.一种计算机可读存储介质,用于存储程序,其特征在于,所述程序被处理器执行时实现权利要求1至4任意一项所述语速评估方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011419524.6A CN112599151B (zh) | 2020-12-07 | 2020-12-07 | 语速评估方法、***、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011419524.6A CN112599151B (zh) | 2020-12-07 | 2020-12-07 | 语速评估方法、***、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112599151A CN112599151A (zh) | 2021-04-02 |
CN112599151B true CN112599151B (zh) | 2023-07-21 |
Family
ID=75188931
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011419524.6A Active CN112599151B (zh) | 2020-12-07 | 2020-12-07 | 语速评估方法、***、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112599151B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113963689A (zh) * | 2021-10-15 | 2022-01-21 | 苏州汉之杰精密电子科技有限公司 | 一种离线语音识别红外学习型空调遥控器 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105261362A (zh) * | 2015-09-07 | 2016-01-20 | 科大讯飞股份有限公司 | 一种通话语音监测方法及*** |
CN106611598A (zh) * | 2016-12-28 | 2017-05-03 | 上海智臻智能网络科技股份有限公司 | 一种vad动态参数调整方法和装置 |
CN109036404A (zh) * | 2018-07-18 | 2018-12-18 | 北京小米移动软件有限公司 | 语音交互方法及装置 |
CN109584896A (zh) * | 2018-11-01 | 2019-04-05 | 苏州奇梦者网络科技有限公司 | 一种语音芯片及电子设备 |
CN110619888A (zh) * | 2019-09-30 | 2019-12-27 | 北京淇瑀信息科技有限公司 | 一种ai语音速率调整方法、装置及电子设备 |
CN110767231A (zh) * | 2019-09-19 | 2020-02-07 | 平安科技(深圳)有限公司 | 一种基于时延神经网络的声控设备唤醒词识别方法及装置 |
CN111816218A (zh) * | 2020-07-31 | 2020-10-23 | 平安科技(深圳)有限公司 | 语音端点检测方法、装置、设备及存储介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005076258A1 (ja) * | 2004-02-03 | 2005-08-18 | Matsushita Electric Industrial Co., Ltd. | ユーザ適応型装置およびその制御方法 |
JP2006317768A (ja) * | 2005-05-13 | 2006-11-24 | Toshiba Corp | 話速変換装置、及びこの話速変換装置を制御する話速変換プログラム |
-
2020
- 2020-12-07 CN CN202011419524.6A patent/CN112599151B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105261362A (zh) * | 2015-09-07 | 2016-01-20 | 科大讯飞股份有限公司 | 一种通话语音监测方法及*** |
CN106611598A (zh) * | 2016-12-28 | 2017-05-03 | 上海智臻智能网络科技股份有限公司 | 一种vad动态参数调整方法和装置 |
CN109036404A (zh) * | 2018-07-18 | 2018-12-18 | 北京小米移动软件有限公司 | 语音交互方法及装置 |
CN109584896A (zh) * | 2018-11-01 | 2019-04-05 | 苏州奇梦者网络科技有限公司 | 一种语音芯片及电子设备 |
CN110767231A (zh) * | 2019-09-19 | 2020-02-07 | 平安科技(深圳)有限公司 | 一种基于时延神经网络的声控设备唤醒词识别方法及装置 |
CN110619888A (zh) * | 2019-09-30 | 2019-12-27 | 北京淇瑀信息科技有限公司 | 一种ai语音速率调整方法、装置及电子设备 |
CN111816218A (zh) * | 2020-07-31 | 2020-10-23 | 平安科技(深圳)有限公司 | 语音端点检测方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112599151A (zh) | 2021-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10805464B2 (en) | System and method for monitoring and visualizing emotions in call center dialogs at call centers | |
US10986228B2 (en) | System and method for monitoring and visualizing emotions in call center dialogs by call center supervisors | |
CN109614934B (zh) | 在线教学质量评估参数生成方法及装置 | |
CN112364661B (zh) | 一种数据检测的方法、装置、可读存储介质和电子设备 | |
CN112217947B (zh) | 客服电话语音转录文本方法、***、设备及存储介质 | |
US20110270612A1 (en) | Computer-Implemented Systems and Methods for Estimating Word Accuracy for Automatic Speech Recognition | |
CN112966082A (zh) | 音频质检方法、装置、设备以及存储介质 | |
WO2023273984A1 (zh) | 一种说话人转换点检测方法、装置、设备及存储介质 | |
CN113011159A (zh) | 人工座席监听方法、装置、电子设备及存储介质 | |
CN112599151B (zh) | 语速评估方法、***、设备及存储介质 | |
CN113674746A (zh) | 人机交互方法、装置、设备以及存储介质 | |
CN111949778A (zh) | 一种基于用户情绪的智能语音对话方法、装置及电子设备 | |
CN111400463B (zh) | 对话响应方法、装置、设备和介质 | |
CN112711943B (zh) | 一种维吾尔文语种识别方法、装置及存储介质 | |
CN112885379A (zh) | 客服语音评估方法、***、设备及存储介质 | |
CN110782916B (zh) | 一种多模态的投诉识别方法、装置和*** | |
CN116048282B (zh) | 一种数据处理方法、***、装置、设备及存储介质 | |
CN110910905B (zh) | 静音点检测方法及装置、存储介质、电子设备 | |
CN112837672B (zh) | 对话归属的确定方法、装置、电子设备及存储介质 | |
CN110890097A (zh) | 语音处理方法及装置、计算机存储介质、电子设备 | |
CN112101046B (zh) | 一种基于通话行为的会话分析方法、装置和*** | |
CN115831125A (zh) | 语音识别方法、装置、设备、存储介质及产品 | |
CN115101073A (zh) | 语音质检方法、***、设备及存储介质 | |
CN115295020A (zh) | 一种语音评测方法、装置、电子设备及存储介质 | |
CN109285559B (zh) | 角色转换点检测方法及装置、存储介质、电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |