CN112839137A - 基于背景环境的呼叫处理方法、装置、设备及存储介质 - Google Patents

基于背景环境的呼叫处理方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN112839137A
CN112839137A CN202011623437.2A CN202011623437A CN112839137A CN 112839137 A CN112839137 A CN 112839137A CN 202011623437 A CN202011623437 A CN 202011623437A CN 112839137 A CN112839137 A CN 112839137A
Authority
CN
China
Prior art keywords
call
client
background
data
outbound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011623437.2A
Other languages
English (en)
Inventor
钱先洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Puhui Enterprise Management Co Ltd
Original Assignee
Ping An Puhui Enterprise Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Puhui Enterprise Management Co Ltd filed Critical Ping An Puhui Enterprise Management Co Ltd
Priority to CN202011623437.2A priority Critical patent/CN112839137A/zh
Publication of CN112839137A publication Critical patent/CN112839137A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/527Centralised call answering arrangements not requiring operator intervention
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • G10L21/0308Voice signal separating characterised by the type of parameter measurement, e.g. correlation techniques, zero crossing techniques or predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Artificial Intelligence (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本案涉及人工智能技术领域,提供一种基于背景环境的呼叫处理方法、装置、设备及存储介质,该方法包括:获取客户ID对应的通话数据;采用语音分离模型对通话数据进行分离处理,得到背景音数据和客户语音数据;对客户语音数据进行分析处理,获取意图分析结果,基于意图分析结果获取初始应答话术;对背景音数据进行识别处理,得到背景环境类型;若背景环境类型为通话环境类型,则根据背景环境类型对初始应答话术进行调整,获取目标应答话术;根据背景环境类型确定播报策略,依据播报策略,播报目标应答话术,获取客户ID对应的外呼结果,实现灵活地对外呼过程进行调整,有效提升客户通话过程的体验,以提高外呼成功率。

Description

基于背景环境的呼叫处理方法、装置、设备及存储介质
技术领域
本发明涉及语音呼叫处理领域,尤其涉及一种基于背景环境的呼叫处理方法、装置、设备及存储介质。
背景技术
随着人工智能的发展,人机对话***在智能销售、智能家居及智能助理等领域得到长足的发展,给人们的生活带来十足的便利。智能机器人通过专业级真人式模拟销售或客服专家,和客户进行多轮互动高效沟通交流,大幅降低销售成本,提升获客效率。
目前,在智能机器人与客户沟通过程中,忽视了背景环境对客户造成的影响,导致外呼成功率较低。
发明内容
本发明实施例提供一种基于背景环境的呼叫处理方法、装置、计算机设备及存储介质,采用语音处理和语音识别等技术对用户的通话数据进行处理,实现在呼叫处理***与用户通话过程中,对背景环境类型进行分析,利用背景环境类型进行智能调节,提高电话外呼智能化程度且保证外呼效果更佳,以解决在智能机器人与客户沟通过程中,忽视了背景环境对客户造成的影响,导致外呼成功率较低的问题。
一种基于背景环境的呼叫处理方法,包括:
获取客户ID对应的通话数据;
采用语音分离模型对通话数据进行分离处理,得到背景音数据和客户语音数据;
对所述客户语音数据进行分析处理,获取意图分析结果,基于所述意图分析结果获取初始应答话术;
对所述背景音数据进行识别处理,得到背景环境类型;
若所述背景环境类型为通话环境类型,则根据所述背景环境类型对所述初始应答话术进行调整,获取目标应答话术;
根据所述背景环境类型确定播报策略,依据所述播报策略,播报所述目标应答话术,获取所述客户ID对应的外呼结果。
一种基于背景环境的呼叫处理装置,包括:
通话数据获取模块,用于获取客户ID对应的通话数据;
分离处理模块,用于采用语音分离模型对通话数据进行分离处理,得到背景音数据和客户语音数据;
分析处理模块,用于对所述客户语音数据进行分析处理,获取意图分析结果,基于所述意图分析结果获取初始应答话术;
识别处理模块,用于对所述背景音数据进行识别处理,得到背景环境类型;
目标应答话术获取模块,用于若所述背景环境类型为通话环境类型,则根据所述背景环境类型对所述初始应答话术进行调整,获取目标应答话术;
外呼结果获取模块,用于根据所述背景环境类型确定播报策略,依据所述播报策略,播报所述目标应答话术,获取所述客户ID对应的外呼结果。
一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述基于背景环境的呼叫处理方法的步骤。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述基于背景环境的呼叫处理方法的步骤。
上述基于背景环境的呼叫处理方法、装置、计算机设备及存储介质,获取客户ID对应的通话数据,服务器获取的通话数据仅包括客户语音数据和背景音数据,而不会采集到智能机器人播报的原始应答话术,有利于后续语音分离处理的简便性。采用语音分离模型对通话数据进行分离处理,得到背景音数据和客户语音数据,后续可以基于背景音数据生成播报策略,合理利用背景音数据,调整智能机器人播报的话术,提高电话外呼智能化程度且保证外呼效果更佳。对所述客户语音数据进行分析处理,获取意图分析结果,基于所述意图分析结果获取初始应答话术,有利于快速地为客户提供服务,达到语音呼叫目的,实现智能机器人与客户沟通顺畅。对所述背景音数据进行识别处理,得到背景环境类型,为智能外呼提供更多的参考因素,以便后续利用背景环境类型制定播报策略,提高智能外呼的成功率并灵活调整初始应答话术,提高智能化程度。若所述背景环境类型为通话环境类型,则根据所述背景环境类型对所述初始应答话术进行调整,获取目标应答话术,确保播报过程的映应答话术、语音和语速等更加贴合客户所处环境,有效提高外呼成功率。根据所述背景环境类型确定播报策略,依据所述播报策略,播报所述目标应答话术,获取所述客户ID对应的外呼结果,以根据客户实际所处的背景环境智能生成不同的播报策略,实现灵活地对外呼过程进行调整,以保证外呼目的实现,且有效提升客户通话过程的体验。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例中基于背景环境的呼叫处理方法的一应用环境示意图;
图2是本发明一实施例中基于背景环境的呼叫处理方法的一流程图;
图3是本发明一实施例中基于背景环境的呼叫处理方法的另一流程图;
图4是本发明一实施例中基于背景环境的呼叫处理方法的另一流程图;
图5是本发明一实施例中基于背景环境的呼叫处理方法的另一流程图;
图6是本发明一实施例中基于背景环境的呼叫处理方法的另一流程图;
图7是本发明一实施例中基于背景环境的呼叫处理装置的一原理框图;
图8是本发明一实施例中计算机设备的一示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供的基于背景环境的呼叫处理方法,该基于背景环境的呼叫处理方法可应用如图1所示的应用环境中。具体地,该基于背景环境的呼叫处理方法应用在基于背景环境的呼叫处理***中,该基于背景环境的呼叫处理***包括如图1所示的客户端和服务器,客户端与服务器通过网络进行通信,用于实现在呼叫处理***与用户通话过程中,对背景环境类型进行分析,利用背景环境类型进行智能调节,提高电话外呼智能化程度且保证外呼效果更佳。其中,客户端又称为用户端,是指与服务器相对应,为客户提供本地服务的程序。客户端可安装在但不限于各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备上。服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一实施例中,如图2所示,提供一种基于背景环境的呼叫处理方法,以该方法应用在图1中的服务器为例进行说明,包括如下步骤:
S201:获取客户ID对应的通话数据。
其中,客户ID是唯一识别客户的标识,例如,该客户ID可以是客户姓名或者客户编号等。
通话数据是客户回复智能机器人形成的数据,例如,外呼成功时,智能机器人播报预设的原始应答话术,如“尊敬的客户,您好,请问您xxx”,然后,客户就回复通话数据“xxx”,当客户开始讲话时,则采集该客户回复的通话数据,以便后续对通话数据进行分离处理,实现根据客户的背景环境进行相应的处理,提高外呼效率。其中,原始应答话术是根据推广产品、售后回访等外呼目的预先设置的话术,以实现外呼目的。例如,若外呼目的为推广xx产品,则原始应答话术是xx产品对应的基本信息和产品优点进行说明的话术,以吸引客户购买目标产品。若外呼目的为针对xx产品的售后回访,则原始应答话术是xx产品的客户体验或者其他售后信息进行回访的话术,以便根据售后回访的结果进行业务改进,达到外呼目的。
本实施例中,智能外呼***存储有外呼名单,该外呼名单包括至少一个客户ID和与客户ID对应的通讯号码,智能外呼***上设置有智能外呼界面,该智能外呼界面中设置有外呼按钮和录音按钮,利用外呼按钮呼叫外呼名单中的客户,采用预设设置的原始应答话术与客户进行沟通中,当客户开始说话时,则触发录音按钮,以获取通话数据。本实施例中,当客户开始说话时,则触发录音按钮,以获取通话数据,因此,服务器获取的通话数据仅包括客户语音数据和背景音数据,而不会采集到智能机器人播报的原始应答话术,有利于后续语音分离处理的简便性。
S202:采用语音分离模型对通话数据进行分离处理,得到背景音数据和客户语音数据。
其中,语音分离模型是用于对通话数据进行分离处理,得到分离背景音数据和客户语音数据的模型,为后续的背景环境类型确定提供技术支持。本实施例所提供的语音分离模型包括特征提取层、两个全连接层,以保证得到背景音数据和客户语音数据的准确性。其中,特征提取层包括但不限于transformer、RNN(循环神经网络)和CNN(卷积神经网络)等。
分离处理是将通话数据分离为背景音数据和客户语音数据的处理过程。
背景音数据是指通话时,客户所处背景环境形成的数据,背景环境包括适合通话的环境和不适合通话的环境。其中,适合通话的环境是指安静环境等分贝较小的环境。不适合通话的环境是指施工环境等分贝较大的环境。客户语音数据是指客户回复销售机器人的语音数据。客户语音数据是指仅包括客户声音的数据。
本实施例中,采用预先训练好的语音分离模型对通话数据进行分离处理,实现快速得到背景音数据和客户语音数据,后续可以基于背景音数据生成播报策略,合理利用背景音数据,调整智能机器人播报的话术,提高电话外呼智能化程度且保证外呼效果更佳。
S203:对客户语音数据进行分析处理,获取意图分析结果,基于意图分析结果获取初始应答话术。
其中,分析处理是指对客户语音数据进行分析,以得到客户的意图的处理。
意图分析结果是指示客户语音数据所表示意图的结果,例如,客户语音数据为xx产品有怎么作用,则该意图分析结果为询问xx产品用途和有益效果;或者,客户语音数据为xx产品如何使用,则该意图分析结果为询问xx产品使用方法。
初始应答话术是根据客户语音数据生成的,以便智能机器人回复客户的话术,该初始应答话具有更专业且准确的用语,避免误导客户,有利于快速地为客户提供服务,以达到语音呼叫目的。可以理解地,该初始应答话是预先设定好的,用于根据与客户进行对话时引导客户了解产品及其售后体验反馈等话术,有助于完成语音外呼的目的。
本实施例中,对客户语音数据进行分析,以得到初始应答话术,有利于快速地为客户提供服务,达到语音呼叫目的,实现智能机器人与客户沟通顺畅。
S204:对背景音数据进行识别处理,得到背景环境类型。
其中,背景环境类型是指通话时客户所处的背景环境的类型。背景环境类型可以是通话环境类型和非通话环境类型等。其中,通话环境类型是指适合通话的环境对应的类型,非通话环境类型是指不适合通话的环境对应的类型。
目前,智能外呼时常常仅提取客户语音数据,分析客户意图结果,忽视了背景环境类型对客户造成的影响,外呼过程较为固定,无法实现根据背景环境类型实现灵活地调整,以提高智能外呼的成功率。本实施例中,采用背景分类模型对背景音数据进行处理,以得到背景环境类型,为智能外呼提供更多的参考因素,以便后续利用背景环境类型制定播报策略,提高智能外呼的成功率并灵活调整初始应答话术,提高智能化程度。
S205:若背景环境类型为通话环境类型,则根据背景环境类型对初始应答话术进行调整,获取目标应答话术。
其中,通话环境类型是客户所处环境适合进行通话的环境类型,具体地是指适合通话的环境对应的类型,例如,背景环境为安静环境,则背景环境类型为通话环境类型。
目标应答话术是根据背景环境类型对初始应答话术进行调整得到的话术。该目标应答话术参考了背景环境类型因素,更加贴近客户的实际情况,有利于提升客户通话过程的体验,提高外呼成功率。
本实施例中,根据背景环境类型对初始应答话术进行调整,实现灵活调整话术,贴合用户实际所处环境,例如,当背景环境类型为通话环境类型,可以询问客户是否需要较大或者减小音量等,并对初始应答话术进行调整,确保播报过程的映应答话术、语音和语速等更加贴合客户所处环境,有效提高外呼成功率。
S206:根据背景环境类型确定播报策略,依据播报策略,播报目标应答话术,获取客户ID对应的外呼结果。
其中,播报策略是用于对智能机器人的播报音量和播放速度等播报参数进行调节的策略,以使得智能机器人播报过程更加智能化。例如,当客户所处的背景环境类型为安静环境时,则播报音量降低,提高用户的沟通体验,实现依据客户所处环境灵活生成播报策略,有效提高外呼成功率。外呼结果是指此次外呼向客户推荐产品的结果。
本实施例中,根据背景环境类型生成播报策略,以根据客户实际所处的背景环境智能生成不同的播报策略,实现灵活地对外呼过程进行调整,以保证外呼目的实现,且有效提升客户通话过程的体验。
本实施例所提供的基于背景环境的呼叫处理方法,获取客户ID对应的通话数据,服务器获取的通话数据仅包括客户语音数据和背景音数据,而不会采集到智能机器人播报的原始应答话术,有利于后续语音分离处理的简便性。采用语音分离模型对通话数据进行分离处理,得到背景音数据和客户语音数据,后续可以基于背景音数据生成播报策略,合理利用背景音数据,调整智能机器人播报的话术,提高电话外呼智能化程度且保证外呼效果更佳。对客户语音数据进行分析处理,获取意图分析结果,基于意图分析结果获取初始应答话术,有利于快速地为客户提供服务,达到语音呼叫目的,实现智能机器人与客户沟通顺畅。对背景音数据进行识别处理,得到背景环境类型,为智能外呼提供更多的参考因素,以便后续利用背景环境类型制定播报策略,提高智能外呼的成功率并灵活调整初始应答话术,提高智能化程度。若背景环境类型为通话环境类型,则根据背景环境类型对初始应答话术进行调整,获取目标应答话术,确保播报过程的映应答话术、语音和语速等更加贴合客户所处环境,有效提高外呼成功率。根据背景环境类型确定播报策略,依据播报策略,播报目标应答话术,获取客户ID对应的外呼结果,以根据客户实际所处的背景环境智能生成不同的播报策略,实现灵活地对外呼过程进行调整,以保证外呼目的实现,且有效提升客户通话过程的体验。
在一实施例中,在步骤S204之后,即在得到背景环境类型之后,方法还包括:
S207:若背景环境类型为非通话环境类型时,根据初始应答话术生成推荐信息,将推荐信息发送给客户ID对应的手机终端。
其中,推荐信息是用于向客户ID对应的客户推荐或者回访等的信息,该推荐信息具体为客户的姓名和依据初始应答话术生成的短信。
具体地,当背景环境类型为非通话环境类型,则说明该客户所处背景环境类型为分贝较大的环境,不方便通话,因此,沟通过程难免存在漏听或者语音不清楚等问题,此时,根据初始应答话术生成推荐信息,提高推荐成功率,确保客户可以直观地了解通话过程,避免出现误差。
本实施例中,根据初始应答话术形成客户ID对应的推荐信息,具体过程是:基于客户ID查询数据库获取客户ID对应的客户画像信息,对客户画像信息进行分析,得到客户喜好风格,并基于客户喜好风格查询数据库获取对应的短信模板,根据短信模板和初始应答话术生成个性化的推荐信息,提高推荐成功率。其中,数据库是用于存储客户数据的库。客户喜好风格是表示客户爱好的风格,该客户喜好风格是依据该客户的客户画像信息确定的风格,以保证客户喜好风格具有针对性。例如,可以是文艺风格或者是严谨风格。客户画像信息可以为个人基本信息、社会属性和生活习惯等信息,例如,个人基本信息是客户年龄、客户住址、客户上网浏览信息和客户性别等。
在一实施例中,如图3所示,在步骤S206之后,即在依据播报策略,播报目标应答话术,获取客户ID对应的外呼结果之后,方法还包括:
S301:根据背景环境类型和外呼结果,更新背景环境类型对应的外呼总次数和外呼成功次数。
其中,外呼成功次数是表示外呼目的成功的次数,例如,若外呼目的为推荐产品,向客户推广产品成功,客户购买该产品,则外呼成功次数加1。可以理解地,若向客户推广产品失败,客户不购买该产品,则外呼失败次数加1。外呼总次数是呼叫客户ID的次数,该外呼总次数等于外呼成功次数加外呼失败次数。
S302:根据外呼总次数和外呼成功次数,生成客户ID对应的外呼成功频率。
其中,呼叫统计结果是用于统计呼叫客户时成功或者失败的结果。外呼成功频率等于外呼成功次数除以外呼总次数的商。
S303:若外呼总次数大于预设次数,且外呼成功频率小于预设频率,则从呼叫名单中删除客户ID。
S304:若外呼总次数不大于预设次数,或者外呼成功频率不小于预设频率,则根据背景环境类型生成客户ID对应的呼叫策略,并记录在呼叫名单中。
预设频率是预先设定的频率,例如,预设频率可以是50%等。预设次数是预先设定的次数,例如,预设次数可以是10次。
呼叫策略是指下次呼叫客户ID对应的客户的策略,该呼叫策略为依据背景环境类型生成的策略,例如,在背景环境类型为通话环境类型时外呼成功次数较高,则确定客户ID处于通话环境类型对应的时间段,呼叫策略可以为客户ID处于通话环境的时间段、音量和音速等。作为一示例,根据背景环境类型和客户ID查询策略表,判断策略表是否存在与背景环境类型和客户ID相对应的的原始策略;若策略表存在与背景环境类型和客户ID相对应的的原始策略,则将原始策略确定为与背景环境类型向对应的呼叫策略;策略表不存在与背景环境类型和客户ID相对应的的原始策略,则根据背景环境类型和客户ID查询策略表,获取与背景环境类型对应的呼叫策略。
本实施例中,根据外呼总次数和外呼成功频率的实际情况,分别进行对应的处理,可以合理分配后续的工作任务,提高工作效率。当外呼总次数大于预设次数且外呼成功频率小于预设频率,则说明该客户不为潜在客户,此时则从呼叫名单中删除客户ID,实现简化后续的流程步骤。当外呼总次数不大于预设次数或者外呼结果中外呼成功频率不小于预设频率,则根据背景环境类型生成客户ID对应的呼叫策略,以提高外呼成功的概率。
本实施例所提供的基于背景环境的呼叫处理方法,根据背景环境类型和外呼结果,更新背景环境类型对应的外呼总次数和外呼成功次数;根据外呼总次数和外呼成功次数,生成客户ID对应的外呼成功频率;若外呼总次数大于预设次数,且外呼成功频率小于预设频率,则从呼叫名单中删除客户ID;若外呼总次数不大于预设次数,或者外呼成功频率不小于预设频率,则根据背景环境类型生成客户ID对应的呼叫策略,并记录在呼叫名单中,根据外呼总次数和外呼成功频率的实际情况,分别进行对应的处理,可以合理分配后续的工作任务,提高工作效率。
在一实施例中,如图4所示,步骤S202,采用语音分离模型对通话数据进行分离处理,得到背景音数据和客户语音数据,包括:
S401:对通话数据进行预处理,得到混合语音向量。
其中,预处理是将语音化的通话数据转化为向量化的混合语音向量的处理。
混合语音向量是指包含客户语音和背景音的向量。
具体地,对通话数据进行编码处理,获取编码数据,将编码数据输入特征提取层中,对通话数据进行特征提取处理,得到初始化数据的特征表示,获得包含客户语音和背景音的混合语音向量化特征。其中,编码处理是将通话数据数字化的处理,得到通话数据对应的数字化序列,生成计算机可识别的格式的处理。特征提取层是用于提取编码数据中的特征,并形成计算机可识别的向量,本实施例中,特征提取层是指transformer特征提取层,以形成混合语音向量。
本实施例中,客户语音和背景音共用基础的特征提取层,实现对通话数据进行处理,可以有效地减少模型参数数量,加快处理效率。若是使用分离的两个特征提取层分别对包含客户语音和背景音的初始化数据进行处理获得客户语音和背景音的基础特征表示,则计算量较大,且处理效率较低。
S402:采用第一全连接层对混合语音向量进行客户语音滤波处理,得到客户语音数据。
本实施例中,客户语音滤波处理是为了滤除混合语音向量中的背景音向量的处理,以得到较为干净的客户语音数据,为后续的根据客户语音数据得到初始应答话术,提供技术支持。
S403:采用第二全连接层对混合语音向量进行背景音滤波处理,得到背景音数据。
本实施例中,背景音滤波处理为了滤除混合语音向量中的客户语音向量的处理,为后续的确保背景音数据对应的背景环境类型,提供技术支持。
在使用语音分离模型之前需要训练语音分离模型,训练阶段具体如下:预先采集干净的背景音数据和干净的客户语音数据,该干净的背景音数据对应有环境类型标识,并将携带有环境类型标识背景音数据和客户语音数据进行混合得到多个训练样本数据,可以理解地,每一训练样本数据对应有环境类型标识,并采用原始模型的特征提取层对训练样本数据进行特征提取,得到训练向量特征,采用第一全连接层对训练向量特征进行客户语音滤波处理,得到第一训练数据,采用第二全连接层对训练向量特征进行背景音滤波处理,得到第二训练数据,计算第一训练数据与干净的背景音数据的第一相似度,计算第二训练数据与干净的客户语音数据的第二相似度,根据第一相似度和第二相似度进行计算预测误差损失,根据预测误差损失,更新原始模型的参数,当原始模型收敛时,则该语音分离模型训练完成。
本实施例所提供的基于背景环境的呼叫处理方法,对通话数据进行预处理,得到混合语音向量,实现对通话数据进行处理,可以有效地减少模型参数数量,加快处理效率。采用第一全连接层对混合语音向量进行客户语音滤波处理,得到客户语音数据,以得到较为干净的客户语音数据,为后续的根据客户语音数据得到初始应答话术,提供技术支持。采用第二全连接层对混合语音向量进行背景音滤波处理,得到背景音数据,为后续的确保背景音数据对应的背景环境类型,提供技术支持。
在一实施例中,如图5所示,步骤S203,对客户语音数据进行分析处理,获取意图分析结果,基于意图分析结果获取初始应答话术,包括;
S501:采用语音识别模型对客户语音数据进行识别,获取当前文本数据。
其中,语音识别模型是指用于对客户语音数据中的语音进行识别的模型。当前文本数据是指对客户语音数据进行语音识别后,将客户语音数据转化成的文本数据。
具体地,对客户语音数据进行预加重处理,对处理后的客户语音数据进行分帧和加窗运算,然后通过快速傅里叶变换和对数运算处理,最后经离散余弦变换以快速获取当前语音特征,以排除客户语音数据中的干扰信息,保证获得的当前语音特征保留可进行语音识别的有效数据。采用语音识别模型识别当前语音特征,使得获得的当前文本数据准确、客观。其中,当前语音特征包括但不限于韵律特征、音质特征、频谱特征、词汇特征和声纹特征等。
在采用语音识别模型对当前语音特征进行识别之前,需要训练语音识别模型,以使得训练完成之后的语音识别模型可以对客户语音数据进行识别,然后将客户语音数据转化成对应的当前文本数据。采用语音识别模型获得当前文本数据,确保当前文本数据具有较高的准确度。语音识别模型的训练过程具体为:选取多个不同客户的干净的历史语音数据(即不包含背景音数据)作为识别样本,且每一个识别样本均对应一个语音文本(可以理解为历史语音数据对应的文字),通过设有初始参数的语音识别模型对识别样本进行识别,获取识别文本,根据识别文本与语音文本之间的偏差度微调整初始参数,直至最终获取到一个训练完毕的语音识别模型,在该语音识别模型之中输入一个识别样本之后,它所输出的识别文本与该识别样本对应的语音文本之间的偏差度可以控制在预设阈值之内,此时,代表对语音识别模型的训练成功,从而训练好的语音识别模型,以便利用该语音识别模型对客户语音数据进行语音识别。
S502:采用意图分析模型对当前文本数据进行语义分析,获取意图分析结果。
其中,意图分析模型为基于预训练模型调优的分类模型,以利用预先训练好的模型对当前文本数据进行分析,确定客户的意图,形成意图分析结果,实现自动化对话的过程。预训练模型包括但不限于word2vec、BERT和GPT等模型。
其中,该意图分析模型是采用语音文本和对应的意图标签进行训练得到的模型,例如,语音文本为“今天天气怎么样”,则对应的意图分析结果为“询问天气”。
S503:基于意图分析结果查询话术表,获取初始应答话术。
具体地,预先在数据库中配置不同的初始应答话术和初始应答话术对应的客户意图(即意图分析结果),形成话术表。当获取到意愿分析结果时,则采用匹配算法查询话术表,以便根据意图分析结果匹配对应的初始应答话术,采用相应的初始应答话与客户进行沟通,提高外呼的效率和保证外呼的针对性,以完成语音外呼目的。
本实施例所提供的基于背景环境的呼叫处理方法,采用语音识别模型对客户语音数据进行识别,获取当前文本数据,使得获得的当前文本数据准确、客观。采用意图分析模型对当前文本数据进行语义分析,获取意图分析结果,实现自动化对话的过程。基于意图分析结果查询话术表,获取初始应答话术,根据意图分析结果匹配对应的初始应答话术,采用相应的初始应答话与客户进行沟通,提高外呼的效率和保证外呼的针对性,以完成语音外呼目的。
在一实施例中,如图6所示,步骤S204,对背景音数据进行识别处理,得到背景环境类型,包括
S601:对背景音数据进行特征提取,获取背景音向量特征。
本实施例的背景音向量特征是用于表示背景音信号的特征,该背景音向量特征包括但不限于Mel频率倒谱系数、背景音信号的时-频特征以及背景音的功率特征等。
其中,Mel频率倒谱系数是先对背景音数据进行预加重,得到预加重数据,以对语音的背景音数据进行加重,改善信号-噪声比,去除***辐射的影响,增加语音的高频分辨率;对预加重数据进行分帧处理,得到分帧数据,以保证语音平滑过渡,保持连续性;对分帧数据进行加窗,得到加窗数据,能够在较高的程度上反映短时信号的频率特性。通过FFT对加窗数据进行处理,得到加窗频谱;将加窗频谱通过Mel滤波器组得到Mel频谱,确保数据接近人类听觉,保证后续的分类准确性。在Mel频谱上面进行倒谱分析,获得Mel频率倒谱系数。
背景音信号的时-频特征是采用短时傅里叶变换得到的特征。
本实施例中,对背景音数据进行特征提取,获取背景音向量特征,以保证原来为语音信号的背景音数据转换为计算机能够处理的语音特征向量,便于后续的背景环境类型的确定。
S602:采用背景分类模型对背景音向量特征进行识别,获取背景环境类型。
本实施例中,背景分类模型是用于对背景音数据进行识别,以输出背景音数据对应的背景环境类型的模型,实现智能确定背景环境类型,为智能外呼***提供更多的参考因素,以便后续利用背景环境类型制定播报策略,提高智能外呼的成功率。本实施例所使用的背景分类模型为支持向量机模型,支持向量机模型通过数量较少的训练样本数据得到,有效减少训练时间,算法简单,而且具有较好的“鲁棒”性。
本实施例所提供的基于背景环境的呼叫处理方法,对背景音数据进行特征提取,获取背景音向量特征,以保证原来为语音信号的背景音数据转换为计算机能够处理的语音特征向量,便于后续的背景环境类型的确定。采用背景分类模型对背景音向量特征进行识别,获取背景环境类型,实现智能确定背景环境类型,为智能外呼***提供更多的参考因素,以便后续利用背景环境类型制定播报策略,提高智能外呼的成功率。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
在一实施例中,提供一种基于背景环境的呼叫处理装置,该基于背景环境的呼叫处理装置与上述实施例中基于背景环境的呼叫处理方法一一对应。如图7所示,该基于背景环境的呼叫处理装置包括通话数据获取模块701、分离处理模块702、分析处理模块703、识别处理模块704、目标应答话术获取模块705和外呼结果获取模块706。各功能模块详细说明如下:
通话数据获取模块701,用于获取客户ID对应的通话数据。
分离处理模块702,用于采用语音分离模型对通话数据进行分离处理,得到背景音数据和客户语音数据。
分析处理模块703,用于对客户语音数据进行分析处理,获取意图分析结果,基于意图分析结果获取初始应答话术。
识别处理模块704,用于对背景音数据进行识别处理,得到背景环境类型。
目标应答话术获取模块705,用于若背景环境类型为通话环境类型,则根据背景环境类型对初始应答话术进行调整,获取目标应答话术。
外呼结果获取模块706,用于根据背景环境类型确定播报策略,依据播报策略,播报目标应答话术,获取客户ID对应的外呼结果。
优选地,在识别处理模块704之后,装置还包括:推荐信息生成模块707。
推荐信息生成模块707,用于若背景环境类型为非通话环境类型时,根据初始应答话术生成推荐信息,将推荐信息发送给客户ID对应的手机终端。
优选地,在外呼结果获取模块706之后,装置还包括:更新模块、外呼成功频率生成模块、客户ID删除模块和呼叫策略生成模块。
更新模块,用于根据背景环境类型和外呼结果,更新背景环境类型对应的外呼总次数和外呼成功次数。
外呼成功频率生成模块,用于根据外呼总次数和外呼成功次数,生成客户ID对应的外呼成功频率。
客户ID删除模块,用于若外呼总次数大于预设次数,且外呼成功频率小于预设频率,则从呼叫名单中删除客户ID。
呼叫策略生成模块,用于若外呼总次数不大于预设次数,或者外呼成功频率不小于预设频率,则根据背景环境类型生成客户ID对应的呼叫策略,并记录在呼叫名单中。
优选地,分离处理模块702,包括:预处理单元、客户语音数据获取单元和背景音数据获取单元。
预处理单元,用于对通话数据进行预处理,得到混合语音向量。
客户语音数据获取单元,用于采用第一全连接层对混合语音向量进行客户语音滤波处理,得到客户语音数据。
背景音数据获取单元,用于采用第二全连接层对混合语音向量进行背景音滤波处理,得到背景音数据。
优选地,分析处理模块703,包括当前文本数据获取单元、意图分析结果获取单元和初始应答话术获取单元。
当前文本数据获取单元,用于采用语音识别模型对客户语音数据进行识别,获取当前文本数据。
意图分析结果获取单元,用于采用意图分析模型对当前文本数据进行语义分析,获取意图分析结果。
初始应答话术获取单元,用于基于意图分析结果查询话术表,获取初始应答话术。
优选地,识别处理模块704,包括特征提取单元和识别单元。
特征提取单元,用于对背景音数据进行特征提取,获取背景音向量特征。
识别单元,用于采用背景分类模型对背景音向量特征进行识别,获取背景环境类型。
关于基于背景环境的呼叫处理装置的具体限定可以参见上文中对于基于背景环境的呼叫处理方法的限定,在此不再赘述。上述基于背景环境的呼叫处理装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图8所示。该计算机设备包括通过***总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作***、计算机程序和数据库。该内存储器为非易失性存储介质中的操作***和计算机程序的运行提供环境。该计算机设备的数据库存储呼叫名单。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种基于背景环境的呼叫处理方法。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述实施例中基于背景环境的呼叫处理方法的步骤,例如图2所示的步骤S201-S206,或者图3至图6中所示的步骤,为避免重复,这里不再赘述。或者,处理器执行计算机程序时实现基于背景环境的呼叫处理装置这一实施例中的各模块/单元的功能,例如图7所示的通话数据获取模块701、分离处理模块702、分析处理模块703、识别处理模块704、目标应答话术获取模块705和外呼结果获取模块706的功能,为避免重复,这里不再赘述。
在一实施例中,提供一计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述实施例中基于背景环境的呼叫处理方法的步骤,例如图2所示的步骤S201-S206,或者图3至图6中所示的步骤,为避免重复,这里不再赘述。或者,处理器执行计算机程序时实现基于背景环境的呼叫处理装置这一实施例中的各模块/单元的功能,例如图7所示的通话数据获取模块701、分离处理模块702、分析处理模块703、识别处理模块704、目标应答话术获取模块705和外呼结果获取模块706的功能,为避免重复,这里不再赘述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于背景环境的呼叫处理方法,其特征在于,包括:
获取客户ID对应的通话数据;
采用语音分离模型对通话数据进行分离处理,得到背景音数据和客户语音数据;
对所述客户语音数据进行分析处理,获取意图分析结果,基于所述意图分析结果获取初始应答话术;
对所述背景音数据进行识别处理,得到背景环境类型;
若所述背景环境类型为通话环境类型,则根据所述背景环境类型对所述初始应答话术进行调整,获取目标应答话术;
根据所述背景环境类型确定播报策略,依据所述播报策略,播报所述目标应答话术,获取所述客户ID对应的外呼结果。
2.如权利要求1所述的基于背景环境的呼叫处理方法,其特征在于,在所述得到背景环境类型之后,所述方法还包括:
若所述背景环境类型为非通话环境类型时,根据所述初始应答话术生成推荐信息,将所述推荐信息发送给客户ID对应的手机终端。
3.如权利要求1所述的基于背景环境的呼叫处理方法,其特征在于,在所述依据所述播报策略,播报所述目标应答话术,获取所述客户ID对应的外呼结果之后,所述方法还包括:
根据背景环境类型和外呼结果,更新所述背景环境类型对应的外呼总次数和外呼成功次数;
根据所述外呼总次数和所述外呼成功次数,生成所述客户ID对应的外呼成功频率;
若所述外呼总次数大于预设次数,且所述外呼成功频率小于预设频率,则从呼叫名单中删除所述客户ID;
若所述外呼总次数不大于预设次数,或者所述外呼成功频率不小于预设频率,则根据背景环境类型生成所述客户ID对应的呼叫策略,并记录在呼叫名单中。
4.如权利要求1所述的基于背景环境的呼叫处理方法,其特征在于,所述采用语音分离模型对通话数据进行分离处理,得到背景音数据和客户语音数据,包括:
对所述通话数据进行预处理,得到混合语音向量;
采用第一全连接层对所述混合语音向量进行客户语音滤波处理,得到客户语音数据;
采用第二全连接层对所述混合语音向量进行背景音滤波处理,得到背景音数据。
5.如权利要求1所述的基于背景环境的呼叫处理方法,其特征在于,所述对所述客户语音数据进行分析处理,获取意图分析结果,基于所述意图分析结果获取初始应答话术,包括:
采用语音识别模型对所述客户语音数据进行识别,获取当前文本数据;
采用意图分析模型对所述当前文本数据进行语义分析,获取意图分析结果;
基于所述意图分析结果查询话术表,获取初始应答话术。
6.如权利要求1所述的基于背景环境的呼叫处理方法,其特征在于,所述对所述背景音数据进行识别处理,得到背景环境类型,包括
对所述背景音数据进行特征提取,获取背景音向量特征;
采用背景分类模型对所述背景音向量特征进行识别,获取背景环境类型。
7.一种基于背景环境的呼叫处理装置,其特征在于,包括:
通话数据获取模块,用于获取客户ID对应的通话数据;
分离处理模块,用于采用语音分离模型对通话数据进行分离处理,得到背景音数据和客户语音数据;
分析处理模块,用于对所述客户语音数据进行分析处理,获取意图分析结果,基于所述意图分析结果获取初始应答话术;
识别处理模块,用于对所述背景音数据进行识别处理,得到背景环境类型;
目标应答话术获取模块,用于若所述背景环境类型为通话环境类型,则根据所述背景环境类型对所述初始应答话术进行调整,获取目标应答话术;
外呼结果获取模块,用于根据所述背景环境类型确定播报策略,依据所述播报策略,播报所述目标应答话术,获取所述客户ID对应的外呼结果。
8.如权利要求7所述的基于背景环境的呼叫处理装置,其特征在于,在所述识别处理模块之后,所述装置还包括:
推荐信息生成模块,用于若所述背景环境类型为非通话环境类型时,根据所述初始应答话术生成推荐信息,将所述推荐信息发送给客户ID对应的手机终端。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至6任一项所述基于背景环境的呼叫处理方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6任一项所述基于背景环境的呼叫处理方法的步骤。
CN202011623437.2A 2020-12-30 2020-12-30 基于背景环境的呼叫处理方法、装置、设备及存储介质 Pending CN112839137A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011623437.2A CN112839137A (zh) 2020-12-30 2020-12-30 基于背景环境的呼叫处理方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011623437.2A CN112839137A (zh) 2020-12-30 2020-12-30 基于背景环境的呼叫处理方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN112839137A true CN112839137A (zh) 2021-05-25

Family

ID=75924269

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011623437.2A Pending CN112839137A (zh) 2020-12-30 2020-12-30 基于背景环境的呼叫处理方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN112839137A (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104378485A (zh) * 2014-11-28 2015-02-25 小米科技有限责任公司 调节音量的方法和装置
CN108076230A (zh) * 2017-12-28 2018-05-25 努比亚技术有限公司 通话音量调节方法、移动终端和计算机可读存储介质
CN109819375A (zh) * 2019-01-11 2019-05-28 平安科技(深圳)有限公司 调节音量的方法与装置、存储介质、电子设备
US20190227767A1 (en) * 2016-09-27 2019-07-25 Huawei Technologies Co., Ltd. Volume Adjustment Method and Terminal
CN110113497A (zh) * 2019-04-12 2019-08-09 深圳壹账通智能科技有限公司 基于语音交互的语音外呼方法、装置及终端
WO2019196312A1 (zh) * 2018-04-10 2019-10-17 平安科技(深圳)有限公司 机器人调节音量的方法、装置、计算机设备和存储介质
CN111028827A (zh) * 2019-12-10 2020-04-17 深圳追一科技有限公司 基于情绪识别的交互处理方法、装置、设备和存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104378485A (zh) * 2014-11-28 2015-02-25 小米科技有限责任公司 调节音量的方法和装置
US20190227767A1 (en) * 2016-09-27 2019-07-25 Huawei Technologies Co., Ltd. Volume Adjustment Method and Terminal
CN108076230A (zh) * 2017-12-28 2018-05-25 努比亚技术有限公司 通话音量调节方法、移动终端和计算机可读存储介质
WO2019196312A1 (zh) * 2018-04-10 2019-10-17 平安科技(深圳)有限公司 机器人调节音量的方法、装置、计算机设备和存储介质
CN109819375A (zh) * 2019-01-11 2019-05-28 平安科技(深圳)有限公司 调节音量的方法与装置、存储介质、电子设备
CN110113497A (zh) * 2019-04-12 2019-08-09 深圳壹账通智能科技有限公司 基于语音交互的语音外呼方法、装置及终端
CN111028827A (zh) * 2019-12-10 2020-04-17 深圳追一科技有限公司 基于情绪识别的交互处理方法、装置、设备和存储介质

Similar Documents

Publication Publication Date Title
CN111028827B (zh) 基于情绪识别的交互处理方法、装置、设备和存储介质
CN111105782B (zh) 会话交互处理方法、装置、计算机设备和存储介质
CN109451188B (zh) 差异性自助应答的方法、装置、计算机设备和存储介质
CN112037799B (zh) 语音中断处理方法、装置、计算机设备和存储介质
CN109065052B (zh) 一种语音机器人
CN106847305B (zh) 一种处理客服电话的录音数据的方法及装置
CN107818798A (zh) 客服服务质量评价方法、装置、设备及存储介质
CN110661927A (zh) 语音交互方法、装置、计算机设备及存储介质
CN113314119B (zh) 语音识别智能家居控制方法及装置
CN110766442A (zh) 客户信息验证方法、装置、计算机设备及存储介质
CN114818649A (zh) 基于智能语音交互技术的业务咨询处理方法及装置
CN116631412A (zh) 一种通过声纹匹配判断语音机器人的方法
CN110489519B (zh) 基于会话预测模型的会话方法及相关产品
CN115050372A (zh) 一种音频片段的聚类方法、装置、电子设备和介质
CN112087726B (zh) 彩铃识别的方法及***、电子设备及存储介质
CN112102807A (zh) 语音合成方法、装置、计算机设备和存储介质
CN112201275A (zh) 声纹分割方法、装置、设备及可读存储介质
EP4093005A1 (en) System method and apparatus for combining words and behaviors
CN112839137A (zh) 基于背景环境的呼叫处理方法、装置、设备及存储介质
CN116016779A (zh) 语音通话翻译辅助方法、***、计算机设备和存储介质
CN113506565B (zh) 语音识别的方法、装置、计算机可读存储介质与处理器
CN115985320A (zh) 智能设备控制方法、装置、电子设备及存储介质
CN113593580B (zh) 一种声纹识别方法及装置
CN113111157B (zh) 问答处理方法、装置、计算机设备和存储介质
CN110765242A (zh) 一种客服信息的提供方法,装置及***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination