CN113452853A - 语音交互方法及装置、电子设备、存储介质 - Google Patents
语音交互方法及装置、电子设备、存储介质 Download PDFInfo
- Publication number
- CN113452853A CN113452853A CN202110760477.XA CN202110760477A CN113452853A CN 113452853 A CN113452853 A CN 113452853A CN 202110760477 A CN202110760477 A CN 202110760477A CN 113452853 A CN113452853 A CN 113452853A
- Authority
- CN
- China
- Prior art keywords
- voice interaction
- voice
- outbound
- task
- interaction task
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 344
- 238000000034 method Methods 0.000 title claims abstract description 67
- 230000002452 interceptive effect Effects 0.000 claims abstract description 59
- 238000001914 filtration Methods 0.000 claims description 48
- 238000012545 processing Methods 0.000 claims description 16
- 238000006243 chemical reaction Methods 0.000 claims description 11
- 230000008676 import Effects 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 4
- 230000003068 static effect Effects 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 19
- 230000008569 process Effects 0.000 description 12
- 230000004044 response Effects 0.000 description 6
- 230000004927 fusion Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000006854 communication Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 238000004806 packaging method and process Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 208000027534 Emotional disease Diseases 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/527—Centralised call answering arrangements not requiring operator intervention
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Telephonic Communication Services (AREA)
Abstract
本公开提供了一种语音交互方法及装置、电子设备、存储介质,涉及计算机技术领域。该语音交互方法包括:从不同数据源采集语音交互任务;所述语音交互任务包括动态个性化参数;基于各所述语音交互任务对应的外呼场景,设置各所述语音交互任务的优先级;根据所述优先级对所述语音交互任务对应的目标对象进行语音外呼操作,并结合所述动态个性化参数以及所述外呼场景生成所述语音交互任务对应的交互语音数据;通过所述交互语音数据与所述目标对象进行语音交互,以实现在多个外呼场景下语音交互任务的并发外呼。本公开实施例的技术方案能够有效提升语音外呼效率,降低语音外呼成本。
Description
技术领域
本公开涉及计算机技术领域,具体而言,涉及一种语音交互方法、语音交互装置、电子设备以及计算机可读存储介质。
背景技术
随着通信网络的飞速发展,使用通信网络业务的用户规模大幅增长,随之而来的针对诸多网络业务均需要通过语音外呼的形式为用户提供服务。
目前,要么通过人工的方式实现语音外呼,要么通过基于语音识别、语义理解、语音合成的互动式语音应答(Interactive Voice Response,IVR)技术的方式实现语音外呼。但是,通过人工的方式实现语音外呼,在用户规模较大的情况下,不仅效率低下、人力成本巨大,而且可能存在服务人员情绪化的问题;而通过互动式语音应答技术实现语音外呼,语音交互的回答较为固定,可能导致答非所问的现象,导致交互效果不理想,语音交互的效率较低。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开实施例的目的在于提供一种语音交互方法、语音交互装置、电子设备以及计算机可读存储介质,进而至少在一定程度上克服相关方案中语音外呼效率较低、语音外呼效果不理想的问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开实施例的第一方面,提供了一种语音交互方法,包括:
从不同数据源采集语音交互任务;所述语音交互任务包括动态个性化参数;
基于各所述语音交互任务对应的外呼场景,设置各所述语音交互任务的优先级;
根据所述优先级对所述语音交互任务对应的目标对象进行语音外呼操作,并结合所述动态个性化参数以及所述外呼场景生成所述语音交互任务对应的交互语音数据;
通过所述交互语音数据与所述目标对象进行语音交互,以实现在多个外呼场景下语音交互任务的并发外呼。
在本公开的一些示例实施例中,基于前述方案,所述从不同数据源采集语音交互任务,包括:
基于预设的外呼任务导入模板从管理***获取批量导入的语音交互任务;和/或
基于开放的标准接口从第三方***获取语音交互任务;和/或
基于数据采集工具从第三方***中抓取语音交互任务。
在本公开的一些示例实施例中,基于前述方案,所述方法还包括:
根据预先配置的字段转换映射关系,将采集的语音交互任务转换为标准格式的语音交互任务;所述标准格式的语音交互任务包括固定静态字段和动态个性化参数。
在本公开的一些示例实施例中,基于前述方案,基于各所述语音交互任务对应的外呼场景,设置各所述语音交互任务的优先级,包括:
基于各所述语音交互任务对应的外呼场景,构建多个号码池,所述号码池对应不同的优先级;
获取所述语音交互任务的优先级属性,并根据所述优先级属性将所述语音交互任务放置到所述号码池中,以完成设置各所述语音交互任务的优先级。
在本公开的一些示例实施例中,基于前述方案,所述方法还包括:
分配不同的所述外呼场景对应的语音中继线路。
在本公开的一些示例实施例中,基于前述方案,所述方法还包括:
按照预设的过滤条件对不同外呼场景下的所述语音交互任务进行过滤;
所述预设的过滤条件包括黑白名单过滤条件、号段过滤条件、外呼时间段过滤条件、多场景交叉过滤条件、重复外呼过滤条件以及外呼场景定向过滤条件。
在本公开的一些示例实施例中,基于前述方案,所述结合所述动态个性化参数以及所述外呼场景生成所述语音交互任务对应的交互语音数据,包括:
获取所述外呼场景对应的机器话术模板;所述机器话术模板包括多个语音交互节点;
根据所述目标对象的输入信息确定目标语音交互节点,并获取所述目标语音交互节点对应的回复语音数据;
将所述动态个性化参数组装到所述回复语音数据中生成所述语音交互任务对应的交互语音数据。
在本公开的一些示例实施例中,基于前述方案,所述方法还包括:
若检测到已完成所述语音交互任务,则获取所述语音交互任务对应的语音交互记录;
若所述语音交互任务来源于第三方***,则将所述语音交互记录返回至所述第三方***,以便所述第三方***进行数据关联和其他后续逻辑处理。
根据本公开实施例的第二方面,提供了一种语音交互装置,包括:
语音交互任务采集模块,用于从不同数据源采集语音交互任务;所述语音交互任务包括动态个性化参数;
优先级确定模块,用于基于各所述语音交互任务对应的外呼场景,设置各所述语音交互任务的优先级;
交互语音数据生成模块,用于根据所述优先级对所述语音交互任务对应的目标对象进行语音外呼操作,并结合所述动态个性化参数以及所述外呼场景生成所述语音交互任务对应的交互语音数据;
语音交互模块,用于通过所述交互语音数据与所述目标对象进行语音交互,以实现在多个外呼场景下语音交互任务的并发外呼。
根据本公开实施例的第三方面,提供了一种电子设备,包括:处理器;以及存储器,所述存储器上存储有计算机可读指令,所述计算机可读指令被所述处理器执行时实现上述任意一项所述的语音交互方法。
根据本公开实施例的第四方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现根据上述任意一项所述的语音交互方法。
本公开实施例提供的技术方案可以包括以下有益效果:
本公开的示例实施例中的语音交互方法,从不同数据源采集语音交互任务,该语音交互任务包括动态个性化参数,然后基于各语音交互任务对应的外呼场景,设置各语音交互任务的优先级;根据优先级对语音交互任务对应的目标对象进行语音外呼操作,并结合动态个性化参数以及外呼场景生成语音交互任务对应的交互语音数据;通过交互语音数据与目标对象进行语音交互,以实现在多个外呼场景下语音交互任务的并发外呼。一方面,通过采集的语音交互任务中所包含的动态个性化参数,生成用于语音交互任务对应的交互语音数据,使在不同外呼场景下交互语音数据能够随着动态个性化参数的变化而变化,使交互语音数据更加符合交互式场景,提高交互语音数据的灵活性以及准确性,提升用户体验;另一方面,从不同数据源采集语音交互任务,并根据优先级对语音交互任务对应的目标对象进行语音外呼操作,避免对同一目标重复进行外呼,使多场景并发语音外呼成为可能,有效提升语音外呼效率,降低人力成本。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1示意性示出了根据本公开的一些实施例的语音交互方法的流程示意图;
图2示意性示出了根据本公开的一些实施例的构建语音交互任务的优先级的流程示意图;
图3示意性示出了根据本公开的一些实施例的分优先级构建号码池的流程示意图;
图4示意性示出了根据本公开的一些实施例的对语音交互任务进行过滤的流程示意图;
图5示意性示出了根据本公开的一些实施例的组装交互语音数据的流程示意图;
图6示意性示出了根据本公开的一些实施例的通过组装好的交互语音数据实现外呼操作的流程示意图;
图7示意性示出了根据本公开的一些实施例的回传语音交互任务对应的交互记录的流程示意图;
图8示意性示出了根据本公开的一些实施例的实现语音交互的流程示意图;
图9示意性示出了根据本公开的一些实施例的语音交互方法的应用场景示意图;
图10示意性示出了根据本公开的一些实施例的语音交互装置的示意图;
图11示意性示出了根据本公开的一些实施例的电子设备的计算机***的结构示意图;
图12示意性示出了根据本公开的一些实施例的计算机可读存储介质的示意图。
在附图中,相同或对应的标号表示相同或对应的部分。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本公开的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本公开的各方面。
此外,附图仅为示意性图解,并非一定是按比例绘制。附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
在本示例实施例中,首先提供了一种语音交互方法,该语音交互方法可以应用于服务器,也可以应用于终端设备,本示例实施例对此不做特殊限定。下面以服务器执行该方法为例,对语音交互方法进行说明,图1示意性示出了根据本公开的一些实施例的语音交互方法流程的示意图,参考图1所示,该语音交互方法可以包括以下步骤:
步骤S110,从不同数据源采集语音交互任务;所述语音交互任务包括动态个性化参数;
步骤S120,基于各所述语音交互任务对应的外呼场景,设置各所述语音交互任务的优先级;
步骤S130,根据所述优先级对所述语音交互任务对应的目标对象进行语音外呼操作,并结合所述动态个性化参数以及所述外呼场景生成所述语音交互任务对应的交互语音数据;
步骤S140,通过所述交互语音数据与所述目标对象进行语音交互,以实现在多个外呼场景下语音交互任务的并发外呼。
根据本示例实施例中的语音交互方法,一方面,通过采集的语音交互任务中所包含的动态个性化参数,生成用于语音交互任务对应的交互语音数据,使在不同外呼场景下交互语音数据能够随着动态个性化参数的变化而变化,使交互语音数据更加符合交互式场景,提高交互语音数据的灵活性以及准确性,提升用户体验;另一方面,从不同数据源采集语音交互任务,并根据优先级对语音交互任务对应的目标对象进行语音外呼操作,避免对同一目标重复进行外呼,使多场景并发语音外呼成为可能,有效提升语音外呼效率,降低人力成本。
下面,将对本示例实施例中的语音交互方法进行进一步的说明。
在步骤S110中,从不同数据源采集语音交互任务;所述语音交互任务包括动态个性化参数。
在本公开的一个示例实施例中,语音交互任务是指基于特定需求向用户提供的交互式语音应答的外呼任务,例如,语音交互任务可以是基于交互式语音应答向用户提供的数据查询服务的外呼任务,如语音提示用户选择不同的数字键实现话费、流量等数据的查询;语音交互任务也可以是基于交互式语音应答向用户提供的通话套餐推荐、流量套餐推荐等推荐服务的外呼任务,如通过语音介绍通话套餐、流量套餐的内容,并通过用户的回答实现通话套餐、流量套餐的快速开通或者取消等操作,当然,语音交互任务还可以是其他类型的基于特定需求向用户提供的交互式语音应答的外呼任务,本示例实施例对此不做特殊限定。
由于相关技术方案中的语音交互任务仅可以通过管理***进行设置或者导入,无法与其他数据源进行对接,导致语音交互任务的来源较少,应用场景较局限,不够灵活,基于此,本示例实施例提出了从不同数据源采集语音交互任务的方案,从而扩展语音交互任务的来源范围,扩展语音交互任务的应用场景,提升灵活性。
具体的,不同数据源可以包括管理***、第三方***等,可以基于预设的外呼任务导入模板从管理***获取批量导入的语音交互任务;和/或基于开放的标准接口从第三方***获取语音交互任务;和/或基于数据采集工具从第三方***中抓取语音交互任务。
其中,预设的外呼任务导入模板是指管理***生成的、用于触发语音交互任务的模板,可以在创建外呼场景时选择机器话术,根据话术配置及个性化变量信息,管理***可以自动生成外呼任务导入模板,运营人员可下载该外呼任务导入模板,通过以外呼任务导入模板的模板格式填充语音交互任务的相关数据即可触发语音交互任务的外呼。
开放的标准接口可以包括但不限于HTTP POST JSON标准接口,通过开放的标准接口可以支持第三方***的单个语音交互任务的提交,也可以实现批量语音交互任务的提交,还可以支持流式的语音交互任务的提交,从而能够满足大部分应用场景下的第三方***的需求,有效提升扩展语音交互任务能够支持的应用场景,提升在各应用场景部署的灵活性。
本示例实施例中除了能够通过从其他数据源主动提交的方式被动采集语音交互任务,还可以通过主动采集的方式获取语音交互任务,例如,可以通过预先设置的数据采集工具,实现从第三方***中的数据库、FTP(File Transfer Protocol,文件传输协议)服、消息队列等服务中抓取语音交互任务。
当然,以上仅是示意性举例说明,本示例实施例还可以通过多种方式从不同的数据源采集语音交互任务,本示例实施例对此不做特殊限定。
在本公开的一个示例实施例中,为了保证各语音采集任务的兼容性,能够成功被外呼,可以在从不同数据源采集得到语音交互任务之后,将采集到的语音交互任务统一经过数据协议适配层,用于对语音交互任务进行协议及数据的转换,转换时可以根据预先配置的字段转换映射关系,将采集的语音交互任务转换为标准格式的语音交互任务。
具体的,首先可以将各语音采集任务的协议统一转换为***内部的协议(如HTTPPOST JSON协议);然后可以根据配置的字段转换规则,将原始数据报文中的字段转换为指定***内部与语音交互任务所需的标准字段及格式,而非***所需的信息可以统一转换为json格式数据;然后可以根据配置的字段转换规则,核对外呼场景所需的动态个性化变量与json格式数据进行对比,对比通过后执行下一步逻辑处理;经过转换后,可以构成语音交互任务对应的标准格式数据(固定静态字段+动态的json数据)存储到数据库中,生成***内部的语音交互任务数据,实现了多源数据融合的统一处理机制,极大的提升了不同数据源的***间的对接效率。
在步骤S120中,基于各所述语音交互任务对应的外呼场景,设置各所述语音交互任务的优先级。
在本公开的一个示例实施例中,外呼场景是指与不同的语音交互任务所对应的应用场景,例如,对于话费查询、流量查询等语音交互任务属于自助查询类型的外呼场景,对于欠费通知等语音交互任务属于主动通知类型的外呼场景,当然,外呼场景可以根据不同类型的语音交互任务进行自定义设置,本示例实施例对此不做特殊限定。
具体的,步骤S120还可以包括步骤S210和步骤S220,可以基于步骤S210和步骤S220实现基于各语音交互任务对应的外呼场景,设置各语音交互任务的优先级,参考图2所示,具体可以包括以下步骤:
步骤S210,基于各所述语音交互任务对应的外呼场景,构建多个号码池,所述号码池对应不同的优先级;
步骤S220,获取所述语音交互任务的优先级属性,并根据所述优先级属性将所述语音交互任务放置到所述号码池中,以完成设置各所述语音交互任务的优先级。
其中,号码池是指管理员在中继管理中设置外呼显号,优先级属性是指为每个语音交互任务设置的判断优先级的属性信息,例如,优先级属性可以是为语音交互任务设置的优先级级别,如优先级级别可以是优先级1、优先级2、优先级3、优先级4、优先级5等;优先级属性也可以是语音交互任务对应的外呼场景的类型,当然,优先级属性还可以是其他能够判别语音交互任务对应的优先级级别的属性数据,本示例实施例对此不做特殊限定。
在本公开的一个示例实施例中,可以分配不同的外呼场景对应的语音中继线路。语音中继线路(Trunk Line)是指直接连接两个交换***之间的全部线路和所属设备,通过为不同外呼场景分配单独的语音中继线路,实现在多个外呼场景并发外呼时,互不影响,提高语音交互任务的外呼成功率,提高外呼效率。
图3示意性示出了根据本公开的一些实施例的分优先级构建号码池的流程示意图。
参考图3所示,在多外呼场景并发外呼的应用场景中,可以通过语音中继线路的划分以及号码池的管理,实现语音交互任务的优先级功能,具体可以通过以下步骤实现:
步骤S310,基于机器话术模板创建外呼场景时,可以分配所需的语音中继线路数,分配完成后该部分的语音中继线路由对应的该外呼场景所独占,当然,也可以根据实际场景需要在***中重新调整语音中继线路数;
步骤S320,当外呼场景存在需要外呼的语音交互任务时,可以默认按照优先级的级别设置构建多个号码池,并将语音交互任务按照语音交互任务对应的优先级属性放置于指定的号码池中,随后可以由调度线程按号码池的优先级顺序从号码池中提取语音交互任务进行规则检测。
需要说明的是,若语音交互任务因多外呼场景并行外呼导致已经有在呼的相同号码时,调整该语音交互任务的排队参数(例如可以是时间戳与序列号的组合)置于归属的外呼场景的号码池队列末尾,这样可以有效避免对用户连续外呼,导致用户外呼体验较差的问题。
在本公开的一个示例实施例中,对号码池中提取的语音交互任务进行规则检测,具体可以按照预设的过滤条件对不同外呼场景下的语音交互任务进行过滤,预设的过滤条件可以包括黑白名单过滤条件、号段过滤条件、外呼时间段过滤条件、多场景交叉过滤条件、重复外呼过滤条件以及外呼场景定向过滤条件。
图4示意性示出了根据本公开的一些实施例的对语音交互任务进行过滤的流程示意图。
参考图4所示,步骤S410,按照黑白名单过滤条件检查:***中可以预先设置全局的黑白名单以及外呼场景级的黑白名单,外呼场景级的黑白名单要优先于全局的黑白名单,若检查不通过则直接将语音交互任务更新为外呼失败的状态;
步骤S420,按照号段过滤条件检查:检查语音交互任务的号段是否满足外呼场景预先配置的号段,若不满足外呼场景所配置的归属地范围,则将语音交互任务更新为外呼失败的状态;
步骤S430,按照外呼时间段过滤条件检查:检查语音交互任务的时间范围是否在批次及外呼场景预先配置的时间范围内,由于号码池中的号码已经按照提前计算的可外呼时间戳进行了排序,因此当某个语音交互任务不满足时间要求时,整个号码池剩余外呼任务需要等待批次或外呼场景的下一个可外呼时间段再去发起外呼,引起不必要的延迟,导致外呼效率降低的情况,因此对于语音交互任务进行外呼时间段过滤条件检查,能够有效提升外呼效率;
步骤S440,按照多场景交叉过滤条件检查:获取多外呼场景的交叉配置规则循环检查是否满足M天外呼不超过N次的规则(其中M和N为大于或者等于1的正整数),具体的多场景交叉过滤流程如下:(1)每个外呼场景会按天存储已外呼记录,用于进行外呼场景内的重复外呼检查以及多场景交叉规则检查;(2)获取与外呼任务有关的多外呼场景交叉规则;(3)循环上述规则中的每个外呼场景,遍历该外呼场景中从M天前的日期至当前日期的外呼记录,检查是否存在相同的号码;(4)若存在相同的号码则进行该号码对应的次数累计,并判断累计次数是否超过N次,若超过N次,则多场景交叉过滤条件检查不通过,并更新该语音交互任务为外呼失败的状态;
步骤S450,按照重复外呼过滤条件检查:可以根据外呼场景的重复外呼检查配置,可以遍历外呼场景从M天前的日期至当前日期的外呼记录中是否已包含相同号码,若存在则直接将该语音交互任务更新为外呼失败的状态;
步骤S460,按照外呼场景定向过滤条件检查:可以通过开放通用的接口协议供不同的外呼场景进行适配,实现基于外呼场景的业务逻辑验证,从业务角度检查是否允许外呼,例如,针对欠费通知的外呼场景,外呼前可以调用接口对用户是否已缴费进行校验等,若接口检测到不允许对该语音交互任务进行外呼,则直接将该语音交互任务更新为外呼失败的状态。
继续参考图1所示,在步骤S130中,根据所述优先级对所述语音交互任务对应的目标对象进行语音外呼操作,并结合所述动态个性化参数以及所述外呼场景生成所述语音交互任务对应的交互语音数据。
在本公开的一个示例实施例中,交互语音数据是指语音交互任务触发外呼机器人在语音通话的过程中向用户播放的语音,语音外呼操作是指向语音交互任务中包含的用户电话号码进行外呼请求的操作,通过语音外呼操作能够与目标用户建立电话通话通道,并通过电话通话通道以及用户的触发操作播放对应的交互语音数据。
具体的,步骤S130可以包括步骤S510至步骤S530,通过步骤S510至步骤S530能够实现结合动态个性化参数以及外呼场景生成语音交互任务对应的交互语音数据,参考图5所示,具体可以包括:
步骤S510,获取所述外呼场景对应的机器话术模板;所述机器话术模板包括多个语音交互节点;
步骤S520,根据所述目标对象的输入信息确定目标语音交互节点,并获取所述目标语音交互节点对应的回复语音数据;
步骤S530,将所述动态个性化参数组装到所述回复语音数据中生成所述语音交互任务对应的交互语音数据。
其中,机器话术模板是指预先根据不同外呼场景设置的用于生成交互语音数据的模板,例如,机器话术模板可以是“如需要查询{变量1}请按1,查询{变量2}请按2”,。
语音交互节点是指机器话术模板设置的能够与用户实现语音交互的交互节点,例如,机器话术模板可以是“如需要查询话费请按1,查询剩余流量请按2”,在用户选择1或者选择2时,交互语音数据将会跳转到与“1”或者“2”对应的部分,此处的“1”或者“2”对应的交互语音部分就是机器话术模板中的语音交互节点。
目标对象的输入信息是指用户选择性输入的用于切换交互语音数据的语音交互节点的信息,例如,交互语音数据可以是“如需要查询{话费}请按1,查询{剩余流量}请按2”,那么用户通过用户终端的输入控件或者用户输入的语音输入的“1”或者“2”就是目标对象的输入信息,当然,目标对象的输入信息还可以是以其他方式输入的用于切换交互语音数据的语音交互节点的信息,本示例实施例对此不做特殊限定。
回复语音数据是指用户在通过输入信息切换交互语音数据的语音交互节点之后机器话术模板中的信息,例如,对于交互语音数据“如需要查询{话费}请按1,查询{剩余流量}请按2”,用户的输入信息选择“2”之后,及机器人所回复的语音数据“您的剩余流量为{获取的流量值}”可以认为是回复语音数据,当然,此处仅是示意性举例说明,本示例实施例不以此为限。
图6示意性示出了根据本公开的一些实施例的通过组装好的交互语音数据实现外呼操作的流程示意图。
参考图6所示,可以在外呼过程中根据所需的个性化变量以及外呼任务中的动态个性化参数进行匹配,实现相关的逻辑判断,组装语音交互数据集播放给用户,具体如下:
步骤S610,在外呼任务子***向CTI提交外呼请求前,可以先提取外呼场景所需的个性化变量同步至智能对话子***;
步骤S620,在外呼开始时,可以根据CTI请求中的参数,使智能对话子***路由至指定机器话术模板的开始节点;
步骤S630,获取开始节点的回复语音数据的配置,并结合外呼任务的动态个性化参数组装为完整的语音交互数据返回给CTI并播放给用户;
步骤S640,在外呼过程中,除了可以根据用户的输入信息进行对话节点的路由外,还可以根据语音交互任务的动态个性化参数进行语音交互节点的路由;
步骤S650,在路由到目标语音交互节点后,同步骤S630所描述,组装回复语音数据生成语音交互数据并发送给CTI进行播放。
继续参考图1所示,在步骤S140中,通过所述交互语音数据与所述目标对象进行语音交互,以实现在多个外呼场景下语音交互任务的并发外呼。
在本公开的一个示例实施例中,目标对象是指语音交互任务所针对的对象,例如,目标对象可以是语音交互任务对应的用户,也可以是在测试时语音交互任务对应的测试脚本,当然,目标对象还可以是能够实现语音交互的机器人,本示例实施例对此不做特殊限定。
在生成语音交互任务对应的交互语音数据之后,可以通过外呼优先级以及语音中继线路触发语音外呼操作与用户建立通话通道,并通过建立的通话通道基于交互语音数据与目标对象进行语音交互,能够实现多个外呼场景下语音交互任务的并发外呼。
在本公开的一个示例实施例中,在与目标对象接结束语音交互并完成语音交互任务之后,可以收集整理会话过程中的数据与音频数据,并判断外呼任务的来源,若来源于第三方***,则组装通话数据与原始采集数据一起反馈第三方***。
具体的,在检测到已完成语音交互任务时,则可以获取语音交互任务对应的语音交互记录,并且在检测到该语音交互任务来源于第三方***时,则可以将语音交互记录返回至第三方***,以便第三方***进行数据关联和其他后续逻辑处理。
图7示意性示出了根据本公开的一些实施例的回传语音交互任务对应的交互记录的流程示意图。
参考图7所示,步骤S710,生成对话日志:外呼结束后,可以根据语音交互过程中机器话术模板的执行轨迹,生成一问一答式的对话日志;
步骤S720,生成通话标签:可以根据语音交互过程中机器话术模板的执行轨迹,结合外呼场景所设置的埋点信息生成该次外呼通话的标签信息,用于后续为该用户构造用户画像提供数据基础;
步骤S730,通话录音处理:在通话过程中,CTI可以为用户侧和机器侧分别生成一个原始音频文件(例如可以是8k、8bit单声道的alaw格式的音频文件),并在外呼结束后,将这两个文件按照时间线融合生成为一个全程音频文件上传到存储服务中;同时,在通话过程中,用户的每一次语音输入信息均会产生一个分段音频文件,可以用于后续日志核查与投诉处理,并将这部分的分段音频文件也上传至存储服务中保存;
步骤S740,通话结果回传:判断语音交互任务的数据来源,若该语音交互任务来源于第三方***,则将外呼结果、对话日志、音频文件、通话标签、以及原始采集的动态参数一起打包进行回传,以便于第三方***进行数据关联和后续的逻辑处理。
图8示意性示出了根据本公开的一些实施例的实现语音交互的流程示意图。
参考图8所示,步骤S810,数据接收/采集;
步骤S820,分场景分优先级构建号码池;
步骤S830,外呼规则检查;
步骤S840,外呼个性化变量构建;
步骤S850,提交外呼任务至CTI;
步骤S860,用户与智能语音交互机器人实现智能对话;
步骤S870,生成对话日志以及标签信息;
步骤S880,全程音频文件以及分段音频文件处理;
步骤S890,打包外呼结果、对话日志、标签信息、音频、原始动态参数一起反馈给第三方***。
图9示意性示出了根据本公开的一些实施例的语音交互方法的应用场景示意图。
参考图9所示,本示例实施例中的语音交互方法可以应用到有多个***构成的***体系中,该***体系可以包括多源融合外呼任务分发***901,CTI***902以及智能对话***903,语音交互方法可以由多源融合外呼任务分发***901执行,当然,也可以根据具体的应用场景设置由其他的***执行,本示例实施例对此不做特殊限定。
多源融合外呼任务分发***901可以从不同数据源获取或者采集语音交互任务,并语音交互任务提交到CTI***902,并由CTI***902基于语音交互任务生成对话请求,并将对话请求发送给智能对话***903,同时,多源融合外呼任务分发***901还可以将语音交互任务对应的动态个性化参数发送给智能对话***903,智能对话***903根据动态个性化参数以及对话请求生成语音交互数据,并由智能对话***903与用户实现语音交互,完成语音交互任务的外呼操作。
需要说明的是,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
此外,在本示例实施例中,还提供了一种语音交互装置。参照图10所示,该语音交互装置1000包括:语音交互任务采集模块1010、优先级确定模块1020、交互语音数据生成模块1030以及语音交互模块1040。其中:
语音交互任务采集模块1010用于从不同数据源采集语音交互任务;所述语音交互任务包括动态个性化参数;
优先级确定模块1020用于基于各所述语音交互任务对应的外呼场景,设置各所述语音交互任务的优先级;
交互语音数据生成模块1030用于根据所述优先级对所述语音交互任务对应的目标对象进行语音外呼操作,并结合所述动态个性化参数以及所述外呼场景生成所述语音交互任务对应的交互语音数据;
语音交互模块1040用于通过所述交互语音数据与所述目标对象进行语音交互,以实现在多个外呼场景下语音交互任务的并发外呼。
在本公开的一种示例性实施例中,基于前述方案,语音交互任务采集模块1010可以用于:
基于预设的外呼任务导入模板从管理***获取批量导入的语音交互任务;和/或
基于开放的标准接口从第三方***获取语音交互任务;和/或
基于数据采集工具从第三方***中抓取语音交互任务。
在本公开的一种示例性实施例中,基于前述方案,语音交互装置1000还可以包括语音交互任务转换模块,该语音交互任务转换模块可以用于:
根据预先配置的字段转换映射关系,将采集的语音交互任务转换为标准格式的语音交互任务;所述标准格式的语音交互任务包括固定静态字段和动态个性化参数。
在本公开的一种示例性实施例中,基于前述方案,优先级确定模块1020还可以用于:
基于各所述语音交互任务对应的外呼场景,构建多个号码池,所述号码池对应不同的优先级;
获取所述语音交互任务的优先级属性,并根据所述优先级属性将所述语音交互任务放置到所述号码池中,以完成设置各所述语音交互任务的优先级。
在本公开的一种示例性实施例中,基于前述方案,语音交互装置1000还可以包括语音中继线路分配模块,语音中继线路分配模块可以用于:
分配不同的所述外呼场景对应的语音中继线路。
在本公开的一种示例性实施例中,基于前述方案,语音交互装置1000还可以包括语音交互任务过滤模块,语音交互任务过滤模块可以用于:
按照预设的过滤条件对不同外呼场景下的所述语音交互任务进行过滤;
所述预设的过滤条件包括黑白名单过滤条件、号段过滤条件、外呼时间段过滤条件、多场景交叉过滤条件、重复外呼过滤条件以及外呼场景定向过滤条件。
在本公开的一种示例性实施例中,基于前述方案,交互语音数据生成模块1030还可以用于:
获取所述外呼场景对应的机器话术模板;所述机器话术模板包括多个语音交互节点;
根据所述目标对象的输入信息确定目标语音交互节点,并获取所述目标语音交互节点对应的回复语音数据;
将所述动态个性化参数组装到所述回复语音数据中生成所述语音交互任务对应的交互语音数据。
在本公开的一种示例性实施例中,基于前述方案,语音交互装置1000还可以包括语音交互记录反馈模块,语音交互记录反馈模块可以用于:
若检测到已完成所述语音交互任务,则获取所述语音交互任务对应的语音交互记录;
若所述语音交互任务来源于第三方***,则将所述语音交互记录返回至所述第三方***,以便所述第三方***进行数据关联和其他后续逻辑处理。
上述中语音交互装置各模块的具体细节已经在对应的语音交互方法中进行了详细的描述,因此此处不再赘述。
应当注意,尽管在上文详细描述中提及了语音交互装置的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,在本公开的示例性实施例中,还提供了一种能够实现上述语音交互方法的电子设备。
所属技术领域的技术人员能够理解,本公开的各个方面可以实现为***、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施例、完全的软件实施例(包括固件、微代码等),或硬件和软件方面结合的实施例,这里可以统称为“电路”、“模块”或“***”。
下面参照图11来描述根据本公开的这种实施例的电子设备1100。图11所示的电子设备1100仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图11所示,电子设备1100以通用计算设备的形式表现。电子设备1100的组件可以包括但不限于:上述至少一个处理单元1110、上述至少一个存储单元1120、连接不同***组件(包括存储单元1120和处理单元1110)的总线1130、显示单元1140。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元1110执行,使得所述处理单元1110执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施例的步骤。例如,所述处理单元1110可以执行如图1中所示的步骤S110,从不同数据源采集语音交互任务;所述语音交互任务包括动态个性化参数;步骤S120,基于各所述语音交互任务对应的外呼场景,设置各所述语音交互任务的优先级;步骤S130,根据所述优先级对所述语音交互任务对应的目标对象进行语音外呼操作,并结合所述动态个性化参数以及所述外呼场景生成所述语音交互任务对应的交互语音数据;步骤S140,通过所述交互语音数据与所述目标对象进行语音交互,以实现在多个外呼场景下语音交互任务的并发外呼。
存储单元1120可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)1121和/或高速缓存存储单元1122,还可以进一步包括只读存储单元(ROM)1123。
存储单元1120还可以包括具有一组(至少一个)程序模块1125的程序/实用工具1124,这样的程序模块1125包括但不限于:操作***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线1130可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、***总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备1100也可以与一个或多个外部设备1170(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备1100交互的设备通信,和/或与使得该电子设备1100能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口1150进行。并且,电子设备1100还可以通过网络适配器1160与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器1160通过总线1130与电子设备1100的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备1100使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID***、磁带驱动器以及数据备份存储***等。
通过以上的实施例的描述,本领域的技术人员易于理解,这里描述的示例实施例可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施例的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施例的方法。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施例中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施例的步骤。
参考图12所示,描述了根据本公开的实施例的用于实现上述语音交互方法的程序产品1200,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本公开的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
此外,上述附图仅是根据本公开示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
通过以上的实施例的描述,本领域的技术人员易于理解,这里描述的示例实施例可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施例的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、触控终端、或者网络设备等)执行根据本公开实施例的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施例。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (11)
1.一种语音交互方法,其特征在于,包括:
从不同数据源采集语音交互任务;所述语音交互任务包括动态个性化参数;
基于各所述语音交互任务对应的外呼场景,设置各所述语音交互任务的优先级;
根据所述优先级对所述语音交互任务对应的目标对象进行语音外呼操作,并结合所述动态个性化参数以及所述外呼场景生成所述语音交互任务对应的交互语音数据;
通过所述交互语音数据与所述目标对象进行语音交互,以实现在多个外呼场景下语音交互任务的并发外呼。
2.根据权利要求1所述的语音交互方法,其特征在于,所述从不同数据源采集语音交互任务,包括:
基于预设的外呼任务导入模板从管理***获取批量导入的语音交互任务;和/或
基于开放的标准接口从第三方***获取语音交互任务;和/或
基于数据采集工具从第三方***中抓取语音交互任务。
3.根据权利要求1或2所述的语音交互方法,其特征在于,所述方法还包括:
根据预先配置的字段转换映射关系,将采集的语音交互任务转换为标准格式的语音交互任务;所述标准格式的语音交互任务包括固定静态字段和动态个性化参数。
4.根据权利要求1所述的语音交互方法,其特征在于,基于各所述语音交互任务对应的外呼场景,设置各所述语音交互任务的优先级,包括:
基于各所述语音交互任务对应的外呼场景,构建多个号码池,所述号码池对应不同的优先级;
获取所述语音交互任务的优先级属性,并根据所述优先级属性将所述语音交互任务放置到所述号码池中,以完成设置各所述语音交互任务的优先级。
5.根据权利要求4所述的语音交互方法,其特征在于,所述方法还包括:
分配不同的所述外呼场景对应的语音中继线路。
6.根据权利要求4所述的语音交互方法,其特征在于,所述方法还包括:
按照预设的过滤条件对不同外呼场景下的所述语音交互任务进行过滤;
所述预设的过滤条件包括黑白名单过滤条件、号段过滤条件、外呼时间段过滤条件、多场景交叉过滤条件、重复外呼过滤条件以及外呼场景定向过滤条件。
7.根据权利要求1所述的语音交互方法,其特征在于,所述结合所述动态个性化参数以及所述外呼场景生成所述语音交互任务对应的交互语音数据,包括:
获取所述外呼场景对应的机器话术模板;所述机器话术模板包括多个语音交互节点;
根据所述目标对象的输入信息确定目标语音交互节点,并获取所述目标语音交互节点对应的回复语音数据;
将所述动态个性化参数组装到所述回复语音数据中生成所述语音交互任务对应的交互语音数据。
8.根据权利要求1或2所述的语音交互方法,其特征在于,所述方法还包括:
若检测到已完成所述语音交互任务,则获取所述语音交互任务对应的语音交互记录;
若所述语音交互任务来源于第三方***,则将所述语音交互记录返回至所述第三方***,以便所述第三方***进行数据关联和其他后续逻辑处理。
9.一种语音交互装置,其特征在于,包括:
语音交互任务采集模块,用于从不同数据源采集语音交互任务;所述语音交互任务包括动态个性化参数;
优先级确定模块,用于基于各所述语音交互任务对应的外呼场景,设置各所述语音交互任务的优先级;
交互语音数据生成模块,用于根据所述优先级对所述语音交互任务对应的目标对象进行语音外呼操作,并结合所述动态个性化参数以及所述外呼场景生成所述语音交互任务对应的交互语音数据;
语音交互模块,用于通过所述交互语音数据与所述目标对象进行语音交互,以实现在多个外呼场景下语音交互任务的并发外呼。
10.一种电子设备,包括:
处理器;以及
存储器,所述存储器上存储有计算机可读指令,所述计算机可读指令被所述处理器执行时实现如权利要求1至8中任一项所述的语音交互方法。
11.一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至8中任一项所述的语音交互方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110760477.XA CN113452853B (zh) | 2021-07-06 | 2021-07-06 | 语音交互方法及装置、电子设备、存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110760477.XA CN113452853B (zh) | 2021-07-06 | 2021-07-06 | 语音交互方法及装置、电子设备、存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113452853A true CN113452853A (zh) | 2021-09-28 |
CN113452853B CN113452853B (zh) | 2022-11-18 |
Family
ID=77815237
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110760477.XA Active CN113452853B (zh) | 2021-07-06 | 2021-07-06 | 语音交互方法及装置、电子设备、存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113452853B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114827361A (zh) * | 2022-04-08 | 2022-07-29 | 马上消费金融股份有限公司 | 外呼的处理方法及装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106331394A (zh) * | 2016-10-19 | 2017-01-11 | 上海携程商务有限公司 | 语音外呼***及其外呼方法 |
CN108803879A (zh) * | 2018-06-19 | 2018-11-13 | 驭势(上海)汽车科技有限公司 | 一种人机交互***的预处理方法、设备及存储介质 |
CN109669754A (zh) * | 2018-12-25 | 2019-04-23 | 苏州思必驰信息科技有限公司 | 语音交互窗口的动态显示方法、具有伸缩式交互窗口的语音交互方法及装置 |
US20200065061A1 (en) * | 2018-08-22 | 2020-02-27 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method and apparatus for processing information |
CN112269864A (zh) * | 2020-10-15 | 2021-01-26 | 北京百度网讯科技有限公司 | 生成播报语音的方法、装置、设备和计算机存储介质 |
CN112492111A (zh) * | 2020-11-25 | 2021-03-12 | 苏宁金融科技(南京)有限公司 | 一种智能语音外呼方法、装置、计算机设备和存储介质 |
CN113050910A (zh) * | 2019-12-26 | 2021-06-29 | 阿里巴巴集团控股有限公司 | 语音交互方法、装置、设备及存储介质 |
-
2021
- 2021-07-06 CN CN202110760477.XA patent/CN113452853B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106331394A (zh) * | 2016-10-19 | 2017-01-11 | 上海携程商务有限公司 | 语音外呼***及其外呼方法 |
CN108803879A (zh) * | 2018-06-19 | 2018-11-13 | 驭势(上海)汽车科技有限公司 | 一种人机交互***的预处理方法、设备及存储介质 |
US20200065061A1 (en) * | 2018-08-22 | 2020-02-27 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method and apparatus for processing information |
CN109669754A (zh) * | 2018-12-25 | 2019-04-23 | 苏州思必驰信息科技有限公司 | 语音交互窗口的动态显示方法、具有伸缩式交互窗口的语音交互方法及装置 |
CN113050910A (zh) * | 2019-12-26 | 2021-06-29 | 阿里巴巴集团控股有限公司 | 语音交互方法、装置、设备及存储介质 |
CN112269864A (zh) * | 2020-10-15 | 2021-01-26 | 北京百度网讯科技有限公司 | 生成播报语音的方法、装置、设备和计算机存储介质 |
CN112492111A (zh) * | 2020-11-25 | 2021-03-12 | 苏宁金融科技(南京)有限公司 | 一种智能语音外呼方法、装置、计算机设备和存储介质 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114827361A (zh) * | 2022-04-08 | 2022-07-29 | 马上消费金融股份有限公司 | 外呼的处理方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN113452853B (zh) | 2022-11-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10904384B2 (en) | System and method for omnichannel user engagement and response | |
US10832677B2 (en) | Coordinating the execution of a voice command across multiple connected devices | |
US10530850B2 (en) | Dynamic call control | |
CN109658932B (zh) | 一种设备控制方法、装置、设备及介质 | |
CN110457256A (zh) | 数据存储方法、装置、计算机设备及存储介质 | |
US20050033582A1 (en) | Spoken language interface | |
WO2018067368A1 (en) | Hierarchical annotation of dialog acts | |
US11889023B2 (en) | System and method for omnichannel user engagement and response | |
CN105518645A (zh) | 负载平衡的持久连接技术 | |
CN109947387B (zh) | 音频采集方法、音频播放方法、***、设备及存储介质 | |
CN109087639A (zh) | 用于语音识别的方法、装置、电子设备及计算机可读介质 | |
CN110136713A (zh) | 用户在多模态交互中的对话方法及*** | |
CN113452853B (zh) | 语音交互方法及装置、电子设备、存储介质 | |
CN110418181B (zh) | 对智能电视的业务处理方法、装置、智能设备及存储介质 | |
JP6689953B2 (ja) | 通訳サービスシステム、通訳サービス方法及び通訳サービスプログラム | |
CN111612482A (zh) | 对话管理方法、装置和设备 | |
WO2021047209A1 (en) | Optimization for a call that waits in queue | |
CN103646644A (zh) | 一种获取语音识别业务信息认可度的方法和装置 | |
CN111311186A (zh) | 工单创建方法、介质、装置和计算设备 | |
CN114969299A (zh) | 一种对话管理方法、装置、计算机设备和存储介质 | |
CN111355853A (zh) | 呼叫中心数据处理方法及装置 | |
CN112583984A (zh) | 基于语音交互的坐席分配方法、装置、***、设备及介质 | |
CN111770236A (zh) | 一种对话处理方法、装置、***、服务器和存储介质 | |
CN112003991A (zh) | 一种外呼方法及相关设备 | |
US11810125B1 (en) | Systems and methods for a hybrid guided communication session |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |