CN112447177B - 全双工语音对话方法及*** - Google Patents

全双工语音对话方法及*** Download PDF

Info

Publication number
CN112447177B
CN112447177B CN201910831253.6A CN201910831253A CN112447177B CN 112447177 B CN112447177 B CN 112447177B CN 201910831253 A CN201910831253 A CN 201910831253A CN 112447177 B CN112447177 B CN 112447177B
Authority
CN
China
Prior art keywords
voice
duration
audio
reply content
time length
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910831253.6A
Other languages
English (en)
Other versions
CN112447177A (zh
Inventor
邓建凯
甘津瑞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sipic Technology Co Ltd
Original Assignee
Sipic Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sipic Technology Co Ltd filed Critical Sipic Technology Co Ltd
Priority to CN201910831253.6A priority Critical patent/CN112447177B/zh
Priority to EP19944180.9A priority patent/EP4027338A4/en
Priority to JP2022513079A priority patent/JP7341323B2/ja
Priority to PCT/CN2019/120609 priority patent/WO2021042584A1/zh
Priority to US17/639,624 priority patent/US20220293100A1/en
Publication of CN112447177A publication Critical patent/CN112447177A/zh
Application granted granted Critical
Publication of CN112447177B publication Critical patent/CN112447177B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/221Announcement of recognition results
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/87Detection of discrete points within a voice signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本申请公开一种全双工语音对话方法,包括:当语音对话终端被唤醒之后,开始录制并上传音频至云端服务器,用于云端服务器确定答复内容以及为确定答复内容所分析的音频的第一时长;语音对话终端接收云端服务器发送的答复内容和所述第一时长;语音对话终端判断第一时长与第二时长是否一致,第二时长为语音对话终端所上传音频的总时长;当第一时长与第二时长一致时,将语音对话终端将答复内容呈现给用户。本申请实施例中语音对话终端不仅仅获取了云端服务器所确定的答复内容,而且还获取了云端服务器为确定该答复内容所分析的音频的时长,并且在确定第一时长和第二时长一致的情况下才将答复内容呈现给用户,确保了提供正确的答复内容。

Description

全双工语音对话方法及***
技术领域
本申请涉及人工智能技术领域,尤其涉及一种全双工语音对话方法及***。
背景技术
现有语音对话中的全双工交互模式,即在唤醒状态下随时都可以进行语音交互的一种模式。与半双工的最大区别是对话的自由性更多由用户来控制,用户可以随时打断对话状态并开启下一轮交互。
然而,发明人在实现本申请的过程中发现,现有技术中的全双工语音对话方法至少存在以下技术问题:
无法定位情景:无法对应到用户正处的情景中,用户已经开启了第二个话题,但***还在第一个话题的逻辑中跟用户交互。原因可能是由于网络不稳定等因素,在交互过程中有时候***还没给用户反馈,而这个时候用户已经开始下一个话题的交互了,从而导致***跟用户的交互不在同一个话题中。
无法区别对待:有些用户说话语速比较快,有些用户语速比较慢,在全双工模式下经常对用户所说的话理解一半就开始交互从而导致交互体验下降。原因可能在于全双工一开始的定位就是即在唤醒状态下随时都可以进行语音交互的一种模式,从而导致只要有语义命中就开始交互。
发明内容
本申请实施例提供一种全双工语音对话方法及***,用于至少解决上述技术问题之一。
第一方面,本申请实施例提供一种全双工语音对话方法,用于语音对话终端,所述方法包括:
当所述语音对话终端被唤醒之后,开始录制并上传音频至云端服务器,用于所述云端服务器确定答复内容以及为确定所述答复内容所分析的音频的第一时长;
所述语音对话终端接收所述云端服务器发送的所述答复内容和所述第一时长;
所述语音对话终端判断所述第一时长与第二时长是否一致,所述第二时长为所述语音对话终端所上传音频的总时长;
当所述第一时长与所述第二时长一致时,所述语音对话终端将所述答复内容呈现给用户。
在一些实施例中,当所述第一时长小于所述第二时长时,确定所述第二时长所对应的录制音频相对于所述第一时长所对应的录制音频所多出的冗余录音片段中是否包含有语音端点;
如果否,则将所述答复内容呈现给用户;
如果是,则舍弃所述答复内容,并等待所述云端服务器发送新的答复内容和新的第一时长。
在一些实施例中,在开始录制音频之后,还包括:对录制音频进行语音端点检测,并存储所检测到的语音端点信息,所述语音端点信息包括语音开始时间点和语音结束时间点;
所述确定所述第二时长所对应的录制音频相对于所述第一时长所对应的录制音频所多出的冗余录音片段中是否包含有语音端点包括:
查询所述语音端点信息以确定是否存在属于所述冗余录音片段的语音开始时间点和语音结束时间点。
第二方面,本申请还提供一种全双工语音对话方法,用于云端服务器,所述方法包括:
接收语音对话终端所上传的录制音频;
实时分析所接收到的录制音频,以确定对应于所述录制音频中所包含的语音内容的答复内容;
发送所述答复内容和为确定所述答复内容所分析的录制音频的第一时长至所述语音对话终端,用于所述语音对话终端根据所述第一时长与第二时长之间的一致性确定是否将所述答复内容呈现给用户,所述第二时长为所述语音对话终端所上传音频的总时长。
在一些实施例中,当所述第一时长小于所述第二时长,并且所述第二时长所对应的录制音频相对于所述第一时长所对应的录制音频所多出的冗余录音片段中包含有语音端点时,继续分析所述冗余录音片段并确定新的答复内容和新的第一时长;
将所述新的答复内容和所述新的第一时长发送至所述语音对话终端。
第三方面,本申请还提供一种全双工语音对话***,用于语音对话终端,所述***包括:
音频上传程序模块,配置为当所述语音对话终端被唤醒之后,开始录制并上传音频至云端服务器,用于所述云端服务器确定答复内容以及为确定所述答复内容所分析的音频的第一时长;
接收程序模块,配置为所述语音对话终端接收所述云端服务器发送的所述答复内容和所述第一时长;
判断程序模块,配置为所述语音对话终端判断所述第一时长与第二时长是否一致,所述第二时长为所述语音对话终端所上传音频的总时长;
内容呈现程序模块,配置为当所述第一时长与所述第二时长一致时,所述语音对话终端将所述答复内容呈现给用户。
在一些实施例中,语音端点查询程序模块,配置为当所述第一时长小于所述第二时长时,确定所述第二时长所对应的录制音频相对于所述第一时长所对应的录制音频所多出的冗余录音片段中是否包含有语音端点;
如果否,则将所述答复内容呈现给用户;
如果是,则舍弃所述答复内容,并等待所述云端服务器发送新的答复内容和新的第一时长。
在一些实施例中,还包括:端点检测程序模块,配置为在开始录制音频之后,对录制音频进行语音端点检测,并存储所检测到的语音端点信息,所述语音端点信息包括语音开始时间点和语音结束时间点;
所述确定所述第二时长所对应的录制音频相对于所述第一时长所对应的录制音频所多出的冗余录音片段中是否包含有语音端点包括:
查询所述语音端点信息以确定是否存在属于所述冗余录音片段的语音开始时间点和语音结束时间点。
第四方面,本申请还包括一种全双工语音对话***,用于云端服务器,所述***包括:
接收程序模块,配置为接收语音对话终端所上传的录制音频;
答复内容确定程序模块,配置为实时分析所接收到的录制音频,以确定对应于所述录制音频中所包含的语音内容的答复内容;
发送程序模块,配置为发送所述答复内容和为确定所述答复内容所分析的录制音频的第一时长至所述语音对话终端,用于所述语音对话终端根据所述第一时长与第二时长之间的一致性确定是否将所述答复内容呈现给用户,所述第二时长为所述语音对话终端所上传音频的总时长。
在一些实施例中,所述答复内容确定程序模块还配置为,当所述第一时长小于所述第二时长,并且所述第二时长所对应的录制音频相对于所述第一时长所对应的录制音频所多出的冗余录音片段中包含有语音端点时,继续分析所述冗余录音片段并确定新的答复内容和新的第一时长;
所述发送程序模块还配置为,将所述新的答复内容和所述新的第一时长发送至所述语音对话终端。
第五方面,本申请实施例提供一种存储介质,所述存储介质中存储有一个或多个包括执行指令的程序,所述执行指令能够被电子设备(包括但不限于计算机,服务器,或者网络设备等)读取并执行,以用于执行本申请上述任一项全双工语音对话方法。
第六方面,提供一种电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本申请上述任一项全双工语音对话方法。
第七方面,本申请实施例还提供一种计算机程序产品,所述计算机程序产品包括存储在存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,使所述计算机执行上述任一项全双工语音对话方法。
本申请实施例中语音对话终端不仅仅获取了云端服务器所确定的答复内容,而且还获取了云端服务器为确定该答复内容所分析的音频的时长(即,第一时长),并且在确定第一时长和第二时长(语音对话终端所上传音频的总时长)一致的情况下才将答复内容呈现给用户。这样能够确保云端服务器确定答复内容所依据的内容与云端对话终端所上传的内容的一致性,从而提供正确的答复内容。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请的全双工语音对话方法的一实施例的流程图;
图2为本申请的全双工语音对话方法的另一实施例的流程图;
图3为本申请的全双工语音对话方法的又一实施例的流程图;
图4为本申请的全双工语音对话***的一实施例的原理框图;
图5为本申请的全双工语音对话***的另一实施例的原理框图;
图6为本申请的电子设备的一实施例的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、元件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
在本申请中,“模块”、“装置”、“***”等指应用于计算机的相关实体,如硬件、硬件和软件的组合、软件或执行中的软件等。详细地说,例如,元件可以、但不限于是运行于处理器的过程、处理器、对象、可执行元件、执行线程、程序和/或计算机。还有,运行于服务器上的应用程序或脚本程序、服务器都可以是元件。一个或多个元件可在执行的过程和/或线程中,并且元件可以在一台计算机上本地化和/或分布在两台或多台计算机之间,并可以由各种计算机可读介质运行。元件还可以根据具有一个或多个数据包的信号,例如,来自一个与本地***、分布式***中另一元件交互的,和/或在因特网的网络通过信号与其它***交互的数据的信号通过本地和/或远程过程来进行通信。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”,不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本申请提供一种全双工语音对话***,该***包括语音对话终端和云端服务器,并且还提供了分别运行于语音对话终端和云端服务器之上的全双工语音对话方法及软件***。示例性地,语音对话终端可以为智能手机、车载终端、智能音箱、故事机、集成有对话功能的家居家电产品(例如,空调、冰箱、抽油烟机等),本申请对此不作限定。
如图1所示,本申请的实施例提供一种全双工语音对话方法,用于语音对话终端,所述方法包括:
S11、当所述语音对话终端被唤醒之后,开始录制并上传音频至云端服务器,用于所述云端服务器确定答复内容以及为确定所述答复内容所分析的音频的第一时长。
示例性地,本申请中的语音对话终端集成有实现全双工语音对话方法的SDK,当语音对话终端开机之后实现SDK的初始化,并自动开启全双工模式,当检测到声音信号之后开启录音功能,并将所录制的音频实时上传至云端服务器进行分析处理。
S12、所述语音对话终端接收所述云端服务器发送的所述答复内容和所述第一时长。
示例性地,云端服务器对接收到的录制音频进行实时分析处理,当根据所获取的内容确定了完整语义时,确定对应于该完整语义的答复内容,并且记录下为此所分析的录制音频的时长(第一时长)。
S13、所述语音对话终端判断所述第一时长与第二时长是否一致,所述第二时长为所述语音对话终端所上传音频的总时长。
示例性地,第二时长可以是录音开始点到第一个语音结束端点的时长(即,语音对话终端所上传的音频为截止到所检测到的第一个语音结束端点的时长)。
S14、当所述第一时长与所述第二时长一致时,所述语音对话终端将所述答复内容呈现给用户。示例性地,答复内容可以是音频、视频、文本和图片等中的一种或者多种的结合。
本申请实施例中语音对话终端不仅仅获取了云端服务器所确定的答复内容,而且还获取了云端服务器为确定该答复内容所分析的音频的时长(即,第一时长),并且在确定第一时长和第二时长(语音对话终端所上传音频的总时长)一致的情况下才将答复内容呈现给用户。这样能够确保云端服务器确定答复内容所依据的内容与云端对话终端所上传的内容的一致性,从而提供正确的答复内容。
示例性地,语音对话终端为智能音箱,用户对智能音箱说:我想听XXX的歌。如果因为网络信号不稳定,导致智能音箱将该段音频发送至云端服务器时,对应于“我想听”的音频片段先到达了云端服务器,“XXX的歌”延后达到,而就在这段延时期间,云端服务器根据“我想听”的音频理解为用户想要随意听一首歌,从而为用户随便推荐一首歌反馈给用户,显然这种推送结果是不能够满足用户真实听歌需求的。而基于本申请的实施例,显然“我想听”这段音频的时长与“我想听XXX的歌”的时长不一致的,从而能够舍弃该结果,继续等待新的结果,确保呈现给用户的内容的正确性。
示例性地,语音对话终端为搭载了语音助手的智能手机,用户身在北京将要去上海出差并且当天到达,想要查询上海今天的天气,用户对智能手机的语音助手说:今天的天气如何?上海的。显然用户想要表达的是“上海今天的天气如何?”,但是将地点放置在后面进行了补充说明。
由于云端服务器是根据所接收到的音频内容进行实时分析处理并进行语义理解的,而“今天的天气如何”又恰好是表达的完整语义的(能够根据智能终端的定位确定用户身在北京),从而云端服务器便会首先确定了北京的天气情况作为答复内容,并将该答复内容和对应于“今天的天气如何”的时长发送至智能手机。
但是由于本申请示例中在智能手机端接收到信息之后还会将对应于“今天的天气如何”的音频时长与所存储的“今天的天气如何?上海的”的音频时长进行比较,从而能够发现两时长不匹配,舍弃当前的答复内容,并继续等待新的答复内容,进一步确保了呈现给用户的答***性。
在一些实施例中,第二时长可以是截止到语音对话终端接收到来自云端服务器所发送的信息(答复内容和第一时长)的时间点(即,接收到来自云端服务器的信息时,已经上传的录制音频的总时长)。
当所述第一时长小于所述第二时长时,确定所述第二时长所对应的录制音频相对于所述第一时长所对应的录制音频所多出的冗余录音片段中是否包含有语音端点;
如果否,则将所述答复内容呈现给用户;
如果是,则舍弃所述答复内容,并等待所述云端服务器发送新的答复内容和新的第一时长。
本实施例能够确定在确定答复内容之后,给出答复内容之前用户是否向语音对话终端输入了新的语音,即用户是否有新的问题(提出新问题的原因可能有两种,一种是仅仅输入了另一种说法,另一种是想要放弃之前的问题),从而能够确保给出的答复内容是与用户当前的话题是对应的。
示例性地,语音对话终端为搭载了语音助手的智能手机,用户身在北京,想要查询北京今天的天气,用户对智能手机的语音助手说:今天的天气如何?……北京今天的天气如何?。显然用户仅仅是在说完第一句之后又提供了一种说法不同含义相同的句式。
由于云端服务器是根据所接收到的音频内容进行实时分析处理并进行语义理解的,而“今天的天气如何”又恰好是表达的完整语义的(能够根据智能终端的定位确定用户身在北京),从而云端服务器便会首先确定了北京的天气情况作为答复内容,并将该答复内容和对应于“今天的天气如何”的时长发送至智能手机。
但是由于本申请示例中在智能手机端接收到信息之后还会将对应于“今天的天气如何”的音频时长是小于第二时长的,因此舍弃当前的答复内容,并继续等待新的答复内容(相同于第一次所确定的答复内容),这样能够避免连续两次将确定的相同答复内容呈现给用户,对用户造成困惑,影响用户体验。
示例性地,语音对话终端为具备语音交互功能的车载终端,用户驾车在户外所遇到的网络环境是不稳定的,从而可能会导致用户在于车载终端进行语音交互时无法得到及时回复,而且一般等待一定时长(例如,5s)之后就会放弃之前的一个或者多个提问,并且提出新的问题。现有技术中是在信号良好的情况下对于用户所提出的所有问题一股脑的呈现给用户,用户还需要逐一浏览找出对应于自己最新提出的问题的答复内容,严重影响用户体验。
而本申请实施例由于在确定答复内容之后,给出答复内容之前这个时间节点上,确定用户是否向语音对话终端输入了新的语音,即用户是否有新的问题,从而能够紧紧响应于用户当前真正想要了解的内容,优化了语音交互过程,提升了用户体验。
在一些实施例中,在开始录制音频之后,还包括:对录制音频进行语音端点检测,并存储所检测到的语音端点信息,所述语音端点信息包括语音开始时间点和语音结束时间点;
所述确定所述第二时长所对应的录制音频相对于所述第一时长所对应的录制音频所多出的冗余录音片段中是否包含有语音端点包括:
查询所述语音端点信息以确定是否存在属于所述冗余录音片段的语音开始时间点和语音结束时间点。
如图2所示,本申请还提供一种全双工语音对话方法,用于云端服务器,所述方法包括:
S21、接收语音对话终端所上传的录制音频;
S22、实时分析所接收到的录制音频,以确定对应于所述录制音频中所包含的语音内容的答复内容;
S23、发送所述答复内容和为确定所述答复内容所分析的录制音频的第一时长至所述语音对话终端,用于所述语音对话终端根据所述第一时长与第二时长之间的一致性确定是否将所述答复内容呈现给用户,所述第二时长为所述语音对话终端所上传音频的总时长。
在一些实施例中,当所述第一时长小于所述第二时长,并且所述第二时长所对应的录制音频相对于所述第一时长所对应的录制音频所多出的冗余录音片段中包含有语音端点时,继续分析所述冗余录音片段并确定新的答复内容和新的第一时长;
将所述新的答复内容和所述新的第一时长发送至所述语音对话终端。
如图3所示,为本申请的全双工语音对话方法的另一实施例的流程图,包括以下步骤:
步骤一:首先sdk初始化,初始化WAKEUP节点,VAD节点,对话识别节点等;
步骤二:初始化完毕后,开启全双工模式,此模式下录音功能常开,保证用户随时都可以进行语音交互;
步骤三:开启录音机节点,持续的监听用户的语音变化,并不断的将用户的语音输入给SDK;
步骤四:用户语音输入唤醒词,成功唤醒语音交互平台,开启交互模式;
步骤五:将第四步音频输入VAD节点,此时VAD节点记录音频输入的总时间长度,并持续的判断是否有人声说话并保存人声说话开始的时间点与人声停止说话的时间点;
步骤六:将第四步缓存的音频输入发送给云端;
步骤七:云端返回对话结果后,判断本地记录的总音频时长与云端返回的总音频时长是否一致,如果总音频时长一致则说明对话是对齐的,正常将对话结果展示给用户;
步骤八:如果本地记录的总音频时长大于云端返回的总音频时长不一致,则判断在两个音频时长相差的这个时间内是否有检测到人声,如果没有检测到人声,说明用户在等待本次对话结果,正常将对话结果展示给用户;
步骤九:如果本地记录的总音频时长大于云端返回的总音频时长不一致,则判断在两个音频时长相差的这个时间内是否有检测到人声,如果有检测到人声,说明用户在这次交互之后又有语音输入,可能这个时候用户已经开始了新的话题,则丢弃本次对话结果。
本申请实施例中,首先,就是在交互过程中本地与云端持续保存交互的时长,在每次云端返回对话结果的时候也带上本次对话的结束时间点,此时拿本地的时间与云端返回的时间点做对比,如果本地与云端的时间节点相差超过5秒,则丢弃本次的对话结果,从而保证本地与云端的同步。
其次,就是使用VAD技术,在第一步的基础上时时去检测用户的语音输入,如果本地与云端的时间节点相差的这段时间内用户有语音输入,则说明用户在本次云端返回的结果之后又有语音输入,这样就可以更加精准的丢弃本次对话结果。如果本地与云端的时间节点相差的这段时间内用户没有语音输入,则说明用户一直在等上次的交互结果,则本次的对话结果就不应该丢弃。使用本策略就能保证与用户在同一个话题中交互。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作合并,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
如图4所示,本申请的实施例还提供一种全双工语音对话***400,用于语音对话终端,所述***包括:
音频上传程序模块410,配置为当所述语音对话终端被唤醒之后,开始录制并上传音频至云端服务器,用于所述云端服务器确定答复内容以及为确定所述答复内容所分析的音频的第一时长;
接收程序模块420,配置为所述语音对话终端接收所述云端服务器发送的所述答复内容和所述第一时长;
判断程序模块430,配置为所述语音对话终端判断所述第一时长与第二时长是否一致,所述第二时长为所述语音对话终端所上传音频的总时长;
内容呈现程序模块440,配置为当所述第一时长与所述第二时长一致时,所述语音对话终端将所述答复内容呈现给用户。
在一些实施例中,语音端点查询程序模块,配置为当所述第一时长小于所述第二时长时,确定所述第二时长所对应的录制音频相对于所述第一时长所对应的录制音频所多出的冗余录音片段中是否包含有语音端点;
如果否,则将所述答复内容呈现给用户;
如果是,则舍弃所述答复内容,并等待所述云端服务器发送新的答复内容和新的第一时长。
在一些实施例中,还包括:端点检测程序模块,配置为在开始录制音频之后,对录制音频进行语音端点检测,并存储所检测到的语音端点信息,所述语音端点信息包括语音开始时间点和语音结束时间点;
所述确定所述第二时长所对应的录制音频相对于所述第一时长所对应的录制音频所多出的冗余录音片段中是否包含有语音端点包括:
查询所述语音端点信息以确定是否存在属于所述冗余录音片段的语音开始时间点和语音结束时间点。
如图5所示,本申请的实施例还提供一种全双工语音对话***500,用于云端服务器,所述***包括:
接收程序模块510,配置为接收语音对话终端所上传的录制音频;
答复内容确定程序模块520,配置为实时分析所接收到的录制音频,以确定对应于所述录制音频中所包含的语音内容的答复内容;
发送程序模块530,配置为发送所述答复内容和为确定所述答复内容所分析的录制音频的第一时长至所述语音对话终端,用于所述语音对话终端根据所述第一时长与第二时长之间的一致性确定是否将所述答复内容呈现给用户,所述第二时长为所述语音对话终端所上传音频的总时长。
在一些实施例中,所述答复内容确定程序模块还配置为,当所述第一时长小于所述第二时长,并且所述第二时长所对应的录制音频相对于所述第一时长所对应的录制音频所多出的冗余录音片段中包含有语音端点时,继续分析所述冗余录音片段并确定新的答复内容和新的第一时长;
所述发送程序模块还配置为,将所述新的答复内容和所述新的第一时长发送至所述语音对话终端。
在一些实施例中,本申请实施例提供一种非易失性计算机可读存储介质,所述存储介质中存储有一个或多个包括执行指令的程序,所述执行指令能够被电子设备(包括但不限于计算机,服务器,或者网络设备等)读取并执行,以用于执行本申请上述任一项全双工语音对话方法。
在一些实施例中,本申请实施例还提供一种计算机程序产品,所述计算机程序产品包括存储在非易失性计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,使所述计算机执行上述任一项全双工语音对话方法。
在一些实施例中,本申请实施例还提供一种电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行全双工语音对话方法。
在一些实施例中,本申请实施例还提供一种存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现全双工语音对话方法。
上述本申请实施例的全双工语音对话***可用于执行本申请实施例的全双工语音对话方法,并相应的达到上述本申请实施例的实现全双工语音对话方法所达到的技术效果,这里不再赘述。本申请实施例中可以通过硬件处理器(hardware processor)来实现相关功能模块。
图6是本申请另一实施例提供的执行全双工语音对话方法的电子设备的硬件结构示意图,如图6所示,该设备包括:
一个或多个处理器610以及存储器620,图6中以一个处理器610为例。
执行全双工语音对话方法的设备还可以包括:输入装置630和输出装置640。
处理器610、存储器620、输入装置630和输出装置640可以通过总线或者其他方式连接,图6中以通过总线连接为例。
存储器620作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本申请实施例中的全双工语音对话方法对应的程序指令/模块。处理器610通过运行存储在存储器620中的非易失性软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例全双工语音对话方法。
存储器620可以包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需要的应用程序;存储数据区可存储根据全双工语音对话装置的使用所创建的数据等。此外,存储器620可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,存储器620可选包括相对于处理器610远程设置的存储器,这些远程存储器可以通过网络连接至全双工语音对话装置。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置630可接收输入的数字或字符信息,以及产生与全双工语音对话装置的用户设置以及功能控制有关的信号。输出装置640可包括显示屏等显示设备。
所述一个或者多个模块存储在所述存储器620中,当被所述一个或者多个处理器610执行时,执行上述任意方法实施例中的全双工语音对话方法。
上述产品可执行本申请实施例所提供的方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本申请实施例所提供的方法。
本申请实施例的电子设备以多种形式存在,包括但不限于:
(1)移动通信设备:这类设备的特点是具备移动通信功能,并且以提供话音、数据通信为主要目标。这类终端包括:智能手机(例如iPhone)、多媒体手机、功能性手机,以及低端手机等。
(2)超移动个人计算机设备:这类设备属于个人计算机的范畴,有计算和处理功能,一般也具备移动上网特性。这类终端包括:PDA、MID和UMPC设备等,例如iPad。
(3)便携式娱乐设备:这类设备可以显示和播放多媒体内容。该类设备包括:音频、视频播放器(例如iPod),掌上游戏机,电子书,以及智能玩具和便携式车载导航设备。
(4)服务器:提供计算服务的设备,服务器的构成包括处理器、硬盘、内存、***总线等,服务器和通用的计算机架构类似,但是由于需要提供高可靠的服务,因此在处理能力、稳定性、可靠性、安全性、可扩展性、可管理性等方面要求较高。
(5)其他具有数据交互功能的电子装置。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对相关技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。

Claims (5)

1.一种全双工语音对话方法,用于语音对话终端,所述方法包括:
当所述语音对话终端被唤醒之后,开始录制并上传音频至云端服务器,用于所述云端服务器确定答复内容以及为确定所述答复内容所分析的音频的第一时长;
所述语音对话终端接收所述云端服务器发送的所述答复内容和所述第一时长;
所述语音对话终端判断所述第一时长与第二时长是否一致,所述第二时长为所述语音对话终端所上传音频的总时长;
当所述第一时长小于所述第二时长时,确定所述第二时长所对应的录制音频相对于所述第一时长所对应的录制音频所多出的冗余录音片段中是否包含有语音端点;
如果否,则将所述答复内容呈现给用户;
如果是,则舍弃所述答复内容,并等待所述云端服务器发送新的答复内容和新的第一时长,
其中,在开始录制音频之后,还包括:对录制音频进行语音端点检测,并存储所检测到的语音端点信息,所述语音端点信息包括语音开始时间点和语音结束时间点;
所述确定所述第二时长所对应的录制音频相对于所述第一时长所对应的录制音频所多出的冗余录音片段中是否包含有语音端点包括:
查询所述语音端点信息以确定是否存在属于所述冗余录音片段的语音开始时间点和语音结束时间点。
2.一种全双工语音对话方法,用于云端服务器,所述方法包括:
接收语音对话终端所上传的录制音频;
实时分析所接收到的录制音频,以确定对应于所述录制音频中所包含的语音内容的答复内容;
发送所述答复内容和为确定所述答复内容所分析的录制音频的第一时长至所述语音对话终端,用于所述语音对话终端根据所述第一时长与第二时长之间的一致性确定是否将所述答复内容呈现给用户,所述第二时长为所述语音对话终端所上传音频的总时长,
当所述第一时长小于所述第二时长,并且所述第二时长所对应的录制音频相对于所述第一时长所对应的录制音频所多出的冗余录音片段中包含有包括语音开始时间点和语音结束时间点的语音端点时,继续分析所述冗余录音片段并确定新的答复内容和新的第一时长;
将所述新的答复内容和所述新的第一时长发送至所述语音对话终端。
3.一种全双工语音对话***,用于语音对话终端,所述***包括:
音频上传程序模块,配置为当所述语音对话终端被唤醒之后,开始录制并上传音频至云端服务器,用于所述云端服务器确定答复内容以及为确定所述答复内容所分析的音频的第一时长;
接收程序模块,配置为所述语音对话终端接收所述云端服务器发送的所述答复内容和所述第一时长;
判断程序模块,配置为所述语音对话终端判断所述第一时长与第二时长是否一致,所述第二时长为所述语音对话终端所上传音频的总时长;
语音端点查询程序模块,配置为当所述第一时长小于所述第二时长时,确定所述第二时长所对应的录制音频相对于所述第一时长所对应的录制音频所多出的冗余录音片段中是否包含有语音端点;如果否,则将所述答复内容呈现给用户;如果是,则舍弃所述答复内容,并等待所述云端服务器发送新的答复内容和新的第一时长;
端点检测程序模块,配置为在开始录制音频之后,对录制音频进行语音端点检测,并存储所检测到的语音端点信息,所述语音端点信息包括语音开始时间点和语音结束时间点;
所述确定所述第二时长所对应的录制音频相对于所述第一时长所对应的录制音频所多出的冗余录音片段中是否包含有语音端点包括:
查询所述语音端点信息以确定是否存在属于所述冗余录音片段的语音开始时间点和语音结束时间点。
4.一种电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-2中任意一项所述方法的步骤。
5.一种存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1-2中任意一项所述方法的步骤。
CN201910831253.6A 2019-09-04 2019-09-04 全双工语音对话方法及*** Active CN112447177B (zh)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201910831253.6A CN112447177B (zh) 2019-09-04 2019-09-04 全双工语音对话方法及***
EP19944180.9A EP4027338A4 (en) 2019-09-04 2019-11-25 FULL DUPLEX ONLINE VOICE CHAT PROCESS
JP2022513079A JP7341323B2 (ja) 2019-09-04 2019-11-25 全二重による音声対話の方法
PCT/CN2019/120609 WO2021042584A1 (zh) 2019-09-04 2019-11-25 全双工语音对话方法
US17/639,624 US20220293100A1 (en) 2019-09-04 2019-11-25 Full-duplex voice dialogue method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910831253.6A CN112447177B (zh) 2019-09-04 2019-09-04 全双工语音对话方法及***

Publications (2)

Publication Number Publication Date
CN112447177A CN112447177A (zh) 2021-03-05
CN112447177B true CN112447177B (zh) 2022-08-23

Family

ID=74734516

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910831253.6A Active CN112447177B (zh) 2019-09-04 2019-09-04 全双工语音对话方法及***

Country Status (5)

Country Link
US (1) US20220293100A1 (zh)
EP (1) EP4027338A4 (zh)
JP (1) JP7341323B2 (zh)
CN (1) CN112447177B (zh)
WO (1) WO2021042584A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112447177B (zh) * 2019-09-04 2022-08-23 思必驰科技股份有限公司 全双工语音对话方法及***
CN117496973B (zh) * 2024-01-02 2024-03-19 四川蜀天信息技术有限公司 一种提升人机对话交互体验感的方法、装置、设备及介质

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2648617C (en) * 2006-04-05 2017-12-12 Yap, Inc. Hosted voice recognition system for wireless devices
US9183560B2 (en) * 2010-05-28 2015-11-10 Daniel H. Abelow Reality alternate
KR20160034243A (ko) * 2013-03-15 2016-03-29 지보, 인코포레이티드 지속적인 동반 디바이스를 제공하기 위한 장치 및 방법들
US10002611B1 (en) * 2013-05-15 2018-06-19 Amazon Technologies, Inc. Asynchronous audio messaging
JP6360484B2 (ja) * 2013-09-03 2018-07-18 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 音声対話制御方法
KR102246893B1 (ko) * 2013-12-11 2021-04-30 삼성전자주식회사 대화형 시스템, 이의 제어 방법, 대화형 서버 및 이의 제어 방법
US9767795B2 (en) * 2013-12-26 2017-09-19 Panasonic Intellectual Property Management Co., Ltd. Speech recognition processing device, speech recognition processing method and display device
CN107000210A (zh) * 2014-07-15 2017-08-01 趣普科技公司 用于提供持久伙伴装置的设备和方法
CN104575502A (zh) * 2014-11-25 2015-04-29 百度在线网络技术(北京)有限公司 智能玩具及智能玩具的语音交互方法
US9911410B2 (en) * 2015-08-19 2018-03-06 International Business Machines Corporation Adaptation of speech recognition
CN107305483A (zh) * 2016-04-25 2017-10-31 北京搜狗科技发展有限公司 一种基于语义识别的语音交互方法及装置
US10311875B2 (en) * 2016-12-22 2019-06-04 Soundhound, Inc. Full-duplex utterance processing in a natural language virtual assistant
US10410635B2 (en) * 2017-06-09 2019-09-10 Soundhound, Inc. Dual mode speech recognition
CN207104925U (zh) * 2017-06-22 2018-03-16 国家康复辅具研究中心 宠物型机器人及机器人控制***
CN108305628B (zh) * 2017-06-27 2020-10-02 腾讯科技(深圳)有限公司 语音识别方法、装置、计算机设备和存储介质
EP3690878A4 (en) * 2017-09-28 2021-06-09 Kyocera Corporation VOICE COMMAND SYSTEM AND VOICE COMMAND PROCESS
CN107863113A (zh) * 2017-11-08 2018-03-30 天脉聚源(北京)传媒科技有限公司 一种语音上传方法及装置
CN109994108B (zh) * 2017-12-29 2023-08-29 微软技术许可有限责任公司 用于聊天机器人和人之间的会话交谈的全双工通信技术
KR102527178B1 (ko) * 2018-08-07 2023-04-27 후아웨이 테크놀러지 컴퍼니 리미티드 음성 제어 명령 생성 방법 및 단말
CN109599111A (zh) * 2019-01-02 2019-04-09 百度在线网络技术(北京)有限公司 语音交互方法、装置和存储介质
US10728656B1 (en) * 2019-01-07 2020-07-28 Kikago Limited Audio device and audio processing method
DK201970509A1 (en) * 2019-05-06 2021-01-15 Apple Inc Spoken notifications
CN112447177B (zh) * 2019-09-04 2022-08-23 思必驰科技股份有限公司 全双工语音对话方法及***
CN112735423B (zh) * 2020-12-14 2024-04-05 美的集团股份有限公司 语音交互方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
WO2021042584A1 (zh) 2021-03-11
JP2022547418A (ja) 2022-11-14
JP7341323B2 (ja) 2023-09-08
EP4027338A4 (en) 2022-10-05
EP4027338A1 (en) 2022-07-13
US20220293100A1 (en) 2022-09-15
CN112447177A (zh) 2021-03-05

Similar Documents

Publication Publication Date Title
CN108962262B (zh) 语音数据处理方法和装置
CN110442701B (zh) 语音对话处理方法及装置
CN111049996B (zh) 多场景语音识别方法及装置、和应用其的智能客服***
KR102437944B1 (ko) 음성 웨이크업 방법 및 장치
CN111124123A (zh) 基于虚拟机器人形象的语音交互方法及装置、车载设备智能控制***
CN109473104B (zh) 语音识别网络延时优化方法及装置
CN111833880A (zh) 语音对话方法及***
CN111063353B (zh) 允许自定义语音交互内容的客户端处理方法及用户终端
CN110910887B (zh) 语音唤醒方法和装置
CN110619878B (zh) 用于办公***的语音交互方法和装置
EP4054111A1 (en) Method for switching between man-machine dialogue modes
CN112447177B (zh) 全双工语音对话方法及***
CN111130807A (zh) 基于声纹识别的车载账户管理方法
CN111832308A (zh) 语音识别文本连贯性处理方法和装置
CN111613232A (zh) 多终端设备语音交互方法及***
CN109364477A (zh) 基于语音控制进行打麻将游戏的方法及装置
CN112863508A (zh) 免唤醒交互方法和装置
CN113672748A (zh) 多媒体信息播放方法及装置
CN111128166B (zh) 连续唤醒识别功能的优化方法和装置
CN117253478A (zh) 一种语音交互方法和相关装置
WO2021077528A1 (zh) 人机对话打断方法
CN113205809A (zh) 语音唤醒方法和装置
CN111161734A (zh) 基于指定场景的语音交互方法及装置
CN112786031B (zh) 人机对话方法及***
CN115188377A (zh) 语音交互方法、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 215123 building 14, Tengfei Innovation Park, 388 Xinping street, Suzhou Industrial Park, Suzhou City, Jiangsu Province

Applicant after: Sipic Technology Co.,Ltd.

Address before: 215123 building 14, Tengfei Innovation Park, 388 Xinping street, Suzhou Industrial Park, Suzhou City, Jiangsu Province

Applicant before: AI SPEECH Co.,Ltd.

GR01 Patent grant
GR01 Patent grant