CN112466302B - 语音交互的方法、装置、电子设备和存储介质 - Google Patents

语音交互的方法、装置、电子设备和存储介质 Download PDF

Info

Publication number
CN112466302B
CN112466302B CN202011324401.4A CN202011324401A CN112466302B CN 112466302 B CN112466302 B CN 112466302B CN 202011324401 A CN202011324401 A CN 202011324401A CN 112466302 B CN112466302 B CN 112466302B
Authority
CN
China
Prior art keywords
recognition result
query statement
determining
preset time
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011324401.4A
Other languages
English (en)
Other versions
CN112466302A (zh
Inventor
吴震
周茂仁
刘兵
崔亚峰
革家象
郭启行
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202011324401.4A priority Critical patent/CN112466302B/zh
Publication of CN112466302A publication Critical patent/CN112466302A/zh
Application granted granted Critical
Publication of CN112466302B publication Critical patent/CN112466302B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/32Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/87Detection of discrete points within a voice signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请公开了一种语音交互的方法、装置、电子设备和存储介质,涉及语音技术、自然语言处理等人工智能技术领域。具体实现方案为:在获取到查询语句后的第一预设时间内,确定所述查询语句对应的第一识别结果;根据所述第一识别结果,确定第一答复语句;在获取到所述查询语句后的第二预设时间内,确定所述查询语句对应的第二识别结果,其中,所述第二预设时间的长度大于所述第一预设时间的长度;在所述第二识别结果与所述第一识别结果一致的情况下,播放所述第一答复语句。本申请不仅可以提高语音交互速度,而且保证了语音输出语句的准确性和可靠性。

Description

语音交互的方法、装置、电子设备和存储介质
技术领域
本申请涉及计算机技术领域,具体涉及语音技术、自然语言处理等人工智能技术领域,尤其涉及一种语音交互的方法、装置、电子设备和存储介质。
背景技术
随着计算机技术的蓬勃发展,人工智能技术也得到了迅速发展,智能电视、智能音箱、VR眼镜等智能设备也获得了越来越广泛的使用。语音交互,作为智能电视、智能音箱及VR眼镜等设备中必不可少的一部分,如何快速、准确的进行语音交互,显得至关重要。
发明内容
本申请提供一种语音交互的方法、装置、电子设备和存储介质。
根据本申请的一方面,提供了一种方法,包括:
在获取到查询语句后的第一预设时间内,确定所述查询语句对应的第一识别结果;
根据所述第一识别结果,确定第一答复语句;
在获取到所述查询语句后的第二预设时间内,确定所述查询语句对应的第二识别结果,其中,所述第二预设时间的长度大于所述第一预设时间的长度;
在所述第二识别结果与所述第一识别结果一致的情况下,播放所述第一答复语句。
根据本申请的另一方面,提供了一种装置,包括:
第一识别模块,用于在获取到查询语句后的第一预设时间内,确定所述查询语句对应的第一识别结果;
第一答复模块,用于根据所述第一识别结果,确定第一答复语句;
第二识别模块,用于在获取到所述查询语句后的第二预设时间内,确定所属查询语句对应的第二识别结果,其中,所述第二预设时间的长度大于所述第一预设时间的长度;
播放模块,用于在所述第二识别结果与所述第一识别结果一致的情况下,播放所述第一答复语句。
根据本申请的另一方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述一方面实施例所述的语音交互的方法。
根据本申请另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其上存储有计算机程序,所述计算机指令用于使所述计算机执行上述一方面实施例所述的语音交互的方法。
本申请提供的语音交互的方法、装置、电子设备及存储介质,存在如下有益效果:
通过在获取到查询语句后的第一预设时间内,确定所述查询语句对应的第一识别结果;根据所述第一识别结果,确定第一答复语句;在获取到所述查询语句后的第二预设时间内,确定所述查询语句对应的第二识别结果,其中,所述第二预设时间的长度大于所述第一预设时间的长度;在所述第二识别结果与所述第一识别结果一致的情况下,播放所述第一答复语句。因此本申请不仅可以提高语音交互速度,而且保证了语音输出语句的准确性和可靠性。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
图1A是本申请一个实施例的语音交互的方法的流程示意图;
图1B为本申请一个实施例提供的语音交互方法过程示意图;
图2是本申请另一实施例的语音交互的方法的流程示意图;
图3是本申请又一实施例的语音交互的方法的流程示意图;
图4是本申请一个实施例的语音交互的装置的结构示意图;
图5是本申请另一实施例的语音交互的装置的结构示意图;
图6是本申请又一实施例的语音交互的装置的结构示意图;
图7是用来实现本申请实施例的语音交互的方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
人工智能是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,既有硬件层面的技术也有软件层面的技术。人工智能硬件技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理等技术;人工智能软件技术主要包括计算机视觉技术、语音识别技术、自然语言处理技术以及机器学习、深度学习、大数据处理技术、知识图谱技术等几大方向。
语音技术在计算机领域中的关键技术有自动语音识别技术(ASR)和语音合成技术(TTS)。让计算机能听、能看、能说、能感觉,是未来人机交互的发展方向,其中语音成为未来最被看好的人机交互方式,语音比其他的交互方式有更多的优势。
自然语言处理是用计算机来处理、理解以及运用人类语言(如中文、英文等),它是计算机科学与语言学的交叉学科,又常被称为计算语言学。由于自然语言是人类区别于其他动物的根本标志。没有语言,人类的思维也就无从谈起,所以自然语言处理体现了人工智能的最高任务与境界,也就是说,只有当计算机具备了处理自然语言的能力时,机器才算实现了真正的智能。
下面参考附图描述本申请实施例的语音交互的方法、装置、电子设备和存储介质。
图1A为本申请实施例提供的一种语音交互的方法的流程示意图。
本申请实施例的优化语音交互速度的方法,可由本申请实施例提供的一种语音交互装置执行,该装置可配置于用于语音交互的电子设备中。
如图1A所示,该语音交互的方法包括:
步骤101,在获取到查询语句后的第一预设时间内,确定查询语句对应的第一识别结果。
其中,查询语句是用户输入的想要得到电子设备回复的语句。比如可以是“播放儿歌”、“打开APP”“我想订外卖”等不同需求的话语,本实施例对此不做限定。
第一预设时间是指,在用户话语的最后一个尾音落下之后开始计时的一段时间,即该第一预设时间为电子设备检测到的静音状态持续的时间。第一识别结果,是在用户话音落下之后,第一预设时间内,对查询语句进行语音识别所得到的结果。
其中,第一预设时间的长度可以根据需要设置。在实际使用时,为了减少用户的等待时间,第一预设时间的长度可以设置为5ms、10ms、20ms等,这里只是举例说明,不能作为本申请中,对设置第一预设时间的限定。
步骤102,根据第一识别结果,确定第一答复语句。
其中,第一答复语句,是根据第一识别结果所得到的答复语句。确定答复语句的方式有多种,比如:
可以是预先存储各种识别结果和其所对应的不同的答复语句。举例而言,当识别结果是“听儿歌”时,电子设备选择相应的答复语句,可以是“好的,播放儿歌”答复语句。当识别结果是“订外卖”时,电子设备选择的答复语句,可以是“打开外卖APP”答复语句。
需要说明的是,识别结果是多种多样的,相应的答复语句也是多种多样的,这里只是举例而言,本实施例对此不做限定。
或者,电子设备根据第一识别结果去调用对应的对话服务,对话服务根据用户当前的文本请求及所处的对话状态,判定用户的意图,并拉取相应的资源,生成要给用户播报的第一答复语句。
步骤103,在获取到查询语句后的第二预设时间内,确定查询语句对应的第二识别结果,其中,第二预设时间的长度大于第一预设时间的长度。
其中,第二预设时间,是在用户话语结束之后计时的一段时间,这一段计时时间的长度大于第一预设时间的长度。可以理解的是,第二预设时间,也是电子设备检测到的静音状态的持续时间。
本申请实施例中,为了减少用户的等待时间,电子设备可以在获取到查询语句后的第一预设时间内,先对查询语句进行语音识别获得第一识别结果,再根据第一识别结果确定第一答复语句。但是由于第一预设时间较短,有可能该第一预设时间内的静音状态是由于用户的停顿产生的,即该第一识别结果为片段化的查询语句对应的结果,从而由此确定的第一答复语句的准确性较低。
本实施例中,为了避免第一识别结果为片段化的查询语句对应的结果,在确定第一识别结果后,还可以继续对获取的语音信号进行识别,以在获取到查询语句后的第二预设时间内,确定查询语句对应的第二识别结果。
可以理解的是,由于第二识别结果,是在获取到查询语句后经过了足够长的静音状态,才确定的识别结果,即第二识别结果一定为完整的查询语句对应的识别结果。
在实际使用时,第二预设时间可以在用户能够接受的范围内设置的足够长,从而可保证经过第二预设时间所获得的第二识别结果是准确的。
步骤104,在第二识别结果与第一识别结果一致的情况下,播放第一答复语句。
具体地,对获得的第一识别结果和第二识别结果进行比较,判断两次识别结果是否一致。若两次识别结果一致,表明第一识别结果是完整、准确的,即由第一识别结果确定的第一答复语句是准确的,进而即可直接播放之前得到的第一答复语句。
需要说明的是,具体实现时,第二预设时间可能有长有短,为了提高效率,进行的具体操作可能会有所不同。
举例来说,第二预设时间足够长时,在第二预设时间还没有结束时,电子设备已经根据第一识别结果,确定了待播放的语音数据,即第一答复语句为语音数据。从而,在获取到第二识别结果时,将两次识别结果进行比较,二者一致时,直接播放该语音数据。
或者,第二预设时间较短,电子设备先获取到了第二识别结果,同时,根据第一识别结果还没有得到要播放的语音数据,即第一答复语句为文本数据。此时就可以先对两次识别结果进行比较,如果两次识别结果一致,就继续将第一答复语句进行语音转换得到语音数据,不一致的话,就不需要再进行语音转换的操作。
需要说明的是,在实际使用时,若电子设备在获取到查询语句后的第一预设时间内,确定了第一识别结果,但是在第二预设时间内,又检测到了语音信号,此时,则可以直接确定该第一识别结果不可用。之后,即可重新确定获取的查询语句,进而对获取的查询语句进行语音识别。
下面结合图1B,以一个具体的语音交互过程为例,对本申请实施例做进一步的说明。
图1B为本申请一个实施例提供的语音交互方法过程示意图。
如图1B所示,电子设备在进行语音活动检测的过程中,检测到用户发出“我想听稻香”的语音信号,并且该语音信号的尾音时刻为1,之后,连续检测到第一预设时间长度的静音状态,即在时刻1至时刻1.5之间,一直为静音状态,从而在时刻1.5时,即可得到第一识别结果,之后电子设备根据第一识别结果进行对话调用和文本语音合成,在时刻5得到第一答复语句“好的”。同时,从时刻1到之后的第二预设时间2,电子设备一直检测到的都为静音信号,那么在第二预设时间结束时,即2时刻,电子设备又获得了第二识别结果。之后即可将第一识别结果和第二识别进行比较,二者一致时,播放第一答复语句“好的”。
具体实现时,也可能由于第二预设时间相对较短,电子设备先获得第二识别结果,后获得第一答复语句,即时刻2在时刻5之前。上述示例并不能作为对本申请实施例的限定。
本实施例中,在获取到查询语句的第一预设时间、第二预设时间内,分别确定第一识别结果、第二识别结果,进而对两次识别结果进行比较,二者一致时,播放由第一识别结果确定的第一答复语句。即将答复语句的生成过程与对查询语句的识别过程并行,从而不仅保证了答复语句的准确性,而且缩短了等待时间,使得电子设备可以在最佳响应时间内给出答复,提高了语音交互速度。
由于,不同的用户具有各自不同的说话特征,如果电子设备对所有的查询语句都设置相同的第一预设时间,那么得到的第一识别结果可能准确性会有所降低。本申请实施例中为了提高识别结果的准确性,可以先根据当前交互用户的属性,设置第一预设时间,之后再根据设置的第一预设时间进行语音交互。下面结合图2,以对查询语句进行用户属性分析为例,对本申请提供的语音交互的方法进行进一步说明。
步骤201,确定查询语句对应的用户属性。
其中,用户属性,是用来表征用户的说话速度。比如,用户属性可以为用户年龄、性别、职业等等,本实施例对此不做限定。
由于不同年龄或者性别的用户的音频特征通常不同,因此,本申请实施例中,可以根据获取的查询语句的音频特征,确定用户属性。
举例来说,老年人说话比较低沉,音调比较低,女性说话音调较高一些,可以将用户分为“老年人”、“女性”等,当电子设备检测到查询语句时,可以先确定该查询语句的音频特征,进而根据音频特征快速判断该查询语句对应的用户属性。
或者,根据当前查询语句对应的音频特征,与已知各用户音频特征的匹配度,确定当前查询语句对应的用户属性。
比如,使用当前电子设备的有三个用户,都和该电子设备进行过交互,那么电子设备可以根据历史交互确定用户各自的音频特征,当下一次再接收到用户的查询时,就可以和已确定好的音频特征进行对比,根据匹配度确定属于哪一个用户属性。
或者,还可以根据查询语句的内容进行属性划分。
举例来说,若查询语句是“我想听睡前小故事”,可以判断当前的使用用户是“孩子”。若查询语句是“如何拥有八块腹肌”,可以判断出当前的使用用户是“男性”。若查询语句是“妈妈如何和孩子进行高效沟通”,可以判断当前的使用用户是“女性”。
需要说明的是,上述几种确定用户属性的方法,只是举例说明,而并不能作为本申请中,对确定用户属性的方法的限定。
步骤202,根据用户属性,确定第一预设时间的长度。
其中,不同属性的用户,具有各自不同的说话特征,可以设置不同的第一预设时间。
举例而言,“老人”和“孩子”可以设置较长的第一预设时间。“女性”可以设置较短的第一预设时间,这样,根据不同用户属性设置不同的第一预设时间,一方面对于“老人”“孩子”可以保证第一预设时间足够长,另一方面对于“女性”又可以相对提高效率。
需要说明的是,这里的用户属性只是举例说明,本实施例对此不做限定。
步骤203,在获取到查询语句后的第一预设时间内,确定查询语句对应的第一识别结果。
步骤204,根据第一识别结果,确定第一答复语句。
步骤205,在获取到查询语句后的第二预设时间内,确定查询语句对应的第二识别结果,其中,第二预设时间的长度大于第一预设时间的长度。
步骤206,在第二识别结果与第一识别结果不一致的情况下,根据第二识别结果,确定第二答复语句。
其中,第二答复语句是对于第二识别结果所得到的答复语句。将第一识别结果和第二识别结果进行对比,如果两次识别结果不一致,表明第一识别结果不准确,第二识别结果更准确。因为第一预设时间小于第二预设时间,经过第一预设时间所确定的第一识别结果所含有的信息可能不够完整,经过更长的第二预设时间所确定的第二识别结果所含有的信息更加完整、准确。此时,要使用第二识别结果来确定第二答复语句。
举例而言,对用户输入的查询语句进行识别时,得到的第一识别结果和第二识别结果可能是不相同的,这可能是由于电子设备经过第一预设时间获取到的用户的查询语句不完整造成的。可能是用户说话间隙,进行了较长时间的停顿,电子设备错误地以为用户的话语已经结束,从而在第一预设时间内进行了识别,得到了不是完整句子的第一识别结果。因此第一识别结果和第二识别结果进行对比时,二者并不一致,此时,就要舍弃不完整的第一识别结果,使用第二识别结果进行分析,获得第二答复语句。
步骤207,播放第二答复语句。
具体地,根据第二识别结果进行分析确定第二答复语句,将第二答复语句作为最终输出的语句。因此,在确定第二答复语句之后,即可播放第二答复语句。
本实施例提供的语音交互的方法,通过对查询语句进行用户属性,以及获取较长的第二预设时间对应的第二识别结果,从而获得相应的第二答复语句为最终输出语句,保证了输出答复语句的准确性和可靠性。
根据上述实施例所述,获取的第一识别结果准确性可能不够高,为了既能保证准确性,又能提高效率,本实施例在获取到第一识别结果后,可以对第一识别结果先进行语义完整性检测,之后再进行其他操作。下面结合图3,以对第一识别结果进行语义完整性分析为例,对本申请提供的语音交互的方法做详细说明。
步骤301,对检测到的语音信号进行语音活动检测。
其中,语音活动检测,是检测当前时段内,获取到的语音信号中是否含有有效语音、是否含有静音。
电子设备一直在进行语音检测,检测当前是否是有效的语音。
步骤302,连续获取到第一预设时间长度的无声片段的情况下,确定已获取的语音信号对应的第一识别结果。
其中,连续获取到第一预设长度时间的无声片段时,表明当前第一预设时间内获取到的语音信号都是静音信息,没有有效的语音信息,电子设备即可对之前已获取的语音信号进行识别得到第一识别结果。该语音信号即为用户输入的查询语句。
步骤303,对第一识别结果进行语义完整性检测,以确定第一识别结果的得分。
其中,对第一识别结果进行语义完整性检测,是检测第一识别结果是否是一个完整的查询语句,是否具有完整的语义,表达的含义是否准确。根据所得的语义完整性检测的结果,对第一识别结果进行打分,第一识别结果获得其相应完整性的一个得分。
步骤304,在得分大于阈值的情况下,根据第一识别结果,确定第一答复语句。
其中,阈值是预先设置好的一个数值。
若得分大于阈值,表明第一识别结果的语义完整性比较高,所表达的含义准确性较高,是一个完整的语句,从而即可将第一识别结果作为完整的语句使用,进而根据第一识别结果确定第一答复语句。
步骤305,播放第一答复语句。
其中,已经确定第一识别结果是准确的,就可以不用再等待较长的第二预设时间,进而不需要获取其对应的第二识别结果,从而减少了等待时间。即可将根据第一识别结果确定的第一答复语句作为最终的输出语句,从而直接播放第一答复语句。
步骤306,在得分小于或等于阈值的情况下,在获取到查询语句后的第二预设时间内,确定查询语句对应的第二识别结果,其中,第二预设时间的长度大于第一预设时间的长度。
其中,得分小于或等于阈值时,表明第一识别结果语义完整性比较低,可能不是一个完整的句子,所表达的含义也不够准确,第一识别结果不可靠。此时,要放弃使用第一识别结果,进而要等待第二预设时间,获取对应的第二识别结果,因为第二预设时间足够长,所以获取到的第二识别结果是准确、可靠的。
步骤307,根据第二识别结果,确定第二答复语句,播放第二答复语句。
其中,第二识别结果是准确可靠的,所以根据第二识别结果确定的第二答复语句也是准确可靠的,进而可以将第二答复语句作为最终的输出语句进行播放。
需要说明的是,在实际使用中,当第一识别结果的语义完整性得分大于阈值,根据第一识别结果确定第一答复语句时,电子设备可能已经获得了第二识别结果,此时,可以对两次识别结果进行比较,二者一致时,直接播放第一答复语句。
在本实施例中,首先对检测到的语音信号进行语音活动检测,之后对第一识别结果进行语义完整性检测,以确定第一识别结果的得分,在得分大于阈值的情况下,播放第一答复语句,在得分小于或等于阈值的情况下,根据第二识别结果确定第二答复语句并进行播放。即,本申请实施例中,通过进行语音活动检测,以及对第一识别结果进行语义完整性检测,根据检测结果选择相应的答复语句作为输出语句,不仅提高了语音交互速度,而且提高了输出语句的准确性和可靠性。
为了实现上述实施例,本申请实施例还提出一种语音交互的装置。图4为本申请实施例提供的一种语音交互的装置的结构示意图。
如图4所示,该语音交互装置400包括:第一识别模块410、第一答复模块420、第二识别模块430及第一播放模块440。
其中,第一识别模块410,用于在获取到查询语句后的第一预设时间内,确定所述查询语句对应的第一识别结果。
第一答复模块420,用于根据所述第一识别结果,确定第一答复语句。
第二识别模块430,用于在获取到所述查询语句后的第二预设时间内,确定所属查询语句对应的第二识别结果,其中,所述第二预设时间的长度大于所述第一预设时间的长度。
第一播放模块440,用于在所述第二识别结果与所述第一识别结果一致的情况下,播放所述第一答复语句。
图5是根据本申请另一实施例的语音交互的装置的结构示意图。如图5所示,该语音交互装置500包括:第一识别模块510、第一答复模块520、第二识别模块530、第一确定模块540、第二确定模块550、第二答复模块560以及第二播放模块570。
其中,第一识别模块510,用于在获取到查询语句后的第一预设时间内,确定所述查询语句对应的第一识别结果。
可以理解的是,本实施例中的第一识别模块510,与上述实施例中的第一识别模块,可以具有相同的功能和结构。
第一答复模块520,用于根据所述第一识别结果,确定第一答复语句。
可以理解的是,本实施例中的第一答复模块520,与上述实施例中的第一答复模块,可以具有相同的功能和结构。
第二识别模块530,用于在获取到所述查询语句后的第二预设时间内,确定所属查询语句对应的第二识别结果,其中,所述第二预设时间的长度大于所述第一预设时间的长度。
可以理解的是,本实施例中的第二识别模块530,与上述实施例中的第二识别模块,可以具有相同的功能和结构。
第一确定模块540,用于确定所述查询语句对应的用户属性。
第二确定模块550,用于根据所述用户属性,确定所述第一预设时间的长度。
第二答复模块560,用于在所述第二识别结果与所述第一识别结果不一致的情况下,根据所述第二识别结果,确定第二答复语句。
第二播放模块570,用于播放所述第二答复语句。
图6是根据本申请又一实施例的语音交互的装置的结构示意图。如图6所示,该语音交互装置600包括:第一识别模块610、第一答复模块620、第一播放模块630、第三确定模块640、第二答复模块650以及第二播放模块660。
其中,第一识别模块610,包括:
语音检测单元6110,用于对检测到的语音信号进行语音活动检测;
确定单元6120,用于在连续获取到第一预设时间长度的无声片段的情况下,确定已获取的语音信号对应的第一识别结果。
可以理解的是,本实施例中的第一识别模块610,与上述任一实施例中的第一识别模块,可以具有相同的功能和结构。
第三确定模块620,用于对所述第一识别结果进行语义完整性检测,以确定所述第一识别结果的得分。
第一答复模块630,用于根据所述第一识别结果,确定第一答复语句。
可以理解的是,本实施例中的第一答复模块630,与上述任一实施例中的第一答复模块,可以具有相同的功能和结构。
第一播放模块640,还用于在所述得分大于阈值的情况下,结束获取所述查询语句对应的第二识别结果的操作,播放所述第一答复语句,还包括:
语音转换单元6410,用于在所述第二识别结果与所述第一识别结果一致的情况下,将所述第一答复语句进行语音转换,以获取待播放的语音数据;
播放单元6420,用于播放所述语音数据。
可以理解的是,本实施例中的第一播放模块640,与上述任一实施例中的第一播放模块,可以具有相同的功能和结构。
第二答复模块650,还用于在所述得分小于或等于阈值的情况下,根据所述第二识别结果确定第二答复语句。
可以理解的是,本实施例中的第二答复模块650,与上述实施例中的第二答复模块,可以具有相同的功能和结构。
第二播放模块660,用于播放所述第二答复语句。
可以理解的是,本实施例中的第二播放模块660,与上述实施例中的第二播放模块,可以具有相同的功能和结构。
需要说明的是,前述语音交互的方法实施例的解释说明,也适用于该实施例的语音交互的装置,故在此不再赘述。
本申请实施例的语音交互的装置,通过在获取到查询语句后的第一预设时间内,确定所述查询语句对应的第一识别结果;根据所述第一识别结果,确定第一答复语句;在获取到所述查询语句后的第二预设时间内,确定所述查询语句对应的第二识别结果,其中,所述第二预设时间的长度大于所述第一预设时间的长度;在所述第二识别结果与所述第一识别结果一致的情况下,播放所述第一答复语句。本申请不仅可以提高语音交互速度,而且保证了语音输出语句的准确性和可靠性。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图7所示,是根据本申请实施例的语音交互的方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图7所示,该电子设备包括:一个或多个处理器701、存储器702,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器***)。图7中以一个处理器701为例。
存储器702即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的语音交互的方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的语音交互的方法。
存储器702作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的语音交互的方法对应的程序指令/模块(例如,附图4所示的第一识别模块610、第一答复模块620、第二识别模块630及第一播放模块640)。处理器701通过运行存储在存储器702中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的语音交互的方法。
存储器702可以包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需要的应用程序;存储数据区可存储根据语音交互的电子设备的使用所创建的数据等。此外,存储器702可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器702可选包括相对于处理器701远程设置的存储器,这些远程存储器可以通过网络连接至语音交互的方法的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
语音交互的方法的电子设备还可以包括:输入装置703和输出装置704。处理器701、存储器702、输入装置703和输出装置704可以通过总线或者其他方式连接,图7中以通过总线连接为例。
输入装置703可接收输入的数字或字符信息,以及产生与语音交互的方法的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置704可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的***和技术的各种实施方式可以在数字电子电路***、集成电路***、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程***上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储***、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储***、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的***和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的***和技术实施在包括后台部件的计算***(例如,作为数据服务器)、或者包括中间件部件的计算***(例如,应用服务器)、或者包括前端部件的计算***(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的***和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算***中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将***的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机***可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS(VirtualPrivate Server,虚拟专用服务器)服务中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式***的服务器,或者是结合了区块链的服务器。
根据本申请实施例的技术方案,通过在获取到查询语句后的第一预设时间内,确定所述查询语句对应的第一识别结果;根据所述第一识别结果,确定第一答复语句;在获取到所述查询语句后的第二预设时间内,确定所述查询语句对应的第二识别结果,其中,所述第二预设时间的长度大于所述第一预设时间的长度;在所述第二识别结果与所述第一识别结果一致的情况下,播放所述第一答复语句。本申请不仅可以提高语音交互速度,而且保证了语音输出语句的准确性和可靠性。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。

Claims (8)

1.一种语音交互的方法,包括:
在获取到查询语句后的第一预设时间内,确定所述查询语句对应的第一识别结果;
根据所述第一识别结果,确定第一答复语句,所述第一答复语句为文本数据;
在获取到所述查询语句后的第二预设时间内,确定所述查询语句对应的第二识别结果,其中,所述第二预设时间的长度大于所述第一预设时间的长度;
在所述第二识别结果与所述第一识别结果一致的情况下,将所述第一答复语句转换为语音数据,播放所述语音数据;
在所述确定所述查询语句对应的第一识别结果之前,还包括:
根据所述查询语句对应的音频特征或者所述查询语句对应的内容确定所述查询语句对应的用户属性,所述用户属性包括:用户的性别和用户的年龄;
根据所述用户属性,确定所述第一预设时间的长度;
所述在获取到查询语句后的第一预设时间内,确定所述查询语句对应的第一识别结果,包括:
对检测到的语音信号进行语音活动检测,包括:检测当前时段内,所述查询语句中是否包含有效语音、是否包含静音;
在连续获取到第一预设时间长度的无声片段的情况下,确定已获取的语音信号对应的第一识别结果;
在所述确定所述查询语句对应的第一识别结果之后,还包括:
对所述第一识别结果进行语义完整性检测,以确定所述第一识别结果的得分;
在所述得分大于阈值的情况下,结束获取所述查询语句对应的第二识别结果的操作,播放所述第一答复语句;
在所述得分小于或等于阈值的情况下,根据所述第二识别结果确定第二答复语句;
播放所述第二答复语句。
2.如权利要求1所述的方法,其中,还包括:
在所述第二识别结果与所述第一识别结果不一致的情况下,根据所述第二识别结果,确定第二答复语句;
播放所述第二答复语句。
3.如权利要求1-2任一所述的方法,其中,所述第一答复语句为文本数据,所述在所述第二识别结果与所述第一识别结果一致的情况下,播放所述第一答复语句,包括:
在所述第二识别结果与所述第一识别结果一致的情况下,将所述第一答复语句进行语音转换,以获取待播放的语音数据;
播放所述语音数据。
4.一种语音交互的装置,其中,包括:
第一识别模块,用于在获取到查询语句后的第一预设时间内,确定所述查询语句对应的第一识别结果;
第一答复模块,用于根据所述第一识别结果,确定第一答复语句,所述第一答复语句为文本数据;
第二识别模块,用于在获取到所述查询语句后的第二预设时间内,确定所属查询语句对应的第二识别结果,其中,所述第二预设时间的长度大于所述第一预设时间的长度;
第一播放模块,用于在所述第二识别结果与所述第一识别结果一致的情况下,将所述第一答复语句转换为语音数据,播放所述语音数据;
所述装置还包括:
第一确定模块,用于根据所述查询语句对应的音频特征或者所述查询语句对应的内容确定所述查询语句对应的用户属性,所述用户属性包括:用户的性别和用户的年龄;
第二确定模块,用于根据所述用户属性,确定所述第一预设时间的长度;
所述第一识别模块,包括:
语音检测单元,用于对检测到的语音信号进行语音活动检测,包括:检测当前时段内,所述查询语句中是否包含有效语音、是否包含静音;
确定单元,用于在连续获取到第一预设时间长度的无声片段的情况下,确定已获取的语音信号对应的第一识别结果;
第三确定模块,用于对所述第一识别结果进行语义完整性检测,以确定所述第一识别结果的得分;
所述第一播放模块,还用于在所述得分大于阈值的情况下,结束获取所述查询语句对应的第二识别结果的操作,播放所述第一答复语句;
第二答复模块,用于在所述得分小于或等于阈值的情况下,根据所述第二识别结果确定第二答复语句;
第二播放模块,用于播放所述第二答复语句。
5.如权利要求4所述的语音交互的装置,其中,
所述第二答复模块,还用于在所述第二识别结果与所述第一识别结果不一致的情况下,根据所述第二识别结果,确定第二答复语句;
所述第二播放模块,还用于播放所述第二答复语句。
6.如权利要求4-5任一所述的装置,其中,所述第一播放模块,包括:
语音转换单元,用于在所述第二识别结果与所述第一识别结果一致的情况下,将所述第一答复语句进行语音转换,以获取待播放的语音数据;
播放单元,用于播放所述语音数据。
7.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-3中任一项所述的语音交互的方法。
8.一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行权利要求1-3中任一项所述的语音交互的方法。
CN202011324401.4A 2020-11-23 2020-11-23 语音交互的方法、装置、电子设备和存储介质 Active CN112466302B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011324401.4A CN112466302B (zh) 2020-11-23 2020-11-23 语音交互的方法、装置、电子设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011324401.4A CN112466302B (zh) 2020-11-23 2020-11-23 语音交互的方法、装置、电子设备和存储介质

Publications (2)

Publication Number Publication Date
CN112466302A CN112466302A (zh) 2021-03-09
CN112466302B true CN112466302B (zh) 2022-09-23

Family

ID=74798550

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011324401.4A Active CN112466302B (zh) 2020-11-23 2020-11-23 语音交互的方法、装置、电子设备和存储介质

Country Status (1)

Country Link
CN (1) CN112466302B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113192502A (zh) * 2021-04-27 2021-07-30 北京小米移动软件有限公司 音频处理方法、装置及存储介质
CN114078478B (zh) * 2021-11-12 2022-09-23 北京百度网讯科技有限公司 语音交互的方法、装置、电子设备及存储介质
CN114171016B (zh) * 2021-11-12 2022-11-25 北京百度网讯科技有限公司 语音交互的方法、装置、电子设备及存储介质
CN114299955B (zh) * 2021-11-12 2022-09-23 北京百度网讯科技有限公司 语音交互的方法、装置、电子设备及存储介质
CN114299941A (zh) * 2021-11-12 2022-04-08 北京百度网讯科技有限公司 语音交互的方法、装置、电子设备及存储介质
CN114999494A (zh) * 2022-05-20 2022-09-02 青岛海尔科技有限公司 语音交互功能的测试方法和装置、存储介质及电子装置
CN115602171B (zh) * 2022-12-13 2023-03-31 广州小鹏汽车科技有限公司 语音交互方法、服务器及计算机可读存储介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9437186B1 (en) * 2013-06-19 2016-09-06 Amazon Technologies, Inc. Enhanced endpoint detection for speech recognition
CN105139849B (zh) * 2015-07-22 2017-05-10 百度在线网络技术(北京)有限公司 语音识别方法和装置
US11475884B2 (en) * 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
CN110517673B (zh) * 2019-07-18 2023-08-18 平安科技(深圳)有限公司 语音识别方法、装置、计算机设备及存储介质
CN111261161B (zh) * 2020-02-24 2021-12-14 腾讯科技(深圳)有限公司 一种语音识别方法、装置及存储介质

Also Published As

Publication number Publication date
CN112466302A (zh) 2021-03-09

Similar Documents

Publication Publication Date Title
CN112466302B (zh) 语音交互的方法、装置、电子设备和存储介质
CN112262430B (zh) 自动确定经由自动助理界面接收到的口头话语的语音识别的语言
CN110800046B (zh) 语音识别及翻译方法以及翻译装置
CN110462730B (zh) 促进以多种语言与自动化助理的端到端沟通
US11217230B2 (en) Information processing device and information processing method for determining presence or absence of a response to speech of a user on a basis of a learning result corresponding to a use situation of the user
EP3183728B1 (en) Orphaned utterance detection system and method
US20150279366A1 (en) Voice driven operating system for interfacing with electronic devices: system, method, and architecture
JP7328265B2 (ja) 音声インタラクション制御方法、装置、電子機器、記憶媒体及びシステム
US20210151039A1 (en) Method and apparatus for speech interaction, and computer storage medium
CN112151015B (zh) 关键词检测方法、装置、电子设备以及存储介质
KR102628211B1 (ko) 전자 장치 및 그 제어 방법
TW201606750A (zh) 使用外國字文法的語音辨識
CN113674746B (zh) 人机交互方法、装置、设备以及存储介质
JP2019124952A (ja) 情報処理装置、情報処理方法、およびプログラム
CN112133307A (zh) 人机交互方法、装置、电子设备及存储介质
CN112767916A (zh) 智能语音设备的语音交互方法、装置、设备、介质及产品
US11626107B1 (en) Natural language processing
CN113611316A (zh) 人机交互方法、装置、设备以及存储介质
CN114758649B (zh) 一种语音识别方法、装置、设备和介质
WO2021161856A1 (ja) 情報処理装置及び情報処理方法
CN113205810A (zh) 语音信号处理方法、装置、介质、遥控器及服务器
CN114078478B (zh) 语音交互的方法、装置、电子设备及存储介质
EP4099320A2 (en) Method and apparatus of processing speech, electronic device, storage medium, and program product
JP2019109424A (ja) 計算機、言語解析方法、及びプログラム
US11694684B1 (en) Generation of computing functionality using devices

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant