CN105161098A - 一种交互***的语音识别方法和装置 - Google Patents
一种交互***的语音识别方法和装置 Download PDFInfo
- Publication number
- CN105161098A CN105161098A CN201510463527.2A CN201510463527A CN105161098A CN 105161098 A CN105161098 A CN 105161098A CN 201510463527 A CN201510463527 A CN 201510463527A CN 105161098 A CN105161098 A CN 105161098A
- Authority
- CN
- China
- Prior art keywords
- sample
- expection
- answer
- voice signal
- sample group
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 230000003993 interaction Effects 0.000 title abstract 7
- 230000002452 interceptive effect Effects 0.000 claims description 86
- 230000008878 coupling Effects 0.000 description 23
- 238000010168 coupling process Methods 0.000 description 23
- 238000005859 coupling reaction Methods 0.000 description 23
- 230000013011 mating Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本发明公开了一种交互式***的语音识别方法和装置。所述方法包括:根据互动状态及所述互动状态下的预期答案,在语音识别样本库中预先确定与互动状态及所述预期答案对应的多个预期样本;将所述预期答案对应的多个预期样本划分为至少两个样本组,每个样本组中至少包含一个预期样本;采集所述互动状态下的用户的语音信号;将所述语音信号与至少两个样本组中的一个样本组中的预期样本进行匹配。本发明的技术方案,能够提高交互***的语音识别速度和准确定。
Description
技术领域
本发明涉及语音识别技术领域,具体涉及一种交互式***的语音识别方法和装置。
背景技术
随着多媒体技术的发展,各种交互式***都采用了语音交互的方式,以提高与用户的互动效率和提高趣味性。例如问答***,先通过语音或图像显示的方式向用户抛出问题,然后用户语音回答。再例如一些展示***,需要用户发出语音指令来选择展示哪些目录中的内容。在这些场景下都需要对用户的语音进行准确识别,才能在问答***下判断用户给出的语音答案是否正确,以及在展示***下判断用户到底选择了哪些目录,以便展示相应目录中的内容。
因此在交互***中对用户的语音进行准确和快速的识别是亟需解决的问题。
发明内容
鉴于上述问题,提出了本发明以便提供一种克服上述问题或者至少部分地解决上述问题的一种交互式***的语音识别方法和装置。
依据本发明的一个方面,提供了一种交互***的语音识别方法,其中,该方法包括:
根据互动状态及所述互动状态下的预期答案,在语音识别样本库中预先确定与互动状态及所述预期答案对应的多个预期样本;
将所述预期答案对应的多个预期样本划分为至少两个样本组,每个样本组中至少包含一个预期样本;
采集所述互动状态下的用户的语音信号;
将所述语音信号与至少两个样本组中的一个样本组中的预期样本进行匹配。
可选地,该方法进一步包括:
若在所述样本组中发现匹配的预期样本,则确定用户给出的答案为该预期答案。
可选地,该方法进一步包括:
若未在所述样本组中发现匹配的预期样本,则将所述语音信号与所述至少两个样本组中另一个样本组中的预期样本进行匹配。
可选地,该方法进一步包括:
若在所述另一个样本组中发现匹配的预期样本,则确定用户给出的答案为该预期答案。
可选地,该方法进一步包括:
若未在所述另一个样本组中发现匹配的预期样本,则确定用户未给出预期答案。
可选地,该方法进一步包括:
计算所述语音信号与预期样本的匹配度值,如果匹配度值达到预设值,则确定所述语音信号与该预期样本匹配,反之如果匹配度值未达到预设值,则确定所述语音信号与该预期样本不匹配。
可选地,所述将所述预期答案对应的多个预期样本划分为至少两个样本组包括:
将所述预期答案对应的多个预期样本,按照与所述预期答案的相似程度的不同划分为至少两个样本组,或者按照用户可能答复的预期答案的概率的不同划分为至少两个样本组。
可选地,将所述语音信号与至少两个样本组中的一个样本组中的预期样本进行匹配包括:
将所述语音信号与至少两个样本组中的与所述预期答案的相似程度最高的一个样本组中的预期样本进行匹配,或者将所述语音信号与至少两个样本组中的包含用户可能答复的概率最高的预期答案的一个样本组进行匹配。
可选地,将所述语音信号与至少两个样本组中的一个样本组中的预期样本进行匹配包括:
将所述语音信号与至少两个样本组中的一个样本组中优先级最高的预期样本进行匹配。
可选地,该方法进一步包括:
根据所采集的该互动状态下的历史语音信号,相应扩充所述预期答案对应的样本组数量,或者,相应扩充所述预期答案对应的一个样本组包含的预期样本数量,或者相应扩充所述语音识别样本库中的样本数量;
可选地,在采集所述互动状态下的用户的语音信号之前,该方法进一步包括:
通过结合语音、图像和视频中任一种或多种的形式,展现互动状态。
依据本发明的另一个实施例,公开了一种交互***的语音识别装置,其中,该装置包括:
预期样本确定单元,适于根据互动状态及所述互动状态下的预期答案,在语音识别样本库中预先确定与互动状态及所述预期答案对应的多个预期样本;
分组单元,适于将所述预期答案对应的多个预期样本划分为至少两个样本组,每个样本组中至少包含一个预期样本;
采集单元,适于采集所述互动状态下的用户的语音信号;
匹配处理单元,适于将所述语音信号与至少两个样本组中的一个样本组中的预期样本进行匹配。
可选地,所述匹配处理单元,适于当在所述样本组中发现匹配的预期样本时,确定用户给出的答案为该预期答案。
可选地,所述匹配处理单元,适于当未在所述样本组中发现匹配的预期样本时,将所述语音信号与所述至少两个样本组中另一个样本组中的预期样本进行匹配。
可选地,所述匹配处理单元,适于当在所述另一个样本组中发现匹配的预期样本时,确定用户给出的答案为该预期答案。
可选地,该装置进一步包括:
所述匹配处理单元,适于当未在所述另一个样本组中发现匹配的预期样本,则确定用户未给出预期答案。
可选地,所述匹配处理单元,适于计算所述语音信号与预期样本的匹配度值,如果匹配度值达到预设值,则确定所述语音信号与该预期样本匹配,反之如果匹配度值未达到预设值,则确定所述语音信号与该预期样本不匹配。
可选地,所述分组单元,适于将所述预期答案对应的多个预期样本,按照与所述预期答案的相似程度的不同划分为至少两个样本组,或者按照用户可能答复的预期答案的概率的不同划分为至少两个样本组。
可选地,所述匹配处理单元,适于将所述语音信号先与至少两个样本组中的与所述预期答案的相似程度最高的一个样本组中的预期样本进行匹配,或者将所述语音信号与至少两个样本组中的包含用户可能答复的概率最高的预期答案的一个样本组进行匹配。
可选地,所述匹配处理单元,适于先将所述语音信号先与至少两个样本组中的一个样本组中优先级最高的预期样本进行匹配。
可选地,该装置进一步包括:
扩充单元,适于根据所采集的该互动状态下的历史语音信号,相应扩充所述预期答案对应的样本组数量,或者,相应扩充所述预期答案对应的一个样本组包含的预期样本数量,或者相应扩充所述语音识别样本库中的样本数量;
可选地,该装置进一步包括:
展现单元,适于通过结合语音、图像和视频中任一种或多种的形式,展现互动状态。
根据本发明的这种根据互动状态及所述互动状态下的预期答案,在语音识别样本库中预先确定与互动状态及所述预期答案对应的多个预期样本,将所述预期答案对应的多个预期样本划分为至少两个样本组,每个样本组中至少包含一个预期样本,采集所述互动状态下的用户的语音信号,将所述语音信号与至少两个样本组中的一个样本组中的预期样本进行匹配的技术方案,由于将预期答案对应的预期样本预先找出来并分组,将用户的语音信号直接与其中一组预期样本进行匹配,因此使得匹配的范围缩小到一个可预期的小范围,不仅提高了交互***的语音识别的速度,而且提高了语音识别的准确性。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了根据本发明一个实施例的一种交互***的语音识别方法的流程图;
图2示出了根据本发明一个实施例的一种交互***的语音识别装置的结构图;以及
图3示出了根据本发明又一个实施例的一种交互***的语音识别装置的结构图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
图1示出了根据本发明一个实施例的一种交互***的语音识别方法的流程图。如图1所示,该方法包括:
步骤S110,根据互动状态及所述互动状态下的预期答案,在语音识别样本库中预先确定与互动状态及所述预期答案对应的多个预期样本。
在发明的本实施例中,一个互动状态是指某个特定的互动场景,例如问答***中的某个特定的问答题场景,或者展示***中的展示某个特定内容的场景。
以问答***中的某个特定问答题场景为例,问答***提问:“芹菜叶是否可以食用?”。对应的预期答案为“是”。根据该预期答案,用户回答“是”、“可以”和“能”都是在正确的,因此从语音识别样本库中选择“是”、“可以”和“能”这三个样本作为该互动状态对应的多个预期样本组。
步骤S120,将所述预期答案对应的多个预期样本划分为至少两个样本组,每个样本组中至少包含一个预期样本。
例如,仍以问答***提问“芹菜叶是否可以食用?”这个互动状态为例,将对应的三个预期样本划分为两组,其中“是”为第一样本组,“可以”和“能”为第二样本组。
步骤S130,采集所述互动状态下的用户的语音信号。
例如,当问答***输出问题后采集用户针对该问题的语音信号。一般采用麦克风进行语音信号的采集。
步骤S140,将所述语音信号与至少两个样本组中的一个样本组中的预期样本进行匹配。
例如,将采集的语音信号与第一样本组中的预期样本“是”进行匹配,或者与第二样本组中的预期样本“可以”和“能”进行匹配。
图1所示的方法,由于将预期答案对应的预期样本预先找出来并分组,将用户的语音信号直接与其中一组预期样本进行匹配,因此使得匹配的范围缩小到一个可预期的小范围,不仅提高了交互***的语音识别的速度,而且提高了语音识别的准确性。
在本发明的一个实施例中,图1所示的方法进一步包括:若在所述样本组中发现匹配的预期样本,则确定用户给出的答案为该预期答案。即不管将所述语音信号与哪个样本组中的预期样本进行匹配,只要发现匹配的预期样本,则确定用户给出的答案为该预期答案,即正确答案。
在本发明的一个实施例中,图1所示的方法进一步包括:若未在所述样本组中发现匹配的预期样本,则将所述语音信号与所述至少两个样本组中另一个样本组中的预期样本进行匹配。若在所述另一个样本组中发现匹配的预期样本,则确定用户给出的答案为该预期答案。若未在所述另一个样本组中发现匹配的预期样本,则确定用户未给出预期答案。
即如果未在第一次选择的样本组中发现匹配的预期样本,则再第二次选择一个其他样本组,将语音信号与第二次选择的样本组中的预期信号进行匹配;同样,如果在第二次选择的样本组中找到匹配的预期样本,则确定用户给出了正确答案;反之,如果在第二次选择的样本组中未找到匹配的预期样本,则确定用户未给出正确答案,或者还有其他未被选择过的样本组则将语音信号进一步与未被选择过的样本组中的预期样本进行匹配。
在本发明的一个实施例中,上述方法进一步包括:计算所述语音信号与预期样本的匹配度值,如果匹配度值达到预设值,则确定所述语音信号与该预期样本匹配,反之如果匹配度值未达到预设值,则确定所述语音信号与该预期样本不匹配。
即判断语音信号与一个预期样本是否匹配时,预先设置一个预设值,具体进行匹配时是计算语音信号与预期样本的匹配度值,再将计算得到的匹配度值与预设值进行比较。语音信号与预期样本的匹配度值可以采用两者的相似度值,即两个语音信号的相似度值。
在本发明的一个实施例中,图1所示方法中所述将所述预期答案对应的多个预期样本划分为至少两个样本组包括:将所述预期答案对应的多个预期样本,按照与所述预期答案的相似程度的不同划分为至少两个样本组,或者按照用户可能答复的预期答案的概率的不同划分为至少两个样本组。
例如,“芹菜叶是否可以食用?”对应的预期答案为“是”。根据该预期答案,选择“是”、“可以”和“能”这三个样本作为该互动状态对应的三个预期样本。其中“是”与预期答案的相似程度为100%,因此被划分到第一样本组,而“可以”和“能”由于相似度不是100%,因此被划分到第二样本组。又例如,用户回答“是”的概率是70%,划分到第一样本组,用户回答“可以”和“能”的概率分别是16%和14%,则划分到第二样本组。
在本发明的一个实施例中,图1所示方法中所述将所述语音信号与至少两个样本组中的一个样本组中的预期样本进行匹配包括:将所述语音信号与至少两个样本组中的与所述预期答案的相似程度最高的一个样本组中的预期样本进行匹配,或者将所述语音信号与至少两个样本组中的包含用户可能答复的概率最高的预期答案的一个样本组进行匹配。
例如,第一样本组中的“是”是用户回答概率最高的一个答案,比如70%的用户都会回答“是”,因此第一次将所述语音信号与第一样本组中的预期样本“是”进行匹配。
在本发明的一个实施例中,图1所示方法中将所述语音信号与至少两个样本组中的一个样本组中的预期样本进行匹配包括:将所述语音信号与至少两个样本组中的一个样本组中优先级最高的预期样本进行匹配。
例如,如果当前选择将所述语音信号与前述的第二样本组中的预期样本进行匹配,而第二样本组中用户回答“可以”的概率是16%,回答“能”的概率是14%,因此设置“可以”的优先级比“能”高。则将所述语音信号先与预期样本“可以”进行匹配,如果不匹配再与预期样本“能”进行匹配。
在本发明的一个实施例中,图1所示的方法进一步包括:根据所采集的该互动状态下的历史语音信号,相应扩充所述预期答案对应的样本组数量,或者,相应扩充所述预期答案对应的一个样本组包含的预期样本数量,或者相应扩充所述语音识别样本库中的样本数量。
这是因为,预先设置的语音识别样本库可能会没有覆盖预期答案对应的所有样本,因此可以通过学习来补充语音识别样本库或者已经选出的样本组。例如通过学习发现,有些用户会回答“嗯”和“OK”,这在人类语境中也是表示“是”的含义,因此可以将“嗯”和“OK”这两个样本也收录到语音识别样本库中,或者添加到已经选出的样本组中,或者新增一个样本组。例如,将“嗯”和“OK”添加到前述的第二样本组,或者将“嗯”和“OK”划分为第三样本组。
在本发明的一个实施例中,图1所示方法在采集所述互动状态下的用户的语音信号之前,该方法进一步包括:通过结合语音、图像和视频中任一种或多种的形式,展现互动状态。例如,通过结合语音、图像和视频中任一种或多种的形式展现问题或者展现要展示的内容。
图2示出了根据本发明一个实施例的一种交互***的语音识别装置的结构图。图2所示,该交互***的语音识别装置200包括:
预期样本确定单元210,适于根据互动状态及所述互动状态下的预期答案,在语音识别样本库中预先确定与互动状态及所述预期答案对应的多个预期样本。
分组单元220,适于将所述预期答案对应的多个预期样本划分为至少两个样本组,每个样本组中至少包含一个预期样本。
采集单元230,适于采集所述互动状态下的用户的语音信号。
匹配处理单元240,适于将所述语音信号与至少两个样本组中的一个样本组中的预期样本进行匹配。
图2所示的装置,由于将预期答案对应的预期样本预先找出来并分组,将用户的语音信号直接与其中一组预期样本进行匹配,因此使得匹配的范围缩小到一个可预期的小范围,不仅提高了交互***的语音识别的速度,而且提高了语音识别的准确性。
图3示出了根据本发明又一个实施例的一种交互***的语音识别装置的结构图。图3所示,该交互***的语音识别装置300包括:
预期样本确定单元310,适于根据互动状态及所述互动状态下的预期答案,在语音识别样本库中预先确定与互动状态及所述预期答案对应的多个预期样本。
分组单元320,适于将所述预期答案对应的多个预期样本划分为至少两个样本组,每个样本组中至少包含一个预期样本。分组单元320中保存所述至少两个样本组。
采集单元330,适于采集所述互动状态下的用户的语音信号;
匹配处理单元340,适于将所述语音信号与至少两个样本组中的一个样本组中的预期样本进行匹配。
在本发明的一个实施例中,所述匹配处理单元340,适于当在所述样本组中发现匹配的预期样本时,确定用户给出的答案为该预期答案。即不管将所述语音信号与哪个样本组中的预期样本进行匹配,只要发现匹配的预期样本,则确定用户给出的答案为该预期答案,即正确答案。
在本发明的一个实施例中,所述匹配处理单元340,适于当未在所述样本组中发现匹配的预期样本时,将所述语音信号与所述至少两个样本组中另一个样本组中的预期样本进行匹配。
在本发明的一个实施例中,所述匹配处理单元340,适于当在所述另一个样本组中发现匹配的预期样本时,确定用户给出的答案为该预期答案。
在本发明的一个实施例中,所述匹配处理单元340,适于当未在所述另一个样本组中发现匹配的预期样本,则确定用户未给出预期答案。
即如果未在第一次选择的样本组中发现匹配的预期样本,则再第二次选择一个其他样本组,将语音信号与第二次选择的样本组中的预期信号进行匹配;同样,如果在第二次选择的样本组中找到匹配的预期样本,则确定用户给出了正确答案;反之,如果在第二次选择的样本组中未找到匹配的预期样本,则确定用户未给出正确答案,或者还有其他未被选择过的样本组则将语音信号进一步与未被选择过的样本组中的预期样本进行匹配。
在本发明的一个实施例中,所述匹配处理单元340,适于计算所述语音信号与预期样本的匹配度值,如果匹配度值达到预设值,则确定所述语音信号与该预期样本匹配,反之如果匹配度值未达到预设值,则确定所述语音信号与该预期样本不匹配。即判断语音信号与一个预期样本是否匹配时,预先设置一个预设值,具体进行匹配时是计算语音信号与预期样本的匹配度值,再将计算得到的匹配度值与预设值进行比较。语音信号与预期样本的匹配度值可以采用两者的相似度值,即两个语音信号的相似度值。
在本发明的一个实施例中,所述分组单元320,适于将所述预期答案对应的多个预期样本,按照与所述预期答案的相似程度的不同划分为至少两个样本组,或者按照用户可能答复的预期答案的概率的不同划分为至少两个样本组。例如,“芹菜叶是否可以食用?”对应的预期答案为“是”。根据该预期答案,选择“是”、“可以”和“能”这三个样本作为该互动状态对应的三个预期样本。其中“是”与预期答案的相似程度为100%,因此被划分到第一样本组,而“可以”和“能”由于相似度不是100%,因此被划分到第二样本组。又例如,用户回答“是”的概率是70%,划分到第一样本组,用户回答“可以”和“能”的概率分别是16%和14%,则划分到第二样本组。
在本发明的一个实施例中,所述匹配处理单元340,适于将所述语音信号先与至少两个样本组中的与所述预期答案的相似程度最高的一个样本组中的预期样本进行匹配,或者将所述语音信号与至少两个样本组中的包含用户可能答复的概率最高的预期答案的一个样本组进行匹配。例如,第一样本组中的“是”是用户回答概率最高的一个答案,比如70%的用户都会回答“是”,因此第一次将所述语音信号与第一样本组中的预期样本“是”进行匹配。
在本发明的一个实施例中,所述匹配处理单元340,适于先将所述语音信号先与至少两个样本组中的一个样本组中优先级最高的预期样本进行匹配。例如,如果当前选择将所述语音信号与前述的第二样本组中的预期样本进行匹配,而第二样本组中用户回答“可以”的概率是16%,回答“能”的概率是14%,因此设置“可以”的优先级比“能”高。则将所述语音信号线与预期样本“可以”进行匹配,如果不匹配再与预期样本“能”进行匹配。
在本发明的一个实施例中,该装置300进一步包括:扩充单元350,适于根据所采集的该互动状态下的历史语音信号,相应扩充所述预期答案对应的样本组数量,或者,相应扩充所述预期答案对应的一个样本组包含的预期样本数量,或者相应扩充所述语音识别样本库中的样本数量。这是因为,预先设置的语音识别样本库可能会没有覆盖预期答案对应的所有样本,因此可以通过学习来补充语音识别样本库或者已经选出的样本组。例如通过学习发现,有些用户会回答“嗯”和“OK”,这在人类语境中也是表示“是”的含义,因此可以将“嗯”和“OK”这两个样本也收录到语音识别样本库中,或者添加到已经选出的样本组中,或者新增一个样本组。例如,将“嗯”和“OK”添加到前述的第二样本组,或者将“嗯”和“OK”划分为第三样本组。
在本发明的一个实施例中,该装置300进一步包括:展现单元360,适于通过结合语音、图像和视频中任一种或多种的形式,展现互动状态。例如,通过结合语音、图像和视频中任一种或多种的形式展现问题或者展现要展示的内容。
需要说明的是:
在此提供的算法和显示不与任何特定计算机、虚拟装置或者其它设备固有相关。各种通用装置也可以与基于在此的示教一起使用。根据上面的描述,构造这类装置所要求的结构是显而易见的。此外,本发明也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本公开并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例的交互***的语音识别装置中的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
本发明公开了A1、一种交互***的语音识别方法,其中,该方法包括:
根据互动状态及所述互动状态下的预期答案,在语音识别样本库中预先确定与互动状态及所述预期答案对应的多个预期样本;
将所述预期答案对应的多个预期样本划分为至少两个样本组,每个样本组中至少包含一个预期样本;
采集所述互动状态下的用户的语音信号;
将所述语音信号与至少两个样本组中的一个样本组中的预期样本进行匹配。
A2、如A1所述的方法,其中,该方法进一步包括:
若在所述样本组中发现匹配的预期样本,则确定用户给出的答案为该预期答案。
A3、如A1所述的方法,其中,该方法进一步包括:
若未在所述样本组中发现匹配的预期样本,则将所述语音信号与所述至少两个样本组中另一个样本组中的预期样本进行匹配。
A4、如A3所述的方法,其中,该方法进一步包括:
若在所述另一个样本组中发现匹配的预期样本,则确定用户给出的答案为该预期答案。
A5、如A3所述的方法,其中,该方法进一步包括:
若未在所述另一个样本组中发现匹配的预期样本,则确定用户未给出预期答案。
A6、如A2-A5中任一项所述的方法,其中,该方法进一步包括:
计算所述语音信号与预期样本的匹配度值,如果匹配度值达到预设值,则确定所述语音信号与该预期样本匹配,反之如果匹配度值未达到预设值,则确定所述语音信号与该预期样本不匹配。
A7、如A1所述的方法,其中,所述将所述预期答案对应的多个预期样本划分为至少两个样本组包括:
将所述预期答案对应的多个预期样本,按照与所述预期答案的相似程度的不同划分为至少两个样本组,或者按照用户可能答复的预期答案的概率的不同划分为至少两个样本组。
A8、如A7所述的方法,其中,将所述语音信号与至少两个样本组中的一个样本组中的预期样本进行匹配包括:
将所述语音信号与至少两个样本组中的与所述预期答案的相似程度最高的一个样本组中的预期样本进行匹配,或者将所述语音信号与至少两个样本组中的包含用户可能答复的概率最高的预期答案的一个样本组进行匹配。
A9、如A1所述的方法,其中,将所述语音信号与至少两个样本组中的一个样本组中的预期样本进行匹配包括:
将所述语音信号与至少两个样本组中的一个样本组中优先级最高的预期样本进行匹配。
A10、如A1所述的方法,其中,该方法进一步包括:
根据所采集的该互动状态下的历史语音信号,相应扩充所述预期答案对应的样本组数量,或者,相应扩充所述预期答案对应的一个样本组包含的预期样本数量,或者相应扩充所述语音识别样本库中的样本数量。
A11、如A1所述的方法,其中,在采集所述互动状态下的用户的语音信号之前,该方法进一步包括:
通过结合语音、图像和视频中任一种或多种的形式,展现互动状态。
本发明还公开了B12、一种交互***的语音识别装置,其中,该装置包括:
预期样本确定单元,适于根据互动状态及所述互动状态下的预期答案,在语音识别样本库中预先确定与互动状态及所述预期答案对应的多个预期样本;
分组单元,适于将所述预期答案对应的多个预期样本划分为至少两个样本组,每个样本组中至少包含一个预期样本;
采集单元,适于采集所述互动状态下的用户的语音信号;
匹配处理单元,适于将所述语音信号与至少两个样本组中的一个样本组中的预期样本进行匹配。
B13、如B12所述的装置,其中,
所述匹配处理单元,适于当在所述样本组中发现匹配的预期样本时,确定用户给出的答案为该预期答案。
B14、如B12所述的装置,其中,
所述匹配处理单元,适于当未在所述样本组中发现匹配的预期样本时,将所述语音信号与所述至少两个样本组中另一个样本组中的预期样本进行匹配。
B15、如B14所述的装置,其中,
所述匹配处理单元,适于当在所述另一个样本组中发现匹配的预期样本时,确定用户给出的答案为该预期答案。
B16、如B14所述的装置,其中,
所述匹配处理单元,适于当未在所述另一个样本组中发现匹配的预期样本,则确定用户未给出预期答案。
B17、如B13-B16中任一项所述的装置,其中,
所述匹配处理单元,适于计算所述语音信号与预期样本的匹配度值,如果匹配度值达到预设值,则确定所述语音信号与该预期样本匹配,反之如果匹配度值未达到预设值,则确定所述语音信号与该预期样本不匹配。
B18、如B12所述的装置,其中,
所述分组单元,适于将所述预期答案对应的多个预期样本,按照与所述预期答案的相似程度的不同划分为至少两个样本组,或者按照用户可能答复的预期答案的概率的不同划分为至少两个样本组。
B19、如B18所述的装置,其中,
所述匹配处理单元,适于将所述语音信号先与至少两个样本组中的与所述预期答案的相似程度最高的一个样本组中的预期样本进行匹配,或者将所述语音信号与至少两个样本组中的包含用户可能答复的概率最高的预期答案的一个样本组进行匹配。
B20、如B12所述的装置,其中,
所述匹配处理单元,适于先将所述语音信号先与至少两个样本组中的一个样本组中优先级最高的预期样本进行匹配。
B21、如B12所述的装置,其中,该装置进一步包括:
扩充单元,适于根据所采集的该互动状态下的历史语音信号,相应扩充所述预期答案对应的样本组数量,或者,相应扩充所述预期答案对应的一个样本组包含的预期样本数量,或者相应扩充所述语音识别样本库中的样本数量。
B22、如B12所述的装置,其中,该装置进一步包括:
展现单元,适于通过结合语音、图像和视频中任一种或多种的形式,展现互动状态。
Claims (10)
1.一种交互***的语音识别方法,其中,该方法包括:
根据互动状态及所述互动状态下的预期答案,在语音识别样本库中预先确定与互动状态及所述预期答案对应的多个预期样本;
将所述预期答案对应的多个预期样本划分为至少两个样本组,每个样本组中至少包含一个预期样本;
采集所述互动状态下的用户的语音信号;
将所述语音信号与至少两个样本组中的一个样本组中的预期样本进行匹配。
2.如权利要求1所述的方法,其中,该方法进一步包括:
若在所述样本组中发现匹配的预期样本,则确定用户给出的答案为该预期答案。
3.如权利要求1所述的方法,其中,该方法进一步包括:
若未在所述样本组中发现匹配的预期样本,则将所述语音信号与所述至少两个样本组中另一个样本组中的预期样本进行匹配。
4.如权利要求3所述的方法,其中,该方法进一步包括:
若在所述另一个样本组中发现匹配的预期样本,则确定用户给出的答案为该预期答案。
5.如权利要求3所述的方法,其中,该方法进一步包括:
若未在所述另一个样本组中发现匹配的预期样本,则确定用户未给出预期答案。
6.一种交互***的语音识别装置,其中,该装置包括:
预期样本确定单元,适于根据互动状态及所述互动状态下的预期答案,在语音识别样本库中预先确定与互动状态及所述预期答案对应的多个预期样本;
分组单元,适于将所述预期答案对应的多个预期样本划分为至少两个样本组,每个样本组中至少包含一个预期样本;
采集单元,适于采集所述互动状态下的用户的语音信号;
匹配处理单元,适于将所述语音信号与至少两个样本组中的一个样本组中的预期样本进行匹配。
7.如权利要求6所述的装置,其中,
所述匹配处理单元,适于当在所述样本组中发现匹配的预期样本时,确定用户给出的答案为该预期答案。
8.如权利要求6所述的装置,其中,
所述匹配处理单元,适于当未在所述样本组中发现匹配的预期样本时,将所述语音信号与所述至少两个样本组中另一个样本组中的预期样本进行匹配。
9.如权利要求8所述的装置,其中,
所述匹配处理单元,适于当在所述另一个样本组中发现匹配的预期样本时,确定用户给出的答案为该预期答案。
10.如权利要求8所述的装置,其中,
所述匹配处理单元,适于当未在所述另一个样本组中发现匹配的预期样本,则确定用户未给出预期答案。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510463527.2A CN105161098A (zh) | 2015-07-31 | 2015-07-31 | 一种交互***的语音识别方法和装置 |
PCT/CN2016/092412 WO2017020794A1 (zh) | 2015-07-31 | 2016-07-29 | 一种交互***的语音识别方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510463527.2A CN105161098A (zh) | 2015-07-31 | 2015-07-31 | 一种交互***的语音识别方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105161098A true CN105161098A (zh) | 2015-12-16 |
Family
ID=54801931
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510463527.2A Pending CN105161098A (zh) | 2015-07-31 | 2015-07-31 | 一种交互***的语音识别方法和装置 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN105161098A (zh) |
WO (1) | WO2017020794A1 (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105771234A (zh) * | 2016-04-02 | 2016-07-20 | 深圳市熙龙玩具有限公司 | 一种猜谜机玩具及其实现方法 |
WO2017020794A1 (zh) * | 2015-07-31 | 2017-02-09 | 北京奇虎科技有限公司 | 一种交互***的语音识别方法和装置 |
CN110706536A (zh) * | 2019-10-25 | 2020-01-17 | 北京猿力未来科技有限公司 | 一种语音答题方法及装置 |
CN117219078A (zh) * | 2023-10-20 | 2023-12-12 | 深圳市宏泰智能创意电子科技有限公司 | 基于人工智能的摆件语音识别方法及*** |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1458645A (zh) * | 2002-05-15 | 2003-11-26 | 日本先锋公司 | 语音识别设备和语音识别程序 |
CN103280218A (zh) * | 2012-12-31 | 2013-09-04 | 威盛电子股份有限公司 | 基于语音识别的选择方法及其移动终端装置及信息*** |
US20140093056A1 (en) * | 2011-03-18 | 2014-04-03 | Fujitsu Limited | Call evaluation device and call evaluation method |
CN104021786A (zh) * | 2014-05-15 | 2014-09-03 | 北京中科汇联信息技术有限公司 | 一种语音识别的方法和装置 |
CN104064062A (zh) * | 2014-06-23 | 2014-09-24 | 中国石油大学(华东) | 一种基于声纹和语音识别的在线听力学习方法及*** |
CN104424290A (zh) * | 2013-09-02 | 2015-03-18 | 佳能株式会社 | 基于语音的问答***和用于交互式语音***的方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10308611A1 (de) * | 2003-02-27 | 2004-09-16 | Siemens Ag | Ermittlung der Verwechslungsgefahr von Vokabulareinträgen bei der phonembasierten Spracherkennung |
US10319363B2 (en) * | 2012-02-17 | 2019-06-11 | Microsoft Technology Licensing, Llc | Audio human interactive proof based on text-to-speech and semantics |
CN102881284B (zh) * | 2012-09-03 | 2014-07-09 | 江苏大学 | 非特定人语音情感识别方法及*** |
CN103794214A (zh) * | 2014-03-07 | 2014-05-14 | 联想(北京)有限公司 | 一种信息处理方法、装置和电子设备 |
CN104809103B (zh) * | 2015-04-29 | 2018-03-30 | 北京京东尚科信息技术有限公司 | 一种人机对话的语义分析方法及*** |
CN105161098A (zh) * | 2015-07-31 | 2015-12-16 | 北京奇虎科技有限公司 | 一种交互***的语音识别方法和装置 |
-
2015
- 2015-07-31 CN CN201510463527.2A patent/CN105161098A/zh active Pending
-
2016
- 2016-07-29 WO PCT/CN2016/092412 patent/WO2017020794A1/zh active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1458645A (zh) * | 2002-05-15 | 2003-11-26 | 日本先锋公司 | 语音识别设备和语音识别程序 |
US20140093056A1 (en) * | 2011-03-18 | 2014-04-03 | Fujitsu Limited | Call evaluation device and call evaluation method |
CN103280218A (zh) * | 2012-12-31 | 2013-09-04 | 威盛电子股份有限公司 | 基于语音识别的选择方法及其移动终端装置及信息*** |
CN104424290A (zh) * | 2013-09-02 | 2015-03-18 | 佳能株式会社 | 基于语音的问答***和用于交互式语音***的方法 |
CN104021786A (zh) * | 2014-05-15 | 2014-09-03 | 北京中科汇联信息技术有限公司 | 一种语音识别的方法和装置 |
CN104064062A (zh) * | 2014-06-23 | 2014-09-24 | 中国石油大学(华东) | 一种基于声纹和语音识别的在线听力学习方法及*** |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017020794A1 (zh) * | 2015-07-31 | 2017-02-09 | 北京奇虎科技有限公司 | 一种交互***的语音识别方法和装置 |
CN105771234A (zh) * | 2016-04-02 | 2016-07-20 | 深圳市熙龙玩具有限公司 | 一种猜谜机玩具及其实现方法 |
CN110706536A (zh) * | 2019-10-25 | 2020-01-17 | 北京猿力未来科技有限公司 | 一种语音答题方法及装置 |
CN110706536B (zh) * | 2019-10-25 | 2021-10-01 | 北京猿力教育科技有限公司 | 一种语音答题方法及装置 |
CN117219078A (zh) * | 2023-10-20 | 2023-12-12 | 深圳市宏泰智能创意电子科技有限公司 | 基于人工智能的摆件语音识别方法及*** |
Also Published As
Publication number | Publication date |
---|---|
WO2017020794A1 (zh) | 2017-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Herrera-Alsina et al. | Detecting the dependence of diversification on multiple traits from phylogenetic trees and trait data | |
CN105161098A (zh) | 一种交互***的语音识别方法和装置 | |
Sestito et al. | Automated knowledge acquisition | |
CN108172213B (zh) | 娇喘音频识别方法、装置、设备及计算机可读介质 | |
CN108875486A (zh) | 目标对象识别方法、装置、***和计算机可读介质 | |
CN103559286B (zh) | 视频搜索结果的处理方法及装置 | |
US11282502B2 (en) | Method for utterance generation, smart device, and computer readable storage medium | |
CN104462506A (zh) | 基于用户标注信息构建知识图谱的方法和装置 | |
CN104462507A (zh) | 基于影视歌曲数据构建知识图谱的方法和装置 | |
CN104933747A (zh) | 将矢量动画转换为位图动画的方法及装置 | |
CN103605696B (zh) | 一种获取影音文件地址的方法和装置 | |
CN105893548A (zh) | 命名方法以及终端 | |
CN105117499A (zh) | 基于云盘的文件显示方法及装置 | |
CN105095464A (zh) | 一种检索***的检测方法和装置 | |
CN109241323A (zh) | 基于电子书评论生成用户海报的方法及计算设备 | |
CN103678706A (zh) | 一种基于截图信息的识图方法、***、设备及装置 | |
CN107562847A (zh) | 信息处理方法及相关产品 | |
CN104781698A (zh) | 用于隔离地震数据中的信号的***和方法 | |
CN105161105A (zh) | 一种交互***的语音识别方法和装置 | |
CN106503010A (zh) | 一种数据库更改写入分区的方法及装置 | |
CN105224649A (zh) | 一种数据处理方法和装置 | |
CN104376126A (zh) | 在Linux驱动中绑定内核符号的方法及装置 | |
CN114924673B (zh) | 基于弹幕交互的媒体菜单推荐方法及装置 | |
CN105335514A (zh) | 一种游戏论坛中的用户数据处理方法和装置 | |
CN111078982A (zh) | 一种电子页面的检索方法、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20151216 |
|
RJ01 | Rejection of invention patent application after publication |