CN101604520A - 基于统计模型和语法规则的口语语音识别方法 - Google Patents
基于统计模型和语法规则的口语语音识别方法 Download PDFInfo
- Publication number
- CN101604520A CN101604520A CNA2009101580304A CN200910158030A CN101604520A CN 101604520 A CN101604520 A CN 101604520A CN A2009101580304 A CNA2009101580304 A CN A2009101580304A CN 200910158030 A CN200910158030 A CN 200910158030A CN 101604520 A CN101604520 A CN 101604520A
- Authority
- CN
- China
- Prior art keywords
- model
- speech
- oov
- syntax rule
- ngram
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Machine Translation (AREA)
Abstract
一种基于统计语言模型、结合语法规则、面向口语识别应用的语音识别方法。本发明由声学模型训练、语言模型训练、前端处理、及识别解码四个部分组成。本发明的语言模型以N元语法统计模型为基础,辅以语法规则网络,可以有效处理口语中的集外词、口头禅、模糊发音、语句快速切换等现象,从而在保证语音识别自然度的前提下,到达更高的识别率。
Description
技术领域
本发明涉及自动语音识别技术领域,是一种基于统计语言模型、结合语法规则、面向口语识别应用的语音识别方法。
背景技术
信息***或控制***越来越多地应用语音界面来与用户进行快速和直接的交互作用,由于这些***的功能正在变得越来越复杂,所需的对话方式也变得更丰富,人们正在进入大词汇量口语连续语音识别的领域。
大词汇量连续语音识别***的设计都需要产生一个语言模型,它确定一个词汇序列可能的概率。
对于口语识别而言,这种语言模型必须能再现***用户通常使用的讲话样式:反复、无关***语、集外词或模糊发音。
所用语言模型的质量极大地影响语音识别的准确率。这种质量通常是用语言模型的困惑度指标来衡量,在原理上,该指标表示选择的数目,这种选择是***对每一被解码的词必须做的。这一指标越低,质量越高。
语言模型需要把发音单元序列转换成词的文本串,这是对话***常用的步骤。然后,需要构建一种能理解的逻辑关系,使能理解口头的提问,从而作出回答。
有两种产生大词汇语言模型的标准方法:
1)基于N元语法的统计语言模型,最常用的双语法或三语法,其要点是,假定一个词在句中的出现概率仅仅与前面的(N-1)个词有关,那么,它与句中的上下文无关。
考虑一个1000个词汇的三语法的例子,因为它有10003个可能的三元组,所以,它必须确定10003的概率来定义一个语言模型,因此,需要占用相当规模的存储器和非常强的计算能力。为了解决这个问题,把词分成组,这些组由模型设计者直接确定,或者由自组织方法推导出来。
这种语言模型是由大量文本通过统计的方法自动构造的。
2)第二种方法的要点是借助于规则语言来描述语法,典型的如依靠一组FSN网络描述的规则来确定语法。
描述语法的规则通常是手写的,但也可以用统计的方法从大量数据中自动推导出来。
当把这两种语言模型应用于自然语言***的界面时,这两种模型产生了特殊的问题:
基于N元语法的统计语言模型不能正确模拟句子中几个隔开的语法子结构的关系。对于句法上正确发声的句子来说,没有什么可保证在识别过程中遵守这些子结构,因此,很难确定是否该句子就是由一种或多种特殊句法结构习惯产生的这种句子或这种意义。
这些模型适合于连续的口授,但把他们应用到对话***就有所提到的严重的缺陷。
在基于N元语法的统计语言模型,借助于把最新实际发声的词组在一起来定义一组词,就可能考虑到支吾和重复。
基于语法规则的语言模型,可以使它正确模拟句子中隔开的远程关系,也遵守特定的句法结构。对于一种给定的应用,所得到的语言的困惑度常常比基于N元语法的统计语言模型低。
上述语言模型很难适应掺入有口头禅、模糊发音等的口语型语言的描述。特别地,这些与口语型语言有关的现象不能预测,因此,似乎很难依靠自身的特性来设计基于语法规则的语法。
此外,覆盖应用需要的规则数目很大,在没有修改这种现有规则之前,很难考虑要加入到对话中的新句子。
发明内容
本发明的目的是为克服现有语音识别技术的不足,提出一种N元语法统计模型和语法规则相结合的语言建模方法,使其应用于口语语音识别***,提高对口语中集外词、口头禅、模糊发音、语句快速切换等发音现象的处理能力。
本发明是通过以下技术方案实现的,本发明由S1-声学模型训练、S2-语言模型训练、S3-前端处理、S4-识别解码四个部分组成,如图1所示。本发明的主要特征在于使用了以N元语法统计模型为基础,结合语法规则的语言模型。
以下是对本发明进一步的说明:
S1-声学模型训练
特征提取:按帧长25毫秒,帧移10毫秒提取12维MFCC特征,再加上1维能量特征,共13维静态特征。动态特征取一阶和二阶差分特征,得到39维的声学特征向量序列。
基本声学模型的训练:声学建模方法使用CDHMM+GMM,利用本领域熟知的方法训练状态绑定的上下文相关三音子模型。
S2-语言模型训练
基于统计模型和语法规则的口语语音识别方法,具体是一种基于统计语言模型、结合语法规则、面向口语识别应用的语音识别方法。本发明由S1-声学模型训练、S2-语言模型训练、S3-前端处理、S4-识别解码四个部分组成。其特征在于:语言模型以N元语法统计模型为基础,辅以语法规则网络,用以处理口语中常见的集外词、口头禅、模糊发音、语句快速切换等现象。语言模型框架见图2。
定义符号:SENT表示一个句子,NGram表示N元语法统计模型,WORD表示词,WORDCLASS表示词类,GB表示垃圾词过滤模型,FzPr表示模糊发音过滤模型,FvPh表示口头禅过滤模型,OOV表示集外词模型。
以下是用BNF语法定义的语法规则:
SENT:=[GB]NGram[SUBSENT][GB]
SUBSENT:=(GB NGram SUBSENT)
|(GB NGram);
NGram:=((WORD|WORDCLASS|OOV)NGram)
|(WORD|WORDCLASS|OOV)
GB:=(FzPr[FvFz][FvPh])
|(FvPh[FzFv][FzPr]);
FvFz:=(FvPh FzPr FvFz)
|(FvPh FzPr);
FzFv:=(FzPr FvPh FzFv)
|(FzPr FvPh);
本发明的N元语法统计模型的建模单元可以是词(WORD)、词类(WORDCLASS)、或集外词模型(OOV)。在训练过程中,根据语料库的标注和词类的预定义,可以用本领域熟知的方法训练出连接概率模型;WORD或WORDCLASS与OOV的连接概率、以及OOV之间的连接概率不是从语料库中直接训练得到的,而是通过WORDCLASS的连接概率间接得到的。
本发明的OOV模型个数等于WORDCLASS个数,每个OOV模型都对应一个WORDCLASS,即OOV模型的语言模型连接概率等于其对应的WORDCLASS的连接概率。OOV模型(如图3所示)由一个汉字循环网络(Single Word Loop,SWL)和一个汉字N元语法统计模型构成,汉字N元语法统计模型由其对应的WORDCLASS语料统计学习得到。所有OOV模型共享使用一个SWL。可以每个OOV模型一个独立的汉字N元语法统计模型,或者多个OOV模型共享一个汉字N元语法统计模型。对WORD或WORDCLASS模型与OOV模型的连接加上一个奖励因子Aw,以提高OOV的检出率。
在本发明的语法规则中,被GB模型隔开的若干个NGram模型在计算连接概率时,GB模型将被忽略,这些NGram模型被当作连接在一起那样来计算语言连接概率。
本发明的GB模型由FzPr和/或FvPh模型组成,其中FzPr模型(如图5所示)有一个音素循环网络(Phone Loop Net,简称PLN)构成,FvPh模型(如图4所示)由一个口头禅词集合的循环网络(Favorite Phrase Loop,简称FPL)构成。口头禅词集合中包括词和短语,可以从语料库学习得到,也可以根据语言学知识总结得到。
在语法规则中,对NGram模型与GB模型中FvPh模型的连接加上惩罚因子Pv1,对GB模型中FvPh模型与NGram模型的连接加上惩罚因子Pv2,以避免正常的语音被识别成口头禅;对NGram模型与GB模型中的FzPr模型的连接加上一个惩罚因子Pz1,对GB模型中的FzPr模型与NGram模型的连接加上一个惩罚因子Pz2,以避免正常的语音被识别成模糊语音。
在NGram模型中,设置一个词首<s>元素,设置的方法为本领域所熟知。在识别过程中,认为每一次词间的扩展都可能是新句子的开始,具体做法是,向搜索路径堆栈中添加新句子路径,该路径从语法规则网络的根节点开始,同时在计算新句子路径的首部的N-1个词的连接概率时需要使用<s>元素,具体方法为本领域所熟知。利用该方法,可以对口语中句子的快速切换进行处理。
在识别阶段,每条搜索路径的数据结构信息除了有本领域熟知的一些项外,至少还需要包含以下几个信息:
a)历史词或词类信息;
b)在语法规则网络中的位置;
c)当前语法模型类型(WORD,WORDCLASS,OOV,FvPh,FzPr);
语言模型得分。
S3-前端处理
前端处理有两个功能,语音增强和语音端点检测。首先对信号进行语音增强处理,消除平稳背景噪声或缓慢渐变的非平稳噪声;然后进行语音端点检测,特征采用帧对数能量,由于语音增强处理后的背景噪音能量近似一个很小的常量,因此可以采用绝对门限来判断是否是语音。语音增强处理后的语音信号中可能会残留突发噪声,因此设定语音段最小长度门限,如果检测到的语音段小于该门限,则判断为突发噪声。由于语音前后部分的能量较弱,容易造成漏检,这通常会导致识别错误,由于语音识别器容许语音前后带静音,因此在语音端点检测过程中,分别把语音开始点向前扩展200毫秒,语音结束点向后扩展200毫秒。一段语音作为一句,如果检测到的语音很长,有可能是由于语速较快,语句间的停顿较短,导致多句话被检测为一句话,这种现象在口语中较多,本发明的方法可以较好的解决这个问题。
S4-识别解码
识别解码部分,首先用与声学模型训练阶段一样的方法提取声学特征。提取完声学特征后,对声学特征序列进行归一化处理,然后送入识别器进行识别。
识别采用Viterbi-Beam宽度优先的帧同步搜索方法。然后将声学得分加上语言得分后的得分最高的搜索路径对应的词序列作为最后识别出来的句子。
发明实例
为了说明本方法的有效性,下面用一个实验来比较本方法与基于3元语言模型(3-Gram)的语音识别方法在不同测试集上的识别率的区别。
声学模型训练数据:标注普通话纯净语音数据库,100男100女。
语言模型训练数据:10G字节新闻联播语料和主流新闻媒体的语料。
测试数据:共三个测试集:新闻测试集,中央电视台新闻联播录音;朗读测试集,标注普通话朗读新闻的录音;口语测试集,用口语复述新闻的录音。
以下是测试结果:
新闻测试集 | 朗读测试集 | 口语测试集 | |
3-Gram | 91.25% | 89.77% | 72.04% |
本文方法 | 90.68% | 89.10% | 81.97% |
附图说明
图1为本发明的框架示意图
图2为本发明的语言模型框架示意图
图3为OOV集外词模型示意图
图4为FvPh口头禅过滤模型示意图
图5为FzPr模糊发音过滤模型示意图
图6为本发明的***流程示意图
具体实施方式
下面结合附图对本发明做进一步说明。
图1为本发明的框架示意图,图6为本发明的***流程示意图,如图1和图6所示,本***主要由S1-声学模型训练、S2-语言模型训练、S3-前端处理、S4-识别解码四个部分组成,***流程如下:
S1-声学模型训练部分流程如下:
1.S1-1,特征提取。按帧长25毫秒,帧移10毫秒提取12维MFCC特征,再加上1维能量特征,共13维静态特征。动态特征取一阶和二阶差分特征,得到39维的声学特征向量序列。
2.S1-2,采用HMM+GMM建模方法,训练状态绑定的上下文相关三音子模型。S2-语言模型训练部分流程如下:
1.S2-1,基于BNF语法定义语法规则,然后使用BNF语法解析器生成语法规则网络。
2.S2-2,对语言模型训练语料库进行分词、发音标注;同时定义词类,并对语料库进行词类标注,需要注意的是,同一个词可能属于多个词类。在定义词类时,应当尽可能地为可能出现集外词的语言现象定义词类,比如人名、地名等。
3.S2-3,利用标注的语料库,训练同时包含词和词类的N元语法统计模型。
4.S2-4,对每个词类,构造一个OOV模型,其对应的汉字N元语法统计模型由该词类的所有的词训练得到,如果某个词类的词的数量较少,则可以与其它词类的词合并,然后与这些词类共享同一个汉字N元语法统计模型。然后,对所有OOV模型,构造一个汉字循环网络SWL。
5.S2-5,设置口头禅词集合,并构造一个口头禅词集合的循环网络FPL。
6.S2-6,构造一个音素循环网络PLN。
7.S2-7,训练OOV模型的奖励因子Aw,FvPh模型的惩罚因子Pv1和Pv2,FzPr模型的惩罚因子Pz1和Pz2。
S3-前端处理部分流程如下:
1.S3-1,对信号进行语音增强处理,消除平稳背景噪声或缓慢渐变的非平稳噪声;
2.S3-2,采用帧对数能量为特征,进行语音端点检测;
3.S3-3,如果检测到的语音段小于语音段最小长度门限,则判断为突发噪声,否则,将检测到语音送入识别器识别。
S4-识别解码部分流程如下:
1.S4-1,参照步骤S1-1,提取声学特征序列。
2.S4-2,进行Viterbi-Beam搜索,将声学得分加上语言得分最高的句子作为最终识别结果。
Claims (8)
1、基于统计模型和语法规则的口语语音识别方法,具体是一种基于统计语言模型、结合语法规则、面向口语识别应用的语音识别方法。本发明由声学模型训练、语言模型训练、前端处理、及识别解码四个部分组成。其特征在于:语言模型以N元语法统计模型为基础,辅以语法规则网络,用以处理口语中常见的集外词、口头禅、模糊发音、语句快速切换等现象。
定义符号:SENT表示一个句子,NGram表示N元语法统计模型,WORD表示词,WORDCLASS表示词类,GB表示垃圾词过滤模型,FzPr表示模糊发音过滤模型,FvPh表示口头禅过滤模型,OOV表示集外词模型。
以下是用BNF语法定义的语法规则:
SENT:=[GB]NGram[SUBSENT][GB]
SUBSENT:=(GB NGram SUBSENT)
|(GB NGram);
NGram:=((WORD|WORDCLASS|OOV)NGram)
|(WORD|WORDCLASS|OOV)
GB:=(FzPr[FvFz][FvPh])
|(FvPh[FzFv][FzPr]);
FvFz:=(FvPh FzPr FvFz)
|(FvPh FzPr);
FzFv:=(FzPr FvPh FzFv)
|(FzPr FvPh);
2、根据权利要求1所述的基于统计模型和语法规则的口语语音识别方法,其特征在于,本发明的N元语法统计模型的建模单元可以是词(WORD)、词类(WORDCLASS)、或集外词模型(OOV)。在训练过程中,根据语料库的标注和词类的预定义,可以用本领域熟知的方法训练出连接概率模型;WORD或WORDCLASS与OOV的连接概率、以及OOV之间的连接概率不是从语料库中直接训练得到的,而是通过WORDCLASS的连接概率间接得到的。
3、根据权利要求1所述的基于统计模型和语法规则的口语语音识别方法,其特征在于,本发明的OOV模型个数等于WORDCLASS个数,每个OOV模型都对应一个WORDCLASS,即OOV模型的语言模型连接概率等于其对应的WORDCLASS的连接概率。OOV模型由一个汉字循环网络(Single Word Loop,SWL)和一个汉字N元语法统计模型构成,汉字N元语法统计模型由其对应的WORDCLASS语料统计学习得到。所有OOV模型共享使用一个SWL。可以每个OOV模型一个独立的汉字N元语法统计模型,或者多个OOV模型共享一个汉字N元语法统计模型。对WORD或WORDCLASS模型与OOV模型的连接加上一个奖励因子Aw,以提高OOV的检出率。
4、根据权利要求1所述的基于统计模型和语法规则的口语语音识别方法,其特征在于,在本发明的语法规则中,被GB模型隔开的若干个NGram模型在计算连接概率时,GB模型将被忽略,这些NGram模型被当作连接在一起那样来计算语言连接概率。
5、根据权利要求1所述的基于统计模型和语法规则的口语语音识别方法,其特征在于,本发明的GB模型由FzPr和/或FvPh模型组成,其中FzPr模型有一个音素循环网络(PhoneLoop Net,简称PLN)构成,FvPh模型由一个口头禅词集合的循环网络(Favorite Phrase Loop,简称FPL)构成。口头禅词集合中包括词和短语,可以从语料库学习得到,也可以根据语言学知识总结得到。
6、根据权利要求1所述的基于统计模型和语法规则的口语语音识别方法,其特征在于,在本发明的语法规则中,对NGram模型与GB模型中FvPh模型的连接加上惩罚因子Pv1,对GB模型中FvPh模型与NGram模型的连接加上惩罚因子Pv2,以避免正常的语音被识别成口头禅;对NGram模型与GB模型中的FzPr模型的连接加上一个惩罚因子Pz1,对GB模型中的FzPr模型与NGram模型的连接加上一个惩罚因子Pz2,以避免正常的语音被识别成模糊语音。
7、根据权利要求1所述的基于统计模型和语法规则的口语语音识别方法,其特征在于,在本发明的NGram模型中,设置一个词首<s>元素,设置的方法为本领域所熟知。在识别过程中,认为每一次词间的扩展都可能是新句子的开始,具体做法是,向搜索路径堆栈中添加新句子路径,该路径从语法规则网络的根节点开始,同时在计算新句子路径的首部的N-1个词的连接概率时需要使用<s>元素,具体方法为本领域所熟知。利用该方法,可以对口语中句子的快速切换进行处理。
8、根据权利要求1所述的基于统计模型和语法规则的口语语音识别方法,其特征在于,在识别阶段,每条搜索路径的数据结构信息除了有本领域熟知的一些项外,至少还需要包含以下四个信息:
●历史词或词类信息;
●在语法规则网络中的位置;
●当前语法模型类型(WORD,WORDCLASS,OOV,FvPh,FzPr);
●语言模型得分。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNA2009101580304A CN101604520A (zh) | 2009-07-16 | 2009-07-16 | 基于统计模型和语法规则的口语语音识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNA2009101580304A CN101604520A (zh) | 2009-07-16 | 2009-07-16 | 基于统计模型和语法规则的口语语音识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN101604520A true CN101604520A (zh) | 2009-12-16 |
Family
ID=41470227
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNA2009101580304A Pending CN101604520A (zh) | 2009-07-16 | 2009-07-16 | 基于统计模型和语法规则的口语语音识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101604520A (zh) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103186658A (zh) * | 2012-12-24 | 2013-07-03 | 中国科学院声学研究所 | 用于英语口语考试自动评分的参考语法生成方法和设备 |
CN103325370A (zh) * | 2013-07-01 | 2013-09-25 | 百度在线网络技术(北京)有限公司 | 语音识别方法和语音识别*** |
CN103903619A (zh) * | 2012-12-28 | 2014-07-02 | 安徽科大讯飞信息科技股份有限公司 | 一种提高语音识别准确率的方法及*** |
CN103915092A (zh) * | 2014-04-01 | 2014-07-09 | 百度在线网络技术(北京)有限公司 | 语音识别方法和装置 |
CN104134439A (zh) * | 2014-07-31 | 2014-11-05 | 深圳市金立通信设备有限公司 | 一种习惯用语的获取方法、装置及*** |
CN104508739A (zh) * | 2012-06-21 | 2015-04-08 | 谷歌公司 | 动态语言模型 |
CN104572614A (zh) * | 2014-12-03 | 2015-04-29 | 北京捷通华声语音技术有限公司 | 一种语言模型的训练方法及*** |
CN105261358A (zh) * | 2014-07-17 | 2016-01-20 | 中国科学院声学研究所 | 用于语音识别的n元文法模型构造方法及语音识别*** |
CN105702252A (zh) * | 2016-03-31 | 2016-06-22 | 海信集团有限公司 | 一种语音识别方法及装置 |
CN106356054A (zh) * | 2016-11-23 | 2017-01-25 | 广西大学 | 一种基于语音识别的农产品信息采集方法和*** |
CN106354716A (zh) * | 2015-07-17 | 2017-01-25 | 华为技术有限公司 | 转换文本的方法和设备 |
CN106611597A (zh) * | 2016-12-02 | 2017-05-03 | 百度在线网络技术(北京)有限公司 | 基于人工智能的语音唤醒方法和装置 |
CN106816148A (zh) * | 2015-11-30 | 2017-06-09 | 三星电子株式会社 | 语音识别设备和方法 |
CN107274903A (zh) * | 2017-05-26 | 2017-10-20 | 北京搜狗科技发展有限公司 | 文本处理方法和装置、用于文本处理的装置 |
CN108829894A (zh) * | 2018-06-29 | 2018-11-16 | 北京百度网讯科技有限公司 | 口语词识别和语义识别方法及其装置 |
CN109976702A (zh) * | 2019-03-20 | 2019-07-05 | 青岛海信电器股份有限公司 | 一种语音识别方法、装置及终端 |
CN110291582A (zh) * | 2017-02-14 | 2019-09-27 | 谷歌有限责任公司 | 语言模型偏置*** |
CN110310623A (zh) * | 2017-09-20 | 2019-10-08 | Oppo广东移动通信有限公司 | 样本生成方法、模型训练方法、装置、介质及电子设备 |
CN107871499B (zh) * | 2017-10-27 | 2020-06-16 | 珠海市杰理科技股份有限公司 | 语音识别方法、***、计算机设备及计算机可读存储介质 |
CN111951784A (zh) * | 2020-08-25 | 2020-11-17 | 睿云联(厦门)网络通讯技术有限公司 | 语音识别中垃圾词的生成方法及装置、介质、电子设备 |
-
2009
- 2009-07-16 CN CNA2009101580304A patent/CN101604520A/zh active Pending
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104508739B (zh) * | 2012-06-21 | 2017-11-07 | 谷歌公司 | 动态语言模型 |
CN104508739A (zh) * | 2012-06-21 | 2015-04-08 | 谷歌公司 | 动态语言模型 |
CN103186658B (zh) * | 2012-12-24 | 2016-05-25 | 中国科学院声学研究所 | 用于英语口语考试自动评分的参考语法生成方法和设备 |
CN103186658A (zh) * | 2012-12-24 | 2013-07-03 | 中国科学院声学研究所 | 用于英语口语考试自动评分的参考语法生成方法和设备 |
CN103903619A (zh) * | 2012-12-28 | 2014-07-02 | 安徽科大讯飞信息科技股份有限公司 | 一种提高语音识别准确率的方法及*** |
CN103903619B (zh) * | 2012-12-28 | 2016-12-28 | 科大讯飞股份有限公司 | 一种提高语音识别准确率的方法及*** |
CN103325370A (zh) * | 2013-07-01 | 2013-09-25 | 百度在线网络技术(北京)有限公司 | 语音识别方法和语音识别*** |
CN103325370B (zh) * | 2013-07-01 | 2015-11-25 | 百度在线网络技术(北京)有限公司 | 语音识别方法和语音识别*** |
CN103915092A (zh) * | 2014-04-01 | 2014-07-09 | 百度在线网络技术(北京)有限公司 | 语音识别方法和装置 |
CN105261358A (zh) * | 2014-07-17 | 2016-01-20 | 中国科学院声学研究所 | 用于语音识别的n元文法模型构造方法及语音识别*** |
CN104134439A (zh) * | 2014-07-31 | 2014-11-05 | 深圳市金立通信设备有限公司 | 一种习惯用语的获取方法、装置及*** |
CN104134439B (zh) * | 2014-07-31 | 2018-01-12 | 深圳市金立通信设备有限公司 | 一种习惯用语的获取方法、装置及*** |
CN104572614A (zh) * | 2014-12-03 | 2015-04-29 | 北京捷通华声语音技术有限公司 | 一种语言模型的训练方法及*** |
CN106354716A (zh) * | 2015-07-17 | 2017-01-25 | 华为技术有限公司 | 转换文本的方法和设备 |
CN106354716B (zh) * | 2015-07-17 | 2020-06-02 | 华为技术有限公司 | 转换文本的方法和设备 |
CN106816148A (zh) * | 2015-11-30 | 2017-06-09 | 三星电子株式会社 | 语音识别设备和方法 |
CN106816148B (zh) * | 2015-11-30 | 2022-04-22 | 三星电子株式会社 | 语音识别设备和方法 |
CN105702252B (zh) * | 2016-03-31 | 2019-09-17 | 海信集团有限公司 | 一种语音识别方法及装置 |
CN105702252A (zh) * | 2016-03-31 | 2016-06-22 | 海信集团有限公司 | 一种语音识别方法及装置 |
CN106356054A (zh) * | 2016-11-23 | 2017-01-25 | 广西大学 | 一种基于语音识别的农产品信息采集方法和*** |
CN106611597B (zh) * | 2016-12-02 | 2019-11-08 | 百度在线网络技术(北京)有限公司 | 基于人工智能的语音唤醒方法和装置 |
CN106611597A (zh) * | 2016-12-02 | 2017-05-03 | 百度在线网络技术(北京)有限公司 | 基于人工智能的语音唤醒方法和装置 |
CN110291582A (zh) * | 2017-02-14 | 2019-09-27 | 谷歌有限责任公司 | 语言模型偏置*** |
CN110291582B (zh) * | 2017-02-14 | 2023-02-28 | 谷歌有限责任公司 | 语言模型偏置*** |
CN107274903B (zh) * | 2017-05-26 | 2020-05-19 | 北京搜狗科技发展有限公司 | 文本处理方法和装置、用于文本处理的装置 |
CN107274903A (zh) * | 2017-05-26 | 2017-10-20 | 北京搜狗科技发展有限公司 | 文本处理方法和装置、用于文本处理的装置 |
CN110310623B (zh) * | 2017-09-20 | 2021-12-28 | Oppo广东移动通信有限公司 | 样本生成方法、模型训练方法、装置、介质及电子设备 |
CN110310623A (zh) * | 2017-09-20 | 2019-10-08 | Oppo广东移动通信有限公司 | 样本生成方法、模型训练方法、装置、介质及电子设备 |
CN107871499B (zh) * | 2017-10-27 | 2020-06-16 | 珠海市杰理科技股份有限公司 | 语音识别方法、***、计算机设备及计算机可读存储介质 |
CN108829894B (zh) * | 2018-06-29 | 2021-11-12 | 北京百度网讯科技有限公司 | 口语词识别和语义识别方法及其装置 |
CN108829894A (zh) * | 2018-06-29 | 2018-11-16 | 北京百度网讯科技有限公司 | 口语词识别和语义识别方法及其装置 |
CN109976702A (zh) * | 2019-03-20 | 2019-07-05 | 青岛海信电器股份有限公司 | 一种语音识别方法、装置及终端 |
CN111951784A (zh) * | 2020-08-25 | 2020-11-17 | 睿云联(厦门)网络通讯技术有限公司 | 语音识别中垃圾词的生成方法及装置、介质、电子设备 |
CN111951784B (zh) * | 2020-08-25 | 2023-05-23 | 睿云联(厦门)网络通讯技术有限公司 | 语音识别中垃圾词的生成方法及装置、介质、电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101604520A (zh) | 基于统计模型和语法规则的口语语音识别方法 | |
CN110364171B (zh) | 一种语音识别方法、语音识别***及存储介质 | |
CN103065630B (zh) | 用户个性化信息语音识别方法及*** | |
CN109410914B (zh) | 一种赣方言语音和方言点识别方法 | |
CN109255113B (zh) | 智能校对*** | |
CN105957518B (zh) | 一种蒙古语大词汇量连续语音识别的方法 | |
CN100536532C (zh) | 自动加配字幕的方法和*** | |
CN100559462C (zh) | 语音处理装置、语音处理方法、程序、和记录介质 | |
JP5040909B2 (ja) | 音声認識辞書作成支援システム、音声認識辞書作成支援方法及び音声認識辞書作成支援用プログラム | |
CN101326572B (zh) | 具有巨大词汇量的语音识别*** | |
CN108492820A (zh) | 基于循环神经网络语言模型和深度神经网络声学模型的中文语音识别方法 | |
CN109637537B (zh) | 一种自动获取标注数据优化自定义唤醒模型的方法 | |
CN101650886B (zh) | 一种自动检测语言学习者朗读错误的方法 | |
CN101510222A (zh) | 一种多层索引语音文档检索方法及其*** | |
CN102568475A (zh) | 用于普通话水平测评的***和方法 | |
San-Segundo et al. | Confidence measures for spoken dialogue systems | |
CN103632663B (zh) | 一种基于hmm的蒙古语语音合成前端处理的方法 | |
CN100354929C (zh) | 语音处理设备、语言处理方法 | |
KR101410601B1 (ko) | 유머 발화를 이용하는 음성 대화 시스템 및 그 방법 | |
KR100704508B1 (ko) | N-gram 네트워크를 이용하는 한국어 연속음성인식의언어모델 적응장치 및 그 방법 | |
Hori et al. | Deriving disambiguous queries in a spoken interactive ODQA system | |
CN114863914A (zh) | 构建端到端语音评测模型的深度学习方法 | |
CN1346112A (zh) | 汉语连续语音识别的集成预测搜索方法 | |
Cho | Leveraging Prosody for Punctuation Prediction of Spontaneous Speech | |
Arısoy et al. | Turkish dictation system for broadcast news applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C12 | Rejection of a patent application after its publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20091216 |