CN102411931A - 用于大词汇量连续语音识别的深度信任网络 - Google Patents
用于大词汇量连续语音识别的深度信任网络 Download PDFInfo
- Publication number
- CN102411931A CN102411931A CN2011102890150A CN201110289015A CN102411931A CN 102411931 A CN102411931 A CN 102411931A CN 2011102890150 A CN2011102890150 A CN 2011102890150A CN 201110289015 A CN201110289015 A CN 201110289015A CN 102411931 A CN102411931 A CN 102411931A
- Authority
- CN
- China
- Prior art keywords
- hmm
- dbn
- training
- probability
- gmm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 48
- 238000012549 training Methods 0.000 claims description 66
- 238000005070 sampling Methods 0.000 claims description 25
- 230000009471 action Effects 0.000 claims description 15
- 230000007704 transition Effects 0.000 claims description 15
- 238000013528 artificial neural network Methods 0.000 claims description 12
- 230000000712 assembly Effects 0.000 claims description 5
- 238000000429 assembly Methods 0.000 claims description 5
- 230000001419 dependent effect Effects 0.000 abstract description 3
- 230000008569 process Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 238000013507 mapping Methods 0.000 description 6
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000013500 data storage Methods 0.000 description 3
- 238000003066 decision tree Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 229910000497 Amalgam Inorganic materials 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000007430 reference method Methods 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及用于大词汇量连续语音识别的深度信任网络。在此描述了一种方法,该方法包括致使处理器接收采样的行为,其中该采样是讲出的发言、在线手写采样或者移动图像采样之一。该方法还包括致使处理器至少部分基于深度结构与依赖于上下文的隐马尔科夫模型(HMM)的组合的输出对该采样进行解码的动作,其中该深度结构被配置为输出依赖于上下文的单元的后验概率。该深度结构是深度信任网络,其包括许多层非线性单元,这些非线性单元具有通过预训练步骤以及之后的细调步骤所训练的层之间的连接权重。
Description
技术领域
本发明涉及用于大词汇量连续语音识别的深度信任网络。
背景技术
语音识别已经是大量研究和商业开发的课题。例如,语音识别***已经并入到移动电话、台式计算机、汽车等等中以便提供对用户所提供的语音输入的具体响应。例如,在配备有语音识别技术的移动电话中,用户可以讲出移动电话中所列出的联系人的姓名,并且移动电话可以发起对该联系人的呼叫。此外,许多公司当前正在使用语音识别技术在标识出公司雇员以及标识出产品或服务的问题等等方面来帮助顾客。
然而,即使在几十年的研究以后,自动语音识别(ASR)***在现实世界使用场景中的性能依然远远不能令人满意。按常规而言,隐马尔科夫模型(HMM)已经是用于大量词汇连续语音识别(LVCSR)的主要技术。HMM是一种生成性模型,其中可观察的声学特性被假定是从在状态S={s1,…,sK}之间转移的隐马尔科夫过程生成的。HMM中的关键参数是:初始状态概率分布π={qt=sj|qt-1=si},其中qt是在时间t的状态;转移概率aij=p(qt=sj|qt-1=si);以及用于估计观察概率p(xt|si)的模型。
在用于ASR的常规HMM中,观察概率是使用高斯混合模型(GMM)被建模的。这些GMM-HMM通常被训练以最大化生成所观察到的特性的可能性。最近,已经开发出了各种区别策略和大余量技术。然而,这样的技术的潜力受到GMM发射分布模型的局限性的限制。
已经尝试了扩展常规的GMM-HMM架构,使得区别性训练成为模型的固有部分。例如,已经提出使用人工神经网络(ANN)来估计观察概率。这样的模型已经被称为ANN-HMM混合模型,并且在不久前曾被认为是用于LVCSR的有前景的技术。然而,这样的混合体已经与许多局限性相关联。例如,仅仅使用反向传播来训练前馈ANN未良好地利用两个以上的隐藏层。因此,在常规ASR***存在不足的条件下,所期望的是改进的ASR***。
发明内容
以下是在本文详细描述的主题的简要概述。本发明内容不旨在是关于权利要求的范围的限制。
在此描述了与自动语音识别(ASR)有关的各种技术。更具体而言,在此描述了与供用在ASR中的依赖于上下文的深度信任网络(DBN)-隐马尔科夫模型(HMM)有关的各种技术。DBN可以被配置为输出senone的分布,并且HMM可以被配置为输出senone之间的转移概率。Senone是可以由HMM中的状态来表示的基本子音素单元。可替代地,如果HMM中的状态的数目极其巨大,则senone可以被表示为聚类的依赖于状态的输出分布。这两个输出可以被解码器用于对采样进行解码,其中该采样是讲出的词语、词语的一部分、或者短语。
此外,在此描述了训练DBN-HMM以供在ASR中使用。根据一示例,DBN-HMM可以使用嵌入式韦特比(Viterbi)算法来训练。为了支持训练和利用DBN-HMM,可以开发出一系列工具。这样的工具中的一些包括:用于将高斯混合模型(GMM)-HMM转换成DBN-HMM的工具、用于将训练数据中的帧对齐以训练DBN-HMM的工具、以及DBN-HMM解码器。
尽管依赖于上下文的DBN-HMM在此已经参考了DBN-HMM结合ASR的训练和利用,但是应当理解,依赖于上下文的DBN-HMM可以用在其他上下文中。例如,依赖于上下文的DBN-HMM可以与在线手写识别和自动人类活动识别/检测结合使用。此外,可以使用DBN以外的其他深度结构来执行ASR和其他顺序模式识别任务。
在阅读并理解了附图和描述后,可以明白其他方面。
附图说明
图1是通过利用混合深度信任网络(DBN)-隐马尔科夫模型(HMM)来促进执行自动语音识别(ASR)的示例性***的功能框图。
图2是混合DBN-HMM的示例性描述。
图3是促进训练DBN-HMM的示例***的功能框图。
图4是促进预训练DBN的示例***的功能框图。
图5是示出用于通过利用混合DBN-HMM来对采样进行解码的示例方法的流程图。
图6是示出用于训练DBN-HMM以供在ASR***中使用的示例性方法的流程图。
图7示出了示例性的深度隐藏条件随机场。
图8是示例性计算***。
具体实施方式
现在将参考附图来描述关于自动语音识别(ASR)***的各种技术,其中贯穿全文,相同的附图标记表示相同的元素。另外,本文出于解释的目的示出并描述了各示例***的若干功能框图;然而可以理解,被描述为由特定***组件执行的功能可以由多个组件来执行。类似地,例如可以将一组件配置为执行被描述为由多个组件执行的功能,并且在此所述的方法中的一些步骤可以被省略、重排序、或者组合。
参考图1,示出了促进执行ASR的示例性***100。***100包括接收采样104的语音识别***102。该采样可以是来自个体的在特定时间量内所讲出的词语(例如其通过利用麦克风被捕捉)。采样104可以通过利用模数转换器来被数字化,并且可以在期望时受到某种形式的归一化。尽管在此所提供的示例指示:采样104是讲出的发言,但是应当理解,***100可以被配置为执行在线手写识别和/或实时姿势识别。因此,采样104可以是在线手写采样或者描述诸如人类之类的对象的运动的视频信号。
语音识别***102包括依赖于上下文的深度信任网络(DBN)-隐马尔科夫模型(HMM)***106。DNB是一种概率生成性模型,其具有处于表示数据矢量的所观察到的变量的单个底层之上的多层随机隐藏单元。前馈人工神经网络(ANN)也可以被认为是DBN,其中前馈人工神经网络的权重已经以下面所描述的预训练阶段的方式被初始化。HMM是一种生成性模型,其中可观测的声学特性被假定是从在状态S={s1,…,sK}之间转移的隐马尔科夫过程生成的。DBN-HMM***106是依赖于上下文的,因为DBN被配置为接收从采样104导出的观察的矢量以及输出关于senone对应于采样104的概率。Senone是可以由HMM中的状态来表示的基本子音素单元。可替代地,如果HMM中的状态的数目极其巨大,则senone可以被表示为聚类的依赖于状态的输出分布。DBN-HMM***106中的HMM确定senone之间的转移概率。因此,DBN-HMM***106中的DBN可以输出关于senone的概率。语音识别***102还包括解码器108,该解码器接收DBN-HMM***106的输出,并且生成输出110,其中输出110是对对应于采样104的词语或短语的指示。
根据一示例,语音识别***102可以部署在多种上下文中。例如,语音识别***102可以部署在移动电话中,使得移动电话可以响应于用户所讲出的命令作出行动。在另一示例中,语音识别***102可以部署在汽车中,使得汽车可以响应于用户所讲出的命令作出行动。内部可以采用语音识别***102的其他***包括自动转录***、工业自动化***、银行***、以及其他采用ASR技术的合适***。
附加地,依赖于上下文的DBN-HMM***106可以部署在其他类型的***中。例如,DBN-HMM***106可以用在在线手写字符识别***中(例如在个体在触敏屏上书写的情况下)。在这样的实施例中,DBN-HMM***106中的DBN可以被配置为输出关于任意上下文单元的概率(senone与音素单元相关并且因此不适用于这样的***)。另外还有,DBN-HMM***106中的DBN可以被其他一些合适的深度结构代替。另一类型的深度结构的示例包括深度结构化的条件随机场(CRF)或者其他深度结构常规神经网络。
现在参考图2,示出了示例的DBN-HMM 200。DBN-HMM 200包括DBN202。DBN 202可以接收采样110或其一些衍生物,其可以分割成随时间t的多个所观察到的变量204。所观察到的变量204可以表示时间上不同的实例的数据矢量。DBN 202还包括多层随机隐藏单元206。DBN 202具有顶部两层随机隐藏单元206之间的非定向连接208以及从上面的层到所有其他层的定向连接210。在下面将详细描述的预训练阶段期间,可以将权重w分别分配给定向和非定向连接208和210。附加地或可替代地,DBN 202可以是使用DBN预训练策略被预训练的前馈神经网络,其中λ是用于将二元概率的矢量转换成多项概率(在这种情况下为多senone)的softmax权重。
在该示例性的实施例中,DBN 202可以被训练为使得最上面的层(第M层)中的输出单元可以被建模为依赖于上下文的单元,比如senone。更详细而言,DBN-HMM 200包括HMM 212。HMM 212例如可以被配置为输出多个senone 214的转移概率。转移概率被示为HMM 212的senone 214组之间的定向箭头216。在此处将描述的训练阶段期间,DBN 202的输出单元可以在HMM 212中的senone 214对齐,其中这样的输出单元通过softmax权重λ对senone后验概率进行建模。HMM 212可以输出senone 214之间的转移概率。如下面将会示出的那样,这样的输出(senone后验概率和转移概率)可以用于对采样110进行解码。
通过使用DBN 202更好地预测senone,依赖于上下文的DBN-HMM 200可以实现在与常规三音素GMM-HMM相比时改善的识别精确度。更确切而言,解码器108(图1)可以按如下方式确定经编码的词语序列:
其中p(w)是语言模型(LM)概率,并且
p(x|w)=∑q p(x,q|w)p(q|w) (2)
是声学模型(AM)概率。值得注意的是,观察概率
p(xt|qt)=p(qt|xt)p(xt)/p(qt) (4)
其中p(xt|qt)是从DBN 202中估计的状态(senone)后验概率,p(qt)是从训练集合中估计的每个状态(senone)的先验概率,并且p(xt)不依赖于词语序列并且因此可以被忽略。值得注意的是,在一些条件下,除以先验概率p(qt)不能改善识别精确度,并且因此可以被省略。然而,尤其是当训练发言包括相对长的无声片段时,除以先验概率可以减轻标签偏差问题。
另外值得注意的是,增加正确状态的可以自动地减小竞争状态的概率。给定上述条件,发言(采样110)的正确词语序列可以被表示成并且与相关联的最佳对齐可以使用GMM-HMM,并且DBN-HMM可以分别被表示成和另外可以假定:DBN可以更好地估计帧后验概率,例如
其中当采用DBN-HMM时,≥步骤保持,因为是比更好的对齐。这暗示:由于帧级后验概率(或似然性)使用来自GMM-HMM(其在下面描述)的对齐而被改善,正确词语序列的后验概率可以被改善并且更好的识别精确度可以获得。
现在参考图3,示出了促进训练DBN-HMM***106的示例性***300。***300包括转换器/训练器组件302,其接收经训练的GMM-HMM***304,并且将这样的***304转换成DBN-HMM***。GMM-HMM***304可以是已经根据常规的训练技术进行了训练的最佳绑定状态的依赖于上下文的GMM-HMM***,其中状态绑定是基于数据驱动的决策树被确定的。GMM-HMM可以被表示成gmm-hmm以供参考。
转换器/训练器组件302包括分析器组件306,该分析器组件分析gmm-hmm并且从0开始给每个senone分配有序的senone标识符。Senone标识符可以被表示成senoneid。分析器组件306可以进一步分析gmm-hmm以生成从训练数据中的每个物理三音素状态到相应senoneid的映射。该映射可以被表示成state2id。
转换器/训练器组件302进一步包括转换器组件308,该转换器组件使用senone到senoneid映射将gmm-hmm转换成DBN-HMM。该DBN-HMM可以被表示成dbn-hmm1。来自gmm-hmm的三音素和senone结构可以被转换器组件308用于生成dbn-hmm1。
转换器/训练器组件302还包括预训练器组件301,该预训练器组件可以在dbn-hmm1中的DBN中自底向上对每个层进行预训练。下面将提供关于预训练的更多细节。所得到的经预训练的DBN可以被称为ptdbn。
扩充器组件312可以然后扩充词典使得每个词语发音都具有至少两个更多的变型:第一变型,其中短的停顿(sp)被附加到每个词语;以及第二变型,其中无声(sil)被添加到每个词语。经扩充的词典可以被表示成lex-aug。
转换器/训练器组件302进一步包括对齐器组件314,该对齐器组件可以利用gmm-hmm来生成用于训练经训练的GMM-HMM***304的训练数据集的状态级对齐。该对齐可以被表示成align-raw(对齐-粗略)。该对齐器组件314可以之后将每个三音素状态转换成senoneid,由此将align-raw转换成align(对齐)。
调谐器组件316可以之后利用与align中的每帧相关联的senoneid来使用反向传播或其他合适的方法从ptdbn开始对DBN进行细调。换言之,对ptdbn中的层之间的连接所分配的权重可以在执行反向传播时被用作初始权重。经细调的DBN可以被表示成dbn。
转换器/训练器组件302可以进一步包括估计器组件318,该估计器组件可以估计先验概率p(si)=n(si)/n,其中n(si)是与align中的senone Si相关联的帧的数目,并且n是帧的总数。然后,估计器组件318可以使用dbn和dbn-hmm1重新估计转移概率以最大化观察到特征的似然性。该新的DBN-HMM可以被表示成dbn-hmm2。
然后,可以给dbn-hmm2提供确认数据,并且可以至少部分基于dbn-hmm2的输出对确认采样进行解码。如果确认数据中不存在所观察到的识别精确度改善,则dbn-hmm2可以被用作DBN-HMM***106。否则,可以采用dbn、dbn-hmm2、以及lex-aug来生成训练数据上的新的状态级对齐align-raw。然后,对齐器组件314可以接收align-raw,并且对齐器组件314、调谐器组件316、以及估计器组件318可以如上面所述那样操作,直到不存在识别精确度改善。训练的结果是DBN-HMM***106,该DBN-HMM***可以部署在语音识别***102中。
应当理解,上述过程在本质上是示例性的,并且不旨在在所附权利要求书的范围方面进行限制。例如,上述过程可以以各种方式进行修改。例如,分析器组件306和转换器组件308可以相组合,并且由转换器/训练器组件302所承担的彼此之间没有依赖性的动作可以被重排序。附加地,DBN-HMM***106可以在不将GMM-HMM用作初始模型的情况下被直接训练,在这种条件下,与GMM-HMM转换相关的步骤/组件可以被省略。在这种情况下,可以添加如下组件:所述组件被配置为构建决策树以绑定依赖于上下文的音素以及生长DBN-HMM。
在一示例性的实施例中,所得到的DBN-HMM***106中的每个senone都可以被标识为(伪)单混合高斯,该(伪)单混合高斯的尺寸等于senone的总数。例如,该高斯的方差(精度)可以是不相关的,并且可以被设置成任何正值(例如总是被设置成1)。每个senone的平均值的第一尺寸的值可以被设置成上述相应的senoneid。其他尺寸的值可以被设置成任何值,比如0。在这样的实施例中,对每个senone求值基本上等价于利用由senoneid指示的索引对由DBN产生的特性(对数似然性)进行查表。
现在转到图4,示出了促进最初训练DBN的示例性***400。具体而言,***400可以用于输出上述ptdbn。在一示例性实施例中,经训练的受限玻尔兹曼机(RBM)可以结合输出ptdbn使用。RBM是一种非定向图形模型,其根据二元随机隐藏单元层和随机可见单元层来构建,该层例如可以是以隐藏单元为条件的柏努利或高斯分布。可见和隐藏单元形成不具有可见-可见或隐藏-隐藏连接的二分图。具体而言,可以假定可见单元是二元的。在此描述可以如何处理实数值语音数据。
RBN根据下式将能量分配给分别由v和h来表示的可见和隐藏状态矢量的每个配置:
E(v,h)=-bTv-cTh-vTWh, (7)
其中w是可见/隐藏连接权重的矩阵,b是可见单元偏差,并且c是隐藏单元偏差。可见和隐藏单元的任何特定设定的概率可以按下式根据该配置的能量来给定:
其中归一化因子Z=∑v,he-E(v,h)被称为分割函数。每个中都缺乏直接连接允许导出P[v,h]和P[h,v]的相对简单精确的表达式,因为可见单元在给定隐藏单元状态的情况下是有条件地独立的,并且反之亦然。对于二元情况而言,可以获得下式:
P(h|v)=σ(c+vTW) (9)
P(v|h)=σ(b+hTWT) (10)
其中σ表示按元素的逻辑斯蒂S形曲线(logistic sigmoid),σ(x)=(1+e-x)-1。
在RBM中,数据的对数似然性的梯度是难以精确计算的。对于任意模型参数θ,数据的对数似然性的导数的一般形式可以为如下形式:
具体而言,对于可见-隐藏权重更新,可以获得下式:
Δwij∝<vihj>data-<vihj>model (12)
第一期望<vihj>data是可见单元vi和隐藏单元hj在训练数据中一起启用的频率,并且<vihj>model是在由该模型定义的分布下的该相同期望。项<.>model可以为了精确计算而采取指数量的时间——因此,可以采用逼近。由于RBM是玻尔兹曼机与专家模型的积之间的交集,因此它们可以使用对比散度(CD)来训练。可见-隐藏权重的一步CD更新为如下形式:
Δwij∝<vihj>data-<vihj>1, (13)
其中<.>1表示一步重建的期望。换言之,期望可以利用通过运行吉布斯(Gibbs)采样器生成的采样(其使用等式(9)和(10)来定义)被计算出,并且针对一个完整步对数据初始化。其他模型参数的类似更新规则可以通过用能量函数的合适部分导数替换等式(13)中的来导出。
尽管具有等式(1)的能量函数的RBM适用于二元数据,但是在语音识别中,声学输入通常是用实数值特征矢量来表示的。高斯-柏努利受限的玻尔兹曼机(GRBM)仅仅需要稍微修改等式(7)。因此,可以结合预训练GBN使用的示例性GRBM能量函数为如下形式:
应当注意,等式(14)显式地假定可见单元具有每个尺寸的方差为1的对角协方差高斯噪声模型。在GRBM情况下,等式(9)不改变,但是等式(10)变为如下形式:
其中I是合适的单位矩阵。在一示例性的实施例中,可见单元可以被设置成等于其平均值,而不是从上面的分布中采样。
***400包括RBM训练器组件402,该训练器组件接收RBM 404或GRBM(统称RBM 404)并且如上面所描述的那样通过利用CD来训练这样的RBM 404以生成经训练的RBM 406。经训练的RBM 406然后可以用于重新表示期望用于训练DBN的训练数据。更具体而言,***400包括预训练器组件310,该预训练器组件被配置为接收DBN以及生成ptdbn。为了为每个数据矢量v执行预训练,可以采用等式(9)来计算隐藏单元激活概率h的矢量。这样的隐藏激活概率可以用作新的RBM的训练数据。因此,每组RBM权重都可以用于从上一层的输出中提取特征。一旦预训练器组件310停止训练RBM,就可以获得ANN的隐藏层的所有权重的初始值,其中该ANN具有与经训练的RBM的数目相等数目的隐藏层。预训练器组件310的输出可以是经预训练的DBN 408(ptdbn)。在预训练以后,可以添加softmax输出层并且使用反向传播来加以区分地细调网络中的所有权重。
现在参考图5和6,示出并描述了示例性方法。尽管所述方法被描述为顺序执行的一系列动作,但能够理解,该方法不受该顺序的次序的限制。例如,一些动作能以与本文描述的不同的次序发生。另外,动作可以与另一动作同时发生。此外,在一些情况下,实现本文描述的方法并不需要所有动作。
此外,本文描述的动作可以是可由一个或多个处理器实现的和/或存储在一个或多个计算机可读介质上的计算机可执行指令。计算机可执行指令可包括例程、子例程、程序、执行的线程等。此外,该方法的动作的结果可以存储在计算机可读介质中,在显式设备上显式和/或等等。计算机可读介质可以是非瞬时介质、诸如存储器、硬盘驱动器、CD、DVD、闪存驱动器等。
单单参考图5,示出了促进对个体的发言进行解码的示例性方法500。方法500始于502,并且在504从用户接收采样发言。该发言可以是单个词语或n个词语的序列。在506,使用依赖于上下文的DBN-HMM来生成关于该发言的senone的后验概率以及senone之间的转移概率。在508,至少部分基于由依赖于上下文的DBN-HMM所输出的后验概率和转移概率来对采样发言进行解码。方法500在510完成。
现在转到图6,示出了促进训练DBN-HMM以供在语音识别***中使用的示例性方法600。方法600对应于上述***300。方法600始于602,并且在604使用加标签的数据来训练GMM-HMM***。例如,GMM-HMM可以是聚类的交叉词语三音素GMM-HMM,该GMM-HMM是使用加标签的数据利用最大似然性(ML)、最大互信息(MMI)以及最小音素差错(MPE)标准而被训练的。该GMM-HMM可以使用状态绑定的三音素模型,其中绑定结构是至少部分基于数据驱动的决策树而确定的。再次,该GMM-HMM可以被表示成gmm-hmm。
在606,分析gmm-hmm,并且给每个senone赋予从0开始的有序的senoneid。附加地,分析gmm-hmm以生成从gmm-hmm中的每个物理三音素状态到相应senoneid的映射。该映射可以被表示成state2id。
在608,使用state2id映射将gmm-hmm转换成相应的DBN-HMM(dbm-hmm1)。gmm-hmm的三音素和senone结构可以用在dbm-hmm1中。
在610,使用结合图4所描述的自底向上逐层算法来训练dbm-hmm1中的DBN中的每层以创建ptdbn。
在612,扩充词典使得每个词语发音都具有至少两个附加的变型:一个附加有短的停顿(sp),以及一个附加有无声(sil)。经扩充的词典可以被表示成lex-aug。
在614,使用gmm-hmm和lex-aug对加标签的训练数据生成状态级对齐,使得训练数据中的基本上相似的三音素状态彼此对齐。
在616,加标签的训练数据中的三音素状态被转换成senoneid以生成align(对齐)。由于senoneid被映射到三音素状态,因此能够理解,senoneid也可以被映射到训练数据中的帧。
在618,从ptdbn开始使用反向传播或其他合适的技术将与align中的每帧相关联的senoneid用于细调DBN。所得到的DBN可以被表示成dbn。
在620,确定senone的先验概率。p(si)=n(si)/n,其中n(si)是与align中的senone si相关联的帧的数目,并且n是帧的总数。
在622,使用dbn和dbn-hmm1来重新估计senone之间的转移概率以最大化观察到加标签的数据中的特征的似然性。换言之,在618的细调动作中学习到的权重可以用于将特征转换成senone后验概率。该后验概率可以除以在动作620确定的先验概率以生成转移概率。经更新的DBN-HMM可以被表示成dbn-hmm2。
在624,将确认数据集提供给dbn-hmm2,并且这样的确认数据集基于dbn-hmm2的输出被解码。如果识别到改善,则在626,可以使用dbn、dbn-hmm2和lex-aug来生成新的状态级对齐align-raw,并且方法可以返回到616。如果在确认数据集中未看到识别精确度改善,则可以输出dbn-hmm2以供在语音识别***中使用,并且方法600在628完成。
同样,如上所述,方法600中的一些动作可以相组合或者省略。例如,在一示例性实施例中,可以不使用GMM-HMM来构建DBN-HMM。附加地,参照方法600所描述的一个或多个动作可以省略或者与其他动作相组合。
上面所示和所述的***和方法总体上涉及将混合的DBN用在语音识别***中,如上所示,可以使用其他深度结构。可以使用的示例性深度结构是深度隐藏条件随机场(DHCRF)。现在参考图7,示出了示例性的DHCRF 700。在一示例中,DHCRF的第N层可以是隐藏条件随机场(HCRF),并且中间层可以是不使用状态转移特征的第0阶CRF。
在一示例性DHCRF 700中,层j处的观察序列oj包括两部分:在先层的观察序列oj-1、以及从在先层j-1中计算出的帧级对数余量后验概率其中是层j-1处的状态值。在第一层处的粗略观察可以表示为o=[ot],t=1,…,T。
DHCRF中的参数估计和序列推断二者都可以自底向上逐层地执行。最后一层的状态序列条件概率可以示为如下形式:
其中N是层的总数,(·)T是(·)的转置,是最后一层处的观察序列,w是输出序列(senone、音素、词语等等),是假设的状态序列,f(w,sN,oN)=[f1(w,sN,oN),…,fT(w,sN,oN)]T是最后一层处的特征矢量,是模型参数(权重矢量),并且 是保证概率p(w|oN;λN)和为1的分割函数(归一化因子)。能够确定,可以通过仅仅对无效音素或词语序列进行求和来排除无效序列。
与最后一层形相比,中间层j处的状态条件概率可以为下列形式:
这在两方面不同于(16)。首先,在(17)中未使用转移特征,并且观察特征f(sj,oj)可以简化为这在下面予以定义。其次,在(17)中未对具有所有可能的分段的状态序列进行求和。
DHCRF的权重可以使用受监督和不受监督的学习来习得。对DHCRF 700的训练监督仅在最后一层处可用,并且可以直接由要解决的问题来确定。例如,在音素识别任务中,音素序列w在训练阶段期间在最后一层处是已知的。因此,最后一层处的参数估计可以以受监督的方式执行。然而,监督对中间层不可用,其中这些中间层的作用是将原始观察转换成一些中间抽象表示。出于该原因,可以使用不受监督的方法来学习中间层中的参数。
存在若干用于学***均帧级条件熵被最小化,并且状态占有熵在基本上相似的时间被最大化。最小化平均帧级条件熵可以迫使中间层是每个输入矢量的子类(或聚类)的清晰指标,同时最大化占有熵保证输入矢量由不同中间状态不同地表示。MOP优化算法改变优化这两个相对立的标准的步骤,直到不再可能有标准的进一步改善或者达到最大数目的迭代。然而,MOP优化可能在中间层中的类的数目变为更高(比如在音素识别任务中)时变得困难,因为难以在陷入局部最优的概率极大地增加的情况下控制何时切换为优化其他标准。
可替代地,可以采用基于GMM的算法来学习DHCRF 700中的中间层的参数。该算法可以利用逐层方法。一旦较低层已经被训练,则该层的参数就可以被固定,并且下一层的观察序列使用新近训练的较低层参数被生成。该过程可以继续,直到所有层都被训练。
更具体而言,为了学***均值和方差:
然后,CRF的在层j处的参数可以通过按下式最大化正则化的对数条件概率来习得:
其中k是发言ID,||.||1是L1用于实施与每个状态值相关联的参数的稀疏性的L1范数,是用于向较小权重赋予偏好的L2范数的平方,并且σ1和σ2是用于确定每个正则化项的重要性的正值。可以使用正则化的双平均方法来解决L1/L2正则化项的该优化问题。
根据一示例,可以在中间层中不使用转移特征。更确切而言,可以按下式仅仅使用第一和第二阶观察特征:
其中o是按元素的积。
DHCRF 700的最后一层可以被训练以以受监督的方式优化下式:
其中w(k)是没有分段信息的第k个发言的输出单元的标签。在最后一层中,可将下式用作特征:
其中当x为真时δ(x)=1并且否则δ(x)=0。是二元语言模型(LM)特征,其中每个输出单元序列w都包括I个输出单元(例如senone、音素或词语),是状态转移特征,并且和分别是从观察生成的第一和第二阶统计数据。
现在参考图8,示出了可以根据本文公开的***和方法使用的示例计算设备800的高级图示。例如,计算设备800可以用在支持ASR的***中。在另一示例中,计算设备800的至少一部分可以用在支持训练DBN-HMM以供在ASR使用的***中。计算设备800包括执行存储在存储器802中的指令的至少一个处理器804。存储器804可以是或可以包括RAM、ROM、EEPROM、闪存、或其它适合的存储器。这些指令可以是例如用于实现被描述为由上述一个或多个组件执行的功能的指令或用于实现上述方法中的一个或多个的指令。处理器802可以通过***总线806访问存储器804。附加于存储可执行指令,存储器804还可以存储训练数据集、确认数据集、GMM-HMM等等。
计算设备800附加地包括可由处理器802通过***总线806访问的数据存储808。数据存储可以是或可以包括任何合适的计算机可读存储,包括硬盘、存储器等。数据存储808可以包括可执行指令、GMM-HMM、训练数据集、确认数据集等等。计算设备800还包括允许外部设备与计算设备800进行通信的输入接口810。例如,可以使用输入接口810来从外部计算机设备、用户等接收指令。计算设备800还包括将计算设备800与一个或多个外部设备进行接口的输出接口812。例如,计算设备800可以通过输出接口812显示文本、图像等。
另外,尽管被示为单个***,但可以理解,计算设备800可以是分布式***。因此,例如,若干设备可以通过网络连接进行通信并且可共同执行被描述为由计算设备800执行的任务。
如此处所使用的,术语“组件”和“***”旨在涵盖硬件、软件、或硬件和软件的组合。因此,例如,***或组件可以是进程、在处理器上执行的进程、或处理器。另外,组件或***可以位于单个设备上或分布在若干设备之间。此外,组件或***可指存储器的一部分和/或一系列晶体管。
注意,出于解释目的提供了若干示例。这些示例不应被解释为限制所附权利要求书。另外,可以认识到,本文提供的示例可被改变而仍然落入权利要求的范围内。
Claims (15)
1.一种方法,包括以下计算机可执行动作:
致使处理器接收采样,其中该采样是讲出的发言、在线手写采样、或者描述物体的运动的视频信号之一;以及
致使处理器至少部分基于深度结构与隐马尔科夫模型(HMM)的依赖于上下文的组合的输出对该采样进行解码,其中该深度结构被配置为输出依赖于上下文的单元的后验概率。
2.如权利要求1所述的方法,其特征在于,该采样是讲出的发言,并且其中该依赖于上下文的单元是senone。
3.如权利要求1所述的方法,其特征在于,该深度结构是深度信任网络(DBN)。
4.如权利要求3所述的方法,其特征在于,该DNB是概率生成性模型,该概率生成性模型包括处于表示数据矢量的所观察到的变量的单个底层之上的多层随机隐藏单元。
5.如权利要求4所述的方法,其特征在于,该DBN是前馈人工神经网络(ANN)。
6.如权利要求1所述的方法,其特征在于,进一步包括:在该深度结构与该HMM的组合的训练阶段期间,从高斯混合模型(GMM)-HMM***中导出该深度结构与该HMM的组合。
7.如权利要求1所述的方法,其特征在于,进一步包括:在该深度结构与该HMM的组合的训练阶段期间,对该深度结构执行预训练。
8.如权利要求7所述的方法,其特征在于,该深度结构包括多个隐藏随机层,并且其中预训练包括使用不受监督的算法来初始化所述隐藏随机层之间的连接的权重。
9.如权利要求8所述的方法,其特征在于,进一步包括:使用反向传播来进一步细化所述隐藏随机层之间的连接的权重。
10.一种计算机实现的语音识别***,包括:
处理器(802);以及
能够由该处理器来执行的多个组件,所述多个组件包括:
深度结构与HMM的计算机可执行的组合(106),该组合(106)接收输入采样,其中该输入采样是讲出的发言或者在线手写采样之一,其中深度结构与HMM的组合输出与该输入采样有关的依赖于上下文的单元的随机分布;以及
解码器组件(108),该解码器组件(108)至少部分基于与该输入采样有关的依赖于上下文的单元的随机分布对来自该输入采样的词语序列进行解码。
11.如权利要求10所述的***,其特征在于,该输入采样是讲出的解码器,并且其中该依赖于上下文的单元是senone。
12.如权利要求10所述的***,其特征在于,该深度结构是深度信任网络(DBN)。
13.如权利要求12所述的***,其特征在于,该DNB是概率生成性模型,该概率生成性模型包括处于表示数据矢量的所观察到的变量的单个底层之上的多层随机隐藏单元。
14.如权利要求13所述的***,其特征在于,该组件进一步包括转换器/训练器组件,该转换器/训练器组件至少部分基于高斯混合模型(GMM)-HMM***生成深度结构与HMM的组合。
15.如权利要求12所述的***,其特征在于,该HMM被配置为输出与该输入采样相对应的依赖于上下文的单元之间的转移概率。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/882,233 | 2010-09-15 | ||
US12/882,233 US8972253B2 (en) | 2010-09-15 | 2010-09-15 | Deep belief network for large vocabulary continuous speech recognition |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102411931A true CN102411931A (zh) | 2012-04-11 |
CN102411931B CN102411931B (zh) | 2014-01-29 |
Family
ID=45807560
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201110289015.0A Active CN102411931B (zh) | 2010-09-15 | 2011-09-14 | 用于大词汇量连续语音识别的深度信任网络 |
Country Status (4)
Country | Link |
---|---|
US (1) | US8972253B2 (zh) |
EP (1) | EP2617030A4 (zh) |
CN (1) | CN102411931B (zh) |
WO (1) | WO2012036934A1 (zh) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103117060A (zh) * | 2013-01-18 | 2013-05-22 | 中国科学院声学研究所 | 用于语音识别的声学模型的建模方法、建模*** |
CN103514879A (zh) * | 2013-09-18 | 2014-01-15 | 广东欧珀移动通信有限公司 | 一种基于bp神经网络的本地语音识别方法 |
CN104541324A (zh) * | 2013-05-01 | 2015-04-22 | 克拉科夫大学 | 一种使用动态贝叶斯网络模型的语音识别***和方法 |
CN104751227A (zh) * | 2013-12-31 | 2015-07-01 | 安徽科大讯飞信息科技股份有限公司 | 深度神经网络的构建方法及*** |
CN105070288A (zh) * | 2015-07-02 | 2015-11-18 | 百度在线网络技术(北京)有限公司 | 车载语音指令识别方法和装置 |
CN105122279A (zh) * | 2013-03-06 | 2015-12-02 | 微软技术许可有限责任公司 | 在识别***中保守地适配深度神经网络 |
CN105702250A (zh) * | 2016-01-06 | 2016-06-22 | 福建天晴数码有限公司 | 语音识别方法和装置 |
CN105765650A (zh) * | 2013-09-27 | 2016-07-13 | 亚马逊技术公司 | 带有多向解码的语音辨识器 |
CN105895087A (zh) * | 2016-03-24 | 2016-08-24 | 海信集团有限公司 | 一种语音识别方法及装置 |
CN105931633A (zh) * | 2016-05-30 | 2016-09-07 | 深圳市鼎盛智能科技有限公司 | 语音识别的方法及*** |
CN106023995A (zh) * | 2015-08-20 | 2016-10-12 | 漳州凯邦电子有限公司 | 一种语音识别方法及运用该方法的穿戴式语音控制设备 |
CN106652999A (zh) * | 2015-10-29 | 2017-05-10 | 三星Sds株式会社 | 语音识别***以及方法 |
CN106663425A (zh) * | 2014-09-23 | 2017-05-10 | 英特尔公司 | 用于自动语音识别的使用外推的跳帧和按需输出的神经网络 |
CN107615376A (zh) * | 2015-05-22 | 2018-01-19 | 国立研究开发法人情报通信研究机构 | 声音识别装置及计算机程序 |
US10325200B2 (en) | 2011-11-26 | 2019-06-18 | Microsoft Technology Licensing, Llc | Discriminative pretraining of deep neural networks |
CN110462645A (zh) * | 2017-03-31 | 2019-11-15 | 微软技术许可有限责任公司 | 具有更新能力的传感器数据处理器 |
CN110808050A (zh) * | 2018-08-03 | 2020-02-18 | 蔚来汽车有限公司 | 语音识别方法及智能设备 |
CN114124472A (zh) * | 2021-11-02 | 2022-03-01 | 华东师范大学 | 一种基于gmm-hmm的车载网络can总线入侵检测方法及*** |
Families Citing this family (75)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9916538B2 (en) * | 2012-09-15 | 2018-03-13 | Z Advanced Computing, Inc. | Method and system for feature detection |
EP2867890B1 (en) * | 2012-06-28 | 2018-04-25 | Nuance Communications, Inc. | Meta-data inputs to front end processing for automatic speech recognition |
US9378464B2 (en) * | 2012-07-30 | 2016-06-28 | International Business Machines Corporation | Discriminative learning via hierarchical transformations |
US9292787B2 (en) | 2012-08-29 | 2016-03-22 | Microsoft Technology Licensing, Llc | Computer-implemented deep tensor neural network |
US9477925B2 (en) | 2012-11-20 | 2016-10-25 | Microsoft Technology Licensing, Llc | Deep neural networks training for speech and pattern recognition |
US9418334B2 (en) * | 2012-12-06 | 2016-08-16 | Nuance Communications, Inc. | Hybrid pre-training of deep belief networks |
CN103971678B (zh) * | 2013-01-29 | 2015-08-12 | 腾讯科技(深圳)有限公司 | 关键词检测方法和装置 |
US9842585B2 (en) | 2013-03-11 | 2017-12-12 | Microsoft Technology Licensing, Llc | Multilingual deep neural network |
US9099083B2 (en) | 2013-03-13 | 2015-08-04 | Microsoft Technology Licensing, Llc | Kernel deep convex networks and end-to-end learning |
US9190053B2 (en) * | 2013-03-25 | 2015-11-17 | The Governing Council Of The Univeristy Of Toronto | System and method for applying a convolutional neural network to speech recognition |
US9460711B1 (en) | 2013-04-15 | 2016-10-04 | Google Inc. | Multilingual, acoustic deep neural networks |
US9728184B2 (en) | 2013-06-18 | 2017-08-08 | Microsoft Technology Licensing, Llc | Restructuring deep neural network acoustic models |
US9589565B2 (en) | 2013-06-21 | 2017-03-07 | Microsoft Technology Licensing, Llc | Environmentally aware dialog policies and response generation |
US9311298B2 (en) | 2013-06-21 | 2016-04-12 | Microsoft Technology Licensing, Llc | Building conversational understanding systems using a toolset |
US9401148B2 (en) | 2013-11-04 | 2016-07-26 | Google Inc. | Speaker verification using neural networks |
US9620145B2 (en) | 2013-11-01 | 2017-04-11 | Google Inc. | Context-dependent state tying using a neural network |
US9514753B2 (en) | 2013-11-04 | 2016-12-06 | Google Inc. | Speaker identification using hash-based indexing |
CN103745002B (zh) * | 2014-01-24 | 2017-01-18 | 中国科学院信息工程研究所 | 一种基于行为特征与内容特征融合的水军识别方法及*** |
US9324321B2 (en) | 2014-03-07 | 2016-04-26 | Microsoft Technology Licensing, Llc | Low-footprint adaptation and personalization for a deep neural network |
US9529794B2 (en) | 2014-03-27 | 2016-12-27 | Microsoft Technology Licensing, Llc | Flexible schema for language model customization |
US9614724B2 (en) | 2014-04-21 | 2017-04-04 | Microsoft Technology Licensing, Llc | Session-based device configuration |
US9520127B2 (en) | 2014-04-29 | 2016-12-13 | Microsoft Technology Licensing, Llc | Shared hidden layer combination for speech recognition systems |
US9640186B2 (en) * | 2014-05-02 | 2017-05-02 | International Business Machines Corporation | Deep scattering spectrum in acoustic modeling for speech recognition |
US9384334B2 (en) | 2014-05-12 | 2016-07-05 | Microsoft Technology Licensing, Llc | Content discovery in managed wireless distribution networks |
US9430667B2 (en) | 2014-05-12 | 2016-08-30 | Microsoft Technology Licensing, Llc | Managed wireless distribution network |
US9384335B2 (en) | 2014-05-12 | 2016-07-05 | Microsoft Technology Licensing, Llc | Content delivery prioritization in managed wireless distribution networks |
US10111099B2 (en) | 2014-05-12 | 2018-10-23 | Microsoft Technology Licensing, Llc | Distributing content in managed wireless distribution networks |
US9874914B2 (en) | 2014-05-19 | 2018-01-23 | Microsoft Technology Licensing, Llc | Power management contracts for accessory devices |
US10037202B2 (en) | 2014-06-03 | 2018-07-31 | Microsoft Technology Licensing, Llc | Techniques to isolating a portion of an online computing service |
US9367490B2 (en) | 2014-06-13 | 2016-06-14 | Microsoft Technology Licensing, Llc | Reversible connector for accessory devices |
US10127901B2 (en) | 2014-06-13 | 2018-11-13 | Microsoft Technology Licensing, Llc | Hyper-structure recurrent neural networks for text-to-speech |
KR102332729B1 (ko) | 2014-07-28 | 2021-11-30 | 삼성전자주식회사 | 발음 유사도를 기반으로 한 음성 인식 방법 및 장치, 음성 인식 엔진 생성 방법 및 장치 |
US9536293B2 (en) * | 2014-07-30 | 2017-01-03 | Adobe Systems Incorporated | Image assessment using deep convolutional neural networks |
US9953425B2 (en) | 2014-07-30 | 2018-04-24 | Adobe Systems Incorporated | Learning image categorization using related attributes |
US9653093B1 (en) * | 2014-08-19 | 2017-05-16 | Amazon Technologies, Inc. | Generative modeling of speech using neural networks |
US10650805B2 (en) | 2014-09-11 | 2020-05-12 | Nuance Communications, Inc. | Method for scoring in an automatic speech recognition system |
US10783900B2 (en) | 2014-10-03 | 2020-09-22 | Google Llc | Convolutional, long short-term memory, fully connected deep neural networks |
US9824684B2 (en) | 2014-11-13 | 2017-11-21 | Microsoft Technology Licensing, Llc | Prediction-based sequence recognition |
US10540957B2 (en) * | 2014-12-15 | 2020-01-21 | Baidu Usa Llc | Systems and methods for speech transcription |
US10032071B2 (en) | 2014-12-23 | 2018-07-24 | Lenovo (Singapore) Pte. Ltd. | Candidate handwriting words using optical character recognition and spell check |
WO2016134183A1 (en) | 2015-02-19 | 2016-08-25 | Digital Reasoning Systems, Inc. | Systems and methods for neural language modeling |
US9928232B2 (en) * | 2015-02-27 | 2018-03-27 | Microsoft Technology Licensing, Llc | Topically aware word suggestions |
US10210464B2 (en) | 2015-03-11 | 2019-02-19 | Qualcomm Incorporated | Online training for object recognition system |
CN104657751B (zh) * | 2015-03-12 | 2017-10-20 | 华北电力大学(保定) | 一种基于主线方向特征的深度信念网络图像分类方法 |
US10403269B2 (en) | 2015-03-27 | 2019-09-03 | Google Llc | Processing audio waveforms |
US9818409B2 (en) * | 2015-06-19 | 2017-11-14 | Google Inc. | Context-dependent modeling of phonemes |
US9786270B2 (en) | 2015-07-09 | 2017-10-10 | Google Inc. | Generating acoustic models |
US10529318B2 (en) * | 2015-07-31 | 2020-01-07 | International Business Machines Corporation | Implementing a classification model for recognition processing |
US10339921B2 (en) * | 2015-09-24 | 2019-07-02 | Google Llc | Multichannel raw-waveform neural networks |
US10262654B2 (en) | 2015-09-24 | 2019-04-16 | Microsoft Technology Licensing, Llc | Detecting actionable items in a conversation among participants |
US10229700B2 (en) | 2015-09-24 | 2019-03-12 | Google Llc | Voice activity detection |
GB2544070B (en) * | 2015-11-04 | 2021-12-29 | The Chancellor Masters And Scholars Of The Univ Of Cambridge | Speech processing system and method |
CN105374357B (zh) * | 2015-11-23 | 2022-03-29 | 青岛海尔智能技术研发有限公司 | 一种语音识别方法、装置及语音控制*** |
JP6679898B2 (ja) * | 2015-11-24 | 2020-04-15 | 富士通株式会社 | キーワード検出装置、キーワード検出方法及びキーワード検出用コンピュータプログラム |
US10229672B1 (en) | 2015-12-31 | 2019-03-12 | Google Llc | Training acoustic models using connectionist temporal classification |
KR101720514B1 (ko) | 2016-02-26 | 2017-04-11 | 서강대학교산학협력단 | Dcica를 이용한 dnn 기반 특징향상을 수행하는 음성인식장치 및 방법 |
US9858340B1 (en) | 2016-04-11 | 2018-01-02 | Digital Reasoning Systems, Inc. | Systems and methods for queryable graph representations of videos |
JP6727607B2 (ja) | 2016-06-09 | 2020-07-22 | 国立研究開発法人情報通信研究機構 | 音声認識装置及びコンピュータプログラム |
US20180018973A1 (en) | 2016-07-15 | 2018-01-18 | Google Inc. | Speaker verification |
CN106228976B (zh) * | 2016-07-22 | 2019-05-31 | 百度在线网络技术(北京)有限公司 | 语音识别方法和装置 |
US10204097B2 (en) | 2016-08-16 | 2019-02-12 | Microsoft Technology Licensing, Llc | Efficient dialogue policy learning |
US10832129B2 (en) * | 2016-10-07 | 2020-11-10 | International Business Machines Corporation | Transfer of an acoustic knowledge to a neural network |
JP7113851B2 (ja) * | 2017-01-19 | 2022-08-05 | ハイディム ゲーエムベーハー | 生体の心機能を決定するデバイスおよび方法 |
CN107680582B (zh) | 2017-07-28 | 2021-03-26 | 平安科技(深圳)有限公司 | 声学模型训练方法、语音识别方法、装置、设备及介质 |
KR101880901B1 (ko) * | 2017-08-09 | 2018-07-23 | 펜타시큐리티시스템 주식회사 | 기계 학습 방법 및 장치 |
US10706840B2 (en) | 2017-08-18 | 2020-07-07 | Google Llc | Encoder-decoder models for sequence to sequence mapping |
CN108449295A (zh) * | 2018-02-05 | 2018-08-24 | 西安电子科技大学昆山创新研究院 | 基于rbm网络和bp神经网络的联合调制识别方法 |
US20190266246A1 (en) * | 2018-02-23 | 2019-08-29 | Microsoft Technology Licensing, Llc | Sequence modeling via segmentations |
EP3605465B1 (en) * | 2018-07-30 | 2020-12-30 | Siemens Healthcare GmbH | A method for determining a correspondence between a source image and a reference image |
CN109330494A (zh) * | 2018-11-01 | 2019-02-15 | 珠海格力电器股份有限公司 | 基于动作识别的扫地机器人控制方法、***、扫地机器人 |
US11631399B2 (en) * | 2019-04-16 | 2023-04-18 | Microsoft Technology Licensing, Llc | Layer trajectory long short-term memory with future context |
US11107475B2 (en) | 2019-05-09 | 2021-08-31 | Rovi Guides, Inc. | Word correction using automatic speech recognition (ASR) incremental response |
CN115280329A (zh) | 2019-10-25 | 2022-11-01 | 因思创新有限责任公司 | 用于查询训练的方法和*** |
CN111091809B (zh) * | 2019-10-31 | 2023-05-23 | 国家计算机网络与信息安全管理中心 | 一种深度特征融合的地域性口音识别方法及装置 |
US20220051104A1 (en) * | 2020-08-14 | 2022-02-17 | Microsoft Technology Licensing, Llc | Accelerating inference of traditional ml pipelines with neural network frameworks |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1773606A (zh) * | 2004-11-12 | 2006-05-17 | 中国科学院声学研究所 | 一种基于混淆网络的语音解码方法 |
US20100049503A1 (en) * | 2003-11-14 | 2010-02-25 | Xerox Corporation | Method and apparatus for processing natural language using tape-intersection |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5293456A (en) | 1991-06-28 | 1994-03-08 | E. I. Du Pont De Nemours And Company | Object recognition system employing a sparse comparison neural network |
US5317673A (en) * | 1992-06-22 | 1994-05-31 | Sri International | Method and apparatus for context-dependent estimation of multiple probability distributions of phonetic classes with multilayer perceptrons in a speech recognition system |
US6574597B1 (en) | 1998-05-08 | 2003-06-03 | At&T Corp. | Fully expanded context-dependent networks for speech recognition |
US7392185B2 (en) | 1999-11-12 | 2008-06-24 | Phoenix Solutions, Inc. | Speech based learning/training system using semantic decoding |
US7254538B1 (en) * | 1999-11-16 | 2007-08-07 | International Computer Science Institute | Nonlinear mapping for feature extraction in automatic speech recognition |
US6999931B2 (en) | 2002-02-01 | 2006-02-14 | Intel Corporation | Spoken dialog system using a best-fit language model and best-fit grammar |
WO2010025460A1 (en) | 2008-08-29 | 2010-03-04 | O3 Technologies, Llc | System and method for speech-to-speech translation |
US8239336B2 (en) * | 2009-03-09 | 2012-08-07 | Microsoft Corporation | Data processing using restricted boltzmann machines |
US20100299303A1 (en) * | 2009-05-21 | 2010-11-25 | Yahoo! Inc. | Automatically Ranking Multimedia Objects Identified in Response to Search Queries |
US9031844B2 (en) | 2010-09-21 | 2015-05-12 | Microsoft Technology Licensing, Llc | Full-sequence training of deep structures for speech recognition |
US9165243B2 (en) | 2012-02-15 | 2015-10-20 | Microsoft Technology Licensing, Llc | Tensor deep stacked neural network |
-
2010
- 2010-09-15 US US12/882,233 patent/US8972253B2/en active Active
-
2011
- 2011-09-06 WO PCT/US2011/050472 patent/WO2012036934A1/en active Application Filing
- 2011-09-06 EP EP11825687.4A patent/EP2617030A4/en not_active Withdrawn
- 2011-09-14 CN CN201110289015.0A patent/CN102411931B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100049503A1 (en) * | 2003-11-14 | 2010-02-25 | Xerox Corporation | Method and apparatus for processing natural language using tape-intersection |
CN1773606A (zh) * | 2004-11-12 | 2006-05-17 | 中国科学院声学研究所 | 一种基于混淆网络的语音解码方法 |
Non-Patent Citations (1)
Title |
---|
DANIEL JEREMY KERSHAW: "phonetic context-dependency in a hybrid ANN/HMM speech recognition system", 《PH.D THESIS UNIVERSITY OF CAMBRIDGE》, 28 January 1997 (1997-01-28) * |
Cited By (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10325200B2 (en) | 2011-11-26 | 2019-06-18 | Microsoft Technology Licensing, Llc | Discriminative pretraining of deep neural networks |
CN103117060A (zh) * | 2013-01-18 | 2013-05-22 | 中国科学院声学研究所 | 用于语音识别的声学模型的建模方法、建模*** |
CN103117060B (zh) * | 2013-01-18 | 2015-10-28 | 中国科学院声学研究所 | 用于语音识别的声学模型的建模方法、建模*** |
CN105122279A (zh) * | 2013-03-06 | 2015-12-02 | 微软技术许可有限责任公司 | 在识别***中保守地适配深度神经网络 |
CN105122279B (zh) * | 2013-03-06 | 2018-09-18 | 微软技术许可有限责任公司 | 在识别***中保守地适配深度神经网络 |
CN104541324A (zh) * | 2013-05-01 | 2015-04-22 | 克拉科夫大学 | 一种使用动态贝叶斯网络模型的语音识别***和方法 |
CN104541324B (zh) * | 2013-05-01 | 2019-09-13 | 克拉科夫大学 | 一种使用动态贝叶斯网络模型的语音识别***和方法 |
CN103514879A (zh) * | 2013-09-18 | 2014-01-15 | 广东欧珀移动通信有限公司 | 一种基于bp神经网络的本地语音识别方法 |
CN105765650B (zh) * | 2013-09-27 | 2019-08-06 | 亚马逊技术公司 | 带有多向解码的语音辨识器 |
CN105765650A (zh) * | 2013-09-27 | 2016-07-13 | 亚马逊技术公司 | 带有多向解码的语音辨识器 |
CN104751227A (zh) * | 2013-12-31 | 2015-07-01 | 安徽科大讯飞信息科技股份有限公司 | 深度神经网络的构建方法及*** |
CN104751227B (zh) * | 2013-12-31 | 2018-03-06 | 科大讯飞股份有限公司 | 用于语音识别的深度神经网络的构建方法及*** |
CN106663425A (zh) * | 2014-09-23 | 2017-05-10 | 英特尔公司 | 用于自动语音识别的使用外推的跳帧和按需输出的神经网络 |
CN107615376A (zh) * | 2015-05-22 | 2018-01-19 | 国立研究开发法人情报通信研究机构 | 声音识别装置及计算机程序 |
CN107615376B (zh) * | 2015-05-22 | 2021-05-25 | 国立研究开发法人情报通信研究机构 | 声音识别装置及计算机程序记录介质 |
CN105070288A (zh) * | 2015-07-02 | 2015-11-18 | 百度在线网络技术(北京)有限公司 | 车载语音指令识别方法和装置 |
CN105070288B (zh) * | 2015-07-02 | 2018-08-07 | 百度在线网络技术(北京)有限公司 | 车载语音指令识别方法和装置 |
WO2017000489A1 (zh) * | 2015-07-02 | 2017-01-05 | 百度在线网络技术(北京)有限公司 | 车载语音指令识别方法、装置和存储介质 |
US10446150B2 (en) | 2015-07-02 | 2019-10-15 | Baidu Online Network Technology (Beijing) Co. Ltd. | In-vehicle voice command recognition method and apparatus, and storage medium |
CN106023995A (zh) * | 2015-08-20 | 2016-10-12 | 漳州凯邦电子有限公司 | 一种语音识别方法及运用该方法的穿戴式语音控制设备 |
CN106652999A (zh) * | 2015-10-29 | 2017-05-10 | 三星Sds株式会社 | 语音识别***以及方法 |
CN105702250B (zh) * | 2016-01-06 | 2020-05-19 | 福建天晴数码有限公司 | 语音识别方法和装置 |
CN105702250A (zh) * | 2016-01-06 | 2016-06-22 | 福建天晴数码有限公司 | 语音识别方法和装置 |
CN105895087A (zh) * | 2016-03-24 | 2016-08-24 | 海信集团有限公司 | 一种语音识别方法及装置 |
CN105895087B (zh) * | 2016-03-24 | 2020-02-07 | 海信集团有限公司 | 一种语音识别方法及装置 |
CN105931633A (zh) * | 2016-05-30 | 2016-09-07 | 深圳市鼎盛智能科技有限公司 | 语音识别的方法及*** |
CN110462645A (zh) * | 2017-03-31 | 2019-11-15 | 微软技术许可有限责任公司 | 具有更新能力的传感器数据处理器 |
CN110808050A (zh) * | 2018-08-03 | 2020-02-18 | 蔚来汽车有限公司 | 语音识别方法及智能设备 |
CN110808050B (zh) * | 2018-08-03 | 2024-04-30 | 蔚来(安徽)控股有限公司 | 语音识别方法及智能设备 |
CN114124472A (zh) * | 2021-11-02 | 2022-03-01 | 华东师范大学 | 一种基于gmm-hmm的车载网络can总线入侵检测方法及*** |
CN114124472B (zh) * | 2021-11-02 | 2023-07-25 | 华东师范大学 | 一种基于gmm-hmm的车载网络can总线入侵检测方法及*** |
Also Published As
Publication number | Publication date |
---|---|
EP2617030A4 (en) | 2014-09-03 |
EP2617030A1 (en) | 2013-07-24 |
US8972253B2 (en) | 2015-03-03 |
WO2012036934A1 (en) | 2012-03-22 |
CN102411931B (zh) | 2014-01-29 |
US20120065976A1 (en) | 2012-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102411931B (zh) | 用于大词汇量连续语音识别的深度信任网络 | |
Hinton et al. | Deep neural networks for acoustic modeling in speech recognition: The shared views of four research groups | |
Rebai et al. | Improving speech recognition using data augmentation and acoustic model fusion | |
EP2619756B1 (en) | Full-sequence training of deep structures for speech recognition | |
Seltzer et al. | Multi-task learning in deep neural networks for improved phoneme recognition | |
Mohamed et al. | Deep belief networks using discriminative features for phone recognition | |
Jiang | Discriminative training of HMMs for automatic speech recognition: A survey | |
Sainath et al. | Optimization techniques to improve training speed of deep neural networks for large speech tasks | |
Hifny et al. | Speech recognition using augmented conditional random fields | |
Hammami et al. | Improved tree model for arabic speech recognition | |
Deng et al. | Foundations and trends in signal processing: Deep learning–methods and applications | |
JP6884946B2 (ja) | 音響モデルの学習装置及びそのためのコンピュータプログラム | |
Cui et al. | Multi-view and multi-objective semi-supervised learning for hmm-based automatic speech recognition | |
Deng et al. | Deep discriminative and generative models for speech pattern recognition | |
KR20210042696A (ko) | 모델 학습 방법 및 장치 | |
Deng et al. | Deep dynamic models for learning hidden representations of speech features | |
Tüske et al. | Investigation on log-linear interpolation of multi-domain neural network language model | |
Kurimo | Using self-organizing maps and learning vector quantization for mixture density hidden Markov models | |
JP4950600B2 (ja) | 音響モデル作成装置、その装置を用いた音声認識装置、これらの方法、これらのプログラム、およびこれらの記録媒体 | |
En-Naimani et al. | Hybrid system of optimal self organizing maps and hidden Markov model for Arabic digits recognition | |
Cui et al. | Multi-view and multi-objective semi-supervised learning for large vocabulary continuous speech recognition | |
Abdel-Haleem | Conditional random fields for continuous speech recognition | |
Shinozaki et al. | Automated development of dnn based spoken language systems using evolutionary algorithms | |
Zhao et al. | Ensemble acoustic modeling for CD-DNN-HMM using random forests of phonetic decision trees | |
Qin et al. | Deep neural network based feature extraction using convex-nonnegative matrix factorization for low-resource speech recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
ASS | Succession or assignment of patent right |
Owner name: MICROSOFT TECHNOLOGY LICENSING LLC Free format text: FORMER OWNER: MICROSOFT CORP. Effective date: 20150429 |
|
C41 | Transfer of patent application or patent right or utility model | ||
TR01 | Transfer of patent right |
Effective date of registration: 20150429 Address after: Washington State Patentee after: Micro soft technique license Co., Ltd Address before: Washington State Patentee before: Microsoft Corp. |