CN110675865B - 用于训练混合语言识别模型的方法和装置 - Google Patents
用于训练混合语言识别模型的方法和装置 Download PDFInfo
- Publication number
- CN110675865B CN110675865B CN201911075088.2A CN201911075088A CN110675865B CN 110675865 B CN110675865 B CN 110675865B CN 201911075088 A CN201911075088 A CN 201911075088A CN 110675865 B CN110675865 B CN 110675865B
- Authority
- CN
- China
- Prior art keywords
- sequence
- syllable
- syllable label
- language
- label
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 93
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000013528 artificial neural network Methods 0.000 claims abstract description 34
- 239000000203 mixture Substances 0.000 claims description 27
- 238000004590 computer program Methods 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 3
- 241001672694 Citrus reticulata Species 0.000 description 16
- 238000010586 diagram Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 6
- 230000015654 memory Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
- G10L2015/027—Syllables being the recognition units
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Machine Translation (AREA)
Abstract
本申请实施例公开了用于训练混合语言识别模型的方法和装置。该方法的一具体实施方式包括:生成第一语言音频的第一音节标签序列和第二语言音频的第二音节标签序列;将第二语言音频输入至预先训练的第一语言识别模型,得到连接时序分类峰序列;基于第二音节标签序列和连接时序分类峰序列,计算第二音节标签序列中的每种第二音节标签的连接时序分类峰正确率;基于所计算出的连接时序分类峰正确率,从第二音节标签序列中确定差异音节标签;基于第一音节标签序列和差异音节标签对深层神经网络进行混合训练,得到混合语言识别模型。该实施方式实现了同一个模型支持多种语言的识别。
Description
技术领域
本申请实施例涉及计算机技术领域,具体涉及用于训练混合语言识别模型的方法和装置。
背景技术
随着语音识别技术的发展,语音识别的性能已满足实用,比如手机上的各种输入法都带有语音交互功能。而在实际应用中,除了普通话场景的语音识别外,还存在方言场景的语音识别。目前已有许多支持方言语音识别的语音交互产品,比如手机输入法上语音识别可选项,用户可以根据需要选择对应的方言,再比如一些针对特定方言制定的智能电视、智能冰箱等。
相关技术中,通常采用普通话识别模型对普通话进行语音识别,采用相应的方言识别模型对方言进行语音识别,而在用户在切换语言时,需要来回选择相应的语音识别模型,操作繁琐。并且,随着支持的方言越来越多,需要训练的方言识别模型的数量的越来越多,导致模型训练工作量较高。
发明内容
本申请实施例提出了用于训练混合语言识别模型的方法和装置。
第一方面,本申请实施例提出了一种用于训练混合语言识别模型的方法,包括:生成第一语言音频的第一音节标签序列和第二语言音频的第二音节标签序列;将第二语言音频输入至预先训练的第一语言识别模型,得到连接时序分类峰序列,其中,第一语言识别模型是基于第一音节标签序列训练得到的;基于第二音节标签序列和连接时序分类峰序列,计算第二音节标签序列中的每种第二音节标签的连接时序分类峰正确率;基于所计算出的连接时序分类峰正确率,从第二音节标签序列中确定差异音节标签;基于第一音节标签序列和差异音节标签对深层神经网络进行混合训练,得到混合语言识别模型。
在一些实施例中,生成第一语言音频的第一音节标签序列,包括:提取第一语言音频的梅尔频率倒谱系数特征;基于梅尔频率倒谱系数特征和第一语言音频对应的文本对高斯混合模型进行训练,得到对齐高斯混合模型和第一音节标签序列。
在一些实施例中,生成第二语言音频的第二音节标签序列,包括:将第二语言音频输入至对齐高斯混合模型,得到第二音节标签序列,其中,第二音节标签序列的标签种类数等于第一音节标签序列的标签种类数。
在一些实施例中,基于第二音节标签序列和连接时序分类峰序列,计算第二音节标签序列中的每种第二音节标签的连接时序分类峰正确率,包括:对第二音节标签序列去重,得到去重音节标签序列;对去重音节标签序列去静音帧,得到有效音节标签序列;对比有效音节标签序列和连接时序分类峰序列,得到第二音节标签序列中的每种第二音节标签的连接时序分类峰正确率。
在一些实施例中,对比有效音节标签序列和连接时序分类峰序列,得到第二音节标签序列中的每种第二音节标签的连接时序分类峰正确率,包括:对于有效音节标签序列中的每种有效音节标签,从连接时序分类峰序列中查找与该有效音节标签的位置对应连接时序分类峰;统计所查找到的连接时序分类峰与该有效音节标签相同的数目;计算所统计出的数目与该有效音节标签的总数目的比值,得到该有效音节标签的连接时序分类峰正确率。
在一些实施例中,基于所计算出的连接时序分类峰正确率,从第二音节标签序列中确定差异音节标签,包括:将有效音节标签序列中连接时序分类峰正确率小于预设阈值的有效音节标签确定为差异音节标签。
在一些实施例中,第一语言识别模型通过如下步骤训练得到:提取第一语言音频的滤波器组系数特征;基于滤波器组系数特征和第一音节标签序列对深层神经网络进行训练,得到第一语言识别模型,其中,第一语言识别模型的输出层的节点数等于第一音节标签序列的标签种类数。
在一些实施例中,基于第一音节标签序列和差异音节标签对深层神经网络进行混合训练,得到混合语言识别模型,包括:基于滤波器组系数特征、第一音节标签序列和差异音节标签对深层神经网络进行混合训练,得到混合语言识别模型,其中,混合语言识别模型的输出层的节点数等于第一音节标签序列的标签种类数和差异音节标签的标签种类数之和。
在一些实施例中,训练第一语言识别模型或混合语言识别模型时采用基于连接时序分类的训练准则优化深层神经网络。
第二方面,本申请实施例提出了一种用于训练混合语言识别模型的装置,包括:生成单元,被配置成生成第一语言音频的第一音节标签序列和第二语言音频的第二音节标签序列;输入单元,被配置成将第二语言音频输入至预先训练的第一语言识别模型,得到连接时序分类峰序列,其中,第一语言识别模型是基于第一音节标签序列训练得到的;计算单元,被配置成基于第二音节标签序列和连接时序分类峰序列,计算第二音节标签序列中的每种第二音节标签的连接时序分类峰正确率;确定单元,被配置成基于所计算出的连接时序分类峰正确率,从第二音节标签序列中确定差异音节标签;训练单元,被配置成基于第一音节标签序列和差异音节标签对深层神经网络进行混合训练,得到混合语言识别模型。
在一些实施例中,生成单元进一步被配置成:提取第一语言音频的梅尔频率倒谱系数特征;基于梅尔频率倒谱系数特征和第一语言音频对应的文本对高斯混合模型进行训练,得到对齐高斯混合模型和第一音节标签序列。
在一些实施例中,生成单元进一步被配置成:将第二语言音频输入至对齐高斯混合模型,得到第二音节标签序列,其中,第二音节标签序列的标签种类数等于第一音节标签序列的标签种类数。
在一些实施例中,计算单元包括:去重子单元,被配置成对第二音节标签序列去重,得到去重音节标签序列;去静音子单元,被配置成对去重音节标签序列去静音帧,得到有效音节标签序列;对比子单元,被配置成对比有效音节标签序列和连接时序分类峰序列,得到第二音节标签序列中的每种第二音节标签的连接时序分类峰正确率。
在一些实施例中,对比子单元进一步被配置成:对于有效音节标签序列中的每种有效音节标签,从连接时序分类峰序列中查找与该有效音节标签的位置对应连接时序分类峰;统计所查找到的连接时序分类峰与该有效音节标签相同的数目;计算所统计出的数目与该有效音节标签的总数目的比值,得到该有效音节标签的连接时序分类峰正确率。
在一些实施例中,确定单元进一步被配置成:将有效音节标签序列中连接时序分类峰正确率小于预设阈值的有效音节标签确定为差异音节标签。
在一些实施例中,第一语言识别模型通过如下步骤训练得到:提取第一语言音频的滤波器组系数特征;基于滤波器组系数特征和第一音节标签序列对深层神经网络进行训练,得到第一语言识别模型,其中,第一语言识别模型的输出层的节点数等于第一音节标签序列的标签种类数。
在一些实施例中,训练单元进一步被配置成:基于滤波器组系数特征、第一音节标签序列和差异音节标签对深层神经网络进行混合训练,得到混合语言识别模型,其中,混合语言识别模型的输出层的节点数等于第一音节标签序列的标签种类数和差异音节标签的标签种类数之和。
在一些实施例中,训练第一语言识别模型或混合语言识别模型时采用基于连接时序分类的训练准则优化深层神经网络。
第三方面,本申请实施例提供了一种电子设备,该电子设备包括:一个或多个处理器;存储装置,其上存储有一个或多个程序;当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第四方面,本申请实施例提供了一种计算机可读介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面中任一实现方式描述的方法。
本申请实施例提供的用于训练混合语言识别模型的方法和装置,首先生成第一语言音频的第一音节标签序列和第二语言音频的第二音节标签序列;之后将第二语言音频输入至基于第一音节标签序列预先训练的第一语言识别模型,得到连接时序分类峰序列;而后基于第二音节标签序列和连接时序分类峰序列,计算第二音节标签序列中的每种第二音节标签的连接时序分类峰正确率;然后基于所计算出的连接时序分类峰正确率,从第二音节标签序列中确定差异音节标签;最后基于第一音节标签序列和差异音节标签对深层神经网络进行混合训练,得到混合语言识别模型。基于连接时序分类峰正确率从第二音节标签序列中确定差异音节标签,基于第一音节标签序列和差异音节标签训练混合语言识别模型,降低了模型训练工作量。此外,基于多种语言的音节标签训练混合语言识别模型,实现了同一个模型支持多种语言的识别。并且,无需用户在多个模型之间切换,简化了用户操作。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请可以应用于其中的示例性***架构;
图2是根据本申请的用于训练混合语言识别模型的方法的一个实施例的流程图;
图3是混合语言识别模型的结构示意图;
图4是根据本申请的用于训练混合语言识别模型的方法的又一个实施例的流程图;
图5是根据本申请的用于训练混合语言识别模型的装置的一个实施例的结构示意图;
图6是适于用来实现本申请实施例的电子设备的计算机***的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的用于训练混合语言识别模型的方法或用于训练混合语言识别模型的装置的实施例的示例性***架构100。
如图1所示,***架构100中可以包括终端设备101、网络102和服务器103。网络102用以在终端设备101和服务器103之间提供通信链路的介质。网络102可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101通过网络102与服务器103交互,以接收或发送消息等。终端设备101上可以安装有各种通讯客户端应用,例如语音识别应用等。
终端设备101可以是硬件,也可以是软件。当终端设备101为硬件时,可以是各种电子设备。包括但不限于智能手机、平板电脑、智能音箱、智能电视和智能冰箱等等。当终端设备101为软件时,可以安装在上述电子设备中。其可以实现成多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
服务器103可以提供各种服务。例如服务器103可以对从终端设备101获取到的第一语言音频和第二语言音频等数据进行分析等处理,并生成处理结果(例如混合语言识别模型)。
需要说明的是,服务器103可以是硬件,也可以是软件。当服务器103为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器103为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
需要说明的是,本申请实施例所提供的用于训练混合语言识别模型的方法一般由服务器103执行,相应地,用于训练混合语言识别模型的装置一般设置于服务器103中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,其示出了根据本申请的用于训练混合语言识别模型的方法的一个实施例的流程200。该用于训练混合语言识别模型的方法包括以下步骤:
步骤201,生成第一语言音频的第一音节标签序列和第二语言音频的第二音节标签序列。
在本实施例中,用于训练混合语音识别模型的方法的执行主体(例如图1所示的服务器103)可以生成第一语言音频的第一音节标签序列和第二语言音频的第二音节标签序列。
通常,第一语言和第二语言可以是不同类别的语言,例如第一语言可以是普通话,第二语言可以是一种或多种方言。此外,第一语言音频和第二语言音频对应相同的文本。也就是说,第一语言音频与第二语言音频的内容相同。上述执行主体可以分别对第一语言音频和第二语音音频进行音节切分,生成第一音节标签序列和第二音节标签序列。其中,第一语言音频和第二语音音频可以是做帧级别对齐后以相同的音节切分方法进行切分的,这样,第一音节标签序列与第二音节标签序列包括的标签种类数相同。例如,若第一音节标签序列包括2000种标签,那么第二音节标签序列也包括2000种标签。
步骤202,将第二语言音频输入至预先训练的第一语言识别模型,得到连接时序分类峰序列。
在本实施例中,上述执行主体可以将第二语言音频输入至预先训练的第一语言识别模型,以得到连接时序分类峰序列。通常,第二语言音频被输入至第一语言识别模型后,经过前向算法,会得到第一语言音频中每一句话对应的连接时序分类峰。其中,连接时序分类峰也就是CTC(Connectionist Temporal Classification,连接时序分类)peak。
在本实施例中,第一语言识别模型可以是基于第一音节标签序列训练得到的,用于对第一语言进行识别。通常,上述执行主体可以首先提取第一语言音频的滤波器组系数(Filter Bank)特征;基于滤波器组系数特征和第一音节标签序列对深层神经网络进行训练,得到第一语言识别模型。其中,第一语言识别模型的输出层的节点数可以等于第一音节标签序列的标签种类数。例如,若第一音节标签序列包括2000种标签,那么第一语言识别模型的输出层可以包括2000个节点。用于训练第一语言识别模型的深层神经网络可以例如是基于CTC准则的LSTM(Long Short-Term Memory,长短期记忆)网络。
在本实施例的一些可选的实现方式中,训练第一语言识别模型时可以采用基于连接时序分类的训练准则优化深层神经网络。其中,基于连接时序分类的训练准则可以如下公式所示:
其中,ak为标签为k的网络的输出(未经激活函数),yk为某一时刻参考的标签k的得分,s为状态,x为输入的特征序列,z为t时刻CTC的路径,∑s∈label(z,k)α(s)β(s)为某一时刻CTC路径中属于标签k的得分(通过CTC的前向得分α(s)和后向得分β(s)的乘积得到),p(z|x)为某一时刻CTC所经过路径的总得分。
步骤203,基于第二音节标签序列和连接时序分类峰序列,计算第二音节标签序列中的每种第二音节标签的连接时序分类峰正确率。
在本实施例中,上述执行主体可以基于第二音节标签序列和连接时序分类峰序列,计算第二音节标签序列中的每种第二音节标签的连接时序分类峰正确率。具体地,对于第二音节标签序列中的每种第二音节标签,上述执行主体可以从连接时序分类峰序列中查找与该第二音节标签对应的连接时序分类峰,并将所查找到的连接时序分类峰与该第二音节标签逐一比对。每当比对出一个连接时序分类峰与该第二音节标签相同,则该第二音节标签的连接时序分类峰正确数加一。每当比对出一个连接时序分类峰与该第二音节标签不同,则该第二音节标签的连接时序分类峰正确数不变。待比对完毕,计算该第二音节标签的连接时序分类峰正确数与所查找到的连接时序分类峰的总数目的比值,即为该第二音节标签的连接时序分类峰正确率。
步骤204,基于所计算出的连接时序分类峰正确率,从第二音节标签序列中确定差异音节标签。
在本实施例中,上述执行主体可以基于所计算出的连接时序分类峰正确率,从第二音节标签序列中确定差异音节标签。例如,上述执行主体可以按照连接时序分类峰正确率从高到低的顺序对第二音节标签序列中的所有第二音节标签进行排序,并从连接时序分类峰正确率低的一侧开始,选取预设数目(例如400)个第二音节标签,所选取出的第二音节标签即为差异音节标签。
应当理解的是,差异音节标签是发音上与第一语言存在较大差异,其对应的文字内容与第一语言相同,因此,在确定出差异音节标签之后,上述执行主体通常会在解码字典中为对应的文字增加相应的多发音。
步骤205,基于第一音节标签序列和差异音节标签对深层神经网络进行混合训练,得到混合语言识别模型。
在本实施例中,上述执行主体可以基于第一音节标签序列和差异音节标签对深层神经网络进行混合训练,得到混合语言识别模型。其中,混合语言识别模型既可以对第一语言进行识别,又可以对第二语言进行识别。也就是说,混合语言识别模型实现了同一个模型支持多种语言的识别。
通常,上述执行主体可以基于滤波器组系数特征、第一音节标签序列和差异音节标签对深层神经网络进行混合训练,得到混合语言识别模型,其中,混合语言识别模型的输出层的节点数可以等于第一音节标签序列的标签种类数和差异音节标签的标签种类数之和。例如,若第一音节标签序列包括2000种标签,差异音节标签包括400种标签,那么混合语言识别模型的输出层可以包括2400个节点。其中,训练混合语言识别模型时也可以采用基于连接时序分类的训练准则优化深层神经网络。需要说明的是,训练混合语言识别模型的步骤与训练第一语言识别模型的步骤类似,这里不进行赘述。
为了便于理解,图3示出了混合语言识别模型的结构示意图。如图3所示,混合语言识别模型可以包括输入层、隐层和输出层。以对普通话、方言A和方言B三种类别的语言混合识别为例,普通话、方言A和方言B均有2000种音节标签。对于方言A,其2000种音节标签中存在400种与普通话差异较大的音节标签,因此方言A的这400种差异音节标签会作为独立的建模单元,其另外的1600种音节标签会与普通话共享建模单元。同理,对于方言B,其2000种音节标签中存在600种与普通话差异较大的音节标签,因此方言B的这600种差异音节标签会作为独立的建模单元,其另外的1400种音节标签会与普通话共享建模单元。由此,根据普通话的音节标签、方言A的差异音节标签和方言B的差异音节标签训练混合语言识别模型,其输出层会包括3000个节点。其中,普通话的2000种音节标签对应2000个节点。方言A的400种差异音节标签对应400个独立节点,其外的1600种音节标签与普通话共享节点。同理,方言B的600种差异音节标签对应600个独立节点,其外的1400种音节标签与普通话共享节点。
本申请实施例提供的用于训练混合语言识别模型的方法,首先生成第一语言音频的第一音节标签序列和第二语言音频的第二音节标签序列;之后将第二语言音频输入至基于第一音节标签序列预先训练的第一语言识别模型,得到连接时序分类峰序列;而后基于第二音节标签序列和连接时序分类峰序列,计算第二音节标签序列中的每种第二音节标签的连接时序分类峰正确率;然后基于所计算出的连接时序分类峰正确率,从第二音节标签序列中确定差异音节标签;最后基于第一音节标签序列和差异音节标签对深层神经网络进行混合训练,得到混合语言识别模型。基于连接时序分类峰正确率从第二音节标签序列中确定差异音节标签,基于第一音节标签序列和差异音节标签训练混合语言识别模型,降低了模型训练工作量。此外,基于多种语言的音节标签训练混合语言识别模型,实现了同一个模型支持多种语言的识别。并且,无需用户在多个模型之间切换,简化了用户操作。
进一步参考图4,其示出了根据本申请的用于训练混合语言识别模型的方法的又一个实施例的流程400。该用于训练混合语言识别模型的方法包括以下步骤:
步骤401,提取第一语言音频的梅尔频率倒谱系数特征。
在本实施例中,用于训练混合语言识别模型的方法的执行主体(例如图1所示的服务器103)可以提取第一语言音频的梅尔频率倒谱系数(Mel Frequency CepstralCoefficents,MFCC)特征。其中,第一语言可以例如是普通话。
步骤402,基于梅尔频率倒谱系数特征和第一语言音频对应的文本对高斯混合模型进行训练,得到对齐高斯混合模型和第一音节标签序列。
在本实施例中,上述执行主体可以基于梅尔频率倒谱系数特征和第一语言音频对应的文本对高斯混合模型(Gaussian mixture model,GMM)进行训练,得到对齐高斯混合模型和第一音节标签序列。通常,基于梅尔频率倒谱系数特征和第一语言音频对应的文本可以训练出一个高斯混合模型,用于对音频做帧级别的对齐,因此被称为对齐高斯混合模型。并且,梅尔频率倒谱系数特征和第一语言音频对应的文本经过该对齐高斯混合模型可以得到第一音节标签序列。
步骤403,将第二语言音频输入至对齐高斯混合模型,得到第二音节标签序列。
在本实施例中,上述执行主体可以将第二语言音频输入至对齐高斯混合模型,得到第二音节标签序列。这里,利用对齐高斯混合模型对第二语言音频做对齐,可以确保第一语言音频和第二语言音频的音节标签严格一致。由此,利用对齐高斯混合模型得到的第二音节标签序列的标签种类数会等于第一音节标签序列的标签种类数。其中,第二语言与第一语言类别不同,例如第一语言是普通话,第二语言是一种或多种方言。
步骤404,将第二语言音频输入至预先训练的第一语言识别模型,得到连接时序分类峰序列。
在本实施例中,步骤404的具体操作已在图2所示的实施例中步骤202中进行了详细的介绍,在此不再赘述。
步骤405,对第二音节标签序列去重,得到去重音节标签序列。
在本实施例中,上述执行主体可以对第二音节标签序列去重,得到去重音节标签序列。例如,若第二音节标签序列为“0 0 0 0 a a a a a 0 0b b b b b 0 0 0 c c c 0 0d d d d 0 e e 0 0 0 f f f”,经过去重处理得到的去重音节标签序列就可以为“0 a 0 b0 c 0 d 0 f”,其中,“0”为静音帧。
步骤406,对去重音节标签序列去静音帧,得到有效音节标签序列。
在本实施例中,上述执行主体可以对去重音节标签序列去静音帧,得到有效音节标签序列。例如,若去重音节标签序列为“0 a 0 b 0 c 0 d 0 f”,去掉静音帧后,得到的有效音节标签序列就可以为“a b c d e f”,其中,“0”为静音帧。
步骤407,对于有效音节标签序列中的每种有效音节标签,从连接时序分类峰序列中查找与该有效音节标签的位置对应连接时序分类峰。
在本实施例中,上述执行主体可以对比有效音节标签序列和连接时序分类峰序列,得到有效音节标签序列中的每种有效音节标签的连接时序分类峰正确率。具体地,对于有效音节标签序列中的每种有效音节标签,,上述执行主体可以从连接时序分类峰序列中查找与该有效音节标签在有效音节标签序列中的位置对应的连接时序分类峰。其中,该有效音节标签在有效音节标签序列中的位置与其对应的连接时序分类峰在连接时序分类峰序列中的位置相同。
步骤408,统计所查找到的连接时序分类峰与该有效音节标签相同的数目。
在本实施例中,上述执行主体可以统计所查找到的连接时序分类峰与该有效音节标签相同的数目。其中,所查找到的连接时序分类峰与该有效音节标签相同的数目,就是该有效音节标签的连接时序分类峰正确数。
步骤409,计算所统计出的数目与该有效音节标签的总数目的比值,得到该有效音节标签的连接时序分类峰正确率。
在本实施例中,上述执行主体可以计算所统计出的数目与该有效音节标签在有效音节标签序列中的总数目的比值,得到该有效音节标签的连接时序分类峰正确率。
步骤410,将有效音节标签序列中连接时序分类峰正确率小于预设阈值的有效音节标签确定为差异音节标签。
在本实施例中,上述执行主体可以将有效音节标签序列中连接时序分类峰正确率小于预设阈值(例如20%)的有效音节标签确定为差异音节标签。例如,上述执行主体可以按照连接时序分类峰正确率从高到低的顺序对有效音节标签序列中的所有有效音节标签进行排序,并从连接时序分类峰正确率低的一侧开始,依次将有效音节标签的连接时序分类峰正确率与预设阈值进行比对,直至出现连接时序分类峰正确率不小于预设阈值的有效音节标签时停止比对,并将之前已比对的有效音节标签确定为差异音节标签。
步骤411,基于第一音节标签序列和差异音节标签对深层神经网络进行混合训练,得到混合语言识别模型。
在本实施例中,步骤411的具体操作已在图2所示的实施例中步骤205中进行了详细的介绍,在此不再赘述。
从图4中可以看出,与图2对应的实施例相比,本实施例中的用于训练混合语言识别模型的方法的流程400突出了生成音节标签的步骤和计算连接时序分类峰正确率的步骤。由此,本实施例描述的方案利用第一语言数据训练出的对齐高斯混合模型对第二语言进行处理,可以确保第一语言音频的第一音节标签序列和第二语言音频的第二音节标签序列严格一致。此外,对第二音节标签序列去重、去静音帧后,使有效音节标签序列中的有效音节标签与连接时序分类峰序列中的连接时序分类峰一一对应,便于进行比对。
进一步参考图5,作为对上述各图所示的方法的实现,本申请提供了一种用于训练混合语言识别模型的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的用于训练混合语言识别模型的装置500可以包括:生成单元501、输入单元502、计算单元503、确定单元504和训练单元505。其中,生成单元501,被配置成生成第一语言音频的第一音节标签序列和第二语言音频的第二音节标签序列;输入单元502,被配置成将第二语言音频输入至预先训练的第一语言识别模型,得到连接时序分类峰序列,其中,第一语言识别模型是基于第一音节标签序列训练得到的;计算单元503,被配置成基于第二音节标签序列和连接时序分类峰序列,计算第二音节标签序列中的每种第二音节标签的连接时序分类峰正确率;确定单元504,被配置成基于所计算出的连接时序分类峰正确率,从第二音节标签序列中确定差异音节标签;训练单元505,被配置成基于第一音节标签序列和差异音节标签对深层神经网络进行混合训练,得到混合语言识别模型。
在本实施例中,用于训练混合语言识别模型的装置500中:生成单元501、输入单元502、计算单元503、确定单元504和训练单元505的具体处理及其所带来的技术效果可分别参考图2对应实施例中的步骤201-205的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,生成单元501进一步被配置成:提取第一语言音频的梅尔频率倒谱系数特征;基于梅尔频率倒谱系数特征和第一语言音频对应的文本对高斯混合模型进行训练,得到对齐高斯混合模型和第一音节标签序列。
在本实施例的一些可选的实现方式中,生成单元501进一步被配置成:将第二语言音频输入至对齐高斯混合模型,得到第二音节标签序列,其中,第二音节标签序列的标签种类数等于第一音节标签序列的标签种类数。
在本实施例的一些可选的实现方式中,计算单元503包括:去重子单元(图中未示出),被配置成对第二音节标签序列去重,得到去重音节标签序列;去静音子单元(图中未示出),被配置成对去重音节标签序列去静音帧,得到有效音节标签序列;对比子单元(图中未示出),被配置成对比有效音节标签序列和连接时序分类峰序列,得到第二音节标签序列中的每种第二音节标签的连接时序分类峰正确率。
在本实施例的一些可选的实现方式中,对比子单元进一步被配置成:对于有效音节标签序列中的每种有效音节标签,从连接时序分类峰序列中查找与该有效音节标签的位置对应连接时序分类峰;统计所查找到的连接时序分类峰与该有效音节标签相同的数目;计算所统计出的数目与该有效音节标签的总数目的比值,得到该有效音节标签的连接时序分类峰正确率。
在本实施例的一些可选的实现方式中,确定单元504进一步被配置成:将有效音节标签序列中连接时序分类峰正确率小于预设阈值的有效音节标签确定为差异音节标签。
在本实施例的一些可选的实现方式中,第一语言识别模型通过如下步骤训练得到:提取第一语言音频的滤波器组系数特征;基于滤波器组系数特征和第一音节标签序列对深层神经网络进行训练,得到第一语言识别模型,其中,第一语言识别模型的输出层的节点数等于第一音节标签序列的标签种类数。
在本实施例的一些可选的实现方式中,训练单元505进一步被配置成:基于滤波器组系数特征、第一音节标签序列和差异音节标签对深层神经网络进行混合训练,得到混合语言识别模型,其中,混合语言识别模型的输出层的节点数等于第一音节标签序列的标签种类数和差异音节标签的标签种类数之和。
在本实施例的一些可选的实现方式中,训练第一语言识别模型或混合语言识别模型时采用基于连接时序分类的训练准则优化深层神经网络。
下面参考图6,其示出了适于用来实现本申请实施例的电子设备(例如图1所示的服务器103)的计算机***600的结构示意图。图6示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机***600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有***600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本申请的方法中限定的上述功能。
需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请的操作的计算机程序代码,所述程序设计语言包括面向目标的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如”C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或电子设备上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本申请各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括生成单元、输入单元、计算单元、确定单元和训练单元。其中,这些单元的名称在种情况下并不构成对该单元本身的限定,例如,生成单元还可以被描述为“生成第一语言音频的第一音节标签序列和第二语言音频的第二音节标签序列的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:生成第一语言音频的第一音节标签序列和第二语言音频的第二音节标签序列;将第二语言音频输入至预先训练的第一语言识别模型,得到连接时序分类峰序列,其中,第一语言识别模型是基于第一音节标签序列训练得到的;基于第二音节标签序列和连接时序分类峰序列,计算第二音节标签序列中的每种第二音节标签的连接时序分类峰正确率;基于所计算出的连接时序分类峰正确率,从第二音节标签序列中确定差异音节标签;基于第一音节标签序列和差异音节标签对深层神经网络进行混合训练,得到混合语言识别模型。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (20)
1.一种用于训练混合语言识别模型的方法,包括:
生成第一语言音频的第一音节标签序列和第二语言音频的第二音节标签序列;
将所述第二语言音频输入至预先训练的第一语言识别模型,得到连接时序分类峰序列,其中,所述第一语言识别模型是基于所述第一音节标签序列训练得到的;
基于所述第二音节标签序列和所述连接时序分类峰序列,计算所述第二音节标签序列中的每种第二音节标签的连接时序分类峰正确率;
基于所计算出的连接时序分类峰正确率,从所述第二音节标签序列中确定差异音节标签;
基于所述第一音节标签序列和所述差异音节标签对深层神经网络进行混合训练,得到混合语言识别模型。
2.根据权利要求1所述的方法,其中,所述生成第一语言音频的第一音节标签序列,包括:
提取所述第一语言音频的梅尔频率倒谱系数特征;
基于所述梅尔频率倒谱系数特征和所述第一语言音频对应的文本对高斯混合模型进行训练,得到对齐高斯混合模型和所述第一音节标签序列。
3.根据权利要求2所述的方法,其中,所述生成第二语言音频的第二音节标签序列,包括:
将所述第二语言音频输入至所述对齐高斯混合模型,得到所述第二音节标签序列,其中,所述第二音节标签序列的标签种类数等于所述第一音节标签序列的标签种类数。
4.根据权利要求1所述的方法,其中,所述基于所述第二音节标签序列和所述连接时序分类峰序列,计算所述第二音节标签序列中的每种第二音节标签的连接时序分类峰正确率,包括:
对所述第二音节标签序列去重,得到去重音节标签序列;
对所述去重音节标签序列去静音帧,得到有效音节标签序列;
对比所述有效音节标签序列和所述连接时序分类峰序列,得到所述有效音节标签序列中的每种有效音节标签的连接时序分类峰正确率。
5.根据权利要求4所述的方法,其中,所述对比所述有效音节标签序列和所述连接时序分类峰序列,得到所述有效音节标签序列中的每种有效音节标签的连接时序分类峰正确率,包括:
对于所述有效音节标签序列中的每种有效音节标签,从所述连接时序分类峰序列中查找与该有效音节标签的位置对应连接时序分类峰;
统计所查找到的连接时序分类峰与该有效音节标签相同的数目;
计算所统计出的数目与该有效音节标签的总数目的比值,得到该有效音节标签的连接时序分类峰正确率。
6.根据权利要求4或5所述的方法,其中,所述基于所计算出的连接时序分类峰正确率,从所述第二音节标签序列中确定差异音节标签,包括:
将所述有效音节标签序列中连接时序分类峰正确率小于预设阈值的有效音节标签确定为差异音节标签。
7.根据权利要求1所述的方法,其中,所述第一语言识别模型通过如下步骤训练得到:
提取所述第一语言音频的滤波器组系数特征;
基于所述滤波器组系数特征和所述第一音节标签序列对深层神经网络进行训练,得到第一语言识别模型,其中,所述第一语言识别模型的输出层的节点数等于所述第一音节标签序列的标签种类数。
8.根据权利要求7所述的方法,其中,所述基于所述第一音节标签序列和所述差异音节标签对深层神经网络进行混合训练,得到混合语言识别模型,包括:
基于所述滤波器组系数特征、所述第一音节标签序列和所述差异音节标签对深层神经网络进行混合训练,得到混合语言识别模型,其中,所述混合语言识别模型的输出层的节点数等于所述第一音节标签序列的标签种类数和所述差异音节标签的标签种类数之和。
9.根据权利要求7或8所述的方法,其中,训练所述第一语言识别模型或所述混合语言识别模型时采用基于连接时序分类的训练准则优化所述深层神经网络。
10.一种用于训练混合语言识别模型的装置,包括:
生成单元,被配置成生成第一语言音频的第一音节标签序列和第二语言音频的第二音节标签序列;
输入单元,被配置成将所述第二语言音频输入至预先训练的第一语言识别模型,得到连接时序分类峰序列,其中,所述第一语言识别模型是基于所述第一音节标签序列训练得到的;
计算单元,被配置成基于所述第二音节标签序列和所述连接时序分类峰序列,计算所述第二音节标签序列中的每种第二音节标签的连接时序分类峰正确率;
确定单元,被配置成基于所计算出的连接时序分类峰正确率,从所述第二音节标签序列中确定差异音节标签;
训练单元,被配置成基于所述第一音节标签序列和所述差异音节标签对深层神经网络进行混合训练,得到混合语言识别模型。
11.根据权利要求10所述的装置,其中,所述生成单元进一步被配置成:
提取所述第一语言音频的梅尔频率倒谱系数特征;
基于所述梅尔频率倒谱系数特征和所述第一语言音频对应的文本对高斯混合模型进行训练,得到对齐高斯混合模型和所述第一音节标签序列。
12.根据权利要求11所述的装置,其中,所述生成单元进一步被配置成:
将所述第二语言音频输入至所述对齐高斯混合模型,得到所述第二音节标签序列,其中,所述第二音节标签序列的标签种类数等于所述第一音节标签序列的标签种类数。
13.根据权利要求10所述的装置,其中,所述计算单元包括:
去重子单元,被配置成对所述第二音节标签序列去重,得到去重音节标签序列;
去静音子单元,被配置成对所述去重音节标签序列去静音帧,得到有效音节标签序列;
对比子单元,被配置成对比所述有效音节标签序列和所述连接时序分类峰序列,得到所述有效音节标签序列中的每种有效音节标签的连接时序分类峰正确率。
14.根据权利要求13所述的装置,其中,所述对比子单元进一步被配置成:
对于所述有效音节标签序列中的每种有效音节标签,从所述连接时序分类峰序列中查找与该有效音节标签的位置对应连接时序分类峰;
统计所查找到的连接时序分类峰与该有效音节标签相同的数目;
计算所统计出的数目与该有效音节标签的总数目的比值,得到该有效音节标签的连接时序分类峰正确率。
15.根据权利要求13或14所述的装置,其中,所述确定单元进一步被配置成:
将所述有效音节标签序列中连接时序分类峰正确率小于预设阈值的有效音节标签确定为差异音节标签。
16.根据权利要求10所述的装置,其中,所述第一语言识别模型通过如下步骤训练得到:
提取所述第一语言音频的滤波器组系数特征;
基于所述滤波器组系数特征和所述第一音节标签序列对深层神经网络进行训练,得到第一语言识别模型,其中,所述第一语言识别模型的输出层的节点数等于所述第一音节标签序列的标签种类数。
17.根据权利要求16所述的装置,其中,所述训练单元进一步被配置成:
基于所述滤波器组系数特征、所述第一音节标签序列和所述差异音节标签对深层神经网络进行混合训练,得到混合语言识别模型,其中,所述混合语言识别模型的输出层的节点数等于所述第一音节标签序列的标签种类数和所述差异音节标签的标签种类数之和。
18.根据权利要求16或17所述的装置,其中,训练所述第一语言识别模型或所述混合语言识别模型时采用基于连接时序分类的训练准则优化所述深层神经网络。
19.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-9中任一所述的方法。
20.一种计算机可读介质,其上存储有计算机程序,其中,所述计算机程序被处理器执行时实现如权利要求1-9中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911075088.2A CN110675865B (zh) | 2019-11-06 | 2019-11-06 | 用于训练混合语言识别模型的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911075088.2A CN110675865B (zh) | 2019-11-06 | 2019-11-06 | 用于训练混合语言识别模型的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110675865A CN110675865A (zh) | 2020-01-10 |
CN110675865B true CN110675865B (zh) | 2021-09-28 |
Family
ID=69086213
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911075088.2A Active CN110675865B (zh) | 2019-11-06 | 2019-11-06 | 用于训练混合语言识别模型的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110675865B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111816160A (zh) * | 2020-07-28 | 2020-10-23 | 苏州思必驰信息科技有限公司 | 普通话和粤语混合语音识别模型训练方法及*** |
CN113808573B (zh) * | 2021-08-06 | 2023-11-07 | 华南理工大学 | 基于混合域注意力与时序自注意力的方言分类方法及*** |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101515456A (zh) * | 2008-02-18 | 2009-08-26 | 三星电子株式会社 | 语音识别接口装置及其语音识别方法 |
US8583432B1 (en) * | 2012-07-18 | 2013-11-12 | International Business Machines Corporation | Dialect-specific acoustic language modeling and speech recognition |
CN103839545A (zh) * | 2012-11-23 | 2014-06-04 | 三星电子株式会社 | 用于构建多语言声学模型的设备和方法 |
CN107195296A (zh) * | 2016-03-15 | 2017-09-22 | 阿里巴巴集团控股有限公司 | 一种语音识别方法、装置、终端及*** |
TWI659411B (zh) * | 2018-03-01 | 2019-05-11 | 大陸商芋頭科技(杭州)有限公司 | 一種多語言混合語音識別方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2690174C (en) * | 2009-01-13 | 2014-10-14 | Crim (Centre De Recherche Informatique De Montreal) | Identifying keyword occurrences in audio data |
US9728185B2 (en) * | 2014-05-22 | 2017-08-08 | Google Inc. | Recognizing speech using neural networks |
CN107195295B (zh) * | 2017-05-04 | 2020-06-23 | 百度在线网络技术(北京)有限公司 | 基于中英文混合词典的语音识别方法及装置 |
US10593321B2 (en) * | 2017-12-15 | 2020-03-17 | Mitsubishi Electric Research Laboratories, Inc. | Method and apparatus for multi-lingual end-to-end speech recognition |
-
2019
- 2019-11-06 CN CN201911075088.2A patent/CN110675865B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101515456A (zh) * | 2008-02-18 | 2009-08-26 | 三星电子株式会社 | 语音识别接口装置及其语音识别方法 |
US8583432B1 (en) * | 2012-07-18 | 2013-11-12 | International Business Machines Corporation | Dialect-specific acoustic language modeling and speech recognition |
CN103839545A (zh) * | 2012-11-23 | 2014-06-04 | 三星电子株式会社 | 用于构建多语言声学模型的设备和方法 |
CN107195296A (zh) * | 2016-03-15 | 2017-09-22 | 阿里巴巴集团控股有限公司 | 一种语音识别方法、装置、终端及*** |
TWI659411B (zh) * | 2018-03-01 | 2019-05-11 | 大陸商芋頭科技(杭州)有限公司 | 一種多語言混合語音識別方法 |
Non-Patent Citations (2)
Title |
---|
Adapting_monolingual_resources_for_code-mixed_hindi-english_speech_recognition;Ayushi Pandey;《2017 International Conference on Asian Language Processing (IALP)》;20171231;全文 * |
汉语普通话与沈阳方言转换的研究;贾珈等;《清华大学学报(自然科学版)》;20090815;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110675865A (zh) | 2020-01-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106683680B (zh) | 说话人识别方法及装置、计算机设备及计算机可读介质 | |
CN110046254B (zh) | 用于生成模型的方法和装置 | |
CN111428010B (zh) | 人机智能问答的方法和装置 | |
CN107437417B (zh) | 基于循环神经网络语音识别中语音数据增强方法及装置 | |
CN109241286B (zh) | 用于生成文本的方法和装置 | |
CN111274368B (zh) | 槽位填充方法及装置 | |
CN112530408A (zh) | 用于识别语音的方法、装置、电子设备和介质 | |
CN109582825B (zh) | 用于生成信息的方法和装置 | |
CN110070859B (zh) | 一种语音识别方法及装置 | |
CN109920431B (zh) | 用于输出信息的方法和装置 | |
CN112509562B (zh) | 用于文本后处理的方法、装置、电子设备和介质 | |
CN109190123B (zh) | 用于输出信息的方法和装置 | |
CN108877779B (zh) | 用于检测语音尾点的方法和装置 | |
CN110675865B (zh) | 用于训练混合语言识别模型的方法和装置 | |
CN113434683A (zh) | 文本分类方法、装置、介质及电子设备 | |
CN107680584B (zh) | 用于切分音频的方法和装置 | |
CN111508478A (zh) | 语音识别方法和装置 | |
CN111078849A (zh) | 用于输出信息的方法和装置 | |
US11482211B2 (en) | Method and apparatus for outputting analysis abnormality information in spoken language understanding | |
CN108664610B (zh) | 用于处理数据的方法和装置 | |
CN110808035B (zh) | 用于训练混合语言识别模型的方法和装置 | |
CN110619869B (zh) | 用于训练混合语言识别模型的方法和装置 | |
CN112017685A (zh) | 语音生成方法、装置、设备和计算机可读介质 | |
CN112259089B (zh) | 语音识别方法及装置 | |
CN113241061B (zh) | 语音识别结果的处理方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |