CN111681661B - 语音识别的方法、装置、电子设备和计算机可读介质 - Google Patents
语音识别的方法、装置、电子设备和计算机可读介质 Download PDFInfo
- Publication number
- CN111681661B CN111681661B CN202010512892.9A CN202010512892A CN111681661B CN 111681661 B CN111681661 B CN 111681661B CN 202010512892 A CN202010512892 A CN 202010512892A CN 111681661 B CN111681661 B CN 111681661B
- Authority
- CN
- China
- Prior art keywords
- syllable
- sequence
- syllable probability
- probability set
- probability
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 238000004422 calculation algorithm Methods 0.000 claims description 15
- 238000013528 artificial neural network Methods 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 10
- 238000013138 pruning Methods 0.000 claims description 10
- 230000000306 recurrent effect Effects 0.000 claims description 8
- 238000010845 search algorithm Methods 0.000 claims description 8
- 238000010586 diagram Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000015654 memory Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
- G10L2015/027—Syllables being the recognition units
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Machine Translation (AREA)
Abstract
本公开的实施例公开了语音识别的方法、装置、电子设备和计算机可读介质。该方法的一具体实施方式包括:针对目标语音的语音帧序列中的每个语音帧,生成上述语音帧的音节概率集合,得到音节概率集合序列,其中,上述音节概率集合用于表征上述语音帧表达的是预设的多个音节中各个音节的概率;基于上述音节概率集合序列和预先训练的语言模型,生成目标文字。该实施方式通过外接语言模型再解码,使得语音识别的结果更准确,进一步的,提升了用户体验。
Description
技术领域
本公开的实施例涉及计算机技术领域,具体涉及语音识别的方法、装置、电子设备和计算机可读介质。
背景技术
目前,语音识别已经广泛的应用在人们的生活中。然而,相关的方法在语音识别过程中,往往存在语音识别不准确的现象,从而导致用户体验差。
发明内容
本公开的内容部分用于以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。本公开的内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
本公开的一些实施例提出了用于语音识别的方法、装置、设备和计算机可读介质,来解决以上背景技术部分提到的技术问题。
第一方面,本公开的一些实施例提供了一种语音识别的方法,该方法包括:针对目标语音的语音帧序列中的每个语音帧,生成上述语音帧的音节概率集合,得到音节概率集合序列,其中,上述音节概率集合用于表征上述语音帧表达的是预设的多个音节中各个音节的概率;基于上述音节概率集合序列和预先训练的语言模型,生成目标文字。
第二方面,本公开的一些实施例提供了一种语音识别的装置,装置包括:第一生成单元,被配置成针对目标语音的语音帧序列中的每个语音帧,生成上述语音帧的音节概率集合,得到音节概率集合序列,其中,上述音节概率集合用于表征上述语音帧表达的是预设的多个音节中各个音节的概率;第二生成单元,被配置成基于上述音节概率集合序列和预先训练的语言模型,生成目标文字。
第三方面,本公开的一些实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面中任一的方法。
第四方面,本公开的一些实施例提供了一种计算机可读介质,其上存储有计算机程序,其中,程序被处理器执行时实现如第一方面中任一的方法。
本公开的上述各个实施例中的一个实施例具有如下有益效果:首先确定出目标语音所包括的各个语音帧的音节概率集合,得到音节概率集合序列。然后,根据音节概率集合序列,再外接一个预先训练的语言模型解码,最终得到目标文字。外接语言模型可以更好地利用文本语料。作为示例,可以通过调整外接语言模型,使得某些词(例如,热词)的概率发生改变。最终使得解码出来的目标文字更加准确。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。
图1是根据本公开的一些实施例的语音识别的方法的一个应用场景的示意图;
图2是根据本公开的语音识别的方法的一些实施例的流程图;
图3是根据本公开的语音识别的方法的另一些实施例的流程图;
图4是根据本公开的语音识别的方法的再一些实施例的流程图;
图5是根据本公开的语音识别的方法的一些实施例的贪心搜索方法示意图;
图6是根据本公开的语音识别的方法的一些实施例语音解码示意图;
图7是根据本公开的语音识别的装置的一些实施例的结构示意图;
图8是适于用来实现本公开的一些实施例的电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例。相反,提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
下面将参考附图并结合实施例来详细说明本公开。
图1是根据本公开一些实施例的语音识别的方法的一个应用场景的示意图。
如图1所示,现有目标语音,上述目标语音包括:语音帧1、语音帧2、语音帧3和语音帧4。然后,电子设备101可以分别生成每个语音帧的音节概率集合,进而得到音节概率集合序列。例如,语音帧1的音节概率集合可以包括:音节概率1、音节概率2和音节概率3。语音帧2的音节概率集合可以包括:音节概率4、音节概率5和音节概率6。这里,语音帧1、语音帧2、语音帧3和语音帧4所对应音节概率集合就构成了一个音节概率集合序列。接着,根据上述音节概率集合序列,再结合一个预先训练的语言模型103进行解码,最终,确定出目标文字102。
可以理解的是,用于语音识别的方法可以是由上述电子设备101来执行。其中,电子设备101可以是硬件,也可以是软件。当电子设备101为硬件时,可以是具有信息处理能力的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、膝上型便携计算机、台式计算机、服务器等等。当电子设备101为软件时,可以安装在上述所列举的电子设备中。其可以实现成例如用来提供分布式服务的多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
应该理解,图1中的电子设备数目仅仅是示意性的。根据实现需要,可以具有任意数目的电子设备。
继续参考图2,示出了根据本公开的语音识别的方法的一些实施例的流程200。该语音识别的方法,包括以下步骤:
步骤201,针对目标语音的语音帧序列中的每个语音帧,生成上述语音帧的音节概率集合,得到音节概率集合序列。
在一些实施例中,针对目标语音的语音帧序列中的每个语音帧,语音识别的方法的执行主体(例如图1所示的电子设备)可以通过各种方式来生成上述语音帧的音节概率集合。进而得到音节概率集合序列。例如,针对目标语音的语音帧序列中的每个语音帧,可以将上述语音帧输入预先训练深度学习网络(例如,LSTM(长短期记忆网络,Long Short-TermMemory)),生成上述语音帧的音节概率集合。这里,上述音节概率集合用于表征上述语音帧表达的是预设的多个音节(例如400个音节)中各个音节的概率。上述目标语音可以是普通用户说的以一句话。例如,“今天天气怎么样”。
作为示例,现有一段语音,上述语音包括语音帧A和语音帧B。通过预先训练的深度神经网络,可以生成语音帧A的音节概率集合和语音帧B的音节概率集合。其中,上述语音帧A的音节概率集合可以包括:hu(80%)、lu(10%)、liu(5%),dou(5%)。上述语音帧B的音节概率集合可以包括:su(80%)、lao(10%)、luo(5%),dun(5%)。语音帧A的音节概率集合和语音帧B的音节概率集合可以组成个一个音节概率集合序列。
步骤202,基于音节概率集合序列和预先训练的语言模型,生成目标文字。
在一些实施例中,根据步骤201所生成的音节概率集合序列,上述执行主体再结合预先训练的语言模型,可以通过各种方式进行解码,最终生成上述目标文字。例如,根据上述音节概率集合序列,可以生成多条路径。具体的,对于音节概率集合序列中的每个音节概率集合,依次从音节概率集合中取出一个音节概率,从而生成多条路径以及多条路径对应的分数。使用多条路径、多条路径对应的分数、预先训练的语言模型和预设字典,可以使用解码算法(例如,Viterbi算法)进行解码,最终生成上述目标文字。
这里,上述路径是指多个音节的序列。例如,“jin tian xing qi si”就是一条路径。路径对应的分数是指路径所包括的音节对应概率的乘积。
例如,已知路径“jin tian xing qi si”中每个音节的音节概率依次是:90%,90%,90%,90%,90%,则路径“jin tian xing qi si”对应的分数为90%*90%*90%*90%*90%的乘积。
这里,上述预先训练的语言模型可以是以下之一:统计语言模型,神经网络语言模型。上述目标文字可以是用于表征上述目标语音的内容。例如,终端用户说了一句“你好地球”的目标语音,目标文字有很大概率是“你好地球”对应的文字。
本公开的上述各个实施例中的一个实施例具有如下有益效果:首先确定出目标语音所包括的各个语音帧的音节概率集合,得到音节概率集合序列。然后,根据音节概率集合序列,再外接一个预先训练的语言模型解码,最终得到目标文字。外接语言模型可以更好地利用文本语料。作为示例,可以通过调整外接语言模型,使得某些词(例如,热词)的概率发生改变。最终使得解码出来的目标文字更加准确。
进一步参考图3,其示出了语音识别的方法的另一些实施例的流程300。该语音识别的方法的流程300,包括以下步骤:
步骤301,针对目标语音的语音帧序列中的每个语音帧,将语音帧输入预先训练的循环神经网络转换器RNNT,生成语音帧的音节概率集合。
在一些实施例中,针对上述目标语音的语音帧序列中的每个语音帧,上述执行主体可以将上述语音帧输入预先训练的RNNT(循环神经网络转换器,Recurrent NeuralNetwork Transducer)中,生成所述语音帧的音节概率集合。这里,因为RNNT模型本身带有prediction network(预测网络),所以可以更好的根据上下文来确定上述语音帧的音节概率集合。实践中,上述语音帧的音节概率集合生成往往会受到上述语音帧前几个语音帧的影响。
步骤302,针对音节概率集合序列中的每个音节概率集合,从音节概率集合中选出符合预定条件的音节概率,得到音节概率子集合,得到音节概率子集合序列。
在一些实施例中,针对音节概率集合序列中的每个音节概率集合,上述执行主体可以从音节概率集合中选出符合预定条件的音节概率。得到这一语音帧的音节概率子集合。这里,多个语音帧可以得到音节概率子集合序列。这里,预定条件可以是音节概率大于预设阈值(例如,80%)。这里,音节概率子集合是音节概率集合的子集。
例如,某一语音帧的音节概率集合包括:hu(80%),lu(10%),liu(5%)。若预定条件是音节概率大于8%,则所得到的音节概率子集合可以包括:hu(80%),lu(10%)。
步骤303,基于音节概率子集合序列和剪枝算法,生成多条路径和多条路径对应的分数,其中,上述路径是包含多个音节的序列,上述分数是序列中多个音节概率的乘积。
在一些实施例中,对于步骤302所得到的音节概率子集合序列中的每个子集合,依次从上述子集合中选择一个音节,从而可以生成一条路径。需要强调的是,这样做会生成大量的路径。因而在生成路径的过程中,需要根据路径的分数使用剪枝算法对过程所产生的路径进行剪枝。这里剪枝算法可以包括但不限于:维特比算法,Beam Search。这里,上述路径是指多个音节的序列。例如,“jin tian xing qi si”就是一条路径。路径对应的分数是指路径所包括的音节对应概率的乘积。
例如,参考图5所示。根据p11、p12、p13、p21、p22和p23,以及p31、p32和p33。可以得到多条路径,这里,在生成路径的过程中,往往需要使用到一些剪枝算法来进行剪枝,来剪掉路径分枝中概率小于预设阈值的分枝。进而得到5条路径。
步骤304,基于多条路径、多条路径对应的分数、目标字典和上述预先训练的语言模型,得到上述目标文本。
在一些实施例中,根据多条路径、多条路径对应的分数、目标字典和上述预先训练的语言模型,上述执行主体可以通过各种方式来得到上述目标文本。其中,上述目标字典的作用是可以根据音节找到对应的汉字。
作为示例,根据多条路径、多条路径对应的分数、目标字典和预先训练的语言模型,可以构建一个动态的搜索空间,使用搜索算法(例如,维特比算法)搜索,从而寻找到最优路径(例如,概率乘积最大路径),即完成解码。将最优路径上的字或词作为目标文本。
作为示例,可以参考图6所示。将目标语音601经过RNNT模型602,会得到多条路径。例如,路径1、路径2、路径3、路径4和路径5,如附图标记603所示。这里,在得到路径的同时,也可以得到多条路径中每条路径所对应的分数。
将5条路径和5条路径所对应的分数再结合语言模型604和目标字典,可以构建一个动态的搜索空间,使用搜索算法搜索,解码。例如,使用维特比算法解码。最终,得到解码结果,即目标文字605。
在一些实施例的一些可选的实现方式中,上述语言模型可以包括n-gram语言模型。在这里,n-gram模型是常用的一种语言模型,对中文而言,可以称之为汉语语言模型(CLM,Chinese Language Model)。该N-Gram模型基于这样一种假设,第N个词的出现只与前面N-1个词相关,而与其它任何词都不相关,整句的概率就是各个词出现概率的乘积,而这些概率可以通过直接从语料中统计N个词同时出现的次数得到。这里,N可以等于5。该实现方式使用n-gram语言模型进行解码,可以使得最终的语音识别结果更加准确。
从图3中可以看出,与图2对应的一些实施例的描述相比,图3对应的一些实施例中的语音识别的方法的流程300体现了使用RNNT模型,因为RNN-T模型自身有预测网络,可以更好地结合上下文做音节概率预测。同时,对于每个时刻从音节概率集合选择符合条件的音节概率进行下一步的计算,减少了计算量。
进一步参考图4,其示出了语音识别的方法的另一些实施例的流程400。该语音识别的方法的流程400,包括以下步骤:
步骤401,针对目标语音的语音帧序列中的每个语音帧,将语音帧输入预先训练的循环神经网络转换器RNNT,生成语音帧的音节概率集合。
在一些实施例中,步骤401的具体实现及所带来的技术效果可以参考图3对应的那些实施例中的步骤301,在此不再赘述。
步骤402,针对音节概率集合序列中的每个音节概率集合,基于贪心搜索算法,选择预定数目个音节概率,得到音节概率子集合,得到音节概率子集合序列。
在一些实施例中,针对音节概率集合序列中的每个音节概率集合,上述执行主体可以使用贪心搜索(greedy search)算法,从上述音节概率集合中选择预定数目个(例如5个)音节概率,得到音节概率子集合。最终,得到音节概率子集合序列。这里,使用贪心搜索是从每一个音节概率集合中,选择概率最高的预定数目个音节概率,进而组成音节概率子集合。
作为示例,可以参照图5。现有一语音帧序列,语音帧序列可以包括:语音帧A、语音帧B和语音帧C。这里,可以将三个语音帧分三个时间点(例如,t1、t2和t3)依次输入RNNT模型。这里,以t1为例,在t1时刻,将语音帧A输入RNNT模型,RNNT模型会输出关于语音帧A的音节概率集合。语音帧A的音节概率集合可以包括:p11、p12、p13、p14到p1n。这里,n大于等于2。例如,n可以等于400。具体的,p11、p12、p13、p14到p1n可以表示为:hu(80%)、lu(2%)、liu(5%),dou(3%)…gou(2%)。在此基础上,可以对t1时刻语音帧A的音节概率集合做贪心搜索,从语音帧A的音节概率集合选择前三个音节概率。进而得到p11、p12、p13。类似的,对于t2时刻和t3时刻,可以分别得到p21、p22和p23,以及p31、p32和p33。
步骤403,基于音节概率子集合序列和剪枝算法,生成多条路径和多条路径对应的分数,其中,上述路径是包含多个音节的序列,上述分数是序列中多个音节概率的乘积。
步骤404,基于多条路径、多条路径对应的分数、目标字典和上述预先训练的语言模型,得到上述目标文本。
在一些实施例中,步骤403-404的具体实现及所带来的技术效果可以参考图3对应的那些实施例中的步骤303-304,在此不再赘述。
图4中可以看出,与图3对应的一些实施例的描述相比,图4对应的一些实施例中的语音识别的方法的流程400体现了使用贪心搜索算法,对于每个时刻从音节概率集合选择概率较高的音节概率进行下一步的计算,不仅提升了语音识别结果的准确度,还减少了计算量。
进一步参考图7,作为对上述各图所示方法的实现,本公开提供了一种语音识别装置的一些实施例,这些装置实施例与图2所示的那些方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图7所示,一些实施例的语音识别装置700包括:第一生成单元701和第二生成单元702。其中,接收单元701配置用于针对目标语音的语音帧序列中的每个语音帧,生成上述语音帧的音节概率集合,得到音节概率集合序列,其中,上述音节概率集合用于表征上述语音帧表达的是预设的多个音节中各个音节的概率。第二生成单元702配置用于基于上述音节概率集合序列和预先训练的语言模型,生成目标文字。
在一些实施例的一些可选的实现方式中,第一生成单元701可以进一步被配置成,针对上述目标语音的语音帧序列中的每个语音帧,将上述语音帧输入预先训练的循环神经网络转换器RNNT,生成上述语音帧的音节概率集合。
在一些实施例的一些可选的实现方式中,第二生成单元702可以进一步被配置成,针对上述音节概率集合序列中的每个音节概率集合,从上述音节概率集合中选出符合预定条件的音节概率,得到音节概率子集合,得到音节概率子集合序列;基于上述音节概率子集合序列和剪枝算法,生成多条路径和多条路径对应的分数,其中,上述路径是包含多个音节的序列,上述分数是上述序列中多个音节概率的乘积;基于上述多条路径、上述多条路径对应的分数、目标字典和上述预先训练的语言模型,得到上述目标文本。
在一些实施例的一些可选的实现方式中,第二生成单元702可以进一步被配置成,基于贪心搜索算法,选择预定数目个音节概率,得到音节概率子集合。
在一些实施例的一些可选的实现方式中,上述预先训练的语言模型包括n-gram语言模型。
可以理解的是,该装置700中记载的诸单元与参考图2描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作、特征以及产生的有益效果同样适用于装置700及其中包含的单元,在此不再赘述。
下面参考图8,其示出了适于用来实现本公开的一些实施例的电子设备(例如图1中的电子设备)800的结构示意图。图8示出的电子设备仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图8所示,电子设备800可以包括处理装置(例如中央处理器、图形处理器等)801,其可以根据存储在只读存储器(ROM)802中的程序或者从存储装置807加载到随机访问存储器(RAM)803中的程序而执行各种适当的动作和处理。在RAM 803中,还存储有电子设备800操作所需的各种程序和数据。处理装置801、ROM 802以及RAM 803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。
通常,以下装置可以连接至I/O接口805:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置806;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置807;包括例如磁带、硬盘等的存储装置808;以及通信装置809。通信装置809可以允许电子设备800与其他设备进行无线或有线通信以交换数据。虽然图8示出了具有各种装置的电子设备800,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图8中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的一些实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的一些实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的一些实施例中,该计算机程序可以通过通信装置809从网络上被下载和安装,或者从存储装置808被安装,或者从ROM 802被安装。在该计算机程序被处理装置801执行时,执行本公开的一些实施例的方法中限定的上述功能。
需要说明的是,本公开的一些实施例上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的一些实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本公开的一些实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述装置中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:针对目标语音的语音帧序列中的每个语音帧,生成上述语音帧的音节概率集合,得到音节概率集合序列,其中,上述音节概率集合用于表征上述语音帧表达的是预设的多个音节中各个音节的概率;基于上述音节概率集合序列和预先训练的语言模型,生成目标文字。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的一些实施例的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开的一些实施例中的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括第一生成单元和第二生成单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一生成单元还可以被描述为“针对目标语音的语音帧序列中的每个语音帧,生成上述语音帧的音节概率集合,得到音节概率集合序列的单元”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上***(SOC)、复杂可编程逻辑设备(CPLD)等等。
根据本公开的一个或多个实施例,提供了一种语音识别的方法,包括:针对目标语音的语音帧序列中的每个语音帧,生成上述语音帧的音节概率集合,得到音节概率集合序列,其中,上述音节概率集合用于表征上述语音帧表达的是预设的多个音节中各个音节的概率;基于上述音节概率集合序列和预先训练的语言模型,生成目标文字。
根据本公开的一个或多个实施例,上述针对目标语音的语音帧序列中的每个语音帧,生成上述语音帧的音节概率集合,得到音节概率集合序列,包括:针对上述目标语音的语音帧序列中的每个语音帧,将上述语音帧输入预先训练的循环神经网络转换器RNNT,生成上述语音帧的音节概率集合。
根据本公开的一个或多个实施例,上述基于上述音节概率集合序列和预先训练的语言模型,生成目标文字,包括:针对上述音节概率集合序列中的每个音节概率集合,从上述音节概率集合中选出符合预定条件的音节概率,得到音节概率子集合,得到音节概率子集合序列;基于上述音节概率子集合序列和剪枝算法,生成多条路径和多条路径对应的分数,其中,上述路径是包含多个音节的序列,上述分数是上述序列中多个音节概率的乘积;基于上述多条路径、上述多条路径对应的分数、目标字典和上述预先训练的语言模型,得到上述目标文本。
根据本公开的一个或多个实施例,上述针对上述音节概率集合序列中的每个音节概率集合,从上述音节概率集合中选出符合预定条件的音节概率,得到音节概率子集合,包括:
按照上述音节概率集合中音节概率从大到小的顺序,选择预定数目个音节概率,得到音节概率子集合。
根据本公开的一个或多个实施例,上述预先训练的语言模型包括n-gram语言模型。
根据本公开的一个或多个实施例,提供了一种语音识别的装置,包括:第一生成单元,被配置成针对目标语音的语音帧序列中的每个语音帧,生成上述语音帧的音节概率集合,得到音节概率集合序列,其中,上述音节概率集合用于表征上述语音帧表达的是预设的多个音节中各个音节的概率;第二生成单元,被配置成基于上述音节概率集合序列和预先训练的语言模型,生成目标文字。
根据本公开的一个或多个实施例,第一生成单元可以进一步被配置成,针对上述目标语音的语音帧序列中的每个语音帧,将上述语音帧输入预先训练的循环神经网络转换器RNNT,生成上述语音帧的音节概率集合。
根据本公开的一个或多个实施例,第二生成单元可以进一步被配置成,针对上述音节概率集合序列中的每个音节概率集合,从上述音节概率集合中选出符合预定条件的音节概率,得到音节概率子集合,得到音节概率子集合序列;基于上述音节概率子集合序列和剪枝算法,生成多条路径和多条路径对应的分数,其中,上述路径是包含多个音节的序列,上述分数是上述序列中多个音节概率的乘积;基于上述多条路径、上述多条路径对应的分数、目标字典和上述预先训练的语言模型,得到上述目标文本。
根据本公开的一个或多个实施例,第二生成单元可以进一步被配置成,基于贪心搜索算法,选择预定数目个音节概率,得到音节概率子集合。
根据本公开的一个或多个实施例,上述预先训练的语言模型包括n-gram语言模型。
根据本公开的一个或多个实施例,提供了一种电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如上述任一实施例描述的方法。
根据本公开的一个或多个实施例,提供了一种计算机可读介质,其上存储有计算机程序,其中,程序被处理器执行时实现如上述任一实施例描述的方法。
以上描述仅为本公开的一些较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (7)
1.一种语音识别的方法,包括:
针对目标语音的语音帧序列中的每个语音帧,生成所述语音帧的音节概率集合,得到音节概率集合序列,其中,所述音节概率集合用于表征所述语音帧表达的是预设的多个音节中各个音节的概率;
针对所述音节概率集合序列中的每个音节概率集合,从所述音节概率集合中选出符合预定条件的音节概率,得到音节概率子集合,得到音节概率子集合序列;
基于所述音节概率子集合序列和剪枝算法,生成多条路径和多条路径对应的分数,其中,所述路径是包含多个音节的序列,所述分数是所述序列中多个音节概率的乘积;
获取目标字典,基于所述多条路径、所述多条路径对应的分数、所述目标字典和预先训练的语言模型,得到目标文字。
2.根据权利要求1所述的方法,其中,所述针对目标语音的语音帧序列中的每个语音帧,生成所述语音帧的音节概率集合,得到音节概率集合序列,包括:
针对所述目标语音的语音帧序列中的每个语音帧,将所述语音帧输入预先训练的循环神经网络转换器RNNT,生成所述语音帧的音节概率集合。
3.根据权利要求2所述的方法,其中,所述针对所述音节概率集合序列中的每个音节概率集合,从所述音节概率集合中选出符合预定条件的音节概率,得到音节概率子集合,包括:
基于贪心搜索算法,选择预定数目个音节概率,得到音节概率子集合。
4.根据权利要求1-3之一所述的方法,其中,所述预先训练的语言模型包括n-gram语言模型。
5.一种语音识别的装置,包括:
第一生成单元,被配置成针对目标语音的语音帧序列中的每个语音帧,生成所述语音帧的音节概率集合,得到音节概率集合序列,其中,所述音节概率集合用于表征所述语音帧表达的是预设的多个音节中各个音节的概率;
第二生成单元,被配置成针对所述音节概率集合序列中的每个音节概率集合,从所述音节概率集合中选出符合预定条件的音节概率,得到音节概率子集合,得到音节概率子集合序列;
基于所述音节概率子集合序列和剪枝算法,生成多条路径和多条路径对应的分数,其中,所述路径是包含多个音节的序列,所述分数是所述序列中多个音节概率的乘积;
获取目标字典,基于所述多条路径、所述多条路径对应的分数、所述目标字典和预先训练的语言模型,得到目标文字。
6.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-4中任一所述的方法。
7.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-4中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010512892.9A CN111681661B (zh) | 2020-06-08 | 2020-06-08 | 语音识别的方法、装置、电子设备和计算机可读介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010512892.9A CN111681661B (zh) | 2020-06-08 | 2020-06-08 | 语音识别的方法、装置、电子设备和计算机可读介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111681661A CN111681661A (zh) | 2020-09-18 |
CN111681661B true CN111681661B (zh) | 2023-08-08 |
Family
ID=72454931
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010512892.9A Active CN111681661B (zh) | 2020-06-08 | 2020-06-08 | 语音识别的方法、装置、电子设备和计算机可读介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111681661B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112634904A (zh) * | 2020-12-22 | 2021-04-09 | 北京有竹居网络技术有限公司 | 热词识别方法、装置、介质和电子设备 |
CN113763960B (zh) * | 2021-11-09 | 2022-04-26 | 深圳市友杰智新科技有限公司 | 模型输出的后处理方法、装置和计算机设备 |
CN114360510A (zh) * | 2022-01-14 | 2022-04-15 | 腾讯科技(深圳)有限公司 | 一种语音识别方法和相关装置 |
CN115171695A (zh) * | 2022-06-29 | 2022-10-11 | 东莞爱源创科技有限公司 | 语音识别方法、装置、电子设备和计算机可读介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108428446A (zh) * | 2018-03-06 | 2018-08-21 | 北京百度网讯科技有限公司 | 语音识别方法和装置 |
CN108735201A (zh) * | 2018-06-29 | 2018-11-02 | 广州视源电子科技股份有限公司 | 连续语音识别方法、装置、设备和存储介质 |
CN110808032A (zh) * | 2019-09-20 | 2020-02-18 | 平安科技(深圳)有限公司 | 一种语音识别方法、装置、计算机设备及存储介质 |
CN110838289A (zh) * | 2019-11-14 | 2020-02-25 | 腾讯科技(深圳)有限公司 | 基于人工智能的唤醒词检测方法、装置、设备及介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103578465B (zh) * | 2013-10-18 | 2016-08-17 | 威盛电子股份有限公司 | 语音辨识方法及电子装置 |
KR102371188B1 (ko) * | 2015-06-30 | 2022-03-04 | 삼성전자주식회사 | 음성 인식 장치 및 방법과 전자 장치 |
-
2020
- 2020-06-08 CN CN202010512892.9A patent/CN111681661B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108428446A (zh) * | 2018-03-06 | 2018-08-21 | 北京百度网讯科技有限公司 | 语音识别方法和装置 |
CN108735201A (zh) * | 2018-06-29 | 2018-11-02 | 广州视源电子科技股份有限公司 | 连续语音识别方法、装置、设备和存储介质 |
CN110808032A (zh) * | 2019-09-20 | 2020-02-18 | 平安科技(深圳)有限公司 | 一种语音识别方法、装置、计算机设备及存储介质 |
CN110838289A (zh) * | 2019-11-14 | 2020-02-25 | 腾讯科技(深圳)有限公司 | 基于人工智能的唤醒词检测方法、装置、设备及介质 |
Non-Patent Citations (1)
Title |
---|
晁浩.汉语语音识别中基于音节的声学模型改进算法.计算机应用.2013,第33卷(第33期),1742-1745. * |
Also Published As
Publication number | Publication date |
---|---|
CN111681661A (zh) | 2020-09-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108630190B (zh) | 用于生成语音合成模型的方法和装置 | |
US10388284B2 (en) | Speech recognition apparatus and method | |
CN111681661B (zh) | 语音识别的方法、装置、电子设备和计算机可读介质 | |
JP7066349B2 (ja) | 翻訳方法、翻訳装置及びコンピュータプログラム | |
US11093813B2 (en) | Answer to question neural networks | |
CN112489620B (zh) | 语音合成方法、装置、可读介质及电子设备 | |
US20240021202A1 (en) | Method and apparatus for recognizing voice, electronic device and medium | |
CN111368559A (zh) | 语音翻译方法、装置、电子设备及存储介质 | |
CN112528637B (zh) | 文本处理模型训练方法、装置、计算机设备和存储介质 | |
CN112489621B (zh) | 语音合成方法、装置、可读介质及电子设备 | |
CN113470619B (zh) | 语音识别方法、装置、介质及设备 | |
CN111489735B (zh) | 语音识别模型训练方法及装置 | |
CN111428010A (zh) | 人机智能问答的方法和装置 | |
CN112509562A (zh) | 用于文本后处理的方法、装置、电子设备和介质 | |
CN111368560A (zh) | 文本翻译方法、装置、电子设备及存储介质 | |
CN111104796B (zh) | 用于翻译的方法和装置 | |
CN112364653A (zh) | 用于语音合成的文本分析方法、装置、服务器和介质 | |
CN114765025A (zh) | 语音识别模型的生成方法、识别方法、装置、介质及设备 | |
CN111933119B (zh) | 用于生成语音识别网络的方法、装置、电子设备和介质 | |
US20230410794A1 (en) | Audio recognition method, method of training audio recognition model, and electronic device | |
CN112785667A (zh) | 视频生成方法、装置、介质及电子设备 | |
CN111653261A (zh) | 语音合成方法、装置、可读存储介质及电子设备 | |
CN113689866B (zh) | 一种语音转换模型的训练方法、装置、电子设备及介质 | |
CN112530416B (zh) | 语音识别方法、装置、设备和计算机可读介质 | |
CN111754984B (zh) | 文本选取的方法、装置、设备和计算机可读介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |