CN112185348A - 多语种语音识别方法、装置及电子设备 - Google Patents

多语种语音识别方法、装置及电子设备 Download PDF

Info

Publication number
CN112185348A
CN112185348A CN202011119841.6A CN202011119841A CN112185348A CN 112185348 A CN112185348 A CN 112185348A CN 202011119841 A CN202011119841 A CN 202011119841A CN 112185348 A CN112185348 A CN 112185348A
Authority
CN
China
Prior art keywords
recognition result
target
probability
voice
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011119841.6A
Other languages
English (en)
Other versions
CN112185348B (zh
Inventor
刘博卿
王健宗
张之勇
程宁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN202011119841.6A priority Critical patent/CN112185348B/zh
Priority to PCT/CN2020/134543 priority patent/WO2021179701A1/zh
Publication of CN112185348A publication Critical patent/CN112185348A/zh
Application granted granted Critical
Publication of CN112185348B publication Critical patent/CN112185348B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/005Language recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • G10L15/142Hidden Markov Models [HMMs]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Machine Translation (AREA)

Abstract

本公开涉及语音识别技术领域,揭露一种多语种语音识别方法、装置及电子设备,该多语种语音识别方法包括:获取待识别的目标语音;调用预训练的声学模型以及预训练的多语种语言模型对所述目标语音进行解码,获取所述目标语音的识别结果搜索网格;调用预训练的多个单语种语言模型分别对所述识别结果搜索网格进行重打分,分别筛选出一个对应语种的候选识别结果,并分别确定所述候选识别结果为所述目标语音的目标识别结果的概率;按照所述概率从大到小的顺序将所述候选识别结果进行排序,并从排名前预设位数的候选识别结果中筛选出所述目标识别结果。本公开可以降低多语种语音识别的难度。同样的,本方案可以应用于数字医疗中在线问诊环节中。

Description

多语种语音识别方法、装置及电子设备
技术领域
本公开涉及语音识别技术领域,尤其涉及一种多语种语音识别方法、装置及电子设备。
背景技术
随着国际间文化的频繁碰撞,用户在日常生活的语音交流中,常常会将多种语种的语言混合在一起。例如:“你看到我的pen了吗?”这一语音将中文与英文混合在了一起。现有技术中,在针对多语种语音进行识别时,先使用语种检测模型对语音所包含的语种类别进行检测,进而再基于检测所确定的语种类别进行语言识别以得到识别结果。由此可见,现有技术中多语种语音识别的准确度受制于语种检测模型的准确度,一旦语种检测模型出现错误,语音的识别结果也会出错。因此现有技术中为保证语音识别结果的准确度,必须训练出高准确度的语种检测模型,而训练出高准确度的语种检测模型对于训练数据以及训练时间的要求均很高,难度较大。
发明内容
本公开提供一种多语种语音识别方法、装置及电子设备,其主要目的在于降低多语种语音识别的难度。
为实现上述目的,本公开提供的一种多语种语音识别方法,包括:
获取待识别的目标语音;
调用预训练的声学模型以及预训练的多语种语言模型对所述目标语音进行解码,获取所述目标语音的识别结果搜索网格;
调用预训练的多个单语种语言模型分别对所述识别结果搜索网格进行重打分,分别筛选出一个对应语种的候选识别结果,并分别确定所述候选识别结果为所述目标语音的目标识别结果的概率;
按照所述概率从大到小的顺序将所述候选识别结果进行排序,并从排名前预设位数的候选识别结果中筛选出所述目标识别结果。
可选地,在调用预训练的声学模型以及预训练的多语种语言模型对所述目标语音进行解码之前,所述方法还包括:
对所述目标语音进行降噪处理,得到降噪处理后的目标语音;
对所述降噪处理后的目标语音进行特征提取,得到用于作为所述声学模型的输入的所述目标语音的语音帧序列。
可选地,通过以下方法预训练所述多语种语言模型,所述方法包括:
获取第一语种对应的第一训练文本以及第二语种对应的第二训练文本;
将所述第一训练文本以及所述第二训练文本共同输入所述多语种语言模型,得到所述多语种语言模型输出的所述第一训练文本的第一识别结果以及所述第二训练文本的第二识别结果;
基于所述第一识别结果以及所述第二识别结果确定所述多语种语言模型的识别误差;
通过反向传播所述识别误差调整所述多语种语言模型的参数,直到所述识别误差小于预设误差阈值。
可选地,调用预训练的声学模型以及预训练的多语种语言模型对所述目标语音进行解码,包括:
调用所述声学模型以所述目标语音的语音帧为输入,针对每一语音帧,输出所述语音帧对应各状态的第一概率以及所述各状态之间相互转移的第二概率;
获取所述多语种语言模型经预训练后得到的用于描述词序统计规律的第三概率;
基于所述第一概率、所述第二概率以及所述第三概率对所述目标语音进行解码,得到所述识别结果搜索网格。
可选地,基于所述第一概率、所述第二概率以及所述第三概率对所述目标语音进行解码,得到所述识别结果搜索网格,包括:
根据所述第一概率、所述第二概率以及所述第三概率建立所述目标语音的状态网络,所述状态网络中的节点用于描述单一状态下的语音帧,所述状态网络中的的边用于描述各个所述单一状态下的语音帧之间的转移概率;
采用维特比算法在所述状态网络中进行搜索,得到所述识别结果搜索网格。
可选地,基于所述概率从所述候选识别结果中筛选出所述目标识别结果,包括:将最大的所述概率对应的候选识别结果确定为所述目标识别结果。
可选地,基于所述概率从所述候选识别结果中筛选出所述目标识别结果,包括:
按照所述概率从大到小的顺序,将所述候选识别结果进行排序;
从排名前预设位数的候选识别结果中随机选取出一候选识别结果作为所述目标识别结果。
为了解决上述问题,本公开还提供一种多语种语音识别装置,所述装置包括:
获取模块,配置为获取待识别的目标语音;
解码模块,配置为调用预训练的声学模型以及预训练的多语种语言模型对所述目标语音进行解码,获取所述目标语音的识别结果搜索网格;
重打分模块,配置为调用预训练的多个单语种语言模型分别对所述识别结果搜索网格进行重打分,分别筛选出一个对应语种的候选识别结果,并分别确定所述候选识别结果为所述目标语音的目标识别结果的概率;
筛选模块,配置为按照所述概率从大到小的顺序将所述候选识别结果进行排序,并从排名前预设位数的候选识别结果中筛选出所述目标识别结果。
为了解决上述问题,本公开还提供一种电子设备,所述电子设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现上述所述的多语种语音识别方法。
为了解决上述问题,本公开还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现上述所述的多语种语音识别方法。
本公开实施例通过声学模型以及多语种语言模型对目标语音进行解码,得到包含各种可能语种组合对应的识别结果的识别结果搜索网格。再根据单语种语言模型对该识别结果搜索网格进行重打分,筛选出各语种下最可能的识别结果,即候选识别结果,最终再从得到的多个候选识别结果中筛选出目标识别结果。本公开实施例所提供的方法,规避掉了在进行多语种语音识别时对语种类别进行检测的这一步骤,从而避免了因训练语种检测模型所带来的困难,降低了多语种语音识别的难度,可应用于智慧政务领域、智慧医疗领域或者其他有着语音识别需求的领域中,从而推动智慧城市的建设。同样的,本方案可以应用于数字医疗中在线问诊环节中。
附图说明
图1为本公开一实施例提供的多语种语音识别方法的流程示意图。
图2为本公开一实施例提供的多语种语音识别装置的模块示意图。
图3为本公开一实施例提供的实现多语种语音识别方法的电子设备的内部结构示意图。
本公开目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本公开,并不用于限定本公开。
本公开提供一种多语种语音识别方法。参照图1所示,为本公开一实施例提供的多语种语音识别方法的流程示意图。该方法可以由一个装置执行,该装置可以由软件和/或硬件实现。
在本实施例中,多语种语音识别方法包括:
步骤S1、获取待识别的目标语音;
步骤S2、调用预训练的声学模型以及预训练的多语种语言模型对所述目标语音进行解码,获取所述目标语音的识别结果搜索网格;
步骤S3、调用预训练的多个单语种语言模型分别对所述识别结果搜索网格进行重打分,分别筛选出一个对应语种的候选识别结果,并分别确定所述候选识别结果为所述目标语音的目标识别结果的概率;
步骤S4、按照所述概率从大到小的顺序将所述候选识别结果进行排序,并从排名前预设位数的候选识别结果中筛选出所述目标识别结果。
本公开实施例所提供的多语种语音识别方法可以应用于各种存在语音识别需求的应用场景中,例如:智能客服、智能机器人问诊。
在一实施例中,将本公开实施例所提供的多语种语音识别方法应用于智能客服中。智能客服***预先在云端服务器中训练并配置好一个声学模型、一个多语种语言模型、一个中文语言模型、一个英文语言模型以及一个日文语言模型。该多语种语言模型是采用混合了中文、英文以及日文的训练文本训练得到的语言模型;该中文语言模型是只采用中文训练文本训练得到的语言模型;该英文语言模型是只采用英文训练文本训练得到的语言模型;该日文语言模型是只采用日文训练文本训练得到的语言模型。
用户通过客户端(例如:手机、个人电脑)与该智能客服***建立通话的过程中,该智能客服***将通过该客户端采集到的用户语音上传至云端服务器,并调用该声学模型以及该多语种语言模型对用户语音进行解码,得到识别结果搜索网格。调用该中文语言模型对该识别结果搜索网格进行重打分,根据重打分所进行的搜索筛选出中文下的候选识别结果R1,同时确定候选识别结果R1为用户的真实语义的概率P1;并列地,调用该英文语言模型对该识别结果搜索网格进行重打分,筛选出英文下的候选识别结果R2,同时确定候选识别结果R2为用户的真实语义的概率P2;并列地,调用该日文语言模型对该识别结果搜索网格进行重打分,筛选出日文下的候选识别结果R3,同时确定候选识别结果R3为用户的真实语义的概率P3。
进而该智能客服***按照概率P1、概率P2以及概率P3从大到小的顺序,将上述三个候选识别结果进行排序,从排名前两位的候选识别结果中筛选出目标识别结果,确定用户的真实语义。
若该智能客服***确定候选识别结果R2为用户的真实语义,则该智能客服***可以进一步的根据预设的自然语言处理模型确定对该候选识别结果R2所应作出的应答,并将该应答从文本转换为语音,进而以语音的形式反馈给用户。从而即使用户在通话过程中将英文或者日文混入中文,该智能客服***也能够准确地理解用户的真实语义,进而准确地作出应答。
本公开实施例中,获取待识别的目标语音。具体的,可以通过麦克风采集用户的聊天语音,进而将该聊天语音作为待识别的目标语音,通过本公开实施例中后续处理确定该聊天语音的语义,即得到该目标语音的目标识别结果。进一步的,可以在得到的目标识别结果的基础上,将该聊天语音翻译为特定语种的语音,或者将该聊天语音转换为文本。
其中,所获取到的目标语音可以包含多个语种。例如:目标语音包含中文以及英文;或者,包含中文以及日文;或者,包含中文、英文以及日文。
本公开实施例中,预训练有至少一个的声学模型,预训练有至少一个的多语种语言模型。获取到目标语音后,调用该声学模型以及该多语种语言模型对目标语音进行解码,得到目标语音的识别结果搜索网格。该识别结果搜索网格可以看作用于搜索出正确的目标识别结果的搜索空间,是一种紧凑的包含多个可选路径的数据结构。具体的,调用该声学模型以及该多语种语言模型对目标语音进行解码,是在目标语音的状态网络中进行搜索,并对搜索出的各条路径进行打分,进而根据打出的分数对状态网络进行修剪筛选,从而得到更为紧凑的其中所包含路径更接近目标识别结果的识别结果搜索网格。
其中,声学模型指的是对原始的音频数据进行处理,提取出音频数据中的音素信息的模型。具体的,本公开实施例中可以使用混合高斯模型以及隐马尔科夫模型(GMM-HMM)作为声学模型;也可以使用深度神经网络(Deep Neural Network,DNN)作为声学模型。
多语种语言模型指的是训练时所使用的训练文本包含多个不同的语种所得到的语言模型。由于训练该多语种语音模型时,主要限于训练文本所包含的有限个数的语种以及训练文本所包含的有限个数的具体语句,因此将该多语种语音模型投入实际的语音识别时,其所解码得到的识别结果搜索网格的困惑度较高。
在一实施例中,在调用预训练的声学模型以及预训练的多语种语言模型对目标语音进行解码之前,方法还包括:
对目标语音进行降噪处理,得到降噪处理后的目标语音;
对降噪处理后的目标语音进行特征提取,得到用于作为声学模型的输入的目标语音的语音帧序列。
该实施例中,获取到目标语音后,在对目标语音进行解码之前,对目标语音进行降噪处理以增强目标语音。再对降噪处理后的目标语音进行特征提取,将降噪处理后的目标语音从时域信号转换为频域信号,得到用于作为声学模型的输入的目标语音的语音帧序列(例如:以帧划分的目标语音的FBANK特征)。
可以理解的,在对目标语音进行解码之前,除了对目标语音进行降噪处理外,还可以对目标语音进行失真消除处理或者其他语音预处理,以进一步从整体提高多语种语音识别的准确度。
在一实施例中,通过以下方法预训练多语种语言模型,方法包括:
获取第一语种对应的第一训练文本以及第二语种对应的第二训练文本;
将第一训练文本以及第二训练文本共同输入多语种语言模型,得到多语种语言模型输出的第一训练文本的第一识别结果以及第二训练文本的第二识别结果;
基于第一识别结果以及第二识别结果确定多语种语言模型的识别误差;
通过反向传播识别误差调整多语种语言模型的参数,直到识别误差小于预设误差阈值。
该实施例中,采用包含两个语种的训练文本预训练多语种语言模型。
具体的,第一训练文本为第一语种,第二训练文本为第二语种,第一语种与第二语种为不同语种。在保证每个句子的语义完整的前提下,将第一训练文本与第二训练文本混合在一起,并输入该多语种语言模型;进而该多语种语言模型以当前参数对输入的文本进行处理,输出第一训练文本的第一识别结果以及第二训练文本的第二识别结果。此时,该多语种语言模型所输出的第一识别结果可能是存在错误的,所输出的第二识别结果也可能是存在错误的。
由于第一训练文本的正确识别结果是事先确定的,第二训练文本的正确识别结果也是事先确定的,因此,可以基于该多语种语言模型所输出的第一识别结果以及第二识别结果确定该多语种语言模型的识别误差。进而采用反向传播算法,按照从后往前的顺序,依次调整该多语种语言模型的参数。再次将第一训练文本与第二训练文本混合在一起并输入该多语种语言模型,不断循环,直到该多语种语言模型的识别误差小于预设误差阈值。
例如:预设误差阈值为5%。预先采集一定量的中文训练文本以及一定量的英文训练文本,以句子为单位,将该中文训练文本中的各句子随机***到该英文训练文本中,从而得到混合了中文与英文的混合训练文本。
将该混合训练文本输入一待训练的语言模型A,得到语言模型A输出的中文部分的第一识别结果以及英文部分的第二识别结果,进而在此基础上确定语言模型A的识别误差。进而通过反向传播该识别误差调整语言模型A的参数。
再将该混合训练文本输入调整了参数后的语言模型A,不断循环,直到语言模型A的识别误差小于5%,得到预训练完成的能够以一定准确度识别中英文混合文本的多语种语言模型A。
需要说明的是,该实施例只是示例性地展示了预训练多语种语言模型的过程。可以理解的,根据场景应用需求,在预训练多语种语言模型时,可以将三个或者三个以上的语种的训练文本混合在一起。该实施例不应对本公开的功能和使用范围造成限制。
在一实施例中,调用预训练的声学模型以及预训练的多语种语言模型对目标语音进行解码,包括:
调用声学模型以目标语音的语音帧为输入,针对每一语音帧,输出语音帧对应各状态的第一概率以及各状态之间相互转移的第二概率;
获取多语种语言模型经预训练后得到的用于描述词序统计规律的第三概率;
基于第一概率、第二概率以及第三概率对目标语音进行解码,得到识别结果搜索网格。
该实施例中,解码主要指的是在由声学模型、声学上下文和语言模型等知识源组成的搜索空间中,通过搜索得到各路径所对应的概率,进而可以根据概率挑选出最佳路径或者排名前N的路径。其中,每条路径对应着一个识别结果;N为预设的正整数。
具体的,声学模型将声学和发音学的知识进行整合,以目标语音的语音帧序列为输入,针对该语音帧序列中的每一语音帧,均输出该语音帧对应各状态的第一概率以及该语音帧的各状态之间相互转移的第二概率。即,第一概率描述的是帧与状态之间的概率;第二概率描述的是状态与状态之间的概率。其中,状态指的是在语音处理中,比音素粒度更小的语音单元,一个音素对应多个状态。语音识别的本质便是在确定每一语音帧对应的状态的基础上再确定音素再确定词序,所确定的词序即识别结果。
多语种语言模型在经过预训练后,便具有与预训练过程相匹配的有关词序统计规律的先验知识。从而多语种语言模型以该先验知识输出用于描述词序统计规律的第三概率。
进而基于该第一概率、该第二概率以及该第三概率对目标语音进行解码,得到识别结果搜索网格。
在一实施例中,基于第一概率、第二概率以及第三概率对目标语音进行解码,得到识别结果搜索网格,包括:
根据第一概率、第二概率以及第三概率建立目标语音的状态网络,状态网络中的节点用于描述单一状态下的语音帧,状态网络中的边用于描述各个单一状态下的语音帧;
采用维特比算法在状态网络中进行搜索,得到识别结果搜索网格。
该实施例中,建立得到的目标语音的状态网络为图结构数据。具体的,根据第一概率将语音帧在各状态下进行展开,得到在状态网络中的对应节点。例如:语音帧t为第一状态s1的第一概率为a1,为第二状态s2的第一概率为a2,为第三状态s3的第二概率为a3。则将语音帧t在各状态下展开后,得到在状态网络中的3个节点,分别为语音帧t-s1、语音帧t-s2以及语音帧t-s3。
再根据状态之间相互转移的第二概率以及用于描述词序统计规律的第三规律建立各节点之间带有具体权重的边,从而得到状态网络。
再采用维特比算法在该状态网络中进行搜索,对搜索到的路径进行评分。根据该评分在确定最佳路径的同时,也可以确定次优的路径。进而将排名前N位的路径选出,并以DAG(directed acyclic graph,有向无环图)的结构将选出的这N条路径保存起来,得到图结构数据的识别结果搜索网格。具体的,选出这N条路径后,挑选出该N条路径所包括的所有节点,还原每一节点原本在状态网络中的位置,并同样地根据第一概率、第二概率以及第三概率重新建立所挑选还原出的各节点之间带有具体权重的边,从而得到识别结果搜索网格。
其中,采用维特比算法在进行搜索时,主要遵循以下三点规则:1、如果概率最大的路径经过状态网络的某点,则从开始点到该点的子路径也一定是从开始到该点路径中概率最大的;2、假设第i时刻有k个状态,从开始到i时刻的k个状态有k条最短路径,而最终的最短路径必然经过其中的一条;3、根据上述两点,在计算第i+1状态的最短路径时,只需考虑从开始到当前的k个状态值的最短路径和当前状态值到第i+1状态值的最短路径。
本公开实施例中,预训练有多个单语种语言模型,每个单语种语言模型只针对对应语种进行语音识别。获取到识别结果搜索网格后,调用该多个单语种语言模型分别对该识别结果搜索网格进行重打分。经过上述说明可知,对目标语音进行解码是在多语种语言模型的先验知识的基础上,在目标语音的状态网络中搜索得到该识别结果搜索网格;则,单语种语言模型的重打分可以看作在单语种语言模型的先验知识的基础上,在该识别结果搜索网络再次进行搜索得到对应的候选识别结果。重打分的实施过程与解码的实施过程大致相似,主要区别在于,多语种语言模型的先验知识所描述的是多个语种混合在一起的语言环境下的词序统计规律,单语种语言模型的先验知识所描述的是特定单一语种的语言环境下的词序统计规律。
每个单语种语言模型在重打分后均会筛选出一个对应语种下最可能的识别结果,即,对应语种的候选识别结果。同时,在对应语种下候选识别结果为目标识别结果的概率也得到了确定。
例如:预训练有3个单语种语言模型,分别为专门针对中文进行语音识别的语言模型B、专门针对英文进行语音识别的语言模型C以及专门针对日文进行语音识别的语言模型D。得到识别结果搜索网格后,调用语言模型B对其进行重打分,筛选出中文下的最高概率为P1的候选识别结果R1;调用语言模型C对其进行重打分,筛选出英文下的最高概率为P2的候选识别结果R2;调用语言模型D对其进行重打分,筛选出日文下的最高概率为P3的候选识别结果R3。
在一实施例中,单语种语言模型为基于统计的ngram语言模型。
该实施例的优点在于,采用基于统计的ngram语言模型作为单语种语言模型,避免了采用神经网络作为单语种语言模型对机器的限制,提高了处理速度,从而提高了线上实时的多语种语音识别的识别效率。
本公开实施例中,得到多个候选识别结果以及对应的为目标识别结果的概率后,按照对应概率从大到小的顺序将得到的多个候选识别结果进行排序,进而从排名前预设位数的候选识别结果中筛选出目标识别结果。其中,排名前预设位数一般不包括排名最后一位。
在一实施例中,从排名前预设位数的候选识别结果中筛选出目标识别结果,包括:将排名第一位的候选识别结果确定为目标识别结果。
该实施例中,按照概率从大到小的顺序将得到的多个候选识别结果排序后,从排名前M位中的第一位的候选识别结果确定为目标识别结果,即,将最大的概率对应的候选识别结果确定为目标识别结果。其中,M为预设的大于1的正整数。
例如:预设的M为2。得到的多个候选识别结果有概率为P1的候选识别结果R1、概率为P2的候选识别结果R2以及概率为P3的候选识别结果R3。其中,P1小于P2,P1大于P3,则排在前2位的依次为候选识别结果R2、候选识别结果R1。则将候选识别结果R2确定为目标识别结果。
在一实施例中,从排名前预设位数的候选识别结果中筛选出目标识别结果,包括:从排名前预设位数的候选识别结果中随机选取出一候选识别结果作为目标识别结果。
该实施例中,按照概率从大到小的顺序将得到的多个候选识别结果排序后,从排名前M位中随机选取一候选识别结果作为目标识别结果。其中,M为预设的大于1的正整数。
例如:预设的M为3。得到的多个候选识别结果有概率为P1的候选识别结果R1、概率为P2的候选识别结果R2、概率为P3的候选识别结果R3以及概率为P4的候选识别结果R4。其中,P1大于P2,P2大于P3,P3大于P4,则排在前3位的依次为候选识别结果R1、候选识别结果R2以及候选识别结果R3。则随机从候选识别结果R1、候选识别结果R2以及候选识别结果R3中随机选取一个作为目标识别结果。
该实施例的优点在于,通过在控制范围内引入一定程度的随机性,避免了在多语种语音识别尚未足够完善、尚未足够覆盖各类应用场景的情况下持续出现同类偏差的发生。
如图2所示,是本公开多语种语音识别装置的功能模块图。
本公开的多语种语音识别装置100可以安装于电子设备中。根据实现的功能,多语种语音识别装置可以包括获取模块101、解码模块102、重打分模块103、筛选模块104。本公开的模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
获取模块101配置为获取待识别的目标语音;
解码模块102配置为调用预训练的声学模型以及预训练的多语种语言模型对所述目标语音进行解码,获取所述目标语音的识别结果搜索网格;
重打分模块103配置为调用预训练的多个单语种语言模型分别对所述识别结果搜索网格进行重打分,分别筛选出一个对应语种的候选识别结果,并分别确定所述候选识别结果为所述目标语音的目标识别结果的概率;
筛选模块104配置为按照所述概率从大到小的顺序将所述候选识别结果进行排序,并从排名前预设位数的候选识别结果中筛选出所述目标识别结果。具体地,所述多语种语音识别装置100的功能模板具体所实现的功能可参考图1对应实施例中相关步骤的描述,在此不赘述。
如图3所示,是本公开实现多语种语音识别方法的电子设备的结构示意图。
所述电子设备1可以包括处理器10、存储器11和总线,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如多语种语音识别程序12。
其中,所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备1的内部存储单元,例如该电子设备1的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(SecureDigital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备1的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如多语种语音识别程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如多语种语音识别程序等),以及调用存储在所述存储器11内的数据,以执行电子设备1的各种功能和处理数据。
所述总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
图3仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图2示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述电子设备1还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备1与其他电子设备之间建立通信连接。
可选地,该电子设备1还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的多语种语音识别程序12是多个指令的组合,在所述处理器10中运行时,可以实现:
获取待识别的目标语音;
调用预训练的声学模型以及预训练的多语种语言模型对所述目标语音进行解码,获取所述目标语音的识别结果搜索网格;
调用预训练的多个单语种语言模型分别对所述识别结果搜索网格进行重打分,分别筛选出一个对应语种的候选识别结果,并分别确定所述候选识别结果为所述目标语音的目标识别结果的概率;
按照所述概率从大到小的顺序将所述候选识别结果进行排序,并从排名前预设位数的候选识别结果中筛选出所述目标识别结果。
具体地,所述处理器10对上述指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
在本公开所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本公开各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本公开不限于上述示范性实施例的细节,而且在不背离本公开的精神或基本特征的情况下,能够以其他的具体形式实现本公开。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本公开的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本公开内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。***权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本公开的技术方案而非限制,尽管参照较佳实施例对本公开进行了详细说明,本领域的普通技术人员应当理解,可以对本公开的技术方案进行修改或等同替换,而不脱离本公开技术方案的精神和范围。

Claims (10)

1.一种多语种语音识别方法,其特征在于,所述方法包括:
获取待识别的目标语音;
调用预训练的声学模型以及预训练的多语种语言模型对所述目标语音进行解码,获取所述目标语音的识别结果搜索网格;
调用预训练的多个单语种语言模型分别对所述识别结果搜索网格进行重打分,分别筛选出一个对应语种的候选识别结果,并分别确定所述候选识别结果为所述目标语音的目标识别结果的概率;
按照所述概率从大到小的顺序将所述候选识别结果进行排序,并从排名前预设位数的候选识别结果中筛选出所述目标识别结果。
2.如权利要求1所述的方法,其特征在于,在调用预训练的声学模型以及预训练的多语种语言模型对所述目标语音进行解码之前,所述方法还包括:
对所述目标语音进行降噪处理,得到降噪处理后的目标语音;
对所述降噪处理后的目标语音进行特征提取,得到用于作为所述声学模型的输入的所述目标语音的语音帧序列。
3.如权利要求1所述的方法,其特征在于,通过以下方法预训练所述多语种语言模型,所述方法包括:
获取第一语种对应的第一训练文本以及第二语种对应的第二训练文本;
将所述第一训练文本以及所述第二训练文本共同输入所述多语种语言模型,得到所述多语种语言模型输出的所述第一训练文本的第一识别结果以及所述第二训练文本的第二识别结果;
基于所述第一识别结果以及所述第二识别结果确定所述多语种语言模型的识别误差;
通过反向传播所述识别误差调整所述多语种语言模型的参数,直到所述识别误差小于预设误差阈值。
4.如权利要求1所述的方法,其特征在于,调用预训练的声学模型以及预训练的多语种语言模型对所述目标语音进行解码,包括:
调用所述声学模型以所述目标语音的语音帧序列为输入,针对每一语音帧,输出所述语音帧对应各状态的第一概率以及所述各状态之间相互转移的第二概率;
获取所述多语种语言模型经预训练后得到的用于描述词序统计规律的第三概率;
基于所述第一概率、所述第二概率以及所述第三概率对所述目标语音进行解码,得到所述识别结果搜索网格。
5.如权利要求4所述的方法,其特征在于,基于所述第一概率、所述第二概率以及所述第三概率对所述目标语音进行解码,得到所述识别结果搜索网格,包括:
根据所述第一概率、所述第二概率以及所述第三概率建立所述目标语音的状态网络,所述状态网络中的节点用于描述单一状态下的语音帧,所述状态网络中的的边用于描述各个所述单一状态下的语音帧之间的转移概率;
采用维特比算法在所述状态网络中进行搜索,得到所述识别结果搜索网格。
6.如权利要求1所述的方法,其特征在于,从排名前预设位数的候选识别结果中筛选出所述目标识别结果,包括:将排名第一位的候选识别结果确定为所述目标识别结果。
7.如权利要求1所述的方法,其特征在于,从排名前预设位数的候选识别结果中筛选出所述目标识别结果,包括:从排名前预设位数的候选识别结果中随机选取出一候选识别结果作为所述目标识别结果。
8.一种多语种语音识别装置,其特征在于,所述装置包括:
获取模块,配置为获取待识别的目标语音;
解码模块,配置为调用预训练的声学模型以及预训练的多语种语言模型对所述目标语音进行解码,获取所述目标语音的识别结果搜索网格;
重打分模块,配置为调用预训练的多个单语种语言模型分别对所述识别结果搜索网格进行重打分,分别筛选出一个对应语种的候选识别结果,并分别确定所述候选识别结果为所述目标语音的目标识别结果的概率;
筛选模块,配置为按照所述概率从大到小的顺序将所述候选识别结果进行排序,并从排名前预设位数的候选识别结果中筛选出所述目标识别结果。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至7中任一所述的多语种语音识别方法。
10.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一所述的多语种语音识别方法。
CN202011119841.6A 2020-10-19 2020-10-19 多语种语音识别方法、装置及电子设备 Active CN112185348B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202011119841.6A CN112185348B (zh) 2020-10-19 2020-10-19 多语种语音识别方法、装置及电子设备
PCT/CN2020/134543 WO2021179701A1 (zh) 2020-10-19 2020-12-08 多语种语音识别方法、装置及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011119841.6A CN112185348B (zh) 2020-10-19 2020-10-19 多语种语音识别方法、装置及电子设备

Publications (2)

Publication Number Publication Date
CN112185348A true CN112185348A (zh) 2021-01-05
CN112185348B CN112185348B (zh) 2024-05-03

Family

ID=73949726

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011119841.6A Active CN112185348B (zh) 2020-10-19 2020-10-19 多语种语音识别方法、装置及电子设备

Country Status (2)

Country Link
CN (1) CN112185348B (zh)
WO (1) WO2021179701A1 (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112885336A (zh) * 2021-01-29 2021-06-01 深圳前海微众银行股份有限公司 语音识别***的训练、识别方法、装置、电子设备
CN113077793A (zh) * 2021-03-24 2021-07-06 北京儒博科技有限公司 一种语音识别方法、装置、设备及存储介质
CN113223506A (zh) * 2021-05-28 2021-08-06 思必驰科技股份有限公司 语音识别模型训练方法及语音识别方法
CN113380227A (zh) * 2021-07-23 2021-09-10 上海才历网络有限公司 一种基于神经网络的语种识别方法、装置及电子设备
CN113380224A (zh) * 2021-06-04 2021-09-10 北京字跳网络技术有限公司 语种确定方法、装置、电子设备及存储介质
CN113597641A (zh) * 2021-06-22 2021-11-02 华为技术有限公司 语音处理方法、装置及***
CN113689888A (zh) * 2021-07-30 2021-11-23 浙江大华技术股份有限公司 一种异常声音分类方法、***、装置以及存储介质
WO2023138286A1 (zh) * 2022-01-19 2023-07-27 广州小鹏汽车科技有限公司 语音的多语种识别方法、装置、终端和存储介质
CN118136002A (zh) * 2024-05-06 2024-06-04 证通股份有限公司 构建语音识别模型的方法、设备及语音识别的方法、设备

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115132182B (zh) * 2022-05-24 2024-02-23 腾讯科技(深圳)有限公司 一种数据识别方法、装置、设备及可读存储介质
CN114927135B (zh) * 2022-07-22 2022-12-13 广州小鹏汽车科技有限公司 语音交互方法、服务器及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05281990A (ja) * 1992-03-31 1993-10-29 Mitsubishi Electric Corp 類似度演算装置
CN109117484A (zh) * 2018-08-13 2019-01-01 北京帝派智能科技有限公司 一种语音翻译方法和语音翻译设备
CN110569830A (zh) * 2019-08-01 2019-12-13 平安科技(深圳)有限公司 多语言文本识别方法、装置、计算机设备及存储介质
CN110895932A (zh) * 2018-08-24 2020-03-20 中国科学院声学研究所 基于语言种类和语音内容协同分类的多语言语音识别方法
CN111667817A (zh) * 2020-06-22 2020-09-15 平安资产管理有限责任公司 一种语音识别方法、装置、计算机***及可读存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6615736B2 (ja) * 2016-11-30 2019-12-04 日本電信電話株式会社 音声言語識別装置、その方法、及びプログラム
CN111369978B (zh) * 2018-12-26 2024-05-17 北京搜狗科技发展有限公司 一种数据处理方法、装置和用于数据处理的装置
CN110491382B (zh) * 2019-03-11 2020-12-04 腾讯科技(深圳)有限公司 基于人工智能的语音识别方法、装置及语音交互设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05281990A (ja) * 1992-03-31 1993-10-29 Mitsubishi Electric Corp 類似度演算装置
CN109117484A (zh) * 2018-08-13 2019-01-01 北京帝派智能科技有限公司 一种语音翻译方法和语音翻译设备
CN110895932A (zh) * 2018-08-24 2020-03-20 中国科学院声学研究所 基于语言种类和语音内容协同分类的多语言语音识别方法
CN110569830A (zh) * 2019-08-01 2019-12-13 平安科技(深圳)有限公司 多语言文本识别方法、装置、计算机设备及存储介质
CN111667817A (zh) * 2020-06-22 2020-09-15 平安资产管理有限责任公司 一种语音识别方法、装置、计算机***及可读存储介质

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112885336A (zh) * 2021-01-29 2021-06-01 深圳前海微众银行股份有限公司 语音识别***的训练、识别方法、装置、电子设备
CN112885336B (zh) * 2021-01-29 2024-02-02 深圳前海微众银行股份有限公司 语音识别***的训练、识别方法、装置、电子设备
CN113077793A (zh) * 2021-03-24 2021-07-06 北京儒博科技有限公司 一种语音识别方法、装置、设备及存储介质
CN113077793B (zh) * 2021-03-24 2023-06-13 北京如布科技有限公司 一种语音识别方法、装置、设备及存储介质
CN113223506A (zh) * 2021-05-28 2021-08-06 思必驰科技股份有限公司 语音识别模型训练方法及语音识别方法
CN113223506B (zh) * 2021-05-28 2022-05-20 思必驰科技股份有限公司 语音识别模型训练方法及语音识别方法
CN113380224A (zh) * 2021-06-04 2021-09-10 北京字跳网络技术有限公司 语种确定方法、装置、电子设备及存储介质
CN113597641A (zh) * 2021-06-22 2021-11-02 华为技术有限公司 语音处理方法、装置及***
CN113380227A (zh) * 2021-07-23 2021-09-10 上海才历网络有限公司 一种基于神经网络的语种识别方法、装置及电子设备
CN113689888A (zh) * 2021-07-30 2021-11-23 浙江大华技术股份有限公司 一种异常声音分类方法、***、装置以及存储介质
WO2023138286A1 (zh) * 2022-01-19 2023-07-27 广州小鹏汽车科技有限公司 语音的多语种识别方法、装置、终端和存储介质
CN118136002A (zh) * 2024-05-06 2024-06-04 证通股份有限公司 构建语音识别模型的方法、设备及语音识别的方法、设备

Also Published As

Publication number Publication date
WO2021179701A1 (zh) 2021-09-16
CN112185348B (zh) 2024-05-03

Similar Documents

Publication Publication Date Title
CN112185348B (zh) 多语种语音识别方法、装置及电子设备
CN108287858B (zh) 自然语言的语义提取方法及装置
CN112001175B (zh) 流程自动化方法、装置、电子设备及存储介质
CN111192570B (zh) 语言模型训练方法、***、移动终端及存储介质
CN109299471B (zh) 一种文本匹配的方法、装置及终端
CN110738997B (zh) 一种信息修正方法、装置、电子设备及存储介质
CN114416943B (zh) 对话模型的训练方法、装置、电子设备及存储介质
CN110991175B (zh) 多模态下的文本生成方法、***、设备及存储介质
CN110929520A (zh) 非命名实体对象抽取方法、装置、电子设备及存储介质
US20220139386A1 (en) System and method for chinese punctuation restoration using sub-character information
CN113190675A (zh) 文本摘要生成方法、装置、计算机设备和存储介质
CN112667775A (zh) 基于关键词提示的检索方法、装置、电子设备及存储介质
Ge et al. THU_NGN at SemEval-2019 task 3: Dialog emotion classification using attentional LSTM-CNN
CN110020429B (zh) 语义识别方法及设备
CN114155832A (zh) 基于深度学习的语音识别方法、装置、设备及介质
Azad et al. Picking pearl from seabed: Extracting artefacts from noisy issue triaging collaborative conversations for hybrid cloud services
CN113255365A (zh) 文本数据增强方法、装置、设备及计算机可读存储介质
CN113254814A (zh) 网络课程视频打标签方法、装置、电子设备及介质
CN112530402A (zh) 一种语音合成方法、语音合成装置及智能设备
CN111862963B (zh) 语音唤醒方法、装置和设备
CN108197100B (zh) 情感分析方法、装置、计算机可读存储介质及电子设备
CN113450805B (zh) 基于神经网络的自动语音识别方法、设备及可读存储介质
CN114611529B (zh) 意图识别方法和装置、电子设备及存储介质
CN114420168A (zh) 情绪识别方法、装置、设备及存储介质
CN114186028A (zh) 咨诉工单处理方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant