CN111798841B - 声学模型训练方法、***、移动终端及存储介质 - Google Patents

声学模型训练方法、***、移动终端及存储介质 Download PDF

Info

Publication number
CN111798841B
CN111798841B CN202010401369.9A CN202010401369A CN111798841B CN 111798841 B CN111798841 B CN 111798841B CN 202010401369 A CN202010401369 A CN 202010401369A CN 111798841 B CN111798841 B CN 111798841B
Authority
CN
China
Prior art keywords
audio data
pronunciation
feature
training
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010401369.9A
Other languages
English (en)
Other versions
CN111798841A (zh
Inventor
徐敏
肖龙源
李稀敏
***
刘晓葳
谭玉坤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen Kuaishangtong Technology Co Ltd
Original Assignee
Xiamen Kuaishangtong Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen Kuaishangtong Technology Co Ltd filed Critical Xiamen Kuaishangtong Technology Co Ltd
Priority to CN202010401369.9A priority Critical patent/CN111798841B/zh
Publication of CN111798841A publication Critical patent/CN111798841A/zh
Application granted granted Critical
Publication of CN111798841B publication Critical patent/CN111798841B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • G10L15/142Hidden Markov Models [HMMs]
    • G10L15/144Training of HMMs
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • G10L2015/025Phonemes, fenemes or fenones being the recognition units

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Artificial Intelligence (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

本发明提供了一种声学模型训练方法、***、移动终端及存储介质,该方法包括:对第一音频数据和第二音频数据构建音素集;构建第一音频数据的发音特征与音素集中对应音素之间的映射关系,并根据第一音频数据训练发音特征提取器;根据发音特征提取器提取第二音频数据的发音特征,并将第二音频数据的发音特征和语音特征进行特征拼接,得到声学特征;根据声学特征训练GMM‑HMM语音识别模型,得到第二音频数据中每一帧语音信息与对应音素之间的第一对齐关系,并根据第一对齐关系训练声学模型。本发明通过将第二音频数据的发音特征和语音特征进行特征拼接得到声学特征的设计,有效的提高了声学特征的鲁棒性,进而提高了对声学模型的模型训练的准确性。

Description

声学模型训练方法、***、移动终端及存储介质
技术领域
本发明属于语音识别技术领域,尤其涉及一种声学模型训练方法、***、移动终端及存储介质。
背景技术
语音识别***的一个目的,是把语音转换成文字,具体来说,是将一段语音信号,找一个文字序列(由词或字组成),使得它与语音信号的匹配程度最高。语音识别***中最重要的部分之一即是声学模型(AcousticModeling),在进行语音识别时,将语音信号转换为声学特征,再利用声学模型确定出声学特征对应的各个声学状态,由各个声学状态组合即获得文字。
语音识别通常将时域上的波形信号转换到特征域,这也被称为声学特征提取,然后用提取的声学特征作为输入用于训练声学模型,但现有的声学模型训练过程中,提取的声学特征并未考虑用户在发同一个音时,发声器官的变化以及环境对波形的影响,进而使得提取的声学特征对噪声、口音差异以及发声器官的状态变化鲁棒性差,降低了声学模型训练的准确性。
发明内容
本发明实施例的目的在于提供一种声学模型训练方法、***、移动终端及存储介质,旨在解决现有的声学模型训练过程中,由于提取的声学特征鲁棒性差所导致的模型训练准确性低下的问题。
本发明实施例是这样实现的,一种声学模型训练方法,所述方法包括:
获取第一音频数据和第二音频数据,并对所述第一音频数据和所述第二音频数据构建音素集;
构建所述第一音频数据的发音特征与所述音素集中对应音素之间的映射关系,并根据所述第一音频数据训练发音特征提取器;
根据所述发音特征提取器提取所述第二音频数据的发音特征,并将所述第二音频数据的发音特征和语音特征进行特征拼接,得到声学特征;
根据所述声学特征训练GMM-HMM语音识别模型,得到所述第二音频数据中每一帧语音信息与对应音素之间的第一对齐关系,并根据所述第一对齐关系训练声学模型。
更进一步的,所述根据所述第一音频数据训练发音特征提取器的步骤包括:
根据所述第一音频数据训练所述GMM-HMM语音识别模型,得到所述第一音频数据中每一帧语音信息与对应音素之间的第二对齐关系;
根据所述第二对齐关系和所述映射关系,得到所述第一音频数据中每一帧语音信息与发音特征之间的第一对应关系,并根据所述第一对应关系训练所述发音特征提取器。
更进一步的,所述对所述第一音频数据和所述第二音频数据构建音素集的步骤包括:
对所述第一音频数据和所述第二音频数据中的音节进行相似度匹配,得到相似度值;
当所述相似度值大于相似度阈值时,将所述相似度值对应的两个音节以所述第一音频数据中的音节进行所述音素集的构建;
当所述相似度值小于或等于所述相似度阈值时,查询所述相似度值对应的所述第二音频数据中音节的推荐音节;
根据所述推荐音节和所述相似度值对应的所述第一音频数据中的音节分别进行所述音素集的构建。
更进一步的,所述构建所述第一音频数据的发音特征与所述音素集中对应音素之间的映射关系的步骤包括:
分别查询所述音素集中所有声母和韵母的发音标识,并将所述发音标识与本地预存储的发音特征表进行匹配;
将查询到的所述第一音频数据中的发音特征与所述发音标识对应的所述声母和/或所述韵母进行映射,以构建所述映射关系。
更进一步的,所述根据所述发音特征提取器提取所述第二音频数据的发音特征,并将所述第二音频数据的发音特征和语音特征进行特征拼接,得到声学特征的步骤包括:
获取所述第二音频数据的语音特征,并将所述第二音频数据的语音特征输入所述发音特征提取器,得到所述第二音频数据中每一帧语音信息与对应发音特征之间的第二对应关系;
根据所述第二对应关系将所述第二音频数据中的发音特征与对应的语音特征进行特征拼接,得到所述声学特征。
更进一步的,所述将所述第二音频数据的发音特征和语音特征进行特征拼接,得到声学特征的步骤之后,所述方法还包括:
根据欧式距离公式计算所述第二音频数据中发音特征与对应语音特征之间的特征距离;
当所述特征距离大于距离阈值时,针对所述声学特征发出拼接错误提示。
更进一步的,所述语音特征为MFCC特征,所述发音特征提取器为LSTM发音特征提取器,所述发音特征的维度为54。
本发明实施例的另一目的在于提供一种声学模型训练***,所述***包括:
音素集构建模块,用于获取第一音频数据和第二音频数据,并对所述第一音频数据和所述第二音频数据构建音素集;
特征提取器训练模块,用于构建所述第一音频数据的发音特征与所述音素集中对应音素之间的映射关系,并根据所述第一音频数据训练发音特征提取器;
特征拼接模块,用于根据所述发音特征提取器提取所述第二音频数据的发音特征,并将所述第二音频数据的发音特征和语音特征进行特征拼接,得到声学特征;
声学模型训练模块,用于根据所述声学特征训练GMM-HMM语音识别模型,得到所述第二音频数据中每一帧语音信息与对应音素之间的第一对齐关系,并根据所述第一对齐关系训练声学模型。
本发明实施例的另一目的在于提供一种移动终端,包括存储设备以及处理器,所述存储设备用于存储计算机程序,所述处理器运行所述计算机程序以使所述移动终端执行上述的声学模型训练方法。
本发明实施例的另一目的在于提供一种存储介质,其存储有上述的移动终端中所使用的计算机程序,该计算机程序被处理器执行时实现上述的声学模型训练方法的步骤。
本发明实施例,通过根据第一音频数据训练发音特征提取器的设计,有效的降低了对第二音频数据中每一帧语音信息与对应音素之间的对齐成本,提高了第二音频数据中每一帧语音信息与对应音素之间的对齐精度,通过将第二音频数据的发音特征和语音特征进行特征拼接得到声学特征的设计,有效的提高了声学特征的鲁棒性,进而提高了对声学模型的模型训练的准确性。
附图说明
图1是本发明第一实施例提供的声学模型训练方法的流程图;
图2是本发明第二实施例提供的声学模型训练方法的流程图;
图3是本发明第三实施例提供的声学模型训练***的结构示意图;
图4是本发明第四实施例提供的移动终端的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定***结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的***、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
应当理解,当在本申请说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本申请说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
另外,在本申请说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
在本申请说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本申请的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
实施例一
请参阅图1,是本发明第一实施例提供的声学模型训练方法的流程图,包括步骤:
步骤S10,获取第一音频数据和第二音频数据,并对所述第一音频数据和所述第二音频数据构建音素集;
其中,该第一音频数据和第二音频数据为不同语音音频,例如,本实施例中,该第一音频数据为普通话数据,该第二音频数据为闽南语数据;
具体的,该步骤中通过对该第一音频数据和第二音频数据进行声学特征分析,以构建统一的音素集,进而有效的提高了后续该第一语音音频数据和第二语音音频数据中语音特征获取的准确性;
步骤S20,构建所述第一音频数据的发音特征与所述音素集中对应音素之间的映射关系,并根据所述第一音频数据训练发音特征提取器;
其中,该音素集中的音素均包括对应的声母和/或韵母,通过将不同的声母和韵母与对应的发音特征进行对应关系的存储,以得到该第一音频数据的发音特征与音素集中对应音素之间的映射关系;
具体的,该步骤中,通过获取该第一音频数据中的语音特征,并根据该语音特征进行该发音特征提取器的训练,以使训练后的发音特征提取器能有效的对输入的数据进行发音特征的提取,进一步的,该语音特征可以为MFCC特征、Fbank特征或PLP特征等。
步骤S30,根据所述发音特征提取器提取所述第二音频数据的发音特征,并将所述第二音频数据的发音特征和语音特征进行特征拼接,得到声学特征;
其中,通过将该第二音频数据中的MFCC特征输入发音特征提取器,以得到该第二音频数据中每一帧语音信息与对应发音特征之间的对应关系,并基于该对应关系将每一帧语音信息中的语音特征与对应发音特征进行拼接,以得到该声学特征;
具体的,该步骤中,通过将所述第二音频数据的发音特征和语音特征进行特征拼接的设计,使得声学特征对噪声、发音变化等具有更强的鲁棒性,以提高后续声学模型训练的准确性;
步骤S40,根据所述声学特征训练GMM-HMM语音识别模型,得到所述第二音频数据中每一帧语音信息与对应音素之间的第一对齐关系,并根据所述第一对齐关系训练声学模型;
其中,通过根据所述声学特征训练GMM-HMM语音识别模型的设计,有效的提高了第二音频数据中每一帧语音信息与对应音素之间的对齐精准度,使得训练后的声学模型对噪声、跨语种所导致的口音差异以及发声器官的状态变化具有较高的鲁棒性;
本实施例,通过根据第一音频数据训练发音特征提取器的设计,有效的降低了对第二音频数据中每一帧语音信息与对应音素之间的对齐成本,提高了第二音频数据中每一帧语音信息与对应音素之间的对齐精度,通过将第二音频数据的发音特征和语音特征进行特征拼接得到声学特征的设计,有效的提高了声学特征的鲁棒性,进而提高了对声学模型的模型训练的准确性。
实施例二
请参阅图2,是本发明第二实施例提供的声学模型训练方法的流程图,包括步骤:
步骤S11,获取第一音频数据和第二音频数据,并对所述第一音频数据和所述第二音频数据中的音节进行相似度匹配,得到相似度值;
其中,该第一音频数据对应的语种可以为普通话,该第二音频数据对应的语种可以为闽南语,该步骤中,通过将第一音频数据与第二音频数据中的所有音节依序进行匹配,以得到所有音节之间的相似度值;
当该相似度值越大时,则该相似度值对应的两个音节之间发音差异越小,当该相似度值越小时,则该相似度值对应的两个音节之间发音差异越大;
步骤S21,当所述相似度值大于相似度阈值时,将所述相似度值对应的两个音节以所述第一音频数据中的音节进行所述音素集的构建;
其中,该相似度阈值可以根据需求进行参数值的设置,例如,该相似度阈值可以设置为80%、85%或90%等;
当该相似度值大于相似度阈值时,则判定该相似度阈值对应的两个音素之间发音相似,因此,将该相似度值对应的两个音节以第一音频数据中的音节进行音素集的构建;
步骤S31,当所述相似度值小于或等于所述相似度阈值时,查询所述相似度值对应的所述第二音频数据中音节的推荐音节,并根据所述推荐音节和所述相似度值对应的所述第一音频数据中的音节分别进行所述音素集的构建;
其中,针对该第二音频数据中的所有音节均预先设置有对应的推荐音节,例如,当相似度值小于或等于相似度阈值时,则根据该第二音频数据中的音节查询台湾闽南语罗马字拼音方案中对应的推荐音节;
以该推荐音节进行该第二音频数据中音节的表示,以完成该音素集的构建,具体的,该步骤中,通过该音素集的构建,有效的方便了后续跨语种发音特征的提取;
步骤S41,分别查询所述音素集中所有声母和韵母的发音标识,并将所述发音标识与本地预存储的发音特征表进行匹配;
其中,该发音特征表中预存储有所有声母和韵母与对应发音特征之间的对应关系,该对应关系可以根据需求进行设置,例如,任意的声母可以与Voiced、Stop、Fricative和Affricate中任一一种或多种发音特征对应存储在该发音特征表中;
任意的韵母可以与Simple vowel and tail-dominant、head-dominant andcentre-dominant和Nasal中任一一种或多种发音特征对应存储在该发音特征表中;
步骤S51,将查询到的所述第一音频数据中的发音特征与所述发音标识对应的所述声母和/或所述韵母进行映射,以构建所述映射关系;
其中,通过构建了音素和发音特征之间的映射关系,将发音特征提取转换为一种多分类问题,因此,可用各种多分类算法进行该发音特征提取,进而提高了发音特征提取的多样性;
具体的,该步骤中,通过将该发音特征与对应的声母和/或韵母进行对应存储,以得到该映射关系;
步骤S61,根据所述第一音频数据训练所述GMM-HMM语音识别模型,得到所述第一音频数据中每一帧语音信息与对应音素之间的第二对齐关系;
其中,获取该第一音频数据中的MFCC特征,并根据该MFCC特征训练该GMM-HMM语音识别模型,以得到该第一音频数据中每一帧语音信息与对应音素之间的第二对齐关系;
具体的,该步骤中,通过将资源丰富的普通话数据训练GMM-HMM语音识别模型的设计,使得无需进行人工对齐的情况下也能得到较高的对齐精度,提高了GMM-HMM语音识别模型的训练效率;
步骤S71,根据所述第二对齐关系和所述映射关系,得到所述第一音频数据中每一帧语音信息与发音特征之间的第一对应关系,并根据所述第一对应关系训练所述发音特征提取器;
其中,该发音特征提取器为LSTM发音特征提取器,进而能有效捕捉发音器官在说不同音素时的动态变化,提高了训练后的发音特征提取器能有效的对输入的数据进行发音特征的提取;
步骤S81,根据所述发音特征提取器提取所述第二音频数据的发音特征,并将所述第二音频数据的发音特征和语音特征进行特征拼接,得到声学特征;
具体的,该步骤中,所述根据所述发音特征提取器提取所述第二音频数据的发音特征,并将所述第二音频数据的发音特征和语音特征进行特征拼接,得到声学特征的步骤包括:
获取所述第二音频数据的语音特征,并将所述第二音频数据的语音特征输入所述发音特征提取器,得到所述第二音频数据中每一帧语音信息与对应发音特征之间的第二对应关系;
根据所述第二对应关系将所述第二音频数据中的发音特征与对应的语音特征进行特征拼接,得到所述声学特征;
其中,基于该第二对应关系可以有效的查询到第二音频数据中每一帧语音信息与对应的发音特征,因此,将第二音频数据中每一帧语音信息的语音特征与对应发音特征进行拼接,以得到该声学特征。
此外,该步骤中,所述将所述第二音频数据的发音特征和语音特征进行特征拼接,得到声学特征的步骤之后,所述方法还包括:
根据欧式距离公式计算所述第二音频数据中发音特征与对应语音特征之间的特征距离;
当所述特征距离大于距离阈值时,针对所述声学特征发出拼接错误提示。
步骤S91,根据所述声学特征训练GMM-HMM语音识别模型,得到所述第二音频数据中每一帧语音信息与对应音素之间的第一对齐关系,并根据所述第一对齐关系训练声学模型;
其中,通过根据所述声学特征训练GMM-HMM语音识别模型的设计,有效的提高了第二音频数据中每一帧语音信息与对应音素之间的对齐精准度,使得训练后的声学模型对噪声、跨语种所导致的口音差异以及发声器官的状态变化具有较高的鲁棒性;
本实施例中,通过根据第一音频数据训练发音特征提取器的设计,有效的降低了对第二音频数据中每一帧语音信息与对应音素之间的对齐成本,提高了第二音频数据中每一帧语音信息与对应音素之间的对齐精度,通过将第二音频数据的发音特征和语音特征进行特征拼接得到声学特征的设计,有效的提高了声学特征的鲁棒性,进而提高了对声学模型的模型训练的准确性。
实施例三
请参阅图3,是本发明第三实施例提供的声学模型训练***100的结构示意图,包括:音素集构建模块10、特征提取器训练模块11、特征拼接模块12和声学模型训练模块13,其中:
音素集构建模块10,用于获取第一音频数据和第二音频数据,并对所述第一音频数据和所述第二音频数据构建音素集,其中,该第一音频数据和第二音频数据为不同语音音频,例如,本实施例中,该第一音频数据为普通话数据,该第二音频数据为闽南语数据;具体的,该模块中通过对该第一音频数据和第二音频数据进行声学特征分析,以构建统一的音素集,进而有效的提高了后续该第一语音音频数据和第二语音音频数据中语音特征获取的准确性。
优选的,所述音素集构建模块10还用于:对所述第一音频数据和所述第二音频数据中的音节进行相似度匹配,得到相似度值;
当所述相似度值大于相似度阈值时,将所述相似度值对应的两个音节以所述第一音频数据中的音节进行所述音素集的构建;
当所述相似度值小于或等于所述相似度阈值时,查询所述相似度值对应的所述第二音频数据中音节的推荐音节;
根据所述推荐音节和所述相似度值对应的所述第一音频数据中的音节分别进行所述音素集的构建。
特征提取器训练模块11,用于构建所述第一音频数据的发音特征与所述音素集中对应音素之间的映射关系,并根据所述第一音频数据训练发音特征提取器,其中,所述发音特征的维度为54,该音素集中的音素均包括对应的声母和/或韵母,通过将不同的声母和韵母与对应的发音特征进行对应关系的存储,以得到该第一音频数据的发音特征与音素集中对应音素之间的映射关系。
优选的,所述特征提取器训练模块11还用于:根据所述第一音频数据的语音特征训练所述GMM-HMM语音识别模型,得到所述第一音频数据中每一帧语音信息与对应音素之间的第二对齐关系,其中,所述语音特征为MFCC特征;
根据所述第二对齐关系和所述映射关系,得到所述第一音频数据中每一帧语音信息与发音特征之间的第一对应关系,并根据所述第一对应关系训练所述发音特征提取器,其中,所述发音特征提取器为LSTM发音特征提取器。
进一步的,所述特征提取器训练模块11还用于:分别查询所述音素集中所有声母和韵母的发音标识,并将所述发音标识与本地预存储的发音特征表进行匹配;
将查询到的所述第一音频数据中的发音特征与所述发音标识对应的所述声母和/或所述韵母进行映射,以构建所述映射关系。
特征拼接模块12,用于根据所述发音特征提取器提取所述第二音频数据的发音特征,并将所述第二音频数据的发音特征和语音特征进行特征拼接,得到声学特征,其中,通过将该第二音频数据中的MFCC特征输入发音特征提取器,以得到该第二音频数据中每一帧语音信息与对应发音特征之间的对应关系,并基于该对应关系将每一帧语音信息中的语音特征与对应发音特征进行拼接,以得到该声学特征。
优选的,所述特征拼接模块12还用于:获取所述第二音频数据的语音特征,并将所述第二音频数据的语音特征输入所述发音特征提取器,得到所述第二音频数据中每一帧语音信息与对应发音特征之间的第二对应关系;
根据所述第二对应关系将所述第二音频数据中的发音特征与对应的语音特征进行特征拼接,得到所述声学特征。
进一步的,所述特征拼接模块12还用于:根据欧式距离公式计算所述第二音频数据中发音特征与对应语音特征之间的特征距离;
当所述特征距离大于距离阈值时,针对所述声学特征发出拼接错误提示。
声学模型训练模块13,用于根据所述声学特征训练GMM-HMM语音识别模型,得到所述第二音频数据中每一帧语音信息与对应音素之间的第一对齐关系,并根据所述第一对齐关系训练声学模型,其中,通过根据所述声学特征训练GMM-HMM语音识别模型的设计,有效的提高了第二音频数据中每一帧语音信息与对应音素之间的对齐精准度,使得训练后的声学模型对噪声、跨语种所导致的口音差异以及发声器官的状态变化具有较高的鲁棒性。
本实施例,通过根据第一音频数据训练发音特征提取器的设计,有效的降低了对第二音频数据中每一帧语音信息与对应音素之间的对齐成本,提高了第二音频数据中每一帧语音信息与对应音素之间的对齐精度,通过将第二音频数据的发音特征和语音特征进行特征拼接得到声学特征的设计,有效的提高了声学特征的鲁棒性,进而提高了对声学模型的模型训练的准确性。
实施例四
请参阅图4,是本发明第四实施例提供的移动终端101,包括存储设备以及处理器,所述存储设备用于存储计算机程序,所述处理器运行所述计算机程序以使所述移动终端101执行上述的声学模型训练方法。
本实施例还提供了一种存储介质,其上存储有上述移动终端101中所使用的计算机程序,该程序在执行时,包括如下步骤:
获取第一音频数据和第二音频数据,并对所述第一音频数据和所述第二音频数据构建音素集;
构建所述第一音频数据的发音特征与所述音素集中对应音素之间的映射关系,并根据所述第一音频数据训练发音特征提取器;
根据所述发音特征提取器提取所述第二音频数据的发音特征,并将所述第二音频数据的发音特征和语音特征进行特征拼接,得到声学特征;
根据所述声学特征训练GMM-HMM语音识别模型,得到所述第二音频数据中每一帧语音信息与对应音素之间的第一对齐关系,并根据所述第一对齐关系训练声学模型。所述的存储介质,如:ROM/RAM、磁碟、光盘等。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元或模块完成,即将存储装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施方式中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。
本领域技术人员可以理解,图3中示出的组成结构并不构成对本发明的声学模型训练***的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置,而图1-2中的声学模型训练方法亦采用图3中所示的更多或更少的部件,或者组合某些部件,或者不同的部件布置来实现。本发明所称的单元、模块等是指一种能够被所述目标声学模型训练***中的处理器(图未示)所执行并功能够完成特定功能的一系列计算机程序,其均可存储于所述目标声学模型训练***的存储设备(图未示)内。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种声学模型训练方法,其特征在于,所述方法包括:
获取第一音频数据和第二音频数据,并对所述第一音频数据和所述第二音频数据构建音素集;
构建所述第一音频数据的发音特征与所述音素集中对应音素之间的映射关系,并根据所述第一音频数据训练发音特征提取器;
根据所述发音特征提取器提取所述第二音频数据的发音特征,并将所述第二音频数据的发音特征和语音特征进行特征拼接,得到声学特征;
根据所述声学特征训练GMM-HMM语音识别模型,得到所述第二音频数据中每一帧语音信息与对应音素之间的第一对齐关系,并根据所述第一对齐关系训练声学模型;
所述对所述第一音频数据和所述第二音频数据构建音素集的步骤包括:
对所述第一音频数据和所述第二音频数据中的音节进行相似度匹配,得到相似度值;
当所述相似度值大于相似度阈值时,将所述相似度值对应的两个音节以所述第一音频数据中的音节进行所述音素集的构建;
当所述相似度值小于或等于所述相似度阈值时,查询所述相似度值对应的所述第二音频数据中音节的推荐音节;
根据所述推荐音节和所述相似度值对应的所述第一音频数据中的音节分别进行所述音素集的构建;
所述根据所述第一音频数据训练发音特征提取器的步骤包括:
根据所述第一音频数据训练所述GMM-HMM语音识别模型,得到所述第一音频数据中每一帧语音信息与对应音素之间的第二对齐关系;
根据所述第二对齐关系和所述映射关系,得到所述第一音频数据中每一帧语音信息与发音特征之间的第一对应关系,并根据所述第一对应关系训练所述发音特征提取器。
2.如权利要求1所述的声学模型训练方法,其特征在于,所述构建所述第一音频数据的发音特征与所述音素集中对应音素之间的映射关系的步骤包括:
分别查询所述音素集中所有声母和韵母的发音标识,并将所述发音标识与本地预存储的发音特征表进行匹配;
将查询到的所述第一音频数据中的发音特征与所述发音标识对应的所述声母和/或所述韵母进行映射,以构建所述映射关系。
3.如权利要求1所述的声学模型训练方法,其特征在于,所述根据所述发音特征提取器提取所述第二音频数据的发音特征,并将所述第二音频数据的发音特征和语音特征进行特征拼接,得到声学特征的步骤包括:
获取所述第二音频数据的语音特征,并将所述第二音频数据的语音特征输入所述发音特征提取器,得到所述第二音频数据中每一帧语音信息与对应发音特征之间的第二对应关系;
根据所述第二对应关系将所述第二音频数据中的发音特征与对应的语音特征进行特征拼接,得到所述声学特征。
4.如权利要求1所述的声学模型训练方法,其特征在于,所述将所述第二音频数据的发音特征和语音特征进行特征拼接,得到声学特征的步骤之后,所述方法还包括:
根据欧式距离公式计算所述第二音频数据中发音特征与对应语音特征之间的特征距离;
当所述特征距离大于距离阈值时,针对所述声学特征发出拼接错误提示。
5.如权利要求1所述的声学模型训练方法,其特征在于,所述语音特征为MFCC特征,所述发音特征提取器为LSTM发音特征提取器,所述发音特征的维度为54。
6.一种声学模型训练***,其特征在于,所述***包括:
音素集构建模块,用于获取第一音频数据和第二音频数据,并对所述第一音频数据和所述第二音频数据构建音素集;
特征提取器训练模块,用于构建所述第一音频数据的发音特征与所述音素集中对应音素之间的映射关系,并根据所述第一音频数据训练发音特征提取器;
特征拼接模块,用于根据所述发音特征提取器提取所述第二音频数据的发音特征,并将所述第二音频数据的发音特征和语音特征进行特征拼接,得到声学特征;
声学模型训练模块,用于根据所述声学特征训练GMM-HMM语音识别模型,得到所述第二音频数据中每一帧语音信息与对应音素之间的第一对齐关系,并根据所述第一对齐关系训练声学模型;
所述音素集构建模块还用于:对所述第一音频数据和所述第二音频数据中的音节进行相似度匹配,得到相似度值;
当所述相似度值大于相似度阈值时,将所述相似度值对应的两个音节以所述第一音频数据中的音节进行所述音素集的构建;
当所述相似度值小于或等于所述相似度阈值时,查询所述相似度值对应的所述第二音频数据中音节的推荐音节;
根据所述推荐音节和所述相似度值对应的所述第一音频数据中的音节分别进行所述音素集的构建;
所述特征提取器训练模块还用于:根据所述第一音频数据的语音特征训练所述GMM-HMM语音识别模型,得到所述第一音频数据中每一帧语音信息与对应音素之间的第二对齐关系,其中,所述语音特征为MFCC特征;
根据所述第二对齐关系和所述映射关系,得到所述第一音频数据中每一帧语音信息与发音特征之间的第一对应关系,并根据所述第一对应关系训练所述发音特征提取器。
7.一种移动终端,其特征在于,包括存储设备以及处理器,所述存储设备用于存储计算机程序,所述处理器运行所述计算机程序以使所述移动终端执行根据权利要求1至5任一项所述的声学模型训练方法。
8.一种存储介质,其特征在于,其存储有权利要求7所述的移动终端中所使用的计算机程序,该计算机程序被处理器执行时实现权利要求1至5任一项所述的声学模型训练方法的步骤。
CN202010401369.9A 2020-05-13 2020-05-13 声学模型训练方法、***、移动终端及存储介质 Active CN111798841B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010401369.9A CN111798841B (zh) 2020-05-13 2020-05-13 声学模型训练方法、***、移动终端及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010401369.9A CN111798841B (zh) 2020-05-13 2020-05-13 声学模型训练方法、***、移动终端及存储介质

Publications (2)

Publication Number Publication Date
CN111798841A CN111798841A (zh) 2020-10-20
CN111798841B true CN111798841B (zh) 2023-01-03

Family

ID=72806517

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010401369.9A Active CN111798841B (zh) 2020-05-13 2020-05-13 声学模型训练方法、***、移动终端及存储介质

Country Status (1)

Country Link
CN (1) CN111798841B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110675854B (zh) * 2019-08-22 2022-10-28 厦门快商通科技股份有限公司 一种中英文混合语音识别方法及装置
CN113643718B (zh) * 2021-08-16 2024-06-18 贝壳找房(北京)科技有限公司 音频数据处理方法和装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8392190B2 (en) * 2008-12-01 2013-03-05 Educational Testing Service Systems and methods for assessment of non-native spontaneous speech
US10733979B2 (en) * 2015-10-09 2020-08-04 Google Llc Latency constraints for acoustic modeling
US10043519B2 (en) * 2016-09-02 2018-08-07 Tim Schlippe Generation of text from an audio speech signal
CN107680582B (zh) * 2017-07-28 2021-03-26 平安科技(深圳)有限公司 声学模型训练方法、语音识别方法、装置、设备及介质
CN108564940B (zh) * 2018-03-20 2020-04-28 平安科技(深圳)有限公司 语音识别方法、服务器及计算机可读存储介质
CN108510978B (zh) * 2018-04-18 2020-08-21 中国人民解放军62315部队 一种应用于语种识别的英语声学模型的建模方法及***
CN109326277B (zh) * 2018-12-05 2022-02-08 四川长虹电器股份有限公司 半监督的音素强制对齐模型建立方法及***
CN110415725B (zh) * 2019-07-15 2020-06-02 北京语言大学 使用第一语言数据评估第二语言发音质量的方法及***
CN110782921B (zh) * 2019-09-19 2023-09-22 腾讯科技(深圳)有限公司 语音测评方法和装置、存储介质及电子装置

Also Published As

Publication number Publication date
CN111798841A (zh) 2020-10-20

Similar Documents

Publication Publication Date Title
CN107016994B (zh) 语音识别的方法及装置
KR102191425B1 (ko) 인터랙티브 캐릭터 기반 외국어 학습 장치 및 방법
JP5480760B2 (ja) 端末装置、音声認識方法および音声認識プログラム
US7472061B1 (en) Systems and methods for building a native language phoneme lexicon having native pronunciations of non-native words derived from non-native pronunciations
US7996209B2 (en) Method and system of generating and detecting confusing phones of pronunciation
US9177545B2 (en) Recognition dictionary creating device, voice recognition device, and voice synthesizer
EP2685452A1 (en) Method of recognizing speech and electronic device thereof
US20060229864A1 (en) Method, device, and computer program product for multi-lingual speech recognition
US9495955B1 (en) Acoustic model training
CN110675866B (zh) 用于改进至少一个语义单元集合的方法、设备及计算机可读记录介质
CN111798841B (zh) 声学模型训练方法、***、移动终端及存储介质
CN105009206A (zh) 语音识别装置和语音识别方法
CN111462777B (zh) 关键词检索方法、***、移动终端及存储介质
KR101483947B1 (ko) 핵심어에서의 음소 오류 결과를 고려한 음향 모델 변별 학습을 위한 장치 및 이를 위한 방법이 기록된 컴퓨터 판독 가능한 기록매체
CN111933116B (zh) 语音识别模型训练方法、***、移动终端及存储介质
US20110224985A1 (en) Model adaptation device, method thereof, and program thereof
WO2014033855A1 (ja) 音声検索装置、計算機読み取り可能な記憶媒体、及び音声検索方法
KR101424496B1 (ko) 음향 모델 학습을 위한 장치 및 이를 위한 방법이 기록된 컴퓨터 판독 가능한 기록매체
US6963832B2 (en) Meaning token dictionary for automatic speech recognition
CN111782779B (zh) 语音问答方法、***、移动终端及存储介质
CN111429921B (zh) 声纹识别方法、***、移动终端及存储介质
Wong et al. The effect of pitch and lexical tone on different Mandarin speech recognition tasks
JP2012255867A (ja) 音声認識装置
CN113096667A (zh) 一种错别字识别检测方法和***
Rani et al. Error analysis to improve the speech recognition accuracy on Telugu language

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant