CN109256152A - 语音评分方法及装置、电子设备、存储介质 - Google Patents
语音评分方法及装置、电子设备、存储介质 Download PDFInfo
- Publication number
- CN109256152A CN109256152A CN201811327485.XA CN201811327485A CN109256152A CN 109256152 A CN109256152 A CN 109256152A CN 201811327485 A CN201811327485 A CN 201811327485A CN 109256152 A CN109256152 A CN 109256152A
- Authority
- CN
- China
- Prior art keywords
- voice data
- model
- data
- sample
- sample voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000012549 training Methods 0.000 claims description 14
- 238000012360 testing method Methods 0.000 claims description 12
- 239000000284 extract Substances 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 4
- 238000011157 data evaluation Methods 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 abstract description 6
- 238000012545 processing Methods 0.000 description 13
- 238000011156 evaluation Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000005070 sampling Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000033764 rhythmic process Effects 0.000 description 4
- 230000014759 maintenance of location Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- SBNFWQZLDJGRLK-UHFFFAOYSA-N phenothrin Chemical compound CC1(C)C(C=C(C)C)C1C(=O)OCC1=CC=CC(OC=2C=CC=CC=2)=C1 SBNFWQZLDJGRLK-UHFFFAOYSA-N 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 2
- 210000004209 hair Anatomy 0.000 description 2
- 230000005291 magnetic effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013499 data model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 238000006386 neutralization reaction Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000003014 reinforcing effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 210000000352 storage cell Anatomy 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/69—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for evaluating synthetic or decoded voice signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本公开是关于一种语音评分方法及装置、电子设备、存储介质,涉及计算机技术领域,该方法包括:从样本语音数据中提取样本特征,并通过所述样本特征对声学模型进行训练,得到训练好的声学模型;根据与所述样本语音数据对应的标准文本数据构建语言模型,并通过所述语言模型和训练好的声学模型对所述样本语音数据进行解码,以得到所述样本语音数据的声学特征;通过所述声学特征和所述样本语音数据的韵律特征对评分模型进行训练,并根据训练好的评分模型对目标语音数据进行评分,以得到所述目标语音数据的分值。本公开能够对目标语音数据进行准确评分。
Description
技术领域
本公开涉及计算机技术领域,具体而言,涉及一种语音评分方法、语音评分装置、电子设备以及计算机可读存储介质。
背景技术
随着计算机技术的发展,可通过口语评测***自动对学生的语音进行识别评测。
相关技术中的语音评测***,大多数基于成人音频驱动的语音声学模型而进行,儿童的语音与成人语音声学模型相差较大,因此导致识别不准确;另外,市面上的语音评测***大多采用声学分数,利用声学特征组合,通过线性回归或者支持向量机评测最后分数。然而单一的声学分数线性组合并不能与专业评分教师的评分匹配,评测效率较低且评测的分数不够准确。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种语音评分方法及装置、电子设备、存储介质,进而至少在一定程度上克服由于相关技术的限制和缺陷而导致的不能对语音进行准确评分的问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的一个方面,提供一种语音评分方法,包括:从样本语音数据中提取样本特征,并通过所述样本特征对声学模型进行训练,得到训练好的声学模型;根据与所述样本语音数据对应的标准文本数据构建语言模型,并通过所述语言模型和训练好的声学模型对所述样本语音数据进行解码,以得到所述样本语音数据的声学特征;通过所述声学特征和所述样本语音数据的韵律特征对评分模型进行训练,并根据训练好的评分模型对目标语音数据进行评分,以得到所述目标语音数据的分值。
在本公开的一种示例性实施例中,从样本语音数据中提取样本特征包括:将经过人工评分且评分结果满足预设条件的在线语音数据作为所述样本语音数据;从所述样本语音数据中提取Fbank特征作为所述样本特征。
在本公开的一种示例性实施例中,通过所述样本特征对声学模型进行训练,得到训练好的声学模型包括:根据所述Fbank特征对所述声学模型进行离线训练,得到深度神经网络隐性马尔科夫声学模型。
在本公开的一种示例性实施例中,根据与所述样本语音数据对应的标准文本数据构建语言模型包括:保留所述标准文本数据中包含的预设字符,并将处于发音词典之外的单词映射为噪声,以对所述标准文本数据进行预处理得到预处理后的标准文本数据;根据预处理后的标准文本数据构建所述语言模型,所述语言模型为bi-gram语言模型。
在本公开的一种示例性实施例中,所述方法还包括:根据样本语音数据以及所述标准文本数据得到所述样本语音数据的所述韵律特征,所述韵律特征包括音量大小、音调、语速、语言流畅性以及语言完整度中的至少一种。
在本公开的一种示例性实施例中,通过所述语言模型和训练好的声学模型对所述样本语音数据进行解码,以得到所述样本语音数据的声学特征包括:利用所述语言模型和训练好的声学模型对所述样本语音数据进行解码,以得到解码后的样本语音数据;提取解码后的样本语音数据中每个音素的打分和时长特征,并根据每个音素的所述打分和所述时长特征确定所述声学特征。
在本公开的一种示例性实施例中,所述声学特征包括音素平均分、音素分数标准差、39维音素展现特征、音素平均时长以及音素时长标准差中的至少一种。
在本公开的一种示例性实施例中,提取解码后的样本语音数据中每个音素的打分和时长特征包括:根据文本数据和发音词典得到所述样本语音数据和所述文本数据的强制对齐结果;通过预设打分规则得到所述强制对齐结果中每个音素的打分以及时长特征。
在本公开的一种示例性实施例中,通过所述声学特征和所述样本语音数据的韵律特征对评分模型进行训练包括:通过所述声学特征、所述韵律特征以及人工标注数据训练所述评分模型,得到训练好的评分模型。
在本公开的一种示例性实施例中,根据训练好的评分模型对目标语音数据进行评分,以得到所述目标语音数据的分值包括:通过所述训练好的评分模型对所述目标语音数据的声学特征以及韵律特征进行分析,得到与所述目标语音数据对应的分值。
根据本公开的一个方面,提供一种语音评分装置,包括:声学模型训练模块,用于从样本语音数据中提取样本特征,并通过所述样本特征对声学模型进行训练,得到训练好的声学模型;声学特征获取模块,用于根据与所述样本语音数据对应的标准文本数据构建语言模型,并通过所述语言模型和训练好的声学模型对所述样本语音数据进行解码,以得到所述样本语音数据的声学特征;语音数据评测模块,用于通过所述声学特征和所述样本语音数据的韵律特征对评分模型进行训练,并根据训练好的评分模型对目标语音数据进行评分,以得到所述目标语音数据的分值。
根据本公开的一个方面,提供一种电子设备,包括:处理器;以及
存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述任意一项所述的语音评分方法。
根据本公开的一个方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项所述的语音评分方法。
本公开示例性实施例中提供的一种语音评分方法、语音评分装置、电子设备以及计算机可读存储介质中,一方面,通过样本语音数据中得到与样本语音数据对应的声学模型和语言模型,进而根据样本语音数据的声学特征与韵律特征得到评分模型,能够使得评分模型更符合样本语音数据,提高语音识别准确率;另一方面,由于建立的评分模型中结合了声学特征和韵律特征且可以快速识别,进而使得通过训练好的评分模型对目标语音数据的评测分数更准确,提高评分准确率。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示意性示出本公开示例性实施例中一种语音评分方法示意图;
图2示意性示出本公开示例性实施例中语音评分的具体流程图;
图3示意性示出本公开示例性实施例中一种语音评分装置的框图;
图4示意性示出本公开示例性实施例中一种电子设备的框图;
图5示意性示出本公开示例性实施例中一种程序产品。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
本示例实施方式中首先提供了一种语音评分方法,可以应用于对儿童的外语口语进行评测的应用场景中。参考图1所示对该语音评分方法进行详细描述。
在步骤S110中,从样本语音数据中提取样本特征,并通过所述样本特征对声学模型进行训练,得到训练好的声学模型。
本示例性实施例中,样本语音数据可以为在线语音数据,若要为儿童语音数据进行评分,则样本语音数据可以为儿童在线语音数据。样本语音数据可以为英文语音数据或者是其它语言的语音数据,本示例性实施例中以英文语音数据为例进行说明。为了使得构建的模型更准确,样本语音数据可以为经过人工评分,且人工评分的结果满足预设条件的儿童在线语音数据,其中的人工评分例如可以为专业老师评分。样本语音数据可以与待评测的语音数据相同,也可以不同,此处不作特殊限定。预设条件可用于对多个儿童在线语音数据进行筛选,预设条件具体可以为人工评分完整度满分、发音准确率高分。若存在多个发音准确率高分,则可以将儿童在线语音数据按照发音准确率分值由大到小的顺序进行排列,选择排列在前N位的儿童在线语音数据作为样本语音数据。可例如,在线语音数据1经过人工评分的结果为完整度满分,发音准确率90分;在线语音数据2经过人工评分的结果为完整度满分,发音准确率98分,则可以选择在线语音数据2作为样本语音数据。获取的样本语音数据的格式可以为PCM(Pulse Code Modulation,脉码调制录音)格式音频,若获取的样本语音数据为MP3格式或者是其它格式,则首先需要转换为PCM格式再进行处理。
在选定样本语音数据之后,可提取样本语音数据的样本特征,以通过样本特征训练一个针对样本语音数据的声学模型。其中,样本特征可以为Fbank特征,也可以为MFCC(Mel Frequency Cepstral Coefficents,梅尔频率倒谱特征)。由于Fbank特征相对于MFCC特征的相关性更强,更适合于模型训练,因此本示例性实施例中以样本特征为Fbank特征为例进行说明。
在提取样本语音数据的Fbank特征时,具体可通过傅里叶变换、计算能量谱以及Mel滤波等过程进行。接下来,可通过提取的Fbank特征对一个声学模型进行训练,该声学模型可以为深度神经网络隐性马尔科夫声学模型DNN-HMM,也可以为传统的GMM-HMM模型,还可以为其他合适的机器学习模型。由于在字错率和***鲁棒性上GMM-HMM模型均不如深度神经网络与隐性马尔科夫模型的结合DNN-HMM,所以本示例性实施例中采用DNN-HMM作为声学模型。需要说明的是,可根据样本语音数据的Fbank特征对声学模型的参数进行拟合训练,得到性能比较好的参数,从而得到训练好的深度神经网络隐性马尔科夫声学模型。进一步地,可将样本语音数据的Fbank特征输入训练好的声学模型,通过训练好的声学模型得到样本语音数据中每个音素属于哪个音标的概率。
接下来,在步骤S120中,根据与所述样本语音数据对应的标准文本数据构建语言模型,并通过所述语言模型和训练好的声学模型对所述样本语音数据进行解码,以得到所述样本语音数据的声学特征。
本示例性实施例中,标准文本数据指的是样本语音数据的正确文本。例如,样本语音数据1对应的标准文本数据为:“I got it from my best friend”,样本语音数据对应的文本数据需要与标准文本数据进行对比,以确定样本语音数据的准确率。语言模型用于描述句子出现的概率,其能够有效的结合语法和语义的知识,描述词之间的内在关系,从而提高识别率,减少搜索范围。
具体而言,在构建语言模型时,首先可对标准文本数据进行预处理,以通过预处理后的标准文本数据得到更准确的语言模型。预处理的过程具体可包括两种方式:方式一、保留所述标准文本数据中包含的预设字符,
其中,预设字符指的是非ASCII码编码的字符,例如标点符号以及其他语言构成的字符(中文字符)等等。也就是说,可先保留标准文本数据中包含的标点符号以及中文字符等等,并在后续返回结果时加入这些预设字符。通过保留标准文本数据中的预设字符,可保证输入输出的一致性。方式二、对于发音词典或者是单词表中不存在的单词,例如合成词、拼写错误的单词、自造词等,可统一认为是无法识别单词Unknow,进一步地可将无法识别单词Unknow统一映射为噪声,在最后对语音数据进行评分时不考虑无法识别单词Unknow的影响。
进一步地,根据预处理后的标准文本数据构建所述语言模型,即对预处理后的标准文本数据进行语法语义分析,得到语言模型。所述语言模型为二元bi-gram语言模型,二元bi-gram语言模型指的是在标准文本数据中,第N个词的出现只与它前面的第N-1个词相关,而与其他任何词都不相关。此时可以评估标准文本数据中每一个词出现的概率,进而根据各个词出现概率的乘积得到整个句子出现的概率。举例而言,假定S表示标准文本数据,它由一串特定顺序排列的词(w1,w2,...,wm)组成,m表示标准文本数据的长度,即单词个数。计算标准文本数据S在整个语料库中出现的可能性P(S)即P(w1,w2,...,wm)时,该二元bi-gram语言模型可以表示为公式
在得到语言模型后,可以结合步骤S110中训练好的声学模型得到如图2中所示的解码器,以通过解码器对样本语音数据进行解码,得到样本语音数据对应的文本数据,此处样本语音数据对应的文本数据可以与标准文本数据相同,也可以不同。解码器主要用于给定输入特征序列的情况下,在由声学模型、声学上下文、发音词典和语言模型等四种知识源组成的搜索空间中,通过维特比搜索,寻找最佳词串,即得到与样本语言数据最匹配的文本数据。
由于语言模型的大小会直接影响到解码的速度,在采用通用语言模型进行解码时,由于通用语言模型太大导致解码时间过长,并且不能够分析和评测用户重复读或者漏读的情况。通过本示例性实施例中的bi-gram语言模型和声学模型对样本语音数据进行解码,可以得到样本语音数据中某一个单词出现的概率和某一段话出现的概率,由此可以检测出用户的漏读和重读情况,同时因为语言模型较小,解码速度也得到了保障。
基于此,在对样本语音数据进行解码后,可提取解码后的样本语音数据中每个音素的打分和时长特征。具体地,可根据文本数据和发音词典对样本语音数据与样本语音数据对应的文本数据进行强制对齐。强制对齐指的是把样本语音数据切分为若干个音素段,利用DNN-HMM模型获取每个音素的开始时间和截止时间。强制对齐结果中每一个音素在样本语音数据中的起始时间和截止时间都是确定的。
音频强制对齐可通过Viterbi解码算法实现。具体可将音频切平移分成一个个长度很短的帧得到音频的多个采样,帧的长度例如可以为5ms、10ms或者是其他数值。举例而言,帧的长度可以为25ms,通过将每帧向后平移10ms的方式得到多个采样。对一个音频的每个采样进行特征抽取,再和标准音标的特征进行相似度计算,用bi(Ot)来表示第t个采样和第i个音标模型的相似度。用δt(i)代表在采样t的时刻当前音频到达音标i的最大概率δt(i),则可以由第t个采样推算出第t+1个时刻的结果δt+1(i)。解码过程中,t从0开始不断递增,直到音频结束,最终得到各个音标i对应的δN(i)。由于强制对齐的简单性,其通常具有较高的准确率。
完成强制对齐后,可以得知文本数据中的每个音素对应样本语音数据中的哪一段,并且可以得知用户的样本语音数据中的实际发音。基于此,可采用预设打分规则来衡量样本语音数据对应的文本数据中每个音素的读音准确程度。预设打分规则可以为GOP(Goodness of Pronunciation)算法,其中,qi是文本数据中当前要打分的音素,A是强制对齐后qi对应的一段语音,NF(A)是该段语音的帧数。GOP打分其实就是一个条件概率,它描述了在观测到用户语音A的情况下,该段语音对应音素qi的概率。这个概率越高,说明发音越准确,这个概率越低,说明发音越差。也就是说,根据GOP算法可以对样本语音数据对应的文本数据中每个音素的发音情况进行打分,同时根据强制对齐的结果也可以知道这个音素对应的语音帧区间,从而得到发音错误的位置。
通过预设打分规则可以得到每个音素的打分以及时长特征。每个音素的打分指的是每个音素的发音准确度,每个音素的时长特征指的是每个音素的持续时长,即发音速度。进一步地,可根据每个音素的打分以及时长特征确定样本语音数据的声学特征。其中,声学特征包括但不限于音素平均分、音素分数标准差、39维音素展现特征、音素平均时长以及音素时长标准差中的一种或多种。音素平均分,是指根据发音词典和解码强制对齐结果,经过GOP打分生成的每个音素的平均分。音素平均分可以反映样本语音数据的整体发音水平,是评测发音的最根本最重要的指标。音素分数标准差,是指所有音素得分的标准差,可以反映用户发音的稳定程度。39维音素展现特征,是指39个音素各自得到的分数平均分,维度为音素的个数,表征了用户在每个音素上的表现情况。音素平均时长,是指每个音素的时长求平均,可以表示用户发音速度的快慢。音素时长标准差,是指所有音素发音时长的标准差,可以表示用户发音的稳定性。通过通过预设打分规则,可更准确地得到每个音素的打分以及时长特征。
在步骤S130中,通过所述声学特征和所述样本语音数据的韵律特征对评分模型进行训练,并根据训练好的评分模型对目标语音数据进行评分,以得到所述目标语音数据的分值。
本示例性实施例中,样本语音数据对应的韵律特征是评判语音的重要指标,具体可根据样本语音数据以及样本语音数据对应的标准文本数据得到样本语音数据的韵律特征,该韵律特征可以包括但不限于音量大小、音调、语速、语言流畅性、语言完整度中的一种或多种。
在得到韵律特征之后,可通过样本语音数据的声学特征、韵律特征以及人工标注数据对一个用于对语音数据进行评测的评分模型进行训练。人工标注数据指的是人工对样本语音数据进行评测的分数,具体可以将声学特征和韵律特征拟合到人工标注数据,以对评分模型进行训练,得到训练好的评分模型。本示例性实施例中的评分模型可以为回归树模型,例如Xgboost模型。举例而言,样本语音数据1经过人工打分得到的人工标注数据为98,可以对样本语音数据1对应的声学特征和韵律特征进行训练,直至拟合到98为止,从而根据拟合参数得到一个训练好的评分模型。本示例性实施例中,通过声学特征和韵律特征拟合至人工标注数据的方式训练评分模型,可提高建立的评分模型的准确率,从而能够更准确地对样本语音数据进行评分。由于增加了样本数据的韵律特征,避免了只通过单一的声学特征进行评测导致的不准确的问题,贴近真实情况下人工评分的方式,可以使得评分与人工评分的贴合度更高,提高了语音评测的准确度和参考价值,增加了用户满意度。
在得到性能比较好的训练好的评分模型后,可将待评测的目标语音数据输入该训练好的评分模型,通过该评分模型对所述目标语音数据的声学特征以及韵律特征进行分析,得到与所述目标语音数据对应的分值。其中,目标语音数据可以与样本语音数据的类型相同,例如为儿童的语音数据。提取目标语音数据的声学特征以及韵律特征的方法与步骤S110中和步骤S120中类似,此处不再赘述。需要说明的是,对于目标语音数据,仍需对其标准文本进行预处理,以保留标准文本数据中包含的预设字符并将发音词典中不存在的单词映射为噪声,以便于进行评分。
需要说明的是,不同应用场景下对目标语音数据的评分标准可能有差别,因此可根据实际需求将评分模型上调或下移,以准确对不同应用场景下的目标语音数据进行评分。具体地,评测分数可设定相应的非线性映射关系,以实现根据不同的场景和产品需求,给出不同维度的分数。
图2中示出了语音评分***中语音评分的具体流程图,该语音评分***中包括声学模型、语言模型以及评分模型,具体步骤包括:
步骤S201,获取样本语音数据,样本语音数据可以为PCM格式音频。
步骤S202,从样本语音数据中提取样本特征,样本特征可为Fbank特征。
步骤S203,根据样本特征训练声学模型,声学模型可以为DNN-HMM模型。
步骤S204,获取样本语音数据对应的标准文本数据。
步骤S205,由样本语音数据对应的标准文本数据生成语言模型,该语言模型可以为bi-gram模型。
步骤S206,由语言模型和声学模型构成解码器,以对样本语音数据进行解码。
步骤S207,根据GOP算法对解码后的样本语音数据进行评测,得到声学特征。
步骤S208,根据标准文本数据和PCM格式音频生成样本语音数据对应的韵律特征。
步骤S209,根据声学特征、韵律特征和人工标注数据生成评分模型,评分模型可以为Xgboost模型,并根据训练好的评分模型得到目标语音数据的分值。
通过图2中的方法,可以构建与样本语音数据对应的声学模型,进而通过声学模型和语言模型快速对样本语音数据进行解码,进一步根据声学特征和韵律特征训练评分模型,可使得训练好的评分模型更准确,从而对目标语音数据进行准确评分。
本公开还提供了一种语音评分装置。参考图3所示,该语音评分装置300可以包括:
声学模型训练模块301,可以用于从样本语音数据中提取样本特征,并通过所述样本特征对声学模型进行训练,得到训练好的声学模型;
声学特征获取模块302,可以用于根据与所述样本语音数据对应的标准文本数据构建语言模型,并通过所述语言模型和训练好的声学模型对所述样本语音数据进行解码,以得到所述样本语音数据的声学特征;
语音数据评测模块303,可以用于通过所述声学特征和所述样本语音数据的韵律特征对评分模型进行训练,并根据训练好的评分模型对目标语音数据进行评分,以得到所述目标语音数据的分值。
需要说明的是,上述语音评分装置中各模块的具体细节已经在对应的语音评分方法中进行了详细描述,因此此处不再赘述。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
在本公开的示例性实施例中,还提供了一种能够实现上述方法的电子设备。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为***、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“***”。
下面参照图4来描述根据本发明的这种实施方式的电子设备400。图4显示的电子设备400仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图4所示,电子设备400以通用计算设备的形式表现。电子设备400的组件可以包括但不限于:上述至少一个处理单元410、上述至少一个存储单元420、连接不同***组件(包括存储单元420和处理单元410)的总线430。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元410执行,使得所述处理单元410执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。例如,所述处理单元410可以执行如图1中所示的步骤:在步骤S110中,从样本语音数据中提取样本特征,并通过所述样本特征对声学模型进行训练,得到训练好的声学模型;在步骤S120中,根据与所述样本语音数据对应的标准文本数据构建语言模型,并通过所述语言模型和训练好的声学模型对所述样本语音数据进行解码,以得到所述样本语音数据的声学特征;在步骤S130中,通过所述声学特征和所述样本语音数据的韵律特征对评分模型进行训练,并根据训练好的评分模型对目标语音数据进行评分,以得到所述目标语音数据的分值。
存储单元420可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)4201和/或高速缓存存储单元4202,还可以进一步包括只读存储单元(ROM)4203。
存储单元420还可以包括具有一组(至少一个)程序模块4205的程序/实用工具4204,这样的程序模块4205包括但不限于:操作***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线430可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、***总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
显示单元440可以为具有显示功能的显示器,以通过该显示器展示由处理单元410执行本示例性实施例中的方法而得到的处理结果。显示器包括但不限于液晶显示器或者是其它显示器。
电子设备400也可以与一个或多个外部设备600(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备400交互的设备通信,和/或与使得该电子设备400能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口450进行。并且,电子设备400还可以通过网络适配器460与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器460通过总线430与电子设备400的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备400使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID***、磁带驱动器以及数据备份存储***等。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。
参考图5所示,描述了根据本发明的实施方式的用于实现上述方法的程序产品500,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
此外,上述附图仅是根据本发明示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其他实施例。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
Claims (13)
1.一种语音评分方法,其特征在于,包括:
从样本语音数据中提取样本特征,并通过所述样本特征对声学模型进行训练,得到训练好的声学模型;
根据与所述样本语音数据对应的标准文本数据构建语言模型,并通过所述语言模型和训练好的声学模型对所述样本语音数据进行解码,以得到所述样本语音数据的声学特征;
通过所述声学特征和所述样本语音数据的韵律特征对评分模型进行训练,并根据训练好的评分模型对目标语音数据进行评分,以得到所述目标语音数据的分值。
2.根据权利要求1所述的语音评分方法,其特征在于,从样本语音数据中提取样本特征包括:
将经过人工评分且评分结果满足预设条件的在线语音数据作为所述样本语音数据;
从所述样本语音数据中提取Fbank特征作为所述样本特征。
3.根据权利要求2所述的语音评分方法,其特征在于,通过所述样本特征对声学模型进行训练,得到训练好的声学模型包括:
根据所述Fbank特征对所述声学模型进行离线训练,得到深度神经网络隐性马尔科夫声学模型。
4.根据权利要求1所述的语音评分方法,其特征在于,根据与所述样本语音数据对应的标准文本数据构建语言模型包括:
保留所述标准文本数据中包含的预设字符,并将处于发音词典之外的单词映射为噪声,以对所述标准文本数据进行预处理得到预处理后的标准文本数据;
根据预处理后的标准文本数据构建所述语言模型,所述语言模型为bi-gram语言模型。
5.根据权利要求1所述的语音评分方法,其特征在于,所述方法还包括:
根据样本语音数据以及所述标准文本数据得到所述样本语音数据的所述韵律特征,所述韵律特征包括音量大小、音调、语速、语言流畅性以及语言完整度中的至少一种。
6.根据权利要求1所述的语音评分方法,其特征在于,通过所述语言模型和训练好的声学模型对所述样本语音数据进行解码,以得到所述样本语音数据的声学特征包括:
利用所述语言模型和训练好的声学模型对所述样本语音数据进行解码,以得到解码后的样本语音数据;
提取解码后的样本语音数据中每个音素的打分和时长特征,并根据每个音素的所述打分和所述时长特征确定所述声学特征。
7.根据权利要求6所述的语音评分方法,其特征在于,所述声学特征包括音素平均分、音素分数标准差、39维音素展现特征、音素平均时长以及音素时长标准差中的至少一种。
8.根据权利要求6所述的语音评分方法,其特征在于,提取解码后的样本语音数据中每个音素的打分和时长特征包括:
根据文本数据和发音词典得到所述样本语音数据和所述文本数据的强制对齐结果;
通过预设打分规则得到所述强制对齐结果中每个音素的打分以及时长特征。
9.根据权利要求1所述的语音评分方法,其特征在于,通过所述声学特征和所述样本语音数据的韵律特征对评分模型进行训练包括:
通过所述声学特征、所述韵律特征以及人工标注数据训练所述评分模型,得到训练好的评分模型。
10.根据权利要求1所述的语音评分方法,其特征在于,根据训练好的评分模型对目标语音数据进行评分,以得到所述目标语音数据的分值包括:
通过所述训练好的评分模型对所述目标语音数据的声学特征以及韵律特征进行分析,得到与所述目标语音数据对应的分值。
11.一种语音评分装置,其特征在于,包括:
声学模型训练模块,用于从样本语音数据中提取样本特征,并通过所述样本特征对声学模型进行训练,得到训练好的声学模型;
声学特征获取模块,用于根据与所述样本语音数据对应的标准文本数据构建语言模型,并通过所述语言模型和训练好的声学模型对所述样本语音数据进行解码,以得到所述样本语音数据的声学特征;
语音数据评测模块,用于通过所述声学特征和所述样本语音数据的韵律特征对评分模型进行训练,并根据训练好的评分模型对目标语音数据进行评分,以得到所述目标语音数据的分值。
12.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1-10任意一项所述的语音评分方法。
13.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-10任意一项所述的语音评分方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811327485.XA CN109256152A (zh) | 2018-11-08 | 2018-11-08 | 语音评分方法及装置、电子设备、存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811327485.XA CN109256152A (zh) | 2018-11-08 | 2018-11-08 | 语音评分方法及装置、电子设备、存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109256152A true CN109256152A (zh) | 2019-01-22 |
Family
ID=65042980
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811327485.XA Pending CN109256152A (zh) | 2018-11-08 | 2018-11-08 | 语音评分方法及装置、电子设备、存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109256152A (zh) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110289015A (zh) * | 2019-05-27 | 2019-09-27 | 北京大米科技有限公司 | 一种音频处理方法、装置、服务器、存储介质及*** |
CN110490428A (zh) * | 2019-07-26 | 2019-11-22 | 合肥讯飞数码科技有限公司 | 空中交通管制工作质量评估方法及相关装置 |
CN110853628A (zh) * | 2019-11-18 | 2020-02-28 | 苏州思必驰信息科技有限公司 | 一种模型训练方法、装置、电子设备及存储介质 |
CN110992938A (zh) * | 2019-12-10 | 2020-04-10 | 同盾控股有限公司 | 语音数据处理方法、装置、电子设备及计算机可读介质 |
CN111128181A (zh) * | 2019-12-09 | 2020-05-08 | 科大讯飞股份有限公司 | 背诵题评测方法、装置以及设备 |
CN111583906A (zh) * | 2019-02-18 | 2020-08-25 | ***通信有限公司研究院 | 一种语音会话的角色识别方法、装置及终端 |
CN111627445A (zh) * | 2020-05-26 | 2020-09-04 | 福建省海峡智汇科技有限公司 | 一种用于场地或人员的匹配方法和*** |
CN111640452A (zh) * | 2019-03-01 | 2020-09-08 | 北京搜狗科技发展有限公司 | 一种数据处理方法、装置和用于数据处理的装置 |
CN112201225A (zh) * | 2020-09-30 | 2021-01-08 | 北京大米科技有限公司 | 一种语料获取的方法、装置、可读存储介质和电子设备 |
CN112257407A (zh) * | 2020-10-20 | 2021-01-22 | 网易(杭州)网络有限公司 | 音频中的文本对齐方法、装置、电子设备及可读存储介质 |
CN112397048A (zh) * | 2020-12-10 | 2021-02-23 | 标贝(北京)科技有限公司 | 语音合成的发音稳定性评价方法、装置和***及存储介质 |
CN112581939A (zh) * | 2020-12-06 | 2021-03-30 | 中国南方电网有限责任公司 | 一种应用于电力调度规范性评价的智能语音分析方法 |
CN112668617A (zh) * | 2020-12-21 | 2021-04-16 | 广东电网有限责任公司电力科学研究院 | 一种电网员工工作满意度评估方法及装置 |
CN112669810A (zh) * | 2020-12-16 | 2021-04-16 | 平安科技(深圳)有限公司 | 语音合成的效果评估方法、装置、计算机设备及存储介质 |
CN112767932A (zh) * | 2020-12-11 | 2021-05-07 | 北京百家科技集团有限公司 | 语音测评***、方法、装置、设备及计算机可读存储介质 |
CN112802456A (zh) * | 2021-04-14 | 2021-05-14 | 北京世纪好未来教育科技有限公司 | 一种语音评测打分方法、装置、电子设备及存储介质 |
CN112908359A (zh) * | 2021-01-31 | 2021-06-04 | 云知声智能科技股份有限公司 | 语音测评方法、装置、电子设备及计算机可读介质 |
CN112951277A (zh) * | 2019-11-26 | 2021-06-11 | 新东方教育科技集团有限公司 | 评测语音的方法和装置 |
CN115066679A (zh) * | 2020-03-25 | 2022-09-16 | 苏州七星天专利运营管理有限责任公司 | 一种提取专业领域内的自造术语的方法及*** |
CN115346421A (zh) * | 2021-05-12 | 2022-11-15 | 北京猿力未来科技有限公司 | 一种口语流利度评分方法、计算设备及存储介质 |
US20230110905A1 (en) * | 2021-10-07 | 2023-04-13 | Nvidia Corporation | Unsupervised alignment for text to speech synthesis using neural networks |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101197084A (zh) * | 2007-11-06 | 2008-06-11 | 安徽科大讯飞信息科技股份有限公司 | 自动化英语口语评测学习*** |
CN103065626A (zh) * | 2012-12-20 | 2013-04-24 | 中国科学院声学研究所 | 英语口语考试***中的朗读题自动评分方法和设备 |
CN103151042A (zh) * | 2013-01-23 | 2013-06-12 | 中国科学院深圳先进技术研究院 | 全自动口语评测管理与评分***及其评分方法 |
CN107945788A (zh) * | 2017-11-27 | 2018-04-20 | 桂林电子科技大学 | 一种文本相关的英语口语发音错误检测与质量评分方法 |
-
2018
- 2018-11-08 CN CN201811327485.XA patent/CN109256152A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101197084A (zh) * | 2007-11-06 | 2008-06-11 | 安徽科大讯飞信息科技股份有限公司 | 自动化英语口语评测学习*** |
CN103065626A (zh) * | 2012-12-20 | 2013-04-24 | 中国科学院声学研究所 | 英语口语考试***中的朗读题自动评分方法和设备 |
CN103151042A (zh) * | 2013-01-23 | 2013-06-12 | 中国科学院深圳先进技术研究院 | 全自动口语评测管理与评分***及其评分方法 |
CN107945788A (zh) * | 2017-11-27 | 2018-04-20 | 桂林电子科技大学 | 一种文本相关的英语口语发音错误检测与质量评分方法 |
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111583906B (zh) * | 2019-02-18 | 2023-08-15 | ***通信有限公司研究院 | 一种语音会话的角色识别方法、装置及终端 |
CN111583906A (zh) * | 2019-02-18 | 2020-08-25 | ***通信有限公司研究院 | 一种语音会话的角色识别方法、装置及终端 |
CN111640452B (zh) * | 2019-03-01 | 2024-05-07 | 北京搜狗科技发展有限公司 | 一种数据处理方法、装置和用于数据处理的装置 |
CN111640452A (zh) * | 2019-03-01 | 2020-09-08 | 北京搜狗科技发展有限公司 | 一种数据处理方法、装置和用于数据处理的装置 |
CN110289015B (zh) * | 2019-05-27 | 2021-09-17 | 北京大米科技有限公司 | 一种音频处理方法、装置、服务器、存储介质及*** |
CN110289015A (zh) * | 2019-05-27 | 2019-09-27 | 北京大米科技有限公司 | 一种音频处理方法、装置、服务器、存储介质及*** |
CN110490428A (zh) * | 2019-07-26 | 2019-11-22 | 合肥讯飞数码科技有限公司 | 空中交通管制工作质量评估方法及相关装置 |
CN110853628A (zh) * | 2019-11-18 | 2020-02-28 | 苏州思必驰信息科技有限公司 | 一种模型训练方法、装置、电子设备及存储介质 |
CN112951277A (zh) * | 2019-11-26 | 2021-06-11 | 新东方教育科技集团有限公司 | 评测语音的方法和装置 |
CN112951277B (zh) * | 2019-11-26 | 2023-01-13 | 新东方教育科技集团有限公司 | 评测语音的方法和装置 |
CN111128181A (zh) * | 2019-12-09 | 2020-05-08 | 科大讯飞股份有限公司 | 背诵题评测方法、装置以及设备 |
CN110992938A (zh) * | 2019-12-10 | 2020-04-10 | 同盾控股有限公司 | 语音数据处理方法、装置、电子设备及计算机可读介质 |
CN115066679B (zh) * | 2020-03-25 | 2024-02-20 | 苏州七星天专利运营管理有限责任公司 | 一种提取专业领域内的自造术语的方法及*** |
CN115066679A (zh) * | 2020-03-25 | 2022-09-16 | 苏州七星天专利运营管理有限责任公司 | 一种提取专业领域内的自造术语的方法及*** |
CN111627445A (zh) * | 2020-05-26 | 2020-09-04 | 福建省海峡智汇科技有限公司 | 一种用于场地或人员的匹配方法和*** |
CN111627445B (zh) * | 2020-05-26 | 2023-07-07 | 福建省海峡智汇科技有限公司 | 一种用于场地或人员的匹配方法和*** |
CN112201225B (zh) * | 2020-09-30 | 2024-02-02 | 北京大米科技有限公司 | 一种语料获取的方法、装置、可读存储介质和电子设备 |
CN112201225A (zh) * | 2020-09-30 | 2021-01-08 | 北京大米科技有限公司 | 一种语料获取的方法、装置、可读存储介质和电子设备 |
CN112257407A (zh) * | 2020-10-20 | 2021-01-22 | 网易(杭州)网络有限公司 | 音频中的文本对齐方法、装置、电子设备及可读存储介质 |
CN112257407B (zh) * | 2020-10-20 | 2024-05-14 | 网易(杭州)网络有限公司 | 音频中的文本对齐方法、装置、电子设备及可读存储介质 |
CN112581939A (zh) * | 2020-12-06 | 2021-03-30 | 中国南方电网有限责任公司 | 一种应用于电力调度规范性评价的智能语音分析方法 |
CN112397048B (zh) * | 2020-12-10 | 2023-07-14 | 标贝(北京)科技有限公司 | 语音合成的发音稳定性评价方法、装置和***及存储介质 |
CN112397048A (zh) * | 2020-12-10 | 2021-02-23 | 标贝(北京)科技有限公司 | 语音合成的发音稳定性评价方法、装置和***及存储介质 |
CN112767932A (zh) * | 2020-12-11 | 2021-05-07 | 北京百家科技集团有限公司 | 语音测评***、方法、装置、设备及计算机可读存储介质 |
CN112669810B (zh) * | 2020-12-16 | 2023-08-01 | 平安科技(深圳)有限公司 | 语音合成的效果评估方法、装置、计算机设备及存储介质 |
CN112669810A (zh) * | 2020-12-16 | 2021-04-16 | 平安科技(深圳)有限公司 | 语音合成的效果评估方法、装置、计算机设备及存储介质 |
CN112668617A (zh) * | 2020-12-21 | 2021-04-16 | 广东电网有限责任公司电力科学研究院 | 一种电网员工工作满意度评估方法及装置 |
CN112908359A (zh) * | 2021-01-31 | 2021-06-04 | 云知声智能科技股份有限公司 | 语音测评方法、装置、电子设备及计算机可读介质 |
CN112802456A (zh) * | 2021-04-14 | 2021-05-14 | 北京世纪好未来教育科技有限公司 | 一种语音评测打分方法、装置、电子设备及存储介质 |
CN115346421A (zh) * | 2021-05-12 | 2022-11-15 | 北京猿力未来科技有限公司 | 一种口语流利度评分方法、计算设备及存储介质 |
US20230110905A1 (en) * | 2021-10-07 | 2023-04-13 | Nvidia Corporation | Unsupervised alignment for text to speech synthesis using neural networks |
US11769481B2 (en) | 2021-10-07 | 2023-09-26 | Nvidia Corporation | Unsupervised alignment for text to speech synthesis using neural networks |
US11869483B2 (en) * | 2021-10-07 | 2024-01-09 | Nvidia Corporation | Unsupervised alignment for text to speech synthesis using neural networks |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109256152A (zh) | 语音评分方法及装置、电子设备、存储介质 | |
US8504367B2 (en) | Speech retrieval apparatus and speech retrieval method | |
CN111833853B (zh) | 语音处理方法及装置、电子设备、计算机可读存储介质 | |
US8818813B2 (en) | Methods and system for grammar fitness evaluation as speech recognition error predictor | |
US20160314783A1 (en) | Method for building language model, speech recognition method and electronic apparatus | |
CN109741732A (zh) | 命名实体识别方法、命名实体识别装置、设备及介质 | |
CN101551947A (zh) | 辅助口语语言学习的计算机*** | |
CN110782880B (zh) | 一种韵律生成模型的训练方法及装置 | |
CN109697988B (zh) | 一种语音评价方法及装置 | |
El Amrani et al. | Building CMU Sphinx language model for the Holy Quran using simplified Arabic phonemes | |
CN109377981B (zh) | 音素对齐的方法及装置 | |
CN112466279B (zh) | 一种英语口语发音自动纠正方法和装置 | |
CN112397056B (zh) | 语音评测方法及计算机存储介质 | |
CN111402862A (zh) | 语音识别方法、装置、存储介质及设备 | |
WO2023093295A1 (zh) | 基于人工智能的音频处理方法、装置、电子设备、计算机程序产品及计算机可读存储介质 | |
CN110503956A (zh) | 语音识别方法、装置、介质及电子设备 | |
CN115116428B (zh) | 韵律边界标注方法、装置、设备、介质及程序产品 | |
CN108364655A (zh) | 语音处理方法、介质、装置和计算设备 | |
CN109697975B (zh) | 一种语音评价方法及装置 | |
Thennattil et al. | Phonetic engine for continuous speech in Malayalam | |
CN112309429A (zh) | 一种失爆检测方法、装置、设备及计算机可读存储介质 | |
CN114420159A (zh) | 音频评测方法及装置、非瞬时性存储介质 | |
CN111489742B (zh) | 声学模型训练方法、语音识别方法、装置及电子设备 | |
CN114299930A (zh) | 端到端语音识别模型处理方法、语音识别方法及相关装置 | |
Li et al. | English sentence pronunciation evaluation using rhythm and intonation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190122 |
|
RJ01 | Rejection of invention patent application after publication |