CN116994553A - 语音合成模型的训练方法、语音合成方法、装置及设备 - Google Patents
语音合成模型的训练方法、语音合成方法、装置及设备 Download PDFInfo
- Publication number
- CN116994553A CN116994553A CN202211121568.XA CN202211121568A CN116994553A CN 116994553 A CN116994553 A CN 116994553A CN 202211121568 A CN202211121568 A CN 202211121568A CN 116994553 A CN116994553 A CN 116994553A
- Authority
- CN
- China
- Prior art keywords
- predicted
- model
- sample
- phoneme
- sub
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 142
- 230000015572 biosynthetic process Effects 0.000 title claims abstract description 137
- 238000003786 synthesis reaction Methods 0.000 title claims abstract description 137
- 238000000034 method Methods 0.000 title claims abstract description 127
- 238000001308 synthesis method Methods 0.000 title claims abstract description 15
- 238000012545 processing Methods 0.000 claims description 42
- 230000008569 process Effects 0.000 claims description 37
- 238000003860 storage Methods 0.000 claims description 34
- 230000006870 function Effects 0.000 claims description 32
- 238000009826 distribution Methods 0.000 claims description 14
- 238000012805 post-processing Methods 0.000 claims description 10
- 238000005070 sampling Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 abstract description 12
- 239000010410 layer Substances 0.000 description 107
- 238000013461 design Methods 0.000 description 45
- 238000001228 spectrum Methods 0.000 description 42
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 21
- 230000008878 coupling Effects 0.000 description 21
- 238000010168 coupling process Methods 0.000 description 21
- 238000005859 coupling reaction Methods 0.000 description 21
- 238000005516 engineering process Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 16
- 230000003595 spectral effect Effects 0.000 description 9
- 230000002194 synthesizing effect Effects 0.000 description 8
- 238000013473 artificial intelligence Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 230000007246 mechanism Effects 0.000 description 5
- 230000003993 interaction Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000010367 cloning Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 101100166455 Neurospora crassa (strain ATCC 24698 / 74-OR23-1A / CBS 708.71 / DSM 1257 / FGSC 987) ccg-4 gene Proteins 0.000 description 1
- 101150114608 PPG1 gene Proteins 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 238000004821 distillation Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/033—Voice editing, e.g. manipulating the voice of the synthesiser
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
- G10L13/047—Architecture of speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
- G10L13/10—Prosody rules derived from text; Stress or intonation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/26—Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Machine Translation (AREA)
Abstract
本申请公开了一种语音合成模型的训练方法、语音合成方法、装置及设备,属于语音合成领域。所述方法包括:获取目标用户的样本音素以及目标用户的音色标识;将样本音素输入语音合成模型的第一子模型,得到样本音素的预测音素后验特征;将预测音素后验特征以及音色标识输入语音合成模型的第二子模型,得到与样本文本和音色标识对应的预测语音,第二子模型是通过预测预测音素后验特征与预测语音的预测中间变量,基于逆傅里叶变换得到预测语音的;根据预测音素后验特征训练第一子模型;以及根据预测语音和预测中间变量训练第二子模型。本申请能够减少模型的计算消耗资源。
Description
技术领域
本申请涉及语音合成领域,特别涉及一种语音合成模型的训练方法、语音合成方法、装置及设备。
背景技术
语音合成是指根据用户针对部分文字录制的语音,来合成符合该用户音色的其它文字的语音。
相关技术中,通常会预先训练一个多用户声学模型和一个声码器,声学模型用于将文本转化为符合某个用户音色的频谱特征,声码器用于将频谱特征转化为语音信号。其中,声学模型中的编码器用于建模文本信息,声学模型中的解码器用于建模声学信息。通过使用目标用户的录音,可在编码器的输入上引入该目标用户的信息,从而在声学模型上进行微调,进而可得到符合该目标用户音色并与文本对应的频谱特征。之后,通过声码器基于上采样结构可合成语音信号,由此得到符合该目标用户音色并与文本对应的合成语音。示例地,上述声学模型是快速语音(Fastspeech)模型,声码器是高保真生成对抗网络(HifiGAN)。
通过上述模型进行语音合成,由于模型参数较多,计算复杂度较大,在低计算资源场景如在终端中合成语音的情况下,存在计算消耗资源较多导致模型难以部署的情况。
发明内容
本申请提供了一种语音合成模型的训练方法、语音合成方法、装置及设备,可以减少模型的计算消耗资源,实现在低计算资源设备中部署模型。所述技术方案如下:
根据本申请的一方面,提供了一种语音合成模型的训练方法,所述方法包括:
获取目标用户的样本音素以及所述目标用户的音色标识,所述样本音素基于所述目标用户的样本语音对应的样本文本确定;
将所述样本音素输入所述语音合成模型的第一子模型,得到所述样本音素的预测音素后验特征,所述预测音素后验特征用于反映所述样本音素中各音素的特征以及所述样本音素中各音素的发音时长特征;
将所述预测音素后验特征以及所述音色标识输入所述语音合成模型的第二子模型,得到与所述样本文本和所述音色标识对应的预测语音,所述第二子模型是通过预测所述预测音素后验特征与所述预测语音的预测中间变量,基于逆傅里叶变换得到所述预测语音的,所述预测中间变量用于反映所述预测语音的频域特征;
根据所述预测音素后验特征训练所述第一子模型;以及根据所述预测语音和所述预测中间变量训练所述第二子模型。
根据本申请的另一方面,提供了一种语音合成方法,所述方法应用于计算机设备,所述计算机设备中包括通过如上方面所述的方法训练得到的所述语音合成模型,所述方法包括:
获取目标用户的目标音素以及所述目标用户的音色标识,所述目标音素基于目标文本确定;
将所述目标音素输入所述语音合成模型的第一子模型,得到所述目标音素的音素后验特征;
将所述音素后验特征以及所述音色标识输入所述语音合成模型的第二子模型,得到与所述目标文本和所述音色标识对应的目标语音。
根据本申请的另一方面,提供了一种语音合成模型的训练装置,所述装置包括:
获取模块,用于获取目标用户的样本音素以及所述目标用户的音色标识,所述样本音素基于所述目标用户的样本语音对应的样本文本确定;
输入输出模块,用于将所述样本音素输入所述语音合成模型的第一子模型,得到所述样本音素的预测音素后验特征,所述预测音素后验特征用于反映所述样本音素中各音素的特征以及所述样本音素中各音素的发音时长特征;
所述输入输出模块,还用于将所述预测音素后验特征以及所述音色标识输入所述语音合成模型的第二子模型,得到与所述样本文本和所述音色标识对应的预测语音,所述第二子模型是通过预测所述预测音素后验特征与所述预测语音的预测中间变量,基于逆傅里叶变换得到所述预测语音的,所述预测中间变量用于反映所述预测语音的频域特征;
训练模块,用于根据所述预测音素后验特征训练所述第一子模型;以及根据所述预测语音和所述预测中间变量训练所述第二子模型。
在一个可选的设计中,所述第二子模型包括先验编码器和解码器;所述输入输出模块,用于:
将所述预测音素后验特征和所述音色标识输入所述先验编码器,得到所述预测中间变量;
通过所述解码器对所述预测中间变量进行逆傅里叶变换,得到所述预测语音。
在一个可选的设计中,所述先验编码器包括音素后验编码器;所述输入输出模块,用于:
将所述预测音素后验特征和所述音色标识输入所述音素后验编码器,对所述预测中间变量的先验分布采样均值与方差,得到所述预测中间变量。
在一个可选的设计中,所述第二子模型还包括后验编码器;所述获取模块,用于:
获取所述样本语音;
所述输入输出模块,用于:
将所述样本语音输入所述后验编码器,得到真实中间变量;
所述训练模块,用于:
计算所述预测中间变量与所述真实中间变量的相对熵损失,训练所述第二子模型。
在一个可选的设计中,所述后验编码器包括后验预测器;所述输入输出模块,用于:
将所述样本语音输入所述后验预测器,对所述真实中间变量的后验分布采样均值与方差,得到所述真实中间变量。
在一个可选的设计中,所述先验编码器还包括正则化流层;所述输入输出模块,用于:
通过所述正则化流层对所述真实中间变量进行仿射耦合处理,得到处理后的真实中间变量;
所述训练模块,用于:
计算所述预测中间变量与所述处理后的真实中间变量的相对熵损失,训练所述第二子模型。
在一个可选的设计中,所述正则化流层包括多个仿射耦合层,每个所述仿射耦合层用于对所述真实中间变量进行仿射耦合处理;不同所述仿射耦合层共享模型参数,且每个所述仿射耦合层对应有嵌入层标识。
在一个可选的设计中,所述先验编码器还包括音素后验预测器,所述音素后验预测器用于在预训练所述第二子模型的过程中,根据预训练过程中的预测中间变量预测所述预训练过程中的预测音素后验特征。
在一个可选的设计中,所述训练模块,用于:
在所述第二子模型的所述预训练过程中,计算所述预训练过程中的预测音素后验特征与所述预训练过程中的真实音素后验特征的损失函数,训练所述第二子模型。
在一个可选的设计中,所述获取模块,用于:
获取与所述样本音素和风格标识对应的基频特征,所述基频特征是通过所述第一子模型基于所述风格标识对所述样本音素进行特征提取得到的;
所述输入输出模块,用于:
将所述预测音素后验特征、所述音色标识和所述基频特征输入所述先验编码器,得到与所述风格标识对应的所述预测中间变量。
在一个可选的设计中,所述解码器包括逆傅里叶变换解码器;所述输入输出模块,用于:
通过所述逆傅里叶变换解码器对所述预测中间变量进行逆傅里叶变换,得到所述预测语音。
在一个可选的设计中,所述输入输出模块,用于:
通过所述逆傅里叶变换解码器根据所述风格标识对所述预测中间变量进行逆傅里叶变换,得到所述预测语音。
在一个可选的设计中,所述逆傅里叶变换解码器包括多个一维卷积层,最后一个所述一维卷积层与逆傅里叶变换层连接。
在一个可选的设计中,所述获取模块,用于:
获取所述样本语音;
所述训练模块,用于:
计算所述预测语音与所述样本语音之间的梅尔频谱损失,训练所述第二子模型。
在一个可选的设计中,所述解码器还包括判别器,所述判别器与所述语音合成模型中除所述判别器以外的部分组成生成对抗网络;所述输入输出模块,用于:
将所述预测语音输入所述判别器,得到所述预测语音的判别结果,所述判别结果用于反映所述预测语音为真实的信息或预测的信息;
所述训练模块,用于:
根据所述判别结果与所述预测语音的真实来源确定生成对抗损失,训练所述生成对抗网络。
在一个可选的设计中,所述判别器包括多尺度频谱判别器;所述输入输出模块,用于:
将所述预测语音输入所述多尺度频谱判别器,通过所述多尺度频谱判别器的多个子判别器分别在幅度谱上对所述预测语音进行短时傅立叶变换,并通过多个二维卷积层进行二维卷积处理,得到所述预测语音的判别结果;
其中,每个所述子判别器的短时傅立叶变换参数不同。
在一个可选的设计中,所述判别器包括多尺度复数谱判别器;所述输入输出模块,用于:
将所述预测语音输入所述多尺度复数谱判别器,通过所述多尺度复数谱判别器的多个子判别器分别在复数谱上对所述预测语音进行短时傅立叶变换,并通过多个二维复数卷积层进行二维复数卷积处理,得到所述预测语音的判别结果;
其中,每个所述子判别器的短时傅立叶变换参数不同。
在一个可选的设计中,所述第一子模型包括文本编码器、时长规整器以及后处理网络;所述获取模块,用于:
获取所述样本音素中各音素对应的真实发音时长特征;
所述输入输出模块,用于:
通过所述文本编码器对所述样本音素进行编码,得到所述样本音素的隐层特征;
通过所述时长规整器根据所述样本音素中各音素对应的真实发音时长特征,对所述样本音素的隐层特征进行扩帧处理;
通过所述后处理网络对扩帧后的所述样本音素的隐层特征进行卷积处理,得到所述样本音素的所述预测音素后验特征。
在一个可选的设计中,所述获取模块,用于:
获取所述样本音素的真实音素后验特征;
所述训练模块,用于:
计算所述预测音素后验特征与所述真实音素后验特征的损失函数,训练所述第一子模型。
在一个可选的设计中,所述第一子模型还包括时长预测器,所述输入输出模块,用于:
通过所述时长预测器对所述样本音素的隐层特征进行预测,得到所述样本音素中各音素对应的预测发音时长特征;
所述训练模块,用于:
计算所述预测发音时长特征和所述真实发音时长特征的损失函数,训练所述第一子模型。
在一个可选的设计中,所述获取模块,用于:
获取风格标识;
所述输入输出模块,用于:
通过所述文本编码器根据所述风格标识对所述样本音素进行编码,得到与所述风格标识对应的所述样本音素的隐层特征。
在一个可选的设计中,所述第一子模型还包括基频预测器;所述输入输出模块,用于:
通过所述基频预测器对所述样本音素的隐层特征进行预测,得到与所述风格标识和所述样本音素对应的基频特征,所述基频特征用于输入所述第二子模型得到与所述风格标识对应的所述预测语音。
根据本申请的另一方面,提供了一种语音合成装置,所述装置中包括通过如上方面所述的装置训练得到的所述语音合成模型,所述装置包括:
获取模块,用于获取目标用户的目标音素以及所述目标用户的音色标识,所述目标音素基于目标文本确定;
输入输出模块,用于将所述目标音素输入所述语音合成模型的第一子模型,得到所述目标音素的音素后验特征;
所述输入输出模块,还用于将所述音素后验特征以及所述音色标识输入所述语音合成模型的第二子模型,得到与所述目标文本和所述音色标识对应的目标语音。
在一个可选的设计中,所述获取模块,用于:
获取目标风格标识;
所述输入输出模块,用于:
将所述目标音素和所述目标风格标识输入所述语音合成模型的第一子模型,得到与所述目标风格标识对应的所述目标音素的所述音素后验特征以及与所述目标风格标识和所述目标音素对应的目标基频特征;
将所述音素后验特征、所述音色标识以及所述目标基频特征输入所述语音合成模型的第二子模型,得到与所述目标文本、所述音色标识和所述目标基频特征对应的所述目标语音。
根据本申请的另一方面,提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如上方面所述的语音合成模型的训练方法或语音合成方法。
根据本申请的另一方面,提供了一种计算机可读存储介质,所述可读存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如上方面所述的语音合成模型的训练方法或语音合成方法。
根据本申请的另一方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述方面的各种可选实现方式中提供的语音合成模型的训练方法或语音合成方法。
本申请提供的技术方案带来的有益效果至少包括:
通过训练上述语音合成模型,能够通过语音合成模型根据目标用户的音色标识和目标文本,来生成符合目标用户音色的目标语音。合成目标语音的过程,是通过预测的音素后验特征对中间变量进行预测,并通过逆傅里叶变换实现的。由于音素后验特征相较于频谱特征包含的信息量较少,因此预测音素后验特征所需的模型参数也较少,且逆傅里叶变换相较于上采样所需的模型参数也较少,因此能够减少模型的参数,从而减少模型的计算消耗资源,可实现在低计算资源设备中部署模型。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一个示例性实施例提供的语音合成模型的结构示意图;
图2是本申请一个示例性实施例提供的语音合成模型的训练方法的流程示意图;
图3是本申请一个示例性实施例提供的语音合成模型的训练方法的流程示意图;
图4是本申请一个示例性实施例提供的文本编码器的结构示意图;
图5是本申请一个示例性实施例提供的一种逆傅里叶变换解码器的结构示意图;
图6是本申请一个示例性实施例提供的另一种逆傅里叶变换解码器的结构示意图;
图7是本申请一个示例性实施例提供的正则化流层的结构示意图;
图8是本申请一个示例性实施例提供的多尺度频谱判别器的结构示意图;
图9是本申请一个示例性实施例提供的语音合成方法的流程示意图;
图10是本申请一个示例性实施例提供的语音合成模型的训练装置的结构示意图;
图11是本申请一个示例性实施例提供的语音合成装置的结构示意图;
图12是本申请一个示例性实施例提供的计算机设备的结构示意图。
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
首先,对本申请实施例涉及的相关名词进行介绍:
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用***。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互***、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
语音技术(Speech Technology)的关键技术有自动语音识别技术(AutomaticSpeech Recognition,ASR)和从文本到语音(Text To Speech,TTS)的语音合成技术,以及声纹识别技术。让计算机能听、能看、能说、能感觉,是未来人机交互的发展方向,其中语音成为未来最被看好的人机交互方式之一。
音素(phone)是根据语音的自然属性划分出来的最小语音单位,依据音节里的发音动作来分析,一个动作构成一个音素。音素可分为元音与辅音两大类。示例地,汉语音节啊(ā)只有一个音素,爱(ài)有两个音素。
图1是本申请一个示例性实施例提供的语音合成模型的结构示意图。如图1所示,语音合成模型包括第一子模型101和第二子模型102。其中,第一子模型可称为文本至音素后特征(Text2PPG)模型,第二子模型可称为音素后特征至语音(PPG2Wav)模型。
模型训练阶段:
计算机设备获取目标用户的样本语音、目标用户的音色标识、样本语音对应的样本文本以及风格标识,并根据样本文本确定组成样本文本的样本音素,以及根据样本语音确定样本音素中各音素的真实发音时长特征,以及根据样本语音确定样本音素的真实音素后验特征(Phonetic Posterior Gram,PPG)。之后将样本音素和风格标识输入第一子模型101,通过文本编码器1011根据风格标识对样本音素进行编码,得到与风格标识对应的样本音素的隐层特征。以及,通过时长预测器1012对样本音素的隐层特征进行预测,得到与风格标识对应的样本音素中各音素对应的预测发音时长特征。以及,通过基频预测器1013对样本音素的隐层特征进行预测,得到与风格标识和样本音素对应的基频特征。其中,不同的风格标识具有与其对应的模型参数。之后,计算机设备通过时长规整器1014根据样本音素中各音素对应的真实发音时长特征,对样本音素的隐层特征进行扩帧处理,并通过后处理网络1015对扩帧后的样本音素的隐层特征进行卷积处理,从而得到样本音素的预测音素后验特征。该预测音素后验特征用于反映样本音素中各音素的特征以及样本音素中各音素的发音时长特征。在训练第一子模型101时,计算机设备计算预测音素后验特征与真实音素后验特征的损失函数,训练第一子模型。以及,计算预测发音时长特征和真实发音时长特征的损失函数,训练第一子模型。
之后,计算机设备将预测音素后验特征、音色标识和基频特征输入第二子模型102,通过先验编码器中的音素后验编码器1021(也称PPG编码器),对预测中间变量的先验分布采样均值与方差,得到预测中间变量。该预测中间变量是通过预测音素后验特征合成预测语音的过程中的中间变量,预测中间变量用于反映预测语音的频域特征。计算机设备还会将样本语音(线性谱)输入后验编码器的后验预测器1024,对真实中间变量的后验分布采样均值与方差,从而得到真实中间变量。并通过先验编码器的正则化流层1022对真实中间变量进行仿射耦合处理,从而得到处理后的真实中间变量。之后计算预测中间变量与处理后的真实中间变量的相对熵损失(也称库尔巴克·莱布勒(KL)散度损失),从而训练第二子模型。另外,先验编码器还包括音素后验预测器1023(PPG预测器),音素后验预测器1023用于在预训练第二子模型的过程中,根据预训练过程中的预测中间变量,预测预训练过程中的预测音素后验特征,从而使得计算机设备可在预训练第二子模型的过程中,计算预训练过程中的预测音素后验特征,与预训练过程中的真实音素后验特征的损失函数,从而对第二子模型进行预训练。在得到预测中间变量后,计算机设备通过解码器的逆傅里叶变换解码器1025根据音色标识对预测中间变量进行逆傅里叶变换,从而得到预测语音。之后计算预测语音与样本语音之间的梅尔频谱损失,训练第二子模型。另外,图1所示的模型结构中,解码器中的判别器1026与语音合成模型中除判别器1026以外的部分能够组成生成对抗网络。计算机设备将预测语音输入判别器1026,能够得到预测语音的判别结果。之后根据判别结果与预测语音的真实来源确定生成对抗损失,从而能够训练上述生成对抗网络。
语音合成阶段:
计算机设备获取目标用户的目标音素、目标用户的音色标识以及目标风格标识。其中,目标音素是根据目标文本确定的。计算机设备通过将目标音素和目标风格标识输入第一子模型101,能够得到与目标风格标识对应的目标音素的音素后验特征以及与目标风格标识和目标音素对应的目标基频特征。之后将音素后验特征、音色标识以及目标基频特征输入第二子模型102,从而得到与目标文本、音色标识以及目标风格标识对应的目标语音。其中,目标文本决定了目标语音的发音内容,音色标识决定了目标语音的音色,目标风格标识决定了目标语音的发音风格,包括各音素的发音时长和基频。
需要说明的是,在模型训练阶段,计算机设备向第二子模型102输入的基频特征是通过发音时长特征进行扩帧处理的。在语音合成阶段,计算机设备在第一子模型101进行扩帧使用的发音时长特征是通过时长预测器1012预测的。另外,在语音合成阶段,第二子模型102中的正则化流层1022会将音素后验编码器1021输出的中间变量进行反向流转化(与训练时的数据流转方向相反),并输入解码器中进行处理,从而得到目标语音。并且,第二子模型102中的音素后验预测器1023不参与语音合成的过程。
通过训练上述语音合成模型,能够通过语音合成模型根据目标用户的音色标识和目标文本,来生成符合目标用户音色的目标语音。合成目标语音的过程,是通过预测的音素后验特征对中间变量进行预测,并通过逆傅里叶变换实现的。由于音素后验特征相较于频谱特征包含的信息量较少,因此预测音素后验特征所需的模型参数也较少,且逆傅里叶变换相较于上采样所需的模型参数也较少,因此能够减少模型的参数,从而减少模型的计算消耗资源,可实现在低计算资源设备中部署模型。
图2是本申请一个示例性实施例提供的语音合成模型的训练方法的流程示意图。该方法可以用于计算机设备或计算机设备上的客户端。如图2所示,该方法包括:
步骤202:获取目标用户的样本音素以及目标用户的音色标识。
该目标用户是需要进行语音合成的用户,计算机设备通过训练得到的语音合成模型能够合成符合该目标用户音色且内容为目标文本的语音。
可选地,计算机设备还会获取目标用户的样本语音对应的样本文本,该样本文本包括样本语音对应的文本内容。样本语音以及样本文本可支持不同类型的语言,本申请实施例对此不作限制。示例性地,该样本语音是通过录制目标用户针对少量文本进行的发音从而得到的。该样本音素基于目标用户的样本语音对应的样本文本确定。
该目标用户的音色标识是用于标识目标用户的信息,例如为目标用户的用户标识(Identity Document,ID)。在训练语音合成模型时,使用音色标识能够将模型学习到的模型参数与音色标识建立对应关系,从而在合成语音时通过向模型输入音色标识可实现合成符合该音色标识(音色标识对应的模型参数)对应的音色的语音。
步骤204:将样本音素输入语音合成模型的第一子模型,得到样本音素的预测音素后验特征。
该预测音素后验特征用于反映样本音素中各音素的特征以及样本音素中各音素的发音时长特征。“音素后验特征”也可称为“PPG”。
可选地,计算机设备通过第一子模型提取样本音素的隐层特征,并通过该第一子模型预测样本音素中各音素的发音时长特征或根据样本语音获取样本音素中各音素真实的发音时长特征,从而获取到样本音素中各音素的发音时长特征。之后根据样本音素的隐层特征以及样本音素中各音素的发音时长特征,即可确定样本音素的预测音素后验特征。可选地,确定的过程是计算机设备通过样本音素中各音素的发音时长特征对样本音素的隐层特征进行扩帧实现的。
步骤206:将预测音素后验特征以及音色标识输入语音合成模型的第二子模型,得到与样本文本和音色标识对应的预测语音。
该预测语音的内容为样本文本,该预测语音的音色为音色标识对应的音色,即音色标识所标识的目标用户的音色。该第二子模型是通过预测上述预测音素后验特征与预测语音的预测中间变量,并对预测中间变量基于逆傅里叶变换从而得到预测语音的。其中,该预测中间变量用于反映预测语音的频域特征。该预测中间变量是第二子模型在确定预测语音的过程中预测出的中间变量。该预测中间变量也可称为预测潜在变量。
步骤208:根据预测音素后验特征训练第一子模型,以及根据预测语音和预测中间变量训练第二子模型。
计算机设备会根据样本语音来确定真实音素后验特征,通过计算预测音素后验特征和真实音素后验特征的损失函数,能够对第一子模型进行训练。计算机设备通过计算样本语音和预测语音的损失函数,能够对第二子模型进行训练。
可选地,样本语音和预测语音的损失函数指样本语音和预测语音的梅尔频谱损失。计算机设备通过将预测语音和样本语音分别转换至梅尔频谱,并计算两者的梅尔频谱的L1范数距离,从而可确定损失函数训练第二子模型。
计算机设备还会获取样本语音与预测音素后验特征对应的真实中间变量。可选地,该真实中间变量是根据样本语音确定的。计算机设备计算预测中间变量与真实中间变量的损失函数,从而训练第二子模型。可选地,该损失函数指相对熵损失(KL散度损失)。
需要说明的是,训练的上述语音合成模型是经过预训练得到的,预训练是采用预训练的数据对语音合成模型进行的训练,可参照上述训练过程。语音合成模型的上述训练过程的目的在于学习目标用户发音的频域特征(可称为音素克隆微调训练),即学习目标用户的音色,并建立学习到的模型参数与音色标识的对应关系。在完成语音合成模型的训练后,通过该语音合成模型能够合成符合该目标用户音色(输入音色标识)且内容为目标文本(与样本文本不同)的目标语音。
需要说明的是,本实施例提供的方法所训练得到的语音合成模型,能够在低计算资源设备中部署并能运行。低计算资源设备包括用户终端,用户终端包括但不限于手机、电脑、智能语音交互设备、智能家电、车载终端、飞行器等。
综上所述,本实施例提供的方法,通过训练上述语音合成模型,能够通过语音合成模型根据目标用户的音色标识和目标文本,来生成符合目标用户音色的目标语音。合成目标语音的过程,是通过预测的音素后验特征对中间变量进行预测,并通过逆傅里叶变换实现的。由于音素后验特征相较于频谱特征包含的信息量较少,因此预测音素后验特征所需的模型参数也较少,且逆傅里叶变换相较于上采样所需的模型参数也较少,因此能够减少模型的参数,从而减少模型的计算消耗资源,可实现在低计算资源设备中部署模型。
图3是本申请一个示例性实施例提供的语音合成模型的训练方法的流程示意图。该方法可以用于计算机设备或计算机设备上的客户端。如图3所示,该方法包括:
步骤302:获取目标用户的样本音素以及目标用户的音色标识。
该目标用户是需要进行语音合成的用户,该目标用户是训练或使用语音合成模型的用户确定的。可选地,计算机设备还会获取目标用户的样本语音对应的样本文本,该样本文本包括样本语音对应的文本内容,该样本音素基于目标用户的样本语音对应的样本文本确定。
该目标用户的音色标识是用于标识目标用户的信息。在训练语音合成模型时,使用音色标识能够将模型学习到的模型参数与音色标识建立对应关系,从而在合成语音时通过向模型输入音色标识可实现合成符合该音色标识对应的音色(目标用户的音色)的语音。
步骤304:通过语音合成模型的第一子模型的文本编码器对样本音素进行编码,得到样本音素的隐层特征。
计算机设备将样本音素输入语音合成模型的第一子模型,能够得到样本音素的预测音素后验特征。该预测音素后验特征用于反映样本音素中各音素的特征以及样本音素中各音素的发音时长特征。
该第一子模型可称为Text2PPG模型,用于将输入的音素序列转换为包含更多的发音信息的语言特征。该第一子模型包括文本编码器、时长规整器以及后处理网络。计算机设备通过文本编码器对样本音素进行编码,从而能够得到样本音素的隐层特征。
可选地,该文本编码器采用前馈变换器结构(Feed-Forward Transformer,FFT)结构。每个FFT模块由多头自注意力模块和卷积模块组成,在自注意力模块和卷积模块后也加入了残差连接和层归一化结构,从而提高结构的稳定性和性能。
示例地,图4是本申请一个示例性实施例提供的文本编码器的结构示意图。如图4所示,文本编码器包括多头注意力层(Multi-Head Attention)401,残差&标准化层(Add&Norm)402以及卷积层(Conv1D)403。其中,多头注意力层401采用线性注意力机制。示例地,线性注意力机制的公式如下:
Attention=φ(Q)(φ(K)TV);
其中,Q、K、V均表示样本音素的隐层表示序列。由于要保证Q与K的内积为正数,使输出概率有意义,线性注意力中使用了指数线性单元(Exponential Linear Unit,ELU)函数,这样可以先对φ(K)T和V进行矩阵乘法,其计算复杂度为O(N)。另外,在第一子模型中不考虑样本用户或声学相关信息,使得输出只与输入音素序列相关。采用线性注意力机制相较于点积注意力,在保证注意效果的同时能够实现降低计算复杂度。
步骤306:通过语音合成模型的第一子模型的时长规整器对样本音素的隐层特征进行扩帧处理。
由于音素后验特征能够反映完整的发音信息,其包含每个音素发音持续时间的信息,因此需要确定样本音素中各音素对应的发音时长特征,并对样本音素的隐层特征进行扩帧。
计算机设备还会获取样本音素中各音素对应的真实发音时长特征。例如,计算机设备获取样本语音,通过对样本语音进行分析处理能够得到样本音素中各音素对应的真实发音时长特征。例如通过预训练的时长模型根据样本语音能够确定样本音素中各音素对应的真实发音时长特征。计算机设备通过时长规整器根据样本音素中各音素对应的真实发音时长特征,能够对样本音素的隐层特征进行扩帧处理。
步骤308:通过语音合成模型的第一子模型的后处理网络对扩帧后的样本音素的隐层特征进行卷积处理,得到样本音素的预测音素后验特征。
在对样本音素的隐层特征进行扩帧后,会将该信息输入后处理网络,后处理网络会对输入的信息进行卷积,从而对输入的信息进行平滑处理。由于扩帧后的音素后验特征已包含了音素的特征以及发音时长的特征,因此能够得到样本音素的预测音素后验特征。
步骤310:根据预测音素后验特征训练第一子模型。
计算机设备还会获取样本音素的真实音素后验特征。例如,通过将样本语音输入语音识别模型能够得到样本音素的真实音素后验特征。计算机设备通过计算预测音素后验特征与真实音素后验特征的损失函数,训练第一子模型。示例地,该损失函数为L2范数损失。
可选地,由于在合成语音时无法获取真实的发音时长特征,第一子模型还包括时长预测器。在训练第一子模型时,计算机设备会通过时长预测器对样本音素的隐层特征进行预测,从而得到样本音素中各音素对应的预测发音时长特征。之后,计算机设备会计算预测发音时长特征和真实发音时长特征的损失函数,训练第一子模型。示例地,该损失函数为L2范数损失。
另外,由于样本用户的录音往往较为急促没有情感,对于不同的合成语音的场景需要合成不同风格的语音,该风格包括语音中各音素的发音时长(发音的时长停顿)以及基频(基频变化)。计算机设备通过使用不同的风格标识能够控制模型生成适应不同场景的预测音素后验特征。可选地,该方案中,计算机设备还会获取风格标识,并通过文本编码器根据风格标识对样本音素进行编码,得到与风格标识对应的样本音素的隐层特征。
需要说明的是,不同的风格标识具有与其对应的模型参数。即输入的风格标识不同,模型的模型参数也不同,这会影响到第一子模型对样本音素进行编码从而得到的隐层特征,输入不同风格标识能够得到样本音素在不同风格标识所对应的风格下的隐层特征。风格标识对隐层特征的影响会影响到模型后续的输入,例如会影响时长预测器预测的发音时长特征(输出与样本音素和风格标识对应的预测发音时长特征)以及影响基频预测器预测的基频特征(输出与风格标识和样本音素对应的基频特征)。可选地,在预训练第一子模型的过程中,计算机设备会使用不同风格的预训练数据以及对应的风格标识进行训练并,从而使得第一子模型能够学习到不同风格对应的模型参数。
可选地,第一子模型还包括基频预测器。计算机设备通过基频预测器对样本音素的隐层特征进行预测,能够得到与风格标识和样本音素对应的基频特征。其中,该基频特征用于输入第二子模型从而得到与风格标识对应的预测语音,即得到与风格标识所对应的风格的预测语音。由于语音的风格与基频相关,且增加基频预测能提高预测音素后验特征的预测效果,可选地,计算机设备还会将通过基频预测器预测得到的基频特征拼接在文本编码器的输出上。
示例地,第一子模型的结构,可参照图1中的实例。
步骤312:将预测音素后验特征和音色标识输入第二子模型的先验编码器,得到预测中间变量。
计算机设备将预测音素后验特征以及音色标识输入语音合成模型的第二子模型,能够得到与样本文本和音色标识对应的预测语音。其中,第二子模型是通过预测预测音素后验特征与预测语音的预测中间变量,基于逆傅里叶变换得到预测语音的,预测中间变量用于反映预测语音的频域特征。由于语音合成模型使用音素后验特征作为语言特征,其已经提供了音素持续时间信息,因此第二子模型不需要考虑建模发音时长的信息。
该第二子模型包括先验编码器和解码器。计算机设备通过将预测音素后验特征和音色标识输入第二子模型的先验编码器,能够得到上述预测中间变量。
可选地,先验编码器包括音素后验编码器(PPG编码器)。计算机设备将预测音素后验特征和音色标识输入音素后验编码器,通过音素后验编码器以包含预测音素后验特征和音色标识的条件信息c为条件,对预测中间变量z的先验分布p(z|c)采样均值与方差,从而能够得到上述预测中间变量。可选地,该音素后验编码器基于FFT结构,并采用线性注意力机制,具体结构可参照如图4的示例。
可选地,在第一子模型输出了样本音素和风格标识对应的基频特征的情况下,计算机设备还会获取与样本音素和风格标识对应的基频特征。其中,基频特征是通过第一子模型基于风格标识对样本音素进行特征提取得到的。计算机设备将预测音素后验特征、音色标识和基频特征输入先验编码器,能够得到与风格标识对应的预测中间变量,即该预测中间变量具有与该风格标识对应的风格。通过该预测中间变量能够合成具有与该风格标识对应的风格的预测语音。
步骤314:通过第二子模型的解码器对预测中间变量进行逆傅里叶变换,得到预测语音。
可选地,解码器包括逆傅里叶变换解码器。计算机设备通过逆傅里叶变换解码器对预测中间变量进行逆傅里叶变换,能够得到预测语音。可选地,在实际应用中,若不将目标用户的风格标识输入解码器,目标用户的音色克隆的相似度(样本语音与预测语音的音色相似度)会显著降低。因此,计算机设备会向逆傅里叶变换解码器输入预测中间变量以及风格标识,从而通过逆傅里叶变换解码器根据风格标识对预测中间变量进行逆傅里叶变换,得到预测语音。
可选地,逆傅里叶变换解码器包括多个一维卷积层,最后一个一维卷积层与逆傅里叶变换层连接。示例地,图5是本申请一个示例性实施例提供的一种逆傅里叶变换解码器的结构示意图。如图5所示,z表示预测中间变量,说话人id表示风格标识。计算机设备通过逆傅里叶变换解码器使用多个一维卷积层501能够将输入的维数逐渐增加到(f/2+1)*2,使输出符合实部和虚部的总维数,其中f表示快速傅里叶变换的大小。残差网络502的堆叠跟随每个一维卷积层501以获得相应尺度上的更多信息。由于在频域维度建模,因此没有使用扩张卷积,而是使用较小的核大小,目的是确保接收场不会太大。在一维卷积层501中通过采用群卷积能够节省计算量。在通过一维卷积层501和残差网络502后,输出被分成实部和虚部,最终的波形(预测语音)可以通过逆傅立叶变换层503产生。可选地,一维卷积层501的数量是根据模型训练的效果确定的。
可选地,上述逆傅里叶变换解码器也可以通过上采样结构以及逆傅立叶变换结构的组合进行替换。示例地,图6是本申请一个示例性实施例提供的另一种逆傅里叶变换解码器的结构示意图。如图6所示,z表示预测中间变量,说话人id表示风格标识。在该结构下,逆傅里叶变换解码器包括一维卷积层601、逆傅里叶变换结构,上采样网络结构以及伪正交镜像滤波器组605。其中,逆傅里叶变换结构包括残差网络602、一维卷积层601以及逆傅里叶变换层603。上采样网络结构包括上采样网络604以及残差网络602。
由于语音的中高频特征较好还原,谐波主要集中于低频部分,因此可以通过上采样结构还原低频部分并通过逆傅立叶变换层建模中高频。之后通过伪正交镜像滤波器组,可将语音分为多个子频带,由上采样结构建模第一个子频带,其余由图5所示的结构生成。由于上采样结构只建模低频,相当于原始的上采样结构减少了大量的参数和计算复杂度。该方案虽然参数和计算量较图5所示的结构较多,但也会取得模型效果的提升。针对不同的部署场景,可以作为适应该场景计算和存储要求的方案。
步骤316:根据预测语音和预测中间变量训练第二子模型。
计算机设备还会获取样本语音,并计算预测语音与样本语音之间的梅尔频谱损失,从而训练第二子模型。
可选地,第二子模型还包括后验编码器。计算机设备获取样本语音,并将样本语音(线性谱)输入后验编码器,从而得到样本语音与预测音素后验特征的真实中间变量。计算机设备通过计算预测中间变量与真实中间变量的相对熵损失(KL散度损失),训练第二子模型。
可选地,后验编码器包括后验预测器(PPG预测器)。计算机设备将样本语音输入后验预测器,对真实中间变量的后验分布p(z|y)采样均值与方差,得到真实中间变量。其中,y表示样本语音。
可选地,先验编码器还包括正则化流层。计算机设备通过正则化流层对真实中间变量进行仿射耦合处理,从而得到处理后的真实中间变量。在计算KL散度损失时,计算机设备会计算预测中间变量与处理后的真实中间变量的相对熵损失,从而训练第二子模型。该正则化流能够将中间变量z转换为更复杂的分布,KL散度损失用于使真实中间变量与预测中间变量的分布保持一致。
上述正则化流层包括多个仿射耦合层,每个仿射耦合层用于对真实中间变量进行仿射耦合处理。由于使用了多层处理,正则化流层具有大量的参数,本申请实施例通过使不同仿射耦合层共享模型参数,来减少模型复杂度。示例地,图7是本申请一个示例性实施例提供的正则化流层的结构示意图。如图7所示,通过使不同仿射耦合层701共享模型参数,且每个仿射耦合层701对应有嵌入层标识702,能够实现将将正则化流层的参数控制为单层,减少模型参数。嵌入层标识是用于标识仿射耦合层的信息,每个仿射耦合层的嵌入层标识不同。
需要说明的是,在训练语音合成模型的过程中,中间变量z通过流(正则化流层)转换为f(z)。在推断过程(语音合成)中,音素后验编码器的输出被反向流转化从而得到中间变量z。示例地,中间变量z的表达式如下:
其中,fθ表示分布,μθ表示均值,σθ表示方差。
在缺乏对中间变量的明确约束的情况下,输出的预测语音容易出现错误读音、语调异常等发音错误。本申请实施例提供的方法通过引入音素后验预测器(PPG预测器)来提供发音约束。可选地,先验编码器还包括音素后验预测器,音素后验预测器用于在预训练第二子模型的过程中,根据预训练过程中的预测中间变量预测预训练过程中的预测音素后验特征。在第二子模型的预训练过程中,计算预训练过程中的预测音素后验特征与预训练过程中的真实音素后验特征的损失函数,训练第二子模型。可选地,该损失函数为L1范数损失。示例地,该损失函数的表达式如下:
LPPg=||PPG1-PPG2||1;
其中,PPG1表示预训练过程中的预测音素后验特征,PPG2表示预训练过程中的真实音素后验特征。
需要说明的是,音素后验预测器仅在预训练语音合成模型时进行训练,在音素克隆微调训练时冻结。
综上,训练第二子模型过程中的上述损失函数可以归类为条件变分自编码器(Conditional Variational Auto Encoder,CVAE)损失,其损失函数如下:
Lcvae=Lkl+λrecon*Lrecon+λppg*Lppg;
其中,Lkl表示预测中间变量与真实中间变量的KL散度损失,Lrecon表示样本语音与预测语音的梅尔频谱的L1损失,Lppg表示PPG预测器的损失。λrecon和λppg为权重参数。
可选地,计算机设备也能够将真实中间变量输入解码器,从而得到与真实中间变量对应的预测语音,之后根据该预测语音与样本语音计算梅尔频谱的L1损失。在该情况下,计算机设备获取到的预测中间变量主要用于确定预测中间变量与真实中间变量的KL散度损失来训练第二子模型。
可选地,解码器还包括判别器,判别器与语音合成模型中除判别器以外的部分组成生成对抗网络(Generative Adversarial Networks,GAN)。计算机设备将预测语音输入判别器,能够得到预测语音的判别结果,该判别结果用于反映预测语音为真实的信息或预测的信息。之后根据判别结果与预测语音的真实来源确定生成对抗损失,从而训练生成对抗网络。
可选地,判别器包括多尺度频谱判别器。多尺度频谱判别器在逆傅立叶变换解码器中特别有效,在高频谐波重构方面有明显的增益。计算机设备将预测语音输入多尺度频谱判别器,通过多尺度频谱判别器的多个子判别器分别在幅度谱上对预测语音进行短时傅立叶变换,并通过多个二维卷积层进行二维卷积处理,从而得到预测语音的判别结果。其中,每个子判别器的短时傅立叶变换参数不同。
示例地,图8是本申请一个示例性实施例提供的多尺度频谱判别器的结构示意图。如图8所示,多尺度频谱判别器由多个不同短时傅立叶变换参数的子判别器组成,预测语音输入判别器后,经过短时傅立叶变换层801得到实部和虚部后取幅值输出频谱特征并通过多层二维卷积层802,从而可以学习预测语音中的不同分辨率的频域特征,进而可实现判别。
可选地,判别器包括多尺度复数谱判别器。多尺度复数谱判别器对语音信号的实部和虚部之间的关系进行建模,这有助于提高相位精度的判别。计算机设备将预测语音输入多尺度复数谱判别器,通过多尺度复数谱判别器的多个子判别器分别在复数谱上对预测语音进行短时傅立叶变换,并通过多个二维复数卷积层进行二维复数卷积处理,从而得到预测语音的判别结果。其中,每个子判别器的短时傅立叶变换参数不同。多尺度复数谱判别器通过短时傅里叶变换在多个尺度上将信号分为实部和虚部,然后对输入进行二维复数卷积,该方法在复值域内有较好的效果。
综上,训练第二子模型过程中的损失函数由CVAE损失以及GAN损失组成,总体的损失函数如下:
LG=Ladv(G)+λfm*Lfm(G)+Lcvae;
LD=Ladv(D);
其中,Ladv(G)为GAN中的生成器(generator)的损失,Ladv(D)为GAN中的判别器(discriminator)的损失。Lfm(G)为生成器的特征匹配损失,具体是指生成器中每个网络层输入真实数据和样本数据所得到的输出之间的差异的损失。λfm为权重参数。
示例地,第二子模型的结构,可参照图1中的实例。
综上所述,本实施例提供的方法,通过训练上述语音合成模型,能够通过语音合成模型根据目标用户的音色标识和目标文本,来生成符合目标用户音色的目标语音。合成目标语音的过程,是通过预测的音素后验特征对中间变量进行预测,并通过逆傅里叶变换实现的。由于音素后验特征相较于频谱特征包含的信息量较少,因此预测音素后验特征所需的模型参数也较少,且逆傅里叶变换相较于上采样所需的模型参数也较少,因此能够减少模型的参数,从而减少模型的计算消耗资源,可实现在低计算资源设备中部署模型。
本实施例提供的方法,还通过逆傅立叶变换的解码器、使正则化流层的不同仿射耦合层共享模型参数、使用线性注意力机制、提取音素后验特征而非频谱特征实现了有效降低模型参数量和低计算复杂度。
在相关技术的两段式模型(Fastspeech)中,由于分为声学模型和声码器,两者间存在误差,会导致合成的语音音质损失,而这一问题在小样本音色克隆中更明显。而目前端到端模型(输入文本直接输出语音的模型)仍存在语音生成不稳定的问题,甚至存在发音错误,这会严重影响听感。本实施例提供的方法,在采用端到端方式建模的基础上,通过引入风格标识、根据时长预测器和基频预测器生成音素后验特征、通过音素后验预测器约束中间变量、通过正则化流约束中间变量的分布以及通过生成对抗网络的方式进行训练,改善了上述问题,提升了语音合成的性能。
如何有效的降低参数和计算复杂度是一个直观的挑战。相关技术中由于声学信息和文本信息一起建模,直接降低模型参数会导致模型效果的快速下降,例如蒸馏和量化等模型压缩算法也会导致明显的性能损失。本实施例提供的方法,不仅能够通过上述减少参数的方式实现有效降低模型参数量和低计算复杂度,还通过以端到端为基础构造模型结构,并采用提升性能的上述结构来提升模型的语音合成性能表现,可同时实现减少模型参数以及提升模型性能。
相关技术中由于用户录音语速等节奏问题,与应用场景适配度差。如在导航场景中,字正腔圆的朗读风格是用户所追求的,但由于相关技术的模型将音色和内容共同建模,生成语音风格并不合适。本实施例提供的方法,还通过分开建模音色和内容,并引入风格标识和基频来进行特征提取以及语音合成,可以实现针对不同场景合成与其适配的朗读风格的语音。
图9是本申请一个示例性实施例提供的语音合成方法的流程示意图。该方法可以用于计算机设备或计算机设备上的客户端。如图9所示,该方法包括:
步骤902:获取目标用户的目标音素以及目标用户的音色标识。
该目标用户是需要进行语音合成的用户。计算机设备通过目标用户的样本音素以及目标用户的音色标识能够训练语音合成模型。样本音素基于目标用户的样本语音对应的样本文本确定。该目标音素基于目标文本确定。目标文本与样本文本相同、部分相同或不同,目标文本是使用语音合成模型的用户确定的。
该目标用户的音色标识是用于标识目标用户的信息。在训练语音合成模型时,使用音色标识能够将模型学习到的模型参数与音色标识建立对应关系,从而在合成语音时通过向模型输入音色标识可实现合成符合该音色标识对应的音色的语音。
步骤904:将目标音素输入语音合成模型的第一子模型,得到目标音素的音素后验特征。
上述计算机设备或客户端中部署有语音合成模型,该语音合成模型是通过本申请实施例提供的语音合成模型的训练方法训练得到的。
该音素后验特征用于反映目标音素中各音素的特征以及目标音素中各音素的发音时长特征。可选地,计算机设备通过第一子模型提取目标音素的隐层特征,并通过该第一子模型预测目标音素中各音素的发音时长特征,之后根据目标音素的隐层特征以及目标音素中各音素的发音时长特征,即可确定目标音素的预测音素后验特征。
步骤906:将音素后验特征以及音色标识输入语音合成模型的第二子模型,得到与目标文本和音色标识对应的目标语音。
该目标语音的内容为目标文本,该目标语音的音色为音色标识对应的音色,即音色标识所标识的目标用户的音色。该第二子模型是通过预测上述音素后验特征与目标语音的中间变量,并对中间变量基于逆傅里叶变换从而得到目标语音的。其中,该中间变量用于反映目标语音的频域特征。
可选地,计算机设备还会获取目标风格标识。并将目标音素和目标风格标识输入语音合成模型的第一子模型,得到与目标风格标识对应的目标音素的音素后验特征以及与目标风格标识和目标音素对应的目标基频特征。之后将音素后验特征、音色标识以及目标基频特征输入语音合成模型的第二子模型,得到与目标文本、音色标识和目标基频特征对应的目标语音。
综上所述,本实施例提供的方法,通过语音合成模型根据目标用户的音色标识和目标文本,能够生成符合目标用户音色的目标语音。合成目标语音的过程,是通过预测的音素后验特征对中间变量进行预测,并通过逆傅里叶变换实现的。由于音素后验特征相较于频谱特征包含的信息量较少,因此预测音素后验特征所需的模型参数也较少,且逆傅里叶变换相较于上采样所需的模型参数也较少,因此能够减少模型的参数,从而减少模型的计算消耗资源,可实现在低计算资源设备中部署模型。
在同等模型效果下,本申请实施例提供的方法大大减少了模型的参数量和计算量,这将有益于减少资源的使用,包括计算资源和存储资源,并更方便的部署在端侧等应用场景中。同时,模型相比相关技术减少了发音错误,使模型更稳定。
实验过程和分析如下:
使用开放的数据集来对本申请实施例中的模型以及相关技术的模型进行预训练,该开放的数据集包含了1151个说话人大约242小时的语音。为了评估模型在说话人音色克隆任务中的性能,采用不同声学条件的多说话人语料库对预训练模型进行微调。在实际操作中,随机选取5名男性和5名女性作为目标说话人进行音色克隆。每个演讲者随机抽取20句话。另外从每个说话者中随机选择10个额外的句子,得到一个总共有10个说话者100句话的测试集。
本申请实施例提供的语音合成模型与用于语音合成带有对抗学习的条件变分自编码器(Variational Inference with adversarial learning for end-to-end Text-to-Speech,VITS)、Fastspeech+HiFiGAN对比。VITS模型采用原论文结构。对于Fastspeech+HiFiGAN,为了比较和控制不同参数量下的情况,采用了两种结构,结构1称为Fastspeech+HiFiGAN v1,结构2称为Fastspeech+HiFiGAN v2。v1采用原论文结构Fastspeech和HiFiGANv1。相比较于v1,v2采用了更小的结构。v2在编码器和解码器中采用两层FFT,且隐藏层的维度设置为128,HiFiGAN采用v2版本。
在客观指标的评估中,每句测试样本由二十名听众评测,参与者对样本的自然度和说话人音色相似度进行打分,最高5分,最低1分。计算复杂度测量采用每秒10亿次浮点运算数(Giga Floating-point Operations Per Second,GFLOPS)作为单位。另外测算了每个***的词错误率(Word Error Rate,WER),以测试每个模型的稳定性,特别是在发音和语调方面。实验结果如表1所示:
表1
根据表1可知,与本申请实施例中的模型大小相似的Fastspeech+HifiGAN v2相比,本申请实施例中的模型实现了更好的自然度和更少的计算复杂度。与Fastspeech+HifiGAN v1相比,本申请实施例中的模型在自然度和说话人相似度上仍有差距,但是其实现了更好的WER,保证了模型的稳定性。
需要说明的是,本申请实施例提供的方法步骤的先后顺序可以进行适当调整,步骤也可以根据情况进行相应增减,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化的方法,都应涵盖在本申请的保护范围之内,因此不再赘述。
以本申请实施例提供的方法应用于AI播报业务中的用户语音包制作的场景为例,例如应用于地图导航的语音包制作。计算机设备会获取目标用户的目标文本的目标音素、目标用户的音色标识以及目标风格标识。目标用户为用户自身或者为明星等,目标文本包括地图导航场景的语音播报的文本。目标风格标识是与地图导航的语音播报所对应的风格的标识,例如该风格为朗读音素时发音缓慢且基频准确。计算机设备通过将目标音素和目标风格标识输入第一子模型,能够得到与目标风格标识对应的目标音素的音素后验特征以及与目标风格标识和目标音素对应的目标基频特征。之后将音素后验特征、音色标识以及目标基频特征输入第二子模型,从而得到与目标文本、音色标识以及目标风格标识对应的目标语音。其中,目标文本决定了目标语音的发音内容,即目标语音的发音内容为地图导航场景的语音播报的文本。音色标识决定了目标语音的音色,即为用户所选择的目标用户的音色。目标风格标识决定了目标语音的发音风格,包括各音素的发音时长和基频。该语音合成模型是通过目标用户的样本语音、音色标识进行音色克隆微调得到的。该样本语音的内容与目标文本不同。例如样本语音是通过录制目标用户针对少量文字的朗读语音得到的,目标文本可包括与该少量文字不同的大量文字。从而可实现根据用户针对少量文字录制的语音来合成符合该用户音色的针对其它文字的语音。
图10是本申请一个示例性实施例提供的语音合成模型的训练装置的结构示意图。如图10所示,该装置包括:
获取模块1001,用于获取目标用户的样本音素以及所述目标用户的音色标识,所述样本音素基于所述目标用户的样本语音对应的样本文本确定;
输入输出模块1002,用于将所述样本音素输入所述语音合成模型的第一子模型,得到所述样本音素的预测音素后验特征,所述预测音素后验特征用于反映所述样本音素中各音素的特征以及所述样本音素中各音素的发音时长特征;
所述输入输出模块1002,还用于将所述预测音素后验特征以及所述音色标识输入所述语音合成模型的第二子模型,得到与所述样本文本和所述音色标识对应的预测语音,所述第二子模型是通过预测所述预测音素后验特征与所述预测语音的预测中间变量,基于逆傅里叶变换得到所述预测语音的,所述预测中间变量用于反映所述预测语音的频域特征;
训练模块1003,用于根据所述预测音素后验特征训练所述第一子模型;以及根据所述预测语音和所述预测中间变量训练所述第二子模型。
在一个可选的设计中,所述第二子模型包括先验编码器和解码器;所述输入输出模块1002,用于:
将所述预测音素后验特征和所述音色标识输入所述先验编码器,得到所述预测中间变量;
通过所述解码器对所述预测中间变量进行逆傅里叶变换,得到所述预测语音。
在一个可选的设计中,所述先验编码器包括音素后验编码器;所述输入输出模块1002,用于:
将所述预测音素后验特征和所述音色标识输入所述音素后验编码器,对所述预测中间变量的先验分布采样均值与方差,得到所述预测中间变量。
在一个可选的设计中,所述第二子模型还包括后验编码器;所述获取模块1001,用于:
获取所述样本语音;
所述输入输出模块1002,用于:
将所述样本语音输入所述后验编码器,得到真实中间变量;
所述训练模块1003,用于:
计算所述预测中间变量与所述真实中间变量的相对熵损失,训练所述第二子模型。
在一个可选的设计中,所述后验编码器包括后验预测器;所述输入输出模块1002,用于:
将所述样本语音输入所述后验预测器,对所述真实中间变量的后验分布采样均值与方差,得到所述真实中间变量。
在一个可选的设计中,所述先验编码器还包括正则化流层;所述输入输出模块1002,用于:
通过所述正则化流层对所述真实中间变量进行仿射耦合处理,得到处理后的真实中间变量;
所述训练模块1003,用于:
计算所述预测中间变量与所述处理后的真实中间变量的相对熵损失,训练所述第二子模型。
在一个可选的设计中,所述正则化流层包括多个仿射耦合层,每个所述仿射耦合层用于对所述真实中间变量进行仿射耦合处理;不同所述仿射耦合层共享模型参数,且每个所述仿射耦合层对应有嵌入层标识。
在一个可选的设计中,所述先验编码器还包括音素后验预测器,所述音素后验预测器用于在预训练所述第二子模型的过程中,根据预训练过程中的预测中间变量预测所述预训练过程中的预测音素后验特征。
在一个可选的设计中,所述训练模块1003,用于:
在所述第二子模型的所述预训练过程中,计算所述预训练过程中的预测音素后验特征与所述预训练过程中的真实音素后验特征的损失函数,训练所述第二子模型。
在一个可选的设计中,所述获取模块1001,用于:
获取与所述样本音素和风格标识对应的基频特征,所述基频特征是通过所述第一子模型基于所述风格标识对所述样本音素进行特征提取得到的;
所述输入输出模块1002,用于:
将所述预测音素后验特征、所述音色标识和所述基频特征输入所述先验编码器,得到与所述风格标识对应的所述预测中间变量。
在一个可选的设计中,所述解码器包括逆傅里叶变换解码器;所述输入输出模块1002,用于:
通过所述逆傅里叶变换解码器对所述预测中间变量进行逆傅里叶变换,得到所述预测语音。
在一个可选的设计中,所述输入输出模块1002,用于:
通过所述逆傅里叶变换解码器根据所述风格标识对所述预测中间变量进行逆傅里叶变换,得到所述预测语音。
在一个可选的设计中,所述逆傅里叶变换解码器包括多个一维卷积层,最后一个所述一维卷积层与逆傅里叶变换层连接。
在一个可选的设计中,所述获取模块1001,用于:
获取所述样本语音;
所述训练模块1003,用于:
计算所述预测语音与所述样本语音之间的梅尔频谱损失,训练所述第二子模型。
在一个可选的设计中,所述解码器还包括判别器,所述判别器与所述语音合成模型中除所述判别器以外的部分组成生成对抗网络;所述输入输出模块1002,用于:
将所述预测语音输入所述判别器,得到所述预测语音的判别结果,所述判别结果用于反映所述预测语音为真实的信息或预测的信息;
所述训练模块1003,用于:
根据所述判别结果与所述预测语音的真实来源确定生成对抗损失,训练所述生成对抗网络。
在一个可选的设计中,所述判别器包括多尺度频谱判别器;所述输入输出模块1002,用于:
将所述预测语音输入所述多尺度频谱判别器,通过所述多尺度频谱判别器的多个子判别器分别在幅度谱上对所述预测语音进行短时傅立叶变换,并通过多个二维卷积层进行二维卷积处理,得到所述预测语音的判别结果;
其中,每个所述子判别器的短时傅立叶变换参数不同。
在一个可选的设计中,所述判别器包括多尺度复数谱判别器;所述输入输出模块1002,用于:
将所述预测语音输入所述多尺度复数谱判别器,通过所述多尺度复数谱判别器的多个子判别器分别在复数谱上对所述预测语音进行短时傅立叶变换,并通过多个二维复数卷积层进行二维复数卷积处理,得到所述预测语音的判别结果;
其中,每个所述子判别器的短时傅立叶变换参数不同。
在一个可选的设计中,所述第一子模型包括文本编码器、时长规整器以及后处理网络;所述获取模块1001,用于:
获取所述样本音素中各音素对应的真实发音时长特征;
所述输入输出模块1002,用于:
通过所述文本编码器对所述样本音素进行编码,得到所述样本音素的隐层特征;
通过所述时长规整器根据所述样本音素中各音素对应的真实发音时长特征,对所述样本音素的隐层特征进行扩帧处理;
通过所述后处理网络对扩帧后的所述样本音素的隐层特征进行卷积处理,得到所述样本音素的所述预测音素后验特征。
在一个可选的设计中,所述获取模块1001,用于:
获取所述样本音素的真实音素后验特征;
所述训练模块1003,用于:
计算所述预测音素后验特征与所述真实音素后验特征的损失函数,训练所述第一子模型。
在一个可选的设计中,所述第一子模型还包括时长预测器,所述输入输出模块1002,用于:
通过所述时长预测器对所述样本音素的隐层特征进行预测,得到所述样本音素中各音素对应的预测发音时长特征;
所述训练模块1003,用于:
计算所述预测发音时长特征和所述真实发音时长特征的损失函数,训练所述第一子模型。
在一个可选的设计中,所述获取模块1001,用于:
获取风格标识;
所述输入输出模块1002,用于:
通过所述文本编码器根据所述风格标识对所述样本音素进行编码,得到与所述风格标识对应的所述样本音素的隐层特征。
在一个可选的设计中,所述第一子模型还包括基频预测器;所述输入输出模块1002,用于:
通过所述基频预测器对所述样本音素的隐层特征进行预测,得到与所述风格标识和所述样本音素对应的基频特征,所述基频特征用于输入所述第二子模型得到与所述风格标识对应的所述预测语音。
图11是本申请一个示例性实施例提供的语音合成装置的结构示意图。该装置中包括通过如图10所述的装置训练得到的语音合成模型。如图11所示,该装置包括:
获取模块1101,用于获取目标用户的目标音素以及所述目标用户的音色标识,所述目标音素基于目标文本确定;
输入输出模块1102,用于将所述目标音素输入所述语音合成模型的第一子模型,得到所述目标音素的音素后验特征;
所述输入输出模块1102,还用于将所述音素后验特征以及所述音色标识输入所述语音合成模型的第二子模型,得到与所述目标文本和所述音色标识对应的目标语音。
在一个可选的设计中,所述获取模块1101,用于:
获取目标风格标识;
所述输入输出模块1102,用于:
将所述目标音素和所述目标风格标识输入所述语音合成模型的第一子模型,得到与所述目标风格标识对应的所述目标音素的所述音素后验特征以及与所述目标风格标识和所述目标音素对应的目标基频特征;
将所述音素后验特征、所述音色标识以及所述目标基频特征输入所述语音合成模型的第二子模型,得到与所述目标文本、所述音色标识和所述目标基频特征对应的所述目标语音。
需要说明的是:上述实施例提供的语音合成模型的训练装置,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的语音合成模型的训练装置与语音合成模型的训练方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
同理,上述实施例提供的语音合成装置,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的语音合成装置与语音合成方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
本申请的实施例还提供了一种计算机设备,该计算机设备包括:处理器和存储器,存储器中存储有至少一条指令、至少一段程序、代码集或指令集,至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现上述各方法实施例提供的语音合成模型的训练方法或语音合成方法。
可选地,该计算机设备为服务器。示例地,图12是本申请一个示例性实施例提供的计算机设备的结构示意图。
所述计算机设备1200包括中央处理单元(Central Processing Unit,CPU)1201、包括随机存取存储器(Random Access Memory,RAM)1202和只读存储器(Read-OnlyMemory,ROM)1203的***存储器1204,以及连接***存储器1204和中央处理单元1201的***总线1205。所述计算机设备1200还包括帮助计算机设备内的各个器件之间传输信息的基本输入/输出***(Input/Output***,I/O***)1206,和用于存储操作***1213、应用程序1214和其他程序模块1215的大容量存储设备1207。
所述基本输入/输出***1206包括有用于显示信息的显示器1208和用于用户输入信息的诸如鼠标、键盘之类的输入设备1209。其中所述显示器1208和输入设备1209都通过连接到***总线1205的输入输出控制器1210连接到中央处理单元1201。所述基本输入/输出***1206还可以包括输入输出控制器1210以用于接收和处理来自键盘、鼠标、或电子触控笔等多个其他设备的输入。类似地,输入输出控制器1210还提供输出到显示屏、打印机或其他类型的输出设备。
所述大容量存储设备1207通过连接到***总线1205的大容量存储控制器(未示出)连接到中央处理单元1201。所述大容量存储设备1207及其相关联的计算机可读存储介质为计算机设备1200提供非易失性存储。也就是说,所述大容量存储设备1207可以包括诸如硬盘或者只读光盘(Compact Disc Read-Only Memory,CD-ROM)驱动器之类的计算机可读存储介质(未示出)。
不失一般性,所述计算机可读存储介质可以包括计算机存储介质和通信介质。计算机存储介质包括以用于存储诸如计算机可读存储指令、数据结构、程序模块或其他数据等信息的任何方法或技术实现的易失性和非易失性、可移动和不可移动介质。计算机存储介质包括RAM、ROM、可擦除可编程只读寄存器(Erasable Programmable Read OnlyMemory,EPROM)、电子抹除式可复写只读存储器(Electrically-Erasable ProgrammableRead-Only Memory,EEPROM)、闪存或其他固态存储设备、CD-ROM、数字多功能光盘(DigitalVersatile Disc,DVD)或其他光学存储、磁带盒、磁带、磁盘存储或其他磁性存储设备。当然,本领域技术人员可知所述计算机存储介质不局限于上述几种。上述的***存储器1204和大容量存储设备1207可以统称为存储器。
存储器存储有一个或多个程序,一个或多个程序被配置成由一个或多个中央处理单元1201执行,一个或多个程序包含用于实现上述方法实施例的指令,中央处理单元1201执行该一个或多个程序实现上述各个方法实施例提供的方法。
根据本申请的各种实施例,所述计算机设备1200还可以通过诸如因特网等网络连接到网络上的远程计算机设备运行。也即计算机设备1200可以通过连接在所述***总线1205上的网络接口单元1211连接到网络1212,或者说,也可以使用网络接口单元1211来连接到其他类型的网络或远程计算机设备***(未示出)。
所述存储器还包括一个或者一个以上的程序,所述一个或者一个以上程序存储于存储器中,所述一个或者一个以上程序包含用于进行本申请实施例提供的方法中由计算机设备所执行的步骤。
本申请实施例中还提供了一种计算机可读存储介质,该可读存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,当该至少一条指令、至少一段程序、代码集或指令集由计算机设备的处理器加载并执行时,实现上述各方法实施例提供的语音合成模型的训练方法或语音合成方法。
本申请还提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述各方法实施例提供的语音合成模型的训练方法或语音合成方法。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,该程序可以存储于一种计算机可读存储介质中,上述提到的可读存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本申请的可选实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同切换、改进等,均应包含在本申请的保护范围之内。
Claims (20)
1.一种语音合成模型的训练方法,其特征在于,所述方法包括:
获取目标用户的样本音素以及所述目标用户的音色标识,所述样本音素基于所述目标用户的样本语音对应的样本文本确定;
将所述样本音素输入所述语音合成模型的第一子模型,得到所述样本音素的预测音素后验特征,所述预测音素后验特征用于反映所述样本音素中各音素的特征以及所述样本音素中各音素的发音时长特征;
将所述预测音素后验特征以及所述音色标识输入所述语音合成模型的第二子模型,得到与所述样本文本和所述音色标识对应的预测语音,所述第二子模型是通过预测所述预测音素后验特征与所述预测语音的预测中间变量,基于逆傅里叶变换得到所述预测语音的,所述预测中间变量用于反映所述预测语音的频域特征;
根据所述预测音素后验特征训练所述第一子模型;以及根据所述预测语音和所述预测中间变量训练所述第二子模型。
2.根据权利要求1所述的方法,其特征在于,所述第二子模型包括先验编码器和解码器;所述将所述预测音素后验特征以及所述音色标识输入所述语音合成模型的第二子模型,得到与所述样本文本和所述音色标识对应的预测语音,包括:
将所述预测音素后验特征和所述音色标识输入所述先验编码器,得到所述预测中间变量;
通过所述解码器对所述预测中间变量进行逆傅里叶变换,得到所述预测语音。
3.根据权利要求2所述的方法,其特征在于,所述先验编码器包括音素后验编码器;所述将所述预测音素后验特征和所述音色标识输入所述先验编码器,得到所述预测中间变量,包括:
将所述预测音素后验特征和所述音色标识输入所述音素后验编码器,对所述预测中间变量的先验分布采样均值与方差,得到所述预测中间变量。
4.根据权利要求2所述的方法,其特征在于,所述第二子模型还包括后验编码器;所述根据所述预测中间变量训练所述第二子模型,包括:
获取所述样本语音;
将所述样本语音输入所述后验编码器,得到真实中间变量;
计算所述预测中间变量与所述真实中间变量的相对熵损失,训练所述第二子模型。
5.根据权利要求4所述的方法,其特征在于,所述后验编码器包括后验预测器;所述将所述样本语音输入所述后验编码器,得到真实中间变量,包括:
将所述样本语音输入所述后验预测器,对所述真实中间变量的后验分布采样均值与方差,得到所述真实中间变量。
6.根据权利要求2所述的方法,其特征在于,所述先验编码器还包括音素后验预测器,所述音素后验预测器用于在预训练所述第二子模型的过程中,根据预训练过程中的预测中间变量预测所述预训练过程中的预测音素后验特征;所述方法还包括:
在所述第二子模型的所述预训练过程中,计算所述预训练过程中的预测音素后验特征与所述预训练过程中的真实音素后验特征的损失函数,训练所述第二子模型。
7.根据权利要求2所述的方法,其特征在于,所述方法还包括:
获取与所述样本音素和风格标识对应的基频特征,所述基频特征是通过所述第一子模型基于所述风格标识对所述样本音素进行特征提取得到的;
所述将所述预测音素后验特征和所述音色标识输入所述先验编码器,得到所述预测中间变量,包括:
将所述预测音素后验特征、所述音色标识和所述基频特征输入所述先验编码器,得到与所述风格标识对应的所述预测中间变量。
8.根据权利要求2所述的方法,其特征在于,所述解码器包括逆傅里叶变换解码器;所述通过所述解码器对所述预测中间变量进行逆傅里叶变换,得到所述预测语音,包括:
通过所述逆傅里叶变换解码器对所述预测中间变量进行逆傅里叶变换,得到所述预测语音。
9.根据权利要求8所述的方法,其特征在于,所述逆傅里叶变换解码器包括多个一维卷积层,最后一个所述一维卷积层与逆傅里叶变换层连接。
10.根据权利要求2至9任一所述的方法,其特征在于,所述解码器还包括判别器,所述判别器与所述语音合成模型中除所述判别器以外的部分组成生成对抗网络;所述方法还包括:
将所述预测语音输入所述判别器,得到所述预测语音的判别结果,所述判别结果用于反映所述预测语音为真实的信息或预测的信息;
根据所述判别结果与所述预测语音的真实来源确定生成对抗损失,训练所述生成对抗网络。
11.根据权利要求1至9任一所述的方法,其特征在于,所述第一子模型包括文本编码器、时长规整器以及后处理网络;
所述将所述样本音素输入所述语音合成模型的第一子模型,得到所述样本音素的预测音素后验特征,包括:
获取所述样本音素中各音素对应的真实发音时长特征;
通过所述文本编码器对所述样本音素进行编码,得到所述样本音素的隐层特征;
通过所述时长规整器根据所述样本音素中各音素对应的真实发音时长特征,对所述样本音素的隐层特征进行扩帧处理;
通过所述后处理网络对扩帧后的所述样本音素的隐层特征进行卷积处理,得到所述样本音素的所述预测音素后验特征。
12.根据权利要求11所述的方法,其特征在于,所述第一子模型还包括时长预测器,所述方法还包括:
通过所述时长预测器对所述样本音素的隐层特征进行预测,得到所述样本音素中各音素对应的预测发音时长特征;
计算所述预测发音时长特征和所述真实发音时长特征的损失函数,训练所述第一子模型。
13.根据权利要求11所述的方法,其特征在于,所述方法还包括:
获取风格标识;
所述通过所述文本编码器对所述样本音素进行编码,得到所述样本音素的隐层特征,包括:
通过所述文本编码器根据所述风格标识对所述样本音素进行编码,得到与所述风格标识对应的所述样本音素的隐层特征。
14.根据权利要求13所述的方法,其特征在于,所述第一子模型还包括基频预测器;所述方法还包括:
通过所述基频预测器对所述样本音素的隐层特征进行预测,得到与所述风格标识和所述样本音素对应的基频特征,所述基频特征用于输入所述第二子模型得到与所述风格标识对应的所述预测语音。
15.一种语音合成方法,其特征在于,所述方法应用于计算机设备,所述计算机设备中包括通过权利要求1至14任一所述的方法训练得到的所述语音合成模型,所述方法包括:
获取目标用户的目标音素以及所述目标用户的音色标识,所述目标音素基于目标文本确定;
将所述目标音素输入所述语音合成模型的第一子模型,得到所述目标音素的音素后验特征;
将所述音素后验特征以及所述音色标识输入所述语音合成模型的第二子模型,得到与所述目标文本和所述音色标识对应的目标语音。
16.一种语音合成模型的训练装置,其特征在于,所述装置包括:
获取模块,用于获取目标用户的样本音素以及所述目标用户的音色标识,所述样本音素基于所述目标用户的样本语音对应的样本文本确定;
输入输出模块,用于将所述样本音素输入所述语音合成模型的第一子模型,得到所述样本音素的预测音素后验特征,所述预测音素后验特征用于反映所述样本音素中各音素的特征以及所述样本音素中各音素的发音时长特征;
所述输入输出模块,还用于将所述预测音素后验特征以及所述音色标识输入所述语音合成模型的第二子模型,得到与所述样本文本和所述音色标识对应的预测语音,所述第二子模型是通过预测所述预测音素后验特征与所述预测语音的预测中间变量,基于逆傅里叶变换得到所述预测语音的,所述预测中间变量用于反映所述预测语音的频域特征;
训练模块,用于根据所述预测音素后验特征训练所述第一子模型;以及根据所述预测语音和所述预测中间变量训练所述第二子模型。
17.一种语音合成装置,其特征在于,所述装置中包括通过权利要求16所述的装置训练得到的所述语音合成模型,所述装置包括:
获取模块,用于获取目标用户的目标音素以及所述目标用户的音色标识,所述目标音素基于目标文本确定;
输入输出模块,用于将所述目标音素输入所述语音合成模型的第一子模型,得到所述目标音素的音素后验特征;
所述输入输出模块,还用于将所述音素后验特征以及所述音色标识输入所述语音合成模型的第二子模型,得到与所述目标文本和所述音色标识对应的目标语音。
18.一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或所述指令集由所述处理器加载并执行以实现如权利要求1至14任一所述的语音合成模型的训练方法,或权利要求15所述的语音合成方法。
19.一种计算机可读存储介质,其特征在于,所述可读存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如权利要求1至14任一所述的语音合成模型的训练方法,或权利要求15所述的语音合成方法。
20.一种计算机程序产品,其特征在于,所述计算机程序产品包括计算机指令,所述计算机指令存储在计算机可读存储介质中,计算机设备的处理器从所述计算机可读存储介质读取所述计算机指令,所述处理器执行所述计算机指令,使得所述计算机设备执行如权利要求1至14任一所述的语音合成模型的训练方法,或权利要求15所述的语音合成方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211121568.XA CN116994553A (zh) | 2022-09-15 | 2022-09-15 | 语音合成模型的训练方法、语音合成方法、装置及设备 |
PCT/CN2023/108845 WO2024055752A1 (zh) | 2022-09-15 | 2023-07-24 | 语音合成模型的训练方法、语音合成方法和相关装置 |
US18/421,513 US20240161727A1 (en) | 2022-09-15 | 2024-01-24 | Training method for speech synthesis model and speech synthesis method and related apparatuses |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211121568.XA CN116994553A (zh) | 2022-09-15 | 2022-09-15 | 语音合成模型的训练方法、语音合成方法、装置及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116994553A true CN116994553A (zh) | 2023-11-03 |
Family
ID=88532730
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211121568.XA Pending CN116994553A (zh) | 2022-09-15 | 2022-09-15 | 语音合成模型的训练方法、语音合成方法、装置及设备 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20240161727A1 (zh) |
CN (1) | CN116994553A (zh) |
WO (1) | WO2024055752A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118197277B (zh) * | 2024-05-15 | 2024-07-23 | 国家超级计算天津中心 | 语音合成方法、装置、电子设备和存储介质 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020145472A1 (ko) * | 2019-01-11 | 2020-07-16 | 네이버 주식회사 | 화자 적응형 모델을 구현하고 합성 음성 신호를 생성하는 뉴럴 보코더 및 뉴럴 보코더의 훈련 방법 |
CN111462769B (zh) * | 2020-03-30 | 2023-10-27 | 深圳市达旦数生科技有限公司 | 一种端到端的口音转换方法 |
CN113808576A (zh) * | 2020-06-16 | 2021-12-17 | 阿里巴巴集团控股有限公司 | 语音转换方法、装置及计算机*** |
CN113793591B (zh) * | 2021-07-07 | 2024-05-31 | 科大讯飞股份有限公司 | 语音合成方法及相关装置和电子设备、存储介质 |
-
2022
- 2022-09-15 CN CN202211121568.XA patent/CN116994553A/zh active Pending
-
2023
- 2023-07-24 WO PCT/CN2023/108845 patent/WO2024055752A1/zh unknown
-
2024
- 2024-01-24 US US18/421,513 patent/US20240161727A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2024055752A1 (zh) | 2024-03-21 |
US20240161727A1 (en) | 2024-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Purwins et al. | Deep learning for audio signal processing | |
CN113470662A (zh) | 生成和使用用于关键词检出***的文本到语音数据和语音识别***中的说话者适配 | |
CN111179905A (zh) | 一种快速配音生成方法及装置 | |
US10255903B2 (en) | Method for forming the excitation signal for a glottal pulse model based parametric speech synthesis system | |
US11475874B2 (en) | Generating diverse and natural text-to-speech samples | |
CN113707125B (zh) | 一种多语言语音合成模型的训练方法及装置 | |
CN113450765B (zh) | 语音合成方法、装置、设备及存储介质 | |
CN113327575B (zh) | 一种语音合成方法、装置、计算机设备和存储介质 | |
KR102272554B1 (ko) | 텍스트- 다중 음성 변환 방법 및 시스템 | |
CN112837669A (zh) | 语音合成方法、装置及服务器 | |
CA3004700C (en) | Method for forming the excitation signal for a glottal pulse model based parametric speech synthesis system | |
US20240161727A1 (en) | Training method for speech synthesis model and speech synthesis method and related apparatuses | |
KR20190135853A (ko) | 텍스트- 다중 음성 변환 방법 및 시스템 | |
CN117373431A (zh) | 音频合成方法、训练方法、装置、设备及存储介质 | |
CN114974218A (zh) | 语音转换模型训练方法及装置、语音转换方法及装置 | |
CN113782042B (zh) | 语音合成方法、声码器的训练方法、装置、设备及介质 | |
CN113314097B (zh) | 语音合成方法、语音合成模型处理方法、装置和电子设备 | |
Kadyan et al. | Prosody features based low resource Punjabi children ASR and T-NT classifier using data augmentation | |
CN116312476A (zh) | 语音合成方法和装置、存储介质、电子设备 | |
Chandra et al. | Towards the development of accent conversion model for (l1) bengali speaker using cycle consistent adversarial network (cyclegan) | |
CN114203151A (zh) | 语音合成模型的训练的相关方法以及相关装置、设备 | |
CN113327578A (zh) | 一种声学模型训练方法、装置、终端设备及存储介质 | |
CN111862931A (zh) | 一种语音生成方法及装置 | |
Bargum et al. | Reimagining Speech: A Scoping Review of Deep Learning-Powered Voice Conversion | |
Yuan et al. | Improving Voice Style Conversion via Self-attention VAE with Feature Disentanglement |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |