CN109036375A - 语音合成方法、模型训练方法、装置和计算机设备 - Google Patents

语音合成方法、模型训练方法、装置和计算机设备 Download PDF

Info

Publication number
CN109036375A
CN109036375A CN201810828220.1A CN201810828220A CN109036375A CN 109036375 A CN109036375 A CN 109036375A CN 201810828220 A CN201810828220 A CN 201810828220A CN 109036375 A CN109036375 A CN 109036375A
Authority
CN
China
Prior art keywords
training
data
voice data
decoder
linguistics
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810828220.1A
Other languages
English (en)
Other versions
CN109036375B (zh
Inventor
吴锡欣
王木
康世胤
苏丹
俞栋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201810828220.1A priority Critical patent/CN109036375B/zh
Publication of CN109036375A publication Critical patent/CN109036375A/zh
Priority to TW108119775A priority patent/TWI732225B/zh
Priority to PCT/CN2019/090493 priority patent/WO2020019885A1/zh
Priority to EP19840536.7A priority patent/EP3742436A4/en
Priority to US16/999,989 priority patent/US12014720B2/en
Application granted granted Critical
Publication of CN109036375B publication Critical patent/CN109036375B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • G10L13/047Architecture of speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Machine Translation (AREA)

Abstract

本申请涉及一种语音合成方法、模型训练方法、装置和计算机设备,所述方法包括:获取待处理的语言学数据;对所述语言学数据编码,得到语言学编码数据;获取用于语音特征转换的嵌入向量;所述嵌入向量,根据对应相同参考语言学数据的参考合成语音数据和参考语音数据之间的残差生成;根据所述嵌入向量对所述语言学编码数据进行解码,获得经过语音特征转换的目标合成语音数据。本申请提供的方案可以避免因对数梅尔频谱中的语义特征影响合成语音的质量的问题。

Description

语音合成方法、模型训练方法、装置和计算机设备
技术领域
本申请涉及语音合成技术领域,特别是涉及一种语音合成方法、模型训练方法、装置和计算机设备。
背景技术
随着语音合成技术和计算机技术的不断发展,语音交互的应用场景越来越广泛,用户可以很方便地通过数字产品获得各种语音相关的服务,如用户通过手机中的电子地图进行语音导航,通过阅读软件收听有声小说等。
对于合成的语音而言,若语音具有人的语音特征时,无疑会提高用户体验。使合成的语音具有人的语音特征,通常的做法是:以处理语音数据所得的对数梅尔频谱作为特征模型的输入变量,获得说话人的语音特征,然后端到端模型(Tacotron)根据所获得的语音特征和对应的文本特征合成语音数据,从而使合成的语音数据具有说话人的语音特征。然而,上述方案中,由于对数梅尔频谱中既包含话人的语音特征又包含语义特征,从而影响从对数梅尔频谱中提取语音特征,进而影响合成语音的质量。
发明内容
基于此,有必要针对因对数梅尔频谱中的语义特征影响合成语音的质量的技术问题,提供一种语音合成方法、模型训练方法、装置和计算机设备。
一种语音合成方法,包括:
获取待处理的语言学数据;
对所述语言学数据编码,得到语言学编码数据;
获取用于语音特征转换的嵌入向量;所述嵌入向量,根据对应相同参考语言学数据的参考合成语音数据和参考语音数据之间的残差生成;
根据所述嵌入向量对所述语言学编码数据进行解码,获得经过语音特征转换的目标合成语音数据。
一种语音合成装置,包括:
语言学数据获取模块,用于获取待处理的语言学数据;
语言学数据编码模块,用于对所述语言学数据编码,得到语言学编码数据;
嵌入向量获取模块,用于获取用于语音特征转换的嵌入向量;所述嵌入向量,根据对应相同参考语言学数据的参考合成语音数据和参考语音数据之间的残差生成;
语言学编码数据解码模块,用于根据所述嵌入向量对所述语言学编码数据进行解码,获得经过语音特征转换的目标合成语音数据。
一种存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行所述语音合成方法的步骤。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行所述语音合成方法的步骤。
上述的语音合成方法、模型训练方法、装置和计算机设备中,获取待处理的语言学数据,对语言学数据进行编码,便可得到表征发音的语言学编码数据。获取用于语音特征转换的嵌入向量,由于嵌入向量是对应相同参考语言学数据的参考合成语音数据和参考语音数据之间的残差生成,因而所得到的嵌入向量为不包含语义特征的风格特征向量。根据嵌入向量对语言学编码数据进行解码,避免了语义特征对语言学编码数据处理的影响,因此所获得的目标合成语音数据的质量高,从而提高了合成语音的质量。
一种模型训练方法,包括:
获取训练语言学数据和相应的训练语音数据;
通过第一编码器对训练语言学数据编码,得到第一训练语言学编码数据;
获取用于语音特征转换的训练嵌入向量;所述训练嵌入向量,根据对应相同训练语言学数据的训练合成语音数据和训练语音数据之间的残差生成;
通过第一解码器,根据所述训练嵌入向量对所述第一训练语言学编码数据进行解码,获得经过语音特征转换的预测目标合成语音数据;
根据所述预测目标合成语音数据和训练语音数据间的差异,调整所述第一编码器和所述第一解码器,并继续训练,直至满足训练停止条件。
一种模型训练装置,包括:
训练语音数据获取模块,用于获取训练语言学数据和相应的训练语音数据;
训练语言学数据编码模块,用于通过第一编码器对训练语言学数据编码,得到第一训练语言学编码数据;
训练嵌入向量获取模块,用于获取用于语音特征转换的训练嵌入向量;所述训练嵌入向量,根据对应相同训练语言学数据的训练合成语音数据和训练语音数据之间的残差生成;
训练语言学编码数据解码模块,用于通过第一解码器,根据所述训练嵌入向量对所述第一训练语言学编码数据进行解码,获得经过语音特征转换的预测目标合成语音数据;
调整模块,用于根据所述预测目标合成语音数据和训练语音数据间的差异,调整所述第一编码器和所述第一解码器,并继续训练,直至满足训练停止条件。
一种存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行所述模型训练方法的步骤。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行所述模型训练方法的步骤。
上述的模型训练方法、装置、存储介质和计算机设备中,通过第一编码器和第一解码器处理训练语言学数据、训练语音数据和训练嵌入向量,得到预测目标合成语音数据,根据预测目标合成语音数据和训练语音数据间的差异调整第一编码器和第一解码器,使预测目标合成语音数据不断逼近训练语音数据,从而得到训练好的第一编码器和第一解码器。由于训练过程中采用了由训练合成语音数据和训练语音数据之间的残差生成的训练嵌入向量,该训练嵌入向量只包含语音特征,无需考虑语义特征对对训练模型的影响,从而降低了第一编码器和第一解码器的复杂度,提高了训练结果的准确性。
附图说明
图1为一个实施例中语音合成方法和模型训练方法的应用***结构图;
图2为一个实施例中语音合成方法的流程示意图;
图3为一个实施例中语音合成阶段得到目标合成语音数据的示意图;
图4为一个实施例中根据参考语言学数据和参考语音数据获得嵌入向量的步骤的流程示意图;
图5为一个实施例中获得嵌入向量过程中数据流向的示意图;
图6为一个实施例中通过残差模型获得嵌入向量的步骤的流程示意图;
图7为一个实施例中残差模型结构和残差在残差模型中的处理过程的示意图;
图8为一个实施例中自适应阶段获得嵌入向量的示意图;
图9为一个实施例中对目标语音模型进行训练的步骤的流程示意图;
图10为一个实施例中模型训练阶段中训练目标语音模型时数据流向的示意图;
图11为一个实施例中对平均语音模型、残差模型和目标语音模型进行训练的步骤的流程示意图;
图12为一个实施例中模型训练阶段中训练平均语音模型、残差模型和目标语音模型时数据流向的示意图;
图13为一个实施例中对目标语音模型进行训练的步骤的流程示意图;
图14为一个实施例中对平均语音模型、残差模型和目标语音模型进行训练的步骤的流程示意图;
图15为一个实施例中语音合成装置的结构框图;
图16为另一个实施例中语音合成装置的结构框图;
图17为一个实施例中模型训练装置的结构框图;
图18为另一个实施例中模型训练装置的结构框图;
图19为一个实施例中计算机设备的结构框图;
图20为另一个实施例中计算机设备的结构框图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
图1为一个实施例中语音合成方法和模型训练方法的应用环境图。参照图1,该语音合成方法、模型训练方法应用于语音合成***。该语音合成***包括第一编码器、第一解码器、第二编码器、第二解码器、叠加器、残差模型和投影层等。语音合成***中的各部分组成元素之间的内在关系及信号流向如图1所示。其中,第一编码器和第一解码器构成目标语音模型,在应用阶段用于合成语音。第二编码器和第二解码器构成平均语音模型,所构成的平均语音模型与叠加器、残差模型和投影层组合使用,在自适应阶段可用于获得用于表征风格特征的嵌入向量。该语音合成***可以以应用程序或应用程序的组成部分运行在终端上。终端可以是台式终端、移动终端和智能机器人。移动终端具体可以是智能手机、平板电脑、笔记本电脑和可穿戴式设备等。
如图2所示,在一个实施例中,提供了一种语音合成方法。本实施例主要以该方法应用于上述图1中运行语音合成***的终端来举例说明。参照图2,该语音合成方法具体包括如下步骤:
S202,获取待处理的语言学数据。
其中,语言学数据可以是文本或文本的特征或特征项。文本的特征可以是文本中的字、发音、字或词的韵律和重音等特征。特征项可以是字、词或短语等。特征项需要具备以下特性:能够确实标识文本内容,具有将目标文本与其他文本相区分的能力,特征项分离容易实现。
在一个实施例中,在应用过程中,终端接收用户发出的语音交互信号,从预设的语言学库中查找与语音交互信号对应的语言学数据。例如,用户在与终端进行语音交互过程中,若终端接收到用户发出“西施与貂蝉谁更漂亮”的语音交互信号时,终端从预设的语言学库中查找与该语音交互信号对应的“西施与貂蝉都一样漂亮”的语言学数据。
S204,对语言学数据编码,得到语言学编码数据。
在一个实施例中,终端通过第一编码器对语言学数据编码,得到语言学编码数据。例如,终端获取一段文本,通过第一编码器对文本进行编码,获得分布式的表示,该分布式表示即为语言学编码数据。其中,该分布式表示可以是特征向量。一个特征向量与文本中的一个字或词相对应。
其中,第一编码器可以是语言学数据编码器或基于注意力的递归生成器。第一编码器可以由RNN(Recurrent Neural Network,递归神经网络),或LSTM(Long Short-TermMemory,长短期记忆网络),或闸控卷积神经网络,或时延网络所构成。
具体地,终端将表征语言学数据的向量输入第一编码器,将第一编码器最后一个单元状态作为输出,得到语言学编码数据。
S206,获取用于语音特征转换的嵌入向量;嵌入向量是根据对应相同参考语言学数据的参考合成语音数据和参考语音数据之间的残差生成。
其中,嵌入向量可以是具有参考对象说话风格特征的向量,而参考对象可以是说话具有特殊风格的人。风格特征包括但不限于:与时长和韵律起伏相关性高的韵律时长特征、基频特征和能量特征。韵律时长特征包括一个字或词的时长、停顿和重音等特征。终端将该嵌入向量与对应的语言学编码数据进行融合并处理,将得到具有参考对象说话风格的合成语音数据。当合成语音数据经过处理后通过扬声器播放出来,播放出来的合成语音将不再是机械化的语音,而是具有人的说话风格。
在一个实施例中,当用户在与终端进行语音交互之前,终端获取参考语言学数据和具有风格特征的参考语音数据,其中,参考语音数据的来源可以是与终端进行语音交互的用户,也可以是指定的参考用户。终端对参考语言学数据进行语音合成,得到不具有风格特征的参考合成语音数据。终端将参考合成语音数据与参考语音数据进行作差处理,得到表征风格特征的残差。终端对残差进行处理得到表征风格特征的嵌入向量。终端将得到的嵌入向量保存于风格特征向量库中。其中,风格特征向量库可以保存多个参考对象对应的嵌入向量。该残差实质上是残差序列。
在一个实施例中,终端对残差进行处理得到表征风格特征的嵌入向量的步骤,具体可以包括:通过残差模型处理残差的多个全连接层,将全连接层输出的结果分别输入前向门循环单元层和后向门循环单元层,将前向门循环单元层最后一个时间步的输出与后向门循环单元层第一个时间步的输出相加,得到用于语音特征转换的、能表征风格特征的嵌入向量。
例如,若用户在与终端进行语音交互时想要听到张曼玉的说话风格,那么在与终端进行语音交互之前,终端获取张曼玉的语音数据作为参考语音数据,并获取对应的语言学数据(例如说话的文字内容,文字内容如“西施与貂蝉谁更漂亮”),其中,获取的参考语音数据具有张曼玉的说话风格。终端对语言学数据进行语音合成,得到不具有张曼玉说话风格的参考合成语音数据。终端将具有张曼玉说话风格的参考语音数据与不具有说话风格的参考合成语音数据作差,得到表征风格特征的残差。终端对得到的残差进行处理,获得能够表征张曼玉说话风格的嵌入向量。
在一个实施例中,终端将得到的用于语音特征转换的、能表征风格特征的嵌入向量,保存于嵌入向量库中。当终端接收到指定的风格特征指令时,展示与嵌入向量对应的风格选择界面。
在一个实施例中,终端接收指定的风格特征指令,从风格特征向量库中获取与风格特征指令对应的嵌入向量。例如,用户想要听到某个电影或体育明星的声音,那么,用户在终端的风格选择界面中的各参考对象中选择目标的电影或体育明星,此时终端接收到对于该电影或体育明星的风格特征指令,根据风格特征指令选择表征该电影或体育明星说话风格的嵌入向量。
S208,根据嵌入向量对语言学编码数据进行解码,获得经过语音特征转换的目标合成语音数据。
在一个实施例中,终端通过第一解码器,按照嵌入向量对语言学编码数据进行解码,获得经过语音特征转换的、具有参考对象说话风格的目标合成语音数据。或者,终端将嵌入向量与语言学编码数据进行组合,对组合后的结果进行解码,获得经过语音特征转换的、具有参考对象说话风格的目标合成语音数据。
其中,第一解码器可以是语音数据解码器或基于注意力的递归生成器。第一解码器可以由RNN,或LSTM,或CNN(Convolutional Neural Network,卷积神经网络),或闸控卷积神经网络,或时延网络所构成。
作为一个示例,如图3所示,当接收到用户发出的语音交互信号时,终端获取与语音交互信号对应的语言学数据,该语言学数据例如是“西施与貂蝉谁更漂亮”。终端将获取的语言学数据输入第一编码器,通过第一编码器的编码处理,得到语言学编码数据。终端获取可以表征参考对象(如张曼玉)说话风格的嵌入向量,通过第一解码器对嵌入向量和语言学编码数据进行处理,得到具有参考对象说话风格的目标合成语音数据。
上述实施例中,获取待处理的语言学数据,对语言学数据进行编码,便可得到表征发音的语言学编码数据。获取用于语音特征转换的嵌入向量,由于嵌入向量是对应相同参考语言学数据的参考合成语音数据和参考语音数据之间的残差生成,因而所得到的嵌入向量为不包含语义特征的风格特征向量。根据嵌入向量对语言学编码数据进行解码,避免了语义特征对语言学编码数据处理的影响,因此所获得的目标合成语音数据的质量高,从而提高了合成语音的质量。
在一个实施例中,如图4所示,该方法还可以包括:
S402,获取参考语言学数据和相应的参考语音数据。
其中,参考语音数据可以是采自于参考对象的语音数据。参考语言学数据与参考语音数据相对应。参考对象可以是与终端进行语音交互的用户,也可以是指定的参考用户。对应的,参考语音数据可以是参考对象发出的语音信号,而参考语言学数据可以是语音信号中所要表达的文字内容。
例如,若用户在与终端进行语音交互时想要听到用户本人的说话风格,那么在与终端进行语音交互之前,获取用户本人的语音数据作为参考语音数据,并获取对应的语言学数据,其中,获取的参考语音数据具有用户本人的说话风格。终端对语言学数据进行语音合成,得到不具有用户本人说话风格的参考合成语音数据。终端将具有用户本人说话风格的参考语音数据与不具有说话风格的参考合成语音数据作差,得到表征风格特征的残差。终端对得到的残差进行处理,获得能够表征用户本人说话风格的嵌入向量。
在一个实施例中,终端采集参考对象的语音,将采集的语音进行分帧、加窗和傅里叶变换,得到具有参考对象说话风格特征的、且为频域的语音数据。
S404,对参考语言学数据编码,得到参考语言学编码数据。
在一个实施例中,终端通过第一编码器对参考语言学数据编码,得到语言学编码数据。例如,终端获取一段文本,通过第一编码器对参考文本进行编码,获得分布式的表示,该分布式表示即为参考语言学编码数据。其中,该分布式表示可以是特征向量。一个特征向量与文本中的一个字或词相对应。
其中,第二编码器可以是语言学数据编码器或基于注意力的递归生成器。第二编码器可以由RNN,或LSTM,或闸控卷积神经网络,或时延网络所构成。具体地,终端将表征语言学数据的向量输入第而编码器,将第二编码器最后一个单元状态作为输出,得到语言学编码数据。
S406,解码参考语言学编码数据,得到参考合成语音数据。
在一个实施例中,终端通过第二解码器对参考语言学数据进行解码,得到不具有风格特征的参考合成语音数据。
其中,第二解码器可以是语音数据解码器或基于注意力的递归生成器。第二解码器可以由RNN,或LSTM,或CNN(Convolutional Neural Network,卷积神经网络),或闸控卷积神经网络,或时延网络所构成。
其中,S404和S406为合成不具有风格特征的参考合成语音数据的步骤。作为一个示例,如图5所示。终端获得参考语言学数据后,将获得的参考语言学数据输入第二编码器中,通过第二编码器对参考语言学数据进行处理,得到表示参考语言学数据的上下文的表示C,其中,上下文的表示C可以是概括了输入序列X={x(1),x(2)...x(n)}的向量。终端将上下文的表示C输入第二解码器,以固定长度的向量作为条件,产生输出序列Y={y(1),y(2)...y(n)},进而得到参考合成语音数据。需要说明的是,上述方法步骤只是用于理解如何得到参考合成语音数据,不作为本发明实施例的限定。
S408,根据参考语音数据和参考合成语音数据间的残差,确定用于语音特征转换的嵌入向量。
在一个实施例中,终端对参考语音数据和参考合成语音数据进行作差,得到表征风格特征的残差。终端对所得的具有风格特征的残差进行处理,得到用于语音特征转换的、且用于表征风格特征的嵌入向量。
上述实施例中,根据参考语音数据和参考合成语音数据间的残差,确定用于语音特征转换的嵌入向量,从而得到用于对语言学数据进行语音合成时进行风格控制的嵌入向量,以使合成的目标合成语音数据具有特定的风格特征,提高合成语音的质量。
在一个实施例中,如图6所示,S408具体可以包括:
S602,确定参考语音数据和参考合成语音数据间的残差。
在一个实施例中,终端对参考语音数据和参考合成语音数据进行作差,得到表征风格特征的残差。
S604,通过残差模型处理残差。
其中,残差模型可以由RNN所构建。残差模型可以包括4层:从下至上分别为两个全连接(Dense)层、一个前向GRU(Gated Recurrent Unit,门循环单元)层和一个后向GRU层。其中,每个Dense层包含128个以激活函数(如ReLU函数)激发的单元,丢失(Dropout)率为0.5,每个门循环单元层包含了32个记忆模块。
在一个实施例中,S604具体可以包括:通过残差模型处理残差中的全连接层,并依次通过全连接层、前向门循环单元层和后向门循环单元层进行处理。
S606,根据残差模型中前向运算的结果和后向运算的结果,生成用于语音特征转换的嵌入向量。
其中,该嵌入向量可以称为自适应嵌入向量。嵌入向量所具有的风格特征与参考语音数据相关。例如,假设参考语音数据是通过采集张曼玉的语音所得,则该嵌入向量所具有的风格特征与张曼玉的说话风格特征一致。又例如,假设参考语音数据是通过采集用户本人的语音所得,则该嵌入向量所具有的风格特征与用户本人的说话风格特征一致。
在一个实施例中,终端通过残差模型中前向门循环单元层对残差进行前向运算,得到前向运算的结果。终端通过残差模型中后向门循环单元层对残差进行后向运算,得到后向运算的结果。
在一个实施例中,S606具体可以包括:获取残差模型中前向门循环单元层进行前向运算时在最后一个时间步输出的第一向量;获取残差模型中后向门循环单元层进行后向运算时在第一个时间步输出的第二向量;将第一向量和第二向量叠加,获得用于语音特征转换的嵌入向量。
作为一个示例,如图7所示,假设所得到的残差为R={r(1),r(2),...,r(t)},将所得到的残差R={r(1),r(2),...,r(t)}依次输入Dense层和GRU层。最后,将前向GRU层最后一个时间步的隐层状态与后向GRU层第一个时间步的隐层状态相加,得到用于表征风格特征的嵌入向量e。
S402-S408以及S602-S606为获取嵌入向量的步骤,作为一个示例,如图8所示,可以通过如下方法获得嵌入向量:终端获取参考语言学数据和具有风格特征(如张曼玉说话的风格特征)的参考语音数据,其中,该语言学数据例如是“西施与貂蝉谁更漂亮”。终端将获取的语言学数据输入第一编码器,通过第一编码器的编码处理,得到参考语言学编码数据。然后,终端对参考语言学编码数据进行解码获得参考合成语音数据,将参考合成语音数据与参考语音数据进行作差,得到表征风格特征的残差。终端通过残差模型对残差进行处理,得到可以表征说话风格的嵌入向量。
上述实施例中,通过残差模型处理参考语音数据和参考合成语音数据之间的残差,获得用于语音特征转换的嵌入向量,使得嵌入向量具有与参考语音数据相同的风格特征,具有自适应的效果。此外,得到用于对语言学数据进行语音合成时进行风格控制的嵌入向量,以使合成的目标合成语音数据具有特定的风格特征,提高合成语音的质量。
在一个实施例中,如图9所示,语言学编码数据通过第一编码器进行编码得到;目标合成语音数据通过第一解码器进行解码得到;该方法还包括:
S902,获取训练语言学数据和相应的训练语音数据。
其中,语言学数据可以是文本或文本的特征或特征项。训练语言学数据指的是在训练阶段所采用的语言学数据,用于对第一编码器和第一解码器进行训练。
在一个实施例中,在训练过程中,终端获取训练语言学数据和具有风格特征的训练语音数据。例如,在训练过程中,开发人员输入用于训练的训练语言学数据和具有风格特征的训练语音数据。其中,训练语言学数据可以是“我喜欢吃饭睡觉打豆豆”。其中,当训练“我喜欢吃饭睡觉打豆豆”这个语言学数据后,若用户在与终端进行语音交互时发出“小机器人,你平时喜欢干嘛呀?”的语音交互信号时,终端则输出“我喜欢吃饭睡觉打豆豆”作为回应。
S904,通过第一编码器对训练语言学数据编码,得到第一训练语言学编码数据。
在一个实施例中,终端通过第一编码器对训练语言学数据编码,得到第一训练语言学编码数据。例如,终端获取一段训练文本,通过第一编码器对训练文本进行编码,获得分布式的表示,该分布式表示即为语言学编码数据。
S906,获取用于语音特征转换的训练嵌入向量;训练嵌入向量,根据对应相同训练语言学数据的训练合成语音数据和训练语音数据之间的残差生成。
其中,训练嵌入向量指的是用于训练第一编码器和第一解码器的向量。终端将该训练嵌入向量与对应的第一训练语言学编码数据进行融合和处理,将得到具有参考对象说话风格的训练合成语音数据。当训练合成语音数据经过处理后通过扬声器播放出来,播放出来的合成语音将不再是机械化的语音,而是具有人的说话风格。
在一个实施例中,当用户在与终端进行语音交互之前,终端获取训练语言学数据和具有风格特征的训练语音数据,其中,训练语音数据的来源可以由开发人员选取,可以是由开发人员自己的语言所得,也可以是由其它具有特定说话风格的语音所得。终端对训练语言学数据进行语音合成,得到不具有风格特征的训练合成语音数据。终端将训练合成语音数据与训练语音数据进行作差处理,得到表征风格特征的残差。终端对残差进行处理得到表征风格特征的训练嵌入向量。终端将得到的训练嵌入向量保存于风格特征向量库中。
在一个实施例中,终端对残差进行处理得到表征风格特征的训练嵌入向量的步骤,具体可以包括:通过残差模型处理残差的多个全连接层,将全连接层输出的结果分别输入前向门循环单元层和后向门循环单元层,将前向门循环单元层最后一个时间步的输出与后向门循环单元层第一个时间步的输出相加,得到用于语音特征转换的、能表征风格特征的训练嵌入向量。
例如,若开发人员想以张曼玉的语音数据作为训练语音数据,则获取张曼玉的语音进行处理得到训练语音数据,并获取对应的语言学数据(例如说话的文字内容,文字内容如“我喜欢吃饭睡觉打豆豆”),其中,获取的训练语音数据具有张曼玉的说话风格。终端对语言学数据进行语音合成,得到不具有说话风格的训练合成语音数据。终端将具有张曼玉说话风格的训练语音数据与不具有说话风格的训练合成语音数据作差,得到表征风格特征的残差。终端对得到的残差进行处理,获得能够表征张曼玉说话风格的训练嵌入向量。
在一个实施例中,终端接收指定的风格特征指令,从风格特征向量库中获取与风格特征指令对应的训练嵌入向量。例如,用户想要听到某个电影或体育明星的声音,那么,用户在终端的风格选择界面中的各参考对象中选择目标的电影或体育明星,此时终端接收到对于该电影或体育明星的风格特征指令,根据风格特征指令选择表征该电影或体育明星说话风格的训练嵌入向量。
S908,通过第一解码器,根据训练嵌入向量对第一训练语言学编码数据进行解码,获得经过语音特征转换的预测目标合成语音数据。
在一个实施例中,终端通过第一解码器,按照训练嵌入向量对第一训练语言学编码数据进行解码,获得经过语音特征转换的、具有参考对象说话风格的预测目标合成语音数据。或者,终端将训练嵌入向量与第一训练语言学编码数据进行组合,对组合后的结果进行解码,获得经过语音特征转换的、具有参考对象说话风格的预测目标合成语音数据。
S910,根据预测目标合成语音数据和训练语音数据间的差异,调整第一编码器和第一解码器,并继续训练,直至满足训练停止条件。
在一个实施例中,终端根据预测目标合成语音数据和训练语音数据间的差异,调整第一编码器和第一解码器中的参数,并继续训练,直至预测目标合成语音数据对应的语音风格与训练语音数据对应的语音风格一致,则停止训练。
S902-S910为训练第一编码器和第一解码器的步骤,作为一个示例,如图10所示,可以通过如下方法训练第一编码器和第一解码器:获取训练语言学数据和具有风格特征(如张曼玉或开发者本人说话的风格特征)的训练语音数据,通过第一编码器对训练语言学数据编码得到第一训练语言学编码数据;获取用于表征风格特征的训练嵌入向量,通过第一解码器,根据训练嵌入向量对第一训练语言学编码数据进行解码,获得经过语音特征转换的预测目标合成语音数据;根据预测目标合成语音数据和训练语音数据间的差异,调整第一编码器和第一解码器,并继续训练,直至满足训练停止条件。
上述实施例中,通过第一编码器和第一解码器处理训练语言学数据、训练语音数据和训练嵌入向量,得到预测目标合成语音数据,根据预测目标合成语音数据和训练语音数据间的差异调整第一编码器和第一解码器,使预测目标合成语音数据不断逼近训练语音数据,从而得到训练好的第一编码器和第一解码器。由于训练过程中采用了由训练合成语音数据和训练语音数据之间的残差生成的训练嵌入向量,该训练嵌入向量只包含语音特征,无需考虑语义特征对对训练模型的影响,从而降低了第一编码器和第一解码器的复杂度,提高了训练结果的准确性。
在一个实施例中,语言学编码数据通过第一编码器进行编码得到;目标合成语音数据通过第一解码器进行解码得到;参考语言学编码数据通过第二编码器进行编码得到;参考合成语音数据通过第二解码器进行解码得到;嵌入向量通过残差模型得到。如图11所示,该方法还包括:
S1102,获取训练语言学数据和相应的训练语音数据。
其中,训练语言学数据指的是在训练阶段所采用的语言学数据,用于对第一编码器和第一解码器进行训练。
在一个实施例中,在训练过程中,终端获取训练语言学数据和具有风格特征的训练语音数据。例如,在训练过程中,开发人员输入用于训练的训练语言学数据和具有风格特征的训练语音数据。其中,训练语言学数据可以是“我喜欢吃饭睡觉打豆豆”。
S1104,通过第二编码器将训练语言学数据编码,得到第二训练语言学编码数据。
在一个实施例中,终端通过第二编码器对训练语言学数据编码,得到第二训练语言学编码数据。例如,终端获取一段文本,通过第一编码器对文本进行编码,获得分布式的表示,该分布式表示即为语言学编码数据。其中,该分布式表示可以是特征向量。一个特征向量与文本中的一个字或词相对应。
S1106,通过第二解码器对第二训练语言学编码数据解码,得到训练合成语音数据。
S1108,通过残差模型,并根据训练合成语音数据和训练语音数据之间的残差生成训练嵌入向量。
在一个实施例中,终端通过残差模型,对训练合成语音数据和训练语音数据进行作差,得到表征风格特征的残差。终端对所得的具有风格特征的残差进行处理,得到用于语音特征转换的、且用于表征风格特征的训练嵌入向量。
对于获得训练嵌入向量的详细过程,可参考S402-S408和S602-S606,这里不再进行赘述。
S1110,通过第一解码器,根据训练嵌入向量对第一训练语言学编码数据进行解码,获得经过语音特征转换的预测目标合成语音数据。
其中,第一训练语言学编码数据由第一编码器编码训练语言学数据所得。
在一个实施例中,终端通过第二解码器,按照训练嵌入向量对第一训练语言学编码数据进行解码,获得经过语音特征转换的、具有参考对象说话风格的预测目标合成语音数据。或者,终端将训练嵌入向量与第一训练语言学编码数据进行组合,对组合后的结果进行解码,获得经过语音特征转换的、具有参考对象说话风格的预测目标合成语音数据。
S1112,根据预测目标合成语音数据和训练语音数据间的差异,调整第二编码器、第二解码器、残差模型、第一编码器和第一解码器,并继续训练,直至满足训练停止条件。
在一个实施例中,终端根据预测目标合成语音数据和训练语音数据间的差异,调整第二编码器、第二解码器、残差模型、第一编码器和第一解码器中的参数,并继续训练,直至预测目标合成语音数据对应的语音风格与训练语音数据对应的语音风格一致,则停止训练。
S1102-S1112为训练第二编码器、第二解码器、残差模型、第一编码器和第一解码器的步骤,作为一个示例,如图12所示,可以通过如下方法训练第二编码器、第二解码器、残差模型、第一编码器和第一解码器:获取训练语言学数据和具有风格特征(如张曼玉或开发者本人说话的风格特征)的训练语音数据,通过第二编码器将训练语言学数据编码得到第二训练语言学编码数据,通过第二解码器对第二训练语言学编码数据进行解码得到训练合成语音数据。终端通过残差模型对训练合成语音数据与训练语音数据之间的残差进行处理,获得用于表征风格特征的训练嵌入向量。通过第一编码器对训练语言学数据编码得到第一训练语言学编码数据后,通过第一解码器,根据训练嵌入向量对第一训练语言学编码数据进行解码,获得经过语音特征转换的预测目标合成语音数据。根据预测目标合成语音数据和训练语音数据间的差异,调整第二编码器、第二解码器、残差模型、第一编码器和第一解码器,并继续训练,直至满足训练停止条件。
上述实施例中,通过训练语言学数据和相应的训练语音数据,对第二编码器、第二解码器、残差模型、第一编码器和第一解码器进行训练,根据预测目标合成语音数据和训练语音数据间的差异调整第二编码器、第二解码器、残差模型、第一编码器和第一解码器,使预测目标合成语音数据不断逼近训练语音数据,从而得到训练好的第二编码器、第二解码器、残差模型、第一编码器和第一解码器。
此外,由于训练过程中采用了由训练合成语音数据和训练语音数据之间的残差生成的训练嵌入向量,该训练嵌入向量只包含语音特征,无需考虑语义特征对对训练模型的影响,从而降低了第二编码器、第二解码器、残差模型、第一编码器和第一解码器的复杂度,提高了训练结果的准确性。
最后,将用于获取用于表征风格特征的嵌入向量的第二编码器、第二解码器、残差模型,与用于合成语音的第一编码器和第一解码器结合在一起,降低了语音合成***对数据的需求,提高建立语音合成***的准确性。
在一个实施例中,S208具体可以包括:将语言学编码数据和嵌入向量拼接,得到拼接向量;对拼接向量进行解码,得到经过语音特征转换的目标合成语音数据。
在一个实施例中,嵌入向量包括:韵律时长特征、基频特征和能量特征;将语言学编码数据和嵌入向量拼接,得到拼接向量的步骤,具体可以包括:根据时长特征确定与目标语音数据中韵律对应的目标时长;将音素序列与目标时长、基频特征和能量特征进行组合,获得组合特征。
上述实施例中,将语言学编码数据和嵌入向量拼接,对拼接后所得的向量进行解码,得到经过语音特征转换的目标合成语音数据。由于拼接后的向量没语义特征,避免了语义特征对语言学编码数据的处理,从而提高了合成语音的质量。
在一个实施例中,该方法还可以包括:确定与目标合成语音数据对应的语音幅度谱;将语音幅度谱转换为时域的语音波形信号;根据语音波形生成语音。
在一个实施例中,目标合成语音数据可以是频域的语音数据,终端从频域的目标合成语音数据中获取对应的语音幅度谱,通过Griffin-Lim算法将语音幅度谱转换为时域的语音波形信号。终端将语音波形信号通过world声码器,转换成带有风格的合成声音。
上述实施例中,将具有语音特征的目标合成语音数据转换为语音信号,从而获得具有风格的语音,从而可以提高合成语音的质量。
如图13所示,在一个实施例中,提供了一种模型训练方法。本实施例主要以该方法应用于上述图1中运行语音合成***的终端来举例说明。参照图13,该模型训练方法具体包括如下步骤:
S1302,获取训练语言学数据和相应的训练语音数据。
其中,语言学数据可以是文本或文本的特征或特征项。训练语言学数据指的是在训练阶段所采用的语言学数据,用于对第一编码器和第一解码器进行训练。
在一个实施例中,在训练过程中,终端获取训练语言学数据和具有风格特征的训练语音数据。例如,在训练过程中,开发人员输入用于训练的训练语言学数据和具有风格特征的训练语音数据。其中,训练语言学数据可以是“我喜欢吃饭睡觉打豆豆”。其中,当训练“我喜欢吃饭睡觉打豆豆”这个语言学数据后,若用户在与终端进行语音交互时发出“小机器人,你平时喜欢干嘛呀?”的语音交互信号时,终端则输出“我喜欢吃饭睡觉打豆豆”作为回应。
S1304,通过第一编码器对训练语言学数据编码,得到第一训练语言学编码数据。
在一个实施例中,终端通过第一编码器对训练语言学数据编码,得到第一训练语言学编码数据。例如,终端获取一段训练文本,通过第一编码器对训练文本进行编码,获得分布式的表示,该分布式表示即为语言学编码数据。其中,该分布式表示可以是特征向量。一个特征向量与文本中的一个字或词相对应。
S1306,获取用于语音特征转换的训练嵌入向量;训练嵌入向量,根据对应相同训练语言学数据的训练合成语音数据和训练语音数据之间的残差生成。
其中,嵌入向量可以是具有参考对象说话风格特征的向量,参考对象可以在训练过程中,由开发人员选择的说话具有特定风格的人。训练嵌入向量指的是用于训练第一编码器和第一解码器的向量。终端将该训练嵌入向量与对应的第一训练语言学编码数据进行融合和处理,将得到具有参考对象说话风格的训练合成语音数据。当训练合成语音数据经过处理后通过扬声器播放出来,播放出来的合成语音将不再是机械化的语音,而是具有人的说话风格。
在一个实施例中,当用户在与终端进行语音交互之前,终端获取训练语言学数据和具有风格特征的训练语音数据,其中,训练语音数据的来源可以由开发人员选取,可以是由开发人员自己的语言所得,也可以是由其它具有特定说话风格的语音所得。终端对训练语言学数据进行语音合成,得到不具有风格特征的训练合成语音数据。终端将训练合成语音数据与训练语音数据进行作差处理,得到表征风格特征的残差。终端对残差进行处理得到表征风格特征的训练嵌入向量。终端将得到的训练嵌入向量保存于风格特征向量库中。其中,风格特征向量库可以保存多个参考对象对应的训练嵌入向量,而参考对象可以是说话具有特殊风格的人。该残差实质上是残差序列。
在一个实施例中,终端对残差进行处理得到表征风格特征的训练嵌入向量的步骤,具体可以包括:通过残差模型处理残差的多个全连接层,将全连接层输出的结果分别输入前向门循环单元层和后向门循环单元层,将前向门循环单元层最后一个时间步的输出与后向门循环单元层第一个时间步的输出相加,得到用于语音特征转换的、能表征风格特征的训练嵌入向量。
例如,若开发人员想以张曼玉的语音数据作为训练语音数据,则获取张曼玉的语音进行处理得到训练语音数据,并获取对应的语言学数据(例如说话的文字内容,文字内容如“我喜欢吃饭睡觉打豆豆”),其中,获取的训练语音数据具有张曼玉的说话风格。终端对语言学数据进行语音合成,得到不具有说话风格的训练合成语音数据。终端将具有张曼玉说话风格的训练语音数据与不具有说话风格的训练合成语音数据作差,得到表征风格特征的残差。终端对得到的残差进行处理,获得能够表征张曼玉说话风格的训练嵌入向量。
在一个实施例中,终端接收指定的风格特征指令,从风格特征向量库中获取与风格特征指令对应的训练嵌入向量。例如,用户想要听到某个电影或体育明星的声音,那么,用户在终端的风格选择界面中的各参考对象中选择目标的电影或体育明星,此时终端接收到对于该电影或体育明星的风格特征指令,根据风格特征指令选择表征该电影或体育明星说话风格的训练嵌入向量。
S1308,通过第一解码器,根据训练嵌入向量对第一训练语言学编码数据进行解码,获得经过语音特征转换的预测目标合成语音数据。
在一个实施例中,终端通过第一解码器,按照训练嵌入向量对第一训练语言学编码数据进行解码,获得经过语音特征转换的、具有参考对象说话风格的预测目标合成语音数据。或者,终端将训练嵌入向量与第一训练语言学编码数据进行组合,对组合后的结果进行解码,获得经过语音特征转换的、具有参考对象说话风格的预测目标合成语音数据。
S1310,根据预测目标合成语音数据和训练语音数据间的差异,调整第一编码器和第一解码器,并继续训练,直至满足训练停止条件。
在一个实施例中,终端根据预测目标合成语音数据和训练语音数据间的差异,调整第一编码器和第一解码器中的参数,并继续训练,直至预测目标合成语音数据对应的语音风格与训练语音数据对应的语音风格一致,则停止训练。
S1302-S1310为训练第一编码器和第一解码器的步骤,作为一个示例,如图10所示,可以通过如下方法训练第一编码器和第一解码器:获取训练语言学数据和具有风格特征(如张曼玉或开发者本人说话的风格特征)的训练语音数据,通过第一编码器对训练语言学数据编码得到第一训练语言学编码数据;获取用于表征风格特征的训练嵌入向量,通过第一解码器,根据训练嵌入向量对第一训练语言学编码数据进行解码,获得经过语音特征转换的预测目标合成语音数据;根据预测目标合成语音数据和训练语音数据间的差异,调整第一编码器和第一解码器,并继续训练,直至满足训练停止条件。
上述实施例中,通过第一编码器和第一解码器处理训练语言学数据、训练语音数据和训练嵌入向量,得到预测目标合成语音数据,根据预测目标合成语音数据和训练语音数据间的差异调整第一编码器和第一解码器,使预测目标合成语音数据不断逼近训练语音数据,从而得到训练好的第一编码器和第一解码器。由于训练过程中采用了由训练合成语音数据和训练语音数据之间的残差生成的训练嵌入向量,该训练嵌入向量只包含语音特征,无需考虑语义特征对对训练模型的影响,从而降低了第一编码器和第一解码器的复杂度,提高了训练结果的准确性。
在一个实施例中,如图14所示,该方法还包括:
S1402,获取训练语言学数据和相应的训练语音数据。
其中,语言学数据可以是文本或文本的特征或特征项。训练语言学数据指的是在训练阶段所采用的语言学数据,用于对第一编码器和第一解码器进行训练。
在一个实施例中,在训练过程中,终端获取训练语言学数据和具有风格特征的训练语音数据。例如,在训练过程中,开发人员输入用于训练的训练语言学数据和具有风格特征的训练语音数据。其中,训练语言学数据可以是“我喜欢吃饭睡觉打豆豆”。
S1404,通过第二编码器将训练语言学数据编码,得到第二训练语言学编码数据。
在一个实施例中,终端通过第二编码器对训练语言学数据编码,得到第二训练语言学编码数据。例如,终端获取一段文本,通过第一编码器对文本进行编码,获得分布式的表示,该分布式表示即为语言学编码数据。其中,该分布式表示可以是特征向量。一个特征向量与文本中的一个字或词相对应。
S1406,通过第二解码器对第二训练语言学编码数据解码,得到训练合成语音数据。
S1408,通过残差模型,并根据训练合成语音数据和训练语音数据之间的残差生成训练嵌入向量。
在一个实施例中,终端通过残差模型,对训练合成语音数据和训练语音数据进行作差,得到表征风格特征的残差。终端对所得的具有风格特征的残差进行处理,得到用于语音特征转换的、且用于表征风格特征的训练嵌入向量。
对于获得训练嵌入向量的详细过程,可参考S402-S408和S602-S606,这里不再进行赘述。
S1410,通过第一解码器,根据训练嵌入向量对第一训练语言学编码数据进行解码,获得经过语音特征转换的预测目标合成语音数据。
在一个实施例中,终端通过第二解码器,按照训练嵌入向量对第二训练语言学编码数据进行解码,获得经过语音特征转换的、具有参考对象说话风格的预测目标合成语音数据。或者,终端将训练嵌入向量与第二训练语言学编码数据进行组合,对组合后的结果进行解码,获得经过语音特征转换的、具有参考对象说话风格的预测目标合成语音数据。
S1412,根据预测目标合成语音数据和训练语音数据间的差异,调整第二编码器、第二解码器、残差模型、第一编码器和第一解码器,并继续训练,直至满足训练停止条件。
在一个实施例中,终端根据预测目标合成语音数据和训练语音数据间的差异,调整第二编码器、第二解码器、残差模型、第一编码器和第一解码器中的参数,并继续训练,直至预测目标合成语音数据对应的语音风格与训练语音数据对应的语音风格一致,则停止训练。
S1402-S1412为训练第二编码器、第二解码器、残差模型、第一编码器和第一解码器的步骤,作为一个示例,如图12所示,可以通过如下方法训练第二编码器、第二解码器、残差模型、第一编码器和第一解码器:获取训练语言学数据和具有风格特征(如张曼玉或开发者本人说话的风格特征)的训练语音数据,通过第二编码器将训练语言学数据编码得到第二训练语言学编码数据,通过第二解码器对第二训练语言学编码数据进行解码得到训练合成语音数据。终端通过残差模型对训练合成语音数据与训练语音数据之间的残差进行处理,获得用于表征风格特征的训练嵌入向量。通过第一编码器对训练语言学数据编码得到第一训练语言学编码数据后,通过第一解码器,根据训练嵌入向量对第一训练语言学编码数据进行解码,获得经过语音特征转换的预测目标合成语音数据。根据预测目标合成语音数据和训练语音数据间的差异,调整第二编码器、第二解码器、残差模型、第一编码器和第一解码器,并继续训练,直至满足训练停止条件。
上述实施例中,通过训练语言学数据和相应的训练语音数据,对第二编码器、第二解码器、残差模型、第一编码器和第一解码器进行训练,根据预测目标合成语音数据和训练语音数据间的差异调整第二编码器、第二解码器、残差模型、第一编码器和第一解码器,使预测目标合成语音数据不断逼近训练语音数据,从而得到训练好的第二编码器、第二解码器、残差模型、第一编码器和第一解码器。
此外,由于训练过程中采用了由训练合成语音数据和训练语音数据之间的残差生成的训练嵌入向量,该训练嵌入向量只包含语音特征,无需考虑语义特征对对训练模型的影响,从而降低了第二编码器、第二解码器、残差模型、第一编码器和第一解码器的复杂度,提高了训练结果的准确性。
最后,将用于获取用于表征风格特征的嵌入向量的第二编码器、第二解码器、残差模型,与用于合成语音的第一编码器和第一解码器结合在一起,降低了语音合成***对数据的需求,提高建立语音合成***的准确性。
对于传统的语音合成方案中,其整体的思路是:在训练阶段,训练编码器从参考音频的对数梅尔频谱中得到风格的嵌入向量,再利用这个嵌入向量指导Tacotron对风格数据进行建模。在语音合成阶段,给定一个参考音频的对数梅尔频谱,首先通过训练好的编码器获得表征风格的嵌入向量,然后利用该嵌入向量指导Tacotron生成对应风格的语音。
上述方案中,存在以下问题:1)依赖人工标注的风格特征,耗时耗力,同时不便于拓展到不同的风格特征;2)在语音合成阶段,需要有额外的风格向量模块预测风格特征,以将预测所得的风格特征输入语音合成模型合成具有风格的语音,增加了训练耗时;3)在获取风格特征时输入是对数梅尔频谱,而对数梅尔频谱包含风格特征和语义特征,因此语音合成模型建模复杂度较高;4)对数梅尔频谱中不仅包含了风格特征,还包含了语义特征,这些语义特征对风格特征的提取会产生一定的影响,从而影响了提取风格特征的准确率。
为了解决上述问题,本发明实施例提供了一种解决方案,其中,如图1所示,语音合成***包括:平均语音模型,残差模型,投影层与目标语音模型。其中,目标语音模型包括第一编码器和第一解码器。第一编码器和第一解码器分别可以是语言学数据编码器和语音数据解码器。此外,第一编码器和第一解码器还可以是基于注意力的递归生成器。平均语音模型包括第二编码器和第二解码器。第二编码器和第二解码器分别可以是语言学数据编码器和语音数据解码器。此外,第二编码器和第二解码器还可以是基于注意力的递归生成器。
平均语音模型和目标语音模型都可以是基于Tacotron模型,由解码器与编码器组成。平均语音模型对训练语言学数据进行训练,得到平均风格的语音数据。残差模型对预测的平均合成语音数据与目标语音数据之间的差进行编码得到风格特征的嵌入向量。投影层将嵌入向量投影到目标语音模型的第一解码器空间中。
获得合成的语音之前,需通过以下三个阶段:训练阶段,自适应阶段与测试阶段;其中:
1)在训练阶段。
如图12所示,输入的训练语言学数据先通过平均语音模型预测出平均的训练合成语音数据。平均语音模型包括:第二编码器(如语言学数据编码器)与第二解码器(如语音数据解码器)。第二编码器用于对训练语言学数据进行编码,获得隐层表示。第二解码器用于对隐层表示进行解码,获得训练合成语音数据。其中,隐层表示指的是本发明实施例所述的语言学编码数据。
所获得的训练合成语音数据与目标带风格特征的训练语音数据进行作差处理,获得两者之间的残差。将残差输入残差模型,得到用于表征风格特征的训练嵌入向量,该训练嵌入向量通过投影层映射到目标语音模型的第一解码器中。
在目标语音模型中,类似于平均语音模型,输入的是训练语言学数据,经过第一编码器编码得到隐层表示。第一解码器跟据隐层表示与投影层映射过来的训练嵌入向量,解码出具有风格的预测目标合成语音数据。
整个训练过程中,训练嵌入向量是由数据驱动,自动学习得到的。
根据预测目标合成语音数据和训练语音数据间的差异,调整平均语音模型、残差模型和目标语音模型,并继续训练,直至预测目标合成语音数据尽可能逼近训练语音数据,使最终输出的合成语音的风格与训练所采用的语音数据的风格一致,从而得到训练好的平均语音模型、残差模型和目标语音模型。
2)自适应阶段。
自适应阶段主要是通过训练好的平均语音模型、残差模型和目标语音模型,获得目标风格的合成语音。例如,如图8所示,用户在与终端进行语音交互时,若想要听到张曼玉的说话风格,那么,用户可以使用张曼玉的语音数据作为参考语音数据,并获取对应的参考语言学数据。将获得的参考语言学数据输入训练好的平均语音模型,从而得到参考合成语音数据。将参考合成语音数据与参考语音数据进行作差处理,得到表示风格特征的残差。将残差输入残差模型,便可得到用于表征风格特征的嵌入向量。
利用训练阶段训练得到的平均语音模型和残差模型,可以快速得到自适应的风格嵌入向量。这个过程由于不需要训练,因而极大提高自适应的速度,减少自适应的时间。
3)测试阶段。
在测试阶段,如图3所示,用户与终端进行语音交互时,首先将给定的语言学数据输入到目标语音模型的第一编码器中进行编码,得到隐层表示。利用自适应阶段得到的嵌入向量对第一解码器进行控制,得到与自适应参考样本相似的风格的目标合成语音数据。例如,自适应阶段所采用的参考语音数据的来源为张曼玉时,所得到的目标合成语音数据的风格即为张曼玉的说话风格。
输出的目标合成语音数据再经过Griffin-Lim算法恢复为语音波形信号。
通过实时本发明实施例,可以具有以下有益效果:不需要人工标注的风格特征,降低了构建语音合成***的成本;以残差为控制条件,避免了使用对数梅尔频谱,降低模型建模复杂度,提高了风格特征提取的准确性;风格向量模块(即残差模型)和语音合成模型可以同时建模同时训练,避免了额外的风格向量模块,降低了训练耗时,而且还可以实现快速自适应得到合成语音所需的嵌入向量。
图2为一个实施例中语音合成方法的流程示意图,图13为一个实施例中模型训练方法的流程示意图。应该理解的是,虽然图2和图13的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2和图13中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
如图15所示,在一个实施例中,提供了一种语音合成装置,该语音合成装置具体包括:语言学数据获取模块1502、语言学数据编码模块1504、嵌入向量获取模块1506和语言学编码数据解码模块1508;其中:
语言学数据获取模块1502,用于获取待处理的语言学数据;
语言学数据编码模块1504,用于对语言学数据编码,得到语言学编码数据;
嵌入向量获取模块1506,用于获取用于语音特征转换的嵌入向量;嵌入向量,根据对应相同参考语言学数据的参考合成语音数据和参考语音数据之间的残差生成;
语言学编码数据解码模块1508,用于根据嵌入向量对语言学编码数据进行解码,获得经过语音特征转换的目标合成语音数据。
上述实施例中,获取待处理的语言学数据,对语言学数据进行编码,便可得到表征发音的语言学编码数据。获取用于语音特征转换的嵌入向量,由于嵌入向量是对应相同参考语言学数据的参考合成语音数据和参考语音数据之间的残差生成,因而所得到的嵌入向量为不包含语义特征的风格特征向量。根据嵌入向量对语言学编码数据进行解码,避免了语义特征对语言学编码数据处理的影响,因此所获得的目标合成语音数据的质量高,从而提高了合成语音的质量。
在一个实施例中,如图16所示,该装置还包括:嵌入向量确定模块1510;其中:
语言学数据获取模块1502还用于获取参考语言学数据和相应的参考语音数据;
语言学数据编码模块1504还用于对参考语言学数据编码,得到参考语言学编码数据;
语言学编码数据解码模块1508还用于解码参考语言学编码数据,得到参考合成语音数据;
嵌入向量确定模块1510,用于根据参考语音数据和参考合成语音数据间的残差,确定用于语音特征转换的嵌入向量。
上述实施例中,根据参考语音数据和参考合成语音数据间的残差,确定用于语音特征转换的嵌入向量,从而得到用于对语言学数据进行语音合成时进行风格控制的嵌入向量,以使合成的目标合成语音数据具有特定的风格特征,提高合成语音的质量。
在一个实施例中,嵌入向量确定模块1510还用于确定参考语音数据和参考合成语音数据间的残差;通过残差模型处理残差;根据残差模型中前向运算的结果和后向运算的结果,生成用于语音特征转换的嵌入向量。
在一个实施例中,嵌入向量确定模块1510还用于通过残差模型处理残差中的全连接层,依次通过全连接层、前向门循环单元层和后向门循环单元层进行处理。
在一个实施例中,嵌入向量确定模块1510还用于获取残差模型中前向门循环单元层进行前向运算时在最后一个时间步输出的第一向量;获取残差模型中后向门循环单元层进行后向运算时在第一个时间步输出的第二向量;将第一向量和第二向量叠加,获得用于语音特征转换的嵌入向量。
上述实施例中,通过残差模型处理参考语音数据和参考合成语音数据之间的残差,获得用于语音特征转换的嵌入向量,使得嵌入向量具有与参考语音数据相同的风格特征,具有自适应的效果。此外,得到用于对语言学数据进行语音合成时进行风格控制的嵌入向量,以使合成的目标合成语音数据具有特定的风格特征,提高合成语音的质量。
在一个实施例中,语言学编码数据通过第一编码器进行编码得到;目标合成语音数据通过第一解码器进行解码得到;如图16所示,该装置还包括:第一调整模块1512;其中:
语言学数据获取模块1502还用于获取训练语言学数据和相应的训练语音数据;
语言学数据编码模块1504还用于通过第一编码器对训练语言学数据编码,得到第一训练语言学编码数据;
嵌入向量获取模块1506还用于获取用于语音特征转换的训练嵌入向量;训练嵌入向量,根据对应相同训练语言学数据的训练合成语音数据和训练语音数据之间的残差生成;
语言学编码数据解码模块1508还用于通过第一解码器,根据训练嵌入向量对第一训练语言学编码数据进行解码,获得经过语音特征转换的预测目标合成语音数据;
第一调整模块1512,用于根据预测目标合成语音数据和训练语音数据间的差异,调整第一编码器和第一解码器,并继续训练,直至满足训练停止条件。
上述实施例中,通过第一编码器和第一解码器处理训练语言学数据、训练语音数据和训练嵌入向量,得到预测目标合成语音数据,根据预测目标合成语音数据和训练语音数据间的差异调整第一编码器和第一解码器,使预测目标合成语音数据不断逼近训练语音数据,从而得到训练好的第一编码器和第一解码器。由于训练过程中采用了由训练合成语音数据和训练语音数据之间的残差生成的训练嵌入向量,该训练嵌入向量只包含语音特征,无需考虑语义特征对对训练模型的影响,从而降低了第一编码器和第一解码器的复杂度,提高了训练结果的准确性。
在一个实施例中,语言学编码数据通过第一编码器进行编码得到;目标合成语音数据通过第一解码器进行解码得到;参考语言学编码数据通过第二编码器进行编码得到;参考合成语音数据通过第二解码器进行解码得到;嵌入向量通过残差模型得到。
在一个实施例中,如图16所示,该装置还包括:嵌入向量生成模块1514和第二调整模块1516;其中:
语言学数据获取模块1502还用于获取训练语言学数据和相应的训练语音数据;
语言学数据编码模块1504还用于通过第二编码器将训练语言学数据编码,得到第二训练语言学编码数据;
语言学编码数据解码模块1508还用于通过第二解码器对第二训练语言学编码数据解码,得到训练合成语音数据;
嵌入向量生成模块1514,用于通过残差模型,并根据训练合成语音数据和训练语音数据之间的残差生成训练嵌入向量;
语言学编码数据解码模块1508还用于通过第一解码器,根据训练嵌入向量对第一训练语言学编码数据进行解码,获得经过语音特征转换的预测目标合成语音数据;其中,第一训练语言学编码数据由第一编码器编码训练语言学数据所得。
第二调整模块1516,用于根据预测目标合成语音数据和训练语音数据间的差异,调整第二编码器、第二解码器、残差模型、第一编码器和第一解码器,并继续训练,直至满足训练停止条件。
上述实施例中,通过训练语言学数据和相应的训练语音数据,对第二编码器、第二解码器、残差模型、第一编码器和第一解码器进行训练,根据预测目标合成语音数据和训练语音数据间的差异调整第二编码器、第二解码器、残差模型、第一编码器和第一解码器,使预测目标合成语音数据不断逼近训练语音数据,从而得到训练好的第二编码器、第二解码器、残差模型、第一编码器和第一解码器。
此外,由于训练过程中采用了由训练合成语音数据和训练语音数据之间的残差生成的训练嵌入向量,该训练嵌入向量只包含语音特征,无需考虑语义特征对对训练模型的影响,从而降低了第二编码器、第二解码器、残差模型、第一编码器和第一解码器的复杂度,提高了训练结果的准确性。
最后,将用于获取用于表征风格特征的嵌入向量的第二编码器、第二解码器、残差模型,与用于合成语音的第一编码器和第一解码器结合在一起,降低了语音合成***对数据的需求,提高建立语音合成***的准确性。
在一个实施例中,语言学编码数据解码模块1508还用于将语言学编码数据和嵌入向量拼接,得到拼接向量;对拼接向量进行解码,得到经过语音特征转换的目标合成语音数据。
上述实施例中,将语言学编码数据和嵌入向量拼接,对拼接后所得的向量进行解码,得到经过语音特征转换的目标合成语音数据。由于拼接后的向量没语义特征,避免了语义特征对语言学编码数据的处理,从而提高了合成语音的质量。
在一个实施例中,如图16所示,该装置还包括:合成模块1518、转换模块1520和语音生成模块1522;其中:
合成模块1518,用于确定与目标合成语音数据对应的语音幅度谱;
转换模块1520,用于将语音幅度谱转换为时域的语音波形信号;
语音生成模块1522,用于根据语音波形生成语音。
上述实施例中,将具有语音特征的目标合成语音数据转换为语音信号,从而获得具有风格的语音,从而可以提高合成语音的质量。
如图17所示,在一个实施例中,提供了一种模型训练装置,该模型训练装置具体包括:语音数据获取模块1702、语言学数据编码模块1704、嵌入向量获取模块1706、语言学编码数据解码模块1708和调整模块1710;其中:
语音数据获取模块1702,用于获取训练语言学数据和相应的训练语音数据;
语言学数据编码模块1704,用于通过第一编码器对训练语言学数据编码,得到第一训练语言学编码数据;
嵌入向量获取模块1706,用于获取用于语音特征转换的训练嵌入向量;训练嵌入向量,根据对应相同训练语言学数据的训练合成语音数据和训练语音数据之间的残差生成;
语言学编码数据解码模块1708,用于通过第一解码器,根据训练嵌入向量对第一训练语言学编码数据进行解码,获得经过语音特征转换的预测目标合成语音数据;
调整模块1710,用于根据预测目标合成语音数据和训练语音数据间的差异,调整第一编码器和第一解码器,并继续训练,直至满足训练停止条件。
上述实施例中,通过第一编码器和第一解码器处理训练语言学数据、训练语音数据和训练嵌入向量,得到预测目标合成语音数据,根据预测目标合成语音数据和训练语音数据间的差异调整第一编码器和第一解码器,使预测目标合成语音数据不断逼近训练语音数据,从而得到训练好的第一编码器和第一解码器。由于训练过程中采用了由训练合成语音数据和训练语音数据之间的残差生成的训练嵌入向量,该训练嵌入向量只包含语音特征,无需考虑语义特征对对训练模型的影响,从而降低了第一编码器和第一解码器的复杂度,提高了训练结果的准确性。
在一个实施例中,如图18所示,该装置还包括:嵌入向量生成模块1712;其中:
语言学数据编码模块1704还用于通过第二编码器将训练语言学数据编码,得到第二训练语言学编码数据;
语言学编码数据解码模块1708还用于通过第二解码器对第二训练语言学编码数据解码,得到训练合成语音数据;
嵌入向量生成模块1712,用于通过残差模型,并根据训练合成语音数据和训练语音数据之间的残差生成训练嵌入向量;
调整模块1710还用于根据预测目标合成语音数据和训练语音数据间的差异,调整第二编码器、第二解码器、残差模型、第一编码器和第一解码器,并继续训练,直至满足训练停止条件。
上述实施例中,通过训练语言学数据和相应的训练语音数据,对第二编码器、第二解码器、残差模型、第一编码器和第一解码器进行训练,根据预测目标合成语音数据和训练语音数据间的差异调整第二编码器、第二解码器、残差模型、第一编码器和第一解码器,使预测目标合成语音数据不断逼近训练语音数据,从而得到训练好的第二编码器、第二解码器、残差模型、第一编码器和第一解码器。
此外,由于训练过程中采用了由训练合成语音数据和训练语音数据之间的残差生成的训练嵌入向量,该训练嵌入向量只包含语音特征,无需考虑语义特征对对训练模型的影响,从而降低了第二编码器、第二解码器、残差模型、第一编码器和第一解码器的复杂度,提高了训练结果的准确性。
最后,将用于获取用于表征风格特征的嵌入向量的第二编码器、第二解码器、残差模型,与用于合成语音的第一编码器和第一解码器结合在一起,降低了语音合成***对数据的需求,提高建立语音合成***的准确性。
图19示出了一个实施例中计算机设备的内部结构图。该计算机设备具体可以是图1中运行语音合成***的终端。如图19所示,该计算机设备包括该计算机设备包括通过***总线连接的处理器、存储器、网络接口、输入装置和显示屏。其中,存储器包括非易失性存储介质和内存储器。该计算机设备的非易失性存储介质存储有操作***,还可存储有计算机程序,该计算机程序被处理器执行时,可使得处理器实现语音合成方法。该内存储器中也可储存有计算机程序,该计算机程序被处理器执行时,可使得处理器执行语音合成方法。计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图19中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,本申请提供的15装置可以实现为一种计算机程序的形式,计算机程序可在如图19所示的计算机设备上运行。计算机设备的存储器中可存储组成该语音合成装置的各个程序模块,比如,图15所示的语言学数据获取模块1502、语言学数据编码模块1504、嵌入向量获取模块1506和语言学编码数据解码模块1508。各个程序模块构成的计算机程序使得处理器执行本说明书中描述的本申请各个实施例的语音合成方法中的步骤。
例如,图19所示的计算机设备可以通过如图15所示的语音合成装置中的语言学数据获取模块1502执行S202。计算机设备可通过语言学数据编码模块1504执行S204。计算机设备可通过嵌入向量获取模块1506执行S206。计算机设备可通过语言学编码数据解码模块1508执行S208。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,计算机程序被处理器执行时,使得处理器执行以下步骤:获取待处理的语言学数据;对语言学数据编码,得到语言学编码数据;获取用于语音特征转换的嵌入向量;嵌入向量,根据对应相同参考语言学数据的参考合成语音数据和参考语音数据之间的残差生成;根据嵌入向量对语言学编码数据进行解码,获得经过语音特征转换的目标合成语音数据。
在一个实施例中,计算机程序被处理器执行时,使得处理器还执行以下步骤:获取参考语言学数据和相应的参考语音数据;对参考语言学数据编码,得到参考语言学编码数据;解码参考语言学编码数据,得到参考合成语音数据;根据参考语音数据和参考合成语音数据间的残差,确定用于语音特征转换的嵌入向量。
在一个实施例中,计算机程序被处理器执行根据参考语音数据和参考合成语音数据间的残差,确定用于语音特征转换的嵌入向量的步骤时,使得处理器具体执行以下步骤:确定参考语音数据和参考合成语音数据间的残差;通过残差模型处理残差;根据残差模型中前向运算的结果和后向运算的结果,生成用于语音特征转换的嵌入向量。
在一个实施例中,计算机程序被处理器执行根据残差模型中前向运算的结果和后向运算的结果,生成用于语音特征转换的嵌入向量的步骤时,使得处理器具体执行以下步骤:获取残差模型中前向门循环单元层进行前向运算时在最后一个时间步输出的第一向量;获取残差模型中后向门循环单元层进行后向运算时在第一个时间步输出的第二向量;将第一向量和第二向量叠加,获得用于语音特征转换的嵌入向量。
在一个实施例中,计算机程序被处理器执行通过残差模型处理残差的步骤时,使得处理器具体执行以下步骤:通过残差模型处理残差中的全连接层,依次通过全连接层、前向门循环单元层和后向门循环单元层进行处理。
在一个实施例中,语言学编码数据通过第一编码器进行编码得到;目标合成语音数据通过第一解码器进行解码得到;计算机程序被处理器执行时,使得处理器还执行以下步骤:获取训练语言学数据和相应的训练语音数据;通过第一编码器对训练语言学数据编码,得到第一训练语言学编码数据;获取用于语音特征转换的训练嵌入向量;训练嵌入向量,根据对应相同训练语言学数据的训练合成语音数据和训练语音数据之间的残差生成;通过第一解码器,根据训练嵌入向量对第一训练语言学编码数据进行解码,获得经过语音特征转换的预测目标合成语音数据;根据预测目标合成语音数据和训练语音数据间的差异,调整第一编码器和第一解码器,并继续训练,直至满足训练停止条件。
在一个实施例中,语言学编码数据通过第一编码器进行编码得到;目标合成语音数据通过第一解码器进行解码得到;参考语言学编码数据通过第二编码器进行编码得到;参考合成语音数据通过第二解码器进行解码得到;嵌入向量通过残差模型得到。
在一个实施例中,计算机程序被处理器执行时,使得处理器还执行以下步骤:获取训练语言学数据和相应的训练语音数据;通过第二编码器将训练语言学数据编码,得到第二训练语言学编码数据;通过第二解码器对第二训练语言学编码数据解码,得到训练合成语音数据;通过残差模型,并根据训练合成语音数据和训练语音数据之间的残差生成训练嵌入向量;通过第一解码器,根据训练嵌入向量对第一训练语言学编码数据进行解码,获得经过语音特征转换的预测目标合成语音数据;根据预测目标合成语音数据和训练语音数据间的差异,调整第二编码器、第二解码器、残差模型、第一编码器和第一解码器,并继续训练,直至满足训练停止条件。
在一个实施例中,计算机程序被处理器执行根据嵌入向量对语言学编码数据进行解码,获得经过语音特征转换的目标合成语音数据的步骤时,使得处理器具体执行以下步骤:将语言学编码数据和嵌入向量拼接,得到拼接向量;对拼接向量进行解码,得到经过语音特征转换的目标合成语音数据。
在一个实施例中,计算机程序被处理器执行时,使得处理器还执行以下步骤:确定与目标合成语音数据对应的语音幅度谱;将语音幅度谱转换为时域的语音波形信号;根据语音波形生成语音。
在一个实施例中,提供了一种计算机可读存储介质,存储有计算机程序,计算机程序被处理器执行时,使得处理器执行以下步骤:获取待处理的语言学数据;对语言学数据编码,得到语言学编码数据;获取用于语音特征转换的嵌入向量;嵌入向量,根据对应相同参考语言学数据的参考合成语音数据和参考语音数据之间的残差生成;根据嵌入向量对语言学编码数据进行解码,获得经过语音特征转换的目标合成语音数据。
在一个实施例中,计算机程序被处理器执行时,使得处理器还执行以下步骤:获取参考语言学数据和相应的参考语音数据;对参考语言学数据编码,得到参考语言学编码数据;解码参考语言学编码数据,得到参考合成语音数据;根据参考语音数据和参考合成语音数据间的残差,确定用于语音特征转换的嵌入向量。
在一个实施例中,计算机程序被处理器执行根据参考语音数据和参考合成语音数据间的残差,确定用于语音特征转换的嵌入向量的步骤时,使得处理器具体执行以下步骤:确定参考语音数据和参考合成语音数据间的残差;通过残差模型处理残差;根据残差模型中前向运算的结果和后向运算的结果,生成用于语音特征转换的嵌入向量。
在一个实施例中,计算机程序被处理器执行根据残差模型中前向运算的结果和后向运算的结果,生成用于语音特征转换的嵌入向量的步骤时,使得处理器具体执行以下步骤:获取残差模型中前向门循环单元层进行前向运算时在最后一个时间步输出的第一向量;获取残差模型中后向门循环单元层进行后向运算时在第一个时间步输出的第二向量;将第一向量和第二向量叠加,获得用于语音特征转换的嵌入向量。
在一个实施例中,计算机程序被处理器执行通过残差模型处理残差的步骤时,使得处理器具体执行以下步骤:通过残差模型处理残差中的全连接层,依次通过全连接层、前向门循环单元层和后向门循环单元层进行处理。
在一个实施例中,语言学编码数据通过第一编码器进行编码得到;目标合成语音数据通过第一解码器进行解码得到;计算机程序被处理器执行时,使得处理器还执行以下步骤:获取训练语言学数据和相应的训练语音数据;通过第一编码器对训练语言学数据编码,得到第一训练语言学编码数据;获取用于语音特征转换的训练嵌入向量;训练嵌入向量,根据对应相同训练语言学数据的训练合成语音数据和训练语音数据之间的残差生成;通过第一解码器,根据训练嵌入向量对第一训练语言学编码数据进行解码,获得经过语音特征转换的预测目标合成语音数据;根据预测目标合成语音数据和训练语音数据间的差异,调整第一编码器和第一解码器,并继续训练,直至满足训练停止条件。
在一个实施例中,语言学编码数据通过第一编码器进行编码得到;目标合成语音数据通过第一解码器进行解码得到;参考语言学编码数据通过第二编码器进行编码得到;参考合成语音数据通过第二解码器进行解码得到;嵌入向量通过残差模型得到。
在一个实施例中,计算机程序被处理器执行时,使得处理器还执行以下步骤:获取训练语言学数据和相应的训练语音数据;通过第二编码器将训练语言学数据编码,得到第二训练语言学编码数据;通过第二解码器对第二训练语言学编码数据解码,得到训练合成语音数据;通过残差模型,并根据训练合成语音数据和训练语音数据之间的残差生成训练嵌入向量;通过第一解码器,根据训练嵌入向量对第一训练语言学编码数据进行解码,获得经过语音特征转换的预测目标合成语音数据;根据预测目标合成语音数据和训练语音数据间的差异,调整第二编码器、第二解码器、残差模型、第一编码器和第一解码器,并继续训练,直至满足训练停止条件。
在一个实施例中,计算机程序被处理器执行根据嵌入向量对语言学编码数据进行解码,获得经过语音特征转换的目标合成语音数据的步骤时,使得处理器具体执行以下步骤:将语言学编码数据和嵌入向量拼接,得到拼接向量;对拼接向量进行解码,得到经过语音特征转换的目标合成语音数据。
在一个实施例中,计算机程序被处理器执行时,使得处理器还执行以下步骤:确定与目标合成语音数据对应的语音幅度谱;将语音幅度谱转换为时域的语音波形信号;根据语音波形生成语音。
图20示出了一个实施例中计算机设备的内部结构图。该计算机设备具体可以是图1中运行模型训练***的终端。如图20所示,该计算机设备包括该计算机设备包括通过***总线连接的处理器、存储器、网络接口、输入装置和显示屏。其中,存储器包括非易失性存储介质和内存储器。该计算机设备的非易失性存储介质存储有操作***,还可存储有计算机程序,该计算机程序被处理器执行时,可使得处理器实现模型训练方法。该内存储器中也可储存有计算机程序,该计算机程序被处理器执行时,可使得处理器执行模型训练方法。计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图20中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,本申请提供的17装置可以实现为一种计算机程序的形式,计算机程序可在如图20所示的计算机设备上运行。计算机设备的存储器中可存储组成该模型训练装置的各个程序模块,比如,图17所示的语音数据获取模块1702、语言学数据编码模块1704、嵌入向量获取模块1706、语言学编码数据解码模块1708和调整模块1710。各个程序模块构成的计算机程序使得处理器执行本说明书中描述的本申请各个实施例的模型训练方法中的步骤。
例如,图20所示的计算机设备可以通过如图17所示的模型训练装置中的语音数据获取模块1702执行S1302。计算机设备可通过语言学数据编码模块1704执行S1304。计算机设备可通过嵌入向量获取模块1706执行S1306。计算机设备可通过语言学编码数据解码模块1708执行S1308。计算机设备可通过调整模块1710执行S1310。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,计算机程序被处理器执行时,使得处理器执行以下步骤:获取训练语言学数据和相应的训练语音数据;通过第一编码器对训练语言学数据编码,得到第一训练语言学编码数据;获取用于语音特征转换的训练嵌入向量;所述训练嵌入向量,根据对应相同训练语言学数据的训练合成语音数据和训练语音数据之间的残差生成;通过第一解码器,根据所述训练嵌入向量对所述第一训练语言学编码数据进行解码,获得经过语音特征转换的预测目标合成语音数据;根据所述预测目标合成语音数据和训练语音数据间的差异,调整所述第一编码器和所述第一解码器,并继续训练,直至满足训练停止条件。
在一个实施例中,计算机程序被处理器执行时,使得处理器还执行以下步骤:通过第二编码器将训练语言学数据编码,得到第二训练语言学编码数据;通过第二解码器对第二训练语言学编码数据解码,得到训练合成语音数据;通过残差模型,并根据训练合成语音数据和所述训练语音数据之间的残差生成训练嵌入向量;计算机程序被处理器执行根据所述预测目标合成语音数据和训练语音数据间的差异,调整所述第一编码器和所述第一解码器,并继续训练,直至满足训练停止条件的步骤时,使得处理器具体执行以下步骤:根据所述预测目标合成语音数据和训练语音数据间的差异,调整所述第二编码器、所述第二解码器、所述残差模型、所述第一编码器和所述第一解码器,并继续训练,直至满足训练停止条件。
在一个实施例中,提供了一种计算机可读存储介质,存储有计算机程序,计算机程序被处理器执行时,使得处理器执行以下步骤:获取训练语言学数据和相应的训练语音数据;通过第一编码器对训练语言学数据编码,得到第一训练语言学编码数据;获取用于语音特征转换的训练嵌入向量;所述训练嵌入向量,根据对应相同训练语言学数据的训练合成语音数据和训练语音数据之间的残差生成;通过第一解码器,根据所述训练嵌入向量对所述第一训练语言学编码数据进行解码,获得经过语音特征转换的预测目标合成语音数据;根据所述预测目标合成语音数据和训练语音数据间的差异,调整所述第一编码器和所述第一解码器,并继续训练,直至满足训练停止条件。
在一个实施例中,计算机程序被处理器执行时,使得处理器还执行以下步骤:通过第二编码器将训练语言学数据编码,得到第二训练语言学编码数据;通过第二解码器对第二训练语言学编码数据解码,得到训练合成语音数据;通过残差模型,并根据训练合成语音数据和所述训练语音数据之间的残差生成训练嵌入向量;计算机程序被处理器执行根据所述预测目标合成语音数据和训练语音数据间的差异,调整所述第一编码器和所述第一解码器,并继续训练,直至满足训练停止条件的步骤时,使得处理器具体执行以下步骤:根据所述预测目标合成语音数据和训练语音数据间的差异,调整所述第二编码器、所述第二解码器、所述残差模型、所述第一编码器和所述第一解码器,并继续训练,直至满足训练停止条件。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (15)

1.一种语音合成方法,包括:
获取待处理的语言学数据;
对所述语言学数据编码,得到语言学编码数据;
获取用于语音特征转换的嵌入向量;所述嵌入向量,根据对应相同参考语言学数据的参考合成语音数据和参考语音数据之间的残差生成;
根据所述嵌入向量对所述语言学编码数据进行解码,获得经过语音特征转换的目标合成语音数据。
2.根据权利要求1所述的方法,其特征在于,还包括:
获取参考语言学数据和相应的参考语音数据;
对所述参考语言学数据编码,得到参考语言学编码数据;
解码所述参考语言学编码数据,得到参考合成语音数据;
根据所述参考语音数据和所述参考合成语音数据间的残差,确定用于语音特征转换的嵌入向量。
3.根据权利要求2所述的方法,其特征在于,所述根据所述参考语音数据和所述参考合成语音数据间的残差,确定用于语音特征转换的嵌入向量包括:
确定所述参考语音数据和所述参考合成语音数据间的残差;
通过残差模型处理所述残差;
根据所述残差模型中前向运算的结果和后向运算的结果,生成用于语音特征转换的嵌入向量。
4.根据权利要求3所述的方法,其特征在于,所述根据所述残差模型中前向运算的结果和后向运算的结果,生成用于语音特征转换的嵌入向量包括:
获取所述残差模型中前向门循环单元层进行前向运算时在最后一个时间步输出的第一向量;
获取所述残差模型中后向门循环单元层进行后向运算时在第一个时间步输出的第二向量;
将所述第一向量和所述第二向量叠加,获得用于语音特征转换的嵌入向量。
5.根据权利要求3所述的方法,其特征在于,所述通过残差模型处理所述残差包括:
通过残差模型处理所述残差中的全连接层,依次通过所述全连接层、前向门循环单元层和后向门循环单元层进行处理。
6.根据权利要求1至5中任一项所述的方法,其特征在于,所述语言学编码数据通过第一编码器进行编码得到;所述目标合成语音数据通过第一解码器进行解码得到;还包括:
获取训练语言学数据和相应的训练语音数据;
通过第一编码器对训练语言学数据编码,得到第一训练语言学编码数据;
获取用于语音特征转换的训练嵌入向量;所述训练嵌入向量,根据对应相同训练语言学数据的训练合成语音数据和训练语音数据之间的残差生成;
通过第一解码器,根据所述训练嵌入向量对所述第一训练语言学编码数据进行解码,获得经过语音特征转换的预测目标合成语音数据;
根据所述预测目标合成语音数据和训练语音数据间的差异,调整所述第一编码器和所述第一解码器,并继续训练,直至满足训练停止条件。
7.根据权利要求2至5任一项所述的方法,其特征在于,所述语言学编码数据通过第一编码器进行编码得到;所述目标合成语音数据通过第一解码器进行解码得到;所述参考语言学编码数据通过第二编码器进行编码得到;所述参考合成语音数据通过第二解码器进行解码得到;所述嵌入向量通过残差模型得到。
8.根据权利要求7所述的方法,其特征在于,还包括:
获取训练语言学数据和相应的训练语音数据;
通过第二编码器将训练语言学数据编码,得到第二训练语言学编码数据;
通过第二解码器对第二训练语言学编码数据解码,得到训练合成语音数据;
通过残差模型,并根据训练合成语音数据和所述训练语音数据之间的残差生成训练嵌入向量;
根据所述训练嵌入向量对第一训练语言学编码数据进行解码,获得经过语音特征转换的预测目标合成语音数据;
根据所述预测目标合成语音数据和训练语音数据间的差异,调整所述第二编码器、所述第二解码器、所述残差模型、所述第一编码器和所述第一解码器,并继续训练,直至满足训练停止条件。
9.根据权利要求1至5任一项所述的方法,其特征在于,所述根据所述嵌入向量对所述语言学编码数据进行解码,获得经过语音特征转换的目标合成语音数据包括:
将所述语言学编码数据和所述嵌入向量拼接,得到拼接向量;
对所述拼接向量进行解码,得到经过语音特征转换的目标合成语音数据。
10.根据权利要求1至5任一项所述的方法,其特征在于,还包括:
确定与所述目标合成语音数据对应的语音幅度谱;
将语音幅度谱转换为时域的语音波形信号;
根据所述语音波形生成语音。
11.一种模型训练方法,包括:
获取训练语言学数据和相应的训练语音数据;
通过第一编码器对训练语言学数据编码,得到第一训练语言学编码数据;
获取用于语音特征转换的训练嵌入向量;所述训练嵌入向量,根据对应相同训练语言学数据的训练合成语音数据和训练语音数据之间的残差生成;
通过第一解码器,根据所述训练嵌入向量对所述第一训练语言学编码数据进行解码,获得经过语音特征转换的预测目标合成语音数据;
根据所述预测目标合成语音数据和训练语音数据间的差异,调整所述第一编码器和所述第一解码器,并继续训练,直至满足训练停止条件。
12.根据权利要求11所述的方法,其特征在于,还包括:
通过第二编码器将训练语言学数据编码,得到第二训练语言学编码数据;
通过第二解码器对第二训练语言学编码数据解码,得到训练合成语音数据;
通过残差模型,并根据训练合成语音数据和所述训练语音数据之间的残差生成训练嵌入向量;
所述根据所述预测目标合成语音数据和训练语音数据间的差异,调整所述第一编码器和所述第一解码器,并继续训练,直至满足训练停止条件包括:
根据所述预测目标合成语音数据和训练语音数据间的差异,调整所述第二编码器、所述第二解码器、所述残差模型、所述第一编码器和所述第一解码器,并继续训练,直至满足训练停止条件。
13.一种语音合成装置,包括:
语言学数据获取模块,用于获取待处理的语言学数据;
语言学数据编码模块,用于对所述语言学数据编码,得到语言学编码数据;
嵌入向量获取模块,用于获取用于语音特征转换的嵌入向量;所述嵌入向量,根据对应相同参考语言学数据的参考合成语音数据和参考语音数据之间的残差生成;
语言学编码数据解码模块,用于根据所述嵌入向量对所述语言学编码数据进行解码,获得经过语音特征转换的目标合成语音数据。
14.一种模型训练装置,包括:
训练语音数据获取模块,用于获取训练语言学数据和相应的训练语音数据;
训练语言学数据编码模块,用于通过第一编码器对训练语言学数据编码,得到第一训练语言学编码数据;
训练嵌入向量获取模块,用于获取用于语音特征转换的训练嵌入向量;所述训练嵌入向量,根据对应相同训练语言学数据的训练合成语音数据和训练语音数据之间的残差生成;
训练语言学编码数据解码模块,用于通过第一解码器,根据所述训练嵌入向量对所述第一训练语言学编码数据进行解码,获得经过语音特征转换的预测目标合成语音数据;
调整模块,用于根据所述预测目标合成语音数据和训练语音数据间的差异,调整所述第一编码器和所述第一解码器,并继续训练,直至满足训练停止条件。
15.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如权利要求1至12中任一项所述方法的步骤。
CN201810828220.1A 2018-07-25 2018-07-25 语音合成方法、模型训练方法、装置和计算机设备 Active CN109036375B (zh)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201810828220.1A CN109036375B (zh) 2018-07-25 2018-07-25 语音合成方法、模型训练方法、装置和计算机设备
TW108119775A TWI732225B (zh) 2018-07-25 2019-06-06 語音合成方法、模型訓練方法、裝置和電腦設備
PCT/CN2019/090493 WO2020019885A1 (zh) 2018-07-25 2019-06-10 语音合成方法、模型训练方法、装置和计算机设备
EP19840536.7A EP3742436A4 (en) 2018-07-25 2019-06-10 SPEECH SYNTHESIS METHOD, MODEL TRAINING METHOD, DEVICE AND COMPUTER DEVICE
US16/999,989 US12014720B2 (en) 2018-07-25 2020-08-21 Voice synthesis method, model training method, device and computer device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810828220.1A CN109036375B (zh) 2018-07-25 2018-07-25 语音合成方法、模型训练方法、装置和计算机设备

Publications (2)

Publication Number Publication Date
CN109036375A true CN109036375A (zh) 2018-12-18
CN109036375B CN109036375B (zh) 2023-03-24

Family

ID=64645210

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810828220.1A Active CN109036375B (zh) 2018-07-25 2018-07-25 语音合成方法、模型训练方法、装置和计算机设备

Country Status (5)

Country Link
US (1) US12014720B2 (zh)
EP (1) EP3742436A4 (zh)
CN (1) CN109036375B (zh)
TW (1) TWI732225B (zh)
WO (1) WO2020019885A1 (zh)

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109754779A (zh) * 2019-01-14 2019-05-14 出门问问信息科技有限公司 可控情感语音合成方法、装置、电子设备及可读存储介质
CN109754778A (zh) * 2019-01-17 2019-05-14 平安科技(深圳)有限公司 文本的语音合成方法、装置和计算机设备
CN109767755A (zh) * 2019-03-01 2019-05-17 广州多益网络股份有限公司 一种语音合成方法和***
CN110070852A (zh) * 2019-04-26 2019-07-30 平安科技(深圳)有限公司 合成中文语音的方法、装置、设备及存储介质
CN110264991A (zh) * 2019-05-20 2019-09-20 平安科技(深圳)有限公司 语音合成模型的训练方法、语音合成方法、装置、设备及存储介质
CN110288973A (zh) * 2019-05-20 2019-09-27 平安科技(深圳)有限公司 语音合成方法、装置、设备及计算机可读存储介质
CN110288972A (zh) * 2019-08-07 2019-09-27 北京新唐思创教育科技有限公司 语音合成模型训练方法、语音合成方法及装置
CN110299131A (zh) * 2019-08-01 2019-10-01 苏州奇梦者网络科技有限公司 一种可控制韵律情感的语音合成方法、装置、存储介质
CN110457661A (zh) * 2019-08-16 2019-11-15 腾讯科技(深圳)有限公司 自然语言生成方法、装置、设备及存储介质
CN110534084A (zh) * 2019-08-06 2019-12-03 广州探迹科技有限公司 一种基于FreeSWITCH的智能语音控制方法及***
WO2020019885A1 (zh) * 2018-07-25 2020-01-30 腾讯科技(深圳)有限公司 语音合成方法、模型训练方法、装置和计算机设备
CN110808027A (zh) * 2019-11-05 2020-02-18 腾讯科技(深圳)有限公司 语音合成方法、装置以及新闻播报方法、***
CN110992926A (zh) * 2019-12-26 2020-04-10 标贝(北京)科技有限公司 语音合成方法、装置、***和存储介质
CN111145720A (zh) * 2020-02-04 2020-05-12 清华珠三角研究院 一种将文本转换成语音的方法、***、装置和存储介质
CN111161702A (zh) * 2019-12-23 2020-05-15 爱驰汽车有限公司 个性化语音合成方法、装置、电子设备、存储介质
CN111325817A (zh) * 2020-02-04 2020-06-23 清华珠三角研究院 一种虚拟人物场景视频的生成方法、终端设备及介质
CN111508509A (zh) * 2020-04-02 2020-08-07 广东九联科技股份有限公司 基于深度学习的声音质量处理***及其方法
CN111583900A (zh) * 2020-04-27 2020-08-25 北京字节跳动网络技术有限公司 歌曲合成方法、装置、可读介质及电子设备
CN111710326A (zh) * 2020-06-12 2020-09-25 携程计算机技术(上海)有限公司 英文语音的合成方法及***、电子设备及存储介质
CN111785248A (zh) * 2020-03-12 2020-10-16 北京京东尚科信息技术有限公司 文本信息处理方法及装置
CN111862931A (zh) * 2020-05-08 2020-10-30 北京嘀嘀无限科技发展有限公司 一种语音生成方法及装置
CN111899716A (zh) * 2020-08-03 2020-11-06 北京帝派智能科技有限公司 一种语音合成方法和***
WO2020248393A1 (zh) * 2019-06-14 2020-12-17 平安科技(深圳)有限公司 语音合成方法、***、终端设备和可读存储介质
CN112289297A (zh) * 2019-07-25 2021-01-29 阿里巴巴集团控股有限公司 语音合成方法、装置和***
CN112365880A (zh) * 2020-11-05 2021-02-12 北京百度网讯科技有限公司 语音合成方法、装置、电子设备及存储介质
CN112382272A (zh) * 2020-12-11 2021-02-19 平安科技(深圳)有限公司 可控制语音速度的语音合成方法、装置、设备及存储介质
WO2021051765A1 (zh) * 2019-09-17 2021-03-25 北京京东尚科信息技术有限公司 一种语音合成方法及装置、存储介质
CN112614479A (zh) * 2020-11-26 2021-04-06 北京百度网讯科技有限公司 训练数据的处理方法、装置及电子设备
CN112634856A (zh) * 2020-12-10 2021-04-09 苏州思必驰信息科技有限公司 语音合成模型训练方法和语音合成方法
CN112669841A (zh) * 2020-12-18 2021-04-16 平安科技(深圳)有限公司 多语种语音的生成模型的训练方法、装置及计算机设备
CN112712788A (zh) * 2020-12-24 2021-04-27 北京达佳互联信息技术有限公司 语音合成方法、语音合成模型的训练方法及装置
CN112786001A (zh) * 2019-11-11 2021-05-11 北京地平线机器人技术研发有限公司 语音合成模型训练方法、语音合成方法和装置
CN112885326A (zh) * 2019-11-29 2021-06-01 阿里巴巴集团控股有限公司 个性化语音合成模型创建、语音合成和测试方法及装置
CN113053353A (zh) * 2021-03-10 2021-06-29 重庆度小满优扬科技有限公司 一种语音合成模型的训练方法及装置
CN113450756A (zh) * 2020-03-13 2021-09-28 Tcl科技集团股份有限公司 一种语音合成模型的训练方法及一种语音合成方法
CN114120973A (zh) * 2022-01-29 2022-03-01 成都启英泰伦科技有限公司 一种语音语料生成***训练方法
WO2022252957A1 (zh) * 2021-05-29 2022-12-08 华为技术有限公司 音频数据编解码方法和相关装置及计算机可读存储介质
CN117765926A (zh) * 2024-02-19 2024-03-26 上海蜜度科技股份有限公司 语音合成方法、***、电子设备及介质

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200015418A (ko) * 2018-08-02 2020-02-12 네오사피엔스 주식회사 순차적 운율 특징을 기초로 기계학습을 이용한 텍스트-음성 합성 방법, 장치 및 컴퓨터 판독가능한 저장매체
US11410684B1 (en) * 2019-06-04 2022-08-09 Amazon Technologies, Inc. Text-to-speech (TTS) processing with transfer of vocal characteristics
CN114303186A (zh) * 2019-08-21 2022-04-08 杜比实验室特许公司 用于在语音合成中适配人类说话者嵌入的***和方法
CN111259148B (zh) * 2020-01-19 2024-03-26 北京小米松果电子有限公司 信息处理方法、装置及存储介质
US11514888B2 (en) * 2020-08-13 2022-11-29 Google Llc Two-level speech prosody transfer
CN112802450B (zh) * 2021-01-05 2022-11-18 杭州一知智能科技有限公司 一种韵律可控的中英文混合的语音合成方法及其***
CN112951200B (zh) * 2021-01-28 2024-03-12 北京达佳互联信息技术有限公司 语音合成模型的训练方法、装置、计算机设备及存储介质
CN112992177B (zh) * 2021-02-20 2023-10-17 平安科技(深圳)有限公司 语音风格迁移模型的训练方法、装置、设备及存储介质
CN113345412A (zh) * 2021-05-31 2021-09-03 平安科技(深圳)有限公司 语音合成方法、装置、设备以及存储介质
CN115272537A (zh) * 2021-08-06 2022-11-01 宿迁硅基智能科技有限公司 基于因果卷积的音频驱动表情方法及装置
CN113838453B (zh) * 2021-08-17 2022-06-28 北京百度网讯科技有限公司 语音处理方法、装置、设备和计算机存储介质
CN113707125B (zh) * 2021-08-30 2024-02-27 中国科学院声学研究所 一种多语言语音合成模型的训练方法及装置
CN116741149B (zh) * 2023-06-08 2024-05-14 北京家瑞科技有限公司 跨语言语音转换方法、训练方法及相关装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103680491A (zh) * 2012-09-10 2014-03-26 财团法人交大思源基金会 语速相依韵律讯息产生装置及语速相依的阶层式韵律模块
US20140222421A1 (en) * 2013-02-05 2014-08-07 National Chiao Tung University Streaming encoder, prosody information encoding device, prosody-analyzing device, and device and method for speech synthesizing
CN105529023A (zh) * 2016-01-25 2016-04-27 百度在线网络技术(北京)有限公司 语音合成方法和装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69232112T2 (de) * 1991-11-12 2002-03-14 Fujitsu Ltd Vorrichtung zur Sprachsynthese
JP3404016B2 (ja) * 2000-12-26 2003-05-06 三菱電機株式会社 音声符号化装置及び音声符号化方法
US7805308B2 (en) * 2007-01-19 2010-09-28 Microsoft Corporation Hidden trajectory modeling with differential cepstra for speech recognition
US8886537B2 (en) * 2007-03-20 2014-11-11 Nuance Communications, Inc. Method and system for text-to-speech synthesis with personalized voice
CN101359473A (zh) * 2007-07-30 2009-02-04 国际商业机器公司 自动进行语音转换的方法和装置
DK2242045T3 (da) * 2009-04-16 2012-09-24 Univ Mons Talesyntese og kodningsfremgangsmåder
US8731931B2 (en) * 2010-06-18 2014-05-20 At&T Intellectual Property I, L.P. System and method for unit selection text-to-speech using a modified Viterbi approach
US20160111107A1 (en) * 2014-10-21 2016-04-21 Mitsubishi Electric Research Laboratories, Inc. Method for Enhancing Noisy Speech using Features from an Automatic Speech Recognition System
CN106157948B (zh) * 2015-04-22 2019-10-18 科大讯飞股份有限公司 一种基频建模方法及***
JP6523893B2 (ja) * 2015-09-16 2019-06-05 株式会社東芝 学習装置、音声合成装置、学習方法、音声合成方法、学習プログラム及び音声合成プログラム
RU2632424C2 (ru) * 2015-09-29 2017-10-04 Общество С Ограниченной Ответственностью "Яндекс" Способ и сервер для синтеза речи по тексту
JP6784022B2 (ja) 2015-12-18 2020-11-11 ヤマハ株式会社 音声合成方法、音声合成制御方法、音声合成装置、音声合成制御装置およびプログラム
US10249289B2 (en) * 2017-03-14 2019-04-02 Google Llc Text-to-speech synthesis using an autoencoder
WO2018167522A1 (en) * 2017-03-14 2018-09-20 Google Llc Speech synthesis unit selection
CN107293288B (zh) * 2017-06-09 2020-04-21 清华大学 一种残差长短期记忆循环神经网络的声学模型建模方法
EP3619620A4 (en) * 2017-06-26 2020-11-18 Microsoft Technology Licensing, LLC GENERATION OF RESPONSES IN AN AUTOMATED ONLINE CONVERSATION
CN108091321B (zh) * 2017-11-06 2021-07-16 芋头科技(杭州)有限公司 一种语音合成方法
CN109036375B (zh) * 2018-07-25 2023-03-24 腾讯科技(深圳)有限公司 语音合成方法、模型训练方法、装置和计算机设备

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103680491A (zh) * 2012-09-10 2014-03-26 财团法人交大思源基金会 语速相依韵律讯息产生装置及语速相依的阶层式韵律模块
US20140222421A1 (en) * 2013-02-05 2014-08-07 National Chiao Tung University Streaming encoder, prosody information encoding device, prosody-analyzing device, and device and method for speech synthesizing
CN105529023A (zh) * 2016-01-25 2016-04-27 百度在线网络技术(北京)有限公司 语音合成方法和装置

Cited By (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020019885A1 (zh) * 2018-07-25 2020-01-30 腾讯科技(深圳)有限公司 语音合成方法、模型训练方法、装置和计算机设备
US12014720B2 (en) 2018-07-25 2024-06-18 Tencent Technology (Shenzhen) Company Limited Voice synthesis method, model training method, device and computer device
CN109754779A (zh) * 2019-01-14 2019-05-14 出门问问信息科技有限公司 可控情感语音合成方法、装置、电子设备及可读存储介质
CN109754778A (zh) * 2019-01-17 2019-05-14 平安科技(深圳)有限公司 文本的语音合成方法、装置和计算机设备
WO2020147404A1 (zh) * 2019-01-17 2020-07-23 平安科技(深圳)有限公司 文本的语音合成方法、装置、计算机设备及计算机非易失性可读存储介质
US11620980B2 (en) 2019-01-17 2023-04-04 Ping An Technology (Shenzhen) Co., Ltd. Text-based speech synthesis method, computer device, and non-transitory computer-readable storage medium
CN109754778B (zh) * 2019-01-17 2023-05-30 平安科技(深圳)有限公司 文本的语音合成方法、装置和计算机设备
CN109767755A (zh) * 2019-03-01 2019-05-17 广州多益网络股份有限公司 一种语音合成方法和***
CN110070852A (zh) * 2019-04-26 2019-07-30 平安科技(深圳)有限公司 合成中文语音的方法、装置、设备及存储介质
CN110070852B (zh) * 2019-04-26 2023-06-16 平安科技(深圳)有限公司 合成中文语音的方法、装置、设备及存储介质
CN110264991A (zh) * 2019-05-20 2019-09-20 平安科技(深圳)有限公司 语音合成模型的训练方法、语音合成方法、装置、设备及存储介质
CN110288973A (zh) * 2019-05-20 2019-09-27 平安科技(深圳)有限公司 语音合成方法、装置、设备及计算机可读存储介质
CN110288973B (zh) * 2019-05-20 2024-03-29 平安科技(深圳)有限公司 语音合成方法、装置、设备及计算机可读存储介质
CN110264991B (zh) * 2019-05-20 2023-12-22 平安科技(深圳)有限公司 语音合成模型的训练方法、语音合成方法、装置、设备及存储介质
WO2020248393A1 (zh) * 2019-06-14 2020-12-17 平安科技(深圳)有限公司 语音合成方法、***、终端设备和可读存储介质
CN112289297A (zh) * 2019-07-25 2021-01-29 阿里巴巴集团控股有限公司 语音合成方法、装置和***
CN110299131B (zh) * 2019-08-01 2021-12-10 苏州奇梦者网络科技有限公司 一种可控制韵律情感的语音合成方法、装置、存储介质
CN110299131A (zh) * 2019-08-01 2019-10-01 苏州奇梦者网络科技有限公司 一种可控制韵律情感的语音合成方法、装置、存储介质
CN110534084A (zh) * 2019-08-06 2019-12-03 广州探迹科技有限公司 一种基于FreeSWITCH的智能语音控制方法及***
CN110534084B (zh) * 2019-08-06 2022-05-13 广州探迹科技有限公司 一种基于FreeSWITCH的智能语音控制方法及***
CN110288972B (zh) * 2019-08-07 2021-08-13 北京新唐思创教育科技有限公司 语音合成模型训练方法、语音合成方法及装置
CN110288972A (zh) * 2019-08-07 2019-09-27 北京新唐思创教育科技有限公司 语音合成模型训练方法、语音合成方法及装置
CN110457661A (zh) * 2019-08-16 2019-11-15 腾讯科技(深圳)有限公司 自然语言生成方法、装置、设备及存储介质
CN110457661B (zh) * 2019-08-16 2023-06-20 腾讯科技(深圳)有限公司 自然语言生成方法、装置、设备及存储介质
WO2021051765A1 (zh) * 2019-09-17 2021-03-25 北京京东尚科信息技术有限公司 一种语音合成方法及装置、存储介质
JP7238204B2 (ja) 2019-09-17 2023-03-13 北京京▲東▼尚科信息技▲術▼有限公司 音声合成方法及び装置、記憶媒体
JP2022539914A (ja) * 2019-09-17 2022-09-13 北京京▲東▼尚科信息技▲術▼有限公司 音声合成方法及び装置、記憶媒体
KR20220054655A (ko) * 2019-09-17 2022-05-03 베이징 징동 샹케 인포메이션 테크놀로지 씨오. 엘티디. 음성 합성 방법 및 장치, 저장 매체
KR102584299B1 (ko) * 2019-09-17 2023-09-27 베이징 징동 샹케 인포메이션 테크놀로지 씨오. 엘티디. 음성 합성 방법 및 장치, 저장 매체
CN110808027A (zh) * 2019-11-05 2020-02-18 腾讯科技(深圳)有限公司 语音合成方法、装置以及新闻播报方法、***
CN112786001B (zh) * 2019-11-11 2024-04-09 北京地平线机器人技术研发有限公司 语音合成模型训练方法、语音合成方法和装置
CN112786001A (zh) * 2019-11-11 2021-05-11 北京地平线机器人技术研发有限公司 语音合成模型训练方法、语音合成方法和装置
CN112885326A (zh) * 2019-11-29 2021-06-01 阿里巴巴集团控股有限公司 个性化语音合成模型创建、语音合成和测试方法及装置
CN111161702A (zh) * 2019-12-23 2020-05-15 爱驰汽车有限公司 个性化语音合成方法、装置、电子设备、存储介质
CN110992926A (zh) * 2019-12-26 2020-04-10 标贝(北京)科技有限公司 语音合成方法、装置、***和存储介质
CN110992926B (zh) * 2019-12-26 2022-06-10 标贝(北京)科技有限公司 语音合成方法、装置、***和存储介质
CN111325817A (zh) * 2020-02-04 2020-06-23 清华珠三角研究院 一种虚拟人物场景视频的生成方法、终端设备及介质
CN111145720B (zh) * 2020-02-04 2022-06-21 清华珠三角研究院 一种将文本转换成语音的方法、***、装置和存储介质
CN111145720A (zh) * 2020-02-04 2020-05-12 清华珠三角研究院 一种将文本转换成语音的方法、***、装置和存储介质
CN111325817B (zh) * 2020-02-04 2023-07-18 清华珠三角研究院 一种虚拟人物场景视频的生成方法、终端设备及介质
CN111785248B (zh) * 2020-03-12 2023-06-23 北京汇钧科技有限公司 文本信息处理方法及装置
CN111785248A (zh) * 2020-03-12 2020-10-16 北京京东尚科信息技术有限公司 文本信息处理方法及装置
CN113450756A (zh) * 2020-03-13 2021-09-28 Tcl科技集团股份有限公司 一种语音合成模型的训练方法及一种语音合成方法
CN111508509A (zh) * 2020-04-02 2020-08-07 广东九联科技股份有限公司 基于深度学习的声音质量处理***及其方法
CN111583900A (zh) * 2020-04-27 2020-08-25 北京字节跳动网络技术有限公司 歌曲合成方法、装置、可读介质及电子设备
CN111583900B (zh) * 2020-04-27 2022-01-07 北京字节跳动网络技术有限公司 歌曲合成方法、装置、可读介质及电子设备
CN111862931A (zh) * 2020-05-08 2020-10-30 北京嘀嘀无限科技发展有限公司 一种语音生成方法及装置
CN111710326B (zh) * 2020-06-12 2024-01-23 携程计算机技术(上海)有限公司 英文语音的合成方法及***、电子设备及存储介质
CN111710326A (zh) * 2020-06-12 2020-09-25 携程计算机技术(上海)有限公司 英文语音的合成方法及***、电子设备及存储介质
CN111899716A (zh) * 2020-08-03 2020-11-06 北京帝派智能科技有限公司 一种语音合成方法和***
CN112365880B (zh) * 2020-11-05 2024-03-26 北京百度网讯科技有限公司 语音合成方法、装置、电子设备及存储介质
CN112365880A (zh) * 2020-11-05 2021-02-12 北京百度网讯科技有限公司 语音合成方法、装置、电子设备及存储介质
CN112614479A (zh) * 2020-11-26 2021-04-06 北京百度网讯科技有限公司 训练数据的处理方法、装置及电子设备
CN112614479B (zh) * 2020-11-26 2022-03-25 北京百度网讯科技有限公司 训练数据的处理方法、装置及电子设备
CN112634856A (zh) * 2020-12-10 2021-04-09 苏州思必驰信息科技有限公司 语音合成模型训练方法和语音合成方法
CN112382272B (zh) * 2020-12-11 2023-05-23 平安科技(深圳)有限公司 可控制语音速度的语音合成方法、装置、设备及存储介质
CN112382272A (zh) * 2020-12-11 2021-02-19 平安科技(深圳)有限公司 可控制语音速度的语音合成方法、装置、设备及存储介质
CN112669841A (zh) * 2020-12-18 2021-04-16 平安科技(深圳)有限公司 多语种语音的生成模型的训练方法、装置及计算机设备
CN112669841B (zh) * 2020-12-18 2024-07-02 平安科技(深圳)有限公司 多语种语音的生成模型的训练方法、装置及计算机设备
CN112712788A (zh) * 2020-12-24 2021-04-27 北京达佳互联信息技术有限公司 语音合成方法、语音合成模型的训练方法及装置
CN113053353B (zh) * 2021-03-10 2022-10-04 度小满科技(北京)有限公司 一种语音合成模型的训练方法及装置
CN113053353A (zh) * 2021-03-10 2021-06-29 重庆度小满优扬科技有限公司 一种语音合成模型的训练方法及装置
WO2022252957A1 (zh) * 2021-05-29 2022-12-08 华为技术有限公司 音频数据编解码方法和相关装置及计算机可读存储介质
CN114120973B (zh) * 2022-01-29 2022-04-08 成都启英泰伦科技有限公司 一种语音语料生成***训练方法
CN114120973A (zh) * 2022-01-29 2022-03-01 成都启英泰伦科技有限公司 一种语音语料生成***训练方法
CN117765926A (zh) * 2024-02-19 2024-03-26 上海蜜度科技股份有限公司 语音合成方法、***、电子设备及介质
CN117765926B (zh) * 2024-02-19 2024-05-14 上海蜜度科技股份有限公司 语音合成方法、***、电子设备及介质

Also Published As

Publication number Publication date
TW202008348A (zh) 2020-02-16
EP3742436A4 (en) 2021-05-19
TWI732225B (zh) 2021-07-01
EP3742436A1 (en) 2020-11-25
WO2020019885A1 (zh) 2020-01-30
US12014720B2 (en) 2024-06-18
CN109036375B (zh) 2023-03-24
US20200380949A1 (en) 2020-12-03

Similar Documents

Publication Publication Date Title
CN109036375A (zh) 语音合成方法、模型训练方法、装置和计算机设备
Kenter et al. CHiVE: Varying prosody in speech synthesis with a linguistically driven dynamic hierarchical conditional variational network
CN112735373B (zh) 语音合成方法、装置、设备及存储介质
JP7395792B2 (ja) 2レベル音声韻律転写
CN112037754B (zh) 一种语音合成训练数据的生成方法及相关设备
CN112687259B (zh) 一种语音合成方法、装置以及可读存储介质
CN108847249A (zh) 声音转换优化方法和***
JP7238204B2 (ja) 音声合成方法及び装置、記憶媒体
US20220277728A1 (en) Paragraph synthesis with cross utterance features for neural TTS
CN111179905A (zh) 一种快速配音生成方法及装置
Siuzdak et al. WavThruVec: Latent speech representation as intermediate features for neural speech synthesis
Sterpu et al. How to teach DNNs to pay attention to the visual modality in speech recognition
CN113920977A (zh) 一种语音合成模型、模型的训练方法以及语音合成方法
CN112837669B (zh) 语音合成方法、装置及服务器
CN113470622B (zh) 一种可将任意语音转换成多个语音的转换方法及装置
CN113539232B (zh) 一种基于慕课语音数据集的语音合成方法
Chen et al. Speech bert embedding for improving prosody in neural tts
CN115761075A (zh) 脸部图像生成方法及其装置、设备、介质、产品
CN111627420A (zh) 极低资源下的特定发音人情感语音合成方法及装置
CN111930900A (zh) 标准发音生成方法及相关装置
Park et al. Phonemic-level duration control using attention alignment for natural speech synthesis
Xue et al. Foundationtts: Text-to-speech for asr customization with generative language model
CN109616127A (zh) 一种音频数据融合方法
CN112908293B (zh) 一种基于语义注意力机制的多音字发音纠错方法及装置
Zhang et al. AccentSpeech: Learning accent from crowd-sourced data for target speaker TTS with accents

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant