CN116682411A - 语音合成方法、语音合成***、电子设备及存储介质 - Google Patents

语音合成方法、语音合成***、电子设备及存储介质 Download PDF

Info

Publication number
CN116682411A
CN116682411A CN202310636076.2A CN202310636076A CN116682411A CN 116682411 A CN116682411 A CN 116682411A CN 202310636076 A CN202310636076 A CN 202310636076A CN 116682411 A CN116682411 A CN 116682411A
Authority
CN
China
Prior art keywords
sample
emotion
voice
feature
sentence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310636076.2A
Other languages
English (en)
Inventor
郭洋
王健宗
程宁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN202310636076.2A priority Critical patent/CN116682411A/zh
Publication of CN116682411A publication Critical patent/CN116682411A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • G10L13/047Architecture of speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Machine Translation (AREA)

Abstract

本申请实施例提供了一种语音合成方法、语音合成***、电子设备及存储介质,属于金融科技技术领域。该方法包括:获取样本语音文本的样本音素序列;通过文本编码模块对样本音素序列进行编码得到音素编码特征;根据全局识别模块得到样本音素序列的全局情感特征;根据句级识别模块得到样本初始语音的情感变换特征;根据音素编码特征、全局情感特征和情感变换特征确定目标样本特征;通过语音合成模块对目标样本特征进行语音合成得到预测合成语音;根据样本初始语音和预测合成语音对模型的参数进行调整得到情感语音合成模型;将目标语音文本输入至情感语音合成模型合成得到目标合成语音。本申请实施例能够生成情感表现更丰富的高质量合成语音。

Description

语音合成方法、语音合成***、电子设备及存储介质
技术领域
本申请涉及金融科技技术领域,尤其涉及一种语音合成方法、语音合成***、电子设备及存储介质。
背景技术
语音合成是一种能够将指定文本转换为目标说话人合成语音的技术。随着智能语音技术在金融科技的语音交互、信息播报、有声朗读、智能销售等任务场景中的广泛使用,目标对象对于语音合成的效果要求越来越高。随着深度学***均的情感表达,而无法传递语音中对于情感的细微风格变化,从而无法生成情感表现更丰富的高质量合成语音。因此,如何提供一种能够深度挖掘文本包含的细微情感信息,以生成情感表现更丰富的高质量合成语音,成为了亟待解决的技术问题。
发明内容
本申请实施例的主要目的在于提出了一种语音合成方法、语音合成***、电子设备及存储介质,能够深度挖掘文本包含的细微情感信息,以生成情感表现更丰富的高质量合成语音。
为实现上述目的,本申请实施例的第一方面提出了一种语音合成方法,所述方法包括:
获取样本数据,所述样本数据包括样本语音文本和所述样本语音文本的样本初始语音;
对所述样本语音文本进行文本转换,得到样本音素序列;
将所述样本数据输入至预设的初始语音合成模型,其中,所述初始语音合成模型包括文本编码模块、全局识别模块、句级识别模块和语音合成模块;
通过所述文本编码模块对所述样本音素序列进行编码处理,得到音素编码特征;
通过所述全局识别模块对所述样本音素序列进行情感识别处理,得到全局情感特征;
通过所述句级识别模块对所述样本初始语音进行情感特征提取,得到情感变换特征;
对所述音素编码特征、所述全局情感特征和所述情感变换特征进行特征拼接,得到目标样本特征;
通过所述语音合成模块对所述目标样本特征进行语音合成处理,得到预测合成语音;
根据所述样本初始语音和所述预测合成语音对所述初始语音合成模型进行参数调整,得到情感语音合成模型;
将待处理的目标语音文本输入至所述情感语音合成模型进行语音合成处理,得到目标合成语音。
在一些实施例中,所述通过所述全局识别模块对所述样本音素序列进行情感识别处理,得到全局情感特征,包括:
根据所述全局识别模块对所述样本音素序列进行情感识别处理,得到情感类别标签和所述情感类别标签的分类预测值;
根据所述情感类别标签从预设的情感向量查找表进行搜索,得到所述情感类别标签的情感嵌入向量;
根据所述分类预测值和所述情感嵌入向量进行加权计算,得到所述全局情感特征。
在一些实施例中,所述全局识别模块包括预训练模型和情感分类器,所述根据所述全局识别模块对所述样本音素序列进行情感识别处理,得到情感类别标签和所述情感类别标签的分类预测值,包括:
根据所述预训练模型对所述样本音素序列进行情感特征提取,得到样本预测特征;
根据所述情感分类器对所述样本预测特征进行情感分类预测,得到分类预测特征;
根据预设的激活函数对所述分类预测特征进行去线性化处理,得到所述情感类别标签和所述情感类别标签的所述分类预测值。
在一些实施例中,所述情感分类器包括多头注意力单元和全局卷积单元,所述根据所述情感分类器对所述样本预测特征进行情感分类预测,得到分类预测特征,包括:
根据所述多头注意力单元对所述样本预测特征进行自注意力处理,得到注意力特征;
对所述样本预测特征和所述注意力特征进行特征融合,得到注意力融合特征;
对所述注意力融合特征进行归一化处理,得到第一预测特征;
根据所述全局卷积单元对所述第一预测特征进行全局特征提取,得到全局卷积特征;
对所述第一预测特征和所述全局卷积特征进行特征融合,得到第二预测特征;
对所述第二预测特征进行归一化处理,得到所述分类预测特征。
在一些实施例中,所述句级识别模块包括句级编码器,所述通过所述句级识别模块对所述样本初始语音进行情感特征提取,得到情感变换特征,包括:
对所述样本初始语音进行音频转换,得到样本梅尔频谱;
通过所述句级编码器对所述样本梅尔频谱进行情感特征提取,得到句级隐藏特征;
对所述句级隐藏特征进行特征转换,得到情感变换特征。
在一些实施例中,所述句级识别模块还包括句级卷积单元、修正单元和特征映射单元,所述方法还包括:训练所述句级编码器,具体包括:
根据所述句级卷积单元对所述音素编码特征进行句级特征提取,得到句级卷积特征;
根据所述修正单元对所述句级卷积特征进行修正处理,得到修正特征;
根据所述特征映射单元对所述修正特征进行特征映射处理,得到句级预测特征;
根据预设损失函数对所述情感变换特征和所述句级预测特征进行损失计算,得到句级预测损失值;
根据所述句级预测损失值对预设的初始编码器进行参数调整,得到所述句级编码器。
在一些实施例中,所述语音合成模块包括先验编码器、后验编码器、时长预测器和解码器,所述通过所述语音合成模块对所述目标样本特征进行语音转换处理,得到预测合成语音,包括:
根据所述先验编码器对所述目标样本特征进行特征编码处理,得到先验编码特征;
对所述样本初始语音进行短时傅里叶变换,得到样本线性频谱;
根据所述后验编码器对所述样本线性频谱进行隐变量提取,得到样本隐变量特征;
根据所述时长预测器对所述目标样本特征进行音素时长提取,得到样本音素时长;
根据所述样本音素时长对所述样本隐变量特征和所述目标样本特征进行单调对齐搜索,确定目标对齐矩阵;
根据所述目标对齐矩阵和所述解码器对所述目标样本特征进行解码处理,得到所述预测合成语音。
为实现上述目的,本申请实施例的第二方面提出了一种语音合成***,所述***包括:
语音样本获取模块,用于获取样本数据,所述样本数据包括样本语音文本和所述样本语音文本的样本初始语音;
文本转换模块,用于对所述样本语音文本进行文本转换,得到样本音素序列;
模型输入模块,用于将所述样本数据输入至预设的初始语音合成模型,其中,所述初始语音合成模型包括文本编码模块、全局识别模块、句级识别模块和语音合成模块;
编码模块,用于通过所述文本编码模块对所述样本音素序列进行编码处理,得到音素编码特征;
全局情感识别模块,用于通过所述全局识别模块对所述样本音素序列进行情感识别处理,得到全局情感特征;
句级特征提取模块,用于通过所述句级识别模块对所述样本初始语音进行情感特征提取,得到情感变换特征;
特征拼接模块,用于对所述音素编码特征、所述全局情感特征和所述情感变换特征进行特征拼接,得到目标样本特征;
语音转换模块,用于通过所述语音合成模块对所述目标样本特征进行语音合成处理,得到预测合成语音;
参数调整模块,用于根据所述样本初始语音和所述预测合成语音对所述初始语音合成模型进行参数调整,得到情感语音合成模型;
语音合成模块,用于将待处理的目标语音文本输入至所述情感语音合成模型进行语音合成处理,得到目标合成语音。
为实现上述目的,本申请实施例的第三方面提出了一种电子设备,所述电子设备包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现如本申请实施例的第一方面提出的任一项所述的方法。
为实现上述目的,本申请实施例的第四方面还提出了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如本申请实施例的第一方面提出的任一项所述的方法。
本申请实施例提出的语音合成方法、语音合成***、电子设备及存储介质,首先,获取样本数据,该样本数据包括样本语音文本和样本语音文本的样本初始语音,该样本初始语音包含样本语音文本需要合成的语音情感信息。对样本语音文本进行文本转换,得到样本音素序列。将样本数据输入至预设的初始语音合成模型,该初始语音合成模型包括文本编码模块、全局识别模块、句级识别模块和语音合成模块。通过文本编码模块对样本音素序列进行编码处理,得到音素编码特征;通过全局识别模块对样本音素序列进行情感识别处理,得到全局情感特征;通过句级识别模块对样本初始语音进行情感特征提取,得到情感变换特征。然后,对音素编码特征、全局情感特征和情感变换特征进行特征拼接,得到目标样本特征。通过所述语音合成模块对所述目标样本特征进行语音合成处理,得到预测合成语音,该预测合成语音用于表示生成与样本初始语音的语音情感信息相同的合成语音。本申请实施例通过构建包括文本编码模块、全局识别模块、句级识别模块和语音合成模块的初始语音合成模型,使得在根据初始语音合成模型对样本数据进行语音合成时,能够深度挖掘文本包含的细微情感信息。通过样本初始语音和预测合成语音对初始语音合成模型进行参数调整,得到与初始语音合成模型结构相同,但能够生成情感表现更丰富的高质量合成语音的情感语音合成模型。由此可知,当根据本申请实施例提供的情感语音合成模型对目标语音文本进行语音合成处理时,能够深度挖掘文本中包含的细微情感信息,以生成情感表现更丰富的高质量合成语音。
附图说明
图1是本申请实施例提供的语音合成方法的第一流程图;
图2是图1中步骤S1050的具体方法的流程图;
图3是图2中步骤S210的具体方法的流程图;
图4是图3中步骤S320的具体方法的流程图;
图5是图1中步骤S1060的具体方法的流程图;
图6是本申请实施例提供的语音合成方法的第二流程图;
图7是图1中步骤S1080的具体方法的流程图;
图8是本申请实施例提供的语音合成***的模块结构框图;
图9是本申请实施例提供的电子设备的硬件结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
需要说明的是,虽然在装置示意图中进行了功能模块划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置中的模块划分,或流程图中的顺序执行所示出或描述的步骤。说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
首先,对本申请中涉及的若干名词进行解析:
人工智能(Artificial Intelligence,AI):是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用***的一门新的技术科学;人工智能是计算机科学的一个分支,人工智能企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家***等。人工智能可以对人的意识、思维的信息过程的模拟。人工智能还是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用***。
自然语言处理(Natural Language Processing,NLP):NLP用计算机来处理、理解以及运用人类语言(如中文、英文等),NLP属于人工智能的一个分支,是计算机科学与语言学的交叉学科,又常被称为计算语言学。自然语言处理包括语法分析、语义分析、篇章理解等。自然语言处理常用于机器翻译、手写体和印刷体字符识别、语音识别及文语转换、信息检索、信息抽取与过滤、文本分类与聚类、舆情分析和观点挖掘等技术领域,它涉及与语言处理相关的数据挖掘、机器学习、知识获取、知识工程、人工智能研究和与语言计算相关的语言学研究等。
语音合成(Text-To-Speech,TTS):TTS是一种从文本到语音的一种技术,TTS一般包括两个步骤:第一步是文本处理,主要是将文本转化成音素序列,并标出每个音素的起止时间、频率变化等信息;第二步是语音合成,主要是根据音素序列(以及标注好的起止时间、频率变化等信息)生成语音。
Transformer模型:广泛应用于自然语言处理领域,例如机器翻译,问答***,文本摘要和语音识别等等方向。
BERT(Bidirectional Encoder Representation from Transformers)模型:用于进一步增加词向量模型泛化能力,充分描述字符级、词级、句子级甚至句间关系特征,是基于Transformer构建而成。
语音合成是一种能够将指定文本转换为目标说话人合成语音的技术,是服务于语音交互、信息播报、有声朗读等任务的核心技术。随着深度学习技术的迅猛发展,语音合成的自然度和音质有了很大的提升。然而,人类语音是富含表现力和情感的,如何在合成语音中呈现适当的情感对于构建多样化的语音生成***至关重要。
语音合成是一种能够将指定文本转换为目标说话人合成语音的技术。随着智能语音技术在金融科技的语音交互、信息播报、有声朗读、智能销售等任务场景中的广泛使用,目标对象对于语音合成的效果要求越来越高。随着深度学***均的情感表达,而无法传递语音中对于情感的细微风格变化,从而无法生成情感表现更丰富的高质量合成语音。因此,如何提供一种能够深度挖掘文本包含的细微情感信息,以生成情感表现更丰富的高质量合成语音,成为了亟待解决的技术问题。
基于此,本申请实施例提供的语音合成方法、语音合成***、电子设备及存储介质,能够深度挖掘文本包含的细微情感信息,以生成情感表现更丰富的高质量合成语音。
本申请实施例提供语音合成方法、语音合成***、电子设备及存储介质,具体通过如下实施例进行说明,首先描述本申请实施例中的语音合成方法。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用***。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互***、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
本申请实施例提供的语音合成方法,涉及人工智能技术领域,尤其涉及动画处理技术领域。本申请实施例提供的语音合成方法可应用于终端中,也可应用于服务器端中,还可以是运行于终端或服务器端中的软件。在一些实施例中,终端可以是智能手机、平板电脑、笔记本电脑、台式计算机或者智能手表等;服务器可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content Delivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器;软件可以是实现语音合成方法的应用等,但并不局限于以上形式。
本申请可用于众多通用或专用的计算机***环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器***、基于微处理器的***、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何***或设备的分布式计算环境等等。本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
需要说明的是,在本申请的各个具体实施方式中,当涉及到需要根据用户信息、用户行为数据,用户历史数据以及用户位置信息等与用户身份或特性相关的数据进行相关处理时,都会先获得用户的许可或者同意,而且,对这些数据的收集、使用和处理等,都会遵守相关法律法规和标准。此外,当本申请实施例需要获取用户的敏感个人信息时,会通过弹窗或者跳转到确认页面等方式获得用户的单独许可或者单独同意,在明确获得用户的单独许可或者单独同意之后,再获取用于使本申请实施例能够正常运行的必要的用户相关数据。
请参照图1,图1是本申请实施例提供的语音合成方法的一个可选的流程图,在本申请的一些实施例中,本申请实施例的语音合成方法包括但不限于步骤S1010至步骤S1100,下面结合图1对这十个步骤进行详细介绍。
步骤S1010,获取样本数据,样本数据包括样本语音文本和样本语音文本的样本初始语音;
步骤S1020,对样本语音文本进行文本转换,得到样本音素序列;
步骤S1030,将样本数据输入至预设的初始语音合成模型,其中,初始语音合成模型包括文本编码模块、全局识别模块、句级识别模块和语音合成模块;
步骤S1040,通过文本编码模块对样本音素序列进行编码处理,得到音素编码特征;
步骤S1050,通过全局识别模块对样本音素序列进行情感识别处理,得到全局情感特征;
步骤S1060,通过句级识别模块对样本初始语音进行情感特征提取,得到情感变换特征;
步骤S1070,对音素编码特征、全局情感特征和情感变换特征进行特征拼接,得到目标样本特征;
步骤S1080,通过语音合成模块对目标样本特征进行语音合成处理,得到预测合成语音;
步骤S1090,根据样本初始语音和预测合成语音对初始语音合成模型进行参数调整,得到情感语音合成模型;
步骤S1100,将待处理的目标语音文本输入至情感语音合成模型进行语音合成处理,得到目标合成语音。
需要说明的是,在实际应用环境中,本申请实施例提供的语音合成方法可以分别由终端或服务器执行,或由终端和服务器协同执行。其中,终端通过网络与服务器进行通信,例如,以该合成语音检测方法在对应的终端执行为例进行说明,具体为:终端或服务器从本地获取待处理的目标语音文本,基于该文本得到对应的目标音素序列,通过预先训练的情感语音合成模型对目标音素序列进行语音合成处理,得到包含目标语音文本的情感的目标合成语音。其中,该情感语音合成模型是终端或服务器基于样本语音文本的样本音素序列以及对应的样本初始语音进行训练所得的,并部署于终端。该语音合成方法也可以部署于服务器,以便服务器也可以实现上述语音合成方法的步骤。
在一些实施例的步骤S1010中,获取训练样本集,该训练样本集包括至少一个样本数据,样本数据包括样本语音文本和样本语音文本的样本初始语音。其中,样本数据还包括对样本语音文本预标记的样本情感标签。
需要说明的是,样本数据的获取方式可以为根据获取的样本语音文本进行语音录制,确定对应的样本初始文本;也可以根据获取的样本初始语音进行文字转化,确定对应的样本语音文本。其中,样本初始语音用于表示样本语音文本的真实语音,样本初始语音和样本语音文本对应的样本情感标签相同。
需要说明的是,预设的情感类别标签可以包括如疑问、开心、撒娇等,本申请的样本情感标签为预设的情感类别标签中的任一种。
需要说明的是,本申请实施例获取的样本语音文本可以关于各种领域,如科技、体育、休闲娱乐、美食和文学等领域,即将可以本申请提出的语音合成方法应用到不同的领域。例如,在金融科技的语音交互场景中,为智能交互机器人合成带有“高兴”、“撒娇”、“抱歉”等各种带有情感色彩的音色语音,从而为机器人的情感表达赋予了更多活力,提升了人机交互体验。
需要说明的是,本申请中的样本初始语音可以是MP3格式、CDA格式、WAV格式、WMA格式、RA格式、MIDI格式、OGG格式、APE格式或AAC格式等,本申请不加以限定。
在一些实施例的步骤S1020中,为了使得到的合成语音更符合真实的发声状态,对样本语音文本进行文本转换,得到样本音素序列。具体地,可以采用预先训练的声学模型对样本语音文本进行文本转换,即对该样本语音文本进行分词处理,得到待合成的文本分词;将每个文本分词进行音子转换,得到待合成的分词音子;对所得的分词音子进行组合,得到该样本语音文本的样本音素序列。其中,音子可以指待合成的文本中字符或文字的发音音子,如汉字中的声母和韵母。对应地,样本音素序列可以指多个音子所组成的序列。例如,该样本语音文本为“您喜欢哪一个”,对应的文本分词为“您”、“喜欢”、“哪”、“一个”,则在得到这几个文本分词对应的分词音子时,对这几个文本分词对应的分词音子进行组合,即可得到该样本语音文本的样本音素序列为[ninxihuannayige]。
在一些实施例的步骤S1030中,构建初始语音合成模型,该初始语音合成模型包括文本编码模块、全局识别模块、句级识别模块和语音合成模块。其中,全局识别模块用于从文本全局学习该文本所属的情感类别,句级识别模块用于学习句内语调的情感变化趋势。将样本数据输入至预设的初始语音合成模型,能够深度挖掘文本中包含的细微情感信息。
在一些实施例的步骤S1040中,将样本数据输入至预设的初始语音合成模型后,通过文本编码模块对样本音素序列进行编码处理,得到音素编码特征。需要说明的是,文本编码模块可以采用transformer模型进行构建,该transformer模型的编码部分可以由n个编码器层堆叠而成,每个编码器层由两个子层连接结构组成。其中,第一个子层连接结构可以包括一个多头注意力子层和规范化层以及一个残差连接;第二个子层连接结构可以包括一个前馈全连接子层和规范化层以及一个残差连接。
在一些实施例的步骤S1050中,为了更准确地识别出样本语音文本的情感类别,通过全局识别模块对样本音素序列进行情感识别处理,得到全局情感特征。
具体地,请参照图2,图2是本申请实施例提供的步骤S1050的具体方法的流程图。在本申请的一些实施例中,步骤S1050具体可以包括但不限于步骤S210至步骤S230,下面结合图2对这三个步骤进行详细介绍。
步骤S210,根据全局识别模块对样本音素序列进行情感识别处理,得到情感类别标签和情感类别标签的分类预测值;
步骤S220,根据情感类别标签从预设的情感向量查找表进行搜索,得到情感类别标签的情感嵌入向量;
步骤S230,根据分类预测值和情感嵌入向量进行加权计算,得到全局情感特征。
在一些实施例的步骤S210中,为了预测该样本文本语句所属情感类别,将样本音素序列输入全局识别模块,以根据全局识别模块对样本音素序列进行情感识别处理,得到情感类别标签和该情感类别标签的分类预测值,即预测出该样本文本语句所属预设的每种情感类别标签时对应的概率值。
在一些实施例的步骤S220中,本申请的全局识别模块包括全局情感特征提取器,该全局情感特征提取器能够根据训练样本集中每个样本语音文本的样本情感标签训练构建一个情感向量查找表,该情感向量查找表用于存储情感类别标签和情感嵌入向量的映射关系,使得属于同一情感类别标签的样本数据对应同一个情感嵌入向量,则该情感嵌入向量可以表征该情感类别的信息。具体地,根据情感类别标签从预设的情感向量查找表进行搜索,确定每个情感类别标签的情感嵌入向量,该情感嵌入向量用于表征该情感类别标签对应的嵌入向量的特征。
需要说明的是,情感向量查找表的搜索满足如公式(1)所示,以根据情感向量查找表确定每个情感类别标签的情感嵌入向量。
hglo=f1(ei) (1)
其中,f1用于表示情感向量查找表的搜索函数,ei用于表示真实的第i类情感类别标签,hglo用于表示该情感类别标签ei对应的情感嵌入向量。
在一些实施例的步骤S230中,为了避免由于情感类别预测错误导致的不准确的情感表达,本申请实施例采用情感嵌入的加权计算对样本音素序列进行全局的情感识别。具体地,如公式(2)所示,根据分类预测值和情感嵌入向量进行加权计算,得到全局情感特征,将该全局情感特征记为
其中,M表示预设的情感类别标签的总数,pi表示样本音素序列预测属于情感类别标签ei的分类预测值。
请参照图3,图3是本申请实施例提供的步骤S210的具体方法的流程图。在本申请的一些实施例中,全局识别模块还包括预训练模型和情感分类器,步骤S210具体可以包括但不限于步骤S310至步骤S330,下面结合图3对这三个步骤进行详细介绍。
步骤S310,根据预训练模型对样本音素序列进行情感特征提取,得到样本预测特征;
步骤S320,根据情感分类器对样本预测特征进行情感分类预测,得到分类预测特征;
步骤S330,根据预设的激活函数对分类预测特征进行去线性化处理,得到情感类别标签和情感类别标签的分类预测值。
在一些实施例的步骤S310中,为了提高全局识别模块对情感预测的准确性,根据预训练模型对样本音素序列进行情感特征提取,得到样本音素序列对应的样本预测特征。其中,预训练模型的训练过程为,采用基于Bert模型结构构建的初始网络模型,为了防止训练得到的预训练模型在对样本数据的处理过程中产生过拟合,则获取预训练样本集,该预训练样本集包括多个预训练文本情感样本和该预训练文本情感样本对应的情感分类标签。根据该预训练样本集对初始网络模型的模型参数进行微调得到预训练模型,能够有效提高预训练模型的计算速度和分类准确率。
需要说明的是,本申请实施例可以使用NLPCC2013、NLPCC2014等数据对基于Bert的初始网络模型进行微调,且该预训练样本集中包括的数据情感类别与整体模型的训练样本集包括的情感类别一致。
在一些实施例的步骤S320和步骤S330中,根据情感分类器对样本预测特征进行情感分类预测,得到分类预测特征,该分类预测特征用于表征每个情感类别标签下的特征信息。之后,根据预设的激活函数对分类预测特征进行去线性化处理,即将分类的输出结果映射到[0,1]区间内,则可以得到每个情感类别标签对应的分类预测值。
请参照图4,图4是本申请实施例提供的步骤S320的具体方法的流程图。在本申请的一些实施例中,情感分类器包括多头注意力单元和全局卷积单元,步骤S320具体可以包括但不限于步骤S410至步骤S460,下面结合图4对这六个步骤进行详细介绍。
步骤S410,根据多头注意力单元对样本预测特征进行自注意力处理,得到注意力特征;
步骤S420,对样本预测特征和注意力特征进行特征融合,得到注意力融合特征;
步骤S430,对注意力融合特征进行归一化处理,得到第一预测特征;
步骤S440,根据全局卷积单元对第一预测特征进行全局特征提取,得到全局卷积特征;
步骤S450,对第一预测特征和全局卷积特征进行特征融合,得到第二预测特征;
步骤S460,对第二预测特征进行归一化处理,得到分类预测特征。
在一些实施例的步骤S410至步骤S460中,为了提高情感分类器的分类准确率,本申请实施例的情感分类器可以包括多头注意力单元和全局卷积单元,能够帮助情感分类器捕捉到更丰富的特征信息,且能够有效避免模型的过拟合。具体地,根据多头注意力单元对样本预测特征进行自注意力处理,得到注意力特征,然后,通过残差连接的方式对样本预测特征和注意力特征进行特征融合,得到注意力融合特征。为了使得到的特征数据被限定在一定的范围内,以减小奇异样本数据导致的不良影响,对注意力融合特征进行归一化处理,得到第一预测特征。之后,为了提高模型的运算速度,根据全局卷积单元对第一预测特征进行全局特征提取,得到全局卷积特征。其中,全局卷积单元可以采用一维卷积的形式进行操作。根据残差连接的方式对第一预测特征和全局卷积特征进行特征融合,得到第二预测特征。并对第二预测特征进行归一化处理,得到分类预测特征。
在一些实施例的步骤S1060,为了能够学习到文本中每个句子特有的韵律信息,例如句内情感变化信息、语调变换信息等,本申请实施例根据设置的句级识别模型对样本初始语音进行情感特征提取,得到情感变换特征。
具体地,请参照图5,图5是本申请实施例提供的步骤S1060的具体方法的流程图。在本申请的一些实施例中,句级识别模块包括句级编码器,步骤S1060具体可以包括但不限于步骤S510至步骤S530,下面结合图5对这三个步骤进行详细介绍。
步骤S510,对样本初始语音进行音频转换,得到样本梅尔频谱;
步骤S520,通过句级编码器对样本梅尔频谱进行情感特征提取,得到句级隐藏特征;
步骤S530,对句级隐藏特征进行特征转换,得到情感变换特征。
在一些实施例的步骤S510和步骤S520中,为了提取到每个句子的句内情感变化信息、语调变换信息等,对样本初始语音进行音频转换,得到样本初始语音对应的样本梅尔频谱。通过预设的句级编码器对样本梅尔频谱进行情感特征提取,得到句级隐藏特征,该句级隐藏特征用于表示句子层级的情感变化信息。
在一些实施例的步骤S530中,为了能够保留有效预测出语音情感变化的特征信息,本申请可以在句级编码器的输出端连接一个长短期记忆网络(Long Short-TermMemory,LSTM),即根据长短期记忆网络对句级隐藏特征进行特征转换,利用LTSM最后一个时间步的输出得到情感变换特征,该情感变换特征为一个定长的特征向量,可以记为hutt
请参照图6,图6是本申请实施例提供的语音合成方法的另一个可选的流程图。在本申请的一些实施例中,句级识别模块还包括句级卷积单元、修正单元和特征映射单元,在步骤S520之后,本申请实施例提供的语音合成方法还可以包括步骤:训练句级编码器,该步骤具体可以包括但不限于步骤S610至步骤S650,下面结合图6对这五个步骤进行详细介绍。
步骤S610,根据句级卷积单元对音素编码特征进行句级特征提取,得到句级卷积特征;
步骤S620,根据修正单元对句级卷积特征进行修正处理,得到修正特征;
步骤S630,根据特征映射单元对修正特征进行特征映射处理,得到句级预测特征;
步骤S640,根据预设损失函数对情感变换特征和句级预测特征进行损失计算,得到句级预测损失值;
步骤S650,根据句级预测损失值对预设的初始编码器进行参数调整,得到句级编码器。
在一些实施例的步骤S610至步骤S650中,为了提高句级编码器的编码能力,以得到能够准确反映句内整体情感变化的特征信息,首先,根据句级卷积单元对音素编码特征进行句级特征提取,得到句级卷积特征,该句级卷积单元可以采用一维卷积或二维卷积等。为了使得到的特征数据被限定在一定的范围内,以减小奇异样本数据导致的不良影响,根据修正单元对句级卷积特征进行修正处理,得到修正特征。为了使模型的泛化能力更强,根据特征映射单元对修正特征进行特征映射处理,得到句级预测特征,其中,特征映射单元可以采用dropout网络进行构建。之后,根据预设损失函数对情感变换特征和句级预测特征进行损失计算,得到句级预测损失值,并根据句级预测损失值对预设的初始编码器进行参数调整,直至初始编码器的句级预测损失值达到模型结束条件,得到句级编码器。
在一些实施例的步骤S1070,为了实现多尺度情感迁移,对音素编码特征、全局情感特征和情感变换特征进行特征拼接,得到目标样本特征,并将该目标样本特征输入语音合成模块进行训练。
在一些实施例的步骤S1080,为了使合成语音表现力强,本申请实施例采用基于条件变分自编码器的结构构建语音合成模型,通过语音合成模块对目标样本特征进行语音合成处理,得到预测合成语音,该预测合成语音用于表示经过本申请构建的初始语音合成模型预测的合成语音。
请参照图7,图7是本申请实施例提供的步骤S1080的具体方法的流程图。在本申请的一些实施例中,语音合成模块包括先验编码器、后验编码器、时长预测器和解码器,步骤S1080具体可以包括但不限于步骤S710至步骤S760,下面结合图7对这六个步骤进行详细介绍。
步骤S710,根据先验编码器对目标样本特征进行特征编码处理,得到先验编码特征;
步骤S720,对样本初始语音进行短时傅里叶变换,得到样本线性频谱;
步骤S730,根据后验编码器对样本线性频谱进行隐变量提取,得到样本隐变量特征;
步骤S740,根据时长预测器对目标样本特征进行音素时长提取,得到样本音素时长;
步骤S750,根据样本音素时长对样本隐变量特征和目标样本特征进行单调对齐搜索,确定目标对齐矩阵;
步骤S760,根据目标对齐矩阵和解码器对目标样本特征进行解码处理,得到预测合成语音。
在一些实施例的步骤S710至步骤S760中,为了生成情感表现更丰富的高质量合成语音,首先,根据先验编码器对拼接后的目标样本特征进行特征编码处理,得到先验编码特征。对样本初始语音进行短时傅里叶变换,得到样本线性频谱。并根据后验编码器对样本线性频谱进行隐变量提取,得到样本隐变量特征,其中,后验编码器可以采用WaveGlow和Glow-TTS中的非因果WaveNet残差模块。根据时长预测器对目标样本特征进行音素时长提取,得到样本音素时长,以估计音素的时长分布。根据样本音素时长对样本隐变量特征和目标样本特征进行单调对齐搜索,确定目标对齐矩阵。根据目标对齐矩阵和解码器对目标样本特征进行解码处理,得到预测合成语音。
在一些实施例的步骤S1090,根据样本初始语音和预测合成语音对初始语音合成模型进行参数调整,即根据样本初始语音和预测合成语音确定模型损失值,根据该模型损失值对全局识别模块、句级识别模块和语音合成模块中的模型参数进行调整,当初始语音合成模型满足预设训练结束条件,得到情感语音合成模型。
需要说明的是,预设训练结束条件可以为当初始语音合成模型的模型损失值小于或等于预设的损失值阈值,或当初始语音合成模型的合成准确率大于或等于预设的准确率阈值。
在一些实施例的步骤S1100中,当训练好能够深度挖掘文本中包含的细微情感信息,且生成情感表现更丰富的高质量合成语音的情感语音合成模型后,将待处理的目标语音文本输入至情感语音合成模型进行语音合成处理,得到目标合成语音。
具体地,终端上可以安装文字转语音的语音合成***,该语音合成***中部署了情感语音合成模型。因此,在检测到文字转语音操作时,终端生成语音合成业务请求,将该语音合成业务请求发送至语音合成***。响应于语音合成业务请求,终端利用语音合成***从语音合成业务请求中提取待处理的目标语音文本,并通过情感语音合成模型将目标语音文本合成包含该目标语音文本中隐含情感的目标合成语音。
需要说明的是,在具体应用中,当目标对象在终端需要进行语音合成时,可以通过在终端页面选中需要进行语音合成的文本内容,则终端页面可以显示弹出框。目标对象通过在弹出框中触摸合成语音按钮,此时通过语音合成业务请求将该文本内容发送给语音合成***进行语音合成处理。之后,通过终端的扬声器进行语音播报,从而使目标对象可以听到情感表现更丰富的合成语音。
示例性的,在金融科技的语音交互场景中,将不同场景的目标语音文本采用本申请提供的语音合成方法进行语音合成,并将合成的目标合成语音输入到智能交互机器人中,以供智能交互机器人可以根据具体的场景和对话进行合成语音选择。例如,当目标对象开始与智能交互机器人进行语音交流时,机器人可以选择带有“疑问”情感类别的语音进行播放,如“请问您有什么需要帮助的吗”,以确定客户的需求。在目标对象结束与智能交互机器人进行语音交流时,机器人可以播放带有“撒娇”情感类别的语音,如“期待下次与您的沟通哦”,不仅能够为机器人的情感表达赋予了更多活力,还提升了人机交互体验。
请参照图8,图8是本申请实施例提供的语音合成***的模块结构示意图。在本申请的一些实施例中,语音合成***包括语音样本获取模块8010、文本转换模块8020、模型输入模块8030、编码模块8040、全局情感识别模块8050、句级特征提取模块8060、特征拼接模块8070、语音转换模块8080、参数调整模块8090和语音合成模块8100。
语音样本获取模块8010,用于获取样本数据,样本数据包括样本语音文本和样本语音文本的样本初始语音;
文本转换模块8020,用于对样本语音文本进行文本转换,得到样本音素序列;
模型输入模块8030,用于将样本数据输入至预设的初始语音合成模型,其中,所述初始语音合成模型包括文本编码模块、全局识别模块、句级识别模块和语音合成模块;
编码模块8040,用于通过文本编码模块对样本音素序列进行编码处理,得到音素编码特征;
全局情感识别模块8050,用于通过全局识别模块对样本音素序列进行情感识别处理,得到全局情感特征;
句级特征提取模块8060,用于通过句级识别模块对样本初始语音进行情感特征提取,得到情感变换特征;
特征拼接模块8070,用于对音素编码特征、全局情感特征和情感变换特征进行特征拼接,得到目标样本特征;
语音转换模块8080,用于通过语音合成模块对目标样本特征进行语音合成处理,得到预测合成语音;
参数调整模块8090,用于根据样本初始语音和预测合成语音对初始语音合成模型进行参数调整,得到情感语音合成模型;
语音合成模块8100,用于将待处理的目标语音文本输入至情感语音合成模型进行语音合成处理,得到目标合成语音。
需要说明的是,本申请实施例的语音合成***用于执行上述语音合成方法,且本申请实施例的语音合成***与前述的语音合成方法相对应,具体的训练过程请参照前述的语音合成方法,在此不一一赘述。
本申请实施例还提供了一种电子设备,该电子设备包括存储器和处理器,存储器存储有计算机程序,处理器执行计算机程序时实现上述本申请实施例的语音合成方法。
电子设备可以为包括手机、平板电脑、个人数字助理(Personal DigitalAssistant,PDA)、车载电脑等任意智能终端。
下面结合图9对本申请实施例的电子设备进行详细介绍。
请参照图9,图9示意了另一实施例的电子设备的硬件结构,电子设备包括:
处理器910,可以采用通用的中央处理器(Central Processing Unit,CPU)、微处理器、应用专用集成电路(Application Specific Integrated Circuit,ASIC)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本申请实施例所提供的技术方案;
存储器920,可以采用只读存储器(Read Only Memory,ROM)、静态存储设备、动态存储设备或者随机存取存储器(Random Access Memory,RAM)等形式实现。存储器920可以存储操作***和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器920中,并由处理器910来调用执行本申请实施例的语音合成方法;
输入/输出接口930,用于实现信息输入及输出;
通信接口940,用于实现本设备与其他设备的通信交互,可以通过有线方式(例如USB、网线等)实现通信,也可以通过无线方式(例如移动网络、WIFI、蓝牙等)实现通信;
总线950,在设备的各个组件(例如处理器910、存储器920、输入/输出接口930和通信接口940)之间传输信息;
其中处理器910、存储器920、输入/输出接口930和通信接口940通过总线950实现彼此之间在设备内部的通信连接。
本申请实施例还提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述本申请实施例的语音合成方法。
本申请实施例提供的一种语音合成方法、语音合成***、电子设备及存储介质,获取样本数据,该样本数据包括样本语音文本和样本语音文本的样本初始语音,该样本初始语音包含样本语音文本需要合成的语音情感信息。对样本语音文本进行文本转换,得到样本音素序列。将样本数据输入至预设的初始语音合成模型,该初始语音合成模型包括文本编码模块、全局识别模块、句级识别模块和语音合成模块。通过文本编码模块对样本音素序列进行编码处理,得到音素编码特征;通过全局识别模块对样本音素序列进行情感识别处理,得到全局情感特征;通过句级识别模块对样本初始语音进行情感特征提取,得到情感变换特征。然后,对音素编码特征、全局情感特征和情感变换特征进行特征拼接,得到目标样本特征。通过所述语音合成模块对所述目标样本特征进行语音合成处理,得到预测合成语音,该预测合成语音用于表示生成与样本初始语音的语音情感信息相同的合成语音。本申请实施例通过构建包括文本编码模块、全局识别模块、句级识别模块和语音合成模块的初始语音合成模型,从不同层级的语音情感表征进行模型构建,使得在根据初始语音合成模型对样本数据进行语音合成时,能够深度挖掘文本包含的细微情感信息。本申请实施例既能够从样本初始语音提取情感信息,也可以从样本语音文本中预测情感信息,实现了情感语音合成任务中的多尺度情感迁移。通过样本初始语音和预测合成语音对初始语音合成模型进行参数调整,得到与初始语音合成模型结构相同,但能够生成多样化、高保真合成语音的情感语音合成模型。由此可知,当根据本申请实施例提供的情感语音合成模型对目标语音文本进行语音合成处理时,能够深度挖掘文本中包含的细微情感信息,以生成情感表现更丰富的高质量合成语音。
存储器作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序以及非暂态性计算机可执行程序。此外,存储器可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施方式中,存储器可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至该处理器。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
本申请实施例描述的实施例是为了更加清楚的说明本申请实施例的技术方案,并不构成对于本申请实施例提供的技术方案的限定,本领域技术人员可知,随着技术的演变和新应用场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。
本领域技术人员可以理解的是,图中示出的技术方案并不构成对本申请实施例的限定,可以包括比图示更多或更少的步骤,或者组合某些步骤,或者不同的步骤。
以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、***、设备中的功能模块/单元可以被实施为软件、固件、硬件及其适当的组合。
本申请的说明书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、***、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
应当理解,在本申请中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:只存在A,只存在B以及同时存在A和B三种情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括多指令用以使得一台电子设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序的介质。
以上参照附图说明了本申请实施例的优选实施例,并非因此局限本申请实施例的权利范围。本领域技术人员不脱离本申请实施例的范围和实质内所作的任何修改、等同替换和改进,均应在本申请实施例的权利范围之内。

Claims (10)

1.一种语音合成方法,其特征在于,所述方法包括:
获取样本数据,所述样本数据包括样本语音文本和所述样本语音文本的样本初始语音;
对所述样本语音文本进行文本转换,得到样本音素序列;
将所述样本数据输入至预设的初始语音合成模型,其中,所述初始语音合成模型包括文本编码模块、全局识别模块、句级识别模块和语音合成模块;
通过所述文本编码模块对所述样本音素序列进行编码处理,得到音素编码特征;
通过所述全局识别模块对所述样本音素序列进行情感识别处理,得到全局情感特征;
通过所述句级识别模块对所述样本初始语音进行情感特征提取,得到情感变换特征;
对所述音素编码特征、所述全局情感特征和所述情感变换特征进行特征拼接,得到目标样本特征;
通过所述语音合成模块对所述目标样本特征进行语音合成处理,得到预测合成语音;
根据所述样本初始语音和所述预测合成语音对所述初始语音合成模型进行参数调整,得到情感语音合成模型;
将待处理的目标语音文本输入至所述情感语音合成模型进行语音合成处理,得到目标合成语音。
2.根据权利要求1所述的方法,其特征在于,所述通过所述全局识别模块对所述样本音素序列进行情感识别处理,得到全局情感特征,包括:
根据所述全局识别模块对所述样本音素序列进行情感识别处理,得到情感类别标签和所述情感类别标签的分类预测值;
根据所述情感类别标签从预设的情感向量查找表进行搜索,得到所述情感类别标签的情感嵌入向量;
根据所述分类预测值和所述情感嵌入向量进行加权计算,得到所述全局情感特征。
3.根据权利要求2所述的方法,其特征在于,所述全局识别模块包括预训练模型和情感分类器,所述根据所述全局识别模块对所述样本音素序列进行情感识别处理,得到情感类别标签和所述情感类别标签的分类预测值,包括:
根据所述预训练模型对所述样本音素序列进行情感特征提取,得到样本预测特征;
根据所述情感分类器对所述样本预测特征进行情感分类预测,得到分类预测特征;
根据预设的激活函数对所述分类预测特征进行去线性化处理,得到所述情感类别标签和所述情感类别标签的所述分类预测值。
4.根据权利要求3所述的方法,其特征在于,所述情感分类器包括多头注意力单元和全局卷积单元,所述根据所述情感分类器对所述样本预测特征进行情感分类预测,得到分类预测特征,包括:
根据所述多头注意力单元对所述样本预测特征进行自注意力处理,得到注意力特征;
对所述样本预测特征和所述注意力特征进行特征融合,得到注意力融合特征;
对所述注意力融合特征进行归一化处理,得到第一预测特征;
根据所述全局卷积单元对所述第一预测特征进行全局特征提取,得到全局卷积特征;
对所述第一预测特征和所述全局卷积特征进行特征融合,得到第二预测特征;
对所述第二预测特征进行归一化处理,得到所述分类预测特征。
5.根据权利要求1至4任一项所述的方法,其特征在于,所述句级识别模块包括句级编码器,所述通过所述句级识别模块对所述样本初始语音进行情感特征提取,得到情感变换特征,包括:
对所述样本初始语音进行音频转换,得到样本梅尔频谱;
通过所述句级编码器对所述样本梅尔频谱进行情感特征提取,得到句级隐藏特征;
对所述句级隐藏特征进行特征转换,得到情感变换特征。
6.根据权利要求5所述的方法,其特征在于,所述句级识别模块还包括句级卷积单元、修正单元和特征映射单元,所述方法还包括:训练所述句级编码器,具体包括:
根据所述句级卷积单元对所述音素编码特征进行句级特征提取,得到句级卷积特征;
根据所述修正单元对所述句级卷积特征进行修正处理,得到修正特征;
根据所述特征映射单元对所述修正特征进行特征映射处理,得到句级预测特征;
根据预设损失函数对所述情感变换特征和所述句级预测特征进行损失计算,得到句级预测损失值;
根据所述句级预测损失值对预设的初始编码器进行参数调整,得到所述句级编码器。
7.根据权利要求1至4任一项所述的方法,其特征在于,所述语音合成模块包括先验编码器、后验编码器、时长预测器和解码器,所述通过所述语音合成模块对所述目标样本特征进行语音转换处理,得到预测合成语音,包括:
根据所述先验编码器对所述目标样本特征进行特征编码处理,得到先验编码特征;
对所述样本初始语音进行短时傅里叶变换,得到样本线性频谱;
根据所述后验编码器对所述样本线性频谱进行隐变量提取,得到样本隐变量特征;
根据所述时长预测器对所述目标样本特征进行音素时长提取,得到样本音素时长;
根据所述样本音素时长对所述样本隐变量特征和所述目标样本特征进行单调对齐搜索,确定目标对齐矩阵;
根据所述目标对齐矩阵和所述解码器对所述目标样本特征进行解码处理,得到所述预测合成语音。
8.一种语音合成***,其特征在于,所述***包括:
语音样本获取模块,用于获取样本数据,所述样本数据包括样本语音文本和所述样本语音文本的样本初始语音;
文本转换模块,用于对所述样本语音文本进行文本转换,得到样本音素序列;
模型输入模块,用于将所述样本数据输入至预设的初始语音合成模型,其中,所述初始语音合成模型包括文本编码模块、全局识别模块、句级识别模块和语音合成模块;
编码模块,用于通过所述文本编码模块对所述样本音素序列进行编码处理,得到音素编码特征;
全局情感识别模块,用于通过所述全局识别模块对所述样本音素序列进行情感识别处理,得到全局情感特征;
句级特征提取模块,用于通过所述句级识别模块对所述样本初始语音进行情感特征提取,得到情感变换特征;
特征拼接模块,用于对所述音素编码特征、所述全局情感特征和所述情感变换特征进行特征拼接,得到目标样本特征;
语音转换模块,用于通过所述语音合成模块对所述目标样本特征进行语音合成处理,得到预测合成语音;
参数调整模块,用于根据所述样本初始语音和所述预测合成语音对所述初始语音合成模型进行参数调整,得到情感语音合成模型;
语音合成模块,用于将待处理的目标语音文本输入至所述情感语音合成模型进行语音合成处理,得到目标合成语音。
9.一种电子设备,其特征在于,所述电子设备包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述的方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的方法。
CN202310636076.2A 2023-05-31 2023-05-31 语音合成方法、语音合成***、电子设备及存储介质 Pending CN116682411A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310636076.2A CN116682411A (zh) 2023-05-31 2023-05-31 语音合成方法、语音合成***、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310636076.2A CN116682411A (zh) 2023-05-31 2023-05-31 语音合成方法、语音合成***、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN116682411A true CN116682411A (zh) 2023-09-01

Family

ID=87781692

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310636076.2A Pending CN116682411A (zh) 2023-05-31 2023-05-31 语音合成方法、语音合成***、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN116682411A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117132864A (zh) * 2023-10-27 2023-11-28 深圳品阔信息技术有限公司 多模态输入的数字人物生成方法、装置、设备及存储介质
CN117727290A (zh) * 2024-02-18 2024-03-19 厦门她趣信息技术有限公司 一种语音合成方法、装置、设备及可读存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117132864A (zh) * 2023-10-27 2023-11-28 深圳品阔信息技术有限公司 多模态输入的数字人物生成方法、装置、设备及存储介质
CN117727290A (zh) * 2024-02-18 2024-03-19 厦门她趣信息技术有限公司 一种语音合成方法、装置、设备及可读存储介质

Similar Documents

Publication Publication Date Title
CN111933129B (zh) 音频处理方法、语言模型的训练方法、装置及计算机设备
US11929059B2 (en) Method, device, and computer readable storage medium for text-to-speech synthesis using machine learning on basis of sequential prosody feature
CN111566656B (zh) 利用多种语言文本语音合成模型的语音翻译方法及***
EP3469592B1 (en) Emotional text-to-speech learning system
KR102582291B1 (ko) 감정 정보 기반의 음성 합성 방법 및 장치
KR20230043084A (ko) 순차적 운율 특징을 기초로 기계학습을 이용한 텍스트-음성 합성 방법, 장치 및 컴퓨터 판독가능한 저장매체
CN116682411A (zh) 语音合成方法、语音合成***、电子设备及存储介质
US10685644B2 (en) Method and system for text-to-speech synthesis
Dhanjal et al. An automatic machine translation system for multi-lingual speech to Indian sign language
CN113658577B (zh) 一种语音合成模型训练方法、音频生成方法、设备及介质
CN111079423A (zh) 一种听写报读音频的生成方法、电子设备及存储介质
CN116386594A (zh) 语音合成方法、语音合成装置、电子设备及存储介质
CN116312463A (zh) 语音合成方法、语音合成装置、电子设备及存储介质
CN113314097B (zh) 语音合成方法、语音合成模型处理方法、装置和电子设备
CN114125506B (zh) 语音审核方法及装置
CN116665642A (zh) 语音合成方法、语音合成***、电子设备及存储介质
CN116665639A (zh) 语音合成方法、语音合成装置、电子设备及存储介质
CN113314096A (zh) 语音合成方法、装置、设备和存储介质
CN116580691A (zh) 语音合成方法、语音合成装置、电子设备及存储介质
US11887583B1 (en) Updating models with trained model update objects
CN114694633A (zh) 语音合成方法、装置、设备及存储介质
CN113948061A (zh) 语音合成方法、***、语音合成模型及其训练方法
CN111489742B (zh) 声学模型训练方法、语音识别方法、装置及电子设备
WO2021231050A1 (en) Automatic audio content generation
Jamtsho et al. OCR and speech recognition system using machine learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination