CN107452369A - 语音合成模型生成方法和装置 - Google Patents
语音合成模型生成方法和装置 Download PDFInfo
- Publication number
- CN107452369A CN107452369A CN201710897311.6A CN201710897311A CN107452369A CN 107452369 A CN107452369 A CN 107452369A CN 201710897311 A CN201710897311 A CN 201710897311A CN 107452369 A CN107452369 A CN 107452369A
- Authority
- CN
- China
- Prior art keywords
- fundamental frequency
- frequency data
- voice
- trained
- neutral net
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000015572 biosynthetic process Effects 0.000 title claims abstract description 49
- 238000003786 synthesis reaction Methods 0.000 title claims abstract description 49
- 238000000034 method Methods 0.000 title claims abstract description 27
- 238000013075 data extraction Methods 0.000 claims abstract description 85
- 230000007935 neutral effect Effects 0.000 claims abstract description 81
- 239000000284 extract Substances 0.000 claims description 11
- 238000001228 spectrum Methods 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 7
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 230000000306 recurrent effect Effects 0.000 claims description 4
- 230000001537 neural effect Effects 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 7
- 230000006854 communication Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000005291 magnetic effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000005611 electricity Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 210000004218 nerve net Anatomy 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/027—Concept to speech synthesisers; Generation of natural phrases from machine-based concepts
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Signal Processing (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Machine Translation (AREA)
Abstract
本申请公开了语音合成模型生成方法和装置。该方法的一具体实施方式包括:获取用于对语音合成模型对应的神经网络进行训练的文本的文本特征和文本对应的语音的声学特征,其中,声学特征中的用于训练的文本对应的语音的基频数据通过基频数据提取模型提取,基频数据提取模型基于利用包含的每一帧语音均对应有基频数据的语音预先对基频数据提取模型对应的神经网络进行训练而生成;利用文本特征和声学特征对语音合成模型对应的神经网络进行训练。实现了利用预先训练的基频数据提取模型提取用于训练的段语音的基频数据,使得用于训练语音的完整的基频数据可以用于对语音合成模型对应的神经网络的训练,进而提升训练效果。
Description
技术领域
本申请涉及计算机领域,具体涉及语音领域,尤其涉及语音合成模型生成方法和装置。
背景技术
在对语音合成模型对应的神经网络进行训练过程中,需要利用用于训练的语音的声学特征,对于声学特征中的语音的基频数据,目前,通常是采用数学变换的方式提取语音中的基频数据。
采用数学变换的方式提取语音中的基频数据会出现一段语音中的部分语音段的基频数据难以提取出的情况,导致用于训练的语音的基频数据不是完整的语音的基频数据,进而影响语音合成模型对应的神经网络进行训练的训练效果。
发明信息
本申请提供了一种语音合成模型生成方法和装置,用于解决上述背景技术部分存在的技术问题。
第一方面,本申请提供了语音合成模型生成方法,该方法包括:获取用于对语音合成模型对应的神经网络进行训练的文本的文本特征和文本对应的语音的声学特征,其中,所述声学特征中的用于训练的文本对应的语音的基频数据通过基频数据提取模型提取,所述基频数据提取模型基于利用包含的每一帧语音均对应有基频数据的语音预先对基频数据提取模型对应的神经网络进行训练而生成;利用所述文本的文本特征和文本对应的语音的声学特征对语音合成模型对应的神经网络进行训练。
第二方面,本申请提供了语音合成模型生成装置,该装置包括:获取单元,配置用于获取用于对语音合成模型对应的神经网络进行训练的文本的文本特征和文本对应的语音的声学特征,其中,所述声学特征中的用于训练的文本对应的语音的基频数据通过基频数据提取模型提取,所述基频数据提取模型基于利用包含的每一帧语音均对应有基频数据的语音预先对基频数据提取模型对应的神经网络进行训练而生成;训练单元,配置用于利用所述文本的文本特征和文本对应的语音的声学特征对语音合成模型对应的神经网络进行训练。
本申请提供的语音合成模型生成方法和装置,通过获取用于对语音合成模型对应的神经网络进行训练的文本的文本特征和文本对应的语音的声学特征,其中,所述声学特征中的用于训练的文本对应的语音的基频数据通过基频数据提取模型提取,所述基频数据提取模型基于利用包含的每一帧语音均对应有基频数据的语音预先对基频数据提取模型对应的神经网络进行训练而生成;利用所述文本的文本特征和文本对应的语音的声学特征对语音合成模型对应的神经网络进行训练。实现了利用预先训练的指示语音的特征与基频数据的特征的对应关系的基频数据提取模型提取用于训练的段语音的基频数据,使得用于训练语音的完整的基频数据可以用于对语音合成模型对应的神经网络的训练,进而提升训练效果。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1示出了根据本申请的语音合成模型生成方法的一个实施例的流程图;
图2示出了根据本申请的语音合成模型生成装置的一个实施例的结构示意图;
图3示出了适于用来实现本申请实施例的电子设备的计算机***的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
请参考图1,其示出了根据本申请的语音合成模型生成方法的一个实施例的流程。该方法包括以下步骤:
步骤101,获取用于对语音合成模型对应的神经网络进行训练的文本的文本特征和文本对应的语音的声学特征。
在本实施例中,为了得到语音合成模型,可以利用训练样本对语音合成模型对应的神经网络进行训练,得到语音合成模型。换言之,训练后的语音合成模型对应的神经网络可以用于语音合成。
在每一次训练过程中,可以利用一段文本和一段文本对应的一段语音对语音合成模型对应的神经网络进行训练。文本的特征可以包括但不限于:文本中的字包含的音素、字之间的停顿等。语音的声学特征可以包括但不限于:谱参数、基频数据。
在本实施例中,在生成语音的声学特征时,可以利用基频数据提取模型提取用于训练的文本对应的语音的基频数据。
在本实施例中,可以预先利用包含的每一帧语音均对应有基频数据的语音对基频数据提取模型对应的神经网络进行训练,得到基频数据提取模型。
在本实施例中,一段语音中的每一帧语音的时长相同。用于对基频数据提取模型对应的神经网络进行训练的一段语音中的每一帧语音均对应有基频数据。对于有基频数据的一帧语音是指可以从该帧语音中提取出基频数据。换言之,用于对基频数据提取模型对应的神经网络进行训练的每一段语音中的每一帧语音均可以提取出基频数据。
为了生成基频数据提取模型,可以首先创建一个基频数据提取模型对应的神经网络,对神经网络的参数进行初始化。在对基频数据提取模型对应的神经网络进行训练时,可以将包含的每一帧语音均对应有基频数据的语音中每一帧语音的特征组成语音特征序列后作为基频数据提取模型对应的神经网络的输入,将包含的每一帧语音均对应有基频数据的语音中的每一帧语音对应的基频数据组成基频数据序列后作为基频数据提取模型对应的神经网络的输出,对基频数据提取模型对应的神经网络以端到端的方式进行训练,经过多次训练之后,该基频数据提取模型对应的神经网络可以学习到语音的特征与基频数据的对应关系,得到基频数据提取模型。
在本实施例中的一些可选的实现方式中,基频数据提取模型对应的神经网络的类型可以为循环神经网络(RNN)。为了生成基频数据提取模型,可以首先创建一个基频数据提取模型对应的RNN,对基频数据提取模型对应的RNN的参数进行初始化,在对基频数据提取模型对应的RNN进行训练时,可以将包含的每一帧语音均对应有基频数据的语音中每一帧语音的特征组成语音特征序列后设置在基频数据提取模型对应的RNN的输入端,将包含的每一帧语音均对应有基频数据的语音中的每一帧语音对应的基频数据组成基频数据序列后设置在基频数据提取模型对应的RNN的输出端,对基频数据提取模型对应的RNN进行端到端的训练,经过多次训练之后,该基频数据提取模型对应的RNN可以学习到语音的特征与基频数据的对应关系,得到基频数据提取模型。换言之,该基频数据提取模型对应的RNN经过多次训练之后成为基频数据提取模型。
在本实施例中的一些可选的实现方式中,在预先对基频数据提取模型对应的神经网络进行训练时,可以首先获取用于对基频数据提取模型对应的神经网络进行训练的语音;提取用于对基频数据提取模型对应的神经网络进行训练的语音的基频数据;基于提取出的用于对基频数据提取模型对应的神经网络进行训练的语音的基频数据,确定用于对基频数据提取模型对应的神经网络进行训练的语音中满足以下条件的语音段:包含的每一帧语音均对应有基频数据;利用满足条件的语音段对对基频数据提取模型对应的神经网络进行训练。
在利用满足条件的语音段对对基频数据提取模型对应的神经网络进行训练时,可以提取出满足条件的语音段中的每一帧语音的谱参数,生成谱参数序列;可以将谱参数序列作为基频数据提取模型对应的神经网络设置在基频数据提取模型对应的神经网络的输入端,以及将包含满足条件的语音段中的每一帧语音对应的基频数据的基频数据序列设置在基频数据提取模型对应的神经网络的输出端,对基频数据提取模型对应的神经网络进行训练。
例如,基频数据提取模型对应的神经网络的类型为RNN,在获取用于对基频数据提取模型对应的一个RNN进行训练的一段语音,提取该一段语音的基频数据之后,由于该段语音中的一部分语音段中可能有至少一帧语音无法提取出对应的基频数据,因此,可以进一步确定在提取一段语音的基频数据之后,包含每一帧语音均可以提取出各自对应的基频数据的语音段。假设在提取一段语音的基频数据之后,该一段语音中有多个语音段中的每一帧语音均可以提取出各自对应的基频数据,则多个语音段中的每一个语音段和语音段对应的基频数据均可以用于对基频数据提取模型对应的一个RNN进行训练。
在利用多个语音段中的每一个语音段对基频数据提取模型对应的一个RNN进行训练时,可以分别提取出多个语音段中的每一个语音段中的每一帧语音的谱参数,生成多个语音段中的每一个语音段对应的谱参数序列。
在利用一个语音段对应的谱参数序列和该一个语音段中的每一帧语音对应的基频数据的基频数据序列对基频数据提取模型对应的一个RNN进行训练时,可以将谱参数序列设置在基频数据提取模型对应的一个RNN的输入端,将基频数据序列设置在基频数据提取模型对应的一个RNN的输出端,以端到端的方式对基频数据提取模型对应的一个RNN进行训练。
步骤102,利用文本的文本特征和文本对应的语音的声学特征对语音合成模型对应的神经网络进行训练。
在本实施例中,在通过步骤101获取用于对语音合成模型对应的神经网络进行训练的文本的文本特征和文本对应的语音的声学特征之后,可以利用文本的文本特征和文本对应的语音的声学特征对语音合成模型对应的神经网络进行训练。
在对语音合成模型对应的神经网络进行训练时,可以分别在将文本的特征设置在语音合成模型对应的神经网络的输入端,将语音的声学特征设置在语音合成模型对应的神经网络的输出端,对语音合成模型对应的神经网络以端到端的方式进行训练。
请参考图2,作为对上述各图所示方法的实现,本申请提供了一种语音合成模型生成装置的一个实施例,该装置实施例与图1所示的方法实施例相对应。
如图2所示,语音合成模型生成装置包括:获取单元201,训练单元202。其中,获取单元201配置用于获取用于对语音合成模型对应的神经网络进行训练的文本的文本特征和文本对应的语音的声学特征,其中,所述声学特征中的用于训练的文本对应的语音的基频数据通过基频数据提取模型提取,所述基频数据提取模型基于利用包含的每一帧语音均对应有基频数据的语音预先对基频数据提取模型对应的神经网络进行训练而生成;训练单元202配置用于利用所述文本的文本特征和文本对应的语音的声学特征对语音合成模型对应的神经网络进行训练。
在本实施例的一些可选的实现方式中,语音合成模型生成装置还包括:基频数据提取模型训练单元,配置用于获取用于对基频数据提取模型对应的神经网络进行训练的语音;提取所述用于对基频数据提取模型对应的神经网络进行训练的语音的基频数据;基于提取出的所述用于对基频数据提取模型对应的神经网络进行训练的语音的基频数据,确定所述用于对基频数据提取模型对应的神经网络进行训练的语音中满足以下条件的语音段:包含的每一帧语音均对应有基频数据;利用满足条件的语音段对所述对基频数据提取模型对应的神经网络进行训练。
在本实施例的一些可选的实现方式中,基频数据提取模型训练单元进一步配置用于:提取出满足条件的语音段中的每一帧语音的谱参数,生成谱参数序列;利用谱参数序列和包含所述语音段中的每一帧语音对应的基频数据的基频数据序列对基频数据提取模型对应的神经网络进行训练。
在本实施例的一些可选的实现方式中,基频数据提取模型对应的神经网络的类型为递归神经网络
图3示出了适于用来实现本申请实施例的电子设备的计算机***的结构示意图。
如图3所示,计算机***包括中央处理单元(CPU)301,其可以根据存储在只读存储器(ROM)302中的程序或者从存储部分308加载到随机访问存储器(RAM)303中的程序而执行各种适当的动作和处理。在RAM303中,还存储有计算机***操作所需的各种程序和数据。CPU 301、ROM 302以及RAM 303通过总线304彼此相连。输入/输出(I/O)接口305也连接至总线304。
以下部件连接至I/O接口305:输入部分306;输出部分307;包括硬盘等的存储部分308;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分309。通信部分309经由诸如因特网的网络执行通信处理。驱动器310也根据需要连接至I/O接口305。可拆卸介质311,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器310上,以便于从其上读出的计算机程序根据需要被安装入存储部分308。
特别地,本申请的实施例中描述的过程可以被实现为计算机程序。例如,本申请的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包括用于执行流程图所示的方法的指令。该计算机程序可以通过通信部分309从网络上被下载和安装,和/或从可拆卸介质311被安装。在该计算机程序被中央处理单元(CPU)301执行时,执行本申请的方法中限定的上述功能。
本申请还提供了一种电子设备,该电子设备可以配置有一个或多个处理器;存储器,用于存储一个或多个程序,一个或多个程序中可以包含用以执行上述步骤101-102中描述的操作的指令。当一个或多个程序被一个或多个处理器执行时,使得一个或多个处理器执行上述步骤101-102中描述的操作。
本申请还提供了一种计算机可读介质,该计算机可读介质可以是电子设备中所包括的;也可以是单独存在,未装配入电子设备中。上述计算机可读介质承载有一个或者多个程序,当一个或者多个程序被电子设备执行时,使得电子设备:获取用于对语音合成模型对应的神经网络进行训练的文本的文本特征和文本对应的语音的声学特征,其中,所述声学特征中的用于训练的文本对应的语音的基频数据通过基频数据提取模型提取,所述基频数据提取模型基于利用包含的每一帧语音均对应有基频数据的语音预先对基频数据提取模型对应的神经网络进行训练而生成;利用所述文本的文本特征和文本对应的语音的声学特征对语音合成模型对应的神经网络进行训练。
需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元,训练单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“用于获取用于对语音合成模型对应的神经网络进行训练的文本的文本特征和文本对应的语音的声学特征的单元”。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离所述发明构思的情况下,由上述技术特征或其等同特征进行任意组合合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (10)
1.一种语音合成模型生成方法,其特征在于,所述方法包括:
获取用于对语音合成模型对应的神经网络进行训练的文本的文本特征和文本对应的语音的声学特征,其中,所述声学特征中的用于训练的文本对应的语音的基频数据通过基频数据提取模型提取,所述基频数据提取模型基于利用包含的每一帧语音均对应有基频数据的语音预先对基频数据提取模型对应的神经网络进行训练而生成;
利用所述文本的文本特征和文本对应的语音的声学特征对语音合成模型对应的神经网络进行训练。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取用于对基频数据提取模型对应的神经网络进行训练的语音;
提取所述用于对基频数据提取模型对应的神经网络进行训练的语音的基频数据;
基于提取出的所述用于对基频数据提取模型对应的神经网络进行训练的语音的基频数据,确定所述用于对基频数据提取模型对应的神经网络进行训练的语音中满足以下条件的语音段:包含的每一帧语音均对应有基频数据;
利用满足条件的语音段对基频数据提取模型对应的神经网络进行训练。
3.根据权利要求2所述的方法,其特征在于,利用满足条件的语音段对所述对基频数据提取模型对应的神经网络进行训练包括:
提取出满足条件的语音段中的每一帧语音的谱参数,生成谱参数序列;
利用谱参数序列和包含所述语音段中的每一帧语音对应的基频数据的基频数据序列对基频数据提取模型对应的神经网络进行训练。
4.根据权利要求3所述的方法,其特征在于,所述基频数据提取模型对应的神经网络的类型为递归神经网络。
5.一种语音合成模型生成装置,其特征在于,所述装置包括:
获取单元,配置用于获取用于对语音合成模型对应的神经网络进行训练的文本的文本特征和文本对应的语音的声学特征,其中,所述声学特征中的用于训练的文本对应的语音的基频数据通过基频数据提取模型提取,所述基频数据提取模型基于利用包含的每一帧语音均对应有基频数据的语音预先对基频数据提取模型对应的神经网络进行训练而生成;
训练单元,配置用于利用所述文本的文本特征和文本对应的语音的声学特征对语音合成模型对应的神经网络进行训练。
6.根据权利要求5所述的装置,其特征在于,所述装置还包括:
基频数据提取模型训练单元,配置用于获取用于对基频数据提取模型对应的神经网络进行训练的语音;提取所述用于对基频数据提取模型对应的神经网络进行训练的语音的基频数据;基于提取出的所述用于对基频数据提取模型对应的神经网络进行训练的语音的基频数据,确定所述用于对基频数据提取模型对应的神经网络进行训练的语音中满足以下条件的语音段:包含的每一帧语音均对应有基频数据;利用满足条件的语音段对基频数据提取模型对应的神经网络进行训练。
7.根据权利要求6所述的装置,其特征在于,基频数据提取模型训练单元进一步配置用于:提取出满足条件的语音段中的每一帧语音的谱参数,生成谱参数序列;利用谱参数序列和包含所述语音段中的每一帧语音对应的基频数据的基频数据序列对基频数据提取模型对应的神经网络进行训练。
8.根据权利要求7所述的装置,其特征在于,所述基频数据提取模型对应的神经网络的类型为递归神经网络。
9.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1-4中任一所述的方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-4中任一所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710897311.6A CN107452369B (zh) | 2017-09-28 | 2017-09-28 | 语音合成模型生成方法和装置 |
US16/053,912 US10978042B2 (en) | 2017-09-28 | 2018-08-03 | Method and apparatus for generating speech synthesis model |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710897311.6A CN107452369B (zh) | 2017-09-28 | 2017-09-28 | 语音合成模型生成方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107452369A true CN107452369A (zh) | 2017-12-08 |
CN107452369B CN107452369B (zh) | 2021-03-19 |
Family
ID=60498396
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710897311.6A Active CN107452369B (zh) | 2017-09-28 | 2017-09-28 | 语音合成模型生成方法和装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10978042B2 (zh) |
CN (1) | CN107452369B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108182936A (zh) * | 2018-03-14 | 2018-06-19 | 百度在线网络技术(北京)有限公司 | 语音信号生成方法和装置 |
CN108492818A (zh) * | 2018-03-22 | 2018-09-04 | 百度在线网络技术(北京)有限公司 | 文本到语音的转换方法、装置和计算机设备 |
CN108615536A (zh) * | 2018-04-09 | 2018-10-02 | 华南理工大学 | 基于麦克风阵列的时频联合特征乐器音质评价***及方法 |
CN108630190A (zh) * | 2018-05-18 | 2018-10-09 | 百度在线网络技术(北京)有限公司 | 用于生成语音合成模型的方法和装置 |
CN111133506A (zh) * | 2019-12-23 | 2020-05-08 | 深圳市优必选科技股份有限公司 | 语音合成模型的训练方法、装置、计算机设备及存储介质 |
CN111223474A (zh) * | 2020-01-15 | 2020-06-02 | 武汉水象电子科技有限公司 | 一种基于多神经网络的语音克隆方法和*** |
CN111785247A (zh) * | 2020-07-13 | 2020-10-16 | 北京字节跳动网络技术有限公司 | 语音生成方法、装置、设备和计算机可读介质 |
WO2020248393A1 (zh) * | 2019-06-14 | 2020-12-17 | 平安科技(深圳)有限公司 | 语音合成方法、***、终端设备和可读存储介质 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110473516B (zh) * | 2019-09-19 | 2020-11-27 | 百度在线网络技术(北京)有限公司 | 语音合成方法、装置以及电子设备 |
CN112115705B (zh) * | 2020-09-23 | 2024-06-18 | 普信恒业科技发展(北京)有限公司 | 一种电子简历的筛选方法及装置 |
CN112927674B (zh) * | 2021-01-20 | 2024-03-12 | 北京有竹居网络技术有限公司 | 语音风格的迁移方法、装置、可读介质和电子设备 |
CN117423329B (zh) * | 2023-12-19 | 2024-02-23 | 北京中科汇联科技股份有限公司 | 模型训练及语音生成方法、装置、设备及存储介质 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7136816B1 (en) * | 2002-04-05 | 2006-11-14 | At&T Corp. | System and method for predicting prosodic parameters |
CN101178896A (zh) * | 2007-12-06 | 2008-05-14 | 安徽科大讯飞信息科技股份有限公司 | 基于声学统计模型的单元挑选语音合成方法 |
CN102982809A (zh) * | 2012-12-11 | 2013-03-20 | 中国科学技术大学 | 一种说话人声音转换方法 |
US8527276B1 (en) * | 2012-10-25 | 2013-09-03 | Google Inc. | Speech synthesis using deep neural networks |
CN103578462A (zh) * | 2012-07-18 | 2014-02-12 | 株式会社东芝 | 语音处理*** |
CN104538024A (zh) * | 2014-12-01 | 2015-04-22 | 百度在线网络技术(北京)有限公司 | 语音合成方法、装置及设备 |
CN104916282A (zh) * | 2015-03-27 | 2015-09-16 | 北京捷通华声语音技术有限公司 | 一种语音合成的方法和装置 |
US9195656B2 (en) * | 2013-12-30 | 2015-11-24 | Google Inc. | Multilingual prosody generation |
CN105118498A (zh) * | 2015-09-06 | 2015-12-02 | 百度在线网络技术(北京)有限公司 | 语音合成模型的训练方法及装置 |
CN105185372A (zh) * | 2015-10-20 | 2015-12-23 | 百度在线网络技术(北京)有限公司 | 个性化多声学模型的训练方法、语音合成方法及装置 |
CN105529023A (zh) * | 2016-01-25 | 2016-04-27 | 百度在线网络技术(北京)有限公司 | 语音合成方法和装置 |
CN105845125A (zh) * | 2016-05-18 | 2016-08-10 | 百度在线网络技术(北京)有限公司 | 语音合成方法和语音合成装置 |
US20160365087A1 (en) * | 2015-06-12 | 2016-12-15 | Geulah Holdings Llc | High end speech synthesis |
US9542927B2 (en) * | 2014-11-13 | 2017-01-10 | Google Inc. | Method and system for building text-to-speech voice from diverse recordings |
CN106653056A (zh) * | 2016-11-16 | 2017-05-10 | 中国科学院自动化研究所 | 基于lstm循环神经网络的基频提取模型及训练方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008185805A (ja) * | 2007-01-30 | 2008-08-14 | Internatl Business Mach Corp <Ibm> | 高品質の合成音声を生成する技術 |
JP5665780B2 (ja) * | 2012-02-21 | 2015-02-04 | 株式会社東芝 | 音声合成装置、方法およびプログラム |
RU2632424C2 (ru) * | 2015-09-29 | 2017-10-04 | Общество С Ограниченной Ответственностью "Яндекс" | Способ и сервер для синтеза речи по тексту |
-
2017
- 2017-09-28 CN CN201710897311.6A patent/CN107452369B/zh active Active
-
2018
- 2018-08-03 US US16/053,912 patent/US10978042B2/en active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7136816B1 (en) * | 2002-04-05 | 2006-11-14 | At&T Corp. | System and method for predicting prosodic parameters |
CN101178896A (zh) * | 2007-12-06 | 2008-05-14 | 安徽科大讯飞信息科技股份有限公司 | 基于声学统计模型的单元挑选语音合成方法 |
CN103578462A (zh) * | 2012-07-18 | 2014-02-12 | 株式会社东芝 | 语音处理*** |
US8527276B1 (en) * | 2012-10-25 | 2013-09-03 | Google Inc. | Speech synthesis using deep neural networks |
CN102982809A (zh) * | 2012-12-11 | 2013-03-20 | 中国科学技术大学 | 一种说话人声音转换方法 |
US9195656B2 (en) * | 2013-12-30 | 2015-11-24 | Google Inc. | Multilingual prosody generation |
US9542927B2 (en) * | 2014-11-13 | 2017-01-10 | Google Inc. | Method and system for building text-to-speech voice from diverse recordings |
CN104538024A (zh) * | 2014-12-01 | 2015-04-22 | 百度在线网络技术(北京)有限公司 | 语音合成方法、装置及设备 |
CN104916282A (zh) * | 2015-03-27 | 2015-09-16 | 北京捷通华声语音技术有限公司 | 一种语音合成的方法和装置 |
US20160365087A1 (en) * | 2015-06-12 | 2016-12-15 | Geulah Holdings Llc | High end speech synthesis |
CN105118498A (zh) * | 2015-09-06 | 2015-12-02 | 百度在线网络技术(北京)有限公司 | 语音合成模型的训练方法及装置 |
CN105185372A (zh) * | 2015-10-20 | 2015-12-23 | 百度在线网络技术(北京)有限公司 | 个性化多声学模型的训练方法、语音合成方法及装置 |
CN105529023A (zh) * | 2016-01-25 | 2016-04-27 | 百度在线网络技术(北京)有限公司 | 语音合成方法和装置 |
CN105845125A (zh) * | 2016-05-18 | 2016-08-10 | 百度在线网络技术(北京)有限公司 | 语音合成方法和语音合成装置 |
CN106653056A (zh) * | 2016-11-16 | 2017-05-10 | 中国科学院自动化研究所 | 基于lstm循环神经网络的基频提取模型及训练方法 |
Non-Patent Citations (4)
Title |
---|
ARIK ET AL.: "《Deep voice:Real-time neural text-to-speech》", 《PROCEEDINGS OF THE 34TH INTERMATIONAL CONFERENCE ON MACHINE LEARNING-VOLUME 70.JMLR.ORG》 * |
C. SHAHNAZ ET AL.: "《A pitch extraction algorithm in noise based on temporal and spectral representations》", 《2008 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH AND SIGNAL PROCESSING》 * |
胡海洋等: "《一种基于动态平滑的实时基频提取算法》", 《声学技术》 * |
陈萧等: "《改进的用于口语处理的基频提取算法》", 《清华大学学报(自然科学版)》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108182936A (zh) * | 2018-03-14 | 2018-06-19 | 百度在线网络技术(北京)有限公司 | 语音信号生成方法和装置 |
CN108492818A (zh) * | 2018-03-22 | 2018-09-04 | 百度在线网络技术(北京)有限公司 | 文本到语音的转换方法、装置和计算机设备 |
CN108492818B (zh) * | 2018-03-22 | 2020-10-30 | 百度在线网络技术(北京)有限公司 | 文本到语音的转换方法、装置和计算机设备 |
CN108615536A (zh) * | 2018-04-09 | 2018-10-02 | 华南理工大学 | 基于麦克风阵列的时频联合特征乐器音质评价***及方法 |
CN108630190A (zh) * | 2018-05-18 | 2018-10-09 | 百度在线网络技术(北京)有限公司 | 用于生成语音合成模型的方法和装置 |
WO2020248393A1 (zh) * | 2019-06-14 | 2020-12-17 | 平安科技(深圳)有限公司 | 语音合成方法、***、终端设备和可读存储介质 |
CN111133506A (zh) * | 2019-12-23 | 2020-05-08 | 深圳市优必选科技股份有限公司 | 语音合成模型的训练方法、装置、计算机设备及存储介质 |
WO2021127821A1 (zh) * | 2019-12-23 | 2021-07-01 | 深圳市优必选科技股份有限公司 | 语音合成模型的训练方法、装置、计算机设备及存储介质 |
CN111223474A (zh) * | 2020-01-15 | 2020-06-02 | 武汉水象电子科技有限公司 | 一种基于多神经网络的语音克隆方法和*** |
CN111785247A (zh) * | 2020-07-13 | 2020-10-16 | 北京字节跳动网络技术有限公司 | 语音生成方法、装置、设备和计算机可读介质 |
Also Published As
Publication number | Publication date |
---|---|
US10978042B2 (en) | 2021-04-13 |
CN107452369B (zh) | 2021-03-19 |
US20190096386A1 (en) | 2019-03-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107452369A (zh) | 语音合成模型生成方法和装置 | |
CN108182936B (zh) | 语音信号生成方法和装置 | |
CN107464554A (zh) | 语音合成模型生成方法和装置 | |
US10553201B2 (en) | Method and apparatus for speech synthesis | |
JP6803365B2 (ja) | 音声合成モデルを生成するための方法、及び装置 | |
CN107103903B (zh) | 基于人工智能的声学模型训练方法、装置及存储介质 | |
CN107657017A (zh) | 用于提供语音服务的方法和装置 | |
KR20190042730A (ko) | 신경망을 사용하여 오디오 생성 | |
CN110223705A (zh) | 语音转换方法、装置、设备及可读存储介质 | |
CN108428446A (zh) | 语音识别方法和装置 | |
CN108806665A (zh) | 语音合成方法和装置 | |
CN107729319A (zh) | 用于输出信息的方法和装置 | |
CN111193834B (zh) | 基于用户声音特征分析的人机交互方法、装置和电子设备 | |
CN107481715A (zh) | 用于生成信息的方法和装置 | |
CN108877782A (zh) | 语音识别方法和装置 | |
CN110148400A (zh) | 发音类型的识别方法、模型的训练方法、装置及设备 | |
CN108121800A (zh) | 基于人工智能的信息生成方法和装置 | |
CN105654939A (zh) | 一种基于音向量文本特征的语音合成方法 | |
CN112951203B (zh) | 语音合成方法、装置、电子设备及存储介质 | |
CN107506434A (zh) | 基于人工智能分类语音输入文本的方法和装置 | |
CN112562634A (zh) | 多风格音频合成方法、装置、设备及存储介质 | |
CA3195582A1 (en) | Audio generator and methods for generating an audio signal and training an audio generator | |
CN107705782A (zh) | 用于确定音素发音时长的方法和装置 | |
CN108491808A (zh) | 用于获取信息的方法及装置 | |
CN109087627A (zh) | 用于生成信息的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |