CN111164674B - 语音合成方法、装置、终端及存储介质 - Google Patents
语音合成方法、装置、终端及存储介质 Download PDFInfo
- Publication number
- CN111164674B CN111164674B CN201980003388.1A CN201980003388A CN111164674B CN 111164674 B CN111164674 B CN 111164674B CN 201980003388 A CN201980003388 A CN 201980003388A CN 111164674 B CN111164674 B CN 111164674B
- Authority
- CN
- China
- Prior art keywords
- text
- features
- synthesized
- training
- word segmentation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001308 synthesis method Methods 0.000 title abstract description 19
- 230000011218 segmentation Effects 0.000 claims abstract description 144
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 34
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 34
- 238000012549 training Methods 0.000 claims description 161
- 238000000034 method Methods 0.000 claims description 54
- 230000015654 memory Effects 0.000 claims description 21
- 238000004590 computer program Methods 0.000 claims description 9
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 12
- 238000003062 neural network model Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 3
- 230000002194 synthesizing effect Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 206010012239 Delusion Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 231100000868 delusion Toxicity 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000013707 sensory perception of sound Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
- G10L13/047—Architecture of speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
- G10L13/10—Prosody rules derived from text; Stress or intonation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
- G10L2013/083—Special characters, e.g. punctuation marks
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Signal Processing (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明实施例公开了一种语音合成方法,所述方法包括:获取待合成文本;获取所述待合成文本的文本特征,所述文本特征包括分词特征、多音字特征和/或韵律特征中的至少一个;将所述文本特征输入预设的时长预测模型,获取与所述文本特征对应的时长特征;将所述文本特征和所述时长特征输入预设的声学模型,获取与所述待合成文本对应的语音特征;将所述语音特征转换成语音,生成与所述待合成文本对应的目标语音。本发明提供的语音合成方法考虑了多种文本特征和时长特征生成的语音特征,使得合成的语音更加准确,提高了语音合成的准确性,提高了用户体验。此外,还提出了一种语音合成装置、终端及存储介质。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种语音合成方法、装置、智能终端及计算机可读存储介质。
背景技术
随着移动互联网和人工智能技术的快速发展,语音播报、听小说、听新闻、智能交互等一系列语音合成的场景越来越多。语音合成可以将文本等转换成自然语音输出。
现有技术中语音合成多采用统计参数合成法,对于引得频谱特性参数进行建模,生成参数合成器,来构建文本序列映射到语音的映射关系,然后统计模型来产生每时每刻的语音参数(包括基频、共振峰频率等),然后把这些参数转化为语音对应的相关特征,最后生成输出的语音。但是上述语音合成方法中,每个步骤对应的单一子模块的计算结果不一定全部都是最优效果,从而导致了无法将文本准确转换为适应多语言、多音色场景的语音,影响了整体上的语音合成的质量,极大影响用户体验。
也就是说,上述语音合成的方案中,因为单一子模块计算结果非最优的问题导致了最终合成的语音的质量不足。
发明内容
基于此,有必要针对上述问题,提出了一种语音合成方法、装置、智能终端及计算机可读存储介质。
在本发明的第一方面,提出了一种语音合成方法。
一种语音合成方法,包括:
获取待合成文本;
获取所述待合成文本的文本特征,所述文本特征包括分词特征、多音字特征和/或韵律特征中的至少一个;
将所述文本特征输入预设的时长预测模型,获取与所述文本特征对应的时长特征;
将所述文本特征和所述时长特征输入预设的声学模型,获取与所述待合成文本对应的语音特征;
将所述语音特征转换成语音,生成与所述待合成文本对应的目标语音。
在一个实施例中,所述获取所述待合成文本的文本特征的步骤之前,还包括:对所述待合成文本进行正则化处理。
在一个实施例中,所述获取所述待合成文本的文本特征的步骤还包括:将所述待合成文本输入预设的分词模型,获取与所述待合成文本对应的分词特征;将所述待合成文本和/或所述分词特征输入预设的多音字预测模型,获取所述待合成文本对应的多音字特征;将所述待合成文本和/或所述分词特征输入预设的韵律预测模型,获取所述待合成文本对应的韵律特征。
在一个实施例中,所述方法还包括:获取训练样本集,所述训练样本集包含多个训练文本以及对应的文本参考特征、时长参考特征和/或语音参考特征;将所述训练文本对应的文本参考特征作为所述时长预测模型的输入,所述时长参考特征作为时长预测模型的输出,对所述时长预测模型进行训练;将所述文本参考特征和所述时长参考特征作为所述声学模型的输入,所述语音参考特征作为声学模型的输出,对所述声学模型进行训练。
在一个实施例中,所述训练样本集还包含与所述多个训练文本对应的分词参考特征、多音字参考特征和/或韵律参考特征;所述方法包括:将所述训练文本作为所述分词模型的输入,所述分词参考特征作为分词模型的输出,对所述分词模型进行训练。将所述训练文本和/或所述分词参考特征作为所述多音字预测模型的输入,所述多音字参考特征作为多音字预测模型的输出,对所述多音字预测模型进行训练。将所述训练文本和/或所述分词参考特征作为所述韵律预测模型的输入,所述韵律参考特征作为韵律预测模型的输出,对所述韵律预测模型进行训练。
在一个实施例中,所述方法还包括:通过文本迭代器获取多个待合成文本,针对每一个待合成文本,分别执行所述获取所述待合成文本的文本特征的步骤;将多个待合成文本对应的文本特征添加至预设的特征队列,当所述特征队列满足预设条件时,获取所述特征队列中的预设数量的文本特征,并将所述预设数量的文本特征分别输入所述时长预测模型,以使同步执行所述获取与所述文本特征对应的时长特征的步骤。
在本发明的第二方面,提出了一种语音合成装置。
一种语音合成装置,包括:
获取模块,用于获取待合成文本;
文本特征确定模块,用于获取所述待合成文本的文本特征,所述文本特征包括分词特征、多音字特征和/或韵律特征中的至少一个;
时长特征确定模块,用于将所述文本特征输入预设的时长预测模型,获取与所述文本特征对应的时长特征;
语音特征确定模块,用于将所述文本特征和所述时长特征输入预设的声学模型,获取与所述待合成文本对应的语音特征;
转换模块,用于将所述语音特征转换成语音,生成与所述待合成文本对应的目标语音。
在一个实施例中,所述文本特征确定模块还包括:预处理单元,用于对所述待合成文本进行正则化处理。
在一个实施例中,所述文本特征确定模块还包括:分词特征确定单元,用于将所述待合成文本输入预设的分词模型,获取与所述待合成文本对应的分词特征;多音字特征确定单元,用于将所述待合成文本和/或所述分词特征输入预设的多音字预测模型,获取所述待合成文本对应的多音字特征;韵律特征确定单元,用于将所述待合成文本和/或所述分词特征输入预设的韵律预测模型,获取所述待合成文本对应的韵律特征。
在一个实施例中,所述装置还包括:获取训练模块,用于获取训练样本集,所述训练样本集包含多个训练文本以及对应的文本参考特征、时长参考特征和/或语音参考特征;时长训练模块,用于将所述训练文本对应的文本参考特征作为所述时长预测模型的输入,所述时长参考特征作为时长预测模型的输出,对所述时长预测模型进行训练;语音训练模块,用于将所述文本参考特征和所述时长参考特征作为所述声学模型的输入,所述语音参考特征作为声学模型的输出,对所述声学模型进行训练。
在一个实施例中,所述训练样本集还包含与所述多个训练文本对应的分词参考特征、多音字参考特征和/或韵律参考特征,所述装置包括:分词训练模块,用于将所述训练文本作为所述分词模型的输入,所述分词参考特征作为分词模型的输出,对所述分词模型进行训练。多音字训练模块,用于将所述训练文本和/或所述分词参考特征作为所述多音字预测模型的输入,所述多音字参考特征作为多音字预测模型的输出,对所述多音字预测模型进行训练。韵律训练模块,用于将所述训练文本和/或所述分词参考特征作为所述韵律预测模型的输入,所述韵律参考特征作为韵律预测模型的输出,对所述韵律预测模型进行训练。
在一个实施例中,所述装置还包括:文本获取模块,用于通过文本迭代器获取多个待合成文本,针对每一个待合成文本,分别执行所述获取所述待合成文本的文本特征的步骤;文本预测模块,用于将多个待合成文本对应的文本特征添加至预设的特征队列,当所述特征队列满足预设条件时,获取所述特征队列中的预设数量的文本特征,并将所述预设数量的文本特征分别输入所述时长预测模型,以使同步执行所述获取与所述文本特征对应的时长特征的步骤。
在本发明的第三方面,提出了一种智能终端。
一种智能终端,包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行以下步骤:
获取待合成文本;
获取所述待合成文本的文本特征,所述文本特征包括分词特征、多音字特征和/或韵律特征中的至少一个;
将所述文本特征输入预设的时长预测模型,获取与所述文本特征对应的时长特征;
将所述文本特征和所述时长特征输入预设的声学模型,获取与所述待合成文本对应的语音特征;
将所述语音特征转换成语音,生成与所述待合成文本对应的目标语音。
在本发明的第四方面,提出了一种计算机可读存储介质。
一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行以下步骤:
获取待合成文本;
获取所述待合成文本的文本特征,所述文本特征包括分词特征、多音字特征和/或韵律特征中的至少一个;
将所述文本特征输入预设的时长预测模型,获取与所述文本特征对应的时长特征;
将所述文本特征和所述时长特征输入预设的声学模型,获取与所述待合成文本对应的语音特征;
将所述语音特征转换成语音,生成与所述待合成文本对应的目标语音。
实施本发明实施例,将具有如下有益效果:
采用本发明的语音合成方法、装置、终端及存储介质之后,在进行语音合成的过程中,首先获取待合成文本的待合成文本的文本特征,所述文本特征包括分词特征、多音字特征和/或韵律特征等文本特征;然后将文本特征输入预设的时长预测模型获取对应的时长特征;将文本特征和时长特征输入预设的声学模型获取对应的语音特征;最后将语音特征转换成语音,生成与待合成文本对应的目标语音。在进行语音合成的特征提取的过程中,考虑的文本特征包括了多音字特征和韵律特征等,并结合模型预测的时长特征,得到最终合成语音的过程中所需要的语音特征。也就是说,本发明提供的语音合成方法、装置、终端及存储介质考虑了多种文本特征和时长特征生成的语音特征,使得合成的语音更加准确,提高了语音合成的准确性,提高了用户体验。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
其中:
图1为本申请中一个实施例中语音合成方法的应用环境图;
图2为本申请中一个实施例中语音合成方法的流程示意图;
图3为本申请中一个实施例中一种获取待合成文本的文本特征的过程的流程图示意图;
图4为本申请中一个实施例中时长预测模型和声学模型训练的方法的流程示意图;
图5为本申请中一个实施例中分词模型、多音字预测模型和/或韵律预测模型的流程示意图;
图6为本申请中一个实施例中语音合成方法的流程图;
图7为本申请中一个实施例中语音合成装置的结构框图;
图8为本申请中一个实施例中文本特征确定模块的结构框图;
图9为本申请中一个实施例中语音合成装置的结构框图;
图10为本申请中一个实施例中语音合成装置的结构框图;
图11为本申请中一个实施例中语音合成装置的结构框图;
图12为本申请中一个实施例中执行前述语音合成方法的计算机设备的结构框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1为一个实施例中语音合成的方法的应用环境图。参照图1,该语音合成的方法应用于语音合成***。该语音合成***包括终端110和服务器120。终端110和服务器120通过网络连接,终端110具体可以是台式终端或移动终端,移动终端具体可以是PC、手机、平板电脑、笔记本电脑等终端设备。服务器120可以用独立的服务器或者是多个服务器组成的服务器集群来实现。终端110用于获取待合成文本,服务器120用于对待合成文本进行分析和处理,合成待合成文本对应的目标语音。
在另一个实施例中,上述基于语音合成的方法的执行还可以是基于一终端设备,该终端可获取待合成文本、也可以对待合成文本进行分析,合成待合成文本对应的目标语音。
考虑到该方法既可以应用于终端,也可以应用于服务器,且在具体的语音合成的过程是相同的,本实施例以应用于终端举例说明。
如图2所示,在一个实施例中,提供了一种语音合成的方法。该语音合成的方法具体包括如下步骤S102-S110:
步骤S102,获取待合成文本。
具体的,待合成文本为需要进行语音合成的文本信息。例如,在语音聊天机器人、语音读报等场景下,需要转换成语音的文本信息。示例性的,待合成文本可以是“自从那一刻起,她便不再妄自菲薄。”。
上述待合成文本可以是获取直接输入文本信息,也可以是通过摄像头等扫描识别得到文本信息。
步骤S104,获取所述待合成文本的文本特征,所述文本特征包括分词特征、多音字特征和/或韵律特征中的至少一个。
具体的,文本特征是待合成文本中文本信息对应的规律特征。
在一个具体的实施例中,文本特征可以是分词特征、多音字特征和/或韵律特征中的一个。
分词特征是将组成待合成文本的词语进行分类得到的词组特征,可以是名词、动词、介词和形容词等。
多音字特征是待合成文本中包括的存在多种读音的字或词,由于读音有区别词性和词义的作用,因此使用情况或者环境不同,读音也不同。
韵律特征是语言的一种韵律结构,与句法和语篇结构、信息结构等其他语言学结构密切相关。韵律特征是自然语言的典型特征,是不同语言具有的共同特点,比如:音高下倾、重读、停顿等特征。韵律特征可以分为三个主要方面:语调、时域分布和重音,通过超音段特征实现。超音段特征包括音高,强度以及时间特性,由音位或音位群负载。韵律特征是语言和对应的情绪表达的重要形式。
在获取待合成文本的文本特征前,还可以先对待合成文本进行预处理,避免一些微小的影响(例如格式问题)导致输出的文本特征存在偏差。
在一个实施例中,在获取所述待合成文本的文本特征之前,对所述待合成文本进行正则化处理。
其中,正则化处理是对待合成文本进行规范化,将语言文字转换为预设形式的语言文字,例如,英文处理字母的大小写,可以根据需要去除标点符号,从而避免文本格式等问题导致输出的文本特征存在偏差。在另一个具体的实施例中,对待合成文本进行规范化处理还包括了将待合成文本中的数字、符号等文本转换成中文,以便于后续进行分词特征、多音字特征和/或韵律特征的提取,减少特征提取的误差。
上述待合成文本的文本特征的获取,可以是将待合成文本输入预设的神经网络模型,预设的神经网络模型根据相应的算法计算得到相应的文本特征;或者,按照预设的特征提取算法,从待合成文本中提取对应的文本特征。
在一个实施例中,对通过神经网络模型获取待合成文本的文本特征的过程进行描述。
具体的,如图3所示,给出了一种获取待合成文本的文本特征的过程的流程示意图。
如图3所述,上述获取待合成文本的文本特征的过程包括如图3所示的步骤S1041-S1043:
步骤S1041:将待合成文本输入预设的分词模型,获取与待合成文本对应的分词特征,其中分词特征包含了待合成文本中应该从哪些地方进行断句、或者断开,从而确定待合成文本对应的分词结果对应的分词特征;
步骤S1042:将待合成文本和/或分词特征输入预设的多音字预测模型,获取待合成文本对应的多音字特征;
步骤S1043:将待合成文本和/或分词特征输入预设的韵律预测模型,获取待合成文本对应的韵律特征。
分词模型是将待合成文本进行分词处理得出分词特征的神经网络模型,通过分词模型可以对待合成文本的分词特征进行预测。其中,分词特征的确定是通过分词得到的字向量确定的,字向量是根据分词模型划分的单词或者词组对应的向量,用于确定待合成文本的分词特征。
多音字预测模型可以预测待合成文本中或者分词特征中的多音字特征,可以为一神经网络模型。
韵律预测模型是预测待合成文本或者分词特征中的韵律特征的神经网络模型,可以对待合成文本的韵律特征进行预测,例如,韵律词特征、韵律短语特征以及语调短语特征。
本实施例中的待合成文本中的文本特征不限于本实施例中的分词特征、多音字特征和韵律特征等文本特征。
用户可以对本文中涉及的文本特征进行设置,涉及的文本特征不仅仅是分词特征、多音字特征和韵律特征,还可以是前后词关联特征等其他的特征。用户也可以通过对计算图的建立对总的神经网络模型的结构进行建立,对输入数据进行选择。
步骤S106,将所述文本特征输入预设的时长预测模型,获取与所述文本特征对应的时长特征。
具体的,时长特征是待合成文本以及待合成文本对应的文本特征中包含的音素文本特征对应的时间长度。预设的时长预测模型是预测音素文本特征对应的时间长度的神经网络模型,确定待合成文本包含的每一个音素对应的时间长度,其中包含将拼音转化成音素的过程,是通过多音字预测模型得到字的读音(例如ou3),然后将读音转化为音素,然后用时长预测模型去预测音素的时长。示例性的,将读音转换为音素,“我在中国”中的“我”的读音ou3可以转换为ou的1个音素,“国”的读音guo2可以转换为g,uo的两个音素。
步骤S108,将所述文本特征和所述时长特征输入预设的声学模型,获取与所述待合成文本对应的语音特征。
具体的,语音特征是根据文本特征和时长特征生成的特征,语音特征包括声强、响度、音高和/或基音周期等特征。其中,声强是单位时间内通过垂直于声波传播方向的单位面积的平均声能;响度反映了主观感觉到的声音强弱程度;音高反映了主观感觉到的声音频率高低;基音周期,是在发音时浊音波形呈现的准周期,反映了声门相邻两次开闭之间的时间间隔或开闭的频率。
在本实施例中,将上述步骤S104中获取的文本特征以及步骤S106中获取的时长特征输入预设的声学模型,通过声学模型对待合成文本对应的语音特征。
上述对语音特征进行预测的声学模型,为一神经网络模型,通过事先的训练声学模型具备根据文本特征和时长特征计算对应的语音特征的能力。
步骤S110,将所述语音特征转换成语音,生成与所述待合成文本对应的目标语音。
目标语音是通过对待合成文本生成的语音。将语音特征转换为语音,可以将语音特征通过声码器进行合成,输出语音特征在声码器中对应的语音和语音时长等,得到目标语音,其中,声码器可以是parallel wavenet声码器。具体的,将语音特征作为输入,通过预设的声码器对待合成文本对应的语音特征进行语音合成,输出对应的目标语音。
进一步的,上述时长预测模型和声学模型可以对待合成文本的相关特征进行很好的预测,并且,在使用相应的模型进行预测之前,还要根据训练数据对相应的模型进行训练。也就是说,对文本特征进行预测得到对应的时长特征和语音特征之前,还需要对时长预测模型和声学模型进行训练,使得相应的模型具备对文本特征对应的时长特征和语音特征进行准确的预测的能力。
如图4所述,上述语音合成方法还包括如图4所示的步骤S1101-S1103:
步骤S1101:获取训练样本集,所述训练样本集包含多个训练文本以及对应的文本参考特征、时长参考特征和/或语音参考特征;
步骤S1102:将所述训练文本对应的文本参考特征作为所述时长预测模型的输入,所述时长参考特征作为时长预测模型的输出,对所述时长预测模型进行训练;
步骤S1103:将所述文本参考特征和所述时长参考特征作为所述声学模型的输入,所述语音参考特征作为声学模型的输出,对所述声学模型进行训练。
在进行模型训练之前,首先需要对数据进行标识,确定文本对应的时长参考特征和语音参考特征。其中,时长参考特征是与待合成文本对应的时长特征,语音参考特征是与待合成文本对应的语音特征。本实施例中通过预先训练样本集对时长预测模型和声学模型进行训练,使得模型具备准确预测待合成文本对应的时长特征和语音特征的能力。
针对训练数据集包含的每一条训练文本,将训练文本对应的文本参考特征作为输入,将对应的时长参考特征作为输出,对预设的时长预测模型进行训练,以使时长训练模型具备时长特征预测的功能。
针对训练数据集包含的每一条训练文本,将训练文本对应的文本参考特征和时长参考特征作为输入,将对应的语音参考特征作为输出,对预设的声学模型进行训练,以使声学模型具备语音特征预测的功能。
进一步的,在一个实施例中,还需要对文本特征预测的各个模型进行模型的训练,具体包含对分词模型、多音字预测模型、韵律预测模型的训练。
也就是说,通过训练样本集对文本特征预测涉及的分词模型、多音字预测模型和韵律预测模型进行训练,使得分词模型、多音字预测模型和韵律预测模型分别具备有根据待合成文本预测分词特征、多音字特征和韵律特征等文本特征的能力。
如图5所述,上述语音合成方法还包括如图5所示的步骤S2101-S2103:
在一个实施例中,所述训练样本集还包含与所述多个训练文本对应的分词参考特征、多音字参考特征和/或韵律参考特征;所述方法包括:
步骤S2101:将所述训练文本作为所述分词模型的输入,所述分词参考特征作为分词模型的输出,对所述分词模型进行训练。
步骤S2102:将所述训练文本和/或所述分词参考特征作为所述多音字预测模型的输入,所述多音字参考特征作为多音字预测模型的输出,对所述多音字预测模型进行训练。
步骤S2103:将所述训练文本和/或所述分词参考特征作为所述韵律预测模型的输入,所述韵律参考特征作为韵律预测模型的输出,对所述韵律预测模型进行训练。
其中,训练样本集还可以包括多个训练文本以及期望模型输出的分词特征、多音字特征和韵律特征。分词参考特征是期望分词模型根据训练文本输出的分词特征,多音字参考特征是期望多音字预测模型根据训练文本和对应的分词特征输出的多音字特征。韵律参考特征是期望韵律预测模型根据训练文本和对应的分词特征输出的韵律特征。
针对训练数据集包含的每一条训练文本,将训练文本作为输入,将对应的分词参考特征作为输出,对预设的分词模型进行训练,以使分词模型具备分词特征预测的功能。
针对训练数据集包含的每一条训练文本,将训练文本以及对应的分词参考特征作为输入,将对应的多音字参考特征作为输出,对预设的多音字预测模型进行训练,以使多音字预测模型具备多音字特征预测的功能。
针对训练数据集包含的每一条训练文本,将训练文本以及对应的分词参考特征作为输入,将对应的韵律参考特征作为输出,对预设的韵律预测模型进行训练,以使韵律预测模型具备韵律特征预测的功能。
本实施例中通过预先处理好的数据对分词模型、多音字预测模型和韵律预测模型进行训练,使得模型能够准确预测出训练文本对应的分词特征、多音字特征和韵律特征。
在具体的预测过程中,可以同时获取多个待合成文本,获取每一个待合成文本对应的文本特征。将多个待合成文本对应的文本特征进行筛选和排序,输入预设的特征队列。获取特征队列中预设数量的文本特征,输入时长预测模型和声学模型进行预测,得到对应的特征。其中,生成每一个待合成文本对应的文本特征和对预设数量的文本特征进行预测的步骤是同步进行的。
如图6所述,上述语音合成方法还包括如图6所示的步骤S3101-S3102:
步骤S3101:通过文本迭代器获取多个待合成文本,针对每一个待合成文本,分别执行所述获取所述待合成文本的文本特征的步骤;
步骤S3102:将多个待合成文本对应的文本特征添加至预设的特征队列,当所述特征队列满足预设条件时,获取所述特征队列中的预设数量的文本特征,并将所述预设数量的文本特征分别输入所述时长预测模型,以使同步执行所述获取与所述文本特征对应的时长特征的步骤。
其中,文本迭代器用于获取多个待合成文本和对应的文本特征中连续的数据,可以在多个获取待合成文本中的文本特征的进程中连续、迭代出文本特征,特征队列是包含多个文本特征的有序的集合。预设条件是进行将文本特征输入时长预测模型的条件,可以是文本特征达到一定的数量,也可以是达到预设的文本特征的获取时间。预设数量是特征队列输出文本特征的数量,可以是固定数值,也可以是依据某种规律变换的数值。
本实施例中添加了队列特征和文本迭代器对多个待合成文本进行处理,使得更加有效和快速对待合成文本进行文本转换,提高了语音合成和模型训练的效率。
示例性的,在上述模型训练以及模型训练的过程中,时长预测模型、声学模型、分词模型、多音字预测模型和/或韵律预测模型为神经网络模型,在一个具体的实施例中,为双向长短期记忆申请网络模型(BiLSTM模型)。。
其中,BiLSTM(Bi-directional Long Short-Term Memory,双向长短期记忆网络)模型,使得数据具有时间依赖性,并且对数据进行全局化处理。能通过前后词等特征来更好的预测结果。
如图7所示,在一个实施例中,提出了一种语音合成装置,该装置包括:
获取模块702,用于获取待合成文本;
文本特征确定模块704,用于获取所述待合成文本的文本特征,所述文本特征包括分词特征、多音字特征和/或韵律特征中的至少一个;
时长特征确定模块706,用于将所述文本特征输入预设的时长预测模型,获取与所述文本特征对应的时长特征;
语音特征确定模块708,用于将所述文本特征和所述时长特征输入预设的声学模型,获取与所述待合成文本对应的语音特征;
转换模块710,用于将所述语音特征转换成语音,生成与所述待合成文本对应的目标语音。
如图8所示,在一个实施例中,所述文本特征确定模块704还包括:预处理单元,用于对所述待合成文本进行正则化处理。
如图8所示,在一个实施例中,所述文本特征确定模块704还包括:分词特征确定单元,用于将所述待合成文本输入预设的分词模型,获取与所述待合成文本对应的分词特征;多音字特征确定单元,用于将所述待合成文本和/或所述分词特征输入预设的多音字预测模型,获取所述待合成文本对应的多音字特征;韵律特征确定单元,用于将所述待合成文本和/或所述分词特征输入预设的韵律预测模型,获取所述待合成文本对应的韵律特征。
如图9所示,在一个实施例中,所述装置还包括:获取训练模块703,用于获取训练样本集,所述训练样本集包含多个训练文本以及对应的文本参考特征、时长参考特征和/或语音参考特征;时长训练模块705,用于将所述训练文本对应的文本参考特征作为所述时长预测模型的输入,所述时长参考特征作为时长预测模型的输出,对所述时长预测模型进行训练;语音训练模块707,用于将所述文本参考特征和所述时长参考特征作为所述声学模型的输入,所述语音参考特征作为声学模型的输出,对所述声学模型进行训练。
如图10所示,在一个实施例中,所述训练样本集还包含与所述多个训练文本对应的分词参考特征、多音字参考特征和/或韵律参考特征,所述装置包括:分词训练模块7041,用于将所述训练文本作为所述分词模型的输入,所述分词参考特征作为分词模型的输出,对所述分词模型进行训练。多音字训练模块7043,用于将所述训练文本和/或所述分词参考特征作为所述多音字预测模型的输入,所述多音字参考特征作为多音字预测模型的输出,对所述多音字预测模型进行训练。韵律训练模块7045,用于将所述训练文本和/或所述分词参考特征作为所述韵律预测模型的输入,所述韵律参考特征作为韵律预测模型的输出,对所述韵律预测模型进行训练。
如图11所示,在一个实施例中,所述装置还包括:文本获取模块709,用于通过文本迭代器获取多个待合成文本,针对每一个待合成文本,分别执行所述获取所述待合成文本的文本特征的步骤;文本预测模块711,用于将多个待合成文本对应的文本特征添加至预设的特征队列,当所述特征队列满足预设条件时,获取所述特征队列中的预设数量的文本特征,并将所述预设数量的文本特征分别输入所述时长预测模型,以使同步执行所述获取与所述文本特征对应的时长特征的步骤。
在一个实施例中,所述时长预测模型、声学模型、分词模型、多音字预测模型和/或韵律预测模型为BiLSTM模型。
图12示出了一个实施例中智能终端的内部结构图。该智能终端具体可以是终端,也可以是服务器。如图12所示,该智能终端包括通过***总线连接的处理器、存储器和网络接口。其中,存储器包括非易失性存储介质和内存储器。该智能终端的非易失性存储介质存储有操作***,还可存储有计算机程序,该计算机程序被处理器执行时,可使得处理器实现年龄识别方法。该内存储器中也可储存有计算机程序,该计算机程序被处理器执行时,可使得处理器执行年龄识别方法。本领域技术人员可以理解,图12中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提出了一种智能终端,包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行以下步骤:获取待合成文本;获取所述待合成文本的文本特征,所述文本特征包括分词特征、多音字特征和/或韵律特征中的至少一个;将所述文本特征输入预设的时长预测模型,获取与所述文本特征对应的时长特征;将所述文本特征和所述时长特征输入预设的声学模型,获取与所述待合成文本对应的语音特征;将所述语音特征转换成语音,生成与所述待合成文本对应的目标语音。
在一个实施例中,所述获取所述待合成文本的文本特征的步骤之前,还包括:对所述待合成文本进行正则化处理。
在一个实施例中,所述获取所述待合成文本的文本特征的步骤还包括:将所述待合成文本输入预设的分词模型,获取与所述待合成文本对应的分词特征;将所述待合成文本和/或所述分词特征输入预设的多音字预测模型,获取所述待合成文本对应的多音字特征;将所述待合成文本和/或所述分词特征输入预设的韵律预测模型,获取所述待合成文本对应的韵律特征。
在一个实施例中,所述方法还包括:获取训练样本集,所述训练样本集包含多个训练文本以及对应的文本参考特征、时长参考特征和/或语音参考特征;将所述训练文本对应的文本参考特征作为所述时长预测模型的输入,所述时长参考特征作为时长预测模型的输出,对所述时长预测模型进行训练。将所述文本参考特征和所述时长参考特征作为所述声学模型的输入,所述语音参考特征作为声学模型的输出,对所述声学模型进行训练。
在一个实施例中,所述训练样本集还包含与所述多个训练文本对应的分词参考特征、多音字参考特征和/或韵律参考特征;所述方法包括:将所述训练文本作为所述分词模型的输入,所述分词参考特征作为分词模型的输出,对所述分词模型进行训练。将所述训练文本和/或所述分词参考特征作为所述多音字预测模型的输入,所述多音字参考特征作为多音字预测模型的输出,对所述多音字预测模型进行训练。将所述训练文本和/或所述分词参考特征作为所述韵律预测模型的输入,所述韵律参考特征作为韵律预测模型的输出,对所述韵律预测模型进行训练。
在一个实施例中,所述方法还包括:通过文本迭代器获取多个待合成文本,针对每一个待合成文本,分别执行所述获取所述待合成文本的文本特征的步骤;将多个待合成文本对应的文本特征添加至预设的特征队列,当所述特征队列满足预设条件时,获取所述特征队列中的预设数量的文本特征,并将所述预设数量的文本特征分别输入所述时长预测模型,以使同步执行所述获取与所述文本特征对应的时长特征的步骤。
在一个实施例中,提出了一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行以下步骤:获取待合成文本;获取所述待合成文本的文本特征,所述文本特征包括分词特征、多音字特征和/或韵律特征中的至少一个;将所述文本特征输入预设的时长预测模型,获取与所述文本特征对应的时长特征;将所述文本特征和所述时长特征输入预设的声学模型,获取与所述待合成文本对应的语音特征;将所述语音特征转换成语音,生成与所述待合成文本对应的目标语音。
在一个实施例中,所述获取所述待合成文本的文本特征的步骤之前,还包括:对所述待合成文本进行正则化处理。
在一个实施例中,所述获取所述待合成文本的文本特征的步骤还包括:将所述待合成文本输入预设的分词模型,获取与所述待合成文本对应的分词特征;将所述待合成文本和/或所述分词特征输入预设的多音字预测模型,获取所述待合成文本对应的多音字特征;将所述待合成文本和/或所述分词特征输入预设的韵律预测模型,获取所述待合成文本对应的韵律特征。
在一个实施例中,所述方法还包括:获取训练样本集,所述训练样本集包含多个训练文本以及对应的文本参考特征、时长参考特征和/或语音参考特征;将所述训练文本对应的文本参考特征作为所述时长预测模型的输入,所述时长参考特征作为时长预测模型的输出,对所述时长预测模型进行训练。将所述文本参考特征和所述时长参考特征作为所述声学模型的输入,所述语音参考特征作为声学模型的输出,对所述声学模型进行训练。
在一个实施例中,所述训练样本集还包含与所述多个训练文本对应的分词参考特征、多音字参考特征和/或韵律参考特征;所述方法包括:将所述训练文本作为所述分词模型的输入,所述分词参考特征作为分词模型的输出,对所述分词模型进行训练。将所述训练文本和/或所述分词参考特征作为所述多音字预测模型的输入,所述多音字参考特征作为多音字预测模型的输出,对所述多音字预测模型进行训练。将所述训练文本和/或所述分词参考特征作为所述韵律预测模型的输入,所述韵律参考特征作为韵律预测模型的输出,对所述韵律预测模型进行训练。
在一个实施例中,所述方法还包括:通过文本迭代器获取多个待合成文本,针对每一个待合成文本,分别执行所述获取所述待合成文本的文本特征的步骤;将多个待合成文本对应的文本特征添加至预设的特征队列,当所述特征队列满足预设条件时,获取所述特征队列中的预设数量的文本特征,并将所述预设数量的文本特征分别输入所述时长预测模型,以使同步执行所述获取与所述文本特征对应的时长特征的步骤。
采用本发明的语音合成方法、装置、终端及存储介质之后,在进行语音合成的过程中,首先获取待合成文本的待合成文本的文本特征,所述文本特征包括分词特征、多音字特征和/或韵律特征等文本特征;然后将文本特征输入预设的时长预测模型获取对应的时长特征;将文本特征和时长特征输入预设的声学模型获取对应的语音特征;最后将语音特征转换成语音,生成与待合成文本对应的目标语音。在进行语音合成的特征提取的过程中,考虑的文本特征包括了多音字特征和韵律特征等,并结合模型预测的时长特征,得到最终合成语音的过程中所需要的语音特征。也就是说,本发明提供的语音合成方法、装置、终端及存储介质考虑了多种文本特征和时长特征生成的语音特征,使得合成的语音更加准确,提高了语音合成的准确性,提高了用户体验。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (9)
1.一种语音合成方法,其特征在于,所述方法包括:
通过文本迭代器获取待合成文本;
针对每一个待合成文本,获取所述待合成文本的文本特征,所述文本特征包括分词特征、多音字特征和/或韵律特征中的至少一个;所述获取所述待合成文本的文本特征的步骤还包括:将所述待合成文本输入预设的分词模型,获取与所述待合成文本对应的分词特征;将所述待合成文本和/或所述分词特征输入预设的多音字预测模型,获取所述待合成文本对应的多音字特征;将所述待合成文本和/或所述分词特征输入预设的韵律预测模型,获取所述待合成文本对应的韵律特征;
将多个待合成文本对应的文本特征添加至预设的特征队列,当所述特征队列满足预设条件时,获取所述特征队列中的预设数量的文本特征,并将所述预设数量的文本特征分别输入预设的时长预测模型,获取与所述文本特征对应的时长特征;
将所述文本特征和所述时长特征输入预设的声学模型,获取与所述待合成文本对应的语音特征;
将所述语音特征转换成语音,生成与所述待合成文本对应的目标语音。
2.根据权利要求1所述的方法,其特征在于,所述获取所述待合成文本的文本特征的步骤之前,还包括:
对所述待合成文本进行正则化处理。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取训练样本集,所述训练样本集包含多个训练文本以及对应的文本参考特征、时长参考特征和/或语音参考特征;
将所述训练文本对应的文本参考特征作为所述时长预测模型的输入,所述时长参考特征作为时长预测模型的输出,对所述时长预测模型进行训练;
将所述文本参考特征和所述时长参考特征作为所述声学模型的输入,所述语音参考特征作为声学模型的输出,对所述声学模型进行训练。
4.根据权利要求3所述的方法,其特征在于,所述训练样本集还包含与所述多个训练文本对应的分词参考特征、多音字参考特征和/或韵律参考特征;
所述方法包括:
将所述训练文本作为所述分词模型的输入,所述分词参考特征作为分词模型的输出,对所述分词模型进行训练;
将所述训练文本和/或所述分词参考特征作为所述多音字预测模型的输入,所述多音字参考特征作为多音字预测模型的输出,对所述多音字预测模型进行训练;
将所述训练文本和/或所述分词参考特征作为所述韵律预测模型的输入,所述韵律参考特征作为韵律预测模型的输出,对所述韵律预测模型进行训练。
5.一种语音合成装置,其特征在于,所述装置包括:
获取模块,用于通过文本迭代器获取待合成文本;
文本特征确定模块,用于针对每一个待合成文本,获取所述待合成文本的文本特征,所述文本特征包括分词特征、多音字特征和/或韵律特征中的至少一个;所述获取所述待合成文本的文本特征的步骤还包括:将所述待合成文本输入预设的分词模型,获取与所述待合成文本对应的分词特征;将所述待合成文本和/或所述分词特征输入预设的多音字预测模型,获取所述待合成文本对应的多音字特征;将所述待合成文本和/或所述分词特征输入预设的韵律预测模型,获取所述待合成文本对应的韵律特征;
文本获取模块,用于将多个待合成文本对应的文本特征添加至预设的特征队列,当所述特征队列满足预设条件时,获取所述特征队列中的预设数量的文本特征,并将所述预设数量的文本特征分别输入预设的时长预测模型;时长特征确定模块,用于获取与所述文本特征对应的时长特征;
语音特征确定模块,用于将所述文本特征和所述时长特征输入预设的声学模型,获取与所述待合成文本对应的语音特征;
转换模块,用于将所述语音特征转换成语音,生成与所述待合成文本对应的目标语音。
6.根据权利要求5所述的装置,其特征在于,所述装置还包括:
获取训练模块,用于获取训练样本集,所述训练样本集包含多个训练文本以及对应的文本参考特征、时长参考特征和/或语音参考特征;
时长训练模块,用于将所述训练文本对应的文本参考特征作为所述时长预测模型的输入,所述时长参考特征作为时长预测模型的输出,对所述时长预测模型进行训练;
语音训练模块,用于将所述文本参考特征和所述时长参考特征作为所述声学模型的输入,所述语音参考特征作为声学模型的输出,对所述声学模型进行训练。
7.根据权利要求6所述的装置,其特征在于,所述训练样本集还包含与所述多个训练文本对应的分词参考特征、多音字参考特征和/或韵律参考特征,所述装置包括:
分词训练模块,用于将所述训练文本作为所述分词模型的输入,所述分词参考特征作为分词模型的输出,对所述分词模型进行训练;
多音字训练模块,用于将所述训练文本和/或所述分词参考特征作为所述多音字预测模型的输入,所述多音字参考特征作为多音字预测模型的输出,对所述多音字预测模型进行训练;
韵律训练模块,用于将所述训练文本和/或所述分词参考特征作为所述韵律预测模型的输入,所述韵律参考特征作为韵律预测模型的输出,对所述韵律预测模型进行训练。
8.一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行如权利要求1至4中任一项所述方法的步骤。
9.一种智能终端,包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如权利要求1至4中任一项所述方法的步骤。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2019/130766 WO2021134591A1 (zh) | 2019-12-31 | 2019-12-31 | 语音合成方法、装置、终端及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111164674A CN111164674A (zh) | 2020-05-15 |
CN111164674B true CN111164674B (zh) | 2024-05-03 |
Family
ID=70562373
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980003388.1A Active CN111164674B (zh) | 2019-12-31 | 2019-12-31 | 语音合成方法、装置、终端及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN111164674B (zh) |
WO (1) | WO2021134591A1 (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112270917B (zh) * | 2020-10-20 | 2024-06-04 | 网易(杭州)网络有限公司 | 一种语音合成方法、装置、电子设备及可读存储介质 |
CN112487804B (zh) * | 2020-11-25 | 2024-04-19 | 合肥三恩信息科技有限公司 | 一种基于语义上下文场景的中文小说语音合成*** |
CN112820268A (zh) * | 2020-12-29 | 2021-05-18 | 深圳市优必选科技股份有限公司 | 个性化语音转换训练方法、装置、计算机设备及存储介质 |
CN112802447A (zh) * | 2021-03-19 | 2021-05-14 | 成都启英泰伦科技有限公司 | 一种语音合成播报方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104867491A (zh) * | 2015-06-17 | 2015-08-26 | 百度在线网络技术(北京)有限公司 | 用于语音合成的韵律模型训练方法和装置 |
CN105185372A (zh) * | 2015-10-20 | 2015-12-23 | 百度在线网络技术(北京)有限公司 | 个性化多声学模型的训练方法、语音合成方法及装置 |
CN105336322A (zh) * | 2015-09-30 | 2016-02-17 | 百度在线网络技术(北京)有限公司 | 多音字模型训练方法、语音合成方法及装置 |
CN110444191A (zh) * | 2019-01-22 | 2019-11-12 | 清华大学深圳研究生院 | 一种韵律层级标注的方法、模型训练的方法及装置 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10199034B2 (en) * | 2014-08-18 | 2019-02-05 | At&T Intellectual Property I, L.P. | System and method for unified normalization in text-to-speech and automatic speech recognition |
CN107039034B (zh) * | 2016-02-04 | 2020-05-01 | 科大讯飞股份有限公司 | 一种韵律预测方法及*** |
CN106507321A (zh) * | 2016-11-22 | 2017-03-15 | 新疆农业大学 | 一种维、汉双语gsm短信息语音转换播发*** |
CN106601228B (zh) * | 2016-12-09 | 2020-02-04 | 百度在线网络技术(北京)有限公司 | 基于人工智能韵律预测的样本标注方法及装置 |
US10418025B2 (en) * | 2017-12-06 | 2019-09-17 | International Business Machines Corporation | System and method for generating expressive prosody for speech synthesis |
CN110299131B (zh) * | 2019-08-01 | 2021-12-10 | 苏州奇梦者网络科技有限公司 | 一种可控制韵律情感的语音合成方法、装置、存储介质 |
-
2019
- 2019-12-31 WO PCT/CN2019/130766 patent/WO2021134591A1/zh active Application Filing
- 2019-12-31 CN CN201980003388.1A patent/CN111164674B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104867491A (zh) * | 2015-06-17 | 2015-08-26 | 百度在线网络技术(北京)有限公司 | 用于语音合成的韵律模型训练方法和装置 |
CN105336322A (zh) * | 2015-09-30 | 2016-02-17 | 百度在线网络技术(北京)有限公司 | 多音字模型训练方法、语音合成方法及装置 |
CN105185372A (zh) * | 2015-10-20 | 2015-12-23 | 百度在线网络技术(北京)有限公司 | 个性化多声学模型的训练方法、语音合成方法及装置 |
CN110444191A (zh) * | 2019-01-22 | 2019-11-12 | 清华大学深圳研究生院 | 一种韵律层级标注的方法、模型训练的方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2021134591A1 (zh) | 2021-07-08 |
CN111164674A (zh) | 2020-05-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111164674B (zh) | 语音合成方法、装置、终端及存储介质 | |
US11289069B2 (en) | Statistical parameter model establishing method, speech synthesis method, server and storage medium | |
EP1037195B1 (en) | Generation and synthesis of prosody templates | |
EP1005018B1 (en) | Speech synthesis employing prosody templates | |
KR20220035180A (ko) | E2E(End-to-end) 음성 합성 시스템에서 표현력 제어 | |
CN110570876B (zh) | 歌声合成方法、装置、计算机设备和存储介质 | |
CN111226275A (zh) | 基于韵律特征预测的语音合成方法、装置、终端及介质 | |
US20090157408A1 (en) | Speech synthesizing method and apparatus | |
CN112786018B (zh) | 语音转换及相关模型的训练方法、电子设备和存储装置 | |
CN113178188B (zh) | 语音合成方法、装置、设备及存储介质 | |
Meng et al. | Synthesizing English emphatic speech for multimodal corrective feedback in computer-aided pronunciation training | |
Zangar et al. | Duration modelling and evaluation for Arabic statistical parametric speech synthesis | |
Hlaing et al. | Phoneme based Myanmar text to speech system | |
EP2062252B1 (en) | Speech synthesis | |
CN112463921B (zh) | 韵律层级划分方法、装置、计算机设备和存储介质 | |
Sangeetha et al. | Syllable based text to speech synthesis system using auto associative neural network prosody prediction | |
Akmuradov et al. | A novel algorithm for dividing uzbek language words into syllables for concatenative text-to-speech synthesizer | |
CN113948061A (zh) | 语音合成方法、***、语音合成模型及其训练方法 | |
Zhao et al. | Multi-speaker Chinese news broadcasting system based on improved Tacotron2 | |
Chen et al. | A Mandarin Text-to-Speech System | |
Ronanki | Prosody generation for text-to-speech synthesis | |
Demeke et al. | Duration modeling of phonemes for amharic text to speech system | |
Yu et al. | A statistical model with hierarchical structure for predicting prosody in a mandarin text‐to‐speech system | |
Lazaridis et al. | Comparative evaluation of phone duration models for Greek emotional speech | |
Yeh et al. | A consistency analysis on an acoustic module for Mandarin text-to-speech |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |