CN107437412B - 一种声学模型处理方法、语音合成方法、装置及相关设备 - Google Patents

一种声学模型处理方法、语音合成方法、装置及相关设备 Download PDF

Info

Publication number
CN107437412B
CN107437412B CN201610353978.5A CN201610353978A CN107437412B CN 107437412 B CN107437412 B CN 107437412B CN 201610353978 A CN201610353978 A CN 201610353978A CN 107437412 B CN107437412 B CN 107437412B
Authority
CN
China
Prior art keywords
spectrum
model
processing
processed
magnitude
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610353978.5A
Other languages
English (en)
Other versions
CN107437412A (zh
Inventor
宋阳
陈伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sogou Technology Development Co Ltd
Original Assignee
Beijing Sogou Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sogou Technology Development Co Ltd filed Critical Beijing Sogou Technology Development Co Ltd
Priority to CN201610353978.5A priority Critical patent/CN107437412B/zh
Publication of CN107437412A publication Critical patent/CN107437412A/zh
Application granted granted Critical
Publication of CN107437412B publication Critical patent/CN107437412B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/21Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本发明数据处理领域,公开了一种声学模型处理方法、语音合成方法、装置及相关设备,以解决现有技术中合成的语音音质较差的技术问题。该方法包括:获取语音模型中的频谱模型的预设参数;将所述频谱模型的预设参数转换为幅度谱;对所述幅度谱进行自适应后处理,获得处理后的幅度谱;将所述处理后的幅度谱转换为所述频谱模型的预设参数,进而获得处理后的所述频谱模型。达到了提高语音合成质量的技术效果。

Description

一种声学模型处理方法、语音合成方法、装置及相关设备
技术领域
本发明涉及数据处理领域,尤其涉及一种声学模型处理方法、语音合成方法、装置及相关设备。
背景技术
离线语音合成***,目前主流方法是基于HMM(Hidden Markov Model:隐马尔可夫模型)的参数语音合成。其首先需要训练语音模型,然后通过语音模型实现语音的合成,请参考图1,建立语音模型包括以下步骤:
步骤S101:获取语料库;
步骤S102:对语料库中语料进行声学参数的提取;
步骤S103:对语料库中声学参数和对应的韵律文本进行上下文相关的HMM-GMM建模,进而获得语音模型,其中,建模对象包括频谱、基频、时长;
在建立语音模型之前,请参考图2,可以通过以下方式合成语音:
步骤S201:获取待合成文本;
步骤S202:对待合成文本解析出上下文信息;
步骤S203:通过语音模型对上下文进行模型预测,获得对应的声学参数,声学参数包括:频谱、基频信息;
步骤S204:通过声码器将声学参数合成为语音。
通过该方案合成出的语音存在着音质较差的技术问题,导致用户体验度较低。
发明内容
本发明提供一种声学模型处理方法、语音合成方法、装置及相关设备,以解决现有技术中合成的语音音质较差的技术问题。
第一方面,本发明实施例提供一种声学模型处理方法,包括:
获取语音模型中的频谱模型的预设参数;
将所述频谱模型的预设参数转换为幅度谱;
对所述幅度谱进行自适应后处理,获得处理后的幅度谱;
将所述处理后的幅度谱转换为所述频谱模型的预设参数,进而获得处理后的所述频谱模型。
可选的,所述将所述频谱模型的预设参数转换为幅度谱,包括:
将所述频谱模型均值部分的静态参数转换为所述幅度谱。
可选的,对所述幅度谱进行自适应后处理获得处理后的幅度谱,包括:通过以下公式对所述幅度谱进行自适应后处理:
Figure BDA0000999714770000021
其中,Snew(z)表示处理后的幅度谱;
Sori(z)表示处理前的幅度谱;
Sori(z/β)表示在z平面上Sori(z)尺度变换到之前的β倍,从而得到的幅度谱;
Sori(z/α)表示在z平面上Sori(z)尺度变换到之前的α倍,从而得到的幅度谱。
可选的,对所述幅度谱进行自适应后处理,获得处理后的幅度谱,还包括:
针对每个处理前的幅度谱,判断计算获得的处理后的幅度谱是否位于预设最大值与预设最小值的范围;
在处理后的幅度谱小于所述预设最小值时,将所述预设最小值作为处理后的幅度谱;
在处理后的幅度谱大于所述预设最大值时,将所述预设最大值作为处理后的幅度谱。
可选的,对所述幅度谱进行自适应后处理,获得处理后的幅度谱之后,所述方法还包括:
对所述处理后的幅度谱进行频谱能量一致化处理;
将所述处理后的幅度谱转换为所述频谱模型的预设参数,包括:
将进行频谱能量一致化处理后的幅度谱转换为所述频谱模型的预设参数。
可选的,所述方法还包括:
获得进行语音合成的待合成文本;
基于所述语音模型确定出所述待合成文本的声学参数;
通过所述声学参数合成所述待合成文本的语音数据。
第二方面,本发明实施例提供一种语音合成方法,包括:
获得进行语音合成的待合成文本;
基于语音模型中的频谱模型确定出所述待合成文本的频谱参数,所述频谱模型为经自适应后处理过的频谱模型,所述自适应后处理过程包括以下步骤:将所述频谱模型的预设参数转换为幅度谱,对所述幅度谱进行自适应后处理获得处理后的幅度谱,将所述处理后的幅度谱转换为所述频谱模型的预设参数;
通过所述频谱参数合成所述待合成文本的语音数据。
可选的,在所述基于语音模型中的频谱模型确定出所述待合成文本的频谱参数之前,所述方法还包括:
在客户端设备本地进行所述频谱模型的自适应后处理;和/或
从所述服务器接收经过自适应后处理的所述频谱模型。
第三方面,本发明实施例提供一种声学模型处理装置,包括:
获取模块,用于获取语音模型中的频谱模型的预设参数;
第一转换模块,用于将所述频谱模型的预设参数转换为幅度谱;
第一获得模块,用于对所述幅度谱进行自适应后处理,获得处理后的幅度谱;
第二转换模块,用于将所述处理后的幅度谱转换为所述频谱模型的预设参数,进而获得处理后的所述频谱模型。
第四方面,本发明实施例提供一种语音合成装置,包括:
第三获得模块,用于获得进行语音合成的待合成文本;
第二确定模块,用于基于语音模型中的频谱模型确定出所述待合成文本的频谱参数,所述频谱模型为经自适应后处理过的频谱模型,所述自适应后处理过程包括以下步骤:将所述频谱模型的预设参数转换为幅度谱,对所述幅度谱进行自适应后处理获得处理后的幅度谱,将所述处理后的幅度谱转换为所述频谱模型的预设参数;
第二合成模块,用于通过所述频谱参数合成所述待合成文本的语音数据。
第五方面,本发明实施例提供一种处理设备,包括有存储器,以及一个或者一个以上的程序,其中一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行所述一个或者一个以上程序包含用于进行以下操作的指令:
获取语音模型中的频谱模型的预设参数;
将所述频谱模型的预设参数转换为幅度谱;
对所述幅度谱进行自适应后处理,获得处理后的幅度谱;
将所述处理后的幅度谱转换为所述频谱模型的预设参数,进而获得处理后的所述频谱模型。
第六方面,本发明实施例提供一种处理设备,包括有存储器,以及一个或者一个以上的程序,其中一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行所述一个或者一个以上程序包含用于进行以下操作的指令:
获得进行语音合成的待合成文本;
基于语音模型中的频谱模型确定出所述待合成文本的频谱参数,所述频谱模型为经自适应后处理过的频谱模型,所述自适应后处理过程包括以下步骤:将所述频谱模型的预设参数转换为幅度谱,对所述幅度谱进行自适应后处理获得处理后的幅度谱,将所述处理后的幅度谱转换为所述频谱模型的预设参数;
通过所述频谱参数合成所述待合成文本的语音数据。
本发明有益效果如下:
在本发明实施例中,通过以下方式针对语音模型进行处理:获取语音模型中的频谱模型的预设参数;然后,将所述频谱模型的预设参数转换为幅度谱;对所述幅度谱进行自适应后处理获得处理后的幅度谱;将所述处理后的幅度谱转换为所述频谱模型的预设参数,进而获得处理后的所述频谱模型,由于针对频谱模型中的预设参数进行了自适应后处理,也即是增强了频谱模型中的期望信号并减少了干扰信号,从而后续通过该语音模型生成语音数据时,能够提高所合成的语音的质量;
并且,在方案中进行自适应后处理对象是幅度谱,幅度谱是一种通用的频谱,各种频谱参数都可以转换为幅度谱,因而该方案针对任何频谱参数都适用,而不需要针对不同的频谱参数(例如:线谱对、梅尔倒谱等等)采用不同的自适应后处理方式,因此该方案针对频谱参数的自适应后处理的兼容性较强;
并且,该方案预先针对语音模型中的频谱模型进行自适应后处理,而不需要在后续生成声学参数之后进行自适应后处理,因此,降低了使用该语音模型合成语音数据的耗时。
附图说明
图1为现有技术中建立语音模型的流程图;
图2为现有技术中合成语音数据的流程图;
图3为本发明实施例第一方面的声学模型处理方法的流程图;
图4为本发明实施例第一方面的声学模型处理方法中合成语音数据的流程图;
图5为本发明实施例第二方面的语音合成方法的流程图;
图6为本发明实施例第三方面的声学模型处理方法的结构图;
图7为本发明实施例第四方面的语音合成装置结构图;
图8是根据一示例性实施例示出的电子设备的框图;
图9是本发明实施例中服务器的结构示意图。
具体实施方式
本发明提供一种声学模型处理方法、语音合成方法、装置及相关设备,以解决现有技术中合成的语音音质较差的技术问题。
本申请实施例中的技术方案为解决上述的技术问题,总体思路如下:
为了更好的理解上述技术方案,下面通过附图以及具体实施例对本发明技术方案做详细的说明,应当理解本发明实施例以及实施例中的具体特征是对本发明技术方案的详细的说明,而不是对本发明技术方案的限定,在不冲突的情况下,本发明实施例以及实施例中的技术特征可以相互组合。
通过以下方式针对语音模型进行处理:获取语音模型中的频谱模型的预设参数;然后,将所述频谱模型的预设参数转换为幅度谱;对所述幅度谱进行自适应后处理,获得处理后的幅度谱;将所述处理后的幅度谱转换为所述频谱模型的预设参数,进而获得处理后的所述频谱模型,由于针对频谱模型中的预设参数进行了自适应后处理,也即是增强了频谱模型中的期望信号并减少了干扰信号,从而后续通过该语音模型生成语音数据时,能够提高所合成的语音的质量;
并且,在方案中进行自适应后处理对象是幅度谱,幅度谱是一种通用的频谱,各种频谱参数都可以转换为幅度谱,因而该方案针对任何频谱参数都适用,而不需要针对不同的频谱参数(例如:线谱对、梅尔倒谱等等)采用不同的自适应后处理方式,因此该方案针对频谱参数的自适应后处理的兼容性较强;
并且,该方案预先针对语音模型中的频谱模型进行自适应后处理,而不需要在后续生成声学参数之后进行自适应后处理,因此,降低了使用该语音模型合成语音数据的耗时。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
第一方面,本发明实施例提供声学模型处理方法,请参考图3,包括:
步骤S301:获取语音模型中的频谱模型的预设参数;
步骤S302:将所述频谱模型的预设参数转换为幅度谱;
步骤S303:对所述幅度谱进行自适应后处理,获得处理后的幅度谱;
步骤S304:将所述处理后的幅度谱转换为所述频谱模型的预设参数,进而获得处理后的所述频谱模型。
举例来说,该方案可以应用于服务器,也可以应用于客户端设备,本发明实施例不作限制。客户端设备例如为:手机、笔记本电脑、平板电脑、PC等等,本发明实施例不作限制。
步骤S301中,举例来说,语音模型例如包括:频谱模型、基频模型、时长模型等等。频谱模型通常包括:概率密度部分和决策树部分,其中,概率密度部分包含均值和方差,均值和方差分别都包含静态参数和动态参数,频谱模型的预设参数例如为:静态参数,当然,也可以包含动态参数,本发明实施例不作限制。
步骤S302中,可以通过以下方式将频谱模型的预设参数转换为幅度谱:
当频谱模型的预设参数为线谱对参数时,假设其格式为K,l(1),l(2),…l(V)。当V为偶数时,幅度谱S(ω)为:
Figure BDA0000999714770000061
当V为奇数时,幅度谱S(ω)为:
Figure BDA0000999714770000071
当频谱模型的预设参数为梅尔倒谱参数时,假设其格式为ca(0),ca(1),…ca(V),其中a是已知的,当频谱模型来源于采样率16KHZ的音频时,a一般设置为0.42,首先根据如下公式求解倒谱
Figure BDA0000999714770000072
其中v表示当前处理的维度,
Figure BDA0000999714770000073
然后通过傅里叶变换,再通过自然常数e为底的指数函数,从而获得幅度谱。
其中,假设频谱模型中含有M个均值序列,其中每个均值序列的静态参数为N维,即频谱模型的预设参数的待处理数据为M*N的矩阵,将其通过上述方案转换成Y维的幅度谱后,将获得M*Y的矩阵。在后续步骤S102~S104中,每次只处理Y维幅度谱,总共执行M次操作。
步骤S303中,针对Y维幅度谱可以通过以下公式对其进行自适应后处理:
Figure BDA0000999714770000074
其中,Snew(z)表示处理后的幅度谱;
Sori(z)表示处理前的幅度谱;
Sori(z/β)表示在z平面上Sori(z)尺度变换到之前的β倍,从而得到的幅度谱;
Sori(z/α)表示在z平面上Sori(z)尺度变换到之前的α倍,从而得到的幅度谱。
通常情况下,α和β可依据经验设定,一般情况下,β-α数值越大,合成语音的音质增强效果越明显,但是β-α数值过大可能会导致合成效果不稳定,例如:合成的语音失真。
在具体实施过程中,在通过上述方式进行自适应后处理之后,为了合成效果稳定,可以限定幅度谱变换的范围,进而所述对所述幅度谱进行自适应后处理获得处理后的幅度谱,还包括:针对每个处理前的幅度谱,判断计算获得的处理后的幅度谱是否位于预设最大值与预设最小值的范围;在处理后的幅度谱小于所述预设最小值时,将所述预设最小值作为处理后的幅度谱;在处理后的幅度谱大于所述预设最大值时,将所述预设最大值作为处理后的幅度谱。
举例来说,预设最大值可以为设定的固定值,也可以为Sori(z)的预设比例,同样,预设最小值可以为设定的固定值,也可以为Sori(z)的预设比例,本发明实施例不作限制。
其中,如果预设最大值和预设最小值都为Sori(z)的预设比例的话,则可以通过以下公式限定幅度谱的变换范围:
假设Sori(z)的第y维的值为sori,Snew(z)的第y维的值为snew,其中,1≤y≤Y。那么:
Figure BDA0000999714770000081
其中,mindata和maxdata可依据经验设定,一般情况下maxdata-mindata数值越大,合成语音的音质增强效果越明显,但是maxdata-mindata数值过大可能导致合成效果不稳定。maxdata-mindata的取值例如可以在7-10,例如:8、9、10等等,在这种情况下,既能够保证合成效果的稳定,同时又能够对合成语音的音质实现较好的增强效果。
其中,如果预设最大值和预设最小值都为设定的固定值的话,则可以通过以下公式限定幅度谱的变换范围:
假设Snew(z)的第y维的值为snew,其中,1≤y≤Y。那么:
Figure BDA0000999714770000091
同样,mindata和maxdata可依据经验设定,一般情况下maxdata-mindata数值越大,合成语音的音质增强效果越明显,但是maxdata-mindata数值过大可能导致合成效果不稳定。同样,maxdata-mindata的取值例如可以在7-10,例如:8、9、10等等,在这种情况下,既能够保证合成效果的稳定,同时又能够对合成语音的音质实现较好的增强效果。
作为一种可选的实施例,为了保证合成效果稳定,还需要保证自适应后处理前后的频谱能量一致,也即是:在所述对所述幅度谱进行自适应后处理获得处理后的幅度谱之后,所述方法还包括:对所述处理后的幅度谱进行频谱能量一致化处理。
其中,可以通过以下公式保证自适应后处理前后的频谱能量一致:
Figure BDA0000999714770000092
其中,S′new(z)表示频谱能量一致化处理后的幅度谱;
Snew(z)表示频谱能量一致化处理前的幅度谱;
Sori(z)表示自适应处理前的幅度谱。
步骤S304中,可以通过以下方式将幅度谱转换为频谱模型的预设参数:
当频谱模型的预设参数为线谱对参数时,首先对幅度谱取以e为底的对数,然后通过逆傅里叶变换获得倒谱参数c0(v),随后根据如下回归方程求解广义倒谱参数c-1(v),v表示当前所处理的维度,
Figure BDA0000999714770000093
然后通过增益规整获得线性预测编码参数,之后对其进行z变换,求解其在单位圆上的零点,零点所对应的角频率值即为线谱对参数。
当频谱模型的预设参数为梅尔倒谱参数时,首先对幅度谱取以e为底的对数,然后通过逆傅里叶变换获得倒谱参数,假设其格式为c0(0),c0(1),…c0(V),最后根据如下公式求解梅尔倒谱
Figure BDA0000999714770000101
其中a是已知的,当频谱模型来源于采样率16KHZ的音频时,a一般设置为0.42,v表示当前所处理的维度,
Figure BDA0000999714770000102
其中,如果之前并未对幅度谱进行频谱能量一致化处理的话,则步骤S304中直接将经自适应后处理过的幅度谱转换为频谱模型的预设参数;如果之前对幅度谱进行过频谱能量一致化处理的话,则步骤S304中,将经过频谱能量一致化处理过的幅度谱转换为频谱模型的预设参数。
在具体实施过程中,在基于步骤S304获得处理后的频谱模型之后,就可以通过包含该频谱模型的语音模型合成语音数据,请参考图4,可以通过以下步骤合成语音数据:
步骤S401:获得进行语音合成的待合成文本;
步骤S402:基于所述语音模型确定出所述待合成文本的声学参数;
步骤S403:通过所述声学参数合成所述待合成文本的语音数据。
步骤S401中,待合成文本例如为:用户输入的文本、客户端设备产生提示音所对应的文本、电子书文本等等,当然还可以为其他任意形式的文本,本发明实施例不再详细列举,并且不作限制。
步骤S402中,可以首先对待合成文本进行上下文解析,进而解析出待合成文本的上下文信息,然后通过语音模型对上下文进行模型预测,获得对应的声学参数,声学参数包括:频谱、基频信息、时长等等。
步骤S403中,可以通过声码器对步骤S402确定出的声学参数进行合成,进而获得对应的语音数据。在合成语音数据之后,还可以通过各种方式输入该语音数据,例如:通过客户端设备自带的声音输出装置输出该语音数据、将该语音数据发送至另一客户端设备,以供另一个客户端设备输出该语音数据等等。第二方面,基于同一发明构思,本发明实施例提供一种语音合成方法,请参考图5,包括:
步骤S501:获得进行语音合成的待合成文本;
步骤S502:基于语音模型中的频谱模型确定出所述待合成文本的频谱参数,所述频谱模型为经自适应后处理过的频谱模型,所述自适应后处理过程包括以下步骤:将所述频谱模型的预设参数转换为幅度谱,对所述幅度谱进行自适应后处理获得处理后的幅度谱,将所述处理后的幅度谱转换为所述频谱模型的预设参数;
步骤S503:通过所述频谱参数合成所述待合成文本的语音数据。
步骤S501中,待合成文本具体为何种文本,由于前面已作介绍,故而在此不再赘述。
步骤S502中,具体如何获得经自适应后处理过的频谱模型,由于本发明第一方面已作介绍,故而在此不再赘述。经自适应后处理过的频谱模型可以通过多种途径获得,下面列举其中的两种途径进行介绍,当然,在具体实施过程中,不限于以下两种情况。
第一种,在客户端设备本地进行所述频谱模型的自适应后处理。
第二种,从所述服务器接收经过自适应后处理的所述频谱模型。
步骤S503中,还可以通过语音模型中所包含的其他模型获得语音数据的其他参数,例如:通过基频模型获得待合成文本的基频参数,通过时长模型获得待合成文本的时长参数等等,然后通过基频参数、时长参数和频谱参数等声学参数共同合成待合成文本的语音数据。
对于具体如何通过声学参数合成待合成文本的语音数据,由于前面已作介绍,故而在此不再赘述。
由以上分析可知,在本发明实施例中针对频谱模型,首先将频谱模型的预设参数(例如:静态参数的均值部分)转换成幅度谱,然后对幅度谱进行自适应后处理,为了合成效果稳定,限制幅度谱变换的范围,并且调节幅度谱能量,使之与处理前的幅度谱能量相同,最后将处理后的幅度谱转换成频谱模型的预设参数,针对频谱模型的其它部分保持不变,由于针对频谱模型中的预设参数进行了自适应后处理,也即是增强了频谱模型中的期望信号并减少了干扰信号,进而在基于该频谱模型合成语音数据时,能够提高所合成的语音数据的质量。
第三方面,基于同一发明构思,本发明实施例提供一种声学模型处理装置,请参考图6,包括:
获取模块60,用于获取语音模型中的频谱模型的预设参数;
第一转换模块61,用于将所述频谱模型的预设参数转换为幅度谱;
第一获得模块62,用于对所述幅度谱进行自适应后处理,获得处理后的幅度谱;
第二转换模块63,用于将所述处理后的幅度谱转换为所述频谱模型的预设参数,进而获得处理后的所述频谱模型。
可选的,所述第一转换模块61,用于:
将所述频谱模型均值部分的静态参数转换为所述幅度谱。
可选的,所述第一获得模块62,用于通过以下公式对所述幅度谱进行自适应后处理:
Figure BDA0000999714770000121
其中,Snew(z)表示处理后的幅度谱;
Sori(z)表示处理前的幅度谱;
Sori(z/β)表示在z平面上Sori(z)尺度变换到之前的β倍,从而得到的幅度谱;
Sori(z/α)表示在z平面上Sori(z)尺度变换到之前的α倍,从而得到的幅度谱。
可选的,所述第一获得模块62,包括:
判断单元,用于针对每个处理前的幅度谱,判断计算获得的处理后的幅度谱是否位于预设最大值与预设最小值的范围;
第一确定单元,用于在处理后的幅度谱小于所述预设最小值时,将所述预设最小值作为处理后的幅度谱;
第二确定单元,用于在处理后的幅度谱大于所述预设最大值时,将所述预设最大值作为处理后的幅度谱。
可选的,所述装置还包括:
第一处理模块,用于对所述处理后的幅度谱进行频谱能量一致化处理;
所述第二转换模块,用于将进行频谱能量一致化处理后的幅度谱转换为所述频谱模型的预设参数。
可选的,所述装置还包括:
第二获得模块,用于获得进行语音合成的待合成文本;
第一确定模块,用于基于所述语音模型确定出所述待合成文本的声学参数;
第一合成模块,用于通过所述声学参数合成所述待合成文本的语音数据。
由于本发明第三方面所介绍的声学模型处理装置为实施本发明实施例第一方面所介绍的声学模型处理方法所采用的装置,基于本发明实施例第一方面所介绍的声学模型处理方法,本领域所属技术人员能够了解该装置的具体结构及变形,故而在此不再赘述,凡是实施本发明实施例第一方面所介绍的声学模型处理方法所采用的装置都属于本发明实施例所欲保护的范围。
第四方面,基于同一发明构思,本发明实施例提供一种语音合成装置,请参考图7,包括:
第三获得模块70,用于获得进行语音合成的待合成文本;
第二确定模块71,用于基于语音模型中的频谱模型确定出所述待合成文本的频谱参数,所述频谱模型为经自适应后处理过的频谱模型,所述自适应后处理过程包括以下步骤:将所述频谱模型的预设参数转换为幅度谱,对所述幅度谱进行自适应后处理获得处理后的幅度谱,将所述处理后的幅度谱转换为所述频谱模型的预设参数;
第二合成模块72,用于通过所述频谱参数合成所述待合成文本的语音数据。
可选的,所述装置还包括:
第二处理模块,用于在客户端设备本地进行所述频谱模型的自适应后处理;和/或
接收模块,用于从所述服务器接收经过自适应后处理的所述频谱模型。
由于本发明第四方面所介绍的语音合成装置为实施本发明实施例第二方面所介绍的语音合成方法所采用的装置,基于本发明实施例第二方面所介绍的语音合成方法,本领域所属技术人员能够了解该装置的具体结构及变形,故而在此不再赘述,凡是实施本发明实施例第二方面所介绍的语音合成方法所采用的装置都属于本发明实施例所欲保护的范围。
第五方面,基于同一发明构思,本发明实施例提供一种处理设备,该处理设备可以为电子设备或者服务器,包括有存储器,以及一个或者一个以上的程序,其中一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行所述一个或者一个以上程序包含用于进行以下操作的指令:
获取语音模型中的频谱模型的预设参数;
将所述频谱模型的预设参数转换为幅度谱;
对所述幅度谱进行自适应后处理,获得处理后的幅度谱;
将所述处理后的幅度谱转换为所述频谱模型的预设参数,进而获得处理后的所述频谱模型。
由于本发明第五方面所介绍的电子设备为实施本发明实施例第一方面所介绍的声学模型处理方法所采用的电子设备,基于本发明实施例第一方面所介绍的声学模型处理方法,本领域所属技术人员能够了解该电子设备的具体结构及变形,故而在此不再赘述,凡是实施本发明实施例第一方面所介绍的声学模型处理方法所采用的电子设备都属于本发明实施例所欲保护的范围。
第六方面,基于同一发明构思,本发明实施例提供一种处理设备,该处理设备可以为电子设备或者服务器,包括有存储器,以及一个或者一个以上的程序,其中一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行所述一个或者一个以上程序包含用于进行以下操作的指令:
获得进行语音合成的待合成文本;
基于语音模型中的频谱模型确定出所述待合成文本的频谱参数,所述频谱模型为经自适应后处理过的频谱模型,所述自适应后处理过程包括以下步骤:将所述频谱模型的预设参数转换为幅度谱,对所述幅度谱进行自适应后处理获得处理后的幅度谱,将所述处理后的幅度谱转换为所述频谱模型的预设参数;
通过所述频谱参数合成所述待合成文本的语音数据。
由于本发明第六方面所介绍的电子设备为实施本发明实施例第二方面所介绍的语音合成方法所采用的电子设备,基于本发明实施例第二方面所介绍的语音合成方法,本领域所属技术人员能够了解该电子设备的具体结构及变形,故而在此不再赘述,凡是实施本发明实施例第二方面所介绍的语音合成方法所采用的电子设备都属于本发明实施例所欲保护的范围。
图8是根据一示例性实施例示出的实施一种声学模型处理方法(或者语音合成方法)的电子设备800的框图。例如,电子设备800可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图8,电子设备800可以包括以下一个或多个组件:处理组件802,存储器804,电源组件806,多媒体组件808,音频组件810,输入/输出(I/O)的接口812,传感器组件814,以及通信组件816。
处理组件802通常控制电子设备800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理元件802可以包括一个或多个处理器820来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理部件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。
存储器804被配置为存储各种类型的数据以支持在设备800的操作。这些数据的示例包括用于在电子设备800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件806为电子设备800的各种组件提供电力。电源组件806可以包括电源管理***,一个或多个电源,及其他与为电子设备800生成、管理和分配电力相关联的组件。
多媒体组件808包括在所述电子设备800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当电子设备800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜***或具有焦距和光学变焦能力。
音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当电子设备800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于输出音频信号。
I/O接口812为处理组件802和***接口模块之间提供接口,上述***接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为电子设备800提供各个方面的状态评估。例如,传感器组件814可以检测到设备800的打开/关闭状态,组件的相对定位,例如所述组件为电子设备800的显示器和小键盘,传感器组件814还可以检测电子设备800或电子设备800一个组件的位置改变,用户与电子设备800接触的存在或不存在,电子设备800方位或加速/减速和电子设备800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件816被配置为便于电子设备800和其他设备之间有线或无线方式的通信。电子设备800可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信部件816经由广播信道接收来自外部广播管理***的广播信号或广播相关信息。在一个示例性实施例中,所述通信部件816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,电子设备800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器804,上述指令可由电子设备800的处理器820执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
一种非临时性计算机可读存储介质,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行一种声学模型处理方法,所述方法包括:
获取语音模型中的频谱模型的预设参数;
将所述频谱模型的预设参数转换为幅度谱;
对所述幅度谱进行自适应后处理,获得处理后的幅度谱;
将所述处理后的幅度谱转换为所述频谱模型的预设参数,进而获得处理后的所述频谱模型。
一种非临时性计算机可读存储介质,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行一种语音合成方法,所述方法包括:
获得进行语音合成的待合成文本;
基于语音模型中的频谱模型确定出所述待合成文本的频谱参数,所述频谱模型为经自适应后处理过的频谱模型,所述自适应后处理过程包括以下步骤:将所述频谱模型的预设参数转换为幅度谱,对所述幅度谱进行自适应后处理获得处理后的幅度谱,将所述处理后的幅度谱转换为所述频谱模型的预设参数;
通过所述频谱参数合成所述待合成文本的语音数据。
图9是本发明实施例中服务器的结构示意图。该服务器1900可因配置或性能不同而产生比较大的差异,可以包括一个或一个以***处理器(central processing units,CPU)1922(例如,一个或一个以上处理器)和存储器1932,一个或一个以上存储应用程序1942或数据1944的存储介质1930(例如一个或一个以上海量存储设备)。其中,存储器1932和存储介质1930可以是短暂存储或持久存储。存储在存储介质1930的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对服务器中的一系列指令操作。更进一步地,中央处理器1922可以设置为与存储介质1930通信,在服务器1900上执行存储介质1930中的一系列指令操作。
服务器1900还可以包括一个或一个以上电源1926,一个或一个以上有线或无线网络接口1950,一个或一个以上输入输出接口1958,一个或一个以上键盘1956,和/或,一个或一个以上操作***1941,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。
一种非临时性计算机可读存储介质,当所述存储介质中的指令由服务器的中央处理器执行时,使得服务器能够执行一种声学模型处理方法,所述方法包括:
获取语音模型中的频谱模型的预设参数;
将所述频谱模型的预设参数转换为幅度谱;
对所述幅度谱进行自适应后处理,获得处理后的幅度谱;
将所述处理后的幅度谱转换为所述频谱模型的预设参数,进而获得处理后的所述频谱模型。
一种非临时性计算机可读存储介质,当所述存储介质中的指令由服务器的中央处理器执行时,使得服务器能够执行一种语音合成方法,所述方法包括:
获得进行语音合成的待合成文本;
基于语音模型中的频谱模型确定出所述待合成文本的频谱参数,所述频谱模型为经自适应后处理过的频谱模型,所述自适应后处理过程包括以下步骤:将所述频谱模型的预设参数转换为幅度谱,对所述幅度谱进行自适应后处理获得处理后的幅度谱,将所述处理后的幅度谱转换为所述频谱模型的预设参数;
通过所述频谱参数合成所述待合成文本的语音数据。
本发明一个或多个实施例,至少具有以下有益效果:
由于在本发明实施例中,通过以下方式针对语音模型进行处理:获取语音模型中的频谱模型的预设参数;然后,将所述频谱模型的预设参数转换为幅度谱;对所述幅度谱进行自适应后处理获得处理后的幅度谱;将所述处理后的幅度谱转换为所述频谱模型的预设参数,进而获得处理后的所述频谱模型,由于针对频谱模型中的预设参数进行了自适应后处理,也即是增强了频谱模型中的期望信号并减少了干扰信号,从而后续通过该语音模型生成语音数据时,能够提高所合成的语音的质量;
并且,在方案中进行自适应后处理的对象是幅度谱,幅度谱是一种通用的频谱,各种频谱参数都可以转换为幅度谱,因而该方案针对任何频谱参数都适用,而不需要针对不同的频谱参数(例如:线谱对、梅尔倒谱等等)采用不同的自适应后处理方式,因此该方案针对频谱参数的自适应后处理的兼容性较强;
并且,该方案预先针对语音模型中的频谱模型进行自适应后处理,而不需要在后续生成声学参数之后进行自适应后处理,因此,降低了使用该语音模型合成语音数据的耗时。
本发明是参照根据本发明实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的设备。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令设备的制造品,该指令设备实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (18)

1.一种声学模型处理方法,其特征在于,包括:
获取语音模型中的频谱模型的预设参数;
将所述频谱模型的预设参数转换为幅度谱;
对所述幅度谱进行自适应后处理,获得处理后的幅度谱,包括:通过以下公式对所述幅度谱进行自适应后处理:
Figure DEST_PATH_IMAGE002
其中,
Figure DEST_PATH_IMAGE004
表示处理后的幅度谱;
Figure DEST_PATH_IMAGE006
表示处理前的幅度谱;
Figure DEST_PATH_IMAGE008
表示在z平面上
Figure DEST_PATH_IMAGE010
尺度变换到之前的
Figure DEST_PATH_IMAGE012
倍,从而得到的幅度谱;
Figure DEST_PATH_IMAGE014
表示在z平面上
Figure DEST_PATH_IMAGE016
尺度变换到之前的
Figure DEST_PATH_IMAGE018
倍,从而得到的幅度谱;
将所述处理后的幅度谱转换为所述频谱模型的预设参数,进而获得处理后的所述频谱模型。
2.如权利要求1所述的方法,其特征在于,所述将所述频谱模型的预设参数转换为幅度谱,包括:
将所述频谱模型均值部分的静态参数转换为所述幅度谱。
3.如权利要求1所述的方法,其特征在于,对所述幅度谱进行自适应后处理,获得处理后的幅度谱,还包括:
针对每个处理前的幅度谱,判断计算获得的处理后的幅度谱是否位于预设最大值与预设最小值的范围;
在处理后的幅度谱小于所述预设最小值时,将所述预设最小值作为处理后的幅度谱;
在处理后的幅度谱大于所述预设最大值时,将所述预设最大值作为处理后的幅度谱。
4.如权利要求1所述的方法,其特征在于,对所述幅度谱进行自适应后处理,获得处理后的幅度谱之后,所述方法还包括:
对所述处理后的幅度谱进行频谱能量一致化处理;
将所述处理后的幅度谱转换为所述频谱模型的预设参数,包括:
将进行频谱能量一致化处理后的幅度谱转换为所述频谱模型的预设参数。
5.如权利要求1-4任一所述的方法,其特征在于,所述方法还包括:
获得进行语音合成的待合成文本;
基于所述语音模型确定出所述待合成文本的声学参数;
通过所述声学参数合成所述待合成文本的语音数据。
6.一种语音合成方法,其特征在于,包括:
获得进行语音合成的待合成文本;
基于语音模型中的频谱模型确定出所述待合成文本的频谱参数,所述频谱模型为经自适应后处理过的频谱模型,所述自适应后处理过程包括以下步骤:将所述频谱模型的预设参数转换为幅度谱,对所述幅度谱进行自适应后处理获得处理后的幅度谱,包括:通过以下公式对所述幅度谱进行自适应后处理:
Figure DEST_PATH_IMAGE020
其中,
Figure DEST_PATH_IMAGE022
表示处理后的幅度谱;
Figure DEST_PATH_IMAGE024
表示处理前的幅度谱;
Figure DEST_PATH_IMAGE026
表示在z平面上
Figure DEST_PATH_IMAGE028
尺度变换到之前的
Figure DEST_PATH_IMAGE030
倍,从而得到的幅度谱;
Figure DEST_PATH_IMAGE032
表示在z平面上
Figure DEST_PATH_IMAGE034
尺度变换到之前的
Figure DEST_PATH_IMAGE036
倍,从而得到的幅度谱;
通过所述频谱参数合成所述待合成文本的语音数据。
7.如权利要求6所述的方法,其特征在于,在所述基于语音模型中的频谱模型确定出所述待合成文本的频谱参数之前,所述方法还包括:
在客户端设备本地进行所述频谱模型的自适应后处理;和/或
从所述服务器接收经过自适应后处理的所述频谱模型。
8.一种声学模型处理装置,其特征在于,包括:
获取模块,用于获取语音模型中的频谱模型的预设参数;
第一转换模块,用于将所述频谱模型的预设参数转换为幅度谱;
第一获得模块,用于对所述幅度谱进行自适应后处理,获得处理后的幅度谱,包括:通过以下公式对所述幅度谱进行自适应后处理:
Figure DEST_PATH_IMAGE038
其中,
Figure DEST_PATH_IMAGE040
表示处理后的幅度谱;
Figure DEST_PATH_IMAGE042
表示处理前的幅度谱;
Figure DEST_PATH_IMAGE044
表示在z平面上
Figure DEST_PATH_IMAGE046
尺度变换到之前的
Figure DEST_PATH_IMAGE048
倍,从而得到的幅度谱;
Figure DEST_PATH_IMAGE050
表示在z平面上
Figure DEST_PATH_IMAGE052
尺度变换到之前的
Figure DEST_PATH_IMAGE054
倍,从而得到的幅度谱;
第二转换模块,用于将所述处理后的幅度谱转换为所述频谱模型的预设参数,进而获得处理后的所述频谱模型。
9.如权利要求8所述的装置,其特征在于,所述第一转换模块,用于:
将所述频谱模型均值部分的静态参数转换为所述幅度谱。
10.如权利要求6所述的装置,其特征在于,所述第一获得模块62,包括:
判断单元,用于针对每个处理前的幅度谱,判断计算获得的处理后的幅度谱是否位于预设最大值与预设最小值的范围;
第一确定单元,用于在处理后的幅度谱小于所述预设最小值时,将所述预设最小值作为处理后的幅度谱;
第二确定单元,用于在处理后的幅度谱大于所述预设最大值时,将所述预设最大值作为处理后的幅度谱。
11.如权利要求8所述的装置,其特征在于,所述装置还包括:
第一处理模块,用于对所述处理后的幅度谱进行频谱能量一致化处理;
所述第二转换模块,用于将进行频谱能量一致化处理后的幅度谱转换为所述频谱模型的预设参数。
12.如权利要求8~11任一所述的装置,其特征在于,所述装置还包括:
第二获得模块,用于获得进行语音合成的待合成文本;
第一确定模块,用于基于所述语音模型确定出所述待合成文本的声学参数;
第一合成模块,用于通过所述声学参数合成所述待合成文本的语音数据。
13.一种语音合成装置,其特征在于,包括:
第三获得模块,用于获得进行语音合成的待合成文本;
第二确定模块,用于基于语音模型中的频谱模型确定出所述待合成文本的频谱参数,所述频谱模型为经自适应后处理过的频谱模型,所述自适应后处理过程包括以下步骤:将所述频谱模型的预设参数转换为幅度谱,对所述幅度谱进行自适应后处理获得处理后的幅度谱,包括:通过以下公式对所述幅度谱进行自适应后处理:
Figure DEST_PATH_IMAGE056
其中,
Figure DEST_PATH_IMAGE058
表示处理后的幅度谱;
Figure DEST_PATH_IMAGE060
表示处理前的幅度谱;
Figure DEST_PATH_IMAGE062
表示在z平面上
Figure DEST_PATH_IMAGE064
尺度变换到之前的
Figure DEST_PATH_IMAGE066
倍,从而得到的幅度谱;
Figure DEST_PATH_IMAGE068
表示在z平面上
Figure DEST_PATH_IMAGE070
尺度变换到之前的
Figure DEST_PATH_IMAGE072
倍,从而得到的幅度谱;
第二合成模块,用于通过所述频谱参数合成所述待合成文本的语音数据。
14.如权利要求·3所述的装置,其特征在于,所述装置还包括:
第二处理模块,用于在客户端设备本地进行所述频谱模型的自适应后处理;和/或
接收模块,用于从所述服务器接收经过自适应后处理的所述频谱模型。
15.一种处理设备,其特征在于,包括有存储器,以及一个或者一个以上的程序,其中一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行所述一个或者一个以上程序包含用于进行以下操作的指令:
获取语音模型中的频谱模型的预设参数;
将所述频谱模型的预设参数转换为幅度谱;
对所述幅度谱进行自适应后处理,获得处理后的幅度谱,包括:通过以下公式对所述幅度谱进行自适应后处理:
Figure DEST_PATH_IMAGE074
其中,
Figure DEST_PATH_IMAGE076
表示处理后的幅度谱;
Figure DEST_PATH_IMAGE078
表示处理前的幅度谱;
Figure DEST_PATH_IMAGE080
表示在z平面上
Figure DEST_PATH_IMAGE082
尺度变换到之前的
Figure DEST_PATH_IMAGE084
倍,从而得到的幅度谱;
Figure DEST_PATH_IMAGE086
表示在z平面上
Figure DEST_PATH_IMAGE088
尺度变换到之前的
Figure DEST_PATH_IMAGE090
倍,从而得到的幅度谱;
将所述处理后的幅度谱转换为所述频谱模型的预设参数,进而获得处理后的所述频谱模型。
16.一种处理设备,其特征在于,包括有存储器,以及一个或者一个以上的程序,其中一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行所述一个或者一个以上程序包含用于进行以下操作的指令:
获得进行语音合成的待合成文本;
基于语音模型中的频谱模型确定出所述待合成文本的频谱参数,所述频谱模型为经自适应后处理过的频谱模型,所述自适应后处理过程包括以下步骤:将所述频谱模型的预设参数转换为幅度谱,对所述幅度谱进行自适应后处理获得处理后的幅度谱,包括:通过以下公式对所述幅度谱进行自适应后处理:
Figure DEST_PATH_IMAGE092
其中,
Figure DEST_PATH_IMAGE094
表示处理后的幅度谱;
Figure DEST_PATH_IMAGE096
表示处理前的幅度谱;
Figure DEST_PATH_IMAGE098
表示在z平面上
Figure DEST_PATH_IMAGE100
尺度变换到之前的
Figure DEST_PATH_IMAGE102
倍,从而得到的幅度谱;
Figure DEST_PATH_IMAGE104
表示在z平面上
Figure DEST_PATH_IMAGE106
尺度变换到之前的
Figure DEST_PATH_IMAGE108
倍,从而得到的幅度谱;
通过所述频谱参数合成所述待合成文本的语音数据。
17.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时可以实现如权利要求1~5任一权项所述的方法步骤。
18.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时可以实现如权利要求6~7任一权项所述的方法步骤。
CN201610353978.5A 2016-05-25 2016-05-25 一种声学模型处理方法、语音合成方法、装置及相关设备 Active CN107437412B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610353978.5A CN107437412B (zh) 2016-05-25 2016-05-25 一种声学模型处理方法、语音合成方法、装置及相关设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610353978.5A CN107437412B (zh) 2016-05-25 2016-05-25 一种声学模型处理方法、语音合成方法、装置及相关设备

Publications (2)

Publication Number Publication Date
CN107437412A CN107437412A (zh) 2017-12-05
CN107437412B true CN107437412B (zh) 2021-06-29

Family

ID=60452931

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610353978.5A Active CN107437412B (zh) 2016-05-25 2016-05-25 一种声学模型处理方法、语音合成方法、装置及相关设备

Country Status (1)

Country Link
CN (1) CN107437412B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110580910B (zh) * 2018-06-08 2024-04-26 北京搜狗科技发展有限公司 一种音频处理方法、装置、设备及可读存储介质
CN110930977B (zh) * 2019-11-12 2022-07-08 北京搜狗科技发展有限公司 一种数据处理方法、装置和电子设备
CN110931045A (zh) * 2019-12-20 2020-03-27 重庆大学 基于卷积神经网络的音频特征生成方法
CN115798455B (zh) * 2023-02-07 2023-06-02 深圳元象信息科技有限公司 语音合成方法、***、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102610236A (zh) * 2012-02-29 2012-07-25 山东大学 一种改善喉振话筒语音音质的方法
CN102938254A (zh) * 2012-10-24 2013-02-20 中国科学技术大学 一种语音信号增强***和方法
CN104318927A (zh) * 2014-11-04 2015-01-28 东莞市北斗时空通信科技有限公司 一种抗噪声的低速率语音编码方法及解码方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103065631B (zh) * 2013-01-24 2015-07-29 华为终端有限公司 一种语音识别的方法、装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102610236A (zh) * 2012-02-29 2012-07-25 山东大学 一种改善喉振话筒语音音质的方法
CN102938254A (zh) * 2012-10-24 2013-02-20 中国科学技术大学 一种语音信号增强***和方法
CN104318927A (zh) * 2014-11-04 2015-01-28 东莞市北斗时空通信科技有限公司 一种抗噪声的低速率语音编码方法及解码方法

Also Published As

Publication number Publication date
CN107437412A (zh) 2017-12-05

Similar Documents

Publication Publication Date Title
CN109801644B (zh) 混合声音信号的分离方法、装置、电子设备和可读介质
CN110136692B (zh) 语音合成方法、装置、设备及存储介质
CN107705783B (zh) 一种语音合成方法及装置
CN111583944A (zh) 变声方法及装置
CN111508511A (zh) 实时变声方法及装置
CN110097890B (zh) 一种语音处理方法、装置和用于语音处理的装置
CN107871494B (zh) 一种语音合成的方法、装置及电子设备
CN107437412B (zh) 一种声学模型处理方法、语音合成方法、装置及相关设备
CN109410973B (zh) 变声处理方法、装置和计算机可读存储介质
CN111326138A (zh) 语音生成方法及装置
CN110931028B (zh) 一种语音处理方法、装置和电子设备
CN111862995A (zh) 一种码率确定模型训练方法、码率确定方法及装置
CN115273831A (zh) 语音转换模型训练方法、语音转换方法和装置
CN110610720B (zh) 一种数据处理方法、装置和用于数据处理的装置
CN111104807A (zh) 一种数据处理方法、装置和电子设备
CN115039169A (zh) 一种语音指令识别方法、电子设备以及非瞬态计算机可读存储介质
CN110580910B (zh) 一种音频处理方法、装置、设备及可读存储介质
CN112951202B (zh) 语音合成方法、装置、电子设备以及程序产品
CN113345452B (zh) 语音转换方法、语音转换模型的训练方法、装置和介质
CN113409765B (zh) 一种语音合成方法、装置和用于语音合成的装置
CN111667842B (zh) 音频信号处理方法及装置
CN110428828B (zh) 一种语音识别方法、装置和用于语音识别的装置
CN109102810B (zh) 声纹识别方法和装置
CN108345590B (zh) 一种翻译方法、装置、电子设备以及存储介质
CN112818841A (zh) 一种识别用户情绪的方法及相关装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant