CN102664003B - 基于谐波加噪声模型的残差激励信号合成及语音转换方法 - Google Patents
基于谐波加噪声模型的残差激励信号合成及语音转换方法 Download PDFInfo
- Publication number
- CN102664003B CN102664003B CN2012101218866A CN201210121886A CN102664003B CN 102664003 B CN102664003 B CN 102664003B CN 2012101218866 A CN2012101218866 A CN 2012101218866A CN 201210121886 A CN201210121886 A CN 201210121886A CN 102664003 B CN102664003 B CN 102664003B
- Authority
- CN
- China
- Prior art keywords
- frame
- voice
- signal
- target
- harmonic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明公开一种基于谐波加噪声模型的残差激励信号合成及语音转换方法,属于语音信号处理领域,包含以下步骤:预处理与清浊音判断;谐波参数的提取;声道谱参数的计算;建立声道谱转换规则;特征参数的转换;残差激励的预测;语音合成与残差补偿。本发明在建立激励信号时,在经HNM分析提取出的浊音帧谐波信号的残差信号的基础上线性叠加上适度的HNM分析同时产生的剩余信号作为预测的激励源信号,从而有效的增强激励源中含有的说话人超音段特征,同时避免传统方法人为修改激励信号引入的失真;在合成阶段,在合成出的语音中再次逐帧叠加上适度的HNM分析出的目标浊音帧谐波信号的残差,使转换出的语音更具目标说话人个性,改善语音质量。
Description
技术领域
本发明涉及语音转换技术,特别涉及基于谐波加噪声模型的残差激励信号合成及语音转换方法,属于语音信号处理技术领域。
背景技术
语音转换是语音信号处理领域近年来新兴的研究分支,是在说话人识别和语音合成的研究基础上进行的,同时也是这两个分支内涵的丰富和延拓,但是又不完全隶属于说话人识别和语音合成的范畴。
语音转换的目标是在保证其中的语义信息保持不变的条件下,改变源说话人语音中的个性特征信息,使之具有目标说话人的个性特征,从而使转换后的语音听起来就像是目标说话人的声音。语音转换的实现可以分为训练阶段和转换阶段。在训练阶段,***对源说话人和目标说话人进行训练,分析他们的参数,建立转换规则。在转换阶段,先对源语音进行分析并提取语音特征,再根据由训练阶段得到的语音转换规则进行转换得到目标语音特征。
语音信号的特征分为音段信息和超音段信息两类。音段特征描述的是语音的音色特征,主要包括声道共振峰的位置、共振峰的带宽、频谱倾斜、基音频率等。超音段特征描述的是语音的韵律特征及激励源信息,特征参数主要包括音素的时长、能量、周期的变化轮廓以及谱包络的变化等动态特征等。
语音转换的关键问题在于说话人个性特征的提取以及转换规则的建立,经过近二十年的发展,涌现出大量的研究成果。目前对语音特征参数的研究主要集中与语音信号的音段特征,而对语音信号激励源超音段特征涉及的不多。当前对语音信号激励源估计的主要方法有基于线性预测编码(Linear Prediction Coding,LPC)模型的残差预测法。但是线性预测技术得到的残差信号(Residual signal)作为激励时,含有的目标说话人个性较少,并且残差信号中能量较低,造成转换后语音质量较差;(1、Suendermann D, Bonafonte A, Ney H, Hoege H, “A Study on Residual Prediction Techniques for Voice Conversion”, proceedings of IEEE International Conference on Acoustics, Speech, and Signal Processing, vol.1, pp.13-16, 2005. 2、Percybrooks W.S, Moore E, “Voice conversion with linear prediction residual estimation”, proceedings of IEEE International Conference on Acoustics, Speech and Signal Processing, pp.4673 – 4676, March 2008.)此外,现有的语音转换***中也有用通过求取基音频率的平均值来计算基音频率的压扩比,或者通过时长***、剪切等方式人为地修改激励源信号。但是由于语音信号激励源超音段信号特征多于说话人当时的状态有关,受到说话人所处的环境的影响。因此,人为的修改激励信号必然不能准确描述语音的激励源超音段信息,并且引入失真。(3、Xuejing Sun, “Voice quality conversion in TD-PSOLA speech synthesis”, proceedings of IEEE International Conference on Acoustics, Speech, and Signal Processing, Vol.2, pp. II953 - II956, 2000. 4、Wang Yuan-yuan, Yang Shun, “Speech synthesis based on PSOLA algorithm and modified pitch parameters”, International Conference on Computational Problem-Solving (ICCP), pp. 296 - 299, 2010.)。
发明内容
本发明的目的在于提供一种结合语音信号特点和说话人个性特征在平行文本下的语音转换算法,重点研究语音信号在激励源超音段信息的提取与预测,通过对激励源信号的改善及转换后语音的补偿,增强合成语音中目标说话人的个性并且提高转换***的性能。
为了实现上述发明目的,本发明采用了如下技术方案:
一种基于谐波加噪声模型的残差激励信号合成及语音转换方法,具体步骤如下:
第一步,预处理与清浊音判断,即分别对源语音和目标语音进行预加重、分帧和加窗处理,计算每一帧的短时能量和平均过零率,完成清浊音的判决;
第二步,谐波参数的提取,即利用谐波加噪声模型(Harmonic plus Noise Model,HNM)模型分别对源语音和目标语音的浊语音帧进行分析,首先计算浊音帧信号的基音频率,然后HNM模型将浊音帧分解为谐波信号和宽带随机信号,计算谐波个数,提取谐波信号的幅值、相位和各次谐波频率,对于清音看作随机噪声保留不变;
第三步,声道谱参数的计算,即分别对源语音与目标语音的浊音信号提取出的各阶谐波的幅值进行变换,将幅值的平方作为离散功率的采样值,经快速傅立叶逆变换(Inverse Fast Fourier Transformation,IFFT)得到自相关系数,再经Levinson-Durbin算法进行LPC分析,得到源语音与目标语音的线性谱频率(Linear Spectral Frequency,LSF)参数和相对应的残差信号;
第四步,建立声道谱转换规则,将源语音与目标语音的LSF参数经过动态时间规整(Dynamic Time Warping,DTW)后,送入高斯混合模型(Gaussian Mixture Model,GMM)进行概率建模;
第五步特征参数的转换,即先对待转换语音经HNM分析,按照上述第二步与第三步的方法,提取待转换的LSF参数及残差信号,将待转换的LSF参数送入第四步建立的GMM转换规则进行转换;
第六步,残差激励的预测,即首先逐帧找出与转换后的LSF参数最接近的目标LSF参数,然后利用该目标LSF参数对应的残差信号与该帧经HNM分析后剩余的随机信号线性叠加,作为残差激励信号;
第七步,语音合成与残差补偿,即首先由上述第五步和第六步得到的转换后的LSF参数和残差激励信号,基于LPC合成模型得到转换出的每帧语音信号,然后将转换出的每帧语音信号再次叠加上对应的适度目标残差信号,经重叠相加后最终得到合成出的语音。
本发明与现有技术相比,其显著优点:(1)建立激励信号时,在经HNM分析提取出的浊音帧谐波信号的残差信号的基础上,线性叠加上适度的该HNM分析同时产生的剩余信号(宽带随机信号)作为预测的激励源信号,这样能有效的增强激励源中含有的说话人超音段特征,同时避免传统方法人为修改激励信号引入的失真;(2)合成阶段,在合成出的语音中再次逐帧叠加上适度的HNM分析出的目标浊音帧谐波信号的残差,使得转换出的语音更具有目标说话人个性,改善语音质量。
下面结合附图对本发明作进一步详细描述。
附图说明
图1是本发明基于谐波加噪声模型的残差激励信号合成及语音转换方法示意图;
图2是特征参数的提取与转换规则建立的示意图;
图3是特征参数的转换与基于HNM模型的残差激励信号预测的示意图;
图4是第i帧浊语音参数转换及语音合成的示意图。
具体实施方式
结合图1,基于谐波加噪声模型的残差激励信号合成及语音转换方法,步骤如下:
第一步,在训练阶段先进行预处理与清浊音判断,即分别对源语音和目标语音进行预加重、分帧和加窗处理,计算每一帧的短时能量和平均过零率,完成清浊音的判决,具体过程如下:
(1)对源语音和目标语音信号分别进行预处理,预加重系数为0.96,按帧长20ms分帧,无重叠,之后使用汉明窗进行加窗处理;
第二步,谐波参数的提取,如图2所示,利用HNM模型分别对源语音和目标语音的浊语音帧进行分析,首先计算浊音帧信号的基音频率,然后HNM模型将浊音帧分解为谐波信号和宽带随机信号,计算谐波个数,提取谐波信号的幅值,相位和各次谐波频率;对于清音看作随机噪声保留不变,具体过程如下:
(2)分别对源语音和目标语音进行分析,若当前帧为浊音帧(其中,N为帧长),将其分解为谐波成分及随机成分,首先,确定最高谐波个数,其中为采样频率。目标函数为,其中表示汉明窗(hamming),在最小二 乘准则下估计复幅值,那么谐波成分的实幅度可表示为,实相位可表示为;
(3)在相邻两帧之间对和进行插值,使得两者分别变为时变值和,同样地对谐波个数L进行线性插值使其变为时变值。假设分析的相邻两帧为第k帧和第k+1帧,且它们的中心分别位于样点n=kN和n=(k+1)N上,对幅值和谐波个数进行线性插值,对相位进行三次多项式插值:
,
,
(4)若当前帧为清音则看为随机噪声,由于清音中信息较少故保留清音信号不变;
第三步,声道谱参数的计算,如图2所示,首先分别对源语音与目标语音的浊音信号提取出的各阶谐波的幅值进行变换,将幅值的平方作为离散功率的采样值,经IFFT变换得到自相关系数,再经Levinson-Durbin算法进行LPC分析,得到源语音与目标语音的LSF参数和相对应的残差信号,具体过程如下(逐帧计算):
第四步,建立声道谱转换规则,如图2所示,将源语音与目标语音的LSF参数经过DTW规整后,送入GMM模型进行概率建模,具体过程如下:
(1)将源语音信号与目标语音浊音帧谐波提取出的LSF参数,经过DTW时间对齐,并且记录下DTW返回的对齐LSF的下标;
(2)根据DTW返回的对齐LSF的下标,将源语音与目标语音浊音帧的谐波的残差信号进行对齐,同样地将源语音与目标语音浊音帧经HNM分析后剩余的随机信号对齐;
(3)将对齐的源LSF参数与目标LSF参数组成联合参数送入GMM模型,建立声道谱转换函数;
第五步,特征参数的转换,如图3所示,先对待转换语音经HNM分析,按照上述第二步与第三步的方法,提取待转换的LSF参数及残差信号。将待转换的LSF参数送入第四步建立的GMM转换规则进行转换,具体过程如下:
(1)将待转换语音信号如上述步骤所述,进行预处理、分帧,经HNM分析提取谐波参数,计算声道谱参数并转换为LSF参数;
(2)将待转换的每帧LSF参数利用建立好的GMM规则进行转换,得到转换后的LSF参数;
第六步,残差激励的预测,如图3所示,首先逐帧找出与转换后的LSF参数最接近的目标LSF参数,然后利用该目标LSF参数对应的残差信号与该帧经HNM分析后剩余的随机信号线性叠加,作为残差激励信号,具体过程如下:
(1)对于转换出的LSF参数逐帧找出与其最接近的目标LSF参数,确定该目标LSF参数对应的残差信号及HNM分析时剩余的随机信号;
(2)将目标残差信号及HNM分析时剩余的随机信号线性叠加,作为残差激励信号;
第七步,语音合成与残差补偿,如图4所示,首先由上述第五步和第六步得到的转换后的LSF参数和残差激励信号,基于LPC合成模型得到转换出的每帧语音信号,然后将转换出的每帧语音信号再次叠加上对应的适度目标残差信号,经重叠相加后最终得到合成出的语音,具体过程如下:
(1)将上述步骤得到的转换后的LSF参数转换为LPC系数,逐帧由LPC系数建立滤波器,再将预测出的残差激励信号通过该滤波器,得到转换后的语音;
(2)将每帧转换后的语音信号再次叠加上对应的适度目标残差信号,根据实验经验一般需要对残差信号进行适度的放大,补偿时可将残差信号放大至原来的2~5倍,然后各帧语音经拼接后便可得到最终的合成语音。
Claims (8)
1.基于谐波加噪声模型的残差激励信号合成及语音转换方法,其特征在于包含以下步骤:
第一步,预处理与清浊音判断,即分别对源语音和目标语音进行预加重、分帧和加窗处理,计算每一帧的短时能量和平均过零率,完成清浊音的判决;
第二步,谐波参数的提取,即利用HNM模型分别对源语音和目标语音的浊语音帧进行分析,首先计算浊音帧信号的基音频率,然后HNM模型将浊音帧分解为谐波信号和宽带随机信号,计算谐波个数,提取谐波信号的幅值、相位和各次谐波频率,对于清音看作随机噪声保留不变;
第三步,声道谱参数的计算,即分别对源语音与目标语音的浊音信号提取出的各阶谐波的幅值进行变换,将幅值的平方作为离散功率的采样值,经IFFT变换得到自相关系数,再经Levinson-Durbin算法进行LPC分析,得到源语音与目标语音的LSF参数和相对应的残差信号;
第四步,建立声道谱转换规则,将源语音与目标语音的LSF参数经过DTW规整后,送入GMM模型进行概率建模;
第五步,特征参数的转换,即先对待转换语音经HNM分析,按照上述第二步与第三步的方法,提取待转换的LSF参数及残差信号,将待转换的LSF参数送入第四步建立的声道谱转换规则进行转换;
第六步,残差激励的预测,即首先逐帧找出与转换后的LSF参数最接近的目标LSF参数,然后利用该目标LSF参数对应的残差信号与该帧经HNM分析后剩余的随机信号线性叠加,作为残差激励信号;
第七步,语音合成与残差补偿,即首先由上述第五步和第六步得到的转换后的LSF参数和残差激励信号,基于LPC合成模型得到转换出的每帧语音信号,并将第六步找出的所述目标LSF参数对应的残差信号放大2~5倍,再将放大后的残差信号与转换出的语音逐帧叠加,最终得到合成出的语音。
3.根据权利要求1所述的基于谐波加噪声模型的残差激励信号合成及语音转换方法,其特征在于谐波参数的提取过程如下:
第一步,用归一化互相关法分别计算源语音和目标语音当前帧的基音频率f0;
第二步,分别对源语音和目标语音进行分析,若当前帧为浊音帧s(n),其中1≤n≤N,N为帧长,将其分解为谐波成分sh(n)及随机成分e(n),首先,确定最高谐波个数其中fs为采样频率,目标函数为其中w(n)表示汉明窗,在最小二乘准则下估计复幅值{Cl,l=-L,-L+1,…,L},谐波成分的实幅度{Al}表示为Al=2|Cl|=2|C-l|,实相位表示为再在相邻两帧之间对{Al}和进行插值,使得两者分别变为时变值{Al(n)}和,同样地对谐波个数L进行线性插值使其变为时变值{L(n)},则剩余的随机信号表示为
第三步,若当前帧为清音则看为随机噪声,由于清音中信息较少故保留清音信号不变。
5.根据权利要求1所述的基于谐波加噪声模型的残差激励信号合成及语音转换方法,其特征在于建立声道谱转换规则的具体过程如下:
第一步,将源语音信号与目标语音浊音帧谐波提取出的LSF参数,经过DTW时间对齐,并且记录下DTW返回的对齐LSF的下标;
第二步,根据DTW返回的对齐LSF的下标,将源语音与目标语音浊音帧的谐波的残差信号进行对齐,同样地源语音与目标语音浊音帧经HNM分析后剩余的随机信号对齐;
第三步,将对齐的源LSF参数与目标LSF参数组成联合参数送入GMM模型,建立声道谱转换函数。
6.根据权利要求1所述的基于谐波加噪声模型的残差激励信号合成及语音转换方法,其特征在于特征参数的转换的具体过程如下:
第一步,将待转换语音信号进行预处理、分帧,经HNM分析提取谐波参数,计算声道谱参数并转换为LSF参数;
第二步,将待转换的每帧LSF参数利用建立好的声道谱转换规则进行转换,得到转换后的LSF参数。
7.根据权利要求1所述的基于谐波加噪声模型的残差激励信号合成及语音转换方法,其特征在于残差激励的预测过程如下:
第一步,对于转换出的LSF参数逐帧找出与其最接近的目标LSF参数,确定该目标LSF参数对应的残差信号及HNM分析时剩余的随机信号;
第二步,将目标残差信号及HNM分析时剩余的随机信号线性叠加,作为残差激励信号。
8.根据权利要求1所述的基于谐波加噪声模型的残差激励信号合成及语音转换方法,其特征在于基于LPC合成模型得到转换出的每帧语音信号的具体过程如下:
将得到的转换后的LSF参数转换为LPC系数,逐帧由LPC系数建立滤波器,再将预测出的残差激励信号通过该滤波器,得到转换后的语音。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2012101218866A CN102664003B (zh) | 2012-04-24 | 2012-04-24 | 基于谐波加噪声模型的残差激励信号合成及语音转换方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2012101218866A CN102664003B (zh) | 2012-04-24 | 2012-04-24 | 基于谐波加噪声模型的残差激励信号合成及语音转换方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102664003A CN102664003A (zh) | 2012-09-12 |
CN102664003B true CN102664003B (zh) | 2013-12-04 |
Family
ID=46773469
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2012101218866A Expired - Fee Related CN102664003B (zh) | 2012-04-24 | 2012-04-24 | 基于谐波加噪声模型的残差激励信号合成及语音转换方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102664003B (zh) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9570093B2 (en) * | 2013-09-09 | 2017-02-14 | Huawei Technologies Co., Ltd. | Unvoiced/voiced decision for speech processing |
CN103489443B (zh) * | 2013-09-17 | 2016-06-15 | 湖南大学 | 一种声音模仿方法及装置 |
CN104978970B (zh) | 2014-04-08 | 2019-02-12 | 华为技术有限公司 | 一种噪声信号的处理和生成方法、编解码器和编解码*** |
CN106486129B (zh) | 2014-06-27 | 2019-10-25 | 华为技术有限公司 | 一种音频编码方法和装置 |
CN106098073A (zh) * | 2016-05-23 | 2016-11-09 | 苏州大学 | 一种基于频谱映射的端到端语音加解密*** |
CN106656882B (zh) * | 2016-11-29 | 2019-05-10 | 中国科学院声学研究所 | 一种信号合成方法及*** |
CN107134277A (zh) * | 2017-06-15 | 2017-09-05 | 深圳市潮流网络技术有限公司 | 一种基于gmm模型的语音激活检测方法 |
JP6733644B2 (ja) * | 2017-11-29 | 2020-08-05 | ヤマハ株式会社 | 音声合成方法、音声合成システムおよびプログラム |
CN108281150B (zh) * | 2018-01-29 | 2020-11-17 | 上海泰亿格康复医疗科技股份有限公司 | 一种基于微分声门波模型的语音变调变嗓音方法 |
CN108510991A (zh) * | 2018-03-30 | 2018-09-07 | 厦门大学 | 利用泛音列的说话人确认方法 |
CN108766450B (zh) * | 2018-04-16 | 2023-02-17 | 杭州电子科技大学 | 一种基于谐波冲激分解的语音转换方法 |
CN108899008B (zh) * | 2018-06-13 | 2023-04-18 | 中国人民解放军91977部队 | 一种对空语音通信杂音模拟干扰方法和*** |
CN109065068B (zh) * | 2018-08-17 | 2021-03-30 | 广州酷狗计算机科技有限公司 | 音频处理方法、装置及存储介质 |
CN109003621B (zh) * | 2018-09-06 | 2021-06-04 | 广州酷狗计算机科技有限公司 | 一种音频处理方法、装置及存储介质 |
CN109712634A (zh) * | 2018-12-24 | 2019-05-03 | 东北大学 | 一种自动声音转换方法 |
CN110444192A (zh) * | 2019-08-15 | 2019-11-12 | 广州科粤信息科技有限公司 | 一种基于语音技术的智能语音机器人 |
CN113241089B (zh) * | 2021-04-16 | 2024-02-23 | 维沃移动通信有限公司 | 语音信号增强方法、装置及电子设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW201001396A (en) * | 2008-06-26 | 2010-01-01 | Univ Nat Taiwan Science Tech | Method for synthesizing speech |
CN102063899A (zh) * | 2010-10-27 | 2011-05-18 | 南京邮电大学 | 一种非平行文本条件下的语音转换方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2853125A1 (fr) * | 2003-03-27 | 2004-10-01 | France Telecom | Procede d'analyse d'informations de frequence fondamentale et procede et systeme de conversion de voix mettant en oeuvre un tel procede d'analyse. |
-
2012
- 2012-04-24 CN CN2012101218866A patent/CN102664003B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW201001396A (en) * | 2008-06-26 | 2010-01-01 | Univ Nat Taiwan Science Tech | Method for synthesizing speech |
CN102063899A (zh) * | 2010-10-27 | 2011-05-18 | 南京邮电大学 | 一种非平行文本条件下的语音转换方法 |
Non-Patent Citations (3)
Title |
---|
VOICE CONVERSION WITH LINEAR PREDICTION RESIDUAL ESTIMATON;Winston S. Percybrooks等;《IEEE International Conference on Acoustics, Speech and Signal Processing》;20080404;4673-4676 * |
Winston S. Percybrooks等.VOICE CONVERSION WITH LINEAR PREDICTION RESIDUAL ESTIMATON.《IEEE International Conference on Acoustics, Speech and Signal Processing》.2008,4673-4676. |
易立夫等.基于HNM算法的汉语语音合成***.《第六届全国现代语音学学术会议论文集(下)》.2003,528-533. * |
Also Published As
Publication number | Publication date |
---|---|
CN102664003A (zh) | 2012-09-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102664003B (zh) | 基于谐波加噪声模型的残差激励信号合成及语音转换方法 | |
CN103531205B (zh) | 基于深层神经网络特征映射的非对称语音转换方法 | |
CN102800316B (zh) | 基于神经网络的声纹识别***的最优码本设计方法 | |
CN109147758A (zh) | 一种说话人声音转换方法及装置 | |
Song et al. | ExcitNet vocoder: A neural excitation model for parametric speech synthesis systems | |
CN1815552B (zh) | 基于线谱频率及其阶间差分参数的频谱建模与语音增强方法 | |
CN110648684B (zh) | 一种基于WaveNet的骨导语音增强波形生成方法 | |
WO2013133768A1 (en) | Method and system for template-based personalized singing synthesis | |
CN106653056A (zh) | 基于lstm循环神经网络的基频提取模型及训练方法 | |
CN102184731A (zh) | 一种韵律类和音质类参数相结合的情感语音转换方法 | |
CN103021418A (zh) | 一种面向多时间尺度韵律特征的语音转换方法 | |
Gamit et al. | Isolated words recognition using mfcc lpc and neural network | |
CN106782599A (zh) | 基于高斯过程输出后滤波的语音转换方法 | |
Oura et al. | Deep neural network based real-time speech vocoder with periodic and aperiodic inputs | |
CN105654941A (zh) | 一种基于指向目标人变声比例参数的语音变声方法及装置 | |
Wang et al. | Physiologically-motivated feature extraction for speaker identification | |
CN103854655B (zh) | 一种低码率语音编码器以及解码器 | |
CN103886859B (zh) | 基于一对多码书映射的语音转换方法 | |
CN113421584A (zh) | 音频降噪方法、装置、计算机设备及存储介质 | |
CN102231275B (zh) | 一种基于加权混合激励的嵌入式语音合成方法 | |
Raju et al. | Application of prosody modification for speech recognition in different emotion conditions | |
CN115862590A (zh) | 一种基于特征金字塔的文本驱动语音合成方法 | |
Othmane et al. | Enhancement of esophageal speech using voice conversion techniques | |
Xie et al. | Pitch transformation in neural network based voice conversion | |
CN104538026A (zh) | 一种用于参数化语音合成的基频建模方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20131204 Termination date: 20160424 |