JP6802958B2 - Speech synthesis system, speech synthesis program and speech synthesis method - Google Patents

Speech synthesis system, speech synthesis program and speech synthesis method Download PDF

Info

Publication number
JP6802958B2
JP6802958B2 JP2017037151A JP2017037151A JP6802958B2 JP 6802958 B2 JP6802958 B2 JP 6802958B2 JP 2017037151 A JP2017037151 A JP 2017037151A JP 2017037151 A JP2017037151 A JP 2017037151A JP 6802958 B2 JP6802958 B2 JP 6802958B2
Authority
JP
Japan
Prior art keywords
speech synthesis
unit
periodic
component
aperiodic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017037151A
Other languages
Japanese (ja)
Other versions
JP2018141915A (en
Inventor
橘 健太郎
健太郎 橘
芳則 志賀
芳則 志賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Information and Communications Technology
Original Assignee
National Institute of Information and Communications Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Information and Communications Technology filed Critical National Institute of Information and Communications Technology
Priority to JP2017037151A priority Critical patent/JP6802958B2/en
Priority to PCT/JP2018/006165 priority patent/WO2018159402A1/en
Publication of JP2018141915A publication Critical patent/JP2018141915A/en
Application granted granted Critical
Publication of JP6802958B2 publication Critical patent/JP6802958B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/06Elementary speech units used in speech synthesisers; Concatenation rules
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • G10L13/10Prosody rules derived from text; Stress or intonation

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Machine Translation (AREA)

Description

本発明は、統計的パラメトリック音声合成に従う音声合成技術(statistical parametric speech synthesis;以下「SPSS」とも略称する。)に関する。 The present invention relates to a speech synthesis technique (statistical parametric speech synthesis; hereinafter, also abbreviated as "SPSS") according to statistical parametric speech synthesis.

従来から、音声合成技術は、テキスト読み上げアプリケーションや多言語翻訳サービスなどに広く応用されている。このような音声合成技術の一手法として、SPSSが知られている。SPSSは、統計モデルに基づいて音声を合成するフレームワークである。SPSSにおける主要な研究対象は、過去十数年にわたって、隠れマルコフモデル(hidden Markov model;以下「HMM」とも略称する。)に基づく音声合成であった。 Traditionally, speech synthesis technology has been widely applied to text-to-speech applications and multilingual translation services. SPSS is known as one method of such a speech synthesis technique. SPSS is a framework that synthesizes speech based on statistical models. For the past decade or so, the main research subject in SPSS has been speech synthesis based on the hidden Markov model (hereinafter abbreviated as "HMM").

近年、深層学習(deep learning)の一類型である、深層ニューラルネットワーク(deep neural network;以下「DNN」とも略称。)に基づく音声合成が注目を集めている(例えば、非特許文献1など参照)。非特許文献1に示された研究成果によれば、DNNに基づく音声合成は、HMMに基づく音声合成に比較して、より高品質な音声を生成できることが示されている。 In recent years, speech synthesis based on deep neural networks (hereinafter also abbreviated as "DNN"), which is a type of deep learning, has attracted attention (see, for example, Non-Patent Document 1). .. According to the research results shown in Non-Patent Document 1, it is shown that speech synthesis based on DNN can generate higher quality speech than speech synthesis based on HMM.

多くのSPSSにおいては、音声生成時のソースフィルタモデルとしてボコーダー(vocoder)が利用される。より具体的には、ソースフィルタモデルは、声道フィルタと励振源とから構成される。声道フィルタは、声道をモデル化したものであり、スペクトル包絡パラメータにより表現される。励振源(声帯振動)をモデル化した源信号は、パルス系列とノイズ成分とを混合することにより表現される。 In many SPSSs, a vocoder is used as a source filter model during speech generation. More specifically, the source filter model is composed of a vocal tract filter and an excitation source. The vocal tract filter is a model of the vocal tract and is represented by spectral envelope parameters. The source signal that models the excitation source (vocal cord vibration) is expressed by mixing the pulse sequence and the noise component.

一般的に採用されるボコーダーにおいて、振動源の各フレームは有声区間であるか無声区間であるかの判定がなされ、有声区間であると判定された場合には、声の高さ(ピッチ)に相当する基本周波数(以下、「F0」とも略称する。)のパルス系列を生成し、無声区間であると判定された場合には、ホワイトノイズとして振動源を生成する。ここで、有声と無声との判定はF0が非ゼロ(有声)かゼロ(無声)かに基づいて行なわれる。一般的なSPSSでは、このF0の系列は、1次元の系列とゼロ次元の離散シンボルとが切替わる不連続系列と表現され、各フレームにおいて、有声/無声(以下、「V/UV」とも略称する。)を切替えるためのフラグ(以下、「V/UVフラグ」とも略称する。)が必要となる。 In a generally adopted vocoder, it is determined whether each frame of the vibration source is a voiced section or an unvoiced section, and if it is determined to be a voiced section, the pitch of the voice is determined. A pulse sequence of the corresponding fundamental frequency (hereinafter, also abbreviated as "F 0 ") is generated, and when it is determined to be an unvoiced section, a vibration source is generated as white noise. Here, the determination of voiced and unvoiced is made based on whether F 0 is non-zero (voiced) or zero (unvoiced). In general SPSS, this F 0 series is expressed as a discontinuous series in which a one-dimensional series and a zero-dimensional discrete symbol are switched, and in each frame, voiced / unvoiced (hereinafter, also referred to as “V / UV”). A flag (hereinafter, also abbreviated as “V / UV flag”) for switching (abbreviated as) is required.

各フレームにおけるV/UVの判定エラー、および、不連続系列を出力する振動源をモデル化することの困難性、に起因して、合成音声に品質劣化が生じる可能性がある。 Due to the V / UV determination error in each frame and the difficulty of modeling the vibration source that outputs the discontinuous sequence, quality deterioration may occur in the synthetic speech.

このような系列をモデル化する一手法として、MSD(multi-space distribution)モデリングが提案されている(例えば、非特許文献2参照)。しかしながら、MSDモデリングは、連続系列と離散系列とを表現するという困難性を本質的に伴うものである。また、予測エラーが生じたV/UVフレームについては、ボコーディング(vocoding)において、しばしば合成音声の品質劣化を招く結果となる。例えば、誤って有声判定されたフレームについてはbuzzy感を生じさせ、誤って無声判定されたフレームについてはしゃがれ感を生じさせる。 MSD (multi-space distribution) modeling has been proposed as a method for modeling such a series (see, for example, Non-Patent Document 2). However, MSD modeling inherently involves the difficulty of representing continuous and discrete series. In addition, V / UV frames in which a prediction error occurs often result in deterioration of the quality of synthetic speech in vocoding. For example, a frame that is erroneously determined to be voiced causes a buzzy feeling, and a frame that is erroneously determined to be unvoiced gives a feeling of crouching.

H. Zen, Andrew Senior, Mike Schuster, "Statistical parametric speech synthesis using deep neural networks", Acoustics, Speech and Signal Processing (ICASSP), 2013 IEEE International Conference, 26-31 May 2013H. Zen, Andrew Senior, Mike Schuster, "Statistical parametric speech synthesis using deep neural networks", Acoustics, Speech and Signal Processing (ICASSP), 2013 IEEE International Conference, 26-31 May 2013 K. Tokuda, T. Masuko, N. Miyazaki, T. Kobayashi, "Hidden Markov models based on multi-space probability distribution for pitch pattern modeling", Acoustics, Speech and Signal Processing (ICASSP), 1999 IEEE International Conference, 15-19 March 1999K. Tokuda, T. Masuko, N. Miyazaki, T. Kobayashi, "Hidden Markov models based on multi-space probability distribution for pitch pattern modeling", Acoustics, Speech and Signal Processing (ICASSP), 1999 IEEE International Conference, 15- 19 March 1999 K. Yu and S. Young, "Continuous F0 modeling for HMM based statistical parametric speech synthesis", IEEE Trans. Audio Speech Lang. Process., vol. 19, no. 5, pp. 1071-1079, 2011K. Yu and S. Young, "Continuous F0 modeling for HMM based statistical parametric speech synthesis", IEEE Trans. Audio Speech Lang. Process., Vol. 19, no. 5, pp. 1071-1079, 2011 Javier Latorre, Mark J. F. Gales, Sabine Buchholz, Kate Knill, Masatsune Tamura, Yamato Ohtani, Masami Akamine, "Continuous F0 in the source-excitation generation for HMM-based TTS: Do we need voiced/unvoiced classification?", Acoustics, Speech and Signal Processing (ICASSP), 2011 IEEE International Conference, 22-27 May 2011Javier Latorre, Mark JF Gales, Sabine Buchholz, Kate Knill, Masatsune Tamura, Yamato Ohtani, Masami Akamine, "Continuous F0 in the source-excitation generation for HMM-based TTS: Do we need voiced / unvoiced classification?", Acoustics, Speech and Signal Processing (ICASSP), 2011 IEEE International Conference, 22-27 May 2011 T. G. Csapo', G. Ne'meth, and M. Cernak, "Residual-based excitation with continuous F0 modeling in HMM-based speech synthesis", in Lecture Notes in Artificial Intelligence, vol. 9449, A.-H. Dediu, C. Mart in-Vide, and K. Vicsi, Eds. Budapest, Hungary: Springer International Publishing, pp. 27-38, 2015TG Csapo', G. Ne'meth, and M. Cernak, "Residual-based excitation with continuous F0 modeling in HMM-based speech synthesis", in Lecture Notes in Artificial Intelligence, vol. 9449, A.-H. Dediu, C. Mart in-Vide, and K. Vicsi, Eds. Budapest, Hungary: Springer International Publishing, pp. 27-38, 2015 E. Banos, D. Erro, A. Bonafonte, and A. Moreno, "Flexible harmonic/stochastic modeling for HMM-based speech synthesis", in Proc. VJTH, pp. 145-148, 2008E. Banos, D. Erro, A. Bonafonte, and A. Moreno, "Flexible harmonic / stochastic modeling for HMM-based speech synthesis", in Proc. VJTH, pp. 145-148, 2008 Gilles Degottex, John Kane, Thomas Drugman, Tuomo Raitio, Stefan Scherer, "COVAREP - A collaborative voice analysis repository for speech technologies", Acoustics, Speech and Signal Processing (ICASSP), 2014 IEEE International Conference, 4-9 May 2014Gilles Degottex, John Kane, Thomas Drugman, Tuomo Raitio, Stefan Scherer, "COVAREP --A collaborative voice analysis repository for speech technologies", Acoustics, Speech and Signal Processing (ICASSP), 2014 IEEE International Conference, 4-9 May 2014 Ioannis Stylianou, "Harmonic plus noise models for speech, combined with statistical methods, for speech and speaker modification", Ecole Nationale Superieure des Telecommunications, 1996Ioannis Stylianou, "Harmonic plus noise models for speech, combined with statistical methods, for speech and speaker modification", Ecole Nationale Superieure des Telecommunications, 1996

上述したような課題に対して、いくつかの解決手法が提案されている。
一つ目の手法は、不連続系列であるF0の系列を補間することで、連続的な系列として扱うものである(例えば、非特許文献3など参照)。この手法を用いることで、F0は連続系列としてモデル化でき、品質を改善できることが示されている。この手法においては、波形生成時にV/UVの判定を行なう必要があり、離散系列のモデル化が必要となる。
Several solutions have been proposed for the above-mentioned problems.
The first method is to treat the series as a continuous series by interpolating the series of F 0 which is a discontinuous series (see, for example, Non-Patent Document 3). It has been shown that by using this method, F 0 can be modeled as a continuous sequence and the quality can be improved. In this method, it is necessary to determine V / UV at the time of waveform generation, and it is necessary to model a discrete series.

別の手法として、何らかの連続系列からV/UVを判定することが考えられる。例えば、V/UVフラグに代えて、非周期性指標に基づいて、V/UVを判定する手法が提案されている(例えば、非特許文献4など参照)。この手法は、完全に連続なモデル化を実現できる一方で、V/UVの判定が波形生成時に必要となるので、V/UVの判定エラーの影響を完全には避けることができない。 As another method, it is conceivable to determine V / UV from some continuous sequence. For example, a method for determining V / UV based on an aperiodic index instead of the V / UV flag has been proposed (see, for example, Non-Patent Document 4). While this method can realize completely continuous modeling, since V / UV determination is required at the time of waveform generation, the influence of V / UV determination error cannot be completely avoided.

さらに別の手法として、V/UVフラグに代えて、音声信号の周期性の最大帯域を示すMaximum Voiced Frequency(以下、「MVF」とも略称する。)を用いる手法が提案されている(例えば、非特許文献5など参照)。MVFを用いることにより、高周波帯域を非周期成分とするとともに、低周波帯域を周期成分として、音声を分割できる。また、MVFは、連続的にモデル化されるので、しきい値を設定することで、V/UVフラグとして機能させることも可能である。しかしながら、高周波帯域および低周波帯域の2帯域にしか分割しないため、周期/非周期成分のモデル精度が十分ではない。 As yet another method, a method using Maximum Voiced Frequency (hereinafter, also abbreviated as "MVF") indicating the maximum band of the periodicity of the voice signal is proposed instead of the V / UV flag (for example, non-V / UV flag). (See Patent Document 5, etc.). By using MVF, it is possible to divide the voice by using the high frequency band as the aperiodic component and the low frequency band as the periodic component. Moreover, since the MVF is continuously modeled, it is possible to make it function as a V / UV flag by setting a threshold value. However, since it is divided into only two bands, a high frequency band and a low frequency band, the model accuracy of the periodic / aperiodic component is not sufficient.

本技術は、このような課題を解決するためのものであり、SPSSにおいて、音響モデルにおけるV/UVの判定エラーに起因する品質への影響を低減できる新たな手法を提供することを目的としている。 This technology is for solving such problems, and aims to provide a new method in SPSS that can reduce the influence on quality caused by V / UV judgment error in an acoustic model. ..

本発明のある局面に従えば、SPSSに従う音声合成システムが提供される。音声合成システムは、既知のテキストに対応する音声波形の基本周波数を単位区間毎に抽出する第1の抽出部と、音声波形から周期成分および非周期成分を単位区間毎に抽出する第2の抽出部と、抽出された周期成分および非周期成分のスペクトル包絡を抽出する第3の抽出部と、既知のテキストの文脈情報に基づくコンテキストラベルを生成する生成部と、基本周波数、周期成分のスペクトル包絡、非周期成分のスペクトル包絡を含む音響特徴量と、対応するコンテキストラベルとを対応付けて学習することで、統計モデルを構築する学習部とを含む。 According to certain aspects of the invention, a speech synthesis system according to SPSS is provided. The speech synthesis system has a first extraction unit that extracts the fundamental frequency of the speech waveform corresponding to a known text for each unit section, and a second extraction unit that extracts periodic and aperiodic components from the speech waveform for each unit section. Part, a third extraction part that extracts the spectral inclusion of the extracted periodic and aperiodic components, a generation part that generates a context label based on the context information of known text, and a spectral inclusion of the fundamental frequency and periodic components. Includes a learning unit that builds a statistical model by associating and learning an acoustic feature quantity including a spectral wrapping of an aperiodic component with a corresponding context label.

好ましくは、音声合成システムは、任意のテキストの入力に応答して、当該テキストの文脈情報に基づくコンテキストラベルを決定する決定部と、統計モデルから決定部により決定されたコンテキストラベルに対応する音響特徴量を推定する推定部とをさらに含む。当該推定される音響特徴量は、基本周波数、周期成分のスペクトル包絡、非周期成分のスペクトル包絡を含む。音声合成システムは、さらに、推定された音響特徴量に含まれる基本周波数に従って生成されたパルス系列を、周期成分のスペクトル包絡に応じてフィルタリングすることで、周期成分を再構成する第1の再構成部と、ノイズ系列を非周期成分のスペクトル包絡に応じてフィルタリングすることで、非周期成分を再構成する第2の再構成部と、再構成された周期成分および非周期成分を加算して、入力された任意のテキストに対応する音声波形として出力する加算部とを含む。 Preferably, the speech synthesis system responds to the input of arbitrary text and determines a context label based on the context information of the text, and an acoustic feature corresponding to the context label determined by the decision unit from the statistical model. It further includes an estimation unit that estimates the amount. The estimated acoustic features include the fundamental frequency, the spectral inclusion of the periodic component, and the spectral inclusion of the aperiodic component. The speech synthesis system further reconstructs the periodic component by filtering the pulse sequence generated according to the fundamental frequency included in the estimated acoustic feature amount according to the spectral inclusion of the periodic component. By filtering the part and the noise sequence according to the spectral inclusion of the aperiodic component, the second reconstructed part that reconstructs the aperiodic component, and the reconstructed periodic and aperiodic components are added. Includes an adder that outputs as a voice waveform corresponding to any input text.

好ましくは、第2の抽出部は、第1の抽出部が基本周波数を抽出できない単位区間から非周期成分のみを抽出し、それ以外の単位区間から周期成分および非周期成分を抽出する。 Preferably, the second extraction unit extracts only the aperiodic component from the unit interval in which the first extraction unit cannot extract the fundamental frequency, and extracts the periodic component and the aperiodic component from the other unit intervals.

好ましくは、第1の抽出部は、基本周波数を抽出できない単位区間について、補間処理により基本周波数を決定する。 Preferably, the first extraction unit determines the fundamental frequency by interpolation processing for the unit interval from which the fundamental frequency cannot be extracted.

好ましくは、パルス系列は、補間処理がなされた基本周波数系列から生成された系列であり、ノイズ系列は、全区間にわたりノイズが生成された系列である。 Preferably, the pulse sequence is a sequence generated from the interpolated fundamental frequency sequence, and the noise sequence is a sequence in which noise is generated over the entire section.

本発明のさらに別の局面に従えば、SPSSに従う音声合成方法を実現するための音声合成プログラムが提供される。音声合成プログラムはコンピュータに、既知のテキストに対応する音声波形の基本周波数を単位区間毎に抽出するステップと、音声波形から周期成分および非周期成分を単位区間毎に抽出するステップと、抽出された周期成分および非周期成分のスペクトル包絡を抽出するステップと、既知のテキストの文脈情報に基づくコンテキストラベルを生成するステップと、基本周波数、周期成分のスペクトル包絡、非周期成分のスペクトル包絡を含む音響特徴量と、対応するコンテキストラベルとを対応付けて学習することで、統計モデルを構築するステップとを実行させる。 According to yet another aspect of the present invention, a speech synthesis program for realizing a speech synthesis method according to SPSS is provided. The speech synthesis program was extracted to the computer by a step of extracting the fundamental frequency of the speech waveform corresponding to the known text for each unit interval and a step of extracting the periodic component and the aperiodic component from the speech waveform for each unit interval. Acoustic features including fundamental frequency, periodic component spectral envelopment, aperiodic component spectral encapsulation, steps to extract periodic and aperiodic component spectral envelopes, and generate context labels based on known textual contextual information. By learning by associating the quantity with the corresponding context label, the step of constructing a statistical model is executed.

本発明のさらに別の局面に従えば、SPSSに従う音声合成方法が提供される。音声合成方法は、既知のテキストに対応する音声波形の基本周波数を単位区間毎に抽出するステップと、音声波形から周期成分および非周期成分を単位区間毎に抽出するステップと、抽出された周期成分および非周期成分のスペクトル包絡を抽出するステップと、既知のテキストの文脈情報に基づくコンテキストラベルを生成するステップと、基本周波数、周期成分のスペクトル包絡、非周期成分のスペクトル包絡を含む音響特徴量と、対応するコンテキストラベルとを対応付けて学習することで、統計モデルを構築するステップとを含む。 According to yet another aspect of the present invention, a speech synthesis method according to SPSS is provided. The speech synthesis method includes a step of extracting the fundamental frequency of the speech waveform corresponding to a known text for each unit interval, a step of extracting periodic and non-periodic components from the speech waveform for each unit interval, and an extracted periodic component. And the steps to extract the spectral inclusions of the aperiodic components, the steps to generate context labels based on the contextual information of known texts, and the acoustic features including the fundamental frequency, the spectral inclusions of the periodic components, and the spectral inclusions of the aperiodic components. , Includes steps to build a statistical model by learning in association with the corresponding context label.

本発明によれば、SPSSにおいて、音響モデルにおけるV/UVの判定エラーに起因する品質への影響を低減できる。 According to the present invention, in SPSS, it is possible to reduce the influence on quality caused by the determination error of V / UV in the acoustic model.

本実施の形態に従う音声合成システムを用いた多言語翻訳システムの概要を示す模式図である。It is a schematic diagram which shows the outline of the multilingual translation system using the speech synthesis system according to this embodiment. 本実施の形態に従うサービス提供装置のハードウェア構成例を示す模式図である。It is a schematic diagram which shows the hardware configuration example of the service providing apparatus according to this embodiment. 関連技術に係る音声合成処理の概要を説明するための模式図である。It is a schematic diagram for demonstrating the outline of the speech synthesis processing which concerns on a related technique. 本実施の形態に従う音声合成処理の概要を説明するための模式図である。It is a schematic diagram for demonstrating the outline of the speech synthesis processing according to this embodiment. 本実施の形態に従う音声合成システムにおける要部の処理を説明するためのブロック図である。It is a block diagram for demonstrating the processing of the main part in the speech synthesis system according to this embodiment. 本実施の形態に従う音声合成システムにおいて出力される周期成分および非周期成分の音声波形の一例を示す図である。It is a figure which shows an example of the voice waveform of the periodic component and the non-periodic component output in the speech synthesis system according to this embodiment. 本実施の形態に従う音声合成システムにおける処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the processing procedure in the speech synthesis system according to this embodiment. 本実施の形態に従う音声合成システムにおける処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the processing procedure in the speech synthesis system according to this embodiment. 本実施の形態に従う音声合成システムについての対比較実験の評価結果例を示す図である。It is a figure which shows the evaluation result example of the pair comparison experiment about the speech synthesis system according to this embodiment.

本発明の実施の形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰返さない。 Embodiments of the present invention will be described in detail with reference to the drawings. The same or corresponding parts in the drawings are designated by the same reference numerals and the description thereof will not be repeated.

[A.応用例]
まず、本実施の形態に従う音声合成システムの一つの応用例について説明する。より具体的には、本実施の形態に従う音声合成システムを用いた多言語翻訳システムについて説明する。
[A. Application example]
First, one application example of the speech synthesis system according to the present embodiment will be described. More specifically, a multilingual translation system using a speech synthesis system according to the present embodiment will be described.

図1は、本実施の形態に従う音声合成システムを用いた多言語翻訳システム1の概要を示す模式図である。図1を参照して、多言語翻訳システム1は、サービス提供装置10を含む。サービス提供装置10は、ネットワーク2を介して接続される携帯端末30からの入力音声(第1言語で発せられたなんらかのことば)に対して音声認識、多言語翻訳などを行なって、第2言語での対応することばを合成して、その合成結果を出力音声として携帯端末30へ出力する。 FIG. 1 is a schematic diagram showing an outline of a multilingual translation system 1 using a speech synthesis system according to the present embodiment. With reference to FIG. 1, the multilingual translation system 1 includes a service providing device 10. The service providing device 10 performs voice recognition, multilingual translation, and the like on the input voice (some words uttered in the first language) from the mobile terminal 30 connected via the network 2 in the second language. The corresponding words of are synthesized, and the synthesized result is output to the mobile terminal 30 as output voice.

例えば、ユーザ4は、携帯端末30に対して、「Where is the station ?」という英語のことばを発すると、携帯端末30は、その発せられたことばからマイクロフォンなどにより入力音声を生成し、生成した入力音声をサービス提供装置10へ送信する。サービス提供装置10は、「Where is the station ?」に対応する、日本語の「駅はどこですか?」ということばを示す出力音声を合成する。携帯端末30は、サービス提供装置10から出力音声を受信すると、その受信した出力音声を再生する。これによって、ユーザ4の対話相手には、日本語の「駅はどこですか?」とのことばが聞こえる。 For example, when the user 4 utters the English word "Where is the station?" To the mobile terminal 30, the mobile terminal 30 generates an input voice from the uttered word by a microphone or the like. The input voice is transmitted to the service providing device 10. The service providing device 10 synthesizes an output voice indicating the Japanese word "Where is the station?" Corresponding to "Where is the station?". When the mobile terminal 30 receives the output voice from the service providing device 10, the mobile terminal 30 reproduces the received output voice. As a result, the conversation partner of the user 4 can hear the Japanese words "Where is the station?".

図示していないが、ユーザ4の対話相手も同様の携帯端末30を有していてもよく、例えば、ユーザ4からの質問に対して、「まっすぐ行って左です」との回答を自身の携帯端末に向かって発すると、上述したような処理が実行されて、ユーザ4の対話相手の携帯端末から、対応する英語の「Go straight and turn left」ということばが回答される。 Although not shown, the conversation partner of the user 4 may also have the same mobile terminal 30. For example, in response to a question from the user 4, the answer "go straight and left" is carried by the user. When the message is sent to the terminal, the above-mentioned process is executed, and the corresponding English word "Go straight and turn left" is answered from the mobile terminal of the user 4 with whom the user interacts.

このように、多言語翻訳システム1においては、第1言語のことば(音声)と第2言語のことば(音声)との間で自在に翻訳が可能である。なお、2つの言語に限らず、任意の数の言語間で相互に自動翻訳できるようにしてもよい。 As described above, in the multilingual translation system 1, it is possible to freely translate between the words of the first language (speech) and the words of the second language (speech). Not limited to the two languages, it may be possible to automatically translate each other between any number of languages.

このような自動音声翻訳の機能を利用することで、外国旅行や外国人とのコミュニケーションを容易化できる。 By using such an automatic speech translation function, it is possible to facilitate foreign travel and communication with foreigners.

サービス提供装置10に含まれる本実施の形態に従う音声合成システムは、後述するように、SPSSの一手法を採用する。サービス提供装置10は、音声合成システムに関するコンポーネントとして、分析部12と、学習部14と、DNN16と、音声合成部18とを含む。 The speech synthesis system according to the present embodiment included in the service providing device 10 adopts one method of SPSS as described later. The service providing device 10 includes an analysis unit 12, a learning unit 14, a DNN 16, and a speech synthesis unit 18 as components related to the speech synthesis system.

サービス提供装置10は、自動翻訳に関するコンポーネントとして、音声認識部20と、翻訳部22とを含む。サービス提供装置10は、さらに、携帯端末30との間で通信処理を行なうための通信処理部24を含む。 The service providing device 10 includes a voice recognition unit 20 and a translation unit 22 as components related to automatic translation. The service providing device 10 further includes a communication processing unit 24 for performing communication processing with the mobile terminal 30.

より具体的には、分析部12および学習部14は、DNN16を構築するための機械学習を担当する。分析部12および学習部14の機能および処理の詳細については、後述する。DNN16は、分析部12および学習部14による機械学習の結果としてのニューラルネットワークを格納する。 More specifically, the analysis unit 12 and the learning unit 14 are in charge of machine learning for constructing the DNN 16. Details of the functions and processes of the analysis unit 12 and the learning unit 14 will be described later. The DNN 16 stores the neural network as a result of machine learning by the analysis unit 12 and the learning unit 14.

本実施の形態においては一例として、DNNを用いているが、DNNに代えて、再帰型ニューラルネットワーク(recurrent neural network;以下「RNN」とも略称する)、長・短記憶(long-short term memory;LSTM)RNN、畳み込みニューラルネットワーク(convolutional neural network;CNN)のいずれかを用いてもよい。 In the present embodiment, DNN is used as an example, but instead of DNN, a recurrent neural network (hereinafter, also abbreviated as "RNN"), a long-short term memory; Either LSTM) RNN or convolutional neural network (CNN) may be used.

音声認識部20は、通信処理部24を介して受信した携帯端末30からの入力音声に対して、音声認識処理を実行することで音声認識テキストを出力する。翻訳部22は、音声認識部20からの音声認識テキストから、指定された言語のテキスト(説明の便宜上、「翻訳テキスト」とも記す。)を生成する。音声認識部20および翻訳部22については、公知の任意の方法を採用できる。 The voice recognition unit 20 outputs voice recognition text by executing voice recognition processing on the input voice from the mobile terminal 30 received via the communication processing unit 24. The translation unit 22 generates a text in a designated language (also referred to as "translation text" for convenience of explanation) from the voice recognition text from the voice recognition unit 20. Any known method can be adopted for the voice recognition unit 20 and the translation unit 22.

音声合成部18は、翻訳部22からの翻訳テキストに対して、DNN16を参照して音声合成を行ない、その結果得られる出力音声を、通信処理部24を介して携帯端末30へ送信する。 The voice synthesis unit 18 performs voice synthesis with reference to the DNN 16 with respect to the translated text from the translation unit 22, and transmits the output voice obtained as a result to the mobile terminal 30 via the communication processing unit 24.

図1には、説明の便宜上、DNN16を構築するための機械学習を担当するコンポーネント(主として、分析部12および学習部14)と、生成されたDNN16を用いて多言語翻訳を担当するコンポーネント(主として、音声認識部20、翻訳部22、および音声合成部18)が同一のサービス提供装置10に実装されている例を示すが、これらの機能をそれぞれ別の装置に実装してもよい。この場合、第1の装置において、機械学習を実施することでDNN16を構築し、第2の装置において、当該生成されたDNN16を用いて音声合成および当該音声合成を利用したサービスを提供するようにしてもよい。 In FIG. 1, for convenience of explanation, a component in charge of machine learning for constructing the DNN 16 (mainly the analysis unit 12 and the learning unit 14) and a component in charge of multilingual translation using the generated DNN 16 (mainly). , The voice recognition unit 20, the translation unit 22, and the voice synthesis unit 18) are mounted on the same service providing device 10, but these functions may be mounted on different devices. In this case, in the first device, the DNN 16 is constructed by performing machine learning, and in the second device, the generated DNN 16 is used to provide voice synthesis and a service using the voice synthesis. You may.

上述したような多言語翻訳サービスにおいては、音声認識部20および翻訳部22の少なくとも一部の機能を携帯端末30で実行されるアプリケーションが担当するようにしてもよい。また、音声合成を担当するコンポーネント(DNN16および音声合成部18)の機能を携帯端末30で実行されるアプリケーションが担当するようにしてもよい。 In the multilingual translation service as described above, the application executed by the mobile terminal 30 may be in charge of at least a part of the functions of the voice recognition unit 20 and the translation unit 22. Further, the application executed by the mobile terminal 30 may be in charge of the functions of the components (DNN 16 and the voice synthesis unit 18) in charge of voice synthesis.

このように、サービス提供装置10および携帯端末30が任意の形態で協働することで、多言語翻訳システム1およびその一部である音声合成システムを実現できる。このとき、それぞれの装置が分担する機能については、状況に応じて適宜決定すればよく、図1に示される多言語翻訳システム1に限定されるようなものではない。 In this way, the service providing device 10 and the mobile terminal 30 cooperate in any form to realize the multilingual translation system 1 and the speech synthesis system which is a part thereof. At this time, the functions shared by the respective devices may be appropriately determined according to the situation, and are not limited to the multilingual translation system 1 shown in FIG.

[B.サービス提供装置のハードウェア構成]
次に、サービス提供装置のハードウェア構成の一例について説明する。図2は、本実施の形態に従うサービス提供装置10のハードウェア構成例を示す模式図である。サービス提供装置10は、典型的には、汎用コンピュータを用いて実現される。
[B. Hardware configuration of service provider]
Next, an example of the hardware configuration of the service providing device will be described. FIG. 2 is a schematic diagram showing a hardware configuration example of the service providing device 10 according to the present embodiment. The service providing device 10 is typically realized by using a general-purpose computer.

図2を参照して、サービス提供装置10は、主要なハードウェアコンポーネントとして、プロセッサ100と、主メモリ102と、ディスプレイ104と、入力デバイス106と、ネットワークインターフェイス(I/F:interface)108と、光学ドライブ134と、二次記憶装置112とを含む。これらのコンポーネントは、内部バス110を介して互いに接続される。 With reference to FIG. 2, the service providing device 10 includes a processor 100, a main memory 102, a display 104, an input device 106, a network interface (I / F: interface) 108, and the like as main hardware components. It includes an optical drive 134 and a secondary storage device 112. These components are connected to each other via the internal bus 110.

プロセッサ100は、後述するような各種プログラムを実行することで、本実施の形態に従うサービス提供装置10の実現に必要な処理を実行する演算主体であり、例えば、1または複数のCPU(central processing unit)やGPU(graphics processing unit)などで構成される。複数のコアを有するようなCPUまたはGPUを用いてもよい。 The processor 100 is an arithmetic unit that executes processing necessary for realizing the service providing device 10 according to the present embodiment by executing various programs as described later, and is, for example, one or a plurality of CPUs (central processing units). ) And GPU (graphics processing unit). A CPU or GPU having a plurality of cores may be used.

主メモリ102は、プロセッサ100がプログラムを実行するにあたって、プログラムコードやワークメモリなどを一時的に格納する記憶領域であり、例えば、DRAM(dynamic random access memory)やSRAM(static random access memory)などの揮発性メモリデバイスなどで構成される。 The main memory 102 is a storage area for temporarily storing program code, work memory, and the like when the processor 100 executes a program. For example, DRAM (dynamic random access memory) or SRAM (static random access memory) or the like. It consists of volatile memory devices and the like.

ディスプレイ104は、処理に係るユーザインターフェイスや処理結果などを出力する表示部であり、例えば、LCD(liquid crystal display)や有機EL(electroluminescence)ディスプレイなどで構成される。 The display 104 is a display unit that outputs a user interface related to processing, a processing result, and the like, and is composed of, for example, an LCD (liquid crystal display) or an organic EL (electroluminescence) display.

入力デバイス106は、ユーザからの指示や操作などを受付けるデバイスであり、例えば、キーボード、マウス、タッチパネル、ペンなどで構成される。また、入力デバイス106としては、機械学習に必要な音声を収集するためのマイクロフォンを含んでいてもよいし、機械学習に必要な音声を収集した集音デバイスと接続するためのインターフェイスを含んでいてもよい。 The input device 106 is a device that receives instructions and operations from the user, and is composed of, for example, a keyboard, a mouse, a touch panel, a pen, and the like. Further, the input device 106 may include a microphone for collecting voice necessary for machine learning, or may include an interface for connecting to a sound collecting device that collects voice necessary for machine learning. May be good.

ネットワークインターフェイス108は、インターネット上またはイントラネット上の携帯端末30や任意の情報処理装置などとの間でデータを遣り取りする。ネットワークインターフェイス108としては、例えば、イーサネット(登録商標)、無線LAN(Local Area Network)、Bluetooth(登録商標)などの任意の通信方式を採用できる。 The network interface 108 exchanges data with a mobile terminal 30 on the Internet or an intranet, an arbitrary information processing device, or the like. As the network interface 108, for example, any communication method such as Ethernet (registered trademark), wireless LAN (Local Area Network), and Bluetooth (registered trademark) can be adopted.

光学ドライブ134は、CD−ROM(compact disc read only memory)、DVD(digital versatile disc)などの光学ディスク136に格納されている情報を読出して、内部バス110を介して他のコンポーネントへ出力する。光学ディスク136は、非一過的(non-transitory)な記録媒体の一例であり、任意のプログラムを不揮発的に格納した状態で流通する。光学ドライブ134が光学ディスク136からプログラムを読み出して、二次記憶装置112などにインストールすることで、汎用コンピュータがサービス提供装置10(または、音声合成装置)として機能するようになる。したがって、本発明の主題は、二次記憶装置112などにインストールされたプログラム自体、または、本実施の形態に従う機能や処理を実現するためのプログラムを格納した光学ディスク136などの記録媒体でもあり得る。 The optical drive 134 reads information stored in an optical disc 136 such as a CD-ROM (compact disc read only memory) or a DVD (digital versatile disc) and outputs the information to other components via the internal bus 110. The optical disk 136 is an example of a non-transitory recording medium, and is distributed in a non-volatile state in which an arbitrary program is stored. When the optical drive 134 reads a program from the optical disk 136 and installs it in the secondary storage device 112 or the like, the general-purpose computer functions as the service providing device 10 (or the voice synthesizer). Therefore, the subject of the present invention may be the program itself installed in the secondary storage device 112 or the like, or a recording medium such as an optical disk 136 containing a program for realizing a function or process according to the present embodiment. ..

図2には、非一過的な記録媒体の一例として、光学ディスク136などの光学記録媒体を示すが、これに限らず、フラッシュメモリなどの半導体記録媒体、ハードディスクまたはストレージテープなどの磁気記録媒体、MO(magneto-optical disk)などの光磁気記録媒体を用いてもよい。 FIG. 2 shows an optical recording medium such as an optical disk 136 as an example of a non-transient recording medium, but the present invention is not limited to this, and a semiconductor recording medium such as a flash memory or a magnetic recording medium such as a hard disk or a storage tape is shown. , MO (magneto-optical disk) or the like may be used.

二次記憶装置112は、プロセッサ100にて実行されるプログラム、プログラムが処理対象とする入力データ(学習用の入力音声およびテキスト、ならびに、携帯端末30からの入力音声などを含む)、および、プログラムの実行により生成される出力データ(携帯端末30へ送信される出力音声などを含む)などを格納するコンポーネントであり、例えば、ハードディスク、SSD(solid state drive)などの不揮発性記憶装置で構成される。 The secondary storage device 112 includes a program executed by the processor 100, input data to be processed by the program (including input voice and text for learning, input voice from the mobile terminal 30 and the like), and a program. It is a component that stores output data (including output audio transmitted to the mobile terminal 30) and the like generated by the execution of, and is composed of, for example, a hard disk and a non-volatile storage device such as an SSD (solid state drive). ..

より具体的には、二次記憶装置112は、典型的には、図示しないOS(operating system)の他、分析部12を実現するための分析プログラム121と、学習部14を実現するための学習プログラム141と、音声認識部20を実現するための音声認識プログラム201と、翻訳部22を実現するための翻訳プログラム221と、音声合成部18を実現するための音声合成プログラム181とを格納している。 More specifically, the secondary storage device 112 typically includes an OS (operating system) (not shown), an analysis program 121 for realizing the analysis unit 12, and learning for realizing the learning unit 14. The program 141, the voice recognition program 201 for realizing the voice recognition unit 20, the translation program 221 for realizing the translation unit 22, and the voice synthesis program 181 for realizing the voice synthesis unit 18 are stored. There is.

これらのプログラムをプロセッサ100で実行する際に必要となるライブラリや機能モジュールの一部を、OSが標準で提供するライブラリまたは機能モジュールを用いて代替するようにしてもよい。この場合には、各プログラム単体では、対応する機能を実現するために必要なプログラムモジュールのすべてを含むものにはならないが、OSの実行環境下にインストールされることで、必要な機能を実現できる。このような一部のライブラリまたは機能モジュールを含まないプログラムであっても、本発明の技術的範囲に含まれ得る。 Some of the libraries and functional modules required to execute these programs on the processor 100 may be replaced by the libraries or functional modules provided as standard by the OS. In this case, each program alone does not include all the program modules required to realize the corresponding functions, but the required functions can be realized by being installed under the OS execution environment. .. Even a program that does not include some such libraries or functional modules may be included in the technical scope of the present invention.

また、これらのプログラムは、上述したようないずれかの記録媒体に格納されて流通するだけでなく、インターネットまたはイントラネットを介してサーバ装置などからダウンロードすることで配布されてもよい。 Further, these programs are not only stored and distributed in any of the recording media as described above, but may also be distributed by downloading from a server device or the like via the Internet or an intranet.

なお、実際には、音声認識部20および翻訳部22を実現するためのデータベースが必要となるが、説明の便宜上、それらのデータベースについては描いていない。 Actually, a database for realizing the voice recognition unit 20 and the translation unit 22 is required, but for convenience of explanation, these databases are not drawn.

二次記憶装置112は、DNN16に加えて、DNN16を構築するための、機械学習用の入力音声130および対応するテキスト132を格納していてもよい。 In addition to the DNN 16, the secondary storage device 112 may store an input voice 130 for machine learning and a corresponding text 132 for constructing the DNN 16.

図2には、単一のコンピュータがサービス提供装置10を構成する例を示すが、これに限らず、ネットワークを介して接続された複数のコンピュータが明示的または黙示的に連携して、多言語翻訳システム1およびその一部である音声合成システムを実現するようにしてもよい。 FIG. 2 shows an example in which a single computer constitutes the service providing device 10, but the present invention is not limited to this, and a plurality of computers connected via a network cooperate explicitly or implicitly in multiple languages. The translation system 1 and a speech synthesis system that is a part thereof may be realized.

コンピュータ(プロセッサ100)がプログラムを実行することで実現される機能の全部または一部を、集積回路などのハードワイヤード回路(hard-wired circuit)を用いて実現してもよい。例えば、ASIC(application specific integrated circuit)やFPGA(field-programmable gate array)などを用いて実現してもよい。 All or part of the functions realized by the computer (processor 100) executing the program may be realized by using a hard-wired circuit such as an integrated circuit. For example, it may be realized by using an ASIC (application specific integrated circuit) or an FPGA (field-programmable gate array).

当業者であれば、本発明が実施される時代に応じた技術を適宜用いて、本実施の形態に従う音声合成システムを実現できるであろう。 A person skilled in the art will be able to realize a speech synthesis system according to the present embodiment by appropriately using a technique suitable for the times when the present invention is implemented.

[C.概要]
本実施の形態においては、SPSSに従う音声合成システムが提供される。本実施の形態に従う音声合成システムにおいては、励振源を示す源信号を周期成分と非周期成分とに分解することで、V/UVの判定を不要化した方式を採用する。源信号を表現する周期成分および非周期成分を示す音声パラメータをDNNに適用して学習を行なう。
[C. Overview]
In this embodiment, a speech synthesis system according to SPSS is provided. In the speech synthesis system according to the present embodiment, a method that eliminates the need for V / UV determination is adopted by decomposing the source signal indicating the excitation source into a periodic component and a non-periodic component. Learning is performed by applying a voice parameter indicating a periodic component and an aperiodic component expressing the source signal to the DNN.

まず、関連技術に係る音声合成処理および当該音声合成処理をSPSSに適用する場合の処理について説明する。図3は、関連技術に係る音声合成処理の概要を説明するための模式図である。図3を参照して、関連技術に係る音声合成処理においては、パルス生成部250と、ホワイトノイズ生成部252と、切替部254と、音声合成フィルタ256とを含む。図3に示す構成において、パルス生成部250、ホワイトノイズ生成部252、および、切替部254は、励振源をモデル化した部分に相当し、励振源からの源信号は、パルス生成部250から出力されるパルス系列と、ホワイトノイズ生成部252からの雑音系列とのうち、いずれか一方が切替部254にて選択されて、音声合成フィルタ256へ与えられる。パルス生成部250には、声の高さを示すF0のパラメータが与えられ、F0の逆数(基本周期/ピッチ周期)の間隔でパルス系列を出力する。なお、図示していないが、パルス生成部250には、声の大きさを示す振幅のパラメータが与えられてもよい。音声合成フィルタ256は、音声の音色を決定する部分であり、スペクトル包絡を示すパラメータが与えられる。 First, the speech synthesis process related to the related technology and the process when the speech synthesis process is applied to SPSS will be described. FIG. 3 is a schematic diagram for explaining the outline of the speech synthesis process according to the related technology. With reference to FIG. 3, the speech synthesis process according to the related technique includes a pulse generation unit 250, a white noise generation unit 252, a switching unit 254, and a speech synthesis filter 256. In the configuration shown in FIG. 3, the pulse generation unit 250, the white noise generation unit 252, and the switching unit 254 correspond to a portion that models the excitation source, and the source signal from the excitation source is output from the pulse generation unit 250. One of the pulse sequence to be generated and the noise sequence from the white noise generation unit 252 is selected by the switching unit 254 and given to the speech synthesis filter 256. The pulse generation unit 250 is given a parameter of F 0 indicating the pitch of the voice, and outputs a pulse sequence at intervals of the reciprocal of F 0 (basic period / pitch period). Although not shown, the pulse generation unit 250 may be given an amplitude parameter indicating the loudness of the voice. The speech synthesis filter 256 is a part that determines the tone color of speech, and is given a parameter indicating spectral envelope.

図3に示す音声生成時のソースフィルタモデルにおいては、入力された音声波形を単位区間(例えば、フレーム単位)で区切るとともに、各単位区間が有声区間であるか無声区間であるかが判定され、有声区間についてはパルス系列が源信号として出力され、無声区間についてはノイズ系列が源信号として出力される。この有声区間と無声区間とを識別するパラメータがV/UVフラグである。 In the source filter model at the time of voice generation shown in FIG. 3, the input voice waveform is divided into unit intervals (for example, frame units), and it is determined whether each unit section is a voiced section or an unvoiced section. The pulse sequence is output as the source signal for the voiced section, and the noise sequence is output as the source signal for the unvoiced section. The parameter that distinguishes between the voiced section and the unvoiced section is the V / UV flag.

図3に示すソースフィルタモデルをSPSSに適用する場合には、F0、V/UVフラグ、スペクトル包絡が学習対象のパラメータとなる。したがって、各単位区間についてV/UVを正しく判定しなければならない。しかしながら、V/UVの判定、および、パルス系列およびノイズ系列が切替えられることによる不連続性を伴う源信号のモデル化は容易ではないので、合成音声に品質劣化が生じる可能性がある。 When the source filter model shown in FIG. 3 is applied to SPSS, F 0 , the V / UV flag, and the spectral envelope are the parameters to be learned. Therefore, V / UV must be correctly determined for each unit interval. However, since it is not easy to determine V / UV and model the source signal with discontinuity due to switching between the pulse sequence and the noise sequence, quality deterioration may occur in the synthesized speech.

そこで、本実施の形態においては、音声波形の各単位区間についてのV/UVを判定する必要のない手法を採用する。これにより、関連技術において生じ得る、V/UVの判定エラーによる合成音声の品質への影響を低減する。 Therefore, in the present embodiment, a method that does not need to determine V / UV for each unit interval of the voice waveform is adopted. This reduces the effect of V / UV determination errors on the quality of synthetic speech that may occur in related technologies.

図4は、本実施の形態に従う音声合成処理の概要を説明するための模式図である。図4を参照して、本実施の形態に従う音声合成処理においては、パルス生成部200と、音声合成フィルタ(周期成分)202と、ガウシアンノイズ生成部204と、音声合成フィルタ(非周期成分)206と、加算部208とを含む。 FIG. 4 is a schematic diagram for explaining an outline of the speech synthesis process according to the present embodiment. With reference to FIG. 4, in the speech synthesis process according to the present embodiment, the pulse generation unit 200, the speech synthesis filter (periodic component) 202, the Gaussian noise generation unit 204, and the speech synthesis filter (aperiodic component) 206 And the addition unit 208.

本実施の形態においては、図3に示すV/UVフラグを用いた源信号の切替えではなく、周期成分および非周期成分のそれぞれに源信号を用意する。すなわち、音声信号を周期成分および非周期成分に分解する。 In the present embodiment, instead of switching the source signal using the V / UV flag shown in FIG. 3, a source signal is prepared for each of the periodic component and the aperiodic component. That is, the audio signal is decomposed into a periodic component and a non-periodic component.

より具体的には、パルス生成部200および音声合成フィルタ(周期成分)202は、周期成分を生成する部分であり、パルス生成部200は、指定されたF0に従うパルス(後述するように、連続的なパルス系列)を生成するとともに、音声合成フィルタ(周期成分)202が周期成分に対応するスペクトル包絡に応じたフィルタを当該連続的なパルス系列に乗じることで、合成音声に含まれる周期成分を出力する。 More specifically, the pulse generation unit 200 and the speech synthesis filter (periodic component) 202 are portions that generate a periodic component, and the pulse generation unit 200 is a pulse according to a designated F 0 (as described later, continuous). Pulse sequence), and the speech synthesis filter (periodic component) 202 multiplies the continuous pulse sequence by a filter corresponding to the spectral envelope corresponding to the periodic component to obtain the periodic component contained in the synthetic speech. Output.

このように、各単位区間がV/UVのいずれであるかによらず、連続的なパルス系列を用いることができるのは、周期成分の無音区間は非可聴なパワーであると仮定し、全区間を有声であると扱うためである。すなわち、無音や無声といった周期性をもたない区間において、周期成分に対応するスペクトル包絡は、十分に振幅が小さいと仮定する。この仮定に従うと、このような無音または無声の区間において、F0のパルス系列から周期成分を生成したとしても、非可聴な程に十分に小さくなると考えられる。そのため、関連技術に係る音声合成処理において、パルス系列の生成を停止していた無声区間においても、本実施の形態に従う音声合成処理においては、パルス系列を発生することで、パルス系列の不連続性に起因する合成音声への影響を低減することができる。 In this way, the continuous pulse sequence can be used regardless of whether each unit interval is V / UV, assuming that the silent section of the periodic component is inaudible power, and the whole. This is because the section is treated as voiced. That is, it is assumed that the spectral envelope corresponding to the periodic component has a sufficiently small amplitude in a section having no periodicity such as silence or silence. According to this assumption, even if a periodic component is generated from the pulse sequence of F 0 in such a silent or silent section, it is considered that the periodic component is sufficiently small to be inaudible. Therefore, even in the silent section in which the generation of the pulse sequence has been stopped in the speech synthesis process related to the related technology, in the speech synthesis process according to the present embodiment, the pulse sequence is generated to discontinue the pulse sequence. It is possible to reduce the influence on the synthetic voice caused by.

また、ガウシアンノイズ生成部204および音声合成フィルタ(非周期成分)206は、非周期成分を生成する部分であり、ガウシアンノイズ生成部204は、連続的なノイズ系列の一例として、ガウシアンノイズを生成するとともに、音声合成フィルタ(非周期成分)206が非周期成分に対応するスペクトル包絡に応じたフィルタを当該ノイズ系列に乗じることで、合成音声に含まれる非周期成分を出力する。 Further, the Gaussian noise generation unit 204 and the speech synthesis filter (aperiodic component) 206 are portions that generate an aperiodic component, and the Gaussian noise generation unit 204 generates Gaussian noise as an example of a continuous noise series. At the same time, the speech synthesis filter (aperiodic component) 206 outputs the aperiodic component included in the synthetic speech by multiplying the noise sequence by a filter corresponding to the spectrum entrainment corresponding to the aperiodic component.

最終的に、音声合成フィルタ(周期成分)202から出力される周期成分、および、音声合成フィルタ(非周期成分)206から出力される非周期成分が加算部208で加算されることで、合成音声を示す音声波形が出力される。 Finally, the periodic component output from the speech synthesis filter (periodic component) 202 and the aperiodic component output from the speech synthesis filter (aperiodic component) 206 are added by the addition unit 208, whereby the synthetic speech is synthesized. The voice waveform indicating is output.

このように、各単位区間がV/UVのいずれであるかによらず、ノイズ系列を用いることができるのは、非周期成分が無声信号および無音により構成されると仮定し、全区間を無声であると扱うためである。以上のように、有声区間および無声区間を区別する必要のない音響モデルを用いるとともに、その音響モデルに基づく学習を行なうことで、V/UVの判定を必要としない音声合成方法を実現できる。 In this way, the noise sequence can be used regardless of whether each unit interval is V / UV, assuming that the aperiodic component is composed of unvoiced signals and silence, and the entire section is unvoiced. This is to treat it as. As described above, by using an acoustic model that does not need to distinguish between a voiced section and an unvoiced section and performing learning based on the acoustic model, a speech synthesis method that does not require V / UV determination can be realized.

[D.学習処理および音声合成処理]
次に、本実施の形態に従う音声合成システムにおける学習処理および音声合成処理の詳細について説明する。図5は、本実施の形態に従う音声合成システムにおける要部の処理を説明するためのブロック図である。
[D. Learning processing and speech synthesis processing]
Next, the details of the learning process and the speech synthesis process in the speech synthesis system according to the present embodiment will be described. FIG. 5 is a block diagram for explaining the processing of the main part in the speech synthesis system according to the present embodiment.

図5を参照して、音声合成システムは、DNN16を構築するための分析部12および学習部14と、DNN16を用いて音声波形を出力する音声合成部18とを含む。以下、これらの各部の処理および機能について詳述する。 With reference to FIG. 5, the speech synthesis system includes an analysis unit 12 and a learning unit 14 for constructing the DNN 16, and a speech synthesis unit 18 for outputting a voice waveform using the DNN 16. Hereinafter, the processing and functions of each of these parts will be described in detail.

(d1:分析部12)
まず、分析部12における処理および機能について説明する。分析部12は、音声分析を担当する部分であり、学習用の入力音声が示す音声波形から音響特徴量系列を生成する。本実施の形態に従う音声合成システムにおいて、フレーム毎の音響特徴量は、F0およびスペクトル包絡(周期成分および非周期成分)を含む。
(D1: Analysis unit 12)
First, the processing and the function in the analysis unit 12 will be described. The analysis unit 12 is a part in charge of voice analysis, and generates an acoustic feature sequence from the voice waveform indicated by the input voice for learning. In the speech synthesis system according to the present embodiment, the acoustic features for each frame include F 0 and spectral inclusions (periodic and aperiodic components).

より具体的には、分析部12は、F0抽出部120と、周期/非周期成分抽出部122と、特徴量抽出部124とを含む。特徴量抽出部124は、F0補間部126と、スペクトル包絡抽出部128とを含む。 More specifically, the analysis unit 12 includes an F 0 extraction unit 120, a periodic / aperiodic component extraction unit 122, and a feature amount extraction unit 124. The feature amount extraction unit 124 includes an F 0 interpolation unit 126 and a spectrum envelope extraction unit 128.

0抽出部120は、既知のテキストに対応する音声波形のF0をフレーム(単位区間)毎に抽出する。すなわち、F0抽出部120は、入力される音声波形からF0をフレーム毎に抽出する。抽出されたF0は、周期/非周期成分抽出部122および特徴量抽出部124へ与えられる。 F 0 extraction unit 120 extracts the F 0 of the voice waveform corresponding to a known text for each frame (unit interval). That, F 0 extraction unit 120 extracts from the speech waveform input to F 0 for each frame. The extracted F 0 is given to the periodic / aperiodic component extraction unit 122 and the feature amount extraction unit 124.

周期/非周期成分抽出部122は、入力される音声波形から周期成分および非周期成分をフレーム(単位区間)毎に抽出する。より具体的には、周期/非周期成分抽出部122は、入力される音声波形のF0に基づいて、F0から周期成分および非周期成分を抽出する。本実施の形態においては、源信号s(t)を以下の(1)式に示すように抽出する。 The periodic / aperiodic component extraction unit 122 extracts the periodic component and the aperiodic component from the input voice waveform for each frame (unit interval). More specifically, the periodic / aperiodic component extraction unit 122 extracts the periodic component and the aperiodic component from F 0 based on the input voice waveform F 0 . In the present embodiment, the source signal s (t) is extracted as shown in the following equation (1).

Figure 0006802958
Figure 0006802958

但し、f(t)は、音声波形のフレームtにおけるF0を示し、周期性信号spdc(t)は、音声波形のフレームtにおける周期成分を示し、非周期性信号sapd(t)は、音声波形のフレームtにおける非周期成分を示す。 However, f 0 (t) indicates F 0 in the frame t of the voice waveform, and the periodic signal spdc (t) indicates the periodic component in the frame t of the voice waveform, and the aperiodic signal s apd (t). Indicates an aperiodic component in the frame t of the voice waveform.

このように、入力される音声波形のフレームt毎に、F0が存在する場合には、源信号は周期成分および非周期成分を含むものとして扱い、F0が存在しない場合には、源信号は非周期成分のみを含むものとして扱う。すなわち、周期/非周期成分抽出部122は、F0抽出部120がF0を抽出できないフレーム(単位区間)から非周期成分のみを抽出し、それ以外のフレームから周期成分および非周期成分を抽出する。 Thus, for each frame t to a speech waveform input, if when the F 0 is present, the source signal is treated as comprising periodic components and aperiodic components, there is no F 0 is the source signal Is treated as containing only aperiodic components. That is, the periodic / aperiodic component extraction unit 122 extracts only the aperiodic component from the frame (unit interval) in which the F 0 extraction unit 120 cannot extract F 0, and extracts the periodic component and the aperiodic component from the other frames. To do.

本実施の形態においては、源信号の周期(harmonic)成分を表現する一例として、以下の(2)式に示すようなsinusoidalモデルを採用する。 In the present embodiment, as an example of expressing the period (harmonic) component of the source signal, a sinusoidal model as shown in the following equation (2) is adopted.

Figure 0006802958
Figure 0006802958

(2)式において、Jはharmonicの数を示す。すなわち、(2)式に示すsinusoidalモデルにおいては、harmonicでの周波数および振幅は線形的に近似されている。このsinusoidalモデルを解くにあたって、α,β,γ,φの値をそれぞれ決定する必要がある。より具体的には、以下の(3)式に従って定義されるδを最小化する値が解として決定される。 In equation (2), J indicates the number of harmonics. That is, in the sinusoidal model shown in Eq. (2), the frequency and amplitude in harmonic are linearly approximated. In solving this sinusoidal model, it is necessary to determine the values of α k , β k , γ, and φ k , respectively. More specifically, the value that minimizes δ defined according to the following equation (3) is determined as the solution.

Figure 0006802958
Figure 0006802958

但し、ω(t)は、長さ2N+1の窓関数である。(3)式に従って定義されるδを最小化する値は、非特許文献8に示される解法によって決定される。 However, ω (t) is a window function having a length of 2N w + 1. The value that minimizes δ defined according to the equation (3) is determined by the solution method shown in Non-Patent Document 8.

周期/非周期成分抽出部122は、上述したような数学的な解法に従って、入力される音声波形に含まれる周期性信号spdc(t)および非周期性信号sapd(t)を抽出する。 The periodic / aperiodic component extraction unit 122 extracts the periodic signal s pdc (t) and the aperiodic signal s apd (t) included in the input voice waveform according to the mathematical solution as described above.

特徴量抽出部124は、音響特徴量として、連続的なF0、周期成分のスペクトル包絡、非周期成分のスペクトル包絡を出力する。スペクトル包絡としては、例えば、LSP(line spectral pair)、LPC(linear prediction coefficients)、メルケプストラム係数のいずれを採用してもよい。なお、音響特徴量としては、連続的なF0の対数(以下、「連続的なlogF0」とも略称する。)が用いられる。 The feature amount extraction unit 124 outputs continuous F 0 , spectral inclusion of periodic components, and spectral inclusion of aperiodic components as acoustic features. As the spectral envelope, for example, any of LSP (line spectral pair), LPC (linear prediction coefficients), and mer cepstrum coefficients may be adopted. As the acoustic features, logarithmic continuous F 0 (hereinafter, abbreviated as "continuous logF 0".) Is used.

0補間部126は、F0抽出部120が音声波形からフレーム毎に抽出されるF0を補間して、連続的なF0(F0系列)を生成する。より具体的には、例えば、直近の1または複数のフレームにおいて抽出されたF0から所定の補間関数に従って、対象のフレームにおけるF0を決定できる。F0補間部126におけるF0の補間方法は、公知の任意の方法を採用できる。 F 0 interpolation unit 126 interpolates the F 0 to F 0 extracting unit 120 is extracted for each frame from the speech waveform, it generates a continuous F 0 (F 0 sequence). More specifically, for example, in accordance with a predetermined interpolation function from F 0 extracted in immediate vicinity of one or more frames can be determined F 0 in the target frame. As the interpolation method of F 0 in the F 0 interpolation unit 126, any known method can be adopted.

スペクトル包絡抽出部128は、抽出される周期成分および非周期成分のスペクトル包絡を抽出する。より具体的には、スペクトル包絡抽出部128は、F0抽出部120が抽出したF0に基づいて、周期/非周期成分抽出部122から出力される周期性信号spdc(t)および非周期性信号sapd(t)から、スペクトル包絡を抽出する。すなわち、スペクトル包絡抽出部128は、フレーム毎の周期性信号spdc(t)に含まれる各周波数成分の分布特性を示す周期成分を示すスペクトル包絡(pdc)を抽出するとともに、フレーム毎の非周期性信号sapd(t)に含まれる各周波数成分の分布特性を示す非周期成分を示すスペクトル包絡(apd)を抽出する。 The spectral envelope extraction unit 128 extracts the spectral envelopes of the periodic and non-periodic components to be extracted. More specifically, the spectrum envelope extraction unit 128 has a periodic signal spdc (t) and an aperiodic signal output from the periodic / aperiodic component extraction unit 122 based on the F 0 extracted by the F 0 extraction unit 120. The spectral envelope is extracted from the sex signal s apd (t). That is, the spectrum inclusion extraction unit 128 extracts the spectrum inclusion (pdc) indicating the periodic component indicating the distribution characteristic of each frequency component included in the periodic signal s pdc (t) for each frame, and also extracts the spectrum inclusion (pdc) for each frame. A spectral envelope (apd) showing an aperiodic component showing the distribution characteristics of each frequency component included in the sex signal s apd (t) is extracted.

図6は、本実施の形態に従う音声合成システムにおいて出力される周期成分および非周期成分の音声波形の一例を示す図である。図6には、一例として、話者が「すべて」と発したときの音声信号を示す。後述するように、DNN16において、フレーム単位で音響特徴量が学習される。 FIG. 6 is a diagram showing an example of voice waveforms of periodic components and non-periodic components output in a speech synthesis system according to the present embodiment. FIG. 6 shows, as an example, an audio signal when the speaker says "all". As will be described later, in the DNN 16, the acoustic features are learned in frame units.

図6(a)には、入力された音声波形(源信号)を示し、図6(b)には、源信号から抽出された周期成分の音声波形を示し、図6(c)には、源信号から抽出された非周期成分の音声波形を示す。F0が抽出される区間の周期成分が図6(b)に示すように抽出される一方、F0が抽出される区間の非周期成分とF0が抽出されない区間とは、図6(c)のようになる。図6(b)中において「non−F0」とラベル付けされた区間では、振幅がほとんどゼロになっており、この区間がF0が抽出されない区間に相当する。 FIG. 6A shows an input voice waveform (source signal), FIG. 6B shows a voice waveform of a periodic component extracted from the source signal, and FIG. 6C shows a voice waveform. The audio waveform of the aperiodic component extracted from the source signal is shown. While the cyclic component of the section F 0 is extracted is extracted as shown in FIG. 6 (b), the section aperiodic component and F 0 of the section F 0 is extracted is not extracted, FIG. 6 (c )become that way. In the section labeled “non−F 0 ” in FIG. 6 (b), the amplitude is almost zero, and this section corresponds to the section in which F 0 is not extracted.

(d2:学習部14)
次に、学習部14における処理および機能について説明する。SPSSにおいては、入力されたテキストと当該テキストに対応する音声波形との関係を統計的に学習する。一般的に、この関係を直接モデル化することは容易ではない。そこで、本実施の形態に従う音声合成システムにおいては、入力されたテキストの文脈情報に基づくコンテキストラベル系列を生成するとともに、入力された音声波形からF0およびスペクトル包絡を含む音響特徴量系列を生成する。そして、コンテキストラベル系列および音響特徴量系列を用いて学習することで、コンテキストラベル系列を入力とし、音響特徴量系列を出力する音響モデルを構築する。本実施の形態においては、DNNに従って統計モデルである音響モデルを構築する。その結果、DNN16には、構築される音響モデル(統計モデル)を示すパラメータが格納されることになる。
(D2: Learning unit 14)
Next, the processing and the function in the learning unit 14 will be described. In SPSS, the relationship between the input text and the voice waveform corresponding to the text is statistically learned. In general, it is not easy to model this relationship directly. Therefore, in the speech synthesis system according to the present embodiment, a context label sequence based on the context information of the input text is generated, and an acoustic feature sequence including F 0 and spectral inclusion is generated from the input speech waveform. .. Then, by learning using the context label sequence and the acoustic feature sequence, an acoustic model that takes the context label sequence as an input and outputs the acoustic feature sequence is constructed. In the present embodiment, an acoustic model which is a statistical model is constructed according to DNN. As a result, the DNN 16 stores parameters indicating the acoustic model (statistical model) to be constructed.

図5に示す構成においては、コンテキストラベル系列を生成するコンポーネントとして、テキスト分析部162およびコンテキストラベル生成部164を含む。テキスト分析部162およびコンテキストラベル生成部164は、既知のテキストの文脈情報に基づくコンテキストラベルを生成する。 In the configuration shown in FIG. 5, the text analysis unit 162 and the context label generation unit 164 are included as the components that generate the context label series. The text analysis unit 162 and the context label generation unit 164 generate a context label based on the context information of the known text.

コンテキストラベルは、学習部14および音声合成部18の両方で用いるため、学習部14および音声合成部18が共通に利用する構成例を示している。しかしながら、学習部14および音声合成部18の各々に、コンテキストラベルを生成するためのコンポーネントをそれぞれ実装するようにしてもよい。 Since the context label is used by both the learning unit 14 and the speech synthesis unit 18, a configuration example commonly used by the learning unit 14 and the speech synthesis unit 18 is shown. However, each of the learning unit 14 and the speech synthesis unit 18 may be equipped with a component for generating a context label.

テキスト分析部162は、入力される学習用または合成対象のテキストを分析して、その文脈情報をコンテキストラベル生成部164へ出力する。コンテキストラベル生成部164は、テキスト分析部162からの分脈情報に基づいて、コンテキストラベルを決定してモデル学習部140へ出力する。 The text analysis unit 162 analyzes the input text for learning or synthesis, and outputs the context information to the context label generation unit 164. The context label generation unit 164 determines the context label based on the segmentation information from the text analysis unit 162 and outputs the context label to the model learning unit 140.

本実施の形態に従う音声合成システムにおいては、フレーム毎の音響特徴量を用いて学習を行なうので、コンテキストラベル生成部164についても、フレーム毎のコンテキストラベルを生成する。一般的に、コンテキストラベルは音素単位で生成されるため、コンテキストラベル生成部164は、音素内における各フレームの位置情報を付与することで、フレーム単位のコンテキストラベルを生成する。 In the speech synthesis system according to the present embodiment, since learning is performed using the acoustic features for each frame, the context label generation unit 164 also generates the context label for each frame. Generally, since the context label is generated in phoneme units, the context label generation unit 164 generates the context label in frame units by adding the position information of each frame in the phoneme.

モデル学習部140は、分析部12からの音響特徴量系列142と、コンテキストラベル生成部164からのコンテキストラベル系列166とを入力として、DNNを用いて音響モデルを学習する。このように、モデル学習部140は、F0、周期成分のスペクトル包絡、非周期成分のスペクトル包絡を含む音響特徴量と、対応するコンテキストラベルとを対応付けて学習することで、統計モデルである音響モデルを構築する。 The model learning unit 140 learns an acoustic model using DNN by inputting the acoustic feature quantity series 142 from the analysis unit 12 and the context label series 166 from the context label generation unit 164. In this way, the model learning unit 140 is a statistical model by learning the acoustic features including F 0 , the spectral inclusion of the periodic component, and the spectral inclusion of the aperiodic component in association with the corresponding context label. Build an acoustic model.

モデル学習部140でのDNNに基づく音響モデルの学習においては、フレーム毎にコンテキストラベルを入力するとともに、フレーム毎の音響特徴量ベクトル(要素として、少なくとも、連続的なlogF0、周期成分のスペクトル包絡、非周期成分のスペクトル包絡を含む)を出力とするDNNを用いることで、確率分布のモデル化を行なう。典型的には、モデル学習部140は、正規化された音響特徴量ベクトルについての平均二乗誤差を最小化するようにDNNを学習する。このようなDNNの学習は、以下の(4)式に示すように、フレーム毎に変化する平均ベクトルおよびコンテキスト非依存の共分散行列をもつ正規分布により、確率分布のモデル化を行なうことと等価である。 In the learning of the acoustic model based on the DNN in the model learning unit 140, the context label is input for each frame, and the acoustic feature amount vector for each frame (as an element, at least continuous logF 0 , spectral envelope of the periodic component). , Including the spectral envelope of the aperiodic component) is used as the output to model the probability distribution. Typically, the model learning unit 140 learns the DNN so as to minimize the mean square error for the normalized acoustic feature vector. Such DNN learning is equivalent to modeling a probability distribution with a normal distribution having an average vector that changes from frame to frame and a context-independent covariance matrix, as shown in Eq. (4) below. Is.

Figure 0006802958
Figure 0006802958

但し、λはDNNのパラメータセットを示し、Uはグローバルな共分散行列を示し、μtはDNNにより推定される音声パラメータの平均ベクトルを示す。したがって、生成された確率分布系列は、時変な平均ベクトルおよび時不変な共分散行列をもつことになる。 Where λ represents the parameter set of DNN, U represents the global covariance matrix, and μt represents the average vector of speech parameters estimated by DNN. Therefore, the generated probability distribution series will have a time-invariant mean vector and a time-invariant covariance matrix.

(d3:音声合成部18)
次に、音声合成部18における処理および機能について説明する。音声合成部18は、合成対象のテキストから生成されるフレーム毎のコンテキストラベルを生成し、生成したフレーム毎のコンテキストラベルをDNN16に入力することで、確率分布系列を推定する。そして、推定した確率分布系列に基づいて、学習時とは逆の処理を経て、音声波形を合成する。
(D3: Speech synthesis unit 18)
Next, the processing and the function in the voice synthesis unit 18 will be described. The speech synthesis unit 18 generates a context label for each frame generated from the text to be synthesized, and inputs the generated context label for each frame into the DNN 16 to estimate the probability distribution series. Then, based on the estimated probability distribution series, the voice waveform is synthesized through the process opposite to that at the time of learning.

より具体的には、音声合成部18は、音響特徴量推定部180と、パルス生成部184と、周期成分生成部186と、非周期成分生成部188と、加算部187とを含む。 More specifically, the speech synthesis unit 18 includes an acoustic feature amount estimation unit 180, a pulse generation unit 184, a periodic component generation unit 186, an aperiodic component generation unit 188, and an addition unit 187.

何らかの合成対象のテキストが入力されると、テキスト分析部162が入力されたテキストを分析して文脈情報を出力し、コンテキストラベル生成部164が分脈情報に基づいてコンテキストラベルを生成する。すなわち、テキスト分析部162およびコンテキストラベル生成部164は、任意のテキストの入力に応答して、当該テキストの文脈情報に基づくコンテキストラベルを決定する。 When some text to be synthesized is input, the text analysis unit 162 analyzes the input text and outputs context information, and the context label generation unit 164 generates a context label based on the segmentation information. That is, the text analysis unit 162 and the context label generation unit 164 determine the context label based on the context information of the text in response to the input of arbitrary text.

音響特徴量推定部180は、DNN16に構築された統計モデルである音響モデルから決定されたコンテキストラベルに対応する音響特徴量を推定する。より具体的には、音響特徴量推定部180は、生成されたフレーム毎のコンテキストラベルを、学習された音響モデルを示すDNN16に入力する。音響特徴量推定部180は、入力されたコンテキストラベルに対応する音響特徴量をDNN16から推定する。コンテキストラベル系列の入力に対応して、DNN16からはフレーム毎に平均ベクトルのみが変化する確率分布系列である音響特徴量系列182が出力される。 The acoustic feature amount estimation unit 180 estimates the acoustic feature amount corresponding to the context label determined from the acoustic model which is the statistical model constructed in the DNN 16. More specifically, the acoustic feature amount estimation unit 180 inputs the generated frame-by-frame context label into the DNN 16 indicating the learned acoustic model. The acoustic feature amount estimation unit 180 estimates the acoustic feature amount corresponding to the input context label from the DNN 16. Corresponding to the input of the context label series, the DNN 16 outputs an acoustic feature series 182 which is a probability distribution series in which only the average vector changes for each frame.

音響特徴量系列182に含まれる、補間された連続的なF0(F0系列)、周期成分のスペクトル包絡、非周期成分のスペクトル包絡は、DNN16を用いて、コンテキストラベル系列から推定される。 The interpolated continuous F 0 (F 0 sequence), the spectral envelope of the periodic component, and the spectral envelope of the aperiodic component included in the acoustic feature sequence 182 are estimated from the context label sequence using DNN16.

補間された連続的なF0(F0系列)は、連続分布として表現できるため、連続的なパルス系列から構成される。周期成分のスペクトル包絡および非周期成分のスペクトル包絡は、それぞれについてモデル化される。 Since the interpolated continuous F 0 (F 0 series) can be expressed as a continuous distribution, it is composed of a continuous pulse series. The spectral envelope of the periodic component and the spectral envelope of the aperiodic component are modeled for each.

パルス生成部184および周期成分生成部186は、推定された音響特徴量に含まれるF0に従って生成されたパルス系列を、周期成分のスペクトル包絡に応じてフィルタリングすることで、周期成分を再構成する。より具体的には、パルス生成部184は、音響特徴量推定部180からのF0(F0系列)に従ってパルス系列を生成する。周期成分生成部186は、パルス生成部184からのパルス系列を周期成分のスペクトル包絡でフィルタリングすることで、周期成分を生成する。 The pulse generation unit 184 and the periodic component generation unit 186 reconstruct the periodic component by filtering the pulse sequence generated according to F 0 included in the estimated acoustic features according to the spectral envelope of the periodic component. .. More specifically, the pulse generation unit 184 generates a pulse sequence according to F 0 (F 0 sequence) from the acoustic feature estimation unit 180. The periodic component generation unit 186 generates a periodic component by filtering the pulse sequence from the pulse generation unit 184 by the spectral envelope of the periodic component.

非周期成分生成部188は、ガウシアンノイズ系列などのノイズ系列を非周期成分のスペクトル包絡に応じてフィルタリングすることで、非周期成分を再構成する。より具体的には、非周期成分生成部188は、任意の励振源からのガウス性ノイズを非周期成分のスペクトル包絡でフィルタリングすることで、非周期成分を生成する。 The aperiodic component generation unit 188 reconstructs the aperiodic component by filtering a noise sequence such as a Gaussian noise sequence according to the spectral envelope of the aperiodic component. More specifically, the aperiodic component generation unit 188 generates an aperiodic component by filtering Gaussian noise from an arbitrary excitation source by the spectral envelope of the aperiodic component.

加算部187は、周期成分生成部186からの周期成分と非周期成分生成部188からの非周期成分とを加算することで、音声波形を再構成する。すなわち、加算部187は、再構成された周期成分および非周期成分を加算して、入力された任意のテキストに対応する音声波形として出力する。 The addition unit 187 reconstructs the audio waveform by adding the periodic component from the periodic component generation unit 186 and the aperiodic component from the aperiodic component generation unit 188. That is, the addition unit 187 adds the reconstructed periodic component and the non-periodic component, and outputs the voice waveform corresponding to the input arbitrary text.

上述したように、本実施の形態に従う音声合成システムにおいては、予め学習により構築されたDNN16を用いて、フレーム毎のコンテキストラベルについて確率分布系列を推定するとともに、静的特徴量と動的特徴量との間の明示的な関係を利用することで,適切に遷移する音響特徴量系列を生成する。そして、生成された音響特徴量系列をボコーダーに適用することで、推定された音響特徴量から合成音声を生成する。 As described above, in the speech synthesis system according to the present embodiment, the probability distribution series is estimated for the context label for each frame by using the DNN 16 constructed in advance by learning, and the static features and the dynamic features are used. By using the explicit relationship between and, an acoustic feature series that transitions appropriately is generated. Then, by applying the generated acoustic feature series to the vocoder, a synthetic voice is generated from the estimated acoustic features.

このように、本実施の形態に従う音声合成システムにおいては、V/UVの判定を行なうことなく、連続的な系列から音声波形を生成できる。 As described above, in the speech synthesis system according to the present embodiment, the speech waveform can be generated from the continuous sequence without determining V / UV.

なお、本実施の形態においては、典型例として、学習手段としてDNNを用いるシステムを説明するが、学習手段としてはDNNに限られず、任意の教師あり学習の方法を採用できる。例えば、HMMや再帰型ニューラルネットワーク(Recurrent Neural Network)などを採用してもよい。 In the present embodiment, a system using DNN as a learning means will be described as a typical example, but the learning means is not limited to DNN, and any supervised learning method can be adopted. For example, an HMM or a recurrent neural network may be adopted.

[E.処理手順]
図7および図8は、本実施の形態に従う音声合成システムにおける処理手順の一例を示すフローチャートである。図7および図8に示す各ステップは、1または複数のプロセッサ(例えば、図2に示すプロセッサ100)が1または複数のプログラムを実行することで実現されてもよい。
[E. Processing procedure]
7 and 8 are flowcharts showing an example of a processing procedure in a speech synthesis system according to the present embodiment. Each step shown in FIGS. 7 and 8 may be realized by one or more processors (eg, processor 100 shown in FIG. 2) executing one or more programs.

図7には、DNN16を構築するための事前の機械学習の処理を示し、図8には、DNN16を用いた音声合成の処理を示す。 FIG. 7 shows a pre-machine learning process for constructing the DNN 16, and FIG. 8 shows a speech synthesis process using the DNN 16.

図7を参照して、プロセッサ100は、既知のテキストおよび当該テキストに対応する音声波形が入力されると(ステップS100)、入力された音声波形をフレームに区切り(ステップS102)、フレーム毎に、入力されたテキストからコンテキストラベルを生成する処理(ステップS110〜S112)、および、音響特徴量系列を生成する処理(ステップS120〜S128)を実行することで、コンテキストラベル系列および音響特徴量系列を生成する。 With reference to FIG. 7, when the known text and the voice waveform corresponding to the text are input (step S100), the processor 100 divides the input voice waveform into frames (step S102), and for each frame, By executing the process of generating the context label from the input text (steps S110 to S112) and the process of generating the acoustic feature amount series (steps S120 to S128), the context label series and the acoustic feature amount series are generated. To do.

すなわち、プロセッサ100は、入力されたテキストを分析して文脈情報を生成し(ステップS110)、当該生成された文脈情報に基づいて、対応するフレームについてのコンテキストラベルを決定する(ステップS112)。 That is, the processor 100 analyzes the input text to generate contextual information (step S110), and determines the context label for the corresponding frame based on the generated contextual information (step S112).

また、プロセッサ100は、入力された音声波形の対象フレームにおけるF0を抽出し(ステップS120)、先に抽出されたF0との間で補間処理を行なうことで、連続的なF0を決定する(ステップS122)。そして、プロセッサ100は、入力された音声波形の対象フレームにおける周期成分および非周期成分を抽出し(ステップS124)、それぞれの成分についてのスペクトル包絡を抽出する(ステップS126)。プロセッサ100は、ステップS122において決定した連続的なF0の対数、ならびに、ステップS126において抽出したスペクトル包絡(周期成分および非周期成分)を音響特徴量として決定する(ステップS128)。 The processor 100 extracts the F 0 in the target frame of the input speech waveform (step S120), by performing an interpolation process between F 0 extracted previously, determine continuous F 0 (Step S122). Then, the processor 100 extracts the periodic component and the aperiodic component in the target frame of the input voice waveform (step S124), and extracts the spectral envelope for each component (step S126). The processor 100 determines the continuous logarithm of F 0 determined in step S122 and the spectral inclusions (periodic component and aperiodic component) extracted in step S126 as acoustic features (step S128).

プロセッサ100は、ステップS112において決定されたコンテキストラベルと、ステップS128において決定された音響特徴量とをDNN16に追加する(ステップS130)。そして、プロセッサ100は、未処理のフレームが存在するか否かを判断し(ステップS132)、未処理のフレームが存在する場合(ステップS132においてYESの場合)には、ステップS110〜S112、および、ステップS120〜S128の処理を繰返す。また、未処理のフレームが存在しない場合(ステップS132においてNOの場合)には、プロセッサ100は、新たなテキストおよび当該テキストに対応する音声波形が入力されたか否かを判断し(ステップS134)、新たなテキストおよび当該テキストに対応する音声波形が入力された場合(ステップS134においてYESの場合)には、ステップS102以下の処理を繰返す。 The processor 100 adds the context label determined in step S112 and the acoustic features determined in step S128 to the DNN 16 (step S130). Then, the processor 100 determines whether or not there is an unprocessed frame (step S132), and if there is an unprocessed frame (YES in step S132), steps S110 to S112, and The processing of steps S120 to S128 is repeated. Further, when there is no unprocessed frame (NO in step S132), the processor 100 determines whether or not a new text and a voice waveform corresponding to the text have been input (step S134). When a new text and a voice waveform corresponding to the text are input (YES in step S134), the processing of step S102 and subsequent steps is repeated.

新たなテキストおよび当該テキストに対応する音声波形が入力されていない場合(ステップS134においてNOの場合)には、学習処理は終了する。 If a new text and a voice waveform corresponding to the text are not input (NO in step S134), the learning process ends.

なお、上述の説明においては、コンテキストラベルおよび音響特徴量が生成される毎に、DNN16へ入力する処理例を示すが、対象の音声波形からコンテキストラベル系列および音響特徴量系列の生成が完了した後に、まとめてDNN16へ入力するようにしてもよい。 In the above description, a processing example of inputting to the DNN 16 each time a context label and an acoustic feature amount are generated will be shown, but after the generation of the context label series and the acoustic feature amount series from the target voice waveform is completed. , You may input to DNN16 collectively.

次に、図8を参照して、プロセッサ100は、合成対象のテキストが入力されると(ステップS200)、入力されたテキストを分析して文脈情報を生成し(ステップS202)、当該生成された文脈情報に基づいて、対応するフレームについてのコンテキストラベルを決定する(ステップS204)。そして、プロセッサ100は、ステップS204において決定したコンテキストラベルに対応する音響特徴量をDNN16から推定する(ステップS206)。 Next, referring to FIG. 8, when the text to be synthesized is input (step S200), the processor 100 analyzes the input text and generates context information (step S202), and the generated text is generated. The context label for the corresponding frame is determined based on the context information (step S204). Then, the processor 100 estimates the acoustic feature amount corresponding to the context label determined in step S204 from the DNN 16 (step S206).

プロセッサ100は、推定した音響特徴量に含まれるF0に従ってパルス系列を発生する(ステップS208)とともに、推定した音響特徴量に含まれるスペクトル包絡(周期成分)で当該発生したパルス系列をフィルタリングすることで、音声波形の周期成分を生成する(ステップS210)。 The processor 100 generates a pulse sequence according to F 0 included in the estimated acoustic feature (step S208), and filters the generated pulse sequence by the spectral inclusion (periodic component) included in the estimated acoustic feature. Then, the periodic component of the voice waveform is generated (step S210).

また、プロセッサ100は、ガウシアンノイズ系列を発生する(ステップS212)とともに、推定した音響特徴量に含まれるスペクトル包絡(非周期成分)で当該発生したガウシアンノイズ系列をフィルタリングすることで、音声波形の非周期成分を生成する(ステップS214)。 Further, the processor 100 generates a Gaussian noise sequence (step S212), and filters the generated Gaussian noise sequence by the spectral wrapping (aperiodic component) included in the estimated acoustic feature amount, so that the voice waveform is not generated. A periodic component is generated (step S214).

最終的に、プロセッサ100は、ステップS210において生成した周期成分とステップS214において生成した非周期成分とを加算して、合成音声の音声波形として出力する(ステップS216)。そして、入力されたテキストに対する音声合成処理は終了する。なお、ステップS206〜S216の処理は、入力されたテキストを構成するフレームの数だけ繰返される。 Finally, the processor 100 adds the periodic component generated in step S210 and the aperiodic component generated in step S214, and outputs the voice waveform of the synthesized voice (step S216). Then, the voice synthesis process for the input text ends. The processing of steps S206 to S216 is repeated by the number of frames constituting the input text.

[F.実験的評価]
次に、本実施の形態に従う音声合成システムのおける有効性について実施した実験的評価について説明する。
[F. Experimental evaluation]
Next, an experimental evaluation carried out on the effectiveness of the speech synthesis system according to the present embodiment will be described.

(f1:実験条件)
本実施の形態に係る実施例の比較対象となる比較例として、一般的なDNN音声合成を用いた。
(F1: Experimental conditions)
As a comparative example to be compared with the examples according to this embodiment, general DNN speech synthesis was used.

音声データとして、日本語女性話者1名により発声されたATR音素バランス文503文を用いた。このうち、493文を学習データとして用いるとともに、残り10文を評価文として用いた。 As the voice data, 503 ATR phoneme balance sentences uttered by one Japanese female speaker were used. Of these, 493 sentences were used as learning data, and the remaining 10 sentences were used as evaluation sentences.

音声データのサンプリング周波数は16kHzとし、分析周期は5msとした。学習データの音声データに対するWORLD分析によって得られた、スペクトルおよび非周期性指標(AP)を、それぞれ39次のメルケプストラム係数(0次を含めて40次)として表現した。 The sampling frequency of the audio data was 16 kHz, and the analysis cycle was 5 ms. The spectrum and aperiodic index (AP) obtained by WORLD analysis of the audio data of the training data were expressed as 39th-order mercepstrum coefficients (40th-order including 0th-order), respectively.

logF0については、公知の複数の抽出法による結果を統合することで算出した上で、平滑化によってマイクロプロソディを除去した。 LogF 0 was calculated by integrating the results of a plurality of known extraction methods, and then the microprosody was removed by smoothing.

実施例の音素継続長モデルは、比較例のHMM音声合成と同様に、音素単位のコンテキストラベルを用いて、5状態のスキップ無しleft-to-right型のコンテキスト依存音素HSMM(hidden semi-Markov model:隠れセミマルコフモデル)を学習した。また、DNNによる音響モデルの学習では、さらに無声区間を補間した連続logF0パターンを用いた。これらのパラメータに対して、さらに1次動的特徴量および2次動的特徴量を付与したものを音響特徴量とした。 The phoneme continuation length model of the embodiment uses a phoneme-based context label in the same manner as the HMM speech synthesis of the comparative example, and is a left-to-right type context-dependent phoneme HSMM (hidden semi-Markov model) without skipping five states. : Hidden Semi-Markov model) was learned. Further, in the learning of the acoustic model by DNN, a continuous logF 0 pattern in which the silent section was further interpolated was used. The acoustic features were obtained by further adding the primary dynamic features and the secondary dynamic features to these parameters.

比較例のDNN音声合成については、上記特徴量に加え、V/UV情報を用いた。入力ベクトルは、音素単位のコンテキストラベルに対して、HSMMの継続長モデルから得られた継続長情報を付与することで、フレーム毎のコンテキストラベルを生成し、合計483次元のベクトルとして表現した。 For the DNN speech synthesis of the comparative example, V / UV information was used in addition to the above features. As the input vector, the context label for each frame was generated by adding the continuation length information obtained from the continuation length model of HSMM to the context label of the phoneme unit, and expressed as a vector having a total of 483 dimensions.

出力ベクトルは、比較例が244次元の音響特徴量のベクトルとし、実施例が243次元の音響特徴量のベクトルとした。 The output vector was a 244-dimensional acoustic feature vector in the comparative example and a 243-dimensional acoustic feature vector in the example.

実施例および比較例にそれぞれ用いた特徴量およびモデルの一覧を以下の表1に示す。但し、入力ベクトルおよび出力ベクトルは、いずれも平均が0、分散が1となるように正規化した。 Table 1 below shows a list of features and models used in the examples and comparative examples, respectively. However, both the input vector and the output vector were normalized so that the mean was 0 and the variance was 1.

DNNのネットワーク構成は、隠れ層を6層とし、ユニット数1024とした上で、重みは乱数を用いて初期化した。また、ミニバッチサイズは256として、epoch数は30として、学習係数は2.5×10として、隠れ層の活性化関数はReLU(rectied linear unit)とし、optimizerはAdamとした。また、重み0.5のDropoutも用いた。 In the DNN network configuration, the hidden layers were set to 6 layers, the number of units was set to 1024, and the weights were initialized using random numbers. Further, as a mini batch size 256, epoch number as 30, as learning coefficient 2.5 × 10 4, the activation function of the hidden layer and ReLU (rectied linear unit), optimizer was Adam. A Dropout with a weight of 0.5 was also used.

Figure 0006802958
Figure 0006802958

(f2:主観評価)
表1に示すように、実施例と比較例との間で音響特徴量が異なっているため、客観評価ではなく主観評価にて評価した。より具体的には、対比較実験により合成音声の自然性を比較した。
(F2: subjective evaluation)
As shown in Table 1, since the acoustic features differ between the examples and the comparative examples, the evaluation was performed by subjective evaluation instead of objective evaluation. More specifically, the naturalness of synthetic speech was compared by a pair comparison experiment.

上述したように、ATR音素バランス文503文のうち学習データとしなかった10文を評価音声とした。実施例および比較例のそれぞれによって生成された合成音声を被験者(内訳:男性4名、女性1名)に聞いてもらい、より自然性である(音声品質が高い)と感じたものを選択してもらった。但し、提示音声対に差が感じられない際には、「どちらでもない」という選択肢を認めた。 As described above, of the 503 ATR phoneme balance sentences, 10 sentences that were not used as learning data were used as evaluation voices. Have the subjects (breakdown: 4 males, 1 female) listen to the synthetic voices generated by each of the examples and comparative examples, and select the ones that feel more natural (high voice quality). received. However, when there was no difference in the presented audio pairs, the option of "neither" was accepted.

なお、実施例および比較例ともに、スペクトル包絡のメルケプストラム係数に対するポストフィルタを適用した。 In both Examples and Comparative Examples, a post filter was applied to the mer cepstrum coefficient of the spectral envelope.

図9は、本実施の形態に従う音声合成システムについての対比較実験の評価結果例を示す図である。図9において、比較例の非周期性指標(AP)は0.0から1.0の間で非周期性を表現している。 FIG. 9 is a diagram showing an example of evaluation results of a pair comparison experiment for a speech synthesis system according to the present embodiment. In FIG. 9, the aperiodic index (AP) of the comparative example expresses aperiodicity between 0.0 and 1.0.

図9中のαはAPのしきい値を示す。α=0.0の場合に完全に有声となり、α=1.0の場合に完全に無声となる。APがしきい値αより低い場合は有声とし、高い場合は無声とした。 Α in FIG. 9 indicates the threshold value of AP. When α = 0.0, it becomes completely voiced, and when α = 1.0, it becomes completely unvoiced. When AP was lower than the threshold value α, it was voiced, and when it was higher, it was unvoiced.

予備実験においてV/UVの判定エラー率の低かったしきい値として、α=0.5およびα=0.6を用いた(図9(a)および(b))。また、図9(c)の「reference」は、V/UVの判定結果の正解を与えた場合の結果を示す。 In the preliminary experiment, α = 0.5 and α = 0.6 were used as the threshold values at which the V / UV determination error rate was low (FIGS. 9 (a) and 9 (b)). Further, “reference” in FIG. 9C shows the result when the correct answer of the V / UV determination result is given.

図9(a)〜(c)に示すいずれの場合についても、実施例が比較例に対して、検定統計量のp値がp<0.01となり、有意性を示したことが確認された。 In each of the cases shown in FIGS. 9 (a) to 9 (c), it was confirmed that the p value of the test statistic was p <0.01 with respect to the comparative example, showing significance. ..

(f3:実験的評価の結論)
本実施の形態に従う音声合成システムにおいては、入力音声を周期成分/非周期成分に分離することにより、連続的にF0およびスペクトル包絡のトラジェクトリを表現できた。このような手法を採用することにより、モデリング精度の改善およびV/UVの判定エラーの回避といった利点を得ることができたと考えられる。
(F3: Conclusion of experimental evaluation)
In the speech synthesis system according to the present embodiment, by separating the input speech into a periodic component / aperiodic component, it was possible to continuously express the trajectory of F 0 and the spectrum envelope. By adopting such a method, it is considered that advantages such as improvement of modeling accuracy and avoidance of V / UV determination error can be obtained.

上述の主観評価の結果によれば、本実施の形態に係る実施例は、比較例に対して正しいV/UV情報が与えられたときでさえ、より優れた性能を示した。このような結果によれば、周期成分と非周期成分とに分離したモデリングが品質改善に寄与していると評価できる。 According to the results of the subjective evaluation described above, the examples according to the present embodiment showed better performance even when correct V / UV information was given to the comparative examples. Based on these results, it can be evaluated that the modeling separated into the periodic component and the non-periodic component contributes to the quality improvement.

[G.まとめ]
本実施の形態に従う音声合成システムにおいては、SPSSを実施するにあたって、源信号についてV/UVを判定する必要のない手法を採用した。V/UVを判定する代わりに、源信号を周期成分と非周期成分との組み合わせとして表現することで、V/UVの判定エラーによる合成音声への品質劣化を抑制することができる。また、F0系列を連続化することで、構築される音響モデルのモデリング精度を向上することもできる。
[G. Summary]
In the speech synthesis system according to the present embodiment, when SPSS is carried out, a method that does not require V / UV determination for the source signal is adopted. By expressing the source signal as a combination of a periodic component and a non-periodic component instead of determining V / UV, it is possible to suppress quality deterioration of the synthetic voice due to a V / UV determination error. In addition, the modeling accuracy of the constructed acoustic model can be improved by making the F 0 series continuous.

本実施の形態に従う音声合成システムによる合成音声については、主観評価ながら、従来の手法に比較して、十分に品質を向上させることができることが示された。 It was shown that the quality of the synthesized speech by the speech synthesis system according to the present embodiment can be sufficiently improved as compared with the conventional method while subjectively evaluating.

今回開示された実施の形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施の形態の説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time should be considered as exemplary in all respects and not restrictive. The scope of the present invention is shown by the claims rather than the description of the embodiments described above, and is intended to include all modifications within the meaning and scope equivalent to the claims.

1 多言語翻訳システム、2 ネットワーク、4 ユーザ、10 サービス提供装置、12 分析部、14 学習部、18 音声合成部、20 音声認識部、22 翻訳部、24 通信処理部、30 携帯端末、100 プロセッサ、102 主メモリ、104 ディスプレイ、106 入力デバイス、108 ネットワークインターフェイス、110 内部バス、112 二次記憶装置、120 F0抽出部、121 分析プログラム、122 周期/非周期成分抽出部、124 特徴量抽出部、126 F0補間部、128 スペクトル包絡抽出部、130 入力音声、132 テキスト、134 光学ドライブ、136 光学ディスク、140 モデル学習部、141 学習プログラム、142,182 音響特徴量系列、162 テキスト分析部、164 コンテキストラベル生成部、166 コンテキストラベル系列、180 音響特徴量推定部、181 音声合成プログラム、184,200,250 パルス生成部、186 周期成分生成部、187,208 加算部、188 非周期成分生成部、201 音声認識プログラム、204 ガウシアンノイズ生成部、221 翻訳プログラム、252 ホワイトノイズ生成部、254 切替部、256 音声合成フィルタ。 1 Multilingual translation system, 2 networks, 4 users, 10 service providers, 12 analysis unit, 14 learning unit, 18 speech synthesis unit, 20 speech recognition unit, 22 translation unit, 24 communication processing unit, 30 mobile terminals, 100 processors , 102 main memory, 104 display, 106 input device, 108 network interface, 110 internal bus, 112 secondary storage device, 120 F 0 extraction unit, 121 analysis program, 122 periodic / aperiodic component extraction unit, 124 feature quantity extraction unit , 126 F 0 Interpolator, 128 Spectral Entrainment Extractor, 130 Input Speech, 132 Text, 134 Optical Drive, 136 Optical Disc, 140 Model Learning Unit, 141 Learning Program, 142, 182 Acoustic Feature Series, 162 Text Analysis Unit, 164 Context label generation unit, 166 Context label series, 180 Acoustic feature amount estimation unit, 181 Speech synthesis program, 184,200,250 Pulse generation unit, 186 Periodic component generation unit, 187,208 Addition unit, 188 Non-periodic component generation unit , 201 speech recognition program, 204 Gaussian noise generator, 221 translation program, 252 white noise generator, 254 switching unit, 256 speech synthesis filter.

Claims (6)

統計的パラメトリック音声合成に従う音声合成システムであって、
既知のテキストに対応する音声波形の基本周波数を単位区間毎に抽出する第1の抽出部と、
前記音声波形から周期成分および非周期成分を単位区間毎に抽出する第2の抽出部と、
前記抽出された周期成分および非周期成分のスペクトル包絡を抽出する第3の抽出部と、
前記既知のテキストの文脈情報に基づくコンテキストラベルを生成する生成部と、
前記基本周波数、前記周期成分のスペクトル包絡、前記非周期成分のスペクトル包絡を含む音響特徴量と、対応する前記コンテキストラベルとを対応付けて学習することで、統計モデルを構築する学習部とを備える、音声合成システム。
A speech synthesis system that follows statistical parametric speech synthesis.
A first extraction unit that extracts the fundamental frequency of the voice waveform corresponding to a known text for each unit interval, and
A second extraction unit that extracts periodic and non-periodic components from the voice waveform for each unit interval, and
A third extraction unit that extracts the spectral envelopes of the extracted periodic and aperiodic components, and
A generator that generates a context label based on the context information of the known text,
A learning unit for constructing a statistical model is provided by learning by associating an acoustic feature amount including the fundamental frequency, the spectral inclusion of the periodic component, and the spectral inclusion of the aperiodic component with the corresponding context label. , Speech synthesis system.
任意のテキストの入力に応答して、当該テキストの文脈情報に基づくコンテキストラベルを決定する決定部と、
前記統計モデルから前記決定部により決定されたコンテキストラベルに対応する音響特徴量を推定する推定部とを備え、当該推定される音響特徴量は、基本周波数、周期成分のスペクトル包絡、非周期成分のスペクトル包絡を含み、
前記推定された音響特徴量に含まれる基本周波数に従って生成されたパルス系列を、周期成分のスペクトル包絡に応じてフィルタリングすることで、周期成分を再構成する第1の再構成部と、
ノイズ系列を非周期成分のスペクトル包絡に応じてフィルタリングすることで、非周期成分を再構成する第2の再構成部と、
前記再構成された周期成分および非周期成分を加算して、前記入力された任意のテキストに対応する音声波形として出力する加算部とをさらに備える、請求項1に記載の音声合成システム。
A decision-maker that determines the context label based on the contextual information of the text in response to the input of any text.
It is provided with an estimation unit that estimates an acoustic feature amount corresponding to a context label determined by the determination unit from the statistical model, and the estimated acoustic feature amount is a fundamental frequency, a spectral envelope of a periodic component, and an aperiodic component. Including spectral envelopes
A first reconstructing unit that reconstructs the periodic component by filtering the pulse sequence generated according to the fundamental frequency included in the estimated acoustic feature amount according to the spectral inclusion of the periodic component.
A second reconstruction section that reconstructs the aperiodic component by filtering the noise sequence according to the spectral envelope of the aperiodic component,
The voice synthesis system according to claim 1, further comprising an addition unit that adds the reconstructed periodic component and the aperiodic component and outputs the voice waveform corresponding to the input arbitrary text.
前記第2の抽出部は、前記第1の抽出部が前記基本周波数を抽出できない単位区間から前記非周期成分のみを抽出し、それ以外の単位区間から前記周期成分および前記非周期成分を抽出する、請求項1または2に記載の音声合成システム。 The second extraction unit extracts only the aperiodic component from a unit interval in which the first extraction unit cannot extract the fundamental frequency, and extracts the periodic component and the aperiodic component from the other unit intervals. , The speech synthesis system according to claim 1 or 2. 前記第1の抽出部は、前記基本周波数を抽出できない単位区間について、補間処理により基本周波数を決定する、請求項1〜3のいずれか1項に記載の音声合成システム。 The speech synthesis system according to any one of claims 1 to 3, wherein the first extraction unit determines the fundamental frequency by interpolation processing for a unit interval in which the fundamental frequency cannot be extracted. 統計的パラメトリック音声合成に従う音声合成方法を実現するための音声合成プログラムであって、前記音声合成プログラムはコンピュータに
既知のテキストに対応する音声波形の基本周波数を単位区間毎に抽出するステップと、
前記音声波形から周期成分および非周期成分を単位区間毎に抽出するステップと、
前記抽出された周期成分および非周期成分のスペクトル包絡を抽出するステップと、
前記既知のテキストの文脈情報に基づくコンテキストラベルを生成するステップと、
前記基本周波数、前記周期成分のスペクトル包絡、前記非周期成分のスペクトル包絡を含む音響特徴量と、対応する前記コンテキストラベルとを対応付けて学習することで、統計モデルを構築するステップとを実行させる、音声合成プログラム。
It is a speech synthesis program for realizing a speech synthesis method according to statistical parametric speech synthesis, and the speech synthesis program includes a step of extracting the fundamental frequency of a speech waveform corresponding to a text known to a computer for each unit interval.
A step of extracting periodic components and non-periodic components from the voice waveform for each unit interval, and
The step of extracting the spectral envelopes of the extracted periodic and aperiodic components, and
The step of generating a context label based on the context information of the known text,
The step of constructing a statistical model is executed by learning the acoustic features including the fundamental frequency, the spectral inclusion of the periodic component, and the spectral inclusion of the aperiodic component in association with the corresponding context label. , Speech synthesis program.
統計的パラメトリック音声合成に従う音声合成方法であって、
既知のテキストに対応する音声波形の基本周波数を単位区間毎に抽出するステップと、
前記音声波形から周期成分および非周期成分を単位区間毎に抽出するステップと、
前記抽出された周期成分および非周期成分のスペクトル包絡を抽出するステップと、
前記既知のテキストの文脈情報に基づくコンテキストラベルを生成するステップと、
前記基本周波数、前記周期成分のスペクトル包絡、前記非周期成分のスペクトル包絡を含む音響特徴量と、対応する前記コンテキストラベルとを対応付けて学習することで、統計モデルを構築するステップとを備える、音声合成方法。
A speech synthesis method that follows statistical parametric speech synthesis.
A step to extract the fundamental frequency of the voice waveform corresponding to a known text for each unit interval, and
A step of extracting periodic components and non-periodic components from the voice waveform for each unit interval, and
The step of extracting the spectral envelopes of the extracted periodic and aperiodic components, and
The step of generating a context label based on the context information of the known text,
The step includes a step of constructing a statistical model by learning the acoustic features including the fundamental frequency, the spectral inclusion of the periodic component, and the spectral inclusion of the aperiodic component in association with the corresponding context label. Speech synthesis method.
JP2017037151A 2017-02-28 2017-02-28 Speech synthesis system, speech synthesis program and speech synthesis method Active JP6802958B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017037151A JP6802958B2 (en) 2017-02-28 2017-02-28 Speech synthesis system, speech synthesis program and speech synthesis method
PCT/JP2018/006165 WO2018159402A1 (en) 2017-02-28 2018-02-21 Speech synthesis system, speech synthesis program, and speech synthesis method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017037151A JP6802958B2 (en) 2017-02-28 2017-02-28 Speech synthesis system, speech synthesis program and speech synthesis method

Publications (2)

Publication Number Publication Date
JP2018141915A JP2018141915A (en) 2018-09-13
JP6802958B2 true JP6802958B2 (en) 2020-12-23

Family

ID=63371228

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017037151A Active JP6802958B2 (en) 2017-02-28 2017-02-28 Speech synthesis system, speech synthesis program and speech synthesis method

Country Status (2)

Country Link
JP (1) JP6802958B2 (en)
WO (1) WO2018159402A1 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7274184B2 (en) * 2019-01-11 2023-05-16 ネイバー コーポレーション A neural vocoder that implements a speaker-adaptive model to generate a synthesized speech signal and a training method for the neural vocoder
JPWO2020158891A1 (en) * 2019-02-01 2020-08-06
WO2020162392A1 (en) 2019-02-06 2020-08-13 ヤマハ株式会社 Sound signal synthesis method and training method for neural network
US11705105B2 (en) 2019-05-15 2023-07-18 Lg Electronics Inc. Speech synthesizer for evaluating quality of synthesized speech using artificial intelligence and method of operating the same
US11232780B1 (en) 2020-08-24 2022-01-25 Google Llc Predicting parametric vocoder parameters from prosodic features
JPWO2023281555A1 (en) * 2021-07-05 2023-01-12
CN113838453B (en) * 2021-08-17 2022-06-28 北京百度网讯科技有限公司 Voice processing method, device, equipment and computer storage medium
CN113838452B (en) 2021-08-17 2022-08-23 北京百度网讯科技有限公司 Speech synthesis method, apparatus, device and computer storage medium
CN114373445B (en) * 2021-12-23 2022-10-25 北京百度网讯科技有限公司 Voice generation method and device, electronic equipment and storage medium
CN114360587A (en) * 2021-12-27 2022-04-15 北京百度网讯科技有限公司 Method, apparatus, device, medium and product for identifying audio
CN114550733B (en) * 2022-04-22 2022-07-01 成都启英泰伦科技有限公司 Voice synthesis method capable of being used for chip end

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05108097A (en) * 1991-10-19 1993-04-30 Ricoh Co Ltd Speech synthesizing device
JP2011247921A (en) * 2010-05-24 2011-12-08 Nippon Telegr & Teleph Corp <Ntt> Signal synthesizing method, signal synthesizing apparatus, and program
JP5660437B2 (en) * 2010-09-06 2015-01-28 独立行政法人情報通信研究機構 Silent filter learning device, speech synthesizer, silent filter learning method, and program

Also Published As

Publication number Publication date
WO2018159402A1 (en) 2018-09-07
JP2018141915A (en) 2018-09-13

Similar Documents

Publication Publication Date Title
JP6802958B2 (en) Speech synthesis system, speech synthesis program and speech synthesis method
Oord et al. Wavenet: A generative model for raw audio
Van Den Oord et al. Wavenet: A generative model for raw audio
EP3857543B1 (en) Conversational agent pipeline trained on synthetic data
US8380508B2 (en) Local and remote feedback loop for speech synthesis
JP6860901B2 (en) Learning device, speech synthesis system and speech synthesis method
Gosztolya et al. DNN-based feature extraction and classifier combination for child-directed speech, cold and snoring identification
JP2008242317A (en) Meter pattern generating device, speech synthesizing device, program, and meter pattern generating method
Yin et al. Modeling F0 trajectories in hierarchically structured deep neural networks
KR20040088368A (en) Method of speech recognition using variational inference with switching state space models
JP2017009842A (en) Speech recognition result output device, speech recognition result output method and speech recognition result output program
Narendra et al. Robust voicing detection and F 0 estimation for HMM-based speech synthesis
Adiga et al. Acoustic features modelling for statistical parametric speech synthesis: a review
EP4266306A1 (en) A speech processing system and a method of processing a speech signal
WO2015025788A1 (en) Quantitative f0 pattern generation device and method, and model learning device and method for generating f0 pattern
JP6631883B2 (en) Model learning device for cross-lingual speech synthesis, model learning method for cross-lingual speech synthesis, program
Ronanki et al. A Hierarchical Encoder-Decoder Model for Statistical Parametric Speech Synthesis.
JP2010139745A (en) Recording medium storing statistical pronunciation variation model, automatic voice recognition system, and computer program
Koriyama et al. Semi-Supervised Prosody Modeling Using Deep Gaussian Process Latent Variable Model.
Vainio et al. Emphasis, word prominence, and continuous wavelet transform in the control of HMM-based synthesis
Sheikhan Generation of suprasegmental information for speech using a recurrent neural network and binary gravitational search algorithm for feature selection
Deka et al. Development of assamese text-to-speech system using deep neural network
Al-Radhi et al. Continuous vocoder applied in deep neural network based voice conversion
Lachhab et al. A preliminary study on improving the recognition of esophageal speech using a hybrid system based on statistical voice conversion
Ronanki Prosody generation for text-to-speech synthesis

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201013

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201029

R150 Certificate of patent or registration of utility model

Ref document number: 6802958

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250