JP6802958B2 - Speech synthesis system, speech synthesis program and speech synthesis method - Google Patents
Speech synthesis system, speech synthesis program and speech synthesis method Download PDFInfo
- Publication number
- JP6802958B2 JP6802958B2 JP2017037151A JP2017037151A JP6802958B2 JP 6802958 B2 JP6802958 B2 JP 6802958B2 JP 2017037151 A JP2017037151 A JP 2017037151A JP 2017037151 A JP2017037151 A JP 2017037151A JP 6802958 B2 JP6802958 B2 JP 6802958B2
- Authority
- JP
- Japan
- Prior art keywords
- speech synthesis
- unit
- periodic
- component
- aperiodic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000015572 biosynthetic process Effects 0.000 title claims description 113
- 238000003786 synthesis reaction Methods 0.000 title claims description 105
- 238000001308 synthesis method Methods 0.000 title claims description 8
- 230000000737 periodic effect Effects 0.000 claims description 106
- 230000003595 spectral effect Effects 0.000 claims description 59
- 238000000605 extraction Methods 0.000 claims description 36
- 238000012545 processing Methods 0.000 claims description 35
- 239000000284 extract Substances 0.000 claims description 26
- 238000001208 nuclear magnetic resonance pulse sequence Methods 0.000 claims description 21
- 238000013179 statistical model Methods 0.000 claims description 13
- 238000001914 filtration Methods 0.000 claims description 8
- 230000004044 response Effects 0.000 claims description 3
- 238000000034 method Methods 0.000 description 54
- 238000013519 translation Methods 0.000 description 25
- 238000004458 analytical method Methods 0.000 description 24
- 230000008569 process Effects 0.000 description 23
- 230000006870 function Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 12
- 238000011156 evaluation Methods 0.000 description 12
- 230000000052 comparative effect Effects 0.000 description 11
- 230000003287 optical effect Effects 0.000 description 11
- 238000010801 machine learning Methods 0.000 description 8
- 238000001228 spectrum Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 230000005284 excitation Effects 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 5
- 230000006866 deterioration Effects 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 3
- 230000001755 vocal effect Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 238000005538 encapsulation Methods 0.000 description 1
- 210000002816 gill Anatomy 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- MYWUZJCMWCOHBA-VIFPVBQESA-N methamphetamine Chemical compound CN[C@@H](C)CC1=CC=CC=C1 MYWUZJCMWCOHBA-VIFPVBQESA-N 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 210000001260 vocal cord Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/06—Elementary speech units used in speech synthesisers; Concatenation rules
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
- G10L13/10—Prosody rules derived from text; Stress or intonation
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
Description
本発明は、統計的パラメトリック音声合成に従う音声合成技術(statistical parametric speech synthesis;以下「SPSS」とも略称する。)に関する。 The present invention relates to a speech synthesis technique (statistical parametric speech synthesis; hereinafter, also abbreviated as "SPSS") according to statistical parametric speech synthesis.
従来から、音声合成技術は、テキスト読み上げアプリケーションや多言語翻訳サービスなどに広く応用されている。このような音声合成技術の一手法として、SPSSが知られている。SPSSは、統計モデルに基づいて音声を合成するフレームワークである。SPSSにおける主要な研究対象は、過去十数年にわたって、隠れマルコフモデル(hidden Markov model;以下「HMM」とも略称する。)に基づく音声合成であった。 Traditionally, speech synthesis technology has been widely applied to text-to-speech applications and multilingual translation services. SPSS is known as one method of such a speech synthesis technique. SPSS is a framework that synthesizes speech based on statistical models. For the past decade or so, the main research subject in SPSS has been speech synthesis based on the hidden Markov model (hereinafter abbreviated as "HMM").
近年、深層学習(deep learning)の一類型である、深層ニューラルネットワーク(deep neural network;以下「DNN」とも略称。)に基づく音声合成が注目を集めている(例えば、非特許文献1など参照)。非特許文献1に示された研究成果によれば、DNNに基づく音声合成は、HMMに基づく音声合成に比較して、より高品質な音声を生成できることが示されている。
In recent years, speech synthesis based on deep neural networks (hereinafter also abbreviated as "DNN"), which is a type of deep learning, has attracted attention (see, for example, Non-Patent Document 1). .. According to the research results shown in Non-Patent
多くのSPSSにおいては、音声生成時のソースフィルタモデルとしてボコーダー(vocoder)が利用される。より具体的には、ソースフィルタモデルは、声道フィルタと励振源とから構成される。声道フィルタは、声道をモデル化したものであり、スペクトル包絡パラメータにより表現される。励振源(声帯振動)をモデル化した源信号は、パルス系列とノイズ成分とを混合することにより表現される。 In many SPSSs, a vocoder is used as a source filter model during speech generation. More specifically, the source filter model is composed of a vocal tract filter and an excitation source. The vocal tract filter is a model of the vocal tract and is represented by spectral envelope parameters. The source signal that models the excitation source (vocal cord vibration) is expressed by mixing the pulse sequence and the noise component.
一般的に採用されるボコーダーにおいて、振動源の各フレームは有声区間であるか無声区間であるかの判定がなされ、有声区間であると判定された場合には、声の高さ(ピッチ)に相当する基本周波数(以下、「F0」とも略称する。)のパルス系列を生成し、無声区間であると判定された場合には、ホワイトノイズとして振動源を生成する。ここで、有声と無声との判定はF0が非ゼロ(有声)かゼロ(無声)かに基づいて行なわれる。一般的なSPSSでは、このF0の系列は、1次元の系列とゼロ次元の離散シンボルとが切替わる不連続系列と表現され、各フレームにおいて、有声/無声(以下、「V/UV」とも略称する。)を切替えるためのフラグ(以下、「V/UVフラグ」とも略称する。)が必要となる。 In a generally adopted vocoder, it is determined whether each frame of the vibration source is a voiced section or an unvoiced section, and if it is determined to be a voiced section, the pitch of the voice is determined. A pulse sequence of the corresponding fundamental frequency (hereinafter, also abbreviated as "F 0 ") is generated, and when it is determined to be an unvoiced section, a vibration source is generated as white noise. Here, the determination of voiced and unvoiced is made based on whether F 0 is non-zero (voiced) or zero (unvoiced). In general SPSS, this F 0 series is expressed as a discontinuous series in which a one-dimensional series and a zero-dimensional discrete symbol are switched, and in each frame, voiced / unvoiced (hereinafter, also referred to as “V / UV”). A flag (hereinafter, also abbreviated as “V / UV flag”) for switching (abbreviated as) is required.
各フレームにおけるV/UVの判定エラー、および、不連続系列を出力する振動源をモデル化することの困難性、に起因して、合成音声に品質劣化が生じる可能性がある。 Due to the V / UV determination error in each frame and the difficulty of modeling the vibration source that outputs the discontinuous sequence, quality deterioration may occur in the synthetic speech.
このような系列をモデル化する一手法として、MSD(multi-space distribution)モデリングが提案されている(例えば、非特許文献2参照)。しかしながら、MSDモデリングは、連続系列と離散系列とを表現するという困難性を本質的に伴うものである。また、予測エラーが生じたV/UVフレームについては、ボコーディング(vocoding)において、しばしば合成音声の品質劣化を招く結果となる。例えば、誤って有声判定されたフレームについてはbuzzy感を生じさせ、誤って無声判定されたフレームについてはしゃがれ感を生じさせる。 MSD (multi-space distribution) modeling has been proposed as a method for modeling such a series (see, for example, Non-Patent Document 2). However, MSD modeling inherently involves the difficulty of representing continuous and discrete series. In addition, V / UV frames in which a prediction error occurs often result in deterioration of the quality of synthetic speech in vocoding. For example, a frame that is erroneously determined to be voiced causes a buzzy feeling, and a frame that is erroneously determined to be unvoiced gives a feeling of crouching.
上述したような課題に対して、いくつかの解決手法が提案されている。
一つ目の手法は、不連続系列であるF0の系列を補間することで、連続的な系列として扱うものである(例えば、非特許文献3など参照)。この手法を用いることで、F0は連続系列としてモデル化でき、品質を改善できることが示されている。この手法においては、波形生成時にV/UVの判定を行なう必要があり、離散系列のモデル化が必要となる。
Several solutions have been proposed for the above-mentioned problems.
The first method is to treat the series as a continuous series by interpolating the series of F 0 which is a discontinuous series (see, for example, Non-Patent Document 3). It has been shown that by using this method, F 0 can be modeled as a continuous sequence and the quality can be improved. In this method, it is necessary to determine V / UV at the time of waveform generation, and it is necessary to model a discrete series.
別の手法として、何らかの連続系列からV/UVを判定することが考えられる。例えば、V/UVフラグに代えて、非周期性指標に基づいて、V/UVを判定する手法が提案されている(例えば、非特許文献4など参照)。この手法は、完全に連続なモデル化を実現できる一方で、V/UVの判定が波形生成時に必要となるので、V/UVの判定エラーの影響を完全には避けることができない。 As another method, it is conceivable to determine V / UV from some continuous sequence. For example, a method for determining V / UV based on an aperiodic index instead of the V / UV flag has been proposed (see, for example, Non-Patent Document 4). While this method can realize completely continuous modeling, since V / UV determination is required at the time of waveform generation, the influence of V / UV determination error cannot be completely avoided.
さらに別の手法として、V/UVフラグに代えて、音声信号の周期性の最大帯域を示すMaximum Voiced Frequency(以下、「MVF」とも略称する。)を用いる手法が提案されている(例えば、非特許文献5など参照)。MVFを用いることにより、高周波帯域を非周期成分とするとともに、低周波帯域を周期成分として、音声を分割できる。また、MVFは、連続的にモデル化されるので、しきい値を設定することで、V/UVフラグとして機能させることも可能である。しかしながら、高周波帯域および低周波帯域の2帯域にしか分割しないため、周期/非周期成分のモデル精度が十分ではない。 As yet another method, a method using Maximum Voiced Frequency (hereinafter, also abbreviated as "MVF") indicating the maximum band of the periodicity of the voice signal is proposed instead of the V / UV flag (for example, non-V / UV flag). (See Patent Document 5, etc.). By using MVF, it is possible to divide the voice by using the high frequency band as the aperiodic component and the low frequency band as the periodic component. Moreover, since the MVF is continuously modeled, it is possible to make it function as a V / UV flag by setting a threshold value. However, since it is divided into only two bands, a high frequency band and a low frequency band, the model accuracy of the periodic / aperiodic component is not sufficient.
本技術は、このような課題を解決するためのものであり、SPSSにおいて、音響モデルにおけるV/UVの判定エラーに起因する品質への影響を低減できる新たな手法を提供することを目的としている。 This technology is for solving such problems, and aims to provide a new method in SPSS that can reduce the influence on quality caused by V / UV judgment error in an acoustic model. ..
本発明のある局面に従えば、SPSSに従う音声合成システムが提供される。音声合成システムは、既知のテキストに対応する音声波形の基本周波数を単位区間毎に抽出する第1の抽出部と、音声波形から周期成分および非周期成分を単位区間毎に抽出する第2の抽出部と、抽出された周期成分および非周期成分のスペクトル包絡を抽出する第3の抽出部と、既知のテキストの文脈情報に基づくコンテキストラベルを生成する生成部と、基本周波数、周期成分のスペクトル包絡、非周期成分のスペクトル包絡を含む音響特徴量と、対応するコンテキストラベルとを対応付けて学習することで、統計モデルを構築する学習部とを含む。 According to certain aspects of the invention, a speech synthesis system according to SPSS is provided. The speech synthesis system has a first extraction unit that extracts the fundamental frequency of the speech waveform corresponding to a known text for each unit section, and a second extraction unit that extracts periodic and aperiodic components from the speech waveform for each unit section. Part, a third extraction part that extracts the spectral inclusion of the extracted periodic and aperiodic components, a generation part that generates a context label based on the context information of known text, and a spectral inclusion of the fundamental frequency and periodic components. Includes a learning unit that builds a statistical model by associating and learning an acoustic feature quantity including a spectral wrapping of an aperiodic component with a corresponding context label.
好ましくは、音声合成システムは、任意のテキストの入力に応答して、当該テキストの文脈情報に基づくコンテキストラベルを決定する決定部と、統計モデルから決定部により決定されたコンテキストラベルに対応する音響特徴量を推定する推定部とをさらに含む。当該推定される音響特徴量は、基本周波数、周期成分のスペクトル包絡、非周期成分のスペクトル包絡を含む。音声合成システムは、さらに、推定された音響特徴量に含まれる基本周波数に従って生成されたパルス系列を、周期成分のスペクトル包絡に応じてフィルタリングすることで、周期成分を再構成する第1の再構成部と、ノイズ系列を非周期成分のスペクトル包絡に応じてフィルタリングすることで、非周期成分を再構成する第2の再構成部と、再構成された周期成分および非周期成分を加算して、入力された任意のテキストに対応する音声波形として出力する加算部とを含む。 Preferably, the speech synthesis system responds to the input of arbitrary text and determines a context label based on the context information of the text, and an acoustic feature corresponding to the context label determined by the decision unit from the statistical model. It further includes an estimation unit that estimates the amount. The estimated acoustic features include the fundamental frequency, the spectral inclusion of the periodic component, and the spectral inclusion of the aperiodic component. The speech synthesis system further reconstructs the periodic component by filtering the pulse sequence generated according to the fundamental frequency included in the estimated acoustic feature amount according to the spectral inclusion of the periodic component. By filtering the part and the noise sequence according to the spectral inclusion of the aperiodic component, the second reconstructed part that reconstructs the aperiodic component, and the reconstructed periodic and aperiodic components are added. Includes an adder that outputs as a voice waveform corresponding to any input text.
好ましくは、第2の抽出部は、第1の抽出部が基本周波数を抽出できない単位区間から非周期成分のみを抽出し、それ以外の単位区間から周期成分および非周期成分を抽出する。 Preferably, the second extraction unit extracts only the aperiodic component from the unit interval in which the first extraction unit cannot extract the fundamental frequency, and extracts the periodic component and the aperiodic component from the other unit intervals.
好ましくは、第1の抽出部は、基本周波数を抽出できない単位区間について、補間処理により基本周波数を決定する。 Preferably, the first extraction unit determines the fundamental frequency by interpolation processing for the unit interval from which the fundamental frequency cannot be extracted.
好ましくは、パルス系列は、補間処理がなされた基本周波数系列から生成された系列であり、ノイズ系列は、全区間にわたりノイズが生成された系列である。 Preferably, the pulse sequence is a sequence generated from the interpolated fundamental frequency sequence, and the noise sequence is a sequence in which noise is generated over the entire section.
本発明のさらに別の局面に従えば、SPSSに従う音声合成方法を実現するための音声合成プログラムが提供される。音声合成プログラムはコンピュータに、既知のテキストに対応する音声波形の基本周波数を単位区間毎に抽出するステップと、音声波形から周期成分および非周期成分を単位区間毎に抽出するステップと、抽出された周期成分および非周期成分のスペクトル包絡を抽出するステップと、既知のテキストの文脈情報に基づくコンテキストラベルを生成するステップと、基本周波数、周期成分のスペクトル包絡、非周期成分のスペクトル包絡を含む音響特徴量と、対応するコンテキストラベルとを対応付けて学習することで、統計モデルを構築するステップとを実行させる。 According to yet another aspect of the present invention, a speech synthesis program for realizing a speech synthesis method according to SPSS is provided. The speech synthesis program was extracted to the computer by a step of extracting the fundamental frequency of the speech waveform corresponding to the known text for each unit interval and a step of extracting the periodic component and the aperiodic component from the speech waveform for each unit interval. Acoustic features including fundamental frequency, periodic component spectral envelopment, aperiodic component spectral encapsulation, steps to extract periodic and aperiodic component spectral envelopes, and generate context labels based on known textual contextual information. By learning by associating the quantity with the corresponding context label, the step of constructing a statistical model is executed.
本発明のさらに別の局面に従えば、SPSSに従う音声合成方法が提供される。音声合成方法は、既知のテキストに対応する音声波形の基本周波数を単位区間毎に抽出するステップと、音声波形から周期成分および非周期成分を単位区間毎に抽出するステップと、抽出された周期成分および非周期成分のスペクトル包絡を抽出するステップと、既知のテキストの文脈情報に基づくコンテキストラベルを生成するステップと、基本周波数、周期成分のスペクトル包絡、非周期成分のスペクトル包絡を含む音響特徴量と、対応するコンテキストラベルとを対応付けて学習することで、統計モデルを構築するステップとを含む。 According to yet another aspect of the present invention, a speech synthesis method according to SPSS is provided. The speech synthesis method includes a step of extracting the fundamental frequency of the speech waveform corresponding to a known text for each unit interval, a step of extracting periodic and non-periodic components from the speech waveform for each unit interval, and an extracted periodic component. And the steps to extract the spectral inclusions of the aperiodic components, the steps to generate context labels based on the contextual information of known texts, and the acoustic features including the fundamental frequency, the spectral inclusions of the periodic components, and the spectral inclusions of the aperiodic components. , Includes steps to build a statistical model by learning in association with the corresponding context label.
本発明によれば、SPSSにおいて、音響モデルにおけるV/UVの判定エラーに起因する品質への影響を低減できる。 According to the present invention, in SPSS, it is possible to reduce the influence on quality caused by the determination error of V / UV in the acoustic model.
本発明の実施の形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰返さない。 Embodiments of the present invention will be described in detail with reference to the drawings. The same or corresponding parts in the drawings are designated by the same reference numerals and the description thereof will not be repeated.
[A.応用例]
まず、本実施の形態に従う音声合成システムの一つの応用例について説明する。より具体的には、本実施の形態に従う音声合成システムを用いた多言語翻訳システムについて説明する。
[A. Application example]
First, one application example of the speech synthesis system according to the present embodiment will be described. More specifically, a multilingual translation system using a speech synthesis system according to the present embodiment will be described.
図1は、本実施の形態に従う音声合成システムを用いた多言語翻訳システム1の概要を示す模式図である。図1を参照して、多言語翻訳システム1は、サービス提供装置10を含む。サービス提供装置10は、ネットワーク2を介して接続される携帯端末30からの入力音声(第1言語で発せられたなんらかのことば)に対して音声認識、多言語翻訳などを行なって、第2言語での対応することばを合成して、その合成結果を出力音声として携帯端末30へ出力する。
FIG. 1 is a schematic diagram showing an outline of a
例えば、ユーザ4は、携帯端末30に対して、「Where is the station ?」という英語のことばを発すると、携帯端末30は、その発せられたことばからマイクロフォンなどにより入力音声を生成し、生成した入力音声をサービス提供装置10へ送信する。サービス提供装置10は、「Where is the station ?」に対応する、日本語の「駅はどこですか?」ということばを示す出力音声を合成する。携帯端末30は、サービス提供装置10から出力音声を受信すると、その受信した出力音声を再生する。これによって、ユーザ4の対話相手には、日本語の「駅はどこですか?」とのことばが聞こえる。
For example, when the
図示していないが、ユーザ4の対話相手も同様の携帯端末30を有していてもよく、例えば、ユーザ4からの質問に対して、「まっすぐ行って左です」との回答を自身の携帯端末に向かって発すると、上述したような処理が実行されて、ユーザ4の対話相手の携帯端末から、対応する英語の「Go straight and turn left」ということばが回答される。
Although not shown, the conversation partner of the
このように、多言語翻訳システム1においては、第1言語のことば(音声)と第2言語のことば(音声)との間で自在に翻訳が可能である。なお、2つの言語に限らず、任意の数の言語間で相互に自動翻訳できるようにしてもよい。
As described above, in the
このような自動音声翻訳の機能を利用することで、外国旅行や外国人とのコミュニケーションを容易化できる。 By using such an automatic speech translation function, it is possible to facilitate foreign travel and communication with foreigners.
サービス提供装置10に含まれる本実施の形態に従う音声合成システムは、後述するように、SPSSの一手法を採用する。サービス提供装置10は、音声合成システムに関するコンポーネントとして、分析部12と、学習部14と、DNN16と、音声合成部18とを含む。
The speech synthesis system according to the present embodiment included in the
サービス提供装置10は、自動翻訳に関するコンポーネントとして、音声認識部20と、翻訳部22とを含む。サービス提供装置10は、さらに、携帯端末30との間で通信処理を行なうための通信処理部24を含む。
The
より具体的には、分析部12および学習部14は、DNN16を構築するための機械学習を担当する。分析部12および学習部14の機能および処理の詳細については、後述する。DNN16は、分析部12および学習部14による機械学習の結果としてのニューラルネットワークを格納する。
More specifically, the
本実施の形態においては一例として、DNNを用いているが、DNNに代えて、再帰型ニューラルネットワーク(recurrent neural network;以下「RNN」とも略称する)、長・短記憶(long-short term memory;LSTM)RNN、畳み込みニューラルネットワーク(convolutional neural network;CNN)のいずれかを用いてもよい。 In the present embodiment, DNN is used as an example, but instead of DNN, a recurrent neural network (hereinafter, also abbreviated as "RNN"), a long-short term memory; Either LSTM) RNN or convolutional neural network (CNN) may be used.
音声認識部20は、通信処理部24を介して受信した携帯端末30からの入力音声に対して、音声認識処理を実行することで音声認識テキストを出力する。翻訳部22は、音声認識部20からの音声認識テキストから、指定された言語のテキスト(説明の便宜上、「翻訳テキスト」とも記す。)を生成する。音声認識部20および翻訳部22については、公知の任意の方法を採用できる。
The voice recognition unit 20 outputs voice recognition text by executing voice recognition processing on the input voice from the
音声合成部18は、翻訳部22からの翻訳テキストに対して、DNN16を参照して音声合成を行ない、その結果得られる出力音声を、通信処理部24を介して携帯端末30へ送信する。
The
図1には、説明の便宜上、DNN16を構築するための機械学習を担当するコンポーネント(主として、分析部12および学習部14)と、生成されたDNN16を用いて多言語翻訳を担当するコンポーネント(主として、音声認識部20、翻訳部22、および音声合成部18)が同一のサービス提供装置10に実装されている例を示すが、これらの機能をそれぞれ別の装置に実装してもよい。この場合、第1の装置において、機械学習を実施することでDNN16を構築し、第2の装置において、当該生成されたDNN16を用いて音声合成および当該音声合成を利用したサービスを提供するようにしてもよい。
In FIG. 1, for convenience of explanation, a component in charge of machine learning for constructing the DNN 16 (mainly the
上述したような多言語翻訳サービスにおいては、音声認識部20および翻訳部22の少なくとも一部の機能を携帯端末30で実行されるアプリケーションが担当するようにしてもよい。また、音声合成を担当するコンポーネント(DNN16および音声合成部18)の機能を携帯端末30で実行されるアプリケーションが担当するようにしてもよい。
In the multilingual translation service as described above, the application executed by the
このように、サービス提供装置10および携帯端末30が任意の形態で協働することで、多言語翻訳システム1およびその一部である音声合成システムを実現できる。このとき、それぞれの装置が分担する機能については、状況に応じて適宜決定すればよく、図1に示される多言語翻訳システム1に限定されるようなものではない。
In this way, the
[B.サービス提供装置のハードウェア構成]
次に、サービス提供装置のハードウェア構成の一例について説明する。図2は、本実施の形態に従うサービス提供装置10のハードウェア構成例を示す模式図である。サービス提供装置10は、典型的には、汎用コンピュータを用いて実現される。
[B. Hardware configuration of service provider]
Next, an example of the hardware configuration of the service providing device will be described. FIG. 2 is a schematic diagram showing a hardware configuration example of the
図2を参照して、サービス提供装置10は、主要なハードウェアコンポーネントとして、プロセッサ100と、主メモリ102と、ディスプレイ104と、入力デバイス106と、ネットワークインターフェイス(I/F:interface)108と、光学ドライブ134と、二次記憶装置112とを含む。これらのコンポーネントは、内部バス110を介して互いに接続される。
With reference to FIG. 2, the
プロセッサ100は、後述するような各種プログラムを実行することで、本実施の形態に従うサービス提供装置10の実現に必要な処理を実行する演算主体であり、例えば、1または複数のCPU(central processing unit)やGPU(graphics processing unit)などで構成される。複数のコアを有するようなCPUまたはGPUを用いてもよい。
The
主メモリ102は、プロセッサ100がプログラムを実行するにあたって、プログラムコードやワークメモリなどを一時的に格納する記憶領域であり、例えば、DRAM(dynamic random access memory)やSRAM(static random access memory)などの揮発性メモリデバイスなどで構成される。
The
ディスプレイ104は、処理に係るユーザインターフェイスや処理結果などを出力する表示部であり、例えば、LCD(liquid crystal display)や有機EL(electroluminescence)ディスプレイなどで構成される。
The
入力デバイス106は、ユーザからの指示や操作などを受付けるデバイスであり、例えば、キーボード、マウス、タッチパネル、ペンなどで構成される。また、入力デバイス106としては、機械学習に必要な音声を収集するためのマイクロフォンを含んでいてもよいし、機械学習に必要な音声を収集した集音デバイスと接続するためのインターフェイスを含んでいてもよい。
The
ネットワークインターフェイス108は、インターネット上またはイントラネット上の携帯端末30や任意の情報処理装置などとの間でデータを遣り取りする。ネットワークインターフェイス108としては、例えば、イーサネット(登録商標)、無線LAN(Local Area Network)、Bluetooth(登録商標)などの任意の通信方式を採用できる。
The
光学ドライブ134は、CD−ROM(compact disc read only memory)、DVD(digital versatile disc)などの光学ディスク136に格納されている情報を読出して、内部バス110を介して他のコンポーネントへ出力する。光学ディスク136は、非一過的(non-transitory)な記録媒体の一例であり、任意のプログラムを不揮発的に格納した状態で流通する。光学ドライブ134が光学ディスク136からプログラムを読み出して、二次記憶装置112などにインストールすることで、汎用コンピュータがサービス提供装置10(または、音声合成装置)として機能するようになる。したがって、本発明の主題は、二次記憶装置112などにインストールされたプログラム自体、または、本実施の形態に従う機能や処理を実現するためのプログラムを格納した光学ディスク136などの記録媒体でもあり得る。
The
図2には、非一過的な記録媒体の一例として、光学ディスク136などの光学記録媒体を示すが、これに限らず、フラッシュメモリなどの半導体記録媒体、ハードディスクまたはストレージテープなどの磁気記録媒体、MO(magneto-optical disk)などの光磁気記録媒体を用いてもよい。
FIG. 2 shows an optical recording medium such as an
二次記憶装置112は、プロセッサ100にて実行されるプログラム、プログラムが処理対象とする入力データ(学習用の入力音声およびテキスト、ならびに、携帯端末30からの入力音声などを含む)、および、プログラムの実行により生成される出力データ(携帯端末30へ送信される出力音声などを含む)などを格納するコンポーネントであり、例えば、ハードディスク、SSD(solid state drive)などの不揮発性記憶装置で構成される。
The
より具体的には、二次記憶装置112は、典型的には、図示しないOS(operating system)の他、分析部12を実現するための分析プログラム121と、学習部14を実現するための学習プログラム141と、音声認識部20を実現するための音声認識プログラム201と、翻訳部22を実現するための翻訳プログラム221と、音声合成部18を実現するための音声合成プログラム181とを格納している。
More specifically, the
これらのプログラムをプロセッサ100で実行する際に必要となるライブラリや機能モジュールの一部を、OSが標準で提供するライブラリまたは機能モジュールを用いて代替するようにしてもよい。この場合には、各プログラム単体では、対応する機能を実現するために必要なプログラムモジュールのすべてを含むものにはならないが、OSの実行環境下にインストールされることで、必要な機能を実現できる。このような一部のライブラリまたは機能モジュールを含まないプログラムであっても、本発明の技術的範囲に含まれ得る。
Some of the libraries and functional modules required to execute these programs on the
また、これらのプログラムは、上述したようないずれかの記録媒体に格納されて流通するだけでなく、インターネットまたはイントラネットを介してサーバ装置などからダウンロードすることで配布されてもよい。 Further, these programs are not only stored and distributed in any of the recording media as described above, but may also be distributed by downloading from a server device or the like via the Internet or an intranet.
なお、実際には、音声認識部20および翻訳部22を実現するためのデータベースが必要となるが、説明の便宜上、それらのデータベースについては描いていない。
Actually, a database for realizing the voice recognition unit 20 and the
二次記憶装置112は、DNN16に加えて、DNN16を構築するための、機械学習用の入力音声130および対応するテキスト132を格納していてもよい。
In addition to the
図2には、単一のコンピュータがサービス提供装置10を構成する例を示すが、これに限らず、ネットワークを介して接続された複数のコンピュータが明示的または黙示的に連携して、多言語翻訳システム1およびその一部である音声合成システムを実現するようにしてもよい。
FIG. 2 shows an example in which a single computer constitutes the
コンピュータ(プロセッサ100)がプログラムを実行することで実現される機能の全部または一部を、集積回路などのハードワイヤード回路(hard-wired circuit)を用いて実現してもよい。例えば、ASIC(application specific integrated circuit)やFPGA(field-programmable gate array)などを用いて実現してもよい。 All or part of the functions realized by the computer (processor 100) executing the program may be realized by using a hard-wired circuit such as an integrated circuit. For example, it may be realized by using an ASIC (application specific integrated circuit) or an FPGA (field-programmable gate array).
当業者であれば、本発明が実施される時代に応じた技術を適宜用いて、本実施の形態に従う音声合成システムを実現できるであろう。 A person skilled in the art will be able to realize a speech synthesis system according to the present embodiment by appropriately using a technique suitable for the times when the present invention is implemented.
[C.概要]
本実施の形態においては、SPSSに従う音声合成システムが提供される。本実施の形態に従う音声合成システムにおいては、励振源を示す源信号を周期成分と非周期成分とに分解することで、V/UVの判定を不要化した方式を採用する。源信号を表現する周期成分および非周期成分を示す音声パラメータをDNNに適用して学習を行なう。
[C. Overview]
In this embodiment, a speech synthesis system according to SPSS is provided. In the speech synthesis system according to the present embodiment, a method that eliminates the need for V / UV determination is adopted by decomposing the source signal indicating the excitation source into a periodic component and a non-periodic component. Learning is performed by applying a voice parameter indicating a periodic component and an aperiodic component expressing the source signal to the DNN.
まず、関連技術に係る音声合成処理および当該音声合成処理をSPSSに適用する場合の処理について説明する。図3は、関連技術に係る音声合成処理の概要を説明するための模式図である。図3を参照して、関連技術に係る音声合成処理においては、パルス生成部250と、ホワイトノイズ生成部252と、切替部254と、音声合成フィルタ256とを含む。図3に示す構成において、パルス生成部250、ホワイトノイズ生成部252、および、切替部254は、励振源をモデル化した部分に相当し、励振源からの源信号は、パルス生成部250から出力されるパルス系列と、ホワイトノイズ生成部252からの雑音系列とのうち、いずれか一方が切替部254にて選択されて、音声合成フィルタ256へ与えられる。パルス生成部250には、声の高さを示すF0のパラメータが与えられ、F0の逆数(基本周期/ピッチ周期)の間隔でパルス系列を出力する。なお、図示していないが、パルス生成部250には、声の大きさを示す振幅のパラメータが与えられてもよい。音声合成フィルタ256は、音声の音色を決定する部分であり、スペクトル包絡を示すパラメータが与えられる。
First, the speech synthesis process related to the related technology and the process when the speech synthesis process is applied to SPSS will be described. FIG. 3 is a schematic diagram for explaining the outline of the speech synthesis process according to the related technology. With reference to FIG. 3, the speech synthesis process according to the related technique includes a
図3に示す音声生成時のソースフィルタモデルにおいては、入力された音声波形を単位区間(例えば、フレーム単位)で区切るとともに、各単位区間が有声区間であるか無声区間であるかが判定され、有声区間についてはパルス系列が源信号として出力され、無声区間についてはノイズ系列が源信号として出力される。この有声区間と無声区間とを識別するパラメータがV/UVフラグである。 In the source filter model at the time of voice generation shown in FIG. 3, the input voice waveform is divided into unit intervals (for example, frame units), and it is determined whether each unit section is a voiced section or an unvoiced section. The pulse sequence is output as the source signal for the voiced section, and the noise sequence is output as the source signal for the unvoiced section. The parameter that distinguishes between the voiced section and the unvoiced section is the V / UV flag.
図3に示すソースフィルタモデルをSPSSに適用する場合には、F0、V/UVフラグ、スペクトル包絡が学習対象のパラメータとなる。したがって、各単位区間についてV/UVを正しく判定しなければならない。しかしながら、V/UVの判定、および、パルス系列およびノイズ系列が切替えられることによる不連続性を伴う源信号のモデル化は容易ではないので、合成音声に品質劣化が生じる可能性がある。 When the source filter model shown in FIG. 3 is applied to SPSS, F 0 , the V / UV flag, and the spectral envelope are the parameters to be learned. Therefore, V / UV must be correctly determined for each unit interval. However, since it is not easy to determine V / UV and model the source signal with discontinuity due to switching between the pulse sequence and the noise sequence, quality deterioration may occur in the synthesized speech.
そこで、本実施の形態においては、音声波形の各単位区間についてのV/UVを判定する必要のない手法を採用する。これにより、関連技術において生じ得る、V/UVの判定エラーによる合成音声の品質への影響を低減する。 Therefore, in the present embodiment, a method that does not need to determine V / UV for each unit interval of the voice waveform is adopted. This reduces the effect of V / UV determination errors on the quality of synthetic speech that may occur in related technologies.
図4は、本実施の形態に従う音声合成処理の概要を説明するための模式図である。図4を参照して、本実施の形態に従う音声合成処理においては、パルス生成部200と、音声合成フィルタ(周期成分)202と、ガウシアンノイズ生成部204と、音声合成フィルタ(非周期成分)206と、加算部208とを含む。
FIG. 4 is a schematic diagram for explaining an outline of the speech synthesis process according to the present embodiment. With reference to FIG. 4, in the speech synthesis process according to the present embodiment, the
本実施の形態においては、図3に示すV/UVフラグを用いた源信号の切替えではなく、周期成分および非周期成分のそれぞれに源信号を用意する。すなわち、音声信号を周期成分および非周期成分に分解する。 In the present embodiment, instead of switching the source signal using the V / UV flag shown in FIG. 3, a source signal is prepared for each of the periodic component and the aperiodic component. That is, the audio signal is decomposed into a periodic component and a non-periodic component.
より具体的には、パルス生成部200および音声合成フィルタ(周期成分)202は、周期成分を生成する部分であり、パルス生成部200は、指定されたF0に従うパルス(後述するように、連続的なパルス系列)を生成するとともに、音声合成フィルタ(周期成分)202が周期成分に対応するスペクトル包絡に応じたフィルタを当該連続的なパルス系列に乗じることで、合成音声に含まれる周期成分を出力する。
More specifically, the
このように、各単位区間がV/UVのいずれであるかによらず、連続的なパルス系列を用いることができるのは、周期成分の無音区間は非可聴なパワーであると仮定し、全区間を有声であると扱うためである。すなわち、無音や無声といった周期性をもたない区間において、周期成分に対応するスペクトル包絡は、十分に振幅が小さいと仮定する。この仮定に従うと、このような無音または無声の区間において、F0のパルス系列から周期成分を生成したとしても、非可聴な程に十分に小さくなると考えられる。そのため、関連技術に係る音声合成処理において、パルス系列の生成を停止していた無声区間においても、本実施の形態に従う音声合成処理においては、パルス系列を発生することで、パルス系列の不連続性に起因する合成音声への影響を低減することができる。 In this way, the continuous pulse sequence can be used regardless of whether each unit interval is V / UV, assuming that the silent section of the periodic component is inaudible power, and the whole. This is because the section is treated as voiced. That is, it is assumed that the spectral envelope corresponding to the periodic component has a sufficiently small amplitude in a section having no periodicity such as silence or silence. According to this assumption, even if a periodic component is generated from the pulse sequence of F 0 in such a silent or silent section, it is considered that the periodic component is sufficiently small to be inaudible. Therefore, even in the silent section in which the generation of the pulse sequence has been stopped in the speech synthesis process related to the related technology, in the speech synthesis process according to the present embodiment, the pulse sequence is generated to discontinue the pulse sequence. It is possible to reduce the influence on the synthetic voice caused by.
また、ガウシアンノイズ生成部204および音声合成フィルタ(非周期成分)206は、非周期成分を生成する部分であり、ガウシアンノイズ生成部204は、連続的なノイズ系列の一例として、ガウシアンノイズを生成するとともに、音声合成フィルタ(非周期成分)206が非周期成分に対応するスペクトル包絡に応じたフィルタを当該ノイズ系列に乗じることで、合成音声に含まれる非周期成分を出力する。
Further, the Gaussian
最終的に、音声合成フィルタ(周期成分)202から出力される周期成分、および、音声合成フィルタ(非周期成分)206から出力される非周期成分が加算部208で加算されることで、合成音声を示す音声波形が出力される。
Finally, the periodic component output from the speech synthesis filter (periodic component) 202 and the aperiodic component output from the speech synthesis filter (aperiodic component) 206 are added by the
このように、各単位区間がV/UVのいずれであるかによらず、ノイズ系列を用いることができるのは、非周期成分が無声信号および無音により構成されると仮定し、全区間を無声であると扱うためである。以上のように、有声区間および無声区間を区別する必要のない音響モデルを用いるとともに、その音響モデルに基づく学習を行なうことで、V/UVの判定を必要としない音声合成方法を実現できる。 In this way, the noise sequence can be used regardless of whether each unit interval is V / UV, assuming that the aperiodic component is composed of unvoiced signals and silence, and the entire section is unvoiced. This is to treat it as. As described above, by using an acoustic model that does not need to distinguish between a voiced section and an unvoiced section and performing learning based on the acoustic model, a speech synthesis method that does not require V / UV determination can be realized.
[D.学習処理および音声合成処理]
次に、本実施の形態に従う音声合成システムにおける学習処理および音声合成処理の詳細について説明する。図5は、本実施の形態に従う音声合成システムにおける要部の処理を説明するためのブロック図である。
[D. Learning processing and speech synthesis processing]
Next, the details of the learning process and the speech synthesis process in the speech synthesis system according to the present embodiment will be described. FIG. 5 is a block diagram for explaining the processing of the main part in the speech synthesis system according to the present embodiment.
図5を参照して、音声合成システムは、DNN16を構築するための分析部12および学習部14と、DNN16を用いて音声波形を出力する音声合成部18とを含む。以下、これらの各部の処理および機能について詳述する。
With reference to FIG. 5, the speech synthesis system includes an
(d1:分析部12)
まず、分析部12における処理および機能について説明する。分析部12は、音声分析を担当する部分であり、学習用の入力音声が示す音声波形から音響特徴量系列を生成する。本実施の形態に従う音声合成システムにおいて、フレーム毎の音響特徴量は、F0およびスペクトル包絡(周期成分および非周期成分)を含む。
(D1: Analysis unit 12)
First, the processing and the function in the
より具体的には、分析部12は、F0抽出部120と、周期/非周期成分抽出部122と、特徴量抽出部124とを含む。特徴量抽出部124は、F0補間部126と、スペクトル包絡抽出部128とを含む。
More specifically, the
F0抽出部120は、既知のテキストに対応する音声波形のF0をフレーム(単位区間)毎に抽出する。すなわち、F0抽出部120は、入力される音声波形からF0をフレーム毎に抽出する。抽出されたF0は、周期/非周期成分抽出部122および特徴量抽出部124へ与えられる。
F 0 extraction unit 120 extracts the F 0 of the voice waveform corresponding to a known text for each frame (unit interval). That, F 0 extraction unit 120 extracts from the speech waveform input to F 0 for each frame. The extracted F 0 is given to the periodic / aperiodic
周期/非周期成分抽出部122は、入力される音声波形から周期成分および非周期成分をフレーム(単位区間)毎に抽出する。より具体的には、周期/非周期成分抽出部122は、入力される音声波形のF0に基づいて、F0から周期成分および非周期成分を抽出する。本実施の形態においては、源信号s(t)を以下の(1)式に示すように抽出する。
The periodic / aperiodic
但し、f0(t)は、音声波形のフレームtにおけるF0を示し、周期性信号spdc(t)は、音声波形のフレームtにおける周期成分を示し、非周期性信号sapd(t)は、音声波形のフレームtにおける非周期成分を示す。 However, f 0 (t) indicates F 0 in the frame t of the voice waveform, and the periodic signal spdc (t) indicates the periodic component in the frame t of the voice waveform, and the aperiodic signal s apd (t). Indicates an aperiodic component in the frame t of the voice waveform.
このように、入力される音声波形のフレームt毎に、F0が存在する場合には、源信号は周期成分および非周期成分を含むものとして扱い、F0が存在しない場合には、源信号は非周期成分のみを含むものとして扱う。すなわち、周期/非周期成分抽出部122は、F0抽出部120がF0を抽出できないフレーム(単位区間)から非周期成分のみを抽出し、それ以外のフレームから周期成分および非周期成分を抽出する。
Thus, for each frame t to a speech waveform input, if when the F 0 is present, the source signal is treated as comprising periodic components and aperiodic components, there is no F 0 is the source signal Is treated as containing only aperiodic components. That is, the periodic / aperiodic
本実施の形態においては、源信号の周期(harmonic)成分を表現する一例として、以下の(2)式に示すようなsinusoidalモデルを採用する。 In the present embodiment, as an example of expressing the period (harmonic) component of the source signal, a sinusoidal model as shown in the following equation (2) is adopted.
(2)式において、Jはharmonicの数を示す。すなわち、(2)式に示すsinusoidalモデルにおいては、harmonicでの周波数および振幅は線形的に近似されている。このsinusoidalモデルを解くにあたって、αk,βk,γ,φkの値をそれぞれ決定する必要がある。より具体的には、以下の(3)式に従って定義されるδを最小化する値が解として決定される。 In equation (2), J indicates the number of harmonics. That is, in the sinusoidal model shown in Eq. (2), the frequency and amplitude in harmonic are linearly approximated. In solving this sinusoidal model, it is necessary to determine the values of α k , β k , γ, and φ k , respectively. More specifically, the value that minimizes δ defined according to the following equation (3) is determined as the solution.
但し、ω(t)は、長さ2Nw+1の窓関数である。(3)式に従って定義されるδを最小化する値は、非特許文献8に示される解法によって決定される。 However, ω (t) is a window function having a length of 2N w + 1. The value that minimizes δ defined according to the equation (3) is determined by the solution method shown in Non-Patent Document 8.
周期/非周期成分抽出部122は、上述したような数学的な解法に従って、入力される音声波形に含まれる周期性信号spdc(t)および非周期性信号sapd(t)を抽出する。
The periodic / aperiodic
特徴量抽出部124は、音響特徴量として、連続的なF0、周期成分のスペクトル包絡、非周期成分のスペクトル包絡を出力する。スペクトル包絡としては、例えば、LSP(line spectral pair)、LPC(linear prediction coefficients)、メルケプストラム係数のいずれを採用してもよい。なお、音響特徴量としては、連続的なF0の対数(以下、「連続的なlogF0」とも略称する。)が用いられる。
The feature
F0補間部126は、F0抽出部120が音声波形からフレーム毎に抽出されるF0を補間して、連続的なF0(F0系列)を生成する。より具体的には、例えば、直近の1または複数のフレームにおいて抽出されたF0から所定の補間関数に従って、対象のフレームにおけるF0を決定できる。F0補間部126におけるF0の補間方法は、公知の任意の方法を採用できる。 F 0 interpolation unit 126 interpolates the F 0 to F 0 extracting unit 120 is extracted for each frame from the speech waveform, it generates a continuous F 0 (F 0 sequence). More specifically, for example, in accordance with a predetermined interpolation function from F 0 extracted in immediate vicinity of one or more frames can be determined F 0 in the target frame. As the interpolation method of F 0 in the F 0 interpolation unit 126, any known method can be adopted.
スペクトル包絡抽出部128は、抽出される周期成分および非周期成分のスペクトル包絡を抽出する。より具体的には、スペクトル包絡抽出部128は、F0抽出部120が抽出したF0に基づいて、周期/非周期成分抽出部122から出力される周期性信号spdc(t)および非周期性信号sapd(t)から、スペクトル包絡を抽出する。すなわち、スペクトル包絡抽出部128は、フレーム毎の周期性信号spdc(t)に含まれる各周波数成分の分布特性を示す周期成分を示すスペクトル包絡(pdc)を抽出するとともに、フレーム毎の非周期性信号sapd(t)に含まれる各周波数成分の分布特性を示す非周期成分を示すスペクトル包絡(apd)を抽出する。
The spectral
図6は、本実施の形態に従う音声合成システムにおいて出力される周期成分および非周期成分の音声波形の一例を示す図である。図6には、一例として、話者が「すべて」と発したときの音声信号を示す。後述するように、DNN16において、フレーム単位で音響特徴量が学習される。
FIG. 6 is a diagram showing an example of voice waveforms of periodic components and non-periodic components output in a speech synthesis system according to the present embodiment. FIG. 6 shows, as an example, an audio signal when the speaker says "all". As will be described later, in the
図6(a)には、入力された音声波形(源信号)を示し、図6(b)には、源信号から抽出された周期成分の音声波形を示し、図6(c)には、源信号から抽出された非周期成分の音声波形を示す。F0が抽出される区間の周期成分が図6(b)に示すように抽出される一方、F0が抽出される区間の非周期成分とF0が抽出されない区間とは、図6(c)のようになる。図6(b)中において「non−F0」とラベル付けされた区間では、振幅がほとんどゼロになっており、この区間がF0が抽出されない区間に相当する。 FIG. 6A shows an input voice waveform (source signal), FIG. 6B shows a voice waveform of a periodic component extracted from the source signal, and FIG. 6C shows a voice waveform. The audio waveform of the aperiodic component extracted from the source signal is shown. While the cyclic component of the section F 0 is extracted is extracted as shown in FIG. 6 (b), the section aperiodic component and F 0 of the section F 0 is extracted is not extracted, FIG. 6 (c )become that way. In the section labeled “non−F 0 ” in FIG. 6 (b), the amplitude is almost zero, and this section corresponds to the section in which F 0 is not extracted.
(d2:学習部14)
次に、学習部14における処理および機能について説明する。SPSSにおいては、入力されたテキストと当該テキストに対応する音声波形との関係を統計的に学習する。一般的に、この関係を直接モデル化することは容易ではない。そこで、本実施の形態に従う音声合成システムにおいては、入力されたテキストの文脈情報に基づくコンテキストラベル系列を生成するとともに、入力された音声波形からF0およびスペクトル包絡を含む音響特徴量系列を生成する。そして、コンテキストラベル系列および音響特徴量系列を用いて学習することで、コンテキストラベル系列を入力とし、音響特徴量系列を出力する音響モデルを構築する。本実施の形態においては、DNNに従って統計モデルである音響モデルを構築する。その結果、DNN16には、構築される音響モデル(統計モデル)を示すパラメータが格納されることになる。
(D2: Learning unit 14)
Next, the processing and the function in the
図5に示す構成においては、コンテキストラベル系列を生成するコンポーネントとして、テキスト分析部162およびコンテキストラベル生成部164を含む。テキスト分析部162およびコンテキストラベル生成部164は、既知のテキストの文脈情報に基づくコンテキストラベルを生成する。
In the configuration shown in FIG. 5, the
コンテキストラベルは、学習部14および音声合成部18の両方で用いるため、学習部14および音声合成部18が共通に利用する構成例を示している。しかしながら、学習部14および音声合成部18の各々に、コンテキストラベルを生成するためのコンポーネントをそれぞれ実装するようにしてもよい。
Since the context label is used by both the
テキスト分析部162は、入力される学習用または合成対象のテキストを分析して、その文脈情報をコンテキストラベル生成部164へ出力する。コンテキストラベル生成部164は、テキスト分析部162からの分脈情報に基づいて、コンテキストラベルを決定してモデル学習部140へ出力する。
The
本実施の形態に従う音声合成システムにおいては、フレーム毎の音響特徴量を用いて学習を行なうので、コンテキストラベル生成部164についても、フレーム毎のコンテキストラベルを生成する。一般的に、コンテキストラベルは音素単位で生成されるため、コンテキストラベル生成部164は、音素内における各フレームの位置情報を付与することで、フレーム単位のコンテキストラベルを生成する。
In the speech synthesis system according to the present embodiment, since learning is performed using the acoustic features for each frame, the context
モデル学習部140は、分析部12からの音響特徴量系列142と、コンテキストラベル生成部164からのコンテキストラベル系列166とを入力として、DNNを用いて音響モデルを学習する。このように、モデル学習部140は、F0、周期成分のスペクトル包絡、非周期成分のスペクトル包絡を含む音響特徴量と、対応するコンテキストラベルとを対応付けて学習することで、統計モデルである音響モデルを構築する。
The
モデル学習部140でのDNNに基づく音響モデルの学習においては、フレーム毎にコンテキストラベルを入力するとともに、フレーム毎の音響特徴量ベクトル(要素として、少なくとも、連続的なlogF0、周期成分のスペクトル包絡、非周期成分のスペクトル包絡を含む)を出力とするDNNを用いることで、確率分布のモデル化を行なう。典型的には、モデル学習部140は、正規化された音響特徴量ベクトルについての平均二乗誤差を最小化するようにDNNを学習する。このようなDNNの学習は、以下の(4)式に示すように、フレーム毎に変化する平均ベクトルおよびコンテキスト非依存の共分散行列をもつ正規分布により、確率分布のモデル化を行なうことと等価である。
In the learning of the acoustic model based on the DNN in the
但し、λはDNNのパラメータセットを示し、Uはグローバルな共分散行列を示し、μtはDNNにより推定される音声パラメータの平均ベクトルを示す。したがって、生成された確率分布系列は、時変な平均ベクトルおよび時不変な共分散行列をもつことになる。 Where λ represents the parameter set of DNN, U represents the global covariance matrix, and μt represents the average vector of speech parameters estimated by DNN. Therefore, the generated probability distribution series will have a time-invariant mean vector and a time-invariant covariance matrix.
(d3:音声合成部18)
次に、音声合成部18における処理および機能について説明する。音声合成部18は、合成対象のテキストから生成されるフレーム毎のコンテキストラベルを生成し、生成したフレーム毎のコンテキストラベルをDNN16に入力することで、確率分布系列を推定する。そして、推定した確率分布系列に基づいて、学習時とは逆の処理を経て、音声波形を合成する。
(D3: Speech synthesis unit 18)
Next, the processing and the function in the
より具体的には、音声合成部18は、音響特徴量推定部180と、パルス生成部184と、周期成分生成部186と、非周期成分生成部188と、加算部187とを含む。
More specifically, the
何らかの合成対象のテキストが入力されると、テキスト分析部162が入力されたテキストを分析して文脈情報を出力し、コンテキストラベル生成部164が分脈情報に基づいてコンテキストラベルを生成する。すなわち、テキスト分析部162およびコンテキストラベル生成部164は、任意のテキストの入力に応答して、当該テキストの文脈情報に基づくコンテキストラベルを決定する。
When some text to be synthesized is input, the
音響特徴量推定部180は、DNN16に構築された統計モデルである音響モデルから決定されたコンテキストラベルに対応する音響特徴量を推定する。より具体的には、音響特徴量推定部180は、生成されたフレーム毎のコンテキストラベルを、学習された音響モデルを示すDNN16に入力する。音響特徴量推定部180は、入力されたコンテキストラベルに対応する音響特徴量をDNN16から推定する。コンテキストラベル系列の入力に対応して、DNN16からはフレーム毎に平均ベクトルのみが変化する確率分布系列である音響特徴量系列182が出力される。
The acoustic feature
音響特徴量系列182に含まれる、補間された連続的なF0(F0系列)、周期成分のスペクトル包絡、非周期成分のスペクトル包絡は、DNN16を用いて、コンテキストラベル系列から推定される。
The interpolated continuous F 0 (F 0 sequence), the spectral envelope of the periodic component, and the spectral envelope of the aperiodic component included in the
補間された連続的なF0(F0系列)は、連続分布として表現できるため、連続的なパルス系列から構成される。周期成分のスペクトル包絡および非周期成分のスペクトル包絡は、それぞれについてモデル化される。 Since the interpolated continuous F 0 (F 0 series) can be expressed as a continuous distribution, it is composed of a continuous pulse series. The spectral envelope of the periodic component and the spectral envelope of the aperiodic component are modeled for each.
パルス生成部184および周期成分生成部186は、推定された音響特徴量に含まれるF0に従って生成されたパルス系列を、周期成分のスペクトル包絡に応じてフィルタリングすることで、周期成分を再構成する。より具体的には、パルス生成部184は、音響特徴量推定部180からのF0(F0系列)に従ってパルス系列を生成する。周期成分生成部186は、パルス生成部184からのパルス系列を周期成分のスペクトル包絡でフィルタリングすることで、周期成分を生成する。
The
非周期成分生成部188は、ガウシアンノイズ系列などのノイズ系列を非周期成分のスペクトル包絡に応じてフィルタリングすることで、非周期成分を再構成する。より具体的には、非周期成分生成部188は、任意の励振源からのガウス性ノイズを非周期成分のスペクトル包絡でフィルタリングすることで、非周期成分を生成する。
The aperiodic
加算部187は、周期成分生成部186からの周期成分と非周期成分生成部188からの非周期成分とを加算することで、音声波形を再構成する。すなわち、加算部187は、再構成された周期成分および非周期成分を加算して、入力された任意のテキストに対応する音声波形として出力する。
The addition unit 187 reconstructs the audio waveform by adding the periodic component from the periodic
上述したように、本実施の形態に従う音声合成システムにおいては、予め学習により構築されたDNN16を用いて、フレーム毎のコンテキストラベルについて確率分布系列を推定するとともに、静的特徴量と動的特徴量との間の明示的な関係を利用することで,適切に遷移する音響特徴量系列を生成する。そして、生成された音響特徴量系列をボコーダーに適用することで、推定された音響特徴量から合成音声を生成する。
As described above, in the speech synthesis system according to the present embodiment, the probability distribution series is estimated for the context label for each frame by using the
このように、本実施の形態に従う音声合成システムにおいては、V/UVの判定を行なうことなく、連続的な系列から音声波形を生成できる。 As described above, in the speech synthesis system according to the present embodiment, the speech waveform can be generated from the continuous sequence without determining V / UV.
なお、本実施の形態においては、典型例として、学習手段としてDNNを用いるシステムを説明するが、学習手段としてはDNNに限られず、任意の教師あり学習の方法を採用できる。例えば、HMMや再帰型ニューラルネットワーク(Recurrent Neural Network)などを採用してもよい。 In the present embodiment, a system using DNN as a learning means will be described as a typical example, but the learning means is not limited to DNN, and any supervised learning method can be adopted. For example, an HMM or a recurrent neural network may be adopted.
[E.処理手順]
図7および図8は、本実施の形態に従う音声合成システムにおける処理手順の一例を示すフローチャートである。図7および図8に示す各ステップは、1または複数のプロセッサ(例えば、図2に示すプロセッサ100)が1または複数のプログラムを実行することで実現されてもよい。
[E. Processing procedure]
7 and 8 are flowcharts showing an example of a processing procedure in a speech synthesis system according to the present embodiment. Each step shown in FIGS. 7 and 8 may be realized by one or more processors (eg,
図7には、DNN16を構築するための事前の機械学習の処理を示し、図8には、DNN16を用いた音声合成の処理を示す。
FIG. 7 shows a pre-machine learning process for constructing the
図7を参照して、プロセッサ100は、既知のテキストおよび当該テキストに対応する音声波形が入力されると(ステップS100)、入力された音声波形をフレームに区切り(ステップS102)、フレーム毎に、入力されたテキストからコンテキストラベルを生成する処理(ステップS110〜S112)、および、音響特徴量系列を生成する処理(ステップS120〜S128)を実行することで、コンテキストラベル系列および音響特徴量系列を生成する。
With reference to FIG. 7, when the known text and the voice waveform corresponding to the text are input (step S100), the
すなわち、プロセッサ100は、入力されたテキストを分析して文脈情報を生成し(ステップS110)、当該生成された文脈情報に基づいて、対応するフレームについてのコンテキストラベルを決定する(ステップS112)。
That is, the
また、プロセッサ100は、入力された音声波形の対象フレームにおけるF0を抽出し(ステップS120)、先に抽出されたF0との間で補間処理を行なうことで、連続的なF0を決定する(ステップS122)。そして、プロセッサ100は、入力された音声波形の対象フレームにおける周期成分および非周期成分を抽出し(ステップS124)、それぞれの成分についてのスペクトル包絡を抽出する(ステップS126)。プロセッサ100は、ステップS122において決定した連続的なF0の対数、ならびに、ステップS126において抽出したスペクトル包絡(周期成分および非周期成分)を音響特徴量として決定する(ステップS128)。
The
プロセッサ100は、ステップS112において決定されたコンテキストラベルと、ステップS128において決定された音響特徴量とをDNN16に追加する(ステップS130)。そして、プロセッサ100は、未処理のフレームが存在するか否かを判断し(ステップS132)、未処理のフレームが存在する場合(ステップS132においてYESの場合)には、ステップS110〜S112、および、ステップS120〜S128の処理を繰返す。また、未処理のフレームが存在しない場合(ステップS132においてNOの場合)には、プロセッサ100は、新たなテキストおよび当該テキストに対応する音声波形が入力されたか否かを判断し(ステップS134)、新たなテキストおよび当該テキストに対応する音声波形が入力された場合(ステップS134においてYESの場合)には、ステップS102以下の処理を繰返す。
The
新たなテキストおよび当該テキストに対応する音声波形が入力されていない場合(ステップS134においてNOの場合)には、学習処理は終了する。 If a new text and a voice waveform corresponding to the text are not input (NO in step S134), the learning process ends.
なお、上述の説明においては、コンテキストラベルおよび音響特徴量が生成される毎に、DNN16へ入力する処理例を示すが、対象の音声波形からコンテキストラベル系列および音響特徴量系列の生成が完了した後に、まとめてDNN16へ入力するようにしてもよい。
In the above description, a processing example of inputting to the
次に、図8を参照して、プロセッサ100は、合成対象のテキストが入力されると(ステップS200)、入力されたテキストを分析して文脈情報を生成し(ステップS202)、当該生成された文脈情報に基づいて、対応するフレームについてのコンテキストラベルを決定する(ステップS204)。そして、プロセッサ100は、ステップS204において決定したコンテキストラベルに対応する音響特徴量をDNN16から推定する(ステップS206)。
Next, referring to FIG. 8, when the text to be synthesized is input (step S200), the
プロセッサ100は、推定した音響特徴量に含まれるF0に従ってパルス系列を発生する(ステップS208)とともに、推定した音響特徴量に含まれるスペクトル包絡(周期成分)で当該発生したパルス系列をフィルタリングすることで、音声波形の周期成分を生成する(ステップS210)。
The
また、プロセッサ100は、ガウシアンノイズ系列を発生する(ステップS212)とともに、推定した音響特徴量に含まれるスペクトル包絡(非周期成分)で当該発生したガウシアンノイズ系列をフィルタリングすることで、音声波形の非周期成分を生成する(ステップS214)。
Further, the
最終的に、プロセッサ100は、ステップS210において生成した周期成分とステップS214において生成した非周期成分とを加算して、合成音声の音声波形として出力する(ステップS216)。そして、入力されたテキストに対する音声合成処理は終了する。なお、ステップS206〜S216の処理は、入力されたテキストを構成するフレームの数だけ繰返される。
Finally, the
[F.実験的評価]
次に、本実施の形態に従う音声合成システムのおける有効性について実施した実験的評価について説明する。
[F. Experimental evaluation]
Next, an experimental evaluation carried out on the effectiveness of the speech synthesis system according to the present embodiment will be described.
(f1:実験条件)
本実施の形態に係る実施例の比較対象となる比較例として、一般的なDNN音声合成を用いた。
(F1: Experimental conditions)
As a comparative example to be compared with the examples according to this embodiment, general DNN speech synthesis was used.
音声データとして、日本語女性話者1名により発声されたATR音素バランス文503文を用いた。このうち、493文を学習データとして用いるとともに、残り10文を評価文として用いた。 As the voice data, 503 ATR phoneme balance sentences uttered by one Japanese female speaker were used. Of these, 493 sentences were used as learning data, and the remaining 10 sentences were used as evaluation sentences.
音声データのサンプリング周波数は16kHzとし、分析周期は5msとした。学習データの音声データに対するWORLD分析によって得られた、スペクトルおよび非周期性指標(AP)を、それぞれ39次のメルケプストラム係数(0次を含めて40次)として表現した。 The sampling frequency of the audio data was 16 kHz, and the analysis cycle was 5 ms. The spectrum and aperiodic index (AP) obtained by WORLD analysis of the audio data of the training data were expressed as 39th-order mercepstrum coefficients (40th-order including 0th-order), respectively.
logF0については、公知の複数の抽出法による結果を統合することで算出した上で、平滑化によってマイクロプロソディを除去した。 LogF 0 was calculated by integrating the results of a plurality of known extraction methods, and then the microprosody was removed by smoothing.
実施例の音素継続長モデルは、比較例のHMM音声合成と同様に、音素単位のコンテキストラベルを用いて、5状態のスキップ無しleft-to-right型のコンテキスト依存音素HSMM(hidden semi-Markov model:隠れセミマルコフモデル)を学習した。また、DNNによる音響モデルの学習では、さらに無声区間を補間した連続logF0パターンを用いた。これらのパラメータに対して、さらに1次動的特徴量および2次動的特徴量を付与したものを音響特徴量とした。 The phoneme continuation length model of the embodiment uses a phoneme-based context label in the same manner as the HMM speech synthesis of the comparative example, and is a left-to-right type context-dependent phoneme HSMM (hidden semi-Markov model) without skipping five states. : Hidden Semi-Markov model) was learned. Further, in the learning of the acoustic model by DNN, a continuous logF 0 pattern in which the silent section was further interpolated was used. The acoustic features were obtained by further adding the primary dynamic features and the secondary dynamic features to these parameters.
比較例のDNN音声合成については、上記特徴量に加え、V/UV情報を用いた。入力ベクトルは、音素単位のコンテキストラベルに対して、HSMMの継続長モデルから得られた継続長情報を付与することで、フレーム毎のコンテキストラベルを生成し、合計483次元のベクトルとして表現した。 For the DNN speech synthesis of the comparative example, V / UV information was used in addition to the above features. As the input vector, the context label for each frame was generated by adding the continuation length information obtained from the continuation length model of HSMM to the context label of the phoneme unit, and expressed as a vector having a total of 483 dimensions.
出力ベクトルは、比較例が244次元の音響特徴量のベクトルとし、実施例が243次元の音響特徴量のベクトルとした。 The output vector was a 244-dimensional acoustic feature vector in the comparative example and a 243-dimensional acoustic feature vector in the example.
実施例および比較例にそれぞれ用いた特徴量およびモデルの一覧を以下の表1に示す。但し、入力ベクトルおよび出力ベクトルは、いずれも平均が0、分散が1となるように正規化した。 Table 1 below shows a list of features and models used in the examples and comparative examples, respectively. However, both the input vector and the output vector were normalized so that the mean was 0 and the variance was 1.
DNNのネットワーク構成は、隠れ層を6層とし、ユニット数1024とした上で、重みは乱数を用いて初期化した。また、ミニバッチサイズは256として、epoch数は30として、学習係数は2.5×104として、隠れ層の活性化関数はReLU(rectied linear unit)とし、optimizerはAdamとした。また、重み0.5のDropoutも用いた。
In the DNN network configuration, the hidden layers were set to 6 layers, the number of units was set to 1024, and the weights were initialized using random numbers. Further, as a
(f2:主観評価)
表1に示すように、実施例と比較例との間で音響特徴量が異なっているため、客観評価ではなく主観評価にて評価した。より具体的には、対比較実験により合成音声の自然性を比較した。
(F2: subjective evaluation)
As shown in Table 1, since the acoustic features differ between the examples and the comparative examples, the evaluation was performed by subjective evaluation instead of objective evaluation. More specifically, the naturalness of synthetic speech was compared by a pair comparison experiment.
上述したように、ATR音素バランス文503文のうち学習データとしなかった10文を評価音声とした。実施例および比較例のそれぞれによって生成された合成音声を被験者(内訳:男性4名、女性1名)に聞いてもらい、より自然性である(音声品質が高い)と感じたものを選択してもらった。但し、提示音声対に差が感じられない際には、「どちらでもない」という選択肢を認めた。 As described above, of the 503 ATR phoneme balance sentences, 10 sentences that were not used as learning data were used as evaluation voices. Have the subjects (breakdown: 4 males, 1 female) listen to the synthetic voices generated by each of the examples and comparative examples, and select the ones that feel more natural (high voice quality). received. However, when there was no difference in the presented audio pairs, the option of "neither" was accepted.
なお、実施例および比較例ともに、スペクトル包絡のメルケプストラム係数に対するポストフィルタを適用した。 In both Examples and Comparative Examples, a post filter was applied to the mer cepstrum coefficient of the spectral envelope.
図9は、本実施の形態に従う音声合成システムについての対比較実験の評価結果例を示す図である。図9において、比較例の非周期性指標(AP)は0.0から1.0の間で非周期性を表現している。 FIG. 9 is a diagram showing an example of evaluation results of a pair comparison experiment for a speech synthesis system according to the present embodiment. In FIG. 9, the aperiodic index (AP) of the comparative example expresses aperiodicity between 0.0 and 1.0.
図9中のαはAPのしきい値を示す。α=0.0の場合に完全に有声となり、α=1.0の場合に完全に無声となる。APがしきい値αより低い場合は有声とし、高い場合は無声とした。 Α in FIG. 9 indicates the threshold value of AP. When α = 0.0, it becomes completely voiced, and when α = 1.0, it becomes completely unvoiced. When AP was lower than the threshold value α, it was voiced, and when it was higher, it was unvoiced.
予備実験においてV/UVの判定エラー率の低かったしきい値として、α=0.5およびα=0.6を用いた(図9(a)および(b))。また、図9(c)の「reference」は、V/UVの判定結果の正解を与えた場合の結果を示す。 In the preliminary experiment, α = 0.5 and α = 0.6 were used as the threshold values at which the V / UV determination error rate was low (FIGS. 9 (a) and 9 (b)). Further, “reference” in FIG. 9C shows the result when the correct answer of the V / UV determination result is given.
図9(a)〜(c)に示すいずれの場合についても、実施例が比較例に対して、検定統計量のp値がp<0.01となり、有意性を示したことが確認された。 In each of the cases shown in FIGS. 9 (a) to 9 (c), it was confirmed that the p value of the test statistic was p <0.01 with respect to the comparative example, showing significance. ..
(f3:実験的評価の結論)
本実施の形態に従う音声合成システムにおいては、入力音声を周期成分/非周期成分に分離することにより、連続的にF0およびスペクトル包絡のトラジェクトリを表現できた。このような手法を採用することにより、モデリング精度の改善およびV/UVの判定エラーの回避といった利点を得ることができたと考えられる。
(F3: Conclusion of experimental evaluation)
In the speech synthesis system according to the present embodiment, by separating the input speech into a periodic component / aperiodic component, it was possible to continuously express the trajectory of F 0 and the spectrum envelope. By adopting such a method, it is considered that advantages such as improvement of modeling accuracy and avoidance of V / UV determination error can be obtained.
上述の主観評価の結果によれば、本実施の形態に係る実施例は、比較例に対して正しいV/UV情報が与えられたときでさえ、より優れた性能を示した。このような結果によれば、周期成分と非周期成分とに分離したモデリングが品質改善に寄与していると評価できる。 According to the results of the subjective evaluation described above, the examples according to the present embodiment showed better performance even when correct V / UV information was given to the comparative examples. Based on these results, it can be evaluated that the modeling separated into the periodic component and the non-periodic component contributes to the quality improvement.
[G.まとめ]
本実施の形態に従う音声合成システムにおいては、SPSSを実施するにあたって、源信号についてV/UVを判定する必要のない手法を採用した。V/UVを判定する代わりに、源信号を周期成分と非周期成分との組み合わせとして表現することで、V/UVの判定エラーによる合成音声への品質劣化を抑制することができる。また、F0系列を連続化することで、構築される音響モデルのモデリング精度を向上することもできる。
[G. Summary]
In the speech synthesis system according to the present embodiment, when SPSS is carried out, a method that does not require V / UV determination for the source signal is adopted. By expressing the source signal as a combination of a periodic component and a non-periodic component instead of determining V / UV, it is possible to suppress quality deterioration of the synthetic voice due to a V / UV determination error. In addition, the modeling accuracy of the constructed acoustic model can be improved by making the F 0 series continuous.
本実施の形態に従う音声合成システムによる合成音声については、主観評価ながら、従来の手法に比較して、十分に品質を向上させることができることが示された。 It was shown that the quality of the synthesized speech by the speech synthesis system according to the present embodiment can be sufficiently improved as compared with the conventional method while subjectively evaluating.
今回開示された実施の形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施の形態の説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time should be considered as exemplary in all respects and not restrictive. The scope of the present invention is shown by the claims rather than the description of the embodiments described above, and is intended to include all modifications within the meaning and scope equivalent to the claims.
1 多言語翻訳システム、2 ネットワーク、4 ユーザ、10 サービス提供装置、12 分析部、14 学習部、18 音声合成部、20 音声認識部、22 翻訳部、24 通信処理部、30 携帯端末、100 プロセッサ、102 主メモリ、104 ディスプレイ、106 入力デバイス、108 ネットワークインターフェイス、110 内部バス、112 二次記憶装置、120 F0抽出部、121 分析プログラム、122 周期/非周期成分抽出部、124 特徴量抽出部、126 F0補間部、128 スペクトル包絡抽出部、130 入力音声、132 テキスト、134 光学ドライブ、136 光学ディスク、140 モデル学習部、141 学習プログラム、142,182 音響特徴量系列、162 テキスト分析部、164 コンテキストラベル生成部、166 コンテキストラベル系列、180 音響特徴量推定部、181 音声合成プログラム、184,200,250 パルス生成部、186 周期成分生成部、187,208 加算部、188 非周期成分生成部、201 音声認識プログラム、204 ガウシアンノイズ生成部、221 翻訳プログラム、252 ホワイトノイズ生成部、254 切替部、256 音声合成フィルタ。 1 Multilingual translation system, 2 networks, 4 users, 10 service providers, 12 analysis unit, 14 learning unit, 18 speech synthesis unit, 20 speech recognition unit, 22 translation unit, 24 communication processing unit, 30 mobile terminals, 100 processors , 102 main memory, 104 display, 106 input device, 108 network interface, 110 internal bus, 112 secondary storage device, 120 F 0 extraction unit, 121 analysis program, 122 periodic / aperiodic component extraction unit, 124 feature quantity extraction unit , 126 F 0 Interpolator, 128 Spectral Entrainment Extractor, 130 Input Speech, 132 Text, 134 Optical Drive, 136 Optical Disc, 140 Model Learning Unit, 141 Learning Program, 142, 182 Acoustic Feature Series, 162 Text Analysis Unit, 164 Context label generation unit, 166 Context label series, 180 Acoustic feature amount estimation unit, 181 Speech synthesis program, 184,200,250 Pulse generation unit, 186 Periodic component generation unit, 187,208 Addition unit, 188 Non-periodic component generation unit , 201 speech recognition program, 204 Gaussian noise generator, 221 translation program, 252 white noise generator, 254 switching unit, 256 speech synthesis filter.
Claims (6)
既知のテキストに対応する音声波形の基本周波数を単位区間毎に抽出する第1の抽出部と、
前記音声波形から周期成分および非周期成分を単位区間毎に抽出する第2の抽出部と、
前記抽出された周期成分および非周期成分のスペクトル包絡を抽出する第3の抽出部と、
前記既知のテキストの文脈情報に基づくコンテキストラベルを生成する生成部と、
前記基本周波数、前記周期成分のスペクトル包絡、前記非周期成分のスペクトル包絡を含む音響特徴量と、対応する前記コンテキストラベルとを対応付けて学習することで、統計モデルを構築する学習部とを備える、音声合成システム。 A speech synthesis system that follows statistical parametric speech synthesis.
A first extraction unit that extracts the fundamental frequency of the voice waveform corresponding to a known text for each unit interval, and
A second extraction unit that extracts periodic and non-periodic components from the voice waveform for each unit interval, and
A third extraction unit that extracts the spectral envelopes of the extracted periodic and aperiodic components, and
A generator that generates a context label based on the context information of the known text,
A learning unit for constructing a statistical model is provided by learning by associating an acoustic feature amount including the fundamental frequency, the spectral inclusion of the periodic component, and the spectral inclusion of the aperiodic component with the corresponding context label. , Speech synthesis system.
前記統計モデルから前記決定部により決定されたコンテキストラベルに対応する音響特徴量を推定する推定部とを備え、当該推定される音響特徴量は、基本周波数、周期成分のスペクトル包絡、非周期成分のスペクトル包絡を含み、
前記推定された音響特徴量に含まれる基本周波数に従って生成されたパルス系列を、周期成分のスペクトル包絡に応じてフィルタリングすることで、周期成分を再構成する第1の再構成部と、
ノイズ系列を非周期成分のスペクトル包絡に応じてフィルタリングすることで、非周期成分を再構成する第2の再構成部と、
前記再構成された周期成分および非周期成分を加算して、前記入力された任意のテキストに対応する音声波形として出力する加算部とをさらに備える、請求項1に記載の音声合成システム。 A decision-maker that determines the context label based on the contextual information of the text in response to the input of any text.
It is provided with an estimation unit that estimates an acoustic feature amount corresponding to a context label determined by the determination unit from the statistical model, and the estimated acoustic feature amount is a fundamental frequency, a spectral envelope of a periodic component, and an aperiodic component. Including spectral envelopes
A first reconstructing unit that reconstructs the periodic component by filtering the pulse sequence generated according to the fundamental frequency included in the estimated acoustic feature amount according to the spectral inclusion of the periodic component.
A second reconstruction section that reconstructs the aperiodic component by filtering the noise sequence according to the spectral envelope of the aperiodic component,
The voice synthesis system according to claim 1, further comprising an addition unit that adds the reconstructed periodic component and the aperiodic component and outputs the voice waveform corresponding to the input arbitrary text.
既知のテキストに対応する音声波形の基本周波数を単位区間毎に抽出するステップと、
前記音声波形から周期成分および非周期成分を単位区間毎に抽出するステップと、
前記抽出された周期成分および非周期成分のスペクトル包絡を抽出するステップと、
前記既知のテキストの文脈情報に基づくコンテキストラベルを生成するステップと、
前記基本周波数、前記周期成分のスペクトル包絡、前記非周期成分のスペクトル包絡を含む音響特徴量と、対応する前記コンテキストラベルとを対応付けて学習することで、統計モデルを構築するステップとを実行させる、音声合成プログラム。 It is a speech synthesis program for realizing a speech synthesis method according to statistical parametric speech synthesis, and the speech synthesis program includes a step of extracting the fundamental frequency of a speech waveform corresponding to a text known to a computer for each unit interval.
A step of extracting periodic components and non-periodic components from the voice waveform for each unit interval, and
The step of extracting the spectral envelopes of the extracted periodic and aperiodic components, and
The step of generating a context label based on the context information of the known text,
The step of constructing a statistical model is executed by learning the acoustic features including the fundamental frequency, the spectral inclusion of the periodic component, and the spectral inclusion of the aperiodic component in association with the corresponding context label. , Speech synthesis program.
既知のテキストに対応する音声波形の基本周波数を単位区間毎に抽出するステップと、
前記音声波形から周期成分および非周期成分を単位区間毎に抽出するステップと、
前記抽出された周期成分および非周期成分のスペクトル包絡を抽出するステップと、
前記既知のテキストの文脈情報に基づくコンテキストラベルを生成するステップと、
前記基本周波数、前記周期成分のスペクトル包絡、前記非周期成分のスペクトル包絡を含む音響特徴量と、対応する前記コンテキストラベルとを対応付けて学習することで、統計モデルを構築するステップとを備える、音声合成方法。 A speech synthesis method that follows statistical parametric speech synthesis.
A step to extract the fundamental frequency of the voice waveform corresponding to a known text for each unit interval, and
A step of extracting periodic components and non-periodic components from the voice waveform for each unit interval, and
The step of extracting the spectral envelopes of the extracted periodic and aperiodic components, and
The step of generating a context label based on the context information of the known text,
The step includes a step of constructing a statistical model by learning the acoustic features including the fundamental frequency, the spectral inclusion of the periodic component, and the spectral inclusion of the aperiodic component in association with the corresponding context label. Speech synthesis method.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017037151A JP6802958B2 (en) | 2017-02-28 | 2017-02-28 | Speech synthesis system, speech synthesis program and speech synthesis method |
PCT/JP2018/006165 WO2018159402A1 (en) | 2017-02-28 | 2018-02-21 | Speech synthesis system, speech synthesis program, and speech synthesis method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017037151A JP6802958B2 (en) | 2017-02-28 | 2017-02-28 | Speech synthesis system, speech synthesis program and speech synthesis method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018141915A JP2018141915A (en) | 2018-09-13 |
JP6802958B2 true JP6802958B2 (en) | 2020-12-23 |
Family
ID=63371228
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017037151A Active JP6802958B2 (en) | 2017-02-28 | 2017-02-28 | Speech synthesis system, speech synthesis program and speech synthesis method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6802958B2 (en) |
WO (1) | WO2018159402A1 (en) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7274184B2 (en) * | 2019-01-11 | 2023-05-16 | ネイバー コーポレーション | A neural vocoder that implements a speaker-adaptive model to generate a synthesized speech signal and a training method for the neural vocoder |
JPWO2020158891A1 (en) * | 2019-02-01 | 2020-08-06 | ||
WO2020162392A1 (en) | 2019-02-06 | 2020-08-13 | ヤマハ株式会社 | Sound signal synthesis method and training method for neural network |
US11705105B2 (en) | 2019-05-15 | 2023-07-18 | Lg Electronics Inc. | Speech synthesizer for evaluating quality of synthesized speech using artificial intelligence and method of operating the same |
US11232780B1 (en) | 2020-08-24 | 2022-01-25 | Google Llc | Predicting parametric vocoder parameters from prosodic features |
JPWO2023281555A1 (en) * | 2021-07-05 | 2023-01-12 | ||
CN113838453B (en) * | 2021-08-17 | 2022-06-28 | 北京百度网讯科技有限公司 | Voice processing method, device, equipment and computer storage medium |
CN113838452B (en) | 2021-08-17 | 2022-08-23 | 北京百度网讯科技有限公司 | Speech synthesis method, apparatus, device and computer storage medium |
CN114373445B (en) * | 2021-12-23 | 2022-10-25 | 北京百度网讯科技有限公司 | Voice generation method and device, electronic equipment and storage medium |
CN114360587A (en) * | 2021-12-27 | 2022-04-15 | 北京百度网讯科技有限公司 | Method, apparatus, device, medium and product for identifying audio |
CN114550733B (en) * | 2022-04-22 | 2022-07-01 | 成都启英泰伦科技有限公司 | Voice synthesis method capable of being used for chip end |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05108097A (en) * | 1991-10-19 | 1993-04-30 | Ricoh Co Ltd | Speech synthesizing device |
JP2011247921A (en) * | 2010-05-24 | 2011-12-08 | Nippon Telegr & Teleph Corp <Ntt> | Signal synthesizing method, signal synthesizing apparatus, and program |
JP5660437B2 (en) * | 2010-09-06 | 2015-01-28 | 独立行政法人情報通信研究機構 | Silent filter learning device, speech synthesizer, silent filter learning method, and program |
-
2017
- 2017-02-28 JP JP2017037151A patent/JP6802958B2/en active Active
-
2018
- 2018-02-21 WO PCT/JP2018/006165 patent/WO2018159402A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2018159402A1 (en) | 2018-09-07 |
JP2018141915A (en) | 2018-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6802958B2 (en) | Speech synthesis system, speech synthesis program and speech synthesis method | |
Oord et al. | Wavenet: A generative model for raw audio | |
Van Den Oord et al. | Wavenet: A generative model for raw audio | |
EP3857543B1 (en) | Conversational agent pipeline trained on synthetic data | |
US8380508B2 (en) | Local and remote feedback loop for speech synthesis | |
JP6860901B2 (en) | Learning device, speech synthesis system and speech synthesis method | |
Gosztolya et al. | DNN-based feature extraction and classifier combination for child-directed speech, cold and snoring identification | |
JP2008242317A (en) | Meter pattern generating device, speech synthesizing device, program, and meter pattern generating method | |
Yin et al. | Modeling F0 trajectories in hierarchically structured deep neural networks | |
KR20040088368A (en) | Method of speech recognition using variational inference with switching state space models | |
JP2017009842A (en) | Speech recognition result output device, speech recognition result output method and speech recognition result output program | |
Narendra et al. | Robust voicing detection and F 0 estimation for HMM-based speech synthesis | |
Adiga et al. | Acoustic features modelling for statistical parametric speech synthesis: a review | |
EP4266306A1 (en) | A speech processing system and a method of processing a speech signal | |
WO2015025788A1 (en) | Quantitative f0 pattern generation device and method, and model learning device and method for generating f0 pattern | |
JP6631883B2 (en) | Model learning device for cross-lingual speech synthesis, model learning method for cross-lingual speech synthesis, program | |
Ronanki et al. | A Hierarchical Encoder-Decoder Model for Statistical Parametric Speech Synthesis. | |
JP2010139745A (en) | Recording medium storing statistical pronunciation variation model, automatic voice recognition system, and computer program | |
Koriyama et al. | Semi-Supervised Prosody Modeling Using Deep Gaussian Process Latent Variable Model. | |
Vainio et al. | Emphasis, word prominence, and continuous wavelet transform in the control of HMM-based synthesis | |
Sheikhan | Generation of suprasegmental information for speech using a recurrent neural network and binary gravitational search algorithm for feature selection | |
Deka et al. | Development of assamese text-to-speech system using deep neural network | |
Al-Radhi et al. | Continuous vocoder applied in deep neural network based voice conversion | |
Lachhab et al. | A preliminary study on improving the recognition of esophageal speech using a hybrid system based on statistical voice conversion | |
Ronanki | Prosody generation for text-to-speech synthesis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191219 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201013 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201029 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6802958 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |