JP3910628B2 - 音声合成装置、音声合成方法およびプログラム - Google Patents

音声合成装置、音声合成方法およびプログラム Download PDF

Info

Publication number
JP3910628B2
JP3910628B2 JP2006521338A JP2006521338A JP3910628B2 JP 3910628 B2 JP3910628 B2 JP 3910628B2 JP 2006521338 A JP2006521338 A JP 2006521338A JP 2006521338 A JP2006521338 A JP 2006521338A JP 3910628 B2 JP3910628 B2 JP 3910628B2
Authority
JP
Japan
Prior art keywords
speech
unit
parameter
target
target parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006521338A
Other languages
English (en)
Other versions
JPWO2006134736A1 (ja
Inventor
良文 廣瀬
孝浩 釜井
弓子 加藤
夏樹 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Application granted granted Critical
Publication of JP3910628B2 publication Critical patent/JP3910628B2/ja
Publication of JPWO2006134736A1 publication Critical patent/JPWO2006134736A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/06Elementary speech units used in speech synthesisers; Concatenation rules
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、高音質で、かつ安定した音質の合成音を提供する音声合成装置に関するものである。
従来の肉声感の高い音声合成装置としては、大規模な素片DBから波形を選択して接続する波形接続方式を用いるものがあった(例えば、特許文献1参照)。図1は、波形接続型音声合成装置の典型的な構成図である。
波形接続型音声合成装置は、入力されたテキストを合成音声に変換する装置であり、言語解析部101と、韻律生成部201と、音声素片DB(データベース)202と、素片選択部104と、波形接続部203とを備えている。
言語解析部101は、入力されたテキストを言語的に解析し、発音記号およびアクセント情報を出力する。韻律生成部201は、言語解析部101より出力された発音記号およびアクセント情報に基づいて、発音記号毎に基本周波数、継続時間長、パワーなどの韻律情報を生成する。音声素片DB202は、予め収録された音声波形を保持する。素片選択部104は、韻律生成部201により生成された韻律情報に基づいて、音声素片DB202より最適な音声素片を選択する処理部である。波形接続部203は、素片選択部104により選択された音声素片を接続し、合成音声を生成する。
また、安定した音質の音声を提供する音声合成装置としては、統計モデルを学習することにより合成パラメータを生成し、音声を合成する装置も知られている(例えば、特許文献2参照)。図2は、統計モデルによる音声合成方式の一つであるHMM(隠れマルコフモデル)音声合成方式を用いた音声合成装置の構成図である。
音声合成装置は、学習部100および音声合成部200から構成される。学習部100は、音声DB202、励振源スペクトルパラメータ抽出部401、スペクトルパラメータ抽出部402およびHMMの学習部403を備えている。また、音声合成部200は、コンテキスト依存HMMファイル301、言語解析部101、HMMからのパラメータ生成部404、励振源生成部405および合成フィルタ303を備えている。
学習部100は、音声DB202に格納された音声情報よりコンテキスト依存HMMファイル301を学習させる機能をもつ。音声DB202には、あらかじめサンプルとして用意された多数の音声情報が格納されている。音声情報は、図示の例のように、音声信号に波形の各音素等の部分を識別するラベル(arayuruやnuuyooku)を付加したものである。励振源スペクトルパラメータ抽出部401およびスペクトルパラメータ抽出部402は、それぞれ音声DB202から取り出した音声信号ごとに、励振源パラメータ列およびスペクトルパラメータ列を抽出する。HMMの学習部403は、抽出された励振源パラメータ列およびスペクトルパラメータ列について、音声DB202から音声信号とともに取り出したラベルおよび時間情報を用いて、HMMの学習処理を行なう。学習されたHMMは、コンテキスト依存HMMファイル301に格納される。励振源モデルのパラメータは、多空間分布HMMを用いて学習を行う。多空間分布HMMは、パラメータベクトルの次元が、毎回、異なることを許すように拡張されたHMMであり、有声/無声フラグを含んだピッチは、このような次元が変化するパラメータ列の例である。つまり、有声時には1次元、無声時には0次元のパラメータベクトルとなる。学習部100では、この多空間分布HMMによる学習を行っている。ラベル情報とは、具体的には、例えば、以下のようなものを指し、各HMMは、これらを属性名(コンテキスト)として持つ。
・{先行、当該、後続}音素
・当該音素のアクセント句内でのモーラ位置
・{先行、当該,後続}の品詞,活用形,活用型
・{先行,当該、後続}アクセント句のモーラ長,アクセント型
・当該アクセント句の位置,前後のポーズの有無
・{先行,当該,後続}呼気段落のモーラ長
・当該呼気段落の位置
・文のモーラ長
このようなHMMは、コンテキスト依存HMMと呼ばれる。
音声合成部200は、任意の電子的なテキストから読み上げ形式の音声信号列を生成する機能をもつ。言語解析部101は、入力されたテキストを解析して、音素の配列であるラベル情報に変換する。HMMからのパラメータ生成部404は、言語解析部101より出力されるラベル情報に基づいてコンテキスト依存HMMファイル301を検索する。そして、得られたコンテキスト依存HMMを接続し、文HMMを構成する。励振源生成部405は、得られた文HMMから、さらにパラメータ生成アルゴリズムにより、励振源パラメータを生成する。また、HMMからのパラメータ生成部404は、スペクトルパラメータの列を生成する。さらに、合成フィルタ303が、合成音を生成する。
また、実音声波形と、パラメータとを組み合わせる方法としては、例えば特許文献3の方法がある。図3は、特許文献3の音声合成装置の構成を示す図である。
特許文献3の音声合成装置には音韻記号解析部1が設けられ、その出力は制御部2に接続されている。また、音声合成装置には個人情報DB10が設けられ、制御部2と互いに接続されている。さらに、音声合成装置には自然音声素片チャンネル12と合成音声素片チャンネル11とが設けられている。自然音声素片チャンネル12の内部には音声素片DB6と音声素片読み出し部5とが設けられている。合成音声素片チャンネル11の内部にも同様に音声素片DB4と音声素片読み出し部3とが設けられている。音声素片読み出し部5は音声素片DB6と互いに接続されている。音声素片読み出し部3は音声素片DB4と互いに接続されている。音声素片読み出し部3と音声素片読み出し部5との出力は混合部7の二つの入力に接続されており、混合部7の出力は振幅制御部8に入力されている。振幅制御部8の出力は出力部9に入力されている。
制御部2からは各種の制御情報が出力される。制御情報には自然音声素片インデックス、合成音声素片ンデックス、混合制御情報および振幅制御情報が含まれる。まず、自然音声素片インデックスは自然音声素片チャンネル12の音声素片読み出し部5に入力されている。合成音声素片インデックスは合成音声素片チャンネル11の音声素片読み出し部3に入力されている。混合制御情報は混合部7に入力されている。そして、振幅制御情報は振幅制御部8に入力されている。
この方法では、予め作成しておいたパラメータによる合成素片と、収録された合成素片とを混合する方法として、自然音声素片と合成音声素片の双方をCV単位(日本語の1音節に対応する一対の子音と母音の組み合わせの単位)などで時間的に比率を変更しながら混合する。よって、自然音声素片を用いた場合と比較して記憶量を削減でき、かつ、少ない計算量で、合成音を得ることができる。
特開平10−247097号公報(段落0007、図1) 特開2002−268660号公報(段落0008−0011、図1) 特開平9−62295号公報(段落0030−0031、図1)
しかしながら、前記従来の波形接続型音声合成装置(特許文献1)の構成では、音声素片DB202に予め保持されている音声素片だけしか音声合成に利用することが出来ない。つまり、韻律生成部201により生成された韻律に類似した音声素片がない場合には、韻律生成部201により生成された韻律とは、大きく異なる音声素片を選択せざるを得ない。したがって、局所的に音質が劣化するという課題を有している。また、音声素片DB202が十分に大きく構築できない場合は、上記課題が顕著に生じるという課題を有している。
一方、前記従来の統計モデルによる音声合成装置(特許文献2)の構成では、予め収録された音声DB202により統計的に学習されたHMMモデル(隠れマルコフモデル)を用いることにより、言語解析部101により出力される発音記号およびアクセント情報のコンテキストラベルに基づいて、統計的に合成パラメータを生成する。そのため、全ての音韻において安定した音質の合成音を得ることが可能である。しかし、一方で、HMMモデルによる統計的な学習を用いていることにより、個々の音声波形が保有する微細な特徴(韻律の微細な変動で合成音声の自然さに影響を及ぼすマイクロプロソディなど)が統計処理によって失われるために合成音声の肉声感は低下し、鈍った音声になるという課題を有している。
また、前記従来のパラメータ統合方法では、合成音声素片と自然音声素片の混合は、CV間の過渡期に時間的に用いていた為、全時間にわたる均一な品質を得ることが困難であり、時間的に音声の質が変化するという課題が存在する。
本発明は、前記従来の課題を解決するもので、高音質で且つ安定した音質の合成音を提供することを目的とする。
本発明に係る音声合成装置は、少なくとも発音記号を含む情報から、音声を合成することが可能なパラメータ群である目標パラメータを素片単位で生成する目標パラメータ生成部と、予め録音された音声を、前記目標パラメータと同じ形式のパラメータ群からなる音声素片として素片単位で記憶している音声素片データベースと、前記目標パラメータに対応する音声素片を前記音声素片データベースより選択する素片選択部と、音声素片ごとに、前記目標パラメータのパラメータ群および前記音声素片のパラメータ群を統合してパラメータ群を合成するパラメータ群合成部と、合成された前記パラメータ群に基づいて、合成音波形を生成する波形生成部とを備えることを特徴とする。例えば、前記コスト算出部は、前記素片選択部により選択された音声素片の部分集合と、当該音声素片の部分集合に対応する前記目標パラメータの部分集合との非類似性を示すコストを算出するターゲットコスト判定部を有していてもよい。
本構成によって、目標パラメータ生成部により生成される音質の安定したパラメータと、前記素片選択部により選択される肉声感が高く音質の高い音声素片とを組み合わせることにより、高音質かつ安定した音質の合成音を生成することができる。
また、前記パラメータ群合成部は、前記目標パラメータ生成部により生成された目標パラメータを、少なくとも1つ以上の部分集合に分割することによって得られるパラメータパターンを少なくとも1つ以上生成する目標パラメータパターン生成部と、前記目標パラメータパターン生成部により生成された前記目標パラメータの部分集合ごとに、当該部分集合に対応する音声素片を前記音声素片データベースより選択する素片選択部と、前記素片選択部により選択された音声素片の部分集合と当該音声素片の部分集合に対応する前記目標パラメータの部分集合とに基づいて、当該音声素片の部分集合を選択することによるコストを算出するコスト算出部と、前記コスト算出部によるコスト値に基づいて、前記目標パラメータの部分集合の最適な組み合わせを、素片ごとに判定する組み合わせ判定部と、前記組み合わせ判定部により判定された組み合わせに基づいて、前記素片選択部により選択された前記音声素片の部分集合を統合することによりパラメータ群を合成するパラメータ統合部とを有していてもよい。
本構成によって、前記目標パラメータパターン生成部により生成される複数のパラメータの部分集合に基づいて、前記素片選択部により選択される肉声感が高く音質の高い音声素片のパラメータの部分集合を組み合わせ判定部により適切に組み合わせている。このため、高音質かつ安定した合成音を生成することができる。
本発明の音声合成装置によれば、実音声に基づく音声素片データベースから選択した音声素片のパラメータと、統計モデルに基づく安定した音質のパラメータとを適宜混合することにより、安定でかつ高音質の合成音を得ることができる。
以下本発明の実施の形態について、図面を参照しながら説明する。
(実施の形態1)
図4は、本発明の実施の形態1における音声合成装置の構成図である。
本実施の形態の音声合成装置は、高音質と音質の安定性とを両立させた音声を合成する装置であって、言語解析部101と、目標パラメータ生成部102と、音声素片DB103と、素片選択部104と、コスト算出部105と、混合パラメータ判定部106と、パラメータ統合部107と、波形生成部108とを備えている。コスト算出部105は、ターゲットコスト判定部105aと、連続性判定部105bとを備えている。
言語解析部101は、入力されたテキストを解析し、発音記号やアクセント情報を出力する。例えば、「今日の天気は」というテキストが入力された場合、「kyo’−no/te’Nkiwa」といったような発音記号、およびアクセント情報を出力する。ここで、「’」はアクセント位置を示し、「/」はアクセント句境界を示す。
目標パラメータ生成部102は、言語解析部101により出力された発音記号やアクセント情報に基づいて、音声を合成するために必要なパラメータ群を生成する。パラメータ群を生成する方法は特に限定するものではない。例えば、特許文献2に示されているようにHMM(隠れマルコフモデル)を用いることにより、安定した音質のパラメータを生成することが可能である。
具体的には特許文献2に記載の方法を用いればよい。なおパラメータの生成方法はこれに限るものではない。
音声素片DB103は、予め収録した音声(自然音声)を分析し、再合成可能なパラメータ群として保持するデータベースである。また、保持する単位を素片と呼ぶ。素片の単位は特に限定するものではなく、音素、音節、モーラ、アクセント句などを用いればよい。本発明の実施の形態では、素片の単位として音素を用いて説明する。また、パラメータの種類は特に限定するものではないが、例えば、パワー、継続時間長、基本周波数といった音源情報と、ケプストラムなどの声道情報をパラメータ化し保持すればよい。1つの音声素片は、図5に示すように複数フレームのk次元のパラメータで表現される。図5では、素片Piは、mフレームにより構成されており、各フレームはk個のパラメータにより構成される。このようにして構成されるパラメータにより音声を再合成することが可能となる。例えば、図中、Pi1=(p11,p21,p31,…,pm1)と示されているのは、素片Piにおける1番目のパラメータのmフレームにわたる時間変化を示している。
素片選択部104は、目標パラメータ生成部102により生成された、目標パラメータに基づいて、音声素片DB103から、音声素片系列を選択する選択部である。
ターゲットコスト判定部105aは目標パラメータ生成部102により生成された目標パラメータと、素片選択部104により選択された音声素片との類似度に基づくコストを、素片単位ごとに算出する。
連続性判定部105bは、素片選択部104により選択された音声素片のパラメータの一部を、目標パラメータ生成部102により生成された目標パラメータで置き換える。そして、音声素片を接続した場合に起こる歪み、つまりパラメータの連続性を算出する。
混合パラメータ判定部106は、ターゲットコスト判定部105aと連続性判定部105bとにより算出されるコスト値に基づいて、音声合成時に使用するパラメータとして、音声素片DB103より選択したパラメータを用いるか、目標パラメータ生成部102により生成されたパラメータを用いるかを示す選択ベクトルを素片単位毎に決定する。混合パラメータ判定部106の動作は後で詳述する。
パラメータ統合部107は混合パラメータ判定部106により決定された選択ベクトルに基づいて、音声素片DB103より選択されたパラメータと目標パラメータ生成部102により生成されたパラメータとを統合する。
波形生成部108は、パラメータ統合部107により生成された合成パラメータに基づいて合成音を合成する。
上記のように構成した音声合成装置の動作について、次に詳述する。
図6は、音声合成装置の動作の流れを示すフローチャートである。言語解析部101は、入力されたテキストを言語的に解析し、発音記号およびアクセント記号を生成する(ステップS101)。目標パラメータ生成部102は、発音記号およびアクセント記号に基づいて、上述のHMM音声合成法により、再合成可能なパラメータ系列T=t1,t2,・・・,tnを生成する(nは素片数)(ステップS102)。以後、この目標パラメータ生成部102により生成されたパラメータ系列を目標パラメータと呼ぶ。
素片選択部104は、生成された目標パラメータに基づいて、音声素片DB103から目標パラメータに最も近い音声素片系列U=u1,u2,…,unを選択する(ステップS103)。以降、選択された音声素片系列を実音声パラメータと呼ぶ。選択の方法は特に限定するものではないが、例えば、特許文献1に記載の方法により選択することが可能である。
混合パラメータ判定部106は、目標パラメータと実音声パラメータとを入力とし、パラメータの次元毎にどちらのパラメータを使用するかを示す選択ベクトル系列Cを決定する(ステップS104)。選択ベクトル系列Cは、式1に示すように素片ごとの選択ベクトルCiからなる。選択ベクトルCiは、i番目の素片について、パラメータ次元毎に目標パラメータと実音声パラメータのどちらを使用するかを2値で示している。例えば、cijが0の場合には、i番目の素片のj番目のパラメータについては、目標パラメータを使用する。また、cijが1の場合には、i番目の素片のj番目のパラメータについては、音声素片DB103より選択された実音声パラメータを使用することを示している。
図7は、選択ベクトル系列Cによって、目標パラメータと、実音声パラメータとを切り分けた例である。図7には、実音声パラメータを使用する領域42、43および44と、目標パラメータを使用する領域41および45とが示されている。例えば、1番目の素片P11からPk1に着目すると、1番目のパラメータについては、目標パラメータを使用し、2番目からk番目のパラメータについては、実音声パラメータを使用することが示されている。
この選択ベクトル系列Cを適切に決定することにより、目標パラメータによる安定した音質と、実音声パラメータによる肉声感の高い高音質とを両立する高音質且つ安定した合成音を生成することが可能になる。
Figure 0003910628
次に選択ベクトル系列Cの決定方法(図6のステップS104)について説明する。混合パラメータ判定部106は、高音質で且つ安定し合成音を生成する為に、実音声パラメータが目標パラメータに類似している場合は、実音声パラメータを使用し、類似していない場合は目標パラメータを使用する。また、この時、目標パラメータとの類似度だけではなく、前後の素片との連続性を考慮する。これにより、パラメータの入替えによる不連続を軽減することが可能である。この条件を満たす選択ベクトル系列Cは、ビタビアルゴリズムを用いて探索する。
探索アルゴリズムを図8に示すフローチャートを用いて説明する。素片i=1,…,nに対して順次ステップS201からステップS205までの処理が繰り返される。
混合パラメータ判定部106は、対象となる素片に対して、選択ベクトルCiの候補hiとして、p個の候補hi,1,hi,2,…,hi,pを生成する(ステップS201)。生成する方法は特に限定するものではない。例えば、生成方法として、k次元のそれぞれのパラメータに対しての全ての組み合わせを生成しても構わない。また、より効率的に候補の生成を行うために、図9に示すように、1つ前の選択ベクトルCi-1との差分が所定の閾値以下になるような組み合わせのみを生成するようにしても構わない。また、最初の素片(i=1)に関しては、例えば、全て目標パラメータを使用するような候補を生成してもよいし(C1=(0,0,…,0))、逆に全て実音声パラメータを使用するような候補を生成するようにしてもよい(C1=(1,1,…,1))。
ターゲットコスト判定部105aは、選択ベクトルCiのp個の候補hi,1,hi,2,…,hi,pの各々について、目標パラメータ生成部102により生成された目標パラメータtiと、素片選択部104により選択された音声素片uiとの類似度に基づくコストを、式2により計算する(ステップS202)。
Figure 0003910628
ここで、ω12は、重みであり、ω1>ω2とする。重みの決定方法は特に限定するものではないが、経験に基づき決定することが可能である。また、hi,j・uiは、は、ベクトルhi,jとベクトルuiの内積であり、実音声パラメータuiのうち、選択ベクトル候補hi,jによって採用される部分パラメータ集合を示す。一方、(1−hi,j)・uiは、実音声パラメータuiのうち、選択ベクトル候補hi,jによって採用されなかった部分パラメータ集合を示す。目標パラメータtiについても同様である。関数Tcは、パラメータ間の類似度に基づくコスト値を算出する。算出方法は特に限定するものではないが、例えば、各パラメータ次元間の差分の重み付け加算により算出することが可能である。例えば、類似度が大きくなるほどコスト値が小さくなるように関数Tcが定められている。
繰り返すと、式2の1項目の関数Tcの値は、選択候補ベクトルhi,jによって採用された、実音声パラメータuiの部分パラメータ集合および目標パラメータtiの部分パラメータ集合同士の類似度に基づくコスト値を示す。式2の2項目の関数Tcの値は、選択候補ベクトルhi,jによって採用されなかった実音声パラメータuiの部分パラメータ集合、および目標パラメータtiの部分パラメータ集合同士の類似度に基づくコスト値を示している。式2はこれら2つのコスト値の重み付け和を示したものである。
連続性判定部105bは、選択ベクトル候補hi,jそれぞれについて、1つ前の選択ベクトル候補との連続性に基づくコストを式3を用いて評価する(ステップS203)。
Figure 0003910628
ここで、hi,j・ui+(1−hi,j)・uiは、選択ベクトル候補hi,jによって規定される目標パラメータ部分集合と、実音声パラメータ部分集合の組み合わせによって構成される素片iを形成するパラメータであり、hi-1,r・ui-1+(1−hi-1,r)・ui-1は、1つ前の素片i−1に対する選択ベクトル候補hi-1,rにより規定される素片i−1を形成するパラメータである。
関数Ccは、2つの素片パラメータの連続性に基づくコストを評価する関数である。すなわち、2つの素片パラメータの連続性がよい場合には、値が小さくなる関数である。算出方法は特に限定するものではないが、例えば、素片i−1の最終フレームと素片iの先頭フレームにおける各パラメータ次元の差分値の重み付け和により計算すればよい。
混合パラメータ判定部106は、図10に示すように、式4に基づいて選択ベクトル候補hi,jに対するコスト(C(hi,j))を算定し、同時に素片i−1に対する選択ベクトル候補hi-1,rのうちどの選択ベクトル候補と接続すべきかを示す接続元(B(hi,j))を決定する(ステップS204)。なお、図10では、接続元としてhi-1,3が選択されている)。
Figure 0003910628
ただし、
Figure 0003910628
は、pを変化させたときに、括弧内の値が最小となる値を示し、
Figure 0003910628
は、pを変化させたときに、括弧内の値が最小となるときのpの値を示す。
混合パラメータ判定部106は、探索の空間を削減する為に、素片iにおける選択ベクトル候補hi,jをコスト値(C(hi,j))に基づいて削減する(ステップS205)。例えば、ビームサーチを用いて、最小コスト値から所定の閾値以上大きいコスト値を持つ選択ベクトル候補を削減するようにすればよい。または、コストの小さい候補から所定の個数の候補のみを残すようにすればよい。
なお、ステップS205の枝狩り処理は、計算量を削減する為の処理であり、計算量に問題がない場合は、この処理を省いても構わない。
以上のステップS201からステップS205までの処理を素片i(i=1,…,n)について繰り返す。混合パラメータ判定部106は、最終素片i=nの時の最小コストの選択候補
Figure 0003910628
を選択し、接続元の情報を用いて順次バックトラックを
Figure 0003910628
のように行い、式5を用いて選択ベクトル系列Cを求めることが可能になる。
Figure 0003910628
このようにして得られた選択ベクトル系列Cを用いることにより、実音声パラメータが目標パラメータに類似している場合には、実音声パラメータを使用し、そうでない場合は、目標パラメータを用いることが可能となる。
パラメータ統合部107は、ステップS102で得られた目標パラメータ系列T=t1,t2,…,tnとステップS103で得られた実音声パラメータ系列U=u1,u2,…,unと、ステップS104で得られた選択ベクトル系列C=C1,C2,…,Cnを用いて、合成パラメータ系列P=p1,p2,…,pnを式6を用いて生成する(ステップS105)。
Figure 0003910628
波形生成部108は、ステップS105により生成された合成パラメータ系列P=p1,p2,…,pnを用いて合成音を合成する(ステップS106)。合成方法は特に限定するものではない。目標パラメータ生成部が生成するパラメータにより決定される合成方法を用いればよく、例えば、特許文献2の励振源生成と合成フィルタとを用いて合成音を合成するように構成すればよい。
以上のように構成した音声合成装置によれば、目標パラメータを生成する目標パラメータ生成部と、目標パラメータに基づいて実音声パラメータを選択する素片選択部と、目標パラメータと実音声パラメータとの類似度に基づいて、目標パラメータおよび実音声パラメータを切替える選択ベクトル系列Cを生成する混合パラメータ判定部とを用いることにより、実音声パラメータが目標パラメータに類似している場合には、実音声パラメータを使用し、そうでない場合は、目標パラメータを用いることが可能となる。
以上のような構成によれば、目標パラメータ生成部102が生成するパラメータの形式と、音声素片DB103が保持する素片の形式とが同一である。そのため、図7に示すように、従来の波形接続型音声合成では目標パラメータとの類似度が低い場合(すなわち、目標パラメータに近い音声素片が音声素片DB103に保持されていない場合)でも、目標パラメータに部分的に近い音声素片を選択し、その音声素片のパラメータのうち、目標パラメータと類似していないパラメータについては、目標パラメータ自体を使用することにより、実音声パラメータを使用していたことによる局所的な音声品質の劣化を防止することが可能となる。
また、同時に、従来の統計モデルによる音声合成方式では、目標パラメータに類似した素片が存在する場合においても、統計モデルにより生成されるパラメータを用いていた為、肉声感が低下していたが、実音声パラメータを使用することにより(すなわち、目標パラメータに近い音声素片を選択し、その音声素片のパラメータのうち、目標パラメータと類似するパラメータについては、音声素片のパラメータ自体を使用することにより)、肉声感が低下することなく、肉声感が高く高音質な合成音を得ることが可能となる。したがって、目標パラメータによる安定した音質と、実音声パラメータによる肉声感の高い高音質とを両立させた合成音を生成することが可能となる。
なお、本実施の形態において、選択ベクトルCiはパラメータのそれぞれの次元毎に設定するように構成したが、図11に示すように全ての次元において同じ値とすることにより、素片iについて、目標パラメータを使用するか、実音声パラメータを使用するかを選択するように構成しても良い。図11には、実音声パラメータを使用する素片の領域601および603と、目標パラメータを使用する素片の領域602および604とが一例として示されている。
1つの声質(例えば読上げ調)だけではなく、「怒り」「喜び」等といった多数の声質の合成音を生成する場合には、本発明は非常に効果的である。
なぜならば、多種多様な声質の音声データをそれぞれ十分な分量用意することは、非常にコストが掛かることから、困難である。
上記の説明ではHMMモデルと音声素片とは特に限定していなかったが、HMMモデルと音声素片とを次のように構成することにより、多数の声質の合成音を生成することが可能となる。すなわち、図12に示すように、目標パラメータ生成部102の他に目標パラメータを生成する為に文章HMM作成部302を用意し、文章HMM作成部302が参照するHMMモデル301を標準音声DBとして、通常の読み上げ音声DB1101により作成しておく。更に、文章HMM作成部302が、「怒り」「喜び」等の感情音声DB1102により、当該感情を前記HMMモデル301に適応させる。なお、文章HMM作成部302は、特殊な感情を有する音声の統計モデルを作成する統計モデル作成手段に対応する。
これにより、目標パラメータ生成部102は、感情を有する目標パラメータを生成することができる。適応させる方法は特に限定するものではなく、例えば、橘誠、外4名、”HMM音声合成におけるモデル補間・適応による発話スタイルの多様性の検討”、 信学技報 TECHNICAL REPORT OF IEICE SP2003−80(2003−08)に記載の方法により適応することが可能である。また、一方で、素片選択部104が選択する音声素片DBとして前記感情音声DB1102を用いる。
このように構成することによって、感情音声DB1102により適応されたHMM301を用いて安定した音質で、指定された感情の合成パラメータを生成でき、且つ、素片選択部104により感情音声DB1102から、感情音声素片を選択する。混合パラメータ判定部106により、HMMにより生成されたパラメータと、感情音声DB1102から選択されたパラメータとの混合を判定し、パラメータ統合部107により統合する。
従来の波形重畳型の感情を表現する音声合成装置は、十分な音声素片DBを用意しなければ、高音質な合成音を生成することが困難であった。また、従来のHMM音声合成では、モデル適応は可能であるが、統計処理であるので合成音になまり(肉声感の低下)が生じるという問題があった。しかし、上記のように感情音声DB1102をHMMモデルの適用データおよび音声素片DBとして構成することにより、適応モデルにより生成される目標パラメータによる安定した音質と、感情音声DB1102から選択される実音声パラメータによる高品質で肉声感の高い音質とを両立した合成音声を生成することが可能なる。つまり、目標パラメータに類似した実音声パラメータが選択できた場合には、従来は、統計モデルにより生成される肉声感が低いパラメータを使用していたのに対して、実音声パラメータを使用することにより、肉声感が高く、且つ自然な感情を含む音質を実現できる。一方、目標パラメータとの類似度が低い実音声パラメータが選択された場合には、従来の波形接続型音声合成方式では、局所的に音質が劣化していたのに対し、目標パラメータを使用することにより、局所的な劣化を防ぐことが可能となる。
したがって、本発明によれば、複数の声質の合成音を作成したい場合においても、それぞれの声質で大量の音声を収録することなく、かつ、統計モデルにより生成される合成音よりも肉声感の高い合成音を生成することが可能となる。
また、感情音声DB1102の変わりに、特定の人物による音声DBを用いることにより、特定の個人に適応した合成音を同様に生成することが可能である。
(実施の形態2)
図13は、本発明の実施の形態2の音声合成装置の構成図である。図13において、図4と同じ構成要素については同じ符号を用い、説明を省略する。
図13において、目標パラメータパターン生成部801は、目標パラメータ生成部102で生成された目標パラメータに基づいて、後述する目標パラメータパターンを生成する処理部である。
音声素片DB103A1〜103C2は、音声素片DB103の部分集合であり、目標パラメータパターン生成部801により生成された目標パラメータパターンそれぞれに対応したパラメータを格納する音声素片DBである。
素片選択部104A1〜104C2は、目標パラメータパターン生成部801により生成された目標パラメータパターンに最も類似した素片を音声素片DB103A1〜103C2からそれぞれ選択する処理部である。
以上のように音声合成装置を構成することにより、パラメータパターンごとに選択した音声素片のパラメータの部分集合を組み合わせることができる。これにより、単一の素片に基づいて選択した場合と比較して、目標パラメータにより類似した実音声に基づくパラメータを生成することが可能となる。
以下に、本発明の実施の形態2の音声合成装置の動作について図14のフローチャートを用いて説明する。
言語解析部101は、入力されたテキストを言語的に解析し、発音記号およびアクセント記号を生成する(ステップS101)。目標パラメータ生成部102は、発音記号およびアクセント記号に基づいて、上述のHMM音声合成法により、再合成可能なパラメータ系列T=t1,t2,・・・,tnを生成する(ステップS102)。このパラメータ系列を目標パラメータと呼ぶ。
目標パラメータパターン生成部801は、目標パラメータを図15に示すようなパラメータの部分集合に分割する(ステップS301)。分割の方法は特に限定するものではないが、例えば以下のように分割することが可能である。なお、これらの分け方は一例であり、これらに限定されるものではない。
・音源情報と声道情報
・基本周波数とスペクトル情報と揺らぎ情報
・基本周波数と音源スペクトル情報と声道スペクトル情報と音源揺らぎ情報
このようにして分割したパラメータパターンを複数用意する(図15のパターンA、パターンB、パターンC)。図15では、パターンAを、パターンA1,A2およびA3の3つの部分集合に分割している。また、同様にパターンBを、パターンB1およびB2の2つの部分集合に分割しており、パターンCを、パターンC1およびC2の2つの部分集合に分割している。
次に、素片選択部104A1〜104C2は、ステップS301で生成された複数のパラメータパターンのそれぞれについて、素片選択を行なう(ステップS103)。
ステップS103では、素片選択部104A1〜104C2は、目標パラメータパターン生成部801によって生成されたパターンの部分集合(パターンA1、A2、…、C2)毎に最適な音声素片を音声素片DB103A1〜103C2から選択し、素片候補集合列Uを作成する。各素片候補uiの選択の方法は、上記実施の形態1と同じ方法でよい。
Figure 0003910628
図13では、素片選択部および音声素片DBは複数用意されているが、物理的に用意する必要はなく、実施の形態1の音声素片DBおよび素片選択部を複数回使用するように設計しても良い。
組み合わせ判定部802は、それぞれの素片選択部(A1,A2,・・・,C2)により選択された実音声パラメータの組み合わせベクトル系列Sを決定する(ステップS302)。組み合わせベクトル系列Sは式8のように定義する。
Figure 0003910628
組み合わせベクトルの決定方法(ステップS302)について図16を用いて詳しく説明する。探索アルゴリズムを図16のフローチャートを用いて説明する。素片i(i=1,…,n)に対して、ステップS401からステップS405の処理が順次繰り返される。
組み合わせ判定部802は、対象となる素片に対して、組み合わせベクトルSiの候補hiとして、p個の候補hi,1,hi,2,…,hi,pを生成する(ステップS401)。生成する方法は特に限定するものではない。例えば図17A(a)および図17B(a)に示すように、ある一つのパターンに含まれる部分集合のみを生成しても良い。また、図17A(b)および図17B(b)に示すように、複数のパターンに属する部分集合をパラメータ同士(907と908)で、重なりが生じないように生成しても良い。また、図17A(c)および図17B(c)のパラメータ909に示すように、複数のパターンに属する部分集合をパラメータ同士で一部重なりが生じるように生成しても良い。この場合は、重なりが生じたパラメータに関しては、それぞれのパラメータの重心点を用いるようにする。また、図17A(d)および図17B(d)のパラメータ910に示すように、複数のパターンに属する部分集合をパラメータ同士を組み合わせた時に、一部パラメータが欠落した状態になるように生成しても良い。この場合は、欠落したパラメータに関しては、目標パラメータ生成部によって生成された目標パラメータで代用する。
ターゲットコスト判定部105aは、選択ベクトルSiの候補hi,1,hi,2,…,hi,pと、素片iの目標パラメータtiとの類似度に基づくコストを式9により計算する(ステップS402)。
Figure 0003910628
ここで、ω1は、重みである。重みの決定方法は特に限定するものではないが、経験に基づき決定することが可能である。また、hij・Uiは、ベクトルhi,jとベクトルUiの内積であり、組み合わせベクトルhijによって決定される各素片候補の部分集合を示す。関数Tcは、パラメータ間の類似度に基づくコスト値を算出する。算出方法は特に限定するものではないが、例えば、各パラメータ次元間の差分の重み付け加算により算出することが可能である。
連続性判定部105bは、選択ベクトル候補hijそれぞれについて、1つ前の選択ベクトル候補との連続性に基づくコストを式10を用いて評価する(ステップS403)。
Figure 0003910628
関数Ccは、2つの素片パラメータの連続性に基づくコストを評価する関数である。算出方法は特に限定するものではないが、例えば、素片i−1の最終フレームと素片iの先頭フレームにおける各パラメータ次元の差分値の重み付け和により計算すればよい。
組み合わせ判定部802は、選択ベクトル候補hijに対するコスト(C(hij))を算定し、同時に素片i−1に対する選択ベクトル候補hi-1、rのうちどの選択ベクトル候補と接続すべきかを示す接続元(B(hij))を式11に基づいて決定する(ステップS404)。
Figure 0003910628
組み合わせ判定部802は、探索の空間を削減する為に、素片iにおける選択ベクトル候補hijをコスト値(C(hij))に基づいて削減する(ステップS405)。例えば、ビームサーチを用いて、最小コスト値から所定の閾値以上大きいコスト値を持つ選択ベクトル候補を削減するようにすればよい。または、コストの小さい候補から所定の個数の候補のみを残すようにすればよい。
なお、ステップS405の枝狩り処理は、計算量を削減する為のステップであり、計算量に問題がない場合は、処理を省いても構わない。
以上のステップS401からステップS405までの処理を素片i(i=1,…,n)について繰り返す。組み合わせ判定部802は、最終素片i=nの時の最小コストの選択候補
Figure 0003910628
を選択する。以降は、接続元の情報を用いて順次バックトラックを
Figure 0003910628
のように行い、式12により組み合わせベクトル系列Sを求めることが可能になる。
Figure 0003910628
パラメータ統合部107は、組み合わせ判定部802により決定された組み合わせベクトルに基づいて、各素片選択部(A1,A2,・・・,C2)により選択された素片のパラメータを式13を用いて統合する(ステップS105)。図18は、統合の例を示す図である。この例では、素片1の組み合わせベクトルS1=(A1,0,0,0,0,0,C2)であり、パターンAによるA1と、パターンCによるC2の組み合わせが選択されている。これにより、パターンA1により選択された素片1501と、パターンC2により選択された素片1502を組み合わせて素片1のパラメータとしている。以下、S2,…,Snまで繰り返すことにより、パラメータ系列を得ることが可能である。
Figure 0003910628
波形生成部108は、パラメータ統合部107により生成された合成パラメータに基づいて合成音を合成する(ステップS106)。合成方法は特に限定するものではない。
以上のように構成した音声合成装置によれば、目標パラメータ生成部が生成する目標パラメータに近いパラメータ系列を、複数の実音声素片の部分集合である実音声パラメータを組み合わせる。これによって、図18に示すように、従来の波形接続型音声合成方式では目標パラメータとの類似度が低い実音声パラメータが選択された場合には、局所的に音質が劣化していたの対し、目標パラメータとの類似度が低い場合には、複数のパラメータ集合ごとに選択された複数の実音声素片の実音声パラメータを組み合わせることにより、目標パラメータに類似した実音声パラメータを合成することが可能となる。これにより安定して目標パラメータに近い素片を選択することが可能となり、かつ実音声素片を用いている為、高音質となる。つまり、高音質と安定性の双方を両立させた合成音を生成することが可能となる。
特に、素片DBが十分に大きくない場合においても、音質と安定性を両立した合成音を得ることが可能となる。なお、本実施の形態において、1つの声質(例えば読上げ調)だけではなく、「怒り」「喜び」等といった多数の声質の合成音を生成する場合には、図12に示すように、目標パラメータ生成部102が目標パラメータを生成する為に文章HMM作成部302を用意し、文章HMM作成部302が参照するHMMモデルを標準音声DBとして、通常の読み上げ音声DB1101により作成しておく。更に、「怒り」「喜び」等の感情音声DB1102により、前記HMMモデル301を適応する。適応する方法は特に限定するものではなく、例えば、「橘誠外4名、”HMM音声合成におけるモデル補間・適応による発話スタイルの多様性の検討”、 信学技報 TECHNICAL REPORT OF IEICE SP2003−80(2003−08)」に記載の方法により適応することが可能である。また、一方で、素片選択部104が選択する音声素片DBとして前記感情音声DB1102を用いる。
このように構成することによって、感情音声DB1102により適応されたHMM301を用いて安定した音質で、指定された感情の合成パラメータを生成でき、且つ、素片選択部104により感情音声DB1102から、感情音声素片を選択する。混合パラメータ判定部により、HMMにより生成されたパラメータと、感情音声DB1102から選択されたパラメータとの混合を判定し、パラメータ統合部107により統合する。これにより、従来の感情を表現する音声合成装置は、十分な音声素片DBを用意しなければ、高音質な合成音を生成することが困難であったのに対し、感情音声DB1102を音声素片DBとして用いた場合においても、複数のパラメータ集合ごとに選択された複数の実音声素片の実音声パラメータを組み合わせる。これにより目標パラメータに類似した実音声パラメータに基づくパラメータにより高品質な音質とを両立した合成音声を生成することが可能なる。
また、感情音声DB1102の変わりに、別人による音声DBを用いることにより、個人に適応した合成音を同様に生成することが可能である。
また、言語解析部101は必ずしも必須の構成要件ではなく、言語解析された結果である発音記号やアクセント情報等が音声合成装置に入力されるような構成であっても構わない。
なお、本実施の形態1および2に示した音声合成装置をLSI(集積回路)で実現することも可能である。
例えば、実施の形態1に係る音声合成装置をLSI(集積回路)で実現すると、言語解析部101、目標パラメータ生成部102、素片選択部104、コスト算出部105、混合パラメータ判定部106、パラメータ統合部107、波形生成部108のすべてを1つのLSIで実現することができる。または、各処理部を1つのLSIで実現することもできる。さらに、各処理部を複数のLSIで構成することもできる。音声素片DB103は、LSIの外部の記憶装置により実現してもよいし、LSIの内部に備えられたメモリにより実現してもよい。LDIの外部の記憶装置により音声素片DB103を実現する場合には、インターネット経由で音声素片DB103に記憶されている音声素片を取得しても良い。
ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
また、集積回路化の手法はLSIに限られるものではなく、専用回路または汎用プロセサにより実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用しても良い。
さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて音声合成装置を構成する処理部の集積化を行ってもよい。バイオ技術の適応等が可能性としてありえる。
また、本実施の形態1および2に示した音声合成装置をコンピュータで実現することも可能である。図19は、コンピュータの構成の一例を示す図である。コンピュータ1200は、入力部1202と、メモリ1204と、CPU1206と、記憶部1208と、出力部1210とを備えている。入力部1202は、外部からの入力データを受け付ける処理部であり、キーボード、マウス、音声入力装置、通信I/F部等から構成される。メモリ1204は、プログラムやデータを一時的に保持する記憶装置である。CPU1206は、プログラムを実行する処理部である。記憶部1208は、プログラムやデータを記憶する装置であり、ハードディスク等からなる。出力部1210は、外部にデータを出力する処理部であり、モニタやスピーカ等からなる。
例えば、実施の形態1に係る音声合成装置をコンピュータ1200で実現した場合には、言語解析部101、目標パラメータ生成部102、素片選択部104、コスト算出部105、混合パラメータ判定部106、パラメータ統合部107、波形生成部108は、CPU1206上で実行されるプログラムに対応し、音声素片DB103は、記憶部1208に記憶される。また、CPU1206で計算された結果は、メモリ1204や記憶部1208に一旦記憶される。メモリ1204や記憶部1208は、言語解析部101等の各処理部とのデータの受け渡しに利用されてもよい。また、音声合成装置をコンピュータに実行させるためのプログラムは、フロッピー(登録商標)ディスク、CD−ROM、DVD−ROM、不揮発性メモリ等に記憶されていてもよいし、インターネットを経由してコンピュータ1200のCPU1206に読み込まれてもよい。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
本発明にかかる音声合成装置は、実音声による高音質の特徴と、モデルベース合成の安定性を有し、カーナビゲーションシステムや、ディジタル家電のインタフェース等として有用である。また、音声DBを用いてモデル適応を行うことにより声質を変更が可能な音声合成装置等の用途にも応用できる。
図1は、従来の波形接続型音声合成装置の構成図である。 図2は、従来の統計モデルに基づく音声合成装置の構成図である。 図3は、従来のパラメータ統合方法の構成図である。 図4は、本発明の実施の形態1における音声合成装置の構成図である。 図5は、音声素片の説明図である。 図6は、本発明の実施の形態1のフローチャートである。 図7は、パラメータ混合結果の説明図である。 図8は、混合パラメータ判定部のフローチャートである。 図9は、組み合わせベクトル候補生成の説明図である。 図10は、ビタビアルゴリズムの説明図である。 図11は、混合ベクトルをスカラー値にした場合のパラメータ混合結果を示す図である。 図12は、声質変換を行う場合の説明図である。 図13は、本発明の実施の形態2における音声合成装置の構成図である。 図14は、本発明の実施の形態2のフローチャートである。 図15は、目標パラメータパターン生成部の説明図である。 図16は、組み合わせベクトル判定部のフローチャートである。 図17Aは、選択ベクトル候補生成の説明図である。 図17Bは、選択ベクトル候補生成の説明図である。 図18は、組み合わせ結果の説明図である。 図19は、コンピュータの構成の一例を示す図である。
符号の説明
1 音韻記号列解析部
2 制御部
3 音声素片読み出し部
4 音声素片DB
5 音声素片読み出し部
6 音声素片DB
7 混合部
8 振幅制御部
9 出力部
10 個人情報DB
11 合成音声素片チャンネル
12 自然音清素片チャンネル
41 目標パラメータを使用する領域
42 実音声パラメータを使用する領域
43 実音声パラメータを使用する領域
44 実音声パラメータを使用する領域
45 目標パラメータを使用する領域
100 学習部
200 音声合成部
101 言語解析部
102 目標パラメータ生成部
103 音声素片DB
104 素片選択部
105 コスト算出部
105a ターゲットコスト判定部
105b 連続性コスト判定部
106 混合パラメータ判定部
107 パラメータ統合部
108 波形生成部
201 韻律生成部
202 音声素片DB
203 波形接続部
301 コンテキスト依存HMMファイル
302 文章HMM作成部
303 合成フィルタ
401 励振源スペクトルパラメータ抽出部
402 スペクトルパラメータ抽出部
403 HMMの学習部
404 HMMからのパラメータ生成部
405 励振源生成部
601 実音声パラメータを使用する素片の領域
602 目標パラメータを使用する素片の領域
603 実音声パラメータを使用する素片の領域
604 目標パラメータを使用する素片の領域
801 目標パラメータパターン生成部
802 組み合わせ判定部
1101 標準音声DB
1102 感情音声DB
1501 パターンA1により選択された素片
1502 パターンC2により選択された素片

Claims (10)

  1. 少なくとも発音記号を含む情報から、音声を合成することが可能なパラメータ群である目標パラメータを素片単位で生成する目標パラメータ生成部と、
    予め録音された音声を、前記目標パラメータと同じ形式のパラメータ群からなる音声素片として素片単位で記憶している音声素片データベースと、
    前記目標パラメータに類似するパラメータ群を有する音声素片を前記音声素片データベースより選択する素片選択部と、
    素片単位で、前記目標パラメータと前記音声素片との類似性を次元ごとに求め、次元ごとに前記類似性に基づいて、前記目標パラメータが前記音声素片に類似していると判断される場合には前記音声素片を選択し、前記目標パラメータが前記音声素片に類似していないと判断される場合には前記目標パラメータを選択することにより、前記目標パラメータのパラメータ群および前記音声素片のパラメータ群を統合してパラメータ群を合成するパラメータ群合成部と、
    合成された前記パラメータ群に基づいて、合成音波形を生成する波形生成部とを備える
    ことを特徴とする音声合成装置。
  2. 前記パラメータ群合成部は、
    前記素片選択部により選択された音声素片の部分集合と当該音声素片の部分集合に対応する前記目標パラメータの部分集合とに基づいて、前記目標パラメータと前記音声素片との非類似性を示すコストを算出するコスト算出部と、
    前記コスト算出部により算出されたコストに基づいて、前記目標パラメータが前記音声素片に類似していると判断される場合には前記音声素片を選択し、前記目標パラメータが前記音声素片に類似していないと判断される場合には前記目標パラメータを選択することにより、前記目標パラメータと前記音声素片との最適なパラメータの組み合わせを、素片単位で判定する混合パラメータ判定部と、
    前記混合パラメータ判定部により判定された組み合わせに基づいて、前記目標パラメータと前記音声素片とを統合することによりパラメータ群を合成するパラメータ統合部とを有する
    ことを特徴とする請求項1に記載の音声合成装置。
  3. 前記コスト算出部は、
    前記素片選択部により選択された音声素片の部分集合と当該音声素片の部分集合に対応する前記目標パラメータの部分集合との非類似性を示すコストを算出するターゲットコスト判定部を有する
    ことを特徴とする請求項2に記載の音声合成装置。
  4. 前記コスト算出部は、さらに、
    前記素片選択部により選択された音声素片の部分集合を当該音声素片の部分集合に対応する前記目標パラメータの部分集合に置き換えた音声素片に基づいて、時間的に連続する音声素片同士の不連続性を示すコストを算出する連続性判定部を有し、
    前記混合パラメータ判定部は、前記ターゲットコスト判定部で算出された前記非類似性を示すコストと前記連続性判定部で算出された前記不連続性を示すコストとの和が最小となるような前記目標パラメータと前記音声素片との最適なパラメータの組み合わせを、ビタビアルゴリズムを用いて求める
    ことを特徴とする請求項3に記載の音声合成装置。
  5. 前記音声素片データベースは、
    標準的な感情を有する音声素片を記憶している標準音声データベースと、
    特殊な感情を有する音声素片を記憶している感情音声データベースとを有し、
    前記音声合成装置は、さらに、前記標準的な感情を有する音声素片および前記特殊な感情を有する音声素片に基づいて、特殊な感情を有する音声の統計モデルを作成する統計モデル作成手段を備え、
    前記目標パラメータ生成部は、前記特殊な感情を有する音声の統計モデルに基づいて、目標パラメータを素片単位で生成し、
    前記素片選択部は、前記目標パラメータに類似するパラメータ群を有する音声素片を前記感情音声データベースより選択する
    ことを特徴とする請求項1に記載の音声合成装置。
  6. 前記音声合成装置は、さらに、前記目標パラメータ生成部により生成された目標パラメータを、少なくとも1つ以上の部分集合に分割することによって得られるパラメータパターンを少なくとも1つ以上生成する目標パラメータパターン生成部を備え、
    前記素片選択部は、前記目標パラメータパターン生成部により生成された前記目標パラメータの部分集合ごとに、当該部分集合に類似するパラメータ群を有する音声素片を前記音声素片データベースより選択し、
    前記パラメータ群合成部は、
    前記素片選択部により選択された音声素片の部分集合と当該音声素片の部分集合に対応する前記目標パラメータの部分集合とに基づいて、前記目標パラメータと前記音声素片との非類似性を示すコストを算出するコスト算出部と、
    前記コスト算出部により算出されたコストに基づいて、前記目標パラメータが前記音声素片に類似していると判断される場合には前記音声素片を選択し、前記目標パラメータが前記音声素片に類似していないと判断される場合には前記目標パラメータを選択することにより、前記目標パラメータの部分集合の最適な組み合わせを、素片ごとに判定する組み合わせ判定部と、
    前記組み合わせ判定部により判定された組み合わせに基づいて、前記素片選択部により選択された前記音声素片の部分集合を統合することによりパラメータ群を合成するパラメータ統合部とを有する
    ことを特徴とする請求項1に記載の音声合成装置。
  7. 前記組み合わせ判定部は、前記音声素片の部分集合を組み合わせる際に、部分集合同士に重なりが生じる場合には、重なりが生じたパラメータに関しては平均値を当該パラメータの値として、最適な組み合わせを判定する
    ことを特徴とする請求項6に記載の音声合成装置。
  8. 前記組み合わせ判定部は、前記音声素片の部分集合を組み合わせる際に、パラメータの欠落が生じる場合には、欠落したパラメータを目標パラメータにより代用して、最適な組み合わせを判定する
    ことを特徴とする請求項6に記載の音声合成装置。
  9. 目標パラメータ生成部と、素片選択部と、パラメータ群合成部と、波形生成部とを備える音声合成装置による音声合成方法であって、
    目標パラメータ生成部が、少なくとも発音記号を含む情報から、音声を合成することが可能なパラメータ群である目標パラメータを素片単位で生成するステップと、
    素片選択部が、前記目標パラメータに類似するパラメータ群を有する音声素片を、予め録音された音声を前記目標パラメータと同じ形式のパラメータ群からなる音声素片として素片単位で記憶している音声素片データベースより選択するステップと、
    パラメータ群合成部が、素片単位で、前記目標パラメータと前記音声素片との類似性を次元ごとに求め、次元ごとに前記類似性に基づいて、前記目標パラメータが前記音声素片に類似していると判断される場合には前記音声素片を選択し、前記目標パラメータが前記音声素片に類似していないと判断される場合には前記目標パラメータを選択することにより、前記目標パラメータのパラメータ群および前記音声素片のパラメータ群を統合してパラメータ群を合成するステップと、
    波形生成部が、合成された前記パラメータ群に基づいて、合成音波形を生成するステップとを含む
    ことを特徴とする音声合成方法。
  10. 少なくとも発音記号を含む情報から、音声を合成することが可能なパラメータ群である目標パラメータを素片単位で生成するステップと、
    前記目標パラメータに類似するパラメータ群を有する音声素片を、予め録音された音声を前記目標パラメータと同じ形式のパラメータ群からなる音声素片として素片単位で記憶している音声素片データベースより選択するステップと、
    素片単位で、前記目標パラメータと前記音声素片との類似性を次元ごとに求め、次元ごとに前記類似性に基づいて、前記目標パラメータが前記音声素片に類似していると判断される場合には前記音声素片を選択し、前記目標パラメータが前記音声素片に類似していないと判断される場合には前記目標パラメータを選択することにより、前記目標パラメータのパラメータ群および前記音声素片のパラメータ群を統合してパラメータ群を合成するステップと、
    合成された前記パラメータ群に基づいて、合成音波形を生成するステップとをコンピュータに実行させる
    ことを特徴とするプログラム。
JP2006521338A 2005-06-16 2006-05-09 音声合成装置、音声合成方法およびプログラム Expired - Fee Related JP3910628B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005176974 2005-06-16
JP2005176974 2005-06-16
PCT/JP2006/309288 WO2006134736A1 (ja) 2005-06-16 2006-05-09 音声合成装置、音声合成方法およびプログラム

Publications (2)

Publication Number Publication Date
JP3910628B2 true JP3910628B2 (ja) 2007-04-25
JPWO2006134736A1 JPWO2006134736A1 (ja) 2009-01-08

Family

ID=37532103

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006521338A Expired - Fee Related JP3910628B2 (ja) 2005-06-16 2006-05-09 音声合成装置、音声合成方法およびプログラム

Country Status (3)

Country Link
US (1) US7454343B2 (ja)
JP (1) JP3910628B2 (ja)
WO (1) WO2006134736A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080027725A1 (en) * 2006-07-26 2008-01-31 Microsoft Corporation Automatic Accent Detection With Limited Manually Labeled Data
JP4878538B2 (ja) * 2006-10-24 2012-02-15 株式会社日立製作所 音声合成装置
JP4773988B2 (ja) * 2007-02-06 2011-09-14 日本電信電話株式会社 ハイブリッド型音声合成方法、及びその装置とそのプログラムと、その記憶媒体
CN101578659B (zh) * 2007-05-14 2012-01-18 松下电器产业株式会社 音质转换装置及音质转换方法
JP5238205B2 (ja) * 2007-09-07 2013-07-17 ニュアンス コミュニケーションズ,インコーポレイテッド 音声合成システム、プログラム及び方法
US8301447B2 (en) * 2008-10-10 2012-10-30 Avaya Inc. Associating source information with phonetic indices
CN101727904B (zh) * 2008-10-31 2013-04-24 国际商业机器公司 语音翻译方法和装置
GB0920480D0 (en) * 2009-11-24 2010-01-06 Yu Kai Speech processing and learning
WO2011080597A1 (en) * 2010-01-04 2011-07-07 Kabushiki Kaisha Toshiba Method and apparatus for synthesizing a speech with information
US8781835B2 (en) * 2010-04-30 2014-07-15 Nokia Corporation Methods and apparatuses for facilitating speech synthesis
US9564120B2 (en) * 2010-05-14 2017-02-07 General Motors Llc Speech adaptation in speech synthesis
US8731932B2 (en) * 2010-08-06 2014-05-20 At&T Intellectual Property I, L.P. System and method for synthetic voice generation and modification
US9570066B2 (en) * 2012-07-16 2017-02-14 General Motors Llc Sender-responsive text-to-speech processing
KR20160058470A (ko) * 2014-11-17 2016-05-25 삼성전자주식회사 음성 합성 장치 및 그 제어 방법
JP6821970B2 (ja) 2016-06-30 2021-01-27 ヤマハ株式会社 音声合成装置および音声合成方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0561498A (ja) * 1991-06-25 1993-03-12 Ricoh Co Ltd 音声出力装置
JPH0516498A (ja) 1991-07-17 1993-01-26 Nec Corp 印字異常診断機能付プリンタ装置
JP3060276B2 (ja) * 1994-08-19 2000-07-10 富士通株式会社 音声合成装置
JP2987089B2 (ja) 1995-08-30 1999-12-06 松下電器産業株式会社 音声素片作成方法および音声合成方法とその装置
JP3091426B2 (ja) 1997-03-04 2000-09-25 株式会社エイ・ティ・アール音声翻訳通信研究所 自然発話音声波形信号接続型音声合成装置
WO2000030069A2 (en) * 1998-11-13 2000-05-25 Lernout & Hauspie Speech Products N.V. Speech synthesis using concatenation of speech waveforms
JP4056647B2 (ja) * 1998-12-16 2008-03-05 トヨタ自動車株式会社 波形接続型音声合成装置および方法
JP2002268660A (ja) 2001-03-13 2002-09-20 Japan Science & Technology Corp テキスト音声合成方法および装置
JP2003295880A (ja) * 2002-03-28 2003-10-15 Fujitsu Ltd 録音音声と合成音声を接続する音声合成システム

Also Published As

Publication number Publication date
JPWO2006134736A1 (ja) 2009-01-08
US7454343B2 (en) 2008-11-18
WO2006134736A1 (ja) 2006-12-21
US20070203702A1 (en) 2007-08-30

Similar Documents

Publication Publication Date Title
JP3910628B2 (ja) 音声合成装置、音声合成方法およびプログラム
US7603278B2 (en) Segment set creating method and apparatus
JP4551803B2 (ja) 音声合成装置及びそのプログラム
US20200410981A1 (en) Text-to-speech (tts) processing
US11763797B2 (en) Text-to-speech (TTS) processing
JP2007249212A (ja) テキスト音声合成のための方法、コンピュータプログラム及びプロセッサ
JP5929909B2 (ja) 韻律生成装置、音声合成装置、韻律生成方法および韻律生成プログラム
Bettayeb et al. Speech synthesis system for the holy quran recitation.
JP2014062970A (ja) 音声合成方法、装置、及びプログラム
JP5574344B2 (ja) 1モデル音声認識合成に基づく音声合成装置、音声合成方法および音声合成プログラム
JP3346671B2 (ja) 音声素片選択方法および音声合成装置
JP5874639B2 (ja) 音声合成装置、音声合成方法及び音声合成プログラム
JP2011197542A (ja) 韻律パターン生成装置
JP2004354644A (ja) 音声合成方法及びその装置並びにそのコンピュータプログラム及びそれを記憶した情報記憶媒体
EP1589524B1 (en) Method and device for speech synthesis
JP4414864B2 (ja) 録音編集・テキスト音声合成併用型音声合成装置、録音編集・テキスト音声合成併用型音声合成プログラム、記録媒体
JP3571925B2 (ja) 音声情報処理装置
Dong et al. A Unit Selection-based Speech Synthesis Approach for Mandarin Chinese.
JP2006084854A (ja) 音声合成装置、音声合成方法および音声合成プログラム
EP1640968A1 (en) Method and device for speech synthesis
JP2005292433A (ja) 音声合成装置、音声合成方法および音声合成プログラム
Gu et al. Combining HMM spectrum models and ANN prosody models for speech synthesis of syllable prominent languages
Demenko et al. The design of polish speech corpus for unit selection speech synthesis
Nitisaroj et al. The Lessac Technologies system for Blizzard Challenge 2010
Demenko et al. Implementation of Polish speech synthesis for the BOSS system

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070124

R150 Certificate of patent or registration of utility model

Ref document number: 3910628

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100202

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110202

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120202

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130202

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130202

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140202

Year of fee payment: 7

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees