JPH1165597A - 音声合成装置、音声合成及びcg合成出力装置、ならびに対話装置 - Google Patents
音声合成装置、音声合成及びcg合成出力装置、ならびに対話装置Info
- Publication number
- JPH1165597A JPH1165597A JP9228029A JP22802997A JPH1165597A JP H1165597 A JPH1165597 A JP H1165597A JP 9228029 A JP9228029 A JP 9228029A JP 22802997 A JP22802997 A JP 22802997A JP H1165597 A JPH1165597 A JP H1165597A
- Authority
- JP
- Japan
- Prior art keywords
- rhythm
- voice
- speech
- synthesized
- pitch
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
成音声や自然な動きをするCG画像を出力する音声合成
装置、音声合成及びCG合成出力装置、ならびに対話装
置を提供する。 【解決手段】 音声合成装置を図示する。言語処理手段
31では音声合成出力される合成文章が生成される。合
成文章は、韻律処理手段32で発音情報を加えた音韻記
号列に変換され、リズム生成手段33に送られる。リズ
ム生成手段33ではアクセント型によるピッチパターン
を記憶したピッチパターンデータベース部34から、音
声合成の対象となる文節に対応したピッチパターンを検
索し、得られたピッチパターンを制御してリズムを生成
する。また音声合成及びCG合成出力装置(図示せず)
では、CGを音声に同期させて制御するCG制御手段を
付加する。さらに対話装置(図示せず)では、ユーザの
リズムを検出して検出情報をリズム生成に用いるための
リズム検出手段を付加する。
Description
タが音声あるいは仕草などを通じて対話する音声合成装
置、音声合成及びCG合成出力装置、ならびに対話装置
に関する。
ーフェースとしては、音声で応答する音声合成装置が考
えられてきた。これは、人間が発する音声を認識し、そ
れに応じてシステムの内部状態を変化させ、あらかじめ
決められた音声出力をし、人間との対話を実現しようと
したものである。また、コンピュータとの対話をより円
滑にするために、入力音声に対してアニメーション等が
応答する出力合成装置(本願の音声合成及びCG合成出
力装置に相当)が提案されている。
声を合成する際、音素の継続時間長などの韻律制御規則
の良否が合成される音声の自然性に影響を及ぼす。たと
えば、電子通信学会論文誌Vol.J67−A,No.
7(1984)では、音素が固有に持つ平均的な継続時
間長に、種々の条件を考慮した伸縮を施すことによっ
て、音素の継続時間長を決定する手法が説明されてい
る。また、特開昭61−32096号公報では、標準的
な発話テンポにおける各音素の継続時間長を、子音、母
音とで異なる割合を用いて伸縮する方法が述べられてい
る。さらに、特開平3−89299号公報では、発話テ
ンポごとに異なる定数テーブルを用いて、音素の継続時
間長を決定する方法が述べられている。しかし、上述し
た音声合成方法および装置では、音素のリズムを制御の
単位として継続時間長を変更することによって、合成音
声のリズムや発話テンポの制御を行っているが、実際の
発話でのリズムの制御は音素を単位として行われている
わけではないため、不自然なリズムとなることがあっ
た。
すべき文を母音−子音−母音連鎖に分解し、各連鎖の通
常発話テンポでの先行母音の中心から後続母音の中心ま
での継続時間長をリズムの単位として算出し、発話テン
ポに応じて各母音中心間長を伸縮する方法が述べられて
いる。しかし、イントネーションがおかしくなるなど、
不自然性が問題になっていた。
を解決するためになされたもので、リズム単位を、コン
ピュータが出力する発話の開始点や下降ピッチの開始点
あるいはCG人物の手の振りや頭の振りの周期的な長さ
とし、これら特徴量が相補的、等時間的に出現するよう
に制御することによって、実際の発話に近い、自然な音
韻継続時間長やポーズ長をもった合成音声や自然な動き
をするCG画像を出力することの可能な音声合成装置、
音声合成及びCG合成出力装置、ならびに対話装置を提
供することを目的としてなされたものである。
を合成する合成文章を生成する言語処理手段と、該言語
処理手段で生成した合成文章にアクセント、ポーズ、及
び母音の無声音化情報を含む発音情報を加えて音韻記号
列を生成する韻律処理手段と、音声におけるアクセント
型により分類したピッチパターンをデータベースとして
記憶したピッチパターンデータベース部と、前記韻律処
理手段で得られた音韻記号列に含まれる文節のそれぞれ
に対応したピッチパターンを前記ピッチパターンデータ
ベース部から検索し、得られたピッチパターンの制御を
行って合成音声のリズムを生成するリズム生成手段とを
備え、該リズム生成手段の出力に基づいて音声を合成す
ることを特徴とし、自然音声に近いピッチパターンを得
ることができるようになり、その結果、合成音声の自然
性が向上するようにしたものである。
て、前記ピッチパターンの制御として、前記ピッチパタ
ーンの所定の特徴量が等時間的に出力されるように音韻
継続時間長及びポーズ長の制御を行うことを特徴とし、
リズミカルな合成音声が得られるようにしたものであ
る。
て、前記所定の特徴量として合成する音声の開始点およ
び下降ピッチ開始点を用いることを特徴とし、よりリズ
ミカルな合成音声を得るための具体的なリズム生成手段
が提供できるようにしたものである。
れか1の発明において、前記リズム生成手段は、生成す
るリズムの周期にゆらぎを持たせることを特徴とし、機
械的でない、より自然なリズムを生成することが可能に
なるようにしたものである。
れか1の発明において、前記リズム生成手段は、合成す
る音声の内容に応じて生成するリズムを変調させる機能
を有することを特徴とし、コンピュータの音声に感情を
持たせることができ、より親しみやすい合成音声を作り
出すことができるようにしたものである。
れか1記載の音声合成装置に、CG人物が合成音声に同
期をとって動作するようにCGを制御するCG制御手段
を設け、該CG制御手段の出力に基づいて、合成CGを
合成音声とともに出力することを特徴とし、自然なCG
人物の動きが得られるようにしたものである。
れか1記載の音成合成装置に、ユーザの発話を入力する
入力手段と、該入力手段から入力されたユーザの発話の
リズムを検出するリズム検出手段とを設け、該リズム検
出手段における検出結果を用いて、前記ピッチパターン
の制御を行うことを特徴とし、ユーザとコンピュータの
リズムが協調し、リズム感のある対話が実現するように
したものである。
成及びCG合成出力装置に、ユーザの発話及び動きを入
力する入力手段と、該入力手段から入力されたユーザの
発話及び動きのリズムを検出するリズム検出手段とを設
け、該リズム検出手段における検出結果を用いて、前記
ピッチパターンの制御を行うことを特徴とし、ユーザと
コンピュータのリズムが協調し、リズム感のある対話が
実現するようにしたものである。
明において、ユーザから発生される音声パワー、音声ピ
ッチ、および手の動きの動作モードのうち、少なくとも
一つの動作モードについて該動作モードの動作状態を認
識し、認識結果から前記発話のリズムまたは前記発話及
び動きのリズムを検出することを特徴とし、ユーザとコ
ンピュータのリズムが協調し、リズム感のある対話を実
現するためのユーザのリズムをより正確に検出すること
ができるようにしたものである。
ずれか1記載の音声合成装置を機能させるためのプログ
ラムを記録したコンピュータ読み取り可能な記録媒体と
したものである。
合成及びCG合成出力装置を機能させるためのプログラ
ムを記録したコンピュータ読み取り可能な記録媒体とし
たものである。
ずれか1記載の対話装置を機能させるためのプログラム
を記録したコンピュータ読み取り可能な記録媒体とした
ものである。
するためのブロック図で、音声合成装置の基本構成例を
示すものである。以下、図1に示す基本構成に従う本発
明の実施形態を説明する。入力部10に入力されたユー
ザの音声は、解析部20で解析され、応答生成部30に
入力される。応答生成部30では、コンピュータにより
音声合成出力される合成文章が言語処理手段31で生成
され、韻律処理手段32に送られる。韻律処理手段32
では、送られた合成文章が音声合成処理に必要なアクセ
ントの情報,ポーズ,母音の無声音化などの発音情報を
加えた音韻記号列に変換され、リズム生成手段33に送
られる。リズム生成手段33は、アクセント型によるピ
ッチパターンを記憶したピッチパターンデータベース3
4を備え、音声合成の対象となる文節に対応したピッチ
パターンをピッチパターンデータベース34から検索
し、得られたピッチパターンを制御し、リズムを生成し
て出力部40より出力する。図2(A)に言語処理手段
31で生成される合成文章の例を、また、図2(B)に
韻律処理手段32で生成される音韻記号列の例を示す。
33およびピッチパターンデータベース34について説
明する。ピッチパターンデータベース34においては、
予め自然発声のピッチを分析しておいて、これに正規化
を施してピッチパターンとしてデータベース化してあ
る。
ベースの例を示す図である。ここで、アクセント型N
は、アクセント核の位置を表す。アクセントとは、アク
セントがついた際に、周波数が下降する直前(下降ピッ
チ開始点)のモーラである。つまり、1型とは、アクセ
ント核が第1モーラであること、2型とは、アクセント
核が第2モーラであること、3型とは、アクセント核が
第3モーラであること、0型とは、アクセント核がない
ことを示す。なお、図3には、4モーラの例を示した
が、1つのアクセント型Nについて、モーラ数Mの異な
るパターンが存在する。
数記憶された正規化ピッチパターンから、合成しようと
している文節のモーラ数およびアクセント型で決まる1
つのピッチパターンを検索する。人間同士の対話の解析
において、スムーズな対話では、発話の開始点や発話の
下降ピッチ,手の振りが相補的に、ほぼ等時間的に出現
することがわかっている。そこで、リズム生成手段33
は、これら特徴量が相補的に、等時間的に生起するよう
制御する。以下では、ピッチパターンデータベース34
から検索により取り出したピッチパターンに対して、発
話開始点とアクセント核(下降ピッチ開始点)の出現間
隔が相補的,等時間的になるよう、音韻継続時間長やポ
ーズ長を伸縮することにより、リズムを生成する例につ
いて説明する。
帳は、ペンで入力するだけで簡単にメモが作れます」と
合成音声で読み上げるときに、ピッチパターンデータベ
ース34から検索される文節ごとのピッチパターンの例
である。図5は、この検索されたピッチパターンを制御
してリズム生成をする前のピッチパターンの例で、図6
は、リズム生成手段33により処理をした後のピッチパ
ターンの例である。コンピュータが「こちらの電子手帳
は、ペンで入力するだけで簡単にメモが作れます」と合
成音声で読み上げるときの音声ピッチの時間変化を示
す。縦軸がピッチ(Hz)、横軸が時間(フレーム=1
/30秒)である。リズム生成処理を施した図6では、
発話開始時刻T0および下降ピッチの開始時刻T1,T
2,T3…の出現間隔Pが一定になるよう、音韻の継続
時間長およびポーズ長が伸縮されている。
により取り出したピッチパターンに対して、発話開始点
と各アクセント核(下降ピッチ開始点)の出現間隔P
が、 P=np(sec.) となるよう、各アクセント核(下降ピッチ開始点)に挟
まれる音韻(またはモーラ)およびポーズの継続時間長
を算出し、アクセント核の開始時刻を制御する。このよ
うにして、アクセント核が等時間的に出現するようなリ
ズムを生成することができる。ここで、pは例えば、
0.8などの定数で、コンピュータの内部状態に応じて
変えることができる。
数Mが、例えば、3<M≦10であるときは、n=1と
し、またM≦2であるときは、n=0.5とし、またM
>10であるときには、n=2とし、データベースから
得られたピッチパターンにおいて、隣り合うアクセント
核が近接しすぎているとき(M≦2)や、アクセント核
を伴わない文節が連続した場合(M>10)にアクセン
ト核の出現間隔をpの倍数に保持し、リズムを保てるよ
うにする。
とにより、機械的でない、より自然なリズムを生成する
ことが可能である。また、例えば、急を要する内容の場
合は、pの値を短縮し、あるいは、応答内容に不明な点
があり、不安な場合は、pの値を伸長するなどして、生
成される音声内容に応じてpの値を変調させることによ
り、コンピュータの音声に感情を持たせることができ、
より親しみやすい合成音声を作り出すことができる。
施形態を説明するためのブロック図で、音声合成及びC
G合成出力装置の基本構成例を示すものである。本実施
形態の構成は、図に示すように、実施形態1の音声合成
装置の構成に加えて、出力されるCG人物の動作を制御
するCG制御手段35が付加されている。以下では、C
G人物の頭の動きを制御する場合の動作例を説明する。
人間同士の対話の解析において、対話におけるリズム
が、音声パワー,音声ピッチ,手の振り、頭の動きから
抽出できることがわかっている。また、スムーズな対話
では、頭の縦振りが、発話の開始点や発話の下降ピッチ
と同期をとる傾向にあることと、これら頭の振りや音声
の特徴量が相補的に、ほぼ等時間的に出現することがわ
かっている。
ける処理の一例を説明するための図である。図8には、
ユーザが「こちらの電子手帳は、ペンで入力するだけで
簡単にメモが作れます」と発話したときの音声の時間変
化と、音声に同期したCG画像の頭の動きが示されてい
る。縦軸が動きの大きさ、横軸が時間(フレーム)であ
る。図に示すように、発話開始時刻T0および下降ピッ
チの開始時刻T1,T2,T3…とCG人物の頭の動き
の開始時刻Tcg1,Tcg2…が同期をとりながら、
相補的,等時間的に出現するよう、CG人物の頭の動き
の出現時刻が制御されている。
施形態を説明するためのブロック図で、対話装置の基本
構成例を示すものである。人間同士の対話の解析におい
て、考えながら話すときのリズムと、熱心に話している
ときでは、対話のリズムが変化することがわかってい
る。本実施形態では、このようなユーザの対話のリズム
に合わせてコンピュータ側のリズムを変化させ、ユーザ
とコンピュータとの間にリズミカルな対話を実現するも
のである。
実施形態1の音声合成装置の構成に加えて、ユーザの対
話のリズムを検出するリズム検出手段50が付加されて
いる。以下では、入力データを音声としてその音声ピッ
チを認識する手段、また、出力手段として合成音声を出
力する音声出力手段とを具備するコンピュータによるも
のとして、本発明の実施形態を説明する。
され、予め決められた処理単位(フレーム:1フレーム
は1/30秒)毎に音声ピッチレベルが認識され、予め
決められたレベルの「下降ピッチ」が検出され、リズム
検出手段50に送出される。リズム検出手段50では、
入力されたユーザの音声の下降ピッチから周期(リズ
ム)を検出し、時刻情報とともにユーザの対話のリズム
を検出する。
ける処理の一例を説明するための図である。図10に
は、ユーザが「コンピュータの中でそれを再現してやる
とこのような形で…」と発話したときの音声の時間変化
が示されている。縦軸がピッチ(Hz)、横軸が時間
(フレーム)である。一定時間ごとにこれらの発話開始
時刻T0および下降ピッチの開始時刻T1,T2,T3
…から、下降ピッチの出現の周期を自己相関により求め
る。リズム生成手段33は、上述のようにして、リズム
検出手段50で検出されたユーザのリズムに応じて、コ
ンピュータ側から出力される発話のアクセント核(下降
ピッチ開始点)の出現間隔Pを決定する。
ピッチパターンをピッチパターンデータベース部から検
索し、得られたピッチパターンを制御して、リズムを生
成することにより、自然音声に近いピッチパターンを得
ることができるようになり、その結果、合成音声の自然
性が向上する。
て、ピッチパターンの一定の特徴量が相補的に、等時間
的に出現するよう音韻継続時間長やポーズ長を制御する
ことにより、リズミカルな合成音声が得られる。
て、リズムの単位を、出力される音声の開始点および下
降ピッチ開始点の間隔とし、これら特徴量が相補的、等
時間的に出現するように制御することにより、よりリズ
ミカルな合成音声を得るための具体的なリズム生成手段
が提供できる。
か1の効果に加えて、リズム生成手段において、リズム
周期にゆらぎを持たせることにより、機械的でない、よ
り自然なリズムを生成することが可能になる。
か1の効果に加えて、リズム生成手段において、合成音
声の内容に応じてリズムを変調させることにより、コン
ピュータの音声に感情を持たせることができ、より親し
みやすい合成音声を作り出すことができる。
か1の効果に加えて、出力されるCG人物の手の動きや
頭の振りなどの動作が、出力される音声と同期をとって
相補的、等時間的に出現するように制御することによ
り、自然なCG人物の動きが得られる。
いずれか1の効果に加えて、ユーザのリズムを検出し、
その検出結果に基づいて出力するリズムを制御すること
により、ユーザとコンピュータのリズムが協調し、リズ
ム感のある対話が実現する。
加えて、ユーザのリズム検出をユーザから発生される音
声パワー,音声ピッチ,手の動きおよび頭の動きの動作
モードの少なくとも1つ以上の種類の動作モードについ
てその動作状態を認識するようにしたことにより、ユー
ザとコンピュータのリズムが協調し、リズム感のある対
話を実現するためのユーザのリズムをより正確に検出す
ることができる。
せるためのプログラムを記録した、コンピュータ読み取
り可能な記録媒体を提供することができる。
出力装置を機能させるためのプログラムを記録した、コ
ンピュータ読み取り可能な記録媒体を提供することがで
きる。
ためのプログラムを記録したコンピュータ読み取り可能
な記録媒体を提供することができる。
ック図である。
の一例及び韻律処理手段で生成される音韻記号列の例を
示す図である。
示す図である。
索される文節ごとのピッチパターンの例を示す図であ
る。
前のピッチパターンの例を示す図である。
のピッチパターンの例を示す図である。
ック図で、音声合成及びCG合成出力装置の基本構成例
を示すものである。
説明するための図である。
ック図で、対話装置の基本構成例を示すものである。
例を説明するための図である。
…言語処理手段、32…韻律処理手段、33…リズム生
成手段、34…ピッチパターンデータベース、35…C
G制御手段、40…出力部、50…リズム検出手段。
Claims (12)
- 【請求項1】 音声を合成する合成文章を生成する言語
処理手段と、該言語処理手段で生成した合成文章にアク
セント、ポーズ、及び母音の無声音化情報を含む発音情
報を加えて音韻記号列を生成する韻律処理手段と、音声
におけるアクセント型により分類したピッチパターンを
データベースとして記憶したピッチパターンデータベー
ス部と、前記韻律処理手段で得られた音韻記号列に含ま
れる文節のそれぞれに対応したピッチパターンを前記ピ
ッチパターンデータベース部から検索し、得られたピッ
チパターンの制御を行って合成音声のリズムを生成する
リズム生成手段とを備え、該リズム生成手段の出力に基
づいて音声を合成することを特徴とする音声合成装置。 - 【請求項2】 前記ピッチパターンの制御として、前記
ピッチパターンの所定の特徴量が等時間的に出力される
ように音韻継続時間長及びポーズ長の制御を行うことを
特徴とする請求項1記載の音声合成装置。 - 【請求項3】 前記所定の特徴量として合成する音声の
開始点および下降ピッチ開始点を用いることを特徴とす
る請求項2記載の音声合成装置。 - 【請求項4】 前記リズム生成手段は、生成するリズム
の周期にゆらぎを持たせることを特徴とする請求項1な
いし3いずれか1記載の音声合成装置。 - 【請求項5】 前記リズム生成手段は、合成する音声の
内容に応じて生成するリズムを変調させる機能を有する
ことを特徴とする請求項1ないし4いずれか1記載の音
声合成装置。 - 【請求項6】 請求項1ないし5いずれか1記載の音声
合成装置に、CG人物が合成音声に同期をとって動作す
るようにCGを制御するCG制御手段を設け、該CG制
御手段の出力に基づいて、合成CGを合成音声とともに
出力することを特徴とする音声合成及びCG合成出力装
置。 - 【請求項7】 請求項1ないし5いずれか1記載の音成
合成装置に、ユーザの発話を入力する入力手段と、該入
力手段から入力されたユーザの発話のリズムを検出する
リズム検出手段とを設け、該リズム検出手段における検
出結果を用いて、前記ピッチパターンの制御を行うこと
を特徴とする対話装置。 - 【請求項8】 請求項6記載の音声合成及びCG合成出
力装置に、ユーザの発話及び動きを入力する入力手段
と、該入力手段から入力されたユーザの発話及び動きの
リズムを検出するリズム検出手段とを設け、該リズム検
出手段における検出結果を用いて、前記ピッチパターン
の制御を行うことを特徴とする対話装置。 - 【請求項9】 ユーザから発生される音声パワー、音声
ピッチ、および手の動きの動作モードのうち、少なくと
も一つの動作モードについて該動作モードの動作状態を
認識し、認識結果から前記発話のリズムまたは前記発話
及び動きのリズムを検出することを特徴とする請求項7
または8記載の対話装置。 - 【請求項10】 請求項1ないし5いずれか1記載の音
声合成装置を機能させるためのプログラムを記録したコ
ンピュータ読み取り可能な記録媒体。 - 【請求項11】 請求項6記載の音声合成及びCG合成
出力装置を機能させるためのプログラムを記録したコン
ピュータ読み取り可能な記録媒体。 - 【請求項12】 請求項7ないし9いずれか1記載の対
話装置を機能させるためのプログラムを記録したコンピ
ュータ読み取り可能な記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP22802997A JP3437064B2 (ja) | 1997-08-25 | 1997-08-25 | 音声合成装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP22802997A JP3437064B2 (ja) | 1997-08-25 | 1997-08-25 | 音声合成装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH1165597A true JPH1165597A (ja) | 1999-03-09 |
JP3437064B2 JP3437064B2 (ja) | 2003-08-18 |
Family
ID=16870091
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP22802997A Expired - Fee Related JP3437064B2 (ja) | 1997-08-25 | 1997-08-25 | 音声合成装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3437064B2 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11175082A (ja) * | 1997-12-10 | 1999-07-02 | Toshiba Corp | 音声対話装置及び音声対話用音声合成方法 |
WO2014192959A1 (ja) * | 2013-05-31 | 2014-12-04 | ヤマハ株式会社 | 音声合成を用いて発言に応答する技術 |
JP2015069038A (ja) * | 2013-09-30 | 2015-04-13 | ヤマハ株式会社 | 音声合成装置およびプログラム |
JP2015069037A (ja) * | 2013-09-30 | 2015-04-13 | ヤマハ株式会社 | 音声合成装置およびプログラム |
JP2015087740A (ja) * | 2013-05-31 | 2015-05-07 | ヤマハ株式会社 | 音声合成装置およびプログラム |
CN112466277A (zh) * | 2020-10-28 | 2021-03-09 | 北京百度网讯科技有限公司 | 韵律模型训练方法、装置、电子设备及存储介质 |
-
1997
- 1997-08-25 JP JP22802997A patent/JP3437064B2/ja not_active Expired - Fee Related
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11175082A (ja) * | 1997-12-10 | 1999-07-02 | Toshiba Corp | 音声対話装置及び音声対話用音声合成方法 |
WO2014192959A1 (ja) * | 2013-05-31 | 2014-12-04 | ヤマハ株式会社 | 音声合成を用いて発言に応答する技術 |
JP2015087740A (ja) * | 2013-05-31 | 2015-05-07 | ヤマハ株式会社 | 音声合成装置およびプログラム |
US9685152B2 (en) | 2013-05-31 | 2017-06-20 | Yamaha Corporation | Technology for responding to remarks using speech synthesis |
US10490181B2 (en) | 2013-05-31 | 2019-11-26 | Yamaha Corporation | Technology for responding to remarks using speech synthesis |
JP2015069038A (ja) * | 2013-09-30 | 2015-04-13 | ヤマハ株式会社 | 音声合成装置およびプログラム |
JP2015069037A (ja) * | 2013-09-30 | 2015-04-13 | ヤマハ株式会社 | 音声合成装置およびプログラム |
CN112466277A (zh) * | 2020-10-28 | 2021-03-09 | 北京百度网讯科技有限公司 | 韵律模型训练方法、装置、电子设备及存储介质 |
CN112466277B (zh) * | 2020-10-28 | 2023-10-20 | 北京百度网讯科技有限公司 | 韵律模型训练方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
JP3437064B2 (ja) | 2003-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP0831460B1 (en) | Speech synthesis method utilizing auxiliary information | |
US6470316B1 (en) | Speech synthesis apparatus having prosody generator with user-set speech-rate- or adjusted phoneme-duration-dependent selective vowel devoicing | |
US8219398B2 (en) | Computerized speech synthesizer for synthesizing speech from text | |
JP2002023775A (ja) | 音声合成における表現力の改善 | |
JP3437064B2 (ja) | 音声合成装置 | |
JP2761552B2 (ja) | 音声合成方法 | |
JPH08335096A (ja) | テキスト音声合成装置 | |
JP2001125599A (ja) | 音声データ同期装置及び音声データ作成装置 | |
Lobanov et al. | TTS-Synthesizer as a Computer Means for Personal Voice Cloning (On the example of Russian) | |
JP3742206B2 (ja) | 音声合成方法及び装置 | |
JPH0580791A (ja) | 音声規則合成装置および方法 | |
Cheng et al. | HMM-based mandarin singing voice synthesis using tailored synthesis units and question sets | |
JP3233036B2 (ja) | 歌唱音合成装置 | |
JP3394281B2 (ja) | 音声合成方式および規則合成装置 | |
JP3308875B2 (ja) | 音声合成方法および装置 | |
JP2573586B2 (ja) | 規則型音声合成装置 | |
Gu et al. | Combining HMM spectrum models and ANN prosody models for speech synthesis of syllable prominent languages | |
JPH09292897A (ja) | 音声合成装置 | |
JPH1063287A (ja) | 発音訓練装置 | |
Heggtveit | An overview of text-to-speech synthesis | |
JPH11352997A (ja) | 音声合成装置およびその制御方法 | |
Karjalainen | Review of speech synthesis technology | |
JPH10301599A (ja) | 音声合成装置 | |
JP2573585B2 (ja) | 音声スペクトルパタン生成装置 | |
JPH06149283A (ja) | 音声合成装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090606 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100606 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100606 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110606 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110606 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120606 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |