JPH0247700A - 音声合成方法および装置 - Google Patents

音声合成方法および装置

Info

Publication number
JPH0247700A
JPH0247700A JP63197851A JP19785188A JPH0247700A JP H0247700 A JPH0247700 A JP H0247700A JP 63197851 A JP63197851 A JP 63197851A JP 19785188 A JP19785188 A JP 19785188A JP H0247700 A JPH0247700 A JP H0247700A
Authority
JP
Japan
Prior art keywords
speech
unit
formant
pitch
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP63197851A
Other languages
English (en)
Other versions
JP2904279B2 (ja
Inventor
Tetsuo Umeda
梅田 哲夫
Toru Tsugi
徹 都木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP63197851A priority Critical patent/JP2904279B2/ja
Publication of JPH0247700A publication Critical patent/JPH0247700A/ja
Application granted granted Critical
Publication of JP2904279B2 publication Critical patent/JP2904279B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は出力音声情報に基づき予め記憶された音声を合
成することによって出力する音声合成方法に関する。
方式、また、■音素、音節などの単位音声として記憶さ
れたパラメータと、合成時に所定の規則によって生成さ
れるアクセント、イントネーション等の韻律情報とから
合成する規則合成方式等の音声合成方式が知られていた
[発明の概要] 本発明は予め記憶された音声を接続し有意味な音声を出
力するに際して、接続されたことによる、および韻律情
報が付加されたことによる合成音声への影響を考慮し、
合成音声の明瞭性や自然性を損なわないようにした音声
合成方法である。
E従来の技術】 従来、この種の技術においては、■予め録音しておいた
単語や文節の音声を接続して再生する録音1JA3J、
方式や、■波形をいったん分析して得られるパラメータ
を記録しておき、再生時にこのパラメータによって合成
器を制御するパラメータ編集[発明が解決しようとする
課題] しかしながら、■と■の方式においては、出力する音声
を予め人が発声して登録しておいたものの中から選んで
出力するので登録した音声の中では音質が保てるが、音
声と音声をそのまま接続して出力するために声帯振動(
ピッチ)周波数やホルマントの不連続を生じ、不自然な
音声になっていた。
また、■の方式は、合成時にピッチ周波数に相当するイ
ンパルスやホワイトノイズあるいは推定した声帯波形を
音源として声道特性フィルターに通したものを出力する
方式であり、これらの場合でもアクセントやイントネー
ションを変化させると、すなわち、音声のピッチ周期を
変化させるとホルマントも同時に変化し、音韻的に不明
瞭な音声となったり、さらに合成する単位音声と単位音
声との接続点での不自然さが生じていた。
そこで本発明の目的は上述した従来の問題点を解消し、
音声の合成単位を細かくしたり、イントネーション等の
韻律情報を付加するなど、合成音声の音質をよくするた
めにピッチやホルマントの制御をきめ細かくした場合に
も、合成された音声の音韻性を保ち、人間の音声として
の自然性を有した音声合成方法を提供することにある。
また、本発明の他の目的は、イントネーション等の韻律
性やホルマント周波数などに基づく音韻性の制御を可能
にすることによって人間の言語音声に対する知覚特性の
測定方法を提供することにある。
[課題を解決するための手段J そのために、本発明では、出力音声情報に基づき単位音
声情報および韻律情報を定め、予め記憶された単位音声
データの中から定められた単位音声情報に基づき、単位
音声に対応する単位音声データを選択し、選択された単
位音声データからピッチ周期、スペクトル包絡、ホルマ
ント軌跡および単位音声波形の各々を算出または抽出し
、算出または抽出された単位音声波形を接続するため、
および韻律情報を付加するために、算出または抽出され
たピッチ周期を変更し、変更されたピッチ周期において
ピッチ変更によるスペクトル包絡を算出し、ピッチ変更
によるスペクトル包絡と算出または抽出されたスペクト
ル包絡とに基づき第1のスペクトル変化分を算出し、算
出または抽出された単位音声波形を接続するために算出
または抽出されたホルマント軌跡を変更し、変更された
ホルマント軌跡に基づいてホルマント変更によるスペク
トル包絡を算出し、ホルマント変更によるスペクトル包
絡と算出または抽出されたスペクトル包絡とに基づき第
2のスペクトル変化分を算出し、第1および第2のスペ
クトル変化分に基づきピッチ周期の変更にかかる単位音
声波形のスペクトル包絡を変更し、スペクトル包絡を変
更した車位音声波形を接続した後、接続された音声を出
力することを特徴とする。
[作 用] 以上の構成によれば各単位音声の音韻性や自然性を保っ
たまま、有意味な音声に必要なイントネーションが付加
された高音質の音声合成が可能となる。
[実施例] 以下、図面を参照して本発明の実施例を詳細に説明する
第1図は本発明の一実施例を示す音声合成システムのブ
ロック図である。図において、2は単位音声選択部、4
は声帯周波数補正部、6はホルマント補正部、8は周波
数特性変更部であり、各部は電子計算機内に構成され、
この構成によってROM、RAMあるいはディスクメモ
リ等のメモリを併用しながら音声合成の処理が実行され
る。
文章等の出力音声情報が単位音声選択部2へ人力される
と、出力音声情報はまず、離散的な言語情報としての音
韻記号列に変換されるとともに音声の継続時間長、アク
セント、イントネーション、ポーズ等の韻律情報が決定
される。さらに、予め記憶されている単位音声の集合中
から決定された音韻記号列を構成する単位音声の列が選
択される。
なお、出力音声情報に基づいて音韻記号列を定める代わ
りに、単語や文字等を定め、これに基づき単位音声列を
選択するようにしてもよい。また、記憶される単位音声
は、本例では波形としたが、単位音声にかかる線形予測
係数またはピッチやホルマントの軌跡等を単位音声のデ
ータとして記憶することにより、以下に示すピッチ周期
、スペクトル包絡、ホルマント軌跡の算出を行なわず、
直接抽出するようにしてもよい。
次に、声帯周波数補正部4において、単位音声選択部2
で得られた単位音声から、有声音区間を判別し、有声音
区間のピッチ周波数およ゛びその時間軌跡を得る。さら
に、前後の単位音声のピッチ周波数軌跡を参照し、軌跡
が滑らかにつながるようピッチ周波数に変更を加えると
共に、アクセント、イントネーション等の成分を更に変
更成分として加え、この新たなピッチ周波数に応じて各
ピッチ周期毎に波形の継続時間長を伸縮する。これによ
りピッチ周波数が滑らかにつながると共に韻律情報とし
てのアクセント、イントネーション等が制御される。ま
たこの処理によって変化したスペクトル包絡の変化分を
求める。
ホルマント補正部6では有声音区間についてスペクトル
包絡の形(共振周波数)からホルマントを決定し、その
軌跡を求める。次に前後の単位音声のホルマント周波数
軌跡を参照し滑らかにつながるようホルマント周波数に
変更を加える。また、元の音声のスペクトル包絡からの
、ホルマント変更によって生じた変化分を求める。
周波数特性変更部8においては、ピッチ周波数の変更に
応じて伸縮された波形に対し、ホルマント補正部で求め
たスペクトル変化分と声帯周波数補正部で求めたスペク
トル変化分に応じてスペクトル包絡を変更する。
上記各部における処理の詳細を第2図(A)および(B
)  に示すブロック図およびフローチャートを参照し
ながら説明する。第2図(八)は第1図に示した構成の
詳細を示し、単位音声選択部2は単位音声蓄積部22お
よび音声選択部24によって、声帯周波数補正部4はピ
ッチ抽出制御部42、波形伸縮部44、スペクトル包絡
抽出部46および補正分抽山部48によって、ホルマン
ト補正部6はスペクトル包絡抽出部62、スペクトル包
絡制御部64および補正分抽山部66によって、さらに
周波数特性変更部8はFF7部82、スペクトル包絡変
更部84およびI FF7部86に、よって、それぞれ
構成される。また、第2図(B)のフローチャートにお
ける各ステップの左側に付した番号は第2図(A)の各
部の番号を示し、該当のステップが付された番号で示さ
れた部においてその処理が実行されることを表わす。
以上の構成において、単位音声蓄積部22には、母音−
子音−母音といった音素の並びの組で、予め発声した音
声を変換ビット数1zbtt 、 m本化周波数15k
llzで^/D変換したものが単位音声として蓄積しで
ある。ここで、音声選択部24では入力された文章等の
出力音声情報に基づき所定の音韻規則に従って音韻記号
列が決定され、さらに韻律規則に従って継続時間長、ア
クセント、イントネーション、ポーズ等が決定される。
また、決定された音韻記号列に基づいて単位音声蓄積部
22から該当する単位音声が選択される。
引き出された各単位音声は、ピッチ抽出制御部42にお
いて音声パワーの有無に基づき有音区間と無音区間の判
別が行なわれ、次に有音区間の音声に対し1次の相関係
数と零交差数を求め、無声子音区間と有声音区間の判別
を行う。これは音声の中の高域成分を1次の相関係数と
零交差数の両方を調べることによって確実な判別を行う
ためである。
ここで、判別された無音区間の時間長および無声子音区
間の波形はそのままメモリーに記録しておく。
さらに、ピッチ抽出制御部42において有声音区間にお
ける音声波形に対していわゆる声導逆フィルタを用いて
線形予測分析を行い残差波形を得、この残差波形に相関
分析を行うことにより相関のピークの間隔からピッチ周
期を求める。これを単位音声上の有声音区間全体に行う
次に、求められたピッチ周期のそれぞれについて、接続
される直前の(過去の時刻の)単位音声との接続が聴感
上滑らかに接続され、かつ文節や文章全体としてアクセ
ント、イントネーションが整うように変更を加え、新た
なピッチ周期列を算出する。
すなわち、まず、求められた単位音声におけるピッチ周
期全体の平均ピッチ周期を、人間の@感を考慮して相乗
平均ピッチとして求める。
ここで、Pnをn番目のピッチ周期、単位音声における
全ピッチ数をLとすると、平均ピッチ周期Paveは Pave−(P、xP2x−xPL)”’と表わされ、
直前の単位音声の平均ピッチ周期をPavel とする
とき、平均ピッチ周期調整分Rを+1−Pavel/P
aveとする。また、アクセント規則とイントネーショ
ン規則から算出される周期変更係数分をQnとし、さら
に第3図に示すように平均ピッチ周期を調整した場合の
ピッチ周期列のL個のピッチに対し、次の式で示される
係数Snによって調整を行い、ピッチ周期列が滑らかに
接続するようにする。
= 1                 (L/’2
≦ロ ≦L)ここで、P′、は直前の(過去の)単位音
声の修正後のピッチ周期列の最後のピッチ周期である。
以上の各調整を総合して、Ilnを総合した調整分とす
ると、Rn−R−Qn−5nと表わされ、L個の各ピッ
チ周期毎にPnをQn倍すれば新しいピッチ周期情報が
得られる。
このときスペクトル包絡抽出部62においては。
原音声のスペクトル包絡を求める。すなわち、第4図に
示すように原単位音声波形から波形のレベルが急に大き
くなる点の直前をピッチの開始点とし、ピッチ抽出制御
部42で最初に求めたピッチ周期に基づき、次のピッチ
の開始点の1標本手前を終了点として1つのピッチ区間
を定め、■ピッチ区間の中心を分析窓の中心として20
m5ec程度の窓掛けを行う。この窓掛けにより有限個
の標本値による短時間スペクトル分析が可能となり、こ
の窓掛はデータを基に再び線形予測分析を行い、線形予
測係数α1〜α2を算出する。ここで、pは線形予測分
析の次数であり、一般に女性の声に対してはP−10程
度、男性の声に対してはP−14程度を使用する。
さらに、次式によフて上述の線形予測係数α1〜α2を
用いて原音声のスペクトル包絡11(k)を求める。
(k;1〜N) ここでNは標本数より大きい2のべき乗で512とする
この処理を1ピッチ区間ずらしながら有声音区間が終る
まで繰り返す。
また、波形伸縮部44では、ピッチ抽出制御部42で得
た新しいピッチ周期情報に応じて各ピッチごとの波形を
伸縮する。すなわち、原単位音声波形の1ピッチ標本数
をkとし、変更されたピッチに相当する標本数をに°と
するとき、ピッチ周期を短縮したい場合はピッチ区間の
開始からに′番目の標本点で波形を打ち切り、逆にピッ
チ周期を延ばしたい場合にはスペクトル包絡抽出部62
で得られた線形予測係数α1〜α2を用いて、次式のよ
うにm−に+1番目からm−k ’番目までの標本値を
求め後続の波形を得る。
x(m)=  a、x(m−1)+a、x(ll−2)
+・・・+  a、x(m−P)ただし、この処理を1
ピッチ区間ずらしながら有声音区間が終るまで繰り返す
が、この際、ピッチ周期の伸縮分だけ発話速度が変化す
るので1ピッチ周期の波形単位で間引いたり同じ波形を
繰り返したりしながら原単位音声の発話時間長を保つ。
また同じ手段で音声選択部24から得られる韻律情報に
基づいての継続時間長の補正もここで行う。
なお、ピッチを変更したことによってピッチ区間の波形
の最終標本点と次のピッチ区間の開始標本点との間には
大ぎな不連続があるので、この最終標本点と曲始漂木点
の前後数標本のデータを用いて最小自乗法により3次曲
線を用いた近似を行い、連続的に接続する。
上述のピッチ抽出制御部42、波形伸縮部44およびス
ペクトル包絡抽出部62による処理を終了すると、まず
、スペクトル包絡抽出部46において、波形伸縮部44
から得られるピッチ周期を変更した波形の1ピッチ区間
を中心として、上述したのと同様に20+aSec程度
の窓掛けを行いこの標本値について線形予測分析を行い
線形予測係数α1°〜α2°を算出し、次式によってピ
ッチ変更後のスペクトル包i貼(k)を求める。
(k=1〜N)      (1) ここで、Nは前述と同様512とする。
次に、補正分抽用部48で、原音声のスペクトル包絡1
1(k)に対し、ピッチ周期の変更によって歪んだスペ
クトル包絡貼(k)の変化分を算出する。
すなわち、Ll (k)・H(k) /凱(k)を各ピ
ッチ周期毎に計算しメモリに記憶する。
また、スペクトル包絡制御部64においては、スペクト
ル包絡抽出部62で求めたα1〜α2を係数として、以
下に示す式を満足するP個の根である複素数Zl”−Z
pを求める。
1+a、z−’+  a 2z−2+  ・・−+  
CE、Z−’−0これらP個の根のうちには共役複素根
の対が存在し、1対の共役複素根は1つのホルマントに
対応し得る。すなわち、これらの根Z、により以下の式
で共振周波数Flおよびその帯域幅a、を求め、メモリ
に記録すると共に上述した処理を1ピッチ区間毎にシフ
トしながら単位音声中の有声音区間が終るまで繰り返す
F+−FS/(2π)・arg(zl)81−Fs/π
llog(lz+l) ここで、Fsは標本化周波数である。
さらに、一連の共振周波数からその帯域幅と連続性を考
慮して帯域幅の狭い共振周波数を周波数の低いほうから
順に第1ホルマント、第2ホルマント、第3ホルマント
・・・とじて選択し、ホルマント周波数の軌跡を求める
スペクトル包絡制御部64ではさらに、第5図に示すよ
うに直前の単位音声との接続性をよくするために、ホル
マントとその帯域幅の軌跡を、直前単位音声の最終標本
点と、処理にかかる単位音声における開始標本点の前後
数標本を用い、前述と同様に最小自乗法により3次曲線
近似により内挿を行って連続的に接続する。
次に、上述のようにして新たなホルマント周波数の軌跡
とf域幅が決定したら、新たな線形予測係数を以下のよ
うにして求める。
すなわち、変更されたホルマントおよび変更されなかっ
たホルマントの共振周波数、さらにホルマントと認めら
れなかフた共振周波数を含めて、新しい共振周波数をF
lo その帯域幅をBIo とし、次式を用いて新な根
Zl’を求める。なお、Zloにはホルマントに対応し
た共役複素根対が含まれる。
Zl’−exp(−7CB+’/Fs”j2 πp+’
/ps)これらP個のZl’ を根とするp次方程式を
(1−L’Z−’) (1−Z2°X−’)・” (1
−Zp’Z−’)−0とし、この式を展開したときのZ
−にの係数をβにとすれば、上式は 1”J3 +Z−” B 2Z−”−十B PZ−’−
0と表わされ、係数β、〜β2は新しい線形予測係数を
与える。この新たな線形予測係数を用いて次式によりス
ペクトル包絡1n(k)を求める。
(k=1〜N)      (2) ここでNは512とする。
補正弁抽出部66では、スペクトル包絡抽出部62で求
めた原音声のスペクトル包絡11(k)に対し、ホルマ
ントの変更により変更されたスペクトルr (k)の変
化分を算出する。すなわち、V (k) −II (k
) /F2 (k) ヲ各ヒツチ周期毎に計算しメモリ
に記録する。
周波数特性変更部8では、まずFF7部82において、
ピッチ抽出制御部42でピッチの変更されたピッチ周期
におけるN個の標本x(1)〜×(N)に対し次式のよ
うな時間窓w (i)を掛けてy(1)〜y(N)とす
る。すなわち、 y(+)す(i)・x (i)         1≦
i≦Nただし w(i)J、5−(1−cos(yr i/L))  
   1≦i<Lw(i)=I           
                L≦i<N−Lw(
i)−0,5・[l+cos(π (i−N+L)/L
)]   N−L≦ i ≦N上記y (i)に対して
N点の高速フーリエ変換を行い、周波数領域に変換して
Y (k)とする。
次に、スペクトル変換部84において、補正弁抽出部6
6で算出したホルマントの変更による変化成分V (k
)と補正弁抽出部48で算出した周期変更による変化分
U(k)とを用いてY (k)を変更する。すなわち、 智(k) −tl (k) ・V (k) −Y (k
)          1≦に≦Nとして補正された周
波数領域表現r(k)を得る。
次に、IFFT部86では高速フーリエ逆変換によりこ
のr(k)を時間領域の音声波形?(k)に変換し、得
られたN個のデータのうち波形接続の際の端の歪の効果
を軽減するため、標本データの中心に20m5ecのハ
ミング窓を掛けて切り出す。
次に、第6図に示すようにy (k)を10nSecだ
けシフトし、スペクトル包絡の補正と切り出しの上述し
た一連の操作を繰り返し、直前に切り出した波形と重ね
合わせて連続した音声とする。
さらに一つの有声音区間の処理が終了したらメモリに記
憶しておいた無声子音区間または、無音区間と接続し、
さらに次の有声音区間の処理に移る。このように全ての
単位音声の処理を行い、最終的に合成された音声をD/
A変換して、出力音声とする。
ところで、人間の言語音声の知覚特性については、まだ
まだ未知の部分が多い。音声信号波形の物理的な変更が
言語の音韻としての間こえ方、すなわち人間の知覚特性
にどのような影響を与えるか、例えば声の高さや韻律を
微妙に変えたときどのように間こえるかを、試験しよう
とする場合、実際の人間を発声者として使用すると、体
調の変化等のために全く同じ音声を発することが困難で
あったり、また微妙な調音をさせることは一般に困難で
ある。
これらの理由により、人工的な発生音の調整法が必要と
されていた。しかし従来の方法を用いると声帯振動周波
数やホルマント周波数の不連続のために不自然さが生じ
微妙な聴寛心理的な実験に困難さが生じてしまっていた
これに対し本発明の上述した実施例によれば音声の自然
性を保ったままきめ細かい制御ができるためにこの困難
さが解消できるようになる。
[発明の効果] 以上の説明から明らかなように、本発明によれば予め記
憶された単位音声を接続する際の不連続による音質劣化
を防ぎ原音声の持っている自然性や個人性に影響を与え
ずにイントネーションやアクセント等を付加して音声の
合成ができるようになる。
また、本発明によってイントネーションやアクセント等
の韻律性やホルマント周波数等に基づく音韻性を任意に
変化させて音声を合成できるので人間の言語音声に対す
る知覚特性の測定方法を提供できるようになる。
【図面の簡単な説明】
第1図は本発明の一実施例を示す音声合成システムのブ
ロック図、 第2図(A)は第1図に示したシステムの詳細を示すブ
ロック図、 第2図(6)は第2図(A)に示したシステムの処理を
示すフローチャート、 第3図は声帯振動周波数の軌跡の連続性を保りた変換法
を説明するための線図、 第4図はピッチ区間の波形切り出し法を示す線図、 第5図はホルマント周波数帯域幅の連続性を保つ変換法
を示す線図、 第6図は処理された波形を接続する方法を示す線図であ
る。 22・・・単位音声蓄積部、 24・・・音声選択部、 42・・・ピッチ抽出制御部、 44・・・波形伸縮部、 46・・・スペクトル包絡抽出部、 48・・・補正分抽土部、 62・・・スペクトル包絡抽出部、 64・・・スペクトル包絡制御部、 66・・・補正分抽土部、 82・・・FFT部、 84・・・スペクトル包絡変更部、 86・・・IFFT部。 b?・ト冒報〜 慎?−r;!lイ4’Jの5μm子坦2第4 図 寅オそイ列の5度升ら図 第5図

Claims (1)

  1. 【特許請求の範囲】 1)出力音声情報に基づき単位音声情報および韻律情報
    を定め、 予め記憶された単位音声データの中から前記定められた
    単位音声情報に基づき、当該単位音声に対応する単位音
    声データを選択し、 当該選択された単位音声データからピッチ周期、スペク
    トル包絡、ホルマント軌跡および単位音声波形の各々を
    算出または抽出し、 当該算出または抽出された単位音声波形を接続するため
    、および前記韻律情報を付加するために、前記算出また
    は抽出されたピッチ周期を変更し、 当該変更されたピッチ周期においてピッチ変更によるス
    ペクトル包絡を算出し、 該ピッチ変更によるスペクトル包絡と前記算出または抽
    出されたスペクトル包絡とに基づき第1のスペクトル変
    化分を算出し、 前記算出または抽出された単位音声波形を接続するため
    に前記算出または抽出されたホルマント軌跡を変更し、 当該変更されたホルマント軌跡に基づいてホルマント変
    更によるスペクトル包絡を算出し、該ホルマント変更に
    よるスペクトル包絡と前記算出または抽出されたスペク
    トル包絡とに基づき第2のスペクトル変化分を算出し、 前記第1および第2のスペクトル変化分に基づき前記ピ
    ッチ周期の変更にかかる単位音声波形のスペクトル包絡
    を変更し、 当該スペクトル包絡を変更した前記単位音声波形を接続
    した後、接続された音声を出力することを特徴とする音
    声合成方法。 2)請求項1に記載の方法を用いて音声を合成すること
    を特徴とする音声合成装置。
JP63197851A 1988-08-10 1988-08-10 音声合成方法および装置 Expired - Fee Related JP2904279B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63197851A JP2904279B2 (ja) 1988-08-10 1988-08-10 音声合成方法および装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63197851A JP2904279B2 (ja) 1988-08-10 1988-08-10 音声合成方法および装置

Publications (2)

Publication Number Publication Date
JPH0247700A true JPH0247700A (ja) 1990-02-16
JP2904279B2 JP2904279B2 (ja) 1999-06-14

Family

ID=16381393

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63197851A Expired - Fee Related JP2904279B2 (ja) 1988-08-10 1988-08-10 音声合成方法および装置

Country Status (1)

Country Link
JP (1) JP2904279B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001184099A (ja) * 1999-12-22 2001-07-06 Yamaha Corp 音声変換装置及び音声変換方法
JP2004139033A (ja) * 2002-09-25 2004-05-13 Nippon Hoso Kyokai <Nhk> 音声合成方法、音声合成装置および音声合成プログラム
US6760453B1 (en) 1998-03-30 2004-07-06 Nec Corporation Portable terminal device for controlling received voice level and transmitted voice level
JP2007114236A (ja) * 2005-10-18 2007-05-10 Nippon Hoso Kyokai <Nhk> 音声合成装置および音声合成プログラム
WO2009011438A1 (ja) * 2007-07-18 2009-01-22 Wakayama University 周期信号処理方法、周期信号変換方法、周期信号処理装置および周期信号の分析方法
WO2013014876A1 (ja) * 2011-07-28 2013-01-31 日本電気株式会社 素片処理装置、素片処理方法および素片処理プログラム
WO2019059094A1 (ja) * 2017-09-25 2019-03-28 ヤマハ株式会社 音声処理方法および音声処理装置
CN109952609A (zh) * 2016-11-07 2019-06-28 雅马哈株式会社 声音合成方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60113299A (ja) * 1983-11-24 1985-06-19 日本電気株式会社 音声合成装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60113299A (ja) * 1983-11-24 1985-06-19 日本電気株式会社 音声合成装置

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6760453B1 (en) 1998-03-30 2004-07-06 Nec Corporation Portable terminal device for controlling received voice level and transmitted voice level
JP4509273B2 (ja) * 1999-12-22 2010-07-21 ヤマハ株式会社 音声変換装置及び音声変換方法
JP2001184099A (ja) * 1999-12-22 2001-07-06 Yamaha Corp 音声変換装置及び音声変換方法
JP2004139033A (ja) * 2002-09-25 2004-05-13 Nippon Hoso Kyokai <Nhk> 音声合成方法、音声合成装置および音声合成プログラム
JP4532862B2 (ja) * 2002-09-25 2010-08-25 日本放送協会 音声合成方法、音声合成装置および音声合成プログラム
JP2007114236A (ja) * 2005-10-18 2007-05-10 Nippon Hoso Kyokai <Nhk> 音声合成装置および音声合成プログラム
WO2009011438A1 (ja) * 2007-07-18 2009-01-22 Wakayama University 周期信号処理方法、周期信号変換方法、周期信号処理装置および周期信号の分析方法
US8781819B2 (en) 2007-07-18 2014-07-15 Wakayama University Periodic signal processing method, periodic signal conversion method, periodic signal processing device, and periodic signal analysis method
WO2013014876A1 (ja) * 2011-07-28 2013-01-31 日本電気株式会社 素片処理装置、素片処理方法および素片処理プログラム
CN109952609A (zh) * 2016-11-07 2019-06-28 雅马哈株式会社 声音合成方法
CN109952609B (zh) * 2016-11-07 2023-08-15 雅马哈株式会社 声音合成方法
WO2019059094A1 (ja) * 2017-09-25 2019-03-28 ヤマハ株式会社 音声処理方法および音声処理装置
JP2019060941A (ja) * 2017-09-25 2019-04-18 ヤマハ株式会社 音声処理方法

Also Published As

Publication number Publication date
JP2904279B2 (ja) 1999-06-14

Similar Documents

Publication Publication Date Title
EP1220195B1 (en) Singing voice synthesizing apparatus, singing voice synthesizing method, and program for realizing singing voice synthesizing method
US8195464B2 (en) Speech processing apparatus and program
JPH031200A (ja) 規則型音声合成装置
JPH06110498A (ja) 音声合成システムの音声断片コーディングおよびそのピッチ調節方法とその有声音合成装置
WO2011151956A1 (ja) 声質変換装置及びその方法、母音情報作成装置並びに声質変換システム
JP3576840B2 (ja) 基本周波数パタン生成方法、基本周波数パタン生成装置及びプログラム記録媒体
US5659664A (en) Speech synthesis with weighted parameters at phoneme boundaries
JP2612868B2 (ja) 音声の発声速度変換方法
JPH0247700A (ja) 音声合成方法および装置
JP2761552B2 (ja) 音声合成方法
JP5106274B2 (ja) 音声処理装置、音声処理方法及びプログラム
JP5075865B2 (ja) 音声処理装置、方法、及びプログラム
JP2612867B2 (ja) 音声ピッチ変換方法
JPH0580791A (ja) 音声規則合成装置および方法
JP3081300B2 (ja) 残差駆動型音声合成装置
JP3089940B2 (ja) 音声合成装置
JP3394281B2 (ja) 音声合成方式および規則合成装置
Chabchoub et al. High quality Arabic concatenative speech synthesis
JPH0756590A (ja) 音声合成装置、音声合成方法及び記録媒体
Zovato et al. Prosodic analysis of a multi-style corpus in the perspective of emotional speech synthesis.
JPH0836397A (ja) 音声合成装置
JP2001312300A (ja) 音声合成装置
Ngo et al. Toward a rule-based synthesis of vietnamese emotional speech
Vine et al. Synthesising emotional speech by concatenating multiple pitch recorded speech units
Mohanty et al. An Approach to Proper Speech Segmentation for Quality Improvement in Concatenative Text-To-Speech System for Indian Languages

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees