JP3631657B2 - 声質変換装置および声質変換方法、並びに、プログラム記録媒体 - Google Patents
声質変換装置および声質変換方法、並びに、プログラム記録媒体 Download PDFInfo
- Publication number
- JP3631657B2 JP3631657B2 JP2000100801A JP2000100801A JP3631657B2 JP 3631657 B2 JP3631657 B2 JP 3631657B2 JP 2000100801 A JP2000100801 A JP 2000100801A JP 2000100801 A JP2000100801 A JP 2000100801A JP 3631657 B2 JP3631657 B2 JP 3631657B2
- Authority
- JP
- Japan
- Prior art keywords
- speaker
- spectrum
- phoneme
- envelope
- frequency
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000006243 chemical reaction Methods 0.000 title claims abstract description 236
- 238000000034 method Methods 0.000 title claims description 56
- 238000001228 spectrum Methods 0.000 claims abstract description 292
- 230000006870 function Effects 0.000 claims abstract description 149
- 230000015654 memory Effects 0.000 claims abstract description 106
- 230000003595 spectral effect Effects 0.000 claims description 137
- 230000001755 vocal effect Effects 0.000 claims description 133
- 238000000605 extraction Methods 0.000 claims description 43
- 238000012935 Averaging Methods 0.000 claims description 23
- 230000008602 contraction Effects 0.000 claims description 13
- 238000012937 correction Methods 0.000 claims description 11
- 230000009466 transformation Effects 0.000 claims description 7
- 230000001131 transforming effect Effects 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 2
- 238000004590 computer program Methods 0.000 claims 1
- 238000004458 analytical method Methods 0.000 description 29
- 239000000284 extract Substances 0.000 description 20
- 230000015572 biosynthetic process Effects 0.000 description 12
- 238000003786 synthesis reaction Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 8
- 238000010606 normalization Methods 0.000 description 4
- 230000002194 synthesizing effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 210000004704 glottis Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000001308 synthesis method Methods 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/003—Changing voice quality, e.g. pitch or formants
- G10L21/007—Changing voice quality, e.g. pitch or formants characterised by the process used
- G10L21/013—Adapting to target pitch
- G10L2021/0135—Voice conversion or morphing
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Description
【発明の属する技術分野】
この発明は、合成音声または入力音声を特定話者の音質に変換して出力する声質変換装置および声質変換方法、並びに、声質変換処理プログラムを記録したプログラム記録媒体に関する。
【0002】
【従来の技術】
これまで、より自然で人間の発声に近い合成音声の実現を目指して、テキスト音声合成装置が数多く開発されてきている。この目標の実現がある程度なされた時点で、次に、好きな声優や女優または家族や恋人等の特定話者の声質や韻律で発声するテキスト音声合成装置のニーズが高まってくることが当然予想される。また、声質・韻律変換のために音声合成装置が必要とする音声データは、提供者の発声負担を考慮して、できるだけ少量であることが望まれる。
【0003】
従来より、声質を変換する方法として、スペクトル包絡からフォルマント周波数を抽出して変換する方法(例えば、桑原,大串、「ホルマント周波数、バンド幅の独立制御と個人性判断」、電子通信学会論文誌、Vol.j69‐A No.4,pp.509‐517(1986))。また、上記スペクトル包絡のピーク点を求め、そのピーク点の周波数を基準として各スペクトル包絡を帯域分割し、これら分割点について求めた周波数差と強度差とを利用してスペクトル包絡を変形させる方法(例えば、特開平9‐244694号公報)がある。
【0004】
一方において、不特定話者の音声認識技術分野において、音声スペクトルの周波数軸・強度軸の同時非線形伸縮を行なうことによって、話者正規化に関して著しい効果が見られ、音声認識性能が向上したという報告がある(例えば、中川,神谷,坂井、「音声スペクトルの時間軸・周波数軸・強度軸の同時非線形伸縮に基づく不特定話者の単語音声の認識」、電子通信学会論文誌、Vol.j64‐D No.2,pp.116‐123(1981))。
【0005】
また、予め変換元話者と変換先話者とが発声した音声における複数母音のスペクトル包絡系列(n次元ベクトル系列)間で周波数領域におけるDP(動的計画法)マッチングを行ない、求められた―つの最適DPパスを利用して上記変換元話者のスペクトル包絡を変換先話者のスペクトル包絡に変換する方法が提案されている(例えば、特開平4‐147300号公報)。
【0006】
【発明が解決しようとする課題】
しかしながら、上記従来の声質変換方法には、以下のような問題がある。すなわち、フォルマント周波数を抽出して変換する方法においては、上記フォルマント周波数の抽出精度によって音質が影響されるという問題がある。また、上記ピーク点の周波数を基準としたスペクトル包絡の分割点の周波数差と強度差とに基づいてスペクトル包絡を変形させる方法においては、ピーク点の周波数によって分割されるスペクトルの帯域が影響されるという問題があり、ピッチ周波数が高い場合における低域のピーク点の抽出精度によって音質が影響されるという問題も想定される。
【0007】
また、上記音声スペクトルの周波数軸・強度軸の同時非線形伸縮によって話者正規化を行なう方法においては、非線形伸縮の際の制約条件を相当上手く設定しないと、個人差のみならず音韻差まで正規化されてしまい、結果として性能を下げてしまうという問題がある。
【0008】
また、変換元話者と変換先話者とが発声した音声における複数母音のスペクトル包絡系列(n次元ベクトル系列)間でDPマッチングを行なう方法においては、調音点や口の開き具合などの発声癖に起因する個人差(ソフト差)の影響で各母音毎の最適DPパスが異なる場合には、似通った最適DPパス群(例えば、後舌母音)のメンバーが多い方に偏って、他の群にはやや不適切なDPパスを抽出し、全体として最適ではないDPパスが選択されてしまうという問題がある。また、最適DPパスが偏らないように上手く学習用の母音を選択できた場合には、声道形状や声道長等の身体上の差に起因する個人差(ハード差)のみを正規化するDPパスであるため、正規化による認識性能の向上が充分でないという問題がある。さらに、変換元話者と変換先話者とが同じ内容(単語または文:例えば「あいうえお、いえあおう」)を発声するという制約を前提にしているため、変換元話者の発声内容が異なっていたり、音声データが不足している場合には、利用することができないという問題もある。
【0009】
このように、上記従来の声質変換方法においては、声質の変換性能の点において、十分であるとは言えないのである。
【0010】
そこで、この発明の目的は、変換先話者の発声負担を軽減し、より精度の良い声質変換を行うことができる声質変換装置および声質変換方法、並びに、声質変換処理プログラムを記録したプログラム記録媒体を提供することにある。
【0011】
【課題を解決するための手段】
上記目的を達成するため、第1の発明は、第1話者の声質での音声を第2話者の声質での音声に変換する声質変換装置であって、上記第1話者が発声した第1音声から第1スペクトル包絡を抽出する一方,第2話者が発声した2音声から第2スペクトル包絡を抽出するスペクトル包絡抽出手段と、上記抽出された第1スペクトル包絡および第2スペクトル包絡を音声単位としての音素のラベルを付与して格納する第1メモリ手段と、同一ラベルに関して,上記第1メモリに格納された上記第1スペクトル包絡と第2スペクトル包絡とに対して動的計画法を用いた非線形な周波数伸縮マッチングを行って,両スペクトル包絡の周波数軸の対応付けを表わす周波数ワーピング関数を求める非線形周波数軸スペクトルマッチング手段と、上記周波数ワーピング関数を音素のラベルを付与して格納する第2メモリ手段と、指定された音素名の第1スペクトル包絡を上記第1メモリから読み出す一方,上記指定された音素名の周波数ワーピング関数を上記第2メモリから読み出して,この読み出された周波数ワーピング関数に基づいて,上記読み出された第1スペクトル包絡を第2話者に関するスペクトル包絡に変換するスペクトル包絡変換手段と、上記第2メモリ手段に格納された周波数ワーピング関数を上記ラベルに基づいて音素・類似音素・有声音区間 / 無声音区間および話者毎にグループ化し , 各グループに属する周波数ワーピング関数の平均値を算出し , 得られた平均周波数ワーピング関数を各グループ名のラベルを付与して上記第2メモリ手段に格納させる平均化手段を備えると共に、上記スペクトル包絡変換手段は , 上記指定された音素名に関する上記第1メモリ手段に格納された第2スペクトル包絡の数に応じて , 上記指定された音素が属する何れかのグループの平均周波数ワーピング関数を上記周波数ワーピング関数として用いるようになっていることを特徴としている。
【0012】
上記構成によれば、第1話者の音声から得られた第1スペクトル包絡と第2話者の音声から得られた第2スペクトル包絡との周波数軸の対応付けを表わす周波数ワーピング関数が用いられ、指定された音素名の第1話者による第1スペクトル包絡の周波数軸が非線形伸縮されて第2話者によるスペクトル包絡に変換され、上記指定された音素名の第2話者での音声が得られる。したがって、第1話者による第1スペクトル包絡の特定位置を抽出する必要が無く、上記特定位置の抽出精度に音質が影響されることのない精度の高い声質変換が行われる。
【0013】
さらに、平均周波数ワーピング関数が「音素」 , 「類似音素」 , 「有声音区間 / 無声音区間」および「話者」毎のグループ別に求められている。したがって、上記第1メモリ手段に保存されている第2話者の発声データの量に応じて、適切なグループの平均周波数ワーピング関数を選択して上記周波数ワーピング関数の代りに用いることができる。例えば、後舌母音 / o / の発声データが少ないか全く無い場合には、当該音素 / o / の類似音素である後舌母音 / a / の平均周波数ワーピング関数、または、有声音区間の平均周波数ワーピング関数が選択される。こうして、第2話者の発声データの量が少ない場合でも対処可能になる。さらに、上記音素毎および類似音素毎の平均周波数ワーピング関数を求めることによって、発声癖に起因する個人差が正規化される。
【0014】
また、上記第1の発明の声質変換装置は、上記第1メモリ手段を,上記第1スペクトル包絡および第2スペクトル包絡の傾きをも音声単位としての音素のラベルを付与して格納するように成し、上記第1話者が発声した第1音声から第1スペクトル包絡の傾きを抽出する一方,第2話者が発声した2音声から第2スペクトル包絡の傾きを抽出して上記第1メモリ手段に格納させるスペクトル傾き抽出手段と、指定された音素名の第1スペクトル包絡の傾きと第2スペクトル包絡の傾きとを上記第1メモリ手段から読み出して,両傾きの差に基づいて,上記スペクトル包絡変換手段によって得られた上記第2話者に関するスペクトル包絡の傾きを補正するスペクトル傾き補正手段を備えることが望ましい。
【0015】
上記構成によれば、上記指定された音素名での第1,第2スペクトル包絡の傾きの差に基づいて、上記得られた第2話者に関するスペクトル包絡の傾きが補正されて、より第2話者の声質に近い音声が得られる。
【0016】
また、上記第1の発明の声質変換装置は、上記音声単位は音素であり、上記第1メモリ手段に格納された第1スペクトル包絡の傾きおよび第2スペクトル包絡の傾きを上記ラベルに基づいて音素・類似音素・有声音区間/無声音区間および話者毎にグループ化し,各グループに属するスペクトル包絡の傾きの平均値を算出し,得られた平均スペクトル傾きを各話者名および各グループ名のラベルを付与して上記第1メモリ手段に格納させる平均化手段を備えると共に、上記スペクトル傾き補正手段を,指定された音素名に関する上記第1メモリ手段に格納された第2スペクトル包絡の傾きの数に応じて , 上記指定された音素が属する何れかのグループの平均スペクトル傾きを上記スペクトル包絡の傾きとして用いるように成すことが望ましい。
【0017】
上記構成によれば、平均スペクトル傾きが「音素」,「類似音素」,「有声音区間/無声音区間」および「話者」毎のグループ別に求められている。したがって、上記第1メモリ手段に保存されている第2話者の発声データの量に応じて、適切なグループの平均スペクトル傾きを選択して上記スペクトル包絡の傾きの代りに用いることができる。こうして、第2話者の発声データの量が少ない場合でも対処可能になる。さらに、上記音素毎および類似音素毎のの平均スペクトル傾きを求めることによって、発声癖に起因する個人差が正規化される。
【0018】
また、上記第1の発明の声質変換装置は、上記抽出された第1スペクトル包絡または第2スペクトル包絡の時系列を不特定話者音声認識方法によって認識し、認識結果の音素名を上記第1メモリ手段に送出する音声認識手段を備えることが望ましい。
【0019】
上記構成によれば、上記第1,第2話者の発声から抽出された第1,第2スペクトル包絡から、ラベル用の音素名が自動的に得られる。こうして、上記スペクトル包絡あるいはスペクトル包絡の傾きに対するラベル付け処理が容易に行われる。
【0020】
また、上記第1の発明の声質変換装置は、上記音声認識手段を,得られた音素名の時系列を上記スペクトル包絡変換手段あるいはスペクトル傾き補正手段に供給可能に成し、上記スペクトル包絡変換手段あるいはスペクトル傾き補正手段を,上記音声認識手段によって得られた音素名の時系列を上記指定された音素名とするように成すことが望ましい。
【0021】
上記構成によれば、上記第1話者の発声による第1スペクトル包絡を第2話者のスペクトル包絡に変換する際の音素名が、上記音声認識手段によって得られた音素名の時系列によって指定される。こうして、キーボード等から声質変換すべき音素名列を入力することなく、上記第1話者の発声音が上記第2話者の音質での音声に直接リアルタイムに変換される。
【0022】
また、第2の発明は、第1話者の声質での音声を第2話者の声質での音声に変換する声質変換装置であって、上記第1話者が発声した第1音声から第1声道断面積を抽出する一方,第2話者が発声した2音声から第2声道断面積を抽出する声道断面積抽出手段と、上記抽出された第1声道断面積および第2声道断面積を音声単位としての音素のラベルを付与して格納する第1メモリ手段と、同一ラベルに関して,上記第1メモリに格納された上記第1声道断面積と第2声道断面積とに対して動的計画法を用いた非線形な声道軸伸縮マッチングを行って,両声道断面積の声道軸の対応付けを表わす声道軸ワーピング関数を求める非線形声道軸マッチング手段と、上記声道軸ワーピング関数を音素のラベルを付与して格納する第2メモリ手段と、指定された音素名の第1声道断面積を上記第1メモリから読み出す一方,上記指定された音素名の声道軸ワーピング関数を上記第2メモリから読み出して,この読み出された声道軸ワーピング関数に基づいて,上記読み出された第1声道断面積を第2話者に関する声道断面積に変換する声道断面積変換手段と、上記第2メモリ手段に格納された声道軸ワーピング関数を上記ラベルに基づいて音素・類似音素・有声音区間 / 無声音区間および話者毎にグループ化し , 各グループに属する声道軸ワーピング関数の平均値を算出し , 得られた平均声道軸ワーピング関数を各グループ名のラベルを付与して上記第2メモリ手段に格納させる平均化手段を備えると共に、上記声道断面積変換手段は , 上記指定された音素名に関する上記第1メモリ手段に格納された第2声道断面積の数に応じて , 上記指定された音素が属する何れかのグループの平均声道軸ワーピング関数を上記声道軸ワーピング関数として用いるようになっていることを特徴としている。
【0023】
上記構成によれば、第1話者の音声から得られた第1声道断面積と第2話者の音声から得られた第2声道断面積との声道軸の対応付けを表わす声道軸ワーピング関数が用いられ、指定された音素名の第1話者による第1声道断面積の声道軸が非線形伸縮されて第2話者による声道断面積に変換され、上記指定された音素名の第2話者での音声が得られる。したがって、第1話者による第1スペクトル包絡の特定位置を抽出する必要が無く、上記特定位置の抽出精度に音質が影響されることのない精度の高い声質変換が行われる。
【0024】
さらに、上記第1メモリ手段に保存されている第2話者の発声データの量に応じて、適切なグループの平均声道軸ワーピング関数を選択して上記声道軸ワーピング関数の代りに用いることができる。したがって、第2話者の発声データの量が少ない場合でも対処可能になる。さらに、上記音素毎および類似音素毎の平均声道軸ワーピング関数を求めることによって、発声癖に起因する個人差が正規化される。
【0025】
また、第3の発明は、第1話者の声質での音声を第2話者の声質での音声に変換する声質変換方法であって、上記第1話者が発声した第1音声から第1スペクトル包絡を抽出する一方,第2話者が発声した2音声から第2スペクトル包絡を抽出するステップと、同一音素名に関して,上記抽出された上記第1スペクトル包絡と第2スペクトル包絡とに対して動的計画法を用いた非線形な周波数伸縮マッチングを行って,両スペクトル包絡の周波数軸の対応付けを表わす周波数ワーピング関数を求めるステップと、指定された音素名の第1スペクトル包絡を,上記指定された音素名の周波数ワーピング関数に基づいて、第2話者に関するスペクトル包絡に変換するステップと、上記周波数ワーピング関数を上記音素名に基づいて音素・類似音素・有声音区間 / 無声音区間および話者毎にグループ化し , 各グループに属する周波数ワーピング関数の平均値を算出し , 得られた平均周波数ワーピング関数に各グループ名のラベルを付与するステップを備えると共に、上記第1スペクトル包絡を第2話者に関するスペクトル包絡に変換するステップでは , 上記指定された音素名に関する上記抽出された第2スペクトル包絡の数に応じて , 上記指定された音素が属する何れかのグループの平均周波数ワーピング関数を上記周波数ワーピング関数として用いるようになっていることを特徴としている。
【0026】
上記構成によれば、上記請求項1の場合と同様にして、指定された音素名の第1話者による第1スペクトル包絡の周波数軸が非線形伸縮されて第2話者によるスペクトル包絡に変換され、上記指定された音素名の第2話者による音声が得られる。したがって、第1話者による第1スペクトル包絡の特定位置を抽出する必要が無く、上記特定位置の抽出精度に音質が影響されることのない精度の高い声質変換が行われる。
【0027】
さらに、上記抽出された第2話者の発声データの量に応じて、適切なグループの平均周波数ワーピング関数を選択して上記周波数ワーピング関数の代りに用いることができる。したがって、第2話者の発声データの量が少ない場合でも対処可能になる。さらに、上記 音素毎および類似音素毎の平均周波数ワーピング関数を求めることによって、発声癖に起因する個人差が正規化される。
【0028】
また、上記第3の発明の声質変換方法は、上記第1話者が発声した第1音声から第1スペクトル包絡の傾きを抽出する一方,上記第2話者が発声した2音声から第2スペクトル包絡の傾きを抽出するステップと、上記指定された音素名の第1スペクトル包絡の傾きと第2スペクトル包絡の傾きとの差に基づいて,上記得られた第2話者に関するスペクトル包絡の傾きを補正するステップを備えることが望ましい。
【0029】
上記構成によれば、上記請求項2の場合と同様にして上記得られた第2話者に関するスペクトル包絡の傾きが補正され、より第2話者の声質に近い音声が得られる。
【0030】
また、第4の発明のプログラム記録媒体は、コンピュータを、上記第1の発明におけるスペクトル包絡抽出手段,非線形周波数軸スペクトルマッチング手段,スペクトル包絡変換手段,平均化手段 ,スペクトル傾き抽出手段およびスペクトル傾き補正手段として機能させる声質変換処理プログラムが記録されていることを特徴としている。
【0031】
上記構成によれば、指定された音素名の第1話者による第1スペクトル包絡の周波数軸が非線形伸縮されて、第2話者に関するスペクトル包絡に変換される。さらに、得られた第2話者に関するスペクトル包絡の傾きが、第1,第2スペクトル包絡の傾きの差に基づいて補正される。こうして、第1話者による第1スペクトル包絡の特定位置の抽出精度に音質が影響されることのない、精度の高い声質変換が行われる。
【0032】
さらに、上記抽出された第2話者の発声データの量に応じて、音素 , 類似音素 , 有声音区間 / 無声音区間および話者毎のグループのうち適切なグループの平均周波数ワーピング関数が選択されて上記スペクトル包絡の変換の際に用いることができる。したがって、第2話者の発声データの量が少ない場合でも対処可能になる。さらに、上記音素毎および類似音素毎の平均周波数ワーピング関数を求めることによって、発声癖に起因する個人差を正規化することができる。
【0033】
【発明の実施の形態】
以下、この発明を図示の実施の形態により詳細に説明する。尚、以下の説明においては、上記音声単位を「音素」としているが、この発明はこれに限定されるものではない。
【0034】
<第1実施の形態>
図1は、本実施の形態の声質変換装置におけるブロック図である。波形分析部1は、入力された音声波形からケプストラムと韻律情報とを抽出する。スペクトル包絡抽出部2は、波形分析部1で抽出された低次のケプストラム係数に基づいて、図2(c),(f)に示すようなスペクトル包絡を抽出する。スペクトル傾き抽出部3は、上記スペクトル包絡を最小2乗近似直線で近似した場合における近似直線の傾きである図2(b),(e)に示すようなスペクトル傾きを抽出する。音源特性抽出部4は、波形分析部1で抽出された高次のケプストラム係数に基づいて、図2(a),(d)に示すような音源特性を抽出する。音声認識部5は、スペクトル包絡抽出部2で抽出されたスペクトル包絡と波形分析部1で抽出された韻律情報(パワーやピッチ周波数等)の時系列に基づいて、HMM(隠れマルコフモデル)を用いて音声認識を行なう。そして、認識結果の音素(音声単位)系列をその音素区間における韻律情報(音素継続時間長,平均パワー,平均ピッチ周波数等)と共に出力する。尚、上記抽出されたスペクトル包絡,スペクトル傾き,音源特性は、音声認識部5による各話者毎の認識結果である音素ラベルが付与されて特徴メモリ6に格納される。
【0035】
平均化部7は、上記特徴メモリ6に格納されている話者毎の各音素のスペクトル包絡,スペクトル傾きおよび音源特性に対して、線形変換等によって、音素,類似音素,有声音区間/無声音区間及び音声区間全体(話者)毎に分類して平均値を算出する。そして、得られた平均スペクトル包絡,平均スペクトル傾きおよび平均音源特性を、対応する音素名,類似音素名,有声音区間/無声音区間あるいは音声区間全体(話者)のラベルを付与して特徴メモリ6に格納させる。さらに、後に詳述するようにして周波数ワープ表メモリ9に格納される話者毎の各音素の周波数ワーピング関数に対して、線形変換等によって、上記類似音素,有声音区間/無声音区間および音声区間全体毎に分類して平均値を算出する。そして、得られた平均周波数ワーピング関数を、対応する類似音素名,有声音区間/無声音区間あるいは音声区間全体のラベルを付与して周波数ワープ表メモリ9に格納させる。
【0036】
ここで、上記周波数ワープ表メモリ9に格納されている上記周波数ワーピング関数の算出は、非線形周波数軸スペクトルマッチング部8によって、次のようにして行われる。すなわち、非線形周波数軸スペクトルマッチング部8は、動的計画法による非線形周波数軸スペクトルマッチングによって、各音素毎に、特徴メモリ6に格納された変換元話者Sの平均スペクトル包絡と変換先話者Tの平均スペクトル包絡とのマッチングを行なう。そして、最適DPパスに相当する周波数ワーピング関数を求め、音素名を付与して周波数ワープ表メモリ9に格納するのである。
【0037】
スペクトル包絡変換部10は、発声指示に対応する音素の変換元話者Sのスペクトル包絡を特徴メモリ6から読み出す一方、周波数ワープ表メモリ9から当該音素の周波数ワーピング関数を読み出す。その場合、特徴メモリ6および周波数ワープ表メモリ9に格納されている変換先話者の該当音素のデータが少ないか全く無い場合には、当該音素の類似音素や当該音素と同じ区間(有声音区間または無声音区間)や音声区間全体の平均周波数ワーピング関数を読み出す。そして、上記(平均)周波数ワーピング関数を利用して、変換元話者Sのスペクトル包絡を変換先話者Tのスペクトル包絡に変換する。以下、この変換して得られた変換先話者Tのスペクトル包絡を「変形スペクトル包絡」と言う。
【0038】
スペクトル傾き変換部11は、上記特徴メモリ6から、発声指示に対応する音素の変換元話者Sの平均スペクトル傾きと変換先話者Tの平均スペクトル傾きとを読み出し、両平均スペクトル傾きの差の分だけスペクトル包絡変換部10からの上記変形スペクトル傾きを補正する変形スペクトル傾き変換を行い、正規化スペクトル包絡を求める。音源特性変換部12は、発声指示に対応する平均音源特性を特徴メモリ6から読み出し、必要に応じて線形変換等によって変形して変形音源特性を求める。スペクトル合成部13は、スペクトル傾き変換部11からの正規化スペクトル包絡と音源特性変換部12からの変形音源特性とを用いて、基本周波数の高周波数に亘るスペクトル強度を求めることによって、合成スペクトルを求める。波形合成部14は、上記合成スペクトルのスペクトル強度に基づいて、正弦波重量法によって音声波形を合成する。
【0039】
図3〜図5は、上記構成を有する声質変換装置による声質変換処理動作のフローチャートである。以下、図3〜図5に従って、上記声質変換装置の動作について詳細に説明する。
【0040】
ステップS1で、話者番号sに初期値「1」が設定される。尚、この話者番号sや後の音素番号x,変換先話者番号sT,変換元話者番号sS等は、作業メモリ(図示せず)等に設定される。また、上記話者としては、声質変換を行う際の変換元話者Sおよび変換先話者Tと成り得る話者が選ばれる。ステップS2で、波形分析部1に音声波形が入力される。
【0041】
ステップS3で、上記波形分析部1によって、入力音声波形に対して波形分析が行われてケプストラムと韻律情報とが抽出される。ステップS4で、スペクトル包絡抽出部2によって、波形分析部1からの低次のケプストラム係数に基づいて、スペクトル包絡が抽出される。ステップS5で、スペクトル傾き抽出部3によって、上記スペクトル包絡を最小2乗近似直線で近似した場合の近似直線の傾きが、スペクトル傾きとして抽出される。ステップS6で、音源特性抽出部4によって、波形分析部1からの高次のケプストラム係数に基づいて、音源特性が抽出される。ステップS7で、音声認識部5によって、入力音声が認識され、認識結果としての音素番号(音素名)系列と各音素区間の韻律情報(音素継続時間長,平均パワー,平均ピッチ周波数等)とが出力される。ここで、上記音素番号は、予め音素名に対応付けて決定されており、RAM(ランダム・アクセス・メモリ)(図示せず)に格納されているものとする。
【0042】
尚、本実施の形態においては、上記波形分析部1による音声波形分析をケプストラム分析とし、このケプストラム分析結果に基づいてスペクトル包絡,スペクトル傾きおよび音源特性を抽出するようにしている。しかしながら、波形分析部1によるにおける音声波形分析法はこれに限定されるものではなく、LPC(線形予測分析)等のスペクトル包絡および音源特性を抽出できる方法であれば何れの音声波形分析法であっても差し支えない。
【0043】
ステップS8で、上記スペクトル包絡抽出部2で抽出された上記スペクトル包絡とスペクトル傾き抽出部3で抽出された上記スペクトル傾きと音源特性抽出部4で抽出された上記音源特性とが、音声認識部5からの話者番号sと音素番号xの対でなるラベルが付与されて特徴メモリ6によって格納される。ステップS9で、当該話者番号sの話者による発声である学習音声があるか否か、つまり同一話者による音声入力があるか否かが判別される。その結果、あれば上記ステップS2に戻って、次の音声に関する上記スペクトル包絡,ペクトル傾きおよび音源特性の抽出と音声認識とに移行する。一方、なければステップS10に進む。
【0044】
ステップS10で、上記音素番号xが、初期値「1」に設定される。ステップS11で、平均化部7によって、特徴メモリ6から話者番号sと音素番号xとが付与されたスペクトル包絡,ペクトル傾きおよび音源特性が読み出される。そして、この読み出されたスペクトル包絡,ペクトル傾きおよび音源特性の夫々が、「音素」,「類似音素」,「有声音区間/無声音区間」および「音声区間全体」毎に分類される。ステップS12で、音素番号xが最大値xMAX以上であるか否かが判別される。その結果、最大値xMAX以上であればステップS14に進む一方、そうでなければステップS13に進む。ステップS13で、音素番号xがインクリメントされる。そうした後に、上記ステップS11に戻って、次の音素のスペクトル包絡,スペクトル傾きおよび音源特性に対する分類に移行する。
【0045】
ステップS14で、上記平均化部7によって、話者番号sが付与されたスペクトル包絡,ペクトル傾きおよび音源特性に関する「音素」,「類似音素」,「有声音区間/無声音区間」及び「音声区間全体」毎の平均が、線形変換等によって算出される。そして、得られた平均スペクトル包絡,平均スペクトル傾きおよび平均音源特性が、特徴メモリ6によって対応する音素名,類似音素名,有声音区間/無声音区間および音声区間全体のラベルが付与されて格納される。
【0046】
ステップS15で、上記話者番号sが、最大値sMAX以上であるか否かが判別される。その結果、最大値sMAX以上であればステップS17に進む一方、そうでなければステップS16に進む。ステップS16で、話者番号sがインクリメントされる。そうした後、上記ステップS2に進んで、次の話者に関して、スペクトル包絡,スペクトル傾きおよび音源特性の抽出、音素認識、スペクトル包絡,スペクトル傾きおよび音源特性の分類、平均値算出に移行する。そして、上記ステップS15において、話者番号sが最大値sMAX以上であると判別されるとステップS17に移行する。
【0047】
このようにして、変換元話者Sの大量のデータと変換先話者Tの少量のデータとから抽出されたスペクトル包絡,スペクトル傾き及び音源特性が、話者番号sと音素番号xとのラベルが付与されて蓄積される。また、「音素」,「類似音素」,「有声音区間/無声音区間」および「音声区間全体」毎の平均スペクトル包絡,平均スペクトル傾きおよび平均音源特性が、話者番号sと音素名,類似音素名,有声音区間/無声音区間および音声区間全体とのラベルが付与されて蓄積されるのである。
【0048】
ステップS17で、上記変換先話者番号sTに、外部から指示された変換先話者番号が設定される。また、変換元話者番号sSに、同様に外部から指示された変換元話者番号が設定される。ステップS18で、音素番号xに初期値「1」が設定される。ステップS19で、非線形周波数軸スペクトルマッチング部8によって、特徴メモリ6から、変換先話者番号sTに該当する話者番号sと当該音素番号xとが付与された平均スペクトル包絡が検索される。そして、この検索結果に基づいて、当該変換先話者用の当該音素のデータが特徴メモリ6に保存されているか否かが判別される。その結果、保存されていればステップS20に進み、そうでなければステップS24に進む。ステップS20で、非線形周波数軸スペクトルマッチング部8によって、特徴メモリ6から、変換元話者番号sSに該当する話者番号sと当該音素番号xとが付与された平均スペクトル包絡が検索される。そして、この検索結果に基づいて、当該変換元話者用の当該音素のデータが特徴メモリ6に保存されているか否かが判別される。その結果、保存されていればステップS21に進み、そうでなければステップS24に進む。
【0049】
ステップS21で、上記非線形周波数軸スペクトルマッチング部8によって、動的計画法による非線形周波数軸スペクトルマッチングを用いて、当該音素に関して変換元話者Sの平均スペクトル包絡と変換先話者Tの平均スペクトル包絡とのマッチングが行われる。そして、最適DPパスに相当する周波数ワーピング関数が求められる。
【0050】
図6(a)は、上記非線形周波数軸スペクトルマッチング部8によって実行される動的計画法による非線形周波数軸スペクトルマッチングの概念を示す。同じ音素に関する変換元話者Sの平均スペクトル包絡Sと変換先話者Tの平均スペクトル包絡Tとに関して、スペクトル包絡を帯域でL等分し、両スペクトル包絡S,Tの各チャネルの出力値(スペクトル強度)を表す要素値を要素値Tiおよび要素値Sj(1≦i,j≦L)とする。そして、両スペクトル包絡同士が対応するように周波数軸を動的計画法によって非線形に伸縮する。つまり、対応すべき2つのスペクトル包絡S,Tからなる平面上の格子点c=(i,j)の系列
F=c1,c2,…,cK,…,cL
を考える。そして、格子点c=(i,j)に関する要素値Tiと要素値Sjとの距離d(i,j)=d(c)の系列Fに沿った総和Dを最小にする系列Fminを、上記最適DPパス(周波数ワーピング関数)とするのである。
【0051】
ステップS22で、上記非線形周波数軸スペクトルマッチング部8によって、上記周波数ワーピング関数が、音素番号xと共に周波数ワープ表メモリ9に送出される。そして、周波数ワープ表メモリ9によって音素番号xのラベルが付与されて格納される。
【0052】
本実施の形態において用いる周波数ワーピング関数のデータ形式は、図6(b)に示すように、DPパス上の格子点c(i,j)の要素値は「0」より大きな整数であり、DPパス以外の格子点c(i,j)の要素値は「0」であるようなL行L列のマトリクスである。尚、帯域の分割数Lの数は多い方がワーピング精度が上がるので望ましい。しかしながら、あまり多くすると周波数ワープ表メモリ9の記憶容量が大きくなり、処理時間も長くなってしまう。
【0053】
尚、上述の説明においては、非線形周波数軸スペクトルマッチング部8は、同じ音素に関する変換元話者Sの平均スペクトル包絡Sと変換先話者Tの平均スペクトル包絡Tとにおける各チャンネルの要素値(スペクトル強度)Si,Tjを用いてマッチングを行なっているが、マッチング対象はスペクトル包絡の各チャネルの出力値(スペクトル強度)に限定されるものではない。例えば、平均スペクトル包絡Sと平均スペクトル包絡Tとに関する隣接チャネル間の出力値の差(スペクトル局所傾き)ΔSとΔTとを用いてマッチングを行なっても構わない。
但し、ΔSj=Sj−S(j-1)
ΔTi=Ti−T(i-1)
ここで、2≦i,j≦L
【0054】
ステップS23で、音素番号xが最大値xMAX以上であるか否かが判別される。その結果、最大値xMAX以上であればステップS25に進む一方、そうでなければステップS24に進む。ステップS24で、音素番号xがインクリメントされる。そうした後、上記ステップS19に戻って、次の音素の変換元話者Sと変換先話者Tとのスペクトル包絡のマッチング、得られた周波数ワーピング関数の格納の処理に移行する。
【0055】
ステップS25で、上記平均化部7によって、周波数ワープ表メモリ9から各話者毎の周波数ワーピング関数が読み出され、上記ステップS11において分類された「類似音素」,「有声音区間/無声音区間」及び「音声区間全体」毎の平均が、線形変換等によって算出される。そして、得られた平均周波数ワーピング関数(図6(c)に示すように周波数ワーピング関数の加算値で代用してもよい)が、対応する類似音素名,有声音区間/無声音区間および音声区間全体のラベルが付与されて、周波数ワープ表メモリ9によって格納される。
【0056】
以降、発声指示に基づく変換先話者の声質での音声合成処理に移行する。ステップS26で、スペクトル包絡変換部10,スペクトル傾き変換部11および音源特性変換部12に対して、発声指示音素に該当する音素番号xが入力される。ステップS27で、スペクトル包絡変換部10によって、特徴メモリ6から変換元話者番号sSに該当する話者番号sと当該音素番号xとが付与されたスペクトル包絡が読み出される。さらに、周波数ワープ表メモリ9から当該音素番号xが付与された平均周波数ワーピング関数(変換元話者番号sSと変換先話者番号sTとの間の平均周波数ワーピング関数)が読み出される。そして、変換元話者Sのスペクトル包絡Sが、平均周波数ワーピング関数(要素値c(i,j))を用いて次式
Ti=ΣSj*c(i,j)/Σc(i,j)
但し、1≦j≦L(または、i−α≦j≦i+α、α:正整数)
に従って変形されて、変換先話者Tでの変形スペクトル包絡T(iチャネルの要素値Ti)が求められる。その結果、図7(a)に示すように、変換元話者Sのスペクトル包絡SのピークSaのチャネル位置(j=4)が、変形スペクトル包絡Tにおいてはチャネル位置(i=3)にワープされるのである。
【0057】
ここで、本実施の形態においては、上記周波数ワープ表メモリ9には、各音素毎,各類似音素毎,有声音区間/無声音区間毎及び音声区間全体毎の複数の平均周波数ワーピング関数が格納されている。したがって、以下のように、学習用の変換先話者Tの発声データの量に応じて、適切な平均周波数ワーピング関数を選択することができるのである。すなわち、ある音素(例、後舌母音/o/)の発声データが少ないか全く無い場合には、当該音素(/o/)の類似音素(例、後舌母音/a/)の平均周波数ワーピング関数、または、有声音区間の平均周波数ワーピング関数を選択する。あるいは、当該音素(/o/)の発声データが十分に多い場合には、当該音素(/o/)の平均周波数ワーピング関数を選択するのである。こうすることによって、変換先話者Tの学習用発声データの量が少ない場合でも対処することができ、変換先話者Tの発声負担を軽減することができるのである。
【0058】
また、各音素毎および各類似音素毎に上記周波数ワーピング関数の平均値を求めることによって、調音点や口の開き具合等の発声癖に起因する個人差(ソフト差)が正しく正規化されている。したがって、最適な周波数ワーピング関数が得られるのである。
【0059】
ステップS28で、上記スペクトル傾き変換部11によって、上記特徴メモリ6から、変換元話者番号sSに該当する話者番号sと当該音素番号xとが付与された平均スペクトル傾きと、変換先話者番号sTに該当する話者番号sと当該音素番号xとが付与された平均スペクトル傾きとが読み出される。そして、図7(b)に示すように、両平均スペクトル傾きの差の分だけ、上記ステップS27において得られた変形スペクトル包絡の傾きが補正されて正規化スペクトル包絡が求められる。尚、この場合にも、学習用の変換先話者Tの発声データの量に応じて、適切な平均スペクトル傾きを選択することによって、変換先話者Tの学習用発声データの量が少ない場合でも対処することができるのである。
【0060】
ステップS29で、上記音源特性変換部12によって、特徴メモリ6から変換先話者番号sTに該当する話者番号sと当該音素番号xとが付与された平均音源特性が読み出される。そして、必要に応じて線形変換等によって変形されて変形音源特性が求められる。ステップS30で、スペクトル合成部13によって、上述のようにして得られた正規化スペクトル包絡と変形音源特性とを用いて合成スペクトルが求められる。このスペクトル合成法は、正規化スペクトル包絡と変形音源特性とを合成して、基本周波数の高周波数に亘るスペクトル強度を求めることによって行われる。ステップS31で、波形合成部14によって、上記合成スペクトルのスペクトル強度に基づいて、正弦波重量法によって音声波形が合成される。尚、音声波形の合成法は、合成スペクトルを用いた正弦波重量法に限定されるものではなく、上記正規化スペクトル包絡をゼロ位相化して基本周波数毎に重ね合わせる方法や、上記合成スペクトルを逆フーリエ変換する方法等によっても合成波形を得ることができる。
【0061】
ステップS32で、上記ステップS26において音素番号xが指定された発声指示音素は、最後の発声指示音素であるか否かが判別される。その結果、最後の発声指示音素でなければ上記ステップS26に戻って、次の発声指示音素に関する音声波形の合成へ移行する。一方、最後の発声指示音素であれば、声質変換処理動作を終了する。
【0062】
上述のように、本実施の形態においては、変換先話者Tおよび変換元話者Sの入力音声を波形分析部1でケプストラム分析し、スペクトル包絡抽出部2でスペクトル包絡を抽出し、スペクトル傾き抽出部3でスペクトル傾きを抽出し、音源特性抽出部4で音源特性を抽出する。そして、平均化部7で、上記スペクトル包絡,スペクトル傾きおよび音源特性の平均値を「音素」,「類似音素」,「有声音区間/無声音区間」,「音声区間全体」毎に求め、音声認識部5による認識結果の音素番号を付与して特徴メモリ6によって格納する。
【0063】
さらに、上記非線形周波数軸スペクトルマッチング部8で、特徴メモリ6に格納された全音素に関して変換元話者Sの平均スペクトル包絡と変換先話者Tの平均スペクトル包絡との非線形周波数軸スペクトルマッチングを行い、最適DPパスに相当する周波数ワーピング関数を求める。そして、平均化部7で、上記周波数ワーピング関数の平均値を「類似音素」,「有声音区間/無声音区間」および「音声区間全体」毎に求め、音素番号を付与して周波数ワープ表メモリ9に格納する。
【0064】
そして、発声指示に従って変換先話者の声質での音声合成を行う場合には、次の手順によって行う。すなわち、先ず、スペクトル包絡変換部10で、変換元話者Sの該当音素のスペクトル包絡を、該当音素の変換元話者S/変換先話T間の平均周波数ワーピング関数を用いて、変換先話者Tのスペクトル包絡(変形スペクトル包絡)に変換する。次に、スペクトル傾き変換部11で、変換元話者Sの平均スペクトル傾きと変換先話者Tの平均スペクトル傾きとの差の分だけ上記変形スペクトル包絡の傾きを補正して正規化スペクトル包絡を求める。次に、音源特性変換部12で、変換先話者Tの平均音源特性を変形して変形音源特性を求める。
【0065】
そうした後、上記スペクトル合成部13で上記正規化スペクトル包絡と変形音源特性とから合成スペクトルを求め、波形合成部14で上記合成スペクトルに基づいて音声波形を合成するのである。
【0066】
すなわち、本実施の形態においては、変換元話者のスペクトル包絡の周波数軸を非線形伸縮して変換先話者のスペクトル包絡を求め、その傾きを補正して正規化スペクトル包絡を求めるようにしている。したがって、従来のフォルマント周波数に基づく声質変換方法やスペクトル包絡のピーク点間の分割点に基づく声質変換方法のごとくスペクトル包絡の特定位置を抽出する必要が無く、上記特定位置の抽出精度に音質が影響されることはないのである。
【0067】
また、上記スペクトル包絡の変換時に用いる平均周波数ワーピング関数や、上記変形スペクトル包絡の傾き補正時に用いる平均スペクトル傾きや、上記変形音源特性を求める際に用いる平均音源特性は、「音素」,「類似音素」,「有声音区間/無声音区間」および「音声区間全体」毎に求めてある。したがって、特徴メモリ6や周波数ワープ表メモリ9に保存されている変換先話者Tの発声データの量に応じて、適切な区分での平均周波数ワーピング関数や平均スペクトル傾きや平均音源特性を用いることによって、変換先話者Tの学習用発声データの量が少ない場合でも対処することができる。すなわち、本実施の形態によれば、変換先話者Tの発声負担を軽減することができるのである。さらに、音素毎および類似音素毎の平均周波数ワーピング関数や平均スペクトル傾きや平均音源特性を求めることによって、発声癖に起因する個人差を正規化することができる。
【0068】
尚、上記実施の形態においては、変換先話者の声質での音声合成時には、スペクトル包絡変換部10,スペクトル傾き変換部11および音源特性変換部12に対して発声指示音素を指定するようにしている。しかしながら、この発明における発声指示音素の指定方法はこれに限るものではなく、次のように、変換元話者による発声によって直接指定することも可能である。
【0069】
すなわち、上記波形分析部1に対して、発声指示音素を変換元話者による発声で入力する。そして、音声認識部5によって、スペクトル包絡抽出部2からのスペクトル包絡と波形分析部1からの韻律情報との時系列に基づいて音声認識を行ない、認識結果の音素系列とその音素区間の韻律情報とを発声指示情報としてスペクトル包絡変換部10,スペクトル傾き変換部11および音源特性変換部12に入力するのである。そうすることによって、スペクトル包絡変換部10及びスペクトル傾き変換部11では、入力音素系列に従って該当音素の平均周波数ワーピング関数や平均スペクトル傾きを読み出す。一方、音源特性変換部12では、入力韻律情報に従って該当音素の音源特性を読み出すのである。こうすることによって、変換元話者による発声がリアルタイムで声質変換される。
【0070】
また、上記実施の形態においては、予め、変換元話者と変換先話者との同一音素の平均スペクトル包絡を求め、その平均スペクトル包絡を用いて非線形周波数軸スペクトルマッチングを行って平均周波数ワーピング関数を求めている。しかしながら、同一音素の個々のスペクトル包絡を用いて非線形周波数軸スペクトルマッチングを行って周波数ワーピング関数を求め、その周波数ワーピング関数を同一音素内で平均して平均周波数ワーピング関数を求めても差し支えない。
【0071】
<第2実施の形態>
図8は、本実施の形態の声質変換装置におけるブロック図である。図8において、波形分析部21,音源特性抽出部23,音源特性変換部30および波形合成部32は、第1実施の形態において図1に示す声質変換装置の波形分析部1,音源特性抽出部4,音源特性変換部12および波形合成部14と同様な構成を有して同様に動作する。
【0072】
声道断面積抽出部22は、波形分析部1で抽出された自己相関分析あるいは共分散分析に基づいて、図9(b),(d)に示すような声門から唇に掛けての声道断面積を抽出する。尚、図9(a),(c)は、音源特性抽出部23で抽出された音源特性を示す。音声認識部24は、声道断面積抽出部22で抽出された声道断面積と波形分析部21で抽出された韻律情報(パワーやピッチ周波数等)の時系列に基づいて音声認識を行なう。特徴メモリ25は、上記抽出された声道断面積および音源特性を、音素ラベルを付与して格納する。
【0073】
平均化部26は、上記特徴メモリ25に格納されている話者毎の各音素の声道断面積および音源特性に対して、音素,類似音素,有声音区間/無声音区間および音声区間全体(話者)毎に平均値の算出を行う。そして、得られた平均声道断面積および平均音源特性を、対応する音素名,類似音素名,有声音区間/無声音区間あるいは音声区間全体(話者)のラベルを付与して特徴メモリ25に格納させる。さらに、後に声道軸ワープ表メモリ28に格納される話者毎の各音素の声道軸ワーピング関数に対して、上記類似音素,有声音区間/無声音区間および音声区間全体毎に平均値の算出を行う。そして、得られた平均声道軸ワーピング関数を、対応する類似音素名,有声音区間/無声音区間あるいは音声区間全体のラベルを付与して声道軸ワープ表メモリ28に格納させる。
【0074】
非線形声道軸マッチング部27は、上記第1実施の形態における非線形周波数軸スペクトルマッチング部8の場合と同様に、動的計画法による非線形声道軸マッチングによって、各音素毎に、図10(a)に示すように、特徴メモリ25に格納された変換元話者Sの平均声道断面積と変換先話者Tの平均声道断面積とのマッチングを行なう。そして、図10(b)に示すような声道軸ワーピング関数を求めて、音素名を付与して声道軸ワープ表メモリ28に格納させるのである。尚、図10(c)は、平均化部26によって算出された平均声道軸ワーピング関数である(加算値代用)。
【0075】
声道断面積変換部29は、発声指示に対応する音素の変換元話者Sの声道断面積を特徴メモリ25から読み出す一方、声道軸ワープ表メモリ28から当該音素の声道軸ワーピング関数を読み出す。そして、上記声道軸ワーピング関数を利用して、図11に示すようにして、変換元話者Sの声道断面積を変換先話者Tの声道断面積(変形声道断面積)に変換する。そして、スペクトル合成部31は、声道断面積変換部29からの変形声道断面積と音源特性変換部30からの変形音源特性とを用いて、基本周波数の高周波数に亘るスペクトル強度を求めることによって、合成スペクトルを求めるのである。
【0076】
このように、第2の実施の形態においては、上記第1実施の形態におけるスペクトル包絡の代りにスペクトル包絡との関連性の高い声道断面積を用い、変換元話者の声道断面積の声道軸を非線形伸縮して変換先話者の声道断面積を求めるようにしている。したがって、上記第1実施の形態の場合と同様に、従来のフォルマント周波数に基づく声質変換方法やスペクトル包絡のピーク点間の分割点に基づく声質変換方法のごとくスペクトル包絡の特定位置を抽出する必要が無く、上記特定位置の抽出精度に音質が影響されることはないのである。
【0077】
尚、上記各実施の形態においては、上記音声単位として音素を用いているが、音節であっても適用可能である。
【0078】
ところで、上記各実施の形態における波形分析部1・21,スペクトル包絡抽出部2,スペクトル傾き抽出部3,声道断面積抽出部22,音源特性抽出部4・23,音声認識部5・24,平均化部7・26,非線形周波数軸スペクトルマッチング部8,非線形声道軸マッチング部27,スペクトル包絡変換部10,スペクトル傾き変換部11,声道断面積変換部29,音源特性変換部12・30,スペクトル合成部13・31および波形合成部14・32による上記声質変換処理機能は、プログラム記録媒体に記録された声質変換処理処理プログラムによって実現される。上記各実施の形態における上記プログラム記録媒体は、ROM(リード・オンリ・メモリ)等でなるプログラムメディアである。あるいは、外部補助記憶装置に装着されて読み出されるプログラムメディアであってもよい。尚、何れの場合においても、上記プログラムメディアから声質変換処理プログラムを読み出すプログラム読み出し手段は、上記プログラムメディアに直接アクセスして読み出す構成を有していてもよいし、上記RAMに設けられたプログラム記憶エリア(図示せず)にダウンロードし、上記プログラム記憶エリアにアクセスして読み出す構成を有していてもよい。尚、上記プログラムメディアからRAMの上記プログラム記憶エリアにダウンロードするためのダウンロードプログラムは、予め本体装置に格納されているものとする。
【0079】
ここで、上記プログラムメディアとは、本体側と分離可能に構成され、磁気テープやカセットテープ等のテープ系、フロッピーディスク,ハードディスク等の磁気ディスクやCD(コンパクトディスク)−ROM,MO(光磁気)ディスク,MD(ミニディスク),DVD(ディジタルビデオディスク)等の光ディスクのディスク系、IC(集積回路)カードや光カード等のカード系、マスクROM,EPROM(紫外線消去型ROM),EEPROM(電気的消去型ROM),フラッシュROM等の半導体メモリ系を含めた、固定的にプログラムを坦持する媒体である。
【0080】
また、上記プログラムメディアは、通信ネットワークからのダウンロード等によって流動的にプログラムを坦持する媒体であっても差し支えない。尚、その場合における上記通信ネットワークからダウンロードするためのダウンロードプログラムは、予め本体装置に格納されているものとする。あるいは、別の記録媒体からインストールされるものとする。
【0081】
尚、上記記録媒体に記録されるものはプログラムのみに限定されるものではなく、データも記録することが可能である。
【0082】
【発明の効果】
以上より明らかなように、第1の発明の声質変換装置は、スペクトル包絡抽出手段によって第1,第2話者の発声に基づく第1,第2スペクトル包絡を抽出し、非線形周波数軸スペクトルマッチング手段によって、同一音素ラベルに関して動的計画法を用いた非線形な周波数伸縮マッチングを行って、第1,第2スペクトル包絡の周波数軸の対応付けを表わす周波数ワーピング関数を求め、スペクトル包絡変換手段によって、指定された音素名の第1スペクトル包絡を上記周波数ワーピング関数に基づいて第2話者に関するスペクトル包絡に変換するので、上記指定された音素名の第1話者による第1スペクトル包絡の周波数軸を上記周波数軸の対応付けに従って非線形伸縮して、第2話者による音声を得ることができる。
【0083】
したがって、この発明によれば、第1話者による第1スペクトル包絡の特定位置を抽出する必要が無く、上記特定位置の抽出精度に音質が影響されることのない精度の高い声質変換を行うことができる。
【0084】
さらに、平均化手段によって、上記周波数ワーピング関数を音素 , 類似音素 , 有声音区間 / 無声音区間および話者毎にグループ化し、各グループ別に平均値を算出して平均周波数ワーピング関数を求め、上記スペクトル包絡変換手段は、指定された音素が属する何れかのグループの平均周波数ワーピング関数を上記周波数ワーピング関数として用いるように なっているので、上記第1メモリ手段に保存されている第2話者の発声データの量に応じて、適切なグループの平均周波数ワーピング関数を選択して上記周波数ワーピング関数の代りに用いることができる。したがって、第2話者の発声データの量が少ない場合でも精度の高い声質変換を行うことができ、変換先話者の発声負担を軽減できる。さらに、上記音素毎及び類似音素毎の平均周波数ワーピング関数を求めることによって、発声癖に起因する個人差を正規化できる。
【0085】
また、上記第1の発明の声質変換装置は、スペクトル傾き抽出手段によって第1,第2話者の発声に基づく第1,第2スペクトル包絡の傾きを抽出し、スペクトル傾き補正手段によって、指定された音素名の第1,第2スペクトル包絡の傾きの差に基づいて、上記スペクトル包絡変換手段によって得られた上記第2話者に関するスペクトル包絡の傾きを補正すれば、上記得られた第2話者に関するスペクトル包絡の傾きを補正して、より第2話者の声質に近い音声を得ることができる。
【0086】
また、上記第1の発明の声質変換装置は、上記音声単位を音素とし、平均化手段によって、第1スペクトル包絡の傾きおよび第2スペクトル包絡の傾きを音素,類似音素,有声音区間/無声音区間及び話者毎にグループ化し、各グループ別に平均値を算出して平均スペクトル傾きを求め、上記スペクトル傾き補正手段を、指定された音素名に関する上記第1メモリ手段に格納された第2スペクトル包絡の傾きの数に応じて、上記指定された音素が属する何れかのグループの平均スペクトル傾きを上記スペクトル包絡の傾きとして用いるように成せば、上記第1メモリ手段に保存されている第2話者の発声データの量に応じて、適切なグループの平均スペクトル傾きを選択して上記スペクトル包絡の傾きの代りに用いることができる。したがって、第2話者の発声データの量が少ない場合でも精度の高い声質変換を行なうことができる。さらに、上記音素毎および類似音素毎の平均スペクトル傾きを求めることによって、発声癖に起因する個人差を正規化できる。
【0087】
また、上記第1の発明の声質変換装置は、音声認識手段によって、上記抽出された第1スペクトル包絡または第2スペクトル包絡の時系列を不特定話者音声認識方法によって認識し、認識結果の音素名を上記第1メモリ手段に送出するようにすれば、上記ラベル用の音素名を第1,第2スペクトル包絡から自動的に得ることができる。したがって、上記スペクトル包絡あるいはスペクトル包絡の傾きに対するラベル付け処理を容易に行うことができる。
【0088】
また、上記第1の発明の声質変換装置は、上記音声認識手段によって得られた音素名の時系列を上記スペクトル包絡変換手段あるいはスペクトル傾き補正手段に供給し、上記スペクトル包絡変換手段あるいはスペクトル傾き補正手段では、上記音素名の時系列を上記指定された音素名として用いれば、上記声質変換させる音素名を、変換元である第1話者の発声音によって直接指定することができる。
【0089】
したがって、キーボード等から声質変換すべき音素名列を入力する必要がなく、上記第1話者の発声音を上記第2話者の音質での音声に直接リアルタイムに変換することができる。
【0090】
また、第2の発明の声質変換装置は、声道断面積抽出手段によって第1,第2話者の発声に基づく第1,第2声道断面積を抽出し、非線形声道軸マッチング手段によって、同一音素ラベルに関して動的計画法を用いた非線形な声道軸伸縮マッチングを行って、第1,第2声道断面積の声道軸の対応付けを表わす声道軸ワーピング関数を求め、声道断面積変換手段によって、指定された音素名の第1声道断面積を上記声道軸ワーピング関数に基づいて第2話者に関する声道断面積に変換するので、上記指定された音素名の第1話者による第1声道断面積の声道軸を上記声道軸の対応付けに従って非線形伸縮して、第2話者による声道断面積を得ることができる。そして、この第2話者による声道断面積に基づいて第2話者による音声を得ることができるのである。
【0091】
したがって、この発明によれば、第1話者による第1スペクトル包絡の特定位置を抽出する必要が無く、上記特定位置の抽出精度に音質が影響されることのない精度の高い声質変換を行うことができる。
【0092】
さらに、平均化手段によって、上記声道軸ワーピング関数を音素 , 類似音素 , 有声音区間 / 無声音区間および話者毎にグループ化し、各グループ別に平均値を算出して平均声道軸ワーピング関数を求め、上記声道断面積変換手段は、指定された音素名に関する上記抽出された第2声道断面積の数に応じて、上記指定された音素が属する何れかのグループの平均声道軸ワーピング関数を上記声道軸ワーピング関数として用いるので、上記第1メモリ手段に保存されている第2話者の発声データの量に応じて、適切なグループの平均声道軸ワーピング関数を選択して上記声道軸ワーピング関数の代りに用いることができる。したがって、第2話者の発声データの量が少ない場合でも精度の高い声質変換を行うことができ、変換先話者の発声負担を軽減できる。さらに、上記音素毎及び類似音素毎の平均声道軸ワーピング関数を求めることによって、発声癖に起因する個人差を正規化できる。
【0093】
また、第3の発明の声質変換方法は、上記第1,第2話者の発声音から第1,第2スペクトル包絡を抽出し、上記抽出された上記第1,第2スペクトル包絡に対して動的計画法を用いた非線形な周波数伸縮マッチングを行って上記周波数ワーピング関数を求め、指定された音素名の第1スペクトル包絡を上記周波数ワーピング関数に基づいて第2話者に関するスペクトル包絡に変換するので、上記請求項1の場合と同様に、指定された音素名の第1話者による第1スペクトル包絡の周波数軸を非線形伸縮することによって、第2話者による声質の音声を得ることができる。
【0094】
したがって、第1話者による第1スペクトル包絡の特定位置を抽出する必要が無く、上記特定位置の抽出精度に音質が影響されることのない精度の高い声質変換が行われる。
【0095】
さらに、上記周波数ワーピング関数を音素 , 類似音素 , 有声音区間 / 無声音区間および話者毎にグループ化し、各グループ別に平均値を算出して平均周波数ワーピング関数を求め、上記スペクトル包絡変換の際には、指定された音素名に関する上記抽出された第2スペクトル包絡の数に応じて、上記指定された音素が属する何れかのグループの平均周波数ワーピング関数を上記周波数ワーピング関数として用いるので、上記第1メモリ手段に保存されている第2話者の発声データの量に応じて、適切なグループの平均周波数ワーピング関数を選択して上記周波数ワーピング関数の代りに用いることができる。したがって、第2話者の発声データの量が少ない場合でも精度の高い声質変換を行うことができ、変換先話者の発声負担を軽減できる。さらに、上記音素毎及び類似音素毎の平均周波数ワーピング関数を求めることによって、発声癖に起因する個人差を正規化できる。
【0096】
また、上記第3の発明の声質変換方法は、上記第1,第2話者の発声音から第1,第2スペクトル包絡の傾きを抽出し、上記指定された音素名の第1,第2スペクトル包絡の傾きの差に基づいて上記得られた第2話者に関するスペクトル包絡の傾きを補正すれば、より第2話者の声質に近い音声を得ることができる。
【0097】
また、第4の発明のプログラム記録媒体は、コンピュータを、上記第1の発明におけるスペクトル包絡抽出手段,非線形周波数軸スペクトルマッチング手段,スペクトル包絡変換手段,平均化手段 ,スペクトル傾き抽出手段およびスペクトル傾き補正手段として機能させる声質変換処理プログラムを記録しているので、指定された音素名の第1話者による第1スペクトル包絡の周波数軸を非線形伸縮して、第2話者に関するスペクトル包絡を得ることができる。さらに、得られた第2話者に関するスペクトル包絡の傾きを、第1,第2スペクトル包絡の傾きの差に基づいて補正することができる。したがって、第1話者による第1スペクトル包絡の特定位置の抽出精度によって音質が影響されることはなく、精度の高い声質変換を行うことができる。
【0098】
さらに、上記抽出された第2話者の発声データの量に応じて、音素 , 類似音素 , 有声音区間 / 無声音区間および話者毎のグループのうち適切なグループの平均周波数ワーピング関数を選択して上記スペクトル包絡の変換の際に用いることができる。したがって、第2話者の発声データの量が少ない場合でも対処することができる。さらに、上記音素毎および類似音素毎の平均周波数ワーピング関数を求めることによって、発声癖に起因する個人差を正規化することができる。
【図面の簡単な説明】
【図1】この発明の声質変換装置におけるブロック図である。
【図2】スペクトル包絡,スペクトル傾き,音源特性の例を示す図である。
【図3】図1に示す声質変換装置による声質変換処理動作のフローチャートである。
【図4】図3に続く声質変換処理動作のフローチャートである。
【図5】図4に続く声質変換処理動作のフローチャートである。
【図6】動的計画法による非線形周波数軸スペクトルマッチングの概念を示す図である。
【図7】スペクトル包絡正規化の概念図である。
【図8】図1とは異なる声質変換装置におけるブロック図である。
【図9】声道断面積,音源特性の例を示す図である。
【図10】動的計画法による声道軸マッチングの概念を示す図である。
【図11】変形声道断面積の概念図である。
【符号の説明】
1,21…波形分析部、
2…スペクトル包絡抽出部、
3…スペクトル傾き抽出部、
4,23…音源特性抽出部、
5,24…音声認識部、
6,25…特徴メモリ、
7,26…平均化部、
8…非線形周波数軸スペクトルマッチング部、
9…周波数ワープ表メモリ、
10…スペクトル包絡変換部、
11…スペクトル傾き変換部、
12,30…音源特性変換部、
13,31…スペクトル合成部、
14,32…波形合成部、
22…声道断面積抽出部、
27…非線形声道軸マッチング部、
28…声道軸ワープ表メモリ、
29…声道断面積変換部。
Claims (13)
- 第1話者の声質での音声を第2話者の声質での音声に変換する声質変換装置であって、
上記第1話者が発声した第1音声から第1スペクトル包絡を抽出する一方、第2話者が発声した2音声から第2スペクトル包絡を抽出するスペクトル包絡抽出手段と、
上記抽出された第1スペクトル包絡および第2スペクトル包絡を、音声単位としての音素のラベルを付与して格納する第1メモリ手段と、
同一ラベルに関して、上記第1メモリに格納された上記第1スペクトル包絡と第2スペクトル包絡とに対して動的計画法を用いた非線形な周波数伸縮マッチングを行って、両スペクトル包絡の周波数軸の対応付けを表わす周波数ワーピング関数を求める非線形周波数軸スペクトルマッチング手段と、
上記周波数ワーピング関数を、音素のラベルを付与して格納する第2メモリ手段と、
指定された音素名の第1スペクトル包絡を上記第1メモリから読み出す一方、上記指定された音素名の周波数ワーピング関数を上記第2メモリから読み出して、この読み出された周波数ワーピング関数に基づいて、上記読み出された第1スペクトル包絡を第2話者に関するスペクトル包絡に変換するスペクトル包絡変換手段と、
上記第2メモリ手段に格納された周波数ワーピング関数を上記ラベルに基づいて音素 , 類似音素 , 有声音区間 / 無声音区間および話者毎にグループ化し、各グループに属する周波数ワーピング関数の平均値を算出し、得られた平均周波数ワーピング関数を各グループ名のラベルを付与して上記第2メモリ手段に格納させる平均化手段を備えると共に、
上記スペクトル包絡変換手段は、上記指定された音素名に関する上記第1メモリ手段に格納された第2スペクトル包絡の数に応じて、上記指定された音素が属する何れかのグループの平均周波数ワーピング関数を上記周波数ワーピング関数として用いるようになっていることを特徴とする声質変換装置。 - 請求項1に記載の声質変換装置において、
上記非線形周波数軸スペクトルマッチング手段は、上記非線形な周波数伸縮マッチングを行うに際して、上記第1スペクトル包絡と第2スペクトル包絡とに関して、夫々のスペクトル包絡を周波数帯域で複数チャネルに分割した際における隣接チャネル間の出力値の差を用いることを特徴とする声質変換装置。 - 請求項1あるいは請求項2に記載の声質変換装置において、
上記第1メモリ手段は、上記第1スペクトル包絡および第2スペクトル包絡の傾きをも音声単位としての音素のラベルを付与して格納するようになっており、
上記第1話者が発声した第1音声から第1スペクトル包絡の傾きを抽出する一方、第2話者が発声した2音声から第2スペクトル包絡の傾きを抽出して上記第1メモリ手段に格納させるスペクトル傾き抽出手段と、
指定された音素名の第1スペクトル包絡の傾きと第2スペクトル包絡の傾きとを上記第1メモリ手段から読み出して、両傾きの差に基づいて、上記スペクトル包絡変換手段によって得られた上記第2話者に関するスペクトル包絡の傾きを補正するスペクトル傾き補正手段を備えたことを特徴とする声質変換装置。 - 請求項3に記載の声質変換装置において、
上記音声単位は音素であり、
上記第1メモリ手段に格納された第1スペクトル包絡の傾きおよび第2スペクトル包絡の傾きを上記ラベルに基づいて音素,類似音素,有声音区間/無声音区間および話者毎にグループ化し、各グループに属するスペクトル包絡の傾きの平均値を算出し、得られた平均スペクトル傾きを各話者名および各グループ名のラベルを付与して上記第1メモリ手段に格納させる平均化手段を備えると共に、
上記スペクトル傾き補正手段は、指定された音素名に関する上記第1メモリ手段に格納された第2スペクトル包絡の傾きの数に応じて、上記指定された音素が属する何れかのグループの平均スペクトル傾きを上記スペクトル包絡の傾きとして用いるようになっていることを特徴とする声質変換装置。 - 請求項1乃至請求項3の何れか一つに記載の声質変換装置において、
上記抽出された第1スペクトル包絡あるいは第2スペクトル包絡の時系列を不特定話者音声認識方法によって認識し、認識結果の音素名を上記第1メモリ手段に送出する音声認識手段を備えたことを特徴とする声質変換装置。 - 請求項5に記載の声質変換装置において、
上記音声認識手段は、得られた音素名の時系列を上記スペクトル包絡変換手段あるいはスペクトル傾き補正手段に供給可能になっており、
上記スペクトル包絡変換手段あるいはスペクトル傾き補正手段は、上記音声認識手段によって得られた音素名の時系列を上記指定された音素名とするようになっていることを特徴とする声質変換装置。 - 請求項1に記載の声質変換装置において、
上記平均化手段は、平均値算出の対象となる周波数ワーピング関数間の線形変換を行なうことによって上記平均周波数ワーピング関数を算出するようになっていることを特徴とする声質変換装置。 - 請求項7に記載の声質変換装置において、
上記周波数ワーピング関数は、上記第1スペクトル包絡と第2スペクトル包絡とを同一周波数帯域で複数チャネルに分割した際における上記第1 , 第2スペクトルのチャネルから成る平面上におけるDPパスに相当する格子点とその他の格子点とに異なる要素値が与えられたマトリクス状のデータ形式を有し、
上記周波数ワーピング関数間の線形変換は、上記平均値算出の対象となる周波数ワーピング関数に相当する複数のマトリクスにおける同一格子点の要素値の和を求め、得られた値を要素値とするマトリクスを上記平均周波数ワーピング関数とすることを特徴とする声質変換装置。 - 請求項8に記載の声質変換装置において、
上記スペクトル包絡変換手段は、上記第2スペクトル包絡のある周波数帯域における強度に変換する場合には、使用する平均周波数ワーピング関数のマトリクスにおける上記第2スペクトル包絡の該当チャネルに関する行または列の格子点において、各格子点の要素値と当該格子点に対応する上記第1スペクトル包絡のチャネルにおける強度との積和を求め、この積和の値を上記第2スペクトル包絡の当該周波数帯域における強度とすることを特徴とする声質変換装置。 - 第1話者の声質での音声を第2話者の声質での音声に変換する声質変換装置であって、
上記第1話者が発声した第1音声から第1声道断面積を抽出する一方、第2話者が発声した2音声から第2声道断面積を抽出する声道断面積抽出手段と、
上記抽出された第1声道断面積および第2声道断面積を、音声単位としての音素のラベルを付与して格納する第1メモリ手段と、
同一ラベルに関して、上記第1メモリに格納された上記第1声道断面積と第2声道断面積とに対して動的計画法を用いた非線形な声道軸伸縮マッチングを行って、両声道断面積の声道軸の対応付けを表わす声道軸ワーピング関数を求める非線形声道軸マッチング手段と、
上記声道軸ワーピング関数を、音素のラベルを付与して格納する第2メモリ手段と、
指定された音素名の第1声道断面積を上記第1メモリから読み出す一方、上記指定された音素名の声道軸ワーピング関数を上記第2メモリから読み出して、この読み出された声道軸ワーピング関数に基づいて、上記読み出された第1声道断面積を第2話者に関する声道断面積に変換する声道断面積変換手段と、
上記第2メモリ手段に格納された声道軸ワーピング関数を上記ラベルに基づいて音素 , 類似音素 , 有声音区間 / 無声音区間および話者毎にグループ化し、各グループに属する声道軸ワーピング関数の平均値を算出し、得られた平均声道軸ワーピング関数を各グループ名 のラベルを付与して上記第2メモリ手段に格納させる平均化手段を備えると共に、
上記声道断面積変換手段は、上記指定された音素名に関する上記第1メモリ手段に格納された第2声道断面積の数に応じて、上記指定された音素が属する何れかのグループの平均声道軸ワーピング関数を上記声道軸ワーピング関数として用いるようになっていることを特徴とする声質変換装置。 - 第1話者の声質での音声を第2話者の声質での音声に変換する声質変換方法であって、
上記第1話者が発声した第1音声から第1スペクトル包絡を抽出する一方、第2話者が発声した2音声から第2スペクトル包絡を抽出するステップと、
同一の音素名に関して、上記抽出された上記第1スペクトル包絡と第2スペクトル包絡とに対して動的計画法を用いた非線形な周波数伸縮マッチングを行って、両スペクトル包絡の周波数軸の対応付けを表わす周波数ワーピング関数を求めるステップと、
指定された音素名の第1スペクトル包絡を、上記指定された音素名の周波数ワーピング関数に基づいて、第2話者に関するスペクトル包絡に変換するステップと、
上記周波数ワーピング関数を上記音素名に基づいて音素 , 類似音素 , 有声音区間 / 無声音区間および話者毎にグループ化し、各グループに属する周波数ワーピング関数の平均値を算出し、得られた平均周波数ワーピング関数に各グループ名のラベルを付与するステップを備えると共に、
上記第1スペクトル包絡を第2話者に関するスペクトル包絡に変換するステップでは、上記指定された音素名に関する上記抽出された第2スペクトル包絡の数に応じて、上記指定された音素が属する何れかのグループの平均周波数ワーピング関数を上記周波数ワーピング関数として用いるようになっていることを特徴とする声質変換方法。 - 請求項11に記載の声質変換方法において、
上記第1話者が発声した第1音声から第1スペクトル包絡の傾きを抽出する一方、上記第2話者が発声した2音声から第2スペクトル包絡の傾きを抽出するステップと、
上記指定された音素名の第1スペクトル包絡の傾きと第2スペクトル包絡の傾きとの差に基づいて、上記得られた第2話者に関するスペクトル包絡の傾きを補正するステップを備えたことを特徴とする声質変換方法。 - コンピュータを、
請求項1におけるスペクトル包絡抽出手段 , 非線形周波数軸スペクトルマッチング手段 , スペクトル包絡変換手段 , 平均化手段および請求項3におけるスペクトル傾き抽出手段 , スペクトル傾き補正手段
として機能させる声質変換処理プログラムが記録されたことを特徴とするコンピュータ読出し可能なプログラム記録媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000100801A JP3631657B2 (ja) | 2000-04-03 | 2000-04-03 | 声質変換装置および声質変換方法、並びに、プログラム記録媒体 |
PCT/JP2001/002388 WO2001078064A1 (fr) | 2000-04-03 | 2001-03-26 | Dispositif de conversion de caractere vocal |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000100801A JP3631657B2 (ja) | 2000-04-03 | 2000-04-03 | 声質変換装置および声質変換方法、並びに、プログラム記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001282300A JP2001282300A (ja) | 2001-10-12 |
JP3631657B2 true JP3631657B2 (ja) | 2005-03-23 |
Family
ID=18614947
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000100801A Expired - Fee Related JP3631657B2 (ja) | 2000-04-03 | 2000-04-03 | 声質変換装置および声質変換方法、並びに、プログラム記録媒体 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP3631657B2 (ja) |
WO (1) | WO2001078064A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8438033B2 (en) | 2008-08-25 | 2013-05-07 | Kabushiki Kaisha Toshiba | Voice conversion apparatus and method and speech synthesis apparatus and method |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4432893B2 (ja) * | 2004-12-15 | 2010-03-17 | ヤマハ株式会社 | 声質判定装置、声質判定方法、および声質判定プログラム |
CN101578659B (zh) | 2007-05-14 | 2012-01-18 | 松下电器产业株式会社 | 音质转换装置及音质转换方法 |
CN101399044B (zh) * | 2007-09-29 | 2013-09-04 | 纽奥斯通讯有限公司 | 语音转换方法和*** |
CN102822888B (zh) * | 2010-03-25 | 2014-07-02 | 日本电气株式会社 | 话音合成器和话音合成方法 |
CN103370743A (zh) * | 2011-07-14 | 2013-10-23 | 松下电器产业株式会社 | 音质变换***、音质变换装置及其方法、声道信息生成装置及其方法 |
CN103886859B (zh) * | 2014-02-14 | 2016-08-17 | 河海大学常州校区 | 基于一对多码书映射的语音转换方法 |
JP6827004B2 (ja) * | 2018-01-30 | 2021-02-10 | 日本電信電話株式会社 | 音声変換モデル学習装置、音声変換装置、方法、及びプログラム |
CN111179905A (zh) * | 2020-01-10 | 2020-05-19 | 北京中科深智科技有限公司 | 一种快速配音生成方法及装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2709386B2 (ja) * | 1987-06-24 | 1998-02-04 | 株式会社 エイ・ティ・ア−ル自動翻訳電話研究所 | スペクトログラムの正規化方法 |
JP2612869B2 (ja) * | 1987-10-06 | 1997-05-21 | 日本放送協会 | 声質変換方法 |
JPH04147300A (ja) * | 1990-10-11 | 1992-05-20 | Fujitsu Ltd | 話者の声質変換処理方式 |
JP3261870B2 (ja) * | 1994-06-29 | 2002-03-04 | 三菱電機株式会社 | 音声品質適応化装置 |
JP2898568B2 (ja) * | 1995-03-10 | 1999-06-02 | 株式会社エイ・ティ・アール音声翻訳通信研究所 | 声質変換音声合成装置 |
JP2912579B2 (ja) * | 1996-03-22 | 1999-06-28 | 株式会社エイ・ティ・アール音声翻訳通信研究所 | 声質変換音声合成装置 |
JPH10307594A (ja) * | 1997-03-07 | 1998-11-17 | Seiko Epson Corp | 認識結果処理方法および認識結果処理装置 |
JP3695059B2 (ja) * | 1997-05-13 | 2005-09-14 | セイコーエプソン株式会社 | 話者音質変換方法および話者音質変換装置 |
-
2000
- 2000-04-03 JP JP2000100801A patent/JP3631657B2/ja not_active Expired - Fee Related
-
2001
- 2001-03-26 WO PCT/JP2001/002388 patent/WO2001078064A1/ja active Application Filing
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8438033B2 (en) | 2008-08-25 | 2013-05-07 | Kabushiki Kaisha Toshiba | Voice conversion apparatus and method and speech synthesis apparatus and method |
Also Published As
Publication number | Publication date |
---|---|
JP2001282300A (ja) | 2001-10-12 |
WO2001078064A1 (fr) | 2001-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5905972A (en) | Prosodic databases holding fundamental frequency templates for use in speech synthesis | |
JP4176169B2 (ja) | 言語合成のためのランタイムアコースティックユニット選択方法及び装置 | |
CN101828218B (zh) | 通过多形式段的生成和连接进行的合成 | |
US7349847B2 (en) | Speech synthesis apparatus and speech synthesis method | |
US6163769A (en) | Text-to-speech using clustered context-dependent phoneme-based units | |
US20060259303A1 (en) | Systems and methods for pitch smoothing for text-to-speech synthesis | |
JP5039865B2 (ja) | 声質変換装置及びその方法 | |
JP5148026B1 (ja) | 音声合成装置および音声合成方法 | |
JP3631657B2 (ja) | 声質変換装置および声質変換方法、並びに、プログラム記録媒体 | |
US7765103B2 (en) | Rule based speech synthesis method and apparatus | |
JP3050832B2 (ja) | 自然発話音声波形信号接続型音声合成装置 | |
JP2017167526A (ja) | 統計的パラメトリック音声合成のためのマルチストリームスペクトル表現 | |
Toledano et al. | Initialization, training, and context-dependency in HMM-based formant tracking | |
JP3281266B2 (ja) | 音声合成方法及び装置 | |
KR100259777B1 (ko) | 텍스트/음성변환기에서의최적합성단위열선정방법 | |
GB2313530A (en) | Speech Synthesizer | |
JP3754613B2 (ja) | 話者特徴推定装置および話者特徴推定方法、クラスタモデル作成装置、音声認識装置、音声合成装置、並びに、プログラム記録媒体 | |
JP2975586B2 (ja) | 音声合成システム | |
Eslami et al. | Quality improvement of voice conversion systems based on trellis structured vector quantization | |
Srivastava et al. | Uss directed e2e speech synthesis for indian languages | |
JP3689616B2 (ja) | 音声認識装置及び音声認識方法、音声認識システム、並びに、プログラム記録媒体 | |
JP2002182682A (ja) | 話者特徴抽出装置および話者特徴抽出方法、音声認識装置、音声合成装置、並びに、プログラム記録媒体 | |
KR101890303B1 (ko) | 가창 음성 생성 방법 및 그에 따른 장치 | |
EP1511008A1 (en) | Speech synthesis system | |
EP1589524A1 (en) | Method and device for speech synthesis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040203 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040331 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040713 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040910 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20041214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20041217 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20071224 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081224 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091224 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091224 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101224 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |