JP2002123299A - 音声処理装置および音声処理方法、学習装置および学習方法、並びにプログラムおよび記録媒体 - Google Patents

音声処理装置および音声処理方法、学習装置および学習方法、並びにプログラムおよび記録媒体

Info

Publication number
JP2002123299A
JP2002123299A JP2001239062A JP2001239062A JP2002123299A JP 2002123299 A JP2002123299 A JP 2002123299A JP 2001239062 A JP2001239062 A JP 2001239062A JP 2001239062 A JP2001239062 A JP 2001239062A JP 2002123299 A JP2002123299 A JP 2002123299A
Authority
JP
Japan
Prior art keywords
tap
class
code
prediction
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001239062A
Other languages
English (en)
Other versions
JP4736266B2 (ja
Inventor
Tetsujiro Kondo
哲二郎 近藤
Tsutomu Watanabe
勉 渡辺
Masaaki Hattori
正明 服部
Hiroto Kimura
裕人 木村
Yasuhiro Fujimori
泰弘 藤森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001239062A priority Critical patent/JP4736266B2/ja
Publication of JP2002123299A publication Critical patent/JP2002123299A/ja
Application granted granted Critical
Publication of JP4736266B2 publication Critical patent/JP4736266B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

(57)【要約】 【課題】 高音質の合成音を得る。 【解決手段】 CELP(Code Excited Liner Predicti
on coding)方式の携帯電話機の受信部114では、Lコ
ード、Gコード、Iコード、およびAコードから、残差
信号と線形予測係数が復号され、音声合成フィルタ29
において、復号された残差信号と線形予測係数から合成
音が生成される。また、クラス分類部123は、Lコー
ド、Gコード、Iコード、およびAコード、並びに復号
された残差信号および線形予測係数から生成されたクラ
スタップに基づいてクラス分類を行い、対応するクラス
コードを、係数メモリ124に出力する。係数メモリ1
24は、クラスコードに対応するタップ係数を出力し、
予測部125は、このタップ係数と、音声合成フィルタ
29が出力する合成音を用いて、高音質の音声の予測値
を求める。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、データ処理装置お
よびデータ処理方法、学習装置および学習方法、並びに
プログラムおよび記録媒体に関し、特に、例えば、CE
LP(Code Excited Liner Prediction coding)方式で符
号化された音声を、高音質の音声に復号することができ
るようにするデータ処理装置およびデータ処理方法、学
習装置および学習方法、並びにプログラムおよび記録媒
体に関する。
【0002】
【従来の技術】図1および図2は、従来の携帯電話機の
一例の構成を示している。
【0003】この携帯電話機では、音声を、CELP方
式により所定のコードに符号化して送信する送信処理
と、他の携帯電話機から送信されてくるコードを受信し
て、音声に復号する受信処理とが行われるようになって
おり、図1は、送信処理を行う送信部を、図2は、受信
処理を行う受信部を、それぞれ示している。
【0004】図1に示した送信部では、ユーザが発話し
た音声が、マイク(マイクロフォン)1に入力され、そ
こで、電気信号としての音声信号に変換され、A/D(A
nalog/Digital)変換部2に供給される。A/D変換部2
は、マイク1からのアナログの音声信号を、例えば、8
kHz等のサンプリング周波数でサンプリングすること
により、ディジタルの音声信号にA/D変換し、さら
に、所定のビット数で量子化を行って、演算器3とLP
C(Liner Prediction Coefficient)分析部4に供給す
る。
【0005】LPC分析部4は、A/D変換部2からの
音声信号を、例えば、160サンプル分の長さのフレー
ムごとにLPC分析し、P次の線形予測係数α1,α2
・・・,αPを求める。そして、LPC分析部4は、こ
のP次の線形予測係数αp(p=1,2,・・・,P)
を要素とするベクトルを、音声の特徴ベクトルとして、
ベクトル量子化部5に供給する。
【0006】ベクトル量子化部5は、線形予測係数を要
素とするコードベクトルとコードとを対応付けたコード
ブックを記憶しており、そのコードブックに基づいて、
LPC分析部4からの特徴ベクトルαをベクトル量子化
し、そのベクトル量子化の結果得られるコード(以下、
適宜、Aコード(A_code)という)を、コード決定部15
に供給する。
【0007】さらに、ベクトル量子化部5は、Aコード
に対応するコードベクトルα’を構成する要素となって
いる線形予測係数α1’,α2’,・・・,αP’を、音
声合成フィルタ6に供給する。
【0008】音声合成フィルタ6は、例えば、IIR(I
nfinite Impulse Response)型のディジタルフィルタ
で、ベクトル量子化部5からの線形予測係数αp’(p
=1,2,・・・,P)をIIRフィルタのタップ係数
とするとともに、演算器14から供給される残差信号e
を入力信号として、音声合成を行う。
【0009】即ち、LPC分析部4で行われるLPC分
析は、現在時刻nの音声信号(のサンプル値)sn、お
よびこれに隣接する過去のP個のサンプル値sn-1,s
n-2,・・・,sn-Pに、式 sn+α1n-1+α2n-2+・・・+αPn-P=en ・・・(1) で示す線形1次結合が成立すると仮定し、現在時刻nの
サンプル値snの予測値(線形予測値)sn’を、過去の
P個の標本値sn-1,sn-2,・・・,sn-Pを用いて、
式 sn’=−(α1n-1+α2n-2+・・・+αPn-P) ・・・(2) によって線形予測したときに、実際のサンプル値sn
線形予測値sn’との間の自乗誤差を最小にする線形予
測係数αpを求めるものである。
【0010】ここで、式(1)において、{en}(・・
・,en-1,en,en+1,・・・)は、平均値が0で、分散
が所定値σ2の互いに無相関な確率変数である。
【0011】式(1)から、サンプル値snは、式 sn=en−(α1n-1+α2n-2+・・・+αPn-P) ・・・(3) で表すことができ、これを、Z変換すると、次式が成立
する。
【0012】 S=E/(1+α1-1+α2-2+・・・+αP-P) ・・・(4) 但し、式(4)において、SとEは、式(3)における
nとenのZ変換を、それぞれ表す。
【0013】ここで、式(1)および(2)から、en
は、式 en=sn−sn’ ・・・(5) で表すことができ、実際のサンプル値snと線形予測値
n’との間の残差信号と呼ばれる。
【0014】従って、式(4)から、線形予測係数αp
をIIRフィルタのタップ係数とするとともに、残差信
号enをIIRフィルタの入力信号とすることにより、
音声信号snを求めることができる。
【0015】そこで、音声合成フィルタ6は、上述した
ように、ベクトル量子化部5からの線形予測係数αp
をタップ係数とするとともに、演算器14から供給され
る残差信号eを入力信号として、式(4)を演算し、音
声信号(合成音信号)ssを求める。
【0016】なお、音声合成フィルタ6では、LPC分
析部4によるLPC分析の結果得られる線形予測係数α
pではなく、そのベクトル量子化の結果得られるコード
に対応するコードベクトルとしての線形予測係数αp
が用いられるため、音声合成フィルタ6が出力する合成
音信号は、A/D変換部2が出力する音声信号とは、基
本的に同一にはならない。
【0017】音声合成フィルタ6が出力する合成音信号
ssは、演算器3に供給される。演算器3は、音声合成
フィルタ6からの合成音信号ssから、A/D変換部2
が出力する音声信号sを減算し、その減算値を、自乗誤
差演算部7に供給する。自乗誤差演算部7は、演算器3
からの減算値の自乗和(第kフレームのサンプル値につ
いての自乗和)を演算し、その結果得られる自乗誤差
を、自乗誤差最小判定部8に供給する。
【0018】自乗誤差最小判定部8は、自乗誤差演算部
7が出力する自乗誤差に対応付けて、ラグを表すコード
としてのLコード(L_code)、ゲインを表すコードとして
のGコード(G_code)、および符号語を表すコードとして
のIコード(I_code)を記憶しており、自乗誤差演算部7
が出力する自乗誤差に対応するLコード、Gコード、お
よびLコードを出力する。Lコードは、適応コードブッ
ク記憶部9に、Gコードは、ゲイン復号器10に、Iコ
ードは、励起コードブック記憶部11に、それぞれ供給
される。さらに、Lコード、Gコード、およびIコード
は、コード決定部15にも供給される。
【0019】適応コードブック記憶部9は、例えば7ビ
ットのLコードと、所定の遅延時間(ラグ)とを対応付
けた適応コードブックを記憶しており、演算器14から
供給される残差信号eを、自乗誤差最小判定部8から供
給されるLコードに対応付けられた遅延時間だけ遅延し
て、演算器12に出力する。
【0020】ここで、適応コードブック記憶部9は、残
差信号eを、Lコードに対応する時間だけ遅延して出力
することから、その出力信号は、その遅延時間を周期と
する周期信号に近い信号となる。この信号は、線形予測
係数を用いた音声合成において、主として、有声音の合
成音を生成するための駆動信号となる。
【0021】ゲイン復号器10は、Gコードと、所定の
ゲインβおよびγとを対応付けたテーブルを記憶してお
り、自乗誤差最小判定部8から供給されるGコードに対
応付けられたゲインβおよびγを出力する。ゲインβと
γは、演算器12と13に、それぞれ供給される。
【0022】励起コードブック記憶部11は、例えば9
ビットのIコードと、所定の励起信号とを対応付けた励
起コードブックを記憶しており、自乗誤差最小判定部8
から供給されるIコードに対応付けられた励起信号を、
演算器13に出力する。
【0023】ここで、励起コードブックに記憶されてい
る励起信号は、例えば、ホワイトノイズ等に近い信号で
あり、線形予測係数を用いた音声合成において、主とし
て、無声音の合成音を生成するための駆動信号となる。
【0024】演算器12は、適応コードブック記憶部9
の出力信号と、ゲイン復号器10が出力するゲインβと
を乗算し、その乗算値lを、演算器14に供給する。演
算器13は、励起コードブック記憶部11の出力信号
と、ゲイン復号器10が出力するゲインγとを乗算し、
その乗算値nを、演算器14に供給する。演算器14
は、演算器12からの乗算値lと、演算器13からの乗
算値nとを加算し、その加算値を、残差信号eとして、
音声合成フィルタ6に供給する。
【0025】音声合成フィルタ6では、以上のようにし
て、演算器14から供給される残差信号eを入力信号
が、ベクトル量子化部5から供給される線形予測係数α
p’をタップ係数とするIIRフィルタでフィルタリン
グされ、その結果得られる合成音信号が、演算器3に供
給される。そして、演算器3および自乗誤差演算部7に
おいて、上述の場合と同様の処理が行われ、その結果得
られる自乗誤差が、自乗誤差最小判定部8に供給され
る。
【0026】自乗誤差最小判定部8は、自乗誤差演算部
7からの自乗誤差が最小(極小)になったかどうかを判
定する。そして、自乗誤差最小判定部8は、自乗誤差が
最小になっていないと判定した場合、上述のように、そ
の自乗誤差に対応するLコード、Gコード、およびLコ
ードを出力し、以下、同様の処理が繰り返される。
【0027】一方、自乗誤差最小判定部8は、自乗誤差
が最小になったと判定した場合、確定信号を、コード決
定部15に出力する。コード決定部15は、ベクトル量
子化部5から供給されるAコードをラッチするととも
に、自乗誤差最小判定部8から供給されるLコード、G
コード、およびIコードを順次ラッチするようになって
おり、自乗誤差最小判定部8から確定信号を受信する
と、そのときラッチしているAコード、Lコード、Gコ
ード、およびIコードを、チャネルエンコーダ16に供
給する。チャネルエンコーダ16は、コード決定部15
からのAコード、Lコード、Gコード、およびIコード
を多重化し、コードデータとして出力する。このコード
データは、伝送路を介して送信される。
【0028】なお、以下では、説明を簡単にするため、
Aコード、Lコード、Gコード、およびIコードは、フ
レームごとに求められるものとする。但し、例えば、1
フレームを、4つのサブフレームに分割し、Lコード、
Gコード、およびIコードは、サブフレームごとに求め
るようにすること等が可能である。
【0029】ここで、図1(後述する図2、図11、お
よび図12においても同様)では、各変数に、[k]が付
され、配列変数とされている。このkは、フレーム数を
表すが、明細書中では、その記述は、適宜省略する。
【0030】次に、以上のようにして、他の携帯電話機
の送信部から送信されてくるコードデータは、図2に示
した受信部のチャネルデコーダ21で受信される。チャ
ネルデコーダ21は、コードデータから、Lコード、G
コード、Iコード、Aコードを分離し、それぞれを、適
応コードブック記憶部22、ゲイン復号器23、励起コ
ードブック記憶部24、フィルタ係数復号器25に供給
する。
【0031】適応コードブック記憶部22、ゲイン復号
器23、励起コードブック記憶部24、演算器26乃至
28は、図1の適応コードブック記憶部9、ゲイン復号
器10、励起コードブック記憶部11、演算器12乃至
14とそれぞれ同様に構成されるもので、図1で説明し
た場合と同様の処理が行われることにより、Lコード、
Gコード、およびIコードが、残差信号eに復号され
る。この残差信号eは、音声合成フィルタ29に対し
て、入力信号として与えられる。
【0032】フィルタ係数復号器25は、図1のベクト
ル量子化部5が記憶しているのと同一のコードブックを
記憶しており、Aコードを、線形予測係数αp’に復号
し、音声合成フィルタ29に供給する。
【0033】音声合成フィルタ29は、図1の音声合成
フィルタ6と同様に構成されており、フィルタ係数復号
器25からの線形予測係数αp’をタップ係数とすると
ともに、演算器28から供給される残差信号eを入力信
号として、式(4)を演算し、これにより、図1の自乗
誤差最小判定部8において自乗誤差が最小と判定された
ときの合成音信号を生成する。この合成音信号は、D/
A(Digital/Analog)変換部30に供給される。D/A変
換部30は、音声合成フィルタ29からの合成音信号
を、ディジタル信号からアナログ信号にD/A変換し、
スピーカ31に供給して出力させる。
【0034】
【発明が解決しようとする課題】以上のように、携帯電
話機の送信部では、受信部の音声合成フィルタ29に与
えられるフィルタデータとしての残差信号と線形予測係
数がコード化されて送信されてくるため、受信部では、
そのコードが、残差信号と線形予測係数に復号される。
しかしながら、この復号された残差信号や線形予測係数
(以下、適宜、それぞれを、復号残差信号または復号線
形予測係数という)には、量子化誤差等の誤差が含まれ
るため、音声をLPC分析して得られる残差信号と線形
予測係数には一致しない。
【0035】このため、受信部の音声合成フィルタ29
が出力する合成音信号は、歪みを有する、音質の劣化し
たものとなる。
【0036】本発明は、このような状況に鑑みてなされ
たものであり、高音質の合成音が得られるようにするも
のである。
【0037】
【課題を解決するための手段】本発明の音声処理装置
は、予測値を求めようとしている高音質の音声を注目音
声として、その注目音声を予測するのに用いる予測タッ
プを、合成音から抽出する予測タップ抽出手段と、注目
音声を、幾つかのクラスのうちのいずれかにクラス分類
するのに用いるクラスタップを、コードから抽出するク
ラスタップ抽出手段と、クラスタップに基づいて、注目
音声のクラスを求めるクラス分類を行うクラス分類手段
と、学習を行うことにより求められた、クラスごとのタ
ップ係数の中から、注目音声のクラスに対応するタップ
係数を取得する取得手段と、予測タップと、注目音声の
クラスに対応するタップ係数を用いて、注目音声の予測
値を求める予測手段とを備えることを特徴とする。
【0038】本発明の音声処理方法は、予測値を求めよ
うとしている高音質の音声を注目音声として、その注目
音声を予測するのに用いる予測タップを、合成音から抽
出する予測タップ抽出ステップと、注目音声を、幾つか
のクラスのうちのいずれかにクラス分類するのに用いる
クラスタップを、コードから抽出するクラスタップ抽出
ステップと、クラスタップに基づいて、注目音声のクラ
スを求めるクラス分類を行うクラス分類ステップと、学
習を行うことにより求められた、クラスごとのタップ係
数の中から、注目音声のクラスに対応するタップ係数を
取得する取得ステップと、予測タップと、注目音声のク
ラスに対応するタップ係数を用いて、注目音声の予測値
を求める予測ステップとを備えることを特徴とする。
【0039】本発明の第1のプログラムは、予測値を求
めようとしている高音質の音声を注目音声として、その
注目音声を予測するのに用いる予測タップを、合成音か
ら抽出する予測タップ抽出ステップと、注目音声を、幾
つかのクラスのうちのいずれかにクラス分類するのに用
いるクラスタップを、コードから抽出するクラスタップ
抽出ステップと、クラスタップに基づいて、注目音声の
クラスを求めるクラス分類を行うクラス分類ステップ
と、学習を行うことにより求められた、クラスごとのタ
ップ係数の中から、注目音声のクラスに対応するタップ
係数を取得する取得ステップと、予測タップと、注目音
声のクラスに対応するタップ係数を用いて、注目音声の
予測値を求める予測ステップとを備えることを特徴とす
る。
【0040】本発明の第1の記録媒体は、予測値を求め
ようとしている高音質の音声を注目音声として、その注
目音声を予測するのに用いる予測タップを、合成音から
抽出する予測タップ抽出ステップと、注目音声を、幾つ
かのクラスのうちのいずれかにクラス分類するのに用い
るクラスタップを、コードから抽出するクラスタップ抽
出ステップと、クラスタップに基づいて、注目音声のク
ラスを求めるクラス分類を行うクラス分類ステップと、
学習を行うことにより求められた、クラスごとのタップ
係数の中から、注目音声のクラスに対応するタップ係数
を取得する取得ステップと、予測タップと、注目音声の
クラスに対応するタップ係数を用いて、注目音声の予測
値を求める予測ステップとを備えるプログラムが記録さ
れていることを特徴とする。
【0041】本発明の学習装置は、予測値を求めようと
している高音質の音声を注目音声として、その注目音声
を、幾つかのクラスのうちのいずれかにクラス分類する
のに用いるクラスタップを、コードから抽出するクラス
タップ抽出手段と、クラスタップに基づいて、注目音声
のクラスを求めるクラス分類を行うクラス分類手段と、
タップ係数および合成音を用いて予測演算を行うことに
より得られる高音質の音声の予測値の予測誤差が統計的
に最小になるように、学習を行い、クラスごとのタップ
係数を求める学習手段とを備えることを特徴とする。
【0042】本発明の学習方法は、予測値を求めようと
している高音質の音声を注目音声として、その注目音声
を、幾つかのクラスのうちのいずれかにクラス分類する
のに用いるクラスタップを、コードから抽出するクラス
タップ抽出ステップと、クラスタップに基づいて、注目
音声のクラスを求めるクラス分類を行うクラス分類ステ
ップと、タップ係数および合成音を用いて予測演算を行
うことにより得られる高音質の音声の予測値の予測誤差
が統計的に最小になるように、学習を行い、クラスごと
のタップ係数を求める学習ステップとを備えることを特
徴とする。
【0043】本発明の第2のプログラムは、予測値を求
めようとしている高音質の音声を注目音声として、その
注目音声を、幾つかのクラスのうちのいずれかにクラス
分類するのに用いるクラスタップを、コードから抽出す
るクラスタップ抽出ステップと、クラスタップに基づい
て、注目音声のクラスを求めるクラス分類を行うクラス
分類ステップと、タップ係数および合成音を用いて予測
演算を行うことにより得られる高音質の音声の予測値の
予測誤差が統計的に最小になるように、学習を行い、ク
ラスごとのタップ係数を求める学習ステップとを備える
ことを特徴とする。
【0044】本発明の第2の記録媒体は、予測値を求め
ようとしている高音質の音声を注目音声として、その注
目音声を、幾つかのクラスのうちのいずれかにクラス分
類するのに用いるクラスタップを、コードから抽出する
クラスタップ抽出ステップと、クラスタップに基づい
て、注目音声のクラスを求めるクラス分類を行うクラス
分類ステップと、タップ係数および合成音を用いて予測
演算を行うことにより得られる高音質の音声の予測値の
予測誤差が統計的に最小になるように、学習を行い、ク
ラスごとのタップ係数を求める学習ステップとを備える
プログラムが記録されていることを特徴とする。
【0045】本発明の音声処理装置および音声処理方
法、並びに第1のプログラムおよび第1の記録媒体にお
いては、予測値を求めようとしている高音質の音声を注
目音声として、その注目音声を予測するのに用いる予測
タップが、合成音から抽出されるとともに、注目音声
を、幾つかのクラスのうちのいずれかにクラス分類する
のに用いるクラスタップが、コードから抽出される。そ
して、クラスタップに基づいて、注目音声のクラスを求
めるクラス分類が行われ、予測タップと、注目音声のク
ラスに対応するタップ係数を用いて、注目音声の予測値
が求められる。
【0046】本発明の学習装置および学習方法、並びに
第2のプログラムおよび第2の記録媒体においては、予
測値を求めようとしている高音質の音声を注目音声とし
て、その注目音声を、幾つかのクラスのうちのいずれか
にクラス分類するのに用いるクラスタップが、コードか
ら抽出され、そのクラスタップに基づいて、注目音声の
クラスを求めるクラス分類が行われる。そして、タップ
係数および合成音を用いて予測演算を行うことにより得
られる高音質の音声の予測値の予測誤差が統計的に最小
になるように、学習が行われ、クラスごとのタップ係数
が求められる。
【0047】
【発明の実施の形態】図3は、本発明を適用した音声合
成装置の一実施の形態の構成例を示している。
【0048】この音声合成装置には、音声合成フィルタ
44に与える残差信号と線形予測係数を、それぞれベク
トル量子化等によってコード化した残差コードとAコー
ドが多重化されたコードデータが供給されるようになっ
ており、その残差コードとAコードから、それぞれ残差
信号と線形予測係数を復号し、音声合成フィルタ44に
与えることで、合成音が生成されるようになっている。
さらに、この音声合成装置では、音声合成フィルタ44
で生成された合成音と、学習により求めたタップ係数を
用いた予測演算を行うことにより、その合成音の音質を
向上させた高音質の音声(合成音)を求めて出力するよ
うになっている。
【0049】即ち、図3の音声合成装置では、例えば、
クラス分類適応処理を利用して、合成音が、真の高音質
の音声(の予測値)に復号される。
【0050】クラス分類適応処理は、クラス分類処理と
適応処理とからなり、クラス分類処理によって、データ
を、その性質に基づいてクラス分けし、各クラスごとに
適応処理を施すものであり、適応処理は、以下のような
手法のものである。
【0051】即ち、適応処理では、例えば、合成音と、
所定のタップ係数との線形結合により、真の高音質の音
声の予測値が求められる。
【0052】具体的には、例えば、いま、真の高音質の
音声(のサンプル値)を教師データとするとともに、そ
の真の高音質の音声を、CELP方式によって、Lコー
ド、Gコード、Iコード、およびAコードに符号化し、
それらのコードを、図2に示した受信部で復号すること
により得られる合成音を生徒データとして、教師データ
である高音質の音声yの予測値E[y]を、幾つかの合
成音(のサンプル値)x1,x2,・・・の集合と、所定
のタップ係数w1,w2,・・・の線形結合により規定さ
れる線形1次結合モデルにより求めることを考える。こ
の場合、予測値E[y]は、次式で表すことができる。
【0053】 E[y]=w11+w22+・・・ ・・・(6)
【0054】式(6)を一般化するために、タップ係数
jの集合でなる行列W、生徒データxijの集合でなる
行列X、および予測値E[yj]の集合でなる行列Y’
を、
【数1】 で定義すると、次のような観測方程式が成立する。
【0055】XW=Y’・・・(7) ここで、行列Xの成分xijは、i件目の生徒データの集
合(i件目の教師データyiの予測に用いる生徒データ
の集合)の中のj番目の生徒データを意味し、行列Wの
成分wjは、生徒データの集合の中のj番目の生徒デー
タとの積が演算されるタップ係数を表す。また、y
iは、i件目の教師データを表し、従って、E[yi
は、i件目の教師データの予測値を表す。なお、式
(6)の左辺におけるyは、行列Yの成分yiのサフィ
ックスiを省略したものであり、また、式(6)の右辺
におけるx1,x2,・・・も、行列Xの成分xijのサフ
ィックスiを省略したものである。
【0056】そして、この観測方程式に最小自乗法を適
用して、真の高音質の音声yに近い予測値E[y]を求
めることを考える。この場合、教師データとなる真の高
音質の音声yの集合でなる行列Y、および高音質の音声
yに対する予測値E[y]の残差eの集合でなる行列E
を、
【数2】 で定義すると、式(7)から、次のような残差方程式が
成立する。
【0057】XW=Y+E・・・(8)
【0058】この場合、真の高音質の音声yに近い予測
値E[y]を求めるためのタップ係数wjは、自乗誤差
【数3】 を最小にすることで求めることができる。
【0059】従って、上述の自乗誤差をタップ係数wj
で微分したものが0になる場合、即ち、次式を満たすタ
ップ係数wjが、真の高音質の音声yに近い予測値E
[y]を求めるため最適値ということになる。
【0060】
【数4】 ・・・(9)
【0061】そこで、まず、式(8)を、タップ係数w
jで微分することにより、次式が成立する。
【0062】
【数5】 ・・・(10)
【0063】式(9)および(10)より、式(11)
が得られる。
【0064】
【数6】 ・・・(11)
【0065】さらに、式(8)の残差方程式における生
徒データxij、タップ係数wj、教師データyi、および
誤差eiの関係を考慮すると、式(11)から、次のよ
うな正規方程式を得ることができる。
【0066】
【数7】 ・・・(12)
【0067】なお、式(12)に示した正規方程式は、
行列(共分散行列)Aおよびベクトルvを、
【数8】 で定義するとともに、ベクトルWを、数1で示したよう
に定義すると、式 AW=v・・・(13) で表すことができる。
【0068】式(12)における各正規方程式は、生徒
データxijおよび教師データyiのセットを、ある程度
の数だけ用意することで、求めるべきタップ係数wj
数Jと同じ数だけたてることができ、従って、式(1
3)を、ベクトルWについて解くことで(但し、式(1
3)を解くには、式(13)における行列Aが正則であ
る必要がある)、最適なタップ係数(ここでは、自乗誤
差を最小にするタップ係数)wjを求めることができ
る。なお、式(13)を解くにあたっては、例えば、掃
き出し法(Gauss-Jordanの消去法)などを用いることが
可能である。
【0069】以上のようにして、最適なタップ係数wj
を求めておき、さらに、そのタップ係数wjを用い、式
(6)により、真の高音質の音声yに近い予測値E
[y]を求めるのが適応処理である。
【0070】なお、例えば、教師データとして、高いサ
ンプリング周波数でサンプリングした音声信号、または
多ビットを割り当てた音声信号を用いるとともに、生徒
データとして、その教師データとしての音声信号を間引
いたり、低ビットで再量子化した音声信号をCELP方
式により符号化し、その符号化結果を復号して得られる
合成音を用いた場合、タップ係数としては、高いサンプ
リング周波数でサンプリングした音声信号、または多ビ
ットを割り当てた音声信号を生成するのに、予測誤差
が、統計的に最小となる高音質の音声が得られることに
なる。従って、この場合、より高音質の合成音を得るこ
とが可能となる。
【0071】図3の音声合成装置では、以上のようなク
ラス分類適応処理により、Aコードと残差コードでなる
コードデータを、高音質の音声に復号するようになって
いる。
【0072】即ち、デマルチプレクサ(DEMUX)4
1には、コードデータが供給されるようになっており、
デマルチプレクサ41は、そこに供給されるコードデー
タから、フレームごとのAコードと残差コードを分離す
る。そして、デマルチプレクサは、Aコードを、フィル
タ係数復号器42およびタップ生成部46に供給し、残
差コードを、残差コードブック記憶部43およびタップ
生成部46に供給する。
【0073】ここで、図3におけるコードデータに含ま
れるAコードと残差コードは、音声をLPC分析して得
られる線形予測係数と残差信号を、所定のコードブック
を用いて、それぞれベクトル量子化することにより得ら
れるコードとなっている。
【0074】フィルタ係数復号器42は、デマルチプレ
クサ41から供給されるフレームごとのAコードを、そ
のAコードを得るときに用いられたのと同一のコードブ
ックに基づいて、線形予測係数に復号し、音声合成フィ
ルタ44に供給する。
【0075】残差コードブック記憶部43は、デマルチ
プレクサ41から供給されるフレームごとの残差コード
を、その残差コードを得るときに用いられたのと同一の
コードブックに基づいて、残差信号に復号し、音声合成
フィルタ44に供給する。
【0076】音声合成フィルタ44は、例えば、図1の
音声合成フィルタ29と同様に、IIR型のディジタル
フィルタで、フィルタ係数復号器42からの線形予測係
数をIIRフィルタのタップ係数とするとともに、残差
コードブック記憶部43からの残差信号を入力信号とし
て、その入力信号のフィルタリングを行うことにより、
合成音を生成し、タップ生成部45に供給する。
【0077】タップ生成部45は、音声合成フィルタ4
4から供給される合成音(のサンプル値)から、後述す
る予測部49における予測演算に用いられる予測タップ
となるものを抽出する。即ち、タップ生成部45は、例
えば、高音質の音声の予測値を求めようとしているフレ
ームである注目フレームの合成音のサンプル値すべて
を、予測タップとする。そして、タップ生成部45は、
予測タップを、予測部49に供給する。
【0078】タップ生成部46は、デマルチプレクサ4
1から供給されるフレーム(またはサブフレーム)ごと
のAコードおよび残差コードから、クラスタップとなる
ものを抽出する。即ち、タップ生成部46は、例えば、
注目フレームのAコードおよび残差コードすべてを、ク
ラスタップとする。そして、タップ生成部46は、クラ
スタップを、クラス分類部47に供給する。
【0079】ここで、予測タップやクラスタップの構成
パターンは、上述したパターンのものに限定されるもの
ではない。
【0080】なお、タップ生成部46では、Aコードや
残差コードの他、フィルタ係数復号器42が出力する線
形予測係数や、残差コードブック記憶部43が出力する
残差信号、さらには、音声合成フィルタ44が出力する
合成音等の中からも、クラスタップを抽出するようにす
ることができる。
【0081】クラス分類部47は、タップ生成部46か
らのクラスタップに基づき、注目している注目フレーム
の音声(のサンプル値)をクラス分類し、その結果得ら
れるクラスに対応するクラスコードを、係数メモリ48
に出力する。
【0082】ここで、クラス分類部47には、例えば、
クラスタップとしての注目フレームのAコードおよび残
差コードを構成するビットの系列そのものを、クラスコ
ードとして出力させることが可能である。
【0083】係数メモリ48は、後述する図6の学習装
置において学習処理が行われることにより得られる、ク
ラスごとのタップ係数を記憶しており、クラス分類部4
7が出力するクラスコードに対応するアドレスに記憶さ
れているタップ係数を、予測部49に出力する。
【0084】ここで、各フレームについて、Nサンプル
の高音質の音声が求められるとすると、注目フレームに
ついて、Nサンプルの音声を、式(6)の予測演算によ
って求めるには、Nセットのタップ係数が必要である。
従って、この場合は、係数メモリ48には、1つのクラ
スコードに対応するアドレスに対して、Nセットのタッ
プ係数が記憶されている。
【0085】予測部49は、タップ生成部45が出力す
る予測タップと、係数メモリ48が出力するタップ係数
とを取得し、その予測タップとタップ係数とを用いて、
式(6)に示した線形予測演算(積和演算)を行い、注
目フレームの高音質の音声(の予測値)を求めて、D/
A変換部50に出力する。
【0086】ここで、係数メモリ48は、上述したよう
に、注目フレームの音声のNサンプルそれぞれを求める
ためのNセットのタップ係数を出力するが、予測部49
は、各サンプル値について、予測タップと、そのサンプ
ル値に対応するタップ係数のセットとを用い、式(6)
の積和演算を行う。
【0087】D/A変換部50は、予測部49からの音
声(の予測値)を、ディジタル信号からアナログ信号に
D/A変換し、スピーカ51に供給して出力させる。
【0088】次に、図4は、図3の音声合成フィルタ4
4の構成例を示している。
【0089】図4において、音声合成フィルタ44は、
P次の線形予測係数を用いるものとなっており、従っ
て、1つの加算器61、P個の遅延回路(D)621
至62P、およびP個の乗算器631乃至63Pから構成
されている。
【0090】乗算器631乃至63Pには、それぞれ、フ
ィルタ係数復号器42から供給されるP次の線形予測係
数α1,α2,・・・,αPがセットされ、これにより、
音声合成フィルタ44では、式(4)にしたがって演算
が行われ、合成音が生成される。
【0091】即ち、残差コードブック記憶部43が出力
する残差信号eは、加算器61を介して、遅延回路62
1に供給され、遅延回路62pは、そこへの入力信号
を、残差信号の1サンプル分だけ遅延して、後段の遅延
回路62p+1に出力するとともに、演算器63pに出力す
る。乗算器63pは、遅延回路62pの出力と、そこにセ
ットされた線形予測係数αpとを乗算し、その乗算値
を、加算器61に出力する。
【0092】加算器61は、乗算器631乃至63Pの出
力すべてと、残差信号eとを加算し、その加算結果を、
遅延回路621に供給する他、音声合成結果(合成音)
として出力する。
【0093】次に、図5のフローチャートを参照して、
図3の音声合成装置の処理(音声合成処理)について説
明する。
【0094】デマルチプレクサ41は、そこに供給され
るコードデータから、フレームごとのAコードと残差コ
ードを順次分離し、それぞれを、フィルタ係数復号器4
2と残差コードブック記憶部43に供給する。さらに、
デマルチプレクサ41は、Aコードおよび残差コード
を、タップ生成部46に供給する。
【0095】フィルタ係数復号器42は、デマルチプレ
クサ41から供給されるフレームごとのAコードを、線
形予測係数に順次復号し、音声合成フィルタ44に供給
する。また、残差コードブック記憶部43は、デマルチ
プレクサ41から供給されるフレームごとの残差コード
を、残差信号に順次復号し、音声合成フィルタ44に供
給する。
【0096】音声合成フィルタ44では、そこに供給さ
れる残差信号および線形予測係数を用いて、式(4)の
演算が行われることにより、注目フレームの合成音が生
成される。この合成音は、タップ生成部45に供給され
る。
【0097】タップ生成部45は、そこに供給される合
成音のフレームを、順次、注目フレームとし、ステップ
S1において、音声合成フィルタ44から供給される合
成音(のサンプル値)から、予測タップを生成し、予測
部49に出力する。さらに、ステップS1では、タップ
生成部46が、デマルチプレクサ41から供給されるA
コードおよび残差コードから、クラスタップを生成し、
クラス分類部47に出力する。
【0098】そして、ステップS2に進み、クラス分類
部47は、タップ生成部46から供給されるクラスタッ
プに基づいて、クラス分類を行い、その結果得られるク
ラスコードを、係数メモリ48に供給して、ステップS
3に進む。
【0099】ステップS3では、係数メモリ48は、ク
ラス分類部47から供給されるクラスコードに対応する
アドレスから、タップ係数を読み出し、予測部49に供
給する。
【0100】そして、ステップS4に進み、予測部49
は、係数メモリ48が出力するタップ係数を取得し、そ
のタップ係数と、タップ生成部45からの予測タップと
を用いて、式(6)に示した積和演算を行い、注目フレ
ームの高音質の音声(の予測値)を得る。この高音質の
音声は、予測部49からD/A変換部50を介して、ス
ピーカ51に供給されて出力される。
【0101】予測部49において、注目フレームの高音
質の音声が得られた後は、ステップS5に進み、まだ、
注目フレームとして処理すべきフレームがあるかどうか
が判定される。ステップS5において、まだ、注目フレ
ームとして処理すべきフレームがあると判定された場
合、ステップS1に戻り、次に注目フレームとすべきフ
レームを、新たに注目フレームとして、以下、同様の処
理を繰り返す。また、ステップS5において、注目フレ
ームとして処理すべきフレームがないと判定された場
合、音声合成処理を終了する。
【0102】次に、図6は、図3の係数メモリ48に記
憶させるタップ係数の学習処理を行う学習装置の一実施
の形態の構成例を示している。
【0103】学習装置には、学習用のディジタル音声信
号が、所定のフレーム単位で供給されるようになってお
り、この学習用のディジタル音声信号は、LPC分析部
71および予測フィルタ74に供給される。さらに、学
習用のディジタル音声信号は、教師データとして、正規
方程式加算回路81にも供給される。
【0104】LPC分析部71は、そこに供給される音
声信号のフレームを、順次、注目フレームとし、その注
目フレームの音声信号をLPC分析することで、P次の
線形予測係数を求め、ベクトル量子化部72および予測
フィルタ74に供給する。
【0105】ベクトル量子化部72は、線形予測係数を
要素とするコードベクトルとコードとを対応付けたコー
ドブックを記憶しており、そのコードブックに基づい
て、LPC分析部71からの注目フレームの線形予測係
数で構成される特徴ベクトルをベクトル量子化し、その
ベクトル量子化の結果得られるAコードを、フィルタ係
数復号器73およびタップ生成部79に供給する。
【0106】フィルタ係数復号器73は、ベクトル量子
化部72が記憶しているのと同一のコードブックを記憶
しており、そのコードブックに基づいて、ベクトル量子
化部72からのAコードを、線形予測係数に復号し、音
声合成フィルタ77に供給する。ここで、図3のフィル
タ係数復号器42は、図6のフィルタ係数復号器73と
同様に構成されている。
【0107】予測フィルタ74は、そこに供給される注
目フレームの音声信号と、LPC分析部71からの線形予
測係数を用いて、例えば、式(1)にしたがった演算を
行うことにより、注目フレームの残差信号を求め、ベク
トル量子化部75に供給する。
【0108】即ち、式(1)におけるsnとenのZ変換
を、SとEとそれぞれ表すと、式(1)は、次式のよう
に表すことができる。
【0109】 E=(1+α1-1+α2-2+・・・+αP-P)S ・・・(14)
【0110】式(14)から、残差信号eを求める予測
フィルタ74は、FIR(Finite Impulse Response)型
のディジタルフィルタで構成することができる。
【0111】即ち、図7は、予測フィルタ74の構成例
を示している。
【0112】予測フィルタ74には、LPC分析部71
から、P次の線形予測係数が供給されるようになってお
り、従って、予測フィルタ74は、P個の遅延回路
(D)911乃至91P、P個の乗算器921乃至92P
および1つの加算器93から構成されている。
【0113】乗算器921乃至92Pには、それぞれ、L
PC分析部71から供給されるP次の線形予測係数
α1,α2,・・・,αPがセットされる。
【0114】一方、注目フレームの音声信号sは、遅延
回路911と加算器93に供給される。遅延回路91
pは、そこへの入力信号を、残差信号の1サンプル分だ
け遅延して、後段の遅延回路91p+1に出力するととも
に、演算器92pに出力する。乗算器92pは、遅延回路
91pの出力と、そこにセットされた線形予測係数αp
を乗算し、その乗算値を、加算器93に出力する。
【0115】加算器93は、乗算器921乃至92Pの出
力すべてと、音声信号sとを加算し、その加算結果を、
残差信号eとして出力する。
【0116】図6に戻り、ベクトル量子化部75は、残
差信号のサンプル値を要素とするコードベクトルとコー
ドとを対応付けたコードブックを記憶しており、そのコ
ードブックに基づいて、予測フィルタ74からの注目フ
レームの残差信号のサンプル値で構成される残差ベクト
ルをベクトル量子化し、そのベクトル量子化の結果得ら
れる残差コードを、残差コードブック記憶部76および
タップ生成部79に供給する。
【0117】残差コードブック記憶部76は、ベクトル
量子化部75が記憶しているのと同一のコードブックを
記憶しており、そのコードブックに基づいて、ベクトル
量子化部75からの残差コードを、残差信号に復号し、
音声合成フィルタ77に供給する。ここで、図3の残差
コードブック記憶部43は、図6の残差コードブック記
憶部76と同様に構成されている。
【0118】音声合成フィルタ77は、図3の音声合成
フィルタ44と同様に構成されるIIRフィルタで、フ
ィルタ係数復号器73からの線形予測係数をIIRフィ
ルタのタップ係数とするとともに、残差コードブック記
憶部75からの残差信号を入力信号として、その入力信
号のフィルタリングを行うことにより、合成音を生成
し、タップ生成部78に供給する。
【0119】タップ生成部78は、図3のタップ生成部
45における場合と同様に、音声合成フィルタ77から
供給される合成音から、予測タップを構成し、正規方程
式加算回路81に供給する。タップ生成部79は、図3
のタップ生成部46における場合と同様に、ベクトル量
子化部72と75からそれぞれ供給されるAコードと残
差コードから、クラスタップを構成し、クラス分類部8
0に供給する。
【0120】クラス分類部80は、図3のクラス分類部
47における場合と同様に、そこに供給されるクラスタ
ップに基づいて、クラス分類を行い、その結果得られる
クラスコードを、正規方程式加算回路81に供給する。
【0121】正規方程式加算回路81は、教師データと
しての注目フレームの高音質の音声である学習用の音声
と、タップ生成部78からの生徒データとしての予測タ
ップ(を構成する音声合成フィルタ77の合成音出力)
を対象とした足し込みを行う。
【0122】即ち、正規方程式加算回路81は、クラス
分類部80から供給されるクラスコードに対応するクラ
スごとに、予測タップ(生徒データ)を用い、式(1
3)の行列Aにおける各コンポーネントとなっている、
生徒データどうしの乗算(xinim)と、サメーション
(Σ)に相当する演算を行う。
【0123】さらに、正規方程式加算回路81は、やは
り、クラス分類部80から供給されるクラスコードに対
応するクラスごとに、生徒データ(予測タップを構成す
る、音声合成フィルタ77から出力される合成音のサン
プル値)および教師データ(注目フレームの高音質の音
声のサンプル値)を用い、式(13)のベクトルvにお
ける各コンポーネントとなっている、生徒データと教師
データの乗算(xin i)と、サメーション(Σ)に相
当する演算を行う。
【0124】正規方程式加算回路81は、以上の足し込
みを、そこに供給される学習用の音声のフレームすべて
を注目フレームとして行い、これにより、各クラスにつ
いて、式(13)に示した正規方程式をたてる。
【0125】タップ係数決定回路82は、正規方程式加
算回路81においてクラスごとに生成された正規方程式
を解くことにより、クラスごとに、タップ係数を求め、
係数メモリ83の、各クラスに対応するアドレスに供給
する。
【0126】なお、学習用の音声信号として用意した音
声信号によっては、正規方程式加算回路81において、
タップ係数を求めるのに必要な数の正規方程式が得られ
ないクラスが生じる場合があり得るが、タップ係数決定
回路82は、そのようなクラスについては、例えば、デ
フォルトのタップ係数を出力する。
【0127】係数メモリ83は、タップ係数決定回路8
2から供給されるクラスごとのタップ係数を、そのクラ
スに対応するアドレスに記憶する。
【0128】次に、図8のフローチャートを参照して、
図6の学習装置の処理(学習処理)について説明する。
【0129】学習装置には、学習用の音声信号が供給さ
れ、この学習用の音声信号は、LPC分析部71および
予測フィルタ74に供給されるとともに、教師データと
して、正規方程式加算回路81に供給される。そして、
ステップS11において、学習用の音声信号から、生徒
データが生成される。
【0130】即ち、LPC分析部71は、学習用の音声
信号のフレームを、順次、注目フレームとし、その注目
フレームの音声信号をLPC分析することで、P次の線
形予測係数を求め、ベクトル量子化部72に供給する。
ベクトル量子化部72は、LPC分析部71からの注目
フレームの線形予測係数で構成される特徴ベクトルをベ
クトル量子化し、そのベクトル量子化の結果得られるA
コードを、フィルタ係数復号器73およびタップ生成部
79に供給する。フィルタ係数復号器73は、ベクトル
量子化部72からのAコードを、線形予測係数に復号
し、その線形予測係数を、音声合成フィルタ77に供給
する。
【0131】一方、LPC分析部71から注目フレーム
の線形予測係数を受信した予測フィルタ74は、その線
形予測係数と、注目フレームの学習用の音声信号とを用
いて、式(1)にしたがった演算を行うことにより、注
目フレームの残差信号を求め、ベクトル量子化部75に
供給する。ベクトル量子化部75は、予測フィルタ74
からの注目フレームの残差信号のサンプル値で構成され
る残差ベクトルをベクトル量子化し、そのベクトル量子
化の結果得られる残差コードを、残差コードブック記憶
部76およびタップ生成部79に供給する。残差コード
ブック記憶部76は、ベクトル量子化部75からの残差
コードを、残差信号に復号し、音声合成フィルタ77に
供給する。
【0132】以上のようにして、音声合成フィルタ77
は、線形予測係数と残差信号を受信すると、その線形予
測係数と残差信号を用いて音声合成を行い、その結果得
られる合成音を、生徒データとして、タップ生成部78
に出力する。
【0133】そして、ステップS12に進み、タップ生
成部78が、音声合成フィルタ77から供給される合成
音から、予測タップを生成するとともに、タップ生成部
79が、ベクトル量子化部72からのAコードと、ベク
トル量子化部75からの残差コードから、クラスタップ
を生成する。予測タップは、正規方程式加算回路81に
供給され、クラスタップは、クラス分類部80に供給さ
れる。
【0134】その後、ステップS13において、クラス
分類部80が、タップ生成部79からのクラスタップに
基づいて、クラス分類を行い、その結果得られるクラス
コードを、正規方程式加算回路81に供給する。
【0135】そして、ステップS14に進み、正規方程
式加算回路81は、クラス分類部80から供給されるク
ラスについて、そこに供給される教師データとしての注
目フレームの高音質の音声のサンプル値、およびタップ
生成部78からの生徒データとしての予測タップ(を構
成する合成音のサンプル値)を対象とした、式(13)
の行列Aとベクトルvの、上述したような足し込みを行
い、ステップS15に進む。
【0136】ステップS15では、まだ、注目フレーム
として処理すべきフレームの学習用の音声信号があるか
どうかが判定される。ステップS15において、まだ、
注目フレームとして処理すべきフレームの学習用の音声
信号があると判定された場合、ステップS11に戻り、
次のフレームを新たに注目フレームとして、以下、同様
の処理が繰り返される。
【0137】また、ステップS15において、注目フレ
ームとして処理すべきフレームの学習用の音声信号がな
いと判定された場合、即ち、正規方程式加算回路81に
おいて、各クラスについて、正規方程式が得られた場
合、ステップS16に進み、タップ係数決定回路82
は、各クラスごとに生成された正規方程式を解くことに
より、各クラスごとに、タップ係数を求め、係数メモリ
83の、各クラスに対応するアドレスに供給して記憶さ
せ、処理を終了する。
【0138】以上のようにして、係数メモリ83に記憶
された各クラスごとのタップ係数が、図3の係数メモリ
48に記憶されている。
【0139】従って、図3の係数メモリ48に記憶され
たタップ係数は、線形予測演算を行うことにより得られ
る高音質の音声の予測値の予測誤差(ここでは、自乗誤
差)が、統計的に最小になるように学習を行うことによ
り求められたものであるから、図3の予測部49が出力
する音声は、音声合成フィルタ44で生成された合成音
の歪みが低減(解消)された、高音質のものとなる。
【0140】なお、図3の音声合成装置において、上述
したように、例えば、タップ生成部46に、線形予測係
数や残差信号等の中からも、クラスタップを抽出させる
ようにする場合には、図6のタップ生成部79にも、フ
ィルタ係数復号器73が出力する線形予測係数や、残差
コードブック記憶部76が出力する残差信号の中から、
同様のクラスタップを抽出させるようにする必要があ
る。但し、線形予測係数等からも、クラスタップを抽出
する場合には、タップ数が多くなることから、クラス分
類は、例えば、クラスタップをベクトル量子化等によっ
て圧縮することにより行うのが望ましい。なお、残差コ
ードおよびAコードだけからクラス分類を行う場合に
は、残差コードとAコードのビット列の並びを、そのま
まクラスコードとすることができることから、クラス分
類処理に要する負担を軽減することができる。
【0141】次に、図9は、本発明を適用した伝送シス
テム(システムとは、複数の装置が論理的に集合した物
をいい、各構成の装置が同一筐体中にあるか否かは問わ
ない)の一実施の形態の構成を示している。
【0142】この伝送システムでは、携帯電話機101
1と1012が、基地局1021と1022それぞれとの間
で、無線による送受信を行うとともに、基地局1021
と1022それぞれが、交換局103との間で送受信を
行うことにより、最終的には、携帯電話機1011と1
012との間において、基地局1021および1022
並びに交換局103を介して、音声の送受信を行うこと
ができるようになっている。なお、基地局1021と1
022は、同一の基地局であっても良いし、異なる基地
局であっても良い。
【0143】ここで、以下、特に区別する必要がない限
り、携帯電話機1011と1012を、携帯電話機101
と記述する。
【0144】図10は、図9の携帯電話機101の構成
例を示している。
【0145】アンテナ111は、基地局1021または
1022からの電波を受信し、その受信信号を、変復調
部112に供給するとともに、変復調部112からの信
号を、電波で、基地局1021または1022に送信す
る。変復調部112は、アンテナ111からの信号を復
調し、その結果得られる、図1で説明したようなコード
データを、受信部114に供給する。また、変復調部1
12は、送信部113から供給される、図1で説明した
ようなコードデータを変調し、その結果得られる変調信
号を、アンテナ111に供給する。送信部113は、図
1に示した送信部と同様に構成され、そこに入力される
ユーザの音声を、コードデータに符号化して、変復調部
112に供給する。受信部114は、変復調部112か
らのコードデータを受信し、そのコードデータから、図
3の音声合成装置における場合と同様の高音質の音声を
復号して出力する。
【0146】即ち、図11は、図10の受信部114の
構成例を示している。なお、図中、図2における場合と
対応する部分については、同一の符号を付してあり、以
下では、その説明は、適宜省略する。
【0147】タップ生成部121には、音声合成フィル
タ29が出力する合成音が供給されるようになってお
り、タップ生成部121は、その合成音から、予測タッ
プとするもの(サンプル値)を抽出し、予測部125に
供給する。
【0148】タップ生成部122には、チャネルデコー
ダ21が出力する、フレーム(またはサブフレーム)ご
とのLコード、Gコード、Iコード、およびAコードが
供給されるようになっている。さらに、タップ生成部1
22には、演算器28から残差信号が供給されるととも
に、フィルタ係数復号器25から線形予測係数が供給さ
れるようになっている。タップ生成部122は、そこに
供給されるLコード、Gコード、Iコード、およびAコ
ード、さらには、残差信号および線形予測係数から、ク
ラスタップとするものを抽出し、クラス分類部123に
供給する。
【0149】クラス分類部123は、タップ生成部12
2から供給されるクラスタップに基づいて、クラス分類
を行い、そのクラス分類結果としてのクラスコードを、
係数メモリ124に供給する。
【0150】ここで、Lコード、Gコード、Iコード、
およびAコード、並びに残差信号および線形予測係数か
ら、クラスタップを構成し、このクラスタップに基づい
てクラス分類を行うと、そのクラス分類の結果得られる
クラス数が膨大な数になることがある。そこで、クラス
分類部123では、例えば、Lコード、Gコード、Iコ
ード、およびAコード、並びに残差信号および線形予測
係数を要素とするベクトルをベクトル量子化して得られ
るコードを、クラス分類結果として出力するようにする
ことができる。
【0151】係数メモリ124は、後述する図12の学
習装置において学習処理が行われることにより得られ
る、クラスごとのタップ係数を記憶しており、クラス分
類部123が出力するクラスコードに対応するアドレス
に記憶されているタップ係数を、予測部125に供給す
る。
【0152】予測部125は、図3の予測部49と同様
に、タップ生成部121が出力する予測タップと、係数
メモリ124が出力するタップ係数とを取得し、その予
測タップとタップ係数とを用いて、式(6)に示した線
形予測演算を行う。これにより、予測部125は、注目
フレームの高音質の音声(の予測値)を求めて、D/A
変換部30に供給する。
【0153】以上のように構成される受信部114で
は、基本的には、図5に示したフローチャートにしたが
った処理と同様の処理が行われることで、高音質の合成
音が、音声の復号結果として出力される。
【0154】即ち、チャネルデコーダ21は、そこに供
給されるコードデータから、Lコード、Gコード、Iコ
ード、Aコードを分離し、それぞれを、適応コードブッ
ク記憶部22、ゲイン復号器23、励起コードブック記
憶部24、フィルタ係数復号器25に供給する。さら
に、Lコード、Gコード、Iコード、およびAコード
は、タップ生成部122にも供給される。
【0155】そして、適応コードブック記憶部22、ゲ
イン復号器23、励起コードブック記憶部24、演算器
26乃至28では、図1の適応コードブック記憶部9、
ゲイン復号器10、励起コードブック記憶部11、演算
器12乃至14における場合と同様の処理が行われ、こ
れにより、Lコード、Gコード、およびIコードが、残
差信号eに復号される。この残差信号は、音声合成フィ
ルタ29およびタップ生成部122に供給される。
【0156】さらに、フィルタ係数復号器25は、図1
で説明したように、そこに供給されるAコードを、線形
予測係数に復号し、音声合成フィルタ29およびタップ
生成部122に供給する。音声合成フィルタ29は、演
算器28からの残差信号と、フィルタ係数復号器25か
らの線形予測係数を用いて音声合成を行い、その結果得
られる合成音を、タップ生成部121に供給する。
【0157】タップ生成部121は、音声合成フィルタ
29が出力する合成音のフレームを注目フレームとし、
ステップS1において、その注目フレームの合成音か
ら、予測タップを生成し、予測部125に供給する。さ
らに、ステップS1では、タップ生成部122は、そこ
に供給されるLコード、Gコード、Iコード、およびA
コード、並びに残差信号および線形予測係数から、クラ
スタップを生成し、クラス分類部123に供給する。
【0158】そして、ステップS2に進み、クラス分類
部123は、タップ生成部122から供給されるクラス
タップに基づいて、クラス分類を行い、その結果得られ
るクラスコードを、係数メモリ124に供給して、ステ
ップS3に進む。
【0159】ステップS3では、係数メモリ124は、
クラス分類部123から供給されるクラスコードに対応
するアドレスから、タップ係数を読み出し、予測部12
5に供給する。
【0160】そして、ステップS4に進み、予測部12
5は、係数メモリ124が出力するタップ係数を取得
し、そのタップ係数と、タップ生成部121からの予測
タップとを用いて、式(6)に示した積和演算を行い、
注目フレームの高音質の音声(の予測値)を得る。
【0161】以上のようにして得られた高音質の音声
は、予測部125から、D/A変換部30を介して、ス
ピーカ31に供給され、これにより、スピーカ31から
は、高音質の音声が出力される。
【0162】ステップS4の処理後は、ステップS5に
進み、まだ、注目フレームとして処理すべきフレームが
あるかどうかが判定され、あると判定された場合、ステ
ップS1に戻り、次に注目フレームとすべきフレーム
を、新たに注目フレームとして、以下、同様の処理を繰
り返す。また、ステップS5において、注目フレームと
して処理すべきフレームがないと判定された場合、処理
を終了する。
【0163】次に、図12は、図11の係数メモリ12
4に記憶させるタップ係数の学習処理を行う学習装置の
一実施の形態の構成例を示している。
【0164】マイク201乃至コード決定部215は、
図1のマイク1乃至コード決定部15とそれぞれ同様に
構成される。マイク1には、学習用の音声信号が入力さ
れるようになっており、従って、マイク201乃至コー
ド決定部215では、その学習用の音声信号に対して、
図1における場合と同様の処理が施される。
【0165】そして、タップ生成部131には、自乗誤
差最小判定部208において自乗誤差が最小になったと
判定されたときの音声合成フィルタ206が出力する合
成音が供給される。また、タップ生成部132には、コ
ード決定部215が、自乗誤差最小判定部208から確
定信号を受信したときに出力するLコード、Gコード、
Iコード、およびAコードが供給される。さらに、タッ
プ生成部132には、ベクトル量子化部205が出力す
る、LPC分析部204で得られた線形予測係数のベク
トル量子化結果としてのAコードに対応するコードベク
トル(セントロイドベクトル)の要素となっている線形
予測係数と、自乗誤差最小判定部208において自乗誤
差が最小になったと判定されたときの演算器214が出
力する残差信号も供給される。また、正規方程式加算回
路134には、A/D変換部202が出力する音声が、
教師データとして供給される。
【0166】タップ生成部131は、音声合成フィルタ
206が出力する合成音から、図11のタップ生成部1
21と同一の予測タップを構成し、生徒データとして、
正規方程式加算回路134に供給する。
【0167】タップ生成部132は、コード決定部21
5から供給されるLコード、Gコード、Iコード、およ
びAコード、並びに、ベクトル量子化部205から供給
される線形予測係数、および演算器214から供給され
る残差信号から、図11のタップ生成部122と同一の
クラスタップを構成し、クラス分類部133に供給す
る。
【0168】クラス分類部133は、タップ生成部13
2からのクラスタップに基づいて、図11のクラス分類
部123における場合と同様のクラス分類を行い、その
結果得られるクラスコードを、正規方程式加算回路13
4に供給する。
【0169】正規方程式加算回路134は、A/D変換
部202からの音声を、教師データとして受信するとと
もに、タップ生成部131からの予測タップを、生徒デ
ータとして受信し、その教師データおよび生徒データを
対象として、クラス分類部133からのクラスコードご
とに、図6の正規方程式加算回路81における場合と同
様の足し込みを行うことにより、各クラスについて、式
(13)に示した正規方程式をたてる。
【0170】タップ係数決定回路135は、正規方程式
加算回路134においてクラスごとに生成された正規方
程式を解くことにより、クラスごとに、タップ係数を求
め、係数メモリ136の、各クラスに対応するアドレス
に供給する。
【0171】なお、学習用の音声信号として用意する音
声信号によっては、正規方程式加算回路134におい
て、タップ係数を求めるのに必要な数の正規方程式が得
られないクラスが生じる場合があり得るが、タップ係数
決定回路135は、そのようなクラスについては、例え
ば、デフォルトのタップ係数を出力する。
【0172】係数メモリ136は、タップ係数決定回路
135から供給されるクラスごとの線形予測係数と残差
信号についてのタップ係数を記憶する。
【0173】以上のように構成される学習装置では、基
本的には、図8に示したフローチャートにしたがった処
理と同様の処理が行われることで、高音質の合成音を得
るためのタップ係数が求められる。
【0174】学習装置には、学習用の音声信号が供給さ
れ、ステップS11では、その学習用の音声信号から、
教師データと生徒データが生成される。
【0175】即ち、学習用の音声信号は、マイク201
に入力され、マイク201乃至コード決定部215は、
図1のマイク1乃至コード決定部15における場合とそ
れぞれ同様の処理を行う。
【0176】その結果、A/D変換部202で得られる
ディジタル信号の音声は、教師データとして、正規方程
式加算回路134に供給される。また、自乗誤差最小判
定部208において自乗誤差が最小になったと判定され
たときに、音声合成フィルタ206が出力する合成音
は、生徒データとして、タップ生成部131に供給され
る。
【0177】さらに、ベクトル量子化部205が出力す
る線形予測係数、自乗誤差最小判定部208において自
乗誤差が最小になったと判定されたときに、コード決定
部215が出力するLコード、Gコード、Iコード、お
よびAコード、並びに演算器214が出力する残差信号
は、タップ生成部132に供給される。
【0178】その後、ステップS12に進み、タップ生
成部131は、音声合成フィルタ206から生徒データ
として供給される合成音のフレームを注目フレームとし
て、その注目フレームの合成音から、予測タップを生成
し、正規方程式加算回路134に供給する。さらに、ス
テップS12では、タップ生成部132が、そこに供給
されるLコード、Gコード、Iコード、Aコード、線形
予測係数、および残差信号から、クラスタップを生成
し、クラス分類部133に供給する。
【0179】ステップS12の処理後は、ステップS1
3に進み、クラス分類部133が、タップ生成部132
からのクラスタップに基づいて、クラス分類を行い、そ
の結果得られるクラスコードを、正規方程式加算回路1
34に供給する。
【0180】そして、ステップS14に進み、正規方程
式加算回路134は、A/D変換器202からの教師デ
ータとしての注目フレームの高音質の音声である学習用
の音声、およびタップ生成部132からの生徒データと
しての予測タップを対象として、式(13)の行列Aと
ベクトルvの、上述したような足し込みを、クラス分類
部133からのクラスコードごとに行い、ステップS1
5に進む。
【0181】ステップS15では、まだ、注目フレーム
として処理すべきフレームがあるかどうかが判定され
る。ステップS15において、まだ、注目フレームとし
て処理すべきフレームがあると判定された場合、ステッ
プS11に戻り、次のフレームを新たに注目フレームと
して、以下、同様の処理が繰り返される。
【0182】また、ステップS15において、注目フレ
ームとして処理すべきフレームがないと判定された場
合、即ち、正規方程式加算回路134において、各クラ
スについて、正規方程式が得られた場合、ステップS1
6に進み、タップ係数決定回路135は、各クラスごと
に生成された正規方程式を解くことにより、各クラスご
とに、タップ係数を求め、係数メモリ136の、各クラ
スに対応するアドレスに供給して記憶させ、処理を終了
する。
【0183】以上のようにして、係数メモリ136に記
憶された各クラスごとのタップ係数が、図11の係数メ
モリ124に記憶されている。
【0184】従って、図11の係数メモリ124に記憶
されたタップ係数は、線形予測演算を行うことにより得
られる高音質の音声予測値の予測誤差(自乗誤差)が、
統計的に最小になるように学習を行うことにより求めら
れたものであるから、図11の予測部125が出力する
音声は、高音質のものとなる。
【0185】次に、上述した一連の処理は、ハードウェ
アにより行うこともできるし、ソフトウェアにより行う
こともできる。一連の処理をソフトウェアによって行う
場合には、そのソフトウェアを構成するプログラムが、
汎用のコンピュータ等にインストールされる。
【0186】そこで、図13は、上述した一連の処理を
実行するプログラムがインストールされるコンピュータ
の一実施の形態の構成例を示している。
【0187】プログラムは、コンピュータに内蔵されて
いる記録媒体としてのハードディスク305やROM3
03に予め記録しておくことができる。
【0188】あるいはまた、プログラムは、フレキシブ
ルディスク、CD-ROM(Compact DiscRead Only Memory),
MO(Magneto optical)ディスク,DVD(Digital Versatile
Disc)、磁気ディスク、半導体メモリなどのリムーバブ
ル記録媒体311に、一時的あるいは永続的に格納(記
録)しておくことができる。このようなリムーバブル記
録媒体311は、いわゆるパッケージソフトウエアとし
て提供することができる。
【0189】なお、プログラムは、上述したようなリム
ーバブル記録媒体311からコンピュータにインストー
ルする他、ダウンロードサイトから、ディジタル衛星放
送用の人工衛星を介して、コンピュータに無線で転送し
たり、LAN(Local Area Network)、インターネットとい
ったネットワークを介して、コンピュータに有線で転送
し、コンピュータでは、そのようにして転送されてくる
プログラムを、通信部308で受信し、内蔵するハード
ディスク305にインストールすることができる。
【0190】コンピュータは、CPU(Central Processing
Unit)302を内蔵している。CPU302には、バス3
01を介して、入出力インタフェース310が接続され
ており、CPU302は、入出力インタフェース310を
介して、ユーザによって、キーボードや、マウス、マイ
ク等で構成される入力部307が操作等されることによ
り指令が入力されると、それにしたがって、ROM(Read O
nly Memory)303に格納されているプログラムを実行
する。あるいは、また、CPU302は、ハードディスク
305に格納されているプログラム、衛星若しくはネッ
トワークから転送され、通信部308で受信されてハー
ドディスク305にインストールされたプログラム、ま
たはドライブ309に装着されたリムーバブル記録媒体
311から読み出されてハードディスク305にインス
トールされたプログラムを、RAM(Random Access Memor
y)304にロードして実行する。これにより、CPU30
2は、上述したフローチャートにしたがった処理、ある
いは上述したブロック図の構成により行われる処理を行
う。そして、CPU302は、その処理結果を、必要に応
じて、例えば、入出力インタフェース310を介して、
LCD(Liquid Crystal Display)やスピーカ等で構成され
る出力部306から出力、あるいは、通信部308から
送信、さらには、ハードディスク305に記録等させ
る。
【0191】ここで、本明細書において、コンピュータ
に各種の処理を行わせるためのプログラムを記述する処
理ステップは、必ずしもフローチャートとして記載され
た順序に沿って時系列に処理する必要はなく、並列的あ
るいは個別に実行される処理(例えば、並列処理あるい
はオブジェクトによる処理)も含むものである。
【0192】また、プログラムは、1のコンピュータに
より処理されるものであっても良いし、複数のコンピュ
ータによって分散処理されるものであっても良い。さら
に、プログラムは、遠方のコンピュータに転送されて実
行されるものであっても良い。
【0193】なお、本実施の形態においては、学習用の
音声信号として、どのようなものを用いるかについて
は、特に言及しなかったが、学習用の音声信号として
は、人が発話した音声の他、例えば、曲(音楽)等を採
用することが可能である。そして、上述したような学習
処理によれば、学習用の音声信号として、人の発話を用
いた場合には、そのような人の発話の音声の音質を向上
させるようなタップ係数が得られ、曲を用いた場合に
は、曲の音質を向上させるようなタップ係数が得られる
ことになる。
【0194】また、図11の実施の形態では、係数メモ
リ124には、タップ係数をあらかじめ記憶させておく
ようにしたが、係数メモリ124に記憶させるタップ係
数は、携帯電話機101において、図9の基地局102
(あるいは交換局103)や、図示しないWWW(World
Wide Web)サーバ等からダウンロードするようにするこ
とができる。即ち、上述したように、タップ係数は、人
の発話用や曲用等のように、ある種類の音声信号に適し
たものを、学習によって得ることができる。さらに、学
習に用いる教師データおよび生徒データによっては、合
成音の音質に差が生じるタップ係数を得ることができ
る。従って、そのような各種のタップ係数を、基地局1
02等に記憶させておき、ユーザには、自身の所望する
タップ係数をダウンロードさせるようにすることができ
る。そして、このようなタップ係数のダウンロードサー
ビスは、無料で行うこともできるし、有料で行うことも
できる。さらに、タップ係数のダウンロードサービスを
有料で行う場合には、タップ係数のダウンロードに対す
る対価としての代金は、例えば、携帯電話機101の通
話料等とともに請求するようにすることが可能である。
【0195】また、係数メモリ124は、携帯電話機1
01に対して着脱可能なメモリカード等で構成すること
ができる。この場合、上述したような各種のタップ係数
それぞれを記憶させた、異なるメモリカードを提供する
ようにすれば、ユーザは、場合に応じて、所望のタップ
係数が記憶されたメモリカードを、携帯電話機101に
装着して使用することが可能となる。
【0196】さらに、本発明は、例えば、VSELP(V
ector Sum Excited Liner Prediction),PSI−CE
LP(Pitch Synchronous Innovation CELP),CS−A
CELP(Conjugate Structure Algebraic CELP)等のC
ELP方式による符号化の結果得られるコードから合成
音を生成する場合に、広く適用可能である。
【0197】また、本発明は、CELP方式による符号
化の結果得られるコードから合成音を生成する場合に限
らず、あるコードから、残差信号と線形予測係数を得
て、合成音を生成する場合に、広く適用可能である。
【0198】さらに、本実施の形態では、タップ係数を
用いた線形1次予測演算によって、残差信号や線形予測
係数の予測値を求めるようにしたが、この予測値は、そ
の他、2次以上の高次の予測演算によって求めることも
可能である。
【0199】また、例えば、図11および図12の実施
の形態では、クラスタップを、Lコード、Gコード、I
コード、およびAコードの他、Aコードから得られた線
形予測係数や、Lコード、Gコード、およびIコードか
ら得られた残差信号に基づいて生成するようにしたが、
クラスタップは、その他、例えば、Lコード、Gコー
ド、Iコード、およびAコードだけから生成することも
可能である。また、クラスタップは、4種類のLコー
ド、Gコード、Iコード、およびAコードのうちの1つ
だけ(または複数)、即ち、例えば、Iコードだけから
生成することも可能である。例えば、クラスタップを、
Iコードだけから構成する場合においては、Iコードそ
のものを、クラスコードとすることができる。ここで、
VSELP方式では、Iコードには、9ビットが割り当
てられており、従って、Iコードを、そのままクラスコ
ードとする場合、クラス数は、512(=29)とな
る。なお、VSELP方式においては、9ビットのIコ
ードの各ビットは、1または−1という2種類の符号極
性を有するため、このようなIコードを、クラスコード
とする場合には、例えば、−1となっているビットを0
とみなすようにすれば良い。
【0200】さらに、CELP方式では、コードデータ
に、リスト補間ビットやフレームエネルギが含められる
場合があるが、この場合、クラスタップは、ソフト補間
ビットやフレームエネルギを用いて構成することが可能
である。
【0201】なお、例えば、特開平8−202399号
公報には、合成音を、高域強調フィルタに通すことによ
って、その音質を改善する方法が開示されているが、本
発明は、タップ係数が学習により得られる点および用い
るタップ係数が、コードによるクラス分類結果によって
決まる点等において、特開平8−202339号公報に
記載の発明と異なる。
【0202】
【発明の効果】本発明の音声処理装置および音声処理方
法、並びに第1のプログラムおよび第1の記録媒体によ
れば、予測値を求めようとしている高音質の音声を注目
音声として、その注目音声を予測するのに用いる予測タ
ップが、合成音から抽出されるとともに、注目音声を、
幾つかのクラスのうちのいずれかにクラス分類するのに
用いるクラスタップが、コードから抽出される。そし
て、クラスタップに基づいて、注目音声のクラスを求め
るクラス分類が行われ、予測タップと、注目音声のクラ
スに対応するタップ係数を用いて、注目音声の予測値が
求められる。従って、高音質の合成音を生成することが
可能となる。
【0203】本発明の学習装置および学習方法、並びに
第2のプログラムおよび第2の記録媒体によれば、予測
値を求めようとしている高音質の音声を注目音声とし
て、その注目音声を、幾つかのクラスのうちのいずれか
にクラス分類するのに用いるクラスタップが、コードか
ら抽出され、そのクラスタップに基づいて、注目音声の
クラスを求めるクラス分類が行われる。そして、タップ
係数および合成音を用いて予測演算を行うことにより得
られる高音質の音声の予測値の予測誤差が統計的に最小
になるように、学習が行われ、クラスごとのタップ係数
が求められる。従って、そのタップ係数によって、高音
質の合成音を生成することが可能となる。
【図面の簡単な説明】
【図1】従来の携帯電話機の送信部の一例の構成を示す
ブロック図である。
【図2】従来の携帯電話機の受信部の一例の構成を示す
ブロック図である。
【図3】本発明を適用した音声合成装置の一実施の形態
の構成例を示すブロック図である。
【図4】音声合成フィルタ44の構成例を示すブロック
図である。
【図5】図3の音声合成装置の処理を説明するフローチ
ャートである。
【図6】本発明を適用した学習装置の一実施の形態の構
成例を示すブロック図である。
【図7】予測フィルタ74の構成例を示すブロック図で
ある。
【図8】図6の学習装置の処理を説明するフローチャー
トである。
【図9】本発明を適用した伝送システムの一実施の形態
の構成例を示す図である。
【図10】携帯電話機101の構成例を示すブロック図
である。
【図11】受信部114の構成例を示すブロック図であ
る。
【図12】本発明を適用した学習装置の他の実施の形態
の構成例を示すブロック図である。
【図13】本発明を適用したコンピュータの一実施の形
態の構成例を示すブロック図である。
【符号の説明】
21 チャンネルデコーダ, 22 適応コードブック
記憶部, 23 ゲイン復号器, 24 励起コードブ
ック記憶部, 25 フィルタ係数復号器,26乃至2
8 演算器, 29 音声合成フィルタ, 30 D/
A変換部,31 スピーカ, 41 デマルチプレク
サ, 42 フィルタ係数復号器,43 残差コードブ
ック記憶部, 44 音声合成フィルタ, 45,46
タップ生成部, 47 クラス分類部, 48 係数
メモリ, 49 予測部,50 D/A変換部, 51
スピーカ, 61 加算器, 621乃至62P遅延回
路, 631乃至63P 乗算器, 71 LPC分析
部, 72 ベクトル量子化部, 73 フィルタ係数
復号器, 74 予測フィルタ, 75 ベクトル量子
化部, 76 残差コードブック記憶部, 77 音声
合成フィルタ, 78,79 タップ生成部, 80
クラス分類部, 81 正規方程式加算回路, 82
タップ係数決定回路, 83 係数メモリ, 911
至91P遅延回路, 921乃至72P 乗算器, 93
加算器, 1011,1012携帯電話機, 10
1,1022 基地局, 103 交換局, 111
アンテナ, 112 変復調部, 113 送信部,
114 受信部, 121,122 タップ生成部,
123 クラス分類部, 124 係数メモリ,125
予測部, 131,132 タップ生成部, 133
クラス分類部,134 正規方程式加算回路, 13
5 タップ係数決定回路, 136 係数メモリ, 2
01 マイク, 202 A/D変換部, 203 演
算器,204 LPC分析部, 205 ベクトル量子
化部, 206 音声合成フィルタ, 207 自乗誤
差演算部, 208 自乗誤差最小判定部, 209適
応コードブック記憶部, 210 ゲイン復号器, 2
11 励起コードブック記憶部, 212 乃至214
演算器, 215 コード決定部, 301バス,
302 CPU, 303 ROM, 304 RAM, 30
5 ハードディスク, 306 出力部, 307 入
力部, 308 通信部, 309ドライブ, 310
入出力インタフェース, 311 リムーバブル記録
媒体
───────────────────────────────────────────────────── フロントページの続き (72)発明者 服部 正明 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 木村 裕人 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 藤森 泰弘 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 5D045 CA01 5J064 AA01 BB01 BB03 BC01 BC06 BC09 BC12 BD02

Claims (17)

    【特許請求の範囲】
  1. 【請求項1】 所定のコードから生成される線形予測係
    数と残差信号を、音声合成フィルタに与えることによっ
    て得られる合成音から、その音質を向上させた高音質の
    音声の予測値を予測するための予測タップを抽出し、そ
    の予測タップと所定のタップ係数を用いて、所定の予測
    演算を行うことにより、前記高音質の音声の予測値を求
    める音声処理装置であって、 前記予測値を求めようとしている前記高音質の音声を注
    目音声として、その注目音声を予測するのに用いる前記
    予測タップを、前記合成音から抽出する予測タップ抽出
    手段と、 前記注目音声を、幾つかのクラスのうちのいずれかにク
    ラス分類するのに用いるクラスタップを、前記コードか
    ら抽出するクラスタップ抽出手段と、 前記クラスタップに基づいて、前記注目音声のクラスを
    求めるクラス分類を行うクラス分類手段と、 学習を行うことにより求められた、前記クラスごとの前
    記タップ係数の中から、前記注目音声のクラスに対応す
    る前記タップ係数を取得する取得手段と、 前記予測タップと、前記注目音声のクラスに対応する前
    記タップ係数を用いて、前記注目音声の予測値を求める
    予測手段とを備えることを特徴とするデータ処理装置。
  2. 【請求項2】 前記予測手段は、前記予測タップおよび
    タップ係数を用いて線形1次予測演算を行うことによ
    り、前記注目音声の予測値を求めることを特徴とする請
    求項1に記載のデータ処理装置。
  3. 【請求項3】 前記取得手段は、クラスごとの前記タッ
    プ係数を記憶している記憶手段から、前記注目音声に対
    応するクラスの前記タップ係数を取得することを特徴と
    する請求項1に記載のデータ処理装置。
  4. 【請求項4】 前記クラスタップ抽出手段は、前記クラ
    スタップを、前記コードと、そのコードを復号すること
    により得られる前記線形予測係数または残差信号の中か
    ら抽出することを特徴とする請求項1に記載のデータ処
    理装置。
  5. 【請求項5】 前記タップ係数は、前記予測タップおよ
    びタップ係数を用いて所定の予測演算を行うことにより
    得られる前記高音質の音声の予測値の予測誤差が、統計
    的に最小になるように、学習を行うことにより得られた
    ものであることを特徴とする請求項1に記載のデータ処
    理装置。
  6. 【請求項6】 前記音声合成フィルタをさらに備えるこ
    とを特徴とする請求項1に記載のデータ処理装置。
  7. 【請求項7】 前記コードは、音声を、CELP(Code
    Excited Liner Prediction coding)方式によって符号化
    することにより得られたものであることを特徴とする請
    求項1に記載のデータ処理装置。
  8. 【請求項8】 所定のコードから生成される線形予測係
    数と残差信号を、音声合成フィルタに与えることによっ
    て得られる合成音から、その音質を向上させた高音質の
    音声の予測値を予測するための予測タップを抽出し、そ
    の予測タップと所定のタップ係数を用いて、所定の予測
    演算を行うことにより、前記高音質の音声の予測値を求
    める音声処理方法であって、 前記予測値を求めようとしている前記高音質の音声を注
    目音声として、その注目音声を予測するのに用いる前記
    予測タップを、前記合成音から抽出する予測タップ抽出
    ステップと、 前記注目音声を、幾つかのクラスのうちのいずれかにク
    ラス分類するのに用いるクラスタップを、前記コードか
    ら抽出するクラスタップ抽出ステップと、 前記クラスタップに基づいて、前記注目音声のクラスを
    求めるクラス分類を行うクラス分類ステップと、 学習を行うことにより求められた、前記クラスごとの前
    記タップ係数の中から、前記注目音声のクラスに対応す
    る前記タップ係数を取得する取得ステップと、 前記予測タップと、前記注目音声のクラスに対応する前
    記タップ係数を用いて、前記注目音声の予測値を求める
    予測ステップとを備えることを特徴とするデータ処理方
    法。
  9. 【請求項9】 所定のコードから生成される線形予測係
    数と残差信号を、音声合成フィルタに与えることによっ
    て得られる合成音から、その音質を向上させた高音質の
    音声の予測値を予測するための予測タップを抽出し、そ
    の予測タップと所定のタップ係数を用いて、所定の予測
    演算を行うことにより、前記高音質の音声の予測値を求
    める音声処理を、コンピュータに行わせるプログラムで
    あって、 前記予測値を求めようとしている前記高音質の音声を注
    目音声として、その注目音声を予測するのに用いる前記
    予測タップを、前記合成音から抽出する予測タップ抽出
    ステップと、 前記注目音声を、幾つかのクラスのうちのいずれかにク
    ラス分類するのに用いるクラスタップを、前記コードか
    ら抽出するクラスタップ抽出ステップと、 前記クラスタップに基づいて、前記注目音声のクラスを
    求めるクラス分類を行うクラス分類ステップと、 学習を行うことにより求められた、前記クラスごとの前
    記タップ係数の中から、前記注目音声のクラスに対応す
    る前記タップ係数を取得する取得ステップと、 前記予測タップと、前記注目音声のクラスに対応する前
    記タップ係数を用いて、前記注目音声の予測値を求める
    予測ステップとを備えることを特徴とするプログラム。
  10. 【請求項10】 所定のコードから生成される線形予測
    係数と残差信号を、音声合成フィルタに与えることによ
    って得られる合成音から、その音質を向上させた高音質
    の音声の予測値を予測するための予測タップを抽出し、
    その予測タップと所定のタップ係数を用いて、所定の予
    測演算を行うことにより、前記高音質の音声の予測値を
    求める音声処理を、コンピュータに行わせるプログラム
    が記録されている記録媒体であって、 前記予測値を求めようとしている前記高音質の音声を注
    目音声として、その注目音声を予測するのに用いる前記
    予測タップを、前記合成音から抽出する予測タップ抽出
    ステップと、 前記注目音声を、幾つかのクラスのうちのいずれかにク
    ラス分類するのに用いるクラスタップを、前記コードか
    ら抽出するクラスタップ抽出ステップと、 前記クラスタップに基づいて、前記注目音声のクラスを
    求めるクラス分類を行うクラス分類ステップと、 学習を行うことにより求められた、前記クラスごとの前
    記タップ係数の中から、前記注目音声のクラスに対応す
    る前記タップ係数を取得する取得ステップと、 前記予測タップと、前記注目音声のクラスに対応する前
    記タップ係数を用いて、前記注目音声の予測値を求める
    予測ステップとを備えるプログラムが記録されているこ
    とを特徴とする記録媒体。
  11. 【請求項11】 所定のコードから生成される線形予測
    係数と残差信号を、音声合成フィルタに与えることによ
    って得られる合成音から、その音質を向上させた高音質
    の音声の予測値を、所定の予測演算によって求めるのに
    用いる所定のタップ係数を学習する学習装置であって、 前記予測値を求めようとしている前記高音質の音声を注
    目音声として、その注目音声を、幾つかのクラスのうち
    のいずれかにクラス分類するのに用いるクラスタップ
    を、前記コードから抽出するクラスタップ抽出手段と、 前記クラスタップに基づいて、前記注目音声のクラスを
    求めるクラス分類を行うクラス分類手段と、 前記タップ係数および合成音を用いて予測演算を行うこ
    とにより得られる前記高音質の音声の予測値の予測誤差
    が統計的に最小になるように、学習を行い、前記クラス
    ごとのタップ係数を求める学習手段とを備えることを特
    徴とする学習装置。
  12. 【請求項12】 前記学習手段は、前記タップ係数およ
    び合成音を用いて線形1次予測演算を行うことにより得
    られる前記高音質の音声の予測値の予測誤差が、統計的
    に最小になるように学習を行うことを特徴とする請求項
    11に記載の学習装置。
  13. 【請求項13】 前記クラスタップ抽出手段は、前記ク
    ラスタップを、前記コードと、そのコードを復号するこ
    とにより得られる前記線形予測係数または残差信号の中
    から抽出することを特徴とする請求項11に記載の学習
    装置。
  14. 【請求項14】 前記コードは、音声を、CELP(Cod
    e Excited Liner Prediction coding)方式によって符号
    化することにより得られたものであることを特徴とする
    請求項11に記載の学習装置。
  15. 【請求項15】 所定のコードから生成される線形予測
    係数と残差信号を、音声合成フィルタに与えることによ
    って得られる合成音から、その音質を向上させた高音質
    の音声の予測値を、所定の予測演算によって求めるのに
    用いる所定のタップ係数を学習する学習方法であって、 前記予測値を求めようとしている前記高音質の音声を注
    目音声として、その注目音声を、幾つかのクラスのうち
    のいずれかにクラス分類するのに用いるクラスタップ
    を、前記コードから抽出するクラスタップ抽出ステップ
    と、 前記クラスタップに基づいて、前記注目音声のクラスを
    求めるクラス分類を行うクラス分類ステップと、 前記タップ係数および合成音を用いて予測演算を行うこ
    とにより得られる前記高音質の音声の予測値の予測誤差
    が統計的に最小になるように、学習を行い、前記クラス
    ごとのタップ係数を求める学習ステップとを備えること
    を特徴とする学習方法。
  16. 【請求項16】 所定のコードから生成される線形予測
    係数と残差信号を、音声合成フィルタに与えることによ
    って得られる合成音から、その音質を向上させた高音質
    の音声の予測値を、所定の予測演算によって求めるのに
    用いる所定のタップ係数を学習する学習処理を、コンピ
    ュータに行わせるプログラムであって、 前記予測値を求めようとしている前記高音質の音声を注
    目音声として、その注目音声を、幾つかのクラスのうち
    のいずれかにクラス分類するのに用いるクラスタップ
    を、前記コードから抽出するクラスタップ抽出ステップ
    と、 前記クラスタップに基づいて、前記注目音声のクラスを
    求めるクラス分類を行うクラス分類ステップと、 前記タップ係数および合成音を用いて予測演算を行うこ
    とにより得られる前記高音質の音声の予測値の予測誤差
    が統計的に最小になるように、学習を行い、前記クラス
    ごとのタップ係数を求める学習ステップとを備えること
    を特徴とするプログラム。
  17. 【請求項17】 所定のコードから生成される線形予測
    係数と残差信号を、音声合成フィルタに与えることによ
    って得られる合成音から、その音質を向上させた高音質
    の音声の予測値を、所定の予測演算によって求めるのに
    用いる所定のタップ係数を学習する学習処理を、コンピ
    ュータに行わせるプログラムが記録されている記録媒体
    であって、 前記予測値を求めようとしている前記高音質の音声を注
    目音声として、その注目音声を、幾つかのクラスのうち
    のいずれかにクラス分類するのに用いるクラスタップ
    を、前記コードから抽出するクラスタップ抽出ステップ
    と、 前記クラスタップに基づいて、前記注目音声のクラスを
    求めるクラス分類を行うクラス分類ステップと、 前記タップ係数および合成音を用いて予測演算を行うこ
    とにより得られる前記高音質の音声の予測値の予測誤差
    が統計的に最小になるように、学習を行い、前記クラス
    ごとのタップ係数を求める学習ステップとを備えるプロ
    グラムが記録されていることを特徴とする記録媒体。
JP2001239062A 2000-08-09 2001-08-07 音声処理装置および音声処理方法、学習装置および学習方法、並びにプログラムおよび記録媒体 Expired - Fee Related JP4736266B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001239062A JP4736266B2 (ja) 2000-08-09 2001-08-07 音声処理装置および音声処理方法、学習装置および学習方法、並びにプログラムおよび記録媒体

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2000-241062 2000-08-09
JP2000241062 2000-08-09
JP2000241062 2000-08-09
JP2001239062A JP4736266B2 (ja) 2000-08-09 2001-08-07 音声処理装置および音声処理方法、学習装置および学習方法、並びにプログラムおよび記録媒体

Publications (2)

Publication Number Publication Date
JP2002123299A true JP2002123299A (ja) 2002-04-26
JP4736266B2 JP4736266B2 (ja) 2011-07-27

Family

ID=26597623

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001239062A Expired - Fee Related JP4736266B2 (ja) 2000-08-09 2001-08-07 音声処理装置および音声処理方法、学習装置および学習方法、並びにプログラムおよび記録媒体

Country Status (1)

Country Link
JP (1) JP4736266B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003001709A1 (en) * 2001-06-26 2003-01-03 Sony Corporation Transmission apparatus, transmission method, reception apparatus, reception method, and transmission/reception apparatus

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02146100A (ja) * 1988-11-28 1990-06-05 Matsushita Electric Ind Co Ltd 音声符号化・復号化装置
JPH03293700A (ja) * 1990-01-02 1991-12-25 Raytheon Co サウンドシンセサイザー
JPH0475100A (ja) * 1990-07-17 1992-03-10 Sharp Corp 符号化装置
JPH05158495A (ja) * 1991-05-07 1993-06-25 Fujitsu Ltd 音声符号化伝送装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02146100A (ja) * 1988-11-28 1990-06-05 Matsushita Electric Ind Co Ltd 音声符号化・復号化装置
JPH03293700A (ja) * 1990-01-02 1991-12-25 Raytheon Co サウンドシンセサイザー
JPH0475100A (ja) * 1990-07-17 1992-03-10 Sharp Corp 符号化装置
JPH05158495A (ja) * 1991-05-07 1993-06-25 Fujitsu Ltd 音声符号化伝送装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003001709A1 (en) * 2001-06-26 2003-01-03 Sony Corporation Transmission apparatus, transmission method, reception apparatus, reception method, and transmission/reception apparatus
US7366660B2 (en) 2001-06-26 2008-04-29 Sony Corporation Transmission apparatus, transmission method, reception apparatus, reception method, and transmission/reception apparatus

Also Published As

Publication number Publication date
JP4736266B2 (ja) 2011-07-27

Similar Documents

Publication Publication Date Title
JPH08179796A (ja) 音声符号化方法
US7912711B2 (en) Method and apparatus for speech data
WO2003091989A1 (en) Coding device, decoding device, coding method, and decoding method
JP4857468B2 (ja) データ処理装置およびデータ処理方法、並びにプログラムおよび記録媒体
JP2002268686A (ja) 音声符号化装置及び音声復号化装置
JP4857467B2 (ja) データ処理装置およびデータ処理方法、並びにプログラムおよび記録媒体
JP2004302259A (ja) 音響信号の階層符号化方法および階層復号化方法
JP4736266B2 (ja) 音声処理装置および音声処理方法、学習装置および学習方法、並びにプログラムおよび記録媒体
JPH09127985A (ja) 信号符号化方法及び装置
JP4517262B2 (ja) 音声処理装置および音声処理方法、学習装置および学習方法、並びに記録媒体
JPH09127987A (ja) 信号符号化方法及び装置
JP3916934B2 (ja) 音響パラメータ符号化、復号化方法、装置及びプログラム、音響信号符号化、復号化方法、装置及びプログラム、音響信号送信装置、音響信号受信装置
JP2002062899A (ja) データ処理装置およびデータ処理方法、学習装置および学習方法、並びに記録媒体
US7283961B2 (en) High-quality speech synthesis device and method by classification and prediction processing of synthesized sound
JP3249144B2 (ja) 音声符号化装置
JPH09127998A (ja) 信号量子化方法及び信号符号化装置
JPH0455899A (ja) 音声信号符号化方式
JP2005062410A (ja) 音声信号の符号化方法
JPH09127986A (ja) 符号化信号の多重化方法及び信号符号化装置
GB2398981A (en) Speech communication unit and method for synthesising speech therein

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080623

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100916

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101108

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110418

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees