JP3343965B2 - 音声符号化方法及び復号化方法 - Google Patents

音声符号化方法及び復号化方法

Info

Publication number
JP3343965B2
JP3343965B2 JP31625992A JP31625992A JP3343965B2 JP 3343965 B2 JP3343965 B2 JP 3343965B2 JP 31625992 A JP31625992 A JP 31625992A JP 31625992 A JP31625992 A JP 31625992A JP 3343965 B2 JP3343965 B2 JP 3343965B2
Authority
JP
Japan
Prior art keywords
data
encoding
vector
voiced
pitch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP31625992A
Other languages
English (en)
Other versions
JPH06149296A (ja
Inventor
正之 西口
良治 若月
淳 松本
忍 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP31625992A priority Critical patent/JP3343965B2/ja
Priority to US08/146,580 priority patent/US5473727A/en
Publication of JPH06149296A publication Critical patent/JPH06149296A/ja
Application granted granted Critical
Publication of JP3343965B2 publication Critical patent/JP3343965B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/10Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/93Discriminating between voiced and unvoiced parts of speech signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Error Detection And Correction (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、入力された音声信号や
音響信号等のオーディオ信号をブロック単位で区分して
周波数軸上のデータに変換して符号化を施すような音声
符号化方法及び該音声符号化方法によって伝送されてき
た符号化データを復号化する音声復号化方法に関する。
【0002】
【従来の技術】オーディオ信号(音声信号や音響信号を
含む)の時間領域や周波数領域における統計的性質と人
間の聴感上の特性を利用して信号圧縮を行うような音声
符号化方法が種々知られている。この音声符号化方法と
しては、大別して時間領域での符号化、周波数領域での
符号化、分析合成符号化等が挙げられる。
【0003】音声信号等の符号化の例として、MBE
(Multiband Excitation: マルチバンド励起)符号化、
SBE(Singleband Excitation:シングルバンド励起)
符号化、ハーモニック(Harmonic)符号化、SBC(Su
b-band Coding:帯域分割符号化)、LPC(Linear Pre
dictive Coding: 線形予測符号化)、あるいはDCT
(離散コサイン変換)、MDCT(モデファイドDC
T)、FFT(高速フーリエ変換)等において、スペク
トル振幅やそのパラメータ(LSPパラメータ、αパラ
メータ、kパラメータ等)のような各種情報データを量
子化する場合に、従来においてはスカラ量子化を行うこ
とが多い。
【0004】
【発明が解決しようとする課題】ところで、ビットレー
トを例えば3〜4kbps 程度にまで低減し、量子化効率
を更に向上させようとすると、スカラ量子化では量子化
雑音(歪み)が大きくなってしまい、実用化が困難であ
った。
【0005】そこで、これらの符号化の際に得られる時
間軸データや周波数軸データやフィルタ係数データ等を
個々に量子化せず、複数個のデータを組(ベクトル)に
まとめて一つの符号で表現して量子化するベクトル量子
化が注目されている。
【0006】しかしながら、ベクトル量子化の出力(イ
ンデックス)のビット数をbとするとき、ベクトル量子
化器のコードブックの大きさ(サイズ)は2b に比例し
て増大し、コードブックサーチのための演算量も2b
比例して増大する。ここで、出力のビット数bをあまり
小さくすると量子化雑音が増大することになるため、ビ
ット数bをある程度の大きさに保ったままで、コードブ
ックのサイズやサーチ時の演算量を低減することが望ま
れる。また、周波数軸上に変換されたデータをそのまま
ベクトル量子化したのでは、符号化効率を充分に高めら
れないことがあるため、より圧縮率を高めるための工夫
が必要とされる。
【0007】そこで、本出願人は、特願平4−9142
2号特許出願において、ベクトル量子化の出力ビット数
を低下させることなく、ベクトル量子化器のコードブッ
クのサイズやサーチ時の演算量を低減でき、また、ベク
トル量子化の際の圧縮率をより高めるような高能率符号
化方法を提案した。この方法は、構造化されたコードブ
ックを用い、M次元ベクトルのデータを複数グループに
分割して各グループ毎に代表値を求めることにより次元
をS次元(S<M)に低下させ、このS次元ベクトルの
データに対して第1のベクトル量子化を施し、この第1
のベクトル量子化の際のローカルデコード出力となるS
次元のコードベクトルを求め、このS次元のコードベク
トルを元のM次元のベクトルに拡張して元の上記M次元
ベクトルの周波数軸上データとの関係を表すデータを求
め、このデータに対して第2のベクトル量子化を施して
いるため、コードブックサーチの演算量が低減され、コ
ードブックのためのメモリ容量が少なくて済む。
【0008】しかし、この出願による高能率符号化方法
の誤り訂正は、上記第1のベクトル量子化の際のローカ
ルデコード出力であるS次元のコードベクトルの上位層
のより重要なインデックスに対して施されるのである
が、その具体的な方法は、未だ確立されていなかった。
【0009】また、例えば、伝送路符号化器で符号化単
位(フレーム)毎に誤り検出する手段を設け、さらにそ
れらに対して誤り訂正するための手段である畳み込み符
号器などを設けており、伝送路復号化器ではこれを利用
して誤り訂正を行ったあと、フレーム毎に誤りを検出
し、誤りがあれば前のフレームで置き換えるとか、音声
をミュートする等の誤り補正を行っており、誤り訂正後
に誤り検出対象ビットに1ビットでま誤りがあると、そ
のフレームの全情報を使用しないため、連続的に誤りが
発生した場合、音声復号時に音の欠け等が長い時間にわ
たり、音声劣化の原因となっている。
【0010】本発明は、上記実情に鑑みてなされたもの
であり、伝送路の誤りに強く、通話品質の良好な音声が
得られるような音声符号化方法及び音声復号化方法の提
供を目的とする。
【0011】
【課題を解決するための手段】本発明に係る音声符号化
方法は、入力されたオーディオ信号をブロック単位で区
分して周波数軸上に変換して得られる周波数軸上データ
を上記オーディオ信号の有声音/無声音の判別に従って
符号化する音声符号化方法において、上記周波数軸上デ
ータの振幅のスペクトル包絡を構成するデータの数を一
定の値に変換するデータ数変換工程と、上記データ数変
換工程によりデータの数が一定の値に変換されたスペク
トル包絡に階層構造のベクトル量子化を施す工程と、こ
の階層構造ベクトル量子化の出力データの上位層インデ
ックスデータに対して畳み込み符号による誤り訂正符号
化を施す工程とを有することを特徴として上記課題を解
決する。
【0012】ここで、上記誤り訂正符号化工程は、上記
階層構造ベクトル量子化の出力データの上位層のインデ
ックスデータの他、該出力データの下位層のインデック
スデータの上位ビットにも畳み込み符号化を施してもよ
い。
【0013】また、上記誤り訂正符号化工程は、上記階
層構造ベクトル量子化の出力データの上位層のインデッ
クスデータと、該出力データの下位層のインデックスデ
ータの上位ビットの他、上記ブロック毎に抽出されるピ
ッチ情報及び上記各帯域毎の有声音/無声音判別情報に
も畳み込み符号化を施してもよい。
【0014】また、上記ピッチ情報、上記有声音/無声
音判別情報及び上記階層構造ベクトル量子化出力データ
の上位層のインデックスデータは、誤り検出符号化が施
されてから上記誤り訂正符号化工程によって、上記階層
構造ベクトル量子化出力データの下位層のインデックス
データの上位ビットを含めて畳み込み符号化が施されて
もよい。この場合、誤り検出符号化としては、CRC誤
り検出符号化が好ましい。
【0015】また、上記誤り訂正符号化工程は、上記C
RC誤り検出符号化が行われた複数フレームを単位とし
たものに対して畳み込み符号化を施してもよい。
【0016】本発明に係る音声復号化方法は、入力され
たオーディオ信号をブロック単位で区分して周波数軸上
に変換して得られる周波数軸上データを上記オーディオ
信号の有声音/無声音の判別に従って符号化する音声符
号化方法によって、ピッチ情報、有声音/無声音判別情
報及びスペクトル包絡階層構造ベクトル量子化出力デー
タの上位層のインデックスデータに対してCRC誤り検
出符号化が行われてから上記階層構造ベクトル量子化出
力データの下位層のインデックスデータの上位ビットを
含めて畳み込み符号化が施されて伝送されてきた信号を
復号する復号化方法であって、上記伝送されてきた信号
に対して畳み込み符号による誤り訂正復号化が施された
後にCRC誤り検出を施す工程と、上記CRC誤り検出
を施す工程で誤りが検出された際には、誤りが検出され
たフレームのデータを補間する工程と、上記CRC誤り
検出工程で誤りが検出されなくなった際には、所定数の
フレームについて前フレームと現フレームの各データか
ら得られる各スペクトル包絡の大小関係に基づいてスペ
クトル包絡の再生方法を制御する工程とを有することを
特徴として上記課題を解決する。
【0017】本発明に係る音声符号化方法は、入力され
たオーディオ信号をブロック単位で区分して周波数軸上
に変換して得られる周波数軸上データを上記オーディオ
信号の有声音/無声音の判別に従って符号化する音声符
号化方法において、上記周波数軸上データである振幅の
スペクトル包絡に階層構造のベクトル量子化を施す工程
と、この階層構造ベクトル量子化の出力データの上位層
インデックスデータに対して畳み込み符号による誤り訂
正符号化を施す工程とを有し、上記階層構造のベクトル
量子化は、入力されたデータの次元数を低次元に変換し
てベクトル量子化する第1のベクトル量子化工程と、上
記第1のベクトル量子化工程で得られた出力データを上
記入力されたデータの次元数に逆変換する工程と、上記
逆変換された出力データと、上記入力されたデータとの
関係を表すデータに対して第2の量子化を行う第2のベ
クトル量子化工程とを有することを特徴として上記課題
を解決する。この音声符号化方法において、上記誤り訂
正符号化工程は、上記第1のベクトル量子化工程で得ら
れた出力データのインデックスデータに対して畳み込み
符号による誤り訂正符号化を施す。また、上記誤り訂正
符号化工程は、上記第2のベクトル量子化工程で得られ
た出力データのインデックスデータに対しても畳み込み
符号による誤り訂正符号化を施す。
【0018】
【作用】上記ピッチ情報、上記有声音/無声音判別情報
及び上記階層構造ベクトル量子化出力データの上位層の
インデックスデータは、CRC誤り検出符号化が施さ
れ、さらに上記階層構造ベクトル量子化出力データの下
位層のインデックスデータの上位ビットを含めて畳み込
み符号化が施されるので強く保護される。
【0019】そして、伝送された上記ピッチ情報、上記
有声音/無声音判別情報及び上記階層構造ベクトル量子
化出力データは、誤り訂正復号化が施された後にCRC
誤り検出が行われ、このCRC誤り検出結果に応じてフ
レーム毎に補間処理される。そのため、総合的に伝送路
の誤りに強い、通話品質の良好な音声が得られる。
【0020】以下、本発明に係る音声符号化方法の実施
例について説明する。この音声符号化方法は、入力され
たオーディオ信号をブロック単位で区分して周波数軸上
に変換して得られた周波数軸上データを上記オーディオ
信号の有声音/無声音の判別に従って符号化する符号化
方法の一種である、マルチバンド励起(Multiband Exci
tation:MBE)符号化方法を用いた符号化装置に適用
される。特にこのMBE符号化は上記周波数軸上データ
を、複数帯域に分割して各帯域毎にV(有声音)かUV
(無声音)かを判別している。なお、本発明は、上記M
BE符号化のみに限定されるものではなく、上記オーデ
ィオ信号の有声音/無声音の判別に従って符号化するも
のであれば他の符号化装置に適用してもよい。
【0021】すなわち、本発明を用いたMBEの音声符
号化方法は、入力されるオーディオ信号を一定サンプル
数(例えば256サンプル)毎にブロック化して、FF
T等の直交変換により周波数軸上のスペクトルデータに
変換すると共に、該ブロック内の音声のピッチを抽出
し、このピッチに応じた間隔で周波数軸上のスペクトル
を帯域分割し、分割された各帯域についてV(有声音)
/UV(無声音)の判別を行っている。このV/UV判
別情報をスペクトルの振幅データ及びピッチ情報と共に
符号化して伝送する。この伝送の際に伝送路等による誤
りの影響から符号化データを守ため、本実施例は、上記
ピッチ情報、V/UV判別情報及び上記振幅のスペクト
ル包絡(エンベロープ)量子化データよりなるビットス
トリームをクラス分けして、そのクラスによって畳み込
み符号化、さらに重要なビットに対しては誤り検出符号
化として好ましいCRC検出符号化を施している。
【0022】図1は本発明の音声符号化方法をMBE合
成分析符号化装置(いわるボコーダ)に適用した実施例
の分析側(エンコード側)の概略構成を示すブロック図
である。
【0023】このMBEボコーダは、D.W. Griffin and
J.S. Lim, ~Multiband ExcitationVocoder," IEEE Tra
ns.Acoustics, Speech,and Signal Processing, vol.3
6, No.8, pp.1223-1235, Aug. 1988に開示されているも
のであり、従来のPARCOR(PARtial auto-CORrela
tion: 偏自己相関)ボコーダ等では、音声のモデル化の
際に有声音区間と無声音区間とをブロックあるいはフレ
ーム毎に切り換えていたのに対し、MBEボコーダで
は、同時刻(同じブロックあるいはフレーム内)の周波
数軸領域に有声音(Voiced)区間と無声音(Unvoiced)
区間とが存在するという仮定でモデル化している。
【0024】この図1において、入力端子11には、音
声信号あるいは音響信号が供給されるようになってお
り、この入力音声信号は、HPF(ハイパスフィルタ)
等のフィルタ12に送られて、いわゆるDC(直流)オ
フセット分の除去や帯域制限(例えば200〜3400
Hzに制限)のための少なくとも低域成分(200Hz以
下)の除去が行われる。このフィルタ12を介して得ら
れた信号は、ピッチ抽出部13及び窓かけ処理部14に
それぞれ送られる。ピッチ抽出部13では、入力音声信
号データが所定サンプル数N(例えばN=256)単位
でブロック分割され(あるいは方形窓による切り出しが
行われ)、このブロック内の音声信号についてのピッチ
抽出が行われる。このような切り出しブロック(256
サンプル)を、例えば図2のAに示すようにLサンプル
(例えばL=160)のフレーム間隔で時間軸方向に移
動させており、各ブロック間のオーバラップはN−Lサ
ンプル(例えば96サンプル)となっている。また、窓
かけ処理部14では、1ブロックNサンプルに対して所
定の窓関数、例えばハミング窓をかけ、この窓かけブロ
ックを1フレームLサンプルの間隔で時間軸方向に順次
移動させている。
【0025】このような窓かけ処理を数式で表すと、 xw (k,q) =x(q) w(kL-q) ・・・(1) となる。この(1)式において、kはブロック番号を、
qはデータの時間インデックス(サンプル番号)を表
し、処理前の入力信号のq番目のデータx(q) に対して
第kブロックの窓(ウィンドウ)関数w(kL-q)により窓
かけ処理されることによりデータxw (k,q) が得られる
ことを示している。ピッチ抽出部13内での図2のAに
示すような方形窓の場合の窓関数wr (r) は、 wr (r) =1 0≦r<N ・・・(2) =0 r<0,N≦r また、窓かけ処理部14での図2のBに示すようなハミ
ング窓の場合の窓関数wh (r) は、 wh (r) = 0.54 − 0.46 cos(2πr/(N-1)) 0≦r<N ・・・(3) =0 r<0,N≦r である。このような窓関数wr (r) あるいはwh (r) を
用いるときの上記(1)式の窓関数w(r) (=w(kL-
q))の否零区間は、 0≦kL−q<N これを変形して、 kL−N<q≦kL 従って例えば上記方形窓の場合に窓関数wr (kL-q)=1
となるのは、図3に示すように、kL−N<q≦kLの
ときとなる。また、上記(1)〜(3)式は、長さN
(=256)サンプルの窓が、L(=160)サンプル
ずつ前進してゆくことを示している。以下、上記(2)
式、(3)式の各窓関数で切り出された各N点(0≦r
<N)の否零サンプル列を、それぞれxwr(k,r) 、xwh
>(k,r) と表すことにする。
【0026】窓かけ処理部14では、図4に示すよう
に、上記(3)式のハミング窓がかけられた1ブロック
256サンプルのサンプル列xwh(k,r) に対して179
2サンプル分の0データが付加されて(いわゆる0詰め
されて)2048サンプルとされ、この2048サンプ
ルの時間軸データ列に対して、直交変換部15により例
えばFFT(高速フーリエ変換)等の直交変換処理が施
される。
【0027】ピッチ抽出部13では、上記xwr(k,r) の
サンプル列(1ブロックNサンプル)に基づいてピッチ
抽出が行われる。このピッチ抽出法には、時間波形の周
期性や、スペクトルの周期的周波数構造や、自己相関関
数を用いるもの等が知られているが、本実施例では、セ
ンタクリップ波形の自己相関法を採用している。このと
きのブロック内でのセンタクリップレベルについては、
1ブロックにつき1つのクリップレベルを設定してもよ
いが、ブロックを細分割した各部(各サブブロック)の
信号のピークレベル等を検出し、これらの各サブブロッ
クのピークレベル等の差が大きいときに、ブロック内で
クリップレベルを段階的にあるいは連続的に変化させる
ようにしている。このセンタクリップ波形の自己相関デ
ータのピーク位置に基づいてピッチ周期を決めている。
このとき、現在フレームに属する自己相関データ(自己
相関は1ブロックNサンプルのデータを対象として求め
られる)から複数のピークを求めておき、これらの複数
のピークの内の最大ピークが所定の閾値以上のときには
該最大ピーク位置をピッチ周期とし、それ以外のときに
は、現在フレーム以外のフレーム、例えば前後のフレー
ムで求められたピッチに対して所定の関係を満たすピッ
チ範囲内、例えば前フレームのピッチを中心として±2
0%の範囲内にあるピークを求め、このピーク位置に基
づいて現在フレームのピッチを決定するようにしてい
る。このピッチ抽出部13ではオープンループによる比
較的ラフなピッチのサーチが行われ、抽出されたピッチ
データは高精度(ファイン)ピッチサーチ部16に送ら
れて、クローズドループによる高精度のピッチサーチ
(ピッチのファインサーチ)が行われる。
【0028】高精度(ファイン)ピッチサーチ部16に
は、ピッチ抽出部13で抽出された整数(インテジャ
ー)値の粗(ラフ)ピッチデータと、直交変換部15に
より例えばFFTされた周波数軸上のデータとが供給さ
れている。この高精度ピッチサーチ部16では、上記粗
ピッチデータ値を中心に、0.2〜0.5きざみで±数サン
プルずつ振って、最適な小数点付き(フローティング)
のファインピッチデータの値へ追い込む。このときのフ
ァインサーチの手法として、いわゆる合成による分析
(Analysis by Synthesis)法を用い、合成されたパワー
スペクトルが原音のパワースペクトルに最も近くなるよ
うにピッチを選んでいる。
【0029】このピッチのファインサーチについて説明
する。先ず、上記MBEボコーダにおいては、上記FF
T等により直交変換された周波数軸上のスペクトルデー
タとしてのS(j) を S(j) =H(j) |E(j) | 0<j<J ・・・(4) と表現するようなモデルを想定している。ここで、Jは
ωs/4π=fs /2に対応し、サンプリング周波数fs
=ωs/2πが例えば8kHzのときには4kHzに対応す
る。上記(4)式中において、周波数軸上のスペクトル
データS(j) が図5のAに示すような波形のとき、H
(j) は、図5のBに示すような元のスペクトルデータS
(j) のスペクトル包絡線(エンベロープ)を示し、E
(j) は、図5のCに示すような等レベルで周期的な励起
信号(エキサイテイション)のスペクトルを示してい
る。すなわち、FFTスペクトルS(j) は、スペクトル
エンベロープH(j) と励起信号のパワースペクトル|E
(j) |との積としてモデル化される。
【0030】上記励起信号のパワースペクトル|E(j)
|は、上記ピッチに応じて決定される周波数軸上の波形
の周期性(ピッチ構造)を考慮して、1つの帯域(バン
ド)の波形に相当するスペクトル波形を周波数軸上の各
バンド毎に繰り返すように配列することにより形成され
る。この1バンド分の波形は、例えば上記図4に示すよ
うな256サンプルのハミング窓関数に1792サンプ
ル分の0データを付加(0詰め)した波形を時間軸信号
と見なしてFFTし、得られた周波数軸上のある帯域幅
を持つインパルス波形を上記ピッチに応じて切り出すこ
とにより形成することができる。
【0031】次に、上記ピッチに応じて分割された各バ
ンド毎に、上記H(j) を代表させるような(各バンド毎
のエラーを最小化するような)値(一種の振幅)|Am
|を求める。ここで、例えば第mバンド(第m高調波の
帯域)の下限、上限の点をそれぞれam 、bm とすると
き、この第mバンドのエラーεm は、
【0032】
【数1】 で表せる。
【0033】このエラーεm を最小化するような|Am
|は、
【0034】
【数2】 となり、この(6)式の|Am |のとき、エラーεm
最小化する。
【0035】このような振幅|Am |を各バンド毎に求
め、得られた各振幅|Am |を用いて上記(5)式で定
義された各バンド毎のエラーεm を求める。次に、この
ような各バンド毎のエラーεm の全バンドの総和値Σε
m を求める。さらに、このような全バンドのエラー総和
値Σεm を、いくつかの微小に異なるピッチについて求
め、エラー総和値Σεm が最小となるようなピッチを求
める。
【0036】すなわち、上記ピッチ抽出部13で求めら
れたラフピッチを中心として、例えば 0.25 きざみで上
下に数種類ずつ用意する。これらの複数種類の微小に異
なるピッチの各ピッチに対してそれぞれ上記エラー総和
値Σεm を求める。この場合、ピッチが定まるとバンド
幅が決まり、上記(6)式より、周波数軸上データのパ
ワースペクトル|S(j) |と励起信号スペクトル|E
(j) |とを用いて上記(5)式のエラーεm を求め、そ
の全バンドの総和値Σεm を求めることができる。この
エラー総和値Σεm を各ピッチ毎に求め、最小となるエ
ラー総和値に対応するピッチを最適のピッチとして決定
するわけである。以上のようにして高精度ピッチサーチ
部16で最適のファイン(例えば 0.25 きざみ)ピッチ
が求められ、この最適ピッチに対応する振幅|Am |が
決定される。
【0037】以上ピッチのファインサーチの説明におい
ては、説明を簡略化するために、全バンドが有声音(Vo
iced)の場合を想定しているが、上述したようにMBE
ボコーダにおいては、同時刻の周波数軸上に無声音(Un
voiced)領域が存在するというモデルを採用しているこ
とから、上記各バンド毎に有声音/無声音の判別を行う
ことが必要とされる。
【0038】上記高精度ピッチサーチ部16からの最適
ピッチ及び振幅|Am |のデータは、有声音/無声音判
別部17に送られ、上記各バンド毎に有声音/無声音の
判別が行われる。この判別のために、NSR(ノイズt
oシグナル比)を利用する。すなわち、第mバンドのN
SRは、
【0039】
【数3】
【0040】と表せ、このNSR値が所定の閾値(例え
ば0.3)より大のとき(エラーが大きい)ときには、そ
のバンドでの|Am ||E(j) |による|S(j) |の近
似が良くない(上記励起信号|E(j) |が基底として不
適当である)と判断でき、当該バンドをUV(Unvoice
d、無声音)と判別する。これ以外のときは、近似があ
る程度良好に行われていると判断でき、そのバンドをV
(Voiced、有声音)と判別する。
【0041】次に、振幅再評価部18には、直交変換部
15からの周波数軸上データ、高精度ピッチサーチ部1
6からのファインピッチと評価された振幅|Am |との
各データ、及び上記有声音/無声音判別部17からのV
/UV(有声音/無声音)判別データが供給されてい
る。この振幅再評価部18では、有声音/無声音判別部
17において無声音(UV)と判別されたバンドに関し
て、再度振幅を求めている。このUVのバンドについて
の振幅|Am UVは、
【0042】
【数4】 にて求められる。
【0043】この振幅再評価部18からのデータは、デ
ータ数変換(一種のサンプリングレート変換)部19に
送られる。このデータ数変換部19は、上記ピッチに応
じて周波数軸上での分割帯域数が異なり、データ数(特
に振幅データの数)が異なることを考慮して、一定の個
数にするためのものである。すなわち、例えば有効帯域
を3400Hzまでとすると、この有効帯域が上記ピッチ
に応じて、8バンド〜63バンドに分割されることにな
り、これらの各バンド毎に得られる上記振幅|Am
(UVバンドの振幅|Am UVも含む)データの個数m
MX+1も8〜63と変化することになる。このためデー
タ数変換部19では、この可変個数mMX+1の振幅デー
タを一定個数Mのデータに変換している。
【0044】ここで、このデータ数変換部19は、周波
数軸上の有効帯域1ブロック分の振幅データに対して、
ブロック内の両端のデータを延長してデータ個数を拡大
し、帯域制限型FIRフィルタによるフィルタ処理を施
し、さらに直線補間を施すことにより一定個数Mのデー
タを得てもよい。
【0045】このデータ数変換部19からのM個のデー
タ(振幅のスペクトルエンベロープ)がベクトル量子化
部20に送られて、該ベクトル量子化部20によってベ
クトル量子化が施される。
【0046】このベクトル量子化部20では、上記デー
タ数変換部19からの入力データの所定数(この場合M
個)がまとめられてM次元ベクトルとされ、ベクトル量
子化が施される。このようなM次元ベクトル量子化処理
は、一般的には、入力された次元ベクトルに対してM次
元空間上で最も距離が近いコードベクトルのインデック
スを取り出すような処理であるが、このエンコード側の
ベクトル量子化部20は、図6に示すように階層構造と
されており、入力ベクトルに対して、例えば、2段階の
ベクトル量子化が施されるようになっている。
【0047】すなわち、図6に示すベクトル量子化部2
0において、入力端子30から供給されるベクトル量子
化の単位となる上記M次元ベクトルのデータ(周波数軸
上データ)は、次元低減部31に送られることにより、
複数グループに分割され各グループ毎に代表値を求める
ことにより次元がS次元(S<M)に低下させられる。
ここで図7は、ベクトル量子化部20に入力されるM次
元ベクトルXの各要素、すなわち周波数軸上のM個の
振幅データx(n) の一具体例を示しており、1≦n≦M
である。これらのM個の振幅データx(n) は、例えば4
サンプル毎にまとめられてそれぞれの代表値、例えば平
均値yi が求められ、図8に示すように、平均値データ
1 〜ys のS個(この場合はS=M/4)から成るS
次元ベクトルYが得られる。
【0048】次に、このS次元ベクトルのデータに対し
てS次元ベクトル量子化器32によりベクトル量子化が
施される。すなわち、S次元ベクトル量子化器32のコ
ードブック中のS次元コードベクトルの内、入力された
S次元ベクトルにS次元空間上で最も距離が近いコード
ベクトルがサーチされ、このサーチされたコードベクト
ルのインデックスデータはCRC&レート1/2畳み込
み符号付加部21に供給される。また、S次元ベクトル
量子化器32のインデックスを基にサーチされたコード
ベクトル(出力インデックスを逆ベクトル量子化して得
られるコードベクトル)は次元拡張部33に送られる。
図9は、上記図8に示すS個の平均値データy1 〜ys
から成るS次元ベクトルYをベクトル量子化した後、
逆量子化して(あるいはベクトル量子化器32のコード
ブックで上記量子化の際にサーチされたコードベクトル
を取り出して)得られたローカルデコーダ出力としての
S次元ベクトルYVQの各要素yVQ1 〜yVQS を示
している。
【0049】次に、次元拡張部33では、上記S次元の
コードベクトルを元のM次元のベクトルに拡張する。こ
の拡張されたM次元ベクトルの各要素の例を図10に示
す。この図10から明らかなように上記逆ベクトル量子
化されたS次元ベクトルYVQの各要素yVQ1 〜y
VQS をそれぞれ元の4サンプルずつに増加させることに
より、4S=M個の要素から成るM次元ベクトルを得る
わけである。この拡張されたM次元のベクトルと元の上
記M次元ベクトルの周波数軸上データとの関係を表すデ
ータに対して第2のベクトル量子化を施す。
【0050】図6では、次元拡張部33からの拡張され
たM次元ベクトルデータを減算器34に送り、元の上記
M次元ベクトルの周波数軸上データから減算することに
より、上記S次元を拡張したM次元ベクトルと元のM次
元ベクトルとの関係を表すS個のベクトルデータを得て
いる。図11は、上記図7に示すM次元ベクトルXの
各要素である周波数軸上のM個の振幅データx(n) か
ら、図10に示す拡張M次元ベクトルの各要素を減算し
て得られたM個のデータr1 〜rM を示しており、これ
らのM個のデータr1 〜rM の4サンプルずつを組(ベ
クトル)としてS個の4次元ベクトルR1 〜RS
得られる。
【0051】このようにして減算器34から得られたS
個のベクトルのそれぞれに対して、ベクトル量子化器群
35のS個の各ベクトル量子化器351 〜35S がそれ
ぞれベクトル量子化を施す。各ベクトル量子化器351
〜35S から出力される下位層のインデックスデータの
上位ビットとがCRC&レート1/2畳み込み符号付加
部21に、残りがフレームインターリーブ23に供給さ
れる。
【0052】図12は、ベクトル量子化器351 〜35
S としてそれぞれ4次元ベクトル量子化器を用い、上記
図11に示す各4次元ベクトルR1 〜RS をそれぞ
れベクトル量子化した後の各4次元ベクトルRVQ1
VQS の各要素rVQ1 〜rVQ4 、rVQ5 〜rVQ8 、…
〜rVQM を示している。
【0053】このような階層構造化された2段階のベク
トル量子化を施すことにより、コードブックサーチのた
めの演算量を低減でき、コードブックのためのメモリ量
(例えばROM容量)を低減でき、またCRC&レート
1/2畳み込み符号付加部21に供給される上位層のイ
ンデックスデータ及び下位層のインデックスデータの上
位ビットに対して畳み込み符号による誤り訂正符号化を
施して重点的に保護するようにすること等により、誤り
訂正符号の効果的な適用が可能となる。なお、ベクトル
量子化部20の階層構造は、2段階に限定されず、3段
階以上の多層の階層構造を持たせるようにしてもよい。
【0054】ここで、図1に戻る。上記CRC&レート
1/2畳込み符号付加部21には、上記高精度のピッチ
サーチ部16からの高精度(ファイン)ピッチ情報及び
上記有声音/無声音判別部17からのV/UV判別情報
も供給される。すなわち、上記CRC&レート1/2畳
込み符号付加部21には、上記ピッチ情報、上記有声音
/無声音判別情報、上記階層構造ベクトル量子化出力デ
ータの上位層のインデックスデータ及び上記階層構造ベ
クトル量子化出力データの下位層のインデックスデータ
の上位ビットが供給される。このうち、上記ピッチ情
報、上記有声音/無声音判別情報、上記階層構造ベクト
ル量子化出力データの上位層のインデックスデータは、
CRC誤り検出符号化が施されてから畳み込み符号化が
施される。そして、畳み込み符号化が施された上記ピッ
チ情報、上記有声音/無声音判別情報、上記階層構造ベ
クトル量子化出力データの上位層のインデックスデータ
及び上記階層構造ベクトル量子化出力データの下位層の
インデックスデータの上位ビットは、フレームインター
リーブ部22に供給され、上記階層構造ベクトル量子化
出力データの下位層のインデックスデータの下位ビット
と共にインターリーブされて、出力端子23から合成側
(デコード側)に伝送される。
【0055】以下に、CRC誤り検出符号化及び畳み込
み符号化が施される上記ピッチ情報、上記有声音/無声
音判別情報及び上記階層構造ベクトル量子化出力データ
のビット割り当てについて、具体例を挙げて説明する。
【0056】先ず、ピッチ情報として例えば8ビット、
V/UV判別情報として例えば4ビットを抽出する。
【0057】次に、上記スペクトルエンベロープの階層
構造ベクトル量子化出力データは、上位層と下位層に分
けられる。これは、スペクトルエンベロープの概形情報
と微細情報という分け方に基づく。すなわち、上記S次
元ベクトル量子化器32によってベクトル量子化された
S次元ベクトルYが上記概形情報であり、各ベクトル
量子化器351 〜35S から出力される下位層のインデ
ックスデータが微細情報である。この微細情報は減算器
34から出力された上記ベクトルR1 〜R S をそれ
ぞれベクトル量子化した後の上記ベクトルRVQ1
VQS である。
【0058】そこで、例えばM=44、S=7、また、
ベクトルRVQ1 〜RVQ7 の各次元d1 =d2 =d3
=d4 =5、d5 =d6 =d7 =8とする。また、上記
データx(n) 、1≦n≦Mの量子化に使用するビット数
を48ビットとする。そして、上記S次元ベクトルY
及び上記ベクトル量子化器群35からの出力ベクトル
(平均値除去した残差成分のベクトル)RVQ1 , R
VQ2 , … ,RVQ7 に対する上記48ビットの割り当て
を次のようにする。
【0059】Y → 13ビット(8ビット:シェイプ、5ビッ
ト:ゲイン)、次元S=7RVQ1 → 6ビット、 次元d1 =5RVQ2 → 5ビット、 次元d2 =5RVQ3 → 5ビット、 次元d3 =5RVQ4 → 5ビット、 次元d4 =5RVQ5 → 5ビット、 次元d5 =8RVQ6 → 5ビット、 次元d6 =8RVQ7 → 4ビット、 次元d7 =8 計 48ビット、 (M=)44次元
【0060】上記概形情報であるS次元ベクトルYに
は、シェイプ−ゲインベクトル量子化が施されている。
このシェイプ−ゲインベクトル量子化は、M. J. Sabin,
R.M. Gray,~Product code Vector Quantizer for Wave
form and Voice Coding" ,IEEE Trans. on ASSP, vol.
ASSP-32, No.3, June 1984等に述べられている。
【0061】よって、上記ピッチ情報、上記有声音/無
声音判別情報、上記スペクトルエンベロープの概形情報
及び上記スペクトルエンベロープの微細情報である平均
値除去した残差成分のベクトルの合わせて60ビットを
抽出することになる。ここで、上記各パラメータは、2
0msec のフレーム毎に出力される。(60ビット/2
0msec )
【0062】この60ビットのパラメータのうち、聴感
上重要と思われる40ビット(クラス1ビット)にレー
ト1/2の畳み込み符号による誤り訂正符号化を施す。
残りの20ビット(クラス2ビット)に対しては、重要
度が低いとして畳み込み符号化を行わない。さらに、ク
ラス1のうち重要度の最も高い25ビットに対しては、
CRC誤り検出符号化による誤り検出符号化を行う。
【0063】ここで、クラス1ビットの40ビットは、
上述したように畳み込み符号により保護され、クラス2
ビットの20ビットは、保護されない。また、クラス1
ビットの40ビットのうちの25ビットについてはCR
Cが付加される。
【0064】このエンコード側の畳み込み符号&CRC
符号の付加は、以下のような原理で行われる。図13
は、畳み込み符号&CRC符号の付加の原理を説明する
ための機能ブロック図である。ここでは、20msec の
サブフレームを2つ用いた状態、すなわち、40msec
のフレームを単位としている。
【0065】表1に音声符号器の各パラメータ・ビット
に対する各クラス毎のビット配分を示す。
【0066】
【表1】
【0067】また、クラス1のビット順を表2、クラス
2のビット順を表3に示す。
【0068】
【表2】
【0069】
【表3】
【0070】ここで、表2のクラス1配列をCL1[i]、
i=0〜91、表3のクラス2配列をCL2[i]、i=0
〜39とする。すなわち、この表2、表3の1列目は入
力配列CL1[i]、入力配列CL2[i]の要素の番号iを示
す。また、この表2、表3の2列目は取り出されるパラ
メータのサブフレーム番号、3列目は取り出されるパラ
メータ名、4列目はパラメータ内のビット位置であり、
0は最下位ビットを示す。
【0071】先ず、音声符号器41から出力された音声
パラメータ120(60×2サブフレーム分)ビット
を、聴覚上特に重要な部分(クラス1)80(40×2
サブフレーム分)ビットとそれ以外の部分(クラス2)
40(20×2サブフレーム分)ビットとに分ける。
【0072】次に、クラス1のうち、聴覚上特に重要な
データ50ビットをさらに取り出し、これをCRC計算
ブロック42に入力し、その結果として7ビットを出力
する。このCRCの生成多項式gcrc (X) は、 gcrc (X) =1+X4 +X5 +X6 +X7 ・・・(9) を用いる。
【0073】また、畳み込み符号器43への入力ビット
列をCL1[i]、i=0〜91(表2より)とした場合、
入力多項式a(X) は、 a(X) =CL1[83] X49+CL1[4] X48++CL1[82] X47…… ……CL1[27] X2 +CL1[59] X1 +CL1[28] X0 ・・・(10) を用いる。
【0074】また、パリティ多項式は入力多項式の剰余
であり、 a(X) ・X7 /gcrc (X) =q(x) +b(x) /gcrc (X) ・・・(11) を用いる。
【0075】上記(11) 式によって得られたパリティビ
ットb(x) を配列CL1[i]に組み込むと、 b(X) =CL1[0] X6 +CL1[86] X5 +CL1[1] X4 +CL1[85] X3 +CL1[2] X2 +CL1[84] X1 +CL1[3] X0 ・・・(12) となる。
【0076】次に、クラス1の80ビットとCRC計算
ブロック42の計算結果7ビットを畳み込み符号器43
に上記表2で示した入力順に入力し、レート1/2、拘
束長6(=k)の畳み込み符号化を行う。ここで使用す
る生成多項式は、 g0(D)=1+D+D3 +D5 ・・・(13) g1(D)=1+D2 +D3 +D4 +D5 ・・・(14) の2つである。
【0077】上記表2の畳み込み符号器43への入力ビ
ットのうちCL1[4] 〜CL1[83]の80ビットがクラ
ス1ビットであり、CL1[0] 〜CL1[3] 及びCL
1[84]〜CL1[86] はCRCビットである。また、CL1
[87] 〜CL1[91] は符号器を初期状態に戻すためのテ
−ルビットで、値は全て0である。
【0078】この畳み込み符号化はg0(D)から始まり、
(13) 、(14)の多項式により交互に符号化される。この
畳み込み符号器43は、図22に示されるように5段の
シフトレジスタ(遅延演算子)で構成され、生成多項式
の係数に相当するビットの排他的論理和を計算すること
により、出力を得ることができる。結果として、入力C
1[i] に対し、2ビットの出力cc0[i] とcc
1[i] が得られるため、クラス1ビット全体では、18
4ビットの出力を得る。
【0079】こうして得られた畳み込み符号化されたク
ラス1の184ビットと、クラス2の40ビットの合計
224ビットを、所定の送信順に伝送することにより、
ビットインターリーブ及び2フレームにわたるフレーム
・インターリーブを行う。
【0080】なお、これらの各データは、上記Nサンプ
ル(例えば256サンプル)のブロック内のデータに対
して処理を施すことにより得られるものであるが、ブロ
ックは時間軸上を上記Lサンプルのフレームを単位とし
て前進することから、伝送するデータは上記フレーム単
位で得られる。すなわち、上記フレーム周期でピッチ情
報、V/UV判別情報、スペクトルエンベープデータが
更新されることになる。
【0081】次に、上記エンコード側から伝送されてき
たデータを合成するための合成側(デコード側)の概略
構成について、図14を参照しながら説明する。この図
14において、入力端子51には、伝送されたきたCR
C&レート1/2畳込み符号が付加されたデータが供給
される。入力端子51からのデータは、フレームデイン
タリーブ部52に供給され、デインターリーブされる。
デインターリーブされたデータは、ビタビ復号&CRC
検出部53に供給され、ビタビ復号化されてからCRC
エラーが検出される。
【0082】そして、マスク処理部54が、フレームデ
インターリーブ52からのデータをマスク処理し、量子
化振幅データを逆ベクトル量子化部55に供給する。
【0083】この逆ベクトル量子化部55も階層構造化
されており、各階層のインデックスデータに基づいて逆
ベクトル量子化されたデータを合成して出力する。この
逆ベクトル量子化部55からの出力データは、データ数
逆変換部56に送られて逆変換される。このデータ数逆
変換部56では、上述した図1のデータ数変換部19と
同様な(逆)変換が行われ、得られた振幅データが有声
音合成部57及び無声音合成部58に送られる。また、
上記マスク処理部54は、符号化ピッチデータをピッチ
復号化部59に供給する。このピッチ復号化器59で復
号されたピッチデータは、データ数逆変換部56、有声
音合成部57及び無声音合成部58に送られる。また、
上記マスク処理部54は、V/UV判別データを有声音
合成部57及び無声音合成部58に供給する。
【0084】有声音合成部57では例えば余弦(cosine)
波合成により時間軸上の有声音波形を合成し、無声音合
成部58では例えばホワイトノイズをバンドパスフィル
タでフィルタリングして時間軸上の無声音波形を合成
し、これらの各有声音合成波形と無声音合成波形とを加
算部60で加算合成して、出力端子61より取り出すよ
うにしている。この場合、上記振幅データ、ピッチデー
タ及びV/UV判別データは、上記分析時の1フレーム
(Lサンプル、例えば160サンプル)毎に更新されて
与えられるが、フレーム間の連続性を高める(円滑化す
る)ために、上記振幅データやピッチデータの各値を1
フレーム中の例えば中心位置における各データ値とし、
次のフレームの中心位置までの間(合成時の1フレー
ム)の各データ値を補間により求める。すなわち、合成
時の1フレーム(例えば上記分析フレームの中心から次
の分析フレームの中心まで)において、先端サンプル点
での各データ値と終端(次の合成フレームの先端)サン
プル点での各データ値とが与えられ、これらのサンプル
点間の各データ値を補間により求めるようにしている。
【0085】以下、有声音合成部57における合成処理
を詳細に説明する。上記V(有声音)と判別された第m
バンド(第m高調波の帯域)における時間軸上の上記1
合成フレーム(Lサンプル、例えば160サンプル)分
の有声音をVm (n) とするとき、この合成フレーム内の
時間インデックス(サンプル番号)nを用いて、 Vm (n) =Am (n) cos(θm (n)) 0≦n<L ・・・(15) と表すことができる。全バンドの内のV(有声音)と判
別された全てのバンドの有声音を加算(ΣVm (n) )し
て最終的な有声音V(n) を合成する。
【0086】この(15)式中のAm (n) は、上記合成フ
レームの先端から終端までの間で補間された第m高調波
の振幅である。最も簡単には、フレーム単位で更新され
る振幅データの第m高調波の値を直線補間すればよい。
すなわち、上記合成フレームの先端(n=0)での第m
高調波の振幅値をA0m、該合成フレームの終端(n=
L:次の合成フレームの先端)での第m高調波の振幅値
をALmとするとき、 Am (n) = (L-n)A0m/L+nALm/L ・・・(16) の式によりAm (n) を計算すればよい。
【0087】次に、上記(16)式中の位相θm (n) は、 θm (0) =mωO1n+n2 m(ωL1−ω01)/2L+φ0m+Δωn ・・・(17) により求めることができる。この(17)式中で、φ0m
上記合成フレームの先端(n=0)での第m高調波の位
相(フレーム初期位相)を示し、ω01は合成フレーム先
端(n=0)での基本角周波数、ωL1は該合成フレーム
の終端(n=L:次の合成フレーム先端)での基本角周
波数をそれぞれ示している。上記(11)式中のΔωは、
n=Lにおける位相φLmがθm (L) に等しくなるような
最小のΔωを設定する。
【0088】以下、任意の第mバンドにおいて、それぞ
れn=0、n=LのときのV/UV判別結果に応じた上
記振幅Am (n) 、位相θm (n) の求め方を説明する。第
mバンドが、n=0、n=LのいずれもV(有声音)と
される場合に、振幅Am (n) は、上述した(10)式によ
り、伝送された振幅値A0m、ALmを直線補間して振幅A
m (n) を算出すればよい。位相θm (n) は、n=0でθ
m (0) =φ0mからn=Lでθm (L) がφLmとなるように
Δωを設定する。
【0089】次に、n=0のときV(有声音)で、n=
LのときUV(無声音)とされる場合に、振幅Am (n)
は、Am (0) の伝送振幅値A0mからAm (L) で0となる
ように直線補間する。n=Lでの伝送振幅値ALmは無声
音の振幅値であり、後述する無声音合成の際に用いられ
る。位相θm (n) は、θm (0) =φ0mとし、かつΔω=
0とする。
【0090】さらに、n=0のときUV(無声音)で、
n=LのときV(有声音)とされる場合には、振幅Am
(n) は、n=0での振幅Am (0) を0とし、n=Lで伝
送された振幅値ALmとなるように直線補間する。位相θ
m (n) については、n=0での位相θm (0) として、フ
レーム終端での位相値φLmを用いて、 θm (0) =φLm−m(ωO1+ωL1)L/2 ・・・(18) とし、かつΔω=0とする。
【0091】上記n=0、n=LのいずれもV(有声
音)とされる場合に、θm (L) がφLmとなるようにΔω
を設定する手法について説明する。上記(17)式で、n
=Lと置くことにより、 θm (L) =mωO1L+L2 m(ωL1−ω01)/2L+φ0m+ΔωL =m(ωO1+ωL1)L/2+φ0m+ΔωL =φLm となり、これを整理すると、Δωは、 Δω=(mod2π((φLm−φ0m) − mL(ωO1+ωL1)/2)/L ・・・(19) となる。この(19)式でmod2π(x) とは、xの主値を−
π〜+πの間の値で返す関数である。例えば、x=1.3
πのときmod2π(x) =−0.7π、x=2.3πのときmod2
π(x) =0.3π、x=−1.3πのときmod2π(x) =0.7
π、等である。
【0092】ここで、図15 のAは、音声信号のスペク
トルの一例を示しており、バンド番号(ハーモニクスナ
ンバ)mが8、9、10の各バンドがUV(無声音)と
され、他のバンドはV(有声音)とされている。このV
(有声音)のバンドの時間軸信号が上記有声音合成部5
7により合成され、UV(無声音)のバンドの時間軸信
号が無声音合成部58で合成されるわけである。
【0093】以下、無声音合成部58における無声音合
成処理を説明する。ホワイトノイズ発生部62からの時
間軸上のホワイトノイズ信号波形を、所定の長さ(例え
ば256サンプル)で適当な窓関数(例えばハミング
窓)により窓かけをし、STFT処理部63によりST
FT(ショートタームフーリエ変換)処理を施すことに
より、図15のBに示すようなホワイトノイズの周波数
軸上のパワースペクトルを得る。このSTFT処理部6
3からのパワースペクトルをバンド振幅処理部64に送
り、図15のCに示すように、上記UV(無声音)とさ
れたバンド(例えばm=8、9、10)について上記振
幅|Am UVを乗算し、他のV(有声音)とされたバン
ドの振幅を0にする。このバンド振幅処理部64には上
記振幅データ、ピッチデータ、V/UV判別データが供
給されている。バンド振幅処理部64からの出力は、I
STFT処理部65に送られ、位相は元のホワイトノイ
ズの位相を用いて逆STFT処理を施すことにより時間
軸上の信号に変換する。ISTFT処理部65からの出
力は、オーバーラップ加算部66に送られ、時間軸上で
適当な(元の連続的なノイズ波形を復元できるように)
重み付けをしながらオーバーラップ及び加算を繰り返
し、連続的な時間軸波形を合成する。オーバーラップ加
算部66からの出力信号が上記加算部60に送られる。
【0094】このように、各合成部57、58において
合成されて時間軸上に戻された有声音部及び無声音部の
各信号は、加算部60により適当な固定の混合比で加算
して、出力端子61より再生された音声信号を取り出
す。
【0095】ここで、上述したデコード側のビタビ復号
&CRC検出は、以下のような原理である。図16は、
ビタビ復号&CRC検出の原理を説明するための機能ブ
ロック図である。ここでも、20msec のサブフレーム
を2つ用いた状態、すなわち、40msec のフレームを
単位としている。
【0096】先ず、エンコード側から伝送されてきた2
24ビットを2スロットデインターリーブ器71が受信
し、もとのフレームを復元する。
【0097】そして、畳み込み復号器72で畳み込み復
号化を行い、80ビットのクラス1と7ビットのCRC
ビットを得る。畳み込み復号化のアルゴリズムはビタビ
アルゴリズムを用いる。
【0098】また、クラス1のうち、聴覚的な重要な5
0ビットを、CRC計算ブロック73に入力し、7ビッ
トのCRCを計算し、この50ビット中に発生したすべ
ての誤りを訂正できなかったことを検出するために用い
る。入力多項式は、 a’(X) =CL1[83] X49+CL1[4] X48+CL1[82] X47…… ……CL1[27] X2 +CL1[59] X1 +CL1[28] X0 ・・・(20) を用いる。
【0099】また、生成多項式は上記(9)式、パリテ
ィ多項式は上記(11)式を用いエンコード側と同様の計
算を行う。ここで求められたCRCと受信CRCb’
(x) とを比較し、一致すればCRC計算対象ビットに誤
りがないものとみなし、一致しなければCRC計算対象
ビットに誤りがあるものとみなす。
【0100】誤りを検出した場合、そのフレームのデー
タを用いて音声復号化を行うと、音声品質を非常に劣化
させるので、誤りの検出の連続する度合いに応じて、音
声復号器74でマスク処理が行われる。
【0101】このマスク処理について、以下に説明す
る。このマスク処理は、上記CRC計算ブロック73で
CRCエラー有りとされたときに該当フレームのデータ
を補間する。本実施例では、このマスク処理にバッドフ
レームマスキング(Bad Frame Masking)という手法を用
いる。
【0102】図17は、バッドフレームマスキング手法
によるマスク処理の状態遷移図である。図17におい
て、各状態(状態0から状態7)は、矢印で示した方向
に遷移する。矢印上の“1”は、現フレーム(20mse
c)にCRC誤りが検出された場合を示すフラグであり、
“0”は、現フレーム(20msec)にCRC誤りが検出
されなかった場合を示すフラグである。
【0103】音声のフレーム(20msec)を復号する毎
に状態が遷移する。通常は、「状態0」でCRC誤りが
ないことを示す。例えば、「状態6」には、最低6回連
続でCRC不成立となる場合に遷移する。また、「状態
0」では何も処理しない。すなわち、通常のデコードが
行われる。また、「状態1」、「状態2」では、フレー
ム反復を行う。また、「状態3」、「状態4」及び「状
態5」では反復と減衰を行う。
【0104】すなわち、「状態3」のときは、0.5倍
に減衰し、音声を絞る。「状態4」のときは、0.25
倍に減衰し、音声を絞る。「状態5」のときは、0.1
25倍に減衰し、音声を絞る。
【0105】また、「状態6」、「状態7」では、音声
を完全に無音にする。
【0106】上記「状態1」、「状態2」で行われるフ
レーム反復とは、ピッチ情報、V/UV判別情報及びス
ペクトルエンベロープに対し、以下のように行われる。
すなわち、ピッチ情報については、前フレームのものを
繰り返し使用する。V/UV判別情報についても、前フ
レームのものを繰り返し使用する。スペクトルエンベロ
ープについては、スペクトルエンベロープのフレーム間
差分にかかわらず前フレームのエンベロープを繰り返し
使用する。
【0107】なお、反復から通常のデコードに復帰する
1フレーム及び2フレーム目は、スペクトルエンベロー
プのフレーム間差分を行わない時は、通常通りデコード
すればよいが、フレーム間差分を行う場合は、エンベロ
ープの大きさの変化によってデコード方法を変える。
【0108】通常、デコードでも小さい方向への変化を
する時は、通常のデコードとし、(1)大きい方向への
変化をするときは、残差成分のみ生かし、(2)過去の
積分された値を0とする。
【0109】また、復帰2フレーム目まで、この変化の
増減をチェックし、2フレーム目で増加するときは、1
フレーム目のデコード方法を(2)の方法に変えた結果
を反映させる。
【0110】ここで、エラーから復帰する1番目及び2
番目のフレームの処理の詳細を図18を用いて以下に説
明する。この図18において、入力端子81からは、差
分値da [i] が入力される。この差分値da [i] は、リ
ーキーなものであり、絶対成分をある程度持っている。
また、出力端子82からは出力スペクトルprevqed [i]
出力される。
【0111】先ず、遅延回路83を出力スペクトルprev
qed [i] が前フレームの出力スペクトルprevqed -1[i]
に比べて、1つでも大きくなってるものがあるかを、 da [i] +prevqed -1[i]*LEAKFAK −prevqed -1[i] >0・・・(21) の式を満たすiが1つでも存在するか否かによって判別
する。ここで、i=1〜44である。
【0112】ここで、上記(14) 式 を満たすiが存在
すれば、Sumda =1とし、なけれSumda =0とする。そ
して、エラーから復帰した最初のフレームなら、Sumda
=0なら、 prevqed [i] ←da [i] +prevqed -1[i] *LEAKFAK daOLD [i]← da [i] ・・・(22) とする。
【0113】また、Sumda =1なら、 prevqed [i] ←da [i] daOLD [i]← da [i] ・・・(23) とする。
【0114】さらに、エラーから復帰した2つ目のフレ
ームなら、Sumda =0なら、 prevqed [i] ←da [i] +prevqed -1[i] *LEAKFAK ・・・(24) とする。
【0115】また、Sumda =1なら、 prevqed [i] ←da [i] ・・・ (25) とする。
【0116】さらにまた、3フレーム以降は以下を行
う。 prevqed [i] ←da [i] +prevqed -1[i] *LEAKFAK ・・・(26)
【0117】以上より、本発明に係る音声符号化方法を
適用したMBEボコーダのエンコード側は、上記ピッチ
情報、上記有声音/無声音判別情報及び上記スペクトル
エンベロープの階層構造ベクトル出力データの上位層の
インデックスデータにCRC誤り検出符号を付加し、さ
らに上記スペクトルエンベロープの階層構造ベクトル出
力データの下位層のインデックスデータの上位ビットを
含めて畳み込み符号化を施すので伝送路等の誤りに強い
データをデコード側に伝送できる。
【0118】また、他の発明に係る音声復号化方法を適
用したMBEボコーダのデコード側は、上記エンコーダ
側から伝送されてきたデータ、すなわち、強く保護され
た上記ピッチ情報、上記有声音/無声音判別情報及び上
記スペクトルエンベロープの階層構造ベクトル出力デー
タに誤り訂正復号化を施した後にCRC誤り検出を施
し、このCRC誤り検出結果に応じてバッドフレームマ
スキング処理を施すので通話品質の良好な音声が得られ
る。
【0119】次に、本発明に係る音声符号化方法及び音
声復号化方法を自動車電話装置又は携帯電話装置(以下
まとめて携帯電話という)に適用した例を図19に示
す。送信時には、マイク114から入力された音声信号
が、音声符号器110により、ディジタル信号に変換さ
れ、符号化され、伝送路符号器108により、伝送路の
品質が音声品質に影響を受けにくいように符号化された
後、変調器106で変調され、送信機104により、ア
ンテナ共用器102を通り、アンテナ101から送信さ
れる。
【0120】受信時には、アンテナ101で捉えた電波
を、アンテナ共用器102を通じて受信機105で受信
し、復調器107で復調し、伝送路復号器109で伝送
路中で加えられた誤りをできるだけ訂正し、音声復号器
111で復号され、アナログ音声信号に戻され、スピー
カ113から出力される。
【0121】また、制御部112は、上記各部をコント
ロールし、シンセサイザ103は送受信周波数を送信機
104、及び受信機105に与えている。LCD表示器
115及びキーパット116はマンマシンインターフェ
ースに利用される。
【0122】ここで、音声符号データに対する伝送路誤
り制御としては、次の3つの手段を用いる。 (i)音声符号化データ列中の誤りに弱いビット(クラ
ス1)を保護するためのレート1/2の畳み込み符号。 (ii) 音声符号化フレームの送信データを2タイム・ス
ロット(40msec)にわたりインターリーブし、バース
ト的なエラーの影響を削減する。
【0123】(iii)MBEの聴覚的重要パラメータに関
し、CRC符号を用いて誤りを検出する。
【0124】図20に伝送路符号器(以下チャンネルエ
ンーダという)108を、図21に伝送路復号器(以下
チャンネルデコーダという)109の構成を示す。ここ
で、音声符号器の1符号単位を1サブフレーム、チャン
ネルエンコーダ108の1符号化単位を1フレームとす
る。チャンネルエンコーダ108では、音声符号器20
1から出力された60ビット/サブフレームのデータを
1単位としてCRCにより誤り検出を行い、2サブブレ
ーム分120ビット/フレームを1単位として畳み込み
符号により、誤り訂正を行う。
【0125】すなわち、チャンネルエンコーダ108が
行う誤り訂正符号化は、CRC誤り検出符号化が行われ
た複数(この場合2サブフレーム)を単位としたものに
行われる。
【0126】先ず、図20において、音声符号器201
から入力された2サブフレーム分のデータ120ビット
について、聴感上重要な部分80ビットをクラス1、そ
れ以外の40ビットをクラス2として分ける。
【0127】表4に音声符号器の各パラメータ・ピッド
に対する各クラス毎のビット配分を示す。
【0128】
【表4】
【0129】この表4において、クラス1は畳み込み符
号により保護される部分であり、クラス2は保護されず
そのまま伝送する部分である。
【0130】また、クラス1のビット順を表5、クラス
2のビット順を表6に示す。
【0131】
【表5】
【0132】
【表6】
【0133】ここで、表5のクラス1配列をCL1[i]、
i=0〜88、表6のクラス2配列をCL2[i]、i=0
〜45とする。すなわち、この表5、表6の1列目は入
力配列CL1[i]、入力配列CL2[i]の要素番号iを示
す。また、この表5、表6の2列目は取り出されるパラ
メータのサブフレーム番号、3列目は取り出されるパラ
メータ名、4列目はパラメータ内のビット位置であり、
0は最下位ビットを示す。
【0134】先ず、クラス1のうち、聴覚上特に重要な
データをサブフレーム毎に25ビットずつ取り出す。こ
のサブフレームのうち時間的に前のものをサブフレーム
0、後のものをサブフレーム1とする。これをCRC計
算ブロック202に入力し、その結果としてサブフレー
ム毎にCRCを5ビット得る。このCRCの生成多項式
はgcrc (X) は、サブフレーム0及びサブフレーム1の
場合に、 gcrc (X) =1+X3 +X5 ・・・(27) を用いる。
【0135】また、畳み込み符号器203への入力ビッ
ト列をCL1[i]、i=0〜88(表4より)とした場
合、入力多項式a0(X)は、サブフレーム0の場合に次の
(28) 式を、サブフレーム1の場合に次の(29)式を用い
る。
【0136】 a0(X)=CL1[5] X24+CL1[76] X23++CL1[9] X22…… ……CL1[73] X2 +CL1[8] X1 +CL1[77] X0 ・・・(28) a1(X)=CL1[78] X24+CL1[7] X23++CL1[74] X22…… ……CL1[10] X2 +CL1[75] X1 +CL1[6] X0 ・・・(29)
【0137】また、サブフレーム0の商をq0(X)、サブ
フレーム1の商をq1(X)とすると、パリティ多項式b
0(X)及びb1(X)は、入力多項式の剰余であることから、
それぞれ次の(30) 及び(31)式を用いる。
【0138】 a0(X)・X5 /gcrc (X) =q0(x)+b0(x)/gcrc (X) ・・・(30 ) a1(X)・X5 /gcrc (X) =q1(x)+b1(x)/gcrc (X) ・・・(31 )
【0139】こうして得られたパリティビットb0(X)及
びb1(X)を次の(32)、(33)式を用いて配列CL1[i]に組
み込む。 b0(X)=CL1[0] X4 +CL1[83] X3 +CL1[1] X2 +CL1[82] X1 +CL1[2] X0.EQI(6) ・・・(32) b1(X)=CL1[81] X4 +CL1[3] X3 +CL1[80] X2 +CL1[4] X1 +CL1[79] X0 ・・・ (33)
【0140】次に、クラス1の74ビットとCRC計算
ブロック202の計算結果10ビットを畳み込み符号器
203に上記表5で示した入力順に入力し、レート1/
2、拘束長6(=k)の畳み込み符号化を行う。ここで
使用する生成多項式は、次の(34)、(35)式である。 g0(D)=1+D+D3 +D5 ・・・(34) g1(D)=1+D2 +D3 +D4 +D5 ・・・ (35)
【0141】上記表5の畳み込み符号器への入力ビット
のうちCL1[5] 〜CL1[78]の74ビットがクラス1
ビットであり、CL1[0] 〜CL1[4] 及びCL1[79]
〜CL1[83] の10ビットがCRCビットである。ま
た、CL1[84] 〜CL1[88] の5ビットは符号器を初期
状態に戻すためのテ−ルビットで、値は全て0である。
【0142】この畳み込み符号化はg0(D)から始まり、
上記(34)、(35)の2つの多項式により交互に符号化され
る。この畳み込み符号器203は、図22に示されるよ
うに5段のシフトレジスタ(遅延演算子)で構成され、
生成多項式の係数に相当するビットの排他的論理和を計
算することにより、出力を得ることができる。結果とし
て、入力CL1[i] に対し、2ビットの出力cc0[i]
とcc1[i] が得られるため、クラス1ビット全体で
は、178ビットの出力を得る。
【0143】こうして得られた畳み込み符号化されたク
ラス1の178ビットと、クラス2の46ビットの合計
224ビットを、所定の送信順に伝送することにより、
ビットインターリーブ及び2フレームにわたるフレーム
・インターリーブを行う。
【0144】次に、図21を用いてチャンネルデコーダ
を説明する。このチャンネルデコーダでの伝送路復号化
は、符号化と逆のプロセスで実行される。
【0145】受信されたデータは常に1フレーム分記憶
され、受信フレームとその前のフレームが用いられ、デ
インターリーブブロック304により元のフレームが復
元される。
【0146】そして、畳み込み復号器303で畳み込み
復号化を行い、74ビットのクラス1ビットと、サブフ
レーム毎にそれぞれ5ビットのCRCビットを得る。畳
み込み復号化のアルゴリズムはビタビアルゴリズムを用
いる。
【0147】また、クラス1のうち、聴覚的な重要な5
0ビットを、CRC計算ブロック302に入力し、サブ
フレーム毎に5ビットのCRCを計算し、この(25×
2)ビット中に発生した全ての誤りを訂正できなかった
ことを、サブフレーム毎に検出するために用いる。
【0148】生成多項式は、符号化と同様、上記(9)
式を用いる。畳み込み復号器からの出力ビット列をCL
1 ’[i] ,i=0〜88とした場合、CRC計算ブロッ
ク302の入力多項式は、サブフレーム0、サブフレー
ム1でそれぞれ次の(36)、(37)式を用いる。この場合、
上記表5はCL1 [i] をCL1 ’[i] に置き換えて使用
する。
【0149】 a’0(X)=CL1 ’[5] X24+CL1 ’[76]X23+CL1 ’[9] X22 … ……CL1 ’[73]X2 +CL1 ’[8] X1 +CL1 ’[77]X0 ・・・ (36) a’1(X)=CL1 ’[78]X24+CL1 ’[7] X23+CL1 ’[74]X22 … ……CL1 ’[10]X2 +CL1 ’[75]X1 +CL1 ’[6] X0 ・・・ (37)
【0150】また、サブフレーム0の商をqd0(X) 、サ
ブフレーム1の商をqd1(X) とすると、パリティ多項式
d0(X) 及びbd1(X) は、入力多項式の剰余であること
から、それぞれ次の(38) 及び(39)式を用いる。 a0 ’(X) ・X5 /gcrc (X) =qd0(x) +bd0(x) /gcrc (X) ・・・ (38) a1 ’(X) ・X5 /gcrc (X) =qd1(x) +bd1(x) /gcrc (X) ・・・(39)
【0151】上記表5に従って取り出した、サブフレー
ム0、サブフレーム1の受信CRCをb0 ’(X) 及びb
1 ’(X) と、新たに計算したCRC、bd0(x) 及びbd1
(x) とをサブフレーム毎に比較し、一致すればそのサブ
フレームのCRC計算対象ビットに誤りがないものとみ
なし、一致しなければそのサブフレームのCRC計算対
象ビットに誤りがあるものとみなす。CRC計算対象ビ
ットに誤りを検出した場合、そのサブフレームのデータ
を用いて音声復号化を行うと、音声品質を非常に劣化さ
せるので、誤りの検出の連続する度合いに応じて、音声
復号器301でそのサブフレームのデータを前のサブフ
レームのデータで置き換えるか又は音声信号を減衰させ
るような上記バッドフレームマスキング処理を行う。
【0152】以上、本発明に係る音声符号化方法及び他
の発明に係る音声復号化方法を携帯電話に適用した例で
は、短い時間間隔で誤り検出をおこなうため、誤り訂正
しきれずに検出された誤りのあるフレームの補正処理に
よる情報の損失を少なくすることができる。
【0153】また、特に集中して発生するバースト誤り
に対し、誤り補正をきめ細かく行うことができるため、
復号音声を改善することができる。
【0154】なお、上記図1のMBEボコーダのエンコ
ード側の構成や、上記図14のデコード側の構成は、各
部をハードウェア的に記載しているが、いわゆるDSP
(ディジタル信号プロセッサ)等を用いてソフトウェア
プログラムにより実現することも可能である。
【0155】
【発明の効果】本発明に係る音声符号化方法は、上記ピ
ッチ情報、上記有声音/無声音判別情報及び上記スペク
トルエンベロープの階層構造ベクトル出力データの上位
層のインデックスデータにCRC誤り検出符号を付加
し、さらに上記スペクトルエンベロープの階層構造ベク
トル出力データの下位層のインデックスデータの上位ビ
ットを含めて畳み込み符号化を施すのでデコード側に伝
送するデータを伝送路の誤り等から強く保護できる。
【0156】また、他の発明に係る音声復号化方法は、
エンコーダ側から伝送されてきたデータ、すなわち、強
く保護された上記ピッチ情報、上記有声音/無声音判別
情報及び上記スペクトルエンベロープの階層構造ベクト
ル出力データに誤り訂正復号化を施した後にCRC誤り
検出を施し、このCRC誤り検出結果に応じてバッドフ
レームマスキング処理を施すので通話品質の良好な音声
が得られる。
【0157】さらに、音声符号化方法の誤り訂正符号化
工程は、CRC誤り検出符号化が行われた複数フレーム
を単位としたものに対して畳み込み込み符号化を施すの
で、誤り訂正しきれずに検出された誤りのあるフレーム
の補正処理による情報の損失を少なくすることができ、
特に集中して発生するバースト誤りに対し、誤り補正を
きめ細かく行うことができるため、復号音声を改善する
ことができる。
【図面の簡単な説明】
【図1】本発明に係る音声符号化方法をMBEボコーダ
に適用した実施例のエンコード側の概略構成を示すブロ
ック図である。
【図2】窓かけ処理を説明するための図である。
【図3】窓かけ処理と窓関数との関係を説明するための
図である。
【図4】直交変換(FFT)処理対象としての時間軸デ
ータを示す図である。
【図5】周波数軸上のスペクトルデータ、スペクトル包
絡線(エンベロープ)及び励起信号のパワースペクトル
を示す図である。
【図6】階層構造化されたベクトル量子化部の構造を示
すブロック図である。
【図7】階層構造化されたベクトル量子化の動作を説明
するための図である。
【図8】階層構造化されたベクトル量子化の動作を説明
するための図である。
【図9】階層構造化されたベクトル量子化の動作を説明
するための図である。
【図10】階層構造化されたベクトル量子化の動作を説
明するための図である。
【図11】階層構造化されたベクトル量子化の動作を説
明するための図である。
【図12】階層構造化されたベクトル量子化の動作を説
明するための図である。
【図13】CRC&畳み込み符号化を説明するための図
である。
【図14】他の発明に係る音声復号化方法をMBEボコ
ーダに適用した実施例のデコード側の概略構成を示すブ
ロック図である。
【図15】音声信号を合成する際の無声音合成を説明す
るための図である。
【図16】CRC検出&畳み込み復号化を説明するため
の図である。
【図17】バッドフレームマスキング処理を説明するた
めの状態遷移図である。
【図18】バッドフレームマスキング処理を説明するた
めの図である。
【図19】本発明に係る音声符号化方法及び音声復号化
方法を携帯電話に適用した場合の該携帯電話の構成を示
すブロック図である。
【図20】図19に示した携帯電話のチャンネルエンコ
ーダを説明するための図である。
【図21】図19に示した携帯電話のチャンネルデコー
ダを説明するための図である。
【図22】畳み込み符号器の構成を示す図である。
【符号の説明】
13・・・・・ピッチ抽出部 14・・・・・窓かけ処理部 15・・・・・直交変換部 16・・・・・高精度(ファイン)ピッチサーチ部 17・・・・・有声音/無声音(V/UV)判別部 18・・・・・振幅再評価部 19・・・・・データ数変換部 20・・・・・ベクトル量子化部(階層構造) 21・・・・・CRC&畳み込み符号付加部 22・・・・・フレームインターリーブ部
───────────────────────────────────────────────────── フロントページの続き (72)発明者 小野 忍 東京都品川区北品川6丁目7番35号 ソ ニー株式会社内 (56)参考文献 特開 昭61−215598(JP,A) 特開 平3−228433(JP,A) 特開 平1−177225(JP,A) D.W.GRIFFIN and J.S.LIM,Multiband Excitation Vocode r,IEEE TRANSACTION S ASSP ,米国,IEEE,1988 年,VOL.36 NO.8 AUGUS T,1223−1235 (58)調査した分野(Int.Cl.7,DB名) G10L 19/00

Claims (9)

    (57)【特許請求の範囲】
  1. 【請求項1】 入力されたオーディオ信号をブロック単
    位で区分して周波数軸上に変換して得られる周波数軸上
    データを上記オーディオ信号の有声音/無声音の判別に
    従って符号化する音声符号化方法において、上記周波数軸上データの振幅のスペクトル包絡を構成す
    るデータの数を一定の値に変換するデータ数変換工程
    と、 上記データ数変換工程によりデータの数が一定の値に変
    換されたスペクトル包絡に階層構造のベクトル量子化を
    施す工程と、 この階層構造ベクトル量子化の出力データの上位層イン
    デックスデータに対して畳み込み符号による誤り訂正符
    号化を施す工程とを有することを特徴とする音声符号化
    方法。
  2. 【請求項2】 上記誤り訂正符号化工程は、上記階層構
    造ベクトル量子化の出力データの下位層の上位ビットに
    も畳み込み符号化を施すことを特徴とする請求項1記載
    の音声符号化方法。
  3. 【請求項3】 上記誤り訂正符号化工程は、上記ブロッ
    ク毎に抽出されるピッチ情報、上記オーディオ信号の有
    声音/無声音判別情報及び上記階層構造ベクトル量子化
    出力データの上位層のインデックスデータに対して畳み
    込み符号化を施すことを特徴とする請求項2記載の音声
    符号化方法。
  4. 【請求項4】 上記ピッチ情報、上記有声音/無声音判
    別情報及び上記階層構造ベクトル量子化出力データの上
    位層のインデックスデータは、CRC誤り検出符号化が
    施されてから上記誤り訂正符号化工程によって、上記階
    層構造ベクトル量子化出力データの下位層のインデック
    スデータの上位ビットを含めて畳み込み符号化が施され
    ることを特徴とする請求項3記載の音声符号化方法。
  5. 【請求項5】 上記誤り訂正符号化工程は、上記CRC
    誤り検出符号化が行われた複数フレームを単位としたも
    のに対して畳み込み符号化を施すことを特徴とする請求
    項4記載の音声符号化方法。
  6. 【請求項6】 入力されたオーディオ信号をブロック単
    位で区分して周波数軸上に変換して得られる周波数軸上
    データを上記オーディオ信号の有声音/無声音の判別に
    従って符号化する音声符号化方法によって、ピッチ情
    報、有声音/無声音判別情報及びスペクトル包絡階層構
    造ベクトル量子化出力データの上位層のインデックスデ
    ータに対してCRC誤り検出符号化が行われてから上記
    階層構造ベクトル量子化出力データの下位層のインデッ
    クスデータの上位ビットを含めて畳み込み符号化が施さ
    れて伝送されてきた信号を復号する復号化方法であっ
    て、 上記伝送されてきた信号に対して畳み込み符号による誤
    り訂正復号化が施された後にCRC誤り検出を施す工程
    と、 上記CRC誤り検出を施す工程で誤りが検出された際に
    は、誤りが検出されたフレームのデータを補間する工程
    と、上記CRC誤り検出工程で誤りが検出されなくなった際
    には、所定数のフレームについて前フレームと現フレー
    ムの各データから得られる各スペクトル包絡の大小関係
    に基づいてスペクトル包絡の再生方法を制御する工程と
    を有することを特徴とする音声復号化方法。
  7. 【請求項7】 入力されたオーディオ信号をブロック単
    位で区分して周波数軸上に変換して得られる周波数軸上
    データを上記オーディオ信号の有声音/無声音の判別に
    従って符号化する音声符号化方法において、 上記周波数軸上データである振幅のスペクトル包絡に階
    層構造のベクトル量子化を施す工程と、 この階層構造ベクトル量子化の出力データの上位層イン
    デックスデータに対して畳み込み符号による誤り訂正符
    号化を施す工程とを有し、 上記階層構造のベクトル量子化は、入力されたデータの
    次元数を低次元に変換してベクトル量子化する第1のベ
    クトル量子化工程と、 上記第1のベクトル量子化工程で得られた出力データを
    上記入力されたデータの次元数に逆変換する工程と、 上記逆変換された出力データと、上記入力されたデータ
    との関係を表すデータに対して第2の量子化を行う第2
    のベクトル量子化工程とを有することを特徴とする音声
    符号化方法。
  8. 【請求項8】 上記誤り訂正符号化工程は、上記第1の
    ベクトル量子化工程で得られた出力データのインデック
    スデータに対して畳み込み符号による誤り訂正符号化を
    施すことを特徴とする請求項7記載の音声符号化方法。
  9. 【請求項9】 上記誤り訂正符号化工程は、上記第2の
    ベクトル量子化工程で得られた出力データのインデック
    スデータに対しても畳み込み符号による誤り訂正符号化
    を施すことを特徴とする請求項8記載の音声符号化方
    法。
JP31625992A 1992-10-31 1992-10-31 音声符号化方法及び復号化方法 Expired - Fee Related JP3343965B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP31625992A JP3343965B2 (ja) 1992-10-31 1992-10-31 音声符号化方法及び復号化方法
US08/146,580 US5473727A (en) 1992-10-31 1993-11-01 Voice encoding method and voice decoding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP31625992A JP3343965B2 (ja) 1992-10-31 1992-10-31 音声符号化方法及び復号化方法

Publications (2)

Publication Number Publication Date
JPH06149296A JPH06149296A (ja) 1994-05-27
JP3343965B2 true JP3343965B2 (ja) 2002-11-11

Family

ID=18075111

Family Applications (1)

Application Number Title Priority Date Filing Date
JP31625992A Expired - Fee Related JP3343965B2 (ja) 1992-10-31 1992-10-31 音声符号化方法及び復号化方法

Country Status (2)

Country Link
US (1) US5473727A (ja)
JP (1) JP3343965B2 (ja)

Families Citing this family (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5765127A (en) * 1992-03-18 1998-06-09 Sony Corp High efficiency encoding method
JP3277398B2 (ja) * 1992-04-15 2002-04-22 ソニー株式会社 有声音判別方法
JP3531177B2 (ja) * 1993-03-11 2004-05-24 ソニー株式会社 圧縮データ記録装置及び方法、圧縮データ再生方法
US5710862A (en) * 1993-06-30 1998-01-20 Motorola, Inc. Method and apparatus for reducing an undesirable characteristic of a spectral estimate of a noise signal between occurrences of voice signals
JP3475446B2 (ja) * 1993-07-27 2003-12-08 ソニー株式会社 符号化方法
DE4401329C2 (de) * 1994-01-18 1997-04-03 Siemens Ag Verfahren und Anordnung sowie Teilnehmerstation und Zentralstation zum Übertragen von Sprachinformation in einem Funksystem
US5684920A (en) * 1994-03-17 1997-11-04 Nippon Telegraph And Telephone Acoustic signal transform coding method and decoding method having a high efficiency envelope flattening method therein
US6167093A (en) * 1994-08-16 2000-12-26 Sony Corporation Method and apparatus for encoding the information, method and apparatus for decoding the information and method for information transmission
US6004028A (en) * 1994-08-18 1999-12-21 Ericsson Ge Mobile Communications Inc. Device and method for receiving and reconstructing signals with improved perceived signal quality
JP3557662B2 (ja) * 1994-08-30 2004-08-25 ソニー株式会社 音声符号化方法及び音声復号化方法、並びに音声符号化装置及び音声復号化装置
FR2729247A1 (fr) * 1995-01-06 1996-07-12 Matra Communication Procede de codage de parole a analyse par synthese
JP3152109B2 (ja) * 1995-05-30 2001-04-03 日本ビクター株式会社 オーディオ信号の圧縮伸張方法
US5710781A (en) * 1995-06-02 1998-01-20 Ericsson Inc. Enhanced fading and random pattern error protection for dynamic bit allocation sub-band coding
TW321810B (ja) * 1995-10-26 1997-12-01 Sony Co Ltd
JP3707116B2 (ja) * 1995-10-26 2005-10-19 ソニー株式会社 音声復号化方法及び装置
JP2778567B2 (ja) * 1995-12-23 1998-07-23 日本電気株式会社 信号符号化装置及び方法
US5864795A (en) * 1996-02-20 1999-01-26 Advanced Micro Devices, Inc. System and method for error correction in a correlation-based pitch estimator
US5666350A (en) * 1996-02-20 1997-09-09 Motorola, Inc. Apparatus and method for coding excitation parameters in a very low bit rate voice messaging system
US5806023A (en) * 1996-02-23 1998-09-08 Motorola, Inc. Method and apparatus for time-scale modification of a signal
US5774836A (en) * 1996-04-01 1998-06-30 Advanced Micro Devices, Inc. System and method for performing pitch estimation and error checking on low estimated pitch values in a correlation based pitch estimator
JPH09298466A (ja) * 1996-05-08 1997-11-18 Matsushita Electric Ind Co Ltd 音声符号化/復号化装置
JP3878254B2 (ja) * 1996-06-21 2007-02-07 株式会社リコー 音声圧縮符号化方法および音声圧縮符号化装置
JPH1091194A (ja) * 1996-09-18 1998-04-10 Sony Corp 音声復号化方法及び装置
FI963870A (fi) * 1996-09-27 1998-03-28 Nokia Oy Ab Virheiden piilottaminen digitaalisessa audiovastaanottimessa
JP4121578B2 (ja) * 1996-10-18 2008-07-23 ソニー株式会社 音声分析方法、音声符号化方法および装置
JPH10233692A (ja) * 1997-01-16 1998-09-02 Sony Corp オーディオ信号符号化装置および符号化方法並びにオーディオ信号復号装置および復号方法
FI970553A (fi) * 1997-02-07 1998-08-08 Nokia Mobile Phones Ltd Audiokoodausmenetelmä ja -laite
EP0976216B1 (de) * 1997-02-27 2002-11-27 Siemens Aktiengesellschaft Verfahren und anordnung zur rahmenfehlerdetektion zwecks fehlerverdeckung insbesondere bei gsm übertragungen
EP0878790A1 (en) * 1997-05-15 1998-11-18 Hewlett-Packard Company Voice coding system and method
KR19990003242A (ko) 1997-06-25 1999-01-15 윤종용 구조적 펀처드 길쌈부호 부호와 및 복호기
US5970441A (en) * 1997-08-25 1999-10-19 Telefonaktiebolaget Lm Ericsson Detection of periodicity information from an audio signal
JP2001507822A (ja) 1997-09-30 2001-06-12 シーメンス・アクチエンゲゼルシャフト スピーチ信号のエンコード方法
JPH11122120A (ja) * 1997-10-17 1999-04-30 Sony Corp 符号化方法及び装置、並びに復号化方法及び装置
US5999897A (en) * 1997-11-14 1999-12-07 Comsat Corporation Method and apparatus for pitch estimation using perception based analysis by synthesis
KR19990065424A (ko) * 1998-01-13 1999-08-05 윤종용 저지연 다중밴드 여기 보코더를 위한 피치 결정방식
US6012025A (en) * 1998-01-28 2000-01-04 Nokia Mobile Phones Limited Audio coding method and apparatus using backward adaptive prediction
US6810377B1 (en) * 1998-06-19 2004-10-26 Comsat Corporation Lost frame recovery techniques for parametric, LPC-based speech coding systems
DE19853443A1 (de) * 1998-11-19 2000-05-31 Siemens Ag Verfahren, Basisstation und Teilnehmerstation zur Kanalkodierung in einem GSM-Mobilfunksystem
US6363428B1 (en) 1999-02-01 2002-03-26 Sony Corporation Apparatus for and method of separating header information from data in an IEEE 1394-1995 serial bus network
US6367026B1 (en) 1999-02-01 2002-04-02 Sony Corporation Unbalanced clock tree for a digital interface between an IEEE 1394 serial bus system and a personal computer interface (PCI)
US6754265B1 (en) * 1999-02-05 2004-06-22 Honeywell International Inc. VOCODER capable modulator/demodulator
US6681203B1 (en) * 1999-02-26 2004-01-20 Lucent Technologies Inc. Coupled error code protection for multi-mode vocoders
JP2000305599A (ja) * 1999-04-22 2000-11-02 Sony Corp 音声合成装置及び方法、電話装置並びにプログラム提供媒体
JP4218134B2 (ja) * 1999-06-17 2009-02-04 ソニー株式会社 復号装置及び方法、並びにプログラム提供媒体
US7092881B1 (en) * 1999-07-26 2006-08-15 Lucent Technologies Inc. Parametric speech codec for representing synthetic speech in the presence of background noise
US6901362B1 (en) * 2000-04-19 2005-05-31 Microsoft Corporation Audio segmentation and classification
NZ521633A (en) * 2000-04-26 2005-01-28 Eisai Co Ltd Use of an adenosine A2 or A2b recpetor antagonist for promoting bowel movement
US7243295B2 (en) * 2001-06-12 2007-07-10 Intel Corporation Low complexity channel decoders
CN100395817C (zh) 2001-11-14 2008-06-18 松下电器产业株式会社 编码设备、解码设备和解码方法
US7240001B2 (en) 2001-12-14 2007-07-03 Microsoft Corporation Quality improvement techniques in an audio encoder
US7502743B2 (en) 2002-09-04 2009-03-10 Microsoft Corporation Multi-channel audio encoding and decoding with multi-channel transform selection
JP2004109362A (ja) * 2002-09-17 2004-04-08 Pioneer Electronic Corp フレーム構造のノイズ除去装置、フレーム構造のノイズ除去方法およびフレーム構造のノイズ除去プログラム
US8359197B2 (en) 2003-04-01 2013-01-22 Digital Voice Systems, Inc. Half-rate vocoder
US20070067166A1 (en) * 2003-09-17 2007-03-22 Xingde Pan Method and device of multi-resolution vector quantilization for audio encoding and decoding
US7460990B2 (en) 2004-01-23 2008-12-02 Microsoft Corporation Efficient coding of digital media spectral data using wide-sense perceptual similarity
US8160868B2 (en) * 2005-03-14 2012-04-17 Panasonic Corporation Scalable decoder and scalable decoding method
EP1892702A4 (en) * 2005-06-17 2010-12-29 Panasonic Corp POST-FILTER, DECODER AND POST-FILTRATION METHOD
KR20070046752A (ko) * 2005-10-31 2007-05-03 엘지전자 주식회사 신호 처리 방법 및 장치
US7953604B2 (en) * 2006-01-20 2011-05-31 Microsoft Corporation Shape and scale parameters for extended-band frequency coding
US8190425B2 (en) 2006-01-20 2012-05-29 Microsoft Corporation Complex cross-correlation parameters for multi-channel audio
US7831434B2 (en) * 2006-01-20 2010-11-09 Microsoft Corporation Complex-transform channel coding with extended-band frequency coding
US8798172B2 (en) * 2006-05-16 2014-08-05 Samsung Electronics Co., Ltd. Method and apparatus to conceal error in decoded audio signal
JP4757158B2 (ja) * 2006-09-20 2011-08-24 富士通株式会社 音信号処理方法、音信号処理装置及びコンピュータプログラム
KR100860830B1 (ko) 2006-12-13 2008-09-30 삼성전자주식회사 음성 신호의 스펙트럼 정보 추정 장치 및 방법
US8935158B2 (en) 2006-12-13 2015-01-13 Samsung Electronics Co., Ltd. Apparatus and method for comparing frames using spectral information of audio signal
CN101004915B (zh) * 2007-01-19 2011-04-06 清华大学 2.4kb/s SELP 低速率声码器抗信道误码保护方法
GB0703795D0 (en) * 2007-02-27 2007-04-04 Sepura Ltd Speech encoding and decoding in communications systems
JP4708446B2 (ja) 2007-03-02 2011-06-22 パナソニック株式会社 符号化装置、復号装置およびそれらの方法
BRPI0808198A8 (pt) * 2007-03-02 2017-09-12 Panasonic Corp Dispositivo de codificação e método de codificação
US7885819B2 (en) 2007-06-29 2011-02-08 Microsoft Corporation Bitstream syntax for multi-process audio decoding
JP5229234B2 (ja) * 2007-12-18 2013-07-03 富士通株式会社 非音声区間検出方法及び非音声区間検出装置
US9159325B2 (en) * 2007-12-31 2015-10-13 Adobe Systems Incorporated Pitch shifting frequencies
US20090276221A1 (en) * 2008-05-05 2009-11-05 Arie Heiman Method and System for Processing Channel B Data for AMR and/or WAMR
EP2447943A4 (en) * 2009-06-23 2013-01-09 Nippon Telegraph & Telephone ENCODING METHOD, DECODING METHOD, AND DEVICE AND PROGRAM USING THE METHODS
US8620660B2 (en) 2010-10-29 2013-12-31 The United States Of America, As Represented By The Secretary Of The Navy Very low bit rate signal coder and decoder
FR3004876A1 (fr) * 2013-04-18 2014-10-24 France Telecom Correction de perte de trame par injection de bruit pondere.
US9697843B2 (en) * 2014-04-30 2017-07-04 Qualcomm Incorporated High band excitation signal generation
CN110619881B (zh) * 2019-09-20 2022-04-15 北京百瑞互联技术有限公司 一种语音编码方法、装置及设备

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01177227A (ja) * 1988-01-05 1989-07-13 Toshiba Corp 音声コーデック
US5073940A (en) * 1989-11-24 1991-12-17 General Electric Company Method for protecting multi-pulse coders from fading and random pattern bit errors
US5097507A (en) * 1989-12-22 1992-03-17 General Electric Company Fading bit error protection for digital cellular multi-pulse speech coder

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
D.W.GRIFFIN and J.S.LIM,Multiband Excitation Vocoder,IEEE TRANSACTIONS ASSP ,米国,IEEE,1988年,VOL.36 NO.8 AUGUST,1223−1235

Also Published As

Publication number Publication date
US5473727A (en) 1995-12-05
JPH06149296A (ja) 1994-05-27

Similar Documents

Publication Publication Date Title
JP3343965B2 (ja) 音声符号化方法及び復号化方法
KR101246991B1 (ko) 오디오 신호 처리 방법
US7016831B2 (en) Voice code conversion apparatus
JP3881943B2 (ja) 音響符号化装置及び音響符号化方法
US6658378B1 (en) Decoding method and apparatus and program furnishing medium
KR100427753B1 (ko) 음성신호재생방법및장치,음성복호화방법및장치,음성합성방법및장치와휴대용무선단말장치
KR100487136B1 (ko) 음성복호화방법및장치
JP3467270B2 (ja) 音声の量子化とエラー訂正のための方法
US8359197B2 (en) Half-rate vocoder
US6161089A (en) Multi-subframe quantization of spectral parameters
US5630012A (en) Speech efficient coding method
US6081776A (en) Speech coding system and method including adaptive finite impulse response filter
EP0573398A2 (en) C.E.L.P. Vocoder
JP2003512654A (ja) 音声の可変レートコーディングのための方法およびその装置
JP4733939B2 (ja) 信号復号化装置及び信号復号化方法
US9972325B2 (en) System and method for mixed codebook excitation for speech coding
JPH11122120A (ja) 符号化方法及び装置、並びに復号化方法及び装置
JP3680374B2 (ja) 音声合成方法
US7363216B2 (en) Method and system for parametric characterization of transient audio signals
JPH10214100A (ja) 音声合成方法
JP3237178B2 (ja) 符号化方法及び復号化方法
JP3731575B2 (ja) 符号化装置及び復号装置
KR100220783B1 (ko) 음성 양자화 및 에러 보정 방법
Liu A 400-bps speech coding algorithm for real-time implementation
JPH034300A (ja) 音声符号化復号化方式

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20020730

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080830

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090830

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100830

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees