JP3218679B2 - 高能率符号化方法 - Google Patents

高能率符号化方法

Info

Publication number
JP3218679B2
JP3218679B2 JP12146292A JP12146292A JP3218679B2 JP 3218679 B2 JP3218679 B2 JP 3218679B2 JP 12146292 A JP12146292 A JP 12146292A JP 12146292 A JP12146292 A JP 12146292A JP 3218679 B2 JP3218679 B2 JP 3218679B2
Authority
JP
Japan
Prior art keywords
phase
data
pitch
band
error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP12146292A
Other languages
English (en)
Other versions
JPH05297895A (ja
Inventor
正之 西口
淳 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP12146292A priority Critical patent/JP3218679B2/ja
Publication of JPH05297895A publication Critical patent/JPH05297895A/ja
Application granted granted Critical
Publication of JP3218679B2 publication Critical patent/JP3218679B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、入力音声信号をブロッ
ク単位で区分して周波数軸に変換して得られた周波数軸
上データを符号化するような高能率符号化方法に関す
る。
【0002】
【従来の技術】音声信号の時間領域や周波数領域におけ
る統計的性質と人間の聴感上の特性を利用して信号圧縮
を行うような符号化方法が種々知られている。この符号
化方法としては、大別して時間領域での符号化、周波数
領域での符号化、分析合成符号化等が挙げられる。
【0003】音声信号等の高能率符号化の例として、M
BE(Multiband Excitation: マルチバンド励起)符号
化、SBE(Singleband Excitation:シングルバンド励
起)符号化、ハーモニクス(Harmonic) 符号化、SBC
(Sub-band Coding:帯域分割符号化) 、LPC(Linear
Predictive Coding:線形予測符号化)、あるいはDCT
(離散コサイン変換)、MDCT(モデファイドDC
T)、FFT(高速フーリエ変換)等がある。
【0004】上記MBE符号化等においては、1ブロッ
ク(フレーム)内の音声に対して帯域(バンド)を複数
に分割し、各バンド毎に有声音/無声音の判断を行って
おり、音質の向上が認められる。
【0005】
【発明が解決しようとする課題】ところで、上記MBE
符号化等においては、音声スペクトルの振幅の位相情報
を別途伝送するか又は伝送情報量を減らすため伝送せず
に合成側(復号化側)でピッチ及び過去の位相から位相
情報を予測している。この合成側での位相情報の予測
(以下、位相予測という)には、フレームの初期位相を
0或いはπ/2に固定し、分析側から伝送されてきたピ
ッチに応じてコサイン波を合成する固定位相加算が行わ
れてきた。そして、符号化側での有声音/無声音判別で
判明した無声音帯域の含有率に応じて、合成側では位相
にランダムなファクタを加算して自然感を出すようにし
ている。しかし、男声等でピッチの低い音声での強い母
音部では不自然な合成音となっていた。
【0006】本発明は、このような実情に鑑みてなされ
たものであり、合成側で不自然感のない高品質の音声を
得ることができるような高能率符号化方法の提供を目的
とす
【0007】
【課題を解決するための手段】本発明に係る高能率符号
化方法は、入力された音声信号をブロック単位で区分し
て周波数軸に変換して周波数軸上データを求める工程
と、この周波数軸上データを複数の帯域に分割する工程
と、分割された各帯域毎のブロック初期位相を検出する
工程と、上記各帯域毎に有声音か無声音かを判別する工
程と、上記各帯域毎の位相予測値を計算する工程と、上
記各帯域毎の実測位相と予測位相との誤差を算出する工
程と、上記誤差の大きさに応じて周波数軸上での有声音
領域と無声音領域の領域幅を変える工程とを有すること
を特徴として上記課題を解決する。
【0008】また、上記実測位相と予測位相とから算出
された誤差の大きさを示す情報を合成側に伝送すること
により、合成側が上記情報に応じて位相予測の修正を行
ってもよい。
【0009】ここで、この高能率符号化方法は、スペク
トル振幅の位相情報を受信側(合成側)に伝送してな
い。合成側では、符号化側から伝送されてきた過去及び
現在のピッチと過去の位相に基づいてブロック終端位相
を予測する。
【0010】
【作用】各帯域毎の実測位相と予測位相との誤差の大き
さに応じて周波数軸上での有声音領域と無声音領域の領
域幅を変えることによって、合成側で高音質の合成音を
得ることができる。また、上記誤差の大きさを示す情報
を合成側に伝送することによって、合成側で位相予測に
よる位相の修正を行い高音質の合成音を得ることができ
る。
【0011】
【実施例】以下、本発明に係る高能率符号化方法の実施
例について説明する。高能率符号化方法には、後述する
MBE(Multiband Excitation: マルチバンド励起)符
号化等のように、ブロック毎の信号を周波数軸上に変換
し、複数帯域に分割して各帯域毎にV(有声音)かUV
(無声音)かを判別するような符号化方法を用いること
ができる。
【0012】すなわち、本発明が適用される一般的な高
能率符号化方法としては、音声信号を一定サンプル数
(例えば256サンプル)毎にブロック化して、FFT
等の直交変換により周波数軸上のスペクトルデータに変
換すると共に、該ブロック内の音声のピッチを抽出し、
このピッチに応じた間隔で周波数軸上のスペクトルを帯
域分割し、分割された各帯域についてV(有声音)/U
V(無声音)の判別を行っている。このV/UV判別情
報をスペクトルの振幅データと共に符号化して伝送して
いる。
【0013】ここで、例えばMBEボコーダ等の音声合
成分析系では、音声信号の位相を合成側で予測している
が、この位相の予測の誤差(以下、位相予測誤差量)を
符号化側(分析側)で算出し、その位相予測誤差量に応
じて周波数軸上での有声音領域と無声音領域の領域幅を
変えるか、あるいは上記誤差の大きさを示す情報を合成
側に伝送し、合成側で位相予測による位相の修正を行う
ことによって高音質の合成音を得ようとするのが本実施
例である。
【0014】以下、本発明に係る高能率符号化方法を、
音声信号の合成分析符号化装置(いわゆるボコーダ)の
一種であるMBE(Multiband Excitation: マルチバン
ド励起)ボコーダに適用した具体例について、図面を参
照しながら説明する。このMBEボコーダは、D. W. Gr
iffin and J.S. Lim,"Multiband Excitation Vocoder,"
IEEE Trans.Acoustics,Speech,and Signal Processin
g, vol.36, No.8, pp.1223-1235, Aug.1988 に開示さ
れているものであり、従来のPARCOR(PARtial au
to-CORrelation: 偏自己相関)ボコーダ等では、音声の
モデル化の際に有声音区間と無声音区間とをブロックあ
るいはフレーム毎に切り換えていたのに対し、MBEボ
コーダでは、同時刻(同じブロックあるいはフレーム
内)の周波数軸領域に有声音(Voiced)区間と無声音
(Unvoiced)区間とが存在するという仮定でモデル化し
ている。
【0015】図1は、上記MBEボコーダに本発明を適
用した実施例の全体の概略構成を示すブロック図であ
る。この図1において、入力端子11には音声信号が供
給されるようになっており、この入力音声信号は、HP
F(ハイパスフィルタ)等のフィルタ12に送られて、
いわゆるDC(直流)オフセット分の除去や帯域制限
(例えば200〜3400Hzに制限)のための少なくと
も低域成分(200Hz以下)の除去が行われる。このフ
ィルタ12を介して得られた信号は、ピッチ抽出部13
及び窓かけ処理部14にそれぞれ送られる。ピッチ抽出
部13では、入力音声信号データが所定サンプル数N
(例えばN=256)単位でブロック分割され(あるい
は方形窓による切り出しが行われ)、このブロック内の
音声信号についてのピッチ抽出が行われる。このような
切り出しブロック(256サンプル)を、例えば図2の
Aに示すようにLサンプル(例えばL=160)のフレ
ーム間隔で時間軸方向に移動させており、各ブロック間
のオーバラップはN−Lサンプル(例えば96サンプ
ル)となっている。また、窓かけ処理部14では、1ブ
ロックNサンプルに対して所定の窓関数、例えばハミン
グ窓をかけ、この窓かけブロックを1フレームLサンプ
ルの間隔で時間軸方向に順次移動させている。
【0016】このような窓かけ処理を数式で表すと、 xw (k,q) =x(q) w(kL-q) ・・・(1) となる。この(1)式において、kはブロック番号を、
qはデータの時間インデックス(サンプル番号)を表
し、処理前の入力信号のq番目のデータx(q) に対して
第kブロックの窓(ウィンドウ)関数w(kL-q)により窓
かけ処理されることによりデータxw (k,q) が得られる
ことを示している。ピッチ抽出部13内での図2のAに
示すような方形窓の場合の窓関数wr (r) は、 wr (r) =1 0≦r<N ・・・(2) =0 r<0,N≦r また、窓かけ処理部14での図2のBに示すようなハミ
ング窓の場合の窓関数wh (r) は、 wh (r) = 0.54 − 0.46 cos(2πr/(N-1)) 0≦r<N ・・・(3) =0 r<0,N≦r である。このような窓関数wr (r) あるいはwh (r) を
用いるときの上記(1)式の窓関数w(r) (=w(kL-
q))の否零区間は、 0≦kL−q<N これを変形して、 kL−N<q≦kL 従って、例えば上記方形窓の場合に窓関数wr (kL-q)=
1となるのは、図3に示すように、kL−N<q≦kL
のときとなる。また、上記(1)〜(3)式は、長さN
(=256)サンプルの窓が、L(=160)サンプル
ずつ前進してゆくことを示している。以下、上記(2)
式、(3)式の各窓関数で切り出された各N点(0≦r
<N)の否零サンプル列を、それぞれxwr(k,r) 、xwh
(k,r) と表すことにする。
【0017】窓かけ処理部14では、図4に示すよう
に、上記(3)式のハミング窓がかけられた1ブロック
256サンプルのサンプル列xwh(k,r) に対して179
2サンプル分の0データが付加されて(いわゆる0詰め
されて)2048サンプルとされ、この2048サンプ
ルの時間軸データ列に対して、直交変換部105により
例えばFFT(高速フーリエ変換)等の直交変換処理が
施される。
【0018】ピッチ抽出部13では、上記xwr(k,r) の
サンプル列(1ブロックNサンプル)に基づいてピッチ
抽出が行われる。このピッチ抽出法には、時間波形の周
期性や、スペクトルの周期的周波数構造や、自己相関関
数を用いるもの等が知られているが、本実施例では、セ
ンタクリップ波形の自己相関法を採用している。このと
きのブロック内でのセンタクリップレベルについては、
1ブロックにつき1つのクリップレベルを設定してもよ
いが、ブロックを細分割した各部(各サブブロック)の
信号のピークレベル等を検出し、これらの各サブブロッ
クのピークレベル等の差が大きいときに、ブロック内で
クリップレベルを段階的にあるいは連続的に変化させる
ようにしている。このセンタクリップ波形の自己相関デ
ータのピーク位置に基づいてピッチ周期を決めている。
このとき、現在フレームに属する自己相関データ(自己
相関は1ブロックNサンプルのデータを対象として求め
られる)から複数のピークを求めておき、これらの複数
のピークの内の最大ピークが所定の閾値以上のときには
該最大ピーク位置をピッチ周期とし、それ以外のときに
は、現在フレーム以外のフレーム、例えば前後のフレー
ムで求められたピッチに対して所定の関係を満たすピッ
チ範囲内、例えば前フレームのピッチを中心として±2
0%の範囲内にあるピークを求め、このピーク位置に基
づいて現在フレームのピッチを決定するようにしてい
る。このピッチ抽出部13ではオープンループによる比
較的ラフなピッチのサーチが行われ、抽出されたピッチ
データは高精度(ファイン)ピッチサーチ部16に送ら
れて、クローズドループによる高精度のピッチサーチ
(ピッチのファインサーチ)が行われる。
【0019】高精度(ファイン)ピッチサーチ部16に
は、ピッチ抽出部13で抽出された整数(インテジャ
ー)値の粗(ラフ)ピッチデータと、直交変換部15に
より例えばFFTされた周波数軸上のデータとが供給さ
れている。この高精度ピッチサーチ部16では、上記粗
ピッチデータ値を中心に、0.2〜0.5きざみで±数サン
プルずつ振って、最適な小数点付き(フローティング)
のファインピッチデータの値へ追い込む。このときのフ
ァインサーチの手法として、いわゆる合成による分析
(Analysis by Synthesis)法を用い、合成されたパワー
スペクトルが原音のパワースペクトルに最も近くなるよ
うにピッチを選んでいる。
【0020】このピッチのファインサーチについて説明
する。先ず、上記MBEボコーダにおいては、上記FF
T等により直交変換された周波数軸上のスペクトルデー
タとしてのS(j) を S(j) =H(j) |E(j) | 0<j<J ・・・(4) と表現するようなモデルを想定している。ここで、Jは
ω s /4π=fs /2に対応し、サンプリング周波数f
s ω s /2πが例えば8kHzのときには4kHzに対応
する。上記(4)式中において、周波数軸上のスペクト
ルデータS(j) が図5のAに示すような波形のとき、H
(j) は、図5のBに示すような元のスペクトルデータS
(j) のスペクトル包絡線(エンベロープ)を示し、E
(j) は、図5のCに示すような等レベルで周期的な励起
信号(エキサイテイション)のスペクトルを示してい
る。すなわち、FFTスペクトルS(j) は、スペクトル
エンベロープH(j) と励起信号のパワースペクトル|E
(j) |との積としてモデル化される。
【0021】上記励起信号のパワースペクトル|E(j)
|は、上記ピッチに応じて決定される周波数軸上の波形
の周期性(ピッチ構造)を考慮して、1つの帯域(バン
ド)の波形に相当するスペクトル波形を周波数軸上の各
バンド毎に繰り返すように配列することにより形成され
る。この1バンド分の波形は、例えば上記図4に示すよ
うな256サンプルのハミング窓関数に1792サンプ
ル分の0データを付加(0詰め)した波形を時間軸信号
と見なしてFFTし、得られた周波数軸上のある帯域幅
を持つインパルス波形を上記ピッチに応じて切り出すこ
とにより形成することができる。
【0022】次に、上記ピッチに応じて分割された各バ
ンド毎に、上記H(j) を代表させるような(各バンド毎
のエラーを最小化するような)値(一種の振幅)|Am
|を求める。ここで、例えば第mバンド(第m高調波の
帯域)の下限、上限の点をそれぞれam 、bm とすると
き、この第mバンドのエラーεm は、
【0023】
【数1】
【0024】で表せる。このエラーεm を最小化するよ
うな|Am |は、
【0025】
【数2】
【0026】となり、この(6)式の|Am |のとき、
エラーεm を最小化する。このような振幅|Am |を各
バンド毎に求め、得られた各振幅|Am |を用いて上記
(5)式で定義された各バンド毎のエラーεm を求め
る。次に、このような各バンド毎のエラーεm の全バン
ドの総和値Σεm を求める。さらに、このような全バン
ドのエラー総和値Σεm を、いくつかの微小に異なるピ
ッチについて求め、エラー総和値Σεm が最小となるよ
うなピッチを求める。
【0027】すなわち、上記ピッチ抽出部13で求めら
れたラフピッチを中心として、例えば 0.25 きざみで上
下に数種類ずつ用意する。これらの複数種類の微小に異
なるピッチの各ピッチに対してそれぞれ上記エラー総和
値Σεm を求める。この場合、ピッチが定まるとバンド
幅が決まり、上記(6)式より、周波数軸上データのパ
ワースペクトル|S(j) |と励起信号スペクトル|E
(j) |とを用いて上記(5)式のエラーεm を求め、そ
の全バンドの総和値Σεm を求めることができる。この
エラー総和値Σεm を各ピッチ毎に求め、最小となるエ
ラー総和値に対応するピッチを最適のピッチとして決定
するわけである。以上のようにして高精度ピッチサーチ
部16で最適のファイン(例えば 0.25 きざみ)ピッチ
が求められ、この最適ピッチに対応する振幅|Am |が
決定される。
【0028】以上ピッチのファインサーチの説明におい
ては、説明を簡略化するために、全バンドが有声音(Vo
iced)の場合を想定しているが、上述したようにMBE
ボコーダにおいては、同時刻の周波数軸上に無声音(Un
voiced)領域が存在するというモデルを採用しているこ
とから、上記各バンド毎に有声音/無声音の判別を行う
ことが必要とされる。
【0029】上記高精度ピッチサーチ部16からの最適
ピッチ及び振幅|Am |のデータは、有声音/無声音判
別部17に送られ、上記各バンド毎に有声音/無声音の
判別が行われる。この判別のために、NSR(ノイズt
oシグナル比)を利用する。すなわち、第mバンドのN
SRは、
【0030】
【数3】
【0031】と表せ、このNSR値が所定の閾値(例え
ば0.3)より大のとき(エラーが大きい)ときには、そ
のバンドでの|Am ||E(j) |による|S(j) |の近
似が良くない(上記励起信号|E(j) |が基底として不
適当である)と判断でき、当該バンドをUV(Unvoice
d、無声音)と判別する。これ以外のときは、近似があ
る程度良好に行われていると判断でき、そのバンドをV
(Voiced、有声音)と判別する。
【0032】次に、振幅再評価部18には、直交変換部
15からの周波数軸上データ、高精度ピッチサーチ部1
6からのファインピッチと評価された振幅|Am |との
各データ、及び上記有声音/無声音判別部17からのV
/UV(有声音/無声音)判別データが供給されてい
る。この振幅再評価部18では、有声音/無声音判別部
17において無声音(UV)と判別されたバンドに関し
て、再度振幅を求めている。このUVのバンドについて
の振幅|Am UVは、
【0033】
【数4】
【0034】にて求められる。
【0035】また、上記直交変換部15からの周波数軸
上データ、高精度ピッチサーチ部16からのファインピ
ッチと評価された振幅|Am |との各データは、位相評
価部19にも供給される。この位相評価部19は、上記
各データから有声音のバンドの位相を求める。ここで例
えば第mバンド(第m高調波の帯域)の下限、上限の点
をそれぞれam 、bm とするとき、この第mバンドのエ
ラーεcmは、
【0036】
【数5】
【0037】で表せる。ここで、S(i)、Am 及びE
(i)は、共に複素数であり、各々極座標形式で書き直
すと以下の(10)式で示される。
【0038】
【数6】
【0039】つまり、上記第mバンドのエラーεcmは、
上記(10)式より、
【0040】
【数7】
【0041】と書き直せる。そして、この(11)式を
最小化すると、
【0042】
【数8】
【0043】となる。この(12)式を整理すると、
【0044】
【数9】
【0045】が得られる。したがって、上記(9)式の
評価関数を最適化する位相φm は、
【0046】
【数10】
【0047】となる。
【0048】この位相評価部19からの位相(実測値)
は、位相予測算出&誤差評価部20に供給される。この
位相予測検出&誤差評価部20は、合成側で行われる位
相予測を行うことができる。すなわち、高精度ピッチサ
ーチ部16からのファインピッチと評価された振幅|A
m |を基に位相を予測する。そして、上記位相評価部1
9からの位相と予測位相との誤差を求める。
【0049】この位相予測算出&誤差評価部20での位
相予測の算出と予測誤差の評価について説明する。合成
側では、時刻0(フレームの先頭)に於ける第m高調波
の位相(フレーム初期位相)をψ0mとすると、フレーム
の最後での位相ψLmを、 ψLm=mod2π(ψ0m+m(ω01+ωL1) L/2) ・・・(15) と予測する。この(15)式でmod2π(x)とは、xの主
値を−π〜+πの間で返す関数である。例えば、x=1.
3 πのときmod2π(x)=−0.7 π、x=2.3 πのとき
mod2π(x)=0.3 π、x=−1.3 πのときmod2π
(x)=0.7 π、等である。また、Lはフレームインタ
ーバル、ω01は、合成フレームの先端(n=0)での基
本角周波数、ωL1は該合成フレームの終端(n=L:次
の合成フレーム先端)での基本角周波数である。
【0050】上記(15)式によって求めたψLmには、予
測誤差を含んでいる。そこで、符号化側で、上記位相評
価部19の実測位相から上記(15)式によって求めた予
測位相の差を検出し、予測の精度を推定する。これが上
記位相予測算出&誤差評価部20である。
【0051】上記(14)式により、求められた実測位相
φlmは、 φlm=mod2π(φ0m+m(ω01+ωL1) L/2)+εm ・・・(16) と表せる。ここで、φ0mは、第m高調波の実測位相であ
り、εm は実測位相と予測位相の誤差である。したがっ
て、該誤差εm からm(ω01+ωL1) L/2による位相
の変位分の予測精度の判定ができる。すなわち、 εm =mod2π(φlm−mod2π(φ0m+m(ω01+ωL1) L/2)) =mod2π(φlm−φ0m−m(ω01+ωL1) L/2) ・・・(17) となる。このεm は、各帯域毎(mバンド)に求められ
る。
【0052】次に、上記誤差εm に関し分散σ2 をm=
m からbm の範囲で求める。先ず、上記誤差εm のa
m からbm までの平均εを、
【0053】
【数11】
【0054】により求める。ここで、am =M/4、b
m =Mであり、Mはπまでのハーモニクス(高調波)の
数である。また、Mはピッチの角周波数をω0 (= 2πf/
fs :fはピッチ周波数、 fs はサンプル周波数)とし
たときの、π/ω0 に最も近い整数である。
【0055】したがって、上記分散σ2 は、
【0056】
【数12】
【0057】により求められる。この分散σ2 が大きい
とき、すなわち、図6のAに示すようなときは、位相予
測が全般的にはずれていることを意味する。一方、この
分散σ2 が小さいとき、すなわち、図6のBに示すよう
なときは、位相予測がかなり正確であることを意味す
る。
【0058】上記振幅再評価部18、上記位相評価部1
9及び高精度ピッチサーチ部16からの各データは、デ
ータ数変換(一種のサンプリングレート変換)部21に
送られる。このデータ数変換部21は、上記ピッチに応
じて周波数軸上での分割帯域数が異なり、データ数(特
に振幅データの数)が異なることを考慮して、一定の個
数にするためのものである。すなわち、例えば有効帯域
を3400Hzまでとすると、この有効帯域が上記ピッチ
に応じて、8バンド〜63バンドに分割されることにな
り、これらの各バンド毎に得られる上記振幅|Am |
(UVバンドの振幅|Am UVも含む)データの個数m
MX+1も8〜63と変化することになる。このためデー
タ数変換部21では、この可変個数mMX+1の振幅デー
タを一定個数NC (例えば44個)のデータに変換して
いる。
【0059】ここで本実施例においては、周波数軸上の
有効帯域1ブロック分の振幅データに対して、ブロック
内の最後のデータからブロック内の最初のデータまでの
値を補間するようなダミーデータを付加してデータ個数
をNF 個に拡大した後、帯域制限型のKOS倍(例えば8
倍)のオーバーサンプリングを施すことによりKOS倍の
個数の振幅データを求め、このKOS倍の個数((mMX
1) ×KOS個)の振幅データを直線補間してさらに多く
のNM 個(例えば2048個)に拡張し、このNM 個の
データを間引いて上記一定個数NC (例えば44個)の
データに変換する。
【0060】このデータ数変換部21からのデータ(上
記一定個数NC の振幅データ)がベクトル量子化部22
に送られて、所定個数のデータ毎にまとめられてベクト
ルとされ、ベクトル量子化が施される。ベクトル量子化
部22からの量子化出力データは、出力端子25を介し
て取り出される。また、上記高精度のピッチサーチ部1
6からの高精度(ファイン)ピッチデータは、ピッチ符
号化部23で符号化され、出力端子27を介して取り出
される。ここで、上記位相予測算出&誤差評価部20か
らの予測誤差は、切換部24の可動接片24aに供給さ
れ、該可動接片24aが固定接点24bに接触されると
該予測誤差の大きさを示す情報(分散σ2)は、上記有声
音/無声音判別部17に供給される。すると、上記有声
音/無声音判別部17では、所定の閾値と分散σ2 を比
較し、分散σ2 が大きかったら図7のAに示すようなV
のバンド幅を図7のBに示すように縮小させて、UVの
バンド幅を拡張する。このような、上記有声音/無声音
判別部17からの有声音/無声音(V/UV)判別デー
タは、出力端子26を介して取り出される。一方、上記
可動接片24aが固定接点24cに接触されると該予測
誤差の大きさを示す情報(分散σ2)は、出力端子28を
介して取り出される。
【0061】なお、これらの各データは、上記Nサンプ
ル(例えば256サンプル)のブロック内のデータに対
して処理を施すことにより得られるものであるが、ブロ
ックは時間軸上を上記Lサンプルのフレームを単位とし
て前進することから、伝送するデータは上記フレーム単
位で得られる。すなわち、上記フレーム周期でピッチデ
ータ、V/UV判別データ、振幅データ及び予測誤差の
大きさを示す情報が更新されることになる。
【0062】次に、伝送されて得られた上記各データに
基づき音声信号を合成するための合成側(デコード側)
の概略構成について、図8を参照しながら説明する。こ
の図8において、入力端子31には上記ベクトル量子化
された振幅データが、入力端子32には上記符号化され
たピッチデータが、入力端子33には上記V/UV判別
データが、また、入力端子34には上記予測誤差の大き
さを示す情報がそれぞれ供給される。入力端子31から
の量子化振幅データは、逆ベクトル量子化部35に送ら
れて逆量子化され、データ数逆変換部36に送られて逆
変換され、得られた振幅データが有声音合成部37及び
無声音合成部38に送られる。入力端子32からの符号
化ピッチデータは、ピッチ復号化部39で復号化され、
データ数逆変換部36、有声音合成部37、無声音合成
部38及び位相修正部40に送られる。また入力端子3
3からのV/UV判別データは、有声音合成部37及び
無声音合成部38に送られる。また、入力端子34から
の予測誤差の大きさを示す情報は、位相修正部40に送
られる。
【0063】有声音合成部37では例えば余弦(cosine)
波合成により時間軸上の有声音波形を合成し、無声音合
成部38では例えばホワイトノイズをバンドパスフィル
タでフィルタリングして時間軸上の無声音波形を合成
し、これらの各有声音合成波形と無声音合成波形とを加
算部41で加算合成して、出力端子42より取り出すよ
うにしている。
【0064】ここで、上記位相修正部40では、上記予
測誤差の大きさを示す情報と上記ピッチ復号化部39か
らの復号化ピッチデータに基づいて、位相予測の位相修
正を行う。すなわち、合成側での、第m高調波のフレー
ムの最後での位相ΦLmを、上記(15)式で示されたψLm
を用いて、 ΦLm=ψLm+Sc dp ・・・(20) より求める。ここで、Sc はスケール値を示し、Rdp
2πf(m、M)×(ガウシアン乱数)である。また、
f(m、M)は周波数に応じてσ値を変えるための関数
である。上記Rdpが±πの範囲を越える時は、±πをク
リッピングレベルにして、Rdpをクリップする。具体的
には、上記(20)式のスケール値Sc を例えば0.2 と0.
7 にし、分析側から伝送されてくる予測誤差の大きさを
示すフラグが、分散σ 2 がある閾値よりも大きい事を示
す時には、0.7 をスケール値として用い、位相修正を行
う。そして、この位相修正部40で修正された位相が上
記有声音合成部37に供給される。
【0065】以下、有声音合成部37における合成処理
を詳細に説明する。上記V(有声音)と判別された第m
バンド(第m高調波の帯域)における時間軸上の上記1
合成フレーム(Lサンプル、例えば160サンプル)分
の有声音をVm (n) とするとき、この合成フレーム内の
時間インデックス(サンプル番号)nを用いて、 Vm (n) =Am (n) cos(θm (n)) 0≦n<L ・・・(21) と表すことができる。全バンドの内のV(有声音)と判
別された全てのバンドの有声音を加算(ΣVm (n) )し
て最終的な有声音V(n) を合成する。
【0066】この(21)式中のAm (n) は、上記合成フ
レームの先端から終端までの間で補間された第m高調波
の振幅である。最も簡単には、フレーム単位で更新され
る振幅データの第m高調波の値を直線補間すればよい。
すなわち、上記合成フレームの先端(n=0)での第m
高調波の振幅値をA0m、該合成フレームの終端(n=
L:次の合成フレームの先端)での第m高調波の振幅値
をALmとするとき、 Am (n) = (L-n)A0m/L+nALm/L ・・・(22) の式によりAm (n) を計算すればよい。
【0067】ここで、図9のAは、音声信号のスペクト
ルの一例を示しており、バンド番号(ハーモニクスナン
バ)mが8、9、10の各バンドがUV(無声音)とさ
れ、他のバンドはV(有声音)とされている。このV
(有声音)のバンドの時間軸信号が上記有声音合成部3
7により合成され、UV(無声音)のバンドの時間軸信
号が無声音合成部38で合成されるわけである。
【0068】以下、無声音合成部38における無声音合
成処理を説明する。ホワイトノイズ発生部51からの時
間軸上のホワイトノイズ信号波形を、所定の長さ(例え
ば256サンプル)で適当な窓関数(例えばハミング
窓)により窓かけをし、STFT処理部52によりST
FT(ショートタームフーリエ変換)処理を施すことに
より、図9のBに示すようなホワイトノイズの周波数軸
上のパワースペクトルを得る。このSTFT処理部52
からのパワースペクトルをバンド振幅処理部53に送
り、図9のCに示すように、上記UV(無声音)とされ
たバンド(例えばm=8、9、10)について上記振幅
|Am UVを乗算し、他のV(有声音)とされたバンド
の振幅を0にする。このバンド振幅処理部53には上記
振幅データ、ピッチデータ、V/UV判別データが供給
されている。バンド振幅処理部53からの出力は、IS
TFT処理部54に送られ、位相は元のホワイトノイズ
の位相を用いて逆STFT処理を施すことにより時間軸
上の信号に変換する。ISTFT処理部54からの出力
は、オーバーラップ加算部55に送られ、時間軸上で適
当な(元の連続的なノイズ波形を復元できるように)重
み付けをしながらオーバーラップ及び加算を繰り返し、
連続的な時間軸波形を合成する。オーバーラップ加算部
55からの出力信号が上記加算部41に送られる。
【0069】このように、各合成部37、38において
合成されて時間軸上に戻された有声音部及び無声音部の
各信号は、加算部41により適当な固定の混合比で加算
して、出力端子42より再生された音声信号を取り出
す。
【0070】したがって、本発明に係る高能率符号化方
法の実施例は、合成側での位相予測の精度を分析側で算
出し、その程度に応じて、無声音帯域の数を増やすかあ
るいは合成側での位相のランダマイズファクタを制御す
る。
【0071】なお、上記図1の音声分析側(エンコード
側)の構成や図8の音声合成側(デコード側)の構成に
ついては、各部をハードウェア的に記載しているが、い
わゆるDSP(ディジタル信号プロセッサ)等を用いて
ソフトウェアプログラムにより実現することも可能であ
る。
【0072】
【発明の効果】本発明に係る高能率符号化方法は、各帯
域毎の実測位相と予測位相との誤差の大きさに応じて周
波数軸上での有声音領域と無声音領域の領域幅を変える
ことができる。また、上記誤差の大きさを示す情報を合
成側に伝送することによって合成側で位相の修正を行
う。したがって、合成側で高音質の再生音を得ることが
できる。
【図面の簡単な説明】
【図1】本発明に係る高能率符号化方法が適用される装
置の具体例としての音声信号の合成分析符号化装置の分
析側(エンコード側)の概略構成を示す機能ブロック図
である。
【図2】窓かけ処理を説明するための図である。
【図3】窓かけ処理と窓関数との関係を説明するための
図である。
【図4】直交変換(FFT)処理対象としての時間軸デ
ータを示す図である。
【図5】周波数軸上のスペクトルデータと、スペクトル
包絡線(エンベロープ)及び励起信号のパワースペクト
ルを示す図である。
【図6】位相予測の精度を説明するための波形図であ
る。
【図7】UVバンドの拡張を説明するための図である。
【図8】本発明に係る高能率符号化方法が適用される装
置の具体例としての音声信号の合成分析符号化装置の合
成側(デコード側)の概略構成を示す機能ブロック図で
ある。
【図9】音声信号を合成する際の無声音合成を説明する
ための図である。
【符号の説明】
13・・・・・ピッチ抽出部 14・・・・・窓かけ処理部 15・・・・・直交変換(FFT)部 16・・・・・高精度(ファイン)ピッチサーチ部 17・・・・・有声音(V)/無声音(UV)判別部 18・・・・・振幅再評価部 19・・・・・位相評価部 20・・・・・位相予測&誤差評価部 21・・・・・データ数変換(データレートコンバー
ト)部 22・・・・・ベクトル量子化部
フロントページの続き (56)参考文献 特開 昭63−273898(JP,A) 特開 平3−259200(JP,A) 特開 平2−280200(JP,A) 特開 平2−282800(JP,A) 特開 平2−84700(JP,A) 特開 平3−53300(JP,A) 特開 平2−7100(JP,A) (58)調査した分野(Int.Cl.7,DB名) G10L 19/02 G10L 19/00

Claims (2)

    (57)【特許請求の範囲】
  1. 【請求項1】 高能率符号化方法において、 入力された音声信号をブロック単位で区分して周波数軸
    に変換して周波数軸上データを求める工程と、 この周波数軸上データを複数の帯域に分割する工程と、 分割された各帯域毎のブロック初期位相を検出する工程
    と、 上記各帯域毎に有声音か無声音かを判別する工程と、 上記各帯域毎の位相予測値を計算する工程と、 上記各帯域毎の実測位相と予測位相との誤差を算出する
    工程と、 上記誤差の大きさに応じて周波数軸上での有声音領域と
    無声音領域の領域幅を変える工程とを有することを特徴
    とする高能率符号化方法。
  2. 【請求項2】 高能率符号化方法において、 入力された音声信号をブロック単位で区分して周波数軸
    に変換して周波数軸上データを求める工程と、 この周波数軸上データを複数の帯域に分割する工程と、 分割された各帯域毎のブロック初期位相を検出する工程
    と、 上記各帯域毎に有声音か無声音かを判別する工程と、 上記各帯域毎の位相予測値を計算する工程と、 上記各帯域毎の実測位相と予測位相との誤差を算出する
    工程と、 上記誤差の大きさを示す情報を伝送する工程と、 上記情報に応じて位相予測の位相修正を行う工程とを有
    することを特徴とする高能率符号化方法。
JP12146292A 1992-04-15 1992-04-15 高能率符号化方法 Expired - Fee Related JP3218679B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP12146292A JP3218679B2 (ja) 1992-04-15 1992-04-15 高能率符号化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP12146292A JP3218679B2 (ja) 1992-04-15 1992-04-15 高能率符号化方法

Publications (2)

Publication Number Publication Date
JPH05297895A JPH05297895A (ja) 1993-11-12
JP3218679B2 true JP3218679B2 (ja) 2001-10-15

Family

ID=14811739

Family Applications (1)

Application Number Title Priority Date Filing Date
JP12146292A Expired - Fee Related JP3218679B2 (ja) 1992-04-15 1992-04-15 高能率符号化方法

Country Status (1)

Country Link
JP (1) JP3218679B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5701390A (en) * 1995-02-22 1997-12-23 Digital Voice Systems, Inc. Synthesis of MBE-based coded speech using regenerated phase information
JP3680374B2 (ja) * 1995-09-28 2005-08-10 ソニー株式会社 音声合成方法
JP2778567B2 (ja) * 1995-12-23 1998-07-23 日本電気株式会社 信号符号化装置及び方法
JP3157116B2 (ja) * 1996-03-29 2001-04-16 三菱電機株式会社 音声符号化伝送システム
KR100416754B1 (ko) * 1997-06-20 2005-05-24 삼성전자주식회사 다중 밴드 여기 음성 부호화기에서 매개변수 추정 장치 및 방법
SE0004187D0 (sv) * 2000-11-15 2000-11-15 Coding Technologies Sweden Ab Enhancing the performance of coding systems that use high frequency reconstruction methods
JP4031813B2 (ja) 2004-12-27 2008-01-09 株式会社ピー・ソフトハウス オーディオ信号処理装置、オーディオ信号処理方法およびその方法をコンピュータに実行させるプログラム

Also Published As

Publication number Publication date
JPH05297895A (ja) 1993-11-12

Similar Documents

Publication Publication Date Title
JP3277398B2 (ja) 有声音判別方法
JP3475446B2 (ja) 符号化方法
US5787387A (en) Harmonic adaptive speech coding method and system
JPH0869299A (ja) 音声符号化方法、音声復号化方法及び音声符号化復号化方法
JP3680374B2 (ja) 音声合成方法
JPH11510274A (ja) 線スペクトル平方根を発生し符号化するための方法と装置
JP3218679B2 (ja) 高能率符号化方法
JP3297749B2 (ja) 符号化方法
JP3237178B2 (ja) 符号化方法及び復号化方法
JP3297751B2 (ja) データ数変換方法、符号化装置及び復号化装置
US6115685A (en) Phase detection apparatus and method, and audio coding apparatus and method
JP3362471B2 (ja) 音声信号の符号化方法及び復号化方法
JP3321933B2 (ja) ピッチ検出方法
JP3271193B2 (ja) 音声符号化方法
JP3218680B2 (ja) 有声音合成方法
JP3398968B2 (ja) 音声分析合成方法
JP3218681B2 (ja) 背景雑音検出方法及び高能率符号化方法
JP3297750B2 (ja) 符号化方法
JP3731575B2 (ja) 符号化装置及び復号装置
JPH0651800A (ja) データ数変換方法
JP3223564B2 (ja) ピッチ抽出方法
JP3221050B2 (ja) 有声音判別方法
JPH06202695A (ja) 音声信号処理装置
JP3440500B2 (ja) デコーダ
JPH05265489A (ja) ピッチ抽出方法

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20010710

LAPS Cancellation because of no payment of annual fees