JP3475446B2 - 符号化方法 - Google Patents

符号化方法

Info

Publication number
JP3475446B2
JP3475446B2 JP18532493A JP18532493A JP3475446B2 JP 3475446 B2 JP3475446 B2 JP 3475446B2 JP 18532493 A JP18532493 A JP 18532493A JP 18532493 A JP18532493 A JP 18532493A JP 3475446 B2 JP3475446 B2 JP 3475446B2
Authority
JP
Japan
Prior art keywords
sound
band
voiced
unvoiced
voiced sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP18532493A
Other languages
English (en)
Other versions
JPH0744193A (ja
Inventor
正之 西口
淳 松本
ジョセフ チャン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP18532493A priority Critical patent/JP3475446B2/ja
Priority to US08/280,617 priority patent/US5630012A/en
Priority to DE69425935T priority patent/DE69425935T2/de
Priority to EP94111721A priority patent/EP0640952B1/en
Publication of JPH0744193A publication Critical patent/JPH0744193A/ja
Application granted granted Critical
Publication of JP3475446B2 publication Critical patent/JP3475446B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/93Discriminating between voiced and unvoiced parts of speech signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、入力音声信号をブロッ
ク単位で区分して、区分されたブロックを単位として符
号化処理を行うような符号化方法に関する。
【0002】
【従来の技術】オーディオ信号(音声信号や音響信号を
含む)の時間領域や周波数領域における統計的性質と人
間の聴感上の特性を利用して信号圧縮を行うような符号
化方法が種々知られている。この符号化方法としては、
大別して時間領域での符号化、周波数領域での符号化、
分析合成符号化等が挙げられる。
【0003】音声信号等の高能率符号化の例として、M
BE(Multiband Excitation: マルチバンド励起)符号
化、SBE(Singleband Excitation:シングルバンド励
起)符号化、ハーモニック(Harmonic)符号化、SBC
(Sub-band Coding:帯域分割符号化)、LPC(Linear
Predictive Coding: 線形予測符号化)、あるいはDC
T(離散コサイン変換)、MDCT(モデファイドDC
T)、FFT(高速フーリエ変換)等において、スペク
トル振幅やそのパラメータ(LSPパラメータ、αパラ
メータ、kパラメータ等)のような各種情報データを量
子化する場合に、従来においてはスカラ量子化を行うこ
とが多い。
【0004】PARCOR法等の音声分析・合成系で
は、励振源を切り換えるタイミングは時間軸上のブロッ
ク(フレーム)毎であるため、同一フレーム内では有声
音と無声音とを混在させることができず、結果として高
品質な音声は得られなかった。
【0005】これに対して、上記MBE符号化において
は、1ブロック(フレーム)内の音声に対して、周波数
スペクトルの各ハーモニクス(高調波)や2〜3ハーモ
ニクスをひとまとめにした各バンド(帯域)毎に、又は
固定の帯域幅(例えば300〜400Hz)で分割された
各バンド毎に、そのバンド中のスペクトル形状に基づい
て有声音/無声音判別(V/UV判別)を行っているた
め、音質の向上が認められる。この各バンド毎のV/U
V判別は、主としてバンド内のスペクトルがいかに強く
ハーモニクス構造を有しているかに応じて行っている。
【0006】
【発明が解決しようとする課題】ところで、例えばピッ
チが1ブロック(例えば256サンプル)内で急激に変
化すると、そのスペクトル構造に、例えば図10に示す
ように特に中〜高域でいわゆる「ぼけ」が生じてしまう
ことがある。また、図11に示すように、ハーモニクス
が必ずしも基本周期の整数倍に存在しない場合や、ピッ
チの検出精度が不足しているような場合がある。このよ
うな状況において、従来の方法で各バンド毎のV/UV
を判別法すると、このV/UV判定の際のスペクトルマ
ッチング、すなわち各バンド又はハーモニクス毎の入力
信号スペクトルと合成スペクトルとの間のマッチングに
不具合を生じ、本来V(有声音)と判別されるべきバン
ド又はハーモニクスがUV(無声音)と判別されること
がある。すなわち、図10や図11に示す場合に、低域
側のみV(有声音)となり、中〜高域はUV(無声音)
の判定となってしまう。その結果、合成音がいわゆるノ
イジーな(ノイズっぽい)ものとなることがある。
【0007】また、ブロック内の信号全体に対して有声
音/無声音判別(V/UV判別)を行う場合にも、同様
な不具合が生じることがある。本発明は、このような実
情に鑑みてなされたものであり、ピッチ変化の激しいと
きやピッチ検出精度がとれない場合でも、バンド(帯
域)毎のあるいはブロック内の全信号についての有声音
/無声音の判別が有効に行い得るような高能率音声符号
化方法の提供を目的とする。
【0008】本発明は、このような実情に鑑みてなされ
たものであり、ピッチ変化の激しいときやピッチ検出精
度がとれない場合でも、バンド(帯域)毎のあるいはブ
ロック内の全信号についての有声音/無声音の判別が有
効に行い得るような符号化方法の提供を目的とするもの
である。
【0009】
【課題を解決するための手段】本発明に係る符号化方法
は、入力音声信号を時間軸上でブロック単位で区分する
工程と、この区分された各ブロックの信号毎に複数の帯
域に分割する工程と、分割された各帯域毎に有声音か無
声音かを判別する工程と、低域側の所定の帯域が有声音
と判別された場合に、高域側の帯域の判別結果を無声音
から有声音に変更して最終的な有声音/無声音の判別結
果を得る工程とを有することにより、上述の課題を解決
する。
【0010】また、低域側の第1の周波数(例えば50
0〜700Hz)以下の帯域がV(有声音)と判別された
ときは、その判別結果を高域側に拡張し、第2の周波数
(例えば3300Hz)までの帯域を強制的に有声音とす
ることが考えられる。さらに、このような低域側での有
声音判別結果の高域側への拡張は、入力信号レベルが所
定の閾値以上の場合に限り、あるいは入力信号のゼロク
ロスレート(ゼロクロスの数)が所定値以下の場合に限
り、行わせるようにすることが考えられる。
【0011】さらに、上記低域側の判別結果の高域側へ
の拡張を行うに先だって、V/UV判別帯域を一定個数
B に縮退させたNB 個の帯域毎判別結果から成るパタ
ーンとし、この縮退パターンを、低域側をV、高域側を
UVとするV/UVの変化点を少なくとも1箇所とする
ようなV/UVの判別結果パターンに変換しておくこと
が好ましい。この変換の方法としては、上記縮退V/U
VパターンをNB 次元ベクトルとし、V/UVの変化点
が少なくとも1箇所の代表的ないくつかのV/UVパタ
ーンをNB 次元の代表ベクトルとして予め用意してお
き、ハミング距離の最も近い代表ベクトルを選択するこ
とが挙げられる。また、V/UVの判別結果パターン中
のVとされた帯域の内の最も高い帯域以下をV領域、こ
の帯域よりも高い部分をUV領域として、V/UVの変
化点が1箇所以下のパターンに変換するようにしてもよ
い。
【0012】他の特徴として、入力音声信号をブロック
単位で区分して符号化処理を施す高能率音声符号化方法
において、上記各ブロック毎に、低域側のスペクトル構
造に基づいて有声音か無声音かの判別を行うことが挙げ
られる。
【0013】
【作用】低域側、例えば500〜700Hz以下のハーモ
ニクス構造の安定した帯域での有声音/無声音(V/U
V)の判別結果を中域〜高域のV/UV判別の助けとし
て使用することで、ピッチ変化の激しいとき、又はハー
モニクス構造が正確に基本周期の整数倍とならない場合
でも、安定した有声音(V)の判別が可能となる。
【0014】
【実施例】以下、本発明に係る高能率音声符号化方法の
実施例について説明する。
【0015】
【実施例】以下、本発明に係る符号化方法の実施例につ
いて説明する。この符号化方法には、後述するMBE
(Multiband Excitation:マルチバンド励起)符号化等
のように、ブロック毎の信号を周波数軸上に変換し、複
数帯域に分割して各帯域毎にV(有声音)かUV(無声
音)かを判別するような符号化方法を用いることができ
る。
【0016】すなわち、本発明が適用される一般的な高
能率音声符号化方法としては、音声信号を時間軸上で一
定サンプル数(例えば256サンプル)毎にブロック化
して、FFT等の直交変換により周波数軸上のスペクト
ルデータに変換すると共に、該ブロック内の音声のピッ
チを抽出し、このピッチに応じた間隔で周波数軸上のス
ペクトルを帯域分割し、分割された各帯域についてV
(有声音)/UV(無声音)の判別を行っている。この
V/UV判別情報をスペクトルの振幅データと共に符号
化して伝送するわけである。
【0017】ここで、例えばMBEボコーダ等の音声合
成分析系を想定する場合、入力される時間軸上の音声信
号に対するサンプリング周波数fs は、通常8kHzで、
全帯域幅は3.4kHz(ただし有効帯域は200〜34
00Hz)であり、女声の高い方から男声の低い方までの
ピッチラグ(ピッチ周期に相当するサンプル数)は、2
0〜147程度である。従って、ピッチ周波数は、8000
/147 54(Hz)から8000/20=400(Hz)程度まで
の間で変動することになる。従って、周波数軸上で上記
3.4kHzまでの間に約8〜63本のピッチパルス(ハ
ーモニックス)が立つことになる。
【0018】このように、ピッチに応じた間隔で帯域分
割すると、ブロック(フレーム)毎に分割帯域数(バン
ド数)が約8〜63個の間で変化することになることを
考慮して、分割バンド数を一定の個数(例えば12個程
度)に低減あるいは縮退させておくことが好ましい。
【0019】本発明の実施例においては、このように縮
退させられた、あるいはピッチに応じて分割された複数
のバンド(帯域)毎になされたV/UVの判別情報に基
づいて、全バンド中の1箇所でV(有声音)領域とUV
(無声音)領域とを区分するような区分位置を求め、さ
らに、低域側のV/UVの判別結果を高域側のV/UV
判別のための情報源の1つとして用いている。具体的に
は、500〜700Hz以下の低域側がV(有声音)と判
別されたときは、その判別結果を高域側へ拡張し、33
00Hz程度までを強制的にV(有声音)とする。この拡
張は、入力信号レベルが所定の閾値以上の場合、あるい
は入力信号のゼロクロスレートが他の所定の閾値以下の
場合に限り行うようにしている。
【0020】次に、上述したような高能率音声符号化方
法が適用可能な、音声信号の合成分析符号化装置(いわ
ゆるボコーダ)の一種のMBE(Multiband Excitatio
n: マルチバンド励起)ボコーダの具体例について、図
面を参照しながら説明する。
【0021】以下に説明するMBEボコーダは、D.W. G
riffin and J.S. Lim, ∧MultibandExcitation Vocode
r," IEEE Trans.Acoustics,Speech,and Signal Process
ing,vol.36, No.8, pp.1223-1235, Aug. 1988 に開示さ
れているものであり、従来のPARCOR(PARtial au
to-CORrelation: 偏自己相関)ボコーダ等では、音声の
モデル化の際に有声音区間と無声音区間とを時間軸上の
ブロックあるいはフレーム毎に切り換えていたのに対
し、MBEボコーダでは、時間軸上の同じブロックある
いはフレーム内の周波数軸領域に有声音(Voiced)区間
と無声音(Unvoiced)区間とが存在するという仮定でモ
デル化している。
【0022】図1は、上記MBEボコーダに本発明を適
用した実施例の全体の概略構成を示すブロック図であ
る。
【0023】この図1において、入力端子11には音声
信号が供給されるようになっており、この入力音声信号
は、HPF(ハイパスフィルタ)等のフィルタ12に送
られて、いわゆるDC(直流)オフセット分の除去や帯
域制限(例えば200〜3400Hzに制限)のための少
なくとも低域成分(200Hz以下)の除去が行われる。
このフィルタ12を介して得られた信号は、ピッチ抽出
部13及び窓かけ処理部14にそれぞれ送られる。ピッ
チ抽出部13では、入力音声信号データが所定サンプル
数N(例えばN=256)単位でブロック分割され(あ
るいは方形窓による切り出しが行われ)、このブロック
内の音声信号についてのピッチ抽出が行われる。このよ
うな切り出しブロック(256サンプル)を、例えば図
2のAに示すようにLサンプル(例えばL=160)の
フレーム間隔で時間軸方向に移動させており、各ブロッ
ク間のオーバラップはN−Lサンプル(例えば96サン
プル)となっている。また、窓かけ処理部14では、図
2のBに示すように1ブロックNサンプルに対して所定
の窓関数、例えばハミング窓をかけ、この窓かけブロッ
クを1フレームLサンプルの間隔で時間軸方向に順次移
動させている。
【0024】このような窓かけ処理を数式で表すと、 xw (k,q) =x(q) w(kL-q) ・・・(1) となる。この(1)式において、kはブロック番号を、
qはデータの時間インデックス(サンプル番号)を表
し、処理前の入力信号のq番目のデータx(q) に対して
第kブロックの窓(ウィンドウ)関数w(kL-q)により窓
かけ処理されることによりデータxw (k,q) が得られる
ことを示している。ピッチ抽出部13での図2のAに示
すような方形窓の場合の窓関数wr (r) は、 wr (r) =1 0≦r<N ・・・(2) =0 r<0,N≦r また、上記窓かけ処理部14での図2のBに示すような
ハミング窓の場合の窓関数wh (r) は、 wh (r) = 0.54 − 0.46 cos(2πr/(N-1)) 0≦r<N ・・・(3) =0 r<0,N≦r である。このような窓関数wr (r) あるいはwh (r) を
用いるときの上記(1)式の窓関数w(r) (=w(kL-
q))の否零区間は、 0≦kL−q<N これを変形して、 kL−N<q≦kL 従って例えば上記方形窓の場合に窓関数wr (kL-q)=1
となるのは、図3に示すように、kL−N<q≦kLの
ときとなる。また、上記(1)〜(3)式は、長さN
(=256)サンプルの窓が、L(=160)サンプル
ずつ前進してゆくことを示している。以下、上記(2)
式、(3)式の各窓関数で切り出された各N点(0≦r
<N)の否零サンプル列を、それぞれxwr(k,r) 、xwh
(k,r) と表すことにする。
【0025】窓かけ処理部14では、図4に示すよう
に、上記(3)式のハミング窓がかけられた1ブロック
256サンプルのサンプル列xwh(k,r) に対して179
2サンプル分の0データが付加されて2048サンプル
とされ、この2048サンプルの時間軸データ列に対し
て、直交変換部15により例えばFFT(高速フーリエ
変換)等の直交変換処理が施される。あるいは0を付加
せず、256サンプルのままFFT処理を行っても良
い。
【0026】ピッチ抽出部13では、上記xwr(k,r) の
サンプル列(1ブロックNサンプル)に基づいてピッチ
抽出が行われる。このピッチ抽出法には、時間波形の周
期性や、スペクトルの周期的周波数構造や、自己相関関
数を用いるもの等が知られているが、本実施例では、セ
ンタクリップ波形の自己相関法を採用している。このと
きのブロック内でのセンタクリップレベルについては、
1ブロックにつき1つのクリップレベルを設定してもよ
いが、ブロックを細分割した各部(サブブロック)の信
号のピークレベル等を検出し、これらの各サブブロック
のピークレベル等の差が大きいときに、ブロック内でク
リップレベルを段階的にあるいは連続的に変化させるよ
うにしている。このセンタクリップ波形の自己相関デー
タのピーク位置に基づいてピッチ周期を決めている。こ
のとき、現在フレームに属する自己相関データ(自己相
関は1ブロックNサンプルのデータを対象として求めら
れる)から複数のピークを求めておき、これらの複数の
ピークの内の最大ピークが所定の閾値以上のときには該
最大ピーク位置をピッチ周期とし、それ以外のときに
は、現在フレーム以外のフレーム、例えば前後のフレー
ムで求められたピッチに対して所定の関係を満たすピッ
チ範囲内、例えば前フレームのピッチを中心として±2
0%の範囲内にあるピークを求め、このピーク位置に基
づいて現在フレームのピッチを決定するようにしてい
る。このピッチ抽出部13ではオープンループによる比
較的ラフなピッチのサーチが行われ、抽出されたピッチ
データは高精度(ファイン)ピッチサーチ部16に送ら
れて、クローズドループによる高精度のピッチサーチ
(ピッチのファインサーチ)が行われる。
【0027】高精度ピッチサーチ部16には、ピッチ抽
出部13で抽出された整数値の粗(ラフ)ピッチデータ
と、直交変換部15により例えばFFTされた周波数軸
上のデータとが供給されている。この高精度ピッチサー
チ部16では、上記粗ピッチデータ値を中心に、0.2〜
0.5きざみで±数サンプルずつ振って、最適な小数点付
き(フローティング)のファインピッチデータの値へ追
い込む。このときのファインサーチの手法として、いわ
ゆる合成による分析 (Analysis by Synthesis)法を用
い、合成されたパワースペクトルが原音のパワースペク
トルに最も近くなるようにピッチを選んでいる。
【0028】このピッチのファインサーチについて説明
する。先ず、上記MBEボコーダにおいては、上記FF
T等により直交変換された周波数軸上のスペクトルデー
タとしてのS(j) を S(j) =H(j) |E(j) | 0<j<J ・・・(4) と表現するようなモデルを想定している。ここで、Jは
ωs /4π=fs /2に対応し、サンプリング周波数f
s =ωs /2πが例えば8kHzのときには4kHzに対応
する。上記(4)式中において、周波数軸上のスペクト
ルデータS(j) が図5のAに示すような波形のとき、H
(j) は、図5のBに示すように、元のスペクトルデータ
S(j) のスペクトル包絡線(エンベロープ)を示し、E
(j) は、図5のCに示すような等レベルで周期的な励起
信号(エクサイテイション)のスペクトルを示してい
る。すなわち、FFTスペクトルS(j) は、スペクトル
エンベロープH(j) と励起信号のパワースペクトル|E
(j) |との積としてモデル化される。
【0029】上記励起信号のパワースペクトル|E(j)
|は、上記ピッチに応じて決定される周波数軸上の波形
の周期性(ピッチ構造)を考慮して、1つの帯域(バン
ド)の波形に相当するスペクトル波形を周波数軸上の各
バンド毎に繰り返すように配列することにより形成され
る。この1バンド分の波形は、例えば上記図4に示すよ
うな256サンプルのハミング窓関数に1792サンプ
ル分の0データを付加した波形を時間軸信号と見なして
FFTし、得られた周波数軸上のある帯域幅を持つイン
パルス波形を上記ピッチに応じて切り出すことにより形
成することができる。
【0030】次に、上記ピッチに応じて分割された各バ
ンド毎に、上記H(j) を代表させるような値(各バンド
毎のエラーを最小化するような一種の振幅)|Am |を
求める。ここで、例えば第mバンド(第m高調波の帯
域)の下限、上限の点をそれぞれam 、bm とすると
き、この第mバンドのエラーεm は、
【0031】
【数1】
【0032】で表せる。このエラーεm を最小化するよ
うな|Am |は、
【0033】
【数2】
【0034】となり、この(6)式の|Am |のとき、
エラーεm を最小化する。
【0035】このような振幅|Am |を各バンド毎に求
め、得られた各振幅|Am |を用いて上記(5)式で定
義された各バンド毎のエラーεm を求める。次に、この
ような各バンド毎のエラーεm の全バンドの総和値Σε
m を求める。さらに、このような全バンドのエラー総和
値Σεm を、いくつかの微小に異なるピッチについて求
め、エラー総和値Σεm が最小となるようなピッチを求
める。
【0036】すなわち、上記ピッチ抽出部13で求めら
れたラフピッチを中心として、例えば 0.25 きざみで上
下に数種類ずつ用意する。これらの複数種類の微小に異
なるピッチの各ピッチに対してそれぞれ上記エラー総和
値Σεm を求める。この場合、ピッチが定まるとバンド
幅が決まり、上記(6)式より、周波数軸上データのパ
ワースペクトル|S(j) |と励起信号スペクトル|E
(j) |とを用いて上記(5)式のエラーεm を求め、そ
の全バンドの総和値Σεm を求めることができる。この
エラー総和値Σεm を各ピッチ毎に求め、最小となるエ
ラー総和値に対応するピッチを最適のピッチとして決定
するわけである。以上のようにして高精度ピッチサーチ
部で最適のファイン(例えば 0.25 きざみ)ピッチが求
められ、この最適ピッチに対応する振幅|Am |が決定
される。このときの振幅値の計算は、有声音の振幅評価
部18Vにおいて行われる。
【0037】以上ピッチのファインサーチの説明におい
ては、説明を簡略化するために、全バンドが有声音(Vo
iced)の場合を想定しているが、上述したようにMBE
ボコーダにおいては、同時刻の周波数軸上に無声音(Un
voiced)領域が存在するというモデルを採用しているこ
とから、上記各バンド毎に有声音/無声音の判別を行う
ことが必要とされる。
【0038】上記高精度ピッチサーチ部16からの最適
ピッチ及び有声音の振幅評価部18Vからの振幅|Am
|のデータは、有声音/無声音判別部17に送られ、上
記各バンド毎に有声音/無声音の判別が行われる。この
判別のためにNSR(ノイズtoシグナル比)を利用す
る。すなわち、第mバンドのNSRであるNSRm は、
【0039】
【数3】
【0040】と表せ、このNSRm が所定の閾値Th1
(例えばTh1 =0.2)より大のとき(すなわちエラー
が大きいとき)には、そのバンドでの|Am ||E(j)
|による|S(j) |の近似が良くない(上記励起信号|
E(j) |が基底として不適当である)と判断でき、当該
バンドをUV(Unvoiced、無声音)と判別する。これ以
外のときは、近似がある程度良好に行われていると判断
でき、そのバンドをV(Voiced、有声音)と判別する。
【0041】ところで、上述したように基本ピッチ周波
数で分割されたバンドの数(ハーモニックスの数)は、
声の高低(ピッチの大小)によって約8〜63程度の範
囲で変動するため、各バンド毎のV/UVフラグの個数
も同様に変動してしまう。
【0042】そこで、本実施例においては、固定的な周
波数帯域で分割した一定個数のバンド毎にV/UV判別
結果をまとめる(あるいは縮退させる)ようにしてい
る。具体的には、音声帯域を含む所定帯域(例えば0〜
4000Hz)をNB 個(例えば12個)のバンドに分割
し、各バンド内の上記NSR値に従って、例えば重み付
き平均値を所定の閾値Th2 (例えばTh2 =0.2)で
弁別して、当該バンドのV/UVを判断している。ここ
で、第nバンド(0≦n<NB )のNS値であるNSn
を、
【0043】
【数4】
【0044】で表す。この(8)式において、Ln及び
Hnは、上記第nバンドにおける下限周波数及び上限周
波数を、それぞれ基本ピッチ周波数で割り算した値の各
整数値を示している。
【0045】従って、図6に示すように、ハーモニクス
のセンタが第nバンド内に入るような上記NSRm が、
NSn の判別に用いられることになる。
【0046】このようにして、上記NB 個(例えばNB
=12)のバンド(帯域)についてのV/UV判別結果
が得られたわけであるが、次にこれを、低域側の帯域を
有声音とし高域側の帯域を無声音とする有声音/無声音
の変化点が1以下のパターンの判別結果に変換する処理
を行う。この処理の具体例としては、本件出願人が先に
特願平4−92259号の明細書及び図面において開示
したように、V(有声音)とされた最も高いバンド(帯
域)を検出し、このバンド以下の低域側の全てのバンド
をV(有声音)とし、残りの高域側をUV(無声音)と
することが挙げられるが、本実施例においては、次のよ
うな変換処理を行っている。
【0047】すなわち、上記NB 個(例えばNB =1
2)のバンドのV/UV判別結果より成るNB 次元ベク
トル、例えば12次元ベクトルVUVは、第kバンドの
V/UV判別結果をDk とするとき、 VUV=(D0 、D1 、・・・、D11) と表され、このベクトルVUVと最もハミング距離の短
くなるベクトルを、 VC0 =(0、0、0、0、0、0、0、0、0、0、0、0) VC1 =(1、0、0、0、0、0、0、0、0、0、0、0) VC2 =(1、1、0、0、0、0、0、0、0、0、0、0) VC3 =(1、1、1、0、0、0、0、0、0、0、0、0) ・・・ VC11=(1、1、1、1、1、1、1、1、1、1、1、0) VC12=(1、1、1、1、1、1、1、1、1、1、1、1) の13個(一般的にはNB +1個)の代表ベクトルの中
からサーチする。ただし、ベクトルの各要素D0 、D
1 、・・・の値については、UV(無声音)のバンドを
0、V(有声音)のバンドを1とする。すなわち、第k
バンドのV/UV判別結果Dk は、該第kバンドの上記
NSk と上記閾値Th2 とにより、 NSk <Th2 のとき、Dk =1 NSk ≧Th2 のとき、Dk =0 となる。
【0048】あるいは、上記ハミング距離の算出におい
て、重みを付加することが考えられる。すなわち、上記
代表ベクトルVCn を、 VCn (C0 、C1 、・・・、Ck 、・・・、
NB-1) ただし、k<nのときCk =1、k≧nのときCk =0 と定義して、重み付きハミング距離WHDを、
【0049】
【数5】
【0050】とする。この(9)式中で、Ak は、上記
(8)式と同様に、第kバンド(0≦k<NB )にハー
モニクスのセンタを持つAm のバンド内平均とする。す
なわち、
【0051】
【数6】
【0052】である。この(10)式中で、Lk 及びH
k は、上記第kバンドにおける下限周波数及び上限周波
数を、それぞれ基本ピッチ周波数で割り算した値の各整
数値を示している。(10)式の分母は、第kバンドに
何本のハーモニクスが存在するかを表す。
【0053】上記(9)式において、Wk は、例えば低
域側を重視するような、すなわちkが小さいほど大きな
値とするような、固定の重み付けとすればよい。
【0054】以上のような方法、あるいは上記特願平4
−92259号の明細書及び図面において開示した方法
によって、NB ビットのV/UV判別データ(例えばN
B =12のときには212通りの組み合せをとり得る)
を、上記VC0 〜VCNBのNB+1通り(例えばNB
12のときには13通り)の組み合せに減少させること
ができる。この処理は、本発明の実施の上では必ずしも
必要ではないが、行った方が好ましいものである。
【0055】次に、本発明実施例の重要点となる低域側
のV/UV判別結果を高域側に拡張する処理について説
明する。本実施例においては、低域側の第1の周波数以
下の所定数バンドのV/UV判別結果がV(有声音)の
とき、所定の条件、例えば入力信号レベルが所定の閾値
ThS より大きく、入力信号のゼロクロスレートが所定
の閾値ThZ より小さい条件の下で、高域側の第2の周
波数までの所定バンドまでをVとするような拡張を行っ
ている。この拡張は、音声のスペクトル構造の内、低域
部分の構造(ピッチ構造の強弱)が全体的な構造を代表
している傾向にある、という観測に基づいている。
【0056】上記低域側の第1の周波数としては、例え
ば500〜700Hzとすることが考えられ、上記高域側
の第2の周波数としては、例えば3300Hzとすること
が考えられる。これは、通常の音声帯域200〜340
0Hzを含む帯域、例えば4000Hzまでの帯域を、所定
バンド数、例えば12バンドで分割するとき、上記低域
側の第1の周波数以下のバンドである例えば低域側2バ
ンドのV/UV判別結果がV(有声音)のとき、所定の
条件の下で、高域側の第2の周波数までのバンドである
例えば高域側から2バンドを除くバンドまでをVとする
ような拡張を行うことに相当する。
【0057】すなわち、先ず、上記処理によって得られ
たVCn 、又はVUVのベクトルの左から(低域側か
ら)2個分(第0番と第1番)の要素C0 、C1 の値に
着目する。具体的には、VCn が、C0 =1かつC1
1(低域側2バンドがV)のとき、もし入力信号レベル
Levが所定の閾値ThS より大きい(Lev>ThS )と
きには、C2 〜CNB-3の値の如何によらず、C2 =C3
=・・・=CNB-3=1とする。すなわち、拡張前のVC
n と拡張後のVCn ’とは、 VCn =(1、1、x、x、x、x、x、x、x、x、0、0) VCn ’=(1、1、1、1、1、1、1、1、1、1、0、0) ただし、xは1、0の任意の値 のように表される。
【0058】別の表現で表すと、VCn のnが2≦n≦
B −2のとき、Lev>ThS ならば強制的にn=NB
−2とするものである。
【0059】なお、上記入力信号レベルLevは、
【0060】
【数7】
【0061】と表される、また、上記閾値ThS の具体
例としては、ThS =700とすることが挙げられる。
この700という値は、入力サンプルx(i) が16ビッ
トで表されるときのフルスケール正弦波入力時を0dB
とするとき、約−30dBに相当するものである。
【0062】さらに、他の条件として、入力信号のゼロ
クロスレートや、ピッチ等を考慮することが考えられ
る。すなわち、上記条件に対して、入力信号のゼロクロ
スレートRzが所定の閾値ThZ より小さい(Rz<T
Z )条件、又はピッチ周期pが所定の閾値Thp より
小さい(p<Thp )条件を加える(アンドの条件で結
合する)ことが挙げられる。これらの閾値ThZ 、Th
p の具体例としては、サンプリングレートを8kHz、1
ブロック内サンプル数を256サンプルとして、ThZ
=140、Thp =50を挙げることができる。
【0063】以上の条件をまとめると、 (1)入力信号レベルLev>ThS (2)C0 =1かつC1 =1 (3)ゼロクロスレートRz<ThZ 又はピッチ周期p
<Thp の(1)〜(3)の条件が全てが満足されるとき、上記
拡張を行うようにすればよい。
【0064】なお、上記(2)の条件は、VCn のnが
2≦n≦NB −2としても良いが、より一般化して、n
1 ≦n≦n2 (ただし、0<n1 <n2 <NB )と表せ
る。
【0065】また、低域側のV(有声音)である区間を
高域側に拡張する量については、種々の条件、例えば入
力信号レベル、ピッチ強度、前フレームのV/UVの状
態、入力信号のゼロクロスレート、ピッチ周期等に応じ
て可変とすることも考えられる。より一般的には、VC
n からVCn’への変換を、 VCn →VCn’ 、 n’=f(n、Lev、・・・) と記述できる。すなわち、関数f(n、Lev、・・・)
によりnからn’へマッピングされる。ただし、n’≧
nである。
【0066】次に、無声音の振幅評価部18Uには、直
交変換部15からの周波数軸上データ、ピッチサーチ部
16からのファインピッチデータ、有声音振幅評価部1
8Vからの振幅|Am |のデータ、及び上記有声音/無
声音判別部17からのV/UV(有声音/無声音)判別
データが供給されている。この振幅評価部(無声音)1
8Uでは、有声音/無声音判別部17において無声音
(UV)と判別されたバンドに関して、再度振幅を求め
て(振幅再評価を行って)いる。このUVのバンドにつ
いての振幅|AmUVは、
【0067】
【数8】
【0068】にて求められる。
【0069】この振幅評価部(無声音)18Uからのデ
ータは、データ数変換(一種のサンプリングレート変
換)部19に送られる。このデータ数変換部19は、上
記ピッチに応じて周波数軸上での分割帯域数が異なり、
データ数(特に振幅データの数)が異なることを考慮し
て、一定の個数にするためのものである。すなわち、例
えば有効帯域を3400kHzまでとすると、この有効帯
域が上記ピッチに応じて、8バンド〜63バンドに分割
されることになり、これらの各バンド毎に得られる上記
振幅|Am |(UVバンドの振幅|AmUVも含む)デ
ータの個数mMX+1も8〜63と変化することになる。
このためデータ数変換部19では、この可変個数mMX
1の振幅データを一定個数M(例えば44個)のデータ
に変換している。
【0070】ここで本実施例においては、例えば、周波
数軸上の有効帯域1ブロック分の振幅データに対して、
ブロック内の最後のデータからブロック内の最初のデー
タまでの値を補間するようなダミーデータを付加してデ
ータ個数をNF 個に拡大した後、帯域制限型のOS
(例えば8倍)のオーバーサンプリングを施すことによ
りOS 倍の個数の振幅データを求め、このOS 倍の個数
((mMX+1)×OS 個)の振幅データを直線補間して
さらに多くのNM 個(例えば2048個)に拡張し、こ
のNM 個のデータを間引いて上記一定個数M(例えば4
4個)のデータに変換している。
【0071】このデータ数変換部19からのデータ(上
記一定個数M個の振幅データ)がベクトル量子化部20
に送られて、所定個数のデータ毎にまとめられてベクト
ルとされ、ベクトル量子化が施される。ベクトル量子化
部20からの量子化出力データ(の主要部)は、上記高
精度のピッチサーチ部16からの高精度(ファイン)ピ
ッチデータ及び上記有声音/無声音判別部17からの有
声音/無声音(V/UV)判別データと共に、符号化部
21に送られて符号化される。
【0072】なお、これらの各データは、上記Nサンプ
ル(例えば256サンプル)のブロック内のデータに対
して処理を施すことにより得られるものであるが、ブロ
ックは時間軸上を上記Lサンプルのフレームを単位とし
て前進することから、伝送するデータは上記フレーム単
位で得られる。すなわち、上記フレーム周期でピッチデ
ータ、V/UV判別データ、振幅データが更新されるこ
とになる。また、上記有声音/無声音判別部17からの
V/UV判別データについては、上述したように、必要
に応じて12バンド程度に低減(縮退)され、全バンド
中で1箇所以下の有声音(V)領域と無声音(UV)領
域との区分位置を有すると共に、所定条件を満足する場
合に低域側のV(有声音)が高域側にまで拡張されたV
/UV判別データパターンを表すものである。
【0073】上記符号化部21においては、例えばCR
C付加及びレート1/2畳み込み符号付加処理が施され
る。すなわち、上記ピッチデータ、上記有声音/無声音
(V/UV)判別データ、及び上記量子化出力データの
内の重要なデータについてはCRC誤り訂正符号化が施
された後、畳み込み符号化が施される。符号化部21か
らの符号化出力データは、フレームインターリーブ部2
2に送られ、ベクトル量子化部20からの一部(例えば
重要度の低い)データと共にインターリーブ処理され
て、出力端子23から取り出され、合成側(デコード
側)に伝送、あるいは記録再生される。
【0074】次に、伝送されて(あるいは記録再生され
て)得られた上記各データに基づき音声信号を合成する
ための合成側(デコード側)の概略構成について、図7
を参照しながら説明する。
【0075】この図7において、入力端子31には、上
記図1に示すエンコーダ側の出力端子23から取り出さ
れたデータ信号に略々等しい(伝送や記録再生による信
号劣化を無視して)データ信号が供給される。この入力
端子31からのデータは、フレームデインターリーブ部
32に送られて、上記図1のインターリーブ処理の逆処
理となるデインターリーブ処理が施され、重要度の高い
データ部分(エンコーダ側でCRC及び畳み込み符号化
された部分)は復号化部33で復号化処理されてマスク
処理部34に送られ、残部(符号化処理の施されていな
い重要度の低いデータ)はそのままマスク処理部34に
送られる。復号化部33においては、例えばいわゆるビ
タビ復号化処理やCRCチェックコードを用いたエラー
検出処理が施される。マスク処理部34は、エラーの多
いフレームのパラメータを補間で求めるような処理を行
うと共に、上記ピッチデータ、有声音/無声音(V/U
V)データ、及びベクトル量子化された振幅データを分
離して取り出す。
【0076】マスク処理部34からの上記ベクトル量子
化された振幅データは、逆ベクトル量子化部35に送ら
れて逆量子化され、データ数逆変換部36に送られて逆
変換される。このデータ数逆変換部36では、上述した
図1のデータ数変換部19と対照的な逆変換が行われ、
得られた振幅データが有声音合成部37及び無声音合成
部38に送られる。マスク処理部34からの上記ピッチ
データは、有声音合成部37及び無声音合成部38に送
られる。またマスク処理部34からの上記V/UV判別
データも、有声音合成部37及び無声音合成部38に送
られる。
【0077】有声音合成部37では例えば余弦(cosine)
波合成により時間軸上の有声音波形を合成し、無声音合
成部38では例えばホワイトノイズをバンドパスフィル
タでフィルタリングして時間軸上の無声音波形を合成
し、これらの各有声音合成波形と無声音合成波形とを加
算部41で加算合成して、出力端子42より取り出すよ
うにしている。この場合、上記振幅データ、ピッチデー
タ及びV/UV判別データは、上記分析時の1フレーム
(Lサンプル、例えば160サンプル)毎に更新されて
与えられるが、フレーム間の連続性を高める(円滑化す
る)ために、上記振幅データやピッチデータの各値を1
フレーム中の例えば中心位置における各データ値とし、
次のフレームの中心位置までの間(合成時の1フレー
ム)の各データ値を補間により求める。すなわち、合成
時の1フレーム(例えば上記分析フレームの中心から次
の分析フレームの中心まで)において、先端サンプル点
での各データ値と終端(次の合成フレームの先端)サン
プル点での各データ値とが与えられ、これらのサンプル
点間の各データ値を補間により求めるようにしている。
【0078】また、V/UV判別データに応じて全バン
ドを1箇所の区分位置で有声音(V)領域と無声音(U
V)領域とに区分することができ、この区分に応じて、
各バンド毎のV/UV判別データを得ることができる。
この区分位置については、上述したように、低域側のV
が高域側に拡張されていることがある。ここで、分析側
(エンコーダ側)で一定数(例えば12程度)のバンド
に低減(縮退)されている場合には、これを解いて(復
元して)、元のピッチに応じた間隔で可変個数のバンド
とすることは勿論である。
【0079】以下、有声音合成部37における合成処理
を詳細に説明する。
【0080】上記V(有声音)と判別された第mバンド
(第m高調波の帯域)における時間軸上の上記1合成フ
レーム(Lサンプル、例えば160サンプル)分の有声
音をVm (n) とするとき、この合成フレーム内の時間イ
ンデックス(サンプル番号)nを用いて、 Vm (n) =Am (n) cos(θm (n)) 0≦n<L ・・・(13) と表すことができる。全バンドの内のV(有声音)と判
別された全てのバンドの有声音を加算(ΣVm (n) )し
て最終的な有声音V(n) を合成する。
【0081】この(13)式中のAm (n) は、上記合成フ
レームの先端から終端までの間で補間された第m高調波
の振幅である。最も簡単には、フレーム単位で更新され
る振幅データの第m高調波の値を直線補間すればよい。
すなわち、上記合成フレームの先端(n=0)での第m
高調波の振幅値をA0m、該合成フレームの終端(n=
L:次の合成フレームの先端)での第m高調波の振幅値
をALmとするとき、 Am (n) = (L-n)A0m/L+nALm/L ・・・(14) の式によりAm (n) を計算すればよい。
【0082】次に、上記(13)式中の位相θm (n) は、 θm (n) =mωO1n+n2 m(ωL1−ω01)/2L+φ0m+Δωn ・・・(15) により求めることができる。この(15)式中で、φ0m
上記合成フレームの先端(n=0)での第m高調波の位
相(フレーム初期位相)を示し、ω01は合成フレーム先
端(n=0)での基本角周波数、ωL1は該合成フレーム
の終端(n=L:次の合成フレーム先端)での基本角周
波数をそれぞれ示している。上記(15)式中のΔωは、
n=Lにおける位相φLmがθm (L) に等しくなるような
最小のΔωを設定する。
【0083】以下、任意の第mバンドにおいて、それぞ
れn=0、n=LのときのV/UV判別結果に応じた上
記振幅Am (n) 、位相θm (n) の求め方を説明する。
【0084】第mバンドが、n=0、n=Lのいずれも
V(有声音)とされる場合に、振幅Am (n) は、上述し
た(14)式により、伝送された振幅値A0m、ALmを直線
補間して振幅Am (n) を算出すればよい。位相θm (n)
は、n=0でθm (0) =φ0mからn=Lでθm (L) がφ
LmとなるようにΔωを設定する。
【0085】次に、n=0のときV(有声音)で、n=
LのときUV(無声音)とされる場合に、振幅Am (n)
は、Am (0) の伝送振幅値A0mからAm (L) で0となる
ように直線補間する。n=Lでの伝送振幅値ALmは無声
音の振幅値であり、後述する無声音合成の際に用いられ
る。位相θm (n) は、θm (0) =φ0mとし、かつΔω=
0とする。
【0086】さらに、n=0のときUV(無声音)で、
n=LのときV(有声音)とされる場合には、振幅Am
(n) は、n=0での振幅Am (0) を0とし、n=Lで伝
送された振幅値ALmとなるように直線補間する。位相θ
m (n) については、n=0での位相θm (0) として、フ
レーム終端での位相値φLmを用いて、 θm (0) =φLm−m(ωO1+ωL1)L/2 ・・・(16) とし、かつΔω=0とする。
【0087】上記n=0、n=LのいずれもV(有声
音)とされる場合に、θm (L) がφLmとなるようにΔω
を設定する手法について説明する。上記(15)式で、n
=Lと置くことにより、 θm (L) =mωO1L+L2 m(ωL1−ω01)/2L+φ0m+ΔωL =m(ωO1+ωL1)L/2+φ0m+ΔωL =φLm となり、これを整理すると、Δωは、 Δω=(mod2π((φLm−φ0m) − mL(ωO1+ωL1)/2)/L ・・・(17) となる。この(17)式でmod2π(x) とは、xの主値を−
π〜+πの間の値で返す関数である。例えば、x=1.3
πのときmod2π(x) =−0.7π、x=2.3πのときmod2
π(x) =0.3π、x=−1.3πのときmod2π(x) =0.7
π、等である。
【0088】以下、無声音合成部38における無声音合
成処理を説明する。
【0089】ホワイトノイズ発生部43からの時間軸上
のホワイトノイズ信号波形を窓かけ処理部44に送っ
て、所定の長さ(例えば256サンプル)で適当な窓関
数(例えばハミング窓)により窓かけをし、STFT処
理部45によりSTFT(ショートタームフーリエ変
換)処理を施すことにより、ホワイトノイズの周波数軸
上のパワースペクトルを得る。このSTFT処理部45
からのパワースペクトルをバンド振幅処理部46に送
り、上記UV(無声音)とされたバンドについて上記振
幅|AmUVを乗算し、他のV(有声音)とされたバン
ドの振幅を0にする。このバンド振幅処理部46には上
記振幅データ、ピッチデータ、V/UV判別データが供
給されている。
【0090】バンド振幅処理部46からの出力は、IS
TFT処理部47に送られ、位相は元のホワイトノイズ
の位相を用いて逆STFT処理を施すことにより時間軸
上の信号に変換する。ISTFT処理部47からの出力
は、オーバーラップ加算部48に送られ、時間軸上で適
当な(元の連続的なノイズ波形を復元できるように)重
み付けをしながらオーバーラップ及び加算を繰り返し、
連続的な時間軸波形を合成する。このオーバーラップ加
算部48からの出力信号が上記加算部41に送られる。
【0091】
【発明の効果】以上の説明から明らかなように、本発明
に係る符号化方法によれば、入力音声信号を時間軸上で
ブロック単位で区分して、複数の帯域に分割し、分割さ
れた各帯域毎に有声音(V)か無声音(UV)かを判別
し、低域側の所定の帯域が有声音(V)と判別された場
合に、高域側の帯域の判別結果を無声音(UV)から有
声音(V)に変更して最終的なV/UV(有声音/無声
音)の判別結果を得ており、具体的には、低域側の第1
の周波数(例えば500〜700Hz)以下の帯域がV
(有声音)と判別されたときは、その判別結果を高域側
に拡張し、第2の周波数(例えば3300Hz)までの帯
域を強制的にV(有声音)にすることにより、ノイズの
少ないクリアな再生音(合成音)を得ることができる。
すなわち、低域側のハーモニクス構造の安定した帯域の
V/UV判断結果を、中域〜高域の判断の助けとして使
用することで、ピッチ変化の激しいとき、又はハーモニ
クス構造が基本ピッチ周期の整数倍に正確に一致してい
ない場合でも、安定したV(有声音)の判断が可能とな
って、クリアな再生音を合成できる。
【0092】ここで、図8、図9は、上述したような低
域側のV判別結果を高域側に拡張する処理を行わない従
来の場合(図8)と、行った場合(図9)とでの合成信
号波形を示す波形図である。
【0093】これらの図8、図9の波形の対応する部分
を比較すると、例えば図8の部分Aと、図9の部分Bと
を対比させると、図8の部分Aが比較的凹凸の激しい波
形となっているのに対して、図9の部分Bが円滑な(ス
ムーズな)波形になっていることがわかる。従って、本
実施例を適用した図9の合成信号波形によれば、ノイズ
の少ないクリアな再生音(合成音)を得られることがで
きる。
【0094】なお、本発明は上記実施例のみに限定され
るものではなく、例えば、上記図1の音声分析側(エン
コード側)の構成や図7の音声合成側(デコード側)の
構成については、各部をハードウェア的に記載している
が、いわゆるDSP(ディジタル信号プロセッサ)等を
用いてソフトウェアプログラムにより実現することも可
能である。また、上記高調波(ハーモニクス)毎のバン
ド数を低減して(縮退させて)一定個数のバンドにする
ことは、必要に応じて行えばよく、縮退バンド数も12
バンドに限定されない。また、全バンドを1箇所以下の
区分位置で低域側V領域と高域側UV領域とに分割する
処理も必要に応じて行えばよく、行わなくともよい。さ
らに、本発明が適用されるものは上記マルチバンド励起
音声分析/合成方法に限定されず、サイン波合成を用い
る種々の音声分析/合成方法に容易に適用でき、また、
用途としても、信号の伝送や記録再生のみならず、ピッ
チ変換や、スピード変換や、雑音抑制等の種々の用途に
応用できるものである。
【0095】
【発明の効果】以上の説明から明らかなように、本発明
に係る高能率音声符号化方法によれば、入力音声信号を
ブロック単位で区分して、複数の帯域に分割し、分割さ
れた各帯域毎に有声音(V)か無声音(UV)かを判別
し、低域側の帯域の有声音/無声音(V/UV)の判別
結果を高域側の帯域の有声音/無声音の判別に反映させ
て最終的なV/UV(有声音/無声音)の判別結果を得
ており、具体的には、低域側の第1の周波数(例えば5
00〜700Hz)以下の帯域がV(有声音)と判別され
たときは、その判別結果を高域側に拡張し、第2の周波
数(例えば3300Hz)までの帯域を強制的にV(有声
音)にすることにより、ノイズの少ないクリアな再生音
(合成音)を得ることができる。すなわち、低域側のハ
ーモニクス構造の安定した帯域のV/UV判断結果を、
中域〜高域の判断の助けとして使用することで、ピッチ
変化の激しいとき、又はハーモニクス構造が基本ピッチ
周期の整数倍に正確に一致していない場合でも、安定し
たV(有声音)の判断が可能となって、クリアな再生音
を合成できる。
【図面の簡単な説明】
【図1】本発明に係る符号化方法が適用される装置の具
体例としての音声信号の分析/合成符号化装置の分析側
(エンコード側)の概略構成を示す機能ブロック図であ
る。
【図2】窓かけ処理を説明するための図である。
【図3】窓かけ処理と窓関数との関係を説明するための
図である。
【図4】直交変換(FFT)処理対象としての時間軸デ
ータを示す図である。
【図5】周波数軸上のスペクトルデータ、スペクトル包
絡線(エンベロープ)及び励起信号のパワースペクトル
を示す図である。
【図6】ピッチ周期単位で区切られたバンドを一定個数
のバンドに縮退する処理を説明するための図である。
【図7】本発明に係る符号化方法が適用される装置の具
体例としての音声信号の分析/合成符号化装置の合成側
(デコード側)の概略構成を示す機能ブロック図であ
る。
【図8】低域側のV(有声音)判別結果を高域側に拡張
する処理を行わない従来の場合の合成信号波形を示す波
形図である。
【図9】低域側のV(有声音)判別結果を高域側に拡張
する処理を行った本実施例の場合の合成信号波形を示す
波形図である。
【図10】中〜高域で「ぼけ」の生じたスペクトル構造
を示す図である。
【図11】信号の高調波成分が基本ピッチ周期の整数倍
からずれる場合のスペクトル構造を示す図である。
【符号の説明】
13 ピッチ抽出部、 14 窓かけ処理部、 15
直交変換(FFT)部、 16 高精度(ファイン)ピ
ッチサーチ部、 17 有声音/無声音(V/UV)判
別部、 18V 有声音の振幅評価部、 18U 無声
音の振幅評価部、 19 データ数変換(データレート
コンバート)部、 20 ベクトル量子化部、 37
有声音合成部、 38 無声音合成部
フロントページの続き (56)参考文献 特開 昭62−271000(JP,A) 特開 平2−7100(JP,A) 特開 平3−112221(JP,A) 特開 平3−266899(JP,A) 特開 平4−43400(JP,A) 特開 平4−116700(JP,A) 特開 平5−297894(JP,A) (58)調査した分野(Int.Cl.7,DB名) G10L 11/06 G10L 19/00 - 19/02 H03M 7/30 JICSTファイル(JOIS)

Claims (8)

    (57)【特許請求の範囲】
  1. 【請求項1】 入力音声信号を時間軸上でブロック単位
    で区分する工程と、 この区分された各ブロックの信号毎に複数の帯域に分割
    する工程と、 分割された各帯域毎に有声音か無声音かを判別する工程
    と、 低域側の所定の帯域が有声音と判別された場合に、高域
    側の帯域の判別結果を無声音から有声音に変更して最終
    的な有声音/無声音の判別結果を得る工程とを有するこ
    とを特徴とする符号化方法。
  2. 【請求項2】 上記最終的な有声音/無声音の判別結果
    を得るに先だって、上記帯域毎の有声音/無声音の先の
    判別結果パターンに基づいて、低域側の帯域を有声音と
    し高域側の帯域を無声音とする有声音/無声音の変化点
    が1以下のパターンの判別結果に変換しておくことを特
    徴とする請求項1記載の符号化方法。
  3. 【請求項3】 上記有声音/無声音の変化点が1以下と
    なるパターンを代表パターンとして予め複数個用意して
    おき、上記有声音/無声音の先の判別結果パターンとの
    ハミング距離が最も近い代表パターンを選択することに
    より変換することを特徴とする請求項記載の符号化方
    法。
  4. 【請求項4】 低域側の第1の周波数以下の帯域が有声
    音と判別されたときは、その判別結果を高域側に拡張
    し、第2の周波数までの帯域を強制的に有声音とするこ
    とを特徴とする請求項2記載の符号化方法。
  5. 【請求項5】 上記入力音声信号の信号レベルが所定の
    閾値以上のときのみ、上記判別結果の高域側への拡張を
    行うことを特徴とする請求項4記載の符号化方法。
  6. 【請求項6】 上記入力音声信号のゼロクロスレートに
    応じて上記判別結果の高域側への拡張の実行/不実行を
    制御することを特徴とする請求項4記載の符号化方法。
  7. 【請求項7】 入力音声信号を時間軸上でブロック単位
    で区分して符号化処理を施す高能率符号化方法におい
    て、 上記各ブロック毎に、低域側のスペクトル構造に基づい
    て当該ブロックが有声音か無声音かの判別を行うことを
    特徴とする符号化方法。
  8. 【請求項8】 上記入力音声信号のゼロクロスレートに
    応じて、上記低域側のスペクトル構造に基づく有声音か
    無声音かの判別を修正することを特徴とする請求項7記
    載の符号化方法。
JP18532493A 1993-07-27 1993-07-27 符号化方法 Expired - Fee Related JP3475446B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP18532493A JP3475446B2 (ja) 1993-07-27 1993-07-27 符号化方法
US08/280,617 US5630012A (en) 1993-07-27 1994-07-26 Speech efficient coding method
DE69425935T DE69425935T2 (de) 1993-07-27 1994-07-27 Verfahren zur Unterscheidung zwischen stimmhaften und stimmlosen Lauten
EP94111721A EP0640952B1 (en) 1993-07-27 1994-07-27 Voiced-unvoiced discrimination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18532493A JP3475446B2 (ja) 1993-07-27 1993-07-27 符号化方法

Publications (2)

Publication Number Publication Date
JPH0744193A JPH0744193A (ja) 1995-02-14
JP3475446B2 true JP3475446B2 (ja) 2003-12-08

Family

ID=16168840

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18532493A Expired - Fee Related JP3475446B2 (ja) 1993-07-27 1993-07-27 符号化方法

Country Status (4)

Country Link
US (1) US5630012A (ja)
EP (1) EP0640952B1 (ja)
JP (1) JP3475446B2 (ja)
DE (1) DE69425935T2 (ja)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5765127A (en) * 1992-03-18 1998-06-09 Sony Corp High efficiency encoding method
JP3277398B2 (ja) * 1992-04-15 2002-04-22 ソニー株式会社 有声音判別方法
US5774837A (en) * 1995-09-13 1998-06-30 Voxware, Inc. Speech coding system and method using voicing probability determination
KR970017456A (ko) * 1995-09-30 1997-04-30 김광호 음성신호의 무음 및 무성음 판별방법 및 그 장치
KR100251497B1 (ko) * 1995-09-30 2000-06-01 윤종용 음성신호 변속재생방법 및 그 장치
FR2739482B1 (fr) * 1995-10-03 1997-10-31 Thomson Csf Procede et dispositif pour l'evaluation du voisement du signal de parole par sous bandes dans des vocodeurs
JP4826580B2 (ja) * 1995-10-26 2011-11-30 ソニー株式会社 音声信号の再生方法及び装置
JP4132109B2 (ja) * 1995-10-26 2008-08-13 ソニー株式会社 音声信号の再生方法及び装置、並びに音声復号化方法及び装置、並びに音声合成方法及び装置
US5806038A (en) * 1996-02-13 1998-09-08 Motorola, Inc. MBE synthesizer utilizing a nonlinear voicing processor for very low bit rate voice messaging
US5881104A (en) * 1996-03-25 1999-03-09 Sony Corporation Voice messaging system having user-selectable data compression modes
JP3266819B2 (ja) * 1996-07-30 2002-03-18 株式会社エイ・ティ・アール人間情報通信研究所 周期信号変換方法、音変換方法および信号分析方法
JP4040126B2 (ja) * 1996-09-20 2008-01-30 ソニー株式会社 音声復号化方法および装置
JP4121578B2 (ja) * 1996-10-18 2008-07-23 ソニー株式会社 音声分析方法、音声符号化方法および装置
JP3119204B2 (ja) * 1997-06-27 2000-12-18 日本電気株式会社 音声符号化装置
AU9404098A (en) * 1997-09-23 1999-04-12 Voxware, Inc. Scalable and embedded codec for speech and audio signals
US5999897A (en) * 1997-11-14 1999-12-07 Comsat Corporation Method and apparatus for pitch estimation using perception based analysis by synthesis
KR100294918B1 (ko) * 1998-04-09 2001-07-12 윤종용 스펙트럼혼합여기신호의진폭모델링방법
US6208969B1 (en) 1998-07-24 2001-03-27 Lucent Technologies Inc. Electronic data processing apparatus and method for sound synthesis using transfer functions of sound samples
US6901362B1 (en) * 2000-04-19 2005-05-31 Microsoft Corporation Audio segmentation and classification
EP1199711A1 (en) 2000-10-20 2002-04-24 Telefonaktiebolaget Lm Ericsson Encoding of audio signal using bandwidth expansion
US7228271B2 (en) * 2001-12-25 2007-06-05 Matsushita Electric Industrial Co., Ltd. Telephone apparatus
US20050091066A1 (en) * 2003-10-28 2005-04-28 Manoj Singhal Classification of speech and music using zero crossing
US7418394B2 (en) * 2005-04-28 2008-08-26 Dolby Laboratories Licensing Corporation Method and system for operating audio encoders utilizing data from overlapping audio segments
DE102007037105A1 (de) * 2007-05-09 2008-11-13 Rohde & Schwarz Gmbh & Co. Kg Verfahren und Vorrichtung zur Detektion von simultaner Doppelaussendung von AM-Signalen
KR101666521B1 (ko) * 2010-01-08 2016-10-14 삼성전자 주식회사 입력 신호의 피치 주기 검출 방법 및 그 장치
US8886523B2 (en) * 2010-04-14 2014-11-11 Huawei Technologies Co., Ltd. Audio decoding based on audio class with control code for post-processing modes
TWI566239B (zh) * 2015-01-22 2017-01-11 宏碁股份有限公司 語音信號處理裝置及語音信號處理方法
TWI583205B (zh) * 2015-06-05 2017-05-11 宏碁股份有限公司 語音信號處理裝置及語音信號處理方法
US11575987B2 (en) * 2017-05-30 2023-02-07 Northeastern University Underwater ultrasonic communication system and method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5765127A (en) * 1992-03-18 1998-06-09 Sony Corp High efficiency encoding method
JP3343965B2 (ja) * 1992-10-31 2002-11-11 ソニー株式会社 音声符号化方法及び復号化方法

Also Published As

Publication number Publication date
EP0640952A2 (en) 1995-03-01
EP0640952B1 (en) 2000-09-20
DE69425935T2 (de) 2001-02-15
US5630012A (en) 1997-05-13
JPH0744193A (ja) 1995-02-14
DE69425935D1 (de) 2000-10-26
EP0640952A3 (en) 1996-12-04

Similar Documents

Publication Publication Date Title
JP3475446B2 (ja) 符号化方法
US5664052A (en) Method and device for discriminating voiced and unvoiced sounds
US6047254A (en) System and method for determining a first formant analysis filter and prefiltering a speech signal for improved pitch estimation
JP3680374B2 (ja) 音声合成方法
JPH0869299A (ja) 音声符号化方法、音声復号化方法及び音声符号化復号化方法
US6023671A (en) Voiced/unvoiced decision using a plurality of sigmoid-transformed parameters for speech coding
McLoughlin et al. LSP-based speech modification for intelligibility enhancement
JP3297749B2 (ja) 符号化方法
JP3297751B2 (ja) データ数変換方法、符号化装置及び復号化装置
JP3237178B2 (ja) 符号化方法及び復号化方法
JP3218679B2 (ja) 高能率符号化方法
JP3362471B2 (ja) 音声信号の符号化方法及び復号化方法
JP3321933B2 (ja) ピッチ検出方法
JP3731575B2 (ja) 符号化装置及び復号装置
JPH0651800A (ja) データ数変換方法
JP3271193B2 (ja) 音声符号化方法
JP3218681B2 (ja) 背景雑音検出方法及び高能率符号化方法
JP3440500B2 (ja) デコーダ
JP3297750B2 (ja) 符号化方法
JP3398968B2 (ja) 音声分析合成方法
JP3218680B2 (ja) 有声音合成方法
JP3223564B2 (ja) ピッチ抽出方法
JPH07104793A (ja) 音声信号の符号化装置及び復号化装置
JP3221050B2 (ja) 有声音判別方法
JPH06202695A (ja) 音声信号処理装置

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030826

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080926

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090926

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees