JPH06202695A - 音声信号処理装置 - Google Patents

音声信号処理装置

Info

Publication number
JPH06202695A
JPH06202695A JP5001368A JP136893A JPH06202695A JP H06202695 A JPH06202695 A JP H06202695A JP 5001368 A JP5001368 A JP 5001368A JP 136893 A JP136893 A JP 136893A JP H06202695 A JPH06202695 A JP H06202695A
Authority
JP
Japan
Prior art keywords
frequency
data
amplitude
pitch
sent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP5001368A
Other languages
English (en)
Inventor
Atsushi Matsumoto
淳 松本
Masayuki Nishiguchi
正之 西口
Shinobu Ono
忍 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP5001368A priority Critical patent/JPH06202695A/ja
Publication of JPH06202695A publication Critical patent/JPH06202695A/ja
Withdrawn legal-status Critical Current

Links

Abstract

(57)【要約】 【構成】 周波数領域のパラメータであるMBE(マル
チバンド励起)ボコーダからの各バンド毎の振幅値A
(n) について、ステップS5ではA(n) を直接操作して
フォルマント強調を行い、ステップS9では高域全体の
強調を行う。 【効果】 周波数領域のパラメータのA(n) を直接操作
しているため、時間領域でのIIR(無限インパルス応
答)フィルタ等を用いた高域強調処理が不要となり、簡
単な操作で正確に強調でき、自然感を損なうことなく再
生音の明瞭度を高めることができる。また、実時間処理
も容易に可能となる。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、音声合成系に用いられ
る音声信号処理装置に関し、特に、マルチバンド励起符
号化(MBE)の音声復号装置の音声合成系の後置フィ
ルタ(ポストフィルタ)に適用して好ましい音声信号処
理装置に関する。
【0002】
【従来の技術】音声信号の時間領域や周波数領域におけ
る統計的性質と人間の聴感上の特性を利用して信号圧縮
を行うような符号化方法が種々知られている。この音声
符号化方法としては、大別して、時間領域での符号化、
周波数領域での符号化、合成分析符号化等が挙げられ
る。
【0003】この音声信号の符号化の具体的な例として
は、MBE(Multiband Excitation: マルチバンド励
起)符号化、SBE(Singleband Excitation:シングル
バンド励起)符号化、ハーモニック(Harmonic)符号
化、SBC(Sub-band Coding:帯域分割符号化)、LP
C(Linear Predictive Coding: 線形予測符号化)、あ
るいはDCT(離散コサイン変換)、MDCT(モデフ
ァイドDCT)、FFT(高速フーリエ変換)等があ
る。
【0004】
【発明が解決しようとする課題】ところで、上記MBE
符号化等のように、周波数領域での処理を中心とする音
声の分析・合成系においては、量子化誤差によりスペク
トル歪が生じ、特に通常ビット割り当てが少ない高域で
の劣化が著しくなることが多い。結果として、このスペ
クトルから合成された音声は、高域フォルマントの消失
もしくはパワー不足、及び高域全体でのパワー不足等に
より明瞭度が失われ、いわゆる鼻のつまったような感じ
が耳につくようになってくる。
【0005】これを補正するためには、時間領域でその
補償処理を行うような例えばIIR(無限インパルス応
答)フィルタ等を用いたフォルマント強調フィルタが用
いられていたが、この場合には音声処理フレーム毎にフ
ォルマントを強調するためのフィルタ係数を算出しなけ
ればならず、実時間処理が困難である。またフィルタの
安定性についても留意する必要があり、演算処理量の割
には効果が大きくないという欠点があった。
【0006】本発明は、上記実情に鑑みてなされたもの
であり、音声合成系でのフォルマント強調のような処理
が簡単化され、容易に実時間処理が行えるような音声信
号処理装置の提供を目的とする。
【0007】
【課題を解決するための手段】本発明に係る音声信号処
理装置は、上述した課題を解決するために、周波数領域
での処理を中心とする音声合成系に用いられる音声信号
処理装置において、周波数スペクトルの高域フォルマン
トを周波数領域のパラメータを直接操作して強調するこ
とを特徴としている。
【0008】ここで、上記周波数スペクトルの高域フォ
ルマントのみならず、高域全体を周波数領域のパラメー
タを直接操作して強調することが考えられる。このよう
な特徴を有する音声信号処理装置は、マルチバンド励起
符号化(MBE)方式の音声復号装置の音声合成系の後
置フィルタに適用することが好ましい。
【0009】
【作用】周波数領域で直接そのパラメータを操作してい
るため、時間軸方向の高域強調フィルタ(例えばIIR
フィルタ)等を用いることなく、簡単な構成及び簡単な
操作で、強調したい部分だけを正確に強調でき、実時間
処理が容易に行える。
【0010】
【実施例】以下、本発明に係る音声信号処理装置の実施
例について、図面を参照しながら説明する。図1は、本
発明の一実施例となる音声信号処理装置が適用された音
声合成系としてのマルチバンド励起符号化(MBE)方
式の音声復号装置の概略構成を示している。
【0011】この図1の入力端子11には、後述するM
BE方式の音声符号化装置、いわゆるMBEボコーダか
ら伝送されてきた量子化振幅データが供給されている。
この量子化振幅データは、上記MBEボコーダにおい
て、入力音声信号の処理フレーム毎のスペクトルを該音
声信号のピッチを単位として分割した各バンド毎の振幅
値を、ピッチの値によらない一定のデータ数に変換し、
ベクトル量子化して得られたデータである。入力端子1
2及び13には、上記MBEボコーダにおいて符号化さ
れたピッチデータ及び各バンド毎に有声音か無声音かを
示すV/UV判別データがそれぞれ供給されている。
【0012】入力端子11からの上記量子化振幅データ
は、逆ベクトル量子化部14に送られて逆量子化され、
データ数逆変換部15に送られて逆変換されて上記バン
ド毎の振幅値とされた後、本発明実施例の要部となる高
域フォルマント強調部16に送られる。この高域フォル
マント強調部16では、周波数領域のパラメータである
各バンド毎の振幅値を直接操作することで、高域フォル
マントの強調処理及び高域強調処理が施される。この強
調処理されて得られた振幅データが有声音合成部17及
び無声音合成部20に送られる。
【0013】入力端子12からの上記符号化ピッチデー
タは、ピッチ復号化部18で復号化され、データ数逆変
換部15、有声音合成部17及び無声音合成部20に送
られる。また入力端子13からのV/UV判別データ
は、有声音合成部17及び無声音合成部20に送られ
る。有声音合成部17では例えば余弦(cosine)波合成に
より時間軸上の有声音波形を合成して、加算部31に送
る。
【0014】無声音合成部20においては、先ず、ホワ
イトノイズ発生部21からの時間軸上のホワイトノイズ
信号波形を、所定の長さ(例えば256サンプル)で適
当な窓関数(例えばハミング窓)により窓かけをし、S
TFT処理部22によりSTFT(ショートタームフー
リエ変換)処理を施すことにより、ホワイトノイズ信号
の周波数軸上のパワースペクトルを得る。このSTFT
処理部22からのパワースペクトルをバンド振幅処理部
23に送り、UV(無声音)とされたバンドについて上
記振幅|Am UVを乗算し、他のV(有声音)とされた
バンドの振幅を0にする。このバンド振幅処理部23に
は上記振幅データ、ピッチデータ、V/UV判別データ
が供給されている。バンド振幅処理部23からの出力
は、ISTFT処理部24に送られ、位相は元のホワイ
トノイズの位相を用いて逆STFT処理を施すことによ
り時間軸上の信号に変換する。ISTFT処理部24か
らの出力は、オーバーラップ加算部25に送られ、時間
軸上で適当な(元の連続的なノイズ波形を復元できるよ
うに)重み付けをしながらオーバーラップ及び加算を繰
り返し、連続的な時間軸波形を合成する。オーバーラッ
プ加算部25からの出力信号が上記加算部31に送られ
る。
【0015】このように、各合成部17、20において
合成されて時間軸上に戻された有声音部及び無声音部の
各信号を、加算部31により適当な固定の混合比で加算
することにより、出力端子32より再生された音声信号
を取り出す。
【0016】次に、上記高域フォルマント強調部16で
の高域フォルマントの強調処理及び高域強調処理につい
て、図2のフローチャートを参照しながら説明する。上
記図1のデータ数逆変換部からのスペクトル情報である
上記各バンド毎の振幅値、すなわち上記MBEボコーダ
側での入力音声信号のスペクトルをピッチに応じて周波
数分割した各バンド毎の振幅値をA(n) とする。ここで
nはいわゆるハーモニックスの番号あるいはバンドのイ
ンデックス番号であり、周波数軸上でピッチ周期でイン
クリメントされる整数値である。
【0017】先ず、図2のステップS1では、上記各バ
ンド毎の振幅値A(n) の内の最大値を検出する。次のス
テップS2で、この最大値が所定の閾値J1 よりも大き
いか否かを判別し、NOのときには高域フォルマント強
調処理を何も行わないで終了する。YESのときにはス
テップS3に進んで、以下に説明するような高域フォル
マント強調処理を開始する。これは、もともとスペクト
ルの値(各バンド毎の振幅値)が小さいときには、強調
を行うとかえって不自然な感じになることを考慮したも
のであり、最大値が上記閾値J1 よりも大きいときの
み、以下のような強調処理を行う。
【0018】ここで、音声のフォルマントを強調する処
理を説明するための具体例として、各バンド毎の振幅値
A(n) が例えば図3に示すようなものである場合に、図
中のF1 、F2 に示す部分には山の頂上となっている形
状が明瞭に表れており、これらが音声の第1、第2フォ
ルマントとなることが分かるが、F3 に示す部分はその
形状が不明確であり、フォルマントであるか否かがはっ
きりしない。そこで、これらのA(n) のエンベロープを
A(n) の移動平均で代表あるいは推定し、この移動平均
で代表あるいは推定されたエンベロープの各バンド毎の
値A'(n)に対してA(n) が大きいか小さいかに応じて、
大きいときはより大きく、小さいときはより小さくする
ことで、フォルマント強調を行う。
【0019】すなわち、図2のステップS3では、上記
各バンド毎の振幅値A(n) の移動平均A'(n)を、
【0020】
【数1】
【0021】によって算出する。
【0022】この(1)式のBは移動平均をとる対象と
なる全バンド幅を示し、nmax は定められた周波数の中
での最大値を示し、ピッチの角周波数ω1 によって変化
するものである。
【0023】図4に上記各バンド毎の振幅値A(n) 及び
上記移動平均A'(n)をプロットした例を示す。この図4
において、高域側の埋もれてしまっているフォルマント
3を、次の(2)式で強調する。 Ae(n)=A(n) +f(A(n) −A'(n))・a(n) ・・・(2)
【0024】この(2)式で、Ae(n)はもとのスペクト
ル(各バンド毎の振幅値)A(n) のフォルマントを強調
したものである。すなわち、移動平均によるエンベロー
プに比較して元のスペクトルが大きい場合には、さらに
元のスペクトルを大きくし、逆の場合にはさらに小さ
く、という操作を行うことになる。また上記(2)式中
の関数fは、具体的には例えば次の(3)式のような関
数を用いればよい。
【0025】
【数2】
【0026】この(3)式中の sgn(p) はpの符号(正
負の極性)を示す関数であり、Kはpがある一定値K以
上になった場合にそこで飽和させるための定数である。
この(3)式の関数を図5に示す。
【0027】さらに、上記(2)式中のa(n) は、バン
ドによってその強調する度合を変化させるためのデータ
であり、低域側では0あるいは極めて小さな値とし、高
域側で非0の値として強調を行わせればよい。
【0028】ただし、強調後のAe(n)が非常に大きくな
ってしまうと想定されるような振幅値A(n) 自体が所定
の閾値J2 以上となるときには、上記強調を行わない。
このため、図2のステップS4では、振幅値A(n) が上
記閾値J2 より小さいか否かを判別し、YESのときの
みステップS5に進んで上記(2)式の計算を行って強
調された振幅値Ae(n)を求めた後ステップS7に進み、
NOのときにはステップS6に進んで元の振幅値A(n)
をAe(n)として(上記強調を行わないで)ステップS7
に進む。
【0029】以上のような高域フォルマント強調の他
に、高域の全体的なパワー不足を補正するため、予め設
定しておいた高域強調データに基づき、次の(4)式に
示すように高域成分を増加させて高域強調を行う。 Aee(n) =Ae(n)+ em(n) ・・・(4) この(4)式の em(n)は、バンドnについて、どの程度
強調を行うかという情報を持ったデータ列である。
【0030】この高域強調については、分析対象の音声
ピッチが高いとき(女声等)には、分析対象となる周波
数帯域(例えば 200〜3400Hz)内のバンド数が少なく、
スペクトル全体の誤差も小さいことを考慮して、上記 e
m(n)をより小さい値に、例えば半分の値 em(n)/2にす
る。すなわち、分析対象の音声ピッチをサンプル数で表
した値Np が所定の閾値Pよりも小さいか否かをステッ
プS7で判別し、YESのときにはステップS8に進ん
で、 em(n)= em(n)/2とした後ステップS9に進み、
NOのときには直接ステップS9に進む。この場合のピ
ッチの閾値Pとしては、例えばP=40(8kHzサンプ
リングで200Hzのピッチに相当)とすることが挙げら
れ、Np <40のときは音声ピッチが200Hzより高い
ことになる。ステップS9では、上記(4)式の高域強
調を行う。
【0031】以上のような高域フォルマント強調や高域
強調を行う際には、強調後のレベル等によっては不自然
な音声を生じることがあり、これを回避するため、上記
ステップS2や、ステップS4や、ステップS7、S8
のような処置を講じている。また、上記高域フォルマン
ト強調の際には、強調を行うバンドを限定して、例えば
上記ハーモニックスの番号nが12以下のバンドに対し
てはフォルマント強調を行わないように予め設定すれば
よい。このバンド制限の処理は、上記(2)式のa(n)
の関数で行わせてもよい。
【0032】次に、本発明に係る音声信号処理装置が適
用可能な音声信号の合成分析符号化装置(いわゆるボコ
ーダ)の一種のMBE(Multiband Excitation: マルチ
バンド励起)ボコーダの具体例について、図面を参照し
ながら説明する。このMBEボコーダは、D. W. Griffi
n and J. S. Lim, Multiband Excitation Vocoder,"IEE
E Trans.Acoustics,Speech,and Signal Processing, vo
l.36, No.8, pp. 1223-1235, Aug.1988に開示されてい
るものであり、従来のPARCOR (PARtialauto-CORr
elation: 偏自己相関)ボコーダ等では、音声のモデル
化の際に有声音区間と無声音区間とをブロックあるいは
フレーム毎に切り換えていたのに対し、MBEボコーダ
では、同時刻(同じブロックあるいはフレーム内)の周
波数軸領域に有声音(Voiced)区間と無声音(Unvoice
d)区間とが存在するという仮定でモデル化している。
【0033】図6は、上記MBEボコーダの実施例の全
体の概略構成を示すブロック図である。この図6におい
て、入力端子101には音声信号が供給されるようにな
っており、この入力音声信号は、HPF(ハイパスフィ
ルタ)等のフィルタ102に送られて、いわゆるDC
(直流)オフセット分の除去や帯域制限(例えば200
〜3400Hzに制限)のための少なくとも低域成分(2
00Hz以下)の除去が行われる。このフィルタ102を
介して得られた信号は、ピッチ抽出部103及び窓かけ
処理部104にそれぞれ送られる。ピッチ抽出部103
では、入力音声信号データが所定サンプル数N(例えば
N=256)単位でブロック分割され(あるいは方形窓
による切り出しが行われ)、このブロック内の音声信号
についてのピッチ抽出が行われる。このような切り出し
ブロック(256サンプル)を、例えばLサンプル(例
えばL=160)のフレーム間隔で時間軸方向に移動さ
せており、各ブロック間のオーバラップはN−Lサンプ
ル(例えば96サンプル)となっている。また、窓かけ
処理部104では、1ブロックNサンプルに対して所定
の窓関数、例えばハミング窓をかけ、この窓かけブロッ
クを1フレームLサンプルの間隔で時間軸方向に順次移
動させている。窓かけ処理された出力信号のデータ列に
対して、直交変換部105により例えばFFT(高速フ
ーリエ変換)等の直交変換処理が施される。
【0034】ピッチ抽出部103では、例えばセンタク
リップ波形の自己相関法を用いて、ピーク周期を決めて
いる。このとき、現在フレームに属する自己相関データ
(自己相関は1ブロックNサンプルのデータを対象とし
て求められる)から複数のピークを求めておき、これら
の複数のピークの内の最大ピークが所定の閾値以上のと
きには該最大ピーク位置をピッチ周期とし、それ以外の
ときには、現在フレーム以外のフレーム、例えば前後の
フレームで求められたピッチに対して所定の関係を満た
すピッチ範囲内、例えば前フレームのピッチを中心とし
て±20%の範囲内にあるピークを求め、このピーク位
置に基づいて現在フレームのピッチを決定するようにし
ている。このピッチ抽出部103ではオープンループに
よる比較的ラフなピッチのサーチが行われ、抽出された
ピッチデータは高精度(ファイン)ピッチサーチ部10
6に送られて、クローズドループによる高精度のピッチ
サーチ(ピッチのファインサーチ)が行われる。
【0035】高精度(ファイン)ピッチサーチ部106
には、ピッチ抽出部103で抽出された整数(インテジ
ャー)値の粗(ラフ)ピッチデータと、直交変換部10
5により例えばFFTされた周波数軸上のデータとが供
給されている。この高精度ピッチサーチ部106では、
上記粗ピッチデータ値を中心に、0.2〜0.5きざみで±
数サンプルずつ振って、最適な小数点付き(フローティ
ング)のファインピッチデータの値へ追い込む。このと
きのファインサーチの手法として、いわゆる合成による
分析 (Analysis by Synthesis)法を用い、合成されたパ
ワースペクトルが原音のパワースペクトルに最も近くな
るようにピッチを選んでいる。
【0036】上記高精度ピッチサーチ部106からの最
適ピッチ及び振幅|Am |のデータは、有声音/無声音
判別部107に送られ、上記各バンド毎に有声音/無声
音の判別が行われる。この判別のために、NSR(ノイ
ズtoシグナル比)を利用する。すなわち、このNSR
値が所定の閾値(例えば0.3)より大のとき(エラーが
大きい)ときには、当該バンドをUV(Unvoiced、無声
音)と判別する。これ以外のときは、近似がある程度良
好に行われていると判断でき、そのバンドをV(Voice
d、有声音)と判別する。
【0037】次に、振幅再評価部108には、直交変換
部105からの周波数軸上データ、高精度ピッチサーチ
部106からのファインピッチと評価された振幅|Am
|との各データ、及び上記有声音/無声音判別部107
からのV/UV(有声音/無声音)判別データが供給さ
れている。この振幅再評価部108では、有声音/無声
音判別部107において無声音(UV)と判別されたバ
ンドに関して、再度振幅|Am UVを求めている。
【0038】この振幅再評価部108からのデータは、
データ数変換(一種のサンプリングレート変換)部10
9に送られる。このデータ数変換部109は、上記ピッ
チに応じて周波数軸上での分割帯域数が異なり、データ
数(特に振幅データの数)が異なることを考慮して、一
定の個数にするためのものである。すなわち、例えば有
効帯域を3400Hzまでとすると、この有効帯域が上記
ピッチに応じて、8バンド〜63バンドに分割されるこ
とになり、これらの各バンド毎に得られる上記振幅|A
m |(UVバンドの振幅|Am UVも含む)データの個
数も8〜63と変化することになる。このためデータ数
変換部109では、この可変個数の振幅データを一定個
数NC (例えば44個)のデータに変換している。
【0039】ここで本実施例においては、周波数軸上の
有効帯域1ブロック分の振幅データに対して、ブロック
内の最後のデータからブロック内の最初のデータまでの
値を補間するようなダミーデータを付加してデータ個数
をNF 個に拡大した後、帯域制限型のKOS倍(例えば8
倍)のオーバーサンプリングを施すことによりKOS倍の
個数の振幅データを求め、このKOS倍の個数(( mMX
1)×KOS個)の振幅データを直線補間してさらに多く
のNM 個(例えば2048個)に拡張し、このNM 個の
データを間引いて上記一定個数NC (例えば44個)の
データに変換する。
【0040】このデータ数変換部109からのデータ
(上記一定個数NC の振幅データ)がベクトル量子化部
110に送られて、所定個数のデータ毎にまとめられて
ベクトルとされ、ベクトル量子化が施される。ベクトル
量子化部110からの量子化出力データは、出力端子1
11を介して取り出される。また、上記高精度のピッチ
サーチ部106からの高精度(ファイン)ピッチデータ
は、ピッチ符号化部115で符号化され、出力端子11
2を介して取り出される。さらに、上記有声音/無声音
判別部107からの有声音/無声音(V/UV)判別デ
ータは、出力端子113を介して取り出される。これら
の各出力端子111〜113からのデータは、所定の伝
送フォーマットの信号とされて伝送される。
【0041】なお、これらの各データは、上記Nサンプ
ル(例えば256サンプル)のブロック内のデータに対
して処理を施すことにより得られるものであるが、ブロ
ックは時間軸上を上記Lサンプルのフレームを単位とし
て前進することから、伝送するデータは上記フレーム単
位で得られる。すなわち、上記フレーム周期でピッチデ
ータ、V/UV判別データ、振幅データが更新されるこ
とになる。
【0042】なお、上記図6の音声分析側(エンコード
側)の構成や図1の音声合成側(デコード側)の構成に
ついては、各部をハードウェア的に記載しているが、い
わゆるDSP(ディジタル信号プロセッサ)等を用いて
ソフトウェアプログラムにより実現することも可能であ
る。
【0043】
【発明の効果】本発明に係る音声信号処理装置によれ
ば、周波数領域での処理を中心とする音声合成系に用い
られる音声信号処理装置において、周波数スペクトルの
高域フォルマントを、周波数領域のパラメータを直接操
作して強調しているため、簡単な構成及び簡単な操作
で、強調したい部分だけを正確に強調でき、自然感を損
なうことなく合成音の明瞭度を向上させることができ
る。さらに、時間軸方向の高域強調フィルタ(例えばI
IRフィルタ)等を用いて時間領域で処理するときに不
可欠とされたフィルタのポール(極)の位置の計算が不
要となるので、容易に実時間処理を行うことができ、ま
たフィルタの不安定さによる悪影響等も完全に回避でき
るという利点がある。
【図面の簡単な説明】
【図1】本発明に係る音声信号処理装置の一実施例が適
用可能な装置の具体例としての音声合成分析符号化装置
の合成側(デコード側)の音声復号装置の概略構成を示
す機能ブロック図である。
【図2】上記実施例の動作を説明するためのフローチャ
ートである。
【図3】周波数軸上のスペクトルデータである各バンド
毎の振幅値を示す図である。
【図4】周波数軸上のスペクトルデータ及びその移動平
均をとって得られたスペクトル包絡線(エンベロープ)
を示す図である。
【図5】フォルマント強調の際の強調の仕方の関数を示
す図である。
【図6】本発明に係る音声信号処理装置の上記実施例が
適用される音声復号装置に信号を送る音声合成分析符号
化装置の分析側(エンコード側)の概略構成を示す機能
ブロック図である。
【符号の説明】
11・・・・・量子化振幅データ入力端子 12・・・・・符号化ピッチデータ入力端子 13・・・・・V/UV判別データ入力端子 16・・・・・高域フォルマント強調部

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】 周波数領域での処理を中心とする音声合
    成系に用いられる音声信号処理装置において、 周波数スペクトルの高域フォルマントを周波数領域のパ
    ラメータを直接操作して強調することを特徴とする音声
    信号処理装置。
  2. 【請求項2】 上記周波数スペクトルの高域全体を周波
    数領域のパラメータを直接操作して強調することを特徴
    とする請求項1記載の音声信号処理装置。
  3. 【請求項3】 上記音声合成系は、マルチバンド励起符
    号化の音声復号装置の音声合成系であることを特徴とす
    る請求項1又は2記載の音声信号処理装置。
JP5001368A 1993-01-07 1993-01-07 音声信号処理装置 Withdrawn JPH06202695A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5001368A JPH06202695A (ja) 1993-01-07 1993-01-07 音声信号処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5001368A JPH06202695A (ja) 1993-01-07 1993-01-07 音声信号処理装置

Publications (1)

Publication Number Publication Date
JPH06202695A true JPH06202695A (ja) 1994-07-22

Family

ID=11499557

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5001368A Withdrawn JPH06202695A (ja) 1993-01-07 1993-01-07 音声信号処理装置

Country Status (1)

Country Link
JP (1) JPH06202695A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003096325A1 (en) * 2002-05-07 2003-11-20 Sony Corporation Coding method, coding device, decoding method, and decoding device
JP2008090178A (ja) * 2006-10-04 2008-04-17 Sharp Corp 信号処理方法、信号処理装置及びプログラム
US7606702B2 (en) 2003-05-01 2009-10-20 Fujitsu Limited Speech decoder, speech decoding method, program and storage media to improve voice clarity by emphasizing voice tract characteristics using estimated formants

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003096325A1 (en) * 2002-05-07 2003-11-20 Sony Corporation Coding method, coding device, decoding method, and decoding device
CN1302458C (zh) * 2002-05-07 2007-02-28 索尼株式会社 解码方法和解码装置
US7428489B2 (en) 2002-05-07 2008-09-23 Sony Corporation Encoding method and apparatus, and decoding method and apparatus
US7606702B2 (en) 2003-05-01 2009-10-20 Fujitsu Limited Speech decoder, speech decoding method, program and storage media to improve voice clarity by emphasizing voice tract characteristics using estimated formants
JP2008090178A (ja) * 2006-10-04 2008-04-17 Sharp Corp 信号処理方法、信号処理装置及びプログラム

Similar Documents

Publication Publication Date Title
JP3321971B2 (ja) 音声信号処理方法
KR100427753B1 (ko) 음성신호재생방법및장치,음성복호화방법및장치,음성합성방법및장치와휴대용무선단말장치
JP3653826B2 (ja) 音声復号化方法及び装置
JP3475446B2 (ja) 符号化方法
KR100452955B1 (ko) 음성부호화방법, 음성복호화방법, 음성부호화장치, 음성복호화장치, 전화장치, 피치변환방법 및 매체
JPH05346797A (ja) 有声音判別方法
JPH0869299A (ja) 音声符号化方法、音声復号化方法及び音声符号化復号化方法
JP4040126B2 (ja) 音声復号化方法および装置
JPH10149199A (ja) 音声符号化方法、音声復号化方法、音声符号化装置、音声復号化装置、電話装置、ピッチ変換方法及び媒体
JP3297751B2 (ja) データ数変換方法、符号化装置及び復号化装置
JP3237178B2 (ja) 符号化方法及び復号化方法
JP3218679B2 (ja) 高能率符号化方法
JPH06202695A (ja) 音声信号処理装置
JP3362471B2 (ja) 音声信号の符号化方法及び復号化方法
JP3398968B2 (ja) 音声分析合成方法
JP3297750B2 (ja) 符号化方法
JP3321933B2 (ja) ピッチ検出方法
JP3218681B2 (ja) 背景雑音検出方法及び高能率符号化方法
JP3223564B2 (ja) ピッチ抽出方法
JP3218680B2 (ja) 有声音合成方法
JP3271193B2 (ja) 音声符号化方法
JP4826580B2 (ja) 音声信号の再生方法及び装置
JP2711737B2 (ja) 線形予測分析・合成方式の復号器
JP3221050B2 (ja) 有声音判別方法
JP3302075B2 (ja) 合成パラメータ変換方法および装置

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20000307