JPH06175695A - Coding and decoding method for voice parameters - Google Patents

Coding and decoding method for voice parameters

Info

Publication number
JPH06175695A
JPH06175695A JP4322127A JP32212792A JPH06175695A JP H06175695 A JPH06175695 A JP H06175695A JP 4322127 A JP4322127 A JP 4322127A JP 32212792 A JP32212792 A JP 32212792A JP H06175695 A JPH06175695 A JP H06175695A
Authority
JP
Japan
Prior art keywords
code
vector
output
codebook
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4322127A
Other languages
Japanese (ja)
Other versions
JP3255189B2 (en
Inventor
Naka Oomuro
仲 大室
Kazunori Mano
一則 間野
Takehiro Moriya
健弘 守谷
Satoshi Miki
聡 三樹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP32212792A priority Critical patent/JP3255189B2/en
Publication of JPH06175695A publication Critical patent/JPH06175695A/en
Application granted granted Critical
Publication of JP3255189B2 publication Critical patent/JP3255189B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE:To efficiently code linear prediction parameters using correlation between frames even when a coding error is generated in a transmission line, the quality deterioration caused by the error only affects the following limited number of frames. CONSTITUTION:Present frame quantized value x(n) is expressed by a weighted sum of past frame output code vectors x(n-1), x(n-2) and x(n-3) and the present frame output code vectors. The present frame output code vector x(n) is determined to make a distortion d minimum where the distortion d is defined between the vector, which is the sum of the past frame output code vector weighted sum and the code vector taken from a code book 4 multiplied by the present frame weight coefficient, and the present frame linear prediction parameters.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、音声スペクトルの包
絡特性を表す線形予測パラメータやパワーのパラメータ
を、符号帳を用いて、少ない情報量で高能率にディジタ
ル符号化する音声パラメータの符号化方法および復号方
法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a speech parameter coding method for highly efficiently digitally coding linear prediction parameters and power parameters representing the envelope characteristic of a speech spectrum with a small amount of information using a codebook. And a decoding method.

【0002】[0002]

【従来の技術】従来の音声符号化系において、音声スペ
クトル包絡特性を表す線形フィルタの係数は、線形予測
分析をフレームと呼ばれる一定時間間隔で行って計算さ
れ、偏自己相関(PARCOR)係数や、線スペクトル
対(LSP)などのパラメータに変換、量子化されて、
ディジタル符号に変換された後、記憶、または伝送され
ていた。これらの方法の詳細は、例えば、古井貞煕
著、”ディジタル音声処理”(東海大学出版会)に記載
されている。なお、上記線形フィルタの係数を更新する
時間間隔(フレーム更新周期)は、一般に10ミリ秒か
ら20ミリ秒程度に設定される。
2. Description of the Related Art In a conventional speech coding system, a coefficient of a linear filter representing a speech spectrum envelope characteristic is calculated by performing a linear prediction analysis at a constant time interval called a frame, and a partial autocorrelation (PARCOR) coefficient or Converted into parameters such as line spectrum pair (LSP) and quantized,
It was stored or transmitted after being converted into a digital code. The details of these methods are described in, for example, "Digital Audio Processing" by Sadahiro Furui (Tokai University Press). The time interval (frame update cycle) for updating the coefficient of the linear filter is generally set to about 10 milliseconds to 20 milliseconds.

【0003】こうして求められた線形予測パラメータ
は、1フレーム分のパラメータの組を1つのベクトルと
みなして、ベクトル量子化と呼ばれる方法で符号化する
と高能率に符号化できることが知られている。ベクトル
量子化の詳細は、例えば、上記文献の”ディジタル音声
処理”や、中田和男著、”音声の高能率符号化”(森北
出版)に記載されている。このとき、隣合うフレームの
各線形予測パラメータは相関が強いため、相関を利用す
ると、より高能率に符号化できることが知られている。
その代表的な方法として差分ベクトル量子化がある。こ
の差分ベクトル量子化は、1フレーム前の量子化値(ベ
クトル)と、現在のフレームのパラメータの値(ベクト
ル)の差分をベクトル量子化する方法である。
It is known that the linear prediction parameters thus obtained can be coded with high efficiency if the set of parameters for one frame is regarded as one vector and coded by a method called vector quantization. Details of vector quantization are described, for example, in "Digital Speech Processing" of the above-mentioned document and "High-efficiency encoding of speech" by Kazuo Nakata (Morikita Publishing). At this time, since the linear prediction parameters of adjacent frames have strong correlation, it is known that the coding can be performed more efficiently by using the correlation.
Difference vector quantization is a typical method. This difference vector quantization is a method of vector-quantizing the difference between the quantized value (vector) one frame before and the parameter value (vector) of the current frame.

【0004】[0004]

【発明が解決しようとする課題】ところで、上述した差
分ベクトル量子化法は、高能率符号化方法として、有効
な方法のひとつであるが、例えば、無線ディジタル移動
通信のように通信路の品質が悪い。このため、符号誤り
が頻繁に生じる可能性がある用途に利用することは難し
い。なぜなら、伝送途中で符号誤りが生じると、符号誤
りが生じたフレームの再生値が誤って復号され、その結
果、符号化器と復号器の内部状態に食い違いが生じて、
受信側で永久に品質の劣化が続く可能性があるからであ
る。
By the way, the above-mentioned difference vector quantization method is one of the effective methods as a high-efficiency encoding method. bad. For this reason, it is difficult to use it for applications where code errors may occur frequently. This is because if a code error occurs during transmission, the reproduction value of the frame in which the code error occurs is erroneously decoded, and as a result, the internal states of the encoder and the decoder disagree,
This is because there is a possibility that quality deterioration will continue on the receiving side.

【0005】また、蓄積型のメディアに利用する場合な
どでは、記憶した最初のフレームから必ず再生しなけれ
ばならず、途中のフレーム(時間)から再生することは
できないという問題がある。なお、差分ベクトル量子化
に代表される、過去のフレームの量子化値を利用して現
在のフレームの値を符号化する方法は、一般に自己回帰
(AR)型の予測符号化と呼ばれる。
Further, in the case of using it for a storage type medium, there is a problem that it is always necessary to reproduce from the first frame stored, and it is not possible to reproduce from an intermediate frame (time). Note that the method of encoding the value of the current frame using the quantized value of the past frame, which is represented by the difference vector quantization, is generally called autoregressive (AR) type predictive encoding.

【0006】この発明は上述した事情に鑑みてなされた
もので、線形予測パラメータをフレーム間の相関を利用
して高能率に符号化でき、伝送路において符号誤りが生
じてもその誤りによる品質の劣化が後続する有限のフレ
ームにしか影響しない音声パラメータの符号化方法およ
び復号方法を提供することを目的としている。
The present invention has been made in view of the above-mentioned circumstances, and it is possible to efficiently code a linear prediction parameter by utilizing the correlation between frames, and even if a code error occurs in a transmission line, the quality due to the error can be improved. It is an object of the present invention to provide a coding method and a decoding method of a speech parameter, which deterioration affects only a finite number of subsequent frames.

【0007】[0007]

【課題を解決するための手段】請求項1記載の発明で
は、音声スペクトル包絡特性を表す線形予測パラメータ
またはパワーのパラメータを、フレームと呼ばれる一定
時間間隔で算出し、所定のビット数で符号化する方法で
あって、符号器は、複数のコードベクトルを蓄えた第1
の符号帳と、前記複数のコードベクトルから量子化値を
再生する再生手段と、音声を分析して得られたパラメー
タと前記量子化値との歪みを計算する計算手段とを有
し、過去のフレームにおいて前記第1の符号帳から出力
されたコードベクトルと現在のフレームのコードベクト
ルとに、それぞれ重み係数を乗算して加え合わせたベク
トルによって、現在のフレームの量子化値を表現し、前
記計算手段によって得られた、前記量子化値と前記パラ
メータとの歪みが最小、または十分最小に近くなるよう
な基準を用いて、前記第1の符号帳が出力すべきコード
ベクトルを選択し、その符号を出力するとともに、復号
器は、複数のコードベクトルを蓄えた第2の符号帳を有
し、前記第2の符号帳に蓄えられる複数のコードベクト
ルの中から、受け取った前記符号に対応するコードベク
トルを出力し、出力された現在のフレームの前記コード
ベクトルと過去のフレームにおいて前記第2の符号帳か
ら出力されたコードベクトルに、それぞれ重み係数を乗
算して加え合わせたベクトルを現在のフレームの量子化
値として出力することを特徴とする。
According to a first aspect of the present invention, a linear prediction parameter or a power parameter representing a voice spectrum envelope characteristic is calculated at a constant time interval called a frame and encoded with a predetermined number of bits. The method, wherein the encoder has a first number of code vectors stored therein.
A codebook, a reproducing means for reproducing a quantized value from the plurality of code vectors, and a calculating means for calculating the distortion between the parameter obtained by analyzing the voice and the quantized value, In the frame, the quantized value of the current frame is expressed by a vector obtained by multiplying the code vector output from the first codebook and the code vector of the current frame by multiplying each with a weighting factor, and performing the calculation. The code vector to be output by the first codebook is selected by using a criterion obtained by the means such that the distortion between the quantized value and the parameter is minimum or sufficiently close to the minimum, and the code is selected. And the decoder has a second codebook that stores a plurality of code vectors, and receives from among the plurality of code vectors stored in the second codebook. The code vector corresponding to the code is output, and the code vector output from the current frame and the code vector output from the second codebook in the past frame are multiplied by weighting factors and added. The output vector is a quantized value of the current frame.

【0008】また、請求項2記載の発明では、前記符号
器は、複数種類の重み係数が蓄えられた係数符号帳を備
えるとともに、音声を分析して得られたパラメータと現
在のフレームの量子化値との歪みが最小または十分最小
に近くなるような基準を用いて、前記第1の符号帳の中
から出力すべきコードベクトルと前記係数符号帳の重み
係数とを選択し、各々の符号を出力するとともに、前記
復号器は、受け取った前記重み係数に対する符号に対応
する重み係数の値を前記係数符号帳より取り出して、該
重み係数を用いて現在の量子化値を決定することを特徴
とする請求項1記載の音声パラメータの符号化方法およ
び復号方法。
According to the second aspect of the present invention, the encoder includes a coefficient codebook in which a plurality of types of weighting coefficients are stored, and the parameters obtained by analyzing the speech and the quantization of the current frame. A code vector to be output and a weighting coefficient of the coefficient code book are selected from the first code book using a criterion such that the distortion with the value is minimum or sufficiently close to the minimum, and the respective codes are selected. At the same time as outputting, the decoder extracts the value of the weight coefficient corresponding to the received code for the weight coefficient from the coefficient codebook, and determines the current quantized value using the weight coefficient. A method of encoding and decoding a voice parameter according to claim 1.

【0009】また、請求項3記載の発明では、前記符号
器は、音声を分析して得られたパラメータを複数フレー
ム分まとめてフレーム群として出力する出力手段と、前
記フレーム群の各フレームに対応するコードベクトルを
蓄える第3の符号帳とを有し、現在のフレーム群の各コ
ートベクトルと過去のフレーム群において出力された各
フレームのコードベクトルに、それぞれ重み係数を乗算
して加え合わせたベクトル群によって、現在のフレーム
群の量子化値群を表現し、現在のフレーム群の音声のパ
ラメータと前記量子化値群との歪みが最小または十分最
小に近くなるような基準を用いて、前記第3の符号帳が
出力すべき、現在のフレーム群の各フレームに対するコ
ードベクトルを選択し、各々の符号を出力するととも
に、復号器は、受け取った各符号に対応する各コードベ
クトルを各符号帳より出力し、該各コードベクトルと過
去のフレーム群において出力された各コードベクトル
に、それぞれ重み係数を乗算して加え合わせたベクトル
群を現在のフレーム群の量子化値群として出力すること
を特徴とする。
According to the third aspect of the invention, the encoder corresponds to each frame of the frame group, and output means for collecting the parameters obtained by analyzing the voice for a plurality of frames and outputting them as a frame group. And a third codebook for storing code vectors, and a vector obtained by multiplying each code vector of the current frame group and the code vector of each frame output in the past frame group by multiplying each by a weighting coefficient. The group represents a quantized value group of the current frame group, and the criterion is used such that distortion between the parameter of the voice of the current frame group and the quantized value group is minimum or sufficiently close to the minimum. 3 selects the code vector for each frame of the current frame group to be output by the codebook, outputs each code, and the decoder receives Each code vector corresponding to each code is output from each codebook, and each code vector and each code vector output in the past frame group are multiplied by a weighting factor and added to obtain a vector group. It is characterized by outputting as a quantized value group of the frame group of.

【0010】[0010]

【作用】請求項1ないし3記載の発明によれば、現在の
フレームの量子化値は、過去のフレームにおける出力コ
ードベクトルと、現在のフレームの出力コードベクトル
の重み付き和で表現される。過去のフレームとは、1フ
レーム前よりMフレーム前までをさす。ここで、Mが大
きいほど符号化の能率は高い。しかし、符号誤りが生じ
たときの影響はMフレーム後まで及ぶほか、符号化して
蓄積した音声を途中から再生する場合にも、Mフレーム
過去に遡る必要があるため、Mは必要に応じて適切に選
択される。現在のフレームにおける出力コードベクトル
は、過去のフレームにおける出力コードベクトルの重み
付き和に符号帳から取り出したコードベクトルに現在の
フレームの重み係数を乗じて加えたベクトルと、現在の
フレームの線形予測パラメータとの歪みが最小になるよ
うに決定される。各フレームのコードベクトルに乗ずる
重み係数の値は、一種類に固定してもよいし、複数組用
意して、歪みが最小になる係数を選択してもよい。ま
た、入力される線形予測パラメータをバッファリングし
て数フレームをまとめ、数フレーム分の歪みが最小にな
るように数フレーム分の出力コードベクトルを決定する
と、更に符号化の能率が高い。したがって、線形予測パ
ラメータは、フレーム間の相関を用いて高能率に符号化
されるうえ、符号誤りが生じても後続する有限のMフレ
ームまでしか影響が及ばず、蓄積された音声の任意の時
刻から再生できるという特徴を持った符号化を実現する
ことができる。
According to the present invention, the quantized value of the current frame is expressed by the weighted sum of the output code vector of the past frame and the output code vector of the current frame. The past frame refers to one frame before and M frames before. Here, the larger M is, the higher the coding efficiency is. However, when a code error occurs, the effect extends up to after M frames, and even when the coded and accumulated voice is reproduced from the middle, it is necessary to go back M frames in the past, so M is appropriate if necessary. To be selected. The output code vector in the current frame is the vector obtained by adding the weighted sum of the output code vectors in the past frames to the code vector extracted from the codebook by the weight coefficient of the current frame, and the linear prediction parameter of the current frame. And the distortion is determined to be the minimum. The value of the weighting coefficient by which the code vector of each frame is multiplied may be fixed to one type, or a plurality of sets may be prepared and the coefficient that minimizes the distortion may be selected. Further, if the input linear prediction parameter is buffered to combine several frames and the output code vector for several frames is determined so that the distortion for several frames is minimized, the coding efficiency is further increased. Therefore, the linear prediction parameter is highly efficiently coded by using the correlation between frames, and even if a code error occurs, it affects only the finite M frames that follow, and the arbitrary time of the accumulated speech. It is possible to realize the encoding having the characteristic that it can be reproduced from.

【0011】[0011]

【実施例】次に図面を参照してこの発明の実施例につい
て説明する。図1は、この発明による音声の線形予測パ
ラメータ符号化法を適用した、一実施例の符号化装置の
構成例を示すブロック図である。図において、入力端子
1からは、標本化されディジタル化された音声信号s
(t)が入力される。ここで、tは標本化周期を単位と
する時刻を表す。線形予測分析部2では、音声信号s
(t)のNw個のサンプルをいったんデータバッファに
蓄えた後、これらのサンプルに対して線形予測分析を行
って、一組の線形予測係数
Embodiments of the present invention will now be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration example of a coding apparatus according to an embodiment to which a linear prediction parameter coding method for speech according to the present invention is applied. In the figure, from the input terminal 1, a sampled and digitized audio signal s
(T) is input. Here, t represents time in units of sampling cycle. In the linear prediction analysis unit 2, the audio signal s
After storing N w samples of (t) once in a data buffer, a linear prediction analysis is performed on these samples to obtain a set of linear prediction coefficients.

【数1】 を算出する。ここで、pは分析次数と呼ばれ、一般には
10〜16程度の値が用いられる。また、上記Nwサン
プルの単位は分析窓長またはフレーム窓長と呼ばれる。
線形予測分析は、データバッファのデータをNfサンプ
ルずつシフトし、更新しながら線形予測分析を繰り返
す。このときのNfはフレーム更新周期または単にフレ
ーム長と呼ばれる。この結果、Nf個の入力サンプルに
対してp個の線形予測係数が出力される。ここでは、線
形予測係数の時刻を表す単位として、Nf個のサンプル
を単位として時間単位をnで表し、「第nフレームの第
i次の線形予測係数ai(n)」と呼ぶことにする。こ
れらの処理方法の詳細は、前述の古井の著書に記載され
ている。
[Equation 1] To calculate. Here, p is called an analysis order, and generally a value of about 10 to 16 is used. The unit of N w samples is called the analysis window length or frame window length.
In the linear prediction analysis, the data in the data buffer is shifted by N f samples, and the linear prediction analysis is repeated while updating. N f at this time is called a frame update period or simply a frame length. As a result, p linear prediction coefficients are output for N f input samples. Here, the time unit of the linear prediction coefficient is represented by n in units of N f samples and is referred to as “ i- th linear prediction coefficient a i (n) of the nth frame”. To do. Details of these treatment methods are described in the above-mentioned book by Furui.

【0012】線スペクトル対算出部3では、p個の線形
予測係数を同じくp個の線スペクトル対、
In the line spectrum pair calculation unit 3, the p linear prediction coefficients are also converted into p line spectrum pairs,

【数2】 に変換する。ここでは、上記p個のパラメータをベクト
ルとみなして
[Equation 2] Convert to. Here, regarding the above-mentioned p parameters as vectors,

【数3】 と表す。この実施例において線形予測係数を線スペクト
ル対に変換するのは、線スペクトル対の性質が、この発
明における方法の効果を大きくできるためである。この
発明において、線スペクトル対算出部3は必ずしも必要
ではなく、線形予測係数のままでも、偏自己相関係数な
ど、線形予測係数と相互変換が可能な任意のパラメータ
に変換してもよい。
[Equation 3] Express. The reason for converting the linear prediction coefficient into a line spectrum pair in this embodiment is that the nature of the line spectrum pair can make the method of the present invention more effective. In the present invention, the line spectrum pair calculation unit 3 is not always necessary, and may be a linear prediction coefficient as it is or may be converted into an arbitrary parameter such as a partial autocorrelation coefficient that can be interconverted with a linear prediction coefficient.

【0013】符号帳4は、Lv個のコードベクトルを蓄
え、その中のひとつを量子化値再生部5に送る。量子化
値再生部5は、バッファ部6−1、6−2、6−3、ベ
クトル乗算部7−0、7−1、7−2、7−3、および
ベクトル加算部8−0、8−1、8−2からなり、バッ
ファ部6−1、6−2、6−3に蓄えられた過去のフレ
ームのコードベクトルと、入力された現在のフレームの
コードベクトルの重み付き和を計算して、量子化値(の
候補)を再生する部分である。ベクトル乗算部7−0、
7−1、7−2、7−3はベクトルの各要素毎の積を要
素とするベクトルを出力する。現在のフレームのコード
ベクトル(の候補)を
The codebook 4 stores Lv code vectors and sends one of them to the quantized value reproducing unit 5. The quantized value reproduction unit 5 includes buffer units 6-1, 6-2, 6-3, vector multiplication units 7-0, 7-1, 7-2, 7-3 and vector addition units 8-0, 8 -1, 8-2, and calculates a weighted sum of the code vector of the past frame stored in the buffer units 6-1, 6-2, 6-3 and the code vector of the input current frame. The quantized value (candidate) is reproduced. Vector multiplication unit 7-0,
7-1, 7-2, and 7-3 output a vector whose element is the product of each element of the vector. Current vector code vector (candidate)

【数4】 とおき、同様にして1フレーム前のコードベクトルをx
(n−1)、2フレーム前のコードベクトルをx(n−
2)、jフレーム前のコードベクトルをx(n−j)と
おくと、現在のフレームの量子化値のベクトル
[Equation 4] Similarly, the code vector one frame before is x
(N-1) The code vector two frames before is x (n-
2), if the code vector of the j-th frame before is x (n−j), the vector of the quantized value of the current frame

【数5】 は、[Equation 5] Is

【数6】 で表される。ただし、[Equation 6] It is represented by. However,

【数7】 はjフレーム前のコードベクトルに乗ずる重み係数ベク
トルで、あらかじめ決められた値である。重み係数は行
[Equation 7] Is a weighting coefficient vector which is multiplied by the code vector of j frames before, and is a predetermined value. Weighting factor is a matrix

【数8】 にして、[Equation 8] And then

【数9】 としてもよい。[Equation 9] May be

【0014】図1には、M=3の例を示している。Mの
値が大きいほど、量子化能率は高いが、符号誤りが生じ
たときの影響はMフレーム後まで及ぶほか、符号化して
蓄積した音声を途中から再生する場合にも、Mフレーム
過去に遡る必要があるため、Mは必要に応じて適切に選
択される。フレーム長を20ミリ秒に設定した場合に
は、通常Mは6以下で十分であり、1か2に設定して
も、この発明による効果は十分に発揮される。Mの値を
増やす構成例は、図1において、バッファ部、ベクトル
乗算部、ベクトル加算部を順に一組ずつ追加することに
よって容易に推測される。以下、Mを「移動平均予測の
次数」と呼ぶことにする。
FIG. 1 shows an example of M = 3. The larger the value of M is, the higher the quantization efficiency is. However, when a code error occurs, the influence extends to after M frames, and when the coded and accumulated voice is reproduced from the middle, it goes back to the past of M frames. Since M is required, M is appropriately selected according to need. When the frame length is set to 20 milliseconds, M is usually 6 or less, and even if it is set to 1 or 2, the effect of the present invention is sufficiently exerted. A configuration example in which the value of M is increased can be easily estimated by adding a pair of a buffer unit, a vector multiplication unit, and a vector addition unit in order in FIG. Hereinafter, M will be referred to as "order of moving average prediction".

【0015】こうして得られた量子化値(の候補)は、
歪み計算部9に送られる。歪み計算部9は、線スペクト
ル対のベクトルf(n)と量子化値(の候補)のベクト
ルq(n)との歪みdを計算する。歪みは、例えば、以
下のような重み付きユークリッド距離で定義するとよ
い。
The quantized values (candidates) thus obtained are
It is sent to the distortion calculator 9. The distortion calculator 9 calculates the distortion d between the vector f (n) of the line spectrum pair and the vector q (n) of (the candidate for) the quantized value. The distortion may be defined by the following weighted Euclidean distance, for example.

【数10】 ただし、[Equation 10] However,

【数11】 はf(n)より求められる重み係数で、スペクトルのホ
ルマント周波数付近を重視するような重みにすると性能
がよい。例えば、次のような式である。
[Equation 11] Is a weighting factor obtained from f (n), and the performance is good if the weighting is performed so that the vicinity of the formant frequency of the spectrum is emphasized. For example, the following formula.

【数12】 ただし、f0(n)=0,fp+1(n)=πである。ま
た、除算を用いない簡易な重みの計算式として、
[Equation 12] However, f 0 (n) = 0 and f p + 1 (n) = π. Also, as a simple weight calculation formula that does not use division,

【数13】 ただし、f0(n)=0,fp+1(n)=π、としてもよ
い。α、β、γは、定数で、例えばα=10、β=1、
γ=1とする。符号帳検索制御部10は、符号帳に蓄え
られたLv個のコードベクトルの中から、歪み計算部9
の出力である歪みdが最小になるコードベクトルを検索
し、その符号を端子11より送出する。端子11より送
出された符号は、伝送路を通して復号装置に送られる
か、記憶装置に記憶される。現在のフレームの出力コー
ドベクトルx(n)が決定されると、x(n)は次のフ
レームのためにバッファ部6−1へ、バッファ部のx
(n−j)は順次次のバッファに送られる。
[Equation 13] However, f 0 (n) = 0 and f p + 1 (n) = π may be set. α, β, γ are constants, for example, α = 10, β = 1,
Let γ = 1. The codebook search control unit 10 selects the distortion calculation unit 9 from the Lv code vectors stored in the codebook.
The code vector that minimizes the distortion d, which is the output of, is searched, and the code is transmitted from the terminal 11. The code transmitted from the terminal 11 is transmitted to the decoding device through the transmission path or stored in the storage device. When the output code vector x (n) of the current frame is determined, x (n) is sent to the buffer unit 6-1 for the next frame, and x (n) of the buffer unit is determined.
(N-j) are sequentially sent to the next buffer.

【0016】図2はこの発明の実施例を適用した復号装
置の一構成例であり、前述した移動平均予測の次数Mの
値が3のときの例である。図において、符号化装置より
送られた符号に対応するコードベクトルx(n)が符号
帳20より出力され、それぞれバッファ部21−1、2
1−2、21−3に蓄えられた1フレーム前、2フレー
ム前、3フレーム前のコードベクトルx(n−1)、x
(n−2)、x(n−3)との重み付き和が算出され、
現在のフレームの線スペクトル対の量子化再生値のベク
トルq(n)が出力される。
FIG. 2 shows an example of the configuration of a decoding apparatus to which the embodiment of the present invention is applied, and is an example when the value of the order M of the moving average prediction described above is 3. In the figure, the code vector x (n) corresponding to the code sent from the coding device is output from the code book 20, and buffer sections 21-1 and 2 are respectively provided.
Code vectors x (n-1), x before 1 frame, before 2 frames, and before 3 frames stored in 1-2 and 21-3
The weighted sum of (n-2) and x (n-3) is calculated,
A vector q (n) of quantized reproduction values of the line spectrum pair of the current frame is output.

【数14】 ただし、 cj=(cj1,cj2,…,cjp) はjフレーム前のコードベクトルに乗ずる重み係数ベク
トルで、あらかじめ決められた値である。なお、符号化
装置同様に、重み係数を行列にして、
[Equation 14] However, c j = (c j1 , c j2 , ..., C jp ) is a weighting coefficient vector by which the code vector of the j-th frame before is multiplied and is a predetermined value. As in the encoding device, the weighting factors are formed into a matrix,

【数15】 としてもよい。q(n)は線形予測係数算出部24に送
られ、線スペクトル対から線形予測係数に変換される。
図1において線スペクトル対算出部3を用いない場合に
は、図2においても線形予測係数算出部24は不要であ
る。また、線スペクトル対から直接音声を合成したり、
線スペクトル対そのものを音声認識のための特徴量とし
て用いる場合にも線形予測係数算出部24は不要であ
る。端子25からは、線形予測係数の再生値が出力され
る。
[Equation 15] May be q (n) is sent to the linear prediction coefficient calculation unit 24 and converted from the line spectrum pair to the linear prediction coefficient.
When the line spectrum pair calculation unit 3 is not used in FIG. 1, the linear prediction coefficient calculation unit 24 is not necessary in FIG. You can also synthesize speech directly from line spectrum pairs,
Even when the line spectrum pair itself is used as a feature amount for speech recognition, the linear prediction coefficient calculation unit 24 is not necessary. The reproduced value of the linear prediction coefficient is output from the terminal 25.

【0017】図3は、図1において、各コードベクトル
に乗ずる重み係数ベクトルのセットを複数組係数符号帳
39に用意して、歪みが最小になる係数を選択する一構
成例である。図1においては、各コードベクトルに乗ず
る重み係数ベクトルの値C0、C1、C2、C3は固定であ
ったが、図3においては、係数符号帳はLc組の係数ベ
クトルセットを蓄え、各係数をベクトル乗算部36−
0、36−1、36−2、36−3に送る。現在のフレ
ームのコードベクトルx(n)とバッファ部35−1、
35−2、35−3に蓄えられたjフレーム前のコード
ベクトルx(n−j)、j=1、2、3は、それぞれベ
クトル乗算部36−1、36−2、36−3において、
重み係数ベクトルCj(n)、j=1、2、3と各要素
同士が乗じられた後、ベクトル加算部37−0、37−
1、37−3において加算され、現在のフレームの量子
化値(の候補)ベクトルq(n)として出力される。歪
み計算部38では、現在の線スペクトル対f(n)とq
(n)との歪みdを計算し、符号帳検索制御部40にお
いて、歪みdが最小となるようなコードベクトルの符号
と係数符号を検索し、それぞれ符号帳34と係数符号帳
39に送る。
FIG. 3 is an example of a configuration in which a set of weighting coefficient vectors to be multiplied by each code vector in FIG. 1 is prepared in a plurality of sets of coefficient codebooks 39, and a coefficient that minimizes distortion is selected. In FIG. 1, the values C 0 , C 1 , C 2 , and C 3 of the weighting coefficient vector multiplied by each code vector are fixed, but in FIG. 3, the coefficient codebook stores Lc coefficient vector sets. , The vector multiplication unit 36-
0, 36-1, 36-2, 36-3. The code vector x (n) of the current frame and the buffer unit 35-1,
Code vectors x (n−j), j = 1, 2, and 3 stored in 35-2 and 35-3 before j frames are respectively stored in vector multiplication units 36-1, 36-2, and 36-3.
After the weight coefficient vector C j (n), j = 1, 2, 3 and the respective elements are multiplied, the vector addition units 37-0, 37-
1 and 37-3 are added together and output as a quantized value vector q (n) of the quantized value of the current frame. In the distortion calculation unit 38, the current line spectrum pair f (n) and q
The distortion d with (n) is calculated, and the codebook search control unit 40 searches for the code and code of the code vector that minimizes the distortion d and sends them to the codebook 34 and the coefficient codebook 39, respectively.

【0018】図4は、図3における符号帳34を符号帳
54と符号帳55に分割し、多段ベクトル量子化法を適
用した例の構成を示すブロック図である。多段ベクトル
量子化を適用する理由は、割り当てビットの増加ととも
に指数関数的に増加する符号帳を記憶するためのメモリ
サイズと、符号帳を検索するための演算量を低減するた
めである。上記符号帳54と符号帳55から、それぞれ
1段目のコードベクトル(の候補)e(1)(n)と2段
目のコードベクトル(の候補)e(2)(n)が出力さ
れ、ベクトル加算部56で加算されて、下記に示す現在
のフレームのコードベクトル(の候補)x(n)が構成
される。 x(n)=e(1)(n)+e(2)(n)
FIG. 4 is a block diagram showing a configuration of an example in which the codebook 34 in FIG. 3 is divided into a codebook 54 and a codebook 55 and a multistage vector quantization method is applied. The reason why multi-stage vector quantization is applied is to reduce the memory size for storing a codebook that exponentially increases as the allocated bits increase and the amount of calculation for searching the codebook. The codebook 54 and the codebook 55 output the first-stage code vector (candidate) e (1) (n) and the second-stage code vector (candidate) e (2) (n), respectively. The vectors are added by the vector addition unit 56 to form (candidate) x (n) of the code vector of the current frame shown below. x (n) = e (1) (n) + e (2) (n)

【0019】量子化値再生部66は、入力されたx
(n)と、バッファに蓄えられた過去のコードベクトル
から量子化値(の候補)ベクトルq(n)を計算する。
歪み計算部60ではf(n)とq(n)との歪みdを計
算し、符号帳検索制御部61において、歪みdが最小と
なるような1段目のコードベクトルの符号1と2段目の
コードベクトルの符号2と係数符号を検索し、それぞれ
の符号帳に送るとともに伝送路に送出、または記憶装置
に記憶する。このとき、歪みdを最小にするような符号
C1、符号C2、および係数符号の最適な組合せを検索
するためには、各符号帳のサイズを、それぞれLv1
Lv2、Lcとすると、Lv1×Lv2×Lc回の距離計
算と比較が必要になり、各サイズが大きくなると莫大な
演算コストを必要とする。そこで、まず、 x(n)=e(1)(n) としてq(n)を計算し、歪みdが小さい順に符号C1
のコードの候補をNv1個残し、それぞれの候補につい
て、 x(n)=e(1)(n)+e(2)(n) としてq(n)を計算し、歪みdが最小になるような符
号C1と符号C2を検索する。このように、途中の段階
で候補を残し(絞り)ながら、全体として十分最適とみ
なせるコードベクトルを探索する方法は、一般に、ディ
レイドディシジョンと呼ばれている。係数符号帳のサイ
ズが小さい場合には、各係数セット毎に最適なコードベ
クトルを求めて、歪みが最も小さいときの係数セットと
コードベクトルの組を出力してもよいし、係数セットの
探索も含めてディレイドディシジョンを適用してもよ
い。係数セットも含めてディレイドディシジョンを適用
する場合には、第1段目の探索で係数セットと1段目の
コードベクトルの直積空間のなかから、歪みdが小さい
順にNv1個に候補を絞り2段目に渡す。
The quantized value reproducing unit 66 receives the input x
Quantized value vector (candidate) q (n) is calculated from (n) and the past code vector stored in the buffer.
The distortion calculation unit 60 calculates the distortion d between f (n) and q (n), and the codebook search control unit 61 calculates the codes 1 and 2 of the first-stage code vector that minimizes the distortion d. The code 2 of the eye code vector and the coefficient code are retrieved and sent to the respective code books and sent to the transmission path or stored in the storage device. At this time, in order to search for the optimum combination of the code C1, the code C2, and the coefficient code that minimizes the distortion d, the size of each codebook is set to Lv 1 , respectively.
If Lv 2 and Lc, it is necessary to calculate and compare distances Lv 1 × Lv 2 × Lc times, and if each size increases, enormous calculation cost is required. Therefore, first, q (n) is calculated with x (n) = e (1) (n), and the code C1
Nv 1 code candidates are left, and q (n) is calculated with x (n) = e (1) (n) + e (2) (n) for each candidate so that the distortion d is minimized. The code C1 and the code C2 are searched. In this way, a method of searching for a code vector that can be considered to be sufficiently optimum as a whole while leaving (narrowing) candidates at an intermediate stage is generally called a delayed decision. When the size of the coefficient codebook is small, an optimum code vector may be obtained for each coefficient set, and the set of the coefficient set and the code vector when the distortion is the smallest may be output. The delayed decision may be applied including it. When the delayed decision is applied also including the coefficient set, the candidates are narrowed down to Nv 1 in the descending order of the distortion d from the direct product space of the coefficient set and the code vector of the first step in the search in the first step. Pass to the stage.

【0020】上述した図4は2段の多段ベクトル量子化
法を適用した構成例であるが、符号帳の数をH個にして
H段の多段ベクトル量子化法に容易に拡張できる。この
ときの符号帳検索方法は、2段のときと同様にして、各
段で候補を絞り、それぞれの候補について次段の候補を
検索する手法を用いれば良い。リアルタイム処理をする
ためには、一般に各段の符号帳のサイズは128か25
6程度以下に設定される。上記実施例は、入力されるす
べてのフレーム毎に量子化操作を行う例であるが、、例
えば、フレーム毎に入力されるベクトル f(n),n=1,2,3,…… に対して、 n=r×m,m=1,2,3,…… f’(m)=f(n) とおき、mを単位として f’(m) に上記実施例を適用してもよい。すなわち、これは、r
フレームおきに量子化操作を行なうことを意味する。こ
の場合、量子化操作を行わなかったフレームの再生値
は、例えば、前後のフレームの再生値から線形補間など
によって推定する。rの値は、フレーム長の設定や用途
毎の品質の要求条件により異なるが、例えば、フレーム
長を10ミリ秒に設定した場合には、 r=2 に設定するとよい。
The above-mentioned FIG. 4 shows an example of the structure to which the two-stage multi-stage vector quantization method is applied, but the number of codebooks can be set to H and easily extended to the H-stage multi-stage vector quantization method. The codebook search method at this time may be the same as in the case of the second stage, in which the candidates are narrowed down in each stage and the next stage candidate is searched for each candidate. For real-time processing, the codebook size of each stage is generally 128 or 25.
It is set to about 6 or less. The above embodiment is an example in which the quantization operation is performed for every input frame. For example, for the vector f (n), n = 1, 2, 3, ... Then, n = r × m, m = 1, 2, 3, ... F ′ (m) = f (n), and the above embodiment may be applied to f ′ (m) with m as a unit. . That is, this is r
This means that the quantization operation is performed every frame. In this case, the reproduction value of the frame for which the quantization operation has not been performed is estimated by, for example, linear interpolation from the reproduction values of the preceding and succeeding frames. The value of r varies depending on the setting of the frame length and the quality requirement for each application, but for example, when the frame length is set to 10 milliseconds, r = 2 may be set.

【0021】次に、図5はrフレーム分のパラメータを
バッファにいったん蓄え、rフレーム分をひとめとめに
して符号化する場合の一構成を示すブロック図である。
rフレーム分まとめて符号化すると、よりいっそう高能
率な符号化を実現することができる。バッファに蓄えた
rフレーム分のパラメータを u(m,k)=f(rm+k),k=0,1,2,…,
r−1 u(m,k)=(u1(m,k),u2(m,k),…,
p(m,k)) とおいて、u(m,k)を「第mフレーム第kサブフレ
ームのパラメータ」と呼ぶことにする。図5はr=2の
場合の構成を示す例である。以下、r=2として説明す
る。
Next, FIG. 5 is a block diagram showing a configuration in which parameters for r frames are temporarily stored in a buffer, and r frames are collectively encoded.
If coding is performed collectively for r frames, much more efficient coding can be realized. Parameters for r frames stored in the buffer are u (m, k) = f (rm + k), k = 0, 1, 2, ...
r-1 u (m, k) = (u 1 (m, k), u 2 (m, k), ...,
u p (m, k)) will be referred to as “parameter of the m-th frame and the k-th sub-frame”. FIG. 5 is an example showing the configuration when r = 2. In the following description, r = 2.

【0022】線スペクトル対算出部82において算出さ
れた線スペクトル対パラメータは、バッファ部83にお
いて、2サブフレーム分蓄えられ、2サブフレーム分た
まった時点で歪み計算部98に送られる。なお、符号帳
は2系統用意する。図5では、2段のベクトル量子化を
適用しており、符号帳は2系統、各2段からなる。2系
統の符号帳は、同じものであってもよいが、別々に最適
な符号帳を統計して用意したほうが性能はよい。符号帳
84からはコードベクトル(の候補) e(1)(m,1) が出力され、符号帳85からはコードベクトル(の候
補) e(2)(m,1) が出力され、これらがベクトル加算部88において加算
され、コードベクトル(の候補) x(m,1)=e(1)(m,1)+e(2)(m,1) が得られる。同様にして、符号帳86からはコードベク
トル(の候補) e(1)(m,2) が、符号帳87からはコードベクトル(の候補) e(2)(m,2) が出力され、これらがベクトル加算部89において加算
され、コードベクトル(の候補) x(m,2)=e(1)(m,2)+e(2)(m,2) が得られる。x(m,1)は一次量子化値再生部90お
よび94に送られ、x(m,2)は一次量子化値再生部
92および96に送られる。
The line spectrum pair parameters calculated by the line spectrum pair calculation unit 82 are stored in the buffer unit 83 for two subframes, and are sent to the distortion calculation unit 98 when two subframes are accumulated. Two codebooks are prepared. In FIG. 5, vector quantization of two stages is applied, and the codebook has two systems and each has two stages. The codebooks of the two systems may be the same, but it is better to statistically prepare the optimum codebooks separately for better performance. The codebook 84 outputs a code vector (candidate) e (1) (m, 1), and the codebook 85 outputs a code vector (candidate) e (2) (m, 1). The vector addition unit 88 adds the code vectors (candidates) x (m, 1) = e (1) (m, 1) + e (2) (m, 1). Similarly, the codebook 86 outputs a code vector (candidate) e (1) (m, 2), and the codebook 87 outputs a code vector (candidate) e (2) (m, 2), These are added in the vector addition unit 89 to obtain a code vector (candidate) x (m, 2) = e (1) (m, 2) + e (2) (m, 2). x (m, 1) is sent to the primary quantized value reproducing units 90 and 94, and x (m, 2) is sent to the primary quantized value reproducing units 92 and 96.

【0023】次に、図6は一次量子化値再生部の一構成
を示すブロック図である。なお、図6は前出の移動平均
予測の次数Mが2のときの例である。一次量子化値再生
部は、バッファ部100−1、100−2、ベクトル乗
算部101−0、101−1、101−2、およびベク
トル加算部102−0、102−1からなり、入力され
たコードベクトル(の候補) x(m,k),k=1,2 と、バッファに蓄えられたjフレーム前のコードベクト
ルとの重み付き和が計算されて、一次量子化値
Next, FIG. 6 is a block diagram showing a configuration of the primary quantized value reproducing unit. Note that FIG. 6 is an example when the order M of the moving average prediction described above is 2. The primary quantized value reproducing unit includes buffer units 100-1 and 100-2, vector multiplying units 101-0, 101-1 and 101-2, and vector adding units 102-0 and 102-1. Code vector (candidate) x (m, k), k = 1,2 and the weighted sum of the code vector stored in the buffer j frames before are calculated to obtain the primary quantized value.

【数16】 が出力される。各コードベクトルにかける重み係数ベク
トル cj (h)(m,k),k=1,2 h=1,2 j=1,
2,…,M は、係数符号帳より供給され、係数符号帳93は、一次
量子化値再生部90および92に、係数符号帳97は一
次量子化値再生部94および96に係数を供給する。一
次量子化値再生部90の出力q(1)(m,1)と一次量
子化値再生部92の出力q(2)(m,1)はベクトル加
算部91において加算され、第1サブフレーム量子化値
(の候補)として q(m,1)=q(1)(m,1)+q(2)(m,1) が得られる。
[Equation 16] Is output. Weighting coefficient vector c j (h) (m, k), k = 1, 2 h = 1, 2 j = 1, to be applied to each code vector
2, ..., M are supplied from the coefficient code book, the coefficient code book 93 supplies the coefficients to the primary quantized value reproducing units 90 and 92, and the coefficient code book 97 supplies the coefficients to the primary quantized value reproducing units 94 and 96. . The output q (1) (m, 1) of the primary quantized value reproducing unit 90 and the output q (2) (m, 1) of the primary quantized value reproducing unit 92 are added in the vector addition unit 91, and the first subframe As a quantized value (candidate), q (m, 1) = q (1) (m, 1) + q (2) (m, 1) is obtained.

【0024】一方、一次量子化値再生部94の出力q
(1)(m,2)と一次量子化値再生部96の出力q(2)
ベクトル加算部95において加算され、第2サブフレー
ム量子化値(の候補)として q(m,2)=q(1)(m,2)+q(2)(m,2) が得られる。q(m,1)とq(m,2)は歪み計算部
98に送られ、入力パラメータu(m,1)とu(m,
2)との歪みdを計算する。歪み尺度は,例えば,次の
ように定義するとよい。
On the other hand, the output q of the primary quantized value reproducing unit 94
(1) (m, 2) and the output q (2) of the primary quantized value reproduction unit 96 are added in the vector addition unit 95, and q (m, 2) = (candidate) of the second subframe quantized value. q (1) (m, 2) + q (2) (m, 2) is obtained. q (m, 1) and q (m, 2) are sent to the distortion calculation unit 98, and input parameters u (m, 1) and u (m, 2).
2) Calculate the strain d with. The distortion measure may be defined as follows, for example.

【数17】 ただし、wi(m,1)、wi(m,2)はそれぞれu
(m,1)、u(m,2)より計算される重み関数で、
前述のようにスペクトルのピーク周波数付近を重視する
ように決めると性能がよい。符号帳検索制御部99は、
歪みdを受け取り、該歪みdが最小となるような符号C
11、符号C12、符号C21、符号C22と係数符号
を探索し出力する。図5では、ひとつの係数符号を係数
符号帳93と係数符号帳97に与えているが、係数符号
のために2ビット以上が割り当てられるときは、別々の
符号にしてもよい。しかし、係数符号は1ビット、すな
わち係数セットは2種類の切り替えとしても十分にこの
発明の効果が発揮される。また、図5の構成例において
も、歪みdを最小にする各符号を探索することは、符号
帳のサイズが大きい場合には、演算コストの点から容易
ではない。そのような場合のアルゴリズムの簡略例を以
下に説明する。
[Equation 17] However, w i (m, 1) and w i (m, 2) are u
A weighting function calculated from (m, 1) and u (m, 2),
As described above, the performance is good if it is determined that the vicinity of the peak frequency of the spectrum is emphasized. The codebook search control unit 99
A code C that receives the distortion d and minimizes the distortion d
11, code C12, code C21, code C22 and coefficient code are searched and output. In FIG. 5, one coefficient code is given to the coefficient code book 93 and the coefficient code book 97, but when two or more bits are allocated for the coefficient code, different codes may be used. However, the effect of the present invention is sufficiently exerted even if the coefficient code is 1 bit, that is, the coefficient set is switched between two types. Also in the configuration example of FIG. 5, it is not easy to search for each code that minimizes the distortion d from the viewpoint of calculation cost when the size of the codebook is large. A simplified example of the algorithm in such a case will be described below.

【0025】第1の簡略例は、第1サブフレーム、第2
サブフレームの順に順次候補を残しながら探索する方法
である。まず、 e(2)(m,1)=e(1)(m,2)=e(2)(m,2)
=0 と仮定し、e(1)(m,1)を探索して、歪みd(1)
が小さい順にNv1(1)個の候補に絞る。次に、 e(1)(m,2)=e(2)(m,2)=0 として、上記e(2)(m,1)を探索し、d(1)が小
さい順位Nv2(1)個に候補を絞る。次に、 e(2)(m,2)=0 として、e(1)(m,2)を探索し、 d=d(1)+d(2) が小さい順にNv1(2)個に候補を絞り、最後にe(2)
(m,2)を探索して歪みdが最小になる符号を検索す
る。このとき、重み係数ベクトルc0 (2)(m,1)は常
に0であると仮定して探索を行うと、更にアルゴリズム
が簡略化される。
A first simplified example is the first subframe, the second subframe.
This is a method of searching while sequentially leaving candidates in the order of subframes. First, e (2) (m, 1) = e (1) (m, 2) = e (2) (m, 2)
Assuming that = 0, search for e (1) (m, 1) to obtain the distortion d (1)
Is narrowed down to Nv 1 (1) candidates. Next, the above e (2) (m, 1) is searched with e (1) (m, 2) = e (2) (m, 2) = 0, and the order Nv 2 ( 1) Narrow down the candidates to only one. Next, e (2) (m, 2) = 0 is set and e (1) (m, 2) is searched, and Nv 1 (2) candidates are selected in ascending order of d = d (1) + d (2). Squeeze, and finally e (2)
A code that minimizes the distortion d is searched by searching (m, 2). At this time, if the weight coefficient vector c 0 (2) (m, 1) is always assumed to be 0 and the search is performed, the algorithm is further simplified.

【0026】次に、第2の簡略例は、第2サブフレー
ム、第1サブフレームの順に順次候補を残しながら探索
する方法である。まず、 e(2)(m,2)=e(1)(m,1)=e(2)(m,1)
=0 と仮定し、e(1)(m,2)を探索して、歪みd(2)
が小さい順にNv1(2)個の候補に絞る。次に、 e(1)(m,1)=e(2)(m,1)=0 として、e(2)(m,2)を探索し、歪みd(2)が小
さい順にNv2(2)個に候補を絞る。次に、 e(2)(m,1)=0 として、e(1)(m,1)を探索し、 d=d(1)+d(2) が小さい順にNv1(1)個に候補を絞り、最後に、e
(2)(m,1)を探索して歪みdが最小になる符号を検
索する。このとき、重み係数ベクトルc0 (1)(m,2)
が常に0であると仮定して探索を行うと、更にアルゴリ
ズムが簡略化される。なお、第1サブフレーム、第2サ
ブフレームの順に探索する場合と、第2サブフレーム、
第1サブフレームの順に探索する場合とでは、第2サブ
フレームを先に探索する場合のほうが高能率であること
が多い。
Next, a second simplified example is a method of searching while sequentially leaving candidates for the second subframe and the first subframe. First, e (2) (m, 2) = e (1) (m, 1) = e (2) (m, 1)
Assuming that = 0, search for e (1) (m, 2) to obtain the distortion d (2)
Is narrowed down to Nv 1 (2) candidates. Next, e (1) (m, 1) = e (2) (m, 1) = 0 is set to search e (2) (m, 2), and Nv 2 ( 2) Narrow down the candidates to individual pieces. Next, e (2) (m, 1) = 0 is set and e (1) (m, 1) is searched, and Nv 1 (1) candidates are selected in ascending order of d = d (1) + d (2). Squeeze, and finally, e
(2) Search (m, 1) for the code with the minimum distortion d. At this time, the weighting coefficient vector c 0 (1) (m, 2)
Performing the search assuming that is always 0 further simplifies the algorithm. In addition, when searching in the order of the first subframe and the second subframe,
In many cases, searching in the order of the first subframe is more efficient in searching the second subframe first.

【0027】また、各段における候補の数は、その数が
多いほど、最適に近い検索を行うことができる。しか
し、一般に演算コストは、ディレイドディシジョン候補
数の2乗に比例して増大するため、ハードウェアの性能
と必要な性能の条件を考慮して決定される。4〜8個の
候補でかなり最適に近い結果が得られる。また、rフレ
ーム分をひとまとめにして符号化する場合にも、前述の
ように、1フレーム(サブフレーム)おきに符号化操作
を行い、符号化操作を行わなかったフレーム(サブフレ
ーム)については、前後のフレームの再生値から線形補
間等によって推定してもよい。このとき、線形補間を行
なうことを前提として、線形補間により推定したフレー
ムも含めて距離尺度を定義すると、補間により推定した
フレームの歪みを小さく抑えることができる。
Further, the greater the number of candidates in each stage, the closer to optimum the search can be performed. However, since the calculation cost generally increases in proportion to the square of the number of delayed decision candidates, the calculation cost is determined in consideration of the hardware performance and the necessary performance conditions. A fairly close to optimal result is obtained with 4-8 candidates. Also, in the case of collectively encoding r frames, as described above, regarding the frames (subframes) that have been subjected to the encoding operation every other frame (subframe) and have not been encoded, It may be estimated by linear interpolation or the like from the reproduction values of the preceding and following frames. At this time, if the distance measure is defined including the frame estimated by the linear interpolation on the assumption that the linear interpolation is performed, the distortion of the frame estimated by the interpolation can be suppressed to be small.

【0028】また、ディジタル移動通信のように、通信
路の品質が悪く、頻繁に符号誤りが生じる場合には、符
号誤りを考慮して符号化をすると、符号誤りが生じても
品質の劣化を少なく抑えることができる。次に、例え
ば、図5に示すように、rフレーム分のパラメータをバ
ッファにいったん蓄え、rフレーム分をひとまとめにし
て符号化する方法において、符号誤りを考慮して距離尺
度を決める例について説明する。ここで、符号i1
2、i3、i4をそれぞれ第1サブフレーム1段目のベ
クトルのインデックス、第1サブフレーム2段目のベク
トルのインデックス、第2サブフレーム1段目のインデ
ックス、第2サブフレーム2段目のインデックスとす
る。現在のフレームのコードベクトルが、i1、i2、i
3、i4をインデックスとするベクトルから構成されると
きの前述した数式17の(*1)式に対応する距離尺度
(符号誤りを考慮しない場合)を、 d(i1,i2,i3,i4) で表す。インデックスi1を伝送したときに、受信側で
1’が受信される確率を p(i1’|i1) と表す。同様にして、インデックスi2を伝送したとき
に、受信側でi2’が受信される確率を、 p(i2’|i2) と表す。
When the quality of the communication channel is poor and a code error frequently occurs, such as in digital mobile communication, if the code error is taken into consideration for encoding, the quality will be degraded even if the code error occurs. It can be kept low. Next, for example, as shown in FIG. 5, an example will be described in which a parameter for r frames is temporarily stored in a buffer and the r frames are collectively coded, and a distance measure is determined in consideration of code errors. . Here, the code i 1 ,
i 2 , i 3 , and i 4 are the vector index of the first stage of the first subframe, the vector index of the second stage of the first subframe, the index of the first stage of the second subframe, and the second stage of the second subframe, respectively. Use as eye index. The code vector of the current frame is i 1 , i 2 , i
When the distance measure (when the code error is not taken into consideration) corresponding to the equation (* 1) of the above-mentioned mathematical expression 17 when it is composed of the vector having 3 and i 4 as indexes, d (i 1 , i 2 , i 3 , I 4 ). When the index i 1 is transmitted, the probability that i 1 ′ is received on the receiving side is represented by p (i 1 ′ | i 1 ). Similarly, the probability that i 2 ′ is received on the receiving side when the index i 2 is transmitted is expressed as p (i 2 ′ | i 2 ).

【0029】さらに、インデックスi3を伝送したとき
に、受信側でi3’が受信される確率を、 p(i3’|i3) と表す。また、インデックスi4を伝送したときに、受
信側でi4’が受信さえる確率を、 p(i4’|i4) で表し、次式のような符号誤りを考慮した距離尺度を
Further, when the index i 3 is transmitted, the probability that i 3 ′ is received on the receiving side is represented by p (i 3 ′ | i 3 ). Also, when the index i 4 is transmitted, the probability that i 4 ′ is received on the receiving side is expressed by p (i 4 ′ | i 4 ), and the distance measure considering the code error is expressed as follows.

【数18】 と定義して、d(i1、i2、i3、i4)のかわりにd*
(i1、i2、i3、i4)を距離尺度として符号化を行
う。上記d*(i1、i2、i3、i4)は、符号誤りがあ
る場合の、受信側における距離の平均値を表す。上記d
*(i1、i2、i3、i4)の値の計算は、式を展開し
て、入力に依存しない(符号帳固有の)項を先に計算し
てメモリに記憶しておくことによって高速に算出するこ
とができる。
[Equation 18] And d * is used instead of d (i 1 , i 2 , i 3 , i 4 ) .
Encoding is performed using (i 1 , i 2 , i 3 , i 4 ) as a distance measure. The above d * (i 1 , i 2 , i 3 , i 4 ) represents the average value of the distances on the receiving side when there is a code error. Above d
* (I 1, i 2, i 3, i 4) calculation of the value of, expand the expression does not depend on the input to the (codebook specific) term is calculated previously and stored in the memory Can be calculated at high speed.

【0030】また、復号装置において、過去のフレーム
で符号誤りが存在する恐れがある場合には、過去のフレ
ームに乗ずる重みの値を相対的に小さくするか、または
符号誤りが存在しないとみなせるフレームの出力コード
ベクトルを用いて、量子化値(再生値)を求めるとよ
い。図5に示す実施例においては、過去のフレームにお
いて符号帳から出力された各サブフレームのコードベク
トルと現在のフレームの各サブフレームのコードベクト
ルにそれぞれ重みを乗算し、加え合わせたベクトル群に
よって現在のフレームの各サブフレームの量子化値ベク
トルを表現しているが、例えば、
Further, in the decoding apparatus, when there is a possibility that a code error exists in a past frame, the weight value to be multiplied on the past frame is made relatively small, or a frame which can be regarded as having no code error exists. The quantized value (reproduced value) may be obtained by using the output code vector of. In the embodiment shown in FIG. 5, the code vector of each sub-frame output from the codebook in the past frame and the code vector of each sub-frame of the current frame are respectively multiplied by weights, and the result is added by the vector group. The quantized value vector of each subframe of the frame

【数19】 として、第2サブフレームを量子化し、[Formula 19] And quantize the second subframe,

【数20】 のように、第1サブフレームを前フレームとの線形補間
の誤差として量子化する方法は、この発明の重み係数ベ
クトルを適当に設定することにより実現できる。なお、
上述した実施例における各構成要素は、論理回路の組み
合わせとして実現してもよいし、マイクロプログラムの
ようなソフトウェア的な手段で実現してもよい。
[Equation 20] As described above, the method of quantizing the first sub-frame as an error of the linear interpolation with the previous frame can be realized by appropriately setting the weighting coefficient vector of the present invention. In addition,
Each constituent element in the above-described embodiments may be realized as a combination of logic circuits, or may be realized by software means such as a microprogram.

【0031】[0031]

【発明の効果】以上述べたように、この発明では、現在
のフレームのコードベクトルと、過去に出力(伝送)さ
れたコードベクトルの重み付き和で現在のフレームの量
子化値を表現することにより、線形予測パラメータをフ
レーム間の相関を利用して高能率に符号化できるほか、
伝送路において符号誤りが生じてもその誤りによる品質
の劣化が後続する有限のフレームにしか影響しない、線
形予測パラメータの符号化を実現することができる。
As described above, according to the present invention, the quantized value of the current frame is expressed by the weighted sum of the code vector of the current frame and the code vector output (transmitted) in the past. , Highly efficient coding of linear prediction parameters using correlation between frames,
It is possible to realize coding of a linear prediction parameter in which even if a code error occurs in the transmission path, quality deterioration due to the error affects only a finite frame that follows.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明の一実施例の符号化器の構成を示すブ
ロック図である。
FIG. 1 is a block diagram showing the configuration of an encoder according to an embodiment of the present invention.

【図2】同実施例の復号器の構成を示すブロック図であ
る。
FIG. 2 is a block diagram showing a configuration of a decoder of the same embodiment.

【図3】図1に示す構成例において、乗算部の重み係数
を複数組係数符号帳に蓄え、係数符号帳から係数のセッ
トを供給する実施例の構成を示すブロック図である。
FIG. 3 is a block diagram showing a configuration of an embodiment in which weighting coefficients of a multiplication unit are stored in a plurality of sets of coefficient codebooks and a set of coefficients is supplied from the coefficient codebook in the configuration example shown in FIG.

【図4】図3に示す構成例において、ベクトル符号帳に
多段ベクトル量子化法を適用した実施例の構成を示すブ
ロック図である。
FIG. 4 is a block diagram showing a configuration of an example in which a multistage vector quantization method is applied to a vector codebook in the configuration example shown in FIG.

【図5】図4に示す構成例において、複数フレームをま
とめて符号化する方法の実施例の構成を示すブロック図
である。
5 is a block diagram showing a configuration of an embodiment of a method of collectively encoding a plurality of frames in the configuration example shown in FIG.

【図6】図5の構成例の一次量子化部の構成を示すブロ
ック図である。
6 is a block diagram showing a configuration of a primary quantization unit of the configuration example of FIG.

【符号の説明】[Explanation of symbols]

4 第1の符号帳(符号帳) 5 量子化値再生部(再生手段) 9 歪み計算部(計算手段) 20 符号帳(第2の符号帳) 39 係数符号帳 83 バッファ部(出力手段) 84〜87 符号帳(第3の符号帳) C11,C12,C21,C22 符号 c1,c2,c3,c0(n),c1(n),c2(n),c
3(n) 重み係数 c1 (1)(m,1),c1 (2)(m,1),c2 (1)(m,1),c2 (2)(m,1)
重み係数 c1 (1)(m,2),c1 (2)(m,2),c2 (1)(m,2),c2 (2)(m,2)
重み係数 d 歪み e(1)(m,1),e(2)(m,1),e(1)(m,2),e(2)(m,2) コ
ートベクトル q(n) ベクトル(量子化値) q(m,1),q(m,2) 量子化値群 x(n) コードベクトル
4 First Codebook (Codebook) 5 Quantized Value Reproducing Unit (Reproducing Means) 9 Distortion Calculating Unit (Calculating Means) 20 Codebook (Second Codebook) 39 Coefficient Codebook 83 Buffer Unit (Output Means) 84 to 87 codebook (third codebook) C11, C12, C21, C22 code c 1, c 2, c 3 , c 0 (n), c 1 (n), c 2 (n), c
3 (n) Weighting coefficient c 1 (1) (m, 1), c 1 (2) (m, 1), c 2 (1) (m, 1), c 2 (2) (m, 1)
Weighting factors c 1 (1) (m, 2), c 1 (2) (m, 2), c 2 (1) (m, 2), c 2 (2) (m, 2)
Weighting factor d Distortion e (1) (m, 1), e (2) (m, 1), e (1) (m, 2), e (2) (m, 2) Coat vector q (n) vector (Quantization value) q (m, 1), q (m, 2) Quantization value group x (n) code vector

───────────────────────────────────────────────────── フロントページの続き (72)発明者 三樹 聡 東京都千代田区内幸町一丁目1番6号 日 本電信電話株式会社内 ─────────────────────────────────────────────────── ─── Continued Front Page (72) Inventor Satoshi Miki 1-1-6 Uchisaiwaicho, Chiyoda-ku, Tokyo Nihon Telegraph and Telephone Corporation

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 音声スペクトル包絡特性を表す線形予測
パラメータまたはパワーのパラメータを、フレームと呼
ばれる一定時間間隔で算出し、所定のビット数で符号化
する方法であって、 符号器は、 複数のコードベクトルを蓄えた第1の符号帳と、 前記複数のコードベクトルから量子化値を再生する再生
手段と、 音声を分析して得られたパラメータと前記量子化値との
歪みを計算する計算手段とを有し、 過去のフレームにおいて前記第1の符号帳から出力され
たコードベクトルと現在のフレームのコードベクトルと
に、それぞれ重み係数を乗算して加え合わせたベクトル
によって、現在のフレームの量子化値を表現し、 前記計算手段によって得られた、前記量子化値と前記パ
ラメータとの歪みが最小、または十分最小に近くなるよ
うな基準を用いて、前記第1の符号帳が出力すべきコー
ドベクトルを選択し、その符号を出力するとともに、 復号器は、 複数のコードベクトルを蓄えた第2の符号帳を有し、 前記第2の符号帳に蓄えられる複数のコードベクトルの
中から、受け取った前記符号に対応するコードベクトル
を出力し、 出力された現在のフレームの前記コードベクトルと過去
のフレームにおいて前記第2の符号帳から出力されたコ
ードベクトルに、それぞれ重み係数を乗算して加え合わ
せたベクトルを現在のフレームの量子化値として出力す
ることを特徴とする音声パラメータの符号化方法および
復号方法。
1. A method for calculating a linear prediction parameter or a power parameter representing a speech spectrum envelope characteristic at a constant time interval called a frame, and encoding with a predetermined number of bits, wherein the encoder has a plurality of codes. A first codebook storing vectors; a reproducing means for reproducing a quantized value from the plurality of code vectors; a calculating means for calculating a distortion between a parameter obtained by analyzing voice and the quantized value; A quantized value of the current frame by a vector obtained by multiplying the code vector output from the first codebook in the past frame and the code vector of the current frame by multiplying each by a weighting factor. And a criterion such that the distortion between the quantized value and the parameter obtained by the calculation means is minimum, or close to a minimum. Is used to select a code vector to be output by the first codebook and output the code, and the decoder has a second codebook that stores a plurality of code vectors, and Output a code vector corresponding to the received code from a plurality of code vectors stored in the code book, and output the code vector of the present frame output from the second code book in the past frame A coding method and a decoding method of a speech parameter, wherein a vector obtained by multiplying each of the generated code vectors by a weighting factor and adding the result is output as a quantized value of the current frame.
【請求項2】 前記符号器は、 複数種類の重み係数が蓄えられた係数符号帳を備えると
ともに、 音声を分析して得られたパラメータと現在のフレームの
量子化値との歪みが最小または十分最小に近くなるよう
な基準を用いて、前記第1の符号帳の中から出力すべき
コードベクトルと前記係数符号帳の重み係数とを選択
し、各々の符号を出力するとともに、 前記復号器は、 受け取った前記重み係数に対する符号に対応する重み係
数の値を前記係数符号帳より取り出して、該重み係数を
用いて現在の量子化値を決定することを特徴とする請求
項1記載の音声パラメータの符号化方法および復号方
法。
2. The encoder includes a coefficient codebook in which a plurality of types of weighting coefficients are stored, and distortion between a parameter obtained by analyzing speech and a quantized value of a current frame is minimum or sufficient. A code vector to be output and a weighting coefficient of the coefficient code book are selected from the first code book by using a criterion that is close to the minimum, and each code is output, and the decoder is 2. The voice parameter according to claim 1, wherein the value of the weight coefficient corresponding to the received code for the weight coefficient is extracted from the coefficient codebook, and the current quantized value is determined using the weight coefficient. Encoding method and decoding method.
【請求項3】 前記符号器は、 音声を分析して得られたパラメータを複数フレーム分ま
とめてフレーム群として出力する出力手段と、 前記フレーム群の各フレームに対応するコードベクトル
を蓄える第3の符号帳とを有し、 現在のフレーム群の各コートベクトルと過去のフレーム
群において出力された各フレームのコードベクトルに、
それぞれ重み係数を乗算して加え合わせたベクトル群に
よって、現在のフレーム群の量子化値群を表現し、 現在のフレーム群の音声のパラメータと前記量子化値群
との歪みが最小または十分最小に近くなるような基準を
用いて、前記第3の符号帳が出力すべき、現在のフレー
ム群の各フレームに対するコードベクトルを選択し、各
々の符号を出力するとともに、 復号器は、 受け取った各符号に対応する各コードベクトルを各符号
帳より出力し、該各コードベクトルと過去のフレーム群
において出力された各コードベクトルに、それぞれ重み
係数を乗算して加え合わせたベクトル群を現在のフレー
ム群の量子化値群として出力することを特徴とする請求
項1または請求項2記載の音声パラメータの符号化方法
および復号方法。
3. The encoder comprises: output means for collecting parameters obtained by analyzing speech for a plurality of frames and outputting as a frame group; and a third means for storing a code vector corresponding to each frame of the frame group. With a codebook, each code vector of the current frame group and the code vector of each frame output in the past frame group,
The quantized value group of the current frame group is expressed by the vector group obtained by multiplying by each weighting factor, and the distortion between the voice parameter of the current frame group and the quantized value group is minimized or sufficiently minimized. The code vector for each frame of the current frame group to be output by the third codebook is selected using a criterion close to each other, and each code is output, and the decoder receives each code. Is output from each codebook, and a vector group obtained by multiplying each code vector and each code vector output in the past frame group by multiplying each by a weighting factor is added to the current frame group. 3. A method of encoding and decoding a voice parameter according to claim 1, wherein the method of outputting is performed as a quantized value group.
JP32212792A 1992-12-01 1992-12-01 Encoding method and decoding method for voice parameter Expired - Lifetime JP3255189B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32212792A JP3255189B2 (en) 1992-12-01 1992-12-01 Encoding method and decoding method for voice parameter

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32212792A JP3255189B2 (en) 1992-12-01 1992-12-01 Encoding method and decoding method for voice parameter

Publications (2)

Publication Number Publication Date
JPH06175695A true JPH06175695A (en) 1994-06-24
JP3255189B2 JP3255189B2 (en) 2002-02-12

Family

ID=18140232

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32212792A Expired - Lifetime JP3255189B2 (en) 1992-12-01 1992-12-01 Encoding method and decoding method for voice parameter

Country Status (1)

Country Link
JP (1) JP3255189B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998020483A1 (en) * 1996-11-07 1998-05-14 Matsushita Electric Industrial Co., Ltd. Sound source vector generator, voice encoder, and voice decoder
JP2001188598A (en) * 1999-12-24 2001-07-10 Korea Electronics Telecommun Fast searching method of line spectrum pair-quantizer
WO2002043052A1 (en) * 2000-11-27 2002-05-30 Nippon Telegraph And Telephone Corporation Method, device and program for coding and decoding acoustic parameter, and method, device and program for coding and decoding sound
WO2008056775A1 (en) 2006-11-10 2008-05-15 Panasonic Corporation Parameter decoding device, parameter encoding device, and parameter decoding method
JP2011527441A (en) * 2008-07-10 2011-10-27 ヴォイスエイジ・コーポレーション Device and method for LPC filter quantization and inverse quantization in a superframe
JP2018077502A (en) * 2014-05-01 2018-05-17 日本電信電話株式会社 Decoding device, method thereof, program, and recording medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06118999A (en) * 1992-10-02 1994-04-28 Nippon Telegr & Teleph Corp <Ntt> Method for encoding parameter information on speech

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06118999A (en) * 1992-10-02 1994-04-28 Nippon Telegr & Teleph Corp <Ntt> Method for encoding parameter information on speech

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7398205B2 (en) 1996-11-07 2008-07-08 Matsushita Electric Industrial Co., Ltd. Code excited linear prediction speech decoder and method thereof
US6330535B1 (en) 1996-11-07 2001-12-11 Matsushita Electric Industrial Co., Ltd. Method for providing excitation vector
US6330534B1 (en) 1996-11-07 2001-12-11 Matsushita Electric Industrial Co., Ltd. Excitation vector generator, speech coder and speech decoder
US7587316B2 (en) 1996-11-07 2009-09-08 Panasonic Corporation Noise canceller
US6345247B1 (en) 1996-11-07 2002-02-05 Matsushita Electric Industrial Co., Ltd. Excitation vector generator, speech coder and speech decoder
US7809557B2 (en) 1996-11-07 2010-10-05 Panasonic Corporation Vector quantization apparatus and method for updating decoded vector storage
US6421639B1 (en) 1996-11-07 2002-07-16 Matsushita Electric Industrial Co., Ltd. Apparatus and method for providing an excitation vector
US6453288B1 (en) 1996-11-07 2002-09-17 Matsushita Electric Industrial Co., Ltd. Method and apparatus for producing component of excitation vector
US6757650B2 (en) 1996-11-07 2004-06-29 Matsushita Electric Industrial Co., Ltd. Excitation vector generator, speech coder and speech decoder
US6772115B2 (en) 1996-11-07 2004-08-03 Matsushita Electric Industrial Co., Ltd. LSP quantizer
US6799160B2 (en) 1996-11-07 2004-09-28 Matsushita Electric Industrial Co., Ltd. Noise canceller
US6910008B1 (en) 1996-11-07 2005-06-21 Matsushita Electric Industries Co., Ltd. Excitation vector generator, speech coder and speech decoder
US6947889B2 (en) 1996-11-07 2005-09-20 Matsushita Electric Industrial Co., Ltd. Excitation vector generator and a method for generating an excitation vector including a convolution system
WO1998020483A1 (en) * 1996-11-07 1998-05-14 Matsushita Electric Industrial Co., Ltd. Sound source vector generator, voice encoder, and voice decoder
US7289952B2 (en) 1996-11-07 2007-10-30 Matsushita Electric Industrial Co., Ltd. Excitation vector generator, speech coder and speech decoder
US8370137B2 (en) 1996-11-07 2013-02-05 Panasonic Corporation Noise estimating apparatus and method
US8086450B2 (en) 1996-11-07 2011-12-27 Panasonic Corporation Excitation vector generator, speech coder and speech decoder
US8036887B2 (en) 1996-11-07 2011-10-11 Panasonic Corporation CELP speech decoder modifying an input vector with a fixed waveform to transform a waveform of the input vector
JP2001188598A (en) * 1999-12-24 2001-07-10 Korea Electronics Telecommun Fast searching method of line spectrum pair-quantizer
WO2002043052A1 (en) * 2000-11-27 2002-05-30 Nippon Telegraph And Telephone Corporation Method, device and program for coding and decoding acoustic parameter, and method, device and program for coding and decoding sound
US7065338B2 (en) 2000-11-27 2006-06-20 Nippon Telegraph And Telephone Corporation Method, device and program for coding and decoding acoustic parameter, and method, device and program for coding and decoding sound
EP2538406A2 (en) 2006-11-10 2012-12-26 Panasonic Corporation Method and apparatus for decoding parameters of a CELP encoded speech signals
US8712765B2 (en) 2006-11-10 2014-04-29 Panasonic Corporation Parameter decoding apparatus and parameter decoding method
EP2538405A2 (en) 2006-11-10 2012-12-26 Panasonic Corporation CELP-coded speech parameter decoding method and apparatus
JP2012256070A (en) * 2006-11-10 2012-12-27 Panasonic Corp Parameter decoding device and parameter decoding method
JP5121719B2 (en) * 2006-11-10 2013-01-16 パナソニック株式会社 Parameter decoding apparatus and parameter decoding method
WO2008056775A1 (en) 2006-11-10 2008-05-15 Panasonic Corporation Parameter decoding device, parameter encoding device, and parameter decoding method
JP2013015851A (en) * 2006-11-10 2013-01-24 Panasonic Corp Parameter decoding device and parameter decoding method
US8468015B2 (en) 2006-11-10 2013-06-18 Panasonic Corporation Parameter decoding device, parameter encoding device, and parameter decoding method
US8538765B1 (en) 2006-11-10 2013-09-17 Panasonic Corporation Parameter decoding apparatus and parameter decoding method
USRE49363E1 (en) 2008-07-10 2023-01-10 Voiceage Corporation Variable bit rate LPC filter quantizing and inverse quantizing device and method
US8712764B2 (en) 2008-07-10 2014-04-29 Voiceage Corporation Device and method for quantizing and inverse quantizing LPC filters in a super-frame
US9245532B2 (en) 2008-07-10 2016-01-26 Voiceage Corporation Variable bit rate LPC filter quantizing and inverse quantizing device and method
JP2011527441A (en) * 2008-07-10 2011-10-27 ヴォイスエイジ・コーポレーション Device and method for LPC filter quantization and inverse quantization in a superframe
JP2018077502A (en) * 2014-05-01 2018-05-17 日本電信電話株式会社 Decoding device, method thereof, program, and recording medium

Also Published As

Publication number Publication date
JP3255189B2 (en) 2002-02-12

Similar Documents

Publication Publication Date Title
US5778334A (en) Speech coders with speech-mode dependent pitch lag code allocation patterns minimizing pitch predictive distortion
JP2746039B2 (en) Audio coding method
US5819213A (en) Speech encoding and decoding with pitch filter range unrestricted by codebook range and preselecting, then increasing, search candidates from linear overlap codebooks
US5621852A (en) Efficient codebook structure for code excited linear prediction coding
JP3114197B2 (en) Voice parameter coding method
CA2202825C (en) Speech coder
JPH04363000A (en) System and device for voice parameter encoding
JP3143956B2 (en) Voice parameter coding method
US5727122A (en) Code excitation linear predictive (CELP) encoder and decoder and code excitation linear predictive coding method
US5659659A (en) Speech compressor using trellis encoding and linear prediction
US5926785A (en) Speech encoding method and apparatus including a codebook storing a plurality of code vectors for encoding a speech signal
JP2800618B2 (en) Voice parameter coding method
JP3089769B2 (en) Audio coding device
US5649051A (en) Constant data rate speech encoder for limited bandwidth path
US5797119A (en) Comb filter speech coding with preselected excitation code vectors
JP3255189B2 (en) Encoding method and decoding method for voice parameter
JP2658816B2 (en) Speech pitch coding device
JP2626492B2 (en) Vector quantizer
JP3268750B2 (en) Speech synthesis method and system
JP3296363B2 (en) Speech linear prediction parameter coding method
JP3233184B2 (en) Audio coding method
JP3252285B2 (en) Audio band signal encoding method
JP3319551B2 (en) Vector quantizer
JP2002221998A (en) Method, device and program for encoding and decoding acoustic parameter and voice
JP3335650B2 (en) Audio coding method

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071130

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081130

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091130

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101130

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101130

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111130

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111130

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121130

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121130

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131130

Year of fee payment: 12

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131130

Year of fee payment: 12