JPH03243998A - Voice encoding system - Google Patents

Voice encoding system

Info

Publication number
JPH03243998A
JPH03243998A JP2042955A JP4295590A JPH03243998A JP H03243998 A JPH03243998 A JP H03243998A JP 2042955 A JP2042955 A JP 2042955A JP 4295590 A JP4295590 A JP 4295590A JP H03243998 A JPH03243998 A JP H03243998A
Authority
JP
Japan
Prior art keywords
signal
codebook
signals
audio signal
sound source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2042955A
Other languages
Japanese (ja)
Other versions
JP3194930B2 (en
Inventor
Kazunori Ozawa
一範 小澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP04295590A priority Critical patent/JP3194930B2/en
Priority to DE69133296T priority patent/DE69133296T2/en
Priority to EP91102440A priority patent/EP0443548B1/en
Priority to US07/658,473 priority patent/US5208862A/en
Publication of JPH03243998A publication Critical patent/JPH03243998A/en
Application granted granted Critical
Publication of JP3194930B2 publication Critical patent/JP3194930B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE:To make well encoding of voices with a relatively small calculation quantity and memory quantity by subjecting the signals selected from 1st, 2nd code books to linear coupling, then expressing and outputting the sound source signals of voice signals. CONSTITUTION:This system includes a buffer memory 110, an LPC calculating circuit 130, a quantization circuit 140, a sub-frame dividing circuit 150, a weighing circuit 200, the adaptive code book 210, quantizers 220, 240, 285, and 1st and 2nd code book searching circuits 230, 270. The system is provided with the 1st code book 235 stored therein with the signals constituted by learning for the rebeveration signal predicted and determined by dividing the frames of the voice signals to sub-sections and determining the pitch parameters indicating a long-term correlation on the basis of the past sound source signals and the 2nd code book 275 stored with the signals having predetermined characteristics. The sound source signals of the voice signals are expressed and outputted by the linear coupling of the signals selected from the 1st code book 235 and the signal selected from the 2nd code book 275. The good characteristics are thus obtd. with the smaller calculation quantity.

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は、音声信号を低いビットレート、特に8〜4.
8kb/s程度で高品質に符号化するための音声符号化
方式に関する。
DETAILED DESCRIPTION OF THE INVENTION (Industrial Field of Application) The present invention provides a method for converting audio signals to low bit rates, particularly 8-4.
The present invention relates to a speech encoding method for high-quality encoding at approximately 8 kb/s.

(従来の技術) 音声信号を8〜4.8kb/s程度の低いビットレート
で符号化する方式としては、例えば、M、 5chro
ederand B、 Ata1氏による”Code−
excited 1inear predic−tio
n:High quality 5peech at 
very low bit rates”と題した論文
(ICASSP pp、 937−940.1985X
文献1)等に記載されているCELP(Code Ex
cited LPCCoding)が知られている。こ
の方法では′、送信側では、フレーム毎(例えば20m
5)に音声信号から音声信号のスペクトル特性を表すス
ペクトルパラメータを抽出し、フレームをさらに小区間
サブフレーム(例えば5m5)に分割し、サブフレーム
毎に過去の音源信号から長時間相関(ピッチ相関)を表
すピッチパラメータを抽出し、ピッチパラメータにより
前記サブフレームの音声信号を長期予測し、長期予測し
て求めた残差信号に対して、予め定められた種類の雑音
信号からなるコードブックから選択した信号により合成
した信号と、前記音声信号との誤差電力を最小化するよ
うに一種類の雑音信号を選択するとともに最適なゲイン
を計算する。そして選択された雑音信号の種類を表すイ
ンデクスとゲインならびに、前記スペクトルパラメータ
とピッチパラメータを伝送する。受信側の説明は省略す
る。
(Prior art) As a method for encoding an audio signal at a low bit rate of about 8 to 4.8 kb/s, for example, M, 5chro
ederand B, “Code-” by Mr. Ata1
excited 1inear predic-tio
n: High quality 5peech at
very low bit rates” (ICASSP pp, 937-940.1985X
CELP (Code Ex
cited LPC Coding) is known. In this method, on the transmitting side, every frame (for example, 20m
5) Extract spectral parameters representing the spectral characteristics of the audio signal from the audio signal, further divide the frame into small interval subframes (for example, 5m5), and calculate long-term correlation (pitch correlation) from the past sound source signal for each subframe. A pitch parameter representing a noise signal of a predetermined type is extracted, a long-term prediction is made of the audio signal of the subframe using the pitch parameter, and a residual signal obtained by the long-term prediction is selected from a codebook consisting of predetermined types of noise signals. One type of noise signal is selected and an optimal gain is calculated so as to minimize the error power between the signal synthesized by the signals and the audio signal. Then, the index and gain representing the type of the selected noise signal, as well as the spectrum parameter and pitch parameter are transmitted. A description of the receiving side will be omitted.

また、スペクトルパラメータの量子化法として、前記文
献1ではスカラ量子化法が用いられているが、スカラ量
子化に比べてより効率的に少ないビット数で量子化可能
な量子化法として、ベクトル量子化法が知られているる
これは例えばBuzoらによる“5peech Cod
ing Ba5ed upon Vector Qua
nti−zation”(IEEE Trans AS
SP、 pp、 562−574.1980X文献2)
等を参照することができる。しかしながら、ベクトル量
子化法では、ベクトル量子化コードブックをあらかじめ
作製するときに学習用のデータベース(トレーニングデ
ータ)が必要であり、用いるトレーニングデータにベク
トル量子化器の特性が依存し、トレーニングデータ以外
の特性を有する信号に対しては、性能が劣化し音質が劣
化するという問題点があった。これに対する解決策とし
て、ベクトル量子化したときの入力信号との誤差信号を
スカラ量子化して両者の長所を組み合せるベクトルース
カラ量子化法が提案されている。ベクトルースカラ量子
化法については、9谷らによるF音声の適応変換ベクト
ル符号化」と題した論文(電子通信学会論文誌、vol
、J、 67−A、 974〜981頁、1984年)
(文献3)等を参照できるのでここでは説明を省略する
In addition, as a method for quantizing spectral parameters, the scalar quantization method is used in the above-mentioned document 1, but vector quantum For example, the “5peech Cod” method by Buzo et al.
ing Ba5ed upon Vector Qua
IEEE Trans AS
SP, pp, 562-574.1980X Reference 2)
etc. can be referred to. However, in the vector quantization method, a learning database (training data) is required when creating a vector quantization codebook in advance, and the characteristics of the vector quantizer depend on the training data used. For signals having specific characteristics, there is a problem that the performance deteriorates and the sound quality deteriorates. As a solution to this problem, a vector-scalar quantization method has been proposed in which the error signal between the vector quantized input signal and the input signal is scalar quantized and the advantages of both are combined. Regarding the vector-scalar quantization method, a paper entitled "Adaptive transform vector coding of F speech" by Kutani et al. (IEICE Transactions, vol.
, J, 67-A, pp. 974-981, 1984)
(Reference 3) etc., so the explanation will be omitted here.

(発明が解決しようとする課題) 上述した文献1の従来方式では、高音質を得るためには
一般に、雑音信号から構成されるコードブックのビット
サイズをlθビット以上にきわめて大きくする必要があ
るため、コードブックを探索して最適な雑音信号(コー
ドワード)を求めるために膨大な演算量が必要であると
いう問題点があった。さらに、コードブックが基本的に
雑音信号から構成されるために、コードブックから選択
されたコードワードにより再生された再生音声に雑音感
がともなうという問題点があった。
(Problem to be Solved by the Invention) In the conventional method of Document 1 mentioned above, in order to obtain high sound quality, it is generally necessary to make the bit size of the codebook composed of noise signals extremely large, exceeding lθ bits. However, there was a problem in that a huge amount of calculation was required to search the codebook and find the optimal noise signal (codeword). Furthermore, since the codebook is basically composed of noise signals, there is a problem in that the reproduced speech that is reproduced based on the codewords selected from the codebook is accompanied by a sense of noise.

さらに、前記文献1の従来方式では、スペクトルパラメ
ータを通常のスカラ量子化を用いて量子化符号化してい
たため、量子化に必要なヒツト数が多く、高音質を保っ
たまま全体のビットレートを低減することが困難である
という問題点があった。また、スカラ量子化よりもより
効率的なベクトル量子化法では、ベクトル量子化コード
ブックをあらかじめ作成するときに用いるトレーニング
データに特性が依存し、トレーニングデータ以外の特性
を有する信号に対しては、性能が劣化し音質が劣化する
という問題点があった。
Furthermore, in the conventional method of Document 1, the spectral parameters were quantized and encoded using normal scalar quantization, which required a large number of hits for quantization, reducing the overall bit rate while maintaining high sound quality. The problem was that it was difficult to do so. In addition, in the vector quantization method, which is more efficient than scalar quantization, the characteristics depend on the training data used when creating the vector quantization codebook in advance, and for signals with characteristics other than the training data, There were problems in that the performance deteriorated and the sound quality deteriorated.

また、前記文献3のベクトルースカラ量子化法では、ベ
クトル量子化のコードブックテーブル以外に、スカラ量
子化に必要な情報をベクトル量子化のコードブックのサ
イズだけ格納するテーブルが別に必要であった。これは
例えば、スペクトルパラメータを10次とし、ベクトル
量子化器を8ビツトとすると、ベクトル量子化に必要な
テーブルは256 X 10 = 2560、スカラ量
子化に必要なテーブルは、256X10=2560と合
計で5120のテーブルが必要であり、テーブルの記憶
に必要なメモリ量が多いという問題点があった。
In addition, in the vector-scalar quantization method of Document 3, in addition to the vector quantization codebook table, a separate table was required to store information necessary for scalar quantization by the size of the vector quantization codebook. . For example, if the spectral parameter is 10th order and the vector quantizer is 8 bits, the tables required for vector quantization are 256 x 10 = 2560, and the tables required for scalar quantization are 256 x 10 = 2560. The problem is that 5120 tables are required, and a large amount of memory is required to store the tables.

本発明の目的は、上述した問題点を解決し、比較的少な
い演算量及びメモリ量により、8〜4.8kb/s程度
で音質の良好な音声符号化方式を提供することにある。
SUMMARY OF THE INVENTION An object of the present invention is to solve the above-mentioned problems and to provide a speech encoding method that achieves good sound quality at approximately 8 to 4.8 kb/s with a relatively small amount of calculation and memory.

(課題を解決するための手段) 本発明による音声符号化方式は、入力した離散的な音声
信号を予め定められた時間長のフレームに分割し、前記
音声信号のスペクトル包絡を表すスペクトルパラメータ
を求め、前記フレームを予め定められた時間長の小区間
に分割し過去の音源信号をもとに長期相関を表すピッチ
パラメータを求めて予測して求めた残差信号に対して、
予め前記残差信号をもとに学習により構成した信号が格
納された第1のコードブックと、予め定められた特性を
有する信号が格納された第2のコードブックとを有し、
前記第1のコードブックから選択した信号と、前記第2
のコードブックから選択した信号との線形結合により前
記音声信号の音源信号を表して出力することを特徴とす
る。
(Means for Solving the Problems) The audio encoding method according to the present invention divides an input discrete audio signal into frames of a predetermined time length, and calculates a spectral parameter representing the spectral envelope of the audio signal. , for the residual signal obtained by dividing the frame into small sections of a predetermined time length, obtaining and predicting a pitch parameter representing a long-term correlation based on past sound source signals,
A first codebook in which a signal configured by learning based on the residual signal is stored, and a second codebook in which a signal having predetermined characteristics is stored,
a signal selected from the first codebook and the second codebook;
The present invention is characterized in that the sound source signal of the audio signal is expressed and output by linear combination with a signal selected from the codebook.

また、本発明による音声符号化方式は、入力した離散的
な音声信号を予め定められた時間長のフレームに分割し
、前記音声信号のスペクトル包絡を表すスペクトルパラ
メータを求め、スペクトルパラメータをもとに予め学習
により作成した信号があらかじめ定められた種類格納さ
れたコードブックを有し、前記コードブックから最適な
一種類を選択し前記スペクトルパラメータと前記選択さ
れたパラメータとの差分パラメータを求め、前記差分パ
ラメータを前記差分パラメータについて予め測定して求
めた分布範囲をもとに符号化して前記スペクトルパラメ
ータを表し、前記フレームを予め定められた時間長の小
区間に分割し過去の音源信号をもとに長期相関を表すピ
ッチパラメータを求めて予測して求めた残差信号に対し
て、予め前記残差信号をも−とに学習により構成した信
号が格納された第1のコードブックと、予め定められた
特性を有する信号が格納された第2のコードブックとを
有し、前記第1のコードブックから選択した信号と、前
記第2のコードブックから選択した信号との線形結合に
より前記音声信号の音源信号を表して出力することを特
徴とする。
Furthermore, the audio encoding method according to the present invention divides an input discrete audio signal into frames of a predetermined time length, obtains spectral parameters representing the spectral envelope of the audio signal, and calculates the spectral parameters based on the spectral parameters. It has a codebook in which predetermined types of signals created by learning are stored, and an optimal type is selected from the codebook, a difference parameter between the spectrum parameter and the selected parameter is calculated, and the difference is calculated by calculating the difference between the spectrum parameter and the selected parameter. The spectral parameters are expressed by encoding the parameters based on the distribution range obtained by measuring the difference parameters in advance, and the frames are divided into small sections of a predetermined time length and are encoded based on the past sound source signal. For a residual signal obtained by calculating and predicting a pitch parameter representing a long-term correlation, a first codebook storing a signal constructed by learning based on the residual signal and a predetermined codebook are used. a second codebook in which signals having characteristics are stored; and a signal selected from the first codebook and a signal selected from the second codebook are linearly combined to generate the audio signal. It is characterized by representing and outputting a sound source signal.

(3)また本発明による音声符号化方式は、入力した離
散的な音声信号を予め定められた時間長のフレームに分
割し、前記音声信号のスペクトル包絡を表すスペクトル
パラメータを求め、前記フレームを予め定められた時間
長の小区間に分割し過去の音源信号をもとに長期相関を
表すピッチパラメータを求めて予測して求めた残差信号
に対して、予め前記残差信号をもとに学習により構成し
た信号が格納された第1のコードブックと、予め定めら
れた特性を有する信号が格納された第2のコードブック
とを有し、前記コードブックのうちの少なくとも一つの
ゲインを調整しながら前記第1のコードブックから選択
した信号と前記第2のコードブックから選択した信号と
の線形結合かあるいは、前記第1のコードブックと前記
第2のコードブックから信号を選択した後に前記選択し
た信号のゲインを調整し前記選択された信号の線形結合
により前記音声信号の音源信号を表して出力することを
特徴とする。
(3) Furthermore, the audio encoding method according to the present invention divides an input discrete audio signal into frames of a predetermined time length, obtains a spectral parameter representing the spectral envelope of the audio signal, and divides the input discrete audio signal into frames of a predetermined time length. The residual signal is divided into small intervals of a predetermined time length, and the pitch parameters representing long-term correlation are calculated and predicted based on the past sound source signal. and a second codebook storing signals having predetermined characteristics, and adjusting the gain of at least one of the codebooks. a linear combination of a signal selected from the first codebook and a signal selected from the second codebook, or a linear combination of a signal selected from the first codebook and a signal selected from the second codebook; The present invention is characterized in that the gain of the selected signal is adjusted, and the sound source signal of the audio signal is represented and outputted by a linear combination of the selected signals.

(作用) 本発明による音声符号化方式の作用を示す。(effect) 3 shows the operation of the audio encoding method according to the present invention.

第1の発明では、フレームを分割したサブフレーム毎に
、下式を最小化するように音源信号を求める。
In the first invention, a sound source signal is obtained by minimizing the following equation for each subframe obtained by dividing a frame.

ここでp、Mは長期相関にもとづくピッチ予測(あるい
は適応コードブック)のピッチパラメータ、すなわちゲ
イン及び遅延であり、v(n)は過去のサブフレームの
音源信号である。h(n)はスペクトルパラメータによ
り構成される合成フィルタのインパルス応答、w(n)
は聴感重み付はフィルタのインパルス応答を示す。記号
中は畳み込み演算を示す。なお、w(n)の詳細につい
ては前記文献1を参照できる。
Here, p and M are the pitch parameters of the pitch prediction (or adaptive codebook) based on long-term correlation, ie, the gain and delay, and v(n) is the excitation signal of the past subframe. h(n) is the impulse response of the synthesis filter composed of spectral parameters, w(n)
The perceptual weighting indicates the impulse response of the filter. The symbol inside indicates a convolution operation. Note that the above-mentioned document 1 can be referred to for details of w(n).

また、d(n)はコードブックにより表される音源信号
を示し、下式のように、第1のコードブックから選択さ
れたコードワードc1j(n)と第2のコードブックか
ら選択されたコードワードc21(n)との線形結合で
表される。
In addition, d(n) indicates the sound source signal represented by the codebook, and as shown in the following equation, the codeword c1j(n) selected from the first codebook and the code selected from the second codebook It is expressed as a linear combination with word c21(n).

d(n)=prici(n)=riCij(n)+γ2
c2H(n)    (2)ただL71、γ2は選択さ
れたコードワードclj(n)、c21(n)のゲイン
を示す。従って、本発明では、2種類のコードブックに
分解して音源信号が表されることになるため、各コード
ブックはコードブック全体のビット数の1/2程度でよ
い。例えばコードブック全体のビット数を10ビツトと
すると、第1.2のコードブックは5ビツトずつでよく
、コードブック探索の演算量を大幅に低減できる。
d(n)=prici(n)=riCij(n)+γ2
c2H(n) (2) where L71 and γ2 indicate the gains of the selected codewords clj(n) and c21(n). Therefore, in the present invention, since the sound source signal is represented by being decomposed into two types of codebooks, each codebook only needs to be about 1/2 of the number of bits of the entire codebook. For example, if the number of bits in the entire codebook is 10 bits, then the first and second codebooks only need 5 bits each, which can significantly reduce the amount of calculation for codebook search.

なお、各コードブックとして前記文献1のような雑音コ
ードブックを用い、(2)式のように分割すると、特性
的には10ビット分のコードブックよりも劣化し全体で
7〜8ビット分の性能しか出せないことが知られている
Note that if a noise codebook like the one in Reference 1 is used as each codebook and divided as shown in equation (2), the characteristics will be worse than the codebook for 10 bits, and the codebook for 7 to 8 bits will be used as a whole. It is known that only performance can be achieved.

そこで、本発明では、高性能を得るために、第1のコー
ドブックはトレーニングデータを用いてあらかじめ学習
により構成する。学習によるコードブックの構成法とし
ては、例えば、Lindeらによる”An Algor
ithm for Vector Quantizat
ion Design”と題した論文(IEEE Tr
ans、 C0M−28,pp、 84−95.198
0年)(文献4)等が知られている。
Therefore, in the present invention, in order to obtain high performance, the first codebook is configured in advance by learning using training data. As a method of constructing a codebook through learning, for example, "An Algor" by Linde et al.
Ithm for Vector Quantizat
ion Design” (IEEE Tr.
ans, C0M-28, pp, 84-95.198
0 year) (Reference 4), etc. are known.

学習のときの距離尺度としては通常、2乗距離(ユーク
リッド距離)が用いられるが、本方法では2乗距離より
も性能の良好な次式による聴感重み付は距離尺度用いる
Squared distance (Euclidean distance) is normally used as a distance measure during learning, but in this method, perceptual weighting according to the following equation, which has better performance than squared distance, uses a distance measure.

D=Σ[(tH(n)−ex(n)oh(n))中w(
n)]2              (3)ユニでt
i(n)はj番目のトレーニングデータ、cl(n)は
クラスタ1のコードワードである。クラスタ1のセント
ロイド8c1(nX代表コードワード)は、クラスタ1
内のトレーニングデータを用いて(4)式あるいは(5
)式を最小化するように求める。
D=Σ[(tH(n)−ex(n)oh(n)) in w(
n) ] 2 (3) Uni de t
i(n) is the j-th training data, and cl(n) is the codeword of cluster 1. Centroid 8c1 (nX representative codeword) of cluster 1 is cluster 1
Using the training data in equation (4) or (5
) to minimize the expression.

(5)式においてgは最適ゲインを示す。In equation (5), g indicates the optimal gain.

第2のコードブックは、第1のコードブックによるトレ
ーニングデータ依存性を救済するために、前記文献1の
ガウス性雑音信号のようなあらかじめ統計的特性が確定
された雑音信号あるいは乱数信号からなるコードブック
や、他の特性を有するコードブックを使用する。なお、
雑音あるいは乱数コードブックに対して、ある距離尺度
のもとで選別を行うことにより、さらに特性が改善され
る。詳細はT、 Moriya氏らによる’Trans
form Codingor 5peech usin
g a Weighted Vector Quznt
izer、”と題した論文(IEEE J、 Se1.
 Areas、 Commun、、 pp、 425−
431゜1988年)(文献5)等−を参照することが
できる。
The second codebook is a code consisting of a noise signal or a random number signal whose statistical characteristics are determined in advance, such as the Gaussian noise signal of Reference 1, in order to relieve the training data dependence caused by the first codebook. book, or a codebook with other characteristics. In addition,
The characteristics can be further improved by performing selection on a noise or random number codebook based on a certain distance measure. For details, see 'Trans' by T, Moriya et al.
form Codingor 5peech usin
g a Weighted Vector Quznt
izer,” (IEEE J, Se1.
Areas, Commun,, pp, 425-
431° 1988) (Reference 5), etc.

第2の発明では、フレーム毎に求めたスペクトルパラメ
ータをベクトルースカラ量子化する。スベク) 71/
/<う) −9とシテハ、LPC,PARCOR,LS
P等種々のものが知られているが、以下では一例として
LSP(Line Spectrum Pa1r)を用
いるものとする。LSPの詳細は例えば、Sugamu
ra氏らによる”QuantizerDesign i
n LSP 5peech Analysis−8yn
thesis”と題した論 文(IEEE J、 Se
1. Areas、 Commun、、 pp、 43
2−440゜1988年)(文献6)を参照できる。ベ
クトルースヵラ量子化ではまずLSP係数をベクトル量
子化する。LSPのベクトル量子化器は、前記文献4等
の方法を用い予めLSP l−レーニングデータに対し
て学習を行いベクトル量子化コードブックを作成してお
く。次にベクトル量子化は例えば、次式の歪を最小化す
るようなコードワードをコードブックがら選択する。
In the second invention, the spectral parameters obtained for each frame are vector-scalar quantized. Subek) 71/
/<U) -9 and Shiteha, LPC, PARCOR, LS
Although various types such as P are known, LSP (Line Spectrum Pa1r) will be used as an example below. For details of LSP, see Sugamu
“QuantizerDesign i” by Mr. ra et al.
n LSP 5peech Analysis-8yn
thesis” (IEEE J, Se
1. Areas, Commun,, pp. 43
2-440° 1988) (Reference 6). In vector-scalar quantization, first, LSP coefficients are vector quantized. The LSP vector quantizer performs learning on LSP l-learning data in advance using the method described in Reference 4, etc., and creates a vector quantization codebook. Next, in vector quantization, for example, a codeword is selected from the codebook that minimizes the distortion of the following equation.

ここでp(i)はフレームの音声信号から分析して求め
たi番目のLSP係数、LはLSP分析次数、qj(i
)はコードブック中の1番目のコードワードのi番目の
係数である。Bはコードブックのビット数を示す。また
上式では距離尺度として2乗距離を用いたが他の良好な
距離尺度を用いることができる。
Here, p(i) is the i-th LSP coefficient obtained by analyzing the audio signal of the frame, L is the LSP analysis order, and qj(i
) is the i-th coefficient of the first codeword in the codebook. B indicates the number of bits of the codebook. Further, although the above equation uses a square distance as a distance measure, other suitable distance measures may be used.

次に、選択されたコードワードqj(i)を用いて、次
式によりベクトル量子化した差分信号を求める。
Next, using the selected codeword qj(i), a vector quantized difference signal is obtained using the following equation.

e(i)=p(i)−qj(i)    (i=1〜L
)      (7)次に差分信号e(i)をスカラ量
子化によりスカラ量子化する。スカラ量子化器の設計法
は、多量の信号e(i)に対してe(i)の統計分布を
次数i毎に測定し、これにより各次数毎に量子化器の量
子化範囲の最大値、最小値を決定する。例えば、e(i
)の統計分布の1%点と99%点とを測定し、それぞれ
量子化器の最小値、最大値とすることができる。これに
より、スカラ量子化では、LSPの次数をLとするとL
X2のテーブルを有するのみでよい。通常りは10程度
にとられるため、前記テーブルは20ときわめて少量で
よい。
e(i)=p(i)-qj(i) (i=1~L
) (7) Next, the difference signal e(i) is scalar quantized by scalar quantization. The design method of a scalar quantizer is to measure the statistical distribution of e(i) for each order i for a large amount of signals e(i), and then calculate the maximum value of the quantization range of the quantizer for each order. , determine the minimum value. For example, e(i
) can be measured and used as the minimum and maximum values of the quantizer, respectively. As a result, in scalar quantization, if the order of LSP is L, then L
It is sufficient to have only X2 tables. Since the number of tables is usually about 10, the number of tables may be as small as 20.

また第3の発明では、第1、第2のコードブックを探索
するときに少なくとも一つのゲインを調整しながら探索
するかまたは、前記2つのコードブックのコードワード
を決定した後に2つのゲインを最適化することにより、
特性を改善する。
Further, in the third invention, when searching the first and second codebooks, the search is performed while adjusting at least one gain, or after determining the codewords of the two codebooks, the two gains are optimized. By becoming
Improve properties.

いま第1、第2のコードブックを探索するときにゲイン
を調整しながら行うとする。具体的には、第1のコード
ブックのコードワードは決定し、第2のコードブックを
探索することに、各コードワード毎に次式を最小化しな
がら行う。
Suppose that the first and second codebooks are searched while adjusting the gain. Specifically, the codewords of the first codebook are determined, and the second codebook is searched while minimizing the following equation for each codeword.

E=Σ[(x(n)   7”1clj(n)oh(n
) −γ2c2H(n)oh(n))中w(n)]2(
8) ここでγ1、γ2は第1、第2のコードブックのゲイン
である。clj(n)、c21(n)は第1、第2のコ
ードブックから選択されたコードワードである。(8)
式を全てのc21(n)について計算し、誤差電力Eを
最小化するコードワードc2H(n)とそのときのゲイ
ンγ1、γ2を求める。
E=Σ[(x(n) 7”1clj(n)oh(n
) −γ2c2H(n)oh(n)) w(n)]2(
8) Here, γ1 and γ2 are gains of the first and second codebooks. clj(n) and c21(n) are codewords selected from the first and second codebooks. (8)
The equation is calculated for all c21(n), and the codeword c2H(n) that minimizes the error power E and the gains γ1 and γ2 at that time are determined.

なお、これらの計算はダラムシュミットの直交化法を用
いても解くことができる。
Note that these calculations can also be solved using Durham Schmidt's orthogonalization method.

また、演算量を低減化するためには、コードワードの探
索の時に(8)式を計算するのではなくて、第1、第2
のコードブックのコードワードを独立に決定した後に、
求まったコードワードclj(n)、c21(n)に対
してのみ(8)式を解いて最適なゲインγ1、γ2を求
めてもよい。
In addition, in order to reduce the amount of calculation, instead of calculating equation (8) when searching for a codeword, it is necessary to calculate the first and second
After independently determining the codewords of the codebook,
The optimum gains γ1 and γ2 may be determined by solving equation (8) only for the determined codewords clj(n) and c21(n).

(実施例) 第1図は第1の発明による音声符号化方式の一実施例を
示すブロック図である。
(Embodiment) FIG. 1 is a block diagram showing an embodiment of the speech encoding method according to the first invention.

図において、送信側では、入力端子100から音声信号
を入力し、1フレ一ム分(例えば20m5)の音声信号
をバッファメモリ110に格納する。
In the figure, on the transmitting side, an audio signal is input from an input terminal 100, and the audio signal for one frame (for example, 20 m5) is stored in a buffer memory 110.

LPC分析回路130は、フレームの音声信号のスペク
トル特性を表すパラメータとして、r、spパラメータ
を前記フレームの音声信号から周知のLPC分析を行い
あらかじめ定められた次数りだけ計算する。この具体的
な計算法については前記文献6を参照することができる
。次にLSP量子化回路140は、LSPパラメータを
予め定められた量子化ビット数で量子化し、得た符号1
kをマルチプレクサ260へ出力するとともに、これを
復号化してさらに線形予測係数ai’ (i = 1〜
L)に変換して重みずけ回路200、インパルス応答計
算回路170、合成フィルタ281へ出力する。LSP
パラメータの符号化、LSPパラメータから線形予測係
数への変換の方法については前記文献6等を参照するこ
とができる。
The LPC analysis circuit 130 performs well-known LPC analysis on the frame audio signal to calculate r and sp parameters of a predetermined order as parameters representing the spectral characteristics of the frame audio signal. Regarding this specific calculation method, reference can be made to the above-mentioned document 6. Next, the LSP quantization circuit 140 quantizes the LSP parameters with a predetermined number of quantization bits, and the obtained code 1
While outputting k to the multiplexer 260, it is decoded and further linear prediction coefficient ai' (i = 1 to
L) and output to the weighting circuit 200, impulse response calculation circuit 170, and synthesis filter 281. LSP
Regarding the method of encoding parameters and converting LSP parameters into linear prediction coefficients, reference can be made to the above-mentioned document 6 and the like.

サブフレーム分割回路150は、フレームの音声信号を
サブフレームに分割する。ここで例えばフレーム長は2
0m5、サブフレーム長は5msとする。
The subframe division circuit 150 divides the frame audio signal into subframes. For example, the frame length is 2
0m5, and the subframe length is 5ms.

減算器190は、サブフレームに分割された入力信号か
ら合成フィルタ281の出力を減算して出力する。
The subtracter 190 subtracts the output of the synthesis filter 281 from the input signal divided into subframes and outputs the result.

重み付は回路200は、減算した信号に対して周知の聴
感重み付けを行う。聴感重み付は関数の詳細は前記文献
1を参照できる。
The weighting circuit 200 performs well-known perceptual weighting on the subtracted signal. For details of the perceptual weighting function, refer to the above-mentioned document 1.

適応コードブック210は、合成フィルタ281の入力
信号v(n)を遅延回路206を介して入力し、さらに
インパルス応答出力回路170から重み付はインパルス
応答hw(n)、重み付は回路200から重み付は信号
を入力し、長期相関にもとづくピッチ予測を行い、遅延
Mとゲインpを計算する。以下の説明では適応コードブ
ックの予測次数は1とするが、2次以上の高次とするこ
ともできる。1次の適応コードブックにおける遅延M、
ゲインpの計算法は、Kleijin氏らによる”Im
proved 5peech quality and
efflcient vector quantiza
tion in 5ELP”と題した論文(ICASS
P、 pp、 155−158年、1988年)(文献
7)に記載されているので説明を省略する。さらに求め
たゲインpを量子化器220によりあらかじめ定められ
た量子化ビット数で量子化復号化し、ゲインp′を求め
これを用いて次式により予測信号〜(n)を計算し減算
器205に出力する。また遅延Mをマルチプレクサ26
0へ出力する。
The adaptive codebook 210 inputs the input signal v(n) of the synthesis filter 281 via the delay circuit 206, and further receives the weighted impulse response hw(n) from the impulse response output circuit 170 and the weighted signal from the circuit 200. Next, a signal is input, pitch prediction is performed based on long-term correlation, and delay M and gain p are calculated. In the following explanation, the prediction order of the adaptive codebook is assumed to be 1, but it can also be set to a higher order than 2. Delay M in the first-order adaptive codebook,
The method for calculating the gain p is described in “Im
proven 5peech quality and
efflcient vector quantiza
tion in 5ELP” (ICASS
P, pp. 155-158, 1988) (Reference 7), so the explanation will be omitted. Furthermore, the obtained gain p is quantized and decoded by the quantizer 220 using a predetermined number of quantization bits to obtain the gain p', and using this, the predicted signal ~(n) is calculated by the following formula, and the subtracter 205 Output. Also, the delay M is added to the multiplexer 26
Output to 0.

tw(n)= p’ −v(n −M)傘hw(n) 
        (9)上式でv(n−M)は合成フィ
ルタ281の入力信号、hw(n)はインパルス応答計
算回路170で求めた重み付ケインパルス応答である。
tw(n) = p' −v(n −M) umbrella hw(n)
(9) In the above equation, v(n-M) is the input signal of the synthesis filter 281, and hw(n) is the weighted cane pulse response obtained by the impulse response calculation circuit 170.

遅延回路206は、合成フィルタ281の入力信号v(
n)を1サブフレ一ム分遅延させて適応コードブ・ツク
210へ出力する。
The delay circuit 206 receives the input signal v(
n) is delayed by one subframe and output to the adaptive codebook 210.

量子化器220は、適応コードブックのゲインpを予め
定められた量子化ビット数で量子化して符号をマルチプ
レクサ260に出力すると共に、適応コードブック20
0に出力する。
The quantizer 220 quantizes the gain p of the adaptive codebook with a predetermined number of quantization bits and outputs the code to the multiplexer 260.
Output to 0.

減算器205は、重み付は回路200の出力信号から適
応コードブック210の出力〜(n)を次式により減算
し残差信号ew(n)を第1のコードブック探索回路2
30に出力する。
The subtracter 205 subtracts the output ~(n) of the adaptive codebook 210 from the output signal of the weighting circuit 200 using the following formula, and outputs the residual signal ew(n) to the first codebook search circuit 2.
Output to 30.

ew(n)= xw(n)−太w(n)       
   (10)インパルス応答計算回路170は、聴感
重み付けした合成フィルタのインパルス応答hw(n)
を予め定められたサンプル数りだけ計算する。具体的な
計算法は、前記文献1等を参照できる。
ew (n) = xw (n) - thick w (n)
(10) The impulse response calculation circuit 170 calculates the impulse response hw(n) of the auditory weighted synthesis filter.
is calculated for a predetermined number of samples. For a specific calculation method, reference can be made to the above-mentioned document 1, etc.

第1のコードブック探索回路230は、第1のコードブ
ック235を用いて最適なコードワードc1j(n)と
最適ゲインγ□を探索する。ここで作用の項に記したよ
うに、第1のコードブックは、あらかじめトレーニング
信号を用いて学習しておく。
The first codebook search circuit 230 uses the first codebook 235 to search for the optimal codeword c1j(n) and the optimal gain γ□. As described in the operation section, the first codebook is learned in advance using a training signal.

第2図は第1のコードブック探索回路230のブロック
図を示す。コードワードの探索は下式に従う。
FIG. 2 shows a block diagram of the first codebook search circuit 230. The codeword search follows the formula below.

%式%(11) (11)式を最小化するγ1を求めるためには、(11
)式をγ1で偏微分して0とおくことにより得た下式を
用いる。
%Formula%(11) In order to find γ1 that minimizes the formula (11), (11
) is partially differentiated with respect to γ1 and set to 0. The following equation is used.

γ1=Gj/cj               (1
2)ただし Gj=Σew(nXcij(n)傘hW(n))   
                   (13)Cj
=Σ(clj(n)傘hw(n))2        
                  (14)このと
き(11)式は E=Σew(n)2− Gj”/ Cj       
  (15)となる。ここで(15)式の第1項は定数
であるので、第2項を最大化するようにコードブックの
コードワードclj(n)を選択する。
γ1=Gj/cj (1
2) However, Gj=Σew(nXcij(n) umbrella hW(n))
(13) Cj
=Σ(clj(n) umbrella hw(n))2
(14) In this case, equation (11) is E=Σew(n)2− Gj”/Cj
(15). Here, since the first term in equation (15) is a constant, the codeword clj(n) of the codebook is selected so as to maximize the second term.

第2図において、相互相関関数計算回路410は、(1
3)式の計算を行い、自己相関関数計算回路420は(
14)式の計算を行い、判別回路430は(15)式の
計算を行い、コードワードC1j(n)を選択し、それ
を表すインデクスを出力する。さらに(12)式から求
めたゲインγ1を出力する。
In FIG. 2, the cross-correlation function calculation circuit 410 calculates (1
3) Calculate the equation, and the autocorrelation function calculation circuit 420 calculates (
The determination circuit 430 calculates the equation (14), selects the code word C1j(n), and outputs an index representing the code word C1j(n). Furthermore, the gain γ1 obtained from equation (12) is output.

また、コードブックの探索に要する演算量を低減するに
は、以下の方法を用いることもできる。
Furthermore, the following method can also be used to reduce the amount of calculation required for searching the codebook.

G3=怪V(i)ctj(i))2(16)! 但し ψ(i)=Σew(n)hw(n−i)       
    (17)Cj = p(0)vj(0) +2
石p(i)vj(i)          (18)こ
こでμ(i)、vj(i)はそれぞれ)1w(n)のi
次遅れの自己相関、コードワードe1j(n)のi次遅
れの自己相関を示す。
G3 = Mysterious V (i) ctj (i)) 2 (16)! However, ψ(i)=Σew(n)hw(n-i)
(17) Cj = p(0)vj(0) +2
stone p(i) vj(i) (18) where μ(i) and vj(i) are respectively) i of 1w(n)
The autocorrelation of the next lag shows the autocorrelation of the i-th lag of the codeword e1j(n).

以上の方法により求めたコードワードを示すインデクス
をマルチプレクサ260に出力し、ゲインγ1を量子化
器240に出力する。また、選択されたコードワードC
J (n)を乗算器241に出力する。
The index indicating the code word obtained by the above method is output to the multiplexer 260, and the gain γ1 is output to the quantizer 240. Also, the selected codeword C
J (n) is output to the multiplier 241.

量子化器240は、ゲインγ1を予め定められたビット
数で量子化して符号をマルチプレクサ260に出力する
と共に、量子化復号値γ1′を乗算器241に出力する
The quantizer 240 quantizes the gain γ1 with a predetermined number of bits and outputs the code to the multiplexer 260, and also outputs the quantized decoded value γ1' to the multiplier 241.

乗算器241は、コードワードc1j(n)にゲインγ
1′を下式により乗じて音源信号q(n)を求め、加算
器290、合成フィルタ250へ出力する。
The multiplier 241 adds a gain γ to the code word c1j(n).
1' is multiplied by the following formula to obtain the sound source signal q(n), which is output to the adder 290 and the synthesis filter 250.

q(n)=rt’ctj(n)           
  (19)合成フィルタ250は乗算器241の出力
q(n)を入力し、下式に従い重み付は合成信号yw(
n)を求め出力する。
q(n)=rt'ctj(n)
(19) The synthesis filter 250 inputs the output q(n) of the multiplier 241, and weights the synthesized signal yw(
n) and output it.

yw(n)=q(n)傘hw(n)         
                     (20)
減算器255は、ew(n)からyw(n)を減算して
第2のコードブック探索回路270へ出力する。
yw(n) = q(n) umbrella hw(n)
(20)
Subtractor 255 subtracts yw(n) from ew(n) and outputs the result to second codebook search circuit 270.

第2のコードブック探索回路270は、第2のコードブ
ック275から最適なコードワードを選択し最適なゲイ
ンγ2を計算する。第2のコードブック探索回路の構成
は、第2図に示した第1のコードブック探索回路の構成
と基本的に同一の構成を用いることができる。また、コ
ードワードの探索法としては、前記第1のコードブック
の探索と同一の方法を用いることができる。第2のコー
ドブックの構成法としては、作用の項で述べた学習コー
ドブックの高効率を保ちながらトレーニングデータ依存
性を救済するために、乱数系列からなるコードブックを
用いる。乱数系列からなるコードブックの構成法は前記
文献lを参照できる。
The second codebook search circuit 270 selects the optimal codeword from the second codebook 275 and calculates the optimal gain γ2. The configuration of the second codebook search circuit can be basically the same as the configuration of the first codebook search circuit shown in FIG. 2. Furthermore, as the codeword search method, the same method as the first codebook search can be used. As a method of constructing the second codebook, a codebook consisting of a random number sequence is used in order to maintain the high efficiency of the learning codebook described in the section on operation and to relieve the training data dependence. For a method of constructing a codebook consisting of a random number sequence, reference can be made to the above-mentioned document 1.

また、第2のコードブック探索の演算量の低減化のため
に、第2のコードブックとして、重畳型(overla
p)構成の乱数コードブックを用いることができる。重
畳型乱数コードブックの構成法、コードワード探索法に
ついては前記文献7等を参照できる。
In addition, in order to reduce the amount of calculation for the second codebook search, we use an overlapping type (overlaid) as the second codebook.
p) A random codebook of configurations can be used. Regarding the construction method of the superimposed random number codebook and the codeword search method, reference can be made to the above-mentioned document 7 and the like.

量子化器285は、量子化器240と同一の動作を行い
、ゲインγ2を予めさだめられたビット数で量子化して
符号をマルチプレクサ260に出力する。またゲインの
符号化複合化値γ2′を乗算器242に出力する。
The quantizer 285 performs the same operation as the quantizer 240, quantizes the gain γ2 with a predetermined number of bits, and outputs the code to the multiplexer 260. Further, the encoded composite value γ2' of the gain is output to the multiplier 242.

乗算器242は乗算器241と同様の動作を行い、第2
のコードブックにより選択されたコードワードc2H(
n)に対して量子化復号化したゲインγ2′を乗じて加
算器290に出力する。
Multiplier 242 performs the same operation as multiplier 241, and the second
The codeword c2H (
n) is multiplied by the quantized and decoded gain γ2' and output to the adder 290.

加算器290は、乗算器241、乗算器242の出力信
号を次式により加算して合成フィルタ281、遅延回路
206に出力する。
Adder 290 adds the output signals of multiplier 241 and multiplier 242 using the following equation and outputs the result to synthesis filter 281 and delay circuit 206.

v(n)=r1’C1j(n)+r2’c21(n) 
       (21)合成フィルタ281は、加算器
290の出力v(n)を入力し、下式により合成音声を
1フレーム(N点)分求め、さらにもう1フレ一ム分は
0の系列をフィルタに入力して応答信号系列を求め、1
フレ一ム分の応答信号系列を減算器190に出力する。
v(n)=r1'C1j(n)+r2'c21(n)
(21) The synthesis filter 281 inputs the output v(n) of the adder 290, calculates synthesized speech for one frame (N points) using the formula below, and filters the sequence of 0s for another frame. Input and find the response signal sequence, 1
The response signal sequence for one frame is output to the subtracter 190.

■。■.

ただし マルチプレクサ260は、LSP量子化器140、第1
のコードブック探索回路230、第2のコードブック探
索回路270、量子化器240、量子化器285の出力
符号系列を組みあわせて出力する。
However, the multiplexer 260 includes the LSP quantizer 140, the first
The output code sequences of the codebook search circuit 230, the second codebook search circuit 270, the quantizer 240, and the quantizer 285 are combined and output.

以上で第1の発明の詳細な説明を終える。This concludes the detailed description of the first invention.

第3図は第2の発明の一実施例を示すブロック図である
。図において、第1図と同一の番号を記した構成要素は
、第1図と同一の動作を行うので説明は省略する。
FIG. 3 is a block diagram showing an embodiment of the second invention. In the figure, the components labeled with the same numbers as in FIG. 1 perform the same operations as in FIG. 1, and therefore their explanations will be omitted.

第2の発明はLSP量子化器300に特徴があるのでこ
れを中心に説明する。
The second invention is characterized by the LSP quantizer 300, so this will be mainly explained.

第4図はLSP量子化器300の構成を示すブロック図
である。第4図において、LSP変換回路305は入力
したLPC係数aiをLSP係数に変換する。LPC係
数からLSP係数への変換法の詳細は、例えば前記文献
6を参照することができる。
FIG. 4 is a block diagram showing the configuration of the LSP quantizer 300. In FIG. 4, an LSP conversion circuit 305 converts input LPC coefficients ai into LSP coefficients. For details of the method of converting LPC coefficients to LSP coefficients, reference can be made to, for example, the above-mentioned document 6.

ベクトル量子化器310は、入力したLSP係数を前記
(6)式に従いベクトル量子化する。ここであらかじめ
多量のLSPデータに対して学習を行いコードブック3
20を作成しておく。学習の具体的な方法は、前記文献
4等を参照できる。ベクトル量子化器310は、選択さ
れたコードワードを示すインデクスをマルチプレクサ2
60へ出力し、ベクトル量子化したLSP係数qj(i
)を減算器325、加算器335へ出力する。
The vector quantizer 310 vector quantizes the input LSP coefficients according to equation (6) above. Here, we perform learning on a large amount of LSP data in advance and codebook 3
Create 20. For specific learning methods, refer to the above-mentioned document 4 and the like. Vector quantizer 310 sends an index indicating the selected codeword to multiplexer 2.
60 and vector quantized LSP coefficients qj(i
) is output to the subtracter 325 and adder 335.

減算器325は、入力したLSP係数p(i)とベクト
ル量子化器310の出力であるベクトル量子化したLS
P係数qj(i)とを前記(7)式に従い減算し、差分
信号e(i)をスカラ量子化器330へ出力する。
The subtracter 325 extracts the input LSP coefficient p(i) and the vector quantized LS output from the vector quantizer 310.
P coefficient qj(i) is subtracted according to the above equation (7), and the difference signal e(i) is output to the scalar quantizer 330.

スカラ量子化器330は、作用の項で説明したように、
予め多量の差分信号に対して、統計分布を求め、量子化
の範囲を定めておく。例えば、差分信号の各次数毎に、
差分信号の統計的な頻度分布の1%存在周波数、99%
存在周波数を測定し、これらを量子化の下限、上限と定
め、下限、上限の間を一様量子化器により一様に量子化
する構成をとる。あるいは、各次数毎にe(i)の分散
を調べ、この分散に従い、予め定められた統計分布、例
えばガウス分布、を有するスカラ量子化器により量子化
する構成をとることもできる。
As explained in the operation section, the scalar quantizer 330 is
A statistical distribution is determined in advance for a large amount of differential signals, and a quantization range is determined. For example, for each order of the difference signal,
1% existence frequency of the statistical frequency distribution of the difference signal, 99%
The existing frequencies are measured, these are set as the lower limit and upper limit of quantization, and a uniform quantizer is used to uniformly quantize between the lower limit and the upper limit. Alternatively, a configuration may be adopted in which the dispersion of e(i) is checked for each order, and quantization is performed according to this dispersion using a scalar quantizer having a predetermined statistical distribution, for example, a Gaussian distribution.

さらにスカラ量子化によりLSPの順位が逆転し合成フ
ィルタが不安定となることを防止するために、以下のよ
うにスカラ量子化の範囲を制限する。
Furthermore, in order to prevent the order of LSPs from being reversed due to scalar quantization and the synthesis filter becoming unstable, the range of scalar quantization is limited as follows.

もしqj(i−1)+(e(i−1)の99%点)< 
LSP’(i)のときは、e(i−1)の99%点と1
%点を最大、最小範囲としてスカラ量子化する。
If qj(i-1)+(99% point of e(i-1))<
For LSP'(i), the 99% point of e(i-1) and 1
Scalar quantization is performed using the % points as the maximum and minimum ranges.

もしqj(i−1)+(e(i−1)の99%点)≧L
SP’(i)のときは、(LSP’(i)−qj(i)
)と1%点を最大、最小範囲としてスカラ量子化する。
If qj(i-1)+(99% point of e(i-1))≧L
When SP'(i), (LSP'(i)-qj(i)
) and the 1% point as the maximum and minimum ranges.

また、スカラ量子化器330は差分信号を量子化した符
号を出力し、量子化復号値e’(i)を加算器335へ
出力する。
Further, the scalar quantizer 330 outputs a code obtained by quantizing the difference signal, and outputs a quantized decoded value e'(i) to the adder 335.

加算器335は、ベクトル量子化した係数% (i)と
スカラ量子化の量子化復号値e’(i)を次式により加
算してLSPの量子化復号値LSP’(i)を求め出力
する。
The adder 335 adds the vector quantized coefficient % (i) and the scalar quantized quantized decoded value e'(i) using the following formula to obtain the quantized decoded value LSP'(i) of LSP and outputs it. .

LSP’(i)=qj(i)+e’(i)  (i=1
〜L)     (24)変換回路340は、衆知の方
法を用いてLSPから線形予測係数aiIに変換しai
Iを出力する。
LSP'(i)=qj(i)+e'(i) (i=1
~L) (24) The conversion circuit 340 converts the LSP into the linear prediction coefficient aiI using a well-known method.
Outputs I.

以上で第2の発明の詳細な説明を終える。This concludes the detailed description of the second invention.

以上の発明では、適応コードブックのゲイン、第1、第
2のコードブックのゲインには同時最適化を施さなかっ
たが、第3の発明では、適応コードブック、第1のコー
ドブック、第2のコードブックのゲインについて、同時
最適化を行い、さらに特性を改善する。この同時最適化
は、作用の項で述べたように、第1.2のコードブック
のコードワードを求めるときに適用すると特性が改善さ
れる。
In the above invention, simultaneous optimization was not performed on the gain of the adaptive codebook and the gains of the first and second codebooks, but in the third invention, the adaptive codebook, the first codebook, and the second Simultaneous optimization is performed on the gain of the codebook to further improve the characteristics. As described in the section on effects, this simultaneous optimization improves the characteristics when applied when determining the codeword of the 1.2 codebook.

例えば、適応コードブックの遅延、ゲインpを求めた後
に、第1のコードブックのコードワードc1j(n)、
ゲインγ1を探索するときに、各コードワード毎に、次
式を最小化するように解いてpとγ□を同時最適化する
For example, after determining the delay and gain p of the adaptive codebook, the codeword c1j(n) of the first codebook,
When searching for gain γ1, p and γ□ are simultaneously optimized by solving the following equation to minimize it for each codeword.

R11”Σ(v(n   M)傘hw(n)) 2R1
2=Σ(v(n−M)ohw(n))(clj(n)o
hW(n))R22=Σ(cIJ (n)ohW(n)
)2p1=Σxw(nXv(n   M)傘hw(n)
)p2=Σxw(n)(clj(n)申hw(n))(
27a) (27b) (27c) (27d) (27e) 次に、第2のコードワードを決定するときに、次式を最
小化するように適応コードブックのゲイン、第1、第2
のコードブックのゲインを同時最適化する。
R11”Σ(v(n M) umbrella hw(n)) 2R1
2=Σ(v(n-M)ohw(n))(clj(n)o
hW(n))R22=Σ(cIJ(n)ohW(n)
)2p1=Σxw(nXv(n M) umbrella hw(n)
) p2=Σxw(n)(clj(n)shinhw(n))(
27a) (27b) (27c) (27d) (27e) Next, when determining the second codeword, the gains of the adaptive codebook, the first and second
Simultaneously optimize the gains of the codebooks.

E=Σ[(x(n)−pv(n−M)傘h(n)   
rlclj (n)”h(n)−72C2j(n)傘b
(n))*w(n月2              (
28)なお、演算量の低減化のために、第1のコードブ
ックのコードワード探索のときに(26)式によるゲイ
ン最適化を行い、第2のコードブックの探索のときには
行わない構成とすることもできる。
E=Σ[(x(n)-pv(n-M) umbrella h(n)
rlclj (n)”h(n)-72C2j(n) umbrella b
(n))*w(n month 2 (
28) In order to reduce the amount of calculation, gain optimization using equation (26) is performed when searching for a codeword in the first codebook, but is not performed when searching for the second codebook. You can also do that.

また、さらに演算量を低減するためには、コードブック
のコードワードの探索のときにはゲインの最適化を行わ
ずに、第1のコードブックのコードワードが選択された
ときに、適応コードブックと第1のコードブックのゲイ
ンの同時最適化を行い、第2のコードブックのコードワ
ードが選択されたときには、適応コードブックと第1.
2のコードブックのゲインを同時に最適化する構成を用
いることもできる。
In addition, in order to further reduce the amount of computation, it is possible to avoid gain optimization when searching for codewords in the codebook, and instead use the adaptive codebook and the 1 codebook, and when a codeword of the second codebook is selected, the adaptive codebook and the first codebook are jointly optimized.
It is also possible to use a configuration in which the gains of two codebooks are simultaneously optimized.

また、さらに演算量を低減化するためには、第1と2の
コードブックのコードワードが選択された後に、適応コ
ードブックのゲインpと、第1、第2のコードブックの
ゲインγ1、γ2の3種を同時に最適化するような構成
とすることもできる。
In addition, in order to further reduce the amount of calculation, after the codewords of the first and second codebooks are selected, the gain p of the adaptive codebook and the gains γ1, γ2 of the first and second codebooks are calculated. It is also possible to adopt a configuration that simultaneously optimizes the three types.

以上で第3の発明の説明を終える。This concludes the explanation of the third invention.

上記実施例において、第1のコードブックの探索法は実
施例の方法以外にも他の衆知な方法を用いることができ
る。例えば、前記文献1に記載の方法や、あらかじめコ
ードブックの各コードワードc1j(n)の直交変換c
1(k)を求めて格納しておき、サブフレーム毎に、前
記重み付はインパルス応答111g(n)の直交変換H
w(k)と、残差信号ew(n)の直交変換Ew(k)
を予め定められた点数だけ求め、前記(13)、(14
)式の代わりに下式を用いてもよい。
In the embodiments described above, the first codebook search method may be any other well-known method in addition to the method of the embodiments. For example, the method described in the above-mentioned document 1 or the orthogonal transformation c of each code word c1j(n) of the codebook in advance
1(k) is calculated and stored, and the weighting is performed by orthogonal transformation H of the impulse response 111g(n) for each subframe.
w(k) and orthogonal transformation Ew(k) of residual signal ew(n)
A predetermined number of points are obtained, and the above (13) and (14) are obtained.
) The following formula may be used instead of the formula.

G3 (k)= Ew(k)(C1j (k)Hw(k
)) (0≦に≦N−1)  (29)Cj(k)=(
C1j(k)Hw(k))2(0≦に≦N−1) (3
0)そして(29)、(30)式を逆直交変換して、相
互相関関数Gj、自己相関関数Cjを計算し、前記(1
5)、(12)式に従いコードワードの探索、ゲインの
計算をするような構成としてもよい。このとき、直交変
換としては、フーリエ変換、あるいはFFT、コサイン
変換などを用いることができる。この方法によれば、(
13)、(14)式の畳み込み演算を周波数軸上で乗算
に帰着できるので演算量を低減することができる。
G3 (k) = Ew (k) (C1j (k) Hw (k
)) (0≦≦N-1) (29) Cj(k)=(
C1j(k)Hw(k))2(0≦≦N-1) (3
0) Then, the equations (29) and (30) are inversely orthogonally transformed to calculate the cross-correlation function Gj and autocorrelation function Cj, and the above (1)
5), the configuration may be such that the code word search and gain calculation are performed according to equation (12). At this time, Fourier transform, FFT, cosine transform, etc. can be used as the orthogonal transform. According to this method, (
Since the convolution operations in equations 13) and (14) can be reduced to multiplication on the frequency axis, the amount of calculations can be reduced.

また、第2のコードブックの探索法としては、前記実施
例の方法以外にも上記で示した方法や、前記文献7に記
載の方法や、他の衆知な良好な方法を用いることができ
る。
Furthermore, as a search method for the second codebook, in addition to the method of the above embodiment, the method shown above, the method described in the above-mentioned document 7, and other well-known good methods can be used.

また、第2のコードブックの構成法としては、前記実施
例に記載した方法以外に、例えば予め膨大な乱数系列を
コードブックとして用意して、それらを用いてトレーニ
ングデータに対して乱数系列の探索を行い、選択される
頻度が高いものあるいはトレーニングデータに対する誤
差電力が小さいものからコードワードとして登録して第
2のコードブックを構成することもできる。なお、この
構成法は、第1のコードブックの構成にも適用すること
ができる。
In addition, as a method for configuring the second codebook, in addition to the method described in the above embodiment, for example, a huge number of random number sequences can be prepared in advance as a codebook, and these can be used to search for a random number sequence for training data. It is also possible to configure the second codebook by registering the codewords as codewords in descending order of the frequency of selection or the one with the smallest error power relative to the training data. Note that this configuration method can also be applied to the configuration of the first codebook.

また、上記実施例では、ゲインはスカラ量子化していた
が、より効率的な量子化法として、3種のゲインp1γ
1、γ2あるいは、第1.2のコードブックの2種のゲ
インγ1、γ2をまとめてベクトル量子化するような構
成をとることもできる。ベクトル量子化器のコードブッ
クの作成は前記文献4を参照できる。
In addition, in the above embodiment, the gain was scalar quantized, but as a more efficient quantization method, three types of gains p1γ
1, γ2 or the two types of gains γ1 and γ2 of the codebook 1.2 may be vector quantized together. For the creation of a codebook for a vector quantizer, reference can be made to the above-mentioned document 4.

また、上記実施例では、適応コードブックの次数は1次
としたが、2次以上の高次とすることもできる。また、
次数は1次のままで遅延を整数値ではなく小数値とする
こともできる。これらについての詳細は、例えば後者に
ついては、Marques氏らによる”Pitch P
rediction with Fractional
 Delays 1nCELP Coding”と題し
た論文(EURO8PEECH,pp。
Further, in the above embodiment, the order of the adaptive codebook is set to 1st order, but it may be set to a higher order of 2nd order or higher. Also,
It is also possible to set the delay to a decimal value instead of an integer value while keeping the order as 1. For details on these, for example the latter, see “Pitch P” by Marques et al.
Rediction with Fractional
A paper titled "Delays 1nCELP Coding" (EURO8PEECH, pp.

509−513.1989年)(文献印等を参照できる
。以上のようにした方が特性は向上するが、ゲインある
いは遅延の伝送に必要な情報量が若干増大する。
509-513.1989) (Refer to literature stamps, etc.) The above method improves the characteristics, but the amount of information required for transmitting gain or delay increases slightly.

また、上記の実施例では、スペクトルパラメータとして
にパラメータ、LSPパラメータを符号化し、その分析
法としてLPC分析を用いたが、スベクトルパラメータ
としては他の衆知なパラメータ、例えばLPCケプスト
ラム、ケプストラム、改良ケプストラム、−膜化ケプス
トラム、メルケプストラムなどを用いることもできる。
Furthermore, in the above embodiment, parameters and LSP parameters are encoded as spectral parameters, and LPC analysis is used as an analysis method thereof, but other well-known parameters such as LPC cepstrum, cepstrum, and improved cepstrum can be used as spectral parameters. , -membrane cepstrum, mel cepstrum, etc. can also be used.

また各パラメータに最適な分析法を用いることができる
Furthermore, it is possible to use the optimal analysis method for each parameter.

また、フレームで求めたLPC係数をサブフレーム毎に
補間し、補間した係数を用いて適応コードブック、第1
、第2のコードブックの探索を行う構成としてもよい。
In addition, the LPC coefficients obtained for each frame are interpolated for each subframe, and the adaptive codebook is created using the interpolated coefficients.
, the second codebook may be searched.

このような構成とすることにより、音質がさらに改善さ
れる。
With such a configuration, the sound quality is further improved.

また、演算量を低減するために、送信側では影響信号の
計算を省略することもできる。これによって、送信側に
おける合成フィルタ281、減算器190は不要となり
演算量低減が可能となるが、音質は若干低下する。
Further, in order to reduce the amount of calculation, calculation of the influence signal can be omitted on the transmitting side. This eliminates the need for the synthesis filter 281 and the subtracter 190 on the transmitting side, making it possible to reduce the amount of calculations, but the sound quality is slightly degraded.

また、演算量を低減するために、重み付は回路200を
サブフレーム分割回路150の前に配置させ、合成フィ
ルタ281では下式により重み付は合成信号を計算する
ようにしてもよい。
Furthermore, in order to reduce the amount of calculation, the weighting circuit 200 may be placed in front of the subframe division circuit 150, and the synthesis filter 281 may calculate the weighting composite signal using the following formula.

ここでγは聴感重み付けの程度を決める重み付は係数で
ある。
Here, γ is a weighting coefficient that determines the degree of perceptual weighting.

また、受信側では、量子化雑音を整形することにより聴
覚的にきき易くするために、ピッチとスペクトル包絡の
少なくとも1つについて動作する適応形ポストフィルタ
を付加してもよい。適応型ポストフィルタの構成につい
ては、例えば、Kroon氏らによる“A C1ass
 of’ Analysis−by−synthesi
s Predic−tive Coders for 
High Quality 5peech Codin
g at Ratesbetween 4.8 and
 16kb/s、” (IEEE JSAC,vol、
 6.2.353−363、1988X文献9)等を参
照できる。
Further, on the receiving side, in order to make the quantization noise more audible by shaping it, an adaptive post filter that operates on at least one of the pitch and the spectral envelope may be added. Regarding the configuration of the adaptive post filter, for example, “A C1ass
of' Analysis-by-synthesis
s Predic-tive Coders for
High Quality 5peech Codin
g at Rates between 4.8 and
16 kb/s,” (IEEE JSAC, vol.
6.2.353-363, 1988X document 9), etc. can be referred to.

なお、デジタル信号処理の分野でよく知られているよう
に、自己相関関数は周波数軸上でパワスペクトルに、相
互相関関数はクロスパワスペクトルに対応しているので
、これらがら計算することもできる。これらの計算法に
ついては、Oppenheim氏らによる”Digit
al Signal Processing”(Pre
ntice−Hall、 1975)と題した単行本(
文献io)を参照できる。
Note that, as is well known in the field of digital signal processing, the autocorrelation function corresponds to the power spectrum on the frequency axis, and the cross-correlation function corresponds to the cross-power spectrum, so they can also be calculated. These calculation methods are described in “Digit” by Oppenheim et al.
"Al Signal Processing" (Pre
ntice-Hall, 1975).
Reference can be made to document io).

(発明の効果) 以上述べたように、本発明によれば、音源信号を表すコ
ードブックを2段に分離して、1段目はあらかじめ多量
の残差信号によるトレーニング信号に対して学習して求
めたコードブック、2段目は予め定められた統計的特性
を有するコードブックを用いることにより、従来方式に
比べてより少ない演算量でより良好な特性を得ることが
できるという効果がある。また、コードブックのゲイン
を最適化することによりさらに特性が改善される。また
、スペクトルパラメータをベクトル量子化器とスカラ量
子化器を組み合せて効率的に量子化することにより、従
来よりも少ない伝送情報量ですむ。従って本発明は従来
方式に比べて、8〜4.8kb/sのビットレートで、
良好な音質の符号化再生音声を得ることができるという
大きな効果がある。
(Effects of the Invention) As described above, according to the present invention, the codebook representing the sound source signal is separated into two stages, and the first stage is trained in advance on a training signal using a large amount of residual signals. By using the obtained codebook, a codebook having predetermined statistical characteristics in the second stage, there is an effect that better characteristics can be obtained with a smaller amount of calculation compared to the conventional method. Furthermore, the characteristics can be further improved by optimizing the gain of the codebook. Furthermore, by efficiently quantizing spectral parameters by combining a vector quantizer and a scalar quantizer, the amount of transmitted information can be reduced compared to the conventional method. Therefore, the present invention has a bit rate of 8 to 4.8 kb/s compared to the conventional method.
This has the great effect of making it possible to obtain coded and reproduced audio of good quality.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は第1の発明による音声符号化方式の一実施例を
示すブロック図、第2図は第1の発明による音声符号化
方式のコードブック探索回路の構成を示すブロック図、
第3図は第2の発明による音声符号化方式の一実施例を
示すブロック図、第4図は第2の発明による音声符号化
方式のLSP量子化器の構成を示すブロック図である。 図において、110・・・バッファメモリ、130・・
・LPC計算回路、140−0.量子化回路、150・
・・サブフレーム分割回路、170・・・インパルス応
答計算回路、190.205.255.325・・・減
算器、200・・・重み付は回路、206・・・遅延回
路、210・・・適応コードブック、220.240.
285・・・量子化器、230・・・第1のコードブッ
ク探索回路、235・・・第1のコードブック、250
.281−・・合成フィルタ、230・・・第2のコー
ドブック探索回路、241.242・・・乗算器、27
5・・・第2のコードブック、290.335・・・加
算器、300・・・・LSP量子化器、305・・・L
SP変換回路、310・・・ベクトル量子化器、320
・・・コードブック、330・・・スカラ量子化器、4
10・・・相互相関関数計算回路、420・・・自己相
関関数計算回路、430・・・判別回路を示す。 第 2 図 30 第 図
FIG. 1 is a block diagram showing an embodiment of the speech encoding method according to the first invention, and FIG. 2 is a block diagram showing the configuration of a codebook search circuit of the speech encoding method according to the first invention.
FIG. 3 is a block diagram showing an embodiment of the audio encoding method according to the second invention, and FIG. 4 is a block diagram showing the configuration of an LSP quantizer of the audio encoding method according to the second invention. In the figure, 110...buffer memory, 130...
・LPC calculation circuit, 140-0. Quantization circuit, 150・
...Subframe division circuit, 170...Impulse response calculation circuit, 190.205.255.325...Subtractor, 200...Weighting circuit, 206...Delay circuit, 210...Adaptation Codebook, 220.240.
285... Quantizer, 230... First codebook search circuit, 235... First codebook, 250
.. 281 - Synthesis filter, 230 - Second codebook search circuit, 241.242 - Multiplier, 27
5...Second codebook, 290.335...Adder, 300...LSP quantizer, 305...L
SP conversion circuit, 310...vector quantizer, 320
... codebook, 330 ... scalar quantizer, 4
10... Cross-correlation function calculation circuit, 420... Auto-correlation function calculation circuit, 430... Discrimination circuit. 2nd figure 30 figure

Claims (3)

【特許請求の範囲】[Claims] (1)入力した離散的な音声信号を予め定められた時間
長のフレームに分割し、前記音声信号のスペクトル包絡
を表すスペクトルパラメータを求め、前記フレームを予
め定められた時間長の小区間に分割し過去の音源信号を
もとに長期相関を表すピッチパラメータを求めて予測し
て求めた残差信号に対して、予め前記残差信号をもとに
学習により構成した信号が格納された第1のコードブッ
クと、予め定められた特性を有する信号が格納された第
2のコードブックとを有し、前記第1のコードブックか
ら選択した信号と、前記第2のコードブックから選択し
た信号との線形結合により前記音声信号の音源信号を表
して出力することを特徴とする音声符号化方式。
(1) Divide the input discrete audio signal into frames with a predetermined time length, obtain spectral parameters representing the spectral envelope of the audio signal, and divide the frames into small sections with a predetermined time length. For the residual signal obtained by calculating and predicting the pitch parameter representing the long-term correlation based on the past sound source signal, the first and a second codebook storing signals having predetermined characteristics, the signal selected from the first codebook and the signal selected from the second codebook. An audio encoding method characterized in that a sound source signal of the audio signal is represented and outputted by a linear combination of the following.
(2)入力した離散的な音声信号を予め定められた時間
長のフレームに分割し、前記音声信号のスペクトル包絡
を表すスペクトルパラメータを求め、予めスペクトルパ
ラメータをもとに学習により作製した信号があらかじめ
定められた種類格納されたコードブックを有し、前記コ
ードブックから最適な一種類を選択し前記スペクトルパ
ラメータと前記選択されたパラメータとの差分パラメー
タを求め、前記差分パラメータを前記差分パラメータに
ついて予め測定して求めた分布範囲をもとに符号化して
前記スペクトルパラメータを表し、前記フレームを予め
定められた時間長の小区間に分割し過去の音源信号をも
とに長期相関を表すピッチパラメータを求めて予測して
求めた残差信号に対して、予め前記残差信号をもとに学
習により構成した信号が格納された第1のコードブック
と、予め定められた特性を有する信号が格納された第2
のコードブックとを有し、前記第1のコードブックから
選択した信号と、前記第2のコードブックから選択した
信号との線形結合により前記音声信号の音源信号を表し
て出力することを特徴とする音声符号化方式。
(2) Divide the input discrete audio signal into frames of a predetermined time length, obtain spectral parameters representing the spectral envelope of the audio signal, and create a signal that has been created in advance by learning based on the spectral parameters. It has a codebook in which predetermined types are stored, selects one optimal type from the codebook, calculates a difference parameter between the spectral parameter and the selected parameter, and measures the difference parameter in advance for the difference parameter. The spectral parameters are expressed by coding based on the distribution range determined by the method, the frame is divided into small sections of a predetermined time length, and the pitch parameter representing the long-term correlation is determined based on the past sound source signal. A first codebook stores a signal constructed in advance by learning based on the residual signal, and a signal having predetermined characteristics is stored. Second
codebook, and the source signal of the audio signal is represented and outputted by a linear combination of a signal selected from the first codebook and a signal selected from the second codebook. audio encoding method.
(3)入力した離散的な音声信号を予め定められた時間
長のフレームに分割し、前記音声信号のスペクトル包絡
を表すスペクトルパラメータを求め、前記フレームを予
め定められた時間長の小区間に分割し過去の音源信号を
もとに長期相関を表すピッチパラメータを求めて予測し
て求めた残差信号に対して、予め前記残差信号をもとに
学習により構成した信号が格納された第1のコードブッ
クと、予め定められた特性を有する信号が格納された第
2のコードブックとを有し、前記ピッチパラメータと前
記コードブックのうちの少なくとも一つのゲインを調整
しながら前記第1のコードブックから選択した信号と前
記第2のコードブックから選択した信号との線形結合か
あるいは、前記ピッチパラメータと前記第1のコードブ
ックと前記第2のコードブックから信号を選択した後に
前記選択した信号のゲインを調整し前記選択された信号
の線形結合により前記音声信号の音源信号を表して出力
することを特徴とする音声符号化方式。
(3) Divide the input discrete audio signal into frames with a predetermined time length, obtain spectral parameters representing the spectral envelope of the audio signal, and divide the frames into small sections with a predetermined time length. For the residual signal obtained by calculating and predicting the pitch parameter representing the long-term correlation based on the past sound source signal, the first and a second codebook in which signals having predetermined characteristics are stored, and the pitch parameter and the gain of at least one of the codebooks are adjusted while the first code is A linear combination of a signal selected from a book and a signal selected from the second codebook, or a linear combination of the signal selected from the book and the signal selected from the second codebook, or the selected signal after selecting the pitch parameter and the signal from the first codebook and the second codebook. 1. An audio encoding method, characterized in that the gain of the audio signal is adjusted and the source signal of the audio signal is represented and outputted by a linear combination of the selected signals.
JP04295590A 1990-02-22 1990-02-22 Audio coding device Expired - Lifetime JP3194930B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP04295590A JP3194930B2 (en) 1990-02-22 1990-02-22 Audio coding device
DE69133296T DE69133296T2 (en) 1990-02-22 1991-02-20 speech
EP91102440A EP0443548B1 (en) 1990-02-22 1991-02-20 Speech coder
US07/658,473 US5208862A (en) 1990-02-22 1991-02-20 Speech coder

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP04295590A JP3194930B2 (en) 1990-02-22 1990-02-22 Audio coding device

Publications (2)

Publication Number Publication Date
JPH03243998A true JPH03243998A (en) 1991-10-30
JP3194930B2 JP3194930B2 (en) 2001-08-06

Family

ID=12650448

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04295590A Expired - Lifetime JP3194930B2 (en) 1990-02-22 1990-02-22 Audio coding device

Country Status (1)

Country Link
JP (1) JP3194930B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5432883A (en) * 1992-04-24 1995-07-11 Olympus Optical Co., Ltd. Voice coding apparatus with synthesized speech LPC code book
JP2010181891A (en) * 1998-08-24 2010-08-19 Mindspeed Technologies Inc Control of adaptive codebook gain for speech encoding
JP2010256932A (en) * 1998-10-06 2010-11-11 Robert Bosch Gmbh Method for encoding or decoding voice signal scanning values and encoder or decoder

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6466700A (en) * 1987-09-08 1989-03-13 Fujitsu Ltd Vector quantization system
JPH01233500A (en) * 1988-03-08 1989-09-19 Internatl Business Mach Corp <Ibm> Multiple rate voice encoding

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6466700A (en) * 1987-09-08 1989-03-13 Fujitsu Ltd Vector quantization system
JPH01233500A (en) * 1988-03-08 1989-09-19 Internatl Business Mach Corp <Ibm> Multiple rate voice encoding

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5432883A (en) * 1992-04-24 1995-07-11 Olympus Optical Co., Ltd. Voice coding apparatus with synthesized speech LPC code book
JP2010181891A (en) * 1998-08-24 2010-08-19 Mindspeed Technologies Inc Control of adaptive codebook gain for speech encoding
JP2010256932A (en) * 1998-10-06 2010-11-11 Robert Bosch Gmbh Method for encoding or decoding voice signal scanning values and encoder or decoder

Also Published As

Publication number Publication date
JP3194930B2 (en) 2001-08-06

Similar Documents

Publication Publication Date Title
EP0443548B1 (en) Speech coder
US4868867A (en) Vector excitation speech or audio coder for transmission or storage
KR100283547B1 (en) Audio signal coding and decoding methods and audio signal coder and decoder
EP1224662B1 (en) Variable bit-rate celp coding of speech with phonetic classification
US5359696A (en) Digital speech coder having improved sub-sample resolution long-term predictor
JPH09127989A (en) Voice coding method and voice coding device
JPH09127990A (en) Voice coding method and device
EP0657874B1 (en) Voice coder and a method for searching codebooks
JPH09127991A (en) Voice coding method, device therefor, voice decoding method, and device therefor
EP1576585A1 (en) Method and device for robust predictive vector quantization of linear prediction parameters in variable bit rate speech coding
JP3254687B2 (en) Audio coding method
JP3143956B2 (en) Voice parameter coding method
WO2001020595A1 (en) Voice encoder/decoder
JPH10124092A (en) Method and device for encoding speech and method and device for encoding audible signal
KR100408911B1 (en) And apparatus for generating and encoding a linear spectral square root
JP2800618B2 (en) Voice parameter coding method
EP1513137A1 (en) Speech processing system and method with multi-pulse excitation
JP3087814B2 (en) Acoustic signal conversion encoding device and decoding device
JPH0771045B2 (en) Speech encoding method, speech decoding method, and communication method using these
JP3095133B2 (en) Acoustic signal coding method
JPH03243998A (en) Voice encoding system
JPH0854898A (en) Voice coding device
JP3252285B2 (en) Audio band signal encoding method
JP3256215B2 (en) Audio coding device
JP3092436B2 (en) Audio coding device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090601

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100601

Year of fee payment: 9

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100601

Year of fee payment: 9