JPH06222796A - Audio encoding system - Google Patents

Audio encoding system

Info

Publication number
JPH06222796A
JPH06222796A JP5008736A JP873693A JPH06222796A JP H06222796 A JPH06222796 A JP H06222796A JP 5008736 A JP5008736 A JP 5008736A JP 873693 A JP873693 A JP 873693A JP H06222796 A JPH06222796 A JP H06222796A
Authority
JP
Japan
Prior art keywords
signal
codebook
subframe
input
gain
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5008736A
Other languages
Japanese (ja)
Other versions
JP2658794B2 (en
Inventor
Toshiki Miyano
俊樹 宮野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP5008736A priority Critical patent/JP2658794B2/en
Publication of JPH06222796A publication Critical patent/JPH06222796A/en
Application granted granted Critical
Publication of JP2658794B2 publication Critical patent/JP2658794B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To provide an audio encoding system capable of encoding an audio signal with a low bit rate, especially 8kb/s bit rate or below, with a relatively little operation amount and high quality. CONSTITUTION:When an overlap signal is formed, the input audio signal of the present subframe inputted from a subframe division circuit 3 is made an initial value by a synthesis filter 14, and an exciting sound source is made zero, and a synthesis signal is formed only an overlap length by using the unquantized LPC coefficient of the next subframe inputted from a linear predict analysis circuit 2 to be sent to a weighing filter 15. By the weighing filter 15, the sent signal from the synthesis filter 14 is weight by using the unquantized LPC coefficient of the next subframe inputted from the linear predict analysis circuit 2 to be sent to a connection circuit 16. By the connection circuit 16, the sent signal from the weighting filter 15 is connected after the signal from the weighting filter 4 to be sent to an effective signal subtraction circuit 6.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、音声信号を低いビット
レート、特に8kb/s以下のビットレートで、比較的
少ない演算量により高品質に符号化するための音声符号
化方式に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a voice encoding system for encoding a voice signal at a low bit rate, particularly at a bit rate of 8 kb / s or less, with high quality by a relatively small amount of calculation.

【0002】[0002]

【従来の技術】従来、励振音源信号を音源コードブック
により、ベクトル量子化する音声符号化方式として、シ
ュレーダ(M.R.Shroeder)およびアタル
(B.S.Atal)による“コード−エキサイテド・
リニア・プレディクション(シーイーエルピー):ハイ
−クォリティ・スピーチ・アト・ベリ・ロウ・ビット・
レイツ(CODE−EXCITED LINEAR P
REDICTION(CELP):HIGH−QUAL
ITY SPEECH AT VERY LOWBIT
RATES)”、音響、音声および信号処理に関する
国際会議の議事録(Proc.ICASSP)、198
5年、937ないし940ペーシの論文(文献1)に記
載されているCELP方式が知られている。また、適応
コードブックを有するCELP方式として、クレイジン
(W.B.Kleijn)らによる“インプルーブド・
スピーチ・クォリティ・アンド・エフィシェント・ベク
トル・クォンタイゼイション・イン・エスイーエルピー
(IMPROVED SPEECH QUALITYA
ND EFFICIENT VECTOR QUANT
IZATION IN SELP)”、音響、音声およ
び信号処理に関する国際会議の議事録(Proc.IC
ASSP)、1988年、155ないし158ページの
論文(文献2)に記載されているCELP方式が知られ
ている。これらのCELP方式は、サブフレーム長ごと
の入力音声信号と符号化音声信号との聴感重み付け二乗
距離を最小にするように、音源コードブックと適応コー
ドブックとゲインコードブックとを探索する方式である
が、サブフレーム毎に符号化するので、ブロック符号化
のブロック境界の歪みが発生しがちで、十分に良好な音
質が得られない。そこで、ブロック符号化のブロック境
界の歪みを軽減するために、音源コードブックを探索す
る際、現サブフレームの入力音声信号に、次のサブフレ
ームの入力音声信号を、オーバーラップ長と呼ばれる予
め定められた長さだけつなげた信号と、符号化音声信号
の後にオーバーラップ長の長さを持つ符号化音声信号の
影響信号を接続した信号との聴感重み付け二乗距離を最
小にするように、音源コードブックを探索する音声符号
化方式が、ルブラン(LeBlanc)らによる“スト
ラクチュアド・コードブック・デザイン・イン・シーイ
ーエルピー(Structured Codebook
Design in CELP)”、国際モービル衛
星会議(International MobileS
atellite Conference)、1990
年、667ないし672ページの論文(文献3)に提案
されている。
2. Description of the Related Art Conventionally, as a speech coding method for vector-quantizing an excitation sound source signal by a sound source codebook, "code-excited speech coding" by Schroeder (MR Shroder) and Atal (BS Atal) is used.
Linear Prediction (CLP): High-Quality Speech At Veri Low Bit
Rates (CODE-EXCITED LINEAR P
REDITION (CELP): HIGH-QUAL
TY SPEECH AT VERY LOWBIT
RATES) ", Minutes of International Conference on Sound, Speech and Signal Processing (Proc.ICASSP), 198.
The CELP method described in a paper (Reference 1) of 937 to 940 pages for 5 years is known. In addition, as a CELP method having an adaptive codebook, "Improved.
Speech Quality and Efficient Vector Quantization in SLP (IMPROVED SPEECH QUALITY)
ND EFFICIENT VECTOR QUANT
IZATION IN SELP) ", Minutes of International Conference on Sound, Speech and Signal Processing (Proc. IC
(ASSP), 1988, the CELP method described in the paper (Reference 2) on pages 155 to 158 is known. These CELP schemes are schemes for searching an excitation codebook, an adaptive codebook, and a gain codebook so as to minimize the perceptual weighting squared distance between the input speech signal and the encoded speech signal for each subframe length. However, since coding is performed for each subframe, distortion of block boundaries in block coding tends to occur, and sufficiently good sound quality cannot be obtained. Therefore, in order to reduce the distortion of block boundaries in block coding, when searching the excitation codebook, the input speech signal of the next subframe is set in advance as the input speech signal of the current subframe, which is called the overlap length. The source code so as to minimize the perceptual weighted squared distance between the signal connected by the specified length and the signal to which the influence signal of the encoded audio signal having the overlap length after the encoded audio signal is connected. A speech coding method for searching a book is “Structured Codebook Designed in CC” by LeBlanc et al.
Design in CELP, ”International MobileS Conference
Atellite Conference), 1990
Proposed in a paper (Reference 3) on pages 667 to 672.

【0003】[0003]

【発明が解決しようとする課題】しかしながら前述の従
来方式では、ブロック符号化のブロック境界の歪みは多
少軽減されるが、まだ十分とは言えない。
However, in the above-mentioned conventional method, the distortion of the block boundary in the block coding is somewhat reduced, but it cannot be said to be sufficient yet.

【0004】本発明の目的は、上述した問題を解決し、
比較的少ない演算量により8kb/s以下のビットレー
トで従来よりも音質の良好な音声符号化方式を提供する
ことにある。
The object of the present invention is to solve the above mentioned problems,
An object of the present invention is to provide a voice coding method having a better sound quality than the conventional one at a bit rate of 8 kb / s or less with a relatively small amount of calculation.

【0005】[0005]

【課題を解決するための手段】本発明による音声符号化
方式は、一定間隔ごとにフレームに分割された入力音声
信号のスペクトルパラメータを求める線形予測分析部
と、過去に定められた音源信号を持つ適応コードブック
と、前記入力音声信号の励振音源をベクトル量子化する
ための音源コードブックと、前記適応コードブック並び
に前記音源コードブックのそれぞれのゲインを量子化す
るためのゲインコードブックとを有する音声符号化方式
において、前記フレームをさらに細分割したサブフレー
ム毎に前記適応コードブックと前記音源コードブックと
前記ゲインコードブックとを探索する際に、前記入力音
声信号と前記スペクトルパラメータとを用いて前記サブ
フレームの長さを持つ聴感重み付け音声信号を求め、さ
らに現サブフレームの入力音声信号を初期値として前記
スペクトルパラメータを用いた合成フィルタに与えて得
られる応答信号を予め与えられた長さだけ求め、さらに
前記スペクトルパラメータを用いて重み付けることによ
りオーバーラップ信号を求め、前記聴感重み付け音声信
号の後に前記オーバーラップ信号を接続した信号に応じ
て、前記適応コードブックと前記音源コードブックと前
記ゲインコードブックとを探索することを特徴とする。
A speech coding system according to the present invention has a linear predictive analysis unit for obtaining a spectrum parameter of an input speech signal divided into frames at regular intervals, and a sound source signal defined in the past. Speech having an adaptive codebook, a sound source codebook for vector quantizing an excitation sound source of the input speech signal, and a gain codebook for quantizing respective gains of the adaptive codebook and the sound source codebook In the encoding method, when searching the adaptive codebook, the excitation codebook, and the gain codebook for each subframe obtained by further subdividing the frame, using the input speech signal and the spectral parameter, Find perceptually weighted speech signal with subframe length, and The response signal obtained by applying the input speech signal to the synthesis filter using the spectrum parameter as an initial value is obtained for a predetermined length, and the overlap signal is obtained by weighting using the spectrum parameter, The adaptive codebook, the sound source codebook, and the gain codebook are searched according to a signal obtained by connecting the overlap signal after the perceptually weighted speech signal.

【0006】[0006]

【作用】本発明による音声符号化方式の作用を説明す
る。
The operation of the speech coding system according to the present invention will be described.

【0007】まず、サブフレームに分割された入力音声
信号xを、現サブフレームの量子化されていないLPC
(線形予測符号化)係数を用いた聴感重み付けフィルタ
Wにより、重み付け、重み付け入力信号xw を作成す
る。
First, the input speech signal x divided into subframes is subjected to the unquantized LPC of the current subframe.
A perceptual weighting filter W using a (linear predictive coding) coefficient is used to create a weighted and weighted input signal x w .

【0008】聴感重み付けフィルタWの伝達関数W
(z)は、次式(1)で表されるものとする。
Transfer function W of perceptual weighting filter W
(Z) is represented by the following expression (1).

【0009】 [0009]

【0010】ここで、αi は、現サブフレームの量子化
されていないLPC係数β,γは、重み付けの係数,p
はLPC次数である。
Where α i is the unquantized LPC coefficient β and γ of the current subframe, the weighting coefficient p,
Is the LPC order.

【0011】現サブフレームの入力音声信号xw を初期
値として、次のサブフレームの量子化されていないLP
C係数を用いた合成フィルタS’の零入力応答をオーバ
ーラップ長L0 の長さだけ求め、さらに、次のサブフレ
ームの量子化されていないLPC係数を用いた聴感重み
付けフィルタWにより、重み付けることにより、オーバ
ーラップ信号vを作成する。ここで、現サブフレーム
が、フレームの最後のサブフレームの場合、次のサブフ
レームの量子化されていないLPC係数の代わりに、現
サブフレームの量子化されていないLPC係数を用い
る。
With the input speech signal x w of the current subframe as an initial value, the unquantized LP of the next subframe
The zero-input response of the synthesis filter S ′ using the C coefficient is obtained by the length of the overlap length L 0 , and further weighted by the perceptual weighting filter W using the unquantized LPC coefficient of the next subframe. By doing so, the overlap signal v is created. Here, when the current subframe is the last subframe of the frame, the unquantized LPC coefficient of the current subframe is used instead of the unquantized LPC coefficient of the next subframe.

【0012】文献3に記載されているオーバーラップ信
号は、次のサブフレームの入力音声信号である。しかし
ながら、現サブフレームの適応コードベクトル、音源コ
ードベクトル、ゲインコードベクトルが表現しようとす
る信号は、現サブフレームの入力音声信号と、現サブフ
レームの入力音声信号による次のサブフレームへの影響
信号なので、オーバーラップ信号としては、現サブフレ
ームの入力音声信号による次のサブフレームへの影響信
号を採用した方が、サブフレーム毎に符号化することに
より発生する、ブロック符号化のブロック境界の歪みを
より効果的に軽減できる。
The overlap signal described in Document 3 is the input speech signal of the next subframe. However, the signal to be expressed by the adaptive code vector, excitation code vector, and gain code vector of the current subframe is the input speech signal of the current subframe and the influence signal of the input speech signal of the current subframe to the next subframe. Therefore, as the overlap signal, it is better to adopt the influence signal of the input speech signal of the current subframe on the next subframe, which is caused by the coding for each subframe. Can be reduced more effectively.

【0013】重み付け入力信号xw の後にオーバーラッ
プ信号vを接続した信号をxとし、拡張重み付け入力信
号とよぶ。
A signal obtained by connecting the overlapped signal v after the weighted input signal x w is referred to as x and is referred to as an extended weighted input signal.

【0014】前のサブフレームの信号を初期値として、
現サブフレームの量子化されたLPC係数を用いた合成
フィルタSの零入力応答をサブフレーム長Ls の長さだ
け求め、求められた信号を初期値として、次のサブフレ
ームの量子化されたLPC係数を用いた合成フィルタ
S’の零入力応答をオーバーラップ長L0 の長さだけ求
め、さらに、現サブフレームの量子化されていないLP
C係数を用いた聴感重み付けフィルタWにより、サブフ
レーム長の部分を重み付け、次のサブフレームの量子化
されていないLPC係数を用いた聴感重み付けフィルタ
W’により、オーバーラップ長の部分を重み付けること
により、重み付け影響信号fを求め拡張重み付け入力信
号xから、減算する。拡張重み付け入力信号xから重み
付け影響信号fを減算した信号をyとする。ここで、現
サブフレームが、フレームの最後のサブフレームの場
合、次のサブフレームの量子化されていないLPC係数
の代わりに、現サブフレームの量子化されていないLP
C係数を、また、次のサブフレームの量子化されたLP
C係数の代わりに、現サブフレームの量子化されたLP
C係数を、それぞれ用いる。
With the signal of the previous subframe as the initial value,
The zero input response of the synthesis filter S using the quantized LPC coefficient of the current subframe is obtained for the length of the subframe length L s , and the obtained signal is used as an initial value to be quantized for the next subframe. The zero-input response of the synthesis filter S ′ using the LPC coefficient is obtained by the length of the overlap length L 0 , and the unquantized LP of the current subframe is further calculated.
The perceptual weighting filter W using the C coefficient is used to weight the subframe length portion, and the perceptual weighting filter W ′ using the non-quantized LPC coefficient of the next subframe is used to weight the overlap length portion. Thus, the weighting influence signal f is obtained and subtracted from the extended weighting input signal x. A signal obtained by subtracting the weighting influence signal f from the extended weighting input signal x is set as y. Here, if the current subframe is the last subframe of the frame, the unquantized LP of the current subframe is used instead of the unquantized LPC coefficient of the next subframe.
The C coefficient and also the quantized LP of the next subframe
Quantized LP of current subframe instead of C coefficient
The C coefficient is used respectively.

【0015】まず、次式(2)の誤差Ea を最小にする
適応コードベクトルを探索する。
First, an adaptive code vector that minimizes the error E a in the following equation (2) is searched for.

【0016】 [0016]

【0017】ただし、However,

【0018】 [0018]

【0019】とする。It is assumed that

【0020】ここで、sad は、遅れdの適応コードベ
クトルの後に、0をL0 個つなげて作成される拡張適応
コードベクトルad の、合成フィルタS,S’と聴感重
み付けフィルタW,W’による聴感重み付け合成信号、
a は拡張適応コードベクトルの聴感重み付け合成信号
の最適ゲインとする。
Here, sa d is a synthesis filter S, S ′ and a perceptual weighting filter W, W of an extended adaptive code vector a d created by connecting 0 of L 0 after the adaptive code vector of delay d. Perceptually weighted synthesized signal by ',
g a is the optimum gain of the perceptually weighted combined signal of the extended adaptive code vector.

【0021】拡張適応コードベクトルad の聴感重み付
け合成信号sad の最適ゲインgaは、次式で与えられ
る。
The optimum gain g a of the perceptually weighted combined signal sa d of the extended adaptive code vector a d is given by the following equation.

【0022】 [0022]

【0023】この式を、式(2)に代入して次式を得
る。
By substituting this equation into the equation (2), the following equation is obtained.

【0024】 [0024]

【0025】ただし、However,

【0026】 [0026]

【0027】とする。[0027]

【0028】次に、選ばれた適応コードベクトルに対し
て、次式(7)の誤差Ee を最小にする音源コードベク
トルを探索する。
Next, an excitation code vector that minimizes the error E e of the following equation (7) is searched for the selected adaptive code vector.

【0029】 [0029]

【0030】ここで、sei は、インデックスiの音
源コードベクトルの後に0をL0 個つなげて作成された
拡張音源コードベクトルei の、合成フィルタS,S’
と聴感重み付けフィルタW,W’による聴感重み付け合
成信号sei を、既に選ばれた拡張適応コードベクトル
d の聴感重み付け合成信号sad に対して直交化させ
ることにより作成される拡張音源コードベクトルei
直交化聴感重み付け合成信号であり、ge は、拡張音源
コードベクトルei の直交化聴感重み付け合成信号se
i の最適ゲインである。ge は、次式(8)で与えら
れる。
Here, se i is a synthesis filter S, S'of the extended excitation code vector e i created by connecting 0 of L 0 after the excitation code vector of index i.
And the extension sound source code vector e created by orthogonalizing the perceptual weighting combined signal se i by the perceptual weighting filters W and W ′ to the perceptual weighting combined signal sa d of the already selected extended adaptive code vector a d. i is the orthogonalized perceptually weighted combined signal se, and g e is the orthogonalized perceptually weighted combined signal se of the extended excitation code vector e i.
It is the optimal gain of i . g e is given by the following equation (8).

【0031】 [0031]

【0032】この式を、式(7)に代入して次式を得
る。
By substituting this equation into the equation (7), the following equation is obtained.

【0033】 [0033]

【0034】ここで、Here,

【0035】 [0035]

【0036】最後に、選択された拡張適応コードベクト
ルad と、選択された拡張音源コードベクトルei に対
して、次式(12)の誤差Eg を最小とするゲインコー
ドベクトルを探索する。
Finally, for the selected extended adaptive code vector a d and the selected extended excitation code vector e i , a gain code vector that minimizes the error E g of the following equation (12) is searched for.

【0037】 [0037]

【0038】ここで、(G1k ,G2k )は、インデッ
クスkのゲインコードベクトルである。
Here, (G1 k , G2 k ) is the gain code vector of the index k.

【0039】(G1k ,G2k )として、ゲインコード
ベクトルそのものではなく、例えば、重み付け入力信号
の量子化されたパワーとLPC係数から推定した残差信
号のパワと、拡張適応コードベクトルのパワーと、拡張
音源コードベクトルのパワーを用いて計算される行列に
より変換したゲインコードベクトルを用いても良い。
As (G1 k , G2 k ), not the gain code vector itself but, for example, the quantized power of the weighted input signal and the power of the residual signal estimated from the LPC coefficient and the power of the extended adaptive code vector. , A gain code vector converted by a matrix calculated using the power of the extended sound source code vector may be used.

【0040】[0040]

【実施例】次に、本発明について図面を参照して説明す
る。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Next, the present invention will be described with reference to the drawings.

【0041】図1は本発明の一実施例を示すブロック図
である。
FIG. 1 is a block diagram showing an embodiment of the present invention.

【0042】これ以降の説明では、現サブフレームがフ
レームの最後のサブフレームの場合、次のサブフレーム
の量子化されていないLPC(線形予測符号化)係数と
は、現サブフレームの量子化されていないLPC係数の
ことを、また次のサブフレームの量子化されたLPC係
数とは、現サブフレームの量子化されたLPC係数のこ
とを、意味する。
In the following description, when the current subframe is the last subframe of the frame, the unquantized LPC (linear predictive coding) coefficient of the next subframe is the quantized current subframe. The LPC coefficient that is not present, and the quantized LPC coefficient of the next subframe means the quantized LPC coefficient of the current subframe.

【0043】図1において、入力端子1からフレーム
(例えば、40ms)毎に分割された音声信号を入力
し、線形予測分析回路2とサブフレーム分割回路3とへ
送る。
In FIG. 1, an audio signal divided for each frame (for example, 40 ms) is input from an input terminal 1 and sent to a linear prediction analysis circuit 2 and a subframe division circuit 3.

【0044】線形予測分析回路2では、入力音声信号の
線形予測分析を行い、得られたスペクトルパラメータ
を、重み付けフィルタ4、オーバーラップ信号作成回路
5の合成フィルタ14および重み付けフィルタ15、影
響信号演算回路6、適応コードブック探索回路7、音源
コードブック探索回路8、ゲインコードブック探索回路
9、スペクトルパラメータ量子化器17へ出力する。
The linear prediction analysis circuit 2 carries out a linear prediction analysis of the input speech signal, and the obtained spectrum parameters are weighted by the weighting filter 4, the synthesis filter 14 and the weighting filter 15 of the overlap signal generation circuit 5, and the influence signal calculation circuit. 6, output to adaptive codebook search circuit 7, excitation codebook search circuit 8, gain codebook search circuit 9, and spectrum parameter quantizer 17.

【0045】スペクトルパラメータ量子化器17では、
線形予測分析回路2から入力されたLPC係数を、量子
化しようとするスペクトルパラメータに変換し(LPC
係数そのものを量子化する場合は、変換しない。)、そ
のスペクトルパラメータを量子化し(例えば、LPC係
数をLSP(線スペクトル対)に変換して、そのLSP
をスペクトル−スカラ量子化するなど)、量子化された
スペクトルパラメータを、LPC係数に変換し、変換さ
れたLPC係数を、影響信号減算回路6、適応コードブ
ック探索回路7、音源コードブック探索回路8、ゲイン
コードブック探索回路9へ送出し、さらに、量子化され
たスペクトルパラメータのインデックスをマルチプレク
サ13へ送出する。
In the spectral parameter quantizer 17,
The LPC coefficient input from the linear prediction analysis circuit 2 is converted into a spectrum parameter to be quantized (LPC
When quantizing the coefficient itself, no conversion is performed. ), Quantizing its spectral parameters (eg, converting LPC coefficients to LSP (pair of line spectra),
Spectrum-scalar quantization), and the quantized spectral parameters are converted into LPC coefficients, and the converted LPC coefficients are subjected to the influence signal subtraction circuit 6, the adaptive codebook search circuit 7, and the excitation codebook search circuit 8. , The gain codebook search circuit 9 and the quantized spectral parameter index to the multiplexer 13.

【0046】サブフレーム分割回路3からサブフレーム
長(例えば8ms)に分割された入力音声信号を受信し
た重み付けフィルタ4では、線形予測分析回路2から入
力された現サブフレームの量子化していないLPC係数
を用いて、式(1)により、サブフレーム長の入力音声
信号を聴感重み付けし、接続回路16へ送出する。
In the weighting filter 4 which has received the input speech signal divided into subframe lengths (for example, 8 ms) from the subframe division circuit 3, the unquantized LPC coefficient of the current subframe input from the linear prediction analysis circuit 2 is received. By using the expression (1), the input voice signal of the subframe length is perceptually weighted and sent to the connection circuit 16.

【0047】合成フィルタ14では、サブフレーム分割
回路3から入力した現サブフレームの入力音声信号を初
期値とし、励振音源は0とし、線形予測分析回路2から
入力された次のサブフレームの量子化されていないLP
C係数を用いて、合成信号をオーバーラップ長だけ作成
し、重み付けフィルタ15へ送出する。
In the synthesis filter 14, the input speech signal of the current subframe input from the subframe division circuit 3 is used as an initial value, the excitation sound source is set to 0, and the quantization of the next subframe input from the linear prediction analysis circuit 2 is performed. Not LP
Using the C coefficient, a composite signal is created for the overlap length and sent to the weighting filter 15.

【0048】重み付けフィルタ15では、合成フィルタ
14からの入力信号を、線形予測分析回路2から入力さ
れた次のサブフレームの量子化されていないLPC係数
を用いて、式(1)により、重み付けして、接続回路1
6へ送出する。このとき、量子化されていないLPC係
数を用いる代わりに、スペクトルパラメータ量子化器1
7から出力される量子化されたLPC係数を用いてもよ
い。
The weighting filter 15 weights the input signal from the synthesizing filter 14 by using the unquantized LPC coefficient of the next subframe input from the linear prediction analysis circuit 2 according to the equation (1). Connection circuit 1
Send to 6. At this time, instead of using the unquantized LPC coefficient, the spectral parameter quantizer 1
You may use the quantized LPC coefficient output from 7.

【0049】接続回路16では、重み付けフィルタ4か
らの送出信号の後に重み付けフィルタ15の送出信号を
接続し、影響信号減算回路6へ送出する。
The connection circuit 16 connects the transmission signal from the weighting filter 4 after the transmission signal from the weighting filter 4, and transmits the connection signal to the influence signal subtraction circuit 6.

【0050】影響信号減算回路6では、スペクトルパラ
メータ量子化器17から入力した現サブフレームと次の
サブフレームの量子化されたLPC係数とを用いて、前
のサブフレームからの影響信号を計算し、線形予測分析
回路2から入力された現サブフレームと次のサブフレー
ムの量子化されてないLPC係数とを用いて、重み付け
ることにより、重み付け影響信号を作成し、接続回路6
から入力した信号から減算し、適応コードブック探索回
路7、音源コードブック探索回路8、ゲインコードブッ
ク探索回路9へ送出する。重み付ける際、量子化されて
いないLPC係数を用いる代わりに、スペクトルパラメ
ータ量子化回路17から送出される量子化したLPC係
数を用いても良い。
The influence signal subtraction circuit 6 calculates the influence signal from the previous subframe by using the quantized LPC coefficient of the current subframe and the next subframe input from the spectrum parameter quantizer 17. , A weighting influence signal is created by weighting using the current subframe input from the linear prediction analysis circuit 2 and the unquantized LPC coefficient of the next subframe, and the connection circuit 6
Is subtracted from the input signal and is sent to the adaptive codebook search circuit 7, the excitation codebook search circuit 8, and the gain codebook search circuit 9. When weighting, instead of using the non-quantized LPC coefficient, the quantized LPC coefficient sent from the spectrum parameter quantization circuit 17 may be used.

【0051】適応コードブック探索回路7では、影響信
号減算回路6から入力された信号と、線形予測分析回路
2から入力した現サブフレームと次のサブフレームとの
量子化されていないLPC係数と、スペクトルパラメー
タ量子化器17から入力された現サブフレームと次のサ
ブフレームとの量子化したLPC係数と、適応コードブ
ック10から入力した適応コードベクトルとを用いて、
式(5)に従って誤差Ea を計算し、誤差Ea を最小と
する適応コードベクトルを探索し、選ばれた適応コード
ベクトルを音源コードブック探索回路8とゲインコード
ブック探索回路9へ送出し、さらに選ばれた適応コード
ベクトルの遅れdをマルチプレクサ13へ送出する。
In the adaptive codebook search circuit 7, the signal input from the influence signal subtraction circuit 6 and the unquantized LPC coefficients of the current subframe and the next subframe input from the linear prediction analysis circuit 2, Using the quantized LPC coefficients of the current subframe and the next subframe input from the spectrum parameter quantizer 17 and the adaptive code vector input from the adaptive codebook 10,
The error E a is calculated according to the equation (5), an adaptive code vector that minimizes the error E a is searched, and the selected adaptive code vector is sent to the excitation codebook search circuit 8 and the gain codebook search circuit 9, Further, the delay d of the selected adaptive code vector is sent to the multiplexer 13.

【0052】音源コードブック探索回路8では、影響信
号減算回路6から入力された信号と、線形予測分析回路
2から入力した現サブフレームと次のサブフレームとの
量子化されていないLPC係数と、スペクトルパラメー
タ量子化器17から入力された現サブフレームと次のサ
ブフレームとの量子化したLPC係数と、適応コードブ
ック探索回路7から入力した選ばれた適応コードベクト
ルと、音源コードブック11から入力した音源コードベ
クトルとを用いて、式(9)ないし(11)に従って誤
差Ee を計算し、誤差Ee を最小とする音源コードベク
トルを探索し、選ばれた音源コードベクトルをゲインコ
ードブック探索回路9へ送出し、さらに選ばれた音源コ
ードベクトルのインデックスをマルチプレクサ13へ送
出する。ここで、誤差Ee を計算する際、演算量を低減
化するために、拡張音源コードベクトルの重み付け合成
信号sei の自己相関を、トランコソ(M.Tranc
oso)およびアタル(B.Atal)による“エフィ
シェント・サーチ・プロセデュア・フォー・セレクティ
ング・ザ・オプティマム・イノベーション・イン・スト
カスティック・コーダーズ(Efficient Se
arch Procedures for Selec
ting the Optimum Innovati
on in Stochastic Coder
s)”、音響、音声および信号処理に関するアイ・イー
・イー・イー・トランズアクション(IEEE Tra
ns.Acoust.,Speech,Signal
Processing)、vol.38,385ないし
396ページの論文(文献3)に記載されている自己相
関近似法を用いて、次式(13)のようにして求めても
良い。
In the sound source codebook search circuit 8, the signal input from the influence signal subtraction circuit 6 and the non-quantized LPC coefficients of the current subframe and the next subframe input from the linear prediction analysis circuit 2, The quantized LPC coefficients of the current subframe and the next subframe input from the spectrum parameter quantizer 17, the selected adaptive code vector input from the adaptive codebook search circuit 7, and the excitation codebook 11 are input. Using the generated sound source code vector, the error E e is calculated according to equations (9) to (11), the sound source code vector that minimizes the error E e is searched, and the selected sound source code vector is searched for in the gain codebook. The code is sent to the circuit 9, and the index of the selected sound source code vector is sent to the multiplexer 13. Here, when calculating the error E e , in order to reduce the amount of calculation, the autocorrelation of the weighted combined signal se i of the extended excitation code vector is calculated by using the transcosm (M.
Osso and B. Atal, “Efficient Search Procedure for Selecting the Optimum Innovation in Stochastic Coders”.
arch Procedures for Selec
toning the Optimize Innovati
on in Stochastic Coder
s) ", IeTraTransactions on acoustics, voice and signal processing (IEEE Tra
ns. Accout. , Speech, Signal
Processing), vol. The autocorrelation approximation method described in the paper (Reference 3) on pages 38, 385 to 396 may be used to obtain the value as in the following expression (13).

【0053】 [0053]

【0054】ただし、hhは、現サブフレームの量子化
されたLPC係数を用いた合成フィルタSと、現サブフ
レームの量子化されていないLPC係数を用いた重み付
けフィルタWとから作られる重み付け合成フィルタWS
のインパルス応答の自己相関関数、eei は、インデッ
クスiの音源コードベクトルの自己相関関数、imは、
インパルス応答長である。
Here, hh is a weighting synthesis filter made up of a synthesis filter S using the quantized LPC coefficient of the current subframe and a weighting filter W using the non-quantized LPC coefficient of the current subframe. WS
The autocorrelation function of the impulse response of ee, ee i is the autocorrelation function of the source code vector of index i, and im is
It is the impulse response length.

【0055】また、拡張音源コードベクトルの重み付け
合成信号sei と任意のベクトルvとの相互相関を求め
る際、演算量を低減化するために次式(14)のように
して求めても良い。
Further, when the cross-correlation between the weighted synthesized signal se i of the extended excitation code vector and the arbitrary vector v is obtained, it may be obtained by the following equation (14) in order to reduce the calculation amount.

【0056】 [0056]

【0057】ただし、Hは、重み付け合成フィルタWS
のインパルス応答行列であり、HTは、Hの転置行列を
表す。
However, H is a weighting synthesis filter WS
H T is a transposed matrix of H.

【0058】拡張適応コードベクトルの重み付け合成信
号sad と任意のベクトルvとの相互相関を求める際に
も、同様にして、次式(15)のように求めても良い。
Similarly, when the cross-correlation between the weighted combined signal sa d of the extended adaptive code vector and the arbitrary vector v is obtained, the following equation (15) may be used.

【0059】 [0059]

【0060】ゲインコードブック探索回路8では、影響
信号減算回路6から入力された信号と、線形予測分析回
路2から入力した現サブフレームと次のサブフレームと
の量子化されていないLPC係数と、スペクトルパラメ
ータ量子化器17から入力された現サブフレームと次の
サブフレームとの量子化したLPC係数と、適応コード
ブック探索回路7から入力した選ばれた適応コードベク
トルと、音源コードブック探索回路8から入力した選ば
れた音源コードベクトルと、ゲインコードブック12か
ら入力したゲインコードベクトルとを用いて、式(1
2)に従って誤差Eg を最小とするゲインコードベクト
ルを探索し、選ばれたゲインコードベクトルをゲインコ
ードブック探索回路9へ送出し、さらに、選ばれたゲイ
ンコードベクトルのインデックスをマルチプレクサ13
へ送出する。
In the gain codebook search circuit 8, the signal input from the influence signal subtraction circuit 6 and the non-quantized LPC coefficients of the current subframe and the next subframe input from the linear prediction analysis circuit 2, The quantized LPC coefficients of the current subframe and the next subframe input from the spectrum parameter quantizer 17, the selected adaptive code vector input from the adaptive codebook search circuit 7, and the excitation codebook search circuit 8 Using the selected sound source code vector input from the above and the gain code vector input from the gain codebook 12,
According to 2), the gain code vector that minimizes the error E g is searched for, the selected gain code vector is sent to the gain code book search circuit 9, and the index of the selected gain code vector is further input to the multiplexer 13.
Send to.

【0061】本実施例では、適応コードブック探索回路
7、音源コードブック探索回路8、ゲインコードブック
探索回路9における聴感重み付けた、量子化されていな
いLPC係数を用いているが、その代りにスペクトル量
子化器17から送出される量子化したLPC係数を用い
ても良い。
In this embodiment, the perceptually weighted, non-quantized LPC coefficients in the adaptive codebook search circuit 7, the excitation codebook search circuit 8 and the gain codebook search circuit 9 are used. Instead, however, the spectrum is used. You may use the quantized LPC coefficient sent from the quantizer 17.

【0062】また、本実施例では、適応コードブック探
索回路7、音源コードブック探索回路8、ゲインコード
ブック探索回路9に於いて、オーバーラップ長を同一の
ものとしてあるが、それぞれ、異なるオーバーラップ長
を用いても良い。
In the present embodiment, the adaptive codebook search circuit 7, the excitation codebook search circuit 8 and the gain codebook search circuit 9 have the same overlap length, but they have different overlap lengths. The length may be used.

【0063】[0063]

【発明の効果】以上で述べたように、本発明の方式で
は、適応コードブックと音源コードブックとゲインコー
ドブックとを探索する際に、入力音声信号とその線形予
測分析の結果により定まるスペクトルパラメータとを用
いてサブフレーム長の長さを持つ聴感重み付け信号を求
め、さらに、その聴感重み付け信号とスペクトルパラメ
ータとを用いて予め与えられた長さを持つオーバーラッ
プ信号を求め、聴感重み付け信号の後にオーバーラップ
信号を接続した信号を用いて、適応コードブックと音源
コードブックとゲインコードブックとを探索する。
As described above, according to the method of the present invention, when searching the adaptive codebook, the excitation codebook, and the gain codebook, the spectral parameter determined by the input speech signal and the result of the linear prediction analysis thereof. Is used to obtain a perceptual weighting signal having a length of the sub-frame length, further, using the perceptual weighting signal and the spectral parameter to obtain an overlap signal having a predetermined length, and after the perceptual weighting signal. The adaptive codebook, the excitation codebook, and the gain codebook are searched using the signals to which the overlapping signals are connected.

【0064】この結果、現サブフレームの適応コードベ
クトル、音源コードベクトル、およびゲインコードベク
トルが表現する音声信号は、現サブフレームの入力音声
信号と、現サブフレームの入力音声信号による次のサブ
フレームへの影響信号とになるので、オーバーラップ信
号として、現サブフレームの入力音声信号による次のサ
ブフレームへの影響信号を用いることにより、次のサブ
フレームの入力音声信号をオーバーラップ信号とする従
来方式(文献3に記載されている方式)に比べて、サブ
フレーム毎に符号化することにより発生するブロック符
号化のブロック境界の歪みをより効果的に軽減できる。
As a result, the speech signal represented by the adaptive code vector, excitation code vector, and gain code vector of the current subframe is the input speech signal of the current subframe and the next subframe of the input speech signal of the current subframe. In the conventional method, the input speech signal of the next subframe is made an overlap signal by using the influence signal of the input speech signal of the current subframe to the next subframe as the overlap signal. As compared with the method (the method described in Document 3), it is possible to more effectively reduce the distortion of the block boundary of the block encoding, which occurs due to the encoding for each subframe.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例を示すブロック図である。FIG. 1 is a block diagram showing an embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 入力端子 2 線形予測分析回路 3 サブフレーム分割回路 4 重み付けフィルタ 5 オーバーラップ信号作成回路 6 影響信号減算回路 7 適応コードブック探索回路 8 音源コードブック探索回路 9 ゲインコードブック探索回路 10 適応コードブック 11 音源コードブック 12 ゲインコードブック 13 マルチプレクサ 14 合成フィルタ 15 重み付けフィルタ 16 接続回路 17 スペクトルパラメータ量子化器 1 Input Terminal 2 Linear Prediction Analysis Circuit 3 Subframe Division Circuit 4 Weighting Filter 5 Overlap Signal Generation Circuit 6 Influence Signal Subtraction Circuit 7 Adaptive Codebook Search Circuit 8 Excitation Codebook Search Circuit 9 Gain Codebook Search Circuit 10 Adaptive Codebook 11 Sound source codebook 12 Gain codebook 13 Multiplexer 14 Synthesis filter 15 Weighting filter 16 Connection circuit 17 Spectral parameter quantizer

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 一定間隔ごとにフレームに分割された入
力音声信号のスペクトルパラメータを求める線形予測分
析部と、過去に定められた音源信号を持つ適応コードブ
ックと、前記入力音声信号の励振音源をベクトル量子化
するための音源コードブックと、前記適応コードブック
並びに前記音源コードブックのそれぞれのゲインを量子
化するためのゲインコードブックとを有する音声符号化
方式において、前記フレームをさらに細分割したサブフ
レーム毎に前記適応コードブックと前記音源コードブッ
クと前記ゲインコードブックとを探索する際に、前記入
力音声信号と前記スペクトルパラメータとを用いて前記
サブフレームの長さを持つ聴感重み付け音声信号を求
め、さらに現サブフレームの入力音声信号を初期値とし
て前記スペクトルパラメータを用いた合成フィルタに与
えて得られる応答信号を予め与えられた長さだけ求め、
さらに前記スペクトルパラメータを用いて重み付けを行
うことによりオーバーラップ信号を求め、前記聴感重み
付け音声信号の後に前記オーバーラップ信号を接続した
信号に応じて、前記適応コードブックと前記音源コード
ブックと前記ゲインコードブックとを探索することを特
徴とする音声符号化方式。
1. A linear prediction analysis unit for obtaining a spectrum parameter of an input speech signal divided into frames at regular intervals, an adaptive codebook having a sound source signal determined in the past, and an excitation sound source of the input speech signal. In a speech encoding method having an excitation codebook for vector quantization, and a gain codebook for quantizing the gain of each of the adaptive codebook and the excitation codebook, a sub-divided sub-frame of the frame When searching the adaptive codebook, the excitation codebook, and the gain codebook for each frame, the perceptual weighted audio signal having the length of the subframe is obtained using the input audio signal and the spectrum parameter. , The input speech signal of the current subframe as an initial value The response signal obtained by applying it to the synthesis filter using the meter is obtained for a predetermined length,
Further, an overlap signal is obtained by performing weighting using the spectrum parameter, and in accordance with a signal obtained by connecting the overlap signal after the perceptually weighted audio signal, the adaptive codebook, the sound source codebook, and the gain code. A speech coding method characterized by searching a book.
【請求項2】 前記適応コードブックと前記音源コード
ブックと前記ゲインコードブックとの探索の際にそれぞ
れ前記聴感重み付け音声信号の後に接続する前記オーバ
ーラップ信号の長さが相異なるよう設定した請求項1記
載の音声符号化方式。
2. The lengths of the overlap signals connected after the perceptually weighted audio signal in searching the adaptive codebook, the sound source codebook, and the gain codebook are different from each other. 1. The audio encoding method described in 1.
JP5008736A 1993-01-22 1993-01-22 Audio coding method Expired - Fee Related JP2658794B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5008736A JP2658794B2 (en) 1993-01-22 1993-01-22 Audio coding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5008736A JP2658794B2 (en) 1993-01-22 1993-01-22 Audio coding method

Publications (2)

Publication Number Publication Date
JPH06222796A true JPH06222796A (en) 1994-08-12
JP2658794B2 JP2658794B2 (en) 1997-09-30

Family

ID=11701242

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5008736A Expired - Fee Related JP2658794B2 (en) 1993-01-22 1993-01-22 Audio coding method

Country Status (1)

Country Link
JP (1) JP2658794B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6917914B2 (en) * 2003-01-31 2005-07-12 Harris Corporation Voice over bandwidth constrained lines with mixed excitation linear prediction transcoding
US8117028B2 (en) 2002-05-22 2012-02-14 Nec Corporation Method and device for code conversion between audio encoding/decoding methods and storage medium thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03177900A (en) * 1989-12-07 1991-08-01 Toshiba Corp Voice encoding device
JPH04106599A (en) * 1990-08-27 1992-04-08 Oki Electric Ind Co Ltd Code-excited linear predictive encoder
JPH04264500A (en) * 1990-10-19 1992-09-21 Fr Telecom Method and apparatus for transmitting speech signal

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03177900A (en) * 1989-12-07 1991-08-01 Toshiba Corp Voice encoding device
JPH04106599A (en) * 1990-08-27 1992-04-08 Oki Electric Ind Co Ltd Code-excited linear predictive encoder
JPH04264500A (en) * 1990-10-19 1992-09-21 Fr Telecom Method and apparatus for transmitting speech signal

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8117028B2 (en) 2002-05-22 2012-02-14 Nec Corporation Method and device for code conversion between audio encoding/decoding methods and storage medium thereof
US6917914B2 (en) * 2003-01-31 2005-07-12 Harris Corporation Voice over bandwidth constrained lines with mixed excitation linear prediction transcoding

Also Published As

Publication number Publication date
JP2658794B2 (en) 1997-09-30

Similar Documents

Publication Publication Date Title
JP3566652B2 (en) Auditory weighting apparatus and method for efficient coding of wideband signals
JP2940005B2 (en) Audio coding device
JP3180762B2 (en) Audio encoding device and audio decoding device
JPH08328591A (en) Method for adaptation of noise masking level to synthetic analytical voice coder using short-term perception weightingfilter
JP2626223B2 (en) Audio coding device
JPH04270400A (en) Voice encoding system
JPH0990995A (en) Speech coding device
US5598504A (en) Speech coding system to reduce distortion through signal overlap
JP3180786B2 (en) Audio encoding method and audio encoding device
JP3582589B2 (en) Speech coding apparatus and speech decoding apparatus
JP2970407B2 (en) Speech excitation signal encoding device
JP3095133B2 (en) Acoustic signal coding method
JPH08328597A (en) Sound encoding device
JP2658794B2 (en) Audio coding method
JP3003531B2 (en) Audio coding device
JP3153075B2 (en) Audio coding device
JP3194930B2 (en) Audio coding device
JP3256215B2 (en) Audio coding device
JP3252285B2 (en) Audio band signal encoding method
JPH07168596A (en) Voice recognizing device
JP3089967B2 (en) Audio coding device
JP3192051B2 (en) Audio coding device
JP3102017B2 (en) Audio coding method
JP2853170B2 (en) Audio encoding / decoding system
JP3024467B2 (en) Audio coding device

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19970506

LAPS Cancellation because of no payment of annual fees