JP3330178B2 - Audio encoding device and audio decoding device - Google Patents

Audio encoding device and audio decoding device

Info

Publication number
JP3330178B2
JP3330178B2 JP03821493A JP3821493A JP3330178B2 JP 3330178 B2 JP3330178 B2 JP 3330178B2 JP 03821493 A JP03821493 A JP 03821493A JP 3821493 A JP3821493 A JP 3821493A JP 3330178 B2 JP3330178 B2 JP 3330178B2
Authority
JP
Japan
Prior art keywords
information
signal
residual signal
auxiliary information
average amplitude
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP03821493A
Other languages
Japanese (ja)
Other versions
JPH06250696A (en
Inventor
和美 川野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP03821493A priority Critical patent/JP3330178B2/en
Publication of JPH06250696A publication Critical patent/JPH06250696A/en
Application granted granted Critical
Publication of JP3330178B2 publication Critical patent/JP3330178B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)

Abstract

PURPOSE:To secure a relatively good tone quality even when an information transmission speed is small. CONSTITUTION:A mute processing section 30 is provided with a mute detection section which judges whether inputted voice to a voice coding section is generate from a mute section or a voiced sound section, a quantization bit number storage section which stores the number of bits to be assigned for auxiliary information and an auxiliary information quantization section. When the mute sections continue to operate, only the signals which indicate the purport situation and residual signals are quantized and sent to a coding section 16 and the auxiliary information is not quantized and is not sent to the section 16. Moreover, the number of bits to be assigned to the auxiliary information are stored in the quantization bit number storage section and are used for a voiced sound section. Furthermore, for the auxiliary information used in an adaptive prediction section 9 and a quantization bit number adaptive section, the same as the auxiliary information of an analysis frame that is judged as mute by a mute detection section is used as long as the mute section continues to operate. The same processing takes place in a voice decoding section.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、アナログ回線やディジ
タル回線を利用し、その回線を通じて入力される音声信
号を予測符号化し、音声情報量を圧縮する音声符号化
置および音声復号化装置に関するものである。
BACKGROUND OF THE INVENTION The present invention utilizes the analog line and digital line, a speech signal input via the line to the predictive coding, speech coding instrumentation for compressing the voice information amount
And a speech decoding device.

【0002】[0002]

【従来の技術】従来より音声の高能率符号化法として、
例えば、APC−AB方式等があるが、近年多彩な音声
サービスの発達に伴い、音声データを符号化情報として
蓄積伝送する音声メール装置等に応用され、実用段階に
入っている。以下に従来のアナログ電話回線に接続され
る音声符号化・復号化装置において、APC−AB方式
により音声の高能率符号化を図っている場合について説
明する。
2. Description of the Related Art Conventionally, as a high-efficiency encoding method of voice,
For example, there is an APC-AB system and the like, but with the development of various voice services in recent years, it is applied to a voice mail device or the like that stores and transmits voice data as encoded information, and is in a practical stage. Hereinafter, a description will be given of a case where a conventional speech encoding / decoding apparatus connected to an analog telephone line performs high-efficiency encoding of speech by the APC-AB method.

【0003】図5は従来の音声符号化部の構成を示すブ
ロック図であり、1はアナログ回線に接続され回線の制
御や入出力の分離を行う回線インターフェース部、2は
アナログ信号をディジタル信号に変換するA/D変換
器、3は入力される信号を複数の周波数帯域に分割する
帯域分割フィルタ、4は短時間予測フィルタを構成する
線形予測系数を抽出する線形予測係数抽出部、5は前記
短時間予測フィルタを用い音声信号の線形予測を行う近
接相関に基づく予測器、6は音声信号波形のピッチを検
出するピッチ検出部、7はピッチ検出部6から検出され
たピッチ周期に対する音声信号の相関の大きさを示すピ
ッチゲインを導出するピッチゲイン導出部、8はピッチ
ゲイン導出部7より導出されたピッチゲインを用いて長
時間予測フィルタを構成し音声信号の予測を行うピッチ
相関に基づく予測器、9は近接相関に基づく予測器5と
ピッチ相関に基づく予測器8とからなる適応予測部、10
は帯域分割フィルタ3の出力信号と適応予測部9から出
力される予測信号との差である残差信号を量子化する残
差信号量子化器である。
FIG. 5 is a block diagram showing the configuration of a conventional speech encoding unit. 1 is a line interface unit connected to an analog line for controlling the line and separating input and output, and 2 is a circuit for converting an analog signal into a digital signal. A / D converter for conversion, 3 is a band division filter for dividing an input signal into a plurality of frequency bands, 4 is a linear prediction coefficient extraction unit for extracting a linear prediction coefficient constituting a short-time prediction filter, and 5 is A predictor based on proximity correlation for performing linear prediction of an audio signal using a short-term prediction filter; 6, a pitch detector for detecting the pitch of the audio signal waveform; and 7, an audio signal for the pitch cycle detected by the pitch detector 6. A pitch gain deriving unit 8 for deriving a pitch gain indicating the magnitude of the correlation, a long-term prediction filter 8 using the pitch gain derived from the pitch gain deriving unit 7 Predictor based on pitch correlation to predict the audio signal form, 9 adaptive prediction unit consisting predictor 8 which is based on the predictor 5 and pitch correlation based on proximity correlation, 10
Is a residual signal quantizer for quantizing a residual signal which is a difference between an output signal of the band division filter 3 and a prediction signal output from the adaptive prediction unit 9.

【0004】また、11は疑似残差信号を導出する逆フィ
ルタ部、12はピッチ検出部6において検出されたピッチ
周期を複数個の区間に等分割する部分区間設定部、13は
逆フィルタ部11より導出された疑似残差信号の平均振幅
を前記部分区間毎に算出する平均振幅算出部、14は平均
振幅算出部13において算出された平均振幅に応じて残差
信号の量子化ビット数を前記部分区間毎に決定する量子
化ビット数適応化部、15はピッチ情報、線形予測係数及
び平均振幅などの補助情報を量子化する補助情報量子化
器、16は残差信号量子化器10において量子化された残差
信号と補助情報量子化器15において量子化された補助情
報とを符号化し符号データとして出力する符号化部、17
は各帯域A,B,C・・・・・・における符号化部16より出力
された符号データを多重化する多重化部、18は多重化部
17から出力されるディジタル信号を格納しておく音声バ
ッファであり、以上の各部により音声符号化部を構成す
る。
[0004] Further, reference numeral 11 denotes an inverse filter unit for deriving a pseudo residual signal; 12, a partial interval setting unit for equally dividing the pitch period detected by the pitch detection unit 6 into a plurality of intervals; The average amplitude calculator for calculating the average amplitude of the pseudo residual signal derived from each of the sub-intervals, the number of quantization bits of the residual signal according to the average amplitude calculated by the average amplitude calculator 13 is A quantization bit number adaptation unit to be determined for each partial section, 15 is an auxiliary information quantizer for quantizing auxiliary information such as pitch information, a linear prediction coefficient, and an average amplitude, and 16 is a quantizer for a residual signal quantizer 10 An encoding unit that encodes the quantized residual signal and the auxiliary information quantized by the auxiliary information quantizer 15 and outputs the encoded information as code data; 17
Is a multiplexing unit that multiplexes the code data output from the coding unit 16 in each band A, B, C,..., And 18 is a multiplexing unit.
This is an audio buffer for storing the digital signal output from 17, and the above components constitute an audio encoding unit.

【0005】次に図6は従来例の音声復号化部の構成を
示すブロック図であり、19は前記図5に示す音声バッフ
ァ18からの符号化データを各帯域A,B,C・・・毎に分
離する符号系列分離部、20は符号系列分離部19で各帯域
毎に分離された符号データをさらに残差信号の符号デー
タとピッチ情報、線形予測係数及び平均振幅などの補助
情報の符号データとに分離する情報系列分離部、21は情
報系列分離部20において分離された補助情報の符号デー
タをもとの補助情報に復元する補助情報復号化器、22は
補助情報復号化器21において復元した平均振幅情報をも
とにして、上記した音声符号化部(図5)と同様にして残
差信号の各部分区間毎の量子化ビット数を算出する復号
化ビット数適応化部、23は残差信号の符号データをもと
の残差信号に復元する残差信号復号化器、24はピッチ情
報や線形予測係数の補助情報により構成された予測フィ
ルタにより、残差信号復号化器23の出力信号から音声信
号を予測する予測合成部、25は各帯域毎の予測合成部24
からの出力信号を合成する帯域合成フィルタ、26はディ
ジタル信号をアナログ信号に変換するD/A変換器、27
はアナログ回線に接続され回線の制御や入出力の分離を
行う回線インターフェース部であり、以上の各部により
音声復号化部を構成する。
FIG. 6 is a block diagram showing the configuration of a conventional audio decoding unit. Reference numeral 19 denotes a coded data from the audio buffer 18 shown in FIG. A code sequence separation unit 20 for separating the code data separated for each band by the code sequence separation unit 19, code data of a residual signal and codes of pitch information, auxiliary information such as a linear prediction coefficient and an average amplitude. An information sequence separation unit that separates the data into data, 21 is an auxiliary information decoder that restores the code data of the auxiliary information separated in the information sequence separation unit 20 to the original auxiliary information, 22 is an auxiliary information decoder 21 Based on the restored average amplitude information, a decoding bit number adaptation unit that calculates the number of quantization bits for each partial section of the residual signal in the same manner as the above-described speech encoding unit (FIG. 5), 23 Restores the code data of the residual signal to the original residual signal A difference signal decoder 24 is a prediction synthesis unit that predicts an audio signal from an output signal of the residual signal decoder 23 by a prediction filter configured by pitch information and auxiliary information of a linear prediction coefficient. Predictive synthesis unit 24
26, a D / A converter for converting a digital signal into an analog signal;
Is a line interface unit connected to an analog line for controlling the line and separating input and output, and constitutes an audio decoding unit by the above units.

【0006】以上のように構成された音声符号化・復号
化装置について、以下にその動作を説明する。
The operation of the speech encoding / decoding device configured as described above will be described below.

【0007】まず、図5の音声符号化部において、電話
回線等を通じて回線インターフェース部1に入力された
音声等のアナログ信号はA/D変換器2によりディジタ
ル信号に変換される。このディジタル信号は、以後短い
時間区間、即ち1フレーム(例えば16msec)毎に区切ら
れ、処理されていくことになる。A/D変換器2により
ディジタル化された音声信号(0〜4kHz)は例えばQ
MF(QuadratureMirror Filter)等で構成される帯域
分割フィルタ3により複数個の帯域、例えば帯域A(0
〜1kHz)、帯域B(1〜2kHz)及び帯域C(2〜4k
Hz)の3つの周波数帯域に分割される。
First, in the audio encoding unit shown in FIG. 5, an analog signal such as audio input to the line interface unit 1 through a telephone line or the like is converted into a digital signal by the A / D converter 2. This digital signal is thereafter divided and processed in a short time section, that is, every frame (for example, 16 msec). The audio signal (0 to 4 kHz) digitized by the A / D converter 2 is, for example, Q
A plurality of bands, for example, a band A (0
11 kHz), band B (1 to 2 kHz) and band C (2 to 4 kHz).
Hz).

【0008】以後帯域Aについて説明する。帯域Aの原
信号(帯域分割フィルタ3からの出力信号)に対し線形予
測係数抽出部4で線形予測係数の抽出を行い、例えば偶
数次である4次の線形予測フィルタを構成する。この線
形予測フィルタを用いて近接相関に基づく予測器5にお
いて線形予測を行う。近接相関に基づく予測器5では比
較的近傍の標本値、例えば現時点から4サンプル過去の
データを用いて予測を行う。またピッチ検出部6は帯域
Aの原信号のピッチを検出し、検出されたピッチ周期に
対するピッチゲインがピッチゲイン導出部7により導出
される。
Hereinafter, the band A will be described. A linear prediction coefficient extraction unit 4 extracts a linear prediction coefficient from the original signal of the band A (output signal from the band division filter 3), thereby forming, for example, an even-order fourth-order linear prediction filter. Using this linear prediction filter, a predictor 5 based on proximity correlation performs linear prediction. The predictor 5 based on the proximity correlation makes a prediction using relatively close sample values, for example, data four samples past from the present time. Further, the pitch detector 6 detects the pitch of the original signal in the band A, and a pitch gain for the detected pitch cycle is derived by the pitch gain deriver 7.

【0009】ピッチ相関に基づく予測器8は導出された
ピッチゲインより構成される予測フィルタによりピッチ
周期間の予測、つまり1ピッチ周期過去のデータから現
時点の音声信号を予測するピッチ予測を行う。近接相関
に基づく予測器5及びピッチ相関に基づく予測器8で予
測された信号は合成され適応予測部9から出力される。
適応予測部9より出力される予測信号は帯域Aの原信号
との差が計算器10Aで取られ残差信号として残差信号量
子化器10に入力され量子化されることになる。
A predictor 8 based on pitch correlation performs prediction between pitch periods by a prediction filter composed of derived pitch gains, that is, pitch prediction for predicting a current speech signal from data one pitch period past. The signals predicted by the predictor 5 based on the proximity correlation and the predictor 8 based on the pitch correlation are synthesized and output from the adaptive prediction unit 9.
The difference between the prediction signal output from the adaptive prediction unit 9 and the original signal of the band A is calculated by the calculator 10A, and is input to the residual signal quantizer 10 as a residual signal and quantized.

【0010】ここで残差信号量子化器10の量子化ビット
数は疑似残差信号の平均振幅に応じて適応化される。そ
のために疑似残差信号の平均振幅は適応予測部9を動作
させる前に算出する必要がある。まず逆フィルタ部11に
おいて帯域Aの原信号から疑似残差信号を求める。この
逆フィルタ部11の内部は前記近接相関に基づく予測器5
及びピッチ相関に基づく予測器8とからなる適応予測部
9と同様の構成である。
Here, the number of quantization bits of the residual signal quantizer 10 is adapted according to the average amplitude of the pseudo residual signal. Therefore, it is necessary to calculate the average amplitude of the pseudo residual signal before operating the adaptive prediction unit 9. First, a pseudo residual signal is obtained from the original signal of the band A in the inverse filter unit 11. The inside of the inverse filter unit 11 includes a predictor 5 based on the proximity correlation.
And an adaptive prediction unit 9 including a predictor 8 based on the pitch correlation.

【0011】次にこの疑似残差信号は部分区間設定部12
に入力される。部分区間は図7に示されるようにピッチ
周期Tpを複数個に等分割、例えば4分割(1,2,
3,4)して得られ、各区間が周期的に反復するように
設定される。第1番目の部分区間は疑似残差信号の振幅
周期性に基づいて検出され、部分区間の位置Tdはフレ
ームの始めから第1番目の部分区間の先頭までの時間長
によって指定される。
Next, the pseudo residual signal is supplied to the partial section setting section 12.
Is input to As shown in FIG. 7, the partial section equally divides the pitch period Tp into a plurality of parts, for example, four divisions (1, 2, 2, 3).
3, 4), and are set so that each section repeats periodically. The first partial section is detected based on the amplitude periodicity of the pseudo residual signal, and the position Td of the partial section is specified by the time length from the beginning of the frame to the beginning of the first partial section.

【0012】そして、平均振幅算出部13では各部分区間
毎の疑似残差信号の平均振幅が算出され、量子化ビット
数適応化部14では前記平均振幅から残差信号の量子化ビ
ット数を各部分区間毎に割り当てる演算を行う。ここ
で、i帯域j区間の量子化ビット数は次式で与えられ
る。
The average amplitude calculator 13 calculates the average amplitude of the pseudo residual signal for each partial section, and the quantization bit number adaptation unit 14 calculates the number of quantization bits of the residual signal from the average amplitude. An operation to be assigned to each partial section is performed. Here, the number of quantization bits in the i-band j section is given by the following equation.

【0013】[0013]

【数1】Rij=Ri(R)+F(log2ij) i=A,B,C j=1、…、4 上記数1のRiはi帯域の平均ビットレートであり、全
帯域の残差信号の量子化に割り当てられるビット数R
(R=RA+RB+RC)に比例する。また、ビット数Rは
情報伝送速度により一意的に決まる定数である。Fはi
帯域j区間における疑似残差信号の平均振幅Uijの対数
に比例する関数である。このようにして決定された帯域
Aの各部分区間毎の量子化ビット数の例を図8に示す。
この量子化ビット数に従い残差信号量子化器10で量子化
された残差信号(図8の破線)は符号化部16へ送出され符
号化されると同時に、適応予測部9にも帰還されること
になる。
## EQU1 ## R ij = R i (R) + F (log 2 U ij ) i = A, B, C j = 1,..., 4 R i in the above equation 1 is the average bit rate of the i-band. Number of bits R allocated to quantization of band residual signal
(R = R A + R B + R C ). The number of bits R is a constant uniquely determined by the information transmission speed. F is i
This is a function proportional to the logarithm of the average amplitude U ij of the pseudo residual signal in the band j section. FIG. 8 shows an example of the number of quantization bits for each partial section of the band A thus determined.
The residual signal (broken line in FIG. 8) quantized by the residual signal quantizer 10 according to the quantization bit number is sent to the encoding unit 16 and encoded, and is also fed back to the adaptive prediction unit 9. Will be.

【0014】一方、ピッチ情報、線形予測係数及び疑似
残差信号の平均振幅などの補助情報も補助情報量子化器
15において量子化され、その後符号化部16で符号化され
ることになる。この時の量子化ビット数は情報伝送速度
により一意的に決まっている。
On the other hand, auxiliary information such as pitch information, a linear prediction coefficient and an average amplitude of a pseudo residual signal is also used as an auxiliary information quantizer.
It is quantized at 15 and then encoded by the encoding unit 16. The number of quantization bits at this time is uniquely determined by the information transmission speed.

【0015】各帯域の符号化部16から出力される符号デ
ータは多重化部17で多重化され音声バッファ18に符号デ
ータとして蓄えられる。
The coded data output from the coding unit 16 for each band is multiplexed by the multiplexing unit 17 and stored in the audio buffer 18 as coded data.

【0016】上記した信号処理過程は帯域B及び帯域C
でも同様であるが、ピッチ相関に基づく予測器8におけ
る長時間予測フィルタや部分区間の設定は帯域Aで構成
されたものを用いているため、ピッチ検出部6,ピッチ
ゲイン導出部7及び部分区間設定部12の動作は行われな
い。以上の動作が音声符号化部の説明である。
The above signal processing steps are performed in band B and band C.
However, since the setting of the long-term prediction filter and the sub-interval in the predictor 8 based on the pitch correlation uses the band A, the pitch detection unit 6, the pitch gain derivation unit 7, and the sub-interval The operation of the setting unit 12 is not performed. The above operation is the description of the speech encoding unit.

【0017】次に図6の音声復号化部において、前記図
5に示す音声バッファ18から音声信号を復元する例を説
明する。まず音声バッファ18からの符号データを符号系
列分離部19で各帯域毎の符号データ系列に分離する。さ
らにこの符号データは各帯域の情報系列分離部20におい
て、残差信号の符号データとピッチ情報、線形予測係数
及び平均振幅等の補助情報の符号データとに分離され
る。
Next, an example in which an audio signal is restored from the audio buffer 18 shown in FIG. 5 in the audio decoding unit shown in FIG. 6 will be described. First, the code data from the audio buffer 18 is separated by a code sequence separation unit 19 into code data sequences for each band. Further, this code data is separated into code data of a residual signal and code data of auxiliary information such as pitch information, a linear prediction coefficient and an average amplitude in an information sequence separation section 20 of each band.

【0018】この後は帯域Aの信号処理について説明す
る。前記補助情報の符号データは補助情報復号化器21に
入力され、ピッチ情報、線形予測係数及び平均振幅等を
もとの補助情報に復元する。その後、復号化ビット数適
応化部22においては、復元された平均振幅Uijから数1
の式に基づき残差信号の復号化ビット数Rijを算出し、
これに基づいて、残差信号の符号データは残差信号復号
化器23において、もとの残差信号に復元される。予測合
成部24は図9に示すように近接相関に基づく予測器28及
びピッチ相関に基づく予測器29とからなり、それぞれ音
声符号化部の適応予測部9における近接相関に基づく予
測器5及びピッチ相関に基づく予測器8と同じである。
この予測合成部24に、前記復号化された残差信号が入力
され各帯域毎の音声信号が再生されることになる。
Subsequently, the signal processing of the band A will be described. The code data of the auxiliary information is input to the auxiliary information decoder 21, and restores the pitch information, the linear prediction coefficient, the average amplitude, and the like to the original auxiliary information. Thereafter, in the decoding bit number adaptation unit 22, the following equation 1 is obtained from the restored average amplitude U ij.
The number of decoded bits R ij of the residual signal is calculated based on the following equation:
Based on this, the code data of the residual signal is restored to the original residual signal in the residual signal decoder 23. As shown in FIG. 9, the prediction synthesizer 24 includes a predictor 28 based on proximity correlation and a predictor 29 based on pitch correlation. It is the same as the predictor 8 based on correlation.
The decoded residual signal is input to the prediction synthesizing unit 24, and an audio signal for each band is reproduced.

【0019】上記した信号処理過程は帯域B及び帯域C
でも全く同様である。
The above signal processing steps are performed in band B and band C.
But exactly the same.

【0020】帯域合成フィルタ25では各帯域毎に再生さ
れた音声信号を合成し、D/A変換器26によりディジタ
ル信号をアナログ信号に変換し、再生信号として回線イ
ンタフェース部27に出力することになる。
The band synthesizing filter 25 synthesizes the audio signal reproduced for each band, converts the digital signal into an analog signal by the D / A converter 26, and outputs the analog signal to the line interface 27 as a reproduced signal. .

【0021】[0021]

【発明が解決しようとする課題】しかしながら、上記従
来の音声符号化・復号化装置では、音声符号化処理を行
う際、分析フレーム当たりの補助情報、残差信号に割り
当てられる量子化ビット数が、情報伝送速度に比例して
一意的に決められている。従って、情報伝送速度が小さ
い場合、補助情報、残差信号に割り当てられる量子化ビ
ット数も少なくなる。補助情報の量子化に割り当てられ
る量子化ビット数が少なくなると、適応予測部9での予
測精度が落ち、残差信号(図8参照)の量子化誤差を大き
くする。加えて残差信号量子化器10に割り当てられる量
子化ビット数も少ないため、一層、量子化誤差は増大
し、音質の劣化が著しくなるという問題点を有してい
た。
However, in the above-mentioned conventional speech encoding / decoding apparatus, when speech encoding is performed, the number of quantization bits assigned to the auxiliary information per analysis frame and the residual signal is It is uniquely determined in proportion to the information transmission speed. Therefore, when the information transmission rate is low, the number of quantization bits allocated to the auxiliary information and the residual signal also decreases. When the number of quantization bits allocated to quantization of the auxiliary information decreases, the prediction accuracy of the adaptive prediction unit 9 decreases, and the quantization error of the residual signal (see FIG. 8) increases. In addition, since the number of quantization bits allocated to the residual signal quantizer 10 is also small, there is a problem that the quantization error further increases and the sound quality deteriorates remarkably.

【0022】本発明は上記課題を解決し、情報伝速度が
小さい場合でも比較的良好な音質を確保できる音声符号
装置および音声復号化装置を提供することを目的とす
る。
It is an object of the present invention to solve the above-mentioned problems and to provide a speech coding apparatus and a speech decoding apparatus which can ensure relatively good sound quality even when the information transmission speed is low.

【0023】[0023]

【課題を解決するための手段】記目的を達成するため
に、単語と単語の間のような無音声部では音声符号化部
に入力される音声信号の振幅及びその変化はほとんど無
く音声波形は定常と見なされること、また通常の会話に
おいて話中全体の約3割から4割を前記した無音声部が
占める、ということに着目し、本発明は、入力音声信号
を近接相関及びピッチ相関に基づく適応予測する適応予
測手段と、前記適応予測手段により予測された音声信号
と前記入力音声信号との差である残差信号に対応した疑
似残差信号を発生する手段と、前記入力音声信号のピッ
チ周期を等分割することで部分区間を設定する部分区間
設定手段と、前記部分区間設定手段で得られた部分区間
毎に前記疑似残差信号の平均振幅を算出する手段と、前
記残差信号を量子化する手段と、無音処理手段とを有
し、前記無音処理手段は、入力音声が無音声か有音声か
の検知を行う無音検知手段と、無音声部では前記適応予
測手段に用いられる補助情報、前記疑似残差信号の平均
振幅等の情報は量子化せずにその量子化に割り当てるべ
きビット数を蓄積する量子化ビット数貯蓄部とを有し、
無音区間中に量子化ビット数貯蓄部に蓄積されたビット
数を有音声部で利用するように処理することを特徴とす
る。 また本発明は、入力音声信号を近接相関及びピッチ
相関に基づく適応予測する適応予測手段と、前記適応予
測手段により予測された音声信号と前記入力音声信号と
の差である残差信号に対応した疑似残差信号を発生する
手段と、前記入力音声信号のピッチ周期を等分割するこ
とで部分区間を設定する部分区間設定手段と、前記部分
区間設定手段で得られた部分区間毎に前記疑似残差信号
の平均振幅を算出する手段と、前記残差信号を量子化す
る手段と、無音処理手段とを有し、前記無音処理手段
は、入力音声が無音声か有音声かの検知を行う無音検知
手段と、前記平均振幅算出部において算出された平均振
幅に応じて残差信号の量子化ビット数を前記部分区間毎
に決定する量子化ビット数適応化部と、ピッチ情報や線
形予測係数及び平均振幅等の補助情報を量子化する補助
情報量子化器と、無音声部において補助情報等の量子化
に割り当てるべきビット数を蓄積する量子化ビット数貯
蓄部と、残差信号の量子化ビット数情報を記憶しておく
量子化情報記憶部と を有し、あるフレームが無音声部で
ある場合に補助情報等の情報は量子化し、前記量子化情
報記憶部は前記量子化ビット数適応化部から渡された割
当情報を記憶し、次の分析フレームも続けて無音声部で
ある場合、補助情報等は量子化せず、無音声であるとい
うことを表示する信号のみ符号化部へ送出し、補助情報
等に割り当てられるべきビット数を量子化ビット数貯蓄
部に蓄積し、無音区間中に量子化ビット数貯蓄部に蓄積
されたビット数を有音声部で利用するように処理するこ
とを特徴とする。 また本発明は、A/D変換器によりデ
ィジタル化された音声信号を複数の周波数帯域に分割す
る帯域分割フィルタと、各周波数帯域にそれぞれ割り当
てられた複数の符号化部から成り、第1の周波数帯域用
符号化部において、入力音声信号を近接相関及びピッチ
相関に基づく適応予測する適応予測手段と、前記適応予
測手段により予測された音声信号と前記入力音声信号と
の差である残差信号に対応した疑似残差信号を発生する
手段と、前記入力音声信号のピッチ周期を等分割するこ
とで部分区間を設定する部分区間設定手段と、前記部分
区間設定手段で得られた部分区間毎に前記疑似残差信号
の平均振幅を算出する平均振幅算出手段と、前記残差信
号を量子化する手段と、第1の無音処理手段とを有し、
前記第1の無音処理手段は、入力音声が無音声か有音声
かの検知を行う無音検知手段と、前記平均振幅算出部に
おいて算出された平均振幅に応じて残差信号の量子化ビ
ット数を前記部分区間毎に決定する量子化ビット数適応
化部と、ピッチ情報や線形予測係数及び平均振幅等の補
助情報を量子化する補助情報量子化器と、無音声部にお
いて補助情報や疑似残差信号の平均振幅等の情報を量子
化した場合に割り当てるべきビット数を蓄積する量子化
ビット数貯蓄部とを有し、前記無音検知手段が無音声部
を検知した時には補助情報や疑似残差信号の平均振幅等
の情報は量子化せず、前記量子化ビット数貯蓄部に蓄積
されたビット数を有音声部で利用するように処理し、第
2の周波数帯域用符号化部において、入力音声信号を近
接相関及びピッチ相関に基づく適応予測する適応予測手
段と、前記適応予測手段により予測された音声信号と前
記入力音声信号との差である残差信号に対応した疑似残
差信号を発生する手段と、前記疑似残差信号の平均振幅
を算出する平均振幅算出手段と、前記残差信号を量子化
する手段と、第2の無音処理手段とを有し、前記第2
無音処理手段は、前記平均振幅算出部において算出され
た平均振幅に応じて残差信号の量子化ビット数を決定す
る量子化ビット数適応化部と、ピッチ情報や線形予測係
数及び平均振幅等の補助情報を量子化する補助情報量子
化器と、無音声部において補助情報や疑似残差信号の平
均振幅等の情報を量子化した場合に割り当てるべきビッ
ト数を蓄積する量子化ビット数貯蓄部を有し、前記第1
の無音検知手段からの情報が無音声部を示す場合には前
記補助情報や疑似残差信号の平均振幅等の情報は量子化
せず、前記量子化ビット数貯蓄部に蓄積されたビット数
を有音声部で利用するように処理することを特徴とす
る。 また本発明は、前述した音声符号化装置からの符号
化データを、符号系列分離手段で各帯域毎に分離した符
号データに分離し、前記各帯域毎に分離された符号デー
タを更に残差信号の符号データとピッチ情報,線形予測
係数及び平均振幅等の補助情報の符号データに分離する
情報系列分離手段を有する音声復号化装置において、前
記分離された補助情報を逐一記憶する補助情報記憶手段
を有することを特徴とする
To achieve the above Symbol purposes SUMMARY OF THE INVENTION, in the soundless part, such as between words of the audio signal inputted to the voice encoding unit amplitude and the change is little speech waveform The present invention focuses on the fact that the non-speech portion occupies about 30% to 40% of the whole speech in a normal conversation.
Prediction based on proximity correlation and pitch correlation
Measuring means, and an audio signal predicted by the adaptive predicting means.
Suspicion corresponding to the residual signal which is the difference between
Means for generating a similar residual signal;
Subsections that set subsections by equally dividing
Setting means, and a partial section obtained by the partial section setting means
Means for calculating the average amplitude of the pseudo residual signal for each
Means for quantizing the residual signal and silence processing means.
And the silence processing means determines whether the input speech is silence or speech.
Silence detecting means for detecting the
Auxiliary information used for measuring means, average of the pseudo residual signal
Information such as amplitude should be assigned to the quantization without quantization.
A quantization bit number storage unit for storing the number of bits
Bits stored in the quantization bit number storage during silent periods
Characterized in that the number is processed to be used in the voiced part.
You. Also, the present invention provides a method for converting an input speech signal into a proximity correlation
Adaptive prediction means for performing adaptive prediction based on the correlation;
Audio signal predicted by the measuring means and the input audio signal
Generate a pseudo residual signal corresponding to the residual signal that is the difference between
Means for equally dividing the pitch period of the input audio signal.
A partial section setting means for setting a partial section with
The pseudo residual signal is obtained for each of the partial sections obtained by the section setting means.
Means for calculating an average amplitude of the residual signal, and quantizing the residual signal.
Means, and silence processing means, wherein the silence processing means
Is a silence detection that detects whether the input sound is silent or voiced
Means, and the average amplitude calculated by the average amplitude calculation unit.
The number of quantization bits of the residual signal is set for each of the partial sections according to the width.
Quantization bit number adaptation unit to determine the pitch information and line
Aid to quantize auxiliary information such as shape prediction coefficient and average amplitude
Information quantizer and quantization of auxiliary information etc. in silent part
Stores the number of bits to be allocated to the
The storage unit and the quantization bit number information of the residual signal are stored.
A quantization information storage unit, and a certain frame is
In some cases, information such as auxiliary information is quantized, and
The information storage unit stores the rate passed from the quantization bit number adaptation unit.
This information is stored, and the next analysis frame is continuously
In some cases, auxiliary information is not quantized and is said to be silent.
Is sent to the encoder, and the auxiliary information
Saves the number of bits to be allocated to
And store it in the quantization bit number storage during silence periods
Process to use the number of bits
And features. In addition, the present invention uses an A / D converter to decode data.
Digitalized audio signal into multiple frequency bands
Band division filter and each frequency band
For the first frequency band
In the encoding unit, the input speech signal is subjected to proximity correlation and pitch.
Adaptive prediction means for performing adaptive prediction based on the correlation;
Audio signal predicted by the measuring means and the input audio signal
Generate a pseudo residual signal corresponding to the residual signal that is the difference between
Means for equally dividing the pitch period of the input audio signal.
A partial section setting means for setting a partial section with
The pseudo residual signal is obtained for each of the partial sections obtained by the section setting means.
Average amplitude calculating means for calculating an average amplitude of the residual signal;
Means for quantizing a signal, and first silence processing means,
The first silence processing means may be configured such that the input sound is either no sound or voiced sound.
Silence detection means for detecting whether or not, the average amplitude calculation unit
Quantization quantization of the residual signal according to the average amplitude calculated in
Bit number adaptation for determining the number of bits for each of the sub-intervals
And the complementation of pitch information, linear prediction coefficients, average amplitude, etc.
Auxiliary information quantizer for quantizing auxiliary information and
Information such as auxiliary information and the average amplitude of the pseudo residual signal
Quantization that stores the number of bits to be allocated when digitized
A number-of-bits storage unit, wherein the silence detecting means is
Is detected, the auxiliary information and the average amplitude of the pseudo residual signal are detected.
Information is not quantized and stored in the quantization bit number storage unit.
The number of bits is processed to be used in the voiced part,
2, the input audio signal is
An adaptive predictor for adaptive prediction based on tangent and pitch correlations
And the speech signal predicted by the adaptive prediction means and
Pseudo residual corresponding to the residual signal that is the difference from the input audio signal
Means for generating a difference signal, and an average amplitude of the pseudo residual signal
Mean amplitude calculating means for calculating the residual signal and quantizing the residual signal
Means for, and a second silence processing means, said second
The silence processing means is calculated by the average amplitude calculation unit.
The number of quantization bits of the residual signal according to the average amplitude
Quantization bit number adaptation unit, pitch information and linear prediction
Auxiliary information quantum for quantizing auxiliary information such as number and average amplitude
And auxiliary information and pseudo residual signals in the silent part.
Bits to be assigned when quantizing information such as average amplitude
A quantization bit number storage unit for storing the number of bits.
If the information from the silent detection means indicates a silent part,
Information such as auxiliary information and the average amplitude of the pseudo residual signal are quantized.
The number of bits stored in the quantization bit number storage unit without
Is processed so as to be used in the voiced part.
You. In addition, the present invention provides a method for decoding a code from the above-described speech coding apparatus.
Encoded data is separated by code sequence separating means into each band.
Code data, and the code data separated for each band.
Data and pitch information of residual signal, linear prediction
Separation into code data of auxiliary information such as coefficient and average amplitude
In a speech decoding apparatus having information sequence separation means,
Auxiliary information storage means for storing the separated auxiliary information one by one
It is characterized by having .

【0024】また、この際、適応予測部、量子化ビット
数適応化部などで用いられる補助情報には、前記無音検
知部で無音と判断された際の分析フレームの補助情報と
同一のものを無音声部が続く限り用い、音声復号化部に
おいても同様の構成とした。
In this case, the auxiliary information used in the adaptive prediction unit, the quantization bit number adaptation unit and the like is the same as the auxiliary information of the analysis frame when the silence detection unit determines that there is no sound. The same configuration is used in the audio decoding unit as long as the non-speech unit continues.

【0025】[0025]

【作用】本発明によれば、平均振幅が大きいため量子化
誤差も大きくなる有音声部において、量子化ビット数貯
蓄部に蓄えられていた量子化ビット数を、全帯域の残差
信号の量子化に割り当てられるビット数Rに加算した上
で数1の式の計算を行うことにより、従来よりも多数の
量子化ビット数が残差信号量子化器に割り当てられ、残
差信号を緻密に量子化することができ、量子化誤差は小
さくなる。
According to the present invention, the number of quantization bits stored in the quantization bit number storage section is changed to the quantization of the residual signal of the entire band in the voiced section where the quantization error is increased due to the large average amplitude. By adding to the number of bits R allocated to the quantization and calculating the equation (1), a larger number of quantization bits are allocated to the residual signal quantizer than before, and the residual signal is quantized more precisely. And the quantization error is reduced.

【0026】また、無音声部の入力音声波形は前記した
ように定常と見なされるので補助情報は定常的に変化す
ると考えて良い。即ち補助情報は殆ど時間的な変化は無
く一定であり、従って無音声部が続く限り過去の分析フ
レームと同一の補助情報を用いても誤差は少ない。
Further, since the input speech waveform of the non-speech portion is considered to be stationary as described above, it can be considered that the auxiliary information constantly changes. That is, the auxiliary information has almost no change with time and is constant. Therefore, as long as the silent part continues, even if the same auxiliary information as the past analysis frame is used, the error is small.

【0027】以上のことから全体的に誤差を抑えること
ができる。
From the above, errors can be suppressed as a whole.

【0028】[0028]

【実施例】図1は本発明の一実施例の音声符号化・復号
化装置における音声符号化部のブロック図であり、アナ
ログ回線に接続され回線の制御や入出力の分離を行う回
線インターフェース部1ないし多重化部17から出力され
るディジタル信号を格納しておく音声バッファ18までは
従来例の図5と全く同様であるが、本実施例において
は、無音処理部30を有する。これは音声符号化部への入
力音声が有音声部の場合と無音声部の場合とでそれぞれ
区別して処理を行う。
FIG. 1 is a block diagram of a voice coding unit in a voice coding / decoding apparatus according to one embodiment of the present invention. A line interface unit connected to an analog line for controlling the line and separating input / output. 5 is the same as the conventional example shown in FIG. 5 up to the audio buffer 18 for storing the digital signal output from the multiplexing unit 17, but this embodiment has a silence processing unit 30. In this case, the processing is performed separately for the case where the input speech to the speech encoding unit is a voiced part and the case of a non-speech part.

【0029】図2は図1の無音処理部30の構成を示すブ
ロック図であり、図2において、30Aは音声符号化部へ
の入力音声が無音声か有音声かの判断を行う無音検知
部、30Bは前記無音検知部において無音声と判断された
場合、その分析フレームの補助情報に割り当てられるべ
き量子化ビット数を蓄えておく量子化ビット数貯蓄部、
30Cは残差信号の量子化ビット数情報を記憶しておく量
子化情報記憶部である。なお、帯域B、帯域Cには無音
検知部30Aは無い。そして無音処理部30には平均振幅算
出部13において算出された平均振幅に応じて残差信号の
量子化ビット数を、前記部分区間毎に決定する量子化ビ
ット数適応化部14とピッチ情報、線形予測係数及び平均
振幅などの補助情報を量子化する補助情報量子化器15と
を有する。
FIG. 2 is a block diagram showing the structure of the silence processing section 30 shown in FIG. 1. In FIG. 2, reference numeral 30A denotes a silence detecting section for judging whether the speech inputted to the speech encoding section is speechless or voiced. , 30B is a quantization bit number storage unit that stores the quantization bit number to be allocated to the auxiliary information of the analysis frame when the silent detection unit determines that there is no voice;
Reference numeral 30C denotes a quantization information storage unit for storing quantization bit number information of the residual signal. Note that the band B and the band C do not have the silence detecting unit 30A. Then, the silence processing unit 30 determines the number of quantization bits of the residual signal according to the average amplitude calculated by the average amplitude calculation unit 13, the quantization bit number adaptation unit 14 and the pitch information that determine for each of the partial sections, An auxiliary information quantizer 15 for quantizing auxiliary information such as a linear prediction coefficient and an average amplitude.

【0030】次に図3は本実施例の音声符号化・復号化
装置における音声復号化部の構成を示すブロック図であ
り、音声バッファ18からの符号化データを各帯域毎に分
離する符号系列分離部19ないしアナログ回線に接続され
回線の制御や入出力の分離を行う回線インターフェース
部27までは従来例の図6と全く同様であるが、本実施例
においては情報系列分離部20において分離された補助情
報を逐一記憶する補助情報記憶部31を有する。
FIG. 3 is a block diagram showing a configuration of a voice decoding unit in the voice coding / decoding apparatus according to the present embodiment. The code sequence for separating coded data from the voice buffer 18 for each band is shown. The separation unit 19 to the line interface unit 27 connected to the analog line and controlling the line and separating input and output are completely the same as those in FIG. 6 of the conventional example. And an auxiliary information storage unit 31 for storing the auxiliary information one by one.

【0031】以上のように構成された音声符号化・復号
化装置の動作を説明する。
The operation of the speech encoding / decoding device configured as described above will be described.

【0032】まず図1の音声符号化部において、初期状
態では無音処理部30内の図2に示すところの量子化ビッ
ト数貯蓄部30Bの蓄えRsは0である。この状態で電話
回線等を通じて回線インタフェース部1に入力された音
声等のアナログ信号はA/D変換器2によりディジタル
信号に変換される。このディジタル信号は、以後短い時
間区間、即ち1フレーム(例えば16msec)毎に区切られ、
処理されていくことになる。A/D変換器2によりディ
ジタル化された音声信号(0〜4kHz)は例えばQMF
(Quadrature Mirror Filter)等で構成される帯域分
割フィルタ3により複数個の帯域、例えば帯域A(0〜
1kHz)、帯域B(1〜2kHz)及び帯域C(2〜4kH
z)の3つの周波数帯域に分割される。
First, in the speech coding unit of FIG. 1, the storage Rs of the quantization bit number storage unit 30B in the silence processing unit 30 shown in FIG. In this state, an analog signal such as voice input to the line interface unit 1 through a telephone line or the like is converted into a digital signal by the A / D converter 2. This digital signal is thereafter divided into short time intervals, that is, one frame (for example, 16 msec),
It will be processed. The audio signal (0 to 4 kHz) digitized by the A / D converter 2 is, for example, QMF
(Quadrature Mirror Filter) etc., a plurality of bands, for example, band A (0 to
1 kHz), band B (1-2 kHz) and band C (2-4 kHz)
z) is divided into three frequency bands.

【0033】以後帯域Aについて説明する。帯域Aの原
信号に対し線形予測係数抽出部4では線形予測係数の抽
出を行う線形予測フィルタを構成し、この線形予測フィ
ルタを用い近接相関に基づく予測器5において線形予測
を行う。またピッチ検出部6は帯域Aの原信号のピッチ
を検出し、検出されたピッチ周期に対するピッチゲイン
がピッチゲイン導出部7により導出される。ピッチ相関
に基づく予測器8は導出されたピッチゲインより構成さ
れる予測フィルタによりピッチ周期間の予測、つまり1
ピッチ周期過去のデータから現時点の音声信号を予測す
るピッチ予測を行う。
Hereinafter, the band A will be described. The linear prediction coefficient extraction unit 4 configures a linear prediction filter for extracting a linear prediction coefficient from the original signal of the band A, and performs linear prediction in the predictor 5 based on the proximity correlation using the linear prediction filter. Further, the pitch detector 6 detects the pitch of the original signal in the band A, and a pitch gain for the detected pitch cycle is derived by the pitch gain deriver 7. The predictor 8 based on pitch correlation performs prediction between pitch periods by a prediction filter composed of derived pitch gains, ie, 1
Pitch prediction for predicting the current speech signal from the data in the past pitch cycle is performed.

【0034】また、近接相関に基づく予測器5及びピッ
チ相関に基づく予測器8で予測された信号は合成され適
応予測部9から出力される。適応予測部9より出力され
る予測信号は帯域Aの原信号との差が計算器10Aで取ら
れ残差信号として残差信号量子化器10に入力され量子化
される。以上は従来例と全く同様の動作である。
The signals predicted by the predictor 5 based on the proximity correlation and the predictor 8 based on the pitch correlation are synthesized and output from the adaptive prediction unit 9. The difference between the prediction signal output from the adaptive prediction unit 9 and the original signal in the band A is calculated by the calculator 10A, and is input to the residual signal quantizer 10 as a residual signal and quantized. The above is exactly the same operation as the conventional example.

【0035】また残差信号量子化器10の量子化ビット数
は疑似残差信号の平均振幅に応じて適応化されるが、こ
の導出法も従来例と全く同様にして、逆フィルタ部11、
部分区間設定部12を通して各部分区間毎の疑似残差信号
の平均振幅が平均振幅算出部13により算出される。
The number of quantization bits of the residual signal quantizer 10 is adapted in accordance with the average amplitude of the pseudo residual signal.
The average amplitude of the pseudo residual signal for each partial section is calculated by the average amplitude calculating section 13 through the partial section setting section 12.

【0036】この時、無音処理部30内の図2に示すとこ
ろの無音検知部30Aは平均振幅算出部13において算出さ
れた平均振幅をあるレベルT0と比較し、その大小関係
により無音声部であるか否かを判断する。
At this time, the silence detecting section 30A shown in FIG. 2 in the silence processing section 30 compares the average amplitude calculated by the average amplitude calculating section 13 with a certain level T 0, and, based on the magnitude relation, determines the silent section. Is determined.

【0037】無音でないと判断された場合、即ち有音声
部の場合(図2(a)の場合)は、その後、量子化ビット数
適応化部14では前記平均振幅から量子化ビット数を各部
分区間毎に割り当てる演算、数1の式が行われる。以後
従来例と同様にして、量子化ビット数適応化部14におい
て数1の式により決定される量子化ビット数に従い、残
差信号量子化器10で量子化された残差信号は符号化部16
へ送出され符号化されると同時に適応予測部9にも帰還
されることになる。
If it is determined that the sound is not silent, that is, in the case of a voiced part (case (a) of FIG. 2), then the quantization bit number adaptation unit 14 calculates the number of quantization bits from the average amplitude in each part. The calculation to be assigned to each section, the equation of Equation 1, is performed. Thereafter, in the same manner as in the conventional example, the residual signal quantized by the residual signal quantizer 10 in accordance with the quantization bit number determined by the equation (1) in the quantization bit number adaptation unit 14 is encoded. 16
Is transmitted to the adaptive prediction unit 9 at the same time as being encoded.

【0038】一方、ピッチ情報、線形予測係数及び疑似
残差信号の平均振幅などの補助情報も従来例と同様にし
て、補助情報量子化器15において量子化され、その後、
符号化部16で符号化されることになる。この時の量子化
ビット数は情報伝送速度により一意的に決まっている。
On the other hand, auxiliary information such as pitch information, linear prediction coefficients, and the average amplitude of the pseudo residual signal are also quantized by the auxiliary information quantizer 15 in the same manner as in the conventional example.
The encoding is performed by the encoding unit 16. The number of quantization bits at this time is uniquely determined by the information transmission speed.

【0039】各帯域の符号化部16から出力される符号デ
ータは多重化部17で多重化され音声バッファ18に符号デ
ータとして蓄えられる。
The coded data output from the coding unit 16 for each band is multiplexed by the multiplexing unit 17 and stored in the audio buffer 18 as coded data.

【0040】上記した信号処理過程は過域B及び帯域C
でも同様であるが、ピッチ相関に基づく予測器8におけ
る長時間予測フィルタや部分区間の設定は帯域Aで構成
されたものを用いているため、ピッチ検出部6、ピッチ
ゲイン導出部7及び部分区間設定部12の動作は行われな
い。また、入力音声が無音声部であるか有音声部である
かの判断は帯域Aで行っているため、帯域B、帯域Cに
おいて無音検知部30Aの動作は行われない。
The above-described signal processing process includes the over-range B and the band C.
However, since the setting of the long-term prediction filter and the sub-interval in the predictor 8 based on the pitch correlation uses the band A, the pitch detection unit 6, the pitch gain derivation unit 7, and the sub-interval The operation of the setting unit 12 is not performed. Further, since the determination as to whether the input voice is a voiceless part or a voiced part is made in band A, the operation of the soundless detector 30A is not performed in bands B and C.

【0041】次に、前記音声バッファ18から音声信号を
復元する場合を図3の音声復号化部を参照しながら説明
する。まず音声バッファ18からの符号データを符号系列
分離部19で各帯域毎の符号データ系列に分離する。さら
にこの符号データは各帯域の情報系列分離部20におい
て、残差信号の符号データとピッチ情報、線形予測係数
及び平均振幅等の補助情報の符号データに分離される。
この時、前記補助情報の符号データは常に補助情報記憶
部31に記憶されることになる。つまり、補助情報記憶部
31には現時点での分析フレームにおける補助情報の符号
データが常に新規に書き改められて記憶されている。そ
の後の動作は従来例と全く同様である。
Next, the case of restoring an audio signal from the audio buffer 18 will be described with reference to the audio decoding unit in FIG. First, the code data from the audio buffer 18 is separated by a code sequence separation unit 19 into code data sequences for each band. Further, this code data is separated into code data of a residual signal and code data of auxiliary information such as pitch information, a linear prediction coefficient and an average amplitude in an information sequence separation section 20 of each band.
At this time, the code data of the auxiliary information is always stored in the auxiliary information storage unit 31. That is, the auxiliary information storage unit
31 stores the code data of the auxiliary information in the analysis frame at the present time, which is always newly rewritten. The subsequent operation is exactly the same as in the conventional example.

【0042】次に音声符号化部において無音処理部30内
の無音検知部30Aで無音声部と判断された場合について
述べる。まず、無音検知部30Aで無音と判断され、これ
までの有音声フレームから無音声フレームに移行した分
析フレームにおいて(図2(b)の場合)、補助情報は補助
情報量子化器15において量子化され、その後従来例と同
様に符化号部16で符号化されることになる。また、残差
信号に割り当てられるビット数も従来例と同様に割り当
てられるが、その一方で量子化ビット数適応化部14から
量子化情報記憶部30Cにその割当情報が記憶される。そ
の後の動作は従来例と全く同様である。音声復号化部に
おいても前記実施例と全く同様である。無音検知部30A
で無音と判断された場合、そのことを示す信号は帯域
B、帯域Cにも送出されるので帯域B、帯域Cでも同様
の処理が行われることになる。
Next, a case will be described in which the audio encoding unit determines that the audio signal is the audioless unit by the audio absence detecting unit 30A in the audioless processing unit 30. First, in the analysis frame which is determined to be silence by the silence detection unit 30A and shifted from a voiced frame to a voiceless frame (in the case of FIG. 2B), the auxiliary information is quantized by the auxiliary information quantizer 15. After that, it is encoded by the encoding unit 16 as in the conventional example. The number of bits assigned to the residual signal is also assigned in the same manner as in the conventional example, while the assignment information is stored in the quantization information storage unit 30C from the quantization bit number adaptation unit 14. The subsequent operation is exactly the same as in the conventional example. The audio decoding unit is exactly the same as the above embodiment. Silence detector 30A
If it is determined that there is no sound, a signal indicating that is sent to the bands B and C, so that the same processing is performed in the bands B and C.

【0043】次の分析フレームでも続けて無音検知部30
Aにおいて無音声部と判断された場合(図2(c)の場
合)、このことを示す信号は帯域B、帯域Cにも送出さ
れることになる。この状態で補助情報は補助情報量子化
器15では量子化されず、無音声であるということを表示
する信号のみが符号化部16へ送出される。そして補助情
報に割り当てられるべきビット数が量子化ビット数貯蓄
部30Bに蓄積される。また、残差信号に割り当てられる
ビット数も前記量子化情報記憶部30Cに記憶されている
情報が量子化ビット数適応化部14に読み込まれ、これに
従って残差信号が残差信号量子化部10で量子化されるこ
とになる。従って、符号化される情報は無音声部である
ことを示す信号と残差信号である。この処理は無音声部
が続く限り行われることになる。またこの処理は帯域
B、帯域Cでも同様である。
The silence detecting section 30 continues in the next analysis frame.
If it is determined in A that a voiceless part is present (in the case of FIG. 2C), a signal indicating this is also transmitted to the bands B and C. In this state, the auxiliary information is not quantized by the auxiliary information quantizer 15, and only a signal indicating that there is no voice is transmitted to the encoding unit 16. Then, the number of bits to be assigned to the auxiliary information is stored in the quantization bit number storage unit 30B. Also, regarding the number of bits allocated to the residual signal, information stored in the quantization information storage unit 30C is read by the quantization bit number adaptation unit 14, and the residual signal is accordingly converted to the residual signal quantization unit 10C. Will be quantized. Therefore, the information to be coded is a signal indicating that it is a silent part and a residual signal. This process is performed as long as the silent section continues. This process is the same for band B and band C.

【0044】音声復号化部においては、まず音声バッフ
ァ18からの符号データを符号系列分離部19で各帯域毎の
符号データ系列に分離する。さらにこの符号データは各
帯域の情報系列分離部20において、残差信号の符号デー
タと無音声部を示す信号の符号データに分離される。無
音声部を示す信号を検知すると、ピッチ情報、線形予測
係数及び平均振幅等の補助情報として補助情報記憶部31
に記憶されている符号データが読み込まれ、これに従い
補助情報を復元することになる。つまり、無音声部と判
断される間、補助情報は常に同一の情報が復元されるこ
とになる。その後の動作は従来例と全く同様である。
In the audio decoding unit, first, the code data from the audio buffer 18 is separated by the code sequence separation unit 19 into a code data sequence for each band. Further, the code data is separated into the code data of the residual signal and the code data of the signal indicating the non-voice portion in the information sequence separation section 20 of each band. When a signal indicating a silent part is detected, the auxiliary information storage unit 31 stores auxiliary information such as pitch information, a linear prediction coefficient, and average amplitude.
Is read, and the auxiliary information is restored accordingly. In other words, the same information is always restored for the auxiliary information while it is determined that the soundless part is present. The subsequent operation is exactly the same as in the conventional example.

【0045】その後、無音検知部30Aにおいて有音声部
と判断されこれまでの無音声フレームから有音声フレー
ムに移行した場合(図2(d)の場合)、量子化ビット数適
応化部14のみが上記動作と異なることになる。即ち残差
信号の量子化ビット数Rijは次式で与えられる。
Thereafter, when the silence detecting section 30A determines that the speech section is a speech section and shifts from the previous speech frame to the speech frame (in the case of FIG. 2D), only the quantization bit number adaptation section 14 is provided. This is different from the above operation. That is, the quantization bit number R ij of the residual signal is given by the following equation.

【0046】[0046]

【数2】Rij=Ri(R+Rs)+F(log2ij) ここで、Riはi帯域の平均ビットレートであり、従来
例において示した残差信号を量子化する際に割り当てら
れる全量子化ビット数Rと、上記実施例において量子化
ビット数貯蓄部30Bに蓄えられていたビット数Rsとの
合計に比例する。Fはi帯域j区間の疑似残差信号の平
均振幅Uijの対数に比例する関数であり従来例と同様で
ある。
R ij = R i (R + Rs) + F (log 2 U ij ) where R i is the average bit rate of the i band and is assigned when quantizing the residual signal shown in the conventional example. It is proportional to the sum of the total quantization bit number R and the bit number Rs stored in the quantization bit number storage unit 30B in the above embodiment. F is a function proportional to the logarithm of the average amplitude U ij of the pseudo residual signal in the i-band j section, which is the same as in the conventional example.

【0047】このようにして決定された帯域Aの各部分
区間毎の量子化ビット数の例を図4に示す。従来例(図
8)と比べ各区間それぞれ量子化ビット数が1ビットず
つ増加することにより大幅に量子化誤差が抑えられるこ
とになる。この場合の音声復号化部の動作は、実施例に
おいて上記した入力音声が有音声部の場合の音声復号化
の動作と全く同様となる。
FIG. 4 shows an example of the number of quantization bits for each subsection of the band A thus determined. As compared with the conventional example (FIG. 8), the quantization error is greatly suppressed by increasing the number of quantization bits in each section by one bit. The operation of the audio decoding unit in this case is exactly the same as the operation of the audio decoding when the input audio is a voiced part in the embodiment.

【0048】[0048]

【発明の効果】以上説明したように本発明の音声符号化
装置および音声復号化装置は、音声符号化部に無音処理
部を有し、その無音処理部の無音検知部において入力音
声が無音声部であるか有音声部であるかを検知し、無音
声部の場合は量子化ビット数貯蓄部に補助情報に割り当
てられるべきビット数を貯蓄しておき、有音声フレーム
でこの貯蓄ビット数を利用することにより、情報伝送速
度が小さい場合の残差信号の量子化誤差による音質劣化
を著しく改善することができる。
As described above, the speech coding of the present invention
The apparatus and the audio decoding apparatus have a silent processing section in the audio encoding section, and a silent detection section of the silent processing section detects whether the input voice is a silent section or a voice section, In the case of the unit, the number of bits to be allocated to the auxiliary information is stored in the quantization bit number storage unit, and by using this stored bit number in the voiced frame, the residual signal of the information transmission speed is small. Sound quality degradation due to quantization errors can be significantly improved.

【0049】また情報伝送速度が大きい場合でも、例え
ば子音に代表されるような不規則な入力音声信号では適
応予測部における予測精度が落ちるが、このような場合
に非常に有効であり、信号対量子化雑音化(S/N)の向
上を図ることができる。
Even when the information transmission rate is high, the prediction accuracy in the adaptive prediction unit is reduced for an irregular input speech signal represented by, for example, a consonant. However, in such a case, it is very effective. It is possible to improve quantization noise (S / N).

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施例の音声符号化・復号化装置に
於ける音声符号化部の構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of a speech encoding unit in a speech encoding / decoding device according to an embodiment of the present invention.

【図2】図1の無音処理部の構成を示すブロック図であ
る。
FIG. 2 is a block diagram illustrating a configuration of a silence processing unit in FIG. 1;

【図3】本発明の一実施例の音声符号化・復号化装置に
於ける音声復号化部の構成を示すブロック図である。
FIG. 3 is a block diagram illustrating a configuration of a speech decoding unit in the speech encoding / decoding device according to one embodiment of the present invention.

【図4】図1の音声符号化構成による部分区間毎の量子
化ビット数の例を示す図である。
FIG. 4 is a diagram illustrating an example of the number of quantization bits for each partial section according to the speech encoding configuration in FIG. 1;

【図5】従来の音声符号化・復号化装置に於ける音声符
号化部の構成を示すブロック図である。
FIG. 5 is a block diagram showing a configuration of a speech encoding unit in a conventional speech encoding / decoding device.

【図6】従来の音声符号化・復号化装置の於ける音声復
号化部の構成を示すブロック図である。
FIG. 6 is a block diagram illustrating a configuration of a speech decoding unit in a conventional speech encoding / decoding device.

【図7】図5の音声符号化構成による部分区間設定法の
説明図である。
FIG. 7 is an explanatory diagram of a partial section setting method using the speech encoding configuration of FIG. 5;

【図8】図5の音声符号化構成による部分区間毎の量子
化ビット数の例を示す図である。
8 is a diagram illustrating an example of the number of quantization bits for each partial section according to the audio encoding configuration in FIG. 5;

【図9】図6の音声復号化部における予測合成部の構成
を示すブロック図である。
9 is a block diagram illustrating a configuration of a prediction synthesis unit in the speech decoding unit in FIG.

【符号の説明】[Explanation of symbols]

1,27…回線インターフェース部、 2…A/D変換
器、 3…帯域分割フィルタ、 4…線形予測係数抽出
部、 5…近接相関にもとづく予測器、 6…ピッチ検
出部、 7…ピッチゲイン導出部、 8…ピッチ相関に
もとづく予測器、9…適応予測部、 10…残差信号量子
化器、 11…逆フィルタ部、 12…部分区間設定部、
13…平均振幅算出部、 14…量子化ビット数適応化部、
15…補助情報量子化器、 16…符号化部、 17…多重
化部、 18…音声バッファ、 19…符号系列分離部、
20…情報系列分離部、 21…補助情報復号化器、 22…
復号化ビット数適応化部、 23…残差信号復号化器、
24…予測合成部、 25…帯域合成フィルタ、 26…D/
A変換器、 30…無音処理部、 30A…無音検知部、30
B…量子化ビット数貯蓄部、 30C…量子化情報記憶
部、 31…補助情報記憶部。
1, 27: line interface unit, 2: A / D converter, 3: band division filter, 4: linear prediction coefficient extraction unit, 5: predictor based on proximity correlation, 6: pitch detection unit, 7: pitch gain derivation 8: predictor based on pitch correlation, 9: adaptive predictor, 10: residual signal quantizer, 11: inverse filter, 12: partial interval setting,
13: average amplitude calculation unit, 14: quantization bit number adaptation unit,
15: auxiliary information quantizer, 16: coding unit, 17: multiplexing unit, 18: voice buffer, 19: code sequence separation unit,
20 ... information sequence separation unit, 21 ... auxiliary information decoder, 22 ...
Decoding bit number adaptation unit, 23 ... residual signal decoder,
24: prediction synthesis unit, 25: band synthesis filter, 26: D /
A converter, 30: Silence processing unit, 30A: Silence detection unit, 30
B: quantization bit number storage unit; 30C: quantization information storage unit; 31: auxiliary information storage unit.

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G10L 19/04 ──────────────────────────────────────────────────続 き Continued on front page (58) Field surveyed (Int. Cl. 7 , DB name) G10L 19/04

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 入力音声信号を近接相関及びピッチ相関
に基づく適応予測する適応予測手段と、 前記適応予測手段により予測された音声信号と前記入力
音声信号との差である残差信号に対応した疑似残差信号
を発生する手段と、 前記入力音声信号のピッチ周期を等分割することで部分
区間を設定する部分区間設定手段と、 前記部分区間設定手段で得られた部分区間毎に前記疑似
残差信号の平均振幅を算出する手段と、 記残差信号を量子化する手段と、無音処理手段とを有し、 前記無音処理手段は、入力音声が無音声か有音声かの検
知を行う無音検知手段と、無音声部では 前記適応予測手
段に用いられる補助情報、前記疑似残差信号の平均振幅
等の情報は量子化せずその量子化に割り当てるべきビ
ット数を蓄積する量子化ビット数貯蓄部とを有し、無音
区間中に量子化ビット数貯蓄部に蓄積されたビット数を
有音声部で利用するように処理することを特徴とする音
声符号化装置。
An adaptive prediction means for adaptively predicting an input voice signal based on a proximity correlation and a pitch correlation, and a residual signal corresponding to a difference between the voice signal predicted by the adaptive prediction means and the input voice signal. Means for generating a pseudo-residual signal; partial-segment setting means for setting a sub-segment by equally dividing the pitch period of the input voice signal; and a pseudo-residue for each of the sub-segments obtained by the sub-segment setting means. means for calculating the average amplitude of the difference signal, before a means for quantizing the Kizansa signal, and a silence processing means, said silence processing means, test input speech whether silence or voiced
A silence detection unit for performing knowledge, auxiliary information is soundless part used in the adaptive prediction unit, information of the average amplitude or the like of the pseudo residual signal accumulates the number of bits to be allocated to the quantized without quantization With quantization bit number storage
Speech coding apparatus characterized by and Turkey be treated so as to utilize the number of bits stored in the saving unit number of quantization bits in <br/> silent sound unit in section.
【請求項2】 入力音声信号を近接相関及びピッチ相関
に基づく適応予測する適応予測手段と、 前記適応予測手段により予測された音声信号と前記入力
音声信号との差である残差信号に対応した疑似残差信号
を発生する手段と、 前記入力音声信号のピッチ周期を等分割することで部分
区間を設定する部分区間設定手段と、 前記部分区間設定手段で得られた部分区間毎に前記疑似
残差信号の平均振幅を算出する手段と、 前記残差信号を量子化する手段と、 無音処理手段とを有し、 前記無音処理手段は、入力音声が無音声か有音声かの検
知を行う無音検知手段と、前記平均振幅算出部において
算出された平均振幅に応じて残差信号の量子化 ビット数
を前記部分区間毎に決定する量子化ビット数適応化部
と、ピッチ情報や線形予測係数及び平均振幅等の補助情
報を量子化する補助情報量子化器と、無音声部において
補助情報等の量子化に割り当てるべきビット数を蓄積す
る量子化ビット数貯蓄部と、残差信号の量子化ビット数
情報を記憶しておく量子化情報記憶部とを有し、 あるフレームが無音声部である場合に補助情報等の情報
は量子化し、前記量子化情報記憶部は前記量子化ビット
数適応化部から渡された割当情報を記憶し、次の分析フ
レームも続けて無音声部である場合、補助情報等は量子
化せず、無音声であるということを表示する信号のみ符
号化部へ送出し、補助情報等に割り当てられるべきビッ
ト数を量子化ビット数貯蓄部に蓄積し、無音区間中に量
子化ビット数貯蓄部に蓄積されたビット数を有音声部で
利用するように処理 することを特徴とする音声符号化装
置。
2. The method according to claim 1, wherein the input speech signal is subjected to proximity correlation and pitch correlation.
Adaptive predicting means for adaptively predicting based on a voice signal predicted by the adaptive predicting means and the input
Pseudo residual signal corresponding to the residual signal that is the difference from the audio signal
Means for generating the input sound signal, and
A partial section setting means for setting a section; and the pseudo section for each partial section obtained by the partial section setting means.
Means for calculating the average amplitude of the residual signal, means for quantizing the residual signal, and silence processing means, wherein the silence processing means detects whether the input speech is speechless or speechful.
In the silent detection means for informing, and in the average amplitude calculation unit
The number of quantization bits of the residual signal according to the calculated average amplitude
Quantization bit number adaptation unit that determines
And auxiliary information such as pitch information, linear prediction coefficients and average amplitude
Information quantizer for quantizing the information
Stores the number of bits to be allocated for quantization of auxiliary information, etc.
Quantized bit number storage unit and the number of quantized bits of the residual signal
A quantization information storage unit for storing information, and information such as auxiliary information when a certain frame is a silent part.
Is quantized, and the quantization information storage unit stores the quantization bit
The allocation information passed from the number adaptation unit is stored, and the next analysis
If the frame is also a silent part, the auxiliary information etc.
Only the signal that indicates that there is no sound
Bit to be assigned to auxiliary information, etc.
Is stored in the quantization bit number storage unit, and the
The number of bits stored in the digitized bit number storage
Features and to Ruoto voice coding apparatus to process to utilize.
【請求項3】 A/D変換器によりディジタル化された
音声信号を複数の周波数帯域に分割する帯域分割フィル
タと、各周波数帯域にそれぞれ割り当てられた複数の符
号化部から成り、 第1の周波数帯域用符号化部において、 入力音声信号を近接相関及びピッチ相関に基づく適応予
測する適応予測手段と、 前記適応予測手段により予測された音声信号と前記入力
音声信号との差である残差信号に対応した疑似残差信号
を発生する手段と、 前記入力音声信号のピッチ周期を等分割することで部分
区間を設定する部分区間設定手段と、 前記部分区間設定手段で得られた部分区間毎に前記疑似
残差信号の平均振幅を算出する平均振幅算出手段と、 前記残差信号を量子化する手段と、 第1の無音処理手段とを有し、 前記第1の無音処理手段は、入力音声が無音声か有音声
かの検知を行う無音検知手段と、前記平均振幅算出部に
おいて算出された平均振幅に応じて残差信号の量子化ビ
ット数を前記部分区間毎に決定する量子化ビット数適応
化部と、ピッチ 情報や線形予測係数及び平均振幅等の補
助情報を量子化する補助情報量子化器と、無音声部にお
いて補助情報や疑似残差信号の平均振幅等の情報を量子
化した場合に割り当てるべきビット数を蓄積する量子化
ビット数貯蓄部とを有し、前記無音検知手段が無音声部
を検知した時には補助情報や疑似残差信号の平均振幅等
の情報は量子化せず、前記量子化ビット数貯蓄部に蓄積
されたビット数を有音声部で利用するように処理し、 第2の周波数帯域用符号化部において、 入力音声信号を近接相関及びピッチ相関に基づく適応予
測する適応予測手段と、 前記適応予測手段により予測された音声信号と前記入力
音声信号との差である残差信号に対応した疑似残差信号
を発生する手段と、 前記疑似残差信号の平均振幅を算出する平均振幅算出手
段と、 前記残差信号を量子化する手段と、 第2の無音処理手段とを有し、 前記第2の無音処理手段は、前記平均振幅算出部におい
て算出された平均振幅に応じて残差信号の量子化ビット
数を決定する量子化ビット数適応化部と、ピッチ情報や
線形予測係数及び平均振幅等の補助情報を量子化する補
助情報量子化器と、無音声部において補助情報や疑似残
差信号の平均振幅等の情報を量子化した場合に割り当て
るべきビット数を蓄積する量子化ビット数貯蓄部を有
し、前記第1の無音検知手段からの情報が無音声部を示
す場合には前記補助情報や疑似残差信号の平均振幅等の
情報は量子化せず、前記量子化ビット数貯蓄部に蓄積さ
れたビット数を有音声部で利用するように処理 すること
を特徴とする音声号化装置。
3. A digital signal obtained by an A / D converter
Band division filter for dividing audio signal into multiple frequency bands
Data and the multiple codes assigned to each frequency band.
A first frequency band encoding unit for adaptively predicting the input speech signal based on the proximity correlation and the pitch correlation.
Adaptive predicting means for measuring, an audio signal predicted by the adaptive predicting means, and the input
Pseudo residual signal corresponding to the residual signal that is the difference from the audio signal
Means for generating the input sound signal, and
A partial section setting means for setting a section; and the pseudo section for each partial section obtained by the partial section setting means.
Means for calculating an average amplitude of the residual signal, means for quantizing the residual signal, and first silence processing means, wherein the first silence processing means is configured to generate an Voice or voiced
Silence detection means for detecting whether or not, the average amplitude calculation unit
Quantization quantization of the residual signal according to the average amplitude calculated in
Bit number adaptation for determining the number of bits for each of the sub-intervals
And the complementation of pitch information, linear prediction coefficients, average amplitude, etc.
Auxiliary information quantizer for quantizing auxiliary information and
Information such as auxiliary information and the average amplitude of the pseudo residual signal
Quantization that stores the number of bits to be allocated when digitized
A number-of-bits storage unit, wherein the silence detecting means is
Is detected, the auxiliary information and the average amplitude of the pseudo residual signal are detected.
Information is not quantized and stored in the quantization bit number storage unit.
In the second frequency band encoding unit, the input speech signal is subjected to adaptive prediction based on the proximity correlation and the pitch correlation.
Adaptive predicting means for measuring, an audio signal predicted by the adaptive predicting means, and the input
Pseudo residual signal corresponding to the residual signal that is the difference from the audio signal
Means for generating an average amplitude, and an average amplitude calculating means for calculating an average amplitude of the pseudo residual signal.
Stage, means for quantizing the residual signal, and second silence processing means, wherein the second silence processing means is included in the average amplitude calculation unit.
Quantized bits of the residual signal according to the calculated average amplitude
Quantization bit number adaptation unit that determines the number, pitch information and
Quantizes auxiliary information such as linear prediction coefficients and average amplitude.
Auxiliary information quantizer and auxiliary information and pseudo residual
Assigned when information such as the average amplitude of the difference signal is quantized
It has a quantization bit number storage unit that stores the number of bits to be
The information from the first silence detecting means indicates a silence part.
In this case, the auxiliary information and the average amplitude of the pseudo residual signal
The information is not quantized and is stored in the quantization bit number storage unit.
Speech encoder Goka apparatus characterized by treating the number of bits that are to be used in voiced portion.
【請求項4】 請求項1,2または3記載の音声符号化4. Speech coding according to claim 1, 2 or 3.
装置からの符号化データを、符号系列分離手段で各帯域The encoded data from the device is separated into the
毎に分離した符号データに分離し、前記各帯域毎に分離Separated into code data separated for each band, separated for each band
された符号データを更に残差信号の符号データとピッチCode data of the residual signal and pitch
情報,線形予測係数及び平均振幅等の補助情報の符号デCode of auxiliary information such as information, linear prediction coefficient and average amplitude
ータに分離する情報系列分離手段を有する音声復号化装Decoding device having information sequence separating means for separating data
置において、前記分離された補助情報を逐一記憶する補An auxiliary memory for storing the separated auxiliary information one by one.
助情報記憶手段を有することを特徴とする音声復号化装Speech decoding apparatus characterized by having auxiliary information storage means
置。Place.
JP03821493A 1993-02-26 1993-02-26 Audio encoding device and audio decoding device Expired - Fee Related JP3330178B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP03821493A JP3330178B2 (en) 1993-02-26 1993-02-26 Audio encoding device and audio decoding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03821493A JP3330178B2 (en) 1993-02-26 1993-02-26 Audio encoding device and audio decoding device

Publications (2)

Publication Number Publication Date
JPH06250696A JPH06250696A (en) 1994-09-09
JP3330178B2 true JP3330178B2 (en) 2002-09-30

Family

ID=12519067

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03821493A Expired - Fee Related JP3330178B2 (en) 1993-02-26 1993-02-26 Audio encoding device and audio decoding device

Country Status (1)

Country Link
JP (1) JP3330178B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2830053A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multi-channel audio decoder, multi-channel audio encoder, methods and computer program using a residual-signal-based adjustment of a contribution of a decorrelated signal

Also Published As

Publication number Publication date
JPH06250696A (en) 1994-09-09

Similar Documents

Publication Publication Date Title
KR100647336B1 (en) Apparatus and method for adaptive time/frequency-based encoding/decoding
EP1222659B1 (en) Lpc-harmonic vocoder with superframe structure
CA2099655C (en) Speech encoding
KR100798668B1 (en) Method and apparatus for coding of unvoiced speech
JP4166673B2 (en) Interoperable vocoder
US4704730A (en) Multi-state speech encoder and decoder
US6678655B2 (en) Method and system for low bit rate speech coding with speech recognition features and pitch providing reconstruction of the spectral envelope
KR100544731B1 (en) Method and system for estimating artificial high band signal in speech codec
JP2007534020A (en) Signal coding
KR20010093210A (en) Variable rate speech coding
JP2004310088A (en) Half-rate vocoder
US6654718B1 (en) Speech encoding method and apparatus, input signal discriminating method, speech decoding method and apparatus and program furnishing medium
KR100804888B1 (en) A predictive speech coder using coding scheme selection patterns to reduce sensitivity to frame errors
US6910009B1 (en) Speech signal decoding method and apparatus, speech signal encoding/decoding method and apparatus, and program product therefor
EP1204968B1 (en) Method and apparatus for subsampling phase spectrum information
JP2006171751A (en) Speech coding apparatus and method therefor
JP4359949B2 (en) Signal encoding apparatus and method, and signal decoding apparatus and method
JP4281131B2 (en) Signal encoding apparatus and method, and signal decoding apparatus and method
JP3330178B2 (en) Audio encoding device and audio decoding device
JP2797348B2 (en) Audio encoding / decoding device
US5231669A (en) Low bit rate voice coding method and device
JPH06259096A (en) Audio encoding device
JPH0643898A (en) Voice coding device
Drygajilo Speech Coding Techniques and Standards
KR0175250B1 (en) Vocoder Tone Detection Circuit and Method

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees