JPH1063300A - Voice decoding and voice coding device - Google Patents

Voice decoding and voice coding device

Info

Publication number
JPH1063300A
JPH1063300A JP8220948A JP22094896A JPH1063300A JP H1063300 A JPH1063300 A JP H1063300A JP 8220948 A JP8220948 A JP 8220948A JP 22094896 A JP22094896 A JP 22094896A JP H1063300 A JPH1063300 A JP H1063300A
Authority
JP
Japan
Prior art keywords
vector
excitation
unit
diffusion
sound source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP8220948A
Other languages
Japanese (ja)
Other versions
JP3174733B2 (en
Inventor
Kazutoshi Yasunaga
和敏 安永
Toshiyuki Morii
利幸 森井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP22094896A priority Critical patent/JP3174733B2/en
Publication of JPH1063300A publication Critical patent/JPH1063300A/en
Application granted granted Critical
Publication of JP3174733B2 publication Critical patent/JP3174733B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To reduce the amount of calculation and the capacity of a ROM, and to obtain good synthesized sounds in a voice decoding device and a voice coding device used in efficient decoding and coding operations of voice information. SOLUTION: In the voice decoding device, the generation information on the sound source vector constituted of a small number of pulses is stored in a sound source information storage section 1. Moreover, any one of the sequence of numbers i.e., a random numeral column, the sequence of numbers obtained by a learning or the sequence of numbers obtained by knowledge, is stored in a spread vector storage section 2. Spread sound source vectors are then generated by convoluting the sound source information of the section 1 and the spread vectors of the section 2 by a convoluting section 3. The voice coding device is constituted to generate a new impulse response by convoluting the spread vectors and the impulse response from a digital filter in a convolution section.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、音声復号化装置及
び音声符号化装置における、音声情報の効率的な圧縮復
号化及び符号化に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to efficient compression decoding and encoding of audio information in an audio decoding device and an audio encoding device.

【0002】[0002]

【従来の技術】ディジタル携帯電話等の移動体通信の分
野においては、加入者の増加に対処するため、低ビット
レート(〜8kbps程度)の音声の圧縮符号化法が求
められている。日本国内では、VSELPおよびPSI
−CELPという音声符号化方式が、フルレートおよび
ハーフレートのディジタル携帯電話の音声符号化標準方
式として、それぞれ採用・実用化されている。国際的に
は、CS−ACELPという符号化方式が8kbpsの
国際標準音声符号化方式として採用され、ITU−T勧
告G.729となっている(1995年)。これらの音
声符号化はいずれも、CELP方式("CODE-EXCITED LI
NEAR PRIDICTION (CELP):HIGH QUALITY SPEECH AT VERY
LOW RATES", Manfred R. Schroeder,Bishnu S. Atal,
Proc., ICASSP'85, pp.937-940に記載されている)を改
良したものである。
2. Description of the Related Art In the field of mobile communications such as digital cellular phones, there is a demand for a low bit rate (up to about 8 kbps) voice compression coding method in order to cope with an increase in the number of subscribers. In Japan, VSELP and PSI
A voice coding method called -CELP has been adopted and put into practical use as a voice coding standard method for full-rate and half-rate digital mobile phones. Internationally, a coding system called CS-ACELP has been adopted as an international standard voice coding system of 8 kbps, and the ITU-T recommendation G.264. 729 (1995). All of these speech encodings are CELP ("CODE-EXCITED LI
NEAR PRIDICTION (CELP): HIGH QUALITY SPEECH AT VERY
LOW RATES ", Manfred R. Schroeder, Bishnu S. Atal,
Proc., ICASSP'85, pp.937-940).

【0003】ここで、CELP方式の基本的アルゴリズ
ムについて説明する。CELP方式は、音声情報を音源
情報と声道情報とに分離して符号化する方式で、音源情
報については符号帳に格納された複数のコードベクトル
のインデクスによって符号化し、声道情報についてはL
PC(線形予測係数)を符号化するということと、音源
情報符号化の際には声道情報を加味して入力音声と比較
を行う方法(A−b−S:Analysis by Sy
nthesis)を採用していることに特徴を有してい
る。なおCELPでは一般に、入力音声をある時間間隔
で区間(フレームと呼ばれる)ごとに分けてLPC分析
を行い、フレームをさらに細かく分けた区間(サブフレ
ームと呼ばれる)ごとに適応符号帳と確率的符号帳の音
源探索が行われる。
Here, the basic algorithm of the CELP system will be described. The CELP system is a system in which voice information is separated and coded into sound source information and vocal tract information. The sound source information is coded by a plurality of code vector indexes stored in a codebook, and the vocal tract information is coded by L.
A method of encoding a PC (Linear Prediction Coefficient) and comparing the input speech with vocal tract information when encoding the sound source information (Abs: Analysis by Sy)
It is characterized in that it employs (theory). In general, in CELP, an input speech is divided into intervals (called frames) at certain time intervals, and LPC analysis is performed, and an adaptive codebook and a probabilistic codebook are divided into subdivided frames (called subframes). Is performed.

【0004】図5は、従来のCELP型音声復号化装置
の機能ブロック図である。パラメータ復号化部152
は、従来のCELP型音声符号化装置(図6:後に説明
する)から送られた音声符号(LPC符号、確率的符号
帳のインデクス、確率的符号帳の符号化ゲイン、適応符
号帳のインデクス、適応符号帳の符号化ゲイン)を、伝
送部151を通して獲得する。次に、LPC符号を復号
化して復号化LPC係数を得、確率的符号帳の符号化ゲ
インを復号化して確率的符号帳の復号化ゲインを得、適
応符号帳の符号化ゲインを復号化して適応符号帳の復号
化ゲインを得る。更に、確率的符号帳のインデクス、確
率的符号帳の復号化ゲイン、適応符号帳のインデクス、
適応符号帳の復号化ゲインを駆動音源生成部155へ出
力し、復号化LPC係数をLPC合成部156へ出力す
る。
FIG. 5 is a functional block diagram of a conventional CELP speech decoder. Parameter decoding unit 152
Is a speech code (LPC code, probabilistic codebook index, probabilistic codebook coding gain, adaptive codebook index, transmitted from a conventional CELP speech coding apparatus (FIG. 6: described later). (The coding gain of the adaptive codebook) through the transmission unit 151. Next, the LPC code is decoded to obtain decoded LPC coefficients, the coding gain of the stochastic codebook is decoded to obtain the decoding gain of the stochastic codebook, and the coding gain of the adaptive codebook is decoded. Obtain the adaptive codebook decoding gain. Further, the index of the probabilistic codebook, the decoding gain of the probabilistic codebook, the index of the adaptive codebook,
The decoding gain of the adaptive codebook is output to driving excitation generating section 155, and the decoded LPC coefficient is output to LPC synthesizing section 156.

【0005】駆動音源生成部155は、まず、適応符号
帳のインデクスに基づいた適応コードベクトルを適応符
号帳153から読み出し、得られた適応コードベクトル
に適応符号帳の復号化ゲインを乗じて駆動音源適応符号
帳成分を得る。次に、確率的符号帳のインデクスに基づ
いた確率的コードベクトルを確率的符号帳154から読
み出し、得られた確率的コードベクトルに確率的符号帳
の復号化ゲインを乗じて駆動音源確率的符号帳成分を得
る。更に、駆動音源適応符号帳成分と駆動音源確率的符
号帳成分を加算して駆動音源を得、得られた駆動音源を
LPC合成部156と適応符号帳153へ出力する。こ
こで、適応符号帳153内の古いコードベクトルは、駆
動音源生成部155から入力された上記駆動音源で更新
される。
Driving excitation generating section 155 first reads an adaptive code vector based on the index of the adaptive code book from adaptive code book 153, and multiplies the obtained adaptive code vector by a decoding gain of the adaptive code book to obtain a driving excitation. Obtain an adaptive codebook component. Next, the probabilistic codebook based on the index of the probabilistic codebook is read out from the probabilistic codebook 154, and the obtained probabilistic codevector is multiplied by the decoding gain of the probabilistic codebook to generate a driving excitation probabilistic codebook. Get the ingredients. Further, a driving excitation is obtained by adding the driving excitation adaptive codebook component and the driving excitation stochastic codebook component, and the obtained driving excitation is output to LPC synthesis section 156 and adaptive codebook 153. Here, the old code vector in adaptive codebook 153 is updated with the above-mentioned driving excitation inputted from driving excitation generating section 155.

【0006】LPC合成部156は、駆動音源生成部1
55で得られた駆動音源に対し、パラメータ復号化部1
52より得た復号化LPC係数をもとにLPC合成を行
い、その出力をディジタルの出力音声157として出力
部位へ送る。
[0006] The LPC synthesizing section 156 includes a driving sound source generating section 1
55. The parameter decoding unit 1
LPC synthesis is performed based on the decoded LPC coefficients obtained from 52, and the output is sent to the output section as digital output sound 157.

【0007】図6は、従来のCELP型音声符号化装置
の機能ブロック図である。LPC分析部112は、ま
ず、ディジタルの入力音声111内のあるフレームに対
して自己相関分析と線形予測分析を行うことによってL
PC係数を算出し、そのLPC係数を量子化してLPC
符号を得てパラメータ符号化部123へ出力し、LPC
符号を復号化して復号化LPC係数を得、次に、ピッチ
強調や高域強調などの特性を持つ聴感重み付けフィルタ
のインパルス応答を求めて聴感重み付け部113へ出力
するとともに、聴感重み付けLPC合成フィルタのイン
パルス応答を求めて、聴感重み付けLPC逆順合成部A
114、聴感重み付けLPC合成部A116、聴感重み
付けLPC逆順合成部B119、聴感重み付けLPC合
成部B121へ出力する。
FIG. 6 is a functional block diagram of a conventional CELP type speech coding apparatus. The LPC analysis unit 112 first performs an autocorrelation analysis and a linear prediction analysis on a certain frame in the digital input speech 111 to perform L prediction.
Calculate the PC coefficient and quantize the LPC coefficient to obtain the LPC
Code and outputs it to the parameter coding unit 123,
The code is decoded to obtain decoded LPC coefficients. Next, the impulse response of an auditory weighting filter having characteristics such as pitch emphasis and high-frequency emphasis is obtained and output to the auditory weighting section 113, and the perceptual weighting LPC synthesis filter is obtained. The impulse response is obtained, and the perceptual weighting LPC reverse order synthesis unit A
114, an audibility weighted LPC synthesis unit A116, an audibility weighted LPC reverse order synthesis unit B119, and an audibility weighted LPC synthesis unit B121.

【0008】聴感重み付け部113は、入力された音声
データに対し、サブフレーム毎に聴感重み付けフィルタ
リングを行い、その出力結果から聴感重み付けLPC合
成フィルタのゼロ入力応答を差し引いて、適応符号帳の
音源探索時に参照するターゲット信号を求め、聴感重み
付けLPC逆順合成部A114および減算部118へ出
力する。
The perceptual weighting section 113 performs perceptual weighting filtering on the input speech data for each subframe, subtracts the zero input response of the perceptual weighting LPC synthesis filter from the output result, and searches for the sound source in the adaptive codebook. A target signal that is sometimes referred to is obtained and output to the perceptual weighting LPC reverse order synthesis unit A114 and the subtraction unit 118.

【0009】聴感重み付けLPC逆順合成部A114
は、聴感重み付け部113で得られたターゲット信号を
時間逆順化し、得られた逆順化信号をLPC分析部11
2より与えられたインパルス応答を係数に持つ聴感重み
付きLPC合成フィルタで合成し、その出力信号を再度
時間逆順化して、ターゲット信号の時間逆合成出力とし
て比較部A117へ出力する。
A perceptual weighting LPC reverse order synthesis unit A114
, Time-reverse-orders the target signal obtained by the auditory weighting section 113 and converts the obtained reverse-ordered signal to the LPC analysis section 11.
The impulse response given by 2 is synthesized by a perceptually weighted LPC synthesis filter having coefficients, and its output signal is again time-reversed and output to the comparison unit A117 as a time-reverse-combined output of the target signal.

【0010】適応符号帳115は、適応符号帳更新部1
24により受けた過去の駆動音源を格納しており、その
過去の駆動音源情報は、聴感重み付けLPC合成部A1
16、比較部A117、適応符号帳更新部124によ
り、適応コードベクトルとして参照される。
The adaptive codebook 115 includes an adaptive codebook updating unit 1
24, and stores the past drive sound source information as the audibility weighting LPC synthesis unit A1.
16, is referred to as an adaptive code vector by the comparison unit A117 and the adaptive codebook updating unit 124.

【0011】聴感重み付けLPC合成部A116は、適
応符号帳115から適応コードベクトルを読み出し、読
み出した適応コードベクトルに対し、LPC分析部11
2より得たインパルス応答を係数に持つ聴感重み付けL
PC合成フィルタで合成し、その結果を比較部A117
へ出力する。
The perceptual weighting LPC synthesizing unit A 116 reads out the adaptive code vector from the adaptive code book 115 and applies the LPC analysis unit 11 to the read out adaptive code vector.
Weight L with the impulse response obtained as a coefficient
The signal is synthesized by the PC synthesis filter, and the result is compared by the comparison unit A117.
Output to

【0012】比較部A117は、まず、適応符号帳11
5から直接読み出した適応コードベクトルと、聴感重み
付けLPC逆順合成部A114で求めたターゲット信号
の時間逆合成出力との内積の2乗値を求め、次に、聴感
重み付けLPC合成部A116から受けた、適応コード
ベクトルに聴感重み付けLPC合成を施した信号のパワ
を求め、そして、上記内積の2乗値をこのパワで割算す
ることによって適応符号帳探索の基準値を求め、その基
準値が最も大きくなるときに読み出した適応コードベク
トルのインデクスと、そのコードベクトルに乗じる最適
ゲインを算出して、減算部118およびパラメータ符号
化部123へ出力する。この一連の処理を適応符号帳の
探索という。
The comparing unit A117 firstly receives the adaptive codebook 11
5, the square value of the inner product of the adaptive code vector read directly from No. 5 and the time-reverse synthesized output of the target signal obtained by the perceptual weighting LPC reverse order synthesizing unit A114 is obtained. The power of a signal obtained by subjecting the adaptive code vector to perceptual weighting LPC synthesis is obtained, and the square value of the inner product is divided by this power to obtain a reference value for adaptive codebook search, and the reference value is the largest. The index of the adaptive code vector read at this time and the optimal gain by which the code vector is multiplied are calculated and output to the subtraction unit 118 and the parameter encoding unit 123. This series of processing is called adaptive codebook search.

【0013】減算部118は、聴感重み付け部113で
得たターゲット信号から、適応符号帳探索によって探索
されたコードベクトルを聴感重み付けLPC合成した出
力信号にゲインを乗じて得られた信号を減算し、その減
算結果を確率的符号帳の探索の際に参照するターゲット
信号として聴感重み付けLPC逆順合成部B119へ出
力する。
A subtraction unit 118 subtracts a signal obtained by multiplying an output signal obtained by subjecting the code vector searched for by the adaptive codebook search to a perceptual weighting LPC synthesis by a gain from the target signal obtained by the perceptual weighting unit 113, The result of the subtraction is output to the perceptual weighting LPC reverse order synthesis unit B119 as a target signal to be referred to when searching the stochastic codebook.

【0014】聴感重み付けLPC逆順合成部B119
は、減算部118において生成された確率的符号帳の音
源探索用のターゲット信号を時間逆順化し、それを聴感
重み付きLPC合成し、その出力信号を再度時間逆順化
して、確率的符号帳の音源探索用ターゲット信号の時間
逆合成出力を得て、比較部B122へ出力する。
Audience weighting LPC reverse order synthesis section B119
Subtracts the time-reversed order of the target signal for excitation search of the probabilistic codebook generated in the subtraction unit 118, performs LPC synthesis with perceptual weighting, and time-reverse-orders the output signal again to obtain the sound source of the probabilistic codebook. A time-reverse composite output of the search target signal is obtained and output to the comparison unit B122.

【0015】確率的符号帳120は、複数のコードベク
トルを格納しており、これらのコードベクトルは、聴感
重み付けLPC合成部B121、比較部B122、適応
符号帳更新部124により、確率的コードベクトルとし
て参照される。
The stochastic codebook 120 stores a plurality of code vectors, and these code vectors are converted by the perceptual weighting LPC synthesizing unit B121, the comparing unit B122, and the adaptive codebook updating unit 124 as stochastic code vectors. Referenced.

【0016】聴感重み付けLPC合成部B121は、確
率的符号帳120から読み出した確率的コードベクトル
に対し、LPC分析部112から得たインパルス応答を
係数に持つ聴感重み付けLPC合成フィルタで合成し、
その合成信号を比較部B122へ出力する。
An auditory weighting LPC synthesizing unit B121 synthesizes the stochastic code vector read from the stochastic codebook 120 with an auditory weighting LPC synthesizing filter having the impulse response obtained from the LPC analyzing unit 112 as a coefficient.
The combined signal is output to comparison section B122.

【0017】比較部B122は、(数1)に示すよう
に、まず、確率的符号帳120より直接読み出したi番
目の確率的コードベクトルV(i,n)と、聴感重み付けLP
C逆順合成部B119で求めたターゲット信号の時間逆
合成出力r(n)との内積の2乗値を求め、次に、聴感重み
付けLPC合成部B121より受けた合成信号S(i,n)の
パワを計算し、そして上記内積の2乗値をこのパワで割
算することによって確率的符号帳探索の基準値std(i)を
求め、その基準値が最も大きくなるときに読み出した確
率的コードベクトルの番号を表すインデクスと、その確
率的コードベクトルに乗じる最適ゲインを算出して、パ
ラメータ符号化部123へ出力する。この一連の処理を
確率的符号帳の探索という。
As shown in (Equation 1), the comparing unit B122 firstly outputs the i-th stochastic code vector V (i, n) directly read from the stochastic codebook 120 and the auditory weighting LP
The square value of the inner product of the target signal and the time-reverse-combined output r (n) determined by the C-reverse-order combining unit B119 is determined. The power is calculated, and the square value of the inner product is divided by the power to obtain a reference value std (i) of the probabilistic codebook search, and the probabilistic code read when the reference value is maximized. An index representing a vector number and an optimal gain to be multiplied by the probabilistic code vector are calculated and output to the parameter encoding unit 123. This series of processing is called a probabilistic codebook search.

【0018】[0018]

【数1】 (Equation 1)

【0019】パラメータ符号化部123は、まず、比較
部A117から得られた適応コードベクトルに乗じる最
適ゲインと、比較部B122で得られた確率的コードベ
クトルに乗じる最適ゲインの符号化を行って、適応符号
帳の符号化ゲインと確率的符号帳の符号化ゲインをそれ
ぞれ得、次に、得られた適応符号帳の符号化ゲインと確
率的符号帳の符号化ゲイン復号化して、適応符号帳の復
号化ゲインと確率的符号帳の復号化ゲインををそれぞれ
得、さらに、適応符号帳の符号化ゲイン、確率的符号帳
の符号化ゲイン、適応符号帳のインデクス、確率的符号
帳のインデクス、LPC符号を伝送部125へ出力し、
適応符号帳の復号化ゲイン、確率的符号帳の復号化ゲイ
ン、適応符号帳のインデクス、確率的符号帳のインデク
スを適応符号帳更新部124へ出力する。
The parameter encoding unit 123 first encodes an optimal gain by which the adaptive code vector obtained from the comparing unit A117 is multiplied and an optimal gain by which the probabilistic code vector obtained by the comparing unit B122 is multiplied. The coding gain of the adaptive codebook and the coding gain of the probabilistic codebook are obtained, and then the obtained coding gain of the adaptive codebook and the coding gain of the probabilistic codebook are decoded to obtain the adaptive codebook. The decoding gain and the decoding gain of the probabilistic codebook are obtained respectively, and the coding gain of the adaptive codebook, the coding gain of the probabilistic codebook, the index of the adaptive codebook, the index of the probabilistic codebook, the LPC Output the code to the transmission unit 125,
The decoding gain of the adaptive codebook, the decoding gain of the probabilistic codebook, the index of the adaptive codebook, and the index of the probabilistic codebook are output to the adaptive codebook updating unit 124.

【0020】適応符号帳更新部124は、パラメータ符
号化部123からの入力を受けて、まず、適応符号帳の
インデクスに基づいた適応コードベクトルを適応符号帳
115から読みだし、読み出した適応コードベクトルに
適応符号帳の復号化ゲインを乗じて駆動音源適応符号帳
成分を得、次に、確率的符号帳のインデクスに基づいた
確率的コードベクトルを確率的符号帳120から読みだ
し、読み出した確率的コードベクトルに確率的符号帳の
復号化ゲインを乗じて駆動音源確率的符号帳成分を得、
駆動音源適応符号帳成分と駆動音源確率的符号帳成分を
加算して駆動音源を得、得られた駆動音源を適応符号帳
115へ出力する。ここで、適応符号帳115内の古い
コードベクトルは、適応符号帳更新部124から入力さ
れた上記駆動音源で更新される。
Adaptive codebook updating section 124 receives an input from parameter encoding section 123, first reads an adaptive code vector based on the index of the adaptive codebook from adaptive codebook 115, and reads the read adaptive code vector. Is multiplied by the decoding gain of the adaptive codebook to obtain a driving excitation adaptive codebook component, and then reads a probabilistic code vector based on the index of the probabilistic codebook from the probabilistic codebook 120 and reads the read probabilistic codebook. Multiply the code vector by the decoding gain of the probabilistic codebook to obtain the driving excitation probabilistic codebook component,
The driving excitation adaptive codebook component and the driving excitation probabilistic codebook component are added to obtain a driving excitation, and the obtained driving excitation is output to adaptive codebook 115. Here, the old code vector in adaptive codebook 115 is updated by the above-mentioned driving excitation input from adaptive codebook updating section 124.

【0021】CELPで用いる上記確率的符号帳として
は、雑音符号帳や代数的符号帳("8KBIT/S ACELP CODIN
G OF SPEECH WITH 10 MS SPEECH-FRAME : A CANDIDATE
FORCCITT STANDARDIZATION":R.Salami, C.Laflamme, J
-P.Adoul,ICASSP'94,pp.II-97〜II-100, 1994に記載さ
れている)などがある。それぞれを簡単に説明する。
The stochastic codebook used in CELP includes a random codebook and an algebraic codebook (“8KBIT / S ACELP CODIN”).
G OF SPEECH WITH 10 MS SPEECH-FRAME: A CANDIDATE
FORCCITT STANDARDIZATION ": R. Salami, C. Laflamme, J
-P. Adoul, ICASSP'94, pp. II-97 to II-100, 1994). Each will be briefly described.

【0022】「雑音符号帳」は最も古典的な符号帳で、
乱数から作成したランダム数列を格納したものである。
コードブックの性質がランダムなので、質の高い合成音
を得ることができる。しかし、全コードベクトルをあら
かじめ格納しておけなければならないので、大きなRO
M容量が必要となる。また、符号帳探索は、全てのコー
ドベクトルに対して聴感重み付けLPC合成を行うこと
になるので、多くの計算量を必要としてしまう。
"Noise codebook" is the most classic codebook.
It stores a random number sequence created from random numbers.
Since the nature of the codebook is random, high quality synthesized speech can be obtained. However, since all code vectors must be stored in advance, a large RO
M capacity is required. In addition, in the codebook search, perceptually weighted LPC synthesis is performed for all code vectors, so that a large amount of calculation is required.

【0023】「代数的符号帳」の個々のコードベクトル
は、大きさが1(振幅は、+1か−1)の4本のパルス
で構成され、それぞれのパルスの位置はインデクスの演
算により決定されることを特徴としている。したがっ
て、符号帳用のROMを必要としない。しかし、少数の
パルスで構成されることから、合成音(特に無声部)の
音質が悪くなってしまう。そして代数的符号帳の最大の
特徴は、少量の計算量で符号帳探索ができるということ
である。代数的符号帳における上記最大の特徴は、V(i,
n)中には大きさ1のパルスが4本しか存在していないの
で、(数1)の分子を、r(n)中の4サンプルの値を加算
し(加算:3回)、その加算結果を2乗(乗算:1回)
することで計算できることと、前もって求めておいた聴
感重み付けLPC合成フィルタのインパルス応答の自己
相関行列をRAMに格納しておくと、(数1)の分母
を、たかだか15回の加算(4重ループの性質や自己相
関行列の対称性を利用すると、実際の計算量はさらに少
なくなる。)によって計算することができることによる
ものである。
Each code vector of the "algebraic codebook" is composed of four pulses having a magnitude of 1 (amplitude is +1 or -1), and the position of each pulse is determined by an index operation. It is characterized by that. Therefore, a codebook ROM is not required. However, since the sound is composed of a small number of pulses, the sound quality of the synthesized sound (particularly, the unvoiced part) is deteriorated. The greatest feature of the algebraic codebook is that the codebook search can be performed with a small amount of calculation. The biggest feature of the algebraic codebook is that V (i,
Since only four pulses of magnitude 1 exist in n), the value of four samples in r (n) is added to the numerator of (expression 1) (addition: 3 times), and the addition is performed. Square the result (multiplication: 1)
By storing the autocorrelation matrix of the impulse response of the perceptual weighting LPC synthesis filter obtained in advance in the RAM, the denominator of (Equation 1) is added at most 15 times (quadruple loop). The actual calculation amount is further reduced by using the property of (1) and the symmetry of the autocorrelation matrix.).

【0024】[0024]

【発明が解決しようとする課題】雑音符号帳を用いる
と、ランダムな性質を持つ音源で聴感重み付けLPC合
成フィルタを駆動できるので合成音の音質は高くなる
が、(数1)の分子および分母の計算量が多くなるので
符号帳探索の計算量が多くなってしまい、また、全コー
ドベクトルをあらかじめ格納しておくためにROM容量
が大きくなってしまう。
When the noise codebook is used, the sound quality of the synthesized sound can be improved because the perceptually weighted LPC synthesis filter can be driven by a sound source having random characteristics, but the sound quality of the synthesized sound is improved. Since the calculation amount increases, the calculation amount of the codebook search increases, and the ROM capacity increases because all the code vectors are stored in advance.

【0025】一方、代数的符号帳を用いると、(数1)
の分子および分母の計算量が少なくなるので符号帳探索
の計算量が少なくなり、コードベクトルをそのまま格納
する必要がないのでROM容量が小さくなるが、少数本
のパルスによって聴感重み付けLPC合成フィルタを駆
動することになるため合成音(特に無声部)の音質が悪
くなってしまう。
On the other hand, when an algebraic codebook is used, (Equation 1)
The amount of calculation of the numerator and denominator is reduced, so the amount of calculation in codebook search is reduced, and the ROM capacity is reduced because the code vector does not need to be stored as it is. Therefore, the sound quality of the synthesized sound (especially the unvoiced part) is deteriorated.

【0026】本発明は、符号帳探索のための計算量が少
なく、ROM容量が小さく、良好な合成音を提供するこ
とが可能であるという有利な作用を併せ持つ音声復号化
装置及び音声符号化装置を構成することを目的とする。
The present invention provides a speech decoding apparatus and a speech encoding apparatus which have the advantageous effects that the amount of calculation for codebook search is small, the ROM capacity is small, and good synthesized speech can be provided. It is intended to constitute.

【0027】[0027]

【課題を解決するための手段】この課題を解決するため
に本発明の音声復号化装置は、音源情報を格納する音源
情報格納部と、ランダム数列、学習により求められた数
列、知見により求められた数列のいずれか一つの数列を
格納する拡散ベクトル格納部と、前記音源情報を基に作
成した音源ベクトルと前記拡散ベクトル格納部に格納さ
れた数列とを畳み込み、拡散音源ベクトルを出力する畳
み込み部とを備え、少ないパルス本数により構成される
音源ベクトルの生成情報を音源情報格納部に格納し、前
記いずれか一つの数列を拡散ベクトル格納部に格納する
とともに、拡散音源ベクトルが、音源情報格納部内の音
源情報と拡散ベクトル格納部内の拡散ベクトルとを畳み
込むことにより作成されるように構成したものである。
In order to solve this problem, a speech decoding apparatus according to the present invention comprises a sound source information storage unit for storing sound source information, a random sequence, a sequence obtained by learning, and knowledge. A diffusion vector storage unit for storing any one of the number sequences, and a convolution unit for convolving the excitation vector created based on the sound source information with the sequence stored in the diffusion vector storage unit and outputting a diffusion excitation vector. The generation information of the excitation vector composed of a small number of pulses is stored in the excitation information storage unit, and any one of the sequences is stored in the diffusion vector storage unit, and the diffusion excitation vector is stored in the excitation information storage unit. Is generated by convoluting the sound source information of the above with the diffusion vector in the diffusion vector storage unit.

【0028】これにより、合成音(特に無声部)の音質
に優れ、雑音符号帳を備える必要のない、ROM容量の
小さな音声復号化装置が得られる。
As a result, it is possible to obtain a speech decoding apparatus which is excellent in sound quality of synthesized speech (particularly, unvoiced portions) and does not need to have a noise codebook and has a small ROM capacity.

【0029】また、本発明の音声符号化装置は、ランダ
ム数列、学習により求められた数列、知見により求めら
れた数列のいずれか一つを格納する拡散ベクトル格納部
と、ディジタルフィルタと、前記拡散ベクトル格納部に
格納された数列を前記ディジタルフィルタのインパルス
応答もしくは係数に畳み込み、前記ディジタルフィルタ
の新インパルス応答もしくは新係数を出力する機能を有
する畳み込み部とを備え、新たなフィルタ特性を決定づ
ける新インパルス応答もしくは新係数が、ディジタルフ
ィルタ内のインパルス応答もしくは係数と拡散ベクトル
格納部内の拡散ベクトルとを畳み込むことにより作成さ
れるように構成したものである。
Further, the speech coding apparatus of the present invention comprises: a spread vector storage unit for storing any one of a random sequence, a sequence obtained by learning, and a sequence obtained by knowledge; a digital filter; A convolution unit having a function of convolving the sequence stored in the vector storage unit with the impulse response or coefficient of the digital filter and outputting a new impulse response or a new coefficient of the digital filter, and determining a new impulse response. The response or the new coefficient is formed by convolving the impulse response or coefficient in the digital filter with the diffusion vector in the diffusion vector storage.

【0030】これにより、少ないパルス本数により構成
される音源ベクトルの探索と同じように、少ない計算量
で符号帳探索が可能な音声符号化装置が得られる。
Thus, it is possible to obtain a speech coding apparatus capable of searching for a codebook with a small amount of calculation, similarly to the search for an excitation vector composed of a small number of pulses.

【0031】[0031]

【発明の実施の形態】本発明の請求項1に記載の発明
は、音源情報を格納する音源情報格納部と、ランダム数
列、学習により求められた数列、知見により求められた
数列のいずれか一つの数列を格納する拡散ベクトル格納
部と、前記音源情報を基に作成した音源ベクトルと前記
拡散ベクトル格納部に格納された数列とを畳み込み、拡
散音源ベクトルを出力する畳み込み部とを備えたことを
特徴とする音声復号化装置で、音声情報の伝送に関する
課題解決に関わるものであり、雑音符号帳や代数的符号
帳等の確率的符号帳を備える必要がなく、ROM容量が
小さくなり、音源情報のパルス本数が少なく、計算量が
少なくなるという作用を有する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The invention according to claim 1 of the present invention provides a sound source information storage unit for storing sound source information, a random number sequence, a sequence obtained by learning, and a sequence obtained by knowledge. A diffusion vector storage unit for storing two sequences, and a convolution unit for convolving the sequence generated in the diffusion vector storage unit with the source vector created based on the sound source information and outputting a diffusion source vector. This is a speech decoding device that is characterized by solving problems related to the transmission of speech information. There is no need to provide a probabilistic codebook such as a random codebook or an algebraic codebook, and the ROM capacity is reduced. Has the effect of reducing the number of pulses and the amount of calculation.

【0032】本発明の請求項2に記載の発明は、過去の
駆動音源を格納する適応符号帳と、前記適応符号帳から
適応コードベクトルを読み出し、前記適応コードベクト
ルに前記適応符号帳の復号化ゲインを乗じて駆動音源適
応符号帳成分を生成する機能、畳み込み部から拡散音源
ベクトルを読み出し、前記拡散音源ベクトルに前記拡散
音源ベクトルの復号化ゲインを乗じて駆動音源拡散音源
ベクトル成分を生成する機能、前記駆動音源適応符号帳
成分と前記駆動音源拡散音源ベクトル成分を加算して駆
動音源を生成し、前記適応符号帳に出力する機能を持つ
駆動音源生成部と、前記駆動音源をLPC合成する機能
を持つLPC合成部とを備えたことを特徴とする請求項
1記載の音声復号化装置であり、音声情報のうち声道情
報のLPCを符号化でき、良好な合成音が生成され、雑
音符号帳や代数的符号帳等の確率的符号帳を備える必要
がなく、ROM容量が小さくなり、更に音源情報のパル
ス本数が少なく、計算量が少なくなるという作用を有す
る。
According to a second aspect of the present invention, there is provided an adaptive codebook for storing a past excitation, reading an adaptive code vector from the adaptive codebook, and decoding the adaptive codebook into the adaptive codebook. A function of generating a driving excitation adaptive codebook component by multiplying a gain, a function of reading a diffusion excitation vector from a convolution unit, and a function of generating a driving excitation diffusion excitation vector component by multiplying the diffusion excitation vector by a decoding gain of the diffusion excitation vector A driving excitation generating unit having a function of generating a driving excitation by adding the driving excitation adaptive codebook component and the driving excitation diffusion excitation vector component and outputting the generated driving excitation to the adaptive codebook, and a function of performing LPC synthesis on the driving excitation 2. The speech decoding apparatus according to claim 1, further comprising: an LPC synthesizing unit having the following. It can generate good synthesized speech, does not need to have a probabilistic codebook such as a noise codebook or an algebraic codebook, reduces ROM capacity, further reduces the number of pulses of sound source information, and reduces the amount of calculation. It has the action of:

【0033】本発明の請求項3に記載の発明は、音源情
報格納部に、代数的符号帳と同じコードベクトルを生成
するための情報を格納することを特徴とする請求項1ま
たは2記載の音声復号化装置であり、音源情報のパルス
本数が少なく、計算量が少なくなるという作用を有す
る。
According to a third aspect of the present invention, in the excitation information storage section, information for generating the same code vector as in the algebraic codebook is stored. This is a speech decoding device, and has an effect that the number of pulses of sound source information is small and the amount of calculation is small.

【0034】本発明の請求項4に記載の発明は、ランダ
ム数列、学習により求められた数列、知見により求めら
れた数列のいずれか一つを格納する拡散ベクトル格納部
と、ディジタルフィルタと、前記拡散ベクトル格納部に
格納された数列を前記ディジタルフィルタのインパルス
応答もしくは係数に畳み込み、前記ディジタルフィルタ
の新インパルス応答もしくは新係数を出力する機能を有
する畳み込み部とを備えたことを特徴とする音声符号化
装置で、音声情報の伝送に関する課題解決に関わるもの
であり、新たなフィルタ特性を決定づける新インパルス
応答もしくは新係数が、ディジタルフィルタ内のインパ
ルス応答もしくは係数と拡散ベクトル格納部内の拡散ベ
クトルとを畳み込むことにより作成され、復号化装置に
おける復号化との対応が適切となるような符号化を行う
ために必要なディジタルフィルタが形成されるという作
用を有する。
According to a fourth aspect of the present invention, there is provided a diffusion vector storage unit for storing any one of a random sequence, a sequence obtained by learning, and a sequence obtained by knowledge, a digital filter, And a convolution unit having a function of convolving the sequence stored in the diffusion vector storage unit with the impulse response or coefficient of the digital filter and outputting a new impulse response or new coefficient of the digital filter. A new impulse response or a new coefficient that determines a new filter characteristic convolves the impulse response or coefficient in the digital filter with the diffusion vector in the diffusion vector storage unit. Created by the Response has the effect that the digital filters required in order to perform such encoding an appropriate are formed.

【0035】本発明の請求項5に記載の発明は、音源情
報を格納する音源情報格納部を有し、畳み込み部が、前
記音源情報を基に作成した音源ベクトルと拡散ベクトル
格納部に格納された数列とを畳み込み、拡散音源ベクト
ルを出力する機能を併せ持つことを特徴とする請求項4
記載の音声符号化装置であり、新たなフィルタ特性を決
定づける新インパルス応答もしくは新係数が、ディジタ
ルフィルタ内のインパルス応答もしくは係数と拡散ベク
トル格納部内の拡散ベクトルとを畳み込むことにより作
成され、復号化装置における復号化との対応が最適とな
るような符号化を行うために必要なディジタルフィルタ
が形成されるとともに、雑音符号帳や代数的符号帳等の
確率的符号帳を備える必要がなく、ROM容量が小さく
なり、更に音源情報のパルス本数が少なく、計算量が少
なくなるという作用を有する。
According to a fifth aspect of the present invention, there is provided a sound source information storage unit for storing sound source information, wherein the convolution unit is stored in a sound source vector and diffusion vector storage unit created based on the sound source information. 5. A function for convoluting a sequence of numbers and outputting a diffused sound source vector.
A new impulse response or a new coefficient that determines a new filter characteristic is created by convolving the impulse response or coefficient in the digital filter with the spreading vector in the spreading vector storage unit, In addition to forming a digital filter necessary for performing encoding that optimizes the correspondence with decoding in, there is no need to provide a probabilistic codebook such as a noise codebook or an algebraic codebook, and the ROM capacity is reduced. And the number of pulses of the sound source information is reduced, and the amount of calculation is reduced.

【0036】本発明の請求項6に記載の発明は、音源情
報格納部に、代数的符号帳と同じコードベクトルを生成
するための情報を格納することを特徴とする請求項5記
載の音声復号化装置であり、音源情報のパルス本数が少
なく、計算量が少なくなるという作用を有する。
According to a sixth aspect of the present invention, in the speech decoding apparatus according to the fifth aspect, information for generating the same code vector as that of the algebraic codebook is stored in the excitation information storage unit. Which has an effect that the number of pulses of the sound source information is small and the amount of calculation is small.

【0037】以下、本発明の実施の形態について、図1
から図4を用いて説明する。 (実施の形態1)本発明の実施の形態を、図1と図2を
用いて説明する。
Hereinafter, an embodiment of the present invention will be described with reference to FIG.
This will be described with reference to FIG. (Embodiment 1) An embodiment of the present invention will be described with reference to FIGS.

【0038】図1は本発明による音声復号化装置の主要
部のブロック図を示す。図1において、1は音源情報格
納部、2は拡散ベクトル格納部、3は畳み込み部であ
る。音源情報格納部1は、例えば代数的符号帳と同じコ
ードベクトルの生成情報等の音源情報を格納し、その音
源情報を音源ベクトルとして出力する。拡散ベクトル格
納部2は、例えばランダム数列等の拡散情報を格納し、
その拡散情報を拡散ベクトルとして出力する。畳み込み
部3は音源ベクトルと拡散ベクトルを入力して畳み込み
を行い、拡散音源ベクトルとして出力する。
FIG. 1 is a block diagram showing a main part of a speech decoding apparatus according to the present invention. In FIG. 1, 1 is a sound source information storage unit, 2 is a diffusion vector storage unit, and 3 is a convolution unit. The excitation information storage unit 1 stores, for example, excitation information such as generation information of the same code vector as an algebraic codebook, and outputs the excitation information as an excitation vector. The diffusion vector storage unit 2 stores diffusion information such as a random number sequence,
The spread information is output as a spread vector. The convolution unit 3 performs convolution by inputting the sound source vector and the diffusion vector, and outputs the result as a diffusion sound source vector.

【0039】図2は、図1の音声復号化装置の主要部を
従来の確率的符号帳部に代えて用いたCELP型の音声
復号化装置を示す。音源情報格納部1は代数的符号帳と
同じコードベクトルの生成情報を格納し、拡散ベクトル
格納部2はランダム数列を拡散ベクトルとして格納して
いる。パラメータ復号化部4は、まず、符号化装置が生
成した音声符号(LPC符号、拡散音源インデクス、拡
散音源ベクトルの符号化ゲイン、適応符号帳のインデク
ス、適応符号帳の符号化ゲイン)を伝送部5を通して獲
得し、LPC符号を復号化して復号化LPC係数を得
る。次に拡散音源ベクトルの符号化ゲインを復号化して
拡散音源ベクトルの復号化ゲインを得、適応符号帳の符
号化ゲインを復号化して適応符号帳の復号化ゲインを得
る。更に、拡散音源インデクスを畳み込み部3へ出力
し、適応符号帳のインデクス及び復号化ゲイン、拡散音
源ベクトルの復号化ゲインを駆動音源生成部7へ出力
し、復号化LPC係数をLPC合成部8へ出力する。
FIG. 2 shows a CELP-type speech decoding apparatus in which a main part of the speech decoding apparatus of FIG. 1 is used in place of a conventional stochastic codebook section. The excitation information storage unit 1 stores the same code vector generation information as the algebraic codebook, and the spreading vector storage unit 2 stores a random number sequence as a spreading vector. The parameter decoding unit 4 first transmits the speech code (LPC code, spread excitation index, coding gain of the spread excitation vector, index of the adaptive codebook, coding gain of the adaptive codebook) generated by the coding apparatus. 5 to decode the LPC code to obtain decoded LPC coefficients. Next, the decoding gain of the spreading excitation vector is decoded to obtain the decoding gain of the spreading excitation vector, and the coding gain of the adaptive codebook is decoded to obtain the decoding gain of the adaptive codebook. Further, the spread excitation index is output to the convolution unit 3, the adaptive codebook index and the decoding gain, and the diffusion gain of the spread excitation vector are output to the driving excitation generation unit 7, and the decoded LPC coefficients are output to the LPC synthesis unit 8. Output.

【0040】畳み込み部3は、まず、拡散音源インデク
スに基づいた音源ベクトルを音源情報格納部1から読み
出し、次に、拡散ベクトル格納部2に格納されている拡
散ベクトルを読み出し、更に、読み出した音源ベクトル
と拡散ベクトルとの畳み込みを行って拡散音源ベクトル
を生成し駆動音源生成部7へ出力する。駆動音源生成部
7は、まず、適応符号帳のインデクスに基づいた適応コ
ードベクトルを適応符号帳6から読み出し、得られた適
応コードベクトルに適応符号帳の復号化ゲインを乗じて
駆動音源適応符号帳成分を得、畳み込み部3より得られ
た拡散音源ベクトルに拡散音源ベクトルの復号化ゲイン
を乗じて駆動音源拡散音源ベクトル成分を得る。次に、
得られた駆動音源適応符号帳成分と駆動音源拡散音源ベ
クトル成分を加算して駆動音源を得、得られた駆動音源
をLPC合成部8と適応符号帳6へ出力する。ここで、
適応符号帳6内の古いコードベクトルは、駆動音源生成
部7から入力された上記駆動音源で更新される。LPC
合成部8は、駆動音源生成部7から入力される駆動音源
に対し、パラメータ復号化部4から得た復号化LPC係
数を持つLPC合成フィルタで合成し、出力音声9を得
る。
The convolution unit 3 first reads out the sound source vector based on the diffused sound source index from the sound source information storage unit 1, then reads out the diffusion vector stored in the spread vector storage unit 2, and further reads out the read out sound source vector. The convolution of the vector and the diffusion vector is performed to generate a diffusion sound source vector, which is output to the driving sound source generation unit 7. Driving excitation generating section 7 first reads an adaptive code vector based on the index of the adaptive code book from adaptive code book 6, multiplies the obtained adaptive code vector by the decoding gain of the adaptive code book, and generates a driving excitation adaptive code book. The obtained components are multiplied by the diffusion excitation vector obtained by the convolution unit 3 by the decoding gain of the diffusion excitation vector to obtain a driving excitation diffusion excitation vector component. next,
The obtained driving excitation adaptive codebook component and the driving excitation diffusion excitation vector component are added to obtain a driving excitation, and the obtained driving excitation is output to LPC synthesis section 8 and adaptive codebook 6. here,
The old code vector in the adaptive codebook 6 is updated with the driving excitation input from the driving excitation generation unit 7. LPC
The synthesizing unit 8 synthesizes the driving sound source input from the driving sound source generating unit 7 with an LPC synthesis filter having the decoded LPC coefficient obtained from the parameter decoding unit 4 to obtain an output sound 9.

【0041】なお、本実施の形態において拡散ベクトル
格納部2は、ランダム数列を拡散ベクトルとして格納し
ているので、上記駆動音源拡散音源ベクトル成分がラン
ダムな性質をもつことになり、出力音声(特に無声部)
の音質を向上することができる。また、拡散音源ベクト
ルは音源情報格納部1の音源情報と拡散ベクトル格納部
2の拡散ベクトルにより作成できるので、ROM容量は
小さくなっている。
In this embodiment, since the spreading vector storage unit 2 stores a random sequence as a spreading vector, the driving sound source spreading sound source vector component has a random property, and the output sound (in particular, Silent part)
Sound quality can be improved. Further, since the diffused sound source vector can be created from the sound source information in the sound source information storage unit 1 and the diffusion vector in the spread vector storage unit 2, the ROM capacity is small.

【0042】なお、本実施の形態では、音源情報格納部
1に代数的符号帳と同じコードベクトルの生成情報を格
納した例で説明したが、その他の符号帳の生成情報もし
くはその他の符号帳自身を格納した場合についても同様
に実施可能である。また、本実施の形態では、拡散ベク
トル格納部2にランダム数列を格納した例で説明した
が、その他の学習により求められた数列、もしくは知見
により求められた数列を用いる場合についても同様に実
施可能である。
Although the present embodiment has been described with reference to an example in which the excitation information storage unit 1 stores the same code vector generation information as the algebraic codebook, the other codebook generation information or the other codebook itself is stored. Can also be implemented in the same manner. Further, in the present embodiment, an example has been described in which a random number sequence is stored in the diffusion vector storage unit 2. However, a case where a sequence obtained by other learning or a sequence obtained by knowledge is used can be similarly performed. It is.

【0043】なお、本実施の形態における音声復号化装
置はCELP型としたが、VOCODER型等、その他
の音声復号化装置においても適用が可能である。
Although the speech decoding apparatus of this embodiment is of the CELP type, it can be applied to other speech decoding apparatuses such as the VOCODER type.

【0044】(実施の形態2)本発明の実施の形態を、
図3と図4を用いて説明する。
(Embodiment 2) The embodiment of the present invention
This will be described with reference to FIGS.

【0045】図3は本発明による音声符号化装置の主要
部のブロック図を示す。図3において、11は拡散ベク
トル格納部、12はディジタルフィルタ、13は畳み込
み部、14は音源情報格納部である。拡散ベクトル格納
部11は、例えばランダム数列等の拡散情報を格納し、
その拡散情報を拡散ベクトルとして出力する。ディジタ
ルフィルタ12は、入力信号をフィルタリングして出力
するとともに、フィルタ自身の特性を決めるフィルタ情
報を出力するもので、図3においてはフィルタ情報とし
てインパルス応答もしくは係数の出力を示す。音源情報
格納部14は、例えば代数的符号帳と同じコードベクト
ルの生成情報等の音源情報を格納し、その音源情報を音
源ベクトルとして出力する。畳み込み部13は、図3
(a)では、拡散ベクトルとインパルス応答もしくは係
数を入力して畳み込みを行い、新インパルス応答もしく
は新係数を出力し、図3(b)では、図3(a)の機能
に加えて、音源ベクトルと拡散ベクトルを入力して畳み
込みを行い、拡散音源ベクトルとして出力する。
FIG. 3 is a block diagram showing a main part of a speech coding apparatus according to the present invention. 3, reference numeral 11 denotes a diffusion vector storage unit, 12 denotes a digital filter, 13 denotes a convolution unit, and 14 denotes a sound source information storage unit. The diffusion vector storage unit 11 stores diffusion information such as a random number sequence,
The spread information is output as a spread vector. The digital filter 12 filters and outputs the input signal, and outputs filter information for determining the characteristics of the filter itself. In FIG. 3, the output of the impulse response or the coefficient is shown as the filter information. The excitation information storage unit 14 stores, for example, excitation information such as generation information of the same code vector as the algebraic codebook, and outputs the excitation information as an excitation vector. The folding unit 13 is shown in FIG.
3A, convolution is performed by inputting a diffusion vector and an impulse response or a coefficient, and a new impulse response or a new coefficient is output. In FIG. 3B, in addition to the function of FIG. And a diffusion vector, and perform convolution and output as a diffusion sound source vector.

【0046】図4は、図3の音声符号化装置の主要部を
従来の確率的符号帳部に代えて用いたCELP型の音声
符号化装置を示す。音源情報格納部14は代数的符号帳
と同じコードベクトルの生成情報を格納し、拡散ベクト
ル格納部11はランダム数列を拡散ベクトルとして格納
している。15は入力音声で、ディジタルの入力音声デ
ータである。 LPC分析部16は、入力音声15にお
けるあるフレームに対して自己相関分析と線形予測分析
を行うことによってLPC係数を算出し、そのLPC係
数を量子化してLPC符号を得てパラメータ符号化部1
7へ出力し、LPC符号を復号化して復号化LPC係数
を得る。次に、ピッチ強調や高域強調などの特性を持つ
聴感重み付けフィルタのインパルス応答を求めて聴感重
み付け部18へ出力するとともに、聴感重み付けLPC
合成フィルタのインパルス応答を求めて、聴感重み付け
LPC逆順合成部A19および聴感重み付けLPC合成
部A20へ出力する。聴感重み付けLPC逆順合成部A
19と聴感重み付けLPC合成部A20はいずれもディ
ジタルフィルタを含む。
FIG. 4 shows a CELP-type speech coding apparatus in which the main part of the speech coding apparatus of FIG. 3 is replaced with a conventional stochastic codebook section. The excitation information storage unit 14 stores the same code vector generation information as the algebraic codebook, and the spreading vector storage unit 11 stores a random number sequence as a spreading vector. Reference numeral 15 denotes input voice, which is digital input voice data. The LPC analysis unit 16 calculates an LPC coefficient by performing autocorrelation analysis and linear prediction analysis on a certain frame in the input speech 15, quantizes the LPC coefficient to obtain an LPC code, and obtains an LPC code.
7 to decode the LPC code to obtain a decoded LPC coefficient. Next, an impulse response of an audibility weighting filter having characteristics such as pitch emphasis and high frequency emphasis is obtained and output to the audibility weighting section 18, and the audibility weighting LPC
The impulse response of the synthesis filter is obtained and output to the perceptual weighting LPC reverse order synthesizing unit A19 and the perceptual weighting LPC synthesizing unit A20. Hearing weight LPC reverse order synthesis unit A
19 and the perceptual weighting LPC synthesis unit A20 each include a digital filter.

【0047】聴感重み付け部18は、入力音声データに
対し、サブフレーム毎に聴感重み付けフィルタリングを
行い、その出力結果から聴感重み付けLPC合成フィル
タのゼロ入力応答を差し引いて適応符号帳の音源探索時
に参照するターゲット信号を求め、聴感重み付けLPC
逆順合成部A19および減算部18へ出力する。聴感重
み付けLPC逆順合成部A19は、聴感重み付け部18
から入力されるターゲット信号を時間逆順化し、その逆
順化信号をLPC分析部16より与えられたインパルス
応答を係数に持つ聴感重み付きLPC合成フィルタで合
成し、その出力信号を再度時間逆順化してターゲット信
号の時間逆合成出力を得て比較部A21へ出力する。
The perceptual weighting section 18 performs perceptual weighting filtering on the input speech data for each subframe, subtracts the zero input response of the perceptual weighting LPC synthesis filter from the output result, and refers to the result when searching for a sound source in the adaptive codebook. Obtain target signal and weight LPC
The data is output to the reverse synthesis unit A19 and the subtraction unit 18. The perceptual weighting LPC reverse order synthesizing unit A19 includes the perceptual weighting unit 18
, And synthesizes the inverted signal with a perceptually weighted LPC synthesis filter having the impulse response given by the LPC analysis unit 16 as a coefficient. A time inverse composite output of the signal is obtained and output to the comparison unit A21.

【0048】適応符号帳22は、適応符号帳更新部23
により受けた過去の駆動音源を格納しており、その過去
の駆動音源情報は、聴感重み付けLPC合成部A20、
比較部A21、適応符号帳更新部23により、適応コー
ドベクトルとして参照される。聴感重み付けLPC合成
部A20は、まず、適応符号帳22から適応コードベク
トルを読み出し、読み出した適応コードベクトルに対
し、LPC分析部16より得たインパルス応答を係数に
持つ聴感重み付けLPC合成フィルタで合成し、その結
果を比較部A21へ出力する。次に、聴感重み付けLP
C合成フィルタのインパルス応答を畳み込み部13へ出
力する。
The adaptive codebook 22 includes an adaptive codebook updating unit 23
, And the past driving sound source information is stored as the perceptual weighting LPC synthesis unit A20,
The comparing unit A21 and the adaptive codebook updating unit 23 refer to the adaptive codebook as an adaptive code vector. The perceptual weighting LPC synthesis unit A20 first reads out the adaptive code vector from the adaptive codebook 22, and synthesizes the read out adaptive code vector with a perceptual weighting LPC synthesis filter having the impulse response obtained from the LPC analysis unit 16 as a coefficient. , And outputs the result to the comparison unit A21. Next, the hearing weighting LP
The impulse response of the C synthesis filter is output to the convolution unit 13.

【0049】比較部A21は、まず、適応符号帳22か
ら直接読み出した適応コードベクトルと、聴感重み付け
LPC逆順合成部A19で求めたターゲット信号の時間
逆合成出力との内積の2乗値を求める。次に、聴感重み
付けLPC合成部A20から受けた適応コードベクトル
に聴感重み付けLPC合成を施した信号のパワを求め、
上記内積の2乗値をこのパワで割算することによって適
応コードベクトル探索の基準値を求める。その基準値が
最も大きくなるときに読み出した適応コードベクトルの
インデクスと、その適応コードベクトルに乗じる最適ゲ
インを算出し、減算部24およびパラメータ符号化部1
7へ出力する。
First, the comparison unit A21 calculates the square value of the inner product of the adaptive code vector directly read from the adaptive codebook 22 and the time-reverse composite output of the target signal obtained by the perceptual weighting LPC reverse-order composite unit A19. Next, the power of a signal obtained by subjecting the adaptive code vector received from the perceptual weighting LPC synthesis unit A20 to perceptual weighting LPC synthesis is obtained,
By dividing the square value of the inner product by this power, a reference value for adaptive code vector search is obtained. The index of the adaptive code vector read when the reference value becomes the maximum and the optimal gain by which the adaptive code vector is multiplied are calculated, and the subtraction unit 24 and the parameter encoding unit 1
7 is output.

【0050】減算部24は、聴感重み付け部18で得ら
れたターゲット信号から、適応符号帳探索において探索
された適応コードベクトルを聴感重み付けLPC合成
し、合成信号に比較部A21で求めた適応符号帳の最適
ゲインを乗じて得られた信号を減算する。その減算結果
を、拡散音源ベクトルの探索の際に参照するターゲット
信号として聴感重み付けLPC逆順合成部B25へ出力
する。
The subtraction unit 24 performs perceptual weighting LPC synthesis of the adaptive code vector searched for in the adaptive codebook search from the target signal obtained by the perceptual weighting unit 18, and applies the adaptive codebook obtained by the comparison unit A21 to the synthesized signal. Is subtracted from the signal obtained by multiplying by the optimum gain of. The result of the subtraction is output to the perceptual weighting LPC reverse order synthesis unit B25 as a target signal to be referred to when searching for a diffusion sound source vector.

【0051】拡散ベクトル格納部11は、ランダム数列
を格納している。畳み込み部13は、聴感重み付けLP
C合成部A20から受けた聴感重み付けLPC合成フィ
ルタのインパルス応答と拡散ベクトル格納部11から読
み出した拡散ベクトルとの畳み込み演算を行い、その演
算結果を新インパルス応答として、聴感重み付けLPC
逆順合成部B25と聴感重み付けLPC合成部B26へ
出力する。聴感重み付けLPC逆順合成部B25と聴感
重み付けLPC合成部B26はいずれもディジタルフィ
ルタを含む。
The diffusion vector storage unit 11 stores a random number sequence. The convolution unit 13 has a hearing weight LP
The convolution operation of the impulse response of the perceptual weighting LPC synthesis filter received from the C synthesizing unit A20 and the diffusion vector read from the diffusion vector storage unit 11 is performed, and the calculation result is used as a new impulse response, and the perceptual weighting LPC
Output to the reverse order synthesis unit B25 and the perceptual weighting LPC synthesis unit B26. Both the perceptual weighting LPC reverse order synthesizing unit B25 and the perceptual weighting LPC synthesizing unit B26 include digital filters.

【0052】聴感重み付けLPC逆順合成部B25は、
減算部24で生成された拡散音源ベクトル探索時のター
ゲット信号を時間逆順化し、その逆順化した信号を、畳
み込み部13から得た新インパルス応答を係数に持つ聴
感重み付けLPC合成フィルタで合成する。その出力信
号を再度時間逆順化し、ターゲット信号の時間逆合成出
力として比較部B27へ出力する。
The perceptual weighting LPC reverse order synthesis unit B25
The target signal at the time of searching for the diffused sound source vector generated by the subtraction unit 24 is time-reversed, and the inverted signal is synthesized by an audibility weighting LPC synthesis filter having the new impulse response obtained from the convolution unit 13 as a coefficient. The output signal is time-reversed again and output to the comparison unit B27 as a time-reverse synthesized output of the target signal.

【0053】音源情報格納部14は、代数的符号帳と同
じコードベクトルの生成情報を格納しているので、少数
(ここでは4本)のパルスよりなるコードベクトルを生
成することができる。生成したコードベクトルは、聴感
重み付けLPC合成部B26、比較部B27、畳み込み
部13により、音源ベクトルとして参照される。聴感重
み付けLPC合成部B26は、音源情報格納部14より
読み出した音源ベクトルに対し、畳み込み部13から得
た新インパルス応答を係数に持つ聴感重み付けLPC合
成フィルタで合成し、その合成信号の自己相関行列を求
めて比較部B27へ出力する。
Since the excitation information storage unit 14 stores the same code vector generation information as that of the algebraic codebook, it can generate a code vector composed of a small number (here, four) of pulses. The generated code vector is referred to as a sound source vector by the auditory weighting LPC synthesis unit B26, the comparison unit B27, and the convolution unit 13. The audibility weighting LPC synthesis unit B26 synthesizes the sound source vector read from the sound source information storage unit 14 with an audibility weighting LPC synthesis filter having the new impulse response obtained from the convolution unit 13 as a coefficient, and the autocorrelation matrix of the synthesized signal And outputs it to the comparison unit B27.

【0054】比較部B27は、まず、音源情報格納部1
4より直接読み出した音源ベクトルと、聴感重み付けL
PC逆順合成部B25で求めたターゲット信号の時間逆
合成出力との内積の2乗値を求める。次に、聴感重み付
けLPC合成部B26より受けた自己相関行列を参照し
て、音源ベクトルに聴感重み付けLPC合成を施した信
号のパワを求め、そして上記内積の2乗値をこのパワで
割算することによって拡散音源ベクトル探索の基準値を
求める。その基準値が最も大きくなるときに読み出した
音源ベクトルの番号を表す拡散音源インデクスと、その
拡散音源ベクトルに乗じる最適ゲインを算出して、パラ
メータ符号化部17へ出力する。
The comparison section B27 firstly outputs the sound source information storage section 1
The sound source vector read directly from No. 4 and the audibility weighting L
The square value of the inner product of the target signal obtained by the PC reverse order synthesis unit B25 and the time reverse synthesis output is obtained. Next, with reference to the autocorrelation matrix received from the perceptual weighting LPC synthesis unit B26, the power of the signal obtained by subjecting the sound source vector to perceptual weighting LPC synthesis is obtained, and the square value of the inner product is divided by this power. Thus, a reference value for searching for a diffusion sound source vector is obtained. A diffusion excitation index indicating the number of the excitation vector read when the reference value becomes maximum, and an optimum gain by which the diffusion excitation vector is multiplied are calculated and output to the parameter encoding unit 17.

【0055】パラメータ符号化部17は、まず、比較部
A21で得られた適応コードベクトルに乗じる最適ゲイ
ンと、比較部B27で得られた拡散音源ベクトルに乗じ
る最適ゲインの符号化を行って、適応符号帳の符号化ゲ
インと拡散音源ベクトルの符号化ゲインをそれぞれ得
る。次に、得られた適応符号帳の符号化ゲインと拡散音
源ベクトルの符号化ゲインを復号化して、適応符号帳の
復号化ゲインと拡散音源ベクトルの復号化ゲインをそれ
ぞれ得る。更に、適応符号帳の符号化ゲイン、拡散音源
ベクトルの符号化ゲイン、LPC符号、適応符号帳のイ
ンデクス、拡散音源インデクスを伝送部28へ出力し、
適応符号帳の復号化ゲインと、適応符号帳のインデクス
とを適応符号帳更新部23へ出力し、拡散音源ベクトル
の復号化ゲイン、拡散音源インデクスを畳み込み部13
へ出力する。
The parameter encoding unit 17 first encodes the optimum gain by which the adaptive code vector obtained by the comparison unit A21 is multiplied and the optimal gain by which the spread excitation vector obtained by the comparison unit B27 is multiplied. The coding gain of the codebook and the coding gain of the spreading excitation vector are obtained. Next, the obtained coding gain of the adaptive codebook and the coding gain of the spread excitation vector are decoded to obtain the decoding gain of the adaptive codebook and the decoding gain of the spread excitation vector, respectively. Further, the coding gain of the adaptive codebook, the coding gain of the spreading excitation vector, the LPC code, the index of the adaptive codebook, and the spreading excitation index are output to the transmission unit 28,
The decoding gain of the adaptive codebook and the index of the adaptive codebook are output to adaptive codebook updating section 23, and the decoding gain of the diffusion excitation vector and the diffusion excitation index are convolved with convolution section 13.
Output to

【0056】畳み込み部13は、まず、拡散音源インデ
クスに基づいた音源ベクトルを音源情報格納部14から
読み出し、次に、拡散ベクトル格納部11に格納されて
いる拡散ベクトルを読み出す。次に、読み出した音源ベ
クトルと拡散ベクトルとの畳み込み演算を行って拡散音
源ベクトルを生成し、拡散音源ベクトルに復号化ゲイン
を乗じて駆動音源拡散音源ベクトル成分を得て適応符号
帳更新部23へ出力する。適応符号帳更新部23は、ま
ず、パラメータ符号化部17から受けた適応符号帳のイ
ンデクスに基づいた適応コードベクトルを適応符号帳2
2から読み出し、得られた適応コードベクトルに適応符
号帳の復号化ゲインを乗じて駆動音源適応符号帳成分を
得る。次に、得られた駆動音源適応符号帳成分と畳み込
み部13から入力された駆動音源拡散音源ベクトル成分
を加算して駆動音源を生成し、生成した駆動音源を適応
符号帳22へ出力する。ここで、適応符号帳22内の古
いコードベクトルは、適応符号帳更新部23から入力さ
れた上記駆動音源で更新される。
The convolution unit 13 first reads out a sound source vector based on the diffusion sound source index from the sound source information storage unit 14, and then reads out a diffusion vector stored in the diffusion vector storage unit 11. Next, a convolution operation of the read-out excitation vector and the diffusion vector is performed to generate a diffusion excitation vector, and the diffusion excitation vector is multiplied by a decoding gain to obtain a driving excitation diffusion excitation vector component. Output. The adaptive codebook updating unit 23 first converts the adaptive codebook based on the index of the adaptive codebook received from the parameter encoding unit 17 into the adaptive codebook 2.
2 to obtain a driving excitation adaptive codebook component by multiplying the obtained adaptive code vector by the decoding gain of the adaptive codebook. Next, a driving excitation is generated by adding the obtained driving excitation adaptive codebook component and the driving excitation diffusion excitation vector component input from the convolution unit 13, and the generated driving excitation is output to the adaptive codebook 22. Here, the old code vector in the adaptive codebook 22 is updated by the driving excitation input from the adaptive codebook updating unit 23.

【0057】なお、本実施の形態では、音源情報格納部
14に代数的符号帳と同じコードベクトルの生成情報を
格納した例で説明したが、その他の符号帳の生成情報も
しくはその他の符号帳自身を格納した場合についても同
様に実施可能である。また、本実施の形態では、拡散ベ
クトル格納部11にランダム数列を格納した例で説明し
たが、その他の学習により求められた数列、もしくは知
見により求められた数列を用いる場合についても同様に
実施可能である。
In this embodiment, an example has been described in which the excitation information storage unit 14 stores the same code vector generation information as the algebraic codebook. However, other codebook generation information or other codebooks themselves are described. Can also be implemented in the same manner. Further, in the present embodiment, an example in which a random number sequence is stored in the diffusion vector storage unit 11 has been described. However, a case where a sequence obtained by other learning or a sequence obtained by knowledge is used can be similarly performed. It is.

【0058】なお、本実施の形態における音声符号化装
置はCELP型としたが、VOCODER型等、その他
の音声符号化装置においても適用が可能である。
Although the speech coding apparatus according to the present embodiment is of the CELP type, it can be applied to other speech coding apparatuses such as a VOCODER type.

【0059】[0059]

【発明の効果】以上のように本発明によれぱ、符号帳探
索のための計算量が少なくて済むとともに、ROM容量
が小さくて済み、更に良好な合成音を提供できるという
有利な効果が得られる。
As described above, according to the present invention, the following advantages can be obtained: the amount of calculation for codebook search can be reduced, the ROM capacity can be reduced, and a better synthesized sound can be provided. Can be

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施の形態による音声復号化装置の
主要部を示すブロック図
FIG. 1 is a block diagram showing a main part of a speech decoding apparatus according to an embodiment of the present invention;

【図2】本発明の一実施の形態によるCELP型の音声
復号化装置を示すブロック図
FIG. 2 is a block diagram showing a CELP-type speech decoding apparatus according to an embodiment of the present invention;

【図3】(a)本発明の一実施の形態による音声符号化
装置の主要部を示すブロック図 (b)本発明の一実施の形態による音声符号化装置の主
要部を示すブロック図
FIG. 3A is a block diagram showing a main part of a speech coding apparatus according to one embodiment of the present invention; FIG. 3B is a block diagram showing a main part of the speech coding apparatus according to one embodiment of the present invention;

【図4】本発明の一実施の形態によるCELP型の音声
符号化装置を示すブロック図
FIG. 4 is a block diagram showing a CELP-type speech encoding apparatus according to an embodiment of the present invention;

【図5】従来のCELP型音声復号化装置を示すブロッ
ク図
FIG. 5 is a block diagram showing a conventional CELP-type speech decoding device.

【図6】従来のCELP型音声符号化装置を示すブロッ
ク図
FIG. 6 is a block diagram showing a conventional CELP-type speech coding apparatus.

【符号の説明】[Explanation of symbols]

1 音源情報格納部 2 拡散ベクトル格納部 3 畳み込み部 4 パラメータ復号化部 5 伝送部 6 適応符号帳 7 駆動音源生成部 8 LPC合成部 9 出力音声 11 拡散ベクトル格納部 12 ディジタルフィルタ 13 畳み込み部 14 音源情報格納部 15 入力音声 16 LPC分析部 17 パラメータ符号化部 18 聴感重み付け部 19 聴感重み付けLPC逆順合成部A 20 聴感重み付けLPC合成部A 21 比較部A 22 適応符号帳 23 適応符号帳更新部 24 減算部 25 聴感重み付けLPC逆順合成部B 26 聴感重み付けLPC合成部B 27 比較部B 28 伝送部 Reference Signs List 1 sound source information storage unit 2 diffusion vector storage unit 3 convolution unit 4 parameter decoding unit 5 transmission unit 6 adaptive codebook 7 driving excitation generation unit 8 LPC synthesis unit 9 output sound 11 diffusion vector storage unit 12 digital filter 13 convolution unit 14 sound source Information storage unit 15 Input speech 16 LPC analysis unit 17 Parameter encoding unit 18 Perceptual weighting unit 19 Perceptual weighting LPC reverse order synthesizing unit A 20 Perceptual weighting LPC synthesizing unit A 21 Comparing unit A 22 Adaptive codebook 23 Adaptive codebook updating unit 24 Subtraction Unit 25 perceptual weighting LPC reverse order synthesizing unit B 26 perceptual weighting LPC synthesizing unit B 27 comparing unit B 28 transmission unit

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 音源情報を格納する音源情報格納部と、
ランダム数列、学習により求められた数列、知見により
求められた数列のいずれか一つの数列を格納する拡散ベ
クトル格納部と、前記音源情報を基に作成した音源ベク
トルと前記拡散ベクトル格納部に格納された数列とを畳
み込み、拡散音源ベクトルを出力する畳み込み部とを備
えたことを特徴とする音声復号化装置。
A sound source information storage unit for storing sound source information;
A random number sequence, a sequence obtained by learning, a diffusion vector storage unit for storing any one of the sequence obtained from knowledge, a sound source vector created based on the sound source information and stored in the diffusion vector storage unit. And a convolution unit for convolving the sequence with the number sequence and outputting a diffusion excitation vector.
【請求項2】 更に、過去の駆動音源を格納する適応符
号帳と、前記適応符号帳から適応コードベクトルを読み
出し、前記適応コードベクトルに前記適応符号帳の復号
化ゲインを乗じて駆動音源適応符号帳成分を生成する機
能、畳み込み部から拡散音源ベクトルを読み出し、前記
拡散音源ベクトルに前記拡散音源ベクトルの復号化ゲイ
ンを乗じて駆動音源拡散音源ベクトル成分を生成する機
能、前記駆動音源適応符号帳成分と前記駆動音源拡散音
源ベクトル成分を加算して駆動音源を生成し、前記適応
符号帳に出力する機能を持つ駆動音源生成部と、前記駆
動音源をLPC合成する機能を持つLPC合成部とを備
えたことを特徴とする請求項1記載の音声復号化装置。
2. An adaptive codebook for storing a past excitation, and an adaptive code vector read from the adaptive codebook, and the adaptive code vector is multiplied by a decoding gain of the adaptive codebook to generate a driving excitation adaptive code. A function for generating a book excitation component; a function for reading a diffusion excitation vector from a convolution unit; a function for generating a driving excitation diffusion excitation vector component by multiplying the diffusion excitation vector by a decoding gain of the diffusion excitation vector; And a driving excitation generating section having a function of generating a driving excitation by adding the driving excitation diffusion excitation vector component and outputting the driving excitation to the adaptive codebook; and an LPC synthesizing section having a function of LPC synthesizing the driving excitation. The speech decoding apparatus according to claim 1, wherein:
【請求項3】 音源情報格納部に、代数的符号帳と同じ
コードベクトルを生成するための情報を格納することを
特徴とする請求項1または2記載の音声復号化装置。
3. The speech decoding apparatus according to claim 1, wherein information for generating the same code vector as in the algebraic codebook is stored in the excitation information storage unit.
【請求項4】 ランダム数列、学習により求められた数
列、知見により求められた数列のいずれか一つを格納す
る拡散ベクトル格納部と、ディジタルフィルタと、前記
拡散ベクトル格納部に格納された数列を前記ディジタル
フィルタのインパルス応答もしくは係数に畳み込み、前
記ディジタルフィルタの新インパルス応答もしくは新係
数を出力する機能を有する畳み込み部とを備えたことを
特徴とする音声符号化装置。
4. A diffusion vector storage unit for storing any one of a random sequence, a sequence obtained by learning, and a sequence obtained from knowledge, a digital filter, and a sequence stored in the diffusion vector storage unit. And a convolution unit having a function of convolving the impulse response or coefficient of the digital filter and outputting a new impulse response or new coefficient of the digital filter.
【請求項5】 更に、音源情報を格納する音源情報格納
部を有し、畳み込み部が、前記音源情報を基に作成した
音源ベクトルと拡散ベクトル格納部に格納された数列と
を畳み込み、拡散音源ベクトルを出力する機能を併せ持
つことを特徴とする請求項4記載の音声符号化装置。
5. A sound source information storage unit for storing sound source information, wherein the convolution unit convolves a sound source vector created based on the sound source information with a sequence stored in a diffusion vector storage unit, and The speech encoding apparatus according to claim 4, further comprising a function of outputting a vector.
【請求項6】 音源情報格納部に、代数的符号帳と同じ
コードベクトルを生成するための情報を格納することを
特徴とする請求項5記載の音声符号化装置。
6. The speech encoding apparatus according to claim 5, wherein information for generating the same code vector as the algebraic codebook is stored in the excitation information storage unit.
JP22094896A 1996-08-22 1996-08-22 CELP-type speech decoding apparatus and CELP-type speech decoding method Expired - Lifetime JP3174733B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP22094896A JP3174733B2 (en) 1996-08-22 1996-08-22 CELP-type speech decoding apparatus and CELP-type speech decoding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP22094896A JP3174733B2 (en) 1996-08-22 1996-08-22 CELP-type speech decoding apparatus and CELP-type speech decoding method

Related Child Applications (6)

Application Number Title Priority Date Filing Date
JP11343174A Division JP2000148195A (en) 1999-01-01 1999-12-02 Voice encoding device
JP2000113777A Division JP3174779B2 (en) 1996-08-22 2000-04-14 Diffusion sound source vector generation apparatus and diffusion sound source vector generation method
JP2000113780A Division JP3174782B2 (en) 1996-08-22 2000-04-14 CELP-type speech decoding apparatus and CELP-type speech decoding method
JP2000113781A Division JP3174783B2 (en) 1996-08-22 2000-04-14 CELP-type speech coding apparatus and CELP-type speech coding method
JP2000113779A Division JP3174781B2 (en) 1996-08-22 2000-04-14 Diffusion sound source vector generation apparatus and diffusion sound source vector generation method
JP2000113778A Division JP3174780B2 (en) 1996-08-22 2000-04-14 Diffusion sound source vector generation apparatus and diffusion sound source vector generation method

Publications (2)

Publication Number Publication Date
JPH1063300A true JPH1063300A (en) 1998-03-06
JP3174733B2 JP3174733B2 (en) 2001-06-11

Family

ID=16759069

Family Applications (1)

Application Number Title Priority Date Filing Date
JP22094896A Expired - Lifetime JP3174733B2 (en) 1996-08-22 1996-08-22 CELP-type speech decoding apparatus and CELP-type speech decoding method

Country Status (1)

Country Link
JP (1) JP3174733B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999021174A1 (en) * 1997-10-22 1999-04-29 Matsushita Electric Industrial Co., Ltd. Sound encoder and sound decoder
WO2001015144A1 (en) 1999-08-23 2001-03-01 Matsushita Electric Industrial Co., Ltd. Voice encoder and voice encoding method
US6330534B1 (en) 1996-11-07 2001-12-11 Matsushita Electric Industrial Co., Ltd. Excitation vector generator, speech coder and speech decoder
JP2004517348A (en) * 2000-10-17 2004-06-10 クゥアルコム・インコーポレイテッド High performance low bit rate coding method and apparatus for non-voice speech
JP2008309956A (en) * 2007-06-13 2008-12-25 Mitsubishi Electric Corp Speech encoding device and speech decoding device
US7580834B2 (en) 2002-02-20 2009-08-25 Panasonic Corporation Fixed sound source vector generation method and fixed sound source codebook
US8352254B2 (en) 2005-12-09 2013-01-08 Panasonic Corporation Fixed code book search device and fixed code book search method

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7398205B2 (en) 1996-11-07 2008-07-08 Matsushita Electric Industrial Co., Ltd. Code excited linear prediction speech decoder and method thereof
US8370137B2 (en) 1996-11-07 2013-02-05 Panasonic Corporation Noise estimating apparatus and method
US6330534B1 (en) 1996-11-07 2001-12-11 Matsushita Electric Industrial Co., Ltd. Excitation vector generator, speech coder and speech decoder
US6330535B1 (en) 1996-11-07 2001-12-11 Matsushita Electric Industrial Co., Ltd. Method for providing excitation vector
US6345247B1 (en) 1996-11-07 2002-02-05 Matsushita Electric Industrial Co., Ltd. Excitation vector generator, speech coder and speech decoder
US8086450B2 (en) 1996-11-07 2011-12-27 Panasonic Corporation Excitation vector generator, speech coder and speech decoder
US6421639B1 (en) 1996-11-07 2002-07-16 Matsushita Electric Industrial Co., Ltd. Apparatus and method for providing an excitation vector
US6453288B1 (en) 1996-11-07 2002-09-17 Matsushita Electric Industrial Co., Ltd. Method and apparatus for producing component of excitation vector
US8036887B2 (en) 1996-11-07 2011-10-11 Panasonic Corporation CELP speech decoder modifying an input vector with a fixed waveform to transform a waveform of the input vector
US6757650B2 (en) 1996-11-07 2004-06-29 Matsushita Electric Industrial Co., Ltd. Excitation vector generator, speech coder and speech decoder
US6772115B2 (en) 1996-11-07 2004-08-03 Matsushita Electric Industrial Co., Ltd. LSP quantizer
US6799160B2 (en) 1996-11-07 2004-09-28 Matsushita Electric Industrial Co., Ltd. Noise canceller
US6910008B1 (en) 1996-11-07 2005-06-21 Matsushita Electric Industries Co., Ltd. Excitation vector generator, speech coder and speech decoder
US6947889B2 (en) 1996-11-07 2005-09-20 Matsushita Electric Industrial Co., Ltd. Excitation vector generator and a method for generating an excitation vector including a convolution system
US7809557B2 (en) 1996-11-07 2010-10-05 Panasonic Corporation Vector quantization apparatus and method for updating decoded vector storage
US7289952B2 (en) 1996-11-07 2007-10-30 Matsushita Electric Industrial Co., Ltd. Excitation vector generator, speech coder and speech decoder
US7587316B2 (en) 1996-11-07 2009-09-08 Panasonic Corporation Noise canceller
US7590527B2 (en) 1997-10-22 2009-09-15 Panasonic Corporation Speech coder using an orthogonal search and an orthogonal search method
KR100938017B1 (en) * 1997-10-22 2010-01-21 파나소닉 주식회사 Vector quantization apparatus and vector quantization method
US8352253B2 (en) 1997-10-22 2013-01-08 Panasonic Corporation Speech coder and speech decoder
KR100886062B1 (en) * 1997-10-22 2009-02-26 파나소닉 주식회사 Dispersed pulse vector generator and method for generating a dispersed pulse vector
US7499854B2 (en) 1997-10-22 2009-03-03 Panasonic Corporation Speech coder and speech decoder
US7533016B2 (en) 1997-10-22 2009-05-12 Panasonic Corporation Speech coder and speech decoder
KR100900113B1 (en) * 1997-10-22 2009-06-01 파나소닉 주식회사 Dispersed pulse vector generator and method for generating a dispersed pulse vector
US7546239B2 (en) 1997-10-22 2009-06-09 Panasonic Corporation Speech coder and speech decoder
US8332214B2 (en) 1997-10-22 2012-12-11 Panasonic Corporation Speech coder and speech decoder
US7373295B2 (en) 1997-10-22 2008-05-13 Matsushita Electric Industrial Co., Ltd. Speech coder and speech decoder
WO1999021174A1 (en) * 1997-10-22 1999-04-29 Matsushita Electric Industrial Co., Ltd. Sound encoder and sound decoder
US6415254B1 (en) 1997-10-22 2002-07-02 Matsushita Electric Industrial Co., Ltd. Sound encoder and sound decoder
US7024356B2 (en) 1997-10-22 2006-04-04 Matsushita Electric Industrial Co., Ltd. Speech coder and speech decoder
US7925501B2 (en) 1997-10-22 2011-04-12 Panasonic Corporation Speech coder using an orthogonal search and an orthogonal search method
KR101029398B1 (en) * 1997-10-22 2011-04-14 파나소닉 주식회사 Vector quantization apparatus and vector quantization method
EP1959435A2 (en) 1999-08-23 2008-08-20 Matsushita Electric Industrial Co., Ltd. Speech encoder
WO2001015144A1 (en) 1999-08-23 2001-03-01 Matsushita Electric Industrial Co., Ltd. Voice encoder and voice encoding method
JP2004517348A (en) * 2000-10-17 2004-06-10 クゥアルコム・インコーポレイテッド High performance low bit rate coding method and apparatus for non-voice speech
US7580834B2 (en) 2002-02-20 2009-08-25 Panasonic Corporation Fixed sound source vector generation method and fixed sound source codebook
US8352254B2 (en) 2005-12-09 2013-01-08 Panasonic Corporation Fixed code book search device and fixed code book search method
JP2008309956A (en) * 2007-06-13 2008-12-25 Mitsubishi Electric Corp Speech encoding device and speech decoding device

Also Published As

Publication number Publication date
JP3174733B2 (en) 2001-06-11

Similar Documents

Publication Publication Date Title
JP3180762B2 (en) Audio encoding device and audio decoding device
JPH0990995A (en) Speech coding device
US7047188B2 (en) Method and apparatus for improvement coding of the subframe gain in a speech coding system
JPH08272395A (en) Voice encoding device
JP3582589B2 (en) Speech coding apparatus and speech decoding apparatus
JP3174733B2 (en) CELP-type speech decoding apparatus and CELP-type speech decoding method
JP3095133B2 (en) Acoustic signal coding method
JPH04344699A (en) Voice encoding and decoding method
JPH05265496A (en) Speech encoding method with plural code books
JP3174779B2 (en) Diffusion sound source vector generation apparatus and diffusion sound source vector generation method
JPH08292797A (en) Voice encoding device
JP3174782B2 (en) CELP-type speech decoding apparatus and CELP-type speech decoding method
JP3174780B2 (en) Diffusion sound source vector generation apparatus and diffusion sound source vector generation method
JP2979943B2 (en) Audio coding device
JP3174783B2 (en) CELP-type speech coding apparatus and CELP-type speech coding method
JP3174781B2 (en) Diffusion sound source vector generation apparatus and diffusion sound source vector generation method
JP3144284B2 (en) Audio coding device
JPH0519795A (en) Excitation signal encoding and decoding method for voice
JP3299099B2 (en) Audio coding device
JP2000148195A (en) Voice encoding device
JPH0519796A (en) Excitation signal encoding and decoding method for voice
JP2002221998A (en) Method, device and program for encoding and decoding acoustic parameter and voice
JPH08185199A (en) Voice coding device
JP3192051B2 (en) Audio coding device
JP3024467B2 (en) Audio coding device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080330

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090330

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100330

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110330

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110330

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120330

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130330

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130330

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140330

Year of fee payment: 13

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term