JPH08110798A - Voice decoding method and device thereof - Google Patents

Voice decoding method and device thereof

Info

Publication number
JPH08110798A
JPH08110798A JP6244444A JP24444494A JPH08110798A JP H08110798 A JPH08110798 A JP H08110798A JP 6244444 A JP6244444 A JP 6244444A JP 24444494 A JP24444494 A JP 24444494A JP H08110798 A JPH08110798 A JP H08110798A
Authority
JP
Japan
Prior art keywords
information
unit
gain
transmission
internal state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6244444A
Other languages
Japanese (ja)
Other versions
JP3085347B2 (en
Inventor
Akitoshi Kataoka
章俊 片岡
Jiyoutarou Ikedo
丈太朗 池戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP06244444A priority Critical patent/JP3085347B2/en
Publication of JPH08110798A publication Critical patent/JPH08110798A/en
Application granted granted Critical
Publication of JP3085347B2 publication Critical patent/JP3085347B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)

Abstract

PURPOSE: To suppress the quality deterioration of the decoded voice small even when the state of a transmission line is bad in the drive type linear prediction coding/decoding using a noise code table. CONSTITUTION: When the present frame contains a transmission error in the received data R transmitted from a coder, the exception process section 12 of a decoder estimates the information transmitted from internal states Cn-3, Cn-2, Cn-1 corresponding to the transmitted information in the past frame, replaces the received data R, updates the internal state held in a buffer 10 with the estimated information, and maintains the consistency when the correct received data R are sent at the time of the information transmission in the next frame.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、二つの励振源からそ
れぞれ選択した励振候補を用い、合成フィルタを駆動す
ることによって、音声の信号系列を少ない情報量でディ
ジタル伝送する音声の復号化方法およびその装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a speech decoding method for digitally transmitting a speech signal sequence with a small amount of information by driving a synthesis filter using excitation candidates selected from two excitation sources. Regarding the device.

【0002】[0002]

【従来の技術】ディジタル移動通信などの分野では、電
波の有効利用などを図るため、種々の高能率符号化法が
用いられている。8kbit/s程度の情報量で符号化
する方法としては、CELP(符号駆動型線形予測)、
VSELP(ベクトル加算駆動型線形予測)などが知ら
れている。それぞれの技術については、M.R.Schroedera
nd B.S.Atal:"Code-Excited Linear Prediction(CELP):
High-quality Speech at Very Low Bit Rates",Proc.IC
ASSP'85,25.1.1,pp.937-940,1985(文献1)やI.A.Gers
on and M.A.Jasiuk:"Vector Sum Excited Linear Predi
ction(VSELP) Speech Coding at 8kbps",Proc.ICASSP'9
0,S9.3,pp461-464,1990 (文献2)などに述べられてい
る。
2. Description of the Related Art In the field of digital mobile communication and the like, various high-efficiency coding methods are used in order to effectively use radio waves. As a method of encoding with an information amount of about 8 kbit / s, CELP (code-driven linear prediction),
VSELP (vector addition drive type linear prediction) and the like are known. For each technology, see MR Schroedera
nd BSAtal: "Code-Excited Linear Prediction (CELP):
High-quality Speech at Very Low Bit Rates ", Proc.IC
ASSP'85, 25.1.1, pp.937-940,1985 (Reference 1) and IAGers
on and MAJasiuk: "Vector Sum Excited Linear Predi
ction (VSELP) Speech Coding at 8kbps ", Proc.ICASSP'9
0, S9.3, pp461-464, 1990 (reference 2) and the like.

【0003】これらの方式の符号化器(図4)におい
て、複数サンプルの入力音声Vからフィルタ係数決定部
45で予測係数を計算し、フィルタ係数量子化部46で
予測係数を量子化して、そのフィルタ係数を合成フィル
タ47へ設定する。なお、同図において、A(z)は合
成フィルタ17の伝達関数である。ピッチ励振源40の
複数のピッチ周期成分(励振候補)から取りだしたピッ
チ周期成分と、符号帳励振源41の複数の雑音波形ベク
トル(例えば乱数ベクトルの励起候補)から取り出した
候補とをそれぞれ利得部43で適当な利得を加えた後、
加算して合成フィルタ47に駆動信号として供給して音
声を合成する。
In the encoders of these systems (FIG. 4), the filter coefficient deciding section 45 calculates the predictive coefficient from the input voice V of a plurality of samples, and the filter coefficient quantizing section 46 quantizes the predictive coefficient. The filter coefficient is set in the synthesis filter 47. In the figure, A (z) is a transfer function of the synthesis filter 17. The gain unit includes a pitch period component extracted from a plurality of pitch period components (excitation candidates) of the pitch excitation source 40 and a candidate extracted from a plurality of noise waveform vectors (for example, excitation candidates of random number vectors) of the codebook excitation source 41. After adding appropriate gain with 43,
The signals are added and supplied as a drive signal to the synthesis filter 47 to synthesize a voice.

【0004】利得予測部44は過去の雑音波形ベクトル
よりおおよその利得を予測して、予測利得部42にセッ
トする。合成音声と入力音声Vとその歪が最も小さくな
るように歪パワー計算部48でピッチ励振源40と符号
帳励振源41の両励振源中の各励振候補を選び、かつ利
得部43の各利得を設定する。符号出力部49からは、
上記の予測係数、入力音声パワー、選択されたピッチ周
期成分候補と符号帳の候補のそれぞれのコード番号、利
得部43においてそれぞれの候補にかける利得などが符
号として出力される。図5に示す復号化器においては、
誤り検出部57において受信した情報の妥当性を判断
し、符号誤りが存在しなければ、送られてきた前述の符
号に基づいて復号音声を合成する。
The gain predictor 44 predicts an approximate gain from the past noise waveform vector and sets it in the predictive gain unit 42. The distortion power calculation unit 48 selects each excitation candidate in both the excitation source of the pitch excitation source 40 and the excitation source of the codebook 41 so that the synthesized voice, the input voice V, and the distortion thereof are minimized, and each gain of the gain unit 43. To set. From the code output unit 49,
The prediction coefficient, the input speech power, the code numbers of the selected pitch period component candidate and the codebook candidate, the gain applied to each candidate in the gain unit 43, and the like are output as codes. In the decoder shown in FIG. 5,
The error detector 57 determines the validity of the received information, and if there is no code error, the decoded speech is synthesized based on the above-mentioned code sent.

【0005】[0005]

【発明が解決しようとする課題】ところで、従来の音声
復号化方式では、伝送路の状態が悪いことに起因する伝
送情報の誤りを検出したときには、誤りを検出したフレ
ームの受信パラメータを、過去に正しく受信した受信パ
ラメータに置き換えていた。つまり、このように誤りの
あるフレームでは、過去に正しく受信したパラメータを
繰り返し使用して音声を復号化していた。このような復
号化の具体的な例としては、例えば、R.V.Cox氏らによ
る"Robust CELP Coders for Noisy Backgrounds and No
isy Channels"(Proc.ICASSP'89,pp739-742,1989)(文献
3)が挙げられる。
By the way, in the conventional speech decoding system, when an error in the transmission information due to the bad state of the transmission path is detected, the reception parameter of the frame in which the error is detected is set in the past. It was replaced with the reception parameter that was received correctly. In other words, in such an erroneous frame, the voice is decoded by repeatedly using the parameters correctly received in the past. A concrete example of such decoding is, for example, "Robust CELP Coders for Noisy Backgrounds and No." by RVCox et al.
isy Channels "(Proc. ICASSP'89, pp739-742, 1989) (Reference 3).

【0006】また、フレーム間の相関を考慮した符号化
方法として、例えば、R.Salami氏らによる"8Kbit/s ACE
LP Coding of Speech with 10ms Speech-frame:A Candi
datefor CCITT Standardization ",Proc.ICASSP'94,Vo
l.II,pp97-100,1994(文献4)、A.Kataoka氏らによる"
An 8-kbit/s Speech Coder Based on Conjugate Struct
ure CELP",Proc.ICASSP'93,pp592-595,1993 (文献5)
が挙げられる。これらの文献では、ベクトル量子化によ
り量子化されたLSP(線スペクトル対)パラメータを
パラメータの一部に使用している。また、利得予測の手
法としては後ろ向き適応制御を採用している。
As an encoding method considering the correlation between frames, for example, "8 Kbit / s ACE" by R. Salami et al.
LP Coding of Speech with 10ms Speech-frame: A Candi
datefor CCITT Standardization ", Proc.ICASSP'94, Vo
l.II, pp97-100,1994 (reference 4), by A. Kataoka et al. "
An 8-kbit / s Speech Coder Based on Conjugate Struct
ure CELP ", Proc.ICASSP'93, pp592-595,1993 (Reference 5)
Is mentioned. In these documents, LSP (line spectrum pair) parameters quantized by vector quantization are used as a part of the parameters. In addition, backward adaptive control is used as a gain prediction method.

【0007】しかし、上記の文献4あるいは文献5など
の復号化方法に文献3の処理をそのまま適用すると、過
去のパラメータを繰り返し使用した後の内部状態の更新
処理がなされていないために、次に正しいパラメータを
受信したときに、復号音声が劣化したり、異音が発生す
るという問題点があった。この発明は上記の点に鑑みて
なされたものであり、その目的は、雑音符号帳を用いた
駆動型線形予測符号化において、伝送路の状態が悪くフ
レーム単位で伝送されてきた情報を用いることができ
ず、復号化器が保持している情報に基づいて補間を行う
際、次のフレームでの処理との整合性をとるため復号化
器の内部状態を更新することにより、音声品質の劣化を
小さくすることにある。
However, if the process of Document 3 is applied to the decoding method of Document 4 or Document 5 as it is, the internal state is not updated after repeatedly using past parameters. When the correct parameter is received, there is a problem that the decoded voice is deteriorated or abnormal noise is generated. The present invention has been made in view of the above points, and an object of the present invention is to use information transmitted in units of frames in a drive-type linear predictive coding using a noise codebook because of poor transmission line conditions. However, when performing interpolation based on the information held by the decoder, the internal state of the decoder is updated to make it consistent with the processing in the next frame, resulting in deterioration of voice quality. Is to reduce.

【0008】[0008]

【課題を解決するための手段】以上の課題を解決するた
めに、請求項1記載の発明は、フレーム間の相関などフ
レームにわたる情報により符号化されて伝送された音声
情報を受信し、伝送情報の伝送誤りの有無を判別すると
ともに、伝送情報を復号化して音声を再生する音声の復
号化方法で、現フレームの伝送情報について前記伝送誤
りを判別する時点において、(1)前記伝送誤りが存在
するために前記伝送情報を使用できない場合に、過去の
フレームに対応して保持する内部状態に基づいて前記伝
送情報を補間し、該補間情報により復号音声を再生し、
次のフレームの復号化のために、前記補間情報と前記過
去のフレームに対応した内部状態から現フレームに対応
する内部状態を予測して更新し、(2)前記伝送誤りが
存在しない場合に、前記伝送情報と前記過去のフレーム
に対応した内部状態から復号音声を再生し、次のフレー
ムの復号化のために、前記伝送情報から現フレームに対
応する内部状態を作成して更新することを特徴としてい
る。
In order to solve the above problems, the invention according to claim 1 receives voice information encoded and transmitted by information over frames such as correlation between frames, and transmits the transmission information. In the audio decoding method for determining the presence / absence of the transmission error and reproducing the voice by decoding the transmission information, at the time of determining the transmission error for the transmission information of the current frame, (1) the transmission error exists. When the transmission information cannot be used to do so, the transmission information is interpolated based on the internal state held corresponding to the past frame, and the decoded voice is reproduced by the interpolation information,
In order to decode the next frame, the internal state corresponding to the current frame is predicted and updated from the interpolation information and the internal state corresponding to the past frame, and (2) when the transmission error does not exist, The decoded voice is reproduced from the transmission information and the internal state corresponding to the past frame, and the internal state corresponding to the current frame is created and updated from the transmission information for decoding the next frame. I am trying.

【0009】また、請求項2記載の発明は、フレーム間
の相関などフレームにわたる情報により符号化されて伝
送される音声の符号化情報を受信して該伝送情報の伝送
誤りの有無を判別する誤り検出部と、前記伝送情報から
時系列ベクトルを発生する励振源と、前記時系列ベクト
ルに利得をかける利得部と、前記利得部の利得を予測す
る利得予測部と、前記利得部に駆動されて復号音声を出
力する合成フィルタと、前記合成フィルタにフィルタ係
数を与えるフィルタ係数復号化部とから構成される音声
の復号化装置において、前記フィルタ係数復号化部が、
各フレームにおける前記伝送情報に対応した内部状態を
保持するバッファと、前記伝送誤り検出時に、前記伝送
情報を補間して符号化情報を出力し前記内部状態を更新
する例外処理部と、前記伝送誤り未検出時に、前記伝送
情報から符号化情報を計算して出力し前記内部状態を更
新する合成部と、前記いずれかの符号化情報から実際に
フィルタ係数を復号する復号処理部と、からなることを
特徴としている。
Further, the invention according to claim 2 is an error for receiving coded information of voice coded and transmitted by information over frames such as correlation between frames and determining whether or not there is a transmission error in the transmission information. A detection unit, an excitation source that generates a time-series vector from the transmission information, a gain unit that applies a gain to the time-series vector, a gain prediction unit that predicts the gain of the gain unit, and a gain unit that is driven by the gain unit. In a speech decoding device including a synthesis filter that outputs decoded speech, and a filter coefficient decoding unit that applies a filter coefficient to the synthesis filter, the filter coefficient decoding unit includes:
A buffer that holds an internal state corresponding to the transmission information in each frame, an exception processing unit that interpolates the transmission information and outputs encoded information to update the internal state when the transmission error is detected, and the transmission error When not detected, it comprises a combining unit that calculates and outputs encoded information from the transmission information and updates the internal state, and a decoding processing unit that actually decodes the filter coefficient from any of the encoded information. Is characterized by.

【0010】また、請求項3記載の発明は、フレーム間
の相関などフレームにわたる情報により符号化されて伝
送される音声の符号化情報を受信して該伝送情報の伝送
誤りの有無を判別する誤り検出部と、前記伝送情報から
時系列ベクトルを発生する励振源と、前記時系列ベクト
ルに利得をかける利得部と、前記利得部の利得を予測す
る利得予測部と、前記利得部に駆動されて復号音声を出
力する合成フィルタと、前記合成フィルタにフィルタ係
数を与えるフィルタ係数復号化部とから構成される音声
の復号化装置において、前記利得予測部が、各フレーム
におけるパワー情報に対応した内部状態を保持するバッ
ファと、前記伝送誤り検出時に、前記パワー情報を補間
して予測利得情報を出力し前記内部状態を更新する例外
処理部と、前記伝送誤り未検出時に、前記パワー情報か
ら予測利得情報を計算して出力し前記内部状態を更新す
る合成部と、からなることを特徴としている。
The invention according to claim 3 is an error for receiving coded information of voice coded and transmitted by information over frames such as correlation between frames and determining whether or not there is a transmission error in the transmission information. A detection unit, an excitation source that generates a time-series vector from the transmission information, a gain unit that applies a gain to the time-series vector, a gain prediction unit that predicts the gain of the gain unit, and a gain unit that is driven by the gain unit. In a speech decoding device comprising a synthesis filter for outputting decoded speech and a filter coefficient decoding section for giving a filter coefficient to the synthesis filter, the gain prediction section has an internal state corresponding to power information in each frame. A buffer for holding the error information, an exception processing unit for interpolating the power information and outputting prediction gain information to update the internal state when the transmission error is detected, When error non-detection is characterized and synthesis unit and outputs the calculated prediction gain information from the power information for updating the internal state, in that it consists of.

【0011】また請求項4記載の発明は、請求項2また
は3に記載した発明において、前記例外処理部が、現フ
レームの伝送情報に伝送誤りが存在する場合に、過去の
フレームに対応した前記内部状態から前記補間情報を計
算して出力し、前記補間情報と前記過去のフレームに対
応した内部状態とから現フレームに対応する内部状態を
予測し、前記予測値で現フレームに対応する内部状態を
更新し、現フレームの伝送情報に伝送誤りが存在しない
場合に、当該例外処理部に入力された情報をそのまま前
記合成部へ出力することを特徴としている。
According to a fourth aspect of the present invention, in the invention according to the second or third aspect, the exception handling unit corresponds to the past frame when the transmission information of the current frame has a transmission error. The interpolation information is calculated and output from the internal state, the internal state corresponding to the current frame is predicted from the interpolation information and the internal state corresponding to the past frame, and the internal state corresponding to the current frame is calculated using the predicted value. Is updated, and when there is no transmission error in the transmission information of the current frame, the information input to the exception processing unit is output to the combining unit as it is.

【0012】また請求項5記載の発明は、請求項2また
は3に記載した発明において、前記合成部が、現フレー
ムの伝送情報に伝送誤りが存在する場合には動作せず、
現フレームの伝送情報に伝送誤りが存在しない場合に、
当該合成部に入力された情報と過去のフレームに対応し
た内部状態とを組み合わせた情報を出力し、該入力情報
で現フレームに対応する内部状態を更新することを特徴
としている。
The invention according to claim 5 is the invention according to claim 2 or 3, wherein the combining section does not operate when a transmission error is present in the transmission information of the current frame,
If there is no transmission error in the transmission information of the current frame,
It is characterized in that information obtained by combining the information input to the synthesizing unit and the internal state corresponding to the past frame is output, and the internal state corresponding to the current frame is updated by the input information.

【0013】[0013]

【作用】この発明によれば、伝送路の状態が悪く符号化
器から復号化器への伝送情報が使用できない場合には、
現フレームに対する情報を過去のフレームの情報から予
測して補間し、さらに、次のフレームにおける復号化処
理のために復号化器の内部状態を更新することにより、
通話音質の劣化を小さく抑えることができる。
According to the present invention, when the state of the transmission line is bad and the transmission information from the encoder to the decoder cannot be used,
By predicting and interpolating the information for the current frame from the information of the past frame, and further updating the internal state of the decoder for the decoding process in the next frame,
It is possible to suppress deterioration of call sound quality.

【0014】[0014]

【実施例】次に、この発明の一実施例による音声の復号
化方法について説明する。図1は、この発明において使
用するデータ処理部の構成を示すブロック図である。同
図に示すデータ処理部は、図5に示す復号化器の利得予
測部54の一構成例であり、また、フィルタ係数復号化
部55の一構成例でもある。すなわち、データ処理部の
処理手順は、利得予測部54、フィルタ係数復号化部5
5のそれぞれにおいて行う処理のいずれに対しても適用
することができる。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Next, a voice decoding method according to an embodiment of the present invention will be described. FIG. 1 is a block diagram showing the configuration of a data processing unit used in the present invention. The data processing unit shown in the figure is one configuration example of the gain prediction unit 54 of the decoder shown in FIG. 5, and is also one configuration example of the filter coefficient decoding unit 55. That is, the processing procedure of the data processing unit is the same as the gain prediction unit 54 and the filter coefficient decoding unit 5.
It can be applied to any of the processes performed in each of the above.

【0015】まず、データ処理部が図5に示すフィルタ
係数復号化部55である場合に、この発明をフィルタ係
数復号化部55のフィルタ係数の復号化方法に適用した
場合について説明する。図1のデータ処理部は、内部状
態等を保持するバッファ10、合成部11ならびに例外
処理部12から構成されている。
First, a case where the present invention is applied to the filter coefficient decoding method of the filter coefficient decoding unit 55 when the data processing unit is the filter coefficient decoding unit 55 shown in FIG. 5 will be described. The data processing unit in FIG. 1 is composed of a buffer 10 that holds internal states and the like, a combining unit 11, and an exception processing unit 12.

【0016】バッファ10において、Cn は現フレーム
において伝送された情報に対する内部状態であり、Cn-
1 、Cn-2 、Cn-3 はそれぞれ1、2、3フレーム前に
伝送された情報に対して復号化器が保持している内部状
態である。なお、以後、現フレームの直前のフレームを
「前フレーム」と呼び、内部状態に関する情報を「内部
情報」と呼ぶことがある。An 、An-1、An-2、An-3
は、それぞれ内部状態Cn 、Cn-1 、Cn-2 、Cn-3 に
対応しており、これらの内部状態とそれぞれのフレーム
のタイミングにおける最新のフレームの伝送情報とを組
み合わせて得られた「結果」である。なお、図1におけ
るバッファ10は、現フレームとそれより前の3つのフ
レームの合計4個のフレームに対する内部状態を示した
ものである。
In buffer 10, Cn is the internal state for the information transmitted in the current frame, and Cn-
1, 1, Cn-2, and Cn-3 are internal states held by the decoder for the information transmitted 1, 2, and 3 frames before, respectively. Hereinafter, the frame immediately before the current frame may be referred to as a “previous frame”, and the information regarding the internal state may be referred to as “internal information”. An, An-1, An-2, An-3
Correspond to the internal states Cn, Cn-1, Cn-2, and Cn-3, respectively. The result obtained by combining these internal states with the latest frame transmission information at the timing of each frame It is. The buffer 10 in FIG. 1 shows the internal state for a total of four frames, which is the current frame and the three frames before it.

【0017】合成部11では、正しく情報が送られてき
たときに上記の組み合わせ結果An等を出力する。例外
処理部12は、誤り検出部57からの伝送誤りの有無を
示す通知に基づいて、情報が正しく伝送されたときには
動作せず、現フレームに対する情報Cn が正常でない場
合にのみ所定の処理を行う。受信データRは、例えばフ
レーム相関を用いたLSP量子化法の場合においてはL
SPパラメータである。現フレームでのLSPパラメー
タΩn は次式で与えられる。
The synthesizing unit 11 outputs the above combination result An and the like when the information is correctly transmitted. The exception processing unit 12 does not operate based on the notification from the error detection unit 57 indicating the presence or absence of a transmission error, and does not operate when the information is correctly transmitted, and performs a predetermined process only when the information Cn for the current frame is not normal. . The received data R is, for example, L in the case of the LSP quantization method using frame correlation.
It is an SP parameter. The LSP parameter Ω n in the current frame is given by the following equation.

【数1】 [Equation 1]

【0018】ここで、内部状態Cn は現フレームでのL
SP符号帳の出力、内部状態Cn-1は前フレームのLS
P符号帳の出力、内部状態Cn-2 は前フレームより1つ
前のLSP符号帳の出力、内部状態Cn-3 はそれよりも
さらに1つ前のLSP符号帳の出力...等々、Mはフ
レームの予測次数、Gi (i=0〜M)は重み係数であ
る。次に、上記構成によるフィルタ係数復号化の動作に
ついて説明する。図2は、データ処理部をフィルタ係数
復号化部55に適用した場合における音声復号化処理の
手順を示すフローチャートである。復号化器の誤り検出
部57が符号化音声情報を受信する(ステップS11)
と、その情報は図1のデータ処理部にも送出されて、受
信データRとして例外処理部12に送られる。
Here, the internal state Cn is L in the current frame.
Output of SP codebook, internal state Cn-1 is LS of previous frame
The P codebook output, the internal state Cn-2 is the output of the LSP codebook which is one before the previous frame, and the internal state Cn-3 is the output of the LSP codebook which is one before that. . . And so on, M is the prediction order of the frame, and Gi (i = 0 to M) is a weighting factor. Next, the operation of the filter coefficient decoding with the above configuration will be described. FIG. 2 is a flowchart showing a procedure of a voice decoding process when the data processing unit is applied to the filter coefficient decoding unit 55. The error detection unit 57 of the decoder receives the encoded voice information (step S11).
Then, the information is also sent to the data processing unit in FIG. 1 and sent to the exception processing unit 12 as the received data R.

【0019】例外処理部12は、誤り検出部57が伝送
情報に符号誤りがあるかどうかを判定した結果を使用し
て、受信データRに符号誤りがあるかどうかを認識する
(ステップS12)。いま、現フレームで伝送されてき
た情報がフレームロスなどにより使用することができな
い場合、例外処理部12は受信データRを補償する処理
に入る(ステップ13)。例外処理部12は符号誤りの
ためにLSP符号帳の出力Cn を使用することができな
い。したがって(1)式からも明らかなように、LSP
パラメータΩn を計算してそのまま使用することもでき
ない。そこで、伝送路が正常であれば現フレームで使用
するはずであったLSPパラメータΩnを、バッファ1
0に格納されている前フレームのLSPパラメータΩn
−1 で置き換えて使用する。
The exception processing section 12 recognizes whether or not the received data R has a code error by using the result of the error detection section 57 determining whether or not the transmission information has a code error (step S12). Now, when the information transmitted in the current frame cannot be used due to frame loss or the like, the exception processing unit 12 starts the process of compensating the received data R (step 13). The exception processing unit 12 cannot use the output Cn of the LSP codebook due to a code error. Therefore, as is clear from the equation (1), the LSP
It is not possible to calculate the parameter Ωn and use it as is. Therefore, if the transmission line is normal, the LSP parameter Ωn, which should have been used in the current frame, is set to the buffer 1
LSP parameter Ωn of the previous frame stored in 0
Replace with -1 and use.

【0020】さらに、現フレームにおいてLSP符号帳
の出力Cn からCn-(M-1) までが正しく更新されていな
ければ、現フレームの次のフレームのタイミングで正し
い情報が伝送されても、正しいLSPパラメータΩn+1
が得られない。しかし、現フレームでのLSP符号帳の
出力Cn は使用することができないため、バッファ10
に記憶されている内部状態Cn-i (i=1〜M)からL
SP符号帳の出力Cnの値を推定する。前述したよう
に、現フレームにおいてはLSPパラメータとしてΩn
の代わりにΩn-1 を使用したので、LSP符号帳の出力
Cn の推定値は次式により計算する。
Further, if the outputs Cn to Cn- (M-1) of the LSP codebook are not updated correctly in the current frame, the correct LSP is obtained even if the correct information is transmitted at the timing of the frame next to the current frame. Parameter Ωn + 1
Can't get However, since the output Cn of the LSP codebook in the current frame cannot be used, the buffer 10
From the internal state Cn-i (i = 1 to M) stored in
Estimate the value of the output Cn of the SP codebook. As described above, Ωn is used as the LSP parameter in the current frame.
Since Ωn-1 was used instead of, the estimated value of the output Cn of the LSP codebook is calculated by the following equation.

【数2】 [Equation 2]

【0021】例外処理部12は、伝送された受信データ
Rに含まれる現フレームのLSP符号帳の出力Cn を、
この推定値(以後、情報Cn ’と呼ぶ)で置き換えて出
力する。続いて、この情報Cn ’とバッファ10に記憶
されている内部状態とを(1)式にしたがって組み合わ
せ、その結果An ’を出力する(ステップS14)。そ
の後、この出力をもとにしてフィルタ係数の復号化を
(図示していない)復号化回路を使用して行い(ステッ
プS15)、合成フィルタ56で音声合成を行う(ステ
ップS16)。
The exception processing unit 12 outputs the output Cn of the LSP codebook of the current frame contained in the transmitted received data R,
This estimated value (hereinafter referred to as information Cn ') is replaced and output. Then, this information Cn 'and the internal state stored in the buffer 10 are combined according to the equation (1), and the result An' is output (step S14). Thereafter, based on this output, the decoding of the filter coefficient is performed using a decoding circuit (not shown) (step S15), and the synthesis filter 56 performs speech synthesis (step S16).

【0022】また、フィルタ係数の復号化処理と音声合
成の処理に並行して、バッファ10の内容を書き換えて
内部状態の更新を行う(ステップS17)。具体的に
は、バッファ10のCn 部には、合成部11の出力に代
えて上記の情報Cn ’を書き込み、バッファ10のAn
部には合成部11の出力であるAn に代えて上記の結果
An ’を書き込む。
Further, in parallel with the decoding processing of the filter coefficient and the speech synthesis processing, the contents of the buffer 10 are rewritten to update the internal state (step S17). Specifically, the above information Cn ′ is written in the Cn section of the buffer 10 instead of the output of the synthesizing section 11, and
The above result An'is written in the section in place of An output from the synthesizing section 11.

【0023】一方、例外処理部12が符号誤りを認識し
なかった場合(ステップS12)には、例外処理部12
は補償の処理(ステップS13)を行うことなく、受信
データRをそのまま合成部11へ出力する。合成部11
は、符号誤りが検出された場合に例外処理部12が行っ
たのと同様の処理により、受信したLSPパラメータや
バッファ10の内部状態を(1)式にしたがって組み合
わせ、結果An を出力する(ステップS14)。その
後、フィルタ係数の復号化(ステップS15)、音声合
成(ステップS16)を行う。これと並行して、例外処
理部12を介して送られた受信データRから得られた情
報Cn と上記の計算結果An をバッファ10へ書き込
む。
On the other hand, when the exception processing unit 12 does not recognize the code error (step S12), the exception processing unit 12
Outputs the received data R as it is to the synthesizing unit 11 without performing the compensation process (step S13). Synthesis part 11
Performs a process similar to that performed by the exception processing unit 12 when a code error is detected, and combines the received LSP parameter and the internal state of the buffer 10 according to the equation (1) and outputs the result An (step S14). Then, decoding of the filter coefficient (step S15) and voice synthesis (step S16) are performed. In parallel with this, the information Cn obtained from the received data R sent via the exception processing unit 12 and the above calculation result An are written in the buffer 10.

【0024】次に、データ処理部が図5に示す利得予測
部54である場合に、この発明を利得予測部54の利得
予測方法に適用した場合について説明する。データ処理
部の構成は、データ処理部をフィルタ係数復号化部に適
用した場合と基本的に同じである。相違する点として
は、内部状態Cn 等がLSP符号帳の出力ではなく利得
部53のパワーであること、An 等が予測利得部52へ
設定する予測ゲインであることにある。
Next, a case where the present invention is applied to the gain prediction method of the gain prediction unit 54 when the data processing unit is the gain prediction unit 54 shown in FIG. 5 will be described. The configuration of the data processing unit is basically the same as when the data processing unit is applied to the filter coefficient decoding unit. The difference is that the internal state Cn or the like is not the output of the LSP codebook but the power of the gain unit 53, and An or the like is the prediction gain set in the prediction gain unit 52.

【0025】利得予測部54は、過去のフレームにおけ
るパワーに基づいて次のフレームのゲインを予測し、現
フレームのタイミングにおいて利得部53等により予測
誤差の調整を行う。フレーム相関を用いたゲイン予測法
の場合を例に取ると、図1における受信データRは利得
部53から出力されたパワーに関する情報である。現フ
レームでの利得予測部54の出力する予測ゲインgn
は、たとえば次式で計算される。
The gain predictor 54 predicts the gain of the next frame based on the power of the past frame, and adjusts the prediction error by the gain unit 53 and the like at the timing of the current frame. Taking the case of the gain prediction method using frame correlation as an example, the received data R in FIG. 1 is information on the power output from the gain unit 53. Prediction gain gn output from the gain prediction unit 54 in the current frame
Is calculated by the following formula, for example.

【数3】 (Equation 3)

【0026】ここで、Nはフレームのサンプル数、Pn
は現フレームでのパワー、Pn-1 は前フレームのパワ
ー、Pn-2 は前フレームより1つ前のパワー、Pn-3 は
それよりもさらに1つ前のパワー...等々、Mはフレ
ーム間の予測次数、Gi (i=0〜M)は重み係数であ
る。次に、上記構成による利得予測動作について説明す
る。
Where N is the number of frame samples, Pn
Is the power in the current frame, Pn-1 is the power of the previous frame, Pn-2 is the power one frame before the previous frame, and Pn-3 is the power one more before it. . . And so on, M is the prediction order between frames, and Gi (i = 0 to M) is a weighting factor. Next, the gain prediction operation with the above configuration will be described.

【0027】図3はデータ処理部を利得予測部54に適
用した場合における利得予測処理の手順を示すフローチ
ャートである。音声復号化処理の場合と同様に、誤り検
出部57が符号化された音声情報を受信し(ステップS
21)、当該伝送情報に符号誤りが存在するかどうかを
判定して利得予測部54へその結果を通知する(ステッ
プS22)。その際、利得部53からのパワー情報が受
信データRとして図1の例外処理部12へ送られる。
FIG. 3 is a flow chart showing the procedure of a gain prediction process when the data processing unit is applied to the gain prediction unit 54. As in the case of the voice decoding process, the error detection unit 57 receives the encoded voice information (step S
21), determine whether or not a code error exists in the transmission information, and notify the result to the gain prediction unit 54 (step S22). At that time, the power information from the gain section 53 is sent to the exception processing section 12 of FIG. 1 as the reception data R.

【0028】いま、伝送された情報に符号誤りが存在す
る場合、例外処理部12は補償処理へ入る(ステップ2
3)。利得予測処理においては、現フレームで情報を受
信できなかった場合にも、前フレームにおいて予測した
現フレームのゲインgn を使用できる。しかし、伝送誤
りがある場合には利得部53等では予測誤差の調整を行
うことができない。そこでゲインgn をそのまま使用す
ることはせずに、利得部53での調整分をも考慮して、
「A・gn 」(A:定数、A<1)を現フレームのゲイ
ンとして使用する。また、次のフレームのタイミングで
使用する予測ゲインgn+1 の計算のために、現フレーム
のパワー情報を予測して確定しなければならない。前述
のように現フレームにおいては最終的なゲインとしてA
・gn を使用したことを考慮すると、パワー情報の予測
値は次式で計算される。
If there is a code error in the transmitted information, the exception processing unit 12 enters compensation processing (step 2).
3). In the gain prediction process, the gain gn of the current frame predicted in the previous frame can be used even when information cannot be received in the current frame. However, when there is a transmission error, the gain unit 53 and the like cannot adjust the prediction error. Therefore, the gain gn is not used as it is, and the adjustment in the gain unit 53 is also taken into consideration.
“A · gn” (A: constant, A <1) is used as the gain of the current frame. Also, in order to calculate the prediction gain gn + 1 used at the timing of the next frame, the power information of the current frame must be predicted and fixed. As described above, A is the final gain in the current frame.
Considering that gn is used, the predicted value of power information is calculated by the following equation.

【数4】 [Equation 4]

【0029】例外処理部12は、伝送されたパワー情報
をこの予測値(以後、情報Pn ’と呼ぶ)で置き換えて
出力する(ステップ23)。続いて、情報Pn ’とバッ
ファ10に記憶されている内部状態とを組み合わせて
(ステップS24)その結果であるゲインgn ’を出力
して利得を予測する(ステップS25)。その後、この
出力を予測利得部52へ出力して予測利得の設定を行う
(ステップS26)。また、利得の予測処理ならびに予
測利得の設定処理と並行して、バッファ10のCn 部に
は合成部11の出力に代えて上記の情報Pn ’を書き込
み、バッファ10のAn 部には上記のゲインgn ’を書
き込んで内部情報を更新する(ステップS27)。
The exception processing unit 12 replaces the transmitted power information with this predicted value (hereinafter referred to as information Pn ') and outputs it (step 23). Then, the information Pn 'and the internal state stored in the buffer 10 are combined (step S24), and the resulting gain gn' is output to predict the gain (step S25). Thereafter, this output is output to the prediction gain unit 52 to set the prediction gain (step S26). Further, in parallel with the gain prediction processing and the prediction gain setting processing, the above information Pn 'is written in the Cn portion of the buffer 10 instead of the output of the synthesizing portion 11, and the above gain is written in the An portion of the buffer 10. gn 'is written to update the internal information (step S27).

【0030】一方、例外処理部12が符号誤りを認識し
なかった場合(ステップS22)には、例外処理部12
は補償の処理(ステップS23)を行うことなく、受信
した情報をそのまま合成部11へ出力し、(3)式によ
り計算したゲインgn を出力する(ステップS24)。
その後、符号誤りが検出された場合と同様の手順によ
り、利得を予測し(ステップS25)、予測利得を設定
して(ステップS26)バッファ10の内部情報を更新
する(ステップS27)。
On the other hand, when the exception processing unit 12 does not recognize the code error (step S22), the exception processing unit 12
Outputs the received information as it is to the combining unit 11 without performing the compensation process (step S23), and outputs the gain gn calculated by the equation (3) (step S24).
After that, the gain is predicted (step S25), the predicted gain is set (step S26), and the internal information of the buffer 10 is updated by the same procedure as when the code error is detected (step S27).

【0031】[0031]

【発明の効果】以上説明したように、この発明によれ
ば、伝送路の状態が悪く符号化器から復号化器への伝送
情報が使用できない場合には、現フレームに対する情報
を過去のフレームの情報から予測して補間し、さらに、
次のフレームにおける復号化処理のために復号化器の内
部状態を更新することにより、通話音質の劣化を小さく
抑えることができるという効果が得られる。
As described above, according to the present invention, when the transmission information from the encoder to the decoder cannot be used because the state of the transmission path is bad, the information for the current frame is replaced with the information for the past frame. Predict from information, interpolate, and
By updating the internal state of the decoder for the decoding process in the next frame, it is possible to obtain the effect that the deterioration of the call sound quality can be suppressed.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明の一実施例において使用するフィルタ
係数復号化部55あるいは利得予測部54の構成を示す
ブロック図である。
FIG. 1 is a block diagram showing a configuration of a filter coefficient decoding unit 55 or a gain prediction unit 54 used in an embodiment of the present invention.

【図2】同実施例において使用するフィルタ係数復号化
部55の処理手順を表すフローチャートである。
FIG. 2 is a flowchart showing a processing procedure of a filter coefficient decoding unit 55 used in the embodiment.

【図3】同実施例による利得予測部54の処理手順を表
すフローチャートである。
FIG. 3 is a flowchart showing a processing procedure of a gain prediction unit 54 according to the same embodiment.

【図4】同実施例ならびに従来の技術において使用する
予測符号化器の構成を示すブロック図である。
FIG. 4 is a block diagram showing a configuration of a predictive encoder used in the embodiment and a conventional technique.

【図5】同実施例ならびに同技術において使用する復号
化器の構成を示すブロック図である。
FIG. 5 is a block diagram showing a configuration of a decoder used in the example and the technique.

【符号の説明】[Explanation of symbols]

10…バッファ、11…合成部、12…例外処理部、4
7、56…合成フィルタ、50…ピッチ励振源、51…
符号帳励振源、52…予測利得部、53…利得部、54
…利得予測部、55…フィルタ係数復号化部、57…誤
り検出部、R…受信データ、D…復号音声、Cn-3、Cn
-2、Cn-1、Cn、Cn’…内部状態、An-3、An-2、An
-1、An、An’…結果
10 ... Buffer, 11 ... Composition part, 12 ... Exception processing part, 4
7, 56 ... Synthesis filter, 50 ... Pitch excitation source, 51 ...
Codebook excitation source, 52 ... Prediction gain part, 53 ... Gain part, 54
... gain prediction unit, 55 ... filter coefficient decoding unit, 57 ... error detection unit, R ... received data, D ... decoded speech, Cn-3, Cn
-2, Cn-1, Cn, Cn '... Internal state, An-3, An-2, An
-1, An, An '... Result

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 フレーム間の相関などフレームにわたる
情報により符号化されて伝送された音声情報を受信し、
伝送情報の伝送誤りの有無を判別するとともに、伝送情
報を復号化して音声を再生する音声の復号化方法におい
て、 現フレームの伝送情報について前記伝送誤りを判別する
時点において、(1)前記伝送誤りが存在するために前
記伝送情報を使用できない場合に、 過去のフレームに対応して保持する内部状態に基づいて
前記伝送情報を補間し、該補間情報により復号音声を再
生し、 次のフレームの復号化のために、前記補間情報と前記過
去のフレームに対応した内部状態から現フレームに対応
する内部状態を予測して更新し、(2)前記伝送誤りが
存在しない場合に、 前記伝送情報と前記過去のフレームに対応した内部状態
から復号音声を再生し、 次のフレームの復号化のために、前記伝送情報から現フ
レームに対応する内部状態を作成して更新する、 ことを特徴とする音声の復号化方法。
1. Received voice information encoded and transmitted by information over frames such as correlation between frames,
In a voice decoding method for determining whether or not there is a transmission error in transmission information and reproducing the voice by decoding the transmission information, at the time of determining the transmission error for the transmission information of the current frame, (1) the transmission error When the transmission information cannot be used due to the presence of the above, the transmission information is interpolated based on the internal state held corresponding to the past frame, the decoded voice is reproduced by the interpolation information, and the decoding of the next frame is performed. In order to realize the above, the internal state corresponding to the current frame is predicted and updated from the interpolation information and the internal state corresponding to the past frame, and (2) when the transmission error does not exist, the transmission information and the The decoded voice is played from the internal state corresponding to the past frame, and the internal state corresponding to the current frame is created from the transmission information for decoding the next frame. Updating Te, decoding method of speech, characterized in that.
【請求項2】 フレーム間の相関などフレームにわたる
情報により符号化されて伝送される音声の符号化情報を
受信して該伝送情報の伝送誤りの有無を判別する誤り検
出部と、前記伝送情報から時系列ベクトルを発生する励
振源と、前記時系列ベクトルに利得をかける利得部と、
前記利得部の利得を予測する利得予測部と、前記利得部
に駆動されて復号音声を出力する合成フィルタと、前記
合成フィルタにフィルタ係数を与えるフィルタ係数復号
化部とから構成される音声の復号化装置において、 前記フィルタ係数復号化部は、 各フレームにおける前記伝送情報に対応した内部状態を
保持するバッファと、 前記伝送誤り検出時に、前記伝送情報を補間して符号化
情報を出力し前記内部状態を更新する例外処理部と、 前記伝送誤り未検出時に、前記伝送情報から符号化情報
を計算して出力し前記内部状態を更新する合成部と、 前記いずれかの符号化情報から実際にフィルタ係数を復
号する復号処理部と、 からなることを特徴とする音声の復号化装置。
2. An error detection unit for receiving coded information of voice coded and transmitted by information over frames such as correlation between frames and determining whether or not there is a transmission error in the transmission information; An excitation source that generates a time series vector, and a gain unit that applies a gain to the time series vector,
Speech decoding including a gain prediction unit that predicts the gain of the gain unit, a synthesis filter that is driven by the gain unit to output decoded speech, and a filter coefficient decoding unit that provides a filter coefficient to the synthesis filter In the coding apparatus, the filter coefficient decoding unit stores a buffer that holds an internal state corresponding to the transmission information in each frame, and outputs the encoded information by interpolating the transmission information when the transmission error is detected. An exception processing unit that updates the state, a synthesis unit that calculates and outputs coding information from the transmission information and updates the internal state when the transmission error is not detected, and an actual filter from any of the coding information. A decoding device for decoding a coefficient, and a decoding device for speech, comprising:
【請求項3】 フレーム間の相関などフレームにわたる
情報により符号化されて伝送される音声の符号化情報を
受信して該伝送情報の伝送誤りの有無を判別する誤り検
出部と、前記伝送情報から時系列ベクトルを発生する励
振源と、前記時系列ベクトルに利得をかける利得部と、
前記利得部の利得を予測する利得予測部と、前記利得部
に駆動されて復号音声を出力する合成フィルタと、前記
合成フィルタにフィルタ係数を与えるフィルタ係数復号
化部とから構成される音声の復号化装置において、 前記利得予測部は、 各フレームにおけるパワー情報に対応した内部状態を保
持するバッファと、 前記伝送誤り検出時に、前記パワー情報を補間して予測
利得情報を出力し前記内部状態を更新する例外処理部
と、 前記伝送誤り未検出時に、前記パワー情報から予測利得
情報を計算して出力し前記内部状態を更新する合成部
と、 からなることを特徴とする音声の復号化装置。
3. An error detection unit for receiving coded information of voice coded and transmitted by information over frames such as correlation between frames and determining whether or not there is a transmission error in the transmission information, and an error detection unit from the transmission information. An excitation source that generates a time series vector, and a gain unit that applies a gain to the time series vector,
Speech decoding including a gain prediction unit that predicts the gain of the gain unit, a synthesis filter that is driven by the gain unit to output decoded speech, and a filter coefficient decoding unit that provides a filter coefficient to the synthesis filter In the coding device, the gain prediction unit updates the internal state by buffering an internal state corresponding to power information in each frame and interpolating the power information to output predicted gain information when detecting the transmission error. A speech decoding apparatus, comprising: an exception processing unit that performs the above; and a synthesis unit that calculates and outputs predicted gain information from the power information and updates the internal state when the transmission error is not detected.
【請求項4】 前記例外処理部は、 現フレームの伝送情報に伝送誤りが存在する場合に、過
去のフレームに対応した前記内部状態から前記補間情報
を計算して出力し、前記補間情報と前記過去のフレーム
に対応した内部状態とから現フレームに対応する内部状
態を予測し、前記予測値で現フレームに対応する内部状
態を更新し、 現フレームの伝送情報に伝送誤りが存在しない場合に、
当該例外処理部に入力された情報をそのまま前記合成部
へ出力することを特徴とする請求項2または3に記載の
音声の復号化装置。
4. The exception processing unit calculates and outputs the interpolation information from the internal state corresponding to a past frame when the transmission information of the current frame has a transmission error, and outputs the interpolation information and the interpolation information. Predict the internal state corresponding to the current frame from the internal state corresponding to the past frame, update the internal state corresponding to the current frame with the predicted value, if there is no transmission error in the transmission information of the current frame,
The audio decoding apparatus according to claim 2, wherein the information input to the exception processing unit is output to the synthesis unit as it is.
【請求項5】 前記合成部は、 現フレームの伝送情報に伝送誤りが存在する場合には動
作せず、 現フレームの伝送情報に伝送誤りが存在しない場合に、
当該合成部に入力された情報と過去のフレームに対応し
た内部状態とを組み合わせた情報を出力し、該入力情報
で現フレームに対応する内部状態を更新することを特徴
とする請求項2または3に記載の音声の復号化装置。
5. The combining unit does not operate when there is a transmission error in the transmission information of the current frame, and when the transmission information does not exist in the transmission information of the current frame,
4. The information combining the information input to the synthesizing unit and the internal state corresponding to the past frame is output, and the internal state corresponding to the current frame is updated with the input information. The audio decoding device according to.
JP06244444A 1994-10-07 1994-10-07 Audio decoding method and apparatus Expired - Lifetime JP3085347B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP06244444A JP3085347B2 (en) 1994-10-07 1994-10-07 Audio decoding method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP06244444A JP3085347B2 (en) 1994-10-07 1994-10-07 Audio decoding method and apparatus

Publications (2)

Publication Number Publication Date
JPH08110798A true JPH08110798A (en) 1996-04-30
JP3085347B2 JP3085347B2 (en) 2000-09-04

Family

ID=17118750

Family Applications (1)

Application Number Title Priority Date Filing Date
JP06244444A Expired - Lifetime JP3085347B2 (en) 1994-10-07 1994-10-07 Audio decoding method and apparatus

Country Status (1)

Country Link
JP (1) JP3085347B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002071389A1 (en) * 2001-03-06 2002-09-12 Ntt Docomo, Inc. Audio data interpolation apparatus and method, audio data-related information creation apparatus and method, audio data interpolation information transmission apparatus and method, program and recording medium thereof
JPWO2008013135A1 (en) * 2006-07-27 2009-12-17 日本電気株式会社 Audio data decoding device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02282299A (en) * 1989-04-24 1990-11-19 Matsushita Electric Ind Co Ltd Voice decoding device
JPH06130999A (en) * 1992-10-22 1994-05-13 Oki Electric Ind Co Ltd Code excitation linear predictive decoding device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02282299A (en) * 1989-04-24 1990-11-19 Matsushita Electric Ind Co Ltd Voice decoding device
JPH06130999A (en) * 1992-10-22 1994-05-13 Oki Electric Ind Co Ltd Code excitation linear predictive decoding device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002071389A1 (en) * 2001-03-06 2002-09-12 Ntt Docomo, Inc. Audio data interpolation apparatus and method, audio data-related information creation apparatus and method, audio data interpolation information transmission apparatus and method, program and recording medium thereof
JPWO2008013135A1 (en) * 2006-07-27 2009-12-17 日本電気株式会社 Audio data decoding device
JP4678440B2 (en) * 2006-07-27 2011-04-27 日本電気株式会社 Audio data decoding device
US8327209B2 (en) 2006-07-27 2012-12-04 Nec Corporation Sound data decoding apparatus

Also Published As

Publication number Publication date
JP3085347B2 (en) 2000-09-04

Similar Documents

Publication Publication Date Title
EP0459358B1 (en) Speech decoder
KR100487943B1 (en) Speech coding
JP6659882B2 (en) Audio encoding device and audio encoding method
AU2009353896A1 (en) Hearing aid with audio codec and method
EP1096476B1 (en) Speech signal decoding
JP2002268696A (en) Sound signal encoding method, method and device for decoding, program, and recording medium
US5313554A (en) Backward gain adaptation method in code excited linear prediction coders
JPH09319398A (en) Signal encoder
EP1363274B1 (en) Voice code sequence converting device
JP3085347B2 (en) Audio decoding method and apparatus
JP3435310B2 (en) Voice coding method and apparatus
JP3249144B2 (en) Audio coding device
JP3308783B2 (en) Audio decoding device
JPH05165500A (en) Voice coding method
JP2001142499A (en) Speech encoding device and speech decoding device
JP3270146B2 (en) Audio coding device
JP3107620B2 (en) Audio coding method
JP2775533B2 (en) Long-term speech prediction device
JPH0990997A (en) Speech coding device, speech decoding device, speech coding/decoding method and composite digital filter
JP2004061558A (en) Method and device for code conversion between speed encoding and decoding systems and storage medium therefor
JPH10161696A (en) Voice encoding device and voice decoding device
JP2004020675A (en) Method and apparatus for encoding/decoding speech
JPH11505637A (en) Signal transmission system with reduced complexity
JPH07248795A (en) Voice processor
JPH11316600A (en) Method and device for encoding lag parameter and code book generating method

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070707

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080707

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080707

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090707

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090707

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100707

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110707

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120707

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130707

Year of fee payment: 13

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term