JP2001228900A - Speech parameter encoding device, encoding system used for the same, computer-readable recording medium stated having encoding algorithm for the same, speech parameter quantizing device, quantization method used for this device and computer-readable recording medium loaded with quantization algorithm - Google Patents

Speech parameter encoding device, encoding system used for the same, computer-readable recording medium stated having encoding algorithm for the same, speech parameter quantizing device, quantization method used for this device and computer-readable recording medium loaded with quantization algorithm

Info

Publication number
JP2001228900A
JP2001228900A JP2000036311A JP2000036311A JP2001228900A JP 2001228900 A JP2001228900 A JP 2001228900A JP 2000036311 A JP2000036311 A JP 2000036311A JP 2000036311 A JP2000036311 A JP 2000036311A JP 2001228900 A JP2001228900 A JP 2001228900A
Authority
JP
Japan
Prior art keywords
quantization
parameter
frame
speech
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000036311A
Other languages
Japanese (ja)
Inventor
Hiroko Ida
裕子 井田
Atsushi Yamane
淳 山根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2000036311A priority Critical patent/JP2001228900A/en
Publication of JP2001228900A publication Critical patent/JP2001228900A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a speech parameter quantization method, with which the quantization at a relatively small number of bit and the reduction of a memory quantity are possible. SOLUTION: When a digital input signal is inputted (S1), the input signal is divided to prescribed frames (S2). The frames are divided to a plurality of sub-frames shorter than the frames (S3). The present frames are subjected to an LPC analysis. Spectral speech parameters are extracted (S4). The LPC speech parameters are converted into an LPS and are then subjected to quantization by using, for example, a code book (S5). The speech parameters of the sub-frames are calculated according to a prescribed calculation method, for example, linear interpolation, etc., by each order of the speech parameters by the quantized value and the quantized value past at least one frame (S6). The quantized speech parameters by each of the calculated frames are transmitted to a decoding side (S7) as output signals.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、音声パラメータ符
号化装置およびその装置に用いられる符号化方式および
その符号化アルゴリズムを記載したコンピュータ読み取
り可能な記録媒体、および、音声パラメータ量子化装置
およびその装置に用いられる量子化方法およびその量子
化アルゴリズムを記載したコンピュータ読み取り可能な
記録媒体、より詳細には、データの圧縮技術に関し、電
話機,ボイスメール等の音声符号化伝送システムに応用
可能な音声パラメータ符号化装置およびその装置に用い
られる符号化方式およびその符号化アルゴリズムを記載
したコンピュータ読み取り可能な記録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a speech parameter coding device, a computer-readable recording medium describing a coding method used in the device, and a coding algorithm thereof, and a voice parameter quantization device and a device therefor. Computer-readable recording medium describing a quantization method and a quantization algorithm used in the present invention, and more particularly, to a data compression technique, a speech parameter code applicable to a speech encoding transmission system such as a telephone, a voice mail, etc. The present invention relates to a computer-readable recording medium that describes an encoding device, an encoding method used in the device, and an encoding algorithm thereof.

【0002】[0002]

【従来の技術】8.0kbps以下の低ビットレートで
音声信号を符号化する方式としては、CELP(Code E
xiled Linear Predictive Coding)符号化をベースとし
た方式が知られている。CELP符号化では、音声信号
からフレーム毎に予め定められた次数に線形予測パラメ
ータを算出し、量子化や補間特性により優れたPARC
OR係数やLSP係数への変換,量子化を行う。
2. Description of the Related Art As a method for encoding a speech signal at a low bit rate of 8.0 kbps or less, CELP (Code E
A method based on xiled Linear Predictive Coding (encoding) is known. In the CELP coding, a linear prediction parameter is calculated from an audio signal to a predetermined order for each frame, and a PARC having better quantization and interpolation characteristics is calculated.
Conversion to OR coefficients and LSP coefficients and quantization are performed.

【0003】このように、量子化する場合において、平
均的にビットレートを下げる方法としては、各フレーム
に割り当てるビット数を下げるか、フレーム分析長を伸
ばす方法が取られている。しかし、フレーム長を伸ばす
場合、フレーム長を伸ばすにつれて時間変動特性の追随
性が低下するため、フレームをさらに分割したサブフレ
ーム単位で特徴音声パラメータを処理するのが一般的で
あり、そして、フレーム単位で定める音声パラメータに
関しては、過去に量子化された音声パラメータと当該フ
レームで量子化された音声パラメータとの直線補間など
によって、サブフレームの量子化音声パラメータの決定
を行うものであった。この従来例としては、「線スペク
トル対(LSP)音声合成分析方式による音声情報圧
縮」(管村,板倉、電子情報通信学会論文誌J64−
A、8、pp.599−606(1981))に示され
ている。
As described above, in quantizing, as a method of reducing the average bit rate, a method of reducing the number of bits allocated to each frame or extending the frame analysis length has been adopted. However, when the frame length is extended, since the followability of the time variation characteristic decreases as the frame length is extended, it is general to process the characteristic voice parameters in subframe units obtained by further dividing the frame. With respect to the audio parameters defined in (1), the quantized audio parameters of the sub-frame are determined by linear interpolation of the audio parameters quantized in the past and the audio parameters quantized in the frame. An example of this conventional example is “Speech information compression by line spectrum pair (LSP) speech synthesis analysis method” (Kanmura, Itakura, IEICE Transactions J64-
A, 8, pp. 599-606 (1981)).

【0004】しかし、このような直線補間による方法で
は、フレーム全体の平均的特性を表すことしかできない
ため、フレーム内に過渡部が含まれる場合、復元能力が
大きく劣化していた。このような問題点を解決する方法
として、例えば、特開平5−6199号公報や特開平7
−86954号公報に開示された方法が提案されてい
る。
However, such a method using linear interpolation can only represent the average characteristics of the entire frame. Therefore, when a transient portion is included in the frame, the restoring ability has been greatly deteriorated. As a method for solving such a problem, for example, Japanese Patent Application Laid-Open No.
A method disclosed in -86954 has been proposed.

【0005】また、CELP符号化では、音声のスペク
トル特性を表すスペクトルパラメータを算出し、符号化
を行う。スペクトルパラメータとしては、LPC(Line
ar Predictive Coding)が用いられる。デジタル入力信
号に対して自己相関分析とLPC分析を行うことによ
り、LPC係数が抽出される。LPC係数の量子化にあ
たっては、PARCOR(Partial auto?correlation
coefficient)やLSP(Line Spectrum Pair)に変換
され量子化される。特に、LSPは、量子化特性および
補間特性に優れることから、多く用いられている。
[0005] In CELP coding, a spectrum parameter representing the spectrum characteristic of speech is calculated and coding is performed. As spectral parameters, LPC (Line
ar Predictive Coding) is used. An LPC coefficient is extracted by performing an autocorrelation analysis and an LPC analysis on the digital input signal. When quantizing LPC coefficients, PARCO (Partial auto? Correlation)
coefficient) or LSP (Line Spectrum Pair) and quantized. In particular, LSPs are widely used because of their excellent quantization characteristics and interpolation characteristics.

【0006】このようなパラメータを符号化する方法と
しては、スカラー量子化やベクトル量子化が知られてい
る。ベクトル量子化は、符号化を行う離散化されたサン
プル信号を複数個にまとめたものを1つのベクトルとみ
なし、各ベクトルを予め作成しておいた符号帳の中から
最も歪が小さくなるような代表ベクトルを選択し、その
符号を出力する方法である。例としては、Biing-Hwang
Juang, A.H.Gray, Jr.,“Multiple stage Vector Quant
ization for Speech Coding”, IEEE Proc.ICASSP-82,1
982に記載される多段ベクトル量子化やK.K.Paliwal,B.
S.Atal,“Efficient Vector Quantization of LPC Pram
eters at 24 Bits/Frame, IEEE, 1991に記載される分割
ベクトル量子化などがあげられる。また、隣り合うフレ
ームの各線形予測パラメータは相関が強いことから、こ
の相関を利用することにより、量子化精度を高める工夫
がなされている。また、例えば、特開平6−17569
5号公報に開示された「音声パラメータの符号化及び復
号方法」では、ベクトル量子化の構造にMA(Moving Av
erage)予測を取り入れることによって量子化精度を向上
させている。
As a method for encoding such parameters, scalar quantization and vector quantization are known. In vector quantization, a group of discrete sampled signals to be encoded is regarded as one vector, and each vector has the smallest distortion from a previously created codebook. In this method, a representative vector is selected and its sign is output. For example, Biing-Hwang
Juang, AHGray, Jr., “Multiple stage Vector Quant
ization for Speech Coding ”, IEEE Proc. ICASSP-82,1
Multistage vector quantization and KK Paliwal, B.
S. Atal, “Efficient Vector Quantization of LPC Pram
eters at 24 Bits / Frame, IEEE, 1991, and division vector quantization. Further, since the linear prediction parameters of adjacent frames have a strong correlation, a scheme has been devised to improve the quantization accuracy by using this correlation. In addition, for example, Japanese Patent Application Laid-Open No. 6-17569
In the “encoding and decoding method of voice parameters” disclosed in Japanese Patent Laid-Open No. 5 (1993) -2005, the MA (Moving Av.
erage) The prediction accuracy is improved by incorporating prediction.

【0007】[0007]

【発明が解決しようとする課題】しかしながら、上記特
開平5−6199号公報に開示された方法では、1つの
サブフレームの音声パラメータは、過去のフレームでの
音声パラメータの量子化値と当該フレームでの音声パラ
メータの量子化値と符号帳を用いて量子化を行っている
が、復元するための符号を送らねばならず、ビット数を
要していた。
However, according to the method disclosed in Japanese Patent Laid-Open Publication No. Hei 5-6199, the speech parameter of one sub-frame is determined by the quantization value of the speech parameter in the past frame and the quantization value of the speech parameter in the past frame. Quantization is performed using the quantized value of the voice parameter and the codebook, but a code for restoration must be sent, and the number of bits is required.

【0008】また、上記特開平7−86954号公報に
開示された方法では、音声モードによってサブフレーム
の音声パラメータの補間方法を変えることにより、時間
変動特性の追随性を高めているが、複数次元の特徴音声
パラメータを1組のベクトルとして扱い、分析次数によ
らずに均一な補間方法を用いて算出していたため、スペ
クトルの次数毎の時間追随性を最適に表現するものでは
なかった。また、補間量子化誤差を量子化するため、復
元するための符号を送らなければならず、ビット数を要
していた。
In the method disclosed in Japanese Patent Laid-Open No. 7-86954, the method of interpolating the audio parameters of the sub-frame is changed according to the audio mode to improve the followability of the time variation characteristic. Are treated as a set of vectors and are calculated using a uniform interpolation method regardless of the order of analysis, so that the time tracking property for each order of the spectrum is not optimally represented. Further, in order to quantize the interpolation quantization error, a code for restoring has to be sent, which requires the number of bits.

【0009】本発明は、上述のような実情を考慮してな
されたもので、所定の次数の分析次数毎に異なるサブフ
レーム音声パラメータ算出工程を用いることによって歪
みの劣化を抑え、比較的少ないビット数でサブフレーム
の音声パラメータを量子化する方法を提供することを目
的としてなされたものである。
The present invention has been made in consideration of the above-described circumstances, and uses a different sub-frame speech parameter calculation process for each analysis order of a predetermined order to suppress deterioration of distortion and reduce the number of bits to be reduced. It is intended to provide a method for quantizing audio parameters of a subframe by a number.

【0010】また、ベクトル量子化では、符号帳を要す
るため、符号帳の作成の手間や符号帳を格納するための
メモリ量を必要であった。さらに、予測を用いた量子化
では、音声パラメータの変動が大きい場合、正確に予測
を行うことが難しく、予測を用いなかった場合よりも歪
みが大きくなることがあった。
[0010] In addition, since vector code requires a codebook, it takes time to create the codebook and requires a large amount of memory for storing the codebook. Furthermore, in the quantization using prediction, it is difficult to perform accurate prediction when the fluctuation of the speech parameter is large, and the distortion may be larger than when no prediction is used.

【0011】本発明は、上述のような実情を考慮してな
されたもので、高能率符号化方法の1つである適応予測
差分量子化(Jayant, N.S.“Adaptive quantization wi
th aone-word memory”, BST J52-7, pp.119-1144(197
4)に詳述)を音声パラメータの量子化に用いることによ
り、スカラー量子化に比べて効率的に音声パラメータを
量子化する方法を提供することを目的としてなされたも
のである。
The present invention has been made in view of the above-mentioned circumstances, and is based on the adaptive prediction differential quantization (Jayant, NS "Adaptive quantization wi) which is one of the high efficiency coding methods.
th aone-word memory ”, BST J52-7, pp.119-1144 (197
The purpose of the present invention is to provide a method for quantizing speech parameters more efficiently than scalar quantization by using (4) described in detail) for quantization of speech parameters.

【0012】また、本発明では、構造として符号帳を持
たないため、ベクトル量子化に比べて学習データによる
依存がなく、またメモリ量を削減することができる。さ
らに、本発明では、音声パラメータの変動により、予測
を用いた量子化手法、あるいは、予測を用いない量子化
手法の選択を行う手段を持つことにより、音声パラメー
タの変動に頑強な量子化装置を提供する。
Further, in the present invention, since there is no codebook as a structure, there is no dependence on learning data as compared with vector quantization, and the amount of memory can be reduced. Furthermore, in the present invention, by providing a means for selecting a quantization method using prediction or a quantization method not using prediction based on fluctuations in voice parameters, a quantization apparatus that is robust against fluctuations in voice parameters is provided. provide.

【0013】[0013]

【課題を解決するための手段】請求項1の発明は、デジ
タル入力信号をフレームに分割するフレーム分割手段
と、前記デジタル入力信号を前記フレームの長さよりも
短いサブフレームに分割するサブフレーム分割手段と、
前記フレームの入力信号を用いて所定の分析次数の音声
パラメータを算出する音声パラメータ算出手段と、前記
音声パラメータを量子化する音声パラメータ量子化手段
と、現在及び過去のフレームにおける前記音声パラメー
タを用いて各前記サブフレームの音声パラメータを求め
るサブフレーム音声パラメータ算出手段とを備えた音声
パラメータ符号化装置において、前記サブフレーム音声
パラメータ算出手段は、前記音声パラメータの各次数毎
に予め設定した手法を用いることを特徴としたものであ
る。
According to the present invention, there is provided a frame dividing means for dividing a digital input signal into frames, and a sub-frame dividing means for dividing the digital input signal into sub-frames shorter than the length of the frame. When,
Speech parameter calculation means for calculating speech parameters of a predetermined analysis order using the input signal of the frame, speech parameter quantization means for quantizing the speech parameters, and using the speech parameters in current and past frames In a speech parameter encoding device comprising: a sub-frame speech parameter calculation unit for obtaining a speech parameter of each of the sub-frames, the sub-frame speech parameter calculation unit uses a method preset for each order of the speech parameter. It is characterized by.

【0014】請求項2の発明は、請求項1の発明におい
て、前記サブフレーム音声パラメータ算出手段は、予め
各次数の音声パラメータの変動を求めて該変動をもとに
各次数のサブフレーム音声パラメータを算出する手法を
決定することを特徴としたものである。
According to a second aspect of the present invention, in the first aspect of the present invention, the sub-frame speech parameter calculating means obtains a variation of the speech parameter of each order in advance and calculates the sub-frame speech parameter of each order based on the variation. Is determined.

【0015】請求項3の発明は、請求項1または2の発
明において、前記サブフレーム音声パラメータ算出手段
は、スプライン補間法をはじめとする各種補間法などの
高次関数を用いることを特徴としたものである。
According to a third aspect of the present invention, in the first or second aspect of the present invention, the sub-frame speech parameter calculating means uses a higher-order function such as various interpolation methods such as a spline interpolation method. Things.

【0016】請求項4の発明は、デジタル入力信号をフ
レームに分割するフレーム分割手段と、前記デジタル入
力信号を前記フレームの長さよりも短いサブフレームに
分割するサブフレーム分割手段と、前記フレームの入力
信号を用いて所定の分析次数の音声パラメータを算出す
る音声パラメータ算出手段と、現在のフレームの音声パ
ラメータを量子化する場合に歪みの小さい順に複数の量
子化候補を選択する量子化候補選択手段と、前記量子化
候補毎に量子化歪みを算出する量子化歪み算出手段と、
前記複数のフレーム音声パラメータ量子化候補毎に音声
パラメータの各次数毎に予め設定した手法を用いて前記
サブフレームの音声パラメータを算出するサブフレーム
音声パラメータ算出手段とを備える音声パラメータ符号
化装置において、前記次数毎に設定した手法を用いて算
出されたサブフレーム音声パラメータの歪みを次数毎に
求めるサブフレーム歪み算出手段と、これら次数毎の歪
みを所定数のサブフレームで累積するサブフレーム累積
歪み算出手段と、該サブフレーム累積歪みと前記サブフ
レームの音声パラメータを算出するために使用した音声
パラメータの量子化歪みとの累積値を候補毎に求める累
積歪み算出手段と、該累積歪みが最小となる前記フレー
ム量子化値を選択するフレーム量子化値選択手段とを備
えたことを特徴としたものである。
According to a fourth aspect of the present invention, there is provided frame dividing means for dividing a digital input signal into frames, sub-frame dividing means for dividing the digital input signal into sub-frames shorter than the length of the frame, and inputting the frame. Speech parameter calculation means for calculating speech parameters of a predetermined analysis order using the signal, and quantization candidate selection means for selecting a plurality of quantization candidates in order of small distortion when quantizing the speech parameters of the current frame, A quantization distortion calculating means for calculating a quantization distortion for each of the quantization candidates;
A voice parameter encoding device comprising: a sub-frame voice parameter calculating unit that calculates a voice parameter of the sub-frame using a method preset for each degree of a voice parameter for each of the plurality of frame voice parameter quantization candidates. A sub-frame distortion calculating means for calculating the distortion of the sub-frame speech parameter calculated by using the method set for each order, and a sub-frame cumulative distortion calculation for accumulating the distortion for each order in a predetermined number of sub-frames Means for calculating, for each candidate, the cumulative value of the sub-frame cumulative distortion and the quantization distortion of the audio parameter used to calculate the audio parameter of the sub-frame; and the cumulative distortion is minimized. Frame quantization value selection means for selecting the frame quantization value, Those were.

【0017】請求項5の発明は、デジタル入力信号をフ
レームに分割するフレーム分割工程と、前記デジタル入
力信号を前記フレームの長さよりも短いサブフレームに
分割するサブフレーム分割工程と、前記フレームの入力
信号を用いて所定の分析次数の音声パラメータを算出す
る音声パラメータ算出工程と、前記音声パラメータを量
子化する音声パラメータ量子化工程と、現在及び過去の
フレームにおける前記音声パラメータを用いて各前記サ
ブフレームの音声パラメータを求めるサブフレーム音声
パラメータ算出工程と、を備えた音声パラメータ符号化
方式において、前記サブフレーム音声パラメータ算出工
程は、前記音声パラメータの各次数毎に予め設定した手
法を用いることを特徴としたものである。
According to a fifth aspect of the present invention, there is provided a frame dividing step of dividing a digital input signal into frames, a subframe dividing step of dividing the digital input signal into subframes shorter than the length of the frame, and inputting the frame. A voice parameter calculation step of calculating a voice parameter of a predetermined analysis order using a signal; a voice parameter quantization step of quantizing the voice parameter; and each of the subframes using the voice parameter in a current and a past frame. And a sub-frame voice parameter calculating step of obtaining a voice parameter of the voice parameter, wherein the sub-frame voice parameter calculating step uses a method preset for each degree of the voice parameter. It was done.

【0018】請求項6の発明は、請求項5の発明におい
て、予め各次数の音声パラメータの変動を求め、これを
もとに各次数のサブフレーム音声パラメータを算出する
手法を決定することを特徴としたものである。
According to a sixth aspect of the present invention, in the fifth aspect of the present invention, a method of calculating the sub-frame audio parameters of each order is determined based on the variation of the audio parameters of each order in advance. It is what it was.

【0019】請求項7の発明は、請求項5または6の発
明において、前記サブフレーム音声パラメータ算出工程
は、スプライン補間法をはじめとする各種補間法などの
高次関数を用いることを特徴としたものである。
The invention of claim 7 is characterized in that, in the invention of claim 5 or 6, the subframe speech parameter calculating step uses a higher-order function such as various interpolation methods such as a spline interpolation method. Things.

【0020】請求項8の発明は、デジタル入力信号をフ
レームに分割するフレーム分割工程と、前記デジタル入
力信号を前記フレームの長さよりも短いサブフレームに
分割するサブフレーム分割工程と、前記フレームの入力
信号を用いて所定の分析次数の音声パラメータを算出す
る音声パラメータ算出工程と、現在のフレームの音声パ
ラメータを量子化する場合に歪みの小さい順に複数の量
子化候補を選択する量子化候補選択工程と、前記量子化
候補毎に量子化歪みを算出する量子化歪み算出工程と、
前記複数のフレーム音声パラメータ量子化候補毎に音声
パラメータの各次数毎に予め設定した手法を用いて前記
サブフレームの音声パラメータを算出するサブフレーム
音声パラメータ算出工程を備えた音声パラメータ符号化
方式において、前記次数毎に設定した手法を用いて算出
されたサブフレーム音声パラメータの歪みを次数毎に求
めるサブフレーム歪み算出工程と、これら次数毎の歪み
を所定数のサブフレームで累積するサブフレーム累積歪
み算出工程と、該サブフレーム累積歪みと前記サブフレ
ームの音声パラメータを算出するために使用した音声パ
ラメータの量子化歪みとの累積値を候補毎に求める累積
歪み算出工程と、該累積歪みが最小となる前記フレーム
量子化値を選択するフレーム量子化値選択工程とを備え
たことを特徴としたものである。
The invention according to claim 8 is a frame dividing step for dividing the digital input signal into frames, a subframe dividing step for dividing the digital input signal into subframes shorter than the length of the frame, and inputting the frame. A voice parameter calculation step of calculating a voice parameter of a predetermined analysis order using a signal, and a quantization candidate selection step of selecting a plurality of quantization candidates in ascending order of distortion when quantizing the voice parameter of the current frame; A quantization distortion calculating step of calculating a quantization distortion for each of the quantization candidates;
In a voice parameter encoding method including a subframe voice parameter calculation step of calculating a voice parameter of the subframe using a method preset for each degree of voice parameters for each of the plurality of frame voice parameter quantization candidates, A sub-frame distortion calculating step of obtaining a distortion of a sub-frame voice parameter calculated by using a method set for each of the orders, and a sub-frame cumulative distortion calculating for accumulating the distortion of each order in a predetermined number of sub-frames A cumulative distortion calculating step of obtaining, for each candidate, a cumulative value of the cumulative distortion of the sub-frame and the quantization distortion of the voice parameter used for calculating the voice parameter of the sub-frame, and the cumulative distortion is minimized. A frame quantization value selecting step of selecting the frame quantization value. It is intended.

【0021】請求項9の発明は、デジタル入力信号をフ
レームに分割するフレーム分割ステップと、前記デジタ
ル入力信号を前記フレームの長さよりも短いサブフレー
ムに分割するサブフレーム分割ステップと、前記フレー
ムの入力信号を用いて所定の分析次数の音声パラメータ
を算出する音声パラメータ算出ステップと、前記音声パ
ラメータを量子化する音声パラメータ量子化ステップ
と、現在及び過去のフレームにおける前記音声パラメー
タを用いて各前記サブフレームの音声パラメータを求め
るサブフレーム音声パラメータ算出ステップとを備えた
音声パラメータ符号化アルゴリズムを記載したコンピュ
ータ読み取り可能な記憶媒体において、前記サブフレー
ム音声パラメータ算出ステップは、前記音声パラメータ
の各次数毎に予め設定した手法を用いることを特徴とし
たものである。
According to a ninth aspect of the present invention, there is provided a frame dividing step of dividing a digital input signal into frames, a subframe dividing step of dividing the digital input signal into subframes shorter than the length of the frame, and inputting the frame. A voice parameter calculating step of calculating a voice parameter of a predetermined analysis order using a signal; a voice parameter quantization step of quantizing the voice parameter; and each of the subframes using the voice parameter in a current and a past frame. A computer-readable storage medium describing an audio parameter encoding algorithm comprising: a sub-frame audio parameter calculation step of obtaining the audio parameter of the sub-frame. It is obtained characterized by using the mentioned method.

【0022】請求項10の発明は、請求項9の発明にお
いて、前記サブフレーム音声パラメータ算出ステップ
は、予め各次数の音声パラメータの変動を求めて該変動
をもとに各次数のサブフレーム音声パラメータを算出す
る手法を決定することを特徴としたものである。
According to a tenth aspect of the present invention, in the ninth aspect of the present invention, the sub-frame speech parameter calculating step determines a variation of a speech parameter of each order in advance and calculates a sub-frame speech parameter of each order based on the variation. Is determined.

【0023】請求項11の発明は、請求項9または10
の発明において、前記サブフレーム音声パラメータ算出
ステップは、スプライン補間法をはじめとする各種補間
法などの高次関数を用いることを特徴としたものであ
る。
The invention of claim 11 is the invention of claim 9 or 10
In the invention, the sub-frame voice parameter calculation step uses a higher-order function such as various interpolation methods such as a spline interpolation method.

【0024】請求項12の発明は、デジタル入力信号を
フレームに分割するフレーム分割ステップと、前記デジ
タル入力信号を前記フレームの長さよりも短いサブフレ
ームに分割するサブフレーム分割ステップと、前記フレ
ームの入力信号を用いて所定の分析次数の音声パラメー
タを算出する音声パラメータ算出ステップと、現在のフ
レームの音声パラメータを量子化する場合に歪みの小さ
い順に複数の量子化候補を選択する量子化候補選択ステ
ップと、前記量子化候補毎に量子化歪みを算出する量子
化歪み算出ステップと、前記複数のフレーム音声パラメ
ータ量子化候補毎に音声パラメータの各次数毎に予め設
定した手法を用いて前記サブフレームの音声パラメータ
を算出するサブフレーム音声パラメータ算出ステップと
を備えた音声パラメータ符号化アルゴリズムを記載した
コンピュータ読み取り可能な記憶媒体において、前記次
数毎に設定した手法を用いて算出されたサブフレーム音
声パラメータの歪みを次数毎に求めるサブフレーム歪み
算出ステップと、これら次数毎の歪みを所定数のサブフ
レームで累積するサブフレーム累積歪み算出ステップ
と、該サブフレーム累積歪みと前記サブフレームの音声
パラメータを算出するために使用した音声パラメータの
量子化歪みとの累積値を候補毎に求める累積歪み算出ス
テップと、該累積歪みが最小となる前記フレーム量子化
値を選択するフレーム量子化値選択ステップとを備えた
ことを特徴としたものである。
In a twelfth aspect of the present invention, there is provided a frame dividing step for dividing a digital input signal into frames, a subframe dividing step for dividing the digital input signal into subframes shorter than the length of the frame, and inputting the frame. A voice parameter calculation step of calculating a voice parameter of a predetermined analysis order using a signal, and a quantization candidate selection step of selecting a plurality of quantization candidates in ascending order of distortion when quantizing the voice parameter of the current frame. A quantization distortion calculating step of calculating a quantization distortion for each of the quantization candidates; and a voice of the sub-frame using a method preset for each degree of a voice parameter for each of the plurality of frame voice parameter quantization candidates. A sub-frame speech parameter calculating step of calculating a parameter. A computer-readable storage medium describing a data encoding algorithm, a subframe distortion calculating step for obtaining, for each order, a distortion of a subframe speech parameter calculated using the method set for each order, Sub-frame cumulative distortion calculating step of accumulating the distortion of the sub-frame by a predetermined number of sub-frames; And a frame quantization value selecting step of selecting the frame quantization value that minimizes the cumulative distortion.

【0025】請求項13の発明は、デジタル入力信号を
フレームに分割するフレーム分割手段と、前記フレーム
毎に所定の分析次数の音声パラメータを算出する音声パ
ラメータ算出手段と、前記音声パラメータを量子化する
音声パラメータ量子化手段とを備えた音声パラメータ量
子化装置において、前記音声パラメータ量子化手段は、
適応予測差分量子化を用いて量子化を行うことを特徴と
したものである。
According to a thirteenth aspect of the present invention, a frame dividing means for dividing a digital input signal into frames, a speech parameter calculating means for calculating a speech parameter of a predetermined analysis order for each frame, and quantizing the speech parameters. A voice parameter quantization device comprising: a voice parameter quantization unit, wherein the voice parameter quantization unit includes:
It is characterized in that quantization is performed using adaptive prediction difference quantization.

【0026】請求項14の発明は、デジタル入力信号を
フレームに分割するフレーム分割手段と、前記フレーム
毎に所定の分析次数の音声パラメータを算出する音声パ
ラメータ算出手段と、前記音声パラメータを量子化する
音声パラメータ量子化手段とを備えた音声パラメータ量
子化装置において、音声パラメータ変動値を解析する音
声パラメータ変動解析手段と、複数の音声パラメータ量
子化手法を有する量子化手法選択手段とを備え、該量子
化手法選択手段は、前記音声パラメータ変動解析手段に
おいて解析された変動値を用いて所定の手法によって前
記複数の音声パラメータ量子化手法の中から量子化手法
を選択することを特徴としたものである。
The invention according to claim 14 is a frame dividing means for dividing a digital input signal into frames, a speech parameter calculating means for calculating a speech parameter of a predetermined analysis order for each frame, and a quantization of the speech parameters. A speech parameter quantizing device comprising: a speech parameter quantizing means; a speech parameter variation analyzing means for analyzing a speech parameter variation value; and a quantization technique selecting means having a plurality of speech parameter quantization techniques. The quantization technique selection means selects a quantization technique from the plurality of speech parameter quantization techniques by a predetermined technique using the variation value analyzed by the speech parameter variation analysis means. .

【0027】請求項15の発明は、請求項14の発明に
おいて、前記量子化手法選択手段は、予測を用いた量子
化手法もしくは予測を用いない量子化手法の選択を行う
ことを特徴としたものである。
According to a fifteenth aspect of the present invention, in the fourteenth aspect, the quantization method selecting means selects a quantization method using prediction or a quantization method not using prediction. It is.

【0028】請求項16の発明は、請求項15の発明に
おいて、前記量子化手法選択手段は、予測を用いた量子
化手法として適応予測差分量子化を用いることを特徴と
したものである。
[0028] The invention of claim 16 is the invention of claim 15, wherein the quantization method selection means uses adaptive prediction difference quantization as a quantization method using prediction.

【0029】請求項17の発明は、請求項13乃至16
のいずれかの発明において、前記音声パラメータから所
定の値を引く減算手段を備えたことを特徴としたもので
ある。
The invention of claim 17 is the invention of claims 13 to 16
Any one of the inventions, characterized by further comprising subtraction means for subtracting a predetermined value from the voice parameter.

【0030】請求項18の発明は、請求項13乃至17
のいずれかの発明において、前記音声パラメータの各次
数のビット配分を決定する量子化ビット配分決定手段を
備えたことを特徴としたものである。
The invention of claim 18 is the invention of claims 13 to 17
Any one of the inventions, characterized by further comprising a quantization bit allocation determining means for determining a bit allocation of each order of the voice parameter.

【0031】請求項19の発明は、デジタル入力信号を
フレームに分割するフレーム分割工程と、前記フレーム
毎に所定の分析次数の音声パラメータを算出する音声パ
ラメータ算出工程と、前記音声パラメータを量子化する
音声パラメータ量子化工程とを備えた音声パラメータ量
子化方法において、前記音声パラメータ量子化工程は、
適応予測差分量子化を用いて量子化を行うことを特徴と
したものである。
The invention according to claim 19 is a frame dividing step of dividing a digital input signal into frames, a speech parameter calculating step of calculating speech parameters of a predetermined analysis order for each frame, and quantizing the speech parameters. In a voice parameter quantization method comprising a voice parameter quantization step, the voice parameter quantization step,
It is characterized in that quantization is performed using adaptive prediction difference quantization.

【0032】請求項20の発明は、デジタル入力信号を
フレームに分割するフレーム分割工程と、前記フレーム
毎に所定の分析次数の音声パラメータを算出する音声パ
ラメータ算出工程と、前記音声パラメータを量子化する
音声パラメータ量子化工程とを備えた音声パラメータ量
子化方法において、音声パラメータ変動値を解析する音
声パラメータ変動解析工程と、複数の音声パラメータ量
子化手法を有する量子化手法選択工程とを備え、該量子
化手法選択工程は、前記音声パラメータ変動解析工程に
おいて解析された変動値を用いて所定の手法によって前
記複数の音声パラメータ量子化手法の中から量子化手法
を選択することを特徴としたものである。
According to a twentieth aspect of the present invention, there is provided a frame dividing step of dividing a digital input signal into frames, a voice parameter calculating step of calculating voice parameters of a predetermined analysis order for each frame, and quantizing the voice parameters. A voice parameter quantization method comprising: a voice parameter variation analysis step of analyzing a voice parameter variation value; and a quantization technique selection step having a plurality of voice parameter quantization techniques. The quantization technique selection step is characterized in that a quantization technique is selected from the plurality of speech parameter quantization techniques by a predetermined technique using the variation value analyzed in the speech parameter variation analysis step. .

【0033】請求項21の発明は、請求項20の発明に
おいて、前記量子化手法選択工程は、予測を用いた量子
化手法もしくは予測を用いない量子化手法の選択を行う
ことを特徴としたものである。
According to a twenty-first aspect of the present invention, in the twentieth aspect, in the quantization method selection step, a quantization method using prediction or a quantization method without prediction is selected. It is.

【0034】請求項22の発明は、請求項21の発明に
おいて、前記量子化手法選択工程は、予測を用いた量子
化手法として適応予測差分量子化を用いることを特徴と
したものである。
A twenty-second aspect of the present invention is characterized in that, in the twenty-first aspect, the quantization method selection step uses adaptive prediction difference quantization as a quantization method using prediction.

【0035】請求項23の発明は、請求項19乃至22
のいずれかの発明において、前記音声パラメータから所
定の値を引く減算工程を備えたことを特徴としたもので
ある。
The invention of claim 23 is the invention of claims 19 to 22
Any one of the inventions, characterized by further comprising a subtraction step of subtracting a predetermined value from the voice parameter.

【0036】請求項24の発明は、請求項19乃至23
のいずれかの発明において、前記音声パラメータの各次
数のビット配分を決定する量子化ビット配分決定工程を
備えたことを特徴としたものである。
The invention of claim 24 is the invention of claims 19 to 23
The invention according to any one of the first to third aspects, further comprising a quantization bit allocation determining step of determining a bit allocation of each order of the voice parameter.

【0037】請求項25の発明は、デジタル入力信号を
フレームに分割するフレーム分割ステップと、前記フレ
ーム毎に所定の分析次数の音声パラメータを算出する音
声パラメータ算出ステップと、前記音声パラメータを量
子化する音声パラメータ量子化ステップとを備えた音声
パラメータ量子化アルゴリズムを記載したコンピュータ
読み取り可能な記憶媒体において、前記音声パラメータ
量子化ステップは、適応予測差分量子化を用いて量子化
を行うことを特徴としたものである。
According to a twenty-fifth aspect of the present invention, a frame dividing step of dividing a digital input signal into frames, a voice parameter calculating step of calculating a voice parameter of a predetermined analysis order for each frame, and quantizing the voice parameters. A computer-readable storage medium describing a voice parameter quantization algorithm comprising a voice parameter quantization step, wherein the voice parameter quantization step performs quantization using adaptive prediction difference quantization. Things.

【0038】請求項26の発明は、デジタル入力信号を
フレームに分割するフレーム分割ステップと、前記フレ
ーム毎に所定の分析次数の音声パラメータを算出する音
声パラメータ算出ステップと、前記音声パラメータを量
子化する音声パラメータ量子化ステップとを備えた音声
パラメータ量子化アルゴリズムを記載したコンピュータ
読み取り可能な記憶媒体において、音声パラメータ変動
値を解析する音声パラメータ変動解析ステップと、複数
の音声パラメータ量子化手法を有する量子化手法選択ス
テップとを備え、該量子化手法選択ステップは、前記音
声パラメータ変動解析ステップにおいて解析された変動
値を用いて所定の手法によって前記複数の音声パラメー
タ量子化手法の中から量子化手法を選択することを特徴
としたものである。
According to a twenty-sixth aspect of the present invention, a frame dividing step of dividing a digital input signal into frames, a voice parameter calculating step of calculating voice parameters of a predetermined analysis order for each frame, and quantizing the voice parameters. A voice parameter variation analysis step of analyzing a voice parameter variation value in a computer-readable storage medium describing a voice parameter quantization algorithm having a voice parameter quantization step, and quantization having a plurality of voice parameter quantization techniques. A quantization method selection step, wherein the quantization method selection step selects a quantization method from the plurality of voice parameter quantization methods by a predetermined method using the fluctuation value analyzed in the voice parameter fluctuation analysis step. Is characterized by

【0039】請求項27の発明は、請求項26の発明に
おいて、前記量子化手法選択ステップは、予測を用いた
量子化手法もしくは予測を用いない量子化手法の選択を
行うことを特徴としたものである。
The invention of claim 27 is characterized in that, in the invention of claim 26, the quantization method selection step selects a quantization method using prediction or a quantization method without prediction. It is.

【0040】請求項28の発明は、請求項27の発明に
おいて、前記量子化手法選択ステップは、予測を用いた
量子化手法として適応予測差分量子化を用いることを特
徴としたものである。
According to a twenty-eighth aspect of the present invention, in the twenty-seventh aspect, the quantization method selecting step uses adaptive prediction difference quantization as a quantization method using prediction.

【0041】請求項29の発明は、請求項25乃至28
のいずれかの発明において、前記音声パラメータから所
定の値を引く減算ステップを備えたことを特徴としたも
のである。
The invention of claim 29 is the invention of claims 25 to 28
Any one of the inventions, further comprising a subtraction step of subtracting a predetermined value from the voice parameter.

【0042】請求項30の発明は、請求項25乃至29
のいずれかの発明において、前記音声パラメータの各次
数のビット配分を決定する量子化ビット配分決定ステッ
プを備えたことを特徴としたものである。
The invention of claim 30 is the invention of claims 25 to 29
Any one of the inventions, characterized by further comprising a quantization bit allocation determining step of determining a bit allocation of each order of the voice parameter.

【0043】[0043]

【発明の実施の形態】以下、本発明の構成を説明するに
あたっては、音声パラメータの1つであるLSPを用い
た場合を例として説明を行う。 (1)請求項1,5,9の発明の構成・動作について 図1は、本発明による音声パラメータ符号化装置および
その装置に用いられる符号化方式およびその符号化アル
ゴリズムを記載したコンピュータ読み取り可能な記録媒
体の一実施例を説明するためのブロック図である。図2
は、図1に示した実施例の動作の一実施例を説明するた
めのフローチャートである。まず、デジタル入力信号が
入力されると(S1)、フレーム分割手段1によって所
定のフレームに分割される(S2)。フレームの長さと
しては、通常、20ms〜40msの値が用いられる。
さらに、サブフレーム分割手段2によってフレームより
短い複数個のサブフレームに分割される(S3)。サブ
フレームの長さとしては、通常、10ms〜20msの
値が用いられる。そして、現在のフレームに対して音声
パラメータ算出手段3でLPC分析が行われ、スペクト
ル音声パラメータが抽出される(S4)。さらに、LP
C音声パラメータは、LSPに変換された後、音声パラ
メータ量子化手段4に送られ、量子化が行われる(S
5)。
DESCRIPTION OF THE PREFERRED EMBODIMENTS In the following, the configuration of the present invention will be described by taking as an example the case where an LSP, which is one of voice parameters, is used. FIG. 1 is a computer readable description of a speech parameter coding apparatus according to the present invention, a coding method used in the apparatus, and a coding algorithm thereof. FIG. 3 is a block diagram for explaining one embodiment of a recording medium. FIG.
FIG. 5 is a flowchart for explaining one embodiment of the operation of the embodiment shown in FIG. First, when a digital input signal is input (S1), it is divided into predetermined frames by the frame dividing means 1 (S2). Usually, a value of 20 ms to 40 ms is used as the frame length.
Further, the frame is divided into a plurality of subframes shorter than the frame by the subframe dividing means 2 (S3). As a length of the subframe, a value of 10 ms to 20 ms is usually used. Then, LPC analysis is performed on the current frame by the voice parameter calculation means 3, and spectral voice parameters are extracted (S4). Furthermore, LP
After the C voice parameter is converted into the LSP, it is sent to the voice parameter quantization means 4 where quantization is performed (S
5).

【0044】量子化するにあたっては様々な方法がある
が、一例として、符号帳5を用いて量子化を行う場合に
ついて説明する。LSPは、所定の符号帳5を用いて量
子化される。符号帳5の作成法としては、“An Algorit
hm for Vector Quantizer Design”(Y.Linde, A.Buzo
et.al;IEEE Trans.1980)に参照されるLBGアルゴリ
ズム等による。また、符号帳探索時の歪み距離尺度とし
ては、2乗距離や板倉・斎藤歪みなど、種々の方法が利
用される。このような距離尺度により、最小の歪みを与
える符号を選択し、量子化された値と、さらに少なくと
も1フレーム過去の量子化値とにより、次数毎音声パラ
メータ算出手段10によって音声パラメータの次数毎に
所定の算出方法に従ってサブフレームの音声パラメータ
が算出される(S6)。音声パラメータ算出手段として
は、例えば、直線補間などが用いられる。このようにし
て算出されたフレーム毎の量子化音声パラメータが出力
信号として復号側に伝送される(S7)。
There are various methods for performing quantization. As an example, a case where quantization is performed using the codebook 5 will be described. The LSP is quantized using a predetermined codebook 5. As a method of creating the codebook 5, "An Algorit
hm for Vector Quantizer Design ”(Y. Linde, A. Buzo
et.al; IEEE Trans. 1980). Further, as a distortion distance scale at the time of codebook search, various methods such as a square distance and Itakura-Saito distortion are used. According to such a distance scale, a code which gives the minimum distortion is selected, and the degree-based speech parameter calculation means 10 uses the quantized value and the quantized value at least one frame past for each degree of the speech parameter. The audio parameters of the subframe are calculated according to a predetermined calculation method (S6). As the voice parameter calculation means, for example, linear interpolation is used. The quantized audio parameters for each frame calculated in this way are transmitted to the decoding side as output signals (S7).

【0045】(2)請求項2,6,10の発明の構成・
動作について 図3は、本発明による音声パラメータ符号化装置および
その装置に用いられる符号化方式およびその符号化アル
ゴリズムを記載したコンピュータ読み取り可能な記録媒
体の他の実施例を説明するためのブロック図である。図
4は、図3に示した実施例の動作の一実施例を説明する
ためのフローチャート図である。デジタル入力信号は、
上記(1)で説明した処理(図3の1〜4)を経て、フ
レーム毎に量子化値が算出される(S11〜S15)。
次に、サブフレーム音声パラメータ算出手段8について
であるが、例えば、音声パラメータ算出方法として、補
間を用いた場合では、予め各次数毎に音声パラメータ変
動の解析を行う。この音声パラメータ変動分析方法とし
ては、ピッチ周期等が利用される。この解析結果は、音
声パラメータ変動判定手段9に記憶されている。また、
この解析結果をもとに、予め各次数毎のサブフレーム音
声パラメータ算出手法を求めておく。算出手法は、次数
毎音声パラメータ算出手段10に記憶されている。次数
毎音声パラメータ算出手段10により、量子化されたフ
レーム音声パラメータを用いて、サブフレームの音声パ
ラメータが算出される(S17)。
(2) Structure of the invention according to claims 2, 6 and 10
Operation FIG. 3 is a block diagram for explaining another embodiment of a computer-readable recording medium that describes a speech parameter encoding apparatus according to the present invention, an encoding scheme used in the apparatus, and an encoding algorithm thereof. is there. FIG. 4 is a flowchart for explaining one embodiment of the operation of the embodiment shown in FIG. The digital input signal is
Through the processing described in the above (1) (1 to 4 in FIG. 3), a quantization value is calculated for each frame (S11 to S15).
Next, regarding the sub-frame voice parameter calculation means 8, for example, when interpolation is used as a voice parameter calculation method, voice parameter fluctuation is analyzed in advance for each order. As the voice parameter fluctuation analysis method, a pitch cycle or the like is used. This analysis result is stored in the voice parameter change determination means 9. Also,
Based on this analysis result, a subframe speech parameter calculation method for each order is determined in advance. The calculation method is stored in the degree-based speech parameter calculation means 10. The audio parameter of the sub-frame is calculated by the degree-based audio parameter calculation means 10 using the quantized frame audio parameter (S17).

【0046】(3)請求項3,7,11の発明の構成・
動作について 図5は、本発明による音声パラメータ符号化装置および
その装置に用いられる符号化方式およびその符号化アル
ゴリズムを記載したコンピュータ読み取り可能な記録媒
体の他の実施例を説明するためのブロック図である。図
6は、図5に示した実施例の動作の一実施例を説明する
ためのフローチャートである。デジタル入力信号は、上
記(1)で説明した処理(図5の1〜4)を経て、フレ
ーム毎に量子化値が算出される(S21〜S25)。次
に、サブフレーム音声パラメータ算出手段8についてで
あるが、例えば、音声パラメータ算出方法として、補間
を用いた場合では、予め各次数毎に音声パラメータ変動
の解析を行う。この音声パラメータ変動分析方法として
は、ピッチ周期等が利用される。この解析結果をもと
に、予め各次数毎のサブフレーム音声パラメータを算出
するための高次関数を求めておく。この関数の算出法に
ついてであるが、例えば、ピッチ周期を用いた場合で
は、該当フレームのピッチ周期が短いときには、高次の
補間関数を算出し、また、ピッチ周期が広いときには、
低次の補間関数を算出するように決定する。補間関数の
算出にあたっては、種々の補間方法を利用することがで
きるが、一例として、スプライン補間関数による場合に
ついて説明する。
(3) Structure of the invention according to claims 3, 7, and 11
Operation FIG. 5 is a block diagram for explaining another embodiment of a computer-readable recording medium describing a speech parameter encoding apparatus according to the present invention, an encoding method used in the apparatus, and an encoding algorithm thereof. is there. FIG. 6 is a flowchart for explaining one embodiment of the operation of the embodiment shown in FIG. For the digital input signal, the quantization value is calculated for each frame through the processing described in the above (1) (1 to 4 in FIG. 5) (S21 to S25). Next, regarding the sub-frame voice parameter calculation means 8, for example, when interpolation is used as a voice parameter calculation method, voice parameter fluctuation is analyzed in advance for each order. As the voice parameter fluctuation analysis method, a pitch cycle or the like is used. Based on the analysis result, a higher-order function for calculating sub-frame audio parameters for each order is obtained in advance. Regarding the method of calculating this function, for example, in the case of using a pitch cycle, when the pitch cycle of the frame is short, a higher-order interpolation function is calculated, and when the pitch cycle is wide,
It is determined to calculate a low-order interpolation function. Various interpolation methods can be used to calculate the interpolation function. As an example, a case using a spline interpolation function will be described.

【0047】該当フレームの量子化値Xijと1フレーム
過去の量子化値Xij−1、2フレーム前の量子化値X
ij-2の3点を通る(iはLSP分析次数、jはフレーム
の時間を示す)スプライン関数s(x)は
The quantized value X ij of the corresponding frame and the quantized value X ij-1 of the previous frame and the quantized value X of the previous frame are calculated.
The spline function s (x) passing through three points ij-2 (i indicates the LSP analysis order and j indicates the time of the frame) is

【0048】[0048]

【式1】 と表されるので、(Equation 1) Is expressed as

【0049】[0049]

【式2】 のような3元連立1次方程式を解くことによって求めら
れる。例えば、このように、予め各次数毎に決定された
補間関数を用いたサブフレーム音声パラメータ算出手段
8によって、サブフレームの音声パラメータが算出され
る(S28)。
(Equation 2) It is obtained by solving a three-dimensional simultaneous linear equation such as For example, as described above, the sub-frame speech parameter calculating means 8 using the interpolation function determined for each order in advance calculates the speech parameters of the sub-frame (S28).

【0050】(4)請求項4,8,12の発明の構成・
動作について 図7は、本発明による音声パラメータ符号化装置および
その装置に用いられる符号化方式およびその符号化アル
ゴリズムを記載したコンピュータ読み取り可能な記録媒
体の他の実施例を説明するためのブロック図である。図
8は、図7に示した実施例の動作の一実施例を説明する
ためのフローチャートである。デジタル入力信号は、上
記(1)〜(3)において説明した処理と同様な処理を
経てフレーム毎に音声パラメータが算出される(S31
〜S34)。算出された音声パラメータは、音声パラメ
ータ量子化手段4によって量子化される(S35)が、
量子化候補選択手段6によって、量子化歪みの小さい順
に複数の量子化候補が選択される(S36)。こうして
選択された量子化候補に対して、それぞれ量子化歪みが
量子化歪み算出手段7によって算出される(S37)。
(4) Structure of the invention according to claims 4, 8, and 12
Operation FIG. 7 is a block diagram for explaining another embodiment of a computer-readable recording medium that describes a speech parameter encoding apparatus according to the present invention, an encoding scheme used in the apparatus, and an encoding algorithm thereof. is there. FIG. 8 is a flowchart for explaining one embodiment of the operation of the embodiment shown in FIG. With respect to the digital input signal, audio parameters are calculated for each frame through processing similar to the processing described in the above (1) to (3) (S31).
To S34). The calculated voice parameters are quantized by the voice parameter quantization means 4 (S35).
A plurality of quantization candidates are selected in ascending order of quantization distortion by the quantization candidate selection means 6 (S36). The quantization distortion is calculated by the quantization distortion calculator 7 for each of the quantization candidates thus selected (S37).

【0051】次に、サブフレームの音声パラメータは、
次数毎に上記(2),(3)の説明に記載した予め定め
られた方法に従って、各次数毎にサブフレーム音声パラ
メータ算出手段8によって算出される(S40)。但
し、これらサブフレームの音声パラメータは、前記フレ
ームの複数選択された各量子化音声パラメータを用い
て、それぞれ算出される(S41)。そして、前記複数
のサブフレームの音声パラメータの各々に対する歪みが
算出され(S42)、それら歪みの和が、サブフレーム
累積歪み算出手段11によって算出される(S43)。
音声パラメータの各次数毎に、フレームとサブフレーム
の各パラメータ候補による累積歪みが累積歪み算出手段
12によって算出され、この歪みを最小にするフレーム
量子化値がフレーム量子化値選択手段13によって選択
される(S44)。
Next, the audio parameters of the subframe are
According to the predetermined method described in the above description of (2) and (3) for each order, it is calculated by the subframe speech parameter calculation means 8 for each order (S40). However, the audio parameters of these sub-frames are respectively calculated using a plurality of quantized audio parameters of the frame (S41). Then, the distortion for each of the voice parameters of the plurality of subframes is calculated (S42), and the sum of the distortions is calculated by the subframe cumulative distortion calculating means 11 (S43).
Cumulative distortion due to each parameter candidate of the frame and subframe is calculated by the cumulative distortion calculating means 12 for each degree of the voice parameter, and a frame quantization value for minimizing the distortion is selected by the frame quantization value selecting means 13. (S44).

【0052】そして、フレーム量子化値選択手段13で
選択された量子化値を用いてサブフレーム音声パラメー
タがサブフレーム音声パラメータ算出手段14によって
算出される(S45)。こうしてサブフレーム音声パラ
メータ算出手段14で決定されたフレーム毎の量子化音
声パラメータが出力信号として伝送される(S46)。
Then, the sub-frame voice parameter is calculated by the sub-frame voice parameter calculating means 14 using the quantization value selected by the frame quantization value selecting means 13 (S45). The quantized speech parameters for each frame determined by the sub-frame speech parameter calculation means 14 are transmitted as output signals (S46).

【0053】以上の実施例では、音声パラメータのう
ち、LSPについて記述したが、LPC分析から導かれ
る係数、例えば、LSF係数,反射係数等のいずれの係
数を用いる場合においても本発明を適用することができ
る。
In the above embodiment, the LSP among the speech parameters has been described. However, the present invention can be applied to the case where any coefficient derived from the LPC analysis, for example, the LSF coefficient or the reflection coefficient is used. Can be.

【0054】(5)請求項13,19,25の発明の構
成・動作について 図9は、本発明による音声パラメータ量子化装置および
その装置に用いられる量子化方法およびその量子化アル
ゴリズムを記載したコンピュータ読み取り可能な記録媒
体の一実施例を説明するためのブロック図である。ま
ず、デジタル入力信号は、フレーム分割手段21によっ
て所定の分析長のフレームに分割される。フレーム長と
しては、音声が定常であるとみなされる20ms〜40
msの値があげられる。さらに、音声パラメータ算出手
段22において、前記フレーム毎にスペクトルパラメー
タを求める。スペクトルパラメータとしては、LPC
(Linear Predictive Coding)、PARCOR(Partia
l auto?correlation coefficient)、LSP(Line sp
ectrum Pair)があげられる。特に、LSPは、量子化
特性,補間特性に優れることから、多く用いられる。L
SPの算出にあたっては、まず、フレーム分割されたデ
ジタル入力信号に対して、自己相関分析とLPC分析を
行うことにより、LPCを求める。さらに、LPCを、
例えば、“Quantizer design LSP speech analysis-syn
thesis”J.Sel.Areas Commun.、pp.425-431,1988に参照
される手法を用いてLSPに変換される。算出されたL
SPは、音声パラメータ量子化手段27において、適応
予測差分量子化によって量子化され、その符号が出力信
号として復号側に伝送される。
(5) Configurations and Operations of the Inventions of Claims 13, 19, and 25 FIG. 9 shows a computer describing a speech parameter quantization apparatus according to the present invention, a quantization method used in the apparatus, and a quantization algorithm thereof. FIG. 2 is a block diagram for explaining an embodiment of a readable recording medium. First, the digital input signal is divided by the frame dividing means 21 into frames of a predetermined analysis length. As the frame length, 20 ms to 40 ms at which the voice is considered to be stationary
ms. Further, the speech parameter calculating means 22 calculates a spectrum parameter for each frame. As the spectral parameters, LPC
(Linear Predictive Coding), PARCOR (Partia
l auto? correlation coefficient), LSP (Line sp
ectrum Pair). In particular, LSPs are often used because of their excellent quantization characteristics and interpolation characteristics. L
In calculating the SP, first, an LPC is obtained by performing an autocorrelation analysis and an LPC analysis on the digital input signal divided into frames. In addition, LPC
For example, “Quantizer design LSP speech analysis-syn
Thesis ”is converted to LSP using the method referred to in J. Sel. Areas Commun., pp. 425-431, 1988. The calculated L
The SP is quantized by the adaptive prediction difference quantization in the speech parameter quantization means 27, and the code thereof is transmitted to the decoding side as an output signal.

【0055】(6)請求項14,20,26の発明の構
成・動作について 図10は、本発明による音声パラメータ量子化装置およ
びその装置に用いられる量子化方法およびその量子化ア
ルゴリズムを記載したコンピュータ読み取り可能な記録
媒体の他の実施例を説明するためのブロック図である。
デジタル入力信号は、上記(5)の説明で述べたよう
に、図10に示したフレーム分割手段21,音声パラメ
ータ算出手段22による処理を経て、音声パラメータ変
動解析手段24に入力され、音声パラメータ変動の解析
が行われる。音声パラメータ変動の解析手法としては、
これまでに提案されたピッチ周期や音声パワーを利用し
た手法など様々な手法を用いることができる。例えば、
LSPを用いた場合では、各次数毎に、現在のフレーム
のLSPと前のフレームのLSPとの差分の算出を行
う。
(6) Structure and operation of the invention according to claims 14, 20 and 26 FIG. 10 shows a computer which describes a speech parameter quantization apparatus according to the present invention, a quantization method used in the apparatus, and a quantization algorithm thereof. FIG. 11 is a block diagram for explaining another embodiment of a readable recording medium.
As described in the above (5), the digital input signal is input to the voice parameter fluctuation analysis unit 24 through the processing by the frame dividing unit 21 and the voice parameter calculation unit 22 shown in FIG. Is analyzed. As an analysis method of voice parameter fluctuation,
Various methods can be used, such as a method using a pitch period and a sound power proposed so far. For example,
When the LSP is used, the difference between the LSP of the current frame and the LSP of the previous frame is calculated for each order.

【0056】次に、量子化手法選択手段25において、
前記音声パラメータ変動解析手段24によって算出され
た値をもとに、複数の量子化手法から、量子化手法を選
択する。上記LSPを用いた場合では、音声パラメータ
変動解析手段24によって各次数毎に算出された差分を
閾値と比較することにより、量子化手法の選択を行う。
また、量子化手法選択手段25で選択される量子化とし
ては、例えば、スカラー量子化,多段量子化,分割量子
化などがあげられる。さらに、音声パラメータ量子化手
段27において、量子化手法選択手段25で選択された
量子化手法を用いて量子化が行われる。その符号が出力
信号として復号側に伝送される。
Next, in the quantization method selecting means 25,
Based on the value calculated by the voice parameter fluctuation analysis means 24, a quantization method is selected from a plurality of quantization methods. In the case of using the above LSP, the quantization method is selected by comparing the difference calculated for each order by the voice parameter fluctuation analysis unit 24 with a threshold value.
Examples of the quantization selected by the quantization method selection unit 25 include scalar quantization, multi-stage quantization, and division quantization. Further, in the voice parameter quantization means 27, quantization is performed using the quantization method selected by the quantization method selection means 25. The code is transmitted to the decoding side as an output signal.

【0057】(7)請求項15,21,27の発明の構
成・動作について 図11は、本発明による音声パラメータ量子化装置およ
びその装置に用いられる量子化方法およびその量子化ア
ルゴリズムを記載したコンピュータ読み取り可能な記録
媒体の他の実施例を説明するためのブロック図である。
デジタル入力信号は、上記(5)の説明で述べたよう
に、図11に示したフレーム分割手段21,音声パラメ
ータ算出手段22による処理を経て、音声パラメータ変
動解析手段24において、上記(6)の説明で述べた通
りに音声パラメータの変動解析が行われる。そして、解
析結果をもとに、量子化手法選択手段25において、予
測を用いる量子化手法または予測を用いない量子化手法
の選択が行われる。予測を用いる量子化手法としては適
応予測差分量子化などがあげられる。また、予測を用い
ない量子化手法としては、例えば、スカラー量子化,多
段量子化,分割量子化などがあげられる。選択された量
子化手法を用いて、音声パラメータ量子化手段27にお
いて、量子化が行われる。その符号が出力信号として復
号側に伝送される。
(7) Structures and Operations of the Inventions of Claims 15, 21, and 27 FIG. 11 shows a computer describing a speech parameter quantization apparatus according to the present invention, a quantization method used in the apparatus, and a quantization algorithm thereof. FIG. 11 is a block diagram for explaining another embodiment of a readable recording medium.
As described in the description of the above (5), the digital input signal is processed by the frame dividing means 21 and the speech parameter calculating means 22 shown in FIG. As described in the description, the voice parameter fluctuation analysis is performed. Then, based on the analysis result, the quantization method selection unit 25 selects a quantization method using prediction or a quantization method not using prediction. As a quantization method using prediction, there is an adaptive prediction difference quantization and the like. In addition, examples of the quantization method that does not use prediction include scalar quantization, multi-stage quantization, and division quantization. Using the selected quantization method, quantization is performed in the voice parameter quantization means 27. The code is transmitted to the decoding side as an output signal.

【0058】(8)請求項16,22,28の発明の構
成・動作について 図12は、本発明による音声パラメータ量子化装置およ
びその装置に用いられる量子化方法およびその量子化ア
ルゴリズムを記載したコンピュータ読み取り可能な記録
媒体の他の実施例を説明するためのブロック図である。
デジタル入力信号は、上記(5)の説明で述べたよう
に、図12に示したフレーム分割手段21,音声パラメ
ータ算出手段22による処理を経て、音声パラメータ変
動解析手段24において、上記(6)の説明で述べた通
りに音声パラメータの変動解析が行われる。そして、量
子化手法選択手段25において、予測を用いた量子化手
法として適応予測差分量子化の選択が行われる。選択さ
れた量子化手法を用いて、音声パラメータ量子化手段2
7において、量子化が行われる。その符号が出力信号と
して復号側に伝送される。
(8) Structure and operation of the invention according to claims 16, 22, and 28. FIG. 12 shows a computer describing a speech parameter quantization apparatus according to the present invention, a quantization method used in the apparatus, and a quantization algorithm thereof. FIG. 11 is a block diagram for explaining another embodiment of a readable recording medium.
As described in the description of the above (5), the digital input signal is processed by the frame parameter dividing means 21 and the speech parameter calculating means 22 shown in FIG. As described in the description, the voice parameter fluctuation analysis is performed. Then, in the quantization method selection unit 25, adaptive prediction difference quantization is selected as a quantization method using prediction. Using the selected quantization method, speech parameter quantization means 2
At 7, quantization is performed. The code is transmitted to the decoding side as an output signal.

【0059】(9)請求項17,23,29の発明の構
成・動作について 図13は、本発明による音声パラメータ量子化装置およ
びその装置に用いられる量子化方法およびその量子化ア
ルゴリズムを記載したコンピュータ読み取り可能な記録
媒体の他の実施例を説明するためのブロック図である。
デジタル入力信号は、上記(5)の説明で述べたよう
に、図13に示したフレーム分割手段21,音声パラメ
ータ算出手段22による処理を経て、減算手段23にお
いて、次式で示したように、音声パラメータk(i)か
ら所定の値c(i)を引く。 l(i)=k(i)−c(i) 所定の値c(i)としては、例えば、予め学習データを
用いて算出された平均値があげられる。この引かれた値
l(i)は、音声パラメータ量子化手段27において、
量子化手法選択手段25で選択された量子化手法を用い
て量子化され、その符号が出力信号として復号側に伝送
される。
(9) Structure and operation of the invention according to claims 17, 23 and 29 FIG. 13 shows a computer which describes a speech parameter quantization apparatus according to the present invention, a quantization method used in the apparatus, and a quantization algorithm thereof. FIG. 11 is a block diagram for explaining another embodiment of a readable recording medium.
As described in the above (5), the digital input signal is processed by the frame dividing means 21 and the voice parameter calculating means 22 shown in FIG. A predetermined value c (i) is subtracted from the voice parameter k (i). l (i) = k (i) -c (i) As the predetermined value c (i), for example, there is an average value previously calculated using learning data. The subtracted value l (i) is obtained by the voice parameter quantizing means 27.
Quantization is performed using the quantization method selected by the quantization method selection unit 25, and the code is transmitted to the decoding side as an output signal.

【0060】(10)請求項18,24,30発明の構
成・動作について 図14は、本発明による音声パラメータ量子化装置およ
びその装置に用いられる量子化方法およびその量子化ア
ルゴリズムを記載したコンピュータ読み取り可能な記録
媒体の他の実施例を説明するためのブロック図で、請求
項17の音声パラメータ量子化装置を用いた場合の動作
・構成を示す図である。デジタル入力信号は、上記
(5),(9)の説明で述べたように、図14に示した
フレーム分割手段21〜量子化手法選択手段25による
処理を経て、量子化ビット配分決定手段26に入力さ
れ、例えば、所定の次数に分析されたLSPの低域に対
してはビット配分を多くし、高域に対してはビット配分
を小さく割り当てるなど所定の方法にしたがって音声パ
ラメータの量子化ビット配分の決定を行う。そして、音
声パラメータ量子化手段27において、量子化手法選択
手段25で選択された量子化手法を用いて量子化され、
符号が出力信号として復号側に伝送される。
(10) Structures and Operations of the Inventions 18, 24, 30 FIG. 14 is a computer-readable description of a speech parameter quantization apparatus according to the present invention, a quantization method used in the apparatus, and a quantization algorithm thereof. FIG. 18 is a block diagram for explaining another embodiment of a possible recording medium, showing the operation and configuration when the speech parameter quantization device according to claim 17 is used. As described in the above (5) and (9), the digital input signal is processed by the frame dividing means 21 to the quantization method selecting means 25 shown in FIG. For example, quantized bit allocation of voice parameters is performed according to a predetermined method, such as allocating more bits to the low band of the LSP analyzed to a predetermined order and allocating smaller bits to the high band of the LSP. Make a decision. Then, in the voice parameter quantization means 27, the quantization is performed using the quantization method selected by the quantization method selection means 25,
The code is transmitted as an output signal to the decoding side.

【0061】[0061]

【発明の効果】(1)請求項1の発明に対応する効果 従来のサブフレーム音声パラメータの算出方法では、フ
レーム毎に算出された音声パラメータの次数によらず、
すべての音声パラメータを一組として扱い、サブフレー
ム音声パラメータの算出を行っていたため、各次数毎の
音声パラメータ特性を考慮していないものとなってい
た。請求項1の発明によれば、音声パラメータの次数毎
に異なる算出手段を用い、音声パラメータの変動に追随
したより精度の高いサブフレーム音声パラメータを算出
するので、高音質な符号化を実現することができる。
According to the conventional sub-frame speech parameter calculation method, regardless of the order of the speech parameter calculated for each frame,
Since all audio parameters are treated as one set and subframe audio parameters are calculated, audio parameter characteristics for each order are not considered. According to the first aspect of the present invention, since different subframe audio parameters that follow fluctuations in audio parameters are calculated using different calculation means for each order of audio parameters, high-quality audio encoding is realized. Can be.

【0062】(2)請求項2の発明に対応する効果 音声スペクトルの変動が激しい場合、音声パラメータの
全次数に対して均一なサブフレーム音声パラメータ算出
手法を用いて算出するのでは、その変動を十分にとらえ
ることができない。請求項2の発明によれば、次数毎に
音声パラメータの変動を分析し、その変動を考慮したサ
ブフレーム音声パラメータ算出手法を用いるので、演算
量,音質に考慮した音声パラメータの符号化を実現する
ことができる。
(2) Effects According to the Second Embodiment In the case where the speech spectrum varies greatly, if the variation is calculated using a subframe speech parameter calculation method that is uniform with respect to all orders of the speech parameters, the variation is calculated. I can't catch it enough. According to the second aspect of the present invention, the fluctuation of the voice parameter is analyzed for each order, and the sub-frame voice parameter calculation method is used in consideration of the fluctuation, so that the coding of the voice parameter in consideration of the calculation amount and the sound quality is realized. be able to.

【0063】(3)請求項3の発明に対する効果 過去のフレームの量子化値と現在のフレームの量子化値
を用いて、サブフレーム音声スペクトルを求める手法と
しては、線形補間などをはじめとする一次関数が使用さ
れることが多い。しかし、低次の関数ではサブフレーム
の音声パラメータを十分に表すことができない。また、
音声パラメータの全ての次数毎に対して高次の関数を用
いる場合、関数を算出するための演算量を要する。請求
項3の発明によれば、高次関数を用いるので、より時間
追随性の高い音声パラメータの表現が可能である。ま
た、各次数毎の音声パラメータやその変動を考慮し、各
次数毎のサブフレーム算出関数の次数を任意に決定し、
サブフレーム音声パラメータ算出関数を求めることによ
って比較的少ない演算量で符号化することができる。
(3) Effect on the Invention of Claim 3 As a method for obtaining a sub-frame audio spectrum using the quantized value of the past frame and the quantized value of the current frame, a primary method such as linear interpolation is used. Functions are often used. However, low-order functions cannot sufficiently represent the speech parameters of the subframe. Also,
When a higher-order function is used for every order of the voice parameter, a calculation amount for calculating the function is required. According to the third aspect of the present invention, since a higher-order function is used, it is possible to express a speech parameter with higher time tracking. In addition, in consideration of the voice parameter for each order and its variation, the order of the subframe calculation function for each order is arbitrarily determined,
By obtaining the subframe speech parameter calculation function, encoding can be performed with a relatively small amount of calculation.

【0064】(4)請求項4の発明に対する効果 補間値と量子化値による累積歪みを考慮し、符号を選択
することによって音声パラメータの次数毎に算出される
フレーム毎の音声パラメータ量子化値とサブフレーム毎
の音声パラメータ双方に対する歪みを削減することがで
きる。
(4) Effects on the Invention of Claim 4 In consideration of the cumulative distortion due to the interpolation value and the quantization value, by selecting the code, the speech parameter quantization value for each frame calculated for each speech parameter order and Distortion for both audio parameters for each subframe can be reduced.

【0065】(5)請求項5の発明に対応する効果 従来のサブフレーム音声パラメータの算出方法では、フ
レーム毎に算出された音声パラメータの次数によらず、
すべての音声パラメータを一組として扱い、サブフレー
ム音声パラメータの算出を行っていたため、各次数毎の
音声パラメータ特性を考慮していないものとなってい
た。請求項5の発明によれば、音声パラメータの次数毎
に異なる算出工程を用い、音声パラメータの変動に追随
したより精度の高いサブフレーム音声パラメータを算出
するので、高音質な符号化方式を実現することができ
る。
(5) Effects Corresponding to Claim 5 In the conventional sub-frame speech parameter calculation method, regardless of the order of the speech parameter calculated for each frame,
Since all audio parameters are treated as one set and subframe audio parameters are calculated, audio parameter characteristics for each order are not considered. According to the fifth aspect of the present invention, a different calculation step is used for each order of the speech parameter, and a more accurate sub-frame speech parameter that follows the variation of the speech parameter is calculated, thereby realizing a high-quality sound encoding method. be able to.

【0066】(6)請求項6の発明に対応する効果 音声スペクトルの変動が激しい場合、音声パラメータの
全次数に対して均一なサブフレーム音声パラメータ算出
手法を用いて算出するのでは、その変動を十分にとらえ
ることができない。請求項6の発明によれば、次数毎に
音声パラメータの変動を分析し、その変動を考慮したサ
ブフレーム音声パラメータ算出手法を用いるので、演算
量,音質に考慮した音声パラメータの符号化方式を実現
することができる。
(6) Effects According to Claim 6 In the case where the speech spectrum varies greatly, if the variation is calculated using a subframe speech parameter calculation method that is uniform with respect to all orders of speech parameters, the variation is calculated. I can't catch it enough. According to the sixth aspect of the present invention, the variation of the voice parameter is analyzed for each order, and the sub-frame voice parameter calculation method is used in consideration of the variation. can do.

【0067】(7)請求項7の発明に対する効果 過去のフレームの量子化値と現在のフレームの量子化値
を用いて、サブフレーム音声スペクトルを求める手法と
しては、線形補間などをはじめとする一次関数が使用さ
れることが多い。しかし、低次の関数では、サブフレー
ムの音声パラメータを十分に表すことができない。ま
た、音声パラメータの全ての次数毎に対して高次の関数
を用いる場合、関数を算出するための演算量を要する。
請求項7の発明によれば、高次関数を用いるので、より
時間追随性の高い音声パラメータの表現が可能である。
また、各次数毎の音声パラメータやその変動を考慮し、
各次数毎のサブフレーム算出関数の次数を任意に決定
し、サブフレーム音声パラメータ算出関数を求めること
によって比較的少ない演算量で符号化を実現するための
方式を提供することができる。
(7) Effect of the Invention of Claim 7 As a method of obtaining a sub-frame audio spectrum using the quantization value of the past frame and the quantization value of the current frame, a primary method such as linear interpolation is used. Functions are often used. However, low-order functions cannot sufficiently represent the speech parameters of the subframe. In addition, when a higher-order function is used for every order of the voice parameter, a calculation amount for calculating the function is required.
According to the seventh aspect of the present invention, since a higher-order function is used, it is possible to express a speech parameter with higher time tracking.
In addition, taking into account the voice parameters and their variations for each order,
By arbitrarily determining the order of the subframe calculation function for each order and obtaining the subframe speech parameter calculation function, it is possible to provide a method for implementing encoding with a relatively small amount of calculation.

【0068】(8)請求項8の発明に対する効果 補間値と量子化値による累積歪みを考慮し、符号を選択
することによって音声パラメータの次数毎に算出される
フレーム毎の音声パラメータ量子化値とサブフレーム毎
の音声パラメータ双方の歪みを考慮することにより、総
合的に音声パラメータの歪みを減少させ、高品質な符号
化を行うための方式を提供することができる。
(8) Effects of the invention of claim 8 In consideration of the cumulative distortion due to the interpolation value and the quantization value, the code is selected, and the speech parameter quantization value for each frame calculated for each order of the speech parameter is selected. By considering the distortion of both speech parameters for each subframe, it is possible to provide a method for reducing distortion of speech parameters comprehensively and performing high-quality encoding.

【0069】(9)請求項9の発明に対応する効果 従来のサブフレーム音声パラメータの算出方法では、フ
レーム毎に算出された音声パラメータの次数によらず、
すべての音声パラメータを一組として扱い、サブフレー
ム音声パラメータの算出を行っていたため、各次数毎の
音声パラメータ特性を考慮していないものとなってい
た。請求項9の発明によれば、音声パラメータの次数毎
に異なる算出ステップを用いることによって、音声パラ
メータの変動に追随したより精度の高いサブフレーム音
声パラメータを算出するので、高品質な符号化を行うた
めのアルゴリズムを提供することができる。
(9) Advantages Corresponding to the Claim 9 According to the conventional sub-frame speech parameter calculation method, regardless of the order of the speech parameter calculated for each frame,
Since all audio parameters are treated as one set and subframe audio parameters are calculated, audio parameter characteristics for each order are not considered. According to the ninth aspect of the present invention, by using a different calculation step for each degree of the voice parameter, a more accurate sub-frame voice parameter that follows the fluctuation of the voice parameter is calculated, so that high-quality encoding is performed. Algorithm can be provided.

【0070】(10)請求項10の発明に対応する効果 音声スペクトルの変動が激しい場合、音声パラメータの
全次数に対して均一なサブフレーム音声パラメータ算出
手法を用いて算出するのでは、その変動を十分にとらえ
ることができない。請求項10の発明によれば、次数毎
に音声パラメータの変動を分析し、その変動を考慮した
サブフレーム音声パラメータ算出手法を用いるので、演
算量,音質に考慮した音声パラメータの符号化を行うた
めのアルゴリズムを提供することができる。
(10) Effects According to Claim 10 In the case where the speech spectrum varies greatly, if the variation is calculated by using a subframe speech parameter calculation method that is uniform with respect to all orders of the speech parameters, the variation is calculated. I can't catch it enough. According to the tenth aspect of the present invention, the variation of the speech parameter is analyzed for each order, and the sub-frame speech parameter calculation method is used in consideration of the variation. Therefore, the encoding of the speech parameter in consideration of the calculation amount and the sound quality is performed. Algorithm can be provided.

【0071】(11)請求項11の発明に対する効果 過去のフレームの量子化値と現在のフレームの量子化値
を用いて、サブフレーム音声スペクトルを求める手法と
しては、線形補間などをはじめとする一次関数が使用さ
れることが多い。しかし、低次の関数では、サブフレー
ムの音声パラメータを十分に表すことができない。ま
た、音声パラメータの全ての次数毎に対して高次の関数
を用いる場合、関数を算出するための演算量を要する。
請求項11の発明によれば、高次関数を用いるので、よ
り時間追随性の高い音声パラメータの表現が可能であ
る。また、各次数毎の音声パラメータやその変動を考慮
し、各次数毎のサブフレーム算出関数の次数を任意に決
定し、サブフレーム音声パラメータ算出関数を求めるこ
とによって比較的少ない演算量で符号化を行うためのア
ルゴリズムを提供することができる。
(11) Effect of the Invention of Claim 11 As a method of obtaining a sub-frame audio spectrum using the quantization value of the past frame and the quantization value of the current frame, a primary method such as linear interpolation is used. Functions are often used. However, low-order functions cannot sufficiently represent the speech parameters of the subframe. In addition, when a higher-order function is used for every order of the voice parameter, a calculation amount for calculating the function is required.
According to the eleventh aspect, since a higher-order function is used, it is possible to express speech parameters with higher time tracking. Also, taking into account the audio parameters for each order and their fluctuations, arbitrarily determine the order of the subframe calculation function for each order, and obtain the subframe audio parameter calculation function, thereby performing encoding with a relatively small amount of calculation. An algorithm for doing so can be provided.

【0072】(12)請求項12の発明に対する効果 補間値と量子化値による累積歪みを考慮し、符号を選択
することによって音声パラメータの次数毎に算出される
フレーム毎の音声パラメータ量子化値とサブフレーム毎
の音声パラメータ双方の歪みを考慮することで、総合的
にパラメータの歪みを減少させ、高品質な符号化を実現
するためのアルゴリズムを提供することができる。
(12) Effects of the invention of claim 12 In consideration of the cumulative distortion due to the interpolation value and the quantization value, by selecting the code, the speech parameter quantization value for each frame calculated for each speech parameter order and By considering the distortion of both voice parameters for each subframe, it is possible to comprehensively reduce the distortion of the parameters and provide an algorithm for realizing high-quality encoding.

【0073】(13)請求項13の発明に対する効果 隣り合うフレームの各音声パラメータは相関が高いこと
から、LSPの量子化に適応予測差分量子化を用いるこ
とにより、スカラー量子化に比べて効率的に量子化する
ことができる。また、構造として符号帳を持たないた
め、ベクトル量子化に比べてメモリ量を削減することが
できる。
(13) Effect of the Invention of Claim 13 Since the speech parameters of adjacent frames have a high correlation, by using adaptive prediction difference quantization for LSP quantization, it is more efficient than scalar quantization. Can be quantized to Further, since it does not have a codebook as a structure, the amount of memory can be reduced as compared with the vector quantization.

【0074】(14)請求項14の発明に対する効果 音声パラメータの変動が大きい場合、単一の量子化手法
を用いて量子化を行った場合は、その変動に追随した量
子化を行うことが難しく、量子化歪みが大きくなること
がある。そこで、音声パラメータ変動の解析結果をもと
に、いくつかの量子化手法から最適な量子化手法を選択
する手段を備えることにより、量子化精度を向上させる
ことができる。
(14) Effects of the Fourteenth Aspect When the voice parameter fluctuates greatly, and when quantization is performed using a single quantization method, it is difficult to perform quantization following the fluctuation. , The quantization distortion may increase. Therefore, by providing means for selecting an optimal quantization method from several quantization methods based on the analysis result of the voice parameter fluctuation, the quantization accuracy can be improved.

【0075】(15)請求項15の発明に対する効果 適応予測差分量子化をはじめとする予測を用いた量子化
では、音声パラメータの変動が大きい場合、予測精度が
下がるため、音声パラメータ変動の解析結果をもとに予
測を用いた量子化を行うか、あるいは、予測を用いない
量子化を行うかを選択する手段を備えることにより、量
子化精度を向上させることができる。
(15) Effect of the invention of claim 15 In the quantization using the prediction such as the adaptive prediction difference quantization, when the fluctuation of the voice parameter is large, the prediction accuracy is lowered, and the analysis result of the voice parameter fluctuation is obtained. Quantization accuracy can be improved by providing means for selecting whether to perform quantization using prediction or to perform quantization without prediction based on.

【0076】(16)請求項16に対する効果 予測を用いた量子化として、適応予測差分量子化を用い
ることにより、請求項15に対する効果に加えて、ベク
トル量子化の符号帳によるメモリ量を削減し、高能率に
符号化を行うことができる。
(16) Effect on Claim 16 By using adaptive prediction difference quantization as quantization using prediction, in addition to the effect on claim 15, the amount of memory by the codebook of vector quantization can be reduced. , Encoding can be performed efficiently.

【0077】(17)請求項17に対する効果 音声パラメータから所定の値、例えば、平均値を引くこ
とによって量子化対象値の幅が狭められるので、量子化
幅を有効に使用した量子化を行うことができる。特に、
適応予測差分符号化では、符号化結果に基づいて量子化
幅の決定を行うので、量子化特性を活かした量子化を行
うことにより、量子化精度を向上させることができる。
(17) Effect on Claim 17 Since the width of the quantization target value is narrowed by subtracting a predetermined value, for example, an average value, from the voice parameter, the quantization using the quantization width is performed effectively. Can be. In particular,
In the adaptive prediction difference encoding, since the quantization width is determined based on the encoding result, the quantization accuracy can be improved by performing the quantization using the quantization characteristics.

【0078】(18)請求項18に対する効果 音声パラメータは各次数によって分布幅が異なり、低域
においては分散が小さく、また、高域においては分散が
大きくなる傾向がある。これらの分散傾向にあわせてビ
ット配分を適応的に配分する手段を有することにより、
ビットレートを有効に使用することができる。
(18) Effects on Claim 18 The distribution width of the voice parameter varies depending on the order, and the variance tends to be small in the low frequency range and large in the high frequency range. By having a means of adaptively allocating bit allocation according to these dispersion trends,
The bit rate can be used effectively.

【0079】(19)請求項19に対する効果 隣り合うフレームの各音声パラメータは相関が高いこと
から、LSPの量子化に適応予測差分量子化を用いるこ
とにより、スカラー量子化に比べて効率的に量子化する
ことができる。また、構造として符号帳を持たないた
め、ベクトル量子化に比べてメモリ量を削減する音声パ
ラメータ量子化方法を提供することができる。
(19) Effect on Claim 19 Since each speech parameter of adjacent frames has a high correlation, the adaptive prediction difference quantization is used for LSP quantization, so that the quantization is more efficient than scalar quantization. Can be In addition, since it does not have a codebook as a structure, it is possible to provide a speech parameter quantization method that reduces the amount of memory compared to vector quantization.

【0080】(20)請求項20の発明に対する効果 音声パラメータの変動が大きい場合、単一の量子化手法
を用いて量子化を行った場合は、その変動に追随した量
子化を行うことが難しく、量子化歪みが大きくなること
がある。そこで、音声パラメータ変動の解析結果をもと
に、いくつかの量子化手法から最適な量子化手法を選択
する工程を備えることにより、量子化精度を向上させる
音声パラメータ量子化方法を提供することができる。
(20) Effect of the Twenty-Sixth Aspect When the voice parameter fluctuates greatly, and when quantization is performed using a single quantization method, it is difficult to perform quantization following the fluctuation. , The quantization distortion may increase. Therefore, it is possible to provide a voice parameter quantization method that improves quantization accuracy by including a step of selecting an optimal quantization method from several quantization methods based on an analysis result of voice parameter fluctuation. it can.

【0081】(21)請求項21に対する効果 適応予測差分量子化をはじめとする予測を用いた量子化
では、音声パラメータの変動が大きい場合、予測精度が
下がるため、音声パラメータ変動の解析結果をもとに予
測を用いた量子化を行うか、あるいは、予測を用いない
量子化を行うかを選択する工程を備えることにより、量
子化精度を向上させる音声パラメータ量子化方法を提供
することができる。
(21) Effects on Claim 21 In the quantization using prediction, such as adaptive prediction difference quantization, when the fluctuation of the speech parameter is large, the prediction accuracy is reduced. By providing a step of selecting whether to perform quantization using prediction or to perform quantization without using prediction, it is possible to provide a voice parameter quantization method that improves quantization accuracy.

【0082】(22)請求項22に対する効果 予測を用いた量子化として、適応予測差分量子化を用い
ることにより、請求項21に対する効果に加えて、ベク
トル量子化の符号帳によるメモリ量を削減し、高能率に
音声パラメータの量子化を行う方法を提供することがで
きる。
(22) Effect on Claim 22 By using adaptive prediction difference quantization as quantization using prediction, in addition to the effect on Claim 21, the amount of memory by the codebook of vector quantization is reduced. Thus, a method of efficiently quantizing voice parameters can be provided.

【0083】(23)請求項23に対する効果 音声パラメータから所定の値、例えば、平均値を引くこ
とによって量子化対象値が局在化するので、符号化結果
に基づいて量子化幅を決定する適応予測差分符号化の量
子化特性を活かした量子化を行うことにより、量子化精
度を向上させる音声パラメータ量子化方法を提供するこ
とができる。
(23) Effect on Claim 23 Since a value to be quantized is localized by subtracting a predetermined value, for example, an average value, from the voice parameter, an adaptive method for determining a quantization width based on a coding result. By performing quantization utilizing the quantization characteristics of prediction difference encoding, it is possible to provide a voice parameter quantization method that improves quantization accuracy.

【0084】(24)請求項24に対する効果 音声パラメータは各次数によって分布幅が異なり、低域
においては分散が小さく、また、高域においては分散が
大きくなる傾向がある。これらの分散傾向にあわせてビ
ット配分を適応的に配分する手段を有することにより、
ビットレートを有効に使用する音声パラメータ量子化方
法を提供することができる。
(24) Effect of Claim 24 The distribution width of the voice parameter varies depending on the order, and the variance tends to be small in the low band and large in the high band. By having a means of adaptively allocating bit allocation according to these dispersion trends,
A speech parameter quantization method that effectively uses a bit rate can be provided.

【0085】(25)請求項25の発明に対する効果 隣り合うフレームの各音声パラメータは相関が高いこと
から、LSPの量子化に適応予測差分量子化を用いるこ
とにより、スカラー量子化に比べて効率的に量子化する
ことができる。また、構造として符号帳を持たないた
め、ベクトル量子化に比べてメモリ量を削減する音声パ
ラメータの量子化を行うためのアルゴリズムを提供する
ことができる。
(25) Effect of the Invention of Claim 25 Since the speech parameters of adjacent frames have a high correlation, the use of adaptive prediction difference quantization for LSP quantization is more efficient than scalar quantization. Can be quantized to Also, since it does not have a codebook as a structure, it is possible to provide an algorithm for quantizing audio parameters that reduces the amount of memory compared to vector quantization.

【0086】(26)請求項26の発明に対する効果 音声パラメータの変動が大きい場合、単一の量子化手法
を用いて量子化を行った場合は、その変動に追随した量
子化を行うことが難しく、量子化歪みが大きくなること
がある。そこで、音声パラメータ変動の解析結果をもと
に、いくつかの量子化手法から最適な量子化手法を選択
する工程を備えることにより、量子化精度を向上させる
音声パラメータの量子化を行うためのアルゴリズムを提
供することができる。
(26) Effect on the invention of claim 26 When the fluctuation of the voice parameter is large, and when the quantization is performed using a single quantization method, it is difficult to perform the quantization following the fluctuation. , The quantization distortion may increase. Therefore, an algorithm for quantizing audio parameters that improves the quantization accuracy by providing a process of selecting the optimal quantization method from several quantization methods based on the analysis results of audio parameter fluctuations Can be provided.

【0087】(27)請求項27に対する効果 適応予測差分量子化をはじめとする予測を用いた量子化
では、音声パラメータの変動が大きい場合、予測精度が
下がるため、音声パラメータ変動の解析結果をもとに予
測を用いた量子化を行うか、あるいは、予測を用いない
量子化を行うかを選択する工程を備えることにより、量
子化精度を向上させる音声パラメータの量子化を行うた
めのアルゴリズムを提供することができる。
(27) Effect on Claim 27 In the quantization using prediction such as adaptive prediction difference quantization, when the fluctuation of the voice parameter is large, the prediction accuracy is reduced. Providing an algorithm for quantizing audio parameters that improves quantization accuracy by providing a step of selecting whether to perform quantization using prediction or to perform quantization without prediction. can do.

【0088】(28)請求項28に対する効果 予測を用いた量子化として、適応予測差分量子化を用い
ることにより、請求項21に対する効果に加えて、ベク
トル量子化の符号帳によるメモリ量を削減し、高能率に
音声パラメータの量子化を行う方法を提供することがで
きる。
(28) Effect on Claim 28 By using adaptive prediction difference quantization as quantization using prediction, in addition to the effect on claim 21, the amount of memory by the codebook of vector quantization can be reduced. Thus, a method of efficiently quantizing voice parameters can be provided.

【0089】(29)請求項29に対する効果 音声パラメータから所定の値、例えば、平均値を引くこ
とによって量子化対象値が局在化するので、符号化結果
に基づいて量子化幅を決定する適応予測差分符号化の量
子化特性を活かした量子化を行うことにより、量子化精
度を向上させる音声パラメータの量子化を行うためのア
ルゴリズムを提供することができる。
(29) Effect on Claim 29 Since a quantization target value is localized by subtracting a predetermined value, for example, an average value from a voice parameter, an adaptive determination for determining a quantization width based on a coding result. By performing quantization utilizing the quantization characteristics of prediction difference coding, it is possible to provide an algorithm for quantizing audio parameters that improves quantization accuracy.

【0090】(30)請求項30に対する効果 音声パラメータは各次数によって分布幅が異なり、低域
においては分散が小さく、また、高域においては分散が
大きくなる傾向がある。これらの分散傾向にあわせてビ
ット配分を適応的に配分する手段を有することにより、
ビットレートを有効に使用する音声パラメータの量子化
を行うためのアルゴリズムを提供することができる。
(30) Effect on Claim 30 The distribution width of the voice parameter differs depending on the order, and the variance tends to be small in the low frequency range and large in the high frequency range. By having a means of adaptively allocating bit allocation according to these dispersion trends,
It is possible to provide an algorithm for performing quantization of a speech parameter that effectively uses a bit rate.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明による音声パラメータ符号化装置およ
びその装置に用いられる符号化方式およびその符号化ア
ルゴリズムを記載したコンピュータ読み取り可能な記録
媒体の一実施例を説明するためのブロック図である。
FIG. 1 is a block diagram for explaining an embodiment of a computer-readable recording medium in which an audio parameter encoding apparatus according to the present invention, an encoding method used in the apparatus, and an encoding algorithm thereof are described.

【図2】 図1に示した実施例の動作の一実施例を説明
するためのフローチャートである。
FIG. 2 is a flowchart for explaining one embodiment of the operation of the embodiment shown in FIG. 1;

【図3】 本発明による音声パラメータ符号化装置およ
びその装置に用いられる符号化方式およびその符号化ア
ルゴリズムを記載したコンピュータ読み取り可能な記録
媒体の他の実施例を説明するためのブロック図である。
FIG. 3 is a block diagram for explaining another embodiment of a computer-readable recording medium in which an audio parameter encoding apparatus according to the present invention, an encoding method used in the apparatus, and an encoding algorithm thereof are described.

【図4】 図3に示した実施例の動作の一実施例を説明
するためのフローチャートである。
FIG. 4 is a flowchart for explaining an embodiment of the operation of the embodiment shown in FIG. 3;

【図5】 本発明による音声パラメータ符号化装置およ
びその装置に用いられる符号化方式およびその符号化ア
ルゴリズムを記載したコンピュータ読み取り可能な記録
媒体の他の実施例を説明するためのブロック図である。
FIG. 5 is a block diagram for explaining another embodiment of a computer-readable recording medium in which a speech parameter encoding apparatus according to the present invention, an encoding method used in the apparatus, and an encoding algorithm thereof are described.

【図6】 図5に示した実施例の動作の一実施例を説明
するためのフローチャートである。
FIG. 6 is a flowchart for explaining an embodiment of the operation of the embodiment shown in FIG. 5;

【図7】 本発明による音声パラメータ符号化装置およ
びその装置に用いられる符号化方式およびその符号化ア
ルゴリズムを記載したコンピュータ読み取り可能な記録
媒体の他の実施例を説明するためのブロック図である。
FIG. 7 is a block diagram for explaining another embodiment of a computer-readable recording medium in which an audio parameter encoding apparatus according to the present invention, an encoding method used in the apparatus, and an encoding algorithm thereof are described.

【図8】 図7に示した実施例の動作の一実施例を説明
するためのフローチャートである。
FIG. 8 is a flowchart for explaining an embodiment of the operation of the embodiment shown in FIG. 7;

【図9】 本発明による音声パラメータ量子化装置およ
びその装置に用いられる量子化方法およびその量子化ア
ルゴリズムを記載したコンピュータ読み取り可能な記録
媒体の一実施例を説明するためのブロック図である。
FIG. 9 is a block diagram for explaining an embodiment of a computer-readable recording medium in which a speech parameter quantization apparatus according to the present invention, a quantization method used in the apparatus, and a quantization algorithm thereof are described.

【図10】 本発明による音声パラメータ量子化装置お
よびその装置に用いられる量子化方法およびその量子化
アルゴリズムを記載したコンピュータ読み取り可能な記
録媒体の他の実施例を説明するためのブロック図であ
る。
FIG. 10 is a block diagram for explaining another embodiment of a computer-readable recording medium in which a speech parameter quantizing device according to the present invention, a quantization method used in the device, and a quantization algorithm thereof are described.

【図11】 本発明による音声パラメータ量子化装置お
よびその装置に用いられる量子化方法およびその量子化
アルゴリズムを記載したコンピュータ読み取り可能な記
録媒体の他の実施例を説明するためのブロック図であ
る。
FIG. 11 is a block diagram for explaining another embodiment of a computer-readable recording medium in which a speech parameter quantizing apparatus according to the present invention, a quantization method used in the apparatus, and a quantization algorithm thereof are described.

【図12】 本発明による音声パラメータ量子化装置お
よびその装置に用いられる量子化方法およびその量子化
アルゴリズムを記載したコンピュータ読み取り可能な記
録媒体の他の実施例を説明するためのブロック図であ
る。
FIG. 12 is a block diagram for explaining another embodiment of a computer-readable recording medium in which a speech parameter quantizing apparatus according to the present invention, a quantization method used in the apparatus, and a quantization algorithm thereof are described.

【図13】 本発明による音声パラメータ量子化装置お
よびその装置に用いられる量子化方法およびその量子化
アルゴリズムを記載したコンピュータ読み取り可能な記
録媒体の他の実施例を説明するためのブロック図であ
る。
FIG. 13 is a block diagram for explaining another embodiment of a computer-readable recording medium in which a speech parameter quantizing device according to the present invention, a quantization method used in the device, and a quantization algorithm thereof are described.

【図14】 本発明による音声パラメータ量子化装置お
よびその装置に用いられる量子化方法およびその量子化
アルゴリズムを記載したコンピュータ読み取り可能な記
録媒体の他の実施例を説明するためのブロック図であ
る。
FIG. 14 is a block diagram for explaining another embodiment of a computer-readable recording medium in which a speech parameter quantization apparatus according to the present invention, a quantization method used in the apparatus, and a quantization algorithm thereof are described.

【符号の説明】[Explanation of symbols]

1…フレーム分割手段、2…サブフレーム分割手段、3
…音声パラメータ算出手段、4…音声パラメータ量子化
手段、5…符号帳、6…量子化候補選択手段、7…量子
化歪み算出手段、8…サブフレーム音声パラメータ算出
手段、9…音声パラメータ変動判定手段、10…次数毎
音声パラメータ算出手段、11…サブフレーム累積歪み
算出手段、12…累積歪み算出手段、13…フレーム量
子化値選択手段、14…サブフレーム音声パラメータ算
出手段、21…フレーム分割手段、22…音声パラメー
タ算出手段、23…減算手段、、24…音声パラメータ
変動解析手段、25…量子化手法選択手段、26…量子
化ビット配分決定手段、27…音声パラメータ量子化手
段。
1 ... frame dividing means, 2 ... sub-frame dividing means, 3
... Voice parameter calculation means, 4 voice parameter quantization means, 5 codebook, 6 quantization candidate selection means, 7 quantization distortion calculation means, 8 subframe voice parameter calculation means, 9 voice parameter fluctuation determination. Means, 10 ... degree-by-order voice parameter calculating means, 11: subframe cumulative distortion calculating means, 12: cumulative distortion calculating means, 13: frame quantization value selecting means, 14: subframe voice parameter calculating means, 21: frame dividing means , 22 ... voice parameter calculation means, 23 ... subtraction means, 24 ... voice parameter fluctuation analysis means, 25 ... quantization method selection means, 26 ... quantization bit allocation determination means, 27 ... voice parameter quantization means.

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5D045 CB01 DA02 DA06 5J064 AA04 BA13 BB03 BB04 BB14 BC01 BC16 BC25 BC29 BD02 BD03 5K041 AA04 CC01 EE14 EE16 EE35 FF27 JJ24 9A001 EE04 EE05 KK56 (54)【発明の名称】 音声パラメータ符号化装置およびその装置に用いられる符号化方式およびその符号化アルゴリズ ムを記載したコンピュータ読み取り可能な記録媒体、および、音声パラメータ量子化装置および その装置に用いられる量子化方法およびその量子化アルゴリズムを記載したコンピュータ読み取 り可能な記録媒体 ────────────────────────────────────────────────── ─── Continued on the front page F term (reference) 5D045 CB01 DA02 DA06 5J064 AA04 BA13 BB03 BB04 BB14 BC01 BC16 BC25 BC29 BD02 BD03 5K041 AA04 CC01 EE14 EE16 EE35 FF27 JJ24 9A001 EE04 EE05 KK56 (54) An encoding apparatus, a computer-readable recording medium describing an encoding method used in the apparatus and an encoding algorithm thereof, a speech parameter quantization apparatus, a quantization method used in the apparatus, and a quantization algorithm thereof are described. Computer-readable recording medium described

Claims (30)

【特許請求の範囲】[Claims] 【請求項1】 デジタル入力信号をフレームに分割する
フレーム分割手段と、前記デジタル入力信号を前記フレ
ームの長さよりも短いサブフレームに分割するサブフレ
ーム分割手段と、前記フレームの入力信号を用いて所定
の分析次数の音声パラメータを算出する音声パラメータ
算出手段と、前記音声パラメータを量子化する音声パラ
メータ量子化手段と、現在及び過去のフレームにおける
前記音声パラメータを用いて各前記サブフレームの音声
パラメータを求めるサブフレーム音声パラメータ算出手
段とを備えた音声パラメータ符号化装置において、前記
サブフレーム音声パラメータ算出手段は、前記音声パラ
メータの各次数毎に予め設定した手法を用いることを特
徴とする音声パラメータ符号化装置。
1. A frame dividing means for dividing a digital input signal into frames; a subframe dividing means for dividing the digital input signal into subframes shorter than the length of the frame; Voice parameter calculation means for calculating voice parameters of the analysis order, voice parameter quantization means for quantizing the voice parameters, and voice parameters of each of the sub-frames using the voice parameters in current and past frames. A speech parameter encoding device comprising: a sub-frame speech parameter calculation unit, wherein the sub-frame speech parameter calculation unit uses a method preset for each order of the speech parameter. .
【請求項2】 請求項1に記載の音声パラメータ符号化
装置において、前記サブフレーム音声パラメータ算出手
段は、予め各次数の音声パラメータの変動を求めて該変
動をもとに各次数のサブフレーム音声パラメータを算出
する手法を決定することを特徴とする音声パラメータ符
号化装置。
2. The speech parameter encoding apparatus according to claim 1, wherein said sub-frame speech parameter calculating means obtains a variation of a speech parameter of each order in advance and calculates a sub-frame speech of each order based on said variation. An audio parameter encoding device, which determines a method for calculating a parameter.
【請求項3】 請求項1または2に記載の音声パラメー
タ符号化装置において、前記サブフレーム音声パラメー
タ算出手段は、スプライン補間法をはじめとする各種補
間法などの高次関数を用いることを特徴とする音声パラ
メータ符号化装置。
3. The speech parameter encoding device according to claim 1, wherein said sub-frame speech parameter calculation means uses a higher-order function such as a spline interpolation method or other various interpolation methods. Speech parameter encoding device.
【請求項4】 デジタル入力信号をフレームに分割する
フレーム分割手段と、前記デジタル入力信号を前記フレ
ームの長さよりも短いサブフレームに分割するサブフレ
ーム分割手段と、前記フレームの入力信号を用いて所定
の分析次数の音声パラメータを算出する音声パラメータ
算出手段と、現在のフレームの音声パラメータを量子化
する場合に歪みの小さい順に複数の量子化候補を選択す
る量子化候補選択手段と、前記量子化候補毎に量子化歪
みを算出する量子化歪み算出手段と、前記複数のフレー
ム音声パラメータ量子化候補毎に音声パラメータの各次
数毎に予め設定した手法を用いて前記サブフレームの音
声パラメータを算出するサブフレーム音声パラメータ算
出手段とを備えた音声パラメータ符号化装置において、
前記次数毎に設定した手法を用いて算出されたサブフレ
ーム音声パラメータの歪みを次数毎に求めるサブフレー
ム歪み算出手段と、これら次数毎の歪みを所定数のサブ
フレームで累積するサブフレーム累積歪み算出手段と、
該サブフレーム累積歪みと前記サブフレームの音声パラ
メータを算出するために使用した音声パラメータの量子
化歪みとの累積値を候補毎に求める累積歪み算出手段
と、該累積歪みが最小となる前記フレーム量子化値を選
択するフレーム量子化値選択手段とを備えたことを特徴
とする音声パラメータ符号化装置。
4. A frame dividing means for dividing a digital input signal into frames; a subframe dividing means for dividing the digital input signal into subframes shorter than the length of the frame; Voice parameter calculation means for calculating a voice parameter of the analysis order of; a quantization candidate selection means for selecting a plurality of quantization candidates in ascending order of distortion when quantizing voice parameters of the current frame; A quantization distortion calculating means for calculating a quantization distortion for each of the plurality of frame audio parameter quantization candidates, and a sub-calculating means for calculating a voice parameter of the sub-frame using a method preset for each degree of a voice parameter for each of the plurality of frame voice parameter quantization candidates. In a speech parameter encoding device comprising a frame speech parameter calculation means,
A sub-frame distortion calculating means for calculating the distortion of the sub-frame speech parameter calculated by using the method set for each order, and a sub-frame cumulative distortion calculation for accumulating the distortion for each order in a predetermined number of sub-frames Means,
Cumulative distortion calculating means for calculating, for each candidate, a cumulative value of the sub-frame cumulative distortion and the quantization distortion of the voice parameter used for calculating the voice parameter of the sub-frame; and the frame quantum which minimizes the cumulative distortion. And a frame quantization value selecting means for selecting a quantization value.
【請求項5】 デジタル入力信号をフレームに分割する
フレーム分割工程と、前記デジタル入力信号を前記フレ
ームの長さよりも短いサブフレームに分割するサブフレ
ーム分割工程と、前記フレームの入力信号を用いて所定
の分析次数の音声パラメータを算出する音声パラメータ
算出工程と、前記音声パラメータを量子化する音声パラ
メータ量子化工程と、現在及び過去のフレームにおける
前記音声パラメータを用いて各前記サブフレームの音声
パラメータを求めるサブフレーム音声パラメータ算出工
程とを備えた音声パラメータ符号化方式において、前記
サブフレーム音声パラメータ算出工程は、前記音声パラ
メータの各次数毎に予め設定した手法を用いることを特
徴とする音声パラメータ符号化方式。
5. A frame division step of dividing a digital input signal into frames, a subframe division step of dividing the digital input signal into subframes shorter than the length of the frame, and a predetermined step using an input signal of the frame. A voice parameter calculating step of calculating a voice parameter of the analysis order, a voice parameter quantization step of quantizing the voice parameter, and obtaining a voice parameter of each of the sub-frames using the voice parameter in a current and a past frame. A sub-frame speech parameter calculation step, wherein the sub-frame speech parameter calculation step uses a method preset for each degree of the speech parameter. .
【請求項6】 請求項5に記載の音声パラメータ符号化
方式において、前記サブフレーム音声パラメータ算出工
程は、予め各次数の音声パラメータの変動を求めて該変
動をもとに各次数のサブフレーム音声パラメータを算出
する手法を決定することを特徴とする音声パラメータ符
号化方式。
6. The speech parameter encoding method according to claim 5, wherein the sub-frame speech parameter calculating step determines a variation of a speech parameter of each order in advance and calculates a sub-frame speech of each order based on the variation. A speech parameter coding method for determining a method for calculating a parameter.
【請求項7】 請求項5または6に記載の音声パラメー
タ符号化方式において、前記サブフレーム音声パラメー
タ算出工程は、スプライン補間法をはじめとする各種補
間法などの高次関数を用いることを特徴とする音声パラ
メータ符号化方式。
7. The speech parameter coding method according to claim 5, wherein the sub-frame speech parameter calculation step uses a higher-order function such as a spline interpolation method or various interpolation methods. The audio parameter encoding method to use.
【請求項8】 デジタル入力信号をフレームに分割する
フレーム分割工程と、前記デジタル入力信号を前記フレ
ームの長さよりも短いサブフレームに分割するサブフレ
ーム分割工程と、前記フレームの入力信号を用いて所定
の分析次数の音声パラメータを算出する音声パラメータ
算出工程と、現在のフレームの音声パラメータを量子化
する場合に歪みの小さい順に複数の量子化候補を選択す
る量子化候補選択工程と、前記量子化候補毎に量子化歪
みを算出する量子化歪み算出工程と、前記複数のフレー
ム音声パラメータ量子化候補毎に音声パラメータの各次
数毎に予め設定した手法を用いて前記サブフレームの音
声パラメータを算出するサブフレーム音声パラメータ算
出工程を備えた音声パラメータ符号化方式において、前
記次数毎に設定した手法を用いて算出されたサブフレー
ム音声パラメータの歪みを次数毎に求めるサブフレーム
歪み算出工程と、これら次数毎の歪みを所定数のサブフ
レームで累積するサブフレーム累積歪み算出工程と、該
サブフレーム累積歪みと前記サブフレームの音声パラメ
ータを算出するために使用した音声パラメータの量子化
歪みとの累積値を候補毎に求める累積歪み算出工程と、
該累積歪みが最小となる前記フレーム量子化値を選択す
るフレーム量子化値選択工程とを備えたことを特徴とす
る音声パラメータ符号化方式。
8. A frame dividing step of dividing the digital input signal into frames, a sub-frame dividing step of dividing the digital input signal into sub-frames shorter than the length of the frame, and a predetermined step using the input signal of the frame. A voice parameter calculating step of calculating a voice parameter of an analysis order of; a quantization candidate selecting step of selecting a plurality of quantization candidates in ascending order of distortion when quantizing a voice parameter of a current frame; and A quantization distortion calculating step of calculating a quantization distortion for each of the plurality of frame audio parameter quantization candidates, and a sub-step of calculating a voice parameter of the sub-frame using a method preset for each degree of a voice parameter for each of the plurality of frame parameter quantization candidates. In the speech parameter encoding method having a frame speech parameter calculation step, the parameter is set for each of the orders. A sub-frame distortion calculating step of calculating the distortion of the sub-frame voice parameter calculated for each order, a sub-frame cumulative distortion calculating step of accumulating the distortion of each order in a predetermined number of sub-frames, Cumulative distortion calculating step of obtaining, for each candidate, the cumulative value of the cumulative distortion and the quantization parameter of the voice parameter used to calculate the voice parameter of the subframe,
A frame quantization value selecting step of selecting the frame quantization value that minimizes the cumulative distortion.
【請求項9】 デジタル入力信号をフレームに分割する
フレーム分割ステップと、前記デジタル入力信号を前記
フレームの長さよりも短いサブフレームに分割するサブ
フレーム分割ステップと、前記フレームの入力信号を用
いて所定の分析次数の音声パラメータを算出する音声パ
ラメータ算出ステップと、前記音声パラメータを量子化
する音声パラメータ量子化ステップと、現在及び過去の
フレームにおける前記音声パラメータを用いて各前記サ
ブフレームの音声パラメータを求めるサブフレーム音声
パラメータ算出ステップとを備えた音声パラメータ符号
化アルゴリズムを記載したコンピュータ読み取り可能な
記憶媒体において、前記サブフレーム音声パラメータ算
出ステップは、前記音声パラメータの各次数毎に予め設
定した手法を用いることを特徴とする音声パラメータ符
号化アルゴリズムを記載したコンピュータ読み取り可能
な記憶媒体。
9. A frame dividing step of dividing a digital input signal into frames, a subframe dividing step of dividing the digital input signal into subframes shorter than the length of the frame, and a predetermined step using an input signal of the frame. A voice parameter calculation step of calculating a voice parameter of the analysis order, a voice parameter quantization step of quantizing the voice parameter, and a voice parameter of each of the sub-frames using the voice parameter in a current and a past frame. In a computer-readable storage medium describing a speech parameter encoding algorithm including a sub-frame speech parameter calculation step, the sub-frame speech parameter calculation step uses a method preset for each order of the speech parameter. A computer-readable storage medium describing a speech parameter encoding algorithm, characterized in that:
【請求項10】 請求項9に記載の音声パラメータ符号
化アルゴリズムを記載したコンピュータ読み取り可能な
記憶媒体において、前記サブフレーム音声パラメータ算
出ステップは、予め各次数の音声パラメータの変動を求
めて該変動をもとに各次数のサブフレーム音声パラメー
タを算出する手法を決定することを特徴とする音声パラ
メータ符号化アルゴリズムを記載したコンピュータ読み
取り可能な記憶媒体。
10. A computer-readable storage medium in which the speech parameter encoding algorithm according to claim 9 is described, wherein the sub-frame speech parameter calculating step determines a variation of a speech parameter of each order in advance and calculates the variation. A computer-readable storage medium describing a speech parameter encoding algorithm, based on which a method of calculating a sub-frame speech parameter of each order is determined.
【請求項11】 請求項9または10に記載の音声パラ
メータ符号化アルゴリズムを記載したコンピュータ読み
取り可能な記憶媒体において、前記サブフレーム音声パ
ラメータ算出ステップは、スプライン補間法をはじめと
する各種補間法などの高次関数を用いることを特徴とす
る音声パラメータ符号化アルゴリズムを記載したコンピ
ュータ読み取り可能な記憶媒体。
11. A computer-readable storage medium in which the speech parameter encoding algorithm according to claim 9 or 10 is described, wherein the sub-frame speech parameter calculating step includes a spline interpolation method and other various interpolation methods. A computer-readable storage medium that describes a speech parameter encoding algorithm using a higher-order function.
【請求項12】 デジタル入力信号をフレームに分割す
るフレーム分割ステップと、前記デジタル入力信号を前
記フレームの長さよりも短いサブフレームに分割するサ
ブフレーム分割ステップと、前記フレームの入力信号を
用いて所定の分析次数の音声パラメータを算出する音声
パラメータ算出ステップと、現在のフレームの音声パラ
メータを量子化する場合に歪みの小さい順に複数の量子
化候補を選択する量子化候補選択ステップと、前記量子
化候補毎に量子化歪みを算出する量子化歪み算出ステッ
プと、前記複数のフレーム音声パラメータ量子化候補毎
に音声パラメータの各次数毎に予め設定した手法を用い
て前記サブフレームの音声パラメータを算出するサブフ
レーム音声パラメータ算出ステップとを備えた音声パラ
メータ符号化アルゴリズムを記載したコンピュータ読み
取り可能な記憶媒体において、前記次数毎に設定した手
法を用いて算出されたサブフレーム音声パラメータの歪
みを次数毎に求めるサブフレーム歪み算出ステップと、
これら次数毎の歪みを所定数のサブフレームで累積する
サブフレーム累積歪み算出ステップと、該サブフレーム
累積歪みと前記サブフレームの音声パラメータを算出す
るために使用した音声パラメータの量子化歪みとの累積
値を候補毎に求める累積歪み算出ステップと、該累積歪
みが最小となる前記フレーム量子化値を選択するフレー
ム量子化値選択ステップとを備えたことを特徴とする音
声パラメータ符号化アルゴリズムを記載したコンピュー
タ読み取り可能な記憶媒体。
12. A frame dividing step of dividing a digital input signal into frames, a subframe dividing step of dividing the digital input signal into subframes shorter than the length of the frame, and a predetermined step using an input signal of the frame. A voice parameter calculating step of calculating voice parameters of the analysis order of; a quantization candidate selecting step of selecting a plurality of quantization candidates in ascending order of distortion when quantizing voice parameters of the current frame; A quantization distortion calculating step of calculating a quantization distortion for each of the plurality of frame audio parameter quantization candidates, and a sub-step of calculating a voice parameter of the sub-frame by using a method preset for each degree of the voice parameter for each of the plurality of frame voice parameter quantization candidates. Voice parameter coding algorithm comprising a frame voice parameter calculation step In a computer-readable storage medium describing the rhythm, a sub-frame distortion calculating step of obtaining the distortion of the sub-frame audio parameter calculated using the method set for each order, for each order,
A sub-frame cumulative distortion calculating step of accumulating the distortion for each order in a predetermined number of sub-frames, and accumulating the cumulative distortion of the sub-frame and the quantization distortion of the voice parameter used for calculating the voice parameter of the sub-frame. A voice parameter encoding algorithm, comprising: a cumulative distortion calculating step of obtaining a value for each candidate; and a frame quantization value selecting step of selecting the frame quantization value that minimizes the cumulative distortion. Computer readable storage medium.
【請求項13】 デジタル入力信号をフレームに分割す
るフレーム分割手段と、前記フレーム毎に所定の分析次
数の音声パラメータを算出する音声パラメータ算出手段
と、前記音声パラメータを量子化する音声パラメータ量
子化手段とを備えた音声パラメータ量子化装置におい
て、前記音声パラメータ量子化手段は、適応予測差分量
子化を用いて量子化を行うことを特徴とする音声パラメ
ータ量子化装置。
13. A frame dividing means for dividing a digital input signal into frames, a voice parameter calculating means for calculating a voice parameter of a predetermined analysis order for each frame, and a voice parameter quantizing means for quantizing the voice parameter. Wherein the speech parameter quantization means performs quantization using adaptive prediction difference quantization.
【請求項14】 デジタル入力信号をフレームに分割す
るフレーム分割手段と、前記フレーム毎に所定の分析次
数の音声パラメータを算出する音声パラメータ算出手段
と、前記音声パラメータを量子化する音声パラメータ量
子化手段とを備えた音声パラメータ量子化装置におい
て、音声パラメータ変動値を解析する音声パラメータ変
動解析手段と、複数の音声パラメータ量子化手法を有す
る量子化手法選択手段とを備え、該量子化手法選択手段
は、前記音声パラメータ変動解析手段において解析され
た変動値を用いて所定の手法によって前記複数の音声パ
ラメータ量子化手法の中から量子化手法を選択すること
を特徴とする音声パラメータ量子化装置。
14. A frame dividing means for dividing a digital input signal into frames, a voice parameter calculating means for calculating a voice parameter of a predetermined analysis order for each frame, and a voice parameter quantizing means for quantizing the voice parameter. And a voice parameter fluctuation analysis means for analyzing voice parameter fluctuation values, and a quantization method selection means having a plurality of voice parameter quantization methods, wherein the quantization method selection means comprises: And a quantization method selected from the plurality of voice parameter quantization methods by a predetermined method using the fluctuation value analyzed by the voice parameter fluctuation analysis means.
【請求項15】 請求項14に記載の音声パラメータ量
子化装置において、前記量子化手法選択手段は、予測を
用いた量子化手法もしくは予測を用いない量子化手法の
選択を行うことを特徴とする音声パラメータ量子化装
置。
15. The speech parameter quantization device according to claim 14, wherein said quantization method selection means selects a quantization method using prediction or a quantization method not using prediction. Voice parameter quantization device.
【請求項16】 請求項15に記載の音声パラメータ量
子化装置において、前記量子化手法選択手段は、予測を
用いた量子化手法として適応予測差分量子化を用いるこ
とを特徴とする音声パラメータ量子化装置。
16. A speech parameter quantization apparatus according to claim 15, wherein said quantization technique selection means uses adaptive prediction difference quantization as a quantization technique using prediction. apparatus.
【請求項17】 請求項13乃至16のいずれかに記載
の音声パラメータ量子化装置において、前記音声パラメ
ータから所定の値を引く減算手段を備えたことを特徴と
する音声パラメータ量子化装置。
17. The speech parameter quantization device according to claim 13, further comprising a subtraction unit for subtracting a predetermined value from said speech parameter.
【請求項18】 請求項13乃至17のいずれかに記載
の音声パラメータ量子化装置において、前記音声パラメ
ータの各次数のビット配分を決定する量子化ビット配分
決定手段を備えたことを特徴とする音声パラメータ量子
化装置。
18. The speech parameter quantization device according to claim 13, further comprising a quantization bit allocation determining unit for determining a bit allocation of each order of said audio parameter. Parameter quantization device.
【請求項19】 デジタル入力信号をフレームに分割す
るフレーム分割工程と、前記フレーム毎に所定の分析次
数の音声パラメータを算出する音声パラメータ算出工程
と、前記音声パラメータを量子化する音声パラメータ量
子化工程とを備えた音声パラメータ量子化方法におい
て、前記音声パラメータ量子化工程は、適応予測差分量
子化を用いて量子化を行うことを特徴とする音声パラメ
ータ量子化方法。
19. A frame division step of dividing a digital input signal into frames, a speech parameter calculation step of calculating speech parameters of a predetermined analysis order for each frame, and a speech parameter quantization step of quantizing the speech parameters. And a voice parameter quantization method, wherein the voice parameter quantization step performs quantization using adaptive prediction difference quantization.
【請求項20】 デジタル入力信号をフレームに分割す
るフレーム分割工程と、前記フレーム毎に所定の分析次
数の音声パラメータを算出する音声パラメータ算出工程
と、前記音声パラメータを量子化する音声パラメータ量
子化工程とを備えた音声パラメータ量子化方法におい
て、音声パラメータ変動値を解析する音声パラメータ変
動解析工程と、複数の音声パラメータ量子化手法を有す
る量子化手法選択工程とを備え、該量子化手法選択工程
は、前記音声パラメータ変動解析工程において解析され
た変動値を用いて所定の手法によって前記複数の音声パ
ラメータ量子化手法の中から量子化手法を選択すること
を特徴とする音声パラメータ量子化方法。
20. A frame dividing step of dividing a digital input signal into frames, a speech parameter calculating step of calculating speech parameters of a predetermined analysis order for each frame, and a speech parameter quantization step of quantizing the speech parameters. A voice parameter quantization method comprising: a voice parameter variation analysis step of analyzing a voice parameter variation value; anda quantization technique selection step having a plurality of speech parameter quantization techniques, wherein the quantization technique selection step includes A quantization method selected from the plurality of voice parameter quantization methods by a predetermined method using the fluctuation value analyzed in the voice parameter fluctuation analysis step.
【請求項21】 請求項20に記載の音声パラメータ量
子化方法において、前記量子化手法選択工程は、予測を
用いた量子化手法もしくは予測を用いない量子化手法の
選択を行うことを特徴とする音声パラメータ量子化方
法。
21. The speech parameter quantization method according to claim 20, wherein the quantization method selection step selects a quantization method using prediction or a quantization method without prediction. Voice parameter quantization method.
【請求項22】 請求項21に記載の音声パラメータ量
子化方法において、前記量子化手法選択工程は、予測を
用いた量子化手法として適応予測差分量子化を用いるこ
とを特徴とする音声パラメータ量子化方法。
22. A speech parameter quantization method according to claim 21, wherein said quantization technique selection step uses adaptive prediction difference quantization as a quantization technique using prediction. Method.
【請求項23】 請求項19乃至22のいずれかに記載
の音声パラメータ量子化方法において、前記音声パラメ
ータから所定の値を引く減算工程を備えたことを特徴と
する音声パラメータ量子化方法。
23. A speech parameter quantization method according to claim 19, further comprising a subtraction step of subtracting a predetermined value from said speech parameter.
【請求項24】 請求項19乃至23のいずれかに記載
の音声パラメータ量子化方法において、前記音声パラメ
ータの各次数のビット配分を決定する量子化ビット配分
決定工程を備えたことを特徴とする音声パラメータ量子
化方法。
24. The speech parameter quantization method according to claim 19, further comprising a quantization bit allocation determining step of determining a bit allocation of each order of said audio parameter. Parameter quantization method.
【請求項25】 デジタル入力信号をフレームに分割す
るフレーム分割ステップと、前記フレーム毎に所定の分
析次数の音声パラメータを算出する音声パラメータ算出
ステップと、前記音声パラメータを量子化する音声パラ
メータ量子化ステップとを備えた音声パラメータ量子化
アルゴリズムを記載したコンピュータ読み取り可能な記
憶媒体において、前記音声パラメータ量子化ステップ
は、適応予測差分量子化を用いて量子化を行うことを特
徴とする音声パラメータ量子化アルゴリズムを記載した
コンピュータ読み取り可能な記憶媒体。
25. A frame division step of dividing a digital input signal into frames, a speech parameter calculation step of calculating speech parameters of a predetermined analysis order for each frame, and a speech parameter quantization step of quantizing the speech parameters. A computer readable storage medium describing a voice parameter quantization algorithm comprising: a voice parameter quantization algorithm, wherein the voice parameter quantization step performs quantization using adaptive prediction difference quantization. A computer-readable storage medium described as follows.
【請求項26】 デジタル入力信号をフレームに分割す
るフレーム分割ステップと、前記フレーム毎に所定の分
析次数の音声パラメータを算出する音声パラメータ算出
ステップと、前記音声パラメータを量子化する音声パラ
メータ量子化ステップとを備えた音声パラメータ量子化
アルゴリズムを記載したコンピュータ読み取り可能な記
憶媒体において、音声パラメータ変動値を解析する音声
パラメータ変動解析ステップと、複数の音声パラメータ
量子化手法を有する量子化手法選択ステップとを備え、
該量子化手法選択ステップは、前記音声パラメータ変動
解析ステップにおいて解析された変動値を用いて所定の
手法によって前記複数の音声パラメータ量子化手法の中
から量子化手法を選択することを特徴とする音声パラメ
ータ量子化アルゴリズムを記載したコンピュータ読み取
り可能な記憶媒体。
26. A frame division step of dividing a digital input signal into frames, a speech parameter calculation step of calculating speech parameters of a predetermined analysis order for each frame, and a speech parameter quantization step of quantizing the speech parameters. A computer-readable storage medium describing a speech parameter quantization algorithm comprising: a speech parameter variation analysis step of analyzing speech parameter variation values; anda quantization technique selection step having a plurality of speech parameter quantization techniques. Prepared,
The quantization method selecting step includes selecting a quantization method from the plurality of voice parameter quantization methods by a predetermined method using the fluctuation value analyzed in the voice parameter fluctuation analysis step. A computer-readable storage medium describing a parameter quantization algorithm.
【請求項27】 請求項26に記載の音声パラメータ量
子化アルゴリズムを記載したコンピュータ読み取り可能
な記憶媒体において、前記量子化手法選択ステップは、
予測を用いた量子化手法もしくは予測を用いない量子化
手法の選択を行うことを特徴とする音声パラメータ量子
化アルゴリズムを記載したコンピュータ読み取り可能な
記憶媒体。
27. A computer-readable storage medium according to claim 26, wherein said quantization method selecting step includes:
A computer-readable storage medium describing a speech parameter quantization algorithm, wherein a quantization method using prediction or a quantization method without prediction is selected.
【請求項28】 請求項27に記載の音声パラメータ量
子化アルゴリズムを記載したコンピュータ読み取り可能
な記憶媒体において、前記量子化手法選択ステップは、
予測を用いた量子化手法として適応予測差分量子化を用
いることを特徴とする音声パラメータ量子化アルゴリズ
ムを記載したコンピュータ読み取り可能な記憶媒体。
28. A computer-readable storage medium having the speech parameter quantization algorithm according to claim 27, wherein said quantization method selection step includes:
A computer-readable storage medium describing a speech parameter quantization algorithm, wherein adaptive prediction difference quantization is used as a quantization technique using prediction.
【請求項29】 請求項25乃至28のいずれかに記載
の音声パラメータ量子化アルゴリズムを記載したコンピ
ュータ読み取り可能な記憶媒体において、前記音声パラ
メータから所定の値を引く減算ステップを備えたことを
特徴とする音声パラメータ量子化アルゴリズムを記載し
たコンピュータ読み取り可能な記憶媒体。
29. A computer-readable storage medium in which the speech parameter quantization algorithm according to claim 25 is provided, further comprising a subtraction step of subtracting a predetermined value from the speech parameter. A computer-readable storage medium describing a speech parameter quantization algorithm to be executed.
【請求項30】 請求項25乃至29のいずれかに記載
の音声パラメータ量子化アルゴリズムを記載したコンピ
ュータ読み取り可能な記憶媒体において、前記音声パラ
メータの各次数のビット配分を決定する量子化ビット配
分決定ステップを備えたことを特徴とする音声パラメー
タ量子化アルゴリズムを記載したコンピュータ読み取り
可能な記憶媒体。
30. A quantization bit allocation determining step for determining a bit allocation of each order of the audio parameter in a computer readable storage medium in which the audio parameter quantization algorithm according to claim 25 is described. A computer-readable storage medium describing an audio parameter quantization algorithm, comprising:
JP2000036311A 1999-12-10 2000-02-15 Speech parameter encoding device, encoding system used for the same, computer-readable recording medium stated having encoding algorithm for the same, speech parameter quantizing device, quantization method used for this device and computer-readable recording medium loaded with quantization algorithm Pending JP2001228900A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000036311A JP2001228900A (en) 1999-12-10 2000-02-15 Speech parameter encoding device, encoding system used for the same, computer-readable recording medium stated having encoding algorithm for the same, speech parameter quantizing device, quantization method used for this device and computer-readable recording medium loaded with quantization algorithm

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP11-351679 1999-12-10
JP35167999 1999-12-10
JP2000036311A JP2001228900A (en) 1999-12-10 2000-02-15 Speech parameter encoding device, encoding system used for the same, computer-readable recording medium stated having encoding algorithm for the same, speech parameter quantizing device, quantization method used for this device and computer-readable recording medium loaded with quantization algorithm

Publications (1)

Publication Number Publication Date
JP2001228900A true JP2001228900A (en) 2001-08-24

Family

ID=26579465

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000036311A Pending JP2001228900A (en) 1999-12-10 2000-02-15 Speech parameter encoding device, encoding system used for the same, computer-readable recording medium stated having encoding algorithm for the same, speech parameter quantizing device, quantization method used for this device and computer-readable recording medium loaded with quantization algorithm

Country Status (1)

Country Link
JP (1) JP2001228900A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003036510A1 (en) * 2001-10-22 2003-05-01 Sony Corporation Signal processing method and processor
US7720235B2 (en) 2001-10-22 2010-05-18 Sony Corporation Signal processing method and apparatus, signal processing program, and recording medium
US7729545B2 (en) 2001-10-22 2010-06-01 Sony Corporation Signal processing method and method for determining image similarity
WO2012053149A1 (en) * 2010-10-22 2012-04-26 パナソニック株式会社 Speech analyzing device, quantization device, inverse quantization device, and method for same

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003036510A1 (en) * 2001-10-22 2003-05-01 Sony Corporation Signal processing method and processor
US7720235B2 (en) 2001-10-22 2010-05-18 Sony Corporation Signal processing method and apparatus, signal processing program, and recording medium
US7729545B2 (en) 2001-10-22 2010-06-01 Sony Corporation Signal processing method and method for determining image similarity
US8255214B2 (en) 2001-10-22 2012-08-28 Sony Corporation Signal processing method and processor
WO2012053149A1 (en) * 2010-10-22 2012-04-26 パナソニック株式会社 Speech analyzing device, quantization device, inverse quantization device, and method for same

Similar Documents

Publication Publication Date Title
JP3151874B2 (en) Voice parameter coding method and apparatus
KR100712056B1 (en) Method and device for robust predictive vector quantization of linear prediction parameters in variable bit rate speech coding
JP3196595B2 (en) Audio coding device
US6704702B2 (en) Speech encoding method, apparatus and program
US5787391A (en) Speech coding by code-edited linear prediction
JP3114197B2 (en) Voice parameter coding method
JP3143956B2 (en) Voice parameter coding method
JP3254687B2 (en) Audio coding method
JPH11143499A (en) Improved method for switching type predictive quantization
JPH06222797A (en) Voice encoding system
US20060074643A1 (en) Apparatus and method of encoding/decoding voice for selecting quantization/dequantization using characteristics of synthesized voice
JP2800618B2 (en) Voice parameter coding method
JP3180786B2 (en) Audio encoding method and audio encoding device
US7680669B2 (en) Sound encoding apparatus and method, and sound decoding apparatus and method
JP2624130B2 (en) Audio coding method
US6622120B1 (en) Fast search method for LSP quantization
JPH1097294A (en) Voice coding device
JP2001228900A (en) Speech parameter encoding device, encoding system used for the same, computer-readable recording medium stated having encoding algorithm for the same, speech parameter quantizing device, quantization method used for this device and computer-readable recording medium loaded with quantization algorithm
US6751585B2 (en) Speech coder for high quality at low bit rates
US20060080090A1 (en) Reusing codebooks in parameter quantization
JPH11143498A (en) Vector quantization method for lpc coefficient
JP3435310B2 (en) Voice coding method and apparatus
JP2800599B2 (en) Basic period encoder
JP3153075B2 (en) Audio coding device
JP3360545B2 (en) Audio coding device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040517

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060214

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060613