JP3232728B2 - Audio coding method - Google Patents

Audio coding method

Info

Publication number
JP3232728B2
JP3232728B2 JP34590292A JP34590292A JP3232728B2 JP 3232728 B2 JP3232728 B2 JP 3232728B2 JP 34590292 A JP34590292 A JP 34590292A JP 34590292 A JP34590292 A JP 34590292A JP 3232728 B2 JP3232728 B2 JP 3232728B2
Authority
JP
Japan
Prior art keywords
pulse
codebook
sound source
speech
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP34590292A
Other languages
Japanese (ja)
Other versions
JPH06195098A (en
Inventor
英敏 関根
吉章 淺川
卓 ▲高▼島
敦義 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP34590292A priority Critical patent/JP3232728B2/en
Publication of JPH06195098A publication Critical patent/JPH06195098A/en
Application granted granted Critical
Publication of JP3232728B2 publication Critical patent/JP3232728B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、低ビットレートで高品
質な合成音声を得るに好適な音声符号化方法に関し、特
に比較的少ない処理量で4kbps以下のビットレート
に適用できる音声符号化方法に係る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a speech coding method suitable for obtaining high-quality synthesized speech at a low bit rate, and more particularly to a speech coding method applicable to bit rates of 4 kbps or less with a relatively small processing amount. According to.

【0002】[0002]

【従来の技術】合成音声と原音声の重み付き誤差を評価
し、その誤差を最小化するように符号化パラメータを決
定する、「合成による分析」手法を取り入れた音声符号
化方式が最近提案され、低ビットレートにおいても比較
的良好な音声品質を得ることに成功している。代表的な
ものとして符号駆動線形予測符号化(CELP)方式
(例えば、M. R. Schroeder and B. S. Atal: "Code-ex
cited linear prediction(CELP)", Proc. ICASSP 85 (1
985.3))があり、4.8kbpsで実用的な音声品質を
達成している。また、CELP方式の改良方式も多数提
案されており、例えばベクトル和駆動線形予測符号化
(VSELP)方式(例えば、I. A. Gersonand M. A.
Jasiuk: "Vector sum excited linear prediction (VSE
LP) speechcoding at 8kbps", Proc. ICASSP 90 (1990.
4))は、処理量やメモリ容量、ビット誤り耐性の点で優
れている。
2. Description of the Related Art Recently, a speech coding system incorporating an "analysis by synthesis" technique for evaluating a weighted error between a synthesized speech and an original speech and determining a coding parameter so as to minimize the error has been proposed. Has succeeded in obtaining relatively good voice quality even at low bit rates. A typical example is a code-driven linear predictive coding (CELP) scheme (for example, MR Schroeder and BS Atal: "Code-ex
cited linear prediction (CELP) ", Proc. ICASSP 85 (1
985.3)) and achieves practical voice quality at 4.8 kbps. Also, a number of improved CELP schemes have been proposed, such as a vector sum driven linear predictive coding (VSELP) scheme (for example, IA Gersonand MA).
Jasiuk: "Vector sum excited linear prediction (VSE
LP) speechcoding at 8kbps ", Proc. ICASSP 90 (1990.
4)) is superior in terms of processing amount, memory capacity, and bit error resistance.

【0003】一方、移動無線通信のディジタル化が本格
化し、周波数の有効活用の観点から、より低ビットレー
ト(4kbps以下)の音声符号化方式の開発が望まれ
ている。CELPやVSELPを単純に低ビットレート
化しようとすると、品質劣化が大きくなり、限界があ
る。これは適応コードブック検索による長期予測精度が
低下し、周期成分の再現性が低下する結果、復号音声の
雑音感が強くなるためである。そこで、従来の統計音源
(雑音性音源)の他に、パルス音源を導入し、周期性の
再現性を高める方式が提案されている。
[0003] On the other hand, digitalization of mobile radio communication is in full swing, and from the viewpoint of effective use of frequency, development of a voice coding system with a lower bit rate (4 kbps or less) is desired. If the bit rate of CELP or VSELP is simply reduced, quality degradation is increased and there is a limit. This is because the long-term prediction accuracy by the adaptive codebook search is reduced, and the reproducibility of the periodic component is reduced. As a result, the sense of noise in the decoded speech is increased. Therefore, a method has been proposed in which a pulsed sound source is introduced in addition to the conventional statistical sound source (noise source) to improve the reproducibility of the periodicity.

【0004】このような方式としては、有声音では位相
と振幅を制御したシングルパルス、無声音ではCELP
を用いる「SPE−CELP」方式(W. Granzow and
B. S.Atal: "High-quality digital speech at 4 kb/
s", Proc. GLOBECOM 90 (1990.12))や、周期パルスと
雑音を切り替えて使用する「パルス/雑音選択型CEL
P」方式(吉田、他2:”低ビットレートCELP符号
化へのパルス音源探索の適用”、信学技報 SP91−
68(1991.10)、あるいは、田中、板倉:”C
ELP音声符号化方式におけるパルス音源導入による音
声品質の向上”、信学技報 EA92−24(199
2.5))等がある。
[0004] As such a system, for voiced sounds, a single pulse whose phase and amplitude are controlled, and for unvoiced sounds, CELP is used.
“SPE-CELP” method using WWW (Granzow and
BSAtal: "High-quality digital speech at 4 kb /
s ", Proc. GLOBECOM 90 (1990.12)) or" Pulse / Noise Selective CEL, which switches between periodic pulse and noise.
P "method (Yoshida et al. 2:" Application of pulse excitation search to low bit rate CELP coding ", IEICE Tech.
68 (1991.10), or Tanaka and Itakura: "C
Improvement of Speech Quality by Introducing Pulse Sound Source in ELP Speech Coding Method ", IEICE Technical Report EA92-24 (199)
2.5)).

【0005】[0005]

【発明が解決しようとする課題】上記パルス音源を使用
した音声符号化方式は、従来方式に比べると低ビットレ
ート化しても周期成分の再現性の向上が図れるが、次の
ような問題がある。
The speech coding method using the above-mentioned pulse sound source can improve the reproducibility of the periodic component even if the bit rate is reduced as compared with the conventional method, but has the following problems. .

【0006】「SPE−CELP」方式は1ピッチ周期
あたり1本のパルスしか用いないため、その位置や振幅
が音声品質に極めて大きな影響を与える。パルス位置の
決め方はかなり複雑で、入力音声信号に対するロバスト
性に問題がある。また、符号化音声がブザー的になる場
合があるとの報告もある。
[0006] Since the "SPE-CELP" system uses only one pulse per pitch period, its position and amplitude have a great influence on voice quality. The method of determining the pulse position is quite complicated, and has a problem in robustness to an input audio signal. There is also a report that coded speech may be buzzer-like.

【0007】一方、「パルス/雑音選択型CELP」方
式は、パルス音源と雑音音源を個別に用いたときの誤差
を評価し、誤差の小さい方の音源を選択したり、入力音
声の有声無声判定により使用する音源を選択したりす
る。これらの方法では長期予測(適応コードブック検
索)を併用するので、パルス音源は長期予測ベクトルを
補完する意味合いが強い。しかし、上記の文献ではパル
ス間隔を長期予測ラグ、またはピッチ周期に限定してい
るため、十分な音声品質が得られていないという問題が
ある。
[0007] On the other hand, the "pulse / noise selection type CELP" system evaluates an error when a pulse sound source and a noise sound source are separately used, selects a sound source having a smaller error, and determines voiced / unvoiced input voice. To select the sound source to use. In these methods, since long-term prediction (adaptive codebook search) is used together, the pulse sound source has a strong meaning to complement the long-term prediction vector. However, in the above document, since the pulse interval is limited to the long-term prediction lag or the pitch period, there is a problem that sufficient voice quality is not obtained.

【0008】また、「SPE−CELP」方式も「パル
ス/雑音選択型CELP」方式もパルス音源と雑音音源
との切り替えを行っているため、符号化音声に、音源の
切り替えに起因する音色の変化(不連続感)があるとい
う問題もある。
[0008] Further, since both the "SPE-CELP" system and the "pulse / noise selection type CELP" system switch between a pulse sound source and a noise sound source, a change in timbre due to the sound source switching occurs in the coded speech. There is also a problem of (discontinuity).

【0009】また、音源としてパルス成分だけを用いた
方式では、摩擦音等の残差波形が雑音的になる部分で
は、パルス音源による残差波形の近似が困難であり、復
号音声の劣化が目立ち、パルス音源だけを用いるのは問
題がある。
In a system using only a pulse component as a sound source, it is difficult to approximate a residual waveform by a pulse sound source in a portion where a residual waveform such as a fricative sound becomes noise, and the degradation of decoded speech is conspicuous. Using only pulsed sound sources is problematic.

【0010】本発明の第1の目的は、低ビットレート化
しても音声品質の劣化が少い符号化方式を提供すること
である。また、本発明の第2の目的は、比較的低処理量
で第1の目的を実現することである。
[0010] A first object of the present invention is to provide a coding system in which voice quality is less deteriorated even when the bit rate is reduced. Further, a second object of the present invention is to realize the first object with a relatively low processing amount.

【0011】[0011]

【課題を解決するための手段】上記目的を達成するた
め、本発明では、音声符号器に入力された音声は、まず
フレーム、およびサブフレームに分割される。短期予測
分析部では、フレームごとにスペクトルパラメータ(短
期予測係数)が抽出され、量子化される。次に、聴覚重
み付け誤差を評価するための準備として、入力音声に聴
覚重み付けがなされる。また、重み付け合成フィルタに
ゼロ信号を入力し、零入力応答を求め、重み付けられた
入力信号から減算する。これは、合成フィルタの内部状
態に依存する過去の影響を取り除くためである。さら
に、重み付け合成フィルタのインパルス応答も計算して
おく。
In order to achieve the above object, according to the present invention, speech input to a speech encoder is first divided into frames and subframes. In the short-term prediction analysis unit, a spectrum parameter (short-term prediction coefficient) is extracted and quantized for each frame. Next, as preparation for evaluating the hearing weighting error, the input speech is subjected to hearing weighting. Also, a zero signal is input to the weighting synthesis filter, a zero input response is obtained, and the response is subtracted from the weighted input signal. This is to remove a past effect that depends on the internal state of the synthesis filter. Further, the impulse response of the weighting synthesis filter is calculated.

【0012】次に長期予測分析部において、サブフレー
ム単位で、適応コードブックから最適な長期予測ラグと
利得を求める。重み付けられた入力信号から零入力応答
を減算した信号から、さらに利得を乗じた重み付け長期
予測ベクトルを差し引いた信号を作製し、検索コードブ
ック選択部に入力する。
Next, in the long-term prediction analysis unit, the optimum long-term prediction lag and gain are obtained from the adaptive codebook in subframe units. From the signal obtained by subtracting the zero input response from the weighted input signal, a signal is generated by subtracting the weighted long-term prediction vector further multiplied by the gain, and input to the search codebook selection unit.

【0013】音響分類部は上記入力音声をフレームある
いはサブフレーム単位で分析し、音響的特徴を表す音響
パラメータを求め、分析結果を検索コードブック選択部
と使用音源選択部に出力する。(A) 検索コードブック選択部は、音響分類部からの入力情報
によって、検索を行うコードブックを複数のコードブッ
クの中から選択し、各検索コードブックに前述の検索対
象信号を入力する。コードブックは、パルス音源と雑音
音源など異なった特性の音源が複数個用意されており、
入力音声の音響的特徴に基づいて、適当なコードブック
が検索処理の対象として選択される。(B) パルス音源の検索では、まずパルス情報コードブックか
らパルス間隔と先頭パルス位置の情報を読みだし、パル
ス発生部でパルス列を発生させる。この時、パルス間隔
の情報は、長期予測の検索結果等による限定は行わず、
予め設定した値の全てをパルス列発生に用いる。このパ
ルス列を音源ベクトルとみなし、重み付け合成フィルタ
のインパルス応答の畳み込みにより、重み付けする。こ
れらの重み付けベクトルに対して重み付け誤差を順次評
価し、誤差を最小化するパルス音源ベクトルと利得を決
定する。(C) 雑音音源の検索では、雑音情報コードブックから雑音情
報を読みだして音源ベクトルを作成し、その音源ベクト
ルに対して重み付けを行った重み付けベクトルの重み付
け誤差を評価し、誤差を最小にする雑音音源ベクトルと
利得を決定する。(D) 使用音源選択部では、検索コードブック選択部によって
選択された各検索コードブックの検索結果、音響分類部
の分析結果、長期予測器の検索結果等から使用音源コー
ドブックを選択し、そのコードブックの検索結果を音源
ベクトルとして出力し、使用するコードブックを表す使
用音源指標を出力する。(E) 利得量子化部では、長期予測ベクトルと音源ベクトルの
利得を同時に最適化し、量子化する。
The acoustic classification unit analyzes the input speech in units of frames or subframes, finds acoustic parameters representing acoustic features, and outputs the analysis results to a search codebook selection unit and a used sound source selection unit. (A) The search codebook selection unit selects a codebook to be searched from a plurality of codebooks based on input information from the acoustic classification unit, and inputs the above-described search target signal to each search codebook. In the codebook, multiple sound sources with different characteristics such as pulse sound source and noise sound source are prepared,
Based on the acoustic characteristics of the input speech, an appropriate code book is selected as a search target. (B) In the search for a pulse sound source, first, information on a pulse interval and a leading pulse position is read from a pulse information codebook, and a pulse generator generates a pulse train. At this time, the information of the pulse interval is not limited by the long-term prediction search result and the like.
All of the preset values are used for pulse train generation. This pulse train is regarded as a sound source vector, and weighting is performed by convolution of the impulse response of the weighting synthesis filter. A weighting error is sequentially evaluated for these weighting vectors, and a pulse excitation vector and a gain that minimize the error are determined. (C) In searching for a noise source, noise information is read from the noise information codebook to generate a source vector, and the weighting error of the weight vector obtained by weighting the source vector is evaluated to minimize the error. Determine the noise source vector and gain. (D) The used sound source selection unit selects the used sound source codebook from the search results of the respective search codebooks selected by the search codebook selection unit, the analysis results of the acoustic classification unit, the search results of the long-term predictor, and the like. A search result of the code book is output as a sound source vector, and a used sound source index indicating a code book to be used is output. (E) The gain quantization unit simultaneously optimizes and quantizes the gains of the long-term prediction vector and the excitation vector.

【0014】以上のようにして求められたスペクトルパ
ラメータや利得の量子化コード、長期予測ラグ、使用音
源指標、音源ベクトルの指標が伝送パラメータとして復
号器へ伝送される。
The spectral parameters and gain quantization codes, long-term prediction lag, used excitation index, and excitation vector index determined as described above are transmitted to the decoder as transmission parameters.

【0015】復号器では、上記伝送パラメータから駆動
音源が計算され、短期予測係数をフィルタ係数とする合
成フィルタに入力されることによって、復号化音声が得
られる。
In the decoder, a driving sound source is calculated from the transmission parameters, and is input to a synthesis filter that uses short-term prediction coefficients as filter coefficients, thereby obtaining decoded speech.

【0016】[0016]

【作用】前記(A)の音響分類部は、入力音声の分析を
行い、音響的特徴を表すパラメータを求め、それに基づ
き音響的分類を行う。そして入力音声の音響パラメータ
と分類結果を検索コードブック選択部と使用音源選択部
に出力する。
The acoustic classification unit of (A) analyzes the input speech, obtains parameters representing acoustic characteristics, and performs acoustic classification based on the parameters. Then, the acoustic parameters and the classification result of the input speech are output to the search codebook selection unit and the used sound source selection unit.

【0017】前記(B)の検索コードブック選択部は、
前記(A)の音響分類部の分析結果従って、検索処理を
行うコードブック選択し、限定する。これによって、コ
ードブック検索に要する演算量を削減することができ、
しかも入力音声に適当なコードブックを選択することに
より合成音声の音質を保つ。
[0017] The search code book selection unit of (B)
According to the analysis result of the acoustic classification unit of (A), a codebook to be searched is selected and limited. This can reduce the amount of calculation required for codebook search,
Moreover, by selecting an appropriate codebook for the input voice, the sound quality of the synthesized voice is maintained.

【0018】音源コードブックとして、前記(C)のパ
ルス音源と前記(D)の雑音音源という特性の異なった
コードブックを複数用意することによって、定常部、非
定常部など入力音声の音響的特徴の違いに対応すること
ができ、駆動音源の近似精度の低下を防ぐとともに、符
号化効率を向上させ、合成音声の音質を向上させる。
By preparing a plurality of codebooks having different characteristics of the above-mentioned pulse sound source (C) and the above-mentioned noise sound source (D) as sound source codebooks, the acoustic characteristics of the input speech such as the stationary part and the non-stationary part are obtained. In addition to preventing the decrease in the approximation accuracy of the driving sound source, the encoding efficiency is improved, and the sound quality of the synthesized speech is improved.

【0019】前記(C)のパルス音源では、検索するパ
ルス列の先頭パルス位置とパルス間隔の範囲を予め決め
ておき、長期予測やピッチ予測の結果に係らず、範囲全
体を検索することによって、駆動音源の近似精度を向上
させ、低ビットレート化に伴う長期予測利得と周期性の
再現性の低下を補償し、合成音の音質を向上させる。ま
たパルス音源検索処理において、合成フィルタのインパ
ルス応答の打切りと最小パルス間隔の設定を行い、隣接
パルス間の影響を無くすことによって演算量の低減を行
うことができる。また、パルス列を発生させるためのパ
ルス情報コードブックは、波形ベクトル自体の情報では
なく、先頭パルス位置とパルス間隔の2つの情報しか持
たないため、コードブックに必要なメモリー量の削減が
可能である。
In the pulse sound source (C), the range of the leading pulse position and pulse interval of the pulse train to be searched is determined in advance, and the entire range is searched regardless of the result of long-term prediction or pitch prediction. It improves the approximation accuracy of the sound source, compensates for the decrease in long-term prediction gain and the reproducibility of periodicity due to the reduction in bit rate, and improves the sound quality of synthesized sounds. Further, in the pulse sound source search processing, the amount of calculation can be reduced by terminating the impulse response of the synthesis filter and setting the minimum pulse interval to eliminate the influence between adjacent pulses. Further, the pulse information codebook for generating the pulse train has not only the information of the waveform vector itself but only two pieces of information of the head pulse position and the pulse interval, so that the memory amount required for the codebook can be reduced. .

【0020】前記(E)の使用音源選択部は、検索コー
ドブック選択部の選択結果、各コードブックの検索結
果、音響分類部の分析結果などから使用音源の選択を行
う。これによって最適な駆動音源を選択し、駆動音源の
近似精度を向上させることができる。
The used sound source selection unit (E) selects a used sound source from the selection result of the search codebook selection unit, the search result of each codebook, the analysis result of the sound classification unit, and the like. As a result, an optimal driving sound source can be selected, and the approximation accuracy of the driving sound source can be improved.

【0021】[0021]

【実施例】以下、図面を用いて本発明の一実施例を説明
する。本発明の実施例の音声符号化部のブロック図を図
1に、音声復号化部のブロック図を図2に示す。
An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram of a speech encoding unit according to an embodiment of the present invention, and FIG. 2 is a block diagram of a speech decoding unit.

【0022】本発明は、符号駆動線形予測(CELP)
音声符号化方式に基づいているので、具体的な実施例の
説明に先立って、まずCELP方式の原理について説明
する。図3はCELPの符号化部における駆動音源決定
の原理図である。同図では、音源の周期性を表す成分と
して適応コードブック108の出力である長期予測ベク
トル110と、周期性以外の成分(ランダム性、雑音
性)として統計コードブック109の出力であるコード
ベクトル111にそれぞれの利得112、113を乗じ
て加算した荷重和114を駆動音源としている。
The present invention provides a code driven linear prediction (CELP)
Since it is based on the speech coding method, the principle of the CELP method will be described first before describing a specific embodiment. FIG. 3 is a diagram illustrating the principle of determining the drive excitation in the CELP encoding unit. In the figure, a long-term prediction vector 110 which is the output of the adaptive codebook 108 as a component representing the periodicity of the sound source, and a code vector 111 which is an output of the statistical codebook 109 as a component (randomness, noise) other than the periodicity. Is multiplied by the respective gains 112 and 113, and the sum is used as the driving sound source.

【0023】最適な駆動音源を得るためのコードブック
の検索は次のようにしてなされる。一般に駆動音源を合
成フィルタに入力して得られる合成音声が、原音声(入
力音声)に一致するような駆動音源が得られれば良い
が、実際にはなんらかの誤差(量子化歪)を伴う。した
がってこの誤差を最小化するように駆動音源を決定すれ
ば良いことになるが、人間の聴覚特性は必ずしも誤差量
と音声の主観品質の対応が取れないことが知られてい
る。そこで聴覚特性との対応が良くなるように重み付け
した誤差を用いるのが一般的である。聴覚重み付けにつ
いては、例えば次の文献に記載されている。B. S. Atal
and J. R. Remde: "A new model of LPC excitation f
or producing natural-sounding speech at low bit ra
tes", Proc.ICASSP 82 (1982.5)。
A search for a code book for obtaining an optimum driving sound source is performed as follows. In general, it is sufficient that a driving sound source that is obtained by inputting a driving sound source to a synthesis filter matches the original sound (input sound), but in practice there is some error (quantization distortion). Therefore, it suffices to determine the drive sound source so as to minimize this error, but it is known that human auditory characteristics do not always correspond to the error amount and the subjective quality of speech. Therefore, it is common to use an error weighted so as to improve the correspondence with the auditory characteristics. The auditory weighting is described in the following document, for example. BS Atal
and JR Remde: "A new model of LPC excitation f
or producing natural-sounding speech at low bit ra
tes ", Proc. ICASSP 82 (1982.5).

【0024】この聴覚重み付け誤差を評価するために、
駆動音源114は重み付け合成フィルタ105に入力さ
れ、重み付け合成音声116を得る。入力音声101も
聴覚重み付けフィルタ104を通して重み付け入力音声
115を得、重み付け合成音声116との差を取って重
み付け誤差波形117を得る。なお、聴覚重み付けフィ
ルタ104と重み付け合成フィルタ105のフィルタ係
数は、あらかじめ入力音声101をLPC(線形予測)
分析部102に入力して得られたLPCパラメータ10
3によって決められる。
In order to evaluate this auditory weighting error,
The driving sound source 114 is input to the weighted synthesis filter 105 to obtain a weighted synthesized voice 116. The input voice 101 also obtains a weighted input voice 115 through the auditory weighting filter 104, and obtains a weighted error waveform 117 by taking the difference from the weighted synthesized voice 116. Note that the filter coefficients of the auditory weighting filter 104 and the weighting synthesis filter 105 are obtained by inputting the input speech 101 in advance by LPC (linear prediction).
LPC parameter 10 obtained by input to analysis unit 102
Determined by 3.

【0025】重み付け誤差波形117は、2乗誤差計算
部118において誤差評価区間にわたって2乗和を計算
され、重み付け2乗誤差119が得られる。前述のよう
に駆動音源は長期予測ベクトルと統計コードベクトルと
の荷重和であるから、駆動音源の決定は、各コードブッ
クからどのコードベクトルを選択するかを決めるコード
ベクトル指標の決定に帰着する。すなわち、長期予測ラ
グ106とコードベクトル指標107を順次変えて重み
付け2乗誤差119算出し、誤差最小化部120におい
て重み付け誤差が最小となるものを選択すれば良い。こ
のような駆動音源決定法を「合成による分析」法と呼ん
でいる。
The weighted error waveform 117 is calculated by the squared error calculator 118 over the error evaluation section to obtain a weighted squared error 119. As described above, since the driving sound source is the weighted sum of the long-term prediction vector and the statistical code vector, the determination of the driving sound source results in the determination of a code vector index that determines which code vector is selected from each codebook. That is, the weighted square error 119 is calculated by sequentially changing the long-term prediction lag 106 and the code vector index 107, and the error minimizing unit 120 may select the one that minimizes the weighting error. Such a drive sound source determination method is called an “analysis by synthesis” method.

【0026】この様にして最適な駆動音源が決定した
ら、長期予測ラグ106、コードブック指標107、利
得112、113、及びLPCパラメータ103を伝送
パラメータとして多重化部121において多重化し、送
信データ122とする。また、この時の駆動音源114
を用いて、適応コードブック108の状態が更新され
る。
When the optimal driving sound source is determined in this manner, the multiplexing section 121 multiplexes the long-term prediction lag 106, the codebook index 107, the gains 112 and 113, and the LPC parameters 103 as transmission parameters. I do. Also, the driving sound source 114 at this time
Is used to update the state of adaptive codebook 108.

【0027】上述の「合成による分析」法を忠実に実行
しようとすると、すなわち毎回重み付け誤差を評価しな
がら長期予測ラグと統計コードベクトルの指標を同時に
最適化しようとすると、膨大な処理量となる。そのた
め、実際には逐次最適化等の手法が用いられる。
If the "analysis by synthesis" method described above is to be executed faithfully, that is, if the long-term prediction lag and the index of the statistical code vector are simultaneously optimized while evaluating the weighting error each time, an enormous amount of processing is required. . Therefore, a technique such as sequential optimization is actually used.

【0028】一方、復号部における処理は、まず受信デ
ータ222が多重分離部221で各種パラメータに分離
される。長期予測ラグ206に基づき適応コードブック
208を検索し、長期予測ベクトル210を出力する。
また、コードブック指標207に基づき統計コードブッ
ク209を検索し、音源ベクトル211を出力する。長
期予測ベクトル210と音源ベクトル211にそれぞれ
の利得212と213を乗じ、加算した信号を駆動音源
214として合成フィルタ230に入力する。合成フィ
ルタのフィルタ係数は、LPCパラメータ203によっ
て決まる。ポストフィルタ231は必須ではないが、合
成音声の主観的品質を改善するために多用され、その出
力が出力音声232となる。
On the other hand, in the processing in the decoding unit, first, the received data 222 is separated into various parameters by the demultiplexing unit 221. The adaptive code book 208 is searched based on the long-term prediction lag 206, and a long-term prediction vector 210 is output.
Further, the statistical code book 209 is searched based on the code book index 207, and the sound source vector 211 is output. The long-term prediction vector 210 and the sound source vector 211 are multiplied by the respective gains 212 and 213, and the added signal is input to the synthesis filter 230 as the driving sound source 214. The filter coefficient of the synthesis filter is determined by the LPC parameter 203. The post filter 231 is not essential, but is often used to improve the subjective quality of the synthesized speech, and its output is the output speech 232.

【0029】本発明の一実施例の音声符号化部のブロッ
ク図を図1に、音声復号化部のブロック図を図2に示
す。以下、本実施例の動作の概要を説明する。
FIG. 1 is a block diagram of a speech encoder according to an embodiment of the present invention, and FIG. 2 is a block diagram of a speech decoder. Hereinafter, an outline of the operation of the present embodiment will be described.

【0030】音声符号化部では、所定の標本化周波数
(通常8kHz)でA/D変換されたディジタル音声信
号11が入力される。
The audio encoder receives a digital audio signal 11 that has been A / D converted at a predetermined sampling frequency (usually 8 kHz).

【0031】短期予測分析部(LPC分析部)12は分
析フレーム長の音声データ11を読みだし、短期予測係
数13を出力する。フレーム長は、例えば40ms(3
20サンプル)程度である。
A short-term prediction analysis section (LPC analysis section) 12 reads out audio data 11 having an analysis frame length and outputs a short-term prediction coefficient 13. The frame length is, for example, 40 ms (3
20 samples).

【0032】短期予測係数13は、短期予測係数量子化
部14において量子化される。量子化符号が短期予測係
数量子化指標18として、伝送パラメータとして出力さ
れる。また、短期予測係数の量子化値17が、次段以降
の処理で参照される。
The short-term prediction coefficient 13 is quantized by a short-term prediction coefficient quantization unit 14. The quantization code is output as a short-term prediction coefficient quantization index 18 as a transmission parameter. Further, the quantized value 17 of the short-term prediction coefficient is referred to in the processing of the next and subsequent stages.

【0033】さらに、入力音声11は聴覚重み付けフィ
ルタ19で重み付けられ、重み付け音声20が得られ
る。一方、重み付け合成フィルタ21にフレーム長分
の、値が0の信号(零入力)22を入力し、零入力応答
23を得る。これを重み付け入力音声20から減算し、
重み付け合成フィルタの過去の内部状態の影響を取り除
いた重み付け入力音声24が得られる。また、重み付け
合成フィルタのインパルス応答29も求めておく。
Further, the input voice 11 is weighted by the auditory weighting filter 19, and a weighted voice 20 is obtained. On the other hand, a signal (zero input) 22 having a value of 0 for the frame length is input to the weighting synthesis filter 21 to obtain a zero input response 23. This is subtracted from the weighted input speech 20,
The weighted input speech 24 is obtained in which the influence of the past internal state of the weighting synthesis filter has been removed. Further, the impulse response 29 of the weighting synthesis filter is also obtained.

【0034】長期予測分析は、サブフレームごとに適応
コードブックの検索によって実行されるので、以下では
適応コードブック検索と呼ぶ。ここで、サブフレーム長
は、例えば10ms(80サンプル)程度である。適応
コードブック検索部25において、音声の周期性を表す
パラメータである長期予測ラグが抽出され、長期予測ラ
グの指標30と長期予測ベクトル58が出力される。
Since the long-term prediction analysis is performed by searching the adaptive codebook for each subframe, it is hereinafter referred to as an adaptive codebook search. Here, the subframe length is, for example, about 10 ms (80 samples). The adaptive codebook search unit 25 extracts a long-term prediction lag, which is a parameter representing the periodicity of speech, and outputs a long-term prediction lag index 30 and a long-term prediction vector 58.

【0035】音響分類部31では、入力音声11をフレ
ームおよびサブフレーム単位で分析し、音響分類パラメ
ータ33を検索コードブック選択部34と使用音源選択
部35に出力する。
The acoustic classification unit 31 analyzes the input speech 11 in units of frames and subframes, and outputs acoustic classification parameters 33 to a search codebook selection unit 34 and a used sound source selection unit 35.

【0036】検索コードブック選択部33は、音響分類
部31からの音響分類パラメータ33と前フレームまで
の分析結果、符号化結果に従って、検索対象コードブッ
クを複数個のコードブックの中から選択する。この際、
各コードブックの一部もコードブックとみなして検索対
象とする。このように検索対象コードブックを限定する
ことによって、コードベクトル検索に必要な演算量を削
減しつつ、駆動音源の近似精度を保つ。
The search codebook selection unit 33 selects a search target codebook from a plurality of codebooks according to the audio classification parameters 33 from the audio classification unit 31, the analysis result up to the previous frame, and the encoding result. On this occasion,
A part of each codebook is also regarded as a codebook and is searched. By limiting the search target codebook in this way, the approximation accuracy of the driving sound source is maintained while reducing the amount of calculation required for the code vector search.

【0037】検索コードブック選択部34がパルス音源
を選択すると、パルス発生部40はパルス情報コードブ
ック38からパルス間隔と先頭パルス位置の情報39を
読みだし、その情報に基づきパルス列41を生成する。
パルス音源検索部36では、パルス列41を音源ベクト
ルとみなし、重み付け合成フィルタのインパルス応答2
9の畳み込みにより、重み付けする。重み付けられた入
力信号20から零入力応答23を減算した信号24か
ら、さらに利得を乗じた重み付け長期予測ベクトル28
を差し引いた信号に対し、最適なパルス音源ベクトル4
6を検索する。最適なパルス音源ベクトル46に対応す
るパルス情報コードブック38の指標44を出力する。
When the search codebook selecting section 34 selects a pulse sound source, the pulse generating section 40 reads information 39 on the pulse interval and the leading pulse position from the pulse information codebook 38, and generates a pulse train 41 based on the information.
The pulse sound source search unit 36 regards the pulse train 41 as a sound source vector and obtains the impulse response 2 of the weighted synthesis filter.
9 is weighted by convolution. A weighted long-term prediction vector 28 obtained by further multiplying a signal 24 obtained by subtracting the zero input response 23 from the weighted input signal 20 by a gain
The optimal pulse source vector 4
Search for 6. The index 44 of the pulse information codebook 38 corresponding to the optimal pulse excitation vector 46 is output.

【0038】検索コードブック選択部34が雑音音源を
選択すると、雑音音源検索部37では、雑音情報コード
ブック42から雑音情報43を読みだし、雑音ベクトル
を生成し、この雑音ベクトルを音源ベクトルとみなし、
短期予測係数の量子化値17から重み付け合成フィルタ
21と同じフィルタ係数を計算し、その係数によって重
み付けを行う。そして、重み付けられた入力信号20か
ら零入力応答23を減算した信号24から、さらに利得
を乗じた重み付け長期予測ベクトル28を差し引いた信
号に対し、最適な雑音音源ベクトル47を検索する。最
適な雑音音源ベクトル47に対応する雑音情報コードブ
ック42の指標45を出力する。
When the search codebook selection unit 34 selects a noise source, the noise source search unit 37 reads the noise information 43 from the noise information codebook 42, generates a noise vector, and regards this noise vector as a source vector. ,
The same filter coefficient as that of the weighting synthesis filter 21 is calculated from the quantized value 17 of the short-term prediction coefficient, and weighting is performed using the coefficient. Then, an optimum noise source vector 47 is searched for a signal obtained by subtracting the weighted long-term prediction vector 28 further multiplied by the gain from the signal 24 obtained by subtracting the zero input response 23 from the weighted input signal 20. The index 45 of the noise information codebook 42 corresponding to the optimal noise source vector 47 is output.

【0039】使用音源選択部35では、音響分類部31
から出力された音響分類パラメータ33と検索コードブ
ック選択部34の選択結果32と検索対象コードブック
の検索結果44、45、46、47から、音源のコード
ブック指標32と音源コードベクトル50と音源コード
ベクトルの指標49を出力する。
In the used sound source selecting section 35, the sound classifying section 31
From the sound classification parameters 33 output from the, the selection result 32 of the search codebook selection unit 34 and the search results 44, 45, 46, 47 of the search target codebook, the codebook index 32 of the sound source, the sound source code vector 50, and the sound source code The vector index 49 is output.

【0040】利得最適化・量子化部51では、長期予測
ベクトル58、及び、音源ベクトル50の利得の最適値
を計算し、量子化する。その時の量子化コード52を出
力する。
The gain optimizing / quantizing section 51 calculates and quantizes the optimum values of the long-term prediction vector 58 and the gain of the excitation vector 50. The quantization code 52 at that time is output.

【0041】以上のようにして求められた短期予測係数
や利得の量子化コード18、52、長期予測ラグの指標
30や使用音源指標32や音源情報コードブックの指標
49が伝送パラメータとして音声復号部へ伝送される。
The short-term prediction coefficients and gain quantization codes 18 and 52, the long-term prediction lag index 30, the used sound source index 32, and the sound source information codebook index 49 obtained as described above are used as transmission parameters in the speech decoding unit. Transmitted to

【0042】音声復号化部では、長期予測ラグの指標6
3を用いて適応コードブック68から長期予測ベクトル
69が読みだされ、パルス発生部73は音源コードブッ
ク指標64を用いてパルス情報コードブック70からパ
ルス間隔と先頭パルス位置に関する情報71が読みだ
し、パルス音源ベクトル74を発生する。雑音情報コー
ドブック75は、音源コードブック指標64を用いて雑
音音源ベクトル76を生成する。そして、使用音源選択
部70によって音源の切替が行われ、音源ベクトル77
が出力される。また、利得コードブック指標66を用い
て、利得コードブック78から各利得79、80が再生
される。各コードベクトル69、77に各利得79、8
0を乗じて加算し、駆動音源ベクトル84が生成され
る。
In the speech decoding unit, the long-term prediction lag index 6
3, the long-term prediction vector 69 is read from the adaptive codebook 68, and the pulse generator 73 reads information 71 on the pulse interval and the leading pulse position from the pulse information codebook 70 using the sound source codebook index 64. A pulse source vector 74 is generated. The noise information codebook 75 generates a noise excitation vector 76 using the excitation codebook index 64. The sound source is switched by the used sound source selection unit 70, and the sound source vector 77
Is output. The gains 79 and 80 are reproduced from the gain codebook 78 using the gain codebook index 66. Each gain 79, 8 is added to each code vector 69, 77.
A driving sound source vector 84 is generated by multiplying by zero.

【0043】上記駆動音源84を、合成フィルタ85に
入力することによって、合成音声86が得られる。合成
フィルタ85のフィルタ係数は、短期予測パラメータの
量子化指標67に基づいて短期予測パラメータ量子化コ
ードブック81から読みだされた短期予測パラメータ8
2が用いられる。最後に主観的な音質を向上させる目的
で、合成音声86が適応ポストフィルタ87に入力さ
れ、最終的な復号音声88が得られる。
By inputting the driving sound source 84 to the synthesis filter 85, a synthesized speech 86 is obtained. The filter coefficients of the synthesis filter 85 are the short-term prediction parameters 8 read from the short-term prediction parameter quantization codebook 81 based on the quantization indexes 67 of the short-term prediction parameters.
2 is used. Finally, for the purpose of improving subjective sound quality, the synthesized speech 86 is input to the adaptive post-filter 87, and the final decoded speech 88 is obtained.

【0044】復号音声(ディジタル信号)はDA変換さ
れ、アナログ音声に変換され、出力される。
The decoded voice (digital signal) is DA-converted, converted into an analog voice, and output.

【0045】以上、本実施例の概要を説明したので、次
に主要部分の詳細な機能について説明する。
Having described the outline of the present embodiment, the detailed functions of the main parts will be described next.

【0046】短期予測分析部(LPC分析部)12は、
フレームごとに音声データ11から音声のスペクトル包
絡を表す短期予測係数13を抽出する。短期予測係数1
3は最も一般的には線形予測係数であるが、それから導
出される等価なパラメータである偏自己相関係数(PA
RCOR係数、反射係数)や線スペクトル対(LSPパ
ラメータ)に容易に変換される。
The short-term prediction analysis unit (LPC analysis unit) 12
A short-term prediction coefficient 13 representing a speech spectral envelope is extracted from the speech data 11 for each frame. Short-term forecast coefficient 1
3 is most commonly a linear prediction coefficient, but an equivalent parameter derived therefrom, the partial autocorrelation coefficient (PA
It is easily converted to RCOR coefficients, reflection coefficients) and line spectrum pairs (LSP parameters).

【0047】線形予測係数の導出方法としては、Dur
bin・Levinsonの反復法(斎藤、中田著、
「音声情報処理の基礎」、オーム社、昭和56年に紹介
されている)が一般的であり、反射係数の導出方法は、
上記以外にもFLATアルゴリズム(電波システム開発
センター策定、「デジタル方式自動車電話システム標準
規格RCR STD−27」(以下、「RCR規格書」
と略す)に開示されている)やLeRoux法(斎藤、
中田著、前出書に記載)などが提案されている。また、
線形予測係数からLSPパラメータへの変換方法も、斎
藤、中田著の前出書に記載されている。
As a method for deriving the linear prediction coefficient, Dur
bin-Levinson's iterative method (by Saito and Nakata,
"Basics of speech information processing", introduced in Ohmsha, 1981) is common.
In addition to the above, the FLAT algorithm (established by the Radio System Development Center, "Digital Car Phone System Standard RCR STD-27" (hereinafter "RCR Standard"
Abbreviations) and the LeRoux method (Saito,
Nakata, described in the above-mentioned book). Also,
A method of converting linear prediction coefficients into LSP parameters is also described in the above-mentioned book by Saito and Nakata.

【0048】線形予測係数13は本実施例ではLSPパ
ラメータに変換された後、量子化部14によってベクト
ル量子化され、量子化値17に変換される(LSPコー
ドブック15からコードベクトル16が順次読みださ
れ、最も誤差の小さいものが量子化値となる)。LSP
パラメータは線形予測係数を直接量子化するよりも量子
化特性が良い(同一のビット数で量子化しても、スペク
トル歪が小さい)ことが知られている。量子化方法は、
許容されるビット数によって、スカラー量子化や多段ベ
クトル量子化、ベクトル・スカラー量子化等が用いられ
ることもある。量子化指標18は伝送パラメータとして
出力される。
In this embodiment, the linear prediction coefficients 13 are converted into LSP parameters, then vector-quantized by the quantization unit 14 and converted into quantization values 17 (code vectors 16 are sequentially read from the LSP codebook 15). However, the one with the smallest error is the quantization value.) LSP
It is known that parameters have better quantization characteristics than direct quantization of linear prediction coefficients (spectral distortion is small even if quantized with the same number of bits). The quantization method is
Depending on the allowable number of bits, scalar quantization, multi-stage vector quantization, vector / scalar quantization, or the like may be used. The quantization index 18 is output as a transmission parameter.

【0049】次に聴覚重み付け誤差を計算するための前
処理について説明する。重み付け誤差を算出するため
に、まず入力音声11に聴覚重み付けフィルタ19で重
み付けがなされ、重み付け音声20を得る。重み付けフ
ィルタ19は短期予測係数(または等価なパラメータ)
の量子化値17から構成されるが、その具体形式は次の
通りである。
Next, the preprocessing for calculating the auditory weighting error will be described. In order to calculate the weighting error, first, the input speech 11 is weighted by the auditory weighting filter 19 to obtain the weighted speech 20. The weighting filter 19 is a short-term prediction coefficient (or equivalent parameter)
, And its specific format is as follows.

【0050】[0050]

【数1】 (Equation 1)

【0051】ここにαiはフィルタ係数(線形予測係
数)、Npはフィルタ次数でたとえばNp=10、λは
重み付けパラメータで通常λ=0.8である。
Here, α i is a filter coefficient (linear prediction coefficient), Np is a filter order, for example, Np = 10, and λ is a weighting parameter, usually λ = 0.8.

【0052】一般に合成フィルタの出力は過去の状態の
影響を受けるが、ここでは演算量を削減するために、予
め重み付け音声20から過去の合成フィルタの影響を取
り除いておく。すなわち、重み付け合成フィルタ21に
フレーム長に相当する、値が0のデータ(零入力22)
を入力し、零入力応答23を計算し、重み付け音声20
から減算し、過去の影響を取り除いた重み付け音声24
を得る。ここで用いる重み付け合成フィルタ21の伝達
関数は次の通りである。
In general, the output of the synthesis filter is affected by the past state. In this case, the influence of the past synthesis filter is removed from the weighted speech 20 in advance in order to reduce the amount of calculation. That is, data having a value of 0 (zero input 22) corresponding to the frame length is output to the weighting synthesis filter 21.
, A zero input response 23 is calculated, and the weighted speech 20
From the weighted speech 24 from which the past effects have been removed.
Get. The transfer function of the weighting synthesis filter 21 used here is as follows.

【0053】[0053]

【数2】 (Equation 2)

【0054】この合成フィルタ21は重み付けパラメー
タλを含んでいる点が、復号側の合成フィルタと異なる
点である。また、この重み付け合成フィルタ21のイン
パルス応答29も同時に求めておく。この時、(数2)
のαとしては、線形予測パラメータの量子化値17が用
いられる。
This synthesis filter 21 is different from the decoding-side synthesis filter in that it includes a weighting parameter λ. The impulse response 29 of the weighting synthesis filter 21 is also obtained at the same time. At this time, (Equation 2)
Is used as the quantization value 17 of the linear prediction parameter.

【0055】初めに説明したとおり、長期予測分析は適
応コードブックの検索とみなされ、合成波形と原音声と
の聴覚重み付け誤差の最小化によって長期予測ラグ(適
応コードブックの指標)が選択される。ここでは適応コ
ードブック検索とパルス音源検索は逐次的に行われる場
合について説明する。すなわち、パルス音源を用いない
と仮定して、最適な長期予測ラグの指標30を決定す
る。
As described earlier, the long-term prediction analysis is regarded as a search of an adaptive codebook, and a long-term prediction lag (index of the adaptive codebook) is selected by minimizing an auditory weighting error between the synthesized waveform and the original speech. . Here, a case where the adaptive codebook search and the pulse sound source search are sequentially performed will be described. That is, the optimal long-term prediction lag index 30 is determined on the assumption that no pulse sound source is used.

【0056】次に、適応コードブック検索部25につい
て説明する。検索の対象となる長期予測ラグに対応し
て、適応コードブック26から読みだされたコードベク
トル27の重み付け合成は、重み付け合成フィルタのイ
ンパルス応答29との畳み込みによって実現する。この
ようにして得られた合成出力(重み付き長期予測ベクト
ル)28は合成フィルタの過去の状態には依存しないの
で、零状態応答と呼ばれる。検索範囲にある各ラグに対
する長期予測ベクトル28を計算し、過去の影響を取り
除いた重み付け音声24との相関が計算され、相関の最
大値を与える(最適な)長期予測ベクトル58と、その
時の長期予測ラグを量子化した長期予測ラグ指標30が
出力される。長期予測分析方法の詳細や演算量削減のた
めの手法等については、前出のRCR規格書を参照され
たい。
Next, the adaptive codebook search section 25 will be described. The weighting synthesis of the code vector 27 read from the adaptive codebook 26 corresponding to the long-term prediction lag to be searched is realized by convolution with the impulse response 29 of the weighting synthesis filter. The resultant output (weighted long-term prediction vector) 28 thus obtained does not depend on the past state of the synthesis filter, and is called a zero-state response. The long-term prediction vector 28 for each lag in the search range is calculated, the correlation with the weighted speech 24 from which the past influence has been removed is calculated, and the (optimal) long-term prediction vector 58 that gives the maximum value of the correlation and the long-term prediction vector at that time are calculated. A long-term prediction lag index 30 obtained by quantizing the prediction lag is output. For details of the long-term prediction analysis method and the method for reducing the amount of calculation, refer to the aforementioned RCR standard.

【0057】次に、パルス音源と雑音音源の併用とパル
ス音源ベクトルの生成について説明する。
Next, the combined use of the pulse sound source and the noise sound source and the generation of the pulse sound source vector will be described.

【0058】本発明では、従来のCELPの統計音源の
代わりに複数個のコードブックを具備し、その中にパル
スコードブックと雑音コードブックを少なくとも一つず
つ有し、それらを併用し、そのうちパルスコードブック
については長期予測分析等の結果とは独立に全検索する
点に特徴がある。パルス音源と雑音音源の併用は、入力
音声の音響的性質によって、駆動音源が近似しようとす
る残差波形も性質が異なることから行われる。例えば図
5に示すように、音声波形はおおまかに定常部と非定常
部に分けることができるが、残差波形は音声波形から短
期的性質の成分を取り除いたものであり長期的な周期成
分と考えられるが、、定常部と非定常部では残差波形の
性質が異なっていると考えられる。この性質の異なる残
差波形の近似をパルス音源、あるいは雑音音源どちらか
だけで行うのは困難である。そこで、入力音声の音響的
特徴によって検索対象とする音源コードブックを変化さ
せることによって、符号化音声の音質の向上を図ってい
る。
In the present invention, a plurality of codebooks are provided in place of the conventional CELP statistical sound source, and at least one pulse codebook and at least one noise codebook are provided therein. The feature of the codebook is that all searches are performed independently of the results of long-term prediction analysis and the like. The combined use of the pulse sound source and the noise sound source is performed because the characteristics of the residual waveform to be approximated by the driving sound source differ depending on the acoustic characteristics of the input voice. For example, as shown in FIG. 5, the speech waveform can be roughly divided into a stationary part and a non-stationary part, but the residual waveform is obtained by removing a component having a short-term property from the speech waveform and has a long-term periodic component. However, it is considered that the characteristic of the residual waveform is different between the stationary part and the non-stationary part. It is difficult to approximate the residual waveforms having different properties by using only the pulse sound source or the noise sound source. Therefore, the sound quality of the coded voice is improved by changing the sound source codebook to be searched according to the acoustic characteristics of the input voice.

【0059】本発明では使用音源の選択は、入力音声の
音響的特徴を分析し分類を行う音響分類部31と、検索
対象とする音源コードブックを選択する検索コードブッ
ク選択部34、使用する音源コードブックを選択する使
用音源選択部35によって行う。本実施例では、検索対
象コードブックを検索コードブック選択部34で複数選
択し、使用音源選択部35が一つのコードブックを使用
音源として選択する方法であるが、検索コードブック選
択部34と使用音源選択部35それぞれの選択方法を組
み合わせることによって本実施例の他にもいくつかの使
用音源選択法が考えられる。検索コードブックの選択で
は、全コードブックあるいは一部のコードブックを複数
選択する方法や、各コードブックのサブセットを検索コ
ードブックの中に含める含める方法も考えられる。また
音響分類部などの出力結果によってトップダウン式に検
索コードブックを一つに限定する方法も考えられ、この
場合は選択コードブック選択部が使用音源選択部を兼ね
ており、検索コードブックの選択結果が自動的に使用音
源指標となる。また検索音源の選択評価方法では、フレ
ームあるいはサブフレーム等の単位で行った音響分類の
結果で選択を行う方法や、前フレームまでの符号化を行
った結果から選択を行う方法、それらを組み合わせて選
択を行う方法などが考えられる。使用音源の選択では、
複数コードブックの検索結果からボトムアップ式に使用
音源を選択する方法や、複数コードブックの検索結果に
音響分類部などの結果を考慮して選択する方法などが考
えられる。
In the present invention, a sound source to be used is selected by analyzing a sound characteristic of an input voice and classifying the sound source, a search codebook selecting unit 34 for selecting a sound source codebook to be searched, and a sound source to be used. This is performed by the used sound source selection unit 35 for selecting a codebook. In the present embodiment, the search codebook selection unit 34 selects a plurality of search target codebooks, and the used sound source selection unit 35 selects one codebook as a used sound source. By combining the selection methods of the sound source selection units 35, some other sound source selection methods can be considered in addition to the present embodiment. In selecting the search codebook, a method of selecting a plurality of codebooks or a plurality of codebooks, or a method of including a subset of each codebook in the search codebook can be considered. In addition, it is also conceivable to limit the search codebook to one in a top-down manner according to the output results of the sound classification unit and the like. In this case, the selection codebook selection unit also functions as the sound source selection unit to be used, The result automatically becomes the used sound source index. In addition, in the selection sound source selection evaluation method, a method of selecting based on the result of acoustic classification performed in units of frames or subframes, a method of selecting from the result of performing encoding up to the previous frame, and a combination thereof. A method of making a selection can be considered. When selecting the sound source to use,
A method of selecting a sound source to be used from the search results of a plurality of codebooks in a bottom-up manner, a method of selecting a search result of a plurality of codebooks in consideration of a result of an acoustic classification unit, or the like can be considered.

【0060】パルス音源は、基本的には周期パルス列の
一部(サブフレーム長分)を取りだしたものである。し
かし、先頭パルス位置は図6に示すように、パルス間隔
によらずサブフレームの最初のサンプルから最後のサン
プルまで取りうるようにしている。これは低ビットレー
ト化にともないサブフレーム長が長くなることによっ
て、長期予測ベクトルではカバーしきれない、音声の立
上りの特徴をパルス音源により再現するためである。ま
た、パルス間隔は長期予測ラグの検索範囲と同様に、人
間の発声のピッチ周期の変動範囲をほぼカバーする程度
にするのが良い。本実施例では最小パルス間隔をLmi
n=20、最大パルス間隔をLmax=146としてい
る。
The pulse sound source is basically a part of a periodic pulse train (subframe length). However, as shown in FIG. 6, the head pulse position can be taken from the first sample to the last sample of the subframe regardless of the pulse interval. This is because the characteristic of the rising edge of speech, which cannot be covered by the long-term prediction vector, is reproduced by the pulse sound source due to the increase in the sub-frame length accompanying the lower bit rate. Further, the pulse interval is preferably set so as to substantially cover the fluctuation range of the pitch period of the human utterance, similarly to the search range of the long-term prediction lag. In this embodiment, the minimum pulse interval is set to Lmi.
n = 20, and the maximum pulse interval is Lmax = 146.

【0061】パルス情報コードブック38には、図7に
示すようにパルス間隔と先頭パルス位置が格納されてい
る。図6から分かるように、パルス間隔をL、サブフレ
ーム長をNとしたとき(本実施例ではN=80)、L≧
Nの場合はサブフレーム内のパルス数は1本である。L
<Nの場合は、先頭パルス位置によって1本または2本
以上となる。1本の場合は、L≧Nの場合と重複するの
で、パルス情報コードブックにはパルス列の重複が生じ
ないようにパルス間隔と先頭パルス位置を配置する。す
なわち、L<Nの場合は、先頭パルス位置はサブフレー
ム内に2本以上のパルスが存在するような範囲とし、L
≧Nについては、L=Nで代表させ、先頭パルス位置は
0からN−1とする。本実施例ではN=80、Lmin
=20としているので、重複のないパルス列の種類は1
910通りとなるが、先頭パルス位置を2サンプル毎に
することによって、パルス列の種類は1010種類とな
り、10ビットで表現できる。これは送出ビット数削減
を目的としたものだが、実験の結果、復号音声88の劣
化は少なく、音声符号化部の性能上問題はない。
The pulse information codebook 38 stores a pulse interval and a leading pulse position as shown in FIG. As can be seen from FIG. 6, when the pulse interval is L and the subframe length is N (N = 80 in this embodiment), L ≧
In the case of N, the number of pulses in the subframe is one. L
In the case of <N, the number is one or more depending on the leading pulse position. In the case of one line, since the overlap is made with the case of L ≧ N, the pulse interval and the leading pulse position are arranged in the pulse information codebook so that the pulse train does not overlap. That is, when L <N, the head pulse position is set to a range in which two or more pulses exist in the subframe.
For ≧ N, L = N is represented, and the leading pulse position is from 0 to N−1. In this embodiment, N = 80, Lmin
= 20, the type of non-overlapping pulse train is 1
There are 910 patterns, but by setting the start pulse position every two samples, the pulse train types become 1010 and can be expressed by 10 bits. This is for the purpose of reducing the number of transmitted bits, but as a result of an experiment, there is little deterioration in the decoded speech 88, and there is no problem in the performance of the speech encoding unit.

【0062】パルス発生部40では、パルス情報コード
ブック38から読みだされたパルス間隔と先頭パルス位
置の情報39に基づき、図8に示すようなパルスを生成
する。パルスの振幅は1、パルスの存在しないサンプル
の振幅は0とする。
The pulse generator 40 generates a pulse as shown in FIG. 8 based on the pulse interval read from the pulse information codebook 38 and the information 39 on the leading pulse position. The amplitude of a pulse is 1, and the amplitude of a sample without a pulse is 0.

【0063】以上はパルス情報コードブック38とパル
ス発生部40によってパルス音源ベクトル41を生成す
る場合であるが、全てのパルス音源ベクトルをコードブ
ックに格納しておくことももちろん可能である。ただし
その場合は、パルス生成の処理が省略できる反面、コー
ドブックの記憶容量は、パルス情報コードブック38で
は1ベクトルあたりパルス間隔と先頭パルス位置の2ワ
ードで済んでいたのに対し、Nワード必要になる。
The above is a case where the pulse excitation vector 41 is generated by the pulse information codebook 38 and the pulse generator 40. However, it is of course possible to store all the pulse excitation vectors in the codebook. In this case, the pulse generation process can be omitted. On the other hand, the storage capacity of the codebook is N words, whereas the pulse information codebook 38 requires only two words of the pulse interval and the first pulse position per vector. become.

【0064】次にパルス音源の検索について説明する。Next, search for a pulse sound source will be described.

【0065】まず、適応コードブック検索の結果出力さ
れた最適な長期予測ベクトル58をbL(n)、その重み付
けられた信号(bL(n)の零状態応答)28をb'L(n)、
利得をβとする。また、過去の影響を取り除いた重み付
け入力音声24をp(n)とする。ここで次式のようにp'
(n)を定義する。
First, the optimal long-term prediction vector 58 output as a result of the adaptive codebook search is represented by b L (n), and its weighted signal (the zero-state response of b L (n)) 28 is represented by b ′ L (n ),
Let the gain be β. The weighted input speech 24 from which the influence of the past has been removed is defined as p (n). Where p '
Define (n).

【0066】[0066]

【数3】 (Equation 3)

【0067】これは理想的な合成音声から長期予測ベク
トルの寄与分を差し引いた成分を表しており、パルス音
源によってカバーしようとする成分である。
This represents a component obtained by subtracting the contribution of the long-term prediction vector from the ideal synthesized speech, and is a component to be covered by the pulse sound source.

【0068】生成したパルス音源をfi(n)、その重み付
け合成音声をf'i(n)とすると、誤差E、
Assuming that the generated pulse sound source is f i (n) and the weighted synthesized speech is f ′ i (n), the error E,

【0069】[0069]

【数4】 (Equation 4)

【0070】を最小化するようなf'i(n)を求めればよ
い。ここでγiは利得、iはパルス情報コードブックの
指標(インデクス)を表す。
It is sufficient to find f ′ i (n) that minimizes f ′ i (n). Here, γ i represents a gain, and i represents an index (index) of the pulse information codebook.

【0071】(数4)をγで偏微分して0とおくと、誤
差Eを最小化するγi
If (Equation 4) is partially differentiated by γ and set to 0, γ i that minimizes the error E is

【0072】[0072]

【数5】 (Equation 5)

【0073】となり、この時のEはWhere E is

【0074】[0074]

【数6】 (Equation 6)

【0075】となる。ここで(数6)の右辺第1項は
f'i(n)によらず正の一定値となるので、右辺第2項を
最大化するf'i(n)、すなわちパルス音源fi(n)を求め
ることに帰着する。
Is obtained. Here, the first term on the right side of (Equation 6) has a positive constant value regardless of f ′ i (n), so f ′ i (n) that maximizes the second term on the right side, that is, the pulse sound source f i ( n).

【0076】以上の処理は、基本的には従来のCELP
における統計コードブック検索と同じであり、処理量の
大きな部分である。本発明では、パルス音源の特徴を利
用し、次数を打ち切ったインパルス応答を用いること
で、検索の処理量を大幅に低減している。
The above processing is basically performed by the conventional CELP
This is the same as the statistical codebook search in, and is a large part of the processing amount. In the present invention, the amount of search processing is significantly reduced by using an impulse response whose order is truncated using the characteristics of a pulse sound source.

【0077】一般にインパルス応答の畳み込みにより音
声を合成する場合、インパルス応答の次数打切りは誤差
の原因となる。しかし、(数2)で表される重み付け合
成フィルタのインパルス応答は図9に示すように、重み
付けなしのインパルス応答に比べて減衰が急峻であり、
次数打切りの影響は小さい。打切り次数を20次(2.
5ms)位に設定すれば、ほとんどの場合打切りによる
影響は無視できる。そこで本発明では、打切り次数をパ
ルス音源の最小パルス間隔であるLmin(20サンプ
ル)にする。
In general, when speech is synthesized by convolution of an impulse response, truncation of the order of the impulse response causes an error. However, as shown in FIG. 9, the impulse response of the weighted synthesis filter represented by (Equation 2) has a steeper attenuation than that of the impulse response without weighting.
The effect of order truncation is small. Set the truncation order to 20 (2.
If it is set to about 5 ms), in most cases, the effect of the discontinuation can be ignored. Therefore, in the present invention, the truncation order is set to Lmin (20 samples) which is the minimum pulse interval of the pulse sound source.

【0078】ここでCi、Giを次式のように定義する。Here, C i and G i are defined as follows.

【0079】[0079]

【数7】 (Equation 7)

【0080】Ciはp'(n)とf'i(n)の相互相関であり、
またGiはf'i(n)のパワーであるので、本来ならばf'i
(n)が変わるごとに(指標iを更新するごとに)計算し
なおす必要がある。一方、p'(n)(0≦n≦N−1、N
はサブフレームのサンプル数)とインパルス応答h(n)
はあるサブフレームでは一定である。ここで次数をLm
inで打ち切ったインパルス応答をh'(n)(0≦n≦L
min)とし、次式で表されるaj(0≦j≦N−1)
をあらかじめ計算しておく。
C i is the cross-correlation between p ′ (n) and f ′ i (n),
The 'because it is the power of i (n), would otherwise f' G i is f i
Each time (n) changes (every time the index i is updated), it is necessary to recalculate. On the other hand, p ′ (n) (0 ≦ n ≦ N−1, N
Is the number of subframe samples) and the impulse response h (n)
Is constant in a certain subframe. Where the order is Lm
The impulse response censored at in is represented by h ′ (n) (0 ≦ n ≦ L
min) and a j (0 ≦ j ≦ N−1) represented by the following equation:
Is calculated in advance.

【0081】[0081]

【数8】 (Equation 8)

【0082】ajは図10に示すように、h'(n)の位置
を1サンプルずつシフトしたときの、h'(n)に対応する
p'(n)の部分との相互相関を示してしている。
A j indicates the cross-correlation between the position of h ′ (n) and the portion of p ′ (n) corresponding to h ′ (n) when the position of h ′ (n) is shifted by one sample, as shown in FIG. I have.

【0083】h'(n)はLminで打ちきられているの
で、検索対象のいかなるパルス音源に対してもパルス間
でのオーバラップが生じない。したがって、(数7)の
iを求めるには、例えば図11に示すように、パルス
音源fi(n)のパルス位置がP1、P2、P3だったとす
ると、あらかじめ計算してあるajのうち、aP1
P2、aP3の和を計算すれば良いことになる。よって、
f'i(n)が変わるごとに行うべきインパルス応答の畳み
込みの計算が、あらかじめサブフレームに1回計算して
ある部分相互相関の和に置き換えられることにより、処
理量の大幅な低減が可能となった。
Since h '(n) is spelled out at Lmin, there is no overlap between pulses for any pulse source to be searched. Accordingly, the a j To obtain the C i, for example, as shown in FIG. 11, when the pulse position of the pulse excitation f i (n) is that it was P1, P2, P3, which is previously calculated in equation (7) Of these, the sum of a P1 , a P2 , and a P3 may be calculated. Therefore,
Since the convolution calculation of the impulse response to be performed every time f ′ i (n) changes is replaced with the sum of partial cross-correlations calculated once in the subframe in advance, the processing amount can be significantly reduced. became.

【0084】同様な手法が(数7)のGiについても適
用できる。すなわち、あらかじめ次式で定義されるgj
を計算しておく。
[0084] can also be applied to G i of the same techniques (number 7). That is, g j defined in advance by the following equation
Is calculated.

【0085】[0085]

【数9】 (Equation 9)

【0086】なお、(数9)の示すとおり、0≦j≦N
−Lminの場合はgjの値は一定になるので、g0のみ
計算しておけば良い。Giの計算もCiの場合と同様に、
i(n)のパルス位置に対応したgjの和を求めることに
よって実現できる。
Note that, as shown in (Equation 9), 0 ≦ j ≦ N
In the case of −Lmin, the value of g j is constant, so that only g 0 needs to be calculated. As with the calculation of the G i also of C i,
This can be realized by obtaining the sum of g j corresponding to the pulse position of f i (n).

【0087】なお、この様にして最適な(Ci 2/Gi
最大化する)パルス音源fi(n)が求まったら、次数打切
りをしないインパルス応答h(n)を用いることにより、
i(n)の厳密な重み付け信号f'i(n)を計算しておく。
When the optimum pulse sound source f i (n) (maximizing C i 2 / G i ) is determined in this way, the impulse response h (n) without order truncation is used.
f i strict weighting signal f 'i of (n) (n) previously calculated.

【0088】パルスコードブックを用いる従来の方法
(前述の吉田等の文献、及び、田中等の文献)ではパル
ス間隔は長期予測ラグ、または、ピッチ抽出をして求め
たピッチ周期としている。そのため、入力音声の周期性
の低い部分ではパルス音源を使用すると音質が劣化して
いた。本発明では、可能な組合せのパルス音源の全検索
を行っているため、この様な部分でも長期予測ベクトル
を補完し、良好な音質が得られる。
In the conventional method using the pulse code book (the above-mentioned document by Yoshida et al. And the document by Tanaka et al.), The pulse interval is a long-term prediction lag or a pitch period obtained by extracting a pitch. Therefore, when a pulse sound source is used in a portion where the periodicity of the input voice is low, the sound quality is deteriorated. According to the present invention, since all the pulse sound sources of the possible combinations are searched, the long-term prediction vector is complemented even in such a portion, and good sound quality can be obtained.

【0089】本実施例では、雑音音源として少数の基底
ベクトルの2値の荷重付き線形結合を用いており、雑音
音源の検索は、少数の基底ベクトルの2値の荷重付き線
形結合の荷重値の組合せを検索することによって行って
いる。この方法はRCR規格のフルレート音声符号化方
法に用いられている方法であり、処理量と必要メモリー
量の点で大きな改良がされている。実際の処理の手順に
関してはRCR規格書を参照されたい。
In this embodiment, a binary weighted linear combination of a small number of basis vectors is used as a noise source, and a search for a noise source is performed by calculating the weighted value of the binary weighted linear combination of a small number of basis vectors. This is done by searching for combinations. This method is used in the full-rate speech encoding method of the RCR standard, and has greatly improved in terms of processing amount and required memory amount. Refer to the RCR standard for the actual processing procedure.

【0090】音声符号化部における最終段の処理は利得
の最適化と量子化である。利得最適化・量子化部51
に、厳密に重み付けられた(次数打切りのないインパル
ス応答の畳み込みによって求められた)長期予測ベクト
ルb'L(n)28と音源ベクトルf'i(n)50、及び、過去
の影響を取り除かれた重み付け入力音声p(n)24が入
力される。ここで改めて利得をβ、γとすると、次式の
重み付け誤差Eを最小化するようにβとγを決定する。
The processing at the final stage in the speech encoding unit is optimization of gain and quantization. Gain optimization / quantization unit 51
The strictly weighted long-term prediction vector b ′ L (n) 28 and the source vector f ′ i (n) 50 (determined by convolution of the impulse response without order censoring) and the past effects are removed. The weighted input voice p (n) 24 is input. Here, assuming that the gains are β and γ again, β and γ are determined so as to minimize the weighting error E in the following equation.

【0091】[0091]

【数10】 (Equation 10)

【0092】具体的には、(数10)をβとγで偏微分
して0とおいてできる連立方程式を解くことによる。
More specifically, the equation (10) is partially differentiated by β and γ to solve a simultaneous equation that can be set to 0.

【0093】利得の量子化は、βとγを直接スカラー量
子化したり、別の変数に変換後スカラー量子化あるいは
ベクトル量子化するなどの方法がある。本実施例では後
者の方法によりスカラー量子化する。
The quantization of the gain includes a method of directly scalar quantizing β and γ, and a method of scalar quantization or vector quantization after conversion into another variable. In this embodiment, scalar quantization is performed by the latter method.

【0094】β及びγの量子化値をβq53、γq54と
すると、それぞれを重み付けられていない長期予測ベク
トル50と音源ベクトル50に乗じ、駆動音源55を作
製する。この駆動音源55は、適応コードブック26の
更新に用いられる。
Assuming that the quantized values of β and γ are β q 53 and γ q 54, respectively, the unweighted long-term prediction vector 50 and the sound source vector 50 are multiplied to produce a driving sound source 55. The driving sound source 55 is used for updating the adaptive codebook 26.

【0095】次に図2に戻り、本実施例の音声復号化部
について説明する。
Next, returning to FIG. 2, the speech decoding section of this embodiment will be described.

【0096】受信データ61は、多重分離部62におい
て、短期予測パラメータ量子化指標67、長期予測ラグ
指標63、使用音源指標65、音源情報コードブック指
標64、利得量子化指標66に多重分離される。
The received data 61 is demultiplexed in the demultiplexing section 62 into a short-term prediction parameter quantization index 67, a long-term prediction lag index 63, a used excitation index 65, an excitation information codebook index 64, and a gain quantization index 66. .

【0097】復号化処理の第1段階は、各パラメータ値
の復号化である。短期予測パラメータの指標67に基づ
いて、短期予測パラメータ量子化コードブック81から
短期予測パラメータ値82が復号される。同様に適応コ
ードブック68では、長期予測ラグ指標63に基づいて
長期予測ベクトル69を復号する。利得コードブック7
8では、利得量子化指標66に基づいて量子化利得7
9、80を復号する。パルス音源では、音源情報コード
ブック指標64に基づいて、パルス情報コードブック7
1からパルス間隔と先頭パルス位置の情報72が読みだ
され、パルス生成部73によってパルス音源ベクトル
(パルス列)74が復号される。雑音音源では、音源情
報コードブック指標64に基づいて、雑音情報コードブ
ック75によって、基底ベクトルを2値の荷重付き線形
結合を行った雑音音源ベクトル76が出力される。次
に、使用音源指標65に基づいて使用音源選択部70が
使用音源を選択し、音源ベクトル77を出力する。
The first stage of the decoding process is to decode each parameter value. The short-term prediction parameter value 82 is decoded from the short-term prediction parameter quantization codebook 81 based on the short-term prediction parameter index 67. Similarly, the adaptive codebook 68 decodes the long-term prediction vector 69 based on the long-term prediction lag index 63. Gain codebook 7
8, the quantization gain 7 based on the gain quantization index 66.
Decode 9, 80. In the pulse sound source, the pulse information codebook 7 is determined based on the sound source information codebook index 64.
The information 72 on the pulse interval and the leading pulse position is read from 1, and the pulse generation unit 73 decodes the pulse excitation vector (pulse train) 74. In the noise source, the noise source codebook 75 outputs a noise source vector 76 obtained by performing a binary weighted linear combination of the base vectors based on the source information codebook index 64. Next, the used sound source selecting unit 70 selects the used sound source based on the used sound source index 65, and outputs the sound source vector 77.

【0098】復号化処理の第2段階は、駆動音源の生成
である。適応コードブック68から長期予測ラグ指標6
3に対応して読みだされた長期予測ベクトル69と、音
源ベクトル77のそれぞれに、利得79、80が乗ぜら
れ、加算されて駆動音源84が生成される。駆動音源8
4は合成フィルタ85に入力されるとともに、適応コー
ドブック68の状態更新にも用いられる。
The second stage of the decoding process is the generation of a driving sound source. Long-term prediction lag index 6 from adaptive codebook 68
3 are multiplied by the gains 79 and 80, respectively, and the driving sound source 84 is generated. Drive sound source 8
4 is input to the synthesis filter 85 and is also used for updating the state of the adaptive codebook 68.

【0099】復号化処理の最後の段階は、音声合成であ
る。合成フィルタ85では、復号された短期予測パラメ
ータ82をフィルタ係数とし、駆動音源84を入力する
ことによってディジタル合成音声86を合成出力する。
さらに、主観的音質を高めるために、合成フィルタ85
の出力86をポストフィルタ87に通し、その出力であ
る最終的なディジタル合成音声88を得る。これはバッ
ファメモリを介して連続的にDA変換器に送られ、アナ
ログ合成音声に変換される。
The last stage of the decoding process is speech synthesis. The synthesis filter 85 uses the decoded short-term prediction parameter 82 as a filter coefficient and inputs a driving sound source 84 to synthesize and output a digital synthesized speech 86.
Further, in order to improve the subjective sound quality, the synthesis filter 85 is used.
Is passed through a post filter 87 to obtain a final digital synthesized voice 88 as the output. This is continuously sent to a DA converter via a buffer memory and converted into an analog synthesized voice.

【0100】以上で、本発明の実施例の音声入力から符
号化、復号化、音声出力までの動作を説明した。以上の
説明では、音声のフレームエネルギー(パワー)には特
に言及しなかった。これはフレームエネルギーは駆動音
源の利得に反映されているためであるが、利得の量子化
を考慮すると、利得のダイナミックレンジを抑えるため
にあらかじめフレームエネルギーで正規化しておく方が
有利である。フレームエネルギーは線形予測パラメータ
の計算時に容易に求められるので、フレームエネルギー
は別途量子化して、その指標を伝送する。また、長期予
測分析の際に、適応コードブックを補間あるいは長期予
測評価関数を補間し、サブサンプル単位での長期予測を
行うフラクショナルピッチを用いることによって符号化
音声、特に女声など周期が比較的短い音声の品質を向上
させることができる。また長期予測で、適応コードブッ
クや長期予測ベクトルを波形的に伸縮させ、周期成分の
時間的な変化に対応することによって符号化音声の品質
が向上する。これらの処理を行う場合には、復号化部に
フラクショナルピッチあるいは波形伸縮の処理の有無の
情報を送らなければならない。
The operations from voice input to encoding, decoding and voice output according to the embodiment of the present invention have been described above. In the above description, the frame energy (power) of the speech has not been particularly mentioned. This is because the frame energy is reflected in the gain of the driving sound source. In consideration of the quantization of the gain, it is more advantageous to normalize the frame energy in advance in order to suppress the dynamic range of the gain. Since the frame energy can be easily obtained when calculating the linear prediction parameter, the frame energy is separately quantized and its index is transmitted. In addition, during long-term prediction analysis, the adaptive codebook is interpolated or the long-term prediction evaluation function is interpolated, and a fractional period such as a female voice is relatively short by using a fractional pitch for performing long-term prediction in subsample units. Audio quality can be improved. In the long-term prediction, the adaptive codebook or the long-term prediction vector is expanded or contracted in a waveform, and the quality of the encoded voice is improved by coping with the temporal change of the periodic component. When performing these processes, it is necessary to send information on whether or not the fractional pitch or the waveform expansion / contraction process is performed to the decoding unit.

【0101】このようにした場合のビット割当ての例を
次に示す。
An example of bit allocation in such a case will be described below.

【0102】標本化周波数を8kHz、フレーム長を4
0ms(320サンプル)、サブフレーム長を10ms
(80サンプル)とする。フレームエネルギーと線形予
測パラメータはフレーム単位で更新し、他のパラメータ
はサブフレーム単位で更新するものとする。なお、フレ
ームエネルギーと線形予測パラメータは、サブフレーム
単位で補間して用いた方が、合成音声の品質向上に有効
である。量子化は27ビットの多段ベクトル量子化を行
うとすれば、線形予測パラメータの量子化指標は27ビ
ットとなる。フレームエネルギーは5ビットでスカラー
量子化する。よって、フレーム当りの伝送ビット数は3
2ビットである。
The sampling frequency is 8 kHz and the frame length is 4
0 ms (320 samples), subframe length 10 ms
(80 samples). It is assumed that the frame energy and the linear prediction parameter are updated on a frame basis, and the other parameters are updated on a subframe basis. Note that it is more effective to improve the quality of synthesized speech if the frame energy and the linear prediction parameter are interpolated and used in subframe units. Assuming that the quantization is performed by 27-bit multistage vector quantization, the quantization index of the linear prediction parameter is 27 bits. The frame energy is scalar quantized with 5 bits. Therefore, the number of transmission bits per frame is 3
Two bits.

【0103】サブフレーム単位のパラメータは、長期予
測ラグの指標が7ビットで、これは長期予測ラグの範囲
が19サンプル(421Hz)から146サンプル(5
5Hz)に対応する。音源を2種類用いるとすると音源
切替指標は1ビットである。パルスおよび雑音情報コー
ドブックのコードブックサイズを10ビット(1010
コードベクトル)とすればコードベクトル指標は10ビ
ットである。利得は、長期予測ベクトルに対するものと
統計コードベクトルに対するものを別のパラメータに変
換した上、ベクトル量子化して8ビットで表す。よっ
て、サブフレーム当りの伝送ビット数は25ビットとな
る。以上により、トータルビットレートは3300bp
sとなる。
The sub-frame unit parameter has a long-term prediction lag index of 7 bits, and the long-term prediction lag range is from 19 samples (421 Hz) to 146 samples (5 samples).
5 Hz). If two types of sound sources are used, the sound source switching index is 1 bit. The codebook size of the pulse and noise information codebook is 10 bits (1010
(Code vector), the code vector index is 10 bits. The gain is converted into another parameter for the long-term prediction vector and the one for the statistical code vector, and then vector-quantized and represented by 8 bits. Therefore, the number of transmission bits per subframe is 25 bits. From the above, the total bit rate is 3300 bp
s.

【0104】以上説明したように、本発明の実施例で
は、低ビットレート化しても周期成分の再現性が向上
し、高品質化が図れる。また、次数を打ち切ったインパ
ルス応答の組合せによる音源コードブック検索により、
処理量を従来のCELPに比べ低減することができる。
As described above, in the embodiment of the present invention, even if the bit rate is reduced, the reproducibility of the periodic component is improved, and high quality can be achieved. Also, by searching the sound source codebook by the combination of the impulse responses with the order censored,
The processing amount can be reduced as compared with the conventional CELP.

【0105】[0105]

【発明の効果】本発明によれば、CELP符号化方法を
低ビットレート化したときに問題となる周期成分の再現
性が改善され、また雑音音源との併用を行うため、4k
bps以下のビットレートでも良好な音声品質の音声符
号器を提供できる。また、パルス音源の検索処理量を低
減できるので、低処理量の音声符号器を提供できる。
According to the present invention, the reproducibility of the periodic component, which is a problem when the CELP encoding method is reduced to a low bit rate, is improved.
A speech encoder with good speech quality can be provided even at a bit rate of bps or less. Further, since the amount of processing for searching for a pulse sound source can be reduced, a speech encoder with a low processing amount can be provided.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施例の符号化部のブロック
図。
FIG. 1 is a block diagram of an encoding unit according to a first embodiment of the present invention.

【図2】本発明の第1の実施例の復号化部のブロック
図。
FIG. 2 is a block diagram of a decoding unit according to the first embodiment of the present invention.

【図3】従来のCELP符号器の原理説明図。FIG. 3 is a diagram illustrating the principle of a conventional CELP encoder.

【図4】従来のCELP復号器の原理説明図。FIG. 4 is a diagram illustrating the principle of a conventional CELP decoder.

【図5】音声波形と残差波形の対応図。FIG. 5 is a correspondence diagram between a speech waveform and a residual waveform.

【図6】パルス音源の例。FIG. 6 shows an example of a pulse sound source.

【図7】パルス情報コードブックの構成。FIG. 7 shows the configuration of a pulse information codebook.

【図8】パルス音源ベクトル発生の原理説明図。FIG. 8 is a diagram illustrating the principle of generating a pulse sound source vector.

【図9】重み付けの有無によるインパルス応答波形の比
較。
FIG. 9 is a comparison of impulse response waveforms with and without weighting.

【図10】部分相互相関計算法の説明図。FIG. 10 is an explanatory diagram of a partial cross-correlation calculation method.

【図11】簡略化畳み込み演算の説明図。FIG. 11 is an explanatory diagram of a simplified convolution operation.

【符号の説明】[Explanation of symbols]

12…線形予測分析部、14…線形予測パラメータ量子
化部、15,81…線形予測パラメータ量子化コードブ
ック、19…聴覚重み付けフィルタ、21…重み付け合
成フィルタ、25…適応コードブック検索部、26,6
8…適応コードブック、31…音響分類部、34…検索
コードブック検索部、35,70…使用音源選択部、3
6…パルス音源検索部、40,73…パルス発生部、3
8,71…パルス情報コードブック、37…雑音音源検
索部、42,75…雑音情報コードブック、51…利得
最適化・量子化部、59,78…利得コードブック、8
5…合成フィルタ、87…ポストフィルタ。
12: linear prediction analysis unit, 14: linear prediction parameter quantization unit, 15, 81: linear prediction parameter quantization codebook, 19: auditory weighting filter, 21: weighting synthesis filter, 25: adaptive codebook search unit, 26, 6
8 ... Adaptive codebook, 31 ... Sound classification unit, 34 ... Search codebook search unit, 35, 70 ... Used sound source selection unit, 3
6 ... Pulse sound source search unit, 40, 73 ... Pulse generation unit, 3
8, 71: pulse information codebook, 37: noise source search unit, 42, 75: noise information codebook, 51: gain optimization / quantization unit, 59, 78: gain codebook, 8
5: synthesis filter, 87: post filter.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 石川 敦義 東京都小平市上水本町五丁目20番1号 株式会社日立製作所半導体設計開発セン タ内 (56)参考文献 特開 平5−108098(JP,A) 特開 平5−165497(JP,A) 特開 平4−55899(JP,A) 特開 平3−101800(JP,A) 特開 平6−138898(JP,A) 特開 平4−58299(JP,A) 特開 平4−107599(JP,A) (58)調査した分野(Int.Cl.7,DB名) G10L 19/12 ──────────────────────────────────────────────────続 き Continuation of the front page (72) Inventor Atsushi Ishikawa 5-2-1, Josuihoncho, Kodaira-shi, Tokyo Inside Semiconductor Design & Development Center, Hitachi, Ltd. (56) References JP-A-5-108098 (JP) JP-A-5-165497 (JP, A) JP-A-4-55899 (JP, A) JP-A-3-101800 (JP, A) JP-A-6-138898 (JP, A) 4-58299 (JP, A) JP-A-4-107599 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) G10L 19/12

Claims (8)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】入力音声信号を予め定めた時間長のフレー
ムに分割し、前記音声信号のスペクトル包絡を示すスペ
クトルパラメータを求めて出力し、前記フレームを予め
定められた時間長のサブフレームに分割し、過去の音源
から前記音声信号との誤差が最小になるよう長期予測パ
ラメータを求めて出力し、前記サブフレームごとに駆動
音源として予め用意されたコードブックの中から最適な
コードベクトルを選択するCELP音声符号化方法にお
いて、前記コードブックは複数個のコードブックからな
り、前記複数個のコードブックの少なくとも一つは雑音
成分であり、少なくとも一つは一定振幅で等間隔のパル
ス成分であることを特徴とする、音声符号化方法。
An input audio signal is divided into frames of a predetermined time length, a spectrum parameter indicating a spectrum envelope of the audio signal is obtained and output, and the frame is divided into subframes of a predetermined time length. Then, a long-term prediction parameter is obtained and output from a past sound source such that an error from the audio signal is minimized, and an optimal code vector is selected from a codebook prepared in advance as a driving sound source for each subframe. In the CELP speech coding method, the codebook includes a plurality of codebooks, at least one of the plurality of codebooks is a noise component, and at least one of the codebooks is a pulse component having a constant amplitude and equally spaced. A speech encoding method, characterized by the following.
【請求項2】前記コードベクトルの選択は、前記音声信
号の音響的分析の結果によって検索処理を行うコードブ
ックを前記複数個のコードブックの中から選択し、各検
索処理対象コードブックで選択されたコードベクトルの
中から最適なコードブックを選択することによって行う
ことを特徴とする、請求項1記載の音声符号化方法。
2. The method according to claim 1, wherein the code vector is selected by selecting a code book for performing a search process from the plurality of code books based on a result of acoustic analysis of the audio signal, and selecting a code book for each search process. 2. The speech encoding method according to claim 1, wherein the method is performed by selecting an optimal codebook from the selected code vectors.
【請求項3】前記検索コードブックの選択は、前記複数
コードブックの各コードブックの全体あるいは各コード
ブックの一部を検索処理対象コードブックとすることを
特徴とする、請求項1から請求項2記載の音声符号化方
法。
3. The search codebook selection method according to claim 1, wherein the entire codebook of the plurality of codebooks or a part of each codebook is set as a search processing target codebook. 3. The speech encoding method according to item 2.
【請求項4】前記パルス成分のコードブックは、パルス
列の情報として先頭パルスの位置とパルス間隔の情報を
格納しており、前記パルス列のコードベクトルは、前記
情報から生成されることを特徴とする、請求項1から請
求項3記載の音声符号化方法。
4. The pulse book code book stores information on a position of a leading pulse and a pulse interval as pulse train information, and a code vector of the pulse train is generated from the information. 4. The speech encoding method according to claim 1, wherein:
【請求項5】前記パルス成分の最適なコードベクトルの
選択は、前記コードブックの全探索によることを特徴と
する、請求項1記載から請求項4記載の音声符号化方
法。
5. The speech coding method according to claim 1, wherein the selection of the optimum code vector of the pulse component is performed by performing a full search of the code book.
【請求項6】前記パルス列の間隔は、人間の発声のピッ
チ周期の変動範囲をほぼカバーする範囲であることを特
徴とする、請求項1記載から請求項5記載の音声符号化
方法。
6. The speech encoding method according to claim 1, wherein the interval between the pulse trains is a range that substantially covers a variation range of a pitch period of a human utterance.
【請求項7】前記パルス列の前記サブフレームにおける
先頭パルス位置は、前記パルス間隔によらず、前記サブ
フレームの先頭から最終点まで取りうることを特徴とす
る、請求項1から請求項6記載の音声符号化方法。
7. The method according to claim 1, wherein the leading pulse position of the pulse train in the subframe can be set from the beginning to the end of the subframe regardless of the pulse interval. Audio coding method.
【請求項8】前記パルス成分のコードベクトルの選択
は、長さを前記パルス列の間隔の最小値以下に打ち切っ
た、重み付け合成フィルタのインパルス応答の組合せに
基づいて行われることを特徴とする、請求項1から請求
項7記載の音声符号化方法。
8. The method according to claim 1, wherein the selection of the code vector of the pulse component is performed based on a combination of an impulse response of a weighted synthesis filter whose length is truncated to be equal to or less than a minimum value of the interval between the pulse trains. The speech encoding method according to any one of claims 1 to 7.
JP34590292A 1992-12-25 1992-12-25 Audio coding method Expired - Fee Related JP3232728B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP34590292A JP3232728B2 (en) 1992-12-25 1992-12-25 Audio coding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP34590292A JP3232728B2 (en) 1992-12-25 1992-12-25 Audio coding method

Publications (2)

Publication Number Publication Date
JPH06195098A JPH06195098A (en) 1994-07-15
JP3232728B2 true JP3232728B2 (en) 2001-11-26

Family

ID=18379772

Family Applications (1)

Application Number Title Priority Date Filing Date
JP34590292A Expired - Fee Related JP3232728B2 (en) 1992-12-25 1992-12-25 Audio coding method

Country Status (1)

Country Link
JP (1) JP3232728B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5864797A (en) * 1995-05-30 1999-01-26 Sanyo Electric Co., Ltd. Pitch-synchronous speech coding by applying multiple analysis to select and align a plurality of types of code vectors
JP5320508B2 (en) * 2010-07-16 2013-10-23 日本電信電話株式会社 Encoding device, decoding device, these methods, program, and recording medium

Also Published As

Publication number Publication date
JPH06195098A (en) 1994-07-15

Similar Documents

Publication Publication Date Title
JP4550289B2 (en) CELP code conversion
KR100264863B1 (en) Method for speech coding based on a celp model
US6427135B1 (en) Method for encoding speech wherein pitch periods are changed based upon input speech signal
CA2429832C (en) Lpc vector quantization apparatus
US6029128A (en) Speech synthesizer
JP2004510174A (en) Gain quantization for CELP-type speech coder
WO2001052241A1 (en) Multi-mode voice encoding device and decoding device
JPH0353300A (en) Sound encoding and decoding system
KR20030062354A (en) Method, device and program for coding and decoding acoustic parameter, and method, device and program for coding and decoding sound
JPH08272395A (en) Voice encoding device
JP3582589B2 (en) Speech coding apparatus and speech decoding apparatus
JPH05265496A (en) Speech encoding method with plural code books
JP3353852B2 (en) Audio encoding method
JP3232701B2 (en) Audio coding method
JP2003044099A (en) Pitch cycle search range setting device and pitch cycle searching device
JP3232728B2 (en) Audio coding method
JP3510643B2 (en) Pitch period processing method for audio signal
JP3916934B2 (en) Acoustic parameter encoding, decoding method, apparatus and program, acoustic signal encoding, decoding method, apparatus and program, acoustic signal transmitting apparatus, acoustic signal receiving apparatus
JP2613503B2 (en) Speech excitation signal encoding / decoding method
JP3299099B2 (en) Audio coding device
JP3319396B2 (en) Speech encoder and speech encoder / decoder
JP3144284B2 (en) Audio coding device
KR0155798B1 (en) Vocoder and the method thereof
JPH08234795A (en) Voice encoding device
JP3292227B2 (en) Code-excited linear predictive speech coding method and decoding method thereof

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees