WO2015145266A2 - Method and device for quantization of linear prediction coefficient and method and device for inverse quantization - Google Patents

Method and device for quantization of linear prediction coefficient and method and device for inverse quantization Download PDF

Info

Publication number
WO2015145266A2
WO2015145266A2 PCT/IB2015/001152 IB2015001152W WO2015145266A2 WO 2015145266 A2 WO2015145266 A2 WO 2015145266A2 IB 2015001152 W IB2015001152 W IB 2015001152W WO 2015145266 A2 WO2015145266 A2 WO 2015145266A2
Authority
WO
WIPO (PCT)
Prior art keywords
quantization
inverse
unit
inverse quantization
quantization unit
Prior art date
Application number
PCT/IB2015/001152
Other languages
French (fr)
Korean (ko)
Other versions
WO2015145266A3 (en
Inventor
성호상
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to SG11201608787UA priority Critical patent/SG11201608787UA/en
Priority to JP2016559611A priority patent/JP6542796B2/en
Priority to US15/300,173 priority patent/US10515646B2/en
Priority to CN201911127329.3A priority patent/CN110853659B/en
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to KR1020227013950A priority patent/KR102626320B1/en
Priority to KR1020247001250A priority patent/KR20240010550A/en
Priority to CN201580028157.8A priority patent/CN106463134B/en
Priority to PL15769251T priority patent/PL3125241T3/en
Priority to KR1020167026991A priority patent/KR102392003B1/en
Priority to EP21168545.8A priority patent/EP3869506A1/en
Priority to EP15769251.8A priority patent/EP3125241B1/en
Publication of WO2015145266A2 publication Critical patent/WO2015145266A2/en
Publication of WO2015145266A3 publication Critical patent/WO2015145266A3/en
Priority to US16/688,482 priority patent/US11450329B2/en
Priority to US17/947,249 priority patent/US11848020B2/en

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/022Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components
    • G10L19/038Vector quantisation, e.g. TwinVQ audio
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0002Codebook adaptations

Definitions

  • the present invention relates to linear predictive coefficient quantization and inverse quantization, and more particularly, to a method and apparatus for efficiently quantizing a linear predictive coefficient with low complexity and a method and apparatus for inverse quantization.
  • speech black is a linear predictive coding (LPC) coefficient to express short-term frequency characteristics of sound.
  • LPC linear predictive coding
  • the LPC coefficient is obtained by dividing the input sound into frames and minimizing the energy of the prediction error for each frame.
  • the LPC coefficient has a large dynamic range and the characteristics of the LPC filter used are very sensitive to the quantization error of the LPC coefficient, the stability of the filter is not guaranteed.
  • the quantization is performed by converting the LPC coefficient to another coefficient that is easy to check the stability of the filter, which is advantageous for interpolation and has good quantization characteristics, and is mainly a line spectral frequency. It is preferred to quantize by converting to a trum frequency (hereinafter, referred to as ISF).
  • ISF trum frequency
  • the quantization technique of the LSF coefficients can increase the quantization gain by using a high correlation between the frames of the LSF coefficients in the frequency domain and the time domain.
  • the LSF coefficient represents the frequency characteristic of the short-term sound, and in the case of a frame in which the frequency characteristic of the input sound changes rapidly, the LSF coefficient of the frame also changes rapidly.
  • a quantizer including an interframe predictor using a high interframe correlation of LSF coefficients it is impossible to properly predict a rapidly changing frame, thereby degrading quantization performance. Therefore, it is necessary to select an optimized quantizer based on the signal characteristics of each frame of the input sound.
  • the technical problem to be solved is to provide a method and apparatus for efficiently quantizing LPC coefficients with low complexity and a method and apparatus for inverse quantization.
  • a quantization apparatus includes: first quantization hairs for performing quantization without interframe prediction; And second quantization hairs for performing quantization with inter-frame prediction, wherein the first quantization hairs include a first quantizer for quantizing the input signal and a third quantizer for quantizing the first quantization error signal.
  • the second quantization modules include a second quantization unit for quantizing a prediction error and a fourth quantization unit for quantizing a second quantization error signal, wherein the first quantization unit and the second quantization unit are vectors having a trellis structure. It may include a quantizer.
  • a quantization method comprising: selecting one of first quantization hairs for performing quantization without inter-frame prediction and second quantization hairs for performing quantization with inter-frame prediction in an open loop manner; And quantizing the input signal using the selected quantization hairs, wherein the first quantization hairs include a first quantization part for quantizing the input signal and a third quantization part for quantizing the first quantization error signal.
  • the second quantization mothers may include a second quantization unit for quantizing a prediction error and a fourth quantization unit for quantizing the second quantization error signal, and the third quantization unit and the fourth quantization unit may share a codebook.
  • Inverse quantization apparatus is a low U inverse quantization mother to perform inverse quantization without inter-frame prediction; And second inverse quantization hairs for performing inverse quantization together with inter-frame prediction, wherein the first inverse quantization hairs are disposed in parallel with a first inverse quantizer and a first inverse quantizer for inversely quantizing an input signal.
  • the second inverse quantization hairs include a second inverse quantization unit inversely quantizing an input signal and a fourth inverse quantization unit disposed in parallel with the second inverse quantization unit, wherein the first inverse quantization unit comprises:
  • the inverse quantization unit and the second inverse quantization unit may include a vector inverse quantizer having a trellis structure.
  • an inverse quantization method includes selecting one of low U inverse quantization hairs for performing inverse quantization without inter-frame prediction and second inverse quantization hairs for performing inverse quantization with inter-frame prediction; And inversely quantizing an input signal using the selected inverse quantization hairs, wherein the first inverse quantization hairs are disposed in parallel with the low U inverse quantization part and the first inverse quantization part that inversely quantizes the input signal.
  • a third inverse quantization unit, wherein the second inverse quantization hairs include a second inverse quantization unit inversely quantizing an input signal and a fourth inverse quantization unit disposed in parallel with the second inverse quantization unit,
  • the quantization unit and the fourth inverse quantization unit may share a codebook.
  • the speech black is divided into a plurality of coding modes according to the characteristics of the audio signal, and the number of bits is assigned and quantized according to the compression rate applied to each coding mode. Audio signals can be quantized more efficiently.
  • 1 is a block diagram illustrating a configuration of a sound encoding apparatus according to an embodiment.
  • 2 is a block diagram showing a configuration of a sound encoding apparatus according to another embodiment.
  • 3 is a block diagram illustrating a configuration of an LPC quantization unit according to an embodiment.
  • FIG. 4 is a block diagram illustrating a detailed configuration of a weighting function determiner of FIG. 3 according to an exemplary embodiment.
  • FIG. 5 is a block diagram illustrating a detailed configuration of a first weight function generator of FIG. 4 according to an exemplary embodiment.
  • FIG. 6 is a block diagram illustrating a configuration of an LPC coefficient quantization unit according to an embodiment.
  • 7 is a block diagram illustrating a configuration of a selector of FIG. 6, according to an exemplary embodiment.
  • FIG. 8 is a flowchart illustrating an operation of a selector of FIG. 6, according to an exemplary embodiment.
  • 9A to 9D are block diagrams illustrating various embodiments of the first quantization hairs illustrated in FIG. 6.
  • 10A through 10F are block diagrams illustrating various embodiments of the second quantization hairs shown in FIG. 6.
  • 11A through 11F are block diagrams illustrating various implementations of quantizers that apply weights to BC-TCVQ.
  • FIG. 12 is a block diagram illustrating a configuration of a quantization apparatus having an open loop switching structure at a low rate according to an embodiment.
  • FIG. 13 is a block diagram illustrating a configuration of a quantization apparatus having an open loop switching structure at a high rate according to an embodiment.
  • FIG. 14 is a block diagram illustrating a configuration of a quantization apparatus having an open loop switching structure at a low rate according to another exemplary embodiment.
  • 15 is a block diagram illustrating a configuration of a quantization apparatus having an open loop switching structure at a high rate according to another exemplary embodiment.
  • 16 is a block diagram illustrating a configuration of an LPC coefficient quantization unit according to an embodiment.
  • 17 is a block diagram illustrating a configuration of a quantization apparatus having a closed loop switching structure according to an embodiment.
  • FIG. 18 is a block diagram illustrating a configuration of a quantization device having a closed loop switching structure according to another embodiment.
  • 19 is a block diagram illustrating a configuration of an inverse quantization apparatus according to an embodiment.
  • 20 is a block diagram showing a detailed configuration of an inverse quantization apparatus according to an embodiment.
  • 21 is a block diagram showing a detailed configuration of an inverse quantization device according to another embodiment.
  • first and second may be used to describe various components, but the components are not limited by the terms. The terms are only used to distinguish one component from another.
  • TCQ quantizes the input vector by assigning one element to each TCQ stage, whereas TCVQ divides the entire input vector to create subvectors and then assigns each subvector to the TCQ stage. . If one element is used to construct a quantizer, it becomes TCQ. When a plurality of elements are combined to form a sub vector, the quantizer is constituted as TCVQ. Therefore, when the two-dimensional subvector is used, the total number of TCQ stages is equal to the input vector size divided by two.
  • the audio codec encodes an input signal in units of frames and extracts LSF coefficients every frame. The LSF coefficient is a vector form, and typically uses 10 or 16 orders. In this case, if the two-dimensional TCVQ is considered, the number of subvectors is 5 or 8.
  • the sound encoding apparatus 100 illustrated in FIG. 1 may include an encoding mode selection unit 110, an LPC coefficient quantization unit 130, and a CELP encoding unit 150. Each component may be integrated into at least one or more modules and implemented as at least one or more processors (not shown).
  • the sound may mean a mixed signal of audio black and voice, and black and audio and voice.
  • voice sound is referred to as voice for convenience of description.
  • the encoding mode selector no may select one of a plurality of encoding modes based on a multi-rate.
  • the encoding mode selector 110 may determine the encoding mode of the current frame using the signal characteristics, voice activity detection (VAD) information, or the encoding mode of the previous frame.
  • VAD voice activity detection
  • the LPC coefficient quantization unit 130 may quantize the LPC coefficients using a quantizer corresponding to the selected encoding mode, and determine a quantization index representing the quantized LPC coefficients.
  • the LPC coefficient quantization unit 130 may perform quantization by converting the LPC coefficients into other coefficients suitable for quantization.
  • the excitation signal encoder 150 may perform excitation signal encoding according to the selected encoding mode.
  • CELP Code_Excited Linear
  • Prect ion Black
  • ACELP Algebrai c CELP
  • Representative parameters for encoding the LPC coefficients by the CELP technique include a hemosphere codebook index, a hemisphere codebook gain, a fixed codebook index, and a fixed codebook gain.
  • the excitation signal encoding may be performed based on an encoding mode based on characteristics of the input signal.
  • UC unvoi ced coding
  • VC void ced coding
  • GC generic ic coding
  • TC trans is ion coding
  • the UC mode may be selected when the voice signal is an unvoiced sound or noise having characteristics similar to those of the unvoiced sound.
  • the VC mode may be selected when the voice signal is a voiced sound.
  • the TC mode may be used when encoding a signal of a transition section in which characteristics of a voice signal change rapidly.
  • the GC mode can encode other signals.
  • UC mode, VC mode, TC mode, and GC mode are in accordance with the definitions and classification criteria described in ITU-T G.718, but are not limited thereto.
  • the excitation signal encoder 150 may include an open loop pitch search unit (not shown), a fixed codebook search unit (not shown), or a gain quantization unit (not shown). ) Can be added or removed.
  • the excitation signal encoder 150 may simplify the GC mode and the VC mode when the number of bits allocated to quantization is large, that is, when the bit rate is high.
  • the GC mode can be used up to the UC mode and the TC mode by including the UC mode and the TC mode in the GC mode.
  • the high bit rate may further include an inactive coding (IC) mode and an audio coding (AC) mode.
  • the excitation signal encoder 150 may be classified into a GC mode, a UC mode, a VC mode, and a TC mode when the number of bits allocated to quantization is small, that is, when the bit rate is low.
  • the low bit rate may further include an IC mode and AC mode.
  • the IC mode can be selected in the case of mute, and in the AC mode, it can be selected when the characteristic of the voice signal is close to the audio.
  • the encoding mode may be further subdivided according to the band of the voice signal.
  • the band of the audio signal may be classified into, for example, a narrow band (hereinafter referred to as NB), a broadband (hereinafter referred to as WB), an ultra wide band (hereinafter referred to as SWB), and a full band (hereinafter referred to as FB).
  • NB has a bandwidth of 300-3400 Hz or 50-4000 Hz
  • WB has a bandwidth of 50-7000 Hz or 50-8000 Hz
  • SWB has a bandwidth of 50-14000 Hz or 50-16000 Hz
  • FB It can have a bandwidth up to 20000 Hz.
  • the numerical value related to the bandwidth is set for convenience and is not limited thereto.
  • band separation can be set more simply or more complicatedly.
  • the type and number of encoding modes are determined, it is necessary to retrain the codebook using the speech signal corresponding to the determined encoding mode.
  • the excitation signal encoder 150 may additionally use a transform encoding algorithm according to an encoding mode.
  • the excitation signal can be encoded in units of frames or subframes.
  • FIG. 2 is a block diagram illustrating a configuration of a sound encoding apparatus according to another embodiment.
  • the sound encoding apparatus 200 illustrated in FIG. 2 includes a preprocessor 210, an LP analyzer 220, a weighted signal calculator 230, an open loop pitch searcher 240, a signal analyzer, and a VAD unit 250.
  • the encoder 260 may include a coder 260, a memory updater 270, and a parameter encoder 280. Each component may be integrated into at least one or more modules and implemented as at least one or more processors (not shown).
  • the sound may mean an audio black is a voice, and a black may be a mixed signal of audio and voice.
  • the sound is referred to as a voice for convenience of description.
  • the preprocessor 210 may preprocess an input voice signal. Through the preprocessing process, unwanted frequency components may be removed from the speech signal, or the frequency characteristics of the speech signal may be adjusted to favor the encoding.
  • the preprocessing unit 210 may perform high pass filtering, pre-amphas s, or sampling transformation.
  • the LP analyzer 220 may perform LP analysis on the preprocessed voice signal to extract the LPC coefficients. Generally, LP analysis is performed once per frame, but two or more LP analyzes may be performed per frame to further improve sound quality. In this case, one may be an LP for frame-end, which is a conventional LP analysis, and the other may be an LP for a mid-subframe for improving sound quality. In this case, the frame end of the current frame refers to the last subframe among the subframes constituting the current frame, and the frame end of the previous frame refers to the last subframe among the subframes constituting the previous frame.
  • the intermediate subframe means one or more subframes among the subframes existing between the last subframe that is the frame end of the previous frame and the last subframe that is the frame end of the current frame. For example, one frame may consist of four subframes.
  • the LPC coefficient uses order 10 when the input signal is narrowband and order 16-20 when wideband, but is not limited thereto.
  • the weighted signal calculator 230 may input the preprocessed speech signal and the extracted LPC coefficients, and calculate the cognitive weighted filtered signal based on the cognitive weighted filter.
  • the cognition weighted filter can reduce the quantization noise of the preprocessed speech signal within the masking range in order to use the masking effect of the human auditory structure.
  • the open loop pitch search unit 240 may search the open loop pitch using the cognitive weighted filtered signal.
  • the signal analysis and VAD unit 250 may determine whether the input signal is an active voice signal by analyzing various characteristics including frequency characteristics of the input signal.
  • the encoder 260 determines the encoding mode of the current frame using signal characteristics, VAD information, or the encoding mode of the previous frame, quantizes the LPC coefficients using a quantizer corresponding to the selected encoding mode, and applies the selected encoding mode to the selected encoding mode. Therefore, the excitation signal can be encoded.
  • the encoder 260 may include the components shown in FIG. 1.
  • the memory updater 270 may store the encoded current frame and the parameters used for encoding for encoding the next frame.
  • the parameter encoder 280 may encode a parameter to be used for decoding at the decoding end and include the same in the bitstream. Preferably, a parameter for encoding mode can be encoded.
  • the bitstream generated by the parameter encoder 280 may be used for storage or transmission purposes.
  • Table 1 below shows an example of a quantization scheme and a structure in four encoding modes.
  • the method of quantization without using inter-frame prediction may be named as a safety-net scheme
  • the method of quantization using inter-frame prediction may be named as a prediction scheme.
  • VQ is a vector quantizer
  • BC-TCQ is a block-limited trellis coded quantizer.
  • TCVQ is a block-limited trellis coded vector quantizer.
  • TCVQ generalizes TCQ to enable vector codebooks and branch labels.
  • the main feature of TCVQ is the partitioning of the extended set of VQ symbols into subvettes and the labeling of trellis branches into these subsets.
  • the optimal trellis path can start at any N initial states and end at any N last states.
  • the codebook has 2 (R + R ') L vector codewords.
  • R ' since the codebook has as many codewords as L / Q times the nominal rate R VQ, R 'may be referred to as a codebook expans i on factor.
  • the encoding process is briefly described as follows. For each input vector, we first search for the closest codeword and distortion in each subset, then set the branch metric for the branch labeled subset S as the searched distortion, and use the Trellis algorithm using the Viterbi algorithm. Find the least distortion path.
  • BC-TCVQ has low complexity because it requires 1 bit per source sample to specify the trellis path.
  • the BC-TCVQ structure may have 2 k initial trellis states and 0 k last states for each allowed initial trellis state if 0 ⁇ k ⁇ V.
  • Single Viterbi encoding starts at the allowed initial trellis state and proceeds to the vector stage mk. It takes k bits to specify the initial state, and mk bits to specify the path to the vector stage mk. The only termining path dependent on the initial trellis state is pre-specified for each trellis state in the vector stage mk via the vector stage m. Regardless of the value of k, m bits are required to specify the path through the initial trellis state and trellis.
  • the BC-TCVQ for VC mode can use a 16-state 8-stage TCVQ with two-dimensional vectors. LSF subvectors with two elements can be assigned to each stage. Table 2 below shows the initial state and the last state for the 16 state BC-TCVQ. Where k and V are 2 and 4, respectively, and 4 bits for the initial state and the last stay are used.
  • the encoding mode may vary depending on the bit rate applied. As described above, 40 or 41 bits per frame in the GC mode and 46 bits per frame in the TC mode may be used to quantize LPC coefficients at a high bit rate using the two modes.
  • the LPC coefficient quantization unit 300 illustrated in FIG. 3 may include a first coefficient transformation unit 310, a weighting function determination unit 330, an ISF / LSF quantization unit 350, and a second coefficient transformation unit 379. Can be. Each component may be integrated into at least one or more modules and implemented as at least one or more processors (not shown).
  • the LPC coefficient quantization unit 300 may provide, as input, unquantized LPC coefficients and encoding mode information.
  • the first coefficient converter 310 may convert the extracted LPC coefficients into other types of coefficients by performing LP analysis on a frame end of a current frame or a previous frame of a voice signal.
  • the first coefficient conversion section 310 is the current frame or line the LPC coefficients for the frame end of the previous frame seukkwe spectral frequency (LSF) coefficient and emittance scan any type of kkweteu column frequency (I SF) coefficients can be converted to eu this time, I factor or SF
  • the weighting function determiner 330 may determine a weighting function for the ISF / LSF quantization unit 350 using the ISF coefficient black LSF coefficient converted from the LPC coefficients. The determined weight function may be used in the process of selecting a quantization path black or quantization scheme or searching a codebook index that minimizes weight errors in quantization. In one example, weighting function determination 330 may combine the weighting function based on the magnitude weighting function, the frequency weighting function, and the location of the ISF / LSF coefficients to determine the final weighting function.
  • the weight function determiner 330 may determine the weight function in consideration of at least one of a frequency band, an encoding mode, and the spectrum analysis information. For example, the weight function determiner 330 may derive an optimal weight function for each encoding mode. The weight function determiner 330 may derive an optimal weight function according to the frequency band of the voice signal. In addition, the weighting function determiner 330 may derive the optimal weighting function according to the frequency analysis information of the voice signal. In this case, the frequency analysis information may include the spectrum tilt information. The weight function determiner 330 will be described in detail later.
  • the ISF / LSF quantization unit 350 may obtain an optimal quantization index according to the input encoding mode.
  • the ISF / LSF quantization unit 350 may quantize the ISF coefficient black or LSF coefficient in which the LPC coefficient of the frame end of the current frame is converted. If the input signal is a non-stat iffy signal, the ISF / LSF quantizer 350 uses only the safety-net scheme without using inter-frame prediction when the corresponding UC mode black or TC mode is used. In VC mode black or GC mode, the prediction scheme and the safety-net scheme can be switched to determine the optimal quantization scheme in consideration of the frame error.
  • the ISF / LSF quantization unit 350 may quantize the ISF coefficient or the LSF coefficient using the weighting function determined by the weighting function determination unit 330.
  • the ISF / LSF quantization unit 350 may quantize the ISF coefficient or the LSF coefficient by selecting one of the plurality of quantization paths using the weighting function determined by the weighting function determination unit 330.
  • the index obtained as a result of quantization is quantized through inverse quantization (QISF) or quantized LSF.
  • the low 12 coefficient converter 370 may convert the quantized ISF coefficients (QISF) or the black or quantized LSF coefficients (QLSF) into quantized LPC coefficients (QLPC).
  • QISF quantized ISF coefficients
  • QLSF black or quantized LSF coefficients
  • QLPC quantized LPC coefficients
  • Vector quantization refers to a process of selecting a codebook index having the least error using a squared error distance measure by considering all entries in the vector as equal importance.
  • the decoding apparatus expresses the importance of each LPC coefficient.
  • the frequency weighting information of the ISF or LSF and the actual stitch size may be used to determine the magnitude weighting function of how each ISF or LSF actually affects the spectral envelope.
  • additional quantization efficiency may be obtained by combining the frequency weighting function in consideration of the perceptual characteristics of the frequency domain and the distribution of formants with the magnitude weighting function. According to this, since the actual frequency domain size is used, the envelope information of the entire frequency is well reflected, and the weight of each ISF or LSF coefficient can be accurately derived.
  • the magnitude weighting function and the frequency Additional quantization efficiency can be obtained by combining the weighting function based on the location information of the LSF coefficients or the ISF coefficients.
  • the accuracy of the encoding can be improved by analyzing the stitches of the frames to be encoded to determine a weighting function that can give more weight to the high energy portion. The higher the energy of the strum, the higher the correlation in the time domain.
  • the optimal quantization index in VQ applied to all modes may be determined as an index that minimizes Ewerr (p) of Equation 1 below.
  • w (i) means weighting function.
  • r (i) represents the input of the quantizer,
  • c (i) represents the output of both quantizers, and to obtain an index that minimizes the weighted distortion between the two values.
  • Equation 2 Equation 2
  • the distortion measure used for BC-TCQ can be extended to the vector's scale, and then weighted distortion can be obtained by applying a weighting function. That is, the optimal index may be determined by obtaining the weighted distortion at all stages of BC-TCVQ as in Equation 3 below.
  • the ISF / LSF quantization unit 350 switches the lattice vector quantizer (LVQ) and BOTCVQ to perform quantization according to the input encoding mode. Can be done. If the encoding mode is the GC mode, LVQ may be used, and in the VC mode, BC-TCVQ may be used. When LVQ and BC-TCVQ are mixed, the quantizer selection process is specified. Explained as follows. First, a bit rate to be encoded can be selected. Once the bitrate to be coded is selected, the bit for the LPC quantizer corresponding to each bitrate can be determined. Then, the band of the input signal can be determined.
  • LVQ lattice vector quantizer
  • the quantization scheme can be changed depending on whether the input signal is narrowband or wideband.
  • it is additionally necessary to determine whether the upper limit (upper l imit) of the band to be actually encoded is 6 ⁇ 4 ⁇ or 8 kHz. That is, since the quantization scheme may be changed depending on whether the internal sampling frequency is 12.8 kHz or 16 kHz, it is necessary to check the band.
  • an optimal coding mode can be determined within the limits of the available coding modes according to the determined band.
  • encoding modes For example, four encoding modes (UC, VC, GC, TC) can be used, but only three modes (VC, GC, TC) can be used at high bitrates (e.g., 9.6 kbi t / s or higher). Can be.
  • a quantization scheme for example, LVQ and BC-TCVQ, is selected based on a bit rate to be encoded, a band of an input signal, and an encoding mode, and a quantized index is output based on the selected quantization scheme.
  • the LVQ may be selected.
  • the bit rate is between 24.4 kbps and 64 kbps
  • LVV can be selected if the band of the input signal is narrow band.
  • the band of the input signal is not narrow band, it is determined whether the encoding mode is the VC mode, BC-TCVQ is used when the encoding mode is VC mode, LVQ can be used when the encoding mode is not VC mode.
  • the LVQ may be selected.
  • the bit rate falls between 13.2 kbps and 32 kbps, it is possible to determine whether the bandwidth of the input signal is wideband, and if the bandwidth of the input signal is not wideband, LVQ can be selected.
  • the band of the input signal is a wide band, it may be determined whether the encoding mode is the VC mode. If the encoding mode is the VC mode, BC-TCVQ may be used.
  • the encoding apparatus includes a magnitude weighting function using a magnitude magnitude corresponding to a frequency of an ISF coefficient or an LSF coefficient converted from an LPC coefficient, a frequency weighting function in consideration of the perceptual characteristics of the input signal, and the formant distribution, and the LSF.
  • the coefficients black can determine the optimal weight function by combining the weighting function based on the position of the ISF coefficients.
  • 4 is a block diagram illustrating a configuration of the weighting function determiner of FIG. 3, according to an exemplary embodiment.
  • the weight function determining unit 400 shown in FIG. 4 includes a string analysis unit 410 and LP.
  • An analyzer 430 a first weighted function generator 450, a second weighted function generator 470, and
  • Combination 490 can be included. Each component may be integrated into at least one processor and implemented.
  • the spectrum analyzer 410 may analyze characteristics of a frequency domain of an input signal through a time-to-frequency mapping process.
  • the input signal may be a preprocessed signal, and the time-frequency mapping process may be performed using the FFT, but is not limited thereto.
  • the stitch analysis unit 410 may provide the spectrum analysis information, for example, the size of the stitch obtained from the FFT result.
  • the strum size may have a linear scale.
  • the stitch analysis unit 410 may perform a 128-point FFT to generate a stitch size.
  • the bandwidth of the spectrum size may correspond to the range of 0 to 6400 HZ. In this case, when the internal sampling frequency is 16 kHz, the number of spectrum sizes may be extended to 160.
  • the stitch size for the range of 6400 to 8000 Hz is missing, which may be generated by the input spectrum.
  • the last 32 stitch sizes corresponding to a bandwidth of 4800 to 6400 Hz can be used to replace missing stitch sizes in the range of 6400 to 8000 Hz.
  • the LP analyzer 430 may generate an LPC coefficient by performing an LP analysis on the input signal.
  • the LP analyzer 430 may generate an ISF black LSF coefficient from the LPC coefficient.
  • the low U weighting function generator 450 obtains the magnitude weighting function and the frequency weighting function based on the spectrum analysis information for the ISF black LSF coefficients, and combines the magnitude weighting function and the frequency weighting function to obtain the first weighting function. Can be generated.
  • the first weighting function may be obtained based on the FFT, and a larger weight value may be assigned as the strum size is larger.
  • the first weighting function can be determined using the spectrum analysis information, that is, the magnitude of the spectrum to fit the ISF black to the LSF band, and then each ISF black can be determined using the magnitude of the frequency corresponding to the LSF coefficient. .
  • the low 12 weighting function generator 470 may determine the second weighting function based on the interval black position information of the adjacent ISF black or LSF coefficients.
  • each ISF black is Two ISF blacks adjacent to the LSF coefficients can generate a low weighting function related to the spectral sensitivity from the LSF coefficients.
  • ISF blacks are characterized by LSF coefficients located on the unit circle of the Z-domain, and adjacent ISF blacks appear as spectral peaks when the interval of LSF coefficients is narrower than the surroundings.
  • the second weighting function may approximate the stitch sensitivity of the LSF coefficients based on the position of adjacent LSF coefficients.
  • the density of the LSF coefficients can be predicted by measuring how closely adjacent LSF coefficients are located, and a large value weight can be assigned since the signal sequence can have a peak value near the frequency where the dense LSF coefficients are present. Can be.
  • various parameters for LSF coefficients may be additionally used when determining the second weighting function to increase accuracy when approximating the stitch sensitivity.
  • the ISF black may have a relationship in which the spacing between the LSF coefficients and the weighting function are inversely proportional.
  • the interval may be expressed as a negative number or the interval may be indicated in the denominator.
  • the weighting function itself obtained by performing the first calculation for example, a power black or a cube may be further reflected.
  • the second weighting function Ws (n) may be obtained by Equation 4 below.
  • represents the current LSF coefficient
  • lsf ⁇ and lsf n + 1 represent adjacent LSF coefficients
  • M may be 16 as an order of the LP model.
  • the combiner 490 may combine the first and second weight functions to determine the final weight function used for quantization of the LSF coefficients.
  • a variety of methods may be used, such as multiplying each weighting function, adding after multiplying an appropriate ratio, or multiplying a predetermined value by using a lookup table for each weight. .
  • FIG. 5 is a block diagram illustrating a detailed configuration of a first weight function generator of FIG. 4 according to an exemplary embodiment.
  • the first weight function generator 500 illustrated in FIG. 5 may include a normalizer 510, a magnitude weight function generator 530, a frequency weight function generator 550, and a combination unit 570.
  • the LSF coefficient is taken as an example of the input signal of the first weight function generator 500.
  • the normalization unit 500 may normalize the LSF coefficients in the range of 0 to K-1.
  • LSF coefficients may typically range from 0 to ⁇ .
  • K may be 128, and for 16.4 kHz internal sampling frequency, K may be 160.
  • the magnitude weighting function generator 530 may generate the magnitude weighting function W1 (n) based on the spectrum analysis information on the normalized LSF coefficients.
  • the size weighting function may be determined based on the stud size of the normalized LSF coefficients. Specifically, the magnitude weighting function uses the size of the strum bin that corresponds to the frequency of the normalized LSF coefficient and the size of the two strum bins that are located to the left and right of the strum bin, e.g. one before black or later. Can be determined.
  • the weighting function Wl (n) of each size associated with the stitch envelope may be determined based on Equation 6 by extracting the maximum value of the size of the three stitch bins. [Equation 6]
  • the frequency weighting function generator 550 may generate the frequency weighting function w 2 ( n ) based on the frequency information with respect to the normalized LSF coefficient. This can be determined using specific characteristics and formant distributions.
  • the frequency weighting function generator 550 may extract perceptual characteristics of the input signal according to a bark scale.
  • the frequency weighting function generator 550 may determine the weighting function for each frequency based on the first formant among the distributions of the formants. In the case of the frequency weighting function, relatively low weights may be shown at very low frequencies and high frequencies, and weights having the same size may be represented in a section corresponding to the first formant in a certain frequency section at low frequencies.
  • the frequency weighting function generator 550 may determine the frequency weighting function according to the input bandwidth and the encoding mode.
  • the combination unit 570 combines the magnitude weighting function W n) and the frequency weighting function W 2 (n).
  • the FFT based weighting function W f (n) can be determined.
  • the combination unit 570 may multiply or add the magnitude weighting function and the frequency weighting function to determine the final weighting function.
  • the FFT based weighting function W f (n) for frame end LSF quantization may be calculated based on Equation 7 below.
  • FIG. 6 is a block diagram illustrating a configuration of an LPC coefficient quantization unit according to an embodiment.
  • the LPC coefficient quantization unit 600 illustrated in FIG. 6 may include a selection unit 610, first quantization hairs 630, and second quantization hairs 650.
  • the selector 610 may select one of a quantization process using no interframe prediction and a quantization process using interframe prediction based on a predetermined criterion in an open loop manner.
  • the predetermined criterion may be a prediction error of the unquantized LSF.
  • the prediction error may be obtained based on the interframe prediction value.
  • the low U quantization hairs 630 may quantize an input signal provided through the selector 610 when quantization processing that does not use inter-frame prediction is selected.
  • the low 12 quantization hairs 650 may quantize the input signal provided through the selector 610 when quantization processing using inter-frame prediction is selected.
  • the low U quantization hairs 630 perform quantization without using inter-frame prediction and may be named a safety-net scheme.
  • the second quantization hairs 650 perform quantization using interframe prediction, and may be referred to as a prediction scheme.
  • an optimal quantizer can be selected for a variety of bit rates, ranging from low bit rates for highly efficient interactive voice services to high bit rates for providing differentiated quality services.
  • FIG. 7 is a block diagram illustrating a configuration of a selector of FIG. 6, according to an exemplary embodiment.
  • the selection unit 700 illustrated in FIG. 7 includes a prediction error calculator 710 and a quantization scheme.
  • the prediction error calculator 710 may be included in the second quantization pictures 650 of FIG. 6.
  • the prediction error calculator 710 receives the interframe prediction value p (n), the weighting function w (n), and the LSF coefficient z (n) from which the DC value has been removed, based on various methods. Predictive errors can be calculated.
  • the interframe predictor may use the same one used in the prediction scheme of the second quantization hairs 650. here,
  • Either an auto-regressive (AR) method or a moving average (MA) method may be used.
  • the signal z (n) of the previous frame for interframe prediction may use a quantized value or an unquantized value.
  • the weighting function may or may not be applied to the prediction error. According to this, a total of eight combinations are possible, four of which are as follows.
  • Equation 8 a weighted AR prediction error using a quantized z (n) signal of a previous frame may be expressed by Equation 8 below.
  • Equation 10 the weighted AR prediction error using the z (n) signal of the previous frame may be represented by Equation 10 below.
  • an AR prediction error using a z (n) signal of a previous frame may be represented by Equation 11 below.
  • a safety-net scheme can be used. Otherwise, a prediction scheme is used, which may be limited so that the prediction scheme is not selected continuously.
  • the second prediction error is obtained using the previous frame of the previous frame in preparation for the case where there is no previous frame random information due to a frame error with respect to the previous frame, and a quantization scheme using the second prediction error. Can be determined.
  • the second prediction error may be expressed by the following Equation 12 compared with the first case.
  • the quantization scheme selector 730 may determine the quantization scheme of the current frame using the prediction error obtained by the prediction error calculator 710. In this case, the encoding mode determined by the encoding mode determiner 110 of FIG. 1 may be further considered. According to an embodiment, the quantization scheme selector 730 may operate in the VC mode black or GC mode.
  • FIG. 8 is a flowchart for explaining the operation of the selection unit in FIG. When the prediction mode has a value of 0, it means that the safety-net scheme is always used. When the prediction mode has a non-zero value, it is determined to switch the safety-net scheme and the prediction scheme to determine the quantization scheme. it means.
  • An example of an encoding mode that always uses a safety-net scheme is UC mode black or TC mode.
  • an example of an encoding mode for switching between a safety-net scheme and a prediction scheme may be VC mode or GC mode.
  • step 810 it is determined whether a prediction mode of a current frame is zero.
  • a prediction mode of a current frame is zero.
  • the prediction mode is 0, for example, UC mode black is difficult to predict between frames when the current frame is highly volatile, such as TC mode, it is always a safety-net scheme, that is, quantization.
  • Mode 630 may be selected (step 850).
  • step 810 when the prediction mode is not 0, one of the safety net scheme and the prediction scheme may be determined as the quantization scheme in consideration of the prediction error.
  • step 830 it is determined whether the prediction error is greater than a predetermined threshold.
  • the threshold value can be determined optimally through experimentally black simulation in advance. For example, in the case of WB of order 16, 3, 784, and 536.3 may be set as examples of threshold values. On the other hand, a restriction may be added so as not to select the predicted steam continuously.
  • the safety tea net scheme may be selected (step 850).
  • the prediction scheme may be selected (step 870).
  • 9A to 9D are block diagrams illustrating various embodiments of the first quantization hairs illustrated in FIG. 6. According to the embodiment, it is assumed that the LSF vector of the 16th order is used as the input of the first quantization hairs.
  • the first quantization modules 900 shown in FIG. 9A include a first quantizer 911 for quantizing an outline of an entire input vector using a trellis coded quantizer (TCQ) and a second quantizer for further quantizing a quantization error signal.
  • 913 may include.
  • the first quantization unit 911 may be implemented as a quantizer using a trellis structure such as TCQ, trellis coded vector quantizer (TCVQ), b lock-cons trained trellis coded quantizer (BC-TCQ), or BOTCVQ.
  • the second quantizer 913 may be implemented as a vector quantizer black or a scalar quantizer, but is not limited thereto.
  • the second quantization unit 913 may use soft decision technology to store two or more candidates and perform an optimal codebook index search if there is room for complexity. It may be.
  • the operations of the low U quantization unit 911 and the second quantization unit 913 are as follows.
  • a z (n) signal can be obtained by removing a predefined mean value from unquantized LSF coefficients.
  • the first quantization unit 911 may perform quantization and inverse quantization on all vectors of the z (n) signal.
  • An example of a quantizer used here is BC-TCQ black or BC-TCVQ.
  • the r (n) signal can be obtained using the difference value between the z (n) signal and the dequantized signal.
  • the r (n) signal may be provided to the input of the second quantization unit 913.
  • the second quantization unit 913 may be implemented by SVQ or MSVQ.
  • the quantized signal in the second quantizer 913 is dequantized and then added to the dequantized result in the first quantizer 911 to be a quantized z (n) value. You can get the value.
  • the first quantization modules 900 illustrated in FIG. 9B may further include an in-frame predictor 932 in the first quantizer 931 and the second quantizer 933.
  • the first quantization unit 931 and the second quantization unit 933 may be applied to the first quantization unit 911 and the second quantization unit 913 of FIG. 9A. Since the LSF coefficients are encoded every frame, prediction may be performed using LSF coefficients of the 10th order black or the 16th order within the frame.
  • the z (n) signal may be quantized through the low U quantizer 931 and the in-frame predictor 932.
  • the past signal used for in-frame prediction uses the t (n) value of the previous stage quantized through TCQ.
  • Prediction coefficients used in the intra-frame prediction may be predefined through a codebook training process.
  • TCQ first order is usually used, and in some cases higher order black dimensions may be used.
  • TCVQ since the vector is a vector, the prediction coefficient may be in the form of a two-dimensional matrix corresponding to the size of the vector. The dimension can be two or more natural numbers. For example, if the dimension of the VQ is 2, it is necessary to obtain a prediction coefficient using a matrix of 2 ⁇ 2 size in advance. According to an embodiment, TCVQ uses two dimensions and the intra-frame predictor 932 has a size of 2 ⁇ 2.
  • the intraframe prediction process of TCQ is as follows.
  • the first quantization unit 931 that is, tj (n) which is an input signal of the first TCQ may be obtained as in Equation 13 below. [Equation 13]
  • the low U quantization unit 931 can quantize the prediction error vector t (n).
  • the first quantization unit 931 may be implemented using TCQ, and specifically, BC-TCQ, BC-TCVQ, TCQ, and TCVQ may be mentioned.
  • the in-frame predictor 932 used with the first quantizer 931 may repeat the quantization process and the prediction process in units of elements or subvectors of the input vector.
  • the operation of the second quantization unit 933 is the same as that of the second quantization unit 913 of FIG. 9A.
  • the first quantization hairs 900 may include a first quantization unit 951 and a second quantization unit 953. If the voice audio coder supports multirate coding, a technique for quantizing the same LSF input vector into various bits is required. In this case, in order to minimize the codebook memory of the quantizer used and to have efficient performance, two bits can be allocated in one structure.
  • fH (n) means high rate output
  • fL (n) means low rate output.
  • BC-TCQ I BC-TCVQ is used, quantization for low rate can be performed using only the number of bits used here.
  • the error signal of the low U quantization unit 951 may be quantized using the additional second quantization unit 953.
  • 9D further includes an in-frame predictor 972 in the structure of FIG. 9C.
  • the low U quantization modules 900 may further include an in-frame predictor 972 in the first quantizer 971 and the second quantizer 973.
  • the first quantization unit 971 and the second quantization unit 973 may be applied to the first quantization unit 951 and the second quantization unit 953 of FIG. 9C.
  • 10A to 10D are block diagrams illustrating various embodiments of the second quantization hairs illustrated in FIG. 6.
  • the second quantization modules 1000 shown in FIG. 10A further add an interframe predictor 1014 to the structure of FIG. 9B.
  • the second quantization modules 1000 illustrated in FIG. 10A may further include an interframe predictor 1014 in the first quantization unit 1011 and the second quantization unit 1013.
  • the interframe predictor 1014 is a technique for predicting the current frame using the LSF coefficients quantized in the previous frame.
  • the interframe prediction process is a method of subtracting from the current frame using the quantized value of the previous frame and adding the contributions again after the quantization is completed. At this time, the prediction coefficient is obtained for each element.
  • the second quantization symbols 1000 shown in FIG. 10B further add an intra-frame predictor 1032 to the structure of FIG. 10A.
  • 10B may further include an in-frame predictor 1032 in the first quantization unit 1031, the second quantization unit 1033, and the inter-frame predictor 1034.
  • FIG. 10C shows second quantization modules 1000 for codebook sharing in the structure of FIG. 10B. That is, in the structure of FIG. 10B, a codebook of BC-TCQ / BC-TCVQ is shared at a low rate and a high rate.
  • the upper portion represents an output for a low rate without using the second quantizer (not shown), and the lower portion represents an output for a high rate using the second quantizer 1063.
  • FIG. 10D illustrates an example of implementing the second quantization hairs 1000 by excluding an intra-frame predictor from the structure of FIG. 10C.
  • 11A-11F are block diagrams illustrating various implementations of a quantizer 1100 that weights BC-TCVQ.
  • FIG. 11A shows a basic BC-TCVQ quantizer, which may include a weighting function calculator 1111 and a BC-TCVQ unit 1112.
  • a weighting function calculator 1111 When the optimal index is obtained from BOTCVQ, an index that minimizes the weighted distortion is obtained.
  • FIG. 11B shows a structure in which an intra-frame predictor 1123 is added in FIG. 11A.
  • Intra-frame prediction used here may use the AR method or the MA method. According to an embodiment, the AR method is used, and a prediction coefficient used may be predefined.
  • FIG. 11C illustrates a structure in which the interframe predictor 1134 is added to further improve performance in FIG. 11B.
  • 11C shows an example of a quantizer used in the prediction scheme.
  • the interframe prediction used herein may use an AR scheme or an MA scheme. According to an embodiment, the AR scheme is used, and the prediction coefficient used is Can be predefined.
  • a prediction error value predicted using interframe prediction may be quantized using BC-TCVQ using intraframe prediction.
  • the quantization index value is sent to the decoder.
  • the quantized r (n) value is obtained by adding the intra-frame prediction value to the result of the quantized BC-TCVQ.
  • the final quantized LSF value is determined by adding the average value after adding the prediction value of the interframe predictor 1134.
  • FIG. 11D shows a structure excluding the intra-frame predictor in FIG. 11C.
  • 11E shows a structure of how weights are applied when the second quantization unit 1153 is added.
  • the weighting function obtained by the weighting function calculator 1151 is used by both the first quantization unit 1152 and the second quantization unit 1153, and an optimal index is obtained by using the weighted distortion.
  • the first quantization unit 1151 may be implemented with BC-TCQ, BC-TCVQ, TCQ, or TCVQ.
  • the second quantization unit 1153 may be implemented with SQ, VQ, SVQ, or MSVQ.
  • FIG. 11F illustrates a structure in which the intra-frame predictor is excluded in FIG. 11E.
  • the quantizer of the switching structure can be implemented by combining the quantizer forms of the various structures mentioned in FIGS. 11A through 11F.
  • the quantization apparatus 1200 illustrated in FIG. 12 may include a selector 1210, first quantization hairs 1230, and second quantization hairs 1250.
  • the selector 1210 may select one of the safety-net scheme or the prediction scheme as a quantization scheme based on the prediction error.
  • the low U quantization modules 1230 are quantized without using inter-frame prediction when the safety-net scheme is selected, and may include a first quantizer 1231 and a first in-frame predictor 1232. Can be. Specifically, the LSF vector may be quantized to 30 bits by the first quantizer 1231 and the first intra-frame predictor 1232.
  • the lower 12 quantization modules 1250 perform quantization using inter-frame prediction when the prediction scheme is selected, and includes the second quantizer 1251, the second intra-frame predictor 1252, and the inter-frame predictor 1253. ) May be included. Specifically, the prediction error corresponding to the difference between the LSF vector and the prediction vector from which the average value has been removed may be quantized to 30 bits by the second quantizer 1251 and the second intra frame predictor 1252.
  • the quantizer shown in FIG. 12 shows an example of LSF coefficient quantization using 31 bits in the VC mode.
  • First and second quantization units in the quantization device of FIG. 1231 and 1251 may share a codebook with the first and second quantization units 1331 and 1351 in the quantization apparatus of FIG. 13. Looking at the operation, it is possible to obtain a z (n) signal by removing the average value from the input LSF value f (n).
  • the selector 1210 performs an optimal quantization scheme using p (n) and z (n) values, a weighting function, and a prediction mode (pred_mode) predicted interframe using z (n) values decoded in a previous frame.
  • pred_mode prediction mode predicted interframe using z (n) values decoded in a previous frame.
  • the choice black can be determined. According to the result of the selection test, the safety-net scheme black may perform quantization using one of the prediction schemes. The selected black or the determined quantization scheme may be encoded with 1 bit.
  • the entire input vector of z (n), which is the LSF coefficient whose average value is removed, is obtained by using the first quantizer (30 bits) through the first intra-frame predictor 1232. Quantization may be performed using 1231.
  • z (n) which is the LSF coefficient from which the average value is removed, is 30 ratio through the second intra-frame predictor 1252 to predict the error signal using the inter-frame predictor 1253. Quantization may be performed by using the second quantization unit 1251 using a tessellator. Examples of the first and second quantization units 1231 and 1251 may be quantizers in the form of TCQ and TCVQ.
  • BC-TCQ or BC-TCVQ is possible.
  • the quantizer uses a total of 31 bits.
  • the quantized result is used as the low rate quantizer output, and the main output of the quantizer is the quantized LSF vector and quantization index.
  • FIG. 13 is a block diagram illustrating a configuration of a quantization apparatus having an open loop switching structure at a high rate according to an embodiment.
  • the quantization apparatus 1300 illustrated in FIG. 13 may include a selector 1310, first quantization hairs 1330, and second quantization hairs 1350.
  • a third quantization unit 1333 is added to the first quantization hairs 1330
  • a fourth quantization unit 1353 is added to the second quantization hairs 1350.
  • the first quantization units 1231 and 1331 and the second quantization units 1251 and 1351 may use the same codebook, respectively. That is, the 31-bit LSF quantizer 1200 of FIG. 12 and the 41-bit LSF quantizer 1300 of FIG. 13 may use the same codebook for BOTCVQ. This is not an optimal codebook, but it can significantly reduce memory size.
  • the selector 1310 may select one of the safety-net scheme or the prediction scheme as a quantization scheme based on the prediction error.
  • the low U quantization modules 1330 perform quantization without using inter-frame prediction when the safety-net scheme is selected, and thus, the first quantizer 1331 and the first frame. It may include an intra predictor 1332 and a third quantizer 1333.
  • the lower 12 quantization modules 1350 perform quantization using inter-frame prediction when a prediction scheme is selected, and includes a second quantizer 1351, a second in-frame predictor 1352, and a fourth quantizer ( 1353 and interframe predictor 1354.
  • the quantizer shown in FIG. 13 shows an example of LSF coefficient quantization using 41 bits in the VC mode.
  • the first and second quantization units 1331 and 1351 share a codebook with the first and second quantization units 1231 and 1251, respectively, in the quantization apparatus 1200 of FIG. 12. can do.
  • the selector 1310 uses the p (n) and z (n) values, the weighting function, and the prediction mode (pred_mode) predicted interframe using the z (n) values encoded in the previous frame. Can be determined.
  • the selection test may perform quantization using one of the safety-net scheme tests according to the determined result.
  • the selected black or the determined quantization scheme may be encoded with 1 bit.
  • the entire input vector of z (n), which is the LSF coefficient whose average value has been removed, is obtained by using the first quantizer (30 bits) through the first intraframe predictor 1332. Quantization and dequantization may be performed using 1331. On the other hand, a second error vector representing the difference between the original signal and the dequantized result may be provided as an input of the third quantizer 1333.
  • the third quantizer 1333 may quantize the second error vector using 10 bits. Examples of the third quantization unit 1333 may be SQ, VQ, SVQ or MSVQ. After quantization and dequantization, the final quantized vector can be stored for the next frame.
  • the selection unit 1310 when the selection unit 1310 is selected as the prediction scheme, 30 bits are used for the prediction error signal obtained by subtracting p (n) from the interframe predictor 1354 from z (n), which is the LSF coefficient from which the average value is removed.
  • the quantization black can be inversely quantized by the second quantizer 1351 and the second intra-frame predictor 1352.
  • the first and second quantization units 1331 and 1231 may be quantizers in the form of TCQ and TCVQ. Specifically, BC-TCQ or BOTCVQ and the like are possible.
  • the second error vector representing the difference between the original signal and the dequantized result may be provided as an input of the fourth quantizer 1353.
  • the fourth quantization unit 1353 can quantize the second error vector using 10 bits.
  • the second error vector may be divided into two subvectors having an 8 ⁇ 8 dimension and quantized by the fourth quantization unit 1353. Since the low band is more cognitively important than the high band, it is possible to encode different number of bits in the first VQ and the second VQ. Examples of the fourth quantization unit 1353 include SQ, VQ, SVQ or MSVQ is possible. After quantization and dequantization, the quantized vector can be stored for the next frame.
  • the quantizer uses 41 bits in total.
  • the quantized result is used as the high rate quantizer output, and the main output of the quantizer is the quantized LSF vector and the quantization index.
  • the first quantization unit 1231 of FIG. 12 and the first quantization unit 1331 of FIG. 13 share a quantization codebook, and the second quantization unit 1251 of FIG. ) And the second quantization unit 1351 of FIG. 13 share the quantization codebook, it is possible to greatly reduce the codebook memory as a whole.
  • the quantization codebooks of the third and fourth quantizers 1333 and 1353 of FIG. 13 may also be shared to further reduce codebook memory. In this case, since the input distribution of the third quantization unit 1333 is different from the fourth quantization unit 1353, a scaling factor may be used to compensate for the difference between the input distributions.
  • the scaling factor may be calculated in consideration of the input of the third quantizer 1333 and the input distribution of the fourth quantizer 1353.
  • the input signal of the third quantizer 1333 may be divided by a scaling factor, and the resulting signal may be quantized by the third quantizer 1333.
  • the signal quantized by the third quantizer 1333 may be obtained by multiplying the output of the third quantizer 1333 by a scaling factor.
  • FIG. 14 is a block diagram illustrating a configuration of a quantization apparatus having an open loop switching structure at a low rate according to another exemplary embodiment.
  • the first quantization unit 1431 and the second quantization unit 1451 in use in the first quantization units 1430 and the second quantization units 1450 are illustrated in FIGS.
  • the low rate portion of FIG. 9D may be applied.
  • the weighting function calculator 1400 may obtain the weighting function w (n) using the input LSF value.
  • the obtained weighting function w (n) can be used in the selector 1410, the first quantizer 1431, and the second quantizer 1451.
  • the z (n) signal can be obtained by removing the average value from the LSF value f (n).
  • the selector 1410 uses the p (n) and z (n) values, the weighting function, and the prediction mode (pred_mode) predicted interframe using the z (n) values decoded in the previous frame. Can be determined.
  • the selection test may perform quantization using one of the safety-net scheme tests according to the determined result.
  • the selected black or the determined quantization scheme may be encoded with 1 bit.
  • the number z (n) may be quantized in the first quantization unit 1431.
  • the first quantization unit 1431 may use intra-frame prediction for high performance, or may exclude the low-complexity.
  • the entire input vector may be provided to the first quantizer 1431 which quantizes using TCQ or TCVQ through intra-frame prediction.
  • a second quantizer that quantizes the prediction error signal using the interframe prediction using TCQ or TCVQ through the intra-frame prediction is an LSF coefficient whose average value is removed. 1145 may be provided.
  • Examples of the first and second quantization units 1431 and 1451 may be quantizers in the form of TCQ and TCVQ. Specifically, BC-TCQ or BC-TCVQ is possible. The quantized result is used as the low rate quantizer output.
  • the quantization apparatus 1500 illustrated in FIG. 15 may include a selector 1510, first quantization hairs 1530, and second quantization hairs 1550. Compared to FIG. 14, a third quantization unit 1532 is added to the first quantization hairs 1530, and a fourth quantization unit 1552 is added to the second quantization hairs 1550. 14 and 15, the first quantizers 1431 and 1531 and the second quantizers 1451 and 1551 may use the same codebook, respectively. This is not an optimal codebook, but it can significantly reduce memory size.
  • the first quantization unit 1531 performs the first quantization and inverse quantization, and means a difference between the original signal and the dequantized result.
  • the second error vector may be provided as an input of the low 13 quantization unit 1532.
  • the third quantization unit 1532 may quantize the second error vector. Examples of the third quantization unit 1532 may be SQ, VQ, SVQ, or MSVQ. After quantization and dequantization, the final quantized vector can be stored for the next frame.
  • the second quantization unit 1551 performs quantization and inverse quantization, and a second error vector representing a difference between the original signal and the inverse quantized result is generated. 4 may be provided as an input of the quantization unit 1552.
  • the fourth quantization unit 1552 can quantize the second error vector.
  • An example of the fourth quantization unit 1552 may be SQ, VQ, SVQ, or MSVQ. After quantization and dequantization, the final quantized vector can be stored for the next frame.
  • 16 is a block diagram showing a configuration of an LPC coefficient quantization unit according to another embodiment. All.
  • the LPC coefficient quantization unit 1600 illustrated in FIG. 16 may include a selector 1610, first quantization hairs 1630, second quantization hairs 1650, and a weighting function calculator 1670. Compared with the LPC coefficient quantization unit 600 illustrated in FIG. 6, there is a difference that further includes a weighting function calculator 1670. A detailed implementation related to FIG. 16 is shown in FIGS. 11A-11F.
  • the quantization apparatus 1700 illustrated in FIG. 17 may include first quantization hairs 1710, second quantization hairs 1730, and a selector 1750.
  • the first quantization units 1710 include a first quantization unit 1711, a first in-frame predictor 1712, and a third quantization unit 1713
  • the second quantization units 1730 include a second quantization.
  • a unit 1731, a second in-frame predictor 1732, a fourth quantizer 1733, and an interframe predictor 1734 may be included. Referring to FIG.
  • the first quantization unit 1711 may quantize the entire input vector using BC-TCVQ or BOTCQ through the first in-frame predictor 1712. Can be.
  • the third quantization unit 1713 can quantize the quantization error signal to VQ.
  • the second quantization unit 1731 uses a BOTCVQ or a BC-TCQ to predict a prediction error signal using the interframe predictor 1734 through the second intraframe predictor 1732.
  • the fourth quantization unit 1733 may quantize the quantization error signal to VQ.
  • the selector 1750 may select one of an output of the first quantization hairs 1710 and an output of the second quantization hairs 1730.
  • the safety-net steam is the same as in FIG. 9B, and the prediction scheme is the same as in FIG. 10B.
  • the inter-frame prediction may use one of the AR method and the MA method.
  • an example using the 1st order AR method is illustrated. Prediction coefficients are predefined, and the past vector for prediction uses the vector selected as the best vector among the two schemes in the previous frame.
  • the quantization apparatus 1800 illustrated in FIG. 18 may include first quantization hairs 1810, low 12 quantization hairs 1830, and a selector 1850.
  • the first quantization units 1810 include a first quantization unit 1811, and a third quantization unit 1812, and the second quantization terminals 1830 include the first quantization units 1830.
  • the second quantizer 1831, the fourth quantizer 1832, and the interframe predictor 1833 may be included.
  • the selector 1850 selects an optimal quantization scheme by inputting weighted distortion using the output of the first quantization hairs 1810 and the output of the second quantization hairs 1830.
  • the process of determining the optimal quantization scheme is as follows.
  • the mode when the prediction mode is 0, the mode always uses only the safety-net scheme. If the prediction mode is not 0, it means that the safety-net scheme and the prediction scheme are switched.
  • An example of a mode that always uses only the safety-net scheme is TC Black or UC mode.
  • WDist [0] means weighted distortion of the safety-net scheme
  • WDist [l] means weighted distortion of the prediction scheme.
  • abs_threshold represents a preset threshold. If the prediction mode is not 0, the optimal quantization scheme may be selected in preference to the weighted distortion of the safety-net scheme in consideration of the frame error.
  • the safety-net scheme can be selected regardless of the value of WDist [l].
  • the safety-net scheme may be selected in the same weighted distortion, rather than simply selecting a smaller weighted distortion. This is because the safety-net scheme is more robust to frame errors.
  • the prediction scheme can be selected only if it is greater than PREFERSFNET * WDist [l].
  • PREFERSFNET 1.15 available here, but not limited to.
  • the inverse quantization apparatus 1900 illustrated in FIG. 19 may include a selection unit 1910, first inverse quantization hairs 1930 and second inverse quantization hairs 1950.
  • the selector 1910 may determine an encoded LPC parameter, for example, a prediction residual, based on quantization scheme information included in a bitstream, by using first inverse quantization symbols 1930. And one of the second inverse quantization hairs 1950.
  • the quantization scheme information may be represented by 1 bit.
  • the low U inverse quantization modules 1930 may inverse quantize the encoded LPC parameter without interframe prediction.
  • the low 12 inverse quantization modules 1950 may inverse quantize the encoded LPC parameter through inter-frame prediction.
  • the low U inverse quantization hairs 1930 and the second inverse quantization hairs 1950 are implemented based on the inverse processing of each of the first and second quantization hairs of the above-described various embodiments, according to an encoding apparatus for the decoding apparatus. Can be.
  • the dequantization apparatus of FIG. 19 may be applied regardless of the structure of the quantizer regardless of an open-loop black closed loop method.
  • the VC mode may have two decoding rates, for example, 31 bits per frame and 40 black or 41 bits per frame.
  • the VC mode can be decoded by 16 state 8 stage BC-TCVQ.
  • the inverse quantization apparatus 2000 illustrated in FIG. 20 may include a selection unit 2010, first inverse quantization hairs 2030, and second inverse quantization hairs 2050.
  • the first inverse quantization hats 2030 may include a first inverse quantization hatch 201 and a first in-frame predictor 2032
  • the second inverse quantization hatches 2050 may include a second inverse quantization hatch 2051.
  • a second intra-frame predictor 2052 and an inter-frame predictor 2053 may be referred to the quantization apparatus of FIG. 12.
  • the selector 2010 provides the LPC parameter encoded based on the quantization scheme information included in the bitstream as one of the first inverse quantization hairs 2030 and the second inverse quantization hairs 2050. can do.
  • the first inverse quantization unit 2031 may perform inverse quantization using BC-TCVQ in the first inverse quantization mothers 2030.
  • the quantized LSF coefficients may be obtained through the first inverse quantization unit 2031 and the first in-frame predictor 2032. Add the average value, which is a predetermined DC value, to the quantized LSF coefficients. The final decoded LSF coefficients are generated.
  • the second inverse quantization unit 2051 may perform inverse quantization using BOTCVQ in the second inverse quantization mothers 2050.
  • the inverse quantization process starts with the lowest vector of the LSF vectors, and the in-frame predictor 2052 uses the decoded vector to generate predictive values for the next order vector elements.
  • the interframe predictor 2053 generates a prediction value through interframe prediction using the LSF coefficients decoded in the previous frame.
  • the inter-frame predicted value obtained by the inter-frame predictor 2053 is added to the quantized LSF coefficients obtained through the second quantizer 2051 and the in-frame predictor 2052. LSF coefficients are generated.
  • FIG. 21 is a block diagram illustrating a detailed configuration of an inverse quantization apparatus according to another embodiment, and may correspond to a case of using an encoding rate of 41 bits.
  • the inverse quantization device 2100 illustrated in FIG. 21 may include a selection unit 2110, first inverse quantization hairs 2130, and a second inverse quantization hair 2150.
  • the first inverse quantizers 2130 may include a first inverse quantizer 2131, a first in-frame predictor 2132, and a third inverse quantizer 2133, and the second inverse quantizers 2150.
  • the inverse quantization apparatus of FIG. 21 may be referred to as the quantization apparatus of FIG.
  • the selector 2110 provides the LPC parameter encoded based on the quantization scheme information included in the bitstream as one of the first inverse quantization hairs 2130 and the second inverse quantization hairs 2150. can do.
  • the first inverse quantization unit 2131 may perform inverse quantization using BC-TCVQ in the first inverse quantization mothers 2130.
  • the third inverse quantization unit 2133 may perform inverse quantization using SVQ.
  • the quantized LSF coefficients may be obtained through the first inverse quantization unit 2131 and the first in-frame predictor 2132.
  • the quantized LSF coefficients and the quantized LSF coefficients obtained from the third inverse quantization unit 2133 are added, and an average value of a predetermined DC value is added to the addition result to generate a final decoded LSF coefficient.
  • the second inverse quantization unit 2151 may perform inverse quantization using BOTCVQ in the second inverse quantization mothers 2150.
  • the inverse quantization process starts with the lowest vector of the LSF vectors, and the second intraframe predictor 2152 uses the decoded vector for the next order vector elements. Generate predictions.
  • the fourth inverse quantization unit 2153 may perform inverse quantization using SVQ.
  • the quantized LSF coefficients provided from the fourth inverse quantization unit 2153 may be added to the quantized LSF coefficients obtained through the second inverse quantization unit 2151 and the second in-frame predictor 2152.
  • the interframe predictor 2154 may generate a prediction value through interframe prediction using the LSF coefficients decoded in the previous frame.
  • the third inverse quantization unit 2133 and the fourth inverse quantization unit 2153 may share a codebook.
  • the inverse quantization apparatus of FIGS. 19 to 21 may be used as a component of the decoding apparatus of FIG. 2.
  • the BC-TCQ adopted in relation to LPC coefficient quantization / dequantization is referred to as "Block Constrained Trellis Coded Vector Quantization of LSF Parameters for Wideband Speech Codecs” (Jungeun Park and Sangwon Kang, ETRI Journal, Volume 30, Number 5). , October 2008). Meanwhile, the contents related to TCVQ are described in detail in “Trellis Coded Vector Quantization” (Thomas R. Fischer et al, IEEE Transactions on Information Theory, Vol. 37, No. 6, November 1991).
  • the quantization method, the inverse magnetization method, the encoding method, and the decoding method according to the embodiments can be written as a program that can be executed in a computer, and a general-purpose digital device for operating the program using a computer-readable recording medium. Can be implemented on a computer.
  • data structures, program instructions, and black data files that can be used in the above-described embodiments of the present invention may be recorded on the computer-readable recording medium through various means.
  • Computer-readable recording media can include any type of storage device that stores data that can be read by a computer system. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and floppy disks.
  • Magneto-optical media such as, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like.
  • the computer-readable recording medium may be a transmission medium for transmitting a signal specifying a program command, a data structure, or the like. Examples of program instructions make by the compiler In addition to machine code such as being broken, it can contain high-level language code that can be executed by a computer using an interpreter.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

A quantization device comprises: a first quantization module for performing quantization without a prediction between frames; and a second quantization module for performing quantization with a prediction between frames, and the first quantization module comprises: a first quantization part for quantizing an input signal; and a third quantization part for quantizing a first quantization error signal, and the second quantization module comprises: a second quantization part for quantizing a prediction error; and a fourth quantization part for quantizing a second quantization error signal, and the first quantization part and the second quantization part comprise a vector quantizer of a trellis structure.

Description

【명세서】  【Specification】
【발명의 명칭】  [Name of invention]
선형예측계수 양자화방법 및 장치와 역양자화 방법 및 장치  Linear predictive coefficient quantization method and apparatus and inverse quantization method and apparatus
【기술분야】 Technical Field
본 발명은 선형예측계수 양자화 및 역양자화에 관한 것으로서 , 보다 구체적 으로는 낮은 복잡도로 선형예측계수를 효율적으로 양자화하는 방법 및 장치와 역양 자화하는 방법 및 장치에 관한 것이다.  The present invention relates to linear predictive coefficient quantization and inverse quantization, and more particularly, to a method and apparatus for efficiently quantizing a linear predictive coefficient with low complexity and a method and apparatus for inverse quantization.
【배경기술】  Background Art
음성 흑은 오디오와 같은 사운드 부호화 시스템에서는 사운드의 단구간 주파 수 특성을 표현하기 위하여 선형예측부호화 (Linear Predi ct ive Coding, 이하 LPC라 약함) 계수가 사용된다. LPC 계수는 입력 사운드를 프레임 단위로 나누고, 각 프 레임별로 예측 오차의 에너지를 최소화시키는 형태로 구해진다. 그런데, LPC 계수 는 다이나믹 레인지가 크고, 사용되는 LPC 필터의 특성이 LPC 계수의 양자화 에러 에 매우 민감하여 필터의 안정성이 보장되지 않는다.  In speech coding systems such as audio, speech black is a linear predictive coding (LPC) coefficient to express short-term frequency characteristics of sound. The LPC coefficient is obtained by dividing the input sound into frames and minimizing the energy of the prediction error for each frame. However, since the LPC coefficient has a large dynamic range and the characteristics of the LPC filter used are very sensitive to the quantization error of the LPC coefficient, the stability of the filter is not guaranteed.
이에, LPC 계수를 필터의 안정성 확인이 용이하고 보간에 유리하며 양자화 특성이 좋은 다른 계수로 변환하여 양자화를 수행하는데, 주로 선 스꿰트럼 주파수 (Line Spectral Frequency, 이하 LSF라 약함) 흑은 이미턴스 스꿰트럼 주파수 ( I隱 i ttance Spectral Frequency, 이하 ISF라 약함)로 변환하여 양자화하는 것이 선호되고 있다. 특히, LSF 계수의 양자화기법은 주파수영역 및 시간영역에서 가지 는 LSF 계수의 프레임간 높은 상관도를 이용함으로써 양자화 이득을 높일 수 있다.  Accordingly, the quantization is performed by converting the LPC coefficient to another coefficient that is easy to check the stability of the filter, which is advantageous for interpolation and has good quantization characteristics, and is mainly a line spectral frequency. It is preferred to quantize by converting to a trum frequency (hereinafter, referred to as ISF). In particular, the quantization technique of the LSF coefficients can increase the quantization gain by using a high correlation between the frames of the LSF coefficients in the frequency domain and the time domain.
LSF 계수는 단구간 사운드의 주파수 특성을 나타내며 , 입력 사운드의 주파수 특성이 급격히 변하는 프레임의 경우, 해당 프레임의 LSF 계수 또한 급격히 변화한 다. 그런데, LSF 계수의 프레임간 높은 상관도를 이용하는 프레임간 예측기를 포 함하는 양자화기의 경우, 급격히 변화하는 프레임에 대해서는 적절한 예측이 불가 능하여 양자화 성능이 떨어진다. 따라서, 입력 사운드의 각 프레임별 신호 특성에 대웅하여 최적화된 양자화기를 선택할 필요가 있다.  The LSF coefficient represents the frequency characteristic of the short-term sound, and in the case of a frame in which the frequency characteristic of the input sound changes rapidly, the LSF coefficient of the frame also changes rapidly. However, in the case of a quantizer including an interframe predictor using a high interframe correlation of LSF coefficients, it is impossible to properly predict a rapidly changing frame, thereby degrading quantization performance. Therefore, it is necessary to select an optimized quantizer based on the signal characteristics of each frame of the input sound.
【발명의 상세한 설명】  [Detailed Description of the Invention]
【기술적 과제】  [Technical problem]
해결하고자 하는 기술적 과제는 낮은 복잡도로 LPC 계수를 효율적으로 양자 화하는 방법 및 장치와 역양자화하는 방법 및 장치를 제공하는데 있다. 【기술적 해결방법】 The technical problem to be solved is to provide a method and apparatus for efficiently quantizing LPC coefficients with low complexity and a method and apparatus for inverse quantization. Technical Solution
일측면에 따른 양자화장치는 프레임간 예측 없이 양자화를 수행하는 제 1 양 자화모들; 및 프레임간 예측과 함께 양자화를 수행하는 제 2 양자화모들을 포함하 며 , 상기 제 1 양자화모들은 입력신호를 양자화하는 제 1 양자화부와 제 1 양자화 에 러신호를 양자화하는 제 3 양자화부를 포함하고, 상기 제 2 양자화모들은 예측에러를 양자화하는 제 2 양자화부와 제 2 양자화 에러신호를 양자화하는 제 4 양자화부를 포 함하고, 상기 제 1 양자화부와 상기 제 2 양자화부는 트렐리스 구조의 백터양자화기 를 포함할 수 있다.  According to one aspect, a quantization apparatus includes: first quantization hairs for performing quantization without interframe prediction; And second quantization hairs for performing quantization with inter-frame prediction, wherein the first quantization hairs include a first quantizer for quantizing the input signal and a third quantizer for quantizing the first quantization error signal. The second quantization modules include a second quantization unit for quantizing a prediction error and a fourth quantization unit for quantizing a second quantization error signal, wherein the first quantization unit and the second quantization unit are vectors having a trellis structure. It may include a quantizer.
일측면에 따른 양자화방법은 프레임간 예측 없이 양자화를 수행하는 제 1 양 자화모들과 프레임간 예측과 함께 양자화를 수행하는 제 2 양자화모들 중 하나를 오 픈 루프 방식으로 선택하는 단계 ; 및 상기 선택된 양자화모들을 사용하여 입력신호 를 양자화하는 단계를 포함하며 , 상기 제 1 양자화모들은 입력신호를 양자화하는 제 1 양자화부와 제 1 양자화 에러신호를 양자화하는 제 3 양자화부를 포함하고, 상기 제 2 양자화모들은 예측에러를 양자화하는 제 2 양자화부와 제 2 양자화 에러신호를 양자화하는 제 4 양자화부를 포함하고, 상기 제 3 양자화부와 상기 제 4 양자화부는 코드북을 공유할 수 있다.  According to an aspect of the present invention, there is provided a quantization method comprising: selecting one of first quantization hairs for performing quantization without inter-frame prediction and second quantization hairs for performing quantization with inter-frame prediction in an open loop manner; And quantizing the input signal using the selected quantization hairs, wherein the first quantization hairs include a first quantization part for quantizing the input signal and a third quantization part for quantizing the first quantization error signal. The second quantization mothers may include a second quantization unit for quantizing a prediction error and a fourth quantization unit for quantizing the second quantization error signal, and the third quantization unit and the fourth quantization unit may share a codebook.
일측면에 따른 역양자화장치는 프레임간 예측 없이 역양자화를 수행하는 저 U 역양자화모들 ; 및 프레임간 예측과 함께 역양자화를 수행하는 제 2 역양자화모들을 포함하며 , 상기 제 1 역양자화모들은 입력신호를 역양자화하는 제 1 역양자화부와 상 기 제 1 역양자화부와 병렬로 배치되는 제 3 역양자화부를 포함하고, 상기 제 2 역양 자화모들은 입력신호를 역양자화하는 제 2 역양자화부와 상기 제 2 역양자화부와 병 렬로 배치되는 제 4 역양자화부를 포함하고, 상기 제 1 역양자화부와 상기 제 2 역양 자화부는 트렐리스 구조의 백터 역양자화기를 포함할 수 있다.  Inverse quantization apparatus according to one side is a low U inverse quantization mother to perform inverse quantization without inter-frame prediction; And second inverse quantization hairs for performing inverse quantization together with inter-frame prediction, wherein the first inverse quantization hairs are disposed in parallel with a first inverse quantizer and a first inverse quantizer for inversely quantizing an input signal. And a third inverse quantization unit, wherein the second inverse quantization hairs include a second inverse quantization unit inversely quantizing an input signal and a fourth inverse quantization unit disposed in parallel with the second inverse quantization unit, wherein the first inverse quantization unit comprises: The inverse quantization unit and the second inverse quantization unit may include a vector inverse quantizer having a trellis structure.
일측면에 따른 역양자화방법은 프레임간 예측 없이 역양자화를 수행하는 저 U 역양자화모들과 프레임간 예측과 함께 역양자화를 수행하는 제 2 역양자화모들 중 하나를 선택하는 단계 ; 및 상기 선택된 역양자화모들을 사용하여 입력신호를 역양 자화하는 단계를 포함하며 , 상기 제 1 역양자화모들은 입력신호를 역양자화하는 저 U 역양자화부와 상기 제 1 역양자화부와 병렬로 배치되는 제 3 역양자화부를 포함하고, 상기 제 2 역양자화모들은 입력신호를 역양자화하는 제 2 역양자화부와 상기 제 2 역 양자화부와 병렬로 배치되는 제 4 역양자화부를 포함하고, 상기 제 3 역양자화부와 상기 제 4 역양자화부는 코드북을 공유할 수 있다.  According to one aspect, an inverse quantization method includes selecting one of low U inverse quantization hairs for performing inverse quantization without inter-frame prediction and second inverse quantization hairs for performing inverse quantization with inter-frame prediction; And inversely quantizing an input signal using the selected inverse quantization hairs, wherein the first inverse quantization hairs are disposed in parallel with the low U inverse quantization part and the first inverse quantization part that inversely quantizes the input signal. A third inverse quantization unit, wherein the second inverse quantization hairs include a second inverse quantization unit inversely quantizing an input signal and a fourth inverse quantization unit disposed in parallel with the second inverse quantization unit, The quantization unit and the fourth inverse quantization unit may share a codebook.
【유리한 효과】 음성 흑은 오디오 신호의 특성에 따라서 복수의 부호화 모드로 나누고, 각 부호화 모드에 적용되는 압축율에 따라서 다양한 비트수를 할당하여 양자화함에 있 어서, 저비트율에서 우수한 성능을 갖는 양자화기를 설계함으로써 음성 흑은 오디 오 신호를 보다 효율적으로 양자화할 수 있다. Advantageous Effects The speech black is divided into a plurality of coding modes according to the characteristics of the audio signal, and the number of bits is assigned and quantized according to the compression rate applied to each coding mode. Audio signals can be quantized more efficiently.
또한, 다양한 비트레이트를 제공하는 양자화장치를 설계할 때 일부 양자화기 의 코드북을 공유함으로써 메모리 사용량을 최소화할 수 있다 .  In addition, when designing a quantizer that provides various bitrates, memory usage can be minimized by sharing codebooks of some quantizers.
【도면의 간단한 설명】  [Brief Description of Drawings]
도 1은 일실시예에 따른 사운드 부호화장치의 구성을 나타낸 블록도이다. 도 2는 다른 실시예에 따른 사운드 부호화장치의 구성을 나타낸 블록도이다. 도 3은 일실시예에 따른 LPC 양자화부의 구성을 나타낸 블록도이다.  1 is a block diagram illustrating a configuration of a sound encoding apparatus according to an embodiment. 2 is a block diagram showing a configuration of a sound encoding apparatus according to another embodiment. 3 is a block diagram illustrating a configuration of an LPC quantization unit according to an embodiment.
도 4는 일실시예에 따라 도 3의 가중함수 결정부의 세부 구성을 나타낸 블럭 도이다  4 is a block diagram illustrating a detailed configuration of a weighting function determiner of FIG. 3 according to an exemplary embodiment.
도 5는 일실시예에 따라 도 4의 제 1 가중함수 생성부의 세부 구성을 나타낸 블럭도이다.  5 is a block diagram illustrating a detailed configuration of a first weight function generator of FIG. 4 according to an exemplary embodiment.
도 6은 일실시예에 따른 LPC 계수 양자화부의 구성을 나타낸 블록도이다. 도 7은 일실시예에 따른 도 6의 선택부의 구성을 나타낸 블록도이다.  6 is a block diagram illustrating a configuration of an LPC coefficient quantization unit according to an embodiment. 7 is a block diagram illustrating a configuration of a selector of FIG. 6, according to an exemplary embodiment.
도 8은 일실시예에 따른 도 6의 선택부의 동작을 설명하는 플로우챠트이다. 도 9A 내지 도 9D는 도 6에 도시된 제 1 양자화모들의 다양한 구현예를 나타 낸 블록도이다.  8 is a flowchart illustrating an operation of a selector of FIG. 6, according to an exemplary embodiment. 9A to 9D are block diagrams illustrating various embodiments of the first quantization hairs illustrated in FIG. 6.
도 10A 내지 도 10F는 도 6에 도시된 제 2 양자화모들의 다양한 구현예를 나 타낸 블록도이다.  10A through 10F are block diagrams illustrating various embodiments of the second quantization hairs shown in FIG. 6.
도 11A 내지 도 11F는 BC-TCVQ에 가중치를 적용하는 양자화기의 다양한 구현 예를 나타낸 블록도이다.  11A through 11F are block diagrams illustrating various implementations of quantizers that apply weights to BC-TCVQ.
도 12는 일실시예에 따라 로우 레이트에서 오픈 루프 방식의 스위칭 구조를 갖는 양자화장치의 구성을 나타내는 블럭도이다.  12 is a block diagram illustrating a configuration of a quantization apparatus having an open loop switching structure at a low rate according to an embodiment.
도 13은 일실시예에 따라 하이 레이트에서 오픈 루프 방식의 스위칭 구조를 갖는 양자화장치의 구성을 나타내는 블럭도이다.  FIG. 13 is a block diagram illustrating a configuration of a quantization apparatus having an open loop switching structure at a high rate according to an embodiment.
도 14는 다른 실시예에 따라 로우 레이트에서 오픈 루프 방식의 스위칭 구조 를 갖는 양자화장치의 구성을 나타내는 블럭도이다.  14 is a block diagram illustrating a configuration of a quantization apparatus having an open loop switching structure at a low rate according to another exemplary embodiment.
도 15는 다른 실시예에 따라 하이 레이트에서 오픈 루프 방식의 스위칭 구조 를 갖는 양자화장치의 구성을 나타내는 블럭도이다.  15 is a block diagram illustrating a configuration of a quantization apparatus having an open loop switching structure at a high rate according to another exemplary embodiment.
도 16은 일실시예에 따른 LPC 계수 양자화부의 구성을 나타낸 블록도이다. 도 17은 일실시예에 따라 폐루프 방식의 스위칭 구조를 갖는 양자화장치의 구성을 나타내는 블럭도이다. 16 is a block diagram illustrating a configuration of an LPC coefficient quantization unit according to an embodiment. 17 is a block diagram illustrating a configuration of a quantization apparatus having a closed loop switching structure according to an embodiment.
도 18은 다른 실시예에 따라 폐루프 방식의 스위칭 구조를 갖는 양자화장치 의 구성을 나타내는 블럭도이다.  18 is a block diagram illustrating a configuration of a quantization device having a closed loop switching structure according to another embodiment.
도 19는 일실시예에 따른 역양자화장치의 구성을 나타낸 블록도이다.  19 is a block diagram illustrating a configuration of an inverse quantization apparatus according to an embodiment.
도 20은 일실시예에 따른 역양자화장치의 세부적인 구성을 나타낸 블록도이 다.  20 is a block diagram showing a detailed configuration of an inverse quantization apparatus according to an embodiment.
도 21은 다른 실시예에 따른 역양자화장치의 세부적인 구성을 나타낸 블록도 이다.  21 is a block diagram showing a detailed configuration of an inverse quantization device according to another embodiment.
【발명의 실시를 위한 형태】  [Form for implementation of invention]
본 발명은 다양한 변환을 가할 수 있고 여러가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 구체적으로 설명하고자 한다. 그 러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 기술적 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해될 수 있다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구 체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.  As the invention allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the present invention to specific embodiments, it can be understood to include all transformations, equivalents, and substitutes included in the technical spirit and scope of the present invention. In the following description of the present invention, if it is determined that the detailed description of the related well-known technology may obscure the gist of the present invention, the detailed description thereof will be omitted.
제 1 , 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들이 용어들에 의해 한정되는 것은 아니다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만사용된다.  Terms such as first and second may be used to describe various components, but the components are not limited by the terms. The terms are only used to distinguish one component from another.
본 발명에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것 으로, 본 발명을 한정하려는 의도가 아니다. 본 발명에서 사용한 용어는 본 발명 에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였 으나 이는 당 분야에 종사하는 기술자의 의도, 판례, 또는 새로운 기술의 출현 등 에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있 으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지 는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.  The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. The terms used in the present invention have been selected as widely used general terms as possible in consideration of the functions in the present invention, but this may vary according to the intention of the person skilled in the art, precedents, or the emergence of new technologies. In addition, in certain cases, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the corresponding description of the invention. Therefore, the terms used in the present invention should be defined based on the meanings of the terms and the contents throughout the present invention, rather than the names of the simple terms.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함 한다. 본 발명에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정 하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요 소 , 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present invention, the terms "comprise" or "having" are intended to indicate that there exists a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. Fields or numbers, steps, actions, components It is to be understood that the present invention does not exclude the possibility of the presence or the addition of elements, parts, or combinations thereof.
이하, 본 발명의 실시예들을 첨부 도면을 참조하여 상세히 설명하기로 하며 , 첨부 도면을 참조하여 설명함에 있어 , 동일하거나 대웅하는 구성요소는 동일한 도 면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.  Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, and in the following description with reference to the accompanying drawings, the same or grand components are given the same reference numerals and redundant description thereof will be omitted. Shall be.
일반적으로, TCQ는 입력 백터를 각 TCQ 스테이지에 하나의 엘리먼트를 할당 하여 양자화를 하는데 반해, TCVQ는 전체 입력백터를 분할하여 서브백터를 만든 후 , 각 서브백터를 TCQ 스테이지를 할당하는 구조를 사용한다. 하나의 엘리먼트를 사용하여 양자화기를 구성하면 TCQ가 되며, 복수개의 엘리먼트를 조합하여 서브백 터를 만들어 양자화기를 구성하면 TCVQ가 된다. 따라서, 2차원의 서브 백터를 사 용하게 되면 전체 TCQ 스테이지의 개수는 입력 백터크기를 2로 나눈 것과 동일한 크기가 된다. 통상 음성八 디오 코덱에서는 입력신호를 프레임 단위로 부호화를 하게 되며 매 프레임마다 LSF 계수를 추출한다. LSF 계수는 백터 형태로서, 통상 10 또는 16 차수를 사용하게 되고, 그 경우 2 차원의 TCVQ를 고려하게 되면 서브백 터의 개수는 5 또는 8이 된다.  In general, TCQ quantizes the input vector by assigning one element to each TCQ stage, whereas TCVQ divides the entire input vector to create subvectors and then assigns each subvector to the TCQ stage. . If one element is used to construct a quantizer, it becomes TCQ. When a plurality of elements are combined to form a sub vector, the quantizer is constituted as TCVQ. Therefore, when the two-dimensional subvector is used, the total number of TCQ stages is equal to the input vector size divided by two. In general, the audio codec encodes an input signal in units of frames and extracts LSF coefficients every frame. The LSF coefficient is a vector form, and typically uses 10 or 16 orders. In this case, if the two-dimensional TCVQ is considered, the number of subvectors is 5 or 8.
도 1은 일실시예에 따른 사운드 부호화 장치의 구성을 나타낸 블록도이다. 도 1에 도시된 사운드 부호화 장치 ( 100)는 부호화 모드 선택부 ( 110) , LPC 계 수 양자화부 ( 130) , CELP 부호화부 ( 150)을 포함할 수 있다. 각 구성요소는 적어도 하나 이상의 모들로 일체화되어 적어도 하나 이상의 프로세서 (미도시)로 구현될 수 있다. 여기서, 사운드는 오디오 흑은 음성, 흑은 오디오와 음성의 흔합신호를 의 미할 수 있으므로, 이하에서는 설명의 편의를 위하여 사운드를 음성으로 지칭하기 로 한다.  1 is a block diagram illustrating a configuration of a sound encoding apparatus according to an embodiment. The sound encoding apparatus 100 illustrated in FIG. 1 may include an encoding mode selection unit 110, an LPC coefficient quantization unit 130, and a CELP encoding unit 150. Each component may be integrated into at least one or more modules and implemented as at least one or more processors (not shown). Here, the sound may mean a mixed signal of audio black and voice, and black and audio and voice. Hereinafter, sound is referred to as voice for convenience of description.
도 1을 참조하면, 부호화 모드 선택부 (no)는 멀티-레이트 (Mul t i-rate)에 대 웅하여 복수개의 부호화 모드 중 하나를 선택할 수 있다. 부호화 모드 선택부 ( 110)는 신호특성, VAD(Voi ce Act ivi ty Detect ion) 정보 또는 이전 프레임의 부호 화모드를 이용하여 현재 프레임의 부호화 모드를 결정할 수 있다.  Referring to FIG. 1, the encoding mode selector no may select one of a plurality of encoding modes based on a multi-rate. The encoding mode selector 110 may determine the encoding mode of the current frame using the signal characteristics, voice activity detection (VAD) information, or the encoding mode of the previous frame.
LPC 계수 양자화부 ( 130)는 LPC 계수를 선택된 부호화 모드에 해당하는 양자 화기를 이용하여 양자화하고, 양자화된 LPC 계수를 표현하는 양자화 인덱스를 결정 할 수 있다. LPC 계수 양자화부 ( 130)는 LPC 계수를 양자화에 적합한 다른 계수로 변환하여 양자화를 수행할 수 있다.  The LPC coefficient quantization unit 130 may quantize the LPC coefficients using a quantizer corresponding to the selected encoding mode, and determine a quantization index representing the quantized LPC coefficients. The LPC coefficient quantization unit 130 may perform quantization by converting the LPC coefficients into other coefficients suitable for quantization.
여기신호 부호화부 ( 150)는 선택된 부호화 모드에 따라서 여기신호 부호화를 수행할 수 있다. 여기신호 부호화를 위하여 CELP(Code_Exci ted Linear Predi ct ion) 흑은 ACELP(Algebrai c CELP) 알고리즘을 사용할 수 있다. CELP 기법 에 의하여 LPC 계수를 부호화하기 위한 대표적인 파라미터는 적웅 코드북 인덱스, 적웅 코드북 이득, 고정 코드북 인덱스, 고정 코드북 이득 등이 있다. 여기신호 부호화는 입력신호의 특성에 대웅하는 부호화 모드에 근거하여 수행될 수 있다. 일예를 들면, 4개의 부호화 모드, UC(unvoi ced coding) 모드, VC(voi ced coding) 모드, GC(gener i c coding) 모드, TC(trans i s ion coding) 모드가 사용될 수 있다. UC 모드는 음성신호가 무성음이거나 무성음과 비슷한 특성을 갖는 노이즈인 경우 선택될 수 있다. VC 모드는 음성신호가 유성음일 때 선택될 수 있다. TC 모드는 음성신호의 특성이 급변하는 트랜지션 구간의 신호를 부호화할 때 사용될 수 있다.The excitation signal encoder 150 may perform excitation signal encoding according to the selected encoding mode. CELP (Code_Excited Linear) for the excitation signal coding Prect ion (Black) can be used Algebrai c CELP (ACELP) algorithm. Representative parameters for encoding the LPC coefficients by the CELP technique include a hemosphere codebook index, a hemisphere codebook gain, a fixed codebook index, and a fixed codebook gain. The excitation signal encoding may be performed based on an encoding mode based on characteristics of the input signal. For example, four coding modes, an unvoi ced coding (UC) mode, a void ced coding (VC) mode, a generic ic coding (GC) mode, and a trans is ion coding (TC) mode may be used. The UC mode may be selected when the voice signal is an unvoiced sound or noise having characteristics similar to those of the unvoiced sound. The VC mode may be selected when the voice signal is a voiced sound. The TC mode may be used when encoding a signal of a transition section in which characteristics of a voice signal change rapidly.
GC 모드는 그외의 신호에 대하여 부호화활 수 있다. UC 모드, VC 모드, TC 모드, 및 GC 모드는 ITU-T G.718 에 기재된 정의 및 분류기준에 따른 것이나, 이에 한정 되는 것은 아니다. 여기신호 부호화부 ( 150)는 오픈루프 피치탐색부 (미도시) , 고정 코드북 탐색부 (미도시) 또는 이득 양자화부 (미도시)를 포함할 수 있는데, 부호화 모드에 따라서 여기신호 부호화부 ( 150)에 구성요소가 추가되거나 제거될 수 있다. 예를 들면, VC 모드의 경우 언급한 구성요소가 모두 포함되며, UC 모드의 경우 오 픈루프 피치탐색부를 사용하지 않는다. 여기신호 부호화부 ( 150)는 양자화에 할당 되는 비트수가 많은 경우, 즉 고비트율인 경우 GC 모드와 VC 모드로 단순화시킬 수 있다. 즉, GC 모드에 UC 모드와 TC 모드를 포함시킴으로써 GC 모드를 UC 모드와 TC 모드까지 사용할 수 있다. 한편, 고비트율인 경우 IC( inact ive coding) 모드와 AC(audio coding) 모드를 더 포함할 수 있다. 여기신호 부호화부 ( 150)는 양자화에 할당되는 비트수가 적은 경우, 즉 저비트율인 경우 GC 모드, UC 모드, VC 모드와 TC 모드로 분류할 수 있다. 한편, 저비트율인 경우 IC 모드와 AC 모드를 더 포함 할 수 있다. IC 모드는 묵음인 경우에 선택될 수 있고, AC 모드인 경우 음성신호 의 특성이 오디오에 가까운 경우 선택될 수 있다. The GC mode can encode other signals. UC mode, VC mode, TC mode, and GC mode are in accordance with the definitions and classification criteria described in ITU-T G.718, but are not limited thereto. The excitation signal encoder 150 may include an open loop pitch search unit (not shown), a fixed codebook search unit (not shown), or a gain quantization unit (not shown). ) Can be added or removed. For example, in the VC mode, all the components mentioned are included, and in the UC mode, the open loop pitch search unit is not used. The excitation signal encoder 150 may simplify the GC mode and the VC mode when the number of bits allocated to quantization is large, that is, when the bit rate is high. That is, the GC mode can be used up to the UC mode and the TC mode by including the UC mode and the TC mode in the GC mode. Meanwhile, the high bit rate may further include an inactive coding (IC) mode and an audio coding (AC) mode. The excitation signal encoder 150 may be classified into a GC mode, a UC mode, a VC mode, and a TC mode when the number of bits allocated to quantization is small, that is, when the bit rate is low. On the other hand, the low bit rate may further include an IC mode and AC mode. The IC mode can be selected in the case of mute, and in the AC mode, it can be selected when the characteristic of the voice signal is close to the audio.
한편, 부호화 모드는 음성신호의 대역에 따라서 좀 더 세분화될 수 있다. 음성신호의 대역은 예를 들면 협대역 (이하 NB라 약함) , 광대역 (이하 WB라 약함) , 초광대역 (이하 SWB라 약함) , 전대역 (FB라 약함)으로 분류할 수 있다. NB는 300- 3400 Hz 또는 50-4000 Hz 의 대역폭을 가지며, WB는 50-7000 Hz 또는 50-8000 Hz의 대역폭을 가지며, SWB는 50-14000 Hz 또는 50-16000 Hz 의 대역폭을 가지며, FB는 20000 Hz까지의 대역폭을 가질 수 있다. 여기서, 대역폭과 관련된 수치는 편의상 설정된 것으로서, 이에 한정되는 것은 아니다. 또한, 대역의 구분도 좀 더 간단하 거나 복잡하게 설정할 수 있다. 한편, 부호화 모드의 종류 및 개수가 결정되면, 결정된 부호화 모드에 해당 하는 음성신호를 이용하여 코드북을 다시 훈련시킬 필요가 있다 . Meanwhile, the encoding mode may be further subdivided according to the band of the voice signal. The band of the audio signal may be classified into, for example, a narrow band (hereinafter referred to as NB), a broadband (hereinafter referred to as WB), an ultra wide band (hereinafter referred to as SWB), and a full band (hereinafter referred to as FB). NB has a bandwidth of 300-3400 Hz or 50-4000 Hz, WB has a bandwidth of 50-7000 Hz or 50-8000 Hz, SWB has a bandwidth of 50-14000 Hz or 50-16000 Hz, and FB It can have a bandwidth up to 20000 Hz. Here, the numerical value related to the bandwidth is set for convenience and is not limited thereto. In addition, band separation can be set more simply or more complicatedly. On the other hand, if the type and number of encoding modes are determined, it is necessary to retrain the codebook using the speech signal corresponding to the determined encoding mode.
여기신호 부호화부 ( 150)는 부호화 모드에 따라서 변환 부호화 알고리즘이 추 가적으로 사용할 수 있다. 여기신호는 프레임 흑은 서브 프레임의 단위로 부호화 할 수 있다.  The excitation signal encoder 150 may additionally use a transform encoding algorithm according to an encoding mode. The excitation signal can be encoded in units of frames or subframes.
도 2은 다른 실시예에 따른 사운드 부호화 장치의 구성을 나타낸 블록도이 다.  2 is a block diagram illustrating a configuration of a sound encoding apparatus according to another embodiment.
도 2에 도시된 사운드 부호화 장치 (200)는 전처리부 (210) , LP 분석부 (220) , 가중신호 산출부 (230) , 오픈루프 피치탐색부 (240) , 신호분석 및 VAD부 (250) , 부호 화부 (260) , 메모리 갱신부 (270)와 파라미터 부호화부 (280)를 포함할 수 있다. 각 구성요소는 적어도 하나 이상의 모들로 일체화되어 적어도 하나 이상의 프로세서( 미도시)로 구현될 수 있다. 여기서, 사운드는 오디오 흑은 음성, 흑은 오디오와 음성의 흔합신호를 의미할 수 있으므로, 이하에서는 설명의 편의를 위하여 사운드 를 음성으로 지칭하기로 한다.  The sound encoding apparatus 200 illustrated in FIG. 2 includes a preprocessor 210, an LP analyzer 220, a weighted signal calculator 230, an open loop pitch searcher 240, a signal analyzer, and a VAD unit 250. The encoder 260 may include a coder 260, a memory updater 270, and a parameter encoder 280. Each component may be integrated into at least one or more modules and implemented as at least one or more processors (not shown). Here, the sound may mean an audio black is a voice, and a black may be a mixed signal of audio and voice. Hereinafter, the sound is referred to as a voice for convenience of description.
도 2를 참조하면 , 전처리부 (210)는 입력되는 음성신호를 전처리할 수 있다. 전처리 과정을 통하여, 음성신호로부터 원하지 않는 주파수성분이 제거되거나, 부 호화에 유리하도록 음성신호의 주파수 특성이 조정될 수 있다. 구체적으로, 전처 리부 (210)는 하이패스 필터링 (high pass f i l ter ing) , 프리-엠퍼시스 (pre—amphas i s) 또는 샘플링 (sampl ing) 변환 등을 수행할 수 있다.  2, the preprocessor 210 may preprocess an input voice signal. Through the preprocessing process, unwanted frequency components may be removed from the speech signal, or the frequency characteristics of the speech signal may be adjusted to favor the encoding. In detail, the preprocessing unit 210 may perform high pass filtering, pre-amphas s, or sampling transformation.
LP 분석부 (220)는 전처리된 음성신호에 대하여 LP 분석을 수행하여 LPC 계수 를 추출할 수 있다. 일반적으로 프레임당 1회의 LP 분석이 수행되나, 추가적인 음 질 향상을 위해 프레임당 2회 이상의 LP 분석이 수행될 수 있다. 이 경우, 한번은 기존의 LP 분석인 프레임 엔드 ( frame-end)를 위한 LP이며, 나머지는 음질 향상을 위한 중간 서브 프레임 (mid-subframe)을 위한 LP일 수 있다. 이때, 현재 프레임의 프레임 엔드는 현재 프레임을 구성하는 서브 프레임 중 마지막 서브 프레임을 의미 하고, 이전 프레임의 프레임 엔드는 이전 프레임을 구성하는 서브 프레임 중 마지 막 서브 프레임을 의미한다. 중간 서브 프레임은 이전 프레임의 프레임 엔드인 마 지막 서브 프레임과 현재 프레임의 프레임 엔드인 마지막 서브 프레임 사이에 존재 하는 서브 프레임 중 하나 이상의 서브 프레임을 의미한다. 일례로, 하나의 프레 임은 4개의 서브프레임으로 구성될 수 있다. LPC 계수는 입력 신호가 협대역 (narrowband)인 경우 차수 10을 사용하며, 광대역 (wideband)의 경우 차수 16-20을 사용하나, 이에 한정되지는 않는다. 가중신호 계산부 (230)는 전처리된 음성신호와 추출된 LPC 계수를 입력으로 하고, 인지 가중 필터에 근거하여 인지 가중 필터링된 신호를 계산할 수 있다. 인 지 가중 필터는 인체 청각 구조의 마스킹 효과를 이용하기 위하여 전처리한 음성신 호의 양자화 잡음을 마스킹 범위내로 줄일 수 있다. The LP analyzer 220 may perform LP analysis on the preprocessed voice signal to extract the LPC coefficients. Generally, LP analysis is performed once per frame, but two or more LP analyzes may be performed per frame to further improve sound quality. In this case, one may be an LP for frame-end, which is a conventional LP analysis, and the other may be an LP for a mid-subframe for improving sound quality. In this case, the frame end of the current frame refers to the last subframe among the subframes constituting the current frame, and the frame end of the previous frame refers to the last subframe among the subframes constituting the previous frame. The intermediate subframe means one or more subframes among the subframes existing between the last subframe that is the frame end of the previous frame and the last subframe that is the frame end of the current frame. For example, one frame may consist of four subframes. The LPC coefficient uses order 10 when the input signal is narrowband and order 16-20 when wideband, but is not limited thereto. The weighted signal calculator 230 may input the preprocessed speech signal and the extracted LPC coefficients, and calculate the cognitive weighted filtered signal based on the cognitive weighted filter. The cognition weighted filter can reduce the quantization noise of the preprocessed speech signal within the masking range in order to use the masking effect of the human auditory structure.
오픈루프 피치탐색부 (240)는 인지 가중 필터링된 신호를 이용하여 오픈루프 피치를 탐색할 수 있다.  The open loop pitch search unit 240 may search the open loop pitch using the cognitive weighted filtered signal.
신호분석 및 VAD부 (250)는 입력신호의 주파수 특성을 포함하는 다양한 특성 을 분석하여 입력신호가 액티브 음성신호인지를 결정할 수 있다.  The signal analysis and VAD unit 250 may determine whether the input signal is an active voice signal by analyzing various characteristics including frequency characteristics of the input signal.
부호화부 (260)는 신호특성, VAD 정보 또는 이전 프레임의 부호화모드를 이용 하여 현재 프레임의 부호화 모드를 결정하고, 선택된 부호화 모드에 해당하는 양자 화기를 이용하여 LPC 계수를 양자화하고, 선택된 부호화 모드에 따라서 여기신호를 부호화할 수 있다. 부호화부 (260)는 도 1에 도시된 구성요소를 포함할 수 있다. 메모리 갱신부 (270)는 부호화된 현재 프레임 및 부호화에 사용된 파라미터를 다음 프레임의 부호화를 위하여 저장할 수 있다.  The encoder 260 determines the encoding mode of the current frame using signal characteristics, VAD information, or the encoding mode of the previous frame, quantizes the LPC coefficients using a quantizer corresponding to the selected encoding mode, and applies the selected encoding mode to the selected encoding mode. Therefore, the excitation signal can be encoded. The encoder 260 may include the components shown in FIG. 1. The memory updater 270 may store the encoded current frame and the parameters used for encoding for encoding the next frame.
파라미터 부호화부 (280)는 복호화단에서 복호화에 사용될 파라미터를 부호화 하여 비트스트림에 포함시킬 수 있다. 바람직하게는, 부호화 모드에 대웅하는 파 라미터를 부호화할 수 있다. 파라미터 부호화부 (280)에서 생성된 비트스트림은 저 장이나 전송의 목적으로 사용될 수 있다.  The parameter encoder 280 may encode a parameter to be used for decoding at the decoding end and include the same in the bitstream. Preferably, a parameter for encoding mode can be encoded. The bitstream generated by the parameter encoder 280 may be used for storage or transmission purposes.
다음 표 1은 4 가지 부호화 모드인 경우, 양자화 스킴과 구조의 일예를 나타 낸 것이다. 여기서, 프레임간 예측을 사용하지 않고 양자화하는 방식을 세이프티- 넷 (safety-net ) 스킴으로 명명할 수 있으며, 프레임간 예측을 사용하여 양자화하는 방식을 예측 (predi ct ive) 스킴으로 명명할 수 있다. 그리고, VQ는 백터 양자화기, BC-TCQ는 블록제한된 트렐리스 부호화 양자화기를 나타낸 것이다.  Table 1 below shows an example of a quantization scheme and a structure in four encoding modes. Here, the method of quantization without using inter-frame prediction may be named as a safety-net scheme, and the method of quantization using inter-frame prediction may be named as a prediction scheme. . VQ is a vector quantizer and BC-TCQ is a block-limited trellis coded quantizer.
【표 1]  [Table 1]
Coding Mode Quant i zat ion Structure  Coding Mode Quant i zat ion Structure
Scheme  Scheme
UCᅳ NB/WB Satetv一 net V0 + BC-TCQ  UC ᅳ NB / WB Satetv 一 net V0 + BC-TCQ
VC , NB/WB Satety一 net VQ + BC-TCQ  VC, NB / WB Satety 一 net VQ + BC-TCQ
Predi ct ive Inter-frame predi ct ion + BC-TCQ wi th  Predi ct ive Inter-frame predi ct ion + BC-TCQ wi th
intra一 frame predi ct ion  intra 一 frame predi ct ion
GC , NB/WB Satety一 net VQ + BC-TCQ  GC, NB / WB Satety 一 net VQ + BC-TCQ
Predi ct ive Inter-frame predi ct ion + BC-TCQ wi th  Predi ct ive Inter-frame predi ct ion + BC-TCQ wi th
intra一 frame predi ct ion  intra 一 frame predi ct ion
TC , NB/WB Satety一 net VQ + BC-TCQ 한편, BC-TCVQ는 블록제한된 트렐리스 부호화 백터 양자화기를 나타낸 것이 다. TCVQ는 TCQ를 일반화하여 백터 코드북과 브랜치 레이블을 가능케 한 것이다. TCVQ의 주요 특징은 확장된 세트의 VQ 심볼들을 서브벳으로 파티셔닝하고, 트렐리 스 브랜치를 이들 서브셋으로 레이블링하는 점이다. TCVQ는 레이트 1/2 컨볼루션 코드에 기반하며 , N=2 V의 트렐리스 스테이트를 가지며 , 각 트렐리스 스테이트에 들 어가고 나오는 두개의 브랜치를 가진다. Μ개의 소스 백터가주어진 경우, 비터비 알고리즘을 사용하여 최소 왜곡 경로를 탐색한다. 그 결과 최적의 트렐리스 경로 가 임의의 Ν개의 초기 스테이트에서 시작하고, 임의 Ν 개의 마지막 스테이트에서 종료할 수 있다. TCVQ에서 코드북은 2(R+R ' )L 백터 코드워드를 가진다. 여기서 , 코 드북은 노미널 레이트 R VQ의 /L 배만큼 많은 코드워드를 가지기 때문에 R '은 코 드북 확장 요소 (codebook expans i on factor )라 할 수 있다. 엔코딩 과정을 간단히 살펴보면 다음과 같다. 먼저 각 입력백터에 대하여 각 서브셋에서 가장 근접한 코 드워드와 대웅하는 왜곡을 탐색하고, 서브셋 S로 레이블된 브랜치에 대한 브랜치 메트릭을 탐색된 왜곡으로 두고, 비터비 알고리즘을 사용하여 트렐리스를 통한 최 소 왜곡 경로를 탐색한다. BC-TCVQ는 트렐리스 경로를 지정하기 위하여 소스 샘플 당 1 비트를 필요로 하므로 낮은 복잡도를 가진다. BC-TCVQ 구조는 0≤k≤ V인 경 우 2k개의 초기 트렐리스 스테이트와 각 허용된 초기 트렐리스 스테이트에 대하여 2 k개의 마지막 스테이트를 가질 수 있다. 싱글 비터비 엔코딩은 허용된 초기 트렐 리스 스테이트에서 시작하여 백터 스테이지 m-k까지 진행한다. 초기 스테이트를 지정하는데 k 비트 소요되고, 백터 스테이지 m-k까지 경로를 지정하는 m-k 비트 소 요된다. 초기 트렐리스 스테이트에 종속적인 유일한 종료 경로 ( terminat ing path) 는 백터 스테이지 m을 통하여 백터 스테이지 m-k에서 각 트렐리스 스테이트에 대하 여 미리 지정된다. k 값과는 무관하게, 초기 트렐리스 스테이트와 트렐리스를 통 한 경로를 지정하기 위하여 m 비트를 필요로 한다. TC, NB / WB Satety 一 net VQ + BC-TCQ BC-TCVQ is a block-limited trellis coded vector quantizer. TCVQ generalizes TCQ to enable vector codebooks and branch labels. The main feature of TCVQ is the partitioning of the extended set of VQ symbols into subvettes and the labeling of trellis branches into these subsets. TCVQ is based on a rate 1/2 convolutional code and has a trellis state of N = 2 V , with two branches entering and exiting each trellis state. Given Μ source vectors, the Viterbi algorithm is used to find the least distortion path. As a result, the optimal trellis path can start at any N initial states and end at any N last states. In TCVQ the codebook has 2 (R + R ') L vector codewords. Here, since the codebook has as many codewords as L / Q times the nominal rate R VQ, R 'may be referred to as a codebook expans i on factor. The encoding process is briefly described as follows. For each input vector, we first search for the closest codeword and distortion in each subset, then set the branch metric for the branch labeled subset S as the searched distortion, and use the Trellis algorithm using the Viterbi algorithm. Find the least distortion path. BC-TCVQ has low complexity because it requires 1 bit per source sample to specify the trellis path. The BC-TCVQ structure may have 2 k initial trellis states and 0 k last states for each allowed initial trellis state if 0 ≦ k ≦ V. Single Viterbi encoding starts at the allowed initial trellis state and proceeds to the vector stage mk. It takes k bits to specify the initial state, and mk bits to specify the path to the vector stage mk. The only termining path dependent on the initial trellis state is pre-specified for each trellis state in the vector stage mk via the vector stage m. Regardless of the value of k, m bits are required to specify the path through the initial trellis state and trellis.
16 kHz 내부 샘플링 주파수에서 VC 모드를 위한 BC-TCVQ는 2차원 백터를 갖 는 16 스테이트 8 스테이지 TCVQ를 사용할 수 있다. 두개의 엘리먼트를 갖는 LSF 서브백터들은 각 스테이지에 할당될 수 있다. 다음 표 2는 16 스테이트 BC-TCVQ를 위한 초기 스테이트와 마지막 스테이트를 나타낸다. 여기서 , k와 V는 각각 2와 4 이고, 초기 스테이트와 마지막 스테이를 위한 4 비트가사용된다.  At 16 kHz internal sampling frequency, the BC-TCVQ for VC mode can use a 16-state 8-stage TCVQ with two-dimensional vectors. LSF subvectors with two elements can be assigned to each stage. Table 2 below shows the initial state and the last state for the 16 state BC-TCVQ. Where k and V are 2 and 4, respectively, and 4 bits for the initial state and the last stay are used.
【표 2】
Figure imgf000011_0001
Table 2
Figure imgf000011_0001
한편, 부호화 모드는 적용되는 비트율에 따라서 변할 수 있다. 상기한 바와 같이 두개의 모드를 사용하는 높은 비트율에서 LPC 계수를 양자화하기 위하여 GC 모드에서 프레임당 40 흑은 41 비트를 사용하고, TC 모드에서 프레임당 46 비트를 사용할 수 있다.  On the other hand, the encoding mode may vary depending on the bit rate applied. As described above, 40 or 41 bits per frame in the GC mode and 46 bits per frame in the TC mode may be used to quantize LPC coefficients at a high bit rate using the two modes.
도 3은 일실시예에 따른 LPC 계수 양자화부의 구성을 나타낸 블록도이다. 도 3에 도시된 LPC 계수 양자화부 (300)는 제 1 계수 변환부 (310) , 가중함수 결정부 (330) , ISF/LSF 양자화부 (350) 및 제 2 계수 변환부 (379)를 포함할 수 있다. 각 구성요소는 적어도 하나 이상의 모들로 일체화되어 적어도 하나 이상의 프로세 서 (미도시)로 구현될 수 있다. LPC 계수 양자화부 (300)에는 양자화되지 않은 LPC 계수와 부호화 모드 정보가 입력으로 제공될 수 있다.  3 is a block diagram illustrating a configuration of an LPC coefficient quantization unit according to an exemplary embodiment. The LPC coefficient quantization unit 300 illustrated in FIG. 3 may include a first coefficient transformation unit 310, a weighting function determination unit 330, an ISF / LSF quantization unit 350, and a second coefficient transformation unit 379. Can be. Each component may be integrated into at least one or more modules and implemented as at least one or more processors (not shown). The LPC coefficient quantization unit 300 may provide, as input, unquantized LPC coefficients and encoding mode information.
도 3을 참조하면, 제 1 계수 변환부 (310)는 음성신호의 현재 프레임 또는 이 전 프레임의 프레임 엔드를 LP 분석하여 추출된 LPC 계수를 다른 형태의 계수로 변 환할 수 있다. 일례로, 제 1 계수 변환부 (310)는 현재 프레임 또는 이전 프레임의 프레임 엔드에 대한 LPC 계수를 선 스꿰트럼 주파수 (LSF) 계수와 이미턴스 스꿰트 럼 주파수 ( I SF) 계수 중 어느 하나의 형태로 변환할 수 있다ᅳ 이 때, I SF 계수나Referring to FIG. 3, the first coefficient converter 310 may convert the extracted LPC coefficients into other types of coefficients by performing LP analysis on a frame end of a current frame or a previous frame of a voice signal. In one example, the first coefficient conversion section 310 is the current frame or line the LPC coefficients for the frame end of the previous frame seukkwe spectral frequency (LSF) coefficient and emittance scan any type of kkweteu column frequency (I SF) coefficients can be converted to eu this time, I factor or SF
LSF 계수는 LPC 계수를 보다 용이하게 양자화할 수 있는 형태의 예를 나타낸다. 가중함수 결정부 (330)는 LPC 계수로부터 변환된 ISF 계수 흑은 LSF 계수를 이용하여, ISF/LSF 양자화부 (350)를 위한 가중함수를 결정할 수 있다. 결정된 가 중함수는 양자화 경로 흑은 양자화 스킴을 선택하거나, 양자화시 가중에러를 최소 화하는 코드북 인덱스를 탐색하는 과정에서 사용될 수 있다. 일례로, 가중함수 결 정부 (330)는 크기 가중함수, 주파수 가중함수, ISF/LSF 계수의 위치에 근거한 가중 함수를 조합하여 최종 가중함수를 결정할 수 있다. LSF coefficients represent examples of forms in which LPC coefficients can be quantized more easily. The weighting function determiner 330 may determine a weighting function for the ISF / LSF quantization unit 350 using the ISF coefficient black LSF coefficient converted from the LPC coefficients. The determined weight function may be used in the process of selecting a quantization path black or quantization scheme or searching a codebook index that minimizes weight errors in quantization. In one example, weighting function determination 330 may combine the weighting function based on the magnitude weighting function, the frequency weighting function, and the location of the ISF / LSF coefficients to determine the final weighting function.
그리고, 가중함수 결정부 (330)는 주파수 대역, 부호화 모드 및 스꿰트럼 분 석 정보 중 적어도 하나를 고려하여 가중함수를 결정할 수 있다. 일례로, 가중함 수 결정부 (330)는 부호화 모드별로 최적의 가중함수를 도출할 수 있다. 그리고, 가중함수 결정부 (330)는 음성신호의 주파수 대역에 따라 최적의 가중함수를 도출할 수 있다. 또한, 가중함수 결정부 (330)는 음성신호의 주파수 분석 정보에 따라 최 적의 가중함수를 도출할 수 있다. 이때, 주파수 분석 정보는 스꿰트럼 틸트 정보 를 포함할 수 있다. 가중함수 결정부 (330)는 추후 구체적으로 설명하기로 한다. ISF/LSF 양자화부 (350)는 입력된 부호화 모드에 따라서 최적 양자화 인덱스 를 구할 수 있다. 구체적으로 ISF/LSF 양자화부 (350)는 현재 프레임의 프레임 엔 드의 LPC 계수가 변환된 ISF 계수 흑은 LSF 계수를 양자화할 수 있다. ISF/LSF 양 자화부 (350)는 입력신호가 비정적 (non-stat ionary)인 신호인 경우 해당하는 UC 모 드 흑은 TC 모드인 경우에는 프레임간 예측을 사용하지 않고 세이프티-넷 스킴만을 이용하여 양자화를 하며 , 정적 (stat ionary)인 신호에 해당하는 VC 모드 흑은 GC 모 드인 경우에는 예측 스킴과 세이프티-넷 스킴을 스위칭하여 프레임 에러를 고려하 여 최적 양자화 스킴을 결정할 수 있다. The weight function determiner 330 may determine the weight function in consideration of at least one of a frequency band, an encoding mode, and the spectrum analysis information. For example, the weight function determiner 330 may derive an optimal weight function for each encoding mode. The weight function determiner 330 may derive an optimal weight function according to the frequency band of the voice signal. In addition, the weighting function determiner 330 may derive the optimal weighting function according to the frequency analysis information of the voice signal. In this case, the frequency analysis information may include the spectrum tilt information. The weight function determiner 330 will be described in detail later. The ISF / LSF quantization unit 350 may obtain an optimal quantization index according to the input encoding mode. In more detail, the ISF / LSF quantization unit 350 may quantize the ISF coefficient black or LSF coefficient in which the LPC coefficient of the frame end of the current frame is converted. If the input signal is a non-stat ionary signal, the ISF / LSF quantizer 350 uses only the safety-net scheme without using inter-frame prediction when the corresponding UC mode black or TC mode is used. In VC mode black or GC mode, the prediction scheme and the safety-net scheme can be switched to determine the optimal quantization scheme in consideration of the frame error.
ISF/LSF 양자화부 (350)는 가중함수 결정부 (330)에서 결정된 가중함수를 이용 하여 ISF 계수 흑은 LSF 계수를 양자화할 수 있다. ISF/LSF 양자화부 (350)는 가중 함수 결정부 (330)에서 결정된 가중함수를 이용하여 복수의 양자화 경로 중 하나를 선택하여 ISF 계수 흑은 LSF 계수를 양자화할 수 있다. 양자화 결과 얻어진 인덱 스는 역양자화 과정을 통하여 양자화된 ISF 계수 (QISF) 흑은 양자화된 LSF  The ISF / LSF quantization unit 350 may quantize the ISF coefficient or the LSF coefficient using the weighting function determined by the weighting function determination unit 330. The ISF / LSF quantization unit 350 may quantize the ISF coefficient or the LSF coefficient by selecting one of the plurality of quantization paths using the weighting function determined by the weighting function determination unit 330. The index obtained as a result of quantization is quantized through inverse quantization (QISF) or quantized LSF.
계수 (QLSF)가 구해질 수 있다. Coefficient (QLSF) can be obtained.
저 12 계수 변환부 (370)는 양자화된 ISF 계수 (QISF) 흑은 양자화된 LSF 계수 (QLSF)를 양자화된 LPC 계수 (QLPC)로 변환할 수 있다.  The low 12 coefficient converter 370 may convert the quantized ISF coefficients (QISF) or the black or quantized LSF coefficients (QLSF) into quantized LPC coefficients (QLPC).
이하, LPC 계수의 백터 양자화와 가중함수간의 관계를 설명하기로 한다. 백터 양자화는 백터 내의 엔트리 (entry)들 모두를 동일한 중요도라고 간주하 여 제곱오차거리 척도 (squared error distance measure)를 이용하여 가장 적은 에 러를 갖는 코드북 인덱스를 선택하는 과정을 의미한다. 그러나, LPC 계수에 있어, 모든 계수의 중요도가 다르므로 중요한 계수의 에러를 감소시키게 되면 최종 합성 신호의 지각적인 품질 (perceptual qual i ty)이 향상될 수 있다. 따라서, LSF 계수 를 양자화할 때 복호화 장치는 각 LPC 계수의 중요도를 표현하는  Hereinafter, the relationship between the vector quantization of the LPC coefficients and the weighting function will be described. Vector quantization refers to a process of selecting a codebook index having the least error using a squared error distance measure by considering all entries in the vector as equal importance. However, in the LPC coefficients, since the importance of all coefficients is different, reducing the error of the important coefficients may improve the perceptual qualities of the final synthesized signal. Therefore, when quantizing the LSF coefficients, the decoding apparatus expresses the importance of each LPC coefficient.
가중함수 (weight ing funct ion)를 제곱오차거리 척도에 적용하여 최적의 코드북 인 덱스를 선택함으로써, 합성신호의 성능을 향상시킬 수 있다. By applying a weighting funct ion to the squared error distance scale to select an optimal codebook index, the performance of the synthesized signal can be improved.
일실시예에 따르면, ISF나 LSF의 주파수 정보와 실제 스꿰트럼 크기를 이용 하여 각 ISF 또는 LSF가 실제로 스꿰트럼 포락선에 어떠한 영향을 주는지에 대한 크기 가중함수를 결정할 수 있다. 일실시예에 따르면, 주파수 도메인의 지각적인 특성 및 포만트의 분포를 고려한 주파수 가중함수를 크기 가중함수와 조합하여 추 가적인 양자화 효율을 얻을 수 있다. 이에 따르면, 실제 주파수 도메인의 크기를 사용하므로, 전체 주파수의 포락선 정보가 잘 반영되고, 각 ISF 또는 LSF 계수의 가중치를 정확하게 도출할 수 있다. 일실시예에 따르면, 크기 가중함수와 주파수 가중 함수에 LSF 계수들 흑은 ISF 계수들의 위치정보에 근거한 가중함수를 조합하 여 추가적인 양자화 효율을 얻을 수 있다. According to one embodiment, the frequency weighting information of the ISF or LSF and the actual stitch size may be used to determine the magnitude weighting function of how each ISF or LSF actually affects the spectral envelope. According to an embodiment, additional quantization efficiency may be obtained by combining the frequency weighting function in consideration of the perceptual characteristics of the frequency domain and the distribution of formants with the magnitude weighting function. According to this, since the actual frequency domain size is used, the envelope information of the entire frequency is well reflected, and the weight of each ISF or LSF coefficient can be accurately derived. According to one embodiment, the magnitude weighting function and the frequency Additional quantization efficiency can be obtained by combining the weighting function based on the location information of the LSF coefficients or the ISF coefficients.
일실시예에 따르면, LPC 계수를 변환한 ISF 또는 LSF를 백터 양자화할 때 각 계수의 중요도가 다른 경우 백터 내에서 어떠한 엔트리가상대적으로 더 중요한지 여부를 나타내는 가중함수를 결정할 수 있다. 그리고, 부호화하려는 프레임의 스 꿰트럼을 분석하여 에너지가큰 부분에 더 많은 가중치를 줄 수 있는 가중함수를 결정함으로써 부호화의 정확도를 향상시킬 수있다. 스꿰트럼의 에너지가크다는 것은 시간 도메인에서 상관도가 높다는 것을 의미한다.  According to an embodiment, when vector quantizing the ISF or LSF transformed LPC coefficients, it is possible to determine a weighting function that indicates which entries in the vector are more important when the importance of each coefficient is different. The accuracy of the encoding can be improved by analyzing the stitches of the frames to be encoded to determine a weighting function that can give more weight to the high energy portion. The higher the energy of the strum, the higher the correlation in the time domain.
표 1에 있어서 모든 모드에 적용되는 VQ에 있어서 최적 양자화 인덱스는 하 기 수학식 1의 Ewerr(p)를 최소화하는 인덱스로 결정할 수 있다.  In Table 1, the optimal quantization index in VQ applied to all modes may be determined as an index that minimizes Ewerr (p) of Equation 1 below.
【수학식 1]
Figure imgf000013_0001
[Equation 1]
Figure imgf000013_0001
여기서, w(i) 는 가중함수를 의미한다. r(i)는 양자화기의 입력, c(i)는 양 자화기의 출력을 나타내며, 두 값간의 가중된 왜곡을 최소화하는 인덱스를 구하기 위한 것이다.  Here, w (i) means weighting function. r (i) represents the input of the quantizer, c (i) represents the output of both quantizers, and to obtain an index that minimizes the weighted distortion between the two values.
다음, BC-TCQ에서 사용되는 왜곡 척도는 기본적으로 US 7, 630, 890에 개시된 방식을 따른다. 이때 왜곡 척도 d(x,y)는 하기 수학식 2와 같이 나타낼 수 있다. 【수학식 2]  Next, the distortion measure used in BC-TCQ basically follows the scheme disclosed in US 7, 630, 890. In this case, the distortion measure d (x, y) may be represented by Equation 2 below. [Equation 2]
=— 1 X N , = — 1 X N ,
(_xk - yk )2 실시예에 따르면, 왜곡 척도 d(x,y)에 가중함수를 적용할 수 있다. US 7, 630, 890에서 BC-TCQ를 위해 사용된 왜곡 척도를 백터에 대한 척도로 확장한 다음 가중함수를 적용하여 가중된 왜곡을 구할 수 있다. 즉, BC-TCVQ의 모든 스테이지 에서 하기 수학식 3에서와 같이 가중된 왜곡을 구하여 최적의 인덱스를 결정할 수 있다. According to the second embodiment - (_x k y k), it is possible to apply a weighting function to the distortion measure d (x, y). In US 7, 630, 890, the distortion measure used for BC-TCQ can be extended to the vector's scale, and then weighted distortion can be obtained by applying a weighting function. That is, the optimal index may be determined by obtaining the weighted distortion at all stages of BC-TCVQ as in Equation 3 below.
【수학식 3】  [Equation 3]
1 N -, 1 N- ,
0, 0 =—∑ wk(xk - }k)2 한편, ISF/LSF 양자화부 (350)는 입력된 부호화 모드에 따라서 예를 들면, LVQ( lattice vector quantizer)와 BOTCVQ 를 스위칭하여 양자화를 수행할 수 있다. 만약, 부호화모드가 GC 모드이면 LVQ를 이용하고, VC 모드이면 BC-TCVQ를 이용할 수 있다. LVQ와 BC-TCVQ가흔합되어 있을 때 양자화기 선택 과정을 구체적 으로 설명하면 다음과 같다. 먼저 부호화할 비트레이트를 선택할 수 있다. 부호 화할 비트레이트가 선택되면 각 비트레이트에 해당하는 LPC 양자화기를 위한 비트 를 결정할 수 있다. 이후, 입력신호의 대역을 결정할 수 있다. 입력신호가 협대 역인지 광대역인지에 따라서 양자화 방식이 변경될 수 있다. 또한, 입력신호가 광 대역인 경우, 추가적으로 실제로 부호화하는 대역의 상한 (upper l imi t )이 6 · 4ΚΗζ인 지 8kHz인지를 판단할 필요가 있다. 즉, 내부 샘플링 주파수가 12.8kHz인지 16kHz 인지에 따라서 양자화 방식이 변경될 수 있으므로 대역을 확인할 필요가 있다. 다 음, 결정된 대역에 따라 사용가능한 부호화 모드의 한도 내에서 최적인 부호화 모 드를 결정할 수 있다. 예를 들어 4가지 부호화 모드 (UC , VC , GC , TC)를 사용할 수 있 으나, 높은 비트레이트 (예를 들어 9.6kbi t/s 이상)에서는 3가지 모드만 (VC , GC , TC) 을 사용할 수 있다. 부호화할 비트레이트, 입력신호의 대역, 부호화 모드에 근거 하여 양자화 방식 예를 들면 LVQ와 BC-TCVQ 중 하나를 선택하고, 선택된 양자화 방 식에 근거하여 양자화된 인덱스를 출력한다. 0, 0 = —∑ w k ( x k- } k) 2 Meanwhile, the ISF / LSF quantization unit 350 switches the lattice vector quantizer (LVQ) and BOTCVQ to perform quantization according to the input encoding mode. Can be done. If the encoding mode is the GC mode, LVQ may be used, and in the VC mode, BC-TCVQ may be used. When LVQ and BC-TCVQ are mixed, the quantizer selection process is specified. Explained as follows. First, a bit rate to be encoded can be selected. Once the bitrate to be coded is selected, the bit for the LPC quantizer corresponding to each bitrate can be determined. Then, the band of the input signal can be determined. The quantization scheme can be changed depending on whether the input signal is narrowband or wideband. In addition, when the input signal is a wide band, it is additionally necessary to determine whether the upper limit (upper l imit) of the band to be actually encoded is 6 · 4ΚΗζ or 8 kHz. That is, since the quantization scheme may be changed depending on whether the internal sampling frequency is 12.8 kHz or 16 kHz, it is necessary to check the band. Next, an optimal coding mode can be determined within the limits of the available coding modes according to the determined band. For example, four encoding modes (UC, VC, GC, TC) can be used, but only three modes (VC, GC, TC) can be used at high bitrates (e.g., 9.6 kbi t / s or higher). Can be. A quantization scheme, for example, LVQ and BC-TCVQ, is selected based on a bit rate to be encoded, a band of an input signal, and an encoding mode, and a quantized index is output based on the selected quantization scheme.
일실시예에 따르면, 비트레이트가 24.4 kbps와 64 kbps 사이에 해당하는지를 판단하고, 비트레이트가 24.4 kbps와 64 kbps 사이에 해당하지 않으면 LVQ를 선택 할 수 있다. 한편, 비트레이트가 24.4 kbps와 64 kbps 사이에 해당하면 입력신호 의 대역이 협대역인지를 판단하고, 입력신호의 대역이 협대역이면 LVQ를 선택할 수 있다. 한편, 입력신호의 대역이 협대역이 아니면 부호화 모드가 VC 모드인지를 판 단하고 부호화 모드가 VC 모드인 경우 BC-TCVQ를 사용하고, 부호화 모드가 VC 모드 가 아니면 LVQ를 사용할 수 있다.  According to an embodiment, it may be determined whether the bitrate falls between 24.4 kbps and 64 kbps, and if the bitrate does not fall between 24.4 kbps and 64 kbps, the LVQ may be selected. On the other hand, if the bit rate is between 24.4 kbps and 64 kbps it can be determined whether the band of the input signal is narrow band, LVV can be selected if the band of the input signal is narrow band. On the other hand, if the band of the input signal is not narrow band, it is determined whether the encoding mode is the VC mode, BC-TCVQ is used when the encoding mode is VC mode, LVQ can be used when the encoding mode is not VC mode.
다른 실시예에 따르면, 비트레이트가 13.2 kbps와 32 kbps 사이에 해당하는 지를 판단하고, 비트레이트가 13.2 kbps와 32 kbps 사이에 해당하지 않으면 LVQ를 선택할 수 있다. 한편, 비트레이트가 13.2 kbps와 32 kbps 사이에 해당하면 입력 신호의 대역이 광대역인지를 판단하고, 입력신호의 대역이 광대역이 아니면 LVQ를 선택할 수 있다. 한편, 입력신호의 대역이 광대역이면 부호화 모드가 VC 모드인지 를 판단하고 부호화 모드가 VC 모드인 경우 BC-TCVQ를 사용하고, 부호화 모드가 VC 모드가 아니면 LVQ를 사용할 수 있다.  According to another embodiment, it may be determined whether the bitrate corresponds to 13.2 kbps and 32 kbps, and if the bitrate does not correspond to 13.2 kbps and 32 kbps, the LVQ may be selected. On the other hand, if the bit rate falls between 13.2 kbps and 32 kbps, it is possible to determine whether the bandwidth of the input signal is wideband, and if the bandwidth of the input signal is not wideband, LVQ can be selected. On the other hand, if the band of the input signal is a wide band, it may be determined whether the encoding mode is the VC mode. If the encoding mode is the VC mode, BC-TCVQ may be used.
일실시예에 따르면, 부호화 장치는 LPC 계수로부터 변환된 ISF 계수 또는 LSF 계수의 주파수에 해당하는 스꿰트럼 크기를 이용한 크기 가중함수, 입력 신호 의 지각적인 특성 및 포먼트분포를 고려한 주파수 가중함수, LSF 계수들 흑은 ISF 계수들의 위치에 근거한 가중함수를 조합하여 최적의 가중치 함수를 결정할 수 있 다. 도 4는 일실시예에 따른 도 3의 가중함수 결정부의 구성을 나타낸 블록도이 다. According to an embodiment, the encoding apparatus includes a magnitude weighting function using a magnitude magnitude corresponding to a frequency of an ISF coefficient or an LSF coefficient converted from an LPC coefficient, a frequency weighting function in consideration of the perceptual characteristics of the input signal, and the formant distribution, and the LSF. The coefficients black can determine the optimal weight function by combining the weighting function based on the position of the ISF coefficients. 4 is a block diagram illustrating a configuration of the weighting function determiner of FIG. 3, according to an exemplary embodiment.
도 4에 도시된 가중함수 결정부 (400)는 스꿰트럼 분석부 (410) , LP  The weight function determining unit 400 shown in FIG. 4 includes a string analysis unit 410 and LP.
분석부 (430) , 제 1 가중함수 생성부 (450) , 제 2 가중함수 생성부 (470) 및 An analyzer 430, a first weighted function generator 450, a second weighted function generator 470, and
조합부 (490)를 포함할 수 있다. 각 구성요소는 적어도 하나의 프로세서로 일체화 되어 구현될 수 있다. Combination 490 can be included. Each component may be integrated into at least one processor and implemented.
도 4를 참조하면, 스꿰트럼 분석부 (410)는 시간-주파수 (Time-to-Frequency) 맵핑 과정을 통해 입력 신호에 대한 주파수 도메인의 특성을 분석할 수 있다. 여 기서, 여기서 입력 신호는 전처리된 신호일 수 있고, 시간-주파수 맵핑 과정은 FFT 를 이용하여 수행될 수 있으나 이에 한정되는 것은 아니다. 스꿰트럼 분석부 (410) 는 스꿰트럼 분석 정보, 일예로 FFT 결과 얻어지는 스꿰트럼 크기를 제공할 수 있 다. 여기서, 스꿰트럼 크기는 선형 스케일을 가질 수 있다. 구체적으로, 스꿰트 럼 분석부 (410)는 128-포인트 FFT를 수행하여 스꿰트럼 크기를 생성할 수 있다. 이때 스꿰트럼 크기의 대역폭은 0 내지 6400 HZ 의 범위에 해당할 수 있다. 이때, 내부 샘플링 주파수가 16 kHz인 경우 스꿰트럼 크기의 수는 160개로 확장될 수 있 다. 이 경우, 6400 내지 8000 Hz 범위에 대한 스꿰트럼 크기가 누락되는데, 누락 된 스꿰트럼 크기는 입력 스꿰트럼에 의해 생성될 수 있다. 구체적으로, 4800 내 지 6400 Hz의 대역폭에 해당하는 마지막 32개의 스꿰트럼 크기를 이용하여 6400 내 지 8000 Hz 범위의 누락된 스꿰트럼 크기를 대체할 수 있다. 일례로, 마지막 32개 의 스꿰트럼 크기의 평균값을 사용할 수 있다.  Referring to FIG. 4, the spectrum analyzer 410 may analyze characteristics of a frequency domain of an input signal through a time-to-frequency mapping process. Here, the input signal may be a preprocessed signal, and the time-frequency mapping process may be performed using the FFT, but is not limited thereto. The stitch analysis unit 410 may provide the spectrum analysis information, for example, the size of the stitch obtained from the FFT result. Here, the strum size may have a linear scale. Specifically, the stitch analysis unit 410 may perform a 128-point FFT to generate a stitch size. At this time, the bandwidth of the spectrum size may correspond to the range of 0 to 6400 HZ. In this case, when the internal sampling frequency is 16 kHz, the number of spectrum sizes may be extended to 160. In this case, the stitch size for the range of 6400 to 8000 Hz is missing, which may be generated by the input spectrum. Specifically, the last 32 stitch sizes corresponding to a bandwidth of 4800 to 6400 Hz can be used to replace missing stitch sizes in the range of 6400 to 8000 Hz. As an example, we can use the average of the last 32 strum sizes.
LP 분석부 (430)는 입력 신호에 대하여 LP 분석을 수행하여 LPC 계수를 생성 할 수 있다. LP 분석부 (430)는 LPC 계수로부터 ISF흑은 LSF 계수를 생성할 수 있 다.  The LP analyzer 430 may generate an LPC coefficient by performing an LP analysis on the input signal. The LP analyzer 430 may generate an ISF black LSF coefficient from the LPC coefficient.
저 U 가중함수 생성부 (450)는 ISF흑은 LSF 계수에 대하여 스꿰트럼 분석정보 에 근거하여 크기 가중함수와 주파수 가중함수를 얻고, 크기 가중함수와 주파수 가 중함수를 조합하여 제 1 가중함수를 생성할 수 있다. 제 1 가중함수는 FFT를 기반으 로 얻어질 수 있으며, 스꿰트럼 크기가 클수록 큰 가중치값을 할당할 수 있다. 일 례를 들면, 제 1 가중함수는 스꿰트럼 분석정보 즉, 스꿰트럼 크기를 ISF흑은 LSF 대역에 맞도록 정규화한 다음, 각 ISF흑은 LSF 계수에 해당하는 주파수의 크기를 이용하여 결정될 수 있다.  The low U weighting function generator 450 obtains the magnitude weighting function and the frequency weighting function based on the spectrum analysis information for the ISF black LSF coefficients, and combines the magnitude weighting function and the frequency weighting function to obtain the first weighting function. Can be generated. The first weighting function may be obtained based on the FFT, and a larger weight value may be assigned as the strum size is larger. For example, the first weighting function can be determined using the spectrum analysis information, that is, the magnitude of the spectrum to fit the ISF black to the LSF band, and then each ISF black can be determined using the magnitude of the frequency corresponding to the LSF coefficient. .
저 12 가중함수 생성부 (470)는 인접한 ISF흑은 LSF 계수의 간격 흑은 위치 정 보에 기초하여 제 2 가중함수를 결정할 수 있다. 실시예에 따르면, 각 ISF흑은 LSF 계수과 인접한 두개의 ISF흑은 LSF 계수로부터 스꿰트럼 민감도와 관련된 저 12 가중함수를 생성할 수 있다. 통상 ISF흑은 LSF 계수는 Z-도메인의 단위 서클위에 위치하며, 인접한 ISF흑은 LSF 계수의 간격이 주변보다 좁은 경우 스꿰트럼 피크 로 나타나는 특징이 있다. 결과적으로, 제 2 가중함수는 인접한 LSF 계수들의 위치 에 근거하여 LSF 계수들의 스꿰트럼 민감도를 근사화할 수 있다. 즉, 인접한 LSF 계수들이 얼마나 가까이 위치하는지를 측정함으로써 LSF 계수들의 조밀도가 예측될 수 있고, 조밀한 LSF 계수들이 존재하는 주파수 근처에서 신호 스꿰트럼이 피크값 을 가질 수 있으므로 큰 값의 가중치가 할당될 수 있다. 여기서 , 스꿰트럼 민감도 의 근사화시 정확도를 높이기 위하여 제 2 가중함수 결정시 LSF 계수들에 대한 다양 한 파라미터가 추가적으로 사용될 수 있다. The low 12 weighting function generator 470 may determine the second weighting function based on the interval black position information of the adjacent ISF black or LSF coefficients. According to an embodiment, each ISF black is Two ISF blacks adjacent to the LSF coefficients can generate a low weighting function related to the spectral sensitivity from the LSF coefficients. In general, ISF blacks are characterized by LSF coefficients located on the unit circle of the Z-domain, and adjacent ISF blacks appear as spectral peaks when the interval of LSF coefficients is narrower than the surroundings. As a result, the second weighting function may approximate the stitch sensitivity of the LSF coefficients based on the position of adjacent LSF coefficients. That is, the density of the LSF coefficients can be predicted by measuring how closely adjacent LSF coefficients are located, and a large value weight can be assigned since the signal sequence can have a peak value near the frequency where the dense LSF coefficients are present. Can be. In this case, various parameters for LSF coefficients may be additionally used when determining the second weighting function to increase accuracy when approximating the stitch sensitivity.
상기한 바에 따르면, ISF흑은 LSF 계수들간의 간격과 가중함수는 반비례하 는 관계가 성립될 수 있다. 이러한 간격과 가중함수간의 관계를 이용하여 다양한 실시예가 가능하다. 일예를 들면, 간격을 음수로 표현하거나 간격을 분모에 표시 할 수 있다. 다른 예를 들면, 구해진 가중치를 더 강조하기 위해 가중함수의 각각 의 엘리먼트에 상수를 곱하거나 엘리먼트의 제곱으로 나타내는 경우도 가능하다. 또 다른 예를 들면, 1차적으로 구해진 가중함수 자체에 대하여 추가적인 연산 예를 들면 거듭제곱 흑은 세제곱 등을 수행하여 2차적으로 구해진 가중함수를 더 반영할 수 있다.  As described above, the ISF black may have a relationship in which the spacing between the LSF coefficients and the weighting function are inversely proportional. Various embodiments are possible using the relationship between such intervals and weighting functions. For example, the interval may be expressed as a negative number or the interval may be indicated in the denominator. For another example, it is also possible to multiply each element of the weighting function by a constant or express it as the square of the element to further emphasize the obtained weight. For another example, the weighting function itself obtained by performing the first calculation, for example, a power black or a cube may be further reflected.
ISF흑은 LSF 계수들간의 간격을 이용하여 가중함수를 도출하는 예는 다음과 같다.  An example of deriving a weighting function using ISF black using the interval between LSF coefficients is as follows.
일예에 따르면, 제 2 가중함수 (Ws(n) )는 하기 수학식 4에 의해 구해질 수 있 다.  According to one example, the second weighting function Ws (n) may be obtained by Equation 4 below.
【수학식 4】  [Equation 4]
^ = 3.347 - ^- ^ , for ^ < 450 ^ = 3.347-^-^, for ^ <450
0 8 0 8
= 1.8 · ~ : ~ (d. -450), otherwise = 1.8 · ~ : ~ (d. -450), otherwise
1050 1 } where dt = lsfi+ { - lsfi { 여기서, lsf i— lsf i+ 현재 LSF 계수 lsfi에 인접한 LSF 계수를 나타낸다. 1050 1} where d t = lsf i + { − lsf i { where lsf i— lsf i + indicates the LSF coefficient adjacent to the current LSF coefficient lsfi.
다른 예에 따르면, 제 2 가중함수 (Ws(n) )는 하기 수학식 5에 의해 구해질 수 있다. 【수학식 5】 , " = D - 1According to another example, the second weighting function Ws (n) may be obtained by Equation 5 below. [Equation 5], "= D-1
Figure imgf000017_0001
Figure imgf000017_0001
여기서, ^^은 현재 LSF 계수를 나타내고, lsf^ 및 lsfn+1은 인접한 LSF 계 수를 나타내며 , M은 LP 모델의 차수로서 16일 수 있다. 예를 들어 , LSF 계수는 0 내지 π사이에서 스팬되므로 첫번째와 마지막 가중치는 lsf0=0 , 13 = 1:에 근거하여 산출될 수 있다. Here, ^^ represents the current LSF coefficient, lsf ^ and lsf n + 1 represent adjacent LSF coefficients, and M may be 16 as an order of the LP model. For example, since the LSF coefficients span between 0 and π, the first and last weights can be calculated based on lsf 0 = 0, 13 = 1 :.
조합부 (490)는 제 1 가중함수와 제 2 가중함수를 조합하여 LSF 계수의 양자화 에 사용되는 최종 가중함수를 결정할 수 있다. 이때, 결합 방식으로는 각각의 가 중함수를 곱하거나, 적절한 비율을 곱한 후에 더하거나, 각각의 가중치에 대하여 룩업테이블 등을 이용하여 미리 정해진 값을 곱한 후에 이들을 더하는 방식 등 다 양한 방식을 사용할 수 있다.  The combiner 490 may combine the first and second weight functions to determine the final weight function used for quantization of the LSF coefficients. In this case, a variety of methods may be used, such as multiplying each weighting function, adding after multiplying an appropriate ratio, or multiplying a predetermined value by using a lookup table for each weight. .
도 5는 일실시예에 따라 도 4의 제 1 가중함수 생성부의 세부 구성을 나타낸 블럭도이다.  5 is a block diagram illustrating a detailed configuration of a first weight function generator of FIG. 4 according to an exemplary embodiment.
도 5에 도시된 제 1 가중함수 생성부 (500)는 정규화부 (510) , 크기 가중함수 생성부 (530) , 주파수 가중함수 생성부 (550) 및 조합부 (570)를 포함할 수 있다. 여 기서, 설명의 편의를 위하여 제 1 가중함수 생성부 (500)의 입력신호로서 LSF 계수를 예로 들기로 한다.  The first weight function generator 500 illustrated in FIG. 5 may include a normalizer 510, a magnitude weight function generator 530, a frequency weight function generator 550, and a combination unit 570. Here, for convenience of description, the LSF coefficient is taken as an example of the input signal of the first weight function generator 500.
도 5를 참조하면, 정규화부 (500)는 LSF 계수를 0 내지 K-1의 범위로 정규화 할 수 있다. LSF 계수는 통상 0 내지 π까지의 범위를 가질 수 있다. 12.8 kHz 내부 샘플링 주파수인 경우 , K는 128이고, 16.4 kHz 내부 샘플링 주파수인 경우 , K 는 160일 수 있다.  Referring to FIG. 5, the normalization unit 500 may normalize the LSF coefficients in the range of 0 to K-1. LSF coefficients may typically range from 0 to π. For 12.8 kHz internal sampling frequency, K may be 128, and for 16.4 kHz internal sampling frequency, K may be 160.
크기 가중함수 생성부 (530)는 정규화된 LSF 계수에 대하여 스꿰트럼 분석 정 보에 근거하여 크기 가중치함수 (Wl(n) )를 생성할 수 있다. 일실시예에 따르면, 크 기 가중함수는 정규화된 LSF 계수의 스꿰트럼 크기에 근거하여 결정될 수 있다. 구체적으로, 크기 가중함수는 정규화된 LSF 계수의 주파수에 대웅하는 스꿰 트럼 빈의 크기와 해당 스꿰트럼 빈의 좌우 예를 들면 하나 이전 흑은 이후에 위치 하는 이웃하는 두개의 스꿰트럼 빈의 크기를 사용하여 결정될 수 있다. 스꿰트럼 엔벨로프와 관련된 각 크기의 가중치 함수 (Wl(n) )는 3개의 스꿰트럼 빈의 크기 중 최대값을 추출하여 하기 수학식 6에 근거하여 결정될 수 있다. 【수학식 6] The magnitude weighting function generator 530 may generate the magnitude weighting function W1 (n) based on the spectrum analysis information on the normalized LSF coefficients. According to one embodiment, the size weighting function may be determined based on the stud size of the normalized LSF coefficients. Specifically, the magnitude weighting function uses the size of the strum bin that corresponds to the frequency of the normalized LSF coefficient and the size of the two strum bins that are located to the left and right of the strum bin, e.g. one before black or later. Can be determined. The weighting function Wl (n) of each size associated with the stitch envelope may be determined based on Equation 6 by extracting the maximum value of the size of the three stitch bins. [Equation 6]
Wx(n) = ) + 2W x (n) =) + 2
Figure imgf000018_0001
, for « = 0, ...,Λ/- 1 여기서, Min은 wf(n)의 최소값을 나타내고, wf (n)는 101og(Emax(n) ) (여기서, η=0 , · · · ,Μ-1)로 정의될 수 있다. 여기서, Μ은 16이고, Eraax(n)은 각 LSF 계수에 대 한 3개의 스꿰트럼 빈의 크기중 최대값을 나타낸다.
Figure imgf000018_0001
, For «= 0, ..., Λ / - 1 , where, Min indicates the minimum value of w f (n), w f (n) is 101og (E max (n)) ( wherein, η = 0, · Can be defined as. Where M is 16 and Eraax (n) represents the maximum of the size of the three strum bins for each LSF coefficient.
주파수 가중함수 생성부 (550)는 정규화된 LSF 계수에 대하여 주파수 정보에 근거하여 주파수 가중함수 (w2(n) )를 생성할 수 있다ᅳ 일실시예에 따르면, 주파수 가중함수는 입력신호의 지각적인 특성 및 포먼트 분포를 이용하여 결정할 수 있다. 주파수 가중함수 생성부 (550)는 바크 스케일 (bark scale)에 따라 입력신호의 지각 적인 특성을 추출할 수 있다. 그리고, 주파수 가중함수 생성부 (550)는 포먼트의 분포 중 첫번째 포먼트에 기초하여 주파수별 가중함수를 결정할 수 있다. 주파수 가중함수의 경우, 초저주파 및 고주파에서 상대적으로 낮은 가중치를 나타내고, 저 주파에서 일정 주파수 구간 내 예를 들면, 첫번째 포만트에 해당하는 구간에서 동 일한 크기의 가중치를 나타낼 수 있다. 주파수 가중함수 생성부 (550)는 입력 대역 폭과 부호화모드를 따라서 주파수 가중함수를 결정할 수 있다. The frequency weighting function generator 550 may generate the frequency weighting function w 2 ( n ) based on the frequency information with respect to the normalized LSF coefficient. This can be determined using specific characteristics and formant distributions. The frequency weighting function generator 550 may extract perceptual characteristics of the input signal according to a bark scale. The frequency weighting function generator 550 may determine the weighting function for each frequency based on the first formant among the distributions of the formants. In the case of the frequency weighting function, relatively low weights may be shown at very low frequencies and high frequencies, and weights having the same size may be represented in a section corresponding to the first formant in a certain frequency section at low frequencies. The frequency weighting function generator 550 may determine the frequency weighting function according to the input bandwidth and the encoding mode.
조합부 (570)는 크기 가중함수 (W n) )와 주파수 가중함수 (W2(n) )를 조합하여 The combination unit 570 combines the magnitude weighting function W n) and the frequency weighting function W 2 (n).
FFT 기반 가중함수 (Wf (n) )를 결정할 수 있다. 조합부 (570)는 크기 가중함수와 주파 수 가중함수를 곱하거나 또는 더하여 최종적인 가중함수를 결정할 수 있다. 예를 들어 , 프레임 엔드 LSF 양자화를 위한 FFT 기반 가중함수 (Wf (n) )는 하기 수학식 7에 근거하여 산출될 수 있다. The FFT based weighting function W f (n) can be determined. The combination unit 570 may multiply or add the magnitude weighting function and the frequency weighting function to determine the final weighting function. For example, the FFT based weighting function W f (n) for frame end LSF quantization may be calculated based on Equation 7 below.
【수학식 7】  [Equation 7]
W n) = W^n) · lV2C \ for n = 0, ...,M- l 도 6은 일실시예에 따른 LPC 계수 양자화부의 구성을 나타낸 블록도이다. 도 6에 도시된 LPC 계수 양자화부 (600)는 선택부 (610) , 제 1 양자화모들 (630) 과 제 2 양자화모들 (650)를 포함할 수 있다. W n) = W ^ n) · lV 2 C \ for n = 0, ..., M-1 FIG. 6 is a block diagram illustrating a configuration of an LPC coefficient quantization unit according to an embodiment. The LPC coefficient quantization unit 600 illustrated in FIG. 6 may include a selection unit 610, first quantization hairs 630, and second quantization hairs 650.
도 6을 참조하면, 선택부 (610)는 오픈 루프 방식으로, 소정 기준에 근거하여 프레임간 예측을 사용하지 않는 양자화 처리와 프레임간 예측을 사용하는 양자화 처리 중 하나를 선택할 수 있다. 여기서, 소정 기준은 양자화되지 않은 LSF의 예 측 에러가사용될 수 있다. 예측 에러는 프레임간 예측값에 근거하여 얻어질 수 있다. 저 U 양자화모들 (630)은 프레임간 예측을 사용하지 않는 양자화 처리가 선택 된 경우, 선택부 (610)를 통하여 제공되는 입력신호를 양자화할 수 있다. Referring to FIG. 6, the selector 610 may select one of a quantization process using no interframe prediction and a quantization process using interframe prediction based on a predetermined criterion in an open loop manner. Here, the predetermined criterion may be a prediction error of the unquantized LSF. The prediction error may be obtained based on the interframe prediction value. The low U quantization hairs 630 may quantize an input signal provided through the selector 610 when quantization processing that does not use inter-frame prediction is selected.
저 12 양자화모들 (650)은 프레임간 예측을 사용하는 양자화 처리가 선택된 경 우, 선택부 (610)를 통하여 제공되는 입력신호를 양자화할 수 있다.  The low 12 quantization hairs 650 may quantize the input signal provided through the selector 610 when quantization processing using inter-frame prediction is selected.
저 U 양자화모들 (630)은 프레임간 예측을 사용하지 않고 양자화를 수행하며 , 세이프티-넷 (safety-net ) 스킴으로 명명할 수 있다. 제 2 양자화모들 (650)은 프레 임간 예측을 사용하여 양자화를 수행하며, 예측 (predi ct ive) 스킴으로 명명할 수 있다.  The low U quantization hairs 630 perform quantization without using inter-frame prediction and may be named a safety-net scheme. The second quantization hairs 650 perform quantization using interframe prediction, and may be referred to as a prediction scheme.
이에 따르면, 효율성이 높은 대화형 음성서비스를 위한 저비트율에서부터 차 별화된 품질의 서비스를 제공하기 위한 고비트율까지 다양한 비트율에 대웅하여, 최적의 양자화기가 선택될 수 있다.  Accordingly, an optimal quantizer can be selected for a variety of bit rates, ranging from low bit rates for highly efficient interactive voice services to high bit rates for providing differentiated quality services.
도 7은 일실시예에 따른 도 6의 선택부의 구성을 나타낸 블록도이다.  7 is a block diagram illustrating a configuration of a selector of FIG. 6, according to an exemplary embodiment.
도 7에 도시된 선택부 (700)는 예측에러 산출부 (710)와 양자화스킴  The selection unit 700 illustrated in FIG. 7 includes a prediction error calculator 710 and a quantization scheme.
선택부 (730)을 포함할 수 있다. 여기서, 예측에러 산출부 (710)는 도 6의 제 2 양자 화모들 (650)에 포함될 수도 있다. It may include a selector 730. Here, the prediction error calculator 710 may be included in the second quantization pictures 650 of FIG. 6.
도 7을 참조하면, 예측에러 산출부 (710)는 프레임간 예측값 p(n) , 가중함수 w(n) , DC 값이 제거된 LSF 계수 z(n)을 입력으로 하여 , 다양한 방법에 의거하여 예 측에러를 산출할 수 있다. 먼저, 프레임간 예측기는 제 2 양자화모들 (650)의 예측 스킴에서 사용되는 것과 동일한 것을 사용할 수 있다. 여기서,  Referring to FIG. 7, the prediction error calculator 710 receives the interframe prediction value p (n), the weighting function w (n), and the LSF coefficient z (n) from which the DC value has been removed, based on various methods. Predictive errors can be calculated. First, the interframe predictor may use the same one used in the prediction scheme of the second quantization hairs 650. here,
AR(auto-regress ive) 방식과 MA(moving average) 방식 중 어느 것을 사용해도 무방 하다. 프레임간 예측을 위한 이전 프레임의 신호 z(n)은 양자화된 값을 사용할 수 도 있고, 양자화되지 않은 값을 사용할 수도 있다. 또한, 예측에러를 구할 때 가 중함수를 적용할 수도 있고, 적용하지 않을 수도 있다. 이에 따르면, 전체 8가지 의 조합이 가능하며 , 그 중 4가지는 다음과 같다. Either an auto-regressive (AR) method or a moving average (MA) method may be used. The signal z (n) of the previous frame for interframe prediction may use a quantized value or an unquantized value. In addition, the weighting function may or may not be applied to the prediction error. According to this, a total of eight combinations are possible, four of which are as follows.
첫째, 이전 프레임의 양자화된 z(n) 신호를 이용한 가중 AR 예측에러는 다음 수학식 8과 같이 나타낼 수 있다.  First, a weighted AR prediction error using a quantized z (n) signal of a previous frame may be expressed by Equation 8 below.
【수학식 8】  [Equation 8]
E P =∑ ^;„ (i (¾ (0 - (i)p(i)Y 둘째 , 이전 프레임의 양자화된 z(n) 신호를 이용한 AR 예측에러는 다음 수학 식 9와 같이 나타낼 수 있다. 【수학
Figure imgf000020_0001
E P = ∑ ^; „(i (¾ (0-(i) p (i) Y) Second, an AR prediction error using the quantized z (n) signal of the previous frame can be expressed as Equation 9 below. 【Math
Figure imgf000020_0001
셋째, 이전 프레임의 z(n) 신호를 이용한 가중 AR 예측에러는 다음 수학식 10과 같이 나타낼 수 있다.  Third, the weighted AR prediction error using the z (n) signal of the previous frame may be represented by Equation 10 below.
【수학식 10]  [Equation 10]
EP =∑ w e, ) (¾( - ¾ -, (i) (i))2 E P = ∑ w e ,) (¾ (-¾-, (i) (i)) 2
J  J
넷째 , 이전 프레임의 z(n) 신호를 이용한 AR 예측에러는 다음 수학식 11과 같이 나타낼 수 있다.  Fourth, an AR prediction error using a z (n) signal of a previous frame may be represented by Equation 11 below.
【수학식 11]  [Equation 11]
£, =∑ (^ « - ¾_, (O ( )2 여기서 , Μ은 LSF의 차수를 의미하며 , 입력 음성신호의 대역폭이 WB 인 경우, 통상 16을 사용한다. p ( i )는 AR 방식의 예측계수를 의미한다. 이와 같이 바로 이전 프레임의 정보를 이용하는 경우가 일반적이며, 여기서 구해진 예측에러를 이 용하여 양자화 스킴을 결정할 수 있다. £ , = ∑ (^ «-¾_, (O () 2 ) where Μ is the order of the LSF, and when the bandwidth of the input voice signal is WB, 16 is usually used. In this case, the information of the previous frame is generally used, and a quantization scheme can be determined using the prediction error obtained here.
한편 , 예측에러가 소정 임계치보다 크다면 이는 현재 프레임이 비정적 (non- stat ionary)이 될 경향이 있음을 암시할 수 있다. 이 경우 세이프티-넷 스킴을 사 용할 수 있다. 그외에는 예측 스킴을 사용하는데, 이때 예측 스킴이 연속적으로 선택되지 않도록 제한을 가할 수 있다.  On the other hand, if the prediction error is greater than a certain threshold, this may imply that the current frame tends to be non-stat ionary. In this case, a safety-net scheme can be used. Otherwise, a prediction scheme is used, which may be limited so that the prediction scheme is not selected continuously.
일실시예에 따르면, 이전 프레임에 대하여 프레임에러가 발생하여 이전 프레 임의 정보가 없는 경우를 대비하여 이전 프레임의 이전 프레임을 이용하여 제 2 예 측에러를 구하고, 제 2 예측에러를 이용하여 양자화 스킴을 결정할 수 있다. 이 경 우, 제 2 예측에러는 상기한 첫째 경우와 비교하여 다음 수학식 12와 같이 나타낼 수 있다.  According to an embodiment, the second prediction error is obtained using the previous frame of the previous frame in preparation for the case where there is no previous frame random information due to a frame error with respect to the previous frame, and a quantization scheme using the second prediction error. Can be determined. In this case, the second prediction error may be expressed by the following Equation 12 compared with the first case.
【수학식 12] =∑^W(¾( -¾_2 ') ( )2 양자화스킴 선택부 (730)는 예측에러 산출부 (710)에서 구해진 예측에러를 이 용하여 현재 프레임의 양자화 스킴을 결정할 수 있다. 이때, 부호화 모드 결정부 ( 도 1의 110)에서 구해진 부호화 모드를 더 고려할 수 있다. 실시예에 따르면, VC 모드 흑은 GC 모드의 경우 양자화스킴 선택부 (730)가 동작할 수 있다. 도 8은 도 6의 선택부의 동작을 설명하는 플로우챠트이다. 예측모드가 0의 값을 갖는 경우는 항상 세이프티-넷 스킴을 사용하는 것을 의미하며 , 예측모드가 0 이 아닌 값을 갖는 경우는 세이프티-넷 스킴과 예측 스킴을 스위칭해서 양자화 스 킴을 결정하는 것을 의미한다. 항상 세이프티-넷 스킴을 사용하는 부호화 모드의 예로는 UC 모드 흑은 TC 모드를 들 수 있다. 한편, 세이프티-넷 스킴과 예측 스킴 을 스위칭하여 사용하는 부호화 모드의 예로는 VC 모드 흑은 GC 모드를 들 수 있 다. [Equation 12] = ∑ ^ W (¾ (-¾_ 2 ' ) () 2 The quantization scheme selector 730 may determine the quantization scheme of the current frame using the prediction error obtained by the prediction error calculator 710. In this case, the encoding mode determined by the encoding mode determiner 110 of FIG. 1 may be further considered. According to an embodiment, the quantization scheme selector 730 may operate in the VC mode black or GC mode. FIG. 8 is a flowchart for explaining the operation of the selection unit in FIG. When the prediction mode has a value of 0, it means that the safety-net scheme is always used. When the prediction mode has a non-zero value, it is determined to switch the safety-net scheme and the prediction scheme to determine the quantization scheme. it means. An example of an encoding mode that always uses a safety-net scheme is UC mode black or TC mode. On the other hand, an example of an encoding mode for switching between a safety-net scheme and a prediction scheme may be VC mode or GC mode.
도 8을 참조하면, 810 단계에서는 현재 프레임의 예측 모드 (prediction mode)가 0인지를 판단한다. 810 단계에서의 판단결과, 예측 모드가 0인 경우, 예 를 들면 UC 모드 흑은 TC 모드와 같이 현재 프레임이 변동성이 큰 경우에는 프레임 간 예측이 어렵기 때문에, 항상 세이프티-넷 스킴 즉, 제 양자화모들 (630)을 선택 할 수 있다 (850 단계). Referring to FIG. 8, in step 810, it is determined whether a prediction mode of a current frame is zero. As a result of the determination in step 810, when the prediction mode is 0, for example, UC mode black is difficult to predict between frames when the current frame is highly volatile, such as TC mode, it is always a safety-net scheme, that is, quantization. Mode 630 may be selected (step 850).
한편, 810 단계에서의 판단결과, 예측 모드가 0이 아닌 경우 예측에러를 고 려하여 세이프티 넷 스킴과 예측 스킴 중 하나를 양자화 스킴으로 결정할 수 있다. 이를 위하여 , 830 단계에서는 예측에러가 소정의 임계치보다 큰지를 판단한다. 여 기서, 임계치는 사전에 실험적으로 흑은 시뮬레이션을 통해 최적의 값으로 정해질 수 있다. 일례를 들면, 차수가 16인 WB의 경우 임계치의 예로 3, 784, 536.3을 설정 할 수 있다. 한편, 예측 스팀을 연속하여 선택하지 않도록 제한을 가할 수 있다.  Meanwhile, as a result of the determination in step 810, when the prediction mode is not 0, one of the safety net scheme and the prediction scheme may be determined as the quantization scheme in consideration of the prediction error. To this end, in step 830, it is determined whether the prediction error is greater than a predetermined threshold. Here, the threshold value can be determined optimally through experimentally black simulation in advance. For example, in the case of WB of order 16, 3, 784, and 536.3 may be set as examples of threshold values. On the other hand, a restriction may be added so as not to select the predicted steam continuously.
830 단계에서의 판단결과, 예측에러가 임계치보다 크거나 같은 경우 세이프 티 넷 스킴을 선택할 수 있다 (850 단계). 한편, 830 단계에서의 판단결과, 예측에 러가 임계치보다 작은 경우 예측 스킴을 선택할 수 있다 (870 단계).  As a result of the determination in step 830, if the prediction error is greater than or equal to the threshold, the safety tea net scheme may be selected (step 850). As a result of the determination in step 830, when the prediction error is smaller than the threshold, the prediction scheme may be selected (step 870).
도 9A 내지 도 9D는 도 6에 도시된 제 1 양자화모들의 다양한 구현예를 나타 낸 블록도이다. 실시예에 따르면 , 제 1 양자화모들의 입력으로 16 차수의 LSF 백터 가사용되는 것으로 한다.  9A to 9D are block diagrams illustrating various embodiments of the first quantization hairs illustrated in FIG. 6. According to the embodiment, it is assumed that the LSF vector of the 16th order is used as the input of the first quantization hairs.
도 9A에 도시된 제 1 양자화모들 (900)은 전체 입력 백터의 개략을 TCQ(trellis coded quantizer)를 이용하여 양자화하는 제 1 양자화부 (911)와 양자화 에러신호를 추가적으로 양자화하는 제 2 양자화부 (913)을 포함할 수 있다. 제 1 양 자화부 (911)는 TCQ, TCVQ(trellis coded vector quantizer), BC-TCQ(b lock- cons trained trellis coded quantizer), 또는 BOTCVQ 등과 같이 트렐리스 구조를 사용하는 양자화기로 구현될 수 있다. 제 2 양자화부 (913)는 백터 양자화기 흑은 스칼라 양자화기로 구현될 수 있으나, 이에 한정되는 것은 아니다. 메모리 크기를 최소화하면서 성능향상을 위하여 SVQ(split vector quantizer)를 사용하거나, 성능 향상을 위하여 MSVQ(mul t i-stage vector quant i zer )를 사용할 수도 있다. 제 2 양 자화부 (913)를 SVQ 흑은 MSVQ로 구현할 경우, 복잡도에 대한 여유가 있으면 2개 이 상의 후보를 저장하고, 최적 코드북 인덱스 탐색을 수행하는 연판정 (soft deci s ion) 기술을 사용할 수도 있다. The first quantization modules 900 shown in FIG. 9A include a first quantizer 911 for quantizing an outline of an entire input vector using a trellis coded quantizer (TCQ) and a second quantizer for further quantizing a quantization error signal. 913 may include. The first quantization unit 911 may be implemented as a quantizer using a trellis structure such as TCQ, trellis coded vector quantizer (TCVQ), b lock-cons trained trellis coded quantizer (BC-TCQ), or BOTCVQ. . The second quantizer 913 may be implemented as a vector quantizer black or a scalar quantizer, but is not limited thereto. Use a split vector quantizer (SVQ) to improve performance while minimizing memory size, or It is also possible to use a mul t i-stage vector quant i zer (MSVQ) for improvement. If the second quantization unit 913 is implemented as SVQ or MSVQ, it may use soft decision technology to store two or more candidates and perform an optimal codebook index search if there is room for complexity. It may be.
저 U 양자화부 (911) 및 제 2 양자화부 (913)의 동작은 다음과 같다.  The operations of the low U quantization unit 911 and the second quantization unit 913 are as follows.
먼저, 양자화되지 않은 LSF 계수에서 사전에 정의된 평균값을 제거하여 z(n) 신호를 얻을 수 있다. 제 1 양자화부 (911)에서는 z(n) 신호의 전체 백터에 대하여 양자화 및 역양자화를 수행할 수 있다. 여기서 사용되는 양자화기의 예로는 BC- TCQ 흑은 BC-TCVQ를 들 수 있다. 양자화 에러신호를 구하기 위해서 z(n) 신호와 역양자화된 신호와의 차이값을 이용하여 r (n) 신호를 얻을 수 있다. r (n) 신호는 제 2 양자화부 (913)의 입력으로 제공될 수 있다. 제 2 양자화부 (913)는 SVQ 또는 MSVQ 등으로 구현할 수 있다. 제 2 양자화부 (913)에서 양자화된 신호는 역양자화를 거친 후에 제 1 양자화부 (911)에서 역양자화된 결과와 더해진 후 양자화된 z(n) 값 이 되며 여기에 평균값을 더해주면 양자화된 LSF 값을 구할 수 있다.  First, a z (n) signal can be obtained by removing a predefined mean value from unquantized LSF coefficients. The first quantization unit 911 may perform quantization and inverse quantization on all vectors of the z (n) signal. An example of a quantizer used here is BC-TCQ black or BC-TCVQ. In order to obtain a quantization error signal, the r (n) signal can be obtained using the difference value between the z (n) signal and the dequantized signal. The r (n) signal may be provided to the input of the second quantization unit 913. The second quantization unit 913 may be implemented by SVQ or MSVQ. The quantized signal in the second quantizer 913 is dequantized and then added to the dequantized result in the first quantizer 911 to be a quantized z (n) value. You can get the value.
도 9B에 도시된 제 1 양자화모들 (900)은 제 1 양자화부 (931)와 제 2 양자화부 (933)에 프레임내 예측기 (932)를 더 포함할 수 있다. 제 1 양자화부 (931)와 제 2 양 자화부 (933)는 도 9A의 제 1 양자화부 (911)와 제 2 양자화부 (913)에 대웅될 수 있다. LSF 계수는 매 프레임마다 부호화가 이루어지므로 프레임내에서 10차 흑은 16차의 LSF 계수를 이용하여 예측을 수행할 수 있다. 도 9B에 따르면, z(n) 신호는 저 U 양자화부 (931)와 프레임내 예측기 (932)를 통하여 양자화될 수 있다. 프레임내 예 측을 위하여 사용되는 과거신호는 TCQ를 통하여 양자화된 이전 스테이지의 t (n) 값 을 사용한다. 프레임내 예측에서 사용되는 예측계수는 사전에 코드북 훈련 과정을 통해 미리 정의될 수 있다. TCQ에서는 통상 1차가 사용되며 경우에 따라서 더 높 은 차수 흑은 차원을 사용할 수도 있다. TCVQ에서는 백터이므로 예측계수가 백터의 차원 크기에 해당하는 2차원 매트릭스 형태가 될 수 있다. 여기서 차원은 2이상의 자연수가 될 수 있다. 예를 들어 VQ의 차원이 2인 경우에는 2X2 크기의 매트릭스 를 이용한 예측계수를 미리 구할 필요가 있다. 실시예에 따르면, TCVQ가 2차원을 이용하고 있으며 프레임내 예측기 (932)는 2X2의 크기를 갖는다.  The first quantization modules 900 illustrated in FIG. 9B may further include an in-frame predictor 932 in the first quantizer 931 and the second quantizer 933. The first quantization unit 931 and the second quantization unit 933 may be applied to the first quantization unit 911 and the second quantization unit 913 of FIG. 9A. Since the LSF coefficients are encoded every frame, prediction may be performed using LSF coefficients of the 10th order black or the 16th order within the frame. According to FIG. 9B, the z (n) signal may be quantized through the low U quantizer 931 and the in-frame predictor 932. The past signal used for in-frame prediction uses the t (n) value of the previous stage quantized through TCQ. Prediction coefficients used in the intra-frame prediction may be predefined through a codebook training process. In TCQ, first order is usually used, and in some cases higher order black dimensions may be used. In TCVQ, since the vector is a vector, the prediction coefficient may be in the form of a two-dimensional matrix corresponding to the size of the vector. The dimension can be two or more natural numbers. For example, if the dimension of the VQ is 2, it is necessary to obtain a prediction coefficient using a matrix of 2 × 2 size in advance. According to an embodiment, TCVQ uses two dimensions and the intra-frame predictor 932 has a size of 2 × 2.
TCQ의 프레임내 예측 과정은 다음과 같다. 제 1 양자화부 (931) 즉, 제 1 TCQ 의 입력신호인 tj (n)은 하기 수학식 13과 같이 구할 수 있다. 【수학식 13] The intraframe prediction process of TCQ is as follows. The first quantization unit 931, that is, tj (n) which is an input signal of the first TCQ may be obtained as in Equation 13 below. [Equation 13]
t/(n) = , .(«)― P ,Jn), j = \,..., M-\  t / (n) =,. («)-P, Jn), j = \, ..., M- \
r (w) = t (") + P r 2 (ri), j ^ 2,...,M 한편 , 2차원을 사용하는 TCVQ의 프레임내 예측 과정은 다음과 같다. 제 1 양 자화부 (931) 즉, 제 1 TCQ의 입력신호인 tj (n)은 하기 수학식 14와 같이 구할 수 있 다. r (w) = t (") + P r 2 (ri), j ^ 2, ..., M Meanwhile, the intra-frame prediction process of TCVQ using two dimensions is as follows. 931) That is, tj (n), which is an input signal of the first TCQ, can be obtained as shown in Equation 14 below.
【수학식 14]  [Equation 14]
tj («) = ry («) - A («), = 1, ..., ,W 2 - 1t j («) = r y («)-A («), = 1, ...,, W 2-1
Figure imgf000023_0001
Figure imgf000023_0001
여기서, M은 LSF 계수의 차수를 나타내며 협대역인 경우 10 , 광대역인 경우 16을 사용하고, ^는 1차원의 예측계수, 는 2X2의 예측계수를 나타낸다. 저 U 양자화부 (931)은 예측 에러백터 t (n)을 양자화할 수 있다. 실시예에 따 르면 제 1 양자화부 (931)는 TCQ를 사용하여 구현될 수 있고, 구체적으로는 BC-TCQ , BC-TCVQ , TCQ , TCVQ를 들 수 있다. 제 1 양자화부 (931)와 함께 사용된 프레임내 예 측기 (932)는 입력백터의 각 엘리먼트 단위 또는 서브 백터 단위로 양자화 과정과 예측 과정을 반복할 수 있다. 제 2 양자화부 (933)의 동작은 도 9A의 제 2 양자화부 (913)와 동일하다.  Here, M denotes the order of the LSF coefficients, 10 is used for narrowband, 16 is used for wideband, ^ denotes a predictive coefficient of one dimension, and denotes a predictive coefficient of 2 × 2. The low U quantization unit 931 can quantize the prediction error vector t (n). According to an embodiment, the first quantization unit 931 may be implemented using TCQ, and specifically, BC-TCQ, BC-TCVQ, TCQ, and TCVQ may be mentioned. The in-frame predictor 932 used with the first quantizer 931 may repeat the quantization process and the prediction process in units of elements or subvectors of the input vector. The operation of the second quantization unit 933 is the same as that of the second quantization unit 913 of FIG. 9A.
도 9C는 도 9A의 구조에서 코드북 공유를 위한 제 1 양자화모들 (900)을 나타 낸다. 제 1 양자화모들 (900)은 제 1 양자화부 (951)와 제 2 양자화부 (953)을 포함할 수 있다. 음성八 디오 부호화기에서 멀티레이트 부호화를 지원하는 경우 동일한 LSF 입력 백터를 다양한 비트로 양자화하는 기술을 필요로 한다. 이 경우 사용하는 양 자화기의 코드북 메모리를 최소화하면서 효율적인 성능을 갖기 위해서 하나의 구조 로 두가지 비트수 할당이 가능하도록 구현할 수 있다. 여기서, fH(n)은 고레이트 출력을 의미하며, fL(n)은 로우 레이트 출력을 의미한다. 이 중에서 BC-TCQ I BC- TCVQ 만을 이용한 경우 여기에 사용되는 비트수만으로 로우 레이트를 위한 양자화 를 수행할 수 있다. 여기에 더해서 좀 더 정밀한 양자화가 필요한 경우에는 저 U 양자화부 (951)의 에러 신호를 추가적인 제 2 양자화부 (953)를 이용하여 양자화할 수 있다.  9C shows first quantization modules 900 for codebook sharing in the structure of FIG. 9A. The first quantization hairs 900 may include a first quantization unit 951 and a second quantization unit 953. If the voice audio coder supports multirate coding, a technique for quantizing the same LSF input vector into various bits is required. In this case, in order to minimize the codebook memory of the quantizer used and to have efficient performance, two bits can be allocated in one structure. Here, fH (n) means high rate output and fL (n) means low rate output. If only BC-TCQ I BC-TCVQ is used, quantization for low rate can be performed using only the number of bits used here. In addition, when more precise quantization is required, the error signal of the low U quantization unit 951 may be quantized using the additional second quantization unit 953.
도 9D는 도 9C의 구조에서 프레임내 예측기 (972)를 더 포함한 것이다. 저 U 양자화모들 (900)은 제 1 양자화부 (971)와 제 2 양자화부 (973)에 프레임내 예측기 (972)를 더 포함할 수 있다. 제 1 양자화부 (971)와 제 2 양자화부 (973)는 도 9C의 제 1 양자화부 (951)와 제 2 양자화부 (953)에 대웅될 수 있다. 도 10A 내지 도 10D는 도 6에 도시된 제 2 양자화모들의 다양한 구현예를 나 타낸 블록도이다. 9D further includes an in-frame predictor 972 in the structure of FIG. 9C. The low U quantization modules 900 may further include an in-frame predictor 972 in the first quantizer 971 and the second quantizer 973. The first quantization unit 971 and the second quantization unit 973 may be applied to the first quantization unit 951 and the second quantization unit 953 of FIG. 9C. 10A to 10D are block diagrams illustrating various embodiments of the second quantization hairs illustrated in FIG. 6.
도 10A에 도시된 제 2 양자화모들 ( 1000)은 도 9B의 구조에 프레임간 예측기 ( 1014)를 더 추가한 것이다. 도 10A에 도시된 제 2 양자화모들 ( 1000)은 제 1 양자화 부 ( 1011)와 제 2 양자화부 ( 1013)에 프레임간 예측기 ( 1014)를 더 포함할 수 있다. 프레임간 예측기 ( 1014)는 이전 프레임에서 양자화된 LSF 계수를 이용하여 현재 프 레임을 예측하는 기술이다. 프레임간 예측과정은 이전 프레임의 양자화된 값을 이 용하여 현재 프레임에서 빼주고 양자화가 끝나면 그 기여분을 다시 더해주는 방식 이다ᅳ 이때 예측 계수는 각 엘리먼트 별로 구해진다.  The second quantization modules 1000 shown in FIG. 10A further add an interframe predictor 1014 to the structure of FIG. 9B. The second quantization modules 1000 illustrated in FIG. 10A may further include an interframe predictor 1014 in the first quantization unit 1011 and the second quantization unit 1013. The interframe predictor 1014 is a technique for predicting the current frame using the LSF coefficients quantized in the previous frame. The interframe prediction process is a method of subtracting from the current frame using the quantized value of the previous frame and adding the contributions again after the quantization is completed. At this time, the prediction coefficient is obtained for each element.
도 10B에 도시된 제 2 양자화모들 ( 1000)은 도 10A의 구조에 프레임내 예측기 ( 1032)를 더 추가한 것이다. 도 10B에 도시된 제 2 양자화모들 ( 1000)은 제 1 양자화 부 ( 1031) , 제 2 양자화부 ( 1033) , 프레임간 예측기 ( 1034)에 프레임내 예측기 ( 1032)를 더 포함할 수 있다.  The second quantization symbols 1000 shown in FIG. 10B further add an intra-frame predictor 1032 to the structure of FIG. 10A. 10B may further include an in-frame predictor 1032 in the first quantization unit 1031, the second quantization unit 1033, and the inter-frame predictor 1034.
도 10C는 도 10B의 구조에서 코드북 공유를 위한 제 2 양자화모들 ( 1000)을 나 타낸다. 즉, 도 10B의 구조에서 BC-TCQ/BC-TCVQ의 코드북을 로우 레이트와 하이 레이트에서 공유하는 구조를 나타낸다. 도 10B에서 위쪽은 제 2 양자화부 (미도시) 를 사용하지 않는 로우 레이트에 대한 출력을 의미하며 , 아래쪽은 제 2 양자화부 ( 1063)를 사용하는 하이 레이트에 대한 출력을 의미한다.  FIG. 10C shows second quantization modules 1000 for codebook sharing in the structure of FIG. 10B. That is, in the structure of FIG. 10B, a codebook of BC-TCQ / BC-TCVQ is shared at a low rate and a high rate. In FIG. 10B, the upper portion represents an output for a low rate without using the second quantizer (not shown), and the lower portion represents an output for a high rate using the second quantizer 1063.
도 10D는 도 10C의 구조에서 프레임내 예측기를 제외시켜 제 2 양자화모들 ( 1000)을 구현한 예를 나타낸다.  FIG. 10D illustrates an example of implementing the second quantization hairs 1000 by excluding an intra-frame predictor from the structure of FIG. 10C.
도 11A 내지 도 11F는 BC-TCVQ에 가중치를 적용하는 양자화기 ( 1100)의 다양 한 구현예를 나타낸 블록도이다.  11A-11F are block diagrams illustrating various implementations of a quantizer 1100 that weights BC-TCVQ.
도 11A는 기본적인 BC-TCVQ 양자화기를 나타낸 것으로서 , 가중함수 산출부 ( 1111)와 BC-TCVQ 부 ( 1112)를 포함할 수 있다. BOTCVQ에서 최적 인덱스를 구할 때 가중된 왜곡을 최소화하는 인덱스를 구하게 된다. 도 11B는 도 11A에서 프레임 내 예측기 ( 1123)를 추가한 구조를 나타낸다. 여기서 사용되는 프레임내 예측은 AR 방식을 이용할 수도 있고, MA 방식을 이용할 수도 있다. 실시예에 따르면, AR 방 식을 이용하며, 사용되는 예측 계수는 미리 정의될 수 있다.  11A shows a basic BC-TCVQ quantizer, which may include a weighting function calculator 1111 and a BC-TCVQ unit 1112. When the optimal index is obtained from BOTCVQ, an index that minimizes the weighted distortion is obtained. FIG. 11B shows a structure in which an intra-frame predictor 1123 is added in FIG. 11A. Intra-frame prediction used here may use the AR method or the MA method. According to an embodiment, the AR method is used, and a prediction coefficient used may be predefined.
도 11C는 도 11B에서 추가적인 성능향상을 위해서 프레임간 예측기 (1134)를 추가한 구조를 나타낸다. 도 11C는 예측 스킴에서 사용되는 양자화기의 예를 나타 낸다. 여기서 사용되는 프레임간 예측은 AR 방식을 이용할 수도 있고, MA 방식을 이용할 수도 있다. 실시예에 따르면, AR 방식을 이용하며, 사용되는 예측 계수는 미리 정의될 수 있다. 양자화 과정은 살펴보면, 먼저 프레임간 예측을 이용하여 예측된 예측 에러값은 프레임내 예측을 이용하는 BC-TCVQ를 이용하여 양자화할 수 있다. 양자화 인덱스값은 복호화기로 전송된다. 복호화 과정을 살펴보면, 양자화 된 BC-TCVQ의 결과에 프레임내 예측값을 더하여 양자화된 r(n)값을 구한다. 여기 에 프레임간 예측기 (1134)의 예측값을 더해준 후에 평균값을 더해주면 최종 양자화 된 LSF 값이 결정된다. FIG. 11C illustrates a structure in which the interframe predictor 1134 is added to further improve performance in FIG. 11B. 11C shows an example of a quantizer used in the prediction scheme. The interframe prediction used herein may use an AR scheme or an MA scheme. According to an embodiment, the AR scheme is used, and the prediction coefficient used is Can be predefined. Referring to the quantization process, first, a prediction error value predicted using interframe prediction may be quantized using BC-TCVQ using intraframe prediction. The quantization index value is sent to the decoder. Looking at the decoding process, the quantized r (n) value is obtained by adding the intra-frame prediction value to the result of the quantized BC-TCVQ. The final quantized LSF value is determined by adding the average value after adding the prediction value of the interframe predictor 1134.
도 11D는 도 11C에서 프레임내 예측기를 제외한 구조를 나타낸다. 도 11E는 제 2 양자화부 (1153)가 추가된 경우에 가중치를 어떻게 적용하는지에 대한 구조를 나타낸다. 가중함수 산출부 (1151)에서 구해진 가중함수는 제 1 양자화부 (1152)와 제 2 양자화부 (1153) 모두에서 사용되며, 최적 인덱스는 가중된 왜곡을 이용하여 구 한다. 제 1 양자화부 (1151)는 BC-TCQ, BC-TCVQ, TCQ, 또는 TCVQ로 구현될 수 있 다. 제 2 양자화부 (1153)는 SQ, VQ, SVQ, 또는 MSVQ 로 구현될 수 있다. 도 11F는 도 11E에서 프레임내 예측기가 제외된 구조를 나타낸다.  FIG. 11D shows a structure excluding the intra-frame predictor in FIG. 11C. 11E shows a structure of how weights are applied when the second quantization unit 1153 is added. The weighting function obtained by the weighting function calculator 1151 is used by both the first quantization unit 1152 and the second quantization unit 1153, and an optimal index is obtained by using the weighted distortion. The first quantization unit 1151 may be implemented with BC-TCQ, BC-TCVQ, TCQ, or TCVQ. The second quantization unit 1153 may be implemented with SQ, VQ, SVQ, or MSVQ. FIG. 11F illustrates a structure in which the intra-frame predictor is excluded in FIG. 11E.
도 11A 내지 도 11F에서 언급된 다양한 구조의 양자화기 형태를 조합하여 스 위칭 구조의 양자화기를 구현할 수 있다.  The quantizer of the switching structure can be implemented by combining the quantizer forms of the various structures mentioned in FIGS. 11A through 11F.
도 12는 일실시예에 따라 로우 레이트에서 오픈 루프 방식의 스위칭 구조를 갖는 양자화장치의 구성을 나타내는 블럭도이다. 도 12에 도시된 양자화장치 (1200)는 선택부 (1210), 제 1 양자화모들 (1230)과 제 2 양자화모들 (1250)를 포함할 수 있다.  12 is a block diagram illustrating a configuration of a quantization apparatus having an open loop switching structure at a low rate according to an embodiment. The quantization apparatus 1200 illustrated in FIG. 12 may include a selector 1210, first quantization hairs 1230, and second quantization hairs 1250.
선택부 (1210)는 예측에러에 근거하여, 세이프티-넷 스킴 흑은 예측 스킴 중 에 하나를 양자화 스킴으로 선택할 수 있다.  The selector 1210 may select one of the safety-net scheme or the prediction scheme as a quantization scheme based on the prediction error.
저 U 양자화모들 (1230)은 세이프티-넷 스킴이 선택된 경우, 프레임간 예측을 사용하지 않으면서 양자화를 수행하는 것으로서 , 제 1 양자화부 (1231)와 제 1 프레임 내 예측기 (1232)를 포함할 수 있다. 구체적으로, LSF 백터는 제 1 양자화부 (1231) 와 제 1 프레임내 예측기 (1232)에 의해 30비트로 양자화될 수 있다 .  The low U quantization modules 1230 are quantized without using inter-frame prediction when the safety-net scheme is selected, and may include a first quantizer 1231 and a first in-frame predictor 1232. Can be. Specifically, the LSF vector may be quantized to 30 bits by the first quantizer 1231 and the first intra-frame predictor 1232.
저 12 양자화모들 (1250)은 예측 스킴이 선택된 경우, 프레임간 예측을 사용하 여 양자화를 수행하는 것으로서, 제 2 양자화부 (1251), 제 2 프레임내 예측기 (1252) 와 프레임간 예측기 (1253)를 포함할 수 있다. 구체적으로 , 평균값이 제거된 LSF 백터와 예측백터간의 차에 해당하는 예측 에러는 제 2 양자화부 (1251)와 제 2 프레임 내 예측기 (1252)에 의해 30비트로 양자화될 수 있다 .  The lower 12 quantization modules 1250 perform quantization using inter-frame prediction when the prediction scheme is selected, and includes the second quantizer 1251, the second intra-frame predictor 1252, and the inter-frame predictor 1253. ) May be included. Specifically, the prediction error corresponding to the difference between the LSF vector and the prediction vector from which the average value has been removed may be quantized to 30 bits by the second quantizer 1251 and the second intra frame predictor 1252.
도 12에 도시된 양자화장치는 VC 모드인 경우 31비트를 사용하는 LSF 계수 양자화의 예를 나타낸다. 도 12의 양자화장치에 있어서 제 1 및 제 2 양자화부 (1231 , 1251)는 도 13의 양자화장치에 있어서 제 1 및 제 2 양자화부 (1331 , 1351)와 코드북을 공유할 수 있다. 동작을 살펴보면, 입력된 LSF값 f (n)에서 평균값을 제 거하여 z(n) 신호를 얻을 수 있다. 선택부 (1210)에서는 이전 프레임에서 복호화된 z(n) 값을 이용하여 프레임간 예측한 p(n) 값과 z(n) 값, 가중함수, 예측 모드 (pred_mode)를 이용하여 최적 양자화 스킴을 선택 흑은 결정할 수 있다. 선택 흑 은 결정된 결과에 따라 세이프티-넷 스킴 흑은 예측 스킴 중 하나를 이용하여 양자 화를 수행할 수 있다. 선택 흑은 결정된 양자화 스킴은 1비트로 부호화될 수 있 다. The quantizer shown in FIG. 12 shows an example of LSF coefficient quantization using 31 bits in the VC mode. First and second quantization units in the quantization device of FIG. 1231 and 1251 may share a codebook with the first and second quantization units 1331 and 1351 in the quantization apparatus of FIG. 13. Looking at the operation, it is possible to obtain a z (n) signal by removing the average value from the input LSF value f (n). The selector 1210 performs an optimal quantization scheme using p (n) and z (n) values, a weighting function, and a prediction mode (pred_mode) predicted interframe using z (n) values decoded in a previous frame. The choice black can be determined. According to the result of the selection test, the safety-net scheme black may perform quantization using one of the prediction schemes. The selected black or the determined quantization scheme may be encoded with 1 bit.
선택부 (1210)에서 세이프티-넷 스킴으로 선택되면, 평균값이 제거된 LSF 계 수인 z(n)의 전체 입력 백터는 제 1 프레임내 예측기 (1232)를 통하여 30비트를 사용 하는 제 1 양자화부 (1231)를 이용하여 양자화가 이루어질 수 있다. 한편, 선택부 (1210)에서 예측 스킴으로 선택되면, 평균값이 제거된 LSF 계수인 z(n)은 프레임간 예측기 (1253)를 이용한 예측 에러신호를 제 2 프레임내 예측기 (1252)를 통하여 30비 트를 사용하는 제 2 양자화부 (1251)를 이용하여 양자화가 이루어질 수 있다. 제 1 , 제 2 양자화부 (1231 , 1251)의 예로는 TCQ, TCVQ의 형태를 갖는 양자화기가 가능하 다. 구체적으로 BC-TCQ 또는 BC-TCVQ 등이 가능하다. 이 경우 양자화기는 총 31 비트를 이용하게 된다. 양자화된 결과는 로우 레이트의 양자화기 출력으로 사용되 며 , 양자화기의 주요 출력은 양자화된 LSF 백터와 양자화 인덱스이다.  When the selector 1210 is selected as the safety-net scheme, the entire input vector of z (n), which is the LSF coefficient whose average value is removed, is obtained by using the first quantizer (30 bits) through the first intra-frame predictor 1232. Quantization may be performed using 1231. On the other hand, when the selection unit 1210 is selected as the prediction scheme, z (n), which is the LSF coefficient from which the average value is removed, is 30 ratio through the second intra-frame predictor 1252 to predict the error signal using the inter-frame predictor 1253. Quantization may be performed by using the second quantization unit 1251 using a tessellator. Examples of the first and second quantization units 1231 and 1251 may be quantizers in the form of TCQ and TCVQ. Specifically, BC-TCQ or BC-TCVQ is possible. In this case, the quantizer uses a total of 31 bits. The quantized result is used as the low rate quantizer output, and the main output of the quantizer is the quantized LSF vector and quantization index.
도 13은 일실시예에 따라 하이 레이트에서 오픈 루프 방식의 스위칭 구조를 갖는 양자화장치의 구성을 나타내는 블럭도이다. 도 13에 도시된 양자화장치 (1300)는 선택부 (1310) , 제 1 양자화모들 (1330)과 제 2 양자화모들 (1350)를 포함할 수 있다. 도 12와 비교할 때, 제 1 양자화모들 (1330)에 제 3 양자화부 (1333)가 추가 되고, 제 2 양자화모들 (1350)에 제 4 양자화부 (1353)가 추가된 차이점이 있다. 도 12 및 도 13에 있어서, 제 1 양자화부 (1231 , 1331)과 제 2 양자화부 (1251 , 1351)은 각 각 동일한 코드북을 사용할 수 있다. 즉, 도 12의 31 비트 LSF 양자화장치 (1200) 와 도 13의 41 비트 LSF 양자화장치 (1300)는 BOTCVQ에 대하여 동일한 코드북을 사 용할 수 있다. 이에 따르면 최적 코드북이라고 할 수는 없지만 메모리 크기를 대 폭 절감할 수 있다.  FIG. 13 is a block diagram illustrating a configuration of a quantization apparatus having an open loop switching structure at a high rate according to an embodiment. The quantization apparatus 1300 illustrated in FIG. 13 may include a selector 1310, first quantization hairs 1330, and second quantization hairs 1350. Compared to FIG. 12, a third quantization unit 1333 is added to the first quantization hairs 1330, and a fourth quantization unit 1353 is added to the second quantization hairs 1350. 12 and 13, the first quantization units 1231 and 1331 and the second quantization units 1251 and 1351 may use the same codebook, respectively. That is, the 31-bit LSF quantizer 1200 of FIG. 12 and the 41-bit LSF quantizer 1300 of FIG. 13 may use the same codebook for BOTCVQ. This is not an optimal codebook, but it can significantly reduce memory size.
선택부 (1310)는 예측에러에 근거하여, 세이프티-넷 스킴 흑은 예측 스킴 중 에 하나를 양자화 스킴으로 선택할 수 있다.  The selector 1310 may select one of the safety-net scheme or the prediction scheme as a quantization scheme based on the prediction error.
저 U 양자화모들 (1330)은 세이프티-넷 스킴이 선택된 경우, 프레임간 예측을 사용하지 않으면서 양자화를 수행하는 것으로서, 제 1 양자화부 (1331) , 제 1 프레임 내 예측기 (1332)와 제 3 양자화부 (1333)를 포함할 수 있다. The low U quantization modules 1330 perform quantization without using inter-frame prediction when the safety-net scheme is selected, and thus, the first quantizer 1331 and the first frame. It may include an intra predictor 1332 and a third quantizer 1333.
저 12 양자화모들 (1350)은 예측 스킴이 선택된 경우, 프레임간 예측을 사용하 여 양자화를 수행하는 것으로서, 제 2 양자화부 (1351), 제 2 프레임내 예측기 (1352), 제 4 양자화부 (1353) 및 프레임간 예측기 (1354)를 포함할 수 있다 .  The lower 12 quantization modules 1350 perform quantization using inter-frame prediction when a prediction scheme is selected, and includes a second quantizer 1351, a second in-frame predictor 1352, and a fourth quantizer ( 1353 and interframe predictor 1354.
도 13에 도시된 양자화장치는 VC 모드인 경우 41 비트를 사용하는 LSF 계수 양자화의 예를 나타낸다. 도 13의 양자화장치 (1300)에 있어서 제 1 및 제 2 양자화 부 (1331, 1351)는 도 12의 양자화장치 (1200)에 있어서 제 1 및 제 2 양자화부 (1231, 1251)와 각각 코드북을 공유할 수 있다. 동작을 살펴보면, 입력된 LSF 값 f(n)에 서 평균값을 제거하면 z(n)신호가 된다. 선택부 (1310)에서는 이전 프레임에서 복 호화된 z(n) 값을 이용하여 프레임간 예측한 p(n)값과 z(n)값, 가중함수, 예측모드 (pred_mode)를 이용하여 최적 양자화 스킴을 결정할 수 있다. 선택 흑은 결정된 결과에 따라 세이프티-넷 스킴 흑은 예측 스킴 중 하나를 이용하여 양자화를 수행 할 수 있다. 선택 흑은 결정된 양자화 스킴은 1비트로 부호화될 수 있다.  The quantizer shown in FIG. 13 shows an example of LSF coefficient quantization using 41 bits in the VC mode. In the quantization apparatus 1300 of FIG. 13, the first and second quantization units 1331 and 1351 share a codebook with the first and second quantization units 1231 and 1251, respectively, in the quantization apparatus 1200 of FIG. 12. can do. In operation, if the average value is removed from the input LSF value f (n), it becomes a z (n) signal. The selector 1310 uses the p (n) and z (n) values, the weighting function, and the prediction mode (pred_mode) predicted interframe using the z (n) values encoded in the previous frame. Can be determined. The selection test may perform quantization using one of the safety-net scheme tests according to the determined result. The selected black or the determined quantization scheme may be encoded with 1 bit.
선택부 (1310)에서 세이프티-넷 스킴으로 선택되면, 평균값이 제거된 LSF 계 수인 z(n)의 전체 입력 백터는 제 1 프레임내 예측기 (1332)를 통하여 30비트를 사용 하는 제 1 양자화부 (1331)를 이용하여 양자화 및 역양자화가 이루어질 수 있다. 한 편 , 원신호와 역양자화된 결과의 차이를 나타내는 제 2 에러백터는 제 3 양자화부 (1333)의 입력으로 제공될 수 있다. 제 3 양자화부 (1333)에서는 제 2 에러백터를 10 비트를 사용하여 양자화할 수 있다. 제 3 양자화부 (1333)의 예로는 SQ, VQ, SVQ 또 는 MSVQ 등이 가능하다. 양자화 및 역양자화가 끝나면 다음 프레임을 위해 최종적 으로 양자화된 백터가 저장될 수 있다.  When the selector 1310 is selected as a safety-net scheme, the entire input vector of z (n), which is the LSF coefficient whose average value has been removed, is obtained by using the first quantizer (30 bits) through the first intraframe predictor 1332. Quantization and dequantization may be performed using 1331. On the other hand, a second error vector representing the difference between the original signal and the dequantized result may be provided as an input of the third quantizer 1333. The third quantizer 1333 may quantize the second error vector using 10 bits. Examples of the third quantization unit 1333 may be SQ, VQ, SVQ or MSVQ. After quantization and dequantization, the final quantized vector can be stored for the next frame.
한편, 선택부 (1310)에서 예측 스킴으로 선택되면, 평균값이 제거된 LSF 계수 인 z(n)로부터 프레임간 예측기 (1354)로부터의 p(n)을 감산하여 얻어진 예측 에러 신호를 30비트를 사용하여 제 2 양자화부 (1351)와 제 2 프레임내 예측기 (1352)에 의 해 양자화 흑은 역양자화될 수 있다. 제 1, 제 2 양자화부 (1331, 1231)의 예로는 TCQ, TCVQ의 형태를 갖는 양자화기가 가능하다. 구체적으로 BC-TCQ 또는 BOTCVQ 등이 가능하다. 한편, 원신호와 역양자화된 결과의 차이를 나타내는 제 2 에러백터 는 제 4 양자화부 (1353)의 입력으로 제공될 수 있다. 제 4 양자화부 (1353)에서는 제 2 에러백터를 10비트를 사용하여 양자화할 수 있다. 여기서 , 제 2 에러백터는 8X8 차원의 두개의 서브백터로 분할되어 제 4 양자화부 (1353)에서 양자화될 수 있다. 저대역이 고대역보다 인지적으로 중요하기 때문에, 첫번째 VQ와 두번째 VQ에 서로 다른 비트수를 할당하여 부호화할 수 있다. 제 4 양자화부 (1353)의 예로는 SQ, VQ, SVQ 또는 MSVQ 등이 가능하다. 양자화 및 역양자화가 끝나면 다음 프레임을 위해 최종적으로 양자화된 백터가 저장될 수 있다. On the other hand, when the selection unit 1310 is selected as the prediction scheme, 30 bits are used for the prediction error signal obtained by subtracting p (n) from the interframe predictor 1354 from z (n), which is the LSF coefficient from which the average value is removed. The quantization black can be inversely quantized by the second quantizer 1351 and the second intra-frame predictor 1352. Examples of the first and second quantization units 1331 and 1231 may be quantizers in the form of TCQ and TCVQ. Specifically, BC-TCQ or BOTCVQ and the like are possible. Meanwhile, the second error vector representing the difference between the original signal and the dequantized result may be provided as an input of the fourth quantizer 1353. The fourth quantization unit 1353 can quantize the second error vector using 10 bits. Here, the second error vector may be divided into two subvectors having an 8 × 8 dimension and quantized by the fourth quantization unit 1353. Since the low band is more cognitively important than the high band, it is possible to encode different number of bits in the first VQ and the second VQ. Examples of the fourth quantization unit 1353 include SQ, VQ, SVQ or MSVQ is possible. After quantization and dequantization, the quantized vector can be stored for the next frame.
이 경우 양자화기는 총 41비트를 이용하게 된다. 양자화된 결과는 하이 레 이트의 양자화기 출력으로 사용되며, 양자화기의 주요 출력은 양자화된 LSF 백터와 양자화 인덱스이다.  In this case, the quantizer uses 41 bits in total. The quantized result is used as the high rate quantizer output, and the main output of the quantizer is the quantized LSF vector and the quantization index.
결과적으로 도 12와 도 13을 동시에 사용하는 경우, 도 12의 제 1 양자화부 (1231)와 도 13의 제 1 양자화부 (1331)가 양자화 코드북을 공유하며 , 도 12의 제 2 양자화부 (1251)와 도 13의 제 2 양자화부 (1351)가 양자화 코드북을 공유하면, 전체 적으로 코드북 메모리를 대폭 절감할 수 있다. 한편, 추가적인 코드북 메모리 절 감을 위해 도 13의 제 3 양자화부 (1333)와 제 4 양자화부 (1353)의 양자화 코드북도 공유될 수 있다. 이 경우, 제 3 양자화부 (1333)의 입력 분포가 제 4 양자화부 (1353) 와 상이하기 때문에 , 입력 분포간 차이를 보상하기 위하여 스케일링 팩터가 사용될 수 있다. 스케일링 팩터는 제 3 양자화부 (1333)의 입력과 제 4 양자화부 (1353)의 입 력 분포를 고려하여 산출될 수 있다. 실시예에 따르면, 제 3 양자화부 (1333)의 입 력신호는 스케일링 팩터로 나누고, 그 결과 얻어지는 신호를 제 3 양자화부 (1333)에 서 양자화할 수 있다. 제 3 양자화부 (1333)에서 양자화된 신호는 제 3 양자화부 (1333)의 출력을 스케일링 팩터로 승산하여 얻을 수 있다. 이와 같이, 제 3 양자화 부 (1333) 흑은 제 4 양자화부 (1353)의 입력에 대하여 적절한 스케일링을 한 다음 양 자화를 하면 성능을 최대한 유지하면서 코드북을 공유할 수 있다.  As a result, when using FIG. 12 and FIG. 13 simultaneously, the first quantization unit 1231 of FIG. 12 and the first quantization unit 1331 of FIG. 13 share a quantization codebook, and the second quantization unit 1251 of FIG. ) And the second quantization unit 1351 of FIG. 13 share the quantization codebook, it is possible to greatly reduce the codebook memory as a whole. Meanwhile, the quantization codebooks of the third and fourth quantizers 1333 and 1353 of FIG. 13 may also be shared to further reduce codebook memory. In this case, since the input distribution of the third quantization unit 1333 is different from the fourth quantization unit 1353, a scaling factor may be used to compensate for the difference between the input distributions. The scaling factor may be calculated in consideration of the input of the third quantizer 1333 and the input distribution of the fourth quantizer 1353. According to the exemplary embodiment, the input signal of the third quantizer 1333 may be divided by a scaling factor, and the resulting signal may be quantized by the third quantizer 1333. The signal quantized by the third quantizer 1333 may be obtained by multiplying the output of the third quantizer 1333 by a scaling factor. As such, when the third quantization unit 1333 and the quantization are appropriately scaled with respect to the input of the fourth quantization unit 1353, the codebook can be shared while maintaining the maximum performance.
도 14는 다른 실시예에 따라 로우 레이트에서 오픈 루프 방식의 스위칭 구조 를 갖는 양자화장치의 구성을 나타내는 블럭도이다. 도 14의 양자화장치 (1400)에 있어서, 제 1 양자화모들 (1430)과 제 2 양자화모들 (1450)에서 사용중인 제 1 양자화부 (1431)와 제 2 양자화부 (1451)은 도 9C 및 도 9D의 로우 레이트 부분이 적용될 수 있다. 동작을 살펴보면, 가중함수 산출부 (1400)에서는 입력된 LSF값을 이용하여 가중함수 w(n)을 구할 수 있다. 구해진 가중함수 w(n)은 선택부 (1410) , 제 1 양자 화부 (1431) 및 제 2 양자화부 (1451)에서 사용될 수 있다. 한편, LSF값 f (n)에서 평 균값을 제거하여 z(n) 신호를 얻을 수 있다. 선택부 (1410)에서는 이전 프레임에서 복호화된 z(n)값을 이용하여 프레임간 예측한 p(n)값과 z(n)값, 가중함수, 예측모 드 (pred_mode)를 이용하여 최적 양자화 스킴을 결정할 수 있다. 선택 흑은 결정된 결과에 따라 세이프티-넷 스킴 흑은 예측 스킴 중 하나를 이용하여 양자화를 수행 할 수 있다. 선택 흑은 결정된 양자화 스킴은 1비트로 부호화될 수 있다.  14 is a block diagram illustrating a configuration of a quantization apparatus having an open loop switching structure at a low rate according to another exemplary embodiment. In the quantization apparatus 1400 of FIG. 14, the first quantization unit 1431 and the second quantization unit 1451 in use in the first quantization units 1430 and the second quantization units 1450 are illustrated in FIGS. The low rate portion of FIG. 9D may be applied. Referring to the operation, the weighting function calculator 1400 may obtain the weighting function w (n) using the input LSF value. The obtained weighting function w (n) can be used in the selector 1410, the first quantizer 1431, and the second quantizer 1451. Meanwhile, the z (n) signal can be obtained by removing the average value from the LSF value f (n). The selector 1410 uses the p (n) and z (n) values, the weighting function, and the prediction mode (pred_mode) predicted interframe using the z (n) values decoded in the previous frame. Can be determined. The selection test may perform quantization using one of the safety-net scheme tests according to the determined result. The selected black or the determined quantization scheme may be encoded with 1 bit.
선택부 (1410)에서 세이프티-넷 스킴으로 선택되면, 평균값이 제거된 LSF 계 수인 z(n)은 제 1양자화부 (1431)에서 양자화될 수 있다. 제 1 양자화부 (1431)는 도 9C 및 도 9D에서 설명한 것과 같이 높은 성능을 위해 프레임내 예측을 사용할 수도 있으며, 낮은 복잡도를 위해 제외하여 사용할 수도 있다. 프레임내 예측부를 사용 하는 경우에는 전체 입력 백터를 프레임내 예측을 통하여 TCQ 또는 TCVQ를 이용하 여 양자화하는 제 1 양자화부 (1431)로 제공할 수 있다. When selected as the safety-net scheme in selector 1410, the LSF system with the mean value removed The number z (n) may be quantized in the first quantization unit 1431. As described with reference to FIGS. 9C and 9D, the first quantization unit 1431 may use intra-frame prediction for high performance, or may exclude the low-complexity. In the case of using the intra-frame predictor, the entire input vector may be provided to the first quantizer 1431 which quantizes using TCQ or TCVQ through intra-frame prediction.
선택부 (1410)에서 예측 스킴으로 선택되면, 평균값이 제거된 LSF 계수인 z(n)은 프레임간 예측을 이용한 예측 에러신호를 프레임내 예측을 통하여 TCQ 또는 TCVQ를 이용하여 양자화하는 제 2 양자화부 (1451)로 제공할 수 있다. 제 1, 제 2 양 자화부 (1431, 1451)의 예로는 TCQ, TCVQ의 형태를 갖는 양자화기가 가능하다. 구 체적으로 BC-TCQ 또는 BC-TCVQ 등이 가능하다. 양자화된 결과는 로우 레이트의 양 자화기 출력으로 사용된다.  When the selection unit 1410 is selected as the prediction scheme, a second quantizer that quantizes the prediction error signal using the interframe prediction using TCQ or TCVQ through the intra-frame prediction, is an LSF coefficient whose average value is removed. 1145 may be provided. Examples of the first and second quantization units 1431 and 1451 may be quantizers in the form of TCQ and TCVQ. Specifically, BC-TCQ or BC-TCVQ is possible. The quantized result is used as the low rate quantizer output.
도 15는 다른 실시예에 따라 하이 레이트에서 오픈 루프 방식의 스위칭 구조 를 갖는 양자화장치의 구성을 나타내는 블럭도이다. 도 15에 도시된 양자화장치 (1500)는 선택부 (1510), 제 1 양자화모들 (1530)과 제 2 양자화모들 (1550)를 포함할 수 있다. 도 14와 비교할 때, 제 1 양자화모들 (1530)에 제 3 양자화부 (1532)가 추가 되고, 제 2 양자화모들 (1550)에 제 4 양자화부 (1552)가 추가된 차이점이 있다. 도 14 및 도 15에 있어서, 제 1 양자화부 (1431, 1531)과 제 2 양자화부 (1451, 1551)은 각 각 동일한 코드북을 사용할 수 있다. 이에 따르면 최적 코드북이라고 할 수는 없 지만 메모리 크기를 대폭 절감할 수 있다. 동작을 살펴보면, 선택부 (1510)에서 세 이프티-넷 스킴으로 선택되면, 제 1 양자화부 (1531)에서 제 1 양자화 및 역양자화를 수행하게 되고, 원신호와 역양자화된 결과의 차이를 의미하는 제 2 에러백터는 저 13 양자화부 (1532)의 입력으로 제공될 수 있다. 제 3 양자화부 (1532)에서는 제 2 에러 백터를 양자화할 수 있다. 제 3 양자화부 (1532)의 예로는 SQ, VQ, SVQ 또는 MSVQ 등이 가능하다. 양자화 및 역양자화가 끝나면 다음 프레임을 위해 최종적으로 양 자화된 백터가 저장될 수 있다.  15 is a block diagram illustrating a configuration of a quantization apparatus having an open loop switching structure at a high rate according to another exemplary embodiment. The quantization apparatus 1500 illustrated in FIG. 15 may include a selector 1510, first quantization hairs 1530, and second quantization hairs 1550. Compared to FIG. 14, a third quantization unit 1532 is added to the first quantization hairs 1530, and a fourth quantization unit 1552 is added to the second quantization hairs 1550. 14 and 15, the first quantizers 1431 and 1531 and the second quantizers 1451 and 1551 may use the same codebook, respectively. This is not an optimal codebook, but it can significantly reduce memory size. In operation, when the selection unit 1510 is selected as the safety-net scheme, the first quantization unit 1531 performs the first quantization and inverse quantization, and means a difference between the original signal and the dequantized result. The second error vector may be provided as an input of the low 13 quantization unit 1532. The third quantization unit 1532 may quantize the second error vector. Examples of the third quantization unit 1532 may be SQ, VQ, SVQ, or MSVQ. After quantization and dequantization, the final quantized vector can be stored for the next frame.
한편, 선택부 (1510)에서 예측 스킴으로 선택되면, 제 2 양자화부 (1551)에서는 양자화 및 역양자화를 수행하게 되고, 원신호와 역양자화된 결과의 차이를 의미하 는 제 2 에러백터는 제 4 양자화부 (1552)의 입력으로 제공될 수 있다. 제 4 양자화부 (1552)에서는 제 2 에러백터를 양자화할 수 있다. 제 4 양자화부 (1552)의 예로는 SQ, VQ, SVQ 또는 MSVQ 등이 가능하다. 양자화 및 역양자화가 끝나면 다음 프레임 을 위해 최종적으로 양자화된 백터가 저장될 수 있다.  On the other hand, when the selection unit 1510 is selected as the prediction scheme, the second quantization unit 1551 performs quantization and inverse quantization, and a second error vector representing a difference between the original signal and the inverse quantized result is generated. 4 may be provided as an input of the quantization unit 1552. The fourth quantization unit 1552 can quantize the second error vector. An example of the fourth quantization unit 1552 may be SQ, VQ, SVQ, or MSVQ. After quantization and dequantization, the final quantized vector can be stored for the next frame.
도 16은 다른 실시예에 따른 LPC 계수 양자화부의 구성을 나타낸 블록도이 다. 16 is a block diagram showing a configuration of an LPC coefficient quantization unit according to another embodiment. All.
도 16에 도시된 LPC 계수 양자화부 (1600)는 선택부 (1610) , 제 1 양자화모들 (1630) , 제 2 양자화모들 (1650) 및 가중함수 산출부 (1670)를 포함할 수 있다. 도 6에 도시된 LPC 계수 양자화부 (600)와 비교할 때 가중함수 산출부 (1670)를 더 포함 하는 차이점이 있다. 도 16과 관련된 세부적 구현예는 도 11A 내지 도 11F에 도시 되어 있다.  The LPC coefficient quantization unit 1600 illustrated in FIG. 16 may include a selector 1610, first quantization hairs 1630, second quantization hairs 1650, and a weighting function calculator 1670. Compared with the LPC coefficient quantization unit 600 illustrated in FIG. 6, there is a difference that further includes a weighting function calculator 1670. A detailed implementation related to FIG. 16 is shown in FIGS. 11A-11F.
도 17은 일실시예에 따라 폐루프 방식의 스위칭 구조를 갖는 양자화장치의 구성을 나타내는 블럭도이다. 도 17에 도시된 양자화장치 (1700)는 제 1 양자화모들 (1710) , 제 2 양자화모들 (1730) 및 선택부 (1750)을 포함할 수 있다. 제 1 양자화모 들 (1710)은 제 1 양자화부 (1711) , 제 1 프레임내 예측기 (1712) , 및 제 3 양자화부 (1713)을 포함하고, 제 2 양자화모들 (1730)은 제 2 양자화부 (1731) , 제 2 프레임내 예 측기 (1732) , 제 4 양자화부 (1733) 및 프레임간 예측기 (1734)를 포함할 수 있다 . 도 17을 참조하면, 제 1 양자화모들 (1710)에 있어서, 제 1 양자화부 (1711)에서 는 전체 입력 백터를 제 1 프레임내 예측기 (1712)를 통하여 BC-TCVQ 또는 BOTCQ를 이용하여 양자화할 수 있다. 제 3 양자화부 (1713)에서는 양자화 에러 신호를 VQ로 양자화할 수 있다.  17 is a block diagram illustrating a configuration of a quantization apparatus having a closed loop switching structure according to an embodiment. The quantization apparatus 1700 illustrated in FIG. 17 may include first quantization hairs 1710, second quantization hairs 1730, and a selector 1750. The first quantization units 1710 include a first quantization unit 1711, a first in-frame predictor 1712, and a third quantization unit 1713, and the second quantization units 1730 include a second quantization. A unit 1731, a second in-frame predictor 1732, a fourth quantizer 1733, and an interframe predictor 1734 may be included. Referring to FIG. 17, in the first quantization modules 1710, the first quantization unit 1711 may quantize the entire input vector using BC-TCVQ or BOTCQ through the first in-frame predictor 1712. Can be. The third quantization unit 1713 can quantize the quantization error signal to VQ.
저 12 양자화모들 (1730)에 있어서, 제 2 양자화부 (1731)에서는 프레임간 예측기 (1734)를 이용한 예측 에러신호를 제 2 프레임내 예측기 (1732)를 통하여 BOTCVQ 또 는 BC-TCQ를 이용하여 양자화할 수 있다. 제 4 양자화부 (1733)에서는 양자화 에러 신호를 VQ로 양자화할 수 있다.  In the lower 12 quantization modes 1730, the second quantization unit 1731 uses a BOTCVQ or a BC-TCQ to predict a prediction error signal using the interframe predictor 1734 through the second intraframe predictor 1732. Can be quantized The fourth quantization unit 1733 may quantize the quantization error signal to VQ.
선택부 (1750)는 제 1 양자화모들 (1710)의 출력과 제 2 양자화모들 (1730)의 출 력 중 하나를 선택할 수 있다.  The selector 1750 may select one of an output of the first quantization hairs 1710 and an output of the second quantization hairs 1730.
도 17에 있어서, 세이프티-넷 스팀은 도 9B와 동일하고, 예측 스킴은 도 10B 와 동일하다. 여기서 프레임간 예측은 AR 방식과 MA 방식 중 하나를 이용할 수 있 다ᅳ 실시예에 따르면 1st order AR 방식을 이용한 예를 나타낸다. 예측 계수는 미리 정의되며, 예측을 위한 과거 백터는 이전 프레임에서 두 개의 스킴 중에서 최 적 백터로 선택된 백터를 이용한다.  In FIG. 17, the safety-net steam is the same as in FIG. 9B, and the prediction scheme is the same as in FIG. 10B. Here, the inter-frame prediction may use one of the AR method and the MA method. According to an embodiment, an example using the 1st order AR method is illustrated. Prediction coefficients are predefined, and the past vector for prediction uses the vector selected as the best vector among the two schemes in the previous frame.
도 18은 다른 실시예에 따라 폐루프 방식의 스위칭 구조를 갖는 양자화장치 의 구성을 나타내는 블럭도이다. 도 17과 비교할 때 프레임내 예측기를 제외하여 구현한 예이다. 도 18에 도시된 양자화장치 (1800)는 제 1 양자화모들 (1810) , 저 12 양자화모들 (1830) 및 선택부 (1850)을 포함할 수 있다. 제 1 양자화모들 (1810)은 제 1 양자화부 (1811) , 및 제 3 양자화부 (1812)을 포함하고, 제 2 양자화모들 (1830)은 제 2 양자화부 (1831), 제 4 양자화부 (1832) 및 프레임간 예측기 (1833)를 포함할 수 있 다. 18 is a block diagram illustrating a configuration of a quantization device having a closed loop switching structure according to another embodiment. Compared with FIG. 17, the present invention is implemented without the intra-frame predictor. The quantization apparatus 1800 illustrated in FIG. 18 may include first quantization hairs 1810, low 12 quantization hairs 1830, and a selector 1850. The first quantization units 1810 include a first quantization unit 1811, and a third quantization unit 1812, and the second quantization terminals 1830 include the first quantization units 1830. The second quantizer 1831, the fourth quantizer 1832, and the interframe predictor 1833 may be included.
도 18을 참조하면, 선택부 (1850)은 제 1 양자화모들 (1810)의 출력과 제 2 양자 화모들 (1830)의 출력을 이용한 가중된 왜곡을 입력으로 하여 최적 양자화 스킴을 선택 흑은 결정할 수 있다. 최적 양자화 스킴을 결정하는 과정을 살펴보면 다음과 같다.  Referring to FIG. 18, the selector 1850 selects an optimal quantization scheme by inputting weighted distortion using the output of the first quantization hairs 1810 and the output of the second quantization hairs 1830. Can be. The process of determining the optimal quantization scheme is as follows.
if ( ((predmode!=0) && ( WD i s t [ 0 ] <PREFERSFNET*WD i s t [ 1 ] ) )  if (((predmode! = 0) && (WD i s t [0] <PREFERSFNET * WD i s t [1]))
I I (predmode == 0)  I I (predmode == 0)
I |(WDist[0]<abs_threshold) )  I | (WDist [0] <abs_threshold))
{  {
safety—net = 1;  safety—net = 1;
}  }
else{  else {
saf ety_net = 0;  saf ety_net = 0;
}  }
여기서 예측모드 (predmode)가 0인 경우에는 항상 세이프티-넷 스킴만을 사용 하는 모드를 의미하며 0이 아닌 경우에는 세이프티-넷 스킴과 예측 스킴을 스위칭 하여 사용하는 것을 의미한다. 항상 세이프티-넷 스킴만을 사용하는 모드의 예로 는 TC 흑은 UC 모드를 들 수 있다. 그리고 WDist[0]은 세이프티-넷 스킴의 가중된 왜곡을 의미하며, WDist[l]은 예측 스킴의 가중된 왜곡을 의미한다. 또한, abs_threshold는 미리 설정된 임계치를 나타낸다. 예측모드가 0이 아닌 경우는 프 레임 에러를 고려하여 세이프티-넷 스킴의 가중된 왜곡에 우선하여 최적 양자화 스 킴을 선택할 수 있다. 즉, 기본적으로 WDist[0]의 값이 사전에 정의된 임계치보다 적을 때는 WDist[l]의 값에 상관없이 세이프티-넷 스킴이 선택될 수 있다. 그 이 외의 경우에도 단순히 가중된 왜곡이 적은 것을 선택하는 것이 아니라 동일한 가중 된 왜곡에서는 세이프티-넷 스킴이 선택될 수 있다. 그 이유는 세이프티-넷 스킴 이 프레임 에러에 더 강인하기 때문이다. 따라서, WDist[0]가 In this case, when the prediction mode is 0, the mode always uses only the safety-net scheme. If the prediction mode is not 0, it means that the safety-net scheme and the prediction scheme are switched. An example of a mode that always uses only the safety-net scheme is TC Black or UC mode. WDist [0] means weighted distortion of the safety-net scheme, and WDist [l] means weighted distortion of the prediction scheme. In addition, abs_threshold represents a preset threshold. If the prediction mode is not 0, the optimal quantization scheme may be selected in preference to the weighted distortion of the safety-net scheme in consideration of the frame error. That is, basically, when the value of WDist [0] is less than the predefined threshold, the safety-net scheme can be selected regardless of the value of WDist [l]. In other cases, the safety-net scheme may be selected in the same weighted distortion, rather than simply selecting a smaller weighted distortion. This is because the safety-net scheme is more robust to frame errors. Thus, WDist [0]
PREFERSFNET*WDist[l]보다 큰 경우에만 예측 스킴이 선택될 수 있다. 여기서 사용 가능한 PREFERSFNET=1.15이나, 이에 한정되는 것은 아니다. 이와 같이 양자화 스 킴이 선택되면, 선택된 양자화 스킴을 나타내는 비트정보와 선택된 양자화 스킴으 로 양자화하여 얻어지는 양자화 인덱스를 전송할 수 있다. The prediction scheme can be selected only if it is greater than PREFERSFNET * WDist [l]. PREFERSFNET = 1.15 available here, but not limited to. As such, when the quantization scheme is selected, bit information indicating the selected quantization scheme and a quantization index obtained by quantizing the selected quantization scheme may be transmitted.
도 19는 일실시예에 따른 역양자화장치의 구성을 나타낸 블록도이다. 도 19에 도시된 역양자화장치 ( 1900)는 선택부 ( 1910) , 제 1 역양자화모들 ( 1930)과 제 2 역양자화모들 ( 1950)을 포함할 수 있다. 19 is a block diagram illustrating a configuration of an inverse quantization apparatus according to an embodiment. The inverse quantization apparatus 1900 illustrated in FIG. 19 may include a selection unit 1910, first inverse quantization hairs 1930 and second inverse quantization hairs 1950.
도 19를 참조하면, 선택부 ( 1910)는 비트스트림에 포함된 양자화스킴 정보에 근거하여, 부호화된 LPC 파라미터 예를 들면 예측잔차 (predi ct ion res idual )을 제 1 역양자화모들 ( 1930)과 제 2 역양자화모들 ( 1950) 중 하나로 제공할 수 있다. 일예 로, 양자화스킴 정보는 1 비트로 표현될 수 있다.  Referring to FIG. 19, the selector 1910 may determine an encoded LPC parameter, for example, a prediction residual, based on quantization scheme information included in a bitstream, by using first inverse quantization symbols 1930. And one of the second inverse quantization hairs 1950. For example, the quantization scheme information may be represented by 1 bit.
저 U 역양자화모들 ( 1930)은 부호화된 LPC 파라미터를 프레임간 예측없이 역양 자화할 수 있다.  The low U inverse quantization modules 1930 may inverse quantize the encoded LPC parameter without interframe prediction.
저 12 역양자화모들 ( 1950)은 부호화된 LPC 파라미터를 프레임간 예측을 통하여 역양자화할 수 있다.  The low 12 inverse quantization modules 1950 may inverse quantize the encoded LPC parameter through inter-frame prediction.
저 U 역양자화모들 ( 1930)과 제 2 역양자화모들 ( 1950)은 복호화장치에 대웅하는 부호화장치에 따라서, 전술한 다양한 실시예의 각 제 1 및 제 2 양자화모들의 역처리 에 근거하여 구현될 수 있다.  The low U inverse quantization hairs 1930 and the second inverse quantization hairs 1950 are implemented based on the inverse processing of each of the first and second quantization hairs of the above-described various embodiments, according to an encoding apparatus for the decoding apparatus. Can be.
도 19의 역양자화장치는 양자화기 구조가 개루프 (open- loop) 방식 흑은 폐루 프 (c losed-loop) 방식에 상관없이 적용할 수 있다.  The dequantization apparatus of FIG. 19 may be applied regardless of the structure of the quantizer regardless of an open-loop black closed loop method.
16 kHz 내부 샘플링 주파수에서 VC 모드는 예를 들면, 프레임당 31 비트와 프레임당 40 흑은 41 비트의 두가지 디코딩 레이트를 가질 수 있다. VC 모드는 16 스테이트 8 스테이지 BC-TCVQ에 의해 복호화될 수 있다.  At a 16 kHz internal sampling frequency, the VC mode may have two decoding rates, for example, 31 bits per frame and 40 black or 41 bits per frame. The VC mode can be decoded by 16 state 8 stage BC-TCVQ.
도 20은 일실시예에 따른 역양자화장치의 세부적인 구성을 나타낸 블록도로 서, 31 비트의 엔코딩 레이트를 사용하는 경우에 해당할 수 있다. 도 20에 도시된 역양자화장치 (2000)는 선택부 (2010) , 제 1 역양자화모들 (2030) 및 제 2 역양자화모들 (2050)을 포함할 수 있다. 제 1 역양자화모들 (2030)는 제 1 역양자화부 (2031) 및 제 1 프레임내 예측기 (2032)를 포함할 수 있고 , 제 2 역양자화모들 (2050)는 제 2 역양자 화부 (2051) , 제 2 프레임내 예측기 (2052) 및 프레임간 예측기 (2053)를 포함할 수 있 다 . 도 20의 역양자화장치는 도 12의 양자화장치에 대웅될 수 있다 .  20 is a block diagram illustrating a detailed configuration of an inverse quantization apparatus according to an embodiment, and may correspond to a case of using an encoding rate of 31 bits. The inverse quantization apparatus 2000 illustrated in FIG. 20 may include a selection unit 2010, first inverse quantization hairs 2030, and second inverse quantization hairs 2050. The first inverse quantization hats 2030 may include a first inverse quantization hatch 201 and a first in-frame predictor 2032, and the second inverse quantization hatches 2050 may include a second inverse quantization hatch 2051. ), A second intra-frame predictor 2052 and an inter-frame predictor 2053. The inverse quantization apparatus of FIG. 20 may be referred to the quantization apparatus of FIG. 12.
도 20을 참조하면, 선택부 (2010)는 비트스트림에 포함된 양자화스킴 정보에 근거하여 부호화된 LPC 파라미터를 제 1 역양자화모들 (2030)과 제 2 역양자화모들 (2050) 중 하나로 제공할 수 있다.  Referring to FIG. 20, the selector 2010 provides the LPC parameter encoded based on the quantization scheme information included in the bitstream as one of the first inverse quantization hairs 2030 and the second inverse quantization hairs 2050. can do.
양자화스킴 정보가 세이프티-넷 스킴을 나타내는 경우, 제 1 역양자화모들 (2030)에 있어서 제 1 역양자화부 (2031)는 BC-TCVQ를 사용하여 역양자화를 수행할 수 있다 . 제 1 역양자화부 (2031)와 제 1 프레임내 예측기 (2032)를 통하여 양자화된 LSF 계수를 얻을 수 있다. 양자화된 LSF 계수에 소정의 DC 값인 평균값을 가산하 면 최종 복호화된 LSF 계수가 생성된다. When the quantization scheme information indicates a safety-net scheme, the first inverse quantization unit 2031 may perform inverse quantization using BC-TCVQ in the first inverse quantization mothers 2030. The quantized LSF coefficients may be obtained through the first inverse quantization unit 2031 and the first in-frame predictor 2032. Add the average value, which is a predetermined DC value, to the quantized LSF coefficients. The final decoded LSF coefficients are generated.
한편, 양자화스킴 정보가 예측 스킴을 나타내는 경우, 제 2 역양자화모들 (2050)에 있어서 제 2 역양자화부 (2051)는 BOTCVQ를 사용하여 역양자화를 수행할 수 있다. 역양자화 과정은 LSF 백터 중 가장 낮은 백터에서부터 시작하며, 프레임 내 예측기 (2052)는 복호화된 백터를 이용하여 다음 순서의 백터 요소를 위한 예측 값을 생성한다. 프레임간 예측기 (2053)는 이전 프레임에서 복호화된 LSF 계수를 이용하여 프레임간 예측을 통하여 예측값을 생성한다. 제 2 양자화부 (2051)와 프레 임내 예측기 (2052)를 통하여 얻어지는 양자화된 LSF 계수에 프레임간 예측기 (2053) 에서 얻어지는 프레임간 예측값을 가산하고, 가산결과에 소정의 DC 값인 평균값을 더하면 최종 복호화된 LSF 계수가 생성된다.  Meanwhile, when the quantization scheme information indicates the prediction scheme, the second inverse quantization unit 2051 may perform inverse quantization using BOTCVQ in the second inverse quantization mothers 2050. The inverse quantization process starts with the lowest vector of the LSF vectors, and the in-frame predictor 2052 uses the decoded vector to generate predictive values for the next order vector elements. The interframe predictor 2053 generates a prediction value through interframe prediction using the LSF coefficients decoded in the previous frame. The inter-frame predicted value obtained by the inter-frame predictor 2053 is added to the quantized LSF coefficients obtained through the second quantizer 2051 and the in-frame predictor 2052. LSF coefficients are generated.
도 21은 다른 실시예에 따른 역양자화장치의 세부적인 구성을 나타낸 블록도 로서 , 41 비트의 엔코딩 레이트를 사용하는 경우에 해당할 수 있다. 도 21에 도시 된 역양자화장치 (2100)는 선택부 (2110) , 제 1 역양자화모들 (2130) 및 제 2 역양자화 모들 (2150)을 포함할 수 있다. 제 1 역양자화모들 (2130)는 제 1 역양자화부 (2131) , 제 1 프레임내 예측기 (2132) 및 제 3 역양자화부 (2133)를 포함할 수 있고 , 제 2 역양 자화모들 (2150)는 제 2 역양자화부 (2151) , 제 2 프레임내 예측기 (2152) , 제 4 역양자 화부 (2153) 및 프레임간 예측기 (2154)를 포함할 수 있다. 도 21의 역양자화장치는 도 13의 양자화장치에 대웅될 수 있다.  FIG. 21 is a block diagram illustrating a detailed configuration of an inverse quantization apparatus according to another embodiment, and may correspond to a case of using an encoding rate of 41 bits. The inverse quantization device 2100 illustrated in FIG. 21 may include a selection unit 2110, first inverse quantization hairs 2130, and a second inverse quantization hair 2150. The first inverse quantizers 2130 may include a first inverse quantizer 2131, a first in-frame predictor 2132, and a third inverse quantizer 2133, and the second inverse quantizers 2150. ) May include a second inverse quantizer 2151, a second in-frame predictor 2152, a fourth inverse quantizer 2153 and an interframe predictor 2154. The inverse quantization apparatus of FIG. 21 may be referred to as the quantization apparatus of FIG.
도 21을 참조하면, 선택부 (2110)는 비트스트림에 포함된 양자화스킴 정보에 근거하여 부호화된 LPC 파라미터를 제 1 역양자화모들 (2130)과 제 2 역양자화모들 (2150) 중 하나로 제공할 수 있다.  Referring to FIG. 21, the selector 2110 provides the LPC parameter encoded based on the quantization scheme information included in the bitstream as one of the first inverse quantization hairs 2130 and the second inverse quantization hairs 2150. can do.
양자화스킴 정보가 세이프티-넷 스킴을 나타내는 경우, 제 1 역양자화모들 (2130)에 있어서 제 1 역양자화부 (2131)는 BC-TCVQ를 사용하여 역양자화를 수행할 수 있다. 제 3 역양자화부 (2133)는 SVQ를 사용하여 역양자화를 수행할 수 있다. 제 1 역양자화부 (2131)와 제 1 프레임내 예측기 (2132)를 통하여 양자화된 LSF 계수를 얻을 수 있다. 양자화된 LSF 계수와 제 3 역양자화부 (2133)로부터 얻어지는 양자화 된 LSF 계수를 가산하고, 가산결과에 소정의 DC 값인 평균값을 더하면 최종 복호화 된 LSF 계수가 생성된다.  When the quantization scheme information indicates a safety-net scheme, the first inverse quantization unit 2131 may perform inverse quantization using BC-TCVQ in the first inverse quantization mothers 2130. The third inverse quantization unit 2133 may perform inverse quantization using SVQ. The quantized LSF coefficients may be obtained through the first inverse quantization unit 2131 and the first in-frame predictor 2132. The quantized LSF coefficients and the quantized LSF coefficients obtained from the third inverse quantization unit 2133 are added, and an average value of a predetermined DC value is added to the addition result to generate a final decoded LSF coefficient.
한편, 양자화스킴 정보가 예측 스킴을 나타내는 경우, 제 2 역양자화모들 (2150)에 있어서 제 2 역양자화부 (2151)는 BOTCVQ를 사용하여 역양자화를 수행할 수 있다. 역양자화 과정은 LSF 백터 중 가장 낮은 백터에서부터 시작하며, 제 2 프 레임내 예측기 (2152)는 복호화된 백터를 이용하여 다음 순서의 백터 요소를 위한 예측값을 생성한다. 제 4 역양자화부 (2153)는 SVQ를 사용하여 역양자화를 수행할 수 있다. 제 2 역양자화부 (2151)와 제 2 프레임내 예측기 (2152)를 통하여 얻어지는 양자화된 LSF 계수에 제 4 역양자화부 (2153)로부터 제공되는 양자화된 LSF 계수를 가산할 수 있다. 프레임간 예측기 (2154)는 이전 프레임에서 복호화된 LSF 계수를 이용하여 프레임간 예측을 통하여 예측값을 생성할 수 있다. 가산 결과에 프레임 간 예측기 (2153)에서 얻어지는 프레임간 예측값을 더하고, 소정의 DC 값인 평균값 을 더하면 최종 복호화된 LSF 계수가 생성된다. Meanwhile, when the quantization scheme information indicates the prediction scheme, the second inverse quantization unit 2151 may perform inverse quantization using BOTCVQ in the second inverse quantization mothers 2150. The inverse quantization process starts with the lowest vector of the LSF vectors, and the second intraframe predictor 2152 uses the decoded vector for the next order vector elements. Generate predictions. The fourth inverse quantization unit 2153 may perform inverse quantization using SVQ. The quantized LSF coefficients provided from the fourth inverse quantization unit 2153 may be added to the quantized LSF coefficients obtained through the second inverse quantization unit 2151 and the second in-frame predictor 2152. The interframe predictor 2154 may generate a prediction value through interframe prediction using the LSF coefficients decoded in the previous frame. When the interframe prediction value obtained by the interframe predictor 2153 is added to the addition result and the average value, which is a predetermined DC value, is added, the final decoded LSF coefficient is generated.
여기서, 제 3 역양자화부 (2133)와 제 4 역양자화부 (2153)는 코드북을 공유할 수 있다.  Here, the third inverse quantization unit 2133 and the fourth inverse quantization unit 2153 may share a codebook.
한편 , 도시되지는 않았으나, 도 19 내지 도 21의 역양자화장치는 도 2에 대 웅되는 복호화장치의 구성요소로서 사용될 수 있다.  Although not shown, the inverse quantization apparatus of FIGS. 19 to 21 may be used as a component of the decoding apparatus of FIG. 2.
한편, LPC 계수 양자화 /역양자화와 관련하여 채용되는 BC-TCQ와 관련된 내용 은 "Block Constrained Trellis Coded Vector Quantization of LSF Parameters for Wideband Speech Codecs" (Jungeun Park and Sangwon Kang, ETRI Journal , Volume 30, Number 5, October 2008)에 자세히 설명되어 있다. 한편, TCVQ와 관련된 내용 은 "Trellis Coded Vector Quantization" (Thomas R. Fischer et al , IEEE Transact ions on Information Theory, Vol . 37, No. 6, November 1991)에 자세히 설명되어 있다.  On the other hand, the BC-TCQ adopted in relation to LPC coefficient quantization / dequantization is referred to as "Block Constrained Trellis Coded Vector Quantization of LSF Parameters for Wideband Speech Codecs" (Jungeun Park and Sangwon Kang, ETRI Journal, Volume 30, Number 5). , October 2008). Meanwhile, the contents related to TCVQ are described in detail in "Trellis Coded Vector Quantization" (Thomas R. Fischer et al, IEEE Transactions on Information Theory, Vol. 37, No. 6, November 1991).
상기 실시예들에 따른 양자화방법, 역영자화방법, 부호화방법, 및 복호화방 법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있 는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현 될 수 있다. 또한, 상술한 본 발명의 실시예들에서 사용될 수 있는 데이터 구조, 프로그램 명령, 흑은 데이터 파일은 컴퓨터로 읽을 수 있는 기록매체에 다양한 수 단을 통하여 기록될 수 있다. 컴퓨터로 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 저장 장치를 포함할 수 있 다. 컴퓨터로 읽을 수 있는 기록매체의 예로는 하드 디스크, 플로피 디스크 및 자 기 테이프와 같은 자기 매체 (magnetic media), CD-ROM, DVD와 같은 광기록 매체 (optical media), 플롭티컬 디스크 (floptical disk)와 같은 자기-광 매체 (magneto- optical media), 및 롬 (ROM), 램 (RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 또한, 컴퓨 터로 읽을 수 있는 기록매체는 프로그램 명령, 데이터 구조 등을 지정하는 신호를 전송하는 전송 매체일 수도 있다. 프로그램 명령의 예로는 컴파일러에 의해 만들 어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의 해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. The quantization method, the inverse magnetization method, the encoding method, and the decoding method according to the embodiments can be written as a program that can be executed in a computer, and a general-purpose digital device for operating the program using a computer-readable recording medium. Can be implemented on a computer. In addition, data structures, program instructions, and black data files that can be used in the above-described embodiments of the present invention may be recorded on the computer-readable recording medium through various means. Computer-readable recording media can include any type of storage device that stores data that can be read by a computer system. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and floppy disks. Magneto-optical media such as, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. In addition, the computer-readable recording medium may be a transmission medium for transmitting a signal specifying a program command, a data structure, or the like. Examples of program instructions make by the compiler In addition to machine code such as being broken, it can contain high-level language code that can be executed by a computer using an interpreter.
이상과 같이 본 발명의 일실시예는 비록 한정된 실시예와 도면에 의해 설명 되었으나, 본 발명의 일실시예는 상기 설명된 실시예에 한정되는 것은 아니며, 이 는 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양 한 수정 및 변형이 가능하다. 따라서, 본 발명의 스코프는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 이의 균등 또는 등가적 변형 모두는 본 발명 기술 적 사상의 범주에 속한다고 할 것이다.  Although one embodiment of the present invention as described above has been described by a limited embodiment and drawings, one embodiment of the present invention is not limited to the above-described embodiment, which is common knowledge in the field to which the present invention belongs Those with a variety of modifications and variations are possible from these descriptions. Therefore, the scope of the present invention is shown in the claims rather than the foregoing description, and all equivalent or equivalent modifications thereof will be within the scope of the technical idea of the present invention.

Claims

【청구의 범위】 【Scope of Claim】
【청구항 1] [Claim 1]
프레임간 예측 없이 양자화를 수행하는 제 1 양자화모들; 및 First quantization modes that perform quantization without inter-frame prediction; and
프레임간 예측과 함께 양자화를 수행하는 제 2 양자화모들을 포함하며 , 상기 제 1 양자화모들은 입력신호를 양자화하는 제 1 양자화부와 제 1 양자화 에러신호를 양자화하는 제 3 양자화부를 포함하고, It includes second quantization modules that perform quantization along with inter-frame prediction, wherein the first quantization modules include a first quantization module that quantizes an input signal and a third quantization module that quantizes a first quantization error signal,
상기 제 2 양자화모들은 예측에러를 양자화하는 제 2 양자화부와 제 2 양자화 에러신호를 양자화하는 제 4 양자화부를 포함하고, The second quantization units include a second quantization unit that quantizes the prediction error and a fourth quantization unit that quantizes the second quantization error signal,
상기 제 1 양자화부와 상기 제 2 양자화부는 트렐리스 구조의 백터양자화기인 양자화장치ᅳ The first quantization unit and the second quantization unit are quantization devices that are trellis-structured vector quantizers.
【청구항 2] [Claim 2]
저 U 항에 있어서, 상기 장치는 오픈 루프 방식으로, 예측에러에 근거하여 상 기 제 1 양자화모들 흑은 제 2 양자화모들 중 하나를 선택하는 선택부를 더 포함하는 양자화장치ᅳ The quantization device according to item U, wherein the device further includes a selection unit that selects one of the first quantization modes and the second quantization modes based on a prediction error in an open loop manner.
【청구항 3】 【Claim 3】
저 U 항에 있어서, 상기 제 3 양자화부와 상기 제 4 양자화부는 백터 양자화기 인 양자화장치. The quantization device according to item U, wherein the third quantization unit and the fourth quantization unit are vector quantizers.
【청구항 4】 【Claim 4】
저 U 항에 있어서, 상기 제 3 양자화부와 상기 제 4 양자화부는 코드북을 공유 하는 양자화장치. The quantization device according to item U, wherein the third quantization unit and the fourth quantization unit share a codebook.
【청구항 5】 【Claim 5】
제 1 항에 있어서, 상기 입력신호의 부호화모드가 VC 모드인 양자화장치 . The quantization device according to claim 1, wherein the encoding mode of the input signal is VC mode.
【청구항 6] [Claim 6]
프레임간 예측 없이 양자화를 수행하는 제 1 양자화모들과 프레임간 예측과 함께 양자화를 수행하는 제 2 양자화모들 중 하나를 오픈 루프 방식으로 선택하는 단계 ; 및 selecting one of first quantization modes that perform quantization without inter-frame prediction and second quantization modes that perform quantization with inter-frame prediction in an open-loop manner; and
상기 선택된 양자화모들을 사용하여 입력신호를 양자화하는 단계를 포함하 며, It includes the step of quantizing the input signal using the selected quantization modifiers,
상기 제 1 양자화모들은 입력신호를 양자화하는 제 1 양자화부와 제 1 양자화 에러신호를 양자화하는 제 3 양자화부를 포함하고, The first quantization units include a first quantization unit that quantizes the input signal and a third quantization unit that quantizes the first quantization error signal,
상기 제 2 양자화모들은 예측에러를 양자화하는 제 2 양자화부와 제 2 양자화 에러신호를 양자화하는 제 4 양자화부를 포함하고, 상기 제 3 양자화부와 상기 제 4 양자화부는 코드북을 공유하는 양자화방법 . The second quantization units include a second quantization unit that quantizes the prediction error and a fourth quantization unit that quantizes the second quantization error signal, A quantization method in which the third quantization unit and the fourth quantization unit share a codebook.
【청구항 7】 【Claim 7】
제 6 항에 있어서, 상기 제 3 양자화부 흑은 상기 제 4 양자화부에 입력되는 신 호에 대하여 소정의 스케일링을 수행하는 양자화방법 . The quantization method of claim 6, wherein the third quantization unit performs predetermined scaling on the signal input to the fourth quantization unit.
【청구항 8】 【Claim 8】
제 6 항에 있어서, 상기 선택하는 단계는 예측에러에 근거하는 양자화방법 . The quantization method of claim 6, wherein the selecting step is based on a prediction error.
【청구항 9】 【Claim 9】
프레임간 예측 없이 역양자화를 수행하는 제 1 역양자화모들; 및 First inverse quantization modes that perform inverse quantization without inter-frame prediction; and
프레임간 예측과 함께 역양자화를 수행하는 제 2 역양자화모들을 포함하며 , 상기 제 1 역양자화모들은 입력신호를 역양자화하는 제 1 역양자화부와 상기 제 1 역양자화부와 병렬로 배치되는 제 3 역양자화부를 포함하고, It includes second inverse quantization units that perform inverse quantization along with inter-frame prediction, wherein the first inverse quantization units include a first inverse quantization unit that inverse quantizes an input signal and a first inverse quantization unit arranged in parallel with the first inverse quantization unit. 3 Including an inverse quantization unit,
상기 제 2 역양자화모들은 입력신호를 역양자화하는 제 2 역양자화부와 상기 제 2 역양자화부와 병렬로 배치되는 제 4 역양자화부를 포함하고, The second inverse quantization units include a second inverse quantization unit that inversely quantizes an input signal and a fourth inverse quantization unit arranged in parallel with the second inverse quantization unit,
상기 제 1 역양자화부와 상기 제 2 역양자화부는 트렐리스 구조의 백터 역양자 화기인 역양자화장치 . The first inverse quantization unit and the second inverse quantization unit are vector inverse quantizers of a trellis structure.
【청구항 10] [Claim 10]
제 9 항에 있어서, 비트스트림에 포함되는 양자화스킴 정보에 근거하여 상기 제 1 역양자화모들 흑은 제 2 역양자화모들 중 하나를 선택하는 선택부를 더 포함하 는 역양자화장치 . The inverse quantization device according to claim 9, further comprising a selection unit that selects one of the first inverse quantization modes and the second inverse quantization modes based on quantization scheme information included in the bitstream.
【청구항 11] [Claim 11]
저 19 항에 있어서, 상기 제 3 역양자화부와 상기 제 4 역양자화부는 스플릿 백 터 역양자화기인 역양자화장치 . The inverse quantization device of claim 19, wherein the third inverse quantization unit and the fourth inverse quantization unit are split vector inverse quantizers.
【청구항 12] [Claim 12]
저 19 항에 있어서, 상기 제 3 역양자화부와 상기 제 4 역양자화부는 코드북을 공유하는 역양자화장치 . The inverse quantization device of claim 19, wherein the third inverse quantization unit and the fourth inverse quantization unit share a codebook.
【청구항 13] [Claim 13]
프레임간 예측 없이 역양자화를 수행하는 제 1 역양자화모들과 프레임간 예측 과 함께 역양자화를 수행하는 제 2 역양자화모들 중 하나를 선택하는 단계 ; 및 selecting one of first inverse quantization modes that perform inverse quantization without inter-frame prediction and second inverse quantization modes that perform inverse quantization with inter-frame prediction; and
상기 선택된 역양자화모들을 사용하여 입력신호를 역양자화하는 단계를 포함 하며, Including the step of inverse quantizing the input signal using the selected inverse quantization modifiers,
상기 제 1 역양자화모들은 입력신호를 역양자화하는 제 1 역양자화부와 상기 제 1 역양자화부와 병렬로 배치되는 제 3 역양자화부를 포함하고, 상기 제 2 역양자화모들은 입력신호를 역양자화하는 제 2 역양자화부와 상기 제 2 역양자화부와 병렬로 배치되는 제 4 역양자화부를 포함하고, The first inverse quantization units include a first inverse quantization unit that inverse quantizes an input signal and a third inverse quantization unit arranged in parallel with the first inverse quantization unit, The second inverse quantization units include a second inverse quantization unit that inversely quantizes an input signal and a fourth inverse quantization unit arranged in parallel with the second inverse quantization unit,
상기 제 3 역양자화부와 상기 제 4 역양자화부는 코드북을 공유하는 역양자화 방법. An inverse quantization method in which the third inverse quantization unit and the fourth inverse quantization unit share a codebook.
【청구항 14] [Claim 14]
제 13 항에 있어서, 상기 선택하는 단계는 비트스트림에 포함된 파라미터에 근거하는 역양자화방법 . The inverse quantization method of claim 13, wherein the selecting step is based on parameters included in the bitstream.
【청구항 15] [Claim 15]
제 13 항에 있어서, 상기 제 3 역양자화부와 상기 제 4 역양자화부는 스플릿 백 터 역양자화기인 역양자화방법 . The inverse quantization method of claim 13, wherein the third inverse quantization unit and the fourth inverse quantization unit are split vector inverse quantizers.
PCT/IB2015/001152 2014-03-28 2015-03-30 Method and device for quantization of linear prediction coefficient and method and device for inverse quantization WO2015145266A2 (en)

Priority Applications (13)

Application Number Priority Date Filing Date Title
KR1020247001250A KR20240010550A (en) 2014-03-28 2015-03-30 Method and apparatus for quantizing linear predictive coding coefficients and method and apparatus for dequantizing linear predictive coding coefficients
US15/300,173 US10515646B2 (en) 2014-03-28 2015-03-30 Method and device for quantization of linear prediction coefficient and method and device for inverse quantization
CN201911127329.3A CN110853659B (en) 2014-03-28 2015-03-30 Quantization apparatus for encoding an audio signal
PL15769251T PL3125241T3 (en) 2014-03-28 2015-03-30 Method and device for quantization of linear prediction coefficient and method and device for inverse quantization
KR1020227013950A KR102626320B1 (en) 2014-03-28 2015-03-30 Method and apparatus for quantizing linear predictive coding coefficients and method and apparatus for dequantizing linear predictive coding coefficients
JP2016559611A JP6542796B2 (en) 2014-03-28 2015-03-30 Linear prediction coefficient quantization method and device thereof, and linear prediction coefficient inverse quantization method and device
CN201580028157.8A CN106463134B (en) 2014-03-28 2015-03-30 method and apparatus for quantizing linear prediction coefficients and method and apparatus for inverse quantization
SG11201608787UA SG11201608787UA (en) 2014-03-28 2015-03-30 Method and device for quantization of linear prediction coefficient and method and device for inverse quantization
KR1020167026991A KR102392003B1 (en) 2014-03-28 2015-03-30 Method and apparatus for quantizing linear predictive coding coefficients and method and apparatus for dequantizing linear predictive coding coefficients
EP21168545.8A EP3869506A1 (en) 2014-03-28 2015-03-30 Method and device for quantization of linear prediction coefficient and method and device for inverse quantization
EP15769251.8A EP3125241B1 (en) 2014-03-28 2015-03-30 Method and device for quantization of linear prediction coefficient and method and device for inverse quantization
US16/688,482 US11450329B2 (en) 2014-03-28 2019-11-19 Method and device for quantization of linear prediction coefficient and method and device for inverse quantization
US17/947,249 US11848020B2 (en) 2014-03-28 2022-09-19 Method and device for quantization of linear prediction coefficient and method and device for inverse quantization

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201461971638P 2014-03-28 2014-03-28
US61/971,638 2014-03-28
US201462029687P 2014-07-28 2014-07-28
US62/029,687 2014-07-28

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US15/300,173 A-371-Of-International US10515646B2 (en) 2014-03-28 2015-03-30 Method and device for quantization of linear prediction coefficient and method and device for inverse quantization
US16/688,482 Continuation US11450329B2 (en) 2014-03-28 2019-11-19 Method and device for quantization of linear prediction coefficient and method and device for inverse quantization

Publications (2)

Publication Number Publication Date
WO2015145266A2 true WO2015145266A2 (en) 2015-10-01
WO2015145266A3 WO2015145266A3 (en) 2016-03-10

Family

ID=54196513

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/IB2015/001152 WO2015145266A2 (en) 2014-03-28 2015-03-30 Method and device for quantization of linear prediction coefficient and method and device for inverse quantization

Country Status (8)

Country Link
US (3) US10515646B2 (en)
EP (2) EP3125241B1 (en)
JP (1) JP6542796B2 (en)
KR (3) KR20240010550A (en)
CN (2) CN106463134B (en)
PL (1) PL3125241T3 (en)
SG (2) SG11201608787UA (en)
WO (1) WO2015145266A2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
PT3136384T (en) * 2014-04-25 2019-04-22 Ntt Docomo Inc Linear prediction coefficient conversion device and linear prediction coefficient conversion method
WO2015170899A1 (en) * 2014-05-07 2015-11-12 삼성전자 주식회사 Method and device for quantizing linear predictive coefficient, and method and device for dequantizing same
WO2016142002A1 (en) * 2015-03-09 2016-09-15 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio encoder, audio decoder, method for encoding an audio signal and method for decoding an encoded audio signal
DE102018112215B3 (en) * 2018-04-30 2019-07-25 Basler Ag Quantizer determination, computer readable medium, and apparatus implementing at least two quantizers
KR102030384B1 (en) 2018-06-19 2019-11-08 광운대학교 산학협력단 A method and an apparatus for encoding/decoding residual coefficient
WO2019240450A1 (en) 2018-06-11 2019-12-19 광운대학교 산학협력단 Residual coefficient encoding/decoding method and device
GB2577698A (en) 2018-10-02 2020-04-08 Nokia Technologies Oy Selection of quantisation schemes for spatial audio parameter encoding
JP7337966B2 (en) * 2019-06-29 2023-09-04 華為技術有限公司 Stereo encoding method and apparatus, and stereo decoding method and apparatus
CN110830404A (en) * 2019-10-31 2020-02-21 西南交通大学 Digital mobile forward signal quantization method based on vector linear prediction
CN113571073A (en) * 2020-04-28 2021-10-29 华为技术有限公司 Coding method and coding device for linear predictive coding parameters

Family Cites Families (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5596659A (en) * 1992-09-01 1997-01-21 Apple Computer, Inc. Preprocessing and postprocessing for vector quantization
EP1341126A3 (en) * 1992-09-01 2004-02-04 Apple Computer, Inc. Image compression using a shared codebook
IT1271959B (en) * 1993-03-03 1997-06-10 Alcatel Italia LINEAR PREDICTION SPEAKING CODEC EXCITED BY A BOOK OF CODES
CA2135629C (en) * 1993-03-26 2000-02-08 Ira A. Gerson Multi-segment vector quantizer for a speech coder suitable for use in a radiotelephone
JP3557255B2 (en) * 1994-10-18 2004-08-25 松下電器産業株式会社 LSP parameter decoding apparatus and decoding method
US5774839A (en) * 1995-09-29 1998-06-30 Rockwell International Corporation Delayed decision switched prediction multi-stage LSF vector quantization
US6904404B1 (en) 1996-07-01 2005-06-07 Matsushita Electric Industrial Co., Ltd. Multistage inverse quantization having the plurality of frequency bands
JP3246715B2 (en) 1996-07-01 2002-01-15 松下電器産業株式会社 Audio signal compression method and audio signal compression device
US6055496A (en) * 1997-03-19 2000-04-25 Nokia Mobile Phones, Ltd. Vector quantization in celp speech coder
US5974181A (en) * 1997-03-20 1999-10-26 Motorola, Inc. Data compression system, method, and apparatus
TW408298B (en) * 1997-08-28 2000-10-11 Texas Instruments Inc Improved method for switched-predictive quantization
US6125149A (en) * 1997-11-05 2000-09-26 At&T Corp. Successively refinable trellis coded quantization
US6324218B1 (en) * 1998-01-16 2001-11-27 At&T Multiple description trellis coded quantization
US7072832B1 (en) * 1998-08-24 2006-07-04 Mindspeed Technologies, Inc. System for speech encoding having an adaptive encoding arrangement
US6959274B1 (en) 1999-09-22 2005-10-25 Mindspeed Technologies, Inc. Fixed rate speech compression system and method
AU7486200A (en) 1999-09-22 2001-04-24 Conexant Systems, Inc. Multimode speech encoder
US6504877B1 (en) * 1999-12-14 2003-01-07 Agere Systems Inc. Successively refinable Trellis-Based Scalar Vector quantizers
JP3404024B2 (en) 2001-02-27 2003-05-06 三菱電機株式会社 Audio encoding method and audio encoding device
US8050452B2 (en) * 2001-03-22 2011-11-01 Digimarc Corporation Quantization-based data embedding in mapped data
US7376242B2 (en) * 2001-03-22 2008-05-20 Digimarc Corporation Quantization-based data embedding in mapped data
JP2003140693A (en) 2001-11-02 2003-05-16 Sony Corp Device and method for decoding voice
CA2388358A1 (en) 2002-05-31 2003-11-30 Voiceage Corporation A method and device for multi-rate lattice vector quantization
KR100486732B1 (en) * 2003-02-19 2005-05-03 삼성전자주식회사 Block-constrained TCQ method and method and apparatus for quantizing LSF parameter employing the same in speech coding system
WO2005027094A1 (en) 2003-09-17 2005-03-24 Beijing E-World Technology Co.,Ltd. Method and device of multi-resolution vector quantilization for audio encoding and decoding
KR100659725B1 (en) * 2005-12-09 2006-12-19 한국전자통신연구원 Apparatus and method for transmitting and apparatus and method for receiving of multiple antenna system
KR100728056B1 (en) * 2006-04-04 2007-06-13 삼성전자주식회사 Method of multi-path trellis coded quantization and multi-path trellis coded quantizer using the same
WO2007132750A1 (en) * 2006-05-12 2007-11-22 Panasonic Corporation Lsp vector quantization device, lsp vector inverse-quantization device, and their methods
US8589151B2 (en) * 2006-06-21 2013-11-19 Harris Corporation Vocoder and associated method that transcodes between mixed excitation linear prediction (MELP) vocoders with different speech frame rates
US7414549B1 (en) * 2006-08-04 2008-08-19 The Texas A&M University System Wyner-Ziv coding based on TCQ and LDPC codes
CN101548316B (en) * 2006-12-13 2012-05-23 松下电器产业株式会社 Encoding device, decoding device, and method thereof
CN101548317B (en) * 2006-12-15 2012-01-18 松下电器产业株式会社 Adaptive sound source vector quantization unit and adaptive sound source vector quantization method
KR100903110B1 (en) 2007-04-13 2009-06-16 한국전자통신연구원 The Quantizer and method of LSF coefficient in wide-band speech coder using Trellis Coded Quantization algorithm
CN101399041A (en) 2007-09-30 2009-04-01 华为技术有限公司 Encoding/decoding method and device for noise background
KR101671005B1 (en) 2007-12-27 2016-11-01 삼성전자주식회사 Method and apparatus for quantization encoding and de-quantization decoding using trellis
CN101609682B (en) * 2008-06-16 2012-08-08 向为 Encoder and method for self adapting to discontinuous transmission of multi-rate wideband
EP2139000B1 (en) * 2008-06-25 2011-05-25 Thomson Licensing Method and apparatus for encoding or decoding a speech and/or non-speech audio input signal
EP2144230A1 (en) * 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Low bitrate audio encoding/decoding scheme having cascaded switches
GB2466675B (en) * 2009-01-06 2013-03-06 Skype Speech coding
GB2466673B (en) * 2009-01-06 2012-11-07 Skype Quantization
JP5335004B2 (en) 2009-02-13 2013-11-06 パナソニック株式会社 Vector quantization apparatus, vector inverse quantization apparatus, and methods thereof
US8670990B2 (en) * 2009-08-03 2014-03-11 Broadcom Corporation Dynamic time scale modification for reduced bit rate audio coding
WO2011087333A2 (en) 2010-01-15 2011-07-21 엘지전자 주식회사 Method and apparatus for processing an audio signal
CN102906812B (en) 2010-04-08 2016-08-10 Lg电子株式会社 The method and apparatus processing audio signal
KR101660843B1 (en) * 2010-05-27 2016-09-29 삼성전자주식회사 Apparatus and method for determining weighting function for lpc coefficients quantization
FR2961980A1 (en) * 2010-06-24 2011-12-30 France Telecom CONTROLLING A NOISE SHAPING FEEDBACK IN AUDIONUMERIC SIGNAL ENCODER
KR101826331B1 (en) * 2010-09-15 2018-03-22 삼성전자주식회사 Apparatus and method for encoding and decoding for high frequency bandwidth extension
KR101747917B1 (en) * 2010-10-18 2017-06-15 삼성전자주식회사 Apparatus and method for determining weighting function having low complexity for lpc coefficients quantization
US8977543B2 (en) 2011-04-21 2015-03-10 Samsung Electronics Co., Ltd. Apparatus for quantizing linear predictive coding coefficients, sound encoding apparatus, apparatus for de-quantizing linear predictive coding coefficients, sound decoding apparatus, and electronic device therefore
CN105513602B (en) 2011-04-21 2019-08-06 三星电子株式会社 Decoding device and method and quantization equipment for voice signal or audio signal
US9406307B2 (en) * 2012-08-19 2016-08-02 The Regents Of The University Of California Method and apparatus for polyphonic audio signal prediction in coding and networking systems
CN103050121A (en) 2012-12-31 2013-04-17 北京迅光达通信技术有限公司 Linear prediction speech coding method and speech synthesis method
US9842598B2 (en) * 2013-02-21 2017-12-12 Qualcomm Incorporated Systems and methods for mitigating potential frame instability
CN103236262B (en) 2013-05-13 2015-08-26 大连理工大学 A kind of code-transferring method of speech coder code stream
CN103632673B (en) 2013-11-05 2016-05-18 无锡北邮感知技术产业研究院有限公司 A kind of non-linear quantization of speech linear predictive model
WO2015170899A1 (en) * 2014-05-07 2015-11-12 삼성전자 주식회사 Method and device for quantizing linear predictive coefficient, and method and device for dequantizing same

Also Published As

Publication number Publication date
KR20240010550A (en) 2024-01-23
CN110853659A (en) 2020-02-28
SG11201608787UA (en) 2016-12-29
JP6542796B2 (en) 2019-07-10
EP3125241A4 (en) 2017-08-30
US10515646B2 (en) 2019-12-24
KR20220058657A (en) 2022-05-09
JP2017509926A (en) 2017-04-06
US20200090669A1 (en) 2020-03-19
US20230022496A1 (en) 2023-01-26
KR102626320B1 (en) 2024-01-17
CN106463134A (en) 2017-02-22
CN110853659B (en) 2024-01-05
EP3125241A2 (en) 2017-02-01
US20170178649A1 (en) 2017-06-22
EP3125241B1 (en) 2021-05-05
KR102392003B1 (en) 2022-04-28
PL3125241T3 (en) 2021-09-20
US11848020B2 (en) 2023-12-19
KR20160145561A (en) 2016-12-20
SG10201808285UA (en) 2018-10-30
WO2015145266A3 (en) 2016-03-10
US11450329B2 (en) 2022-09-20
EP3869506A1 (en) 2021-08-25
CN106463134B (en) 2019-12-13

Similar Documents

Publication Publication Date Title
US11848020B2 (en) Method and device for quantization of linear prediction coefficient and method and device for inverse quantization
US11922960B2 (en) Method and device for quantizing linear predictive coefficient, and method and device for dequantizing same
KR20120120085A (en) Apparatus for quantizing linear predictive coding coefficients, sound encoding apparatus, apparatus for inverse quantizing linear predictive coding coefficients, sound decoding method, recoding medium and electronic device
JP2011518345A (en) Multi-mode coding of speech-like and non-speech-like signals
CN111105807B (en) Weighting function determining apparatus and method for quantizing linear predictive coding coefficient

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 20167026991

Country of ref document: KR

Kind code of ref document: A

Ref document number: 2016559611

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 15300173

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2015769251

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015769251

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15769251

Country of ref document: EP

Kind code of ref document: A2