EP3330967B1 - Extension améliorée de bande de fréquence dans un décodeur de signaux audiofréquences - Google Patents

Extension améliorée de bande de fréquence dans un décodeur de signaux audiofréquences Download PDF

Info

Publication number
EP3330967B1
EP3330967B1 EP17206567.4A EP17206567A EP3330967B1 EP 3330967 B1 EP3330967 B1 EP 3330967B1 EP 17206567 A EP17206567 A EP 17206567A EP 3330967 B1 EP3330967 B1 EP 3330967B1
Authority
EP
European Patent Office
Prior art keywords
signal
band
frequency
ener
decoded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
EP17206567.4A
Other languages
German (de)
English (en)
Other versions
EP3330967A1 (fr
Inventor
Magdalena KANIEWSKA
Stéphane RAGOT
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=51014390&utm_source=***_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=EP3330967(B1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of EP3330967A1 publication Critical patent/EP3330967A1/fr
Application granted granted Critical
Publication of EP3330967B1 publication Critical patent/EP3330967B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/038Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B41PRINTING; LINING MACHINES; TYPEWRITERS; STAMPS
    • B41KSTAMPS; STAMPING OR NUMBERING APPARATUS OR DEVICES
    • B41K3/00Apparatus for stamping articles having integral means for supporting the articles to be stamped
    • B41K3/54Inking devices
    • B41K3/56Inking devices using inking pads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B41PRINTING; LINING MACHINES; TYPEWRITERS; STAMPS
    • B41KSTAMPS; STAMPING OR NUMBERING APPARATUS OR DEVICES
    • B41K1/00Portable hand-operated devices without means for supporting or locating the articles to be stamped, i.e. hand stamps; Inking devices or other accessories therefor
    • B41K1/02Portable hand-operated devices without means for supporting or locating the articles to be stamped, i.e. hand stamps; Inking devices or other accessories therefor with one or more flat stamping surfaces having fixed images
    • B41K1/04Portable hand-operated devices without means for supporting or locating the articles to be stamped, i.e. hand stamps; Inking devices or other accessories therefor with one or more flat stamping surfaces having fixed images with multiple stamping surfaces; with stamping surfaces replaceable as a whole
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B41PRINTING; LINING MACHINES; TYPEWRITERS; STAMPS
    • B41KSTAMPS; STAMPING OR NUMBERING APPARATUS OR DEVICES
    • B41K1/00Portable hand-operated devices without means for supporting or locating the articles to be stamped, i.e. hand stamps; Inking devices or other accessories therefor
    • B41K1/08Portable hand-operated devices without means for supporting or locating the articles to be stamped, i.e. hand stamps; Inking devices or other accessories therefor with a flat stamping surface and changeable characters
    • B41K1/10Portable hand-operated devices without means for supporting or locating the articles to be stamped, i.e. hand stamps; Inking devices or other accessories therefor with a flat stamping surface and changeable characters having movable type-carrying bands or chains
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B41PRINTING; LINING MACHINES; TYPEWRITERS; STAMPS
    • B41KSTAMPS; STAMPING OR NUMBERING APPARATUS OR DEVICES
    • B41K1/00Portable hand-operated devices without means for supporting or locating the articles to be stamped, i.e. hand stamps; Inking devices or other accessories therefor
    • B41K1/08Portable hand-operated devices without means for supporting or locating the articles to be stamped, i.e. hand stamps; Inking devices or other accessories therefor with a flat stamping surface and changeable characters
    • B41K1/12Portable hand-operated devices without means for supporting or locating the articles to be stamped, i.e. hand stamps; Inking devices or other accessories therefor with a flat stamping surface and changeable characters having adjustable type-carrying wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B41PRINTING; LINING MACHINES; TYPEWRITERS; STAMPS
    • B41KSTAMPS; STAMPING OR NUMBERING APPARATUS OR DEVICES
    • B41K1/00Portable hand-operated devices without means for supporting or locating the articles to be stamped, i.e. hand stamps; Inking devices or other accessories therefor
    • B41K1/36Details
    • B41K1/38Inking devices; Stamping surfaces
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B41PRINTING; LINING MACHINES; TYPEWRITERS; STAMPS
    • B41KSTAMPS; STAMPING OR NUMBERING APPARATUS OR DEVICES
    • B41K1/00Portable hand-operated devices without means for supporting or locating the articles to be stamped, i.e. hand stamps; Inking devices or other accessories therefor
    • B41K1/36Details
    • B41K1/38Inking devices; Stamping surfaces
    • B41K1/40Inking devices operated by stamping movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B41PRINTING; LINING MACHINES; TYPEWRITERS; STAMPS
    • B41KSTAMPS; STAMPING OR NUMBERING APPARATUS OR DEVICES
    • B41K1/00Portable hand-operated devices without means for supporting or locating the articles to be stamped, i.e. hand stamps; Inking devices or other accessories therefor
    • B41K1/36Details
    • B41K1/38Inking devices; Stamping surfaces
    • B41K1/40Inking devices operated by stamping movement
    • B41K1/42Inking devices operated by stamping movement with pads or rollers movable for inking
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0204Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/21Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/26Pre-filtering or post-filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation

Definitions

  • the present invention relates to the field of coding/decoding and processing of audio frequency signals (such as speech, music or other signals) for their transmission or storage.
  • audio frequency signals such as speech, music or other signals
  • the invention relates to a method and a device for frequency band extension in a decoder or a processor performing audio frequency signal improvement.
  • the limitation of the coded band of the AMR-WB codec to 7kHz is essentially linked to the fact that the transmission frequency response of wideband terminals was approximated at the time of standardization (ETSI/3GPP then ITU- T) according to the frequency mask defined in the ITU-T P.341 standard and more precisely by using a filter called “P341” defined in the ITU-T G.191 standard which cuts frequencies above 7 kHz (this filter respects the mask defined in P.341).
  • the 3GPP AMR-WB speech code was standardized in 2001 primarily for circuit mode (CS) telephony applications over GSM (2G) and UMTS (3G). This same code was also standardized in 2003 at the ITU-T as recommendation G.722.2 "Wideband coding speech at around 16kbit/s using Adaptive Multi-Rate Wideband (AMR-WB)".
  • DTX Discontinuous Transmission
  • VAD Voice Activity Detection
  • CNG Noise Generation
  • FEC Frequency Insertion Descriptor
  • band extension in AMR-WB codec is quite rudimentary. Indeed, the high band (6.4-7 kHz) is generated by shaping white noise through a temporal envelope (applied in the form of gains per subframe) and frequency (by the application of a linear prediction synthesis filter or LPC for “Linear Predictive Coding”). This band extension technique is illustrated in figure 1 .
  • correction information is transmitted by the AMR-WB encoder and decoded (blocks 107, 108) in order to refine the estimated gain per subframe (4 bits every 5ms, i.e. 0.8 kbit/s) .
  • s HB ( n ) is finally processed by a band-pass filter (block 112) of the FIR ("Finite Impulse Response") type, to keep only the 6 - 7 kHz band; at 23.85 kbit/s, a low-pass filter also of the FIR type (block 113) is added to the processing to further attenuate frequencies above 7 kHz.
  • the high frequency (HF) synthesis is finally added (block 130) to the low frequency (LF) synthesis obtained with blocks 120 to 123 and resampled at 16 kHz (block 123). So even if the high band theoretically extends from 6.4 to 7 kHz in the AMR-WB code, the HF synthesis is rather included in the 6-7 kHz band before addition with the LF synthesis.
  • the AMR-WB decoding algorithm was improved in part with the development of the ITU-T G.718 scalable codec which was standardized in 2008.
  • the ITU-T G.718 standard includes a so-called interoperable mode, for which the core coding is compatible with G.722.2 (AMR-WB) coding at 12.65 kbit/s; in addition, the G.718 decoder has the particularity of being able to decode an AMR-WB/G.722.2 binary stream at all possible bit rates of the AMR-WB code (from 6.6 to 23.85 kbit/s).
  • the interoperable G.718 decoder in low delay mode (G.718-LD) is illustrated in figure 2 .
  • G.718-LD The interoperable G.718 decoder in low delay mode
  • the band extension (described for example in clause 7.13.1 of recommendation G.718, block 206) is identical to that of the AMR-WB decoder, except that the 6-7 kHz bandpass filter and the synthesis 1/A HB (z) (blocks 111 and 112) are in reverse order.
  • the 4 bits transmitted by subframes by the AMR-WB encoder are not used in the interoperable G.718 decoder; the synthesis of high frequencies (HF) at 23.85 kbit/s is therefore identical to 23.05 kbit/s which avoids the known quality problem of AMR-WB decoding at 23.85 kbit/s.
  • HF high frequencies
  • the low-pass filter at 7 kHz block 113 is not used, and the specific decoding of the 23.85 kbit/s mode is omitted (blocks 107 to 109).
  • Post-processing of the synthesis at 16 kHz is implemented in G.718 by "noise gate” in block 208 (to "improve” the quality of silences by reducing the level) , high-pass filtering (block 209), low-frequency post-filter (called “ bass posfilter ”) in block 210 attenuating inter-harmonic noise at low frequencies and conversion to 16-bit integers with saturation control (with control gain or AGC) in block 211.
  • the synthesis of high frequencies by shaped white noise is a very limited model of the signal in the frequency band above 6.4 kHz.
  • the present invention improves the situation.
  • the invention proposes a method for extending the frequency band of an audio frequency signal during a decoding or improvement process comprising a step of obtaining the decoded signal in a first frequency band called low band, as claimed by claim 1.
  • band extension will be taken in the broad sense and will include not only the case of the extension of a sub-band at high frequencies but also the case of replacement of upgraded sub-bands. to zero (of the “noise filling” type in transform coding).
  • both taking into account tonal components and an ambient signal extracted from the signal resulting from the decoding of the low band makes it possible to carry out the band extension with a signal model adapted to the true nature of the signal unlike the use of artificial noise.
  • the quality of the band extension is thus improved, particularly for certain types of signals such as music signals.
  • the signal decoded in the low band includes a part corresponding to the sound environment which can be transposed to high frequency such that a mixing of the harmonic components and the existing atmosphere makes it possible to ensure a reconstructed high band coherent.
  • band extension in particular in an enhancement device performing an analysis of the audio signal to extract the parameters necessary for band extension.
  • the band extension is performed in the excitation domain and the decoded low-band signal is a decoded low-band excitation signal.
  • the advantage of this embodiment is that a transformation without windowing (or equivalently with an implicit rectangular window of the frame length) is possible in the excitation domain. In this case no artifacts (block effects) are then audible.
  • This embodiment allows precise detection of tonal components.
  • an energy level control factor used for adaptive mixing is calculated based on the total energy of the decoded or decoded and extended low-band signal and the tonal components.
  • the decoded low-band signal undergoes a step of decomposition into sub-bands by transform or by filter bank, the extraction and combination steps then being carried out in the frequency domain or in sub-bands. .
  • the implementation of the band extension in the frequency domain makes it possible to obtain a fineness of frequency analysis which is not available with a temporal approach, and also makes it possible to have sufficient frequency resolution to detect the tonal components. .
  • this function includes resampling the signal by adding samples to the spectrum of this signal.
  • Other ways of extending the signal are however possible, for example by translation in sub-band processing.
  • the present invention also relates to a device for extending the frequency band of an audio frequency signal, the signal having been decoded in a first frequency band called low band, as claimed by claim 8.
  • This device has the same advantages as the method described above, which it implements.
  • the invention relates to a decoder comprising a device as described.
  • the invention relates to a storage medium, readable by a processor, integrated or not into the tape extension device, possibly removable, memorizing a computer program implementing a tape extension method as described above.
  • FIG. 3 illustrates an example of decoder, compatible with the AMR-WB/G.722.2 standard in which we find post-processing similar to that introduced in G.718 and described with reference to the figure 2 and an improved band extension according to the extension method of the invention, implemented by the band extension device illustrated by block 309.
  • AMR-WB decoding which operates with an output sampling frequency of 16 kHz
  • G.718 decoding which operates at 8 or 16 kHz
  • CELP decoding (LF for low frequencies) always works at the internal frequency of 12.8 kHz, as in AMR-WB and G.718, and the band extension (HF for high frequencies) which is the subject of the invention operates at a frequency of 16 kHz, the LF and HF syntheses are combined (block 312) at the frequency fs after adequate resampling (blocks 307 and 311).
  • the combination of the low and high bands can be done at 16 kHz, after having resampled the low band from 12.8 to 16 kHz, before resampling the combined signal at the frequency fs.
  • the post-processings applied to the excitation can be modified (for example, the phase dispersion can be improved) or these post-processings can be extended (for example, a reduction of inter-harmonic noise can be implemented), without affecting the nature of the band extension.
  • We do not describe here the case of low band decoding when the current frame is lost (bfi 1) which is informative in the 3GPP AMR-WB standard; in general, whether it is the AMR-WB decoder or a general decoder based on the source-filter model, it is typically a question of best estimating the LPC excitation and the coefficients of the LPC filter synthesis in order to reconstitute the lost signal while keeping the source-filter model.
  • the low band decoding described above assumes a current so-called “active” frame with a bit rate between 6.6 and 23.85 kbit/s.
  • active a current so-called “active” frame with a bit rate between 6.6 and 23.85 kbit/s.
  • certain frames can be coded as “inactive” and in this case you can either transmit a silence descriptor (on 35 bits) or not transmit anything.
  • SID frame of the AMR-WB encoder describes several parameters: ISF parameters averaged over 8 frames, average energy over 8 frames, "dithering flag" for the reconstruction of non-stationary noise.
  • This example of decoder operates in the excitation domain and therefore includes a step of decoding the low-band excitation signal.
  • the band extension device and the band extension method within the meaning of the invention also operate in a field other than the field of excitation and in particular with a direct signal decoded in low band or a signal weighted by a filter perceptual.
  • the decoder described makes it possible to extend the decoded low band (50-6400 Hz taking into account high-pass filtering at 50 Hz at the decoder, 0-6400 Hz in the general case ) to an extended band whose width varies, ranging approximately from 50-6900 Hz to 50-7700 Hz depending on the mode implemented in the current frame.
  • the excitation for high frequencies and generated in the frequency domain in a band from 5000 to 8000 Hz, to allow bandpass filtering of width 6000 to 6900 or 7700 Hz whose slope is not too steep in the upper rejected band.
  • the high band synthesis part is carried out in block 309 representing the band extension device according to the invention and which is detailed in Figure 5 in one embodiment.
  • a delay (block 310) is introduced to synchronize the outputs of blocks 306 and 309 and the high band synthesized at 16 kHz is resampled from 16 kHz to frequency fs (output of block 311).
  • the extension method of the invention implemented in block 309 according to the first embodiment preferentially does not introduce any additional delay compared to the low band reconstructed at 12.8 kHz; however, in variants of the invention (for example using a time/frequency transformation with overlap), a delay may be introduced.
  • the low and high bands are then combined (added) in block 312 and the synthesis obtained is post-processed by high-pass filtering at 50 Hz (IIR type) of order 2 whose coefficients depend on the frequency fs (block 313) and output post-processing with optional application of the "noise gate” in a manner similar to G.718 (block 314).
  • the band extension device according to the invention illustrated by block 309 according to the embodiment of the decoder of the Figure 5 , implements a band extension process (in the broad sense) now described with reference to the Figure 4 .
  • This extension device can also be independent of the decoder and can implement the method described in Figure 4 to carry out a band extension of an existing audio signal stored or transmitted to the device, with an analysis of the audio signal to extract for example an excitation and an LPC filter.
  • This device receives as input a decoded signal in a first frequency band called low band u(n) which can be in the excitation domain or in that of the signal.
  • a step of decomposition into sub-bands (E401b) by time-frequency transform or filter bank is applied to the low-band decoded signal to obtain the spectrum of the low-band decoded signal U(k) for an update implemented in the frequency domain.
  • This extension step can include both a resampling step and an extension step or simply a frequency translation or transposition step depending on the signal obtained at the input. Note that in variants not covered by the claims, step E401a may be carried out at the end of the processing described in Figure 4 , that is to say on the combined signal, this processing then being mainly carried out on the low band signal before extension, the result being equivalent.
  • a step E402 of extracting an ambient signal ( U HBA ( k )) and tonal components (y(k)) is carried out from the decoded low band signal ( U ( k )) or decoded and extended ( U HB 1 ( k )) .
  • ambience here as the residual signal which is obtained by removing the main (or dominant) harmonics (or tonal components) from the existing signal.
  • the high band In most wideband signals (sampled at 16 kHz), the high band (>6 kHz) contains ambient information that is generally similar to that present in the low band.
  • step E403 The tonal components and the ambient signal are then combined adaptively using energy level control factors in step E403 to obtain a so-called combined signal ( U HB 2 ( k )).
  • the extension step E401a can then be implemented if it has not already been carried out on the decoded low band signal.
  • the combination of these two types of signals makes it possible to obtain a combined signal with characteristics more suited to certain types of signals such as musical signals and richer in frequency content and in the extended frequency band corresponding to the entire band of frequency including the first and second frequency bands.
  • the band extension according to the method improves the quality for this type of signals compared to the extension described in the AMR-WB standard.
  • a synthesis step which corresponds to the analysis in 401b, is carried out in E404b to bring the signal back into the time domain.
  • a step of adjusting the energy level of the high band signal can be carried out in E404a, before and/or after the synthesis step, by application of a gain and/or by appropriate filtering. This step will be explained in more detail in the embodiment described in section Figure 5 for blocks 501 to 507.
  • the band extension device 500 is now described with reference to the Figure 5 illustrating both this device but also processing modules suitable for implementation in an interoperable type decoder with AMR-WB coding.
  • This device 500 implements the band extension method described previously with reference to the Figure 4 .
  • the processing block 510 receives a decoded low-band signal ( u ( n )).
  • the band extension uses the excitation decoded at 12.8 kHz (exc2 or u ( n )) at the output of block 302 of the Figure 3 .
  • This signal is decomposed into frequency sub-bands by the sub-band decomposition module 510 (which implements step E401b of the Figure 4 ) which generally carries out a transform or applies a bank of filters, to obtain a decomposition into sub-bands U(k) of the signal u(n).
  • the sub-band decomposition module 510 which implements step E401b of the Figure 4 .
  • a windowless transformation (or equivalently with an implicit rectangular window of the frame length) is possible when processing is performed in the excitation domain, not the signal domain. In this case no artifact (block effects) is audible, which constitutes an important advantage of this embodiment of the invention.
  • the DCT-IV transformation is implemented by FFT following the so-called “Evolved DCT (EDCT )” algorithm described in the article by DM Zhang, HT Li, A Low Complexity Transform - Evolved DCT, IEEE 14th International Conference on Computational Science and Engineering (CSE), Aug. 2011, pp. 144-149 , and implemented in ITU-T standards G.718 Annex B and G.729.1 Annex E.
  • the DCT-IV transformation can be replaced by other short-term time-frequency transformations of the same length and in the excitation domain or in the signal domain, such as an FFT (for "Fast Fourier Transform” in English ) or a DCT-II ( Discrete Cosine Transform - Type II).
  • FFT Fast Fourier Transform
  • DCT-II Discrete Cosine Transform - Type II
  • MDCT for "Modified Discrete Cosine Transform” in English
  • the delay T in block 310 of the Figure 3 will have to be adjusted (reduced) adequately according to the additional delay due to the analysis/synthesis by this transform.
  • the decomposition into sub-bands is carried out by the application of a bank of filters, for example of the real or complex PQMF (Pseudo-QMF) type.
  • a bank of filters for example of the real or complex PQMF (Pseudo-QMF) type.
  • PQMF Pseudo-QMF
  • the preferred embodiment in the invention can be applied by carrying out for example a transform of each sub-band and calculating the ambient signal in the domain of absolute values, the tonal components always being obtained by difference between the signal (in absolute value) and the ambient signal.
  • the complex modulus of the samples will replace the absolute value.
  • the invention will be applied in a system using two sub-bands, the low band being analyzed by transform or by filter bank.
  • Block 511 implements step E401a of the Figure 4 , that is to say the extension of the low band decoded signal.
  • the original spectrum is preserved, to be able to apply a progressive attenuation response of the high-pass filter in this frequency band and also to not introduce audible defects during the step of adding the low frequency synthesis to the high frequency synthesis.
  • the generation of the oversampled extended spectrum is carried out in a frequency band ranging from 5 to 8 kHz therefore including a second frequency band (6.4-8kHz) greater than the first frequency band (0 -6.4 kHz).
  • the extension of the decoded low band signal is carried out at least on the second frequency band but also on part of the first frequency band.
  • the 6000-8000 Hz band of U HB 1 ( k ) is defined here by copying the 4000-6000 Hz band of U ( k ) since the value of start_band is preferably fixed at 160.
  • the value of start_band can be made adaptive around the value of 160, without modifying the nature of the invention.
  • the details of adapting the start_band value are not described here because they go beyond the scope of the invention without changing its scope.
  • the high band (>6 kHz) contains ambient information that is naturally similar to that present in the low band.
  • the ambience here as the residual signal which is obtained by removing the main (or dominant) harmonics from the existing signal. Harmonicity level in the 6000-8000 Hz band is generally correlated with that of lower frequency bands.
  • This decoded and extended low band signal is supplied at the input of the extension device 500 and in particular at the input of the module 512.
  • the block 512 for extracting tonal components and an ambient signal implements the step E402 of the Figure 4 in the frequency domain.
  • L 80 and represents the length of the spectrum and the index i from 0 to L -1 corresponds to the indices j + 240 from 240 to 319, i.e. the spectrum from 6 to 8 kHz.
  • This variant has the drawback of being more complex (in terms of number of calculations ) than a rolling average.
  • a non-uniform weighting could be applied to the averaged terms, or the median filtering could be replaced, for example, by other non-linear filters of the “ stack filters” type.
  • This calculation therefore involves implicit detection of tonal components.
  • the tonal parts are therefore implicitly detected using the intermediate term y(i) representing an adaptive threshold.
  • the detection condition being y( i ) >0.
  • this ambient signal can be extracted from a low frequency signal or possibly another frequency band (or several frequency bands).
  • the detection of peaks or tonal components can be done differently.
  • This ambient signal could also be done on the decoded excitation but not extended, that is to say before the spectral extension or translation step, that is to say for example on a portion of the low frequency signal rather than directly on the high frequency signal.
  • a peak (or tonal component) is detected at a line of index i in the amplitude spectrum
  • if the following criterion is verified: U H.B. 1 i + 240 > U H.B. 1 i + 240 ⁇ 1 And U H.B. 1 i + 240 > U H.B. 1 i + 240 + 1 , for i 0,..., L - 1 .
  • a sinusoidal model is applied in order to estimate the amplitude, frequency and possibly phase parameters of a tonal component associated with this peak.
  • the frequency estimation can typically use a 3-point parabolic interpolation in order to locate the maximum of the parabola approximating the 3 amplitude points
  • the transform domain used here (DCT-IV) does not make it possible to directly obtain the phase, we can in one embodiment neglect this term, but in variants we can apply a quadrature transform of the DST type to estimate a phase term.
  • the sinusoidal parameters (frequency, amplitude, and possibly phase) of each tonal component being estimated we then calculate the term y(i) as the sum of predefined prototypes (spectra) of pure sinusoids transformed in the DCT-IV domain (or other if another decomposition into sub-bands is used) according to the estimated sinusoidal parameters. Finally, we apply an absolute value to the terms y( i ) to return to the domain of the amplitude spectrum in absolute values.
  • the absolute value of the spectral values will be replaced, for example the square of the spectral values, without changing the principle of the invention; in this case a square root will be necessary to return to the signal domain, which is more complex to achieve.
  • the combination module 513 performs a combination step by adaptive mixing of the ambient signal and the tonal components.
  • the factor ⁇ is > 1.
  • the tonal components, detected line by line by the condition y ( i ) > 0, are reduced by the factor ⁇ ; the average level is amplified by the factor 1/ ⁇ .
  • an energy level control factor is calculated based on the total energy of the decoded (or decoded and expanded) low-band signal and the tonal components.
  • is calculated so as to keep the same level of ambient signal in relation to the energy of the tonal components in the consecutive bands of the signal.
  • E NOT 2 ⁇ 4 ⁇ k ⁇ NOT 80,159 U ′ 2 k
  • E NOT 4 ⁇ 6 ⁇ k ⁇ NOT 160,239 U ′ 2 k
  • E NOT 4 ⁇ 6 ⁇ k ⁇ NOT 240,319 U ′ 2 k
  • N( k 1 , k 2 ) is the set of indices k for which the index coefficient k is classified as being associated with the tonal components.
  • This set can for example be obtained by detecting local peaks in U' ( k ) satisfying
  • E NOT 4 ⁇ 6 max E NOT 4 ⁇ 6 E NOT 2 ⁇ 4
  • E NOT 4 ⁇ 6 2 E NOT 2 ⁇ 4
  • max ⁇ E NOT 6 ⁇ 8
  • max(.,.) is the function which gives the maximum of the two arguments.
  • the calculation of ⁇ may be replaced by other methods.
  • the linear regression could for example be estimated in a supervised manner by estimating the factor ⁇ by giving the original high band in a base d 'learning. It should be noted that the method of calculating ⁇ does not limit the nature of the invention.
  • ⁇ and ⁇ are possible within the framework of the invention.
  • the block 501 in a particular embodiment optionally performs a double operation of applying the frequency response of the band-pass filter and de-emphasis filtering (or de-emphasis ) in the frequency domain.
  • the de-emphasis filtering could be carried out in the time domain, after block 502 or even before block 510; however, in this case, the bandpass filtering carried out in block 501 can leave certain low frequency components of very low levels which are amplified by deemphasis, which can modify the decoded low band in a slightly perceptible manner. For this reason, we prefer here to carry out the de-emphasis in the frequency domain.
  • ⁇ k can be adjusted (for example for even frequencies).
  • the high-frequency signal is on the contrary de-emphasized so as to bring it back into a domain coherent with the low-frequency signal (0-6.4 kHz) which leaves block 305 of the Figure 3 . This is important for the estimation and subsequent adjustment of the energy of HF synthesis.
  • the de-emphasis can be carried out equivalently in the time domain after inverse DCT.
  • bandpass filtering is applied with two separate parts: one fixed high pass, the other adaptive low pass (depending on the bitrate).
  • This filtering is carried out in the frequency domain.
  • G hp ( k ), k 0, ⁇ ,55, is given for example in Table 1 below.
  • Table 1 Table 1 ⁇ /b> K ghp ( k ) K ghp ( k ) K ghp ( k ) k ghp ( k ) 0 0.001622428 14 0.114057967 28 0.403990611 42 0.776551214 1 0.004717458 15 0.128865425 29 0.430149896 43 0.800503267 2 0.008410494 16 0.144662643 30 0.456722014 44 0.823611104 3 0.012747280 17 0.161445005 31 0.483628433 45 0.845788355 4 0.017772424 18 0.179202219 32 0.510787115 46 0.866951597 5 0.023528982 19 0.197918220 33 0.538112915 47 0.887020781 6 0.030058032 20 0.217571104 34 0.565518011 48 0.905919644
  • G hp ( k ) can be modified while maintaining progressive attenuation.
  • low-pass filtering with variable bandwidth, G lp ( k ) can be adjusted with different values or frequency support, without changing the principle of this filtering step.
  • bandpass filtering can be adapted by defining a single filtering step combining high-pass and low-pass filtering.
  • the bandpass filtering could be carried out equivalently in the time domain (as in block 112 of the figure 1 ) with different filter coefficients depending on the flow rate, after an inverse DCT step.
  • it is advantageous to carry out this step directly in the frequency domain because the filtering is carried out in the LPC excitation domain and therefore the problems of circular convolution and edge effects are very limited in this domain. .
  • block 502 performs the synthesis corresponding to the analysis carried out in block 510.
  • the signal sampled at 16 kHz is then optionally scaled by gains defined per subframe of 80 samples (block 504).
  • block 503 differs from that of block 101 of the figure 1 , because the energy at the current frame is taken into account in addition to that of the subframe. This allows us to have the ratio of the energy of each subframe compared to the energy of the frame. We therefore compare energy ratios (or relative energies) rather than absolute energies between low band and high band.
  • this scaling step makes it possible to maintain in the high band the energy ratio between the subframe and the frame in the same way as in the low band.
  • Blocks 505 and 506 are useful for adjusting the level of the LPC synthesis filter (block 507), here as a function of the tilt of the signal. Other methods of calculating the gain g HB 2 ( m ) are possible without changing the nature of the invention.
  • this filtering could be carried out in the same way as what is described for block 111 of the figure 1 of the AMR-WB decoder, however the order of the filter increases to 20 at a bit rate of 6.6, which does not significantly change the quality of the synthesized signal.
  • LPC synthesis filtering can be carried out in the frequency domain, after having calculated the frequency response of the filter implemented in block 507.
  • the coding of the low band (0-6.4 kHz) could be replaced by a CELP coder other than that used in AMR-WB, such as for example the CELP coder in G.718 at 8 kbps.
  • a CELP coder other than that used in AMR-WB, such as for example the CELP coder in G.718 at 8 kbps.
  • other wideband encoders or those operating at frequencies above 16 kHz, in which the low band coding operates at an internal frequency of 12.8 kHz could be used.
  • the invention can obviously be adapted to sampling frequencies other than 12.8 kHz, when a low frequency encoder operates at a sampling frequency lower than that of the original or reconstructed signal.
  • the excitation or the low band signal ( u ( n )) is re-sampled, for example by linear or cubic "spline" interpolation, of 12.8 to 16 kHz before transformation (for example DCT-IV) of length 320.
  • This variant has the drawback of being more complex, because the transform (DCT-IV) of the excitation or signal is then calculated on a larger length and resampling is not performed in the transform domain.
  • FIG. 6 represents an example of hardware embodiment of a band extension device 600 according to the invention. This can be an integral part of an audio frequency signal decoder or of equipment receiving decoded or non-decoded audio frequency signals.
  • This type of device comprises a processor PROC cooperating with a memory block BM comprising a storage and/or working memory MEM.
  • Such a device comprises an input module E capable of receiving an audio signal decoded or extracted in a first frequency band called low band reduced to the frequency domain ( U ( k )). It comprises an output module S capable of transmitting the extension signal in a second frequency band ( U HB 2 ( k )) for example to a filter module 501 of the Figure 5 .
  • the memory block may advantageously comprise a computer program comprising code instructions for implementing the steps of the band extension method within the meaning of the invention, when these instructions are executed by the processor PROC, and in particular the steps extracting (E402) tonal components and an ambient signal from a signal from the decoded low band signal ( U ( k )), combining (E403) the tonal components (y(k)) and the ambient signal ( U HBA ( k )) by adaptive mixing using energy level control factors to obtain an audio signal, called combined signal ( U HB 2 ( k )), extension (E401a) on at least a second frequency band greater than the first frequency band of the low-band decoded signal before the extraction step or of the combined signal after the combination step.
  • the description of the figure 4 repeats the steps of an algorithm of such a computer program.
  • the computer program can also be stored on a memory medium readable by a reader of the device or downloadable into the memory space thereof.
  • the MEM memory generally records all the data necessary for implementing the process.
  • the device thus described can also include the low-band decoding functions and other processing functions described for example in Figure 5 And 3 in addition to the band extension functions according to the invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Stereophonic System (AREA)
  • Tone Control, Compression And Expansion, Limiting Amplitude (AREA)

Description

  • La présente invention se rapporte au domaine du codage/décodage et du traitement de signaux audiofréquences (comme des signaux de parole, de musique ou autres) pour leur transmission ou leur stockage.
  • Plus particulièrement, l'invention concerne un procédé et un dispositif d'extension de bande de fréquence dans un décodeur ou un processeur réalisant une amélioration de signal audiofréquence.
  • De nombreuses techniques existent pour compresser (avec perte) un signal audiofréquence comme la parole ou la musique.
  • Les méthodes classiques de codage pour les applications conversationnelles sont en général classifiées en codage de forme d'onde (MIC pour "Modulation par Impulsion et codage", MICDA pour "Modulation par Impulsion et Codage Différentiel Adaptatif", codage par transformée...), codage paramétrique (LPC pour "Linear Predictive Coding" en anglais, codage sinusoïdal...) et codage hybride paramétrique avec une quantification des paramètres par "analyse par synthèse" dont le codage CELP (pour "Code Excited Linear Prédiction" en anglais) est l'exemple le plus connu.
  • Pour les applications non conversationnelles, l'état de l'art en codage de signal audio (mono) est constitué par le codage perceptuel par transformée ou en sous-bandes, avec un codage paramétrique des hautes fréquences par réplication de bande (SBR pour Spectral Band Replication en anglais).
    Une revue des méthodes classiques de codage de parole et audio se trouve dans les ouvrages W.B. Kleijn and K.K. Paliwal (Eds.), Speech Coding and Synthesis, Elsevier, 1995 ; M. Bosi, R.E. Goldberg, Introduction to Digital Audio Coding and Standards, Springer 2002 ; J. Benesty, M.M. Sondhi, Y. Huang (Eds.), Handbook of Speech Processing, Springer 2008.
  • On s'intéresse ici plus particulièrement au codée (codeur et décodeur) normalisé 3GPP AMR-WB (pour "Adaptive Multi-Rate Wideband" en anglais) qui fonctionne à une fréquence d'entrée/sortie de 16 kHz et dans lequel le signal est divisé en deux sous-bandes, la bande basse (0-6.4 kHz) qui est échantillonnée à 12.8 kHz et codée par modèle CELP et la bande haute (6.4-7 kHz) qui est reconstruite de façon paramétrique par « extension de bande » (ou BWE pour "Bandwidth Extension" en anglais) avec ou sans information supplémentaire selon le mode de la trame courante. On peut noter ici que la limitation de la bande codée du codée AMR-WB à 7kHz est essentiellement liée au fait que la réponse en fréquence en émission des terminaux en bande élargie a été approximée au moment de la normalisation (ETSI/3GPP puis UIT-T) selon le masque fréquentiel défini dans la norme UIT-T P.341 et plus précisément en utilisant un filtre dit « P341 » défini dans la norme UIT-T G.191 qui coupe les fréquences au-dessus de 7 kHz (ce filtre respecte le masque défini dans P.341). Cependant, en théorie, il est bien connu qu'un signal échantillonné à 16 kHz peut avoir une bande audio définie de 0 à 8000 Hz ; le codée AMR-WB introduit donc une limitation de la bande haute en comparaison à la largeur de bande théorique de 8 kHz.
  • Le codée de parole 3GPP AMR-WB a été normalisé en 2001 principalement pour les applications de téléphonie en mode circuit (CS) sur GSM (2G) et UMTS (3G). Ce même codée a été aussi normalisé en 2003 à l'UIT-T en tant que recommandation G.722.2 "Wideband coding speech at around 16kbit/s using Adaptive Multi-Rate Wideband (AMR-WB)".
  • Il comprend neuf débits, appelés modes, de 6.6 à 23.85 kbit/s, et comprend des mécanismes de transmission continue (DTX pour "Discontinuous Transmission") avec détection d'activité vocale (VAD pour "Voice Activity Détection") et génération de bruit de confort (CNG pour "Confort Noise Génération") à partir de trames de description de silence (SID pour "Silence Insertion Descriptor"), ainsi que des mécanismes de correction de trames perdues (FEC pour "Frame Erasure Concealment", parfois appelé PLC pour "Packet Loss Concealment").
  • On ne reprend pas ici les détails de l'algorithme de codage et de décodage AMR-WB, une description détaillée de ce codée se trouve dans les spécifications 3GPP (TS 26.190, 26.191, 26.192, 26.193, 26.194, 26.204) et UIT-T-G.722.2 (et les Annexes et Appendice correspondantes) ainsi que dans l'article de B. Bessette et al. intitulé « The adaptive multirate wideband speech codée (AMR-WB) », IEEE Transactions on Speech and Audio Processing, vol. 10, no. 8, 2002, pp. 620-636 et les codes sources des standards 3GPP et UIT-T associés.
  • Le principe de l'extension de bande dans le codée AMR-WB est assez rudimentaire. En effet, la bande haute (6.4-7 kHz) est générée en mettant en forme un bruit blanc par le biais d'une enveloppe temporelle (appliquée sous la forme de gains par sous-trame) et fréquentielle (par l'application d'un filtre de synthèse de prédiction linéaire ou LPC pour "Linear Predictive Coding"). Cette technique d'extension de bande est illustrée à la figure 1 .
  • Un bruit blanc, u HB1(n), n = 0,···,79, est généré à 16 kHz par sous-trame de 5 ms par générateur congruentiel linéaire (bloc 100). Ce bruit u HB1(n) est mis en forme dans le temps par application de gains par sous-trame ; cette opération est décomposée en deux étapes de traitement (blocs 102, 106 ou 109) :
    • Un premier facteur est calculé (bloc 101) pour mettre le bruit blanc u HB1(n) (bloc 102) à un niveau semblable à celui de l'excitation, u(n), n = 0,···,63, décodée à 12.8 kHz dans la bande basse : u HB 2 n = u HB 1 n l = 0 63 u l 2 l = 0 79 u HB 1 l 2
      Figure imgb0001
  • On peut noter ici que la normalisation des énergies se fait en comparant des blocs de taille différente (64 pour u(n) et 80 pour u HB1(n)), sans compensation des différences de fréquences d'échantillonnage (12.8 ou 16 kHz).
    • L'excitation dans la bande haute est ensuite obtenue (bloc 106 ou 109) sous la forme : u HB n = g ^ HB u HB 2 n
      Figure imgb0002
      où le gain HB est obtenu différemment selon le débit. Si le débit de la trame actuelle est <23.85 kbit/s, le gain HB est estimé « en aveugle » (c'est-à-dire sans information supplémentaire); dans ce cas, le bloc 103 filtre le signal décodé en bande basse par un filtre passe-haut ayant une fréquence de coupure à 400 Hz pour obtenir un signal hp (n), n = 0,···,63 - ce filtre passe-haut élimine l'influence des très basses fréquences qui peuvent biaiser l'estimation faite dans le bloc 104 - puis on calcule le « tilt » (indicateur de pente spectrale) noté etilt du signal hp (n) par autocorrélation normalisée (bloc 104): e tilt = n = 1 63 s ^ hp n s ^ hp n 1 n = 0 63 s ^ hp n 2
      Figure imgb0003
      et enfin on calcule HB sous la forme : g ^ HB = w SP g SP + 1 w SP g BG
      Figure imgb0004
      gSP =1-etilt est le gain appliqué dans les trames actives de parole (SP pour speech), gBG =1.25gSP est le gain appliqué dans les trames inactives de parole associées à un bruit de fond (BG pour Background) et wSP est une fonction de pondération qui dépend de la détection d'activité vocale (VAD). On comprend que l'estimation du tilt (etilt ) permet d'adapter le niveau de la bande haute en fonction de la nature spectrale du signal ; cette estimation est particulièrement importante quand la pente spectrale du signal décodé CELP est telle que l'énergie moyenne décroît quand la fréquence augmente (cas d'un signal voisé où etilt est proche de 1, donc gSP =1-etilt est ainsi réduit). A noter aussi que le facteur HB dans le décodage AMR-WB est borné pour prendre des valeurs dans l'intervalle [0.1, 1.0]. En fait, pour les signaux dont le spectre a plus d'énergie en hautes fréquences (etilt proche de -1, gSP proche de 2), le gain HB est d'habitude sous-estimé.
  • A 23.85 kbit/s, une information de correction est transmise par le codeur AMR-WB et décodée (blocs 107, 108) afin d'affiner le gain estimé par sous-trame (4 bits toutes les 5ms, soit 0.8 kbit/s).
  • L'excitation artificielle uHB (n) est ensuite filtrée (bloc 111) par un filtre de synthèse LPC de fonction de transfert 1/AHB (z) et fonctionnant à la fréquence d'échantillonnage de 16 kHz. La réalisation de ce filtre dépend du débit de la trame courante:
    • A 6.6 kbit/s, le filtre 1/AHB (z) est obtenu en pondérant par un facteur γ=0.9 un filtre LPC d'ordre 20, 1/Âext (z) qui « extrapole » le filtre LPC d'ordre 16, 1/Â(z), décodé dans la bande basse (à 12.8 kHz) - les détails de l'extrapolation dans le domaine des paramètres ISF (pour "Imittance Spectral Frequency" en anglais) sont décrits dans la norme G.722.2 à la section 6.3.2.1; dans ce cas, 1 / A HB z = 1 / A ^ ext z / γ
      Figure imgb0005
    • Aux débits > 6.6 kbit/s, le filtre 1/AHB (z) est d'ordre 16 et correspond simplement à : 1 / A HB z = 1 / A ^ z / γ
      Figure imgb0006
      où y=0.6. A noter que dans ce cas le filtre 1/ Â(z / γ) est utilisé à 16 kHz, ce qui résulte en un étalement (par homothétie) de la réponse en fréquence de ce filtre de [0, 6.4 kHz] à [0, 8 kHz].
  • Le résultat, sHB (n), est enfin traité par un filtre passe-bande (bloc 112) de type FIR ("Finite Impulse Response"), pour ne garder que la bande 6 - 7 kHz ; à 23.85 kbit/s, un filtre passe-bas également de type FIR (bloc 113) se rajoute au traitement pour atténuer encore plus les fréquences supérieures à 7 kHz. La synthèse en hautes fréquences (HF) est finalement additionnée (bloc 130) à la synthèse en basses fréquences (BF) obtenue avec les blocs 120 à 123 et ré-échantillonnée à 16 kHz (bloc 123). Ainsi même si la bande haute s'étend en théorie de 6.4 à 7 kHz dans le codée AMR-WB, la synthèse HF est plutôt comprise dans la bande 6-7 kHz avant addition avec la synthèse BF.
  • On peut identifier plusieurs inconvénients à la technique d'extension de bande du codée AMR-WB :
    • Le signal dans la bande haute est un bruit blanc mis en forme (par gains temporels par sous-trame, par filtrage par 1/AHB (z) et filtrage passe-bande), ce qui n'est pas un bon modèle général du signal dans la bande 6.4-7 kHz. Il existe par exemple des signaux de musique très harmoniques pour lesquels la bande 6.4-7 kHz contient des composantes sinusoïdales (ou tones) et aucun bruit (ou peu de bruit), pour ces signaux l'extension de bande du codée AMR-WB dégrade fortement la qualité.
    • Le filtre passe-bas à 7 kHz (bloc 113) introduit un décalage de près de 1 ms entre les bandes basses et hautes, ce qui peut potentiellement dégrader la qualité de certains signaux en désynchronisant légèrement les deux bandes à 23.85 kbit/s - cette désynchronisation peut également poser problème lors d'une commutation de débit de 23.85 kbit/s à d'autres modes.
    • L'estimation de gains par sous-trame (bloc 101, 103 à 105) n'est pas optimale. Pour partie, elle se base sur une égalisation de l'énergie « absolue » par sous-trame (bloc 101) entre des signaux à des fréquences différentes : l'excitation artificielle à 16 kHz (bruit blanc) et un signal à 12.8 kHz (excitation ACELP décodée). On peut noter en particulier que cette approche induit implicitement une atténuation de l'excitation bande haute (par un ratio 12.8/16=0.8) ; en fait, on notera également qu'aucune désaccentuation (ou déemphase) n'est effectuée sur la bande haute dans le codée AMR-WB, ce qui induit implicitement une amplification relative proche de 0.6 (qui correspond à la valeur de la réponse en fréquence de 1/(1-0.68z -1) à 6400 Hz). En fait, les facteurs de 1/0.8 et de 0.6 se compensent approximativement.
    • Sur la parole, les tests de caractérisation du codée 3GPP AMR-WB documentés dans le rapport 3GPP TR 26.976 ont montré que le mode à 23.85 kbit/s a une qualité moins bonne qu'à 23.05 kbit/s, sa qualité est en fait similaire à celle du mode à 15.85 kbit/s. Ceci montre en particulier que le niveau du signal HF artificiel doit être contrôlé de façon très prudente, car la qualité est dégradée à 23.85 kbit/s alors que les 4 bits par trame sont sensés permettre de mieux approcher l'énergie des hautes fréquences originales.
    • La limitation de la bande codée à 7 kHz résulte de l'application d'un modèle strict de la réponse en émission des terminaux acoustiques (filtre P.341 dans la norme UIT-T G.191). Or, pour une fréquence d'échantillonnage de 16 kHz, les fréquences dans la bande 7-8 kHz restent importantes, en particulier pour les signaux de musique, pour assurer un bon niveau de qualité.
  • L'algorithme de décodage AMR-WB a été amélioré en partie avec le développement du codée scalable UIT-T G.718 qui a été normalisé en 2008.
  • La norme UIT-T G.718 comprend un mode dit interopérable, pour lequel le codage coeur est compatible avec le codage G.722.2 (AMR-WB) à 12.65 kbit/s ; de plus, le décodeur G.718 a la particularité de pouvoir décoder un train binaire AMR-WB/G.722.2 à tous les débits possibles du codée AMR-WB (de 6.6 à 23.85 kbit/s).
  • Le décodeur interopérable G.718 en mode bas délai (« low delay » en anglais) (G.718-LD) est illustré à la figure 2 . On liste ci-dessous les améliorations apportées à la fonctionnalité de décodage de train binaire AMR-WB dans le décodeur G.718, avec des références à la figure 1 lorsque nécessaire :
    L'extension de bande (décrite par exemple dans la clause 7.13.1 de la recommendation G.718, bloc 206) est identique à celle du décodeur AMR-WB, sauf que le filtre passe-bande 6-7 kHz et le filtre de synthèse 1/AHB(z) (blocs 111 et 112) sont en ordre inversé. De plus, à 23.85 kbit/s les 4 bits transmis par sous-trames par le codeur AMR-WB ne sont pas utilisés dans le décodeur G.718 interopérable ; la synthèse des hautes fréquences (HF) à 23.85 kbit/s est donc identique à 23.05 kbit/s ce qui évite le problème connu de qualité du décodage AMR-WB à 23.85 kbit/s. A fortiori, le filtre passe-bas à 7 kHz (bloc 113) n'est pas utilisé, et le décodage spécifique du mode à 23.85 kbit/s est omis (blocs 107 à 109).
  • Un post-traitement de la synthèse à 16 kHz (voir clause 7.14 de G.718) est mis en oeuvre dans G.718 par "noise gâte" dans le bloc 208 (pour « améliorer » la qualité des silences par réduction du niveau), filtrage passe-haut (bloc 209), post-filtre de basses fréquences (dit « bass posfilter ») dans le bloc 210 atténuant le bruit inter-harmonique en basses fréquences et une conversion en entiers 16 bits avec contrôle de saturation (avec contrôle de gain ou AGC) dans le bloc 211.
  • Cependant l'extension de bande dans les codées AMR-WB et/ou G.718 (mode interopérable) reste encore limitée sur plusieurs aspects.
  • En particulier, la synthèse de hautes fréquences par bruit blanc mis en forme (par une approche temporelle de type source-filtre LPC) est un modèle très limité du signal dans la bande des fréquences supérieures à 6.4 kHz.
  • Seule la bande 6.4-7 kHz est re-synthétisée de façon artificielle, alors qu'en pratique une bande plus large (jusqu'à 8 kHz) est en théorie possible à la fréquence d'échantillonnage de 16 kHz, ce qui peut potentiellement améliorer la qualité des signaux, s'ils ne sont pas prétraités par un filtre de type P.341 (50-7000 Hz) tel que définie dans la Software Tool Library (norme G.191) de l'UIT-T.
  • L'article "New Enhancements to the Audio Bandwidth Extension Toolkit (ABET)"by Anndana et al. décrit une série d'améliorations des outils d'extension de bande de fréquences (ASR, FSSM et MBTAC).
  • Il existe donc un besoin pour améliorer l'extension de bande dans un codée de type AMR-WB ou une version interopérable de ce codée ou plus généralement pour améliorer l'extension de bande d'un signal audio, notamment pour améliorer le contenu fréquentiel de l'extension de bande.
  • La présente invention vient améliorer la situation.
  • L'invention propose à cet effet, un procédé d'extension de bande de fréquence d'un signal audiofréquence lors d'un processus de décodage ou d'amélioration comportant une étape d'obtention du signal décodé dans une première bande de fréquence dite bande basse, tel que revendiqué par la revendication 1.
  • On notera que par la suite l' « extension de bande » sera prise au sens large et inclura non seulement le cas de l'extension d'une sous-bande en hautes fréquences mais également le cas d'un remplacement de sous-bandes mises à zéro (de type « noise filling » en codage par transformée).
  • Ainsi, à la fois la prise en compte de composantes tonales et d'un signal d'ambiance extrait du signal issu du décodage de la bande basse permet d'effectuer l'extension de bande avec un modèle de signal adapté à la vraie nature du signal contrairement à l'utilisation d'un bruit artificiel. La qualité de l'extension de bande est ainsi améliorée et notamment pour certains types de signaux comme les signaux de musique.
  • En effet, le signal décodé dans la bande basse comporte une partie correspondant à l'ambiance sonore qui peut être transposée en haute fréquence de telle sorte qu'un mixage des composantes harmoniques et de l'ambiance existante permet d'assurer une bande haute reconstruite cohérente.
  • On remarquera que même si l'invention est motivée par l'amélioration de la qualité de l'extension de bande dans le contexte du codage AMR-WB interopérable, les différents modes de réalisation s'appliquent au cas plus général de l'extension de bande d'un signal audio, en particulier dans un dispositif d'amélioration effectuant une analyse du signal audio pour extraire les paramètres nécessaires à l'extension de bande.
  • Les différents modes particuliers de réalisation mentionnés ci-après peuvent être ajoutés indépendamment ou en combinaison les uns avec les autres, aux étapes du procédé d'extension défini ci-dessus.
  • Dans un mode de réalisation, l'extension de bande est effectuée dans le domaine de l'excitation et le signal bande basse décodé est un signal d'excitation bande basse décodé.
  • L'avantage de ce mode de réalisation est qu'une transformation sans fenêtrage (ou de façon équivalente avec une fenêtre rectangulaire implicite de la longueur de la trame) est possible dans le domaine de l'excitation. Dans ce cas aucun artefact (effets de bloc) n'est alors audible.
  • Dans un premier mode de réalisation, l'extraction des composantes tonales et du signal d'ambiance s'effectue selon les étapes suivantes :
    • détection des composantes tonales dominantes du signal bande basse décodé ou décodé et étendu, dans le domaine fréquentiel ;
    • calcul d'un signal résiduel par extraction des composantes tonales dominantes pour obtenir le signal d'ambiance.
  • Ce mode de réalisation permet une détection précise des composantes tonales.
  • Dans un deuxième mode de réalisation, de faible complexité, l'extraction des composantes tonales et du signal d'ambiance s'effectue selon les étapes suivantes :
    • obtention du signal d'ambiance par calcul d'une valeur moyenne du spectre du signal bande basse décodé ou décodé et étendu ;
    • obtention des composantes tonales par soustraction du signal d'ambiance calculé au signal bande basse décodé ou décodé et étendu.
  • Dans un mode de réalisation de l'étape de combinaison, un facteur de contrôle du niveau d'énergie utilisé pour le mixage adaptatif, est calculé en fonction de l'énergie totale du signal bande basse décodé ou décodé et étendu et des composantes tonales.
  • L'application de ce facteur de contrôle permet à l'étape de combinaison de s'adapter aux caractéristiques du signal pour optimiser la proportion relative de signal d'ambiance dans le mélange. Le niveau d'énergie est ainsi contrôlé de façon à éviter les artefacts audibles.
  • Dans un mode de réalisation préféré, le signal bande basse décodé subit une étape de décomposition en sous-bandes par transformée ou par banc de filtres, les étapes d'extraction et de combinaison s'effectuant alors dans le domaine fréquentiel ou en sous-bandes.
  • La mise en oeuvre de l'extension de bande dans le domaine fréquentiel permet d'obtenir une finesse d'analyse en fréquence dont on ne dispose pas avec une approche temporelle, et permet aussi d'avoir une résolution fréquentielle suffisante pour détecter les composantes tonales.
  • Dans un mode de réalisation détaillé, le signal bande basse décodé et étendu est obtenu selon l'équation suivante: U HB 1 k = { 0 k = 0 , , 199 U k k = 200 , , 239 U k + start _ band 240 k = 240 , , 319
    Figure imgb0007
    avec k l'indice de l'échantillon, U(k) le spectre du signal obtenu après une étape de transformée, U HB1(k) le spectre du signal étendu, et start_band une variable prédéfinie.
  • Ainsi, cette fonction comprend un ré-échantillonnage du signal en ajoutant des échantillons au spectre de ce signal. D'autres façons d'étendre le signal sont cependant possibles, par exemple par translation dans un traitement sous-bandes.
  • La présente invention vise également un dispositif d'extension de bande de fréquence d'un signal audiofréquence, le signal ayant été décodé dans une première bande de fréquence dite bande basse, tel que revendiqué par la revendication 8.
  • Ce dispositif présente les mêmes avantages que le procédé décrit précédemment, qu'il met en oeuvre.
  • L'invention vise un décodeur comportant un dispositif tel que décrit.
  • Elle vise un programme informatique comportant des instructions de code pour la mise en oeuvre des étapes du procédé d'extension de bande tel que décrit, lorsque ces instructions sont exécutées par un processeur.
  • Enfin l'invention se rapporte à un support de stockage, lisible par un processeur, intégré ou non au dispositif d'extension de bande, éventuellement amovible, mémorisant un programme informatique mettant en oeuvre un procédé d'extension de bande tel que décrit précédemment.
  • D'autres caractéristiques et avantages de l'invention apparaîtront plus clairement à la lecture de la description suivante, donnée uniquement à titre d'exemple non limitatif, et faite en référence aux dessins annexés, sur lesquels :
    • la figure 1 illustre une partie d'un décodeur de type AMR-WB mettant en oeuvre des étapes d'extension de bande de fréquence de l'état de l'art et tel que décrit précédemment;
    • la figure 2 illustre un décodeur de type interopérable G.718-LD à 16kHz selon l'état de l'art et tel que décrit précédemment;
    • la figure 3 illustre un décodeur interopérable avec le codage AMR-WB et intégrant un dispositif d'extension de bande selon un mode de réalisation de l'invention;
    • la figure 4 illustre sous forme d'organigramme, les étapes principales d'un procédé d'extension de bande selon un mode de réalisation de l'invention;
    • la figure 5 illustre un mode de réalisation dans le domaine fréquentiel d'un dispositif d'extension de bande selon l'invention intégré dans un décodeur; et
    • la figure 6 illustre une réalisation matérielle d'un dispositif d'extension de bande selon l'invention.
  • La figure 3 illustre un exemple de décodeur, compatible avec la norme AMR-WB/G.722.2 dans lequel on retrouve un post-traitement similaire à celui introduit dans G.718 et décrit en référence à la figure 2 et une extension de bande améliorée selon le procédé d'extension de l'invention, mis en oeuvre par le dispositif d'extension de bande illustré par le bloc 309.
  • Contrairement au décodage AMR-WB qui fonctionne avec une fréquence d'échantillonnage de sortie de 16 kHz et au décodage G.718 qui fonctionne à 8 ou 16 kHz, on considère ici un décodeur qui peut fonctionner avec un signal de sortie (synthèse) à la fréquence fs = 8, 16, 32 ou 48 kHz. A noter qu'on suppose ici que le codage a été effectué selon l'algorithme AMR-WB avec une fréquence interne de 12.8 kHz pour le codage CELP en bande basse et à 23.85 kbit/s un codage de gain par sous-trame à la fréquence de 16 kHz, mais des variantes interopérables du codeur AMR-WB sont également possibles ; même si l'invention est décrite ici au niveau du décodage, on suppose ici que le codage peut aussi fonctionner avec un signal d'entrée à la fréquence fs = 8, 16, 32 ou 48 kHz et des opérations de ré-échantillonnage adéquates, dépassant le cadre de l'invention, sont mises en oeuvre au codage en fonction de la valeur de fs. On peut noter que quand fs=8 kHz au décodeur, dans le cas d'un décodage compatible avec AMR-WB, il n'est pas nécessaire d'étendre la bande basse 0-6.4 kHz, car la bande audio reconstruite à la fréquence fs est limitée à 0-4000 Hz.
  • A la figure 3, le décodage CELP (BF pour basses fréquences) fonctionne toujours à la fréquence interne de 12.8 kHz, comme dans AMR-WB et G.718, et l'extension de bande (HF pour hautes fréquences) faisant l'objet de l'invention fonctionne à la fréquence de 16 kHz, les synthèses BF et HF sont combinées (bloc 312) à la fréquence fs après ré-échantillonnage adéquat (blocs 307 et 311). Dans des variantes de l'invention, la combinaison des bandes basse et haute pourra se faire à 16 kHz, après avoir ré-échantillonnée la bande basse de 12.8 à 16 kHz, avant de ré-échantillonner le signal combiné à la fréquence fs.
  • Le décodage selon la figure 3 dépend du mode (ou débit) AMR-WB associé à la trame courante reçue. A titre indicatif et sans que cela impacte le bloc 309, le décodage de la partie CELP en bande basse comporte les étapes suivantes:
    • Démultiplexage des paramètres codés (bloc 300) en cas de trame correctement reçue (bfi-0 où bfi est le « bad trame indicator » valant 0 pour une trame reçue et 1 pour une trame perdue).
    • Décodage des paramètres ISF avec interpolation et conversion en coefficients LPC (bloc 301) comme décrit dans la clause 6.1 de la norme G.722.2.
    • Décodage de l'excitation CELP (bloc 302), avec une partie adaptative et fixe pour reconstruire l'excitation (exc ou u'(n)) dans chaque sous-trame de longueur 64 à 12.8 kHz: u n = g ^ p ν n + g ^ c c n , n = 0 , , 63
      Figure imgb0008
      en suivant les notations de la clause 7.1.2.1 de G.718 concernant le décodage CELP, où v(n) et c(n) sont respectivement les mots de code des dictionnaires adaptatif et fixe, et p et c sont les gains décodés associés. Cette excitation u'(n) est utilisée dans le dictionnaire adaptatif de la sous-trame suivante ; elle est ensuite post-traitée et on distingue comme dans G.718 l'excitation u'(n) (aussi notée exc) de sa version post-traitée modifiée u(n) (aussi notée exc2) qui sert d'entrée au filtre de synthèse, 1/ Â(z), dans le bloc 303. Dans des variantes qui peuvent être mises en oeuvre pour l'invention, les post-traitements appliqués à l'excitation peuvent être modifiés (par exemple, la dispersion de phase peut être améliorée) ou ces post-traitements peuvent être étendus (par exemple, une réduction du bruit inter-harmonique peut être mise en oeuvre), sans affecter la nature du procédé d'extension de bande selon l'invention.
    • Filtrage de synthèse par 1/ (z) (bloc 303) où le filtre LPC décodé A(z) est d'ordre 16
    • Post-traitement bande étroite (bloc 304) selon la clause 7.3 de G.718 si fs=8 kHz.
    • Désaccentuation (bloc 305) par le filtre 1/(1-0.68z-1)
    • Post-traitement des basses fréquences (bloc 306) tel que décrit à la clause 7.14.1.1 de G.718. Ce traitement introduit un retard qui est pris en compte dans le décodage de la bande haute (>6.4 kHz).
    • Ré-échantillonnage de la fréquence interne de 12.8 kHz à la fréquence de sortie fs (bloc 307). Plusieurs réalisations sont possibles. Sans perte de généralité, on considère ici à titre d'exemple que si fs=8 ou 16 kHz, le ré-échantillonnage décrit dans la clause 7.6 de G.718 est repris ici, et si fs=32 ou 48 kHz, des filtres à réponse impulsionnelle finie (FIR) supplémentaires sont utilisés.
    • Calcul des paramètres du "noise gate" (bloc 308) qui est réalisé de façon préférentielle comme décrit dans la clause 7.14.3 de G.718.
  • Dans des variantes qui peuvent être mises en oeuvre pour l'invention, les post-traitements appliqués à l'excitation peuvent être modifiés (par exemple, la dispersion de phase peut être améliorée) ou ces post-traitements peuvent être étendus (par exemple, une réduction du bruit inter-harmonique peut être mise en oeuvre), sans affecter la nature de l'extension de bande. On ne décrit pas ici le cas du décodage de la bande basse lorsque la trame courante est perdue (bfi=1) qui est informatif dans la norme 3GPP AMR-WB ; en général, qu'il s'agisse du décodeur AMR-WB ou d'un décodeur général s'appuyant sur le modèle source-filtre, il s'agit typiquement d'estimer au mieux l'excitation LPC et les coefficients du filtre LPC de synthèse afin de reconstituer le signal perdu en gardant le modèle source-filtre. Lorsque bfi=1 on considère ici que l'extension de bande (bloc 309) peut fonctionner comme dans le cas bfi=0 et un débit <23.85 kbit/s ; ainsi, la description de l'invention supposera par la suite et sans perte de généralité que bfi=0.
  • On peut noter que l'utilisation des blocs 306, 308, 314 est optionnelle.
  • On notera également que le décodage de la bande basse décrit ci-dessus suppose une trame courante dite « active » avec un débit entre 6.6 et 23.85 kbit/s. En fait, quand le mode DTX (transmission continue en français) est activé, certaines trames peuvent être codées comme « inactives » et dans ce cas on peut soit transmettre un descripteur de silence (sur 35 bits) soit ne rien transmettre. En particulier, on rappelle que la trame SID du codeur AMR-WB décrit plusieurs paramètres : paramètres ISF moyennés sur 8 trames, énergie moyenne sur 8 trames, "flag de dithering" pour la reconstruction de bruit non stationnaire. Dans tous les cas, au décodeur, on retrouve le même modèle de décodage que pour une trame active, avec une reconstruction de l'excitation et d'un filtre LPC pour la trame courante, ce qui permet d'appliquer l'invention même sur des trames inactives. Le même constat s'applique pour le décodage de « trames perdues » (ou FEC, PLC) dans lequel le modèle LPC est appliqué.
  • Cet exemple de décodeur fonctionne dans le domaine de l'excitation et comporte donc une étape de décodage du signal d'excitation bande basse. Le dispositif d'extension de bande et le procédé d'extension de bande au sens de l'invention fonctionne également dans un domaine différent du domaine de l'excitation et notamment avec un signal direct décodé en bande basse ou un signal pondéré par un filtre perceptuel.
  • Contrairement au décodage AMR-WB ou G.718, le décodeur décrit permet d'étendre la bande basse décodée (50-6400 Hz en tenant en compte du filtrage passe-haut à 50 Hz au décodeur, 0-6400 Hz dans le cas général) à une bande étendue dont la largeur varie, allant approximativement de 50-6900 Hz à 50-7700 Hz en fonction du mode mis en oeuvre dans la trame courante. On peut ainsi parler d'une première bande de fréquence de 0 à 6400Hz et d'une deuxième bande de fréquence de 6400 à 8000Hz. En réalité, dans le mode de réalisation privilégié, l'excitation pour les hautes fréquences et généré dans le domaine fréquentiel dans une bande de 5000 à 8000 Hz, pour permettre un filtrage passe-bande de largeur 6000 à 6900 ou 7700 Hz dont la pente n'est pas trop raide dans la bande supérieure rejetée.
  • La partie synthèse bande haute est réalisée dans le bloc 309 représentant le dispositif d'extension de bande selon l'invention et qui est détaillé à la figure 5 dans un mode de réalisation.
  • Afin d'aligner les bandes basses et hautes décodées, un retard (bloc 310) est introduit pour synchroniser les sorties des blocs 306 et 309 et la bande haute synthétisée à 16 kHz est ré-échantillonnée de 16 kHz à la fréquence fs (sortie de bloc 311). La valeur du retard T devra être adaptée pour les autres cas (fs=32, 48 kHz) en fonction des traitements mis en oeuvre. On rappelle que quand fs=8 kHz, il n'est pas nécessaire d'appliquer les blocs 309 à 311 car la bande du signal en sortie du décodeur est limité à 0-4000 Hz.
  • A noter que le procédé d'extension de l'invention mis en oeuvre dans le bloc 309 selon le premier mode de réalisation n'introduit de façon préférentielle aucun retard supplémentaire par rapport à la bande basse reconstruite à 12.8 kHz ; cependant, dans des variantes de l'invention (par exemple en utilisant une transformation temps/fréquence avec recouvrement), un retard pourra être introduit. Ainsi, de façon générale la valeur de T dans le bloc 310 devra être ajustée en fonction de la mise en oeuvre spécifique. Par exemple dans le cas où le post-traitement des basses fréquences (bloc 306) n'est pas utilisé, le retard à introduire pour fs=16 kHz pourra être fixé à T=15.
  • Les bandes basse et haute sont ensuite combinées (ajoutées) dans le bloc 312 et la synthèse obtenue est post-traitée par filtrage passe-haut à 50 Hz (de type IIR) d'ordre 2 dont les coefficients dépendent de la fréquence fs (bloc 313) et post-traitement de sortie avec application optionnelle du "noise gate" de façon similaire à G.718 (bloc 314).
  • Le dispositif d'extension de bande selon l'invention, illustré par le bloc 309 selon le mode de réalisation du décodeur de la figure 5, met en oeuvre un procédé d'extension de bande (au sens large) décrit maintenant en référence à la figure 4 .
  • Ce dispositif d'extension peut également être indépendant du décodeur et peut mettre en oeuvre le procédé décrit à la figure 4 pour effectuer une extension de bande d'un signal audio existant stocké ou transmis au dispositif, avec une analyse du signal audio pour en extraire par exemple une excitation et un filtre LPC.
  • Ce dispositif reçoit en entrée un signal décodé dans une première bande de fréquence dite bande basse u(n) qui peut être dans le domaine de l'excitation ou dans celui du signal. Dans le mode de réalisation décrit ici, une étape de décomposition en sous-bandes (E401b) par transformée temps fréquence ou banc de filtres est appliquée au signal décodé bande basse pour obtenir le spectre du signal décodé bande basse U(k) pour une mise en oeuvre dans le domaine fréquentiel.
  • Une étape E401a d'extension du signal décodé bande basse dans une deuxième bande de fréquence supérieure à la première bande de fréquence, pour obtenir un signal décodé bande basse étendu U HB1(k), est effectuée sur ce signal décodé bande basse avant l'étape d'analyse (décomposition en sous-bandes). Cette étape d'extension peut comporter à la fois une étape de ré-échantillonnage et une étape d'extension ou simplement une étape de translation ou transposition fréquentielle en fonction du signal obtenu en entrée. On notera que dans des variantes non couvertes par les revendications, l'étape E401a pourra être effectuée à la fin du traitement décrit à la figure 4, c'est-à-dire sur le signal combiné, ce traitement étant alors principalement réalisé sur le signal bande basse avant extension, le résultat étant équivalent.
  • Cette étape est détaillée ultérieurement dans le mode de réalisation décrit en référence à la figure 5.
  • Une étape E402 d'extraction d'un signal d'ambiance (UHBA (k)) et de composantes tonales (y(k)) est effectuée à partir du signal bande basse décodé (U(k)) ou décodé et étendu (U HB1(k)). On définit ici l'ambiance comme le signal résiduel qui est obtenu en supprimant dans le signal existant les harmoniques (ou composantes tonales) principales (ou dominantes).
  • Dans la plupart des signaux en bande élargie (échantillonnés à 16 kHz), la bande haute (>6 kHz) contient une information d'ambiance qui est en général similaire à celle présente dans la bande basse.
  • L'étape d'extraction des composantes tonales et du signal d'ambiance comprend par exemple les étapes suivantes:
    • détection des composantes tonales dominantes du signal bande basse décodé (ou décodé et étendu), dans le domaine fréquentiel; et
    • calcul d'un signal résiduel par extraction des composantes tonales dominantes pour obtenir le signal d'ambiance.
  • Cette étape peut également être obtenue par:
    • obtention du signal d'ambiance par calcul d'une moyenne du signal bande basse décodé (ou décodé et étendu); et
    • obtention des composantes tonales par soustraction du signal d'ambiance calculé au signal bande basse décodé (ou décodé et étendu).
  • Les composantes tonales et le signal d'ambiance sont ensuite combinés de façon adaptative à l'aide de facteurs de contrôle de niveau d'énergie à l'étape E403 pour obtenir un signal dit combiné (U HB2(k)). L'étape d'extension E401a peut alors être mise en oeuvre si elle n'a pas été déjà effectuée sur le signal bande basse décodé.
  • Ainsi, la combinaison de ces deux types de signaux permet d'obtenir un signal combiné avec des caractéristiques plus adaptées à certains types de signaux comme des signaux musicaux et plus riche en contenu fréquentiel et dans la bande de fréquence étendue correspondant à toute la bande de fréquence incluant la première et la deuxième bande de fréquence.
  • L'extension de bande selon le procédé améliore la qualité pour ce type de signaux par rapport à l'extension décrite dans la norme AMR-WB.
  • Le fait d'utiliser une combinaison de signal d'ambiance et de composantes tonales permet d'enrichir ce signal d'extension pour le rendre plus proche des caractéristiques du vrai signal et non pas d'un signal artificiel.
  • Cette étape de combinaison sera détaillée ultérieurement en référence à la figure 5.
  • Une étape de synthèse, qui correspond à l'analyse en 401b, est effectuée en E404b pour ramener le signal dans le domaine temporel.
  • De façon optionnelle, une étape d'ajustement de niveau d'énergie du signal bande haute peut être effectuée en E404a, avant et/ou après l'étape de synthèse, par application d'un gain et/ou par filtrage adéquat. Cette étape sera expliquée plus en détails dans le mode de réalisation décrit à la figure 5 pour les blocs 501 à 507.
  • Dans un exemple de réalisation, le dispositif d'extension de bande 500 est décrit maintenant en référence à la figure 5 illustrant à la fois ce dispositif mais aussi des modules de traitement adaptés à la mise en oeuvre dans un décodeur de type interopérable avec un codage AMR-WB. Ce dispositif 500 met en oeuvre le procédé d'extension de bande décrit précédemment en référence à la figure 4.
  • Ainsi, le bloc de traitement 510 reçoit un signal bande basse décodé (u(n)). Dans un mode de réalisation particulier, l'extension de bande utilise l'excitation décodée à 12.8 kHz (exc2 ou u(n)) en sortie du bloc 302 de la figure 3.
  • Ce signal est décomposé en sous-bandes de fréquence par le module de décomposition en sous-bandes 510 (qui met en oeuvre l'étape E401b de la figure 4) qui réalise en général une transformée ou applique un banc de filtres, pour obtenir une décomposition en sous-bandes U(k) du signal u(n) .
  • Dans un mode de réalisation particulier, une transformée de type DCT-IV (pour "Discrete Cosine Transform" - Type IV en anglais) (bloc 510) est appliquée sur la trame courante de 20 ms (256 échantillons), sans fenêtrage, ce qui revient à transformer directement u(n) avec n = 0,···,255 selon la formule suivante : U k = n = 0 N 1 u n cos π N n + 1 2 k + 1 2
    Figure imgb0009
    N = 256 et k = 0,···,255.
  • Une transformation sans fenêtrage (ou de façon équivalente avec une fenêtre rectangulaire implicite de la longueur de la trame) est possible lorsque le traitement est effectué dans le domaine de l'excitation, et non le domaine du signal. Dans ce cas aucun artefact (effets de bloc) n'est audible, ce qui constitue un avantage important de ce mode de réalisation de l'invention.
  • Dans ce mode de réalisation, la transformation DCT-IV est mise en oeuvre par FFT suivant l'algorithme dit « Evolved DCT(EDCT) » décrit dans l'article de D.M. Zhang, H.T. Li, A Low Complexity Transform - Evolved DCT, IEEE 14th International Conférence on Computational Science and Engineering (CSE), Aug. 2011, pp. 144-149, et mis en oeuvre dans les normes UIT-T G.718 Annex B et G.729.1 Annex E.
  • Dans des variantes de l'invention et sans perte de généralité, la transformation DCT-IV pourra être remplacée par d'autres transformations temps-fréquences court-terme de même longueur et dans le domaine de l'excitation ou dans le domaine du signal, comme une FFT (pour "Fast Fourier Transform" en anglais) ou une DCT-II (Discrete Cosine Transform - Type II). De façon alternative, on pourra remplacer la DCT-IV sur la trame par une transformation avec recouvrement-addition et fenêtrage de longueur supérieure à la longueur de la trame courante, par exemple en utilisant une MDCT (pour "Modified Discrète Cosine Tranform" en anglais). Dans ce cas le retard T dans le bloc 310 de la figure 3, devra être ajusté (réduit) de façon adéquate en fonction du retard additionnel dû à l'analyse/synthèse par cette transformée.
  • Dans un autre mode de réalisation, la décomposition en sous-bandes est effectuée par l'application d'un banc de filtres, par exemple de type PQMF (Pseudo-QMF) réels ou complexes. Pour certains bancs de filtres, on obtient, pour chaque sous-bande dans une trame donnée, non pas une valeur spectrale mais une série de valeurs temporelles associée à la sous-bande ; dans ce cas, le mode de réalisation privilégié dans l'invention peut être appliqué en réalisant par exemple une transformée de chaque sous-bande et en calculant le signal d'ambiance dans le domaine des valeurs absolues, les composantes tonales étant toujours obtenues par différence entre le signal (en valeur absolue) et le signal d'ambiance. Dans le cas d'un banc de filtre complexe, le module complexe des échantillons remplacera la valeur absolue.
  • Dans d'autres modes de réalisation, l'invention sera appliqué dans un système utilisant deux sous-bandes, la bande basse étant analysé par transformée ou par banc de filtres.
  • Dans le cas d'une DCT, le spectre DCT, U(k), de 256 échantillons couvrant la bande 0-6400 Hz (à 12.8 kHz), est ensuite étendu (bloc 511) en un spectre de 320 échantillons couvrant la bande 0-8000 Hz (à 16 kHz) sous la forme suivante : U HB 1 k = { 0 k = 0 , , 199 U k k = 200 , , 239 U k + start _ band 240 k = 240 , , 319
    Figure imgb0010
    où on prend de façon préférentielle start_band = 160.
  • Le bloc 511 met en oeuvre l'étape E401a de la figure 4, c'est-à-dire l'extension du signal décodé bande basse. Cette étape peut également comporter un ré-échantillonnage de 12.8 à 16 kHz dans le domaine fréquentiel, en rajoutant ¼ d'échantillons (k = 240,···,319) au spectre, le ratio entre 16 et 12.8 étant de 5/4.
  • Dans la bande de fréquence correspondant aux échantillons allant des indices 200 à 239, le spectre original est conservé, pour pouvoir y appliquer une réponse d'atténuation progressive du filtre passe-haut dans cette bande de fréquence et aussi pour ne pas introduire de défauts audibles lors de l'étape d'addition de la synthèse basse fréquence à la synthèse haute fréquence.
  • On notera que dans ce mode de réalisation, la génération du spectre étendu suréchantillonné s'effectue dans une bande de fréquence allant de 5 à 8 kHz incluant donc une deuxième bande de fréquence (6.4-8kHz) supérieure à la première bande de fréquence (0-6.4 kHz).
  • Ainsi, l'extension du signal bande basse décodé s'effectue au moins sur la deuxième bande de fréquence mais aussi sur une partie de la première bande de fréquence.
  • Bien évidemment, les valeurs définissant ces bandes de fréquences peuvent être différentes selon le décodeur ou le dispositif de traitement dans lequel l'invention s'applique.
  • De plus, le bloc 511 réalise un filtrage passe-haut implicite dans la bande 0-5000 Hz puisque les 200 premiers échantillons de U HB1(k) sont mis à zéro ; comme expliqué plus tard, ce filtrage passe-haut peut également être complété par une partie d'atténuation progressive des valeurs spectrales d'indices k = 200,···,255 dans la bande 5000-6400 Hz, cette atténuation progressive est mise en oeuvre dans le bloc 501 mais pourrait être réalisée séparément en dehors du bloc 501. De façon équivalente et dans des variantes de l'invention, la mise en oeuvre du filtrage passe-haut séparée en blocs de coefficients d'indice k = 0,···,199 mis à zéro, de coefficients k = 200,···,255 atténués, dans le domaine transformé, pourra donc être effectué en une seule étape.
  • Dans cet exemple de réalisation et selon la définition de U HB1(k), on remarque que la bande 5000-6000 Hz de U HB1(k) (qui correspond aux indices k = 200,···,239) est copiée à partir de la bande 5000-6000 Hz de U(k). Cette approche permet de conserver le spectre original dans cette bande et elle évite d'introduire des distorsions dans la bande 5000-6000 Hz lors de l'addition de la synthèse HF avec la synthèse BF - en particulier la phase du signal (implicitement représentée dans le domaine DCT-IV) dans cette bande est préservée.
  • La bande 6000-8000 Hz de U HB1(k) est ici définie en copiant la bande 4000-6000 Hz de U(k) puisque la valeur de start_band est fixée préférentiellement à 160.
  • Dans une variante du mode de réalisation, la valeur de start_band pourra être rendue adaptative autour de la valeur de 160, sans modifier la nature de l'invention. Les détails de l'adaptation de la valeur start_band ne sont pas décrits ici car ils dépassent le cadre de l'invention sans en changer la portée.
  • Dans la plupart des signaux en bande élargie (échantillonnés à 16 kHz), la bande haute (>6 kHz) contient une information d'ambiance qui est naturellement similaire à celle présente dans la bande basse. On définit ici l'ambiance comme le signal résiduel qui est obtenu en supprimant dans le signal existant les harmoniques principales (ou dominantes).Le niveau d'harmonicité dans la bande 6000-8000 Hz est généralement corrélé à celui des bandes de fréquences inférieures.
  • Ce signal bande basse décodé et étendu est fourni en entrée du dispositif d'extension 500 et notamment en entrée du module 512. Ainsi le bloc 512 d'extraction de composantes tonales et d'un signal d'ambiance, met en oeuvre l'étape E402 de la figure 4 dans le domaine fréquentiel. Le signal d'ambiance, U HBA(k) pour k = 240,···,319 (80 échantillons) est ainsi obtenu pour une deuxième bande de fréquence dite haute fréquence afin de le combiner ensuite de façon adaptative aux composantes tonales extraites y(k), dans le bloc de combinaison 513.
  • Dans un mode de réalisation particulier, l'extraction des composantes tonales et du signal d'ambiance (dans la bande 6000-8000 Hz) est effectuée selon opérations suivantes:
    • Calcul de l'énergie totale du signal bande basse décodé étendu enerHB : ener HB = k = 240 319 U HB 1 k 2 + ε
      Figure imgb0011
      ε=0.1 (cette valeur peut être différente, elle est fixée ici à titre d'exemple).
    • Calcul de l'ambiance (en valeur absolue) qui correspond ici au niveau moyen du spectre lev(i) (raie par raie) et calcul de l'énergie enertonal des parties tonales dominantes (dans le spectre hautes fréquences)
  • Pour i = 0...L - 1, on obtient ce niveau moyen par l'équation suivante: leν i = 1 fn i fb i + 1 j = fb i fn i U HB 1 j + 240
    Figure imgb0012
  • Ceci correspond au niveau moyen (en valeur absolu) et représente donc une sorte d'enveloppe du spectre. Dans ce mode de réalisation, L = 80 et représente la longueur du spectre et l'indice i de 0 à L-1 correspond aux indices j + 240 de 240 à 319, soit le spectre de 6 à 8 kHz.
  • En général fb(i) = i - 7 et fn(i) = i + 7, cependant les 7 premiers et derniers indices ( i = 0,···,6 et i = L - 7,···,L-1) demandent un traitement spécial et sans perte de généralité on définit alors :
    • fb(i) = 0 et fn(i) = i + 7 pour i = 0,···,6
    • fb(i) = i - 7 et fn(i) = L -1 pour i = L - 7,...,L-1
  • Dans des variantes de l'invention, la moyenne de |U HB1(j+240)|, j = fb(i),..., fn(i), pourra être remplacée par une valeur médiane sur le même ensemble de valeurs, soit lev(i) = median j=fb(i),...,fn(i)(|U HB1(j+240)|) Cette variante a le défaut d'être plus complexe (en termes de nombre de calculs) qu'une moyenne glissante. Dans d'autres variantes une pondération non-uniforme pourra être appliquée aux termes moyennés, ou le filtrage médian pourra être remplacé par exemple par d'autres filtres non linéaires de type « stack filters ».
  • On calcule également le signal résiduel: y i = U HB 1 i + 240 leν i , i = 0 , , L 1
    Figure imgb0013
    qui correspond (approximativement) aux composantes tonales si la valeur y(i) à une raie i donnée est positive ( y(i) >0).
  • Ce calcul fait donc intervenir une détection implicite des composantes tonales. Les parties tonales sont donc implicitement détectées à l'aide du terme intermédiaire y(i) représentant un seuil adaptatif. La condition de détection étant y(i) >0. Dans des variantes de l'invention cette condition pourra être changée par exemple en définissant un seuil adaptatif fonction de l'enveloppe locale du signal ou sous la forme y(i) > lev(i)+ xdBx a une valeur prédéfinie (par exemple x =10 dB).
  • L'énergie des parties tonales dominantes est définie par l'équation suivante: ener tonal = i = 0 7 y i > 0 y i 2
    Figure imgb0014
  • D'autres méthodes d'extraction du signal d'ambiance peuvent bien sûr être envisagées. Par exemple, ce signal d'ambiance peut être extrait d'un signal basse fréquence ou éventuellement une autre bande de fréquence (ou plusieurs bandes de fréquence).
  • La détection des pics ou composantes tonales pourra être faite différemment.
  • L'extraction de ce signal d'ambiance pourrait également être fait sur l'excitation décodé mais pas étendu, c'est-à-dire avant l'étape d'extension ou de translation spectrale, c'est-à-dire par exemple sur une portion du signal basse fréquence plutôt que directement sur le signal haute fréquence.
  • Dans une variante de réalisation, l'extraction des composantes tonales et du signal d'ambiance s'effectue dans un ordre différent et selon les étapes suivantes :
    • détection des composantes tonales dominantes du signal bande basse décodé (ou décodé et étendu), dans le domaine fréquentiel ;
    • calcul d'un signal résiduel par extraction des composantes tonales dominantes pour obtenir le signal d'ambiance.
  • Cette variante peut par exemple être réalisée de la façon suivante : Un pic (ou composante tonale) est détecté à une raie d'indice i dans le spectre d'amplitude |U HB1(i + 240)| si le critère suivant est vérifié: U HB 1 i + 240 > U HB 1 i + 240 1 et U HB 1 i + 240 > U HB 1 i + 240 + 1 ,
    Figure imgb0015
    pour i = 0,...,L -1. Dès qu'un pic est détecté à la raie d'indice i on applique un modèle sinusoïdal afin d'estimer les paramètres d'amplitude, de fréquence et éventuellement de phase d'une composante tonale associé à ce pic. Les détails de cette estimation ne sont pas présentés ici mais l'estimation de la fréquence peut typiquement faire appel à une interpolation parabolique sur 3 points afin de localiser le maximum de la parabole approximant les 3 points d'amplitude |U HB1(i + 240)| (ramené en dB), l'estimation d'amplitude étant obtenu par le biais de cette même interpolation. Le domaine par transformée utilisé ici (DCT-IV) ne permettant pas d'obtenir directement la phase, on pourra dans un mode de réalisation, négliger ce terme, mais dans des variantes on pourra appliquer une transformée en quadrature de type DST pour estimer un terme de phase. La valeur initiale de y(i) est mise à zéro pour i = 0,...,L -1. Les paramètres sinusoïdaux (fréquence, amplitude, et éventuellement phase) de chaque composante tonale étant estimés, on calcule alors le terme y(i) comme la somme de prototypes (spectres) prédéfinis de sinusoïdes pures transformées dans le domaine DCT-IV (ou autre si une autre décomposition en sous-bandes est utilisée) selon les paramètres sinusoïdaux estimés. Enfin, on applique une valeur absolue aux termes y(i) pour se ramener au domaine du spectre d'amplitude en valeurs absolues.
  • D'autres méthodes de détermination des composantes tonales sont possibles, par exemple il serait également possible de calculer une enveloppe du signal env(i) par interpolation par splines des valeurs maximales locales (pics détectés) de |U HB1(i + 240)| , d'abaisser cette enveloppe par un certain niveau en dB pour détecter les composantes tonales comme les pics dépassant cette enveloppe et définir y(i) comme y i = max U HB 1 i + 240 enν i , 0
    Figure imgb0016
  • Dans cette variante l'ambiance s'obtient donc par l'équation : leν i = U HB 1 i + 240 y i , i = 0 , , L 1
    Figure imgb0017
  • Dans d'autres variantes de l'invention, la valeur absolue des valeurs spectrales sera remplacée par exemple le carré des valeurs spectrales, sans changer le principe de l'invention ; dans ce cas une racine carrée sera nécessaire pour revenir au domaine du signal, ce qui est plus complexe à réaliser.
  • Le module de combinaison 513 effectue une étape de combinaison par mixage adaptatif du signal d'ambiance et des composantes tonales. Pour cela, un facteur Γ de contrôle du niveau d'ambiance est défini par l'équation suivante : Γ = β ener HB ener tonal ener HB βener tonal
    Figure imgb0018
  • β étant un facteur dont un exemple de calcul est donné ci-dessous.
  • Pour obtenir le signal étendu, on obtient d'abord le signal combiné en valeurs absolues pour i = 0... L -1: y i = { Γ y i + 1 Γ leν i y i > 0 y i + 1 Γ leν i y i 0
    Figure imgb0019
    auquel on applique les signes de U HB1(k) : y " i = sgn U HB 1 i + 240 . y i
    Figure imgb0020
    où la fonction sgn (.) donne le signe : sgn x = { 1 x 0 1 x < 0
    Figure imgb0021
  • Par définition le facteur Γ est > 1. Les composantes tonales, détectées raie par raie par la condition y(i) > 0, sont réduites par le facteur Γ ; le niveau moyen est amplifié par le facteur 1 / Γ .
  • Dans le bloc 513 de mixage adaptatif, un facteur de contrôle du niveau d'énergie est calculé en fonction de l'énergie totale du signal bande basse décodé (ou décodé et étendu) et des composantes tonales.
  • Dans un mode de réalisation préféré du mixage adaptatif, l'ajustement d'énergie est effectué de la façon suivante: U HB 2 k = fac . y k 240 , k = 240 , , 319
    Figure imgb0022
  • U HB2(k) étant le signal combiné d'extension de bande.
  • Le facteur d'ajustement est défini par l'équation suivante: fac = γ ener HB i = 0 L 1 y i
    Figure imgb0023
  • y permet d'éviter une sur-estimation de l'énergie. Dans un exemple de réalisation, on calcule β de façon à garder le même niveau de signal d'ambiance par rapport à l'énergie des composantes tonales dans les bandes consécutives du signal. On calcule l'énergie des composantes tonales dans trois bandes : 2000-4000 Hz, 4000-6000 Hz et 6000-8000 Hz, avec E N 2 4 = k N 80,159 U 2 k
    Figure imgb0024
    E N 4 6 = k N 160,239 U 2 k
    Figure imgb0025
    E N 4 6 = k N 240,319 U 2 k
    Figure imgb0026
    U k = { k = 160 239 U 2 k k = 80 159 U 2 k U k k = 80 , , 159 U k k = 160 , , 239 k = 160 239 U 2 k k = 240 319 U HB 1 2 k U HB 1 k k = 240 , , 319
    Figure imgb0027
  • Et où N(k 1,k 2) est l'ensemble des indices k pour lesquels le coefficient d'indice k est classifié comme étant associé aux composantes tonales. Cet ensemble peut être par exemple obtenu en détectant les pics locaux dans U'(k) vérifiant |U'(k)| > lev(k) ou lev(k) est calculé comme le niveau moyen du spectre raie par raie.
  • On peut noter que d'autres méthodes de calcul de l'énergie des composantes tonales sont possibles, par exemple en prenant la valeur médiane du spectre sur la bande considérée.
  • On fixe β de telle sorte que le ratio entre l'énergie des composantes tonales dans les bandes 4-6 kHz et 6-8 kHz soit le même qu'entre les bandes 2-4 kHz et 4-6 kHz : β = ρ E N 6 8 k = 160 239 U 2 k E N 6 8
    Figure imgb0028
    E N 4 6 = max E N 4 6 E N 2 4 , ρ = E N 4 6 2 E N 2 4 , ρ = max ρ E N 6 8
    Figure imgb0029
    et max(.,.) est la fonction qui donne le maximum des deux arguments.
  • Dans des variantes de l'invention, le calcul de β pourra être remplacé par d'autres méthodes. Par exemple, dans une variante, on pourra extraire (calculer) différents paramètres (ou « features » en anglais) caractérisant le signal en bande basse, dont un paramètre « tilt » similaire à celui calculé dans le codée AMR-WB, et on estimera le facteur β en fonction d'une régression linéaire à partir de ces différents paramètres en limitant sa valeur entre 0 et 1. La régression linéaire pourra par exemple être estimée de façon supervisée en estimant le facteur β en se donnant la bande haute originale dans une base d'apprentissage. On notera que le mode de calcul de β ne limite pas la nature de l'invention.
  • Ensuite, le paramètre β peut être utilisé pour calculer γ en tenant compte du fait qu'un signal avec un signal d'ambiance rajouté dans une bande donnée est perçu en général comme plus fort qu'un signal harmonique à la même énergie dans la même bande. Si on définit α comme la quantité de signal d'ambiance rajouté au signal harmonique : α = 1 β
    Figure imgb0030
    on pourra calculer γ comme une fonction décroissante de α, par exemple γ = b a α
    Figure imgb0031
    , b = 1.1, a = 1.2 et γ limité de 0.3 à 1. Là encore d'autres définitions de α et γ sont possibles dans le cadre de l'invention.
  • A la sortie du dispositif d'extension de bande 500, le bloc 501, dans un mode de réalisation particulier réalise de façon optionnelle, une double opération d'application de réponse en fréquence de filtre passe-bande et de filtrage de désaccentuation (ou déemphase) dans le domaine fréquentiel.
  • Dans une variante de l'invention, le filtrage de désaccentuation pourra être réalisé dans le domaine temporel, après le bloc 502 voire avant le bloc 510 ; cependant, dans ce cas, le filtrage passe-bande réalisé dans le bloc 501 peut laisser certaines composantes basses fréquences de très faibles niveaux qui se voient amplifier par désaccentuation, ce qui peut modifier de façon légèrement perceptible la bande basse décodée. Pour cette raison, on préfère ici réaliser la désaccentuation dans le domaine fréquentiel. Dans le mode de réalisation privilégié, les coefficients d'indice k = 0,···,199 sont mis à zéro, ainsi la désaccentuation est limitée aux coefficients supérieurs.
  • L'excitation est d'abord désaccentuée selon l'équation suivante : U HB 2 k = { 0 k = 0 , , 199 G deemph k 200 U HB 2 k k = 200 , , 255 G deemph 55 U HB 2 k k = 256 , , 319
    Figure imgb0032
    Gdeemph (k) est la réponse en fréquence du filtre 1/(1-0.68z-1) sur une bande de fréquence discrète restreinte. En prenant en compte les fréquences discrètes (impaires) de la DCT-IV, on définit ici Gdeemph (k) comme: G deemph k = 1 e k 0.68 , k = 0 , , 255
    Figure imgb0033
    θ k = 256 80 + k + 1 2 256 .
    Figure imgb0034
  • Dans le cas où une autre transformation que la DCT-IV est utilisée, la définition de θk pourra être ajustée (par exemple pour des fréquences paires).
  • On note que la désaccentuation est appliquée en deux phases pour k = 200,···,255 correspondant à la bande de fréquence 5000-6400 Hz, où la réponse 1/(1-0.68z -1) est appliquée comme à 12.8 kHz, et pour k = 256,···,319 correspondant à la bande de fréquence 6400-8000 Hz, où la réponse est étendue de 16 kHz ici à une valeur constante dans la bande 6.4-8 kHz.
  • On peut noter que dans le codée AMR-WB la synthèse HF n'est pas désaccentuée.
  • Dans le mode de réalisation présenté ici, le signal haute-fréquence est au contraire désaccentué de manière à le ramener dans un domaine cohérent avec le signal basse-fréquence (0-6.4 kHz) qui sort du bloc 305 de la figure 3. Ceci est important pour l'estimation et l'ajustement ultérieur de l'énergie de la synthèse HF.
  • Dans une variante du mode de réalisation, afin de réduire la complexité, on pourra fixer Gdeemph (k) à une valeur constante indépendante de k, en prenant par exemple Gdeemph (k) = 0.6 ce qui correspond approximativement à la valeur moyenne de Gdeemph (k) pour k = 200,···,319 dans les conditions du mode de réalisation décrit ci-dessus.
  • Dans une autre variante du mode de réalisation du décodeur, la désaccentuation pourra être réalisée de façon équivalente dans le domaine temporel après DCT inverse.
  • En plus de la désaccentuation, un filtrage passe-bande est appliqué avec deux parties séparées : l'une passe-haut fixe, l'autre passe-bas adaptative (fonction du débit).
  • Ce filtrage est effectué dans le domaine fréquentiel.
  • Dans le mode de réalisation privilégiée, on calcule la réponse partielle de filtre passe-bas dans le domaine fréquentiel comme suit: G lp k = 1 0.999 k N lp 1
    Figure imgb0035
    Nlp =60 à 6.6 kbit/s, 40 à 8.85 kbit/s, 20 aux débits >8.85 bit/s.
  • Ensuite on applique un filtre passe-bande sous la forme : U HB 3 k = { 0 k = 0 , , 199 G hp k 200 U HB 2 k k = 200 , , 255 U HB 2 k k = 256 , , 319 N lp G lp k 320 N lp U HB 2 k k = 320 N lp , , 319
    Figure imgb0036
  • La définition de Ghp (k), k = 0,···,55, est donnée par exemple au tableau 1 ci-dessous. Tableau 1
    K ghp (k) K ghp (k) K ghp (k) k ghp (k)
    0 0.001622428 14 0.114057967 28 0.403990611 42 0.776551214
    1 0.004717458 15 0.128865425 29 0.430149896 43 0.800503267
    2 0.008410494 16 0.144662643 30 0.456722014 44 0.823611104
    3 0.012747280 17 0.161445005 31 0.483628433 45 0.845788355
    4 0.017772424 18 0.179202219 32 0.510787115 46 0.866951597
    5 0.023528982 19 0.197918220 33 0.538112915 47 0.887020781
    6 0.030058032 20 0.217571104 34 0.565518011 48 0.905919644
    7 0.037398264 21 0.238133114 35 0.592912340 49 0.923576092
    8 0.045585564 22 0.259570657 36 0.620204057 50 0.939922577
    9 0.054652620 23 0.281844373 37 0.647300005 51 0.954896429
    10 0.064628539 24 0.304909235 38 0.674106188 52 0.968440179
    11 0.075538482 25 0.328714699 39 0.700528260 53 0.980501849
    12 0.087403328 26 0.353204886 40 0.726472003 54 0.991035206
    13 0.100239356 27 0.378318805 41 0.751843820 55 1.000000000
  • On notera que dans des variantes de l'invention les valeurs de Ghp (k) pourront être modifiées tout en gardant une atténuation progressive. De même le filtrage passe-bas à largeur de bande variable, Glp (k), pourra être ajusté avec des valeurs ou un support fréquentiel différents, sans changer le principe de cette étape de filtrage.
  • On notera aussi que le filtrage passe-bande pourra être adapté en définissant une seule étape de filtrage combinant les filtrages passe-haut et passe-bas.
  • Dans un autre mode de réalisation, le filtrage passe-bande pourra être réalisé de façon équivalente dans le domaine temporel (comme dans le bloc 112 de la figure 1) avec différents coefficients de filtre selon le débit, après une étape de DCT inverse. Cependant, on notera qu'il est avantageux de réaliser cette étape directement dans le domaine fréquentiel car le filtrage est effectué dans le domaine de l'excitation LPC et donc les problèmes de convolution circulaire et d'effets de bord sont très limités dans ce domaine.
  • Le bloc 502 de transformée inverse réalise une DCT inverse sur 320 échantillons pour trouver le signal haute-fréquence échantillonnée à 16 kHz. Sa mise en oeuvre est identique au bloc 510, car la DCT-IV est orthonormée, sauf que la longueur de la transformée est de 320 au lieu de 256, et on obtient: u HB n = k = 0 N 16 k 1 U HB 3 k cos π N 16 k k + 1 2 n + 1 2
    Figure imgb0037
    N 16k = 320 et k = 0,···,319.
  • Dans le cas où le bloc 510 n'est pas une DCT, mais une autre transformation ou décomposition en sous-bandes, le bloc 502 réalise la synthèse correspondante à l'analyse réalisée dans le bloc 510.
  • Le signal échantillonné à 16 kHz est ensuite de façon optionnelle mis à l'échelle par des gains définis par sous-trame de 80 échantillons (bloc 504).
  • Dans un mode de réalisation privilégié, on calcule d'abord (bloc 503) un gain gHB1(m) par sous-trame par des ratios d'énergie des sous-trames tel que dans chaque sous-trame d'indice m=0, 1, 2 ou 3 de la trame courante: g HB 1 m = e 3 m e 2 m
    Figure imgb0038
    e 1 m = n = 0 63 u n + 64 m 2 + ε
    Figure imgb0039
    e 2 m = n = 0 79 u HB n + 80 m 2 + ε
    Figure imgb0040
    e 3 m = e 1 m n = 0 319 u HB n 2 + ε n = 0 255 u n 2 + ε
    Figure imgb0041
    avec ε = 0.01. On peut écrire le gain par sous-trame gHB1 (m) sous la forme : g HB 1 m = n = 0 63 u n + 64 m 2 + ε n = 0 255 u n 2 + ε n = 0 79 u HB n + 80 m 2 + ε n = 0 319 u HB n 2 + ε
    Figure imgb0042
    ce qui montre qu'on assure dans le signal uHB le même ratio entre énergie par sous-trame et énergie par trame que dans le signal u(n) .
  • Le bloc 504 effectue la mise à l'échelle du signal combiné (comprise dans l'étape E404a de la figure 4) selon l'équation suivante: u HB n = g HB 1 m u HB n , n = 80 m , , 80 m + 1 1
    Figure imgb0043
  • On notera que la réalisation du bloc 503 diffère de celle du bloc 101 de la figure 1, car l'énergie au niveau de la trame courante est prise en compte en plus de celle de la sous-trame. Cela permet d'avoir le ratio de l'énergie de chaque sous-trame par rapport à l'énergie de la trame. On compare donc des ratios d'énergie (ou énergies relatives) plutôt que les énergies absolues entre bande basse et bande haute.
  • Ainsi, cette étape de mise à l'échelle permet de conserver dans la bande haute le ratio d'énergie entre la sous-trame et la trame de la même façon que dans la bande basse.
  • De façon optionnelle, le bloc 506 effectue ensuite la mise à l'échelle du signal (comprise dans l'étape E404a de la figure 4) selon l'équation suivante: u HB " n = g HB 2 m u HB n , n = 80 m , , 80 m + 1 1
    Figure imgb0044
    où le gain g HB2(m) est obtenu à partir du bloc 505 en exécutant les blocs 103, 104 et 105 du codée AMR-WB (l'entrée du bloc 103 étant l'excitation décodée en bande basse, u(n)). Les blocs 505 et 506 sont utiles pour ajuster le niveau du filtre de synthèse LPC (bloc 507), ici en fonction du tilt du signal. D'autres méthodes de calcul du gain g HB2(m) sont possibles sans changer la nature de l'invention.
  • Enfin, le signal, uHB '(n) ou uHB "(n), est filtrée par le module de filtrage 507 qui peut être réalisé ici en prenant comme fonction de transfert 1/ Â(z/ γ), où γ =0.9 à 6.6 kbit/s et γ =0.6 aux autres débits, ce qui limite l'ordre du filtre à l'ordre 16.
  • Dans une variante, ce filtrage pourra être réalisé de la même façon que ce qui est décrit pour le bloc 111 de la figure 1 du décodeur AMR-WB, cependant l'ordre du filtre passe à 20 au débit de 6.6, ce qui ne change pas de façon significative la qualité du signal synthétisé. Dans une autre variante, on pourra effectuer le filtrage de synthèse LPC dans le domaine fréquentiel, après avoir calculé la réponse en fréquence du filtre mis en oeuvre dans le bloc 507.
  • Dans des variantes de réalisation de l'invention, le codage de la bande basse (0-6.4 kHz) pourra être remplacé par un codeur CELP autre que celui utilisé dans AMR-WB, comme par exemple le codeur CELP dans G.718 à 8 kbit/s. Sans perte de généralité d'autres codeurs en bande élargie ou fonctionnant à des fréquences supérieurs à 16 kHz, dans lesquels le codage de la bande basse fonctionne à une fréquence interne à 12.8 kHz pourraient être utilisés. Par ailleurs, l'invention peut être adaptée de façon évidente à d'autres fréquences d'échantillonnage que 12.8 kHz, lorsqu'un codeur de basses fréquences fonctionne à une fréquence d'échantillonnage inférieure à celle du signal original ou reconstruit. Lorsque le décodage en bande basse n'utilise pas de prédiction linéaire, on ne dispose pas d'un signal d'excitation à étendre, dans ce cas on pourra réaliser une analyse LPC du signal reconstruit dans la trame courante et on calculera une excitation LPC de manière à pouvoir appliquer l'invention.
  • Enfin, dans une autre variante de l'invention, l'excitation ou le signal bande basse ( u(n)) est ré-échantillonnée, par exemple par interpolation linéaire ou "spline" cubique, de 12.8 à 16 kHz avant transformation (par exemple DCT-IV) de longueur 320. Cette variante a le défaut d'être plus complexe, car la transformée (DCT-IV) de l'excitation ou du signal est alors calculée sur une plus grande longueur et le ré-échantillonnage n'est pas effectué dans le domaine de la transformée.
  • De plus, dans des variantes de l'invention, tous les calculs nécessaires à l'estimation des gains (GHBN, g HB1(m), g HB2(m), gHBN, ...) pourront être effectués dans un domaine logarithmique.
  • La figure 6 représente un exemple de réalisation matérielle d'un dispositif de d'extension de bande 600 selon l'invention. Celui-ci peut faire partie intégrante d'un décodeur de signal audiofréquence ou d'un équipement recevant des signaux audiofréquences décodés ou non.
  • Ce type de dispositif comporte un processeur PROC coopérant avec un bloc mémoire BM comportant une mémoire de stockage et/ou de travail MEM.
  • Un tel dispositif comporte un module d'entrée E apte à recevoir un signal audio décodé ou extrait dans une première bande de fréquence dite bande basse ramené dans le domaine fréquentiel (U(k)). Il comporte un module de sortie S apte à transmettre le signal d'extension dans une deuxième bande de fréquence (U HB2(k)) par exemple à un module de filtrage 501 de la figure 5.
  • Le bloc mémoire peut avantageusement comporter un programme informatique comportant des instructions de code pour la mise en oeuvre des étapes du procédé de d'extension de bande au sens de l'invention, lorsque ces instructions sont exécutées par le processeur PROC, et notamment les étapes d'extraction (E402) de composantes tonales et d'un signal d'ambiance à partir d'un signal issu du signal bande basse décodé (U(k)), de combinaison (E403) des composantes tonales (y(k)) et du signal d'ambiance (UHBA (k)) par mixage adaptatif utilisant des facteurs de contrôle de niveau d'énergie pour obtenir un signal audio, dit signal combiné (U HB2(k)), d'extension (E401a) sur au moins une deuxième bande de fréquence supérieure à la première bande de fréquence du signal décodé bande basse avant l'étape d'extraction ou du signal combiné après l'étape de combinaison.
  • Typiquement, la description de la figure 4 reprend les étapes d'un algorithme d'un tel programme informatique. Le programme informatique peut également être stocké sur un support mémoire lisible par un lecteur du dispositif ou téléchargeable dans l'espace mémoire de celui-ci.
  • La mémoire MEM enregistre de manière générale, toutes les données nécessaires à la mise en oeuvre du procédé.
  • Dans un mode possible de réalisation, le dispositif ainsi décrit peut également comporter les fonctions de décodage bande basse et autre fonctions de traitement décrites par exemple en figure 5 et 3 en plus des fonctions d'extension de bande selon l'invention.

Claims (9)

  1. Procédé d'extension de bande de fréquence d'un signal audiofréquence lors d'un processus de décodage ou d'amélioration comportant une étape d'obtention du signal décodé dans une première bande de fréquence dite bande basse, le procédé comportant les étapes suivantes effectuées dans le domaine fréquentiel :
    - extension (E401a) sur au moins une deuxième bande de fréquence supérieure à la première bande de fréquence du signal décodé bande basse pour former un signal bande basse décodé étendu U HB1 ;
    - extraction (E402) de composantes tonales et d'un signal d'ambiance à partir du signal issu du signal bande basse étendu ;
    - combinaison (E403) des composantes tonales et du signal d'ambiance par mixage adaptatif utilisant des facteurs de contrôle de niveau d'énergie pour obtenir un signal combiné ; et
    - synthèse (E404b) d'un signal audio pour ramener dans le domaine temporel un signal issu du signal combiné,
    et selon lequel les facteurs de contrôle du niveau d'énergie comprennent un facteur de contrôle du niveau d'ambiance, Γ,
    le procédé étant caractérisé en ce que :
    - l'étape d'extraction (E402) de composantes tonales et d'un signal d'ambiance est effectuée dans la bande 6000-8000Hz ;
    - les facteurs de contrôle du niveau d'énergie comprennent en outre un facteur de contrôle du niveau d'énergie, fac, calculé en fonction de l'énergie totale du signal bande basse décodé étendu et des composantes tonales, l'énergie totale du signal bande basse décodé étendu enerHB étant calculée selon : ener HB = k = 240 319 U HB 1 k 2 + ε
    Figure imgb0045
    ε = 0.1 et avec k l' indice de l' échantillon et UHB1(k) le spectre du signal bande basse décodé étendu, un spectre de 320 échantillons couvrant la bande 0-8000Hz; et
    - le facteur de contrôle du niveau d'ambiance est défini par : Γ = β ener HB ener tonal ener HB βener tonal
    Figure imgb0046
    enertonal est l'énergie des composantes tonales dominantes, enerHB est l'énergie totale du signal bande basse décodé étendu, et β est un facteur.
  2. Procédé selon la revendication 1, selon lequel l'étape de combinaison (E403) des composantes tonales et du signal d'ambiance par mixage adaptatif comprend une sous-étape d'obtention du signal combiné en valeurs absolues.
  3. Procédé selon la revendication 2, selon lequel les composantes tonales détectées raie par raie à l'étape d'extraction (E402) sont réduites par le facteur Γ, et un niveau moyen du spectre est amplifié par un facteur 1/Γ.
  4. Procédé selon la revendication 3, selon lequel la sous-étape d'obtention du signal combiné en valeurs absolues en calculant : y i = { Γ y i + 1 Γ lev i y i > 0 y i + 1 Γ lev i y i 0
    Figure imgb0047
    où y(i) est le signal résiduel qui définit les composantes tonales et lev(i) est le niveau moyen du spectre raie par raie, pour i=0,...,L-1.
  5. Procédé selon l'une des revendications 2 à 4, selon lequel l'étape de combinaison (E403) des composantes tonales et du signal d'ambiance par mixage adaptatif comprend une sous-étape d'ajustement d'énergie sur la base du facteur de contrôle du niveau d'énergie, fac.
  6. Procédé selon les revendications 4 et 5, selon lequel le facteur de contrôle d'énergie est calculé selon : fac = γ ener HB i = 0 L 1 y " i
    Figure imgb0048
    où y" (i) correspond au signal y'(i) auquel est appliqué les signes du signal bande basse décodé et étendu, UHB1(k), et γ est un facteur.
  7. Procédé selon 1a revendication 6, selon lequel γ est sélectionné pour éviter une surestimation de l'énergie.
  8. Dispositif d'extension de bande de fréquence d'un signal audiofréquence le signal ayant été décodé dans une première bande de fréquence dite bande basse, le dispositif comportant :
    - un module d'extension (511) dans le domaine fréquentiel, sur au moins une deuxième bande de fréquence supérieure à la première bande de fréquence mis en oeuvre sur le signal décodé de bande basse pour former un signal de bande basse décodé étendu U HB1 ;
    - un module d'extraction (512), dans le domaine fréquentiel, de composantes tonales et d'un signal d'ambiance à partir d'un signal issu du signal de bande basse décodé étendu ;
    - un module de combinaison (513) des composantes tonales et du signal d'ambiance, dans le domaine fréquentiel, par mixage adaptatif utilisant des facteurs de contrôle de niveau d'énergie pour obtenir un signal combiné ; et
    - un module de synthèse (502) d'un signal audio pour ramener dans le domaine temporel le signal combiné,
    et dans lequel les facteurs de contrôle du niveau d'énergie comprennent un facteur de contrôle du niveau d'ambiance, Γ,
    le dispositif étant caractérisé en ce que :
    - les facteurs de contrôle du niveau d'énergie comprennent en outre un facteur de contrôle du niveau d'énergie calculé en fonction de l'énergie totale du signal bande basse décodé ou décodé et étendu et des composantes tonales, fac, l'énergie totale du signal bande basse décodé étendu enerHB étant calculée selon : ener HB = k = 240 319 U HB 1 k 2 + ε
    Figure imgb0049
    où ε = 0.1 et avec k l'indice de l'échantillon et UHB1(k) le spectre du signal bande basse décodé étendu, un spectre de 320 échantillons couvrant la bande 0-8000Hz; et
    - le facteur de contrôle du niveau d'ambiance est défini par : Γ = β ener HB ener tonal ener HB βener tonal
    Figure imgb0050
    enertonal est l'énergie des composantes tonales dominantes, enerHB est l'énergie totale du signal bande basse décodé étendu, et β est un facteur.
  9. Décodeur de signal audiofréquence caractérisé en ce qu'il comporte un dispositif d'extension de bande de fréquence conforme à la revendication 8.
EP17206567.4A 2014-02-07 2015-02-04 Extension améliorée de bande de fréquence dans un décodeur de signaux audiofréquences Active EP3330967B1 (fr)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1450969A FR3017484A1 (fr) 2014-02-07 2014-02-07 Extension amelioree de bande de frequence dans un decodeur de signaux audiofrequences
PCT/FR2015/050257 WO2015118260A1 (fr) 2014-02-07 2015-02-04 Extension ameliorée de bande de fréquence dans un décodeur de signaux audiofréquences
EP15705687.0A EP3103116B1 (fr) 2014-02-07 2015-02-04 Extension ameliorée de bande de fréquence dans un décodeur de signaux audiofréquences

Related Parent Applications (2)

Application Number Title Priority Date Filing Date
EP15705687.0A Division-Into EP3103116B1 (fr) 2014-02-07 2015-02-04 Extension ameliorée de bande de fréquence dans un décodeur de signaux audiofréquences
EP15705687.0A Division EP3103116B1 (fr) 2014-02-07 2015-02-04 Extension ameliorée de bande de fréquence dans un décodeur de signaux audiofréquences

Publications (2)

Publication Number Publication Date
EP3330967A1 EP3330967A1 (fr) 2018-06-06
EP3330967B1 true EP3330967B1 (fr) 2024-04-10

Family

ID=51014390

Family Applications (4)

Application Number Title Priority Date Filing Date
EP17206563.3A Active EP3330966B1 (fr) 2014-02-07 2015-02-04 Extension améliorée de bande de fréquence dans un décodeur de signaux audiofréquences
EP17206569.0A Active EP3327722B1 (fr) 2014-02-07 2015-02-04 Extension améliorée de bande de fréquence dans un décodeur de signaux audiofréquences
EP15705687.0A Active EP3103116B1 (fr) 2014-02-07 2015-02-04 Extension ameliorée de bande de fréquence dans un décodeur de signaux audiofréquences
EP17206567.4A Active EP3330967B1 (fr) 2014-02-07 2015-02-04 Extension améliorée de bande de fréquence dans un décodeur de signaux audiofréquences

Family Applications Before (3)

Application Number Title Priority Date Filing Date
EP17206563.3A Active EP3330966B1 (fr) 2014-02-07 2015-02-04 Extension améliorée de bande de fréquence dans un décodeur de signaux audiofréquences
EP17206569.0A Active EP3327722B1 (fr) 2014-02-07 2015-02-04 Extension améliorée de bande de fréquence dans un décodeur de signaux audiofréquences
EP15705687.0A Active EP3103116B1 (fr) 2014-02-07 2015-02-04 Extension ameliorée de bande de fréquence dans un décodeur de signaux audiofréquences

Country Status (21)

Country Link
US (5) US10043525B2 (fr)
EP (4) EP3330966B1 (fr)
JP (4) JP6625544B2 (fr)
KR (5) KR102380487B1 (fr)
CN (4) CN108022599B (fr)
BR (2) BR122017027991B1 (fr)
DK (2) DK3103116T3 (fr)
ES (2) ES2878401T3 (fr)
FI (1) FI3330966T3 (fr)
FR (1) FR3017484A1 (fr)
HR (2) HRP20231164T1 (fr)
HU (2) HUE062979T2 (fr)
LT (2) LT3103116T (fr)
MX (1) MX363675B (fr)
PL (4) PL3330967T3 (fr)
PT (2) PT3330966T (fr)
RS (2) RS64614B1 (fr)
RU (4) RU2682923C2 (fr)
SI (2) SI3330966T1 (fr)
WO (1) WO2015118260A1 (fr)
ZA (3) ZA201606173B (fr)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
PL2951819T3 (pl) * 2013-01-29 2017-08-31 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Urządzenie, sposób i nośnik komputerowy do syntetyzowania sygnału audio
FR3017484A1 (fr) 2014-02-07 2015-08-14 Orange Extension amelioree de bande de frequence dans un decodeur de signaux audiofrequences
EP2980794A1 (fr) * 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Codeur et décodeur audio utilisant un processeur du domaine fréquentiel et processeur de domaine temporel
EP3382702A1 (fr) * 2017-03-31 2018-10-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Appareil et procédé permettant de déterminer une caractéristique prédéterminée liée à un traitement de limitation de bande passante artificielle d'un signal audio
CN109688531B (zh) * 2017-10-18 2021-01-26 宏达国际电子股份有限公司 获取高音质音频变换信息的方法、电子装置及记录介质
EP3518562A1 (fr) 2018-01-29 2019-07-31 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Processeur de signal audio, système et procédés de distribution d'un signal ambiant à une pluralité de canaux de signal ambiant
EP3903309B1 (fr) * 2019-01-13 2024-04-24 Huawei Technologies Co., Ltd. Codage audio à haute résolution
KR102308077B1 (ko) * 2019-09-19 2021-10-01 에스케이텔레콤 주식회사 학습 모델 기반의 인공 대역 변환장치 및 방법
CN113192517B (zh) * 2020-01-13 2024-04-26 华为技术有限公司 一种音频编解码方法和音频编解码设备

Family Cites Families (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4307557B2 (ja) 1996-07-03 2009-08-05 ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー 音声活性度検出器
SE9700772D0 (sv) * 1997-03-03 1997-03-03 Ericsson Telefon Ab L M A high resolution post processing method for a speech decoder
TW430778B (en) * 1998-06-15 2001-04-21 Yamaha Corp Voice converter with extraction and modification of attribute data
JP4135240B2 (ja) * 1998-12-14 2008-08-20 ソニー株式会社 受信装置及び方法、通信装置及び方法
US6226616B1 (en) * 1999-06-21 2001-05-01 Digital Theater Systems, Inc. Sound quality of established low bit-rate audio coding systems without loss of decoder compatibility
JP4792613B2 (ja) * 1999-09-29 2011-10-12 ソニー株式会社 情報処理装置および方法、並びに記録媒体
US6704711B2 (en) * 2000-01-28 2004-03-09 Telefonaktiebolaget Lm Ericsson (Publ) System and method for modifying speech signals
DE10041512B4 (de) * 2000-08-24 2005-05-04 Infineon Technologies Ag Verfahren und Vorrichtung zur künstlichen Erweiterung der Bandbreite von Sprachsignalen
WO2003003345A1 (fr) * 2001-06-29 2003-01-09 Kabushiki Kaisha Kenwood Dispositif et procede d'interpolation des composantes de frequence d'un signal
DE60214027T2 (de) * 2001-11-14 2007-02-15 Matsushita Electric Industrial Co., Ltd., Kadoma Kodiervorrichtung und dekodiervorrichtung
ATE331280T1 (de) * 2001-11-23 2006-07-15 Koninkl Philips Electronics Nv Bandbreitenvergrösserung für audiosignale
US20030187663A1 (en) * 2002-03-28 2003-10-02 Truman Michael Mead Broadband frequency translation for high frequency regeneration
AU2002319903A1 (en) * 2002-06-28 2004-01-19 Pirelli Pneumatici S.P.A. System and monitoring characteristic parameters of a tyre
US6845360B2 (en) * 2002-11-22 2005-01-18 Arbitron Inc. Encoding multiple messages in audio data and detecting same
CA2603246C (fr) * 2005-04-01 2012-07-17 Qualcomm Incorporated Systemes, procedes et appareil de filtrage anti-dispersion
US8145478B2 (en) * 2005-06-08 2012-03-27 Panasonic Corporation Apparatus and method for widening audio signal band
FR2888699A1 (fr) * 2005-07-13 2007-01-19 France Telecom Dispositif de codage/decodage hierachique
US7546237B2 (en) * 2005-12-23 2009-06-09 Qnx Software Systems (Wavemakers), Inc. Bandwidth extension of narrowband speech
CN101089951B (zh) * 2006-06-16 2011-08-31 北京天籁传音数字技术有限公司 频带扩展编码方法及装置和解码方法及装置
JP5141180B2 (ja) * 2006-11-09 2013-02-13 ソニー株式会社 周波数帯域拡大装置及び周波数帯域拡大方法、再生装置及び再生方法、並びに、プログラム及び記録媒体
KR101379263B1 (ko) * 2007-01-12 2014-03-28 삼성전자주식회사 대역폭 확장 복호화 방법 및 장치
US8229106B2 (en) * 2007-01-22 2012-07-24 D.S.P. Group, Ltd. Apparatus and methods for enhancement of speech
US8489396B2 (en) * 2007-07-25 2013-07-16 Qnx Software Systems Limited Noise reduction with integrated tonal noise reduction
US8041577B2 (en) * 2007-08-13 2011-10-18 Mitsubishi Electric Research Laboratories, Inc. Method for expanding audio signal bandwidth
EP2186087B1 (fr) * 2007-08-27 2011-11-30 Telefonaktiebolaget L M Ericsson (PUBL) Codage de transformation amélioré de signaux vocaux et audio
US8588427B2 (en) * 2007-09-26 2013-11-19 Frauhnhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for extracting an ambient signal in an apparatus and method for obtaining weighting coefficients for extracting an ambient signal and computer program
US8688441B2 (en) * 2007-11-29 2014-04-01 Motorola Mobility Llc Method and apparatus to facilitate provision and use of an energy value to determine a spectral envelope shape for out-of-signal bandwidth content
US9275648B2 (en) * 2007-12-18 2016-03-01 Lg Electronics Inc. Method and apparatus for processing audio signal using spectral data of audio signal
EP2077550B8 (fr) * 2008-01-04 2012-03-14 Dolby International AB Encodeur audio et décodeur
US8554551B2 (en) * 2008-01-28 2013-10-08 Qualcomm Incorporated Systems, methods, and apparatus for context replacement by audio level
DE102008015702B4 (de) * 2008-01-31 2010-03-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Bandbreitenerweiterung eines Audiosignals
US8831936B2 (en) * 2008-05-29 2014-09-09 Qualcomm Incorporated Systems, methods, apparatus, and computer program products for speech signal processing using spectral contrast enhancement
KR101381513B1 (ko) * 2008-07-14 2014-04-07 광운대학교 산학협력단 음성/음악 통합 신호의 부호화/복호화 장치
WO2010028292A1 (fr) * 2008-09-06 2010-03-11 Huawei Technologies Co., Ltd. Prédiction de fréquence adaptative
US8352279B2 (en) * 2008-09-06 2013-01-08 Huawei Technologies Co., Ltd. Efficient temporal envelope coding approach by prediction between low band signal and high band signal
TR201808500T4 (tr) * 2008-12-15 2018-07-23 Fraunhofer Ges Forschung Ses kodlayıcısı ve bant-genişliği genişletme kod-çözücüsü.
US8463599B2 (en) * 2009-02-04 2013-06-11 Motorola Mobility Llc Bandwidth extension method and apparatus for a modified discrete cosine transform audio coder
RU2452044C1 (ru) * 2009-04-02 2012-05-27 Фраунхофер-Гезелльшафт цур Фёрдерунг дер ангевандтен Форшунг Е.Ф. Устройство, способ и носитель с программным кодом для генерирования представления сигнала с расширенным диапазоном частот на основе представления входного сигнала с использованием сочетания гармонического расширения диапазона частот и негармонического расширения диапазона частот
CN101990253A (zh) * 2009-07-31 2011-03-23 数维科技(北京)有限公司 一种带宽扩展方法及其装置
JP5493655B2 (ja) 2009-09-29 2014-05-14 沖電気工業株式会社 音声帯域拡張装置および音声帯域拡張プログラム
RU2568278C2 (ru) * 2009-11-19 2015-11-20 Телефонактиеболагет Лм Эрикссон (Пабл) Расширение полосы пропускания звукового сигнала нижней полосы
JP5589631B2 (ja) * 2010-07-15 2014-09-17 富士通株式会社 音声処理装置、音声処理方法および電話装置
US9047875B2 (en) * 2010-07-19 2015-06-02 Futurewei Technologies, Inc. Spectrum flatness control for bandwidth extension
KR101826331B1 (ko) * 2010-09-15 2018-03-22 삼성전자주식회사 고주파수 대역폭 확장을 위한 부호화/복호화 장치 및 방법
CA2903681C (fr) * 2011-02-14 2017-03-28 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Codec audio utilisant une synthese du bruit durant des phases inactives
US20140019125A1 (en) * 2011-03-31 2014-01-16 Nokia Corporation Low band bandwidth extended
WO2013066238A2 (fr) 2011-11-02 2013-05-10 Telefonaktiebolaget L M Ericsson (Publ) Génération d'une extension à bande haute d'un signal audio à bande passante étendue
CN104321815B (zh) * 2012-03-21 2018-10-16 三星电子株式会社 用于带宽扩展的高频编码/高频解码方法和设备
US9228916B2 (en) * 2012-04-13 2016-01-05 The Regents Of The University Of California Self calibrating micro-fabricated load cells
KR101897455B1 (ko) * 2012-04-16 2018-10-04 삼성전자주식회사 음질 향상 장치 및 방법
US9666202B2 (en) * 2013-09-10 2017-05-30 Huawei Technologies Co., Ltd. Adaptive bandwidth extension and apparatus for the same
FR3017484A1 (fr) * 2014-02-07 2015-08-14 Orange Extension amelioree de bande de frequence dans un decodeur de signaux audiofrequences

Also Published As

Publication number Publication date
SI3330966T1 (sl) 2023-12-29
RS62160B1 (sr) 2021-08-31
EP3327722A1 (fr) 2018-05-30
JP6775063B2 (ja) 2020-10-28
MX2016010214A (es) 2016-11-15
RU2763481C2 (ru) 2021-12-29
PL3327722T3 (pl) 2024-07-15
KR20160119150A (ko) 2016-10-12
ZA201708368B (en) 2018-11-28
JP2019168709A (ja) 2019-10-03
US10043525B2 (en) 2018-08-07
US10668760B2 (en) 2020-06-02
RU2763547C2 (ru) 2021-12-30
EP3103116B1 (fr) 2021-05-05
ES2955964T3 (es) 2023-12-11
WO2015118260A1 (fr) 2015-08-13
RU2017144521A3 (fr) 2021-04-01
RU2016136008A (ru) 2018-03-13
RU2016136008A3 (fr) 2018-09-13
CN105960675A (zh) 2016-09-21
CN108022599A (zh) 2018-05-11
RU2017144521A (ru) 2019-02-18
US20180304659A1 (en) 2018-10-25
HRP20231164T1 (hr) 2024-01-19
RU2017144523A3 (fr) 2021-04-01
JP6775064B2 (ja) 2020-10-28
EP3330966A1 (fr) 2018-06-06
CN108109632B (zh) 2022-03-29
RU2763848C2 (ru) 2022-01-11
US11312164B2 (en) 2022-04-26
EP3330967A1 (fr) 2018-06-06
JP2019168710A (ja) 2019-10-03
ES2878401T3 (es) 2021-11-18
EP3330966B1 (fr) 2023-07-26
KR20180002907A (ko) 2018-01-08
CN108022599B (zh) 2022-05-17
BR122017027991B1 (pt) 2024-03-12
RU2017144523A (ru) 2019-02-18
BR112016017616B1 (pt) 2023-03-28
CN107993667A (zh) 2018-05-04
US20200353765A1 (en) 2020-11-12
DK3103116T3 (da) 2021-07-26
JP6775065B2 (ja) 2020-10-28
LT3330966T (lt) 2023-09-25
HUE055111T2 (hu) 2021-10-28
RU2682923C2 (ru) 2019-03-22
KR20180002906A (ko) 2018-01-08
PL3103116T3 (pl) 2021-11-22
US20180141361A1 (en) 2018-05-24
BR112016017616A2 (pt) 2017-08-08
US20200338917A1 (en) 2020-10-29
PL3330967T3 (pl) 2024-07-15
JP2017509915A (ja) 2017-04-06
JP2019168708A (ja) 2019-10-03
US11325407B2 (en) 2022-05-10
CN107993667B (zh) 2021-12-07
KR20220035271A (ko) 2022-03-21
KR102510685B1 (ko) 2023-03-16
JP6625544B2 (ja) 2019-12-25
KR20180002910A (ko) 2018-01-08
PT3103116T (pt) 2021-07-12
US10730329B2 (en) 2020-08-04
PL3330966T3 (pl) 2023-12-18
EP3327722B1 (fr) 2024-04-10
CN105960675B (zh) 2020-05-05
SI3103116T1 (sl) 2021-09-30
KR102426029B1 (ko) 2022-07-29
FR3017484A1 (fr) 2015-08-14
ZA201708366B (en) 2019-05-29
CN108109632A (zh) 2018-06-01
US20170169831A1 (en) 2017-06-15
RU2017144522A (ru) 2019-02-18
HRP20211187T1 (hr) 2021-10-29
EP3103116A1 (fr) 2016-12-14
HUE062979T2 (hu) 2023-12-28
LT3103116T (lt) 2021-07-26
FI3330966T3 (fi) 2023-10-04
RU2017144522A3 (fr) 2021-04-01
RS64614B1 (sr) 2023-10-31
KR102380205B1 (ko) 2022-03-29
DK3330966T3 (da) 2023-09-25
MX363675B (es) 2019-03-29
PT3330966T (pt) 2023-10-04
KR102380487B1 (ko) 2022-03-29
ZA201606173B (en) 2018-11-28

Similar Documents

Publication Publication Date Title
EP3330967B1 (fr) Extension améliorée de bande de fréquence dans un décodeur de signaux audiofréquences
EP3020043B1 (fr) Facteur d&#39;échelle optimisé pour l&#39;extension de bande de fréquence dans un décodeur de signaux audiofréquences
EP3014611B1 (fr) Extension améliorée de bande de fréquence dans un décodeur de signaux audiofréquences

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN PUBLISHED

AC Divisional application: reference to earlier application

Ref document number: 3103116

Country of ref document: EP

Kind code of ref document: P

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20181206

RBV Designated contracting states (corrected)

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: KONINKLIJKE PHILIPS N.V.

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

17Q First examination report despatched

Effective date: 20201215

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

P01 Opt-out of the competence of the unified patent court (upc) registered

Effective date: 20230527

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: GRANT OF PATENT IS INTENDED

INTG Intention to grant announced

Effective date: 20230914

GRAS Grant fee paid

Free format text: ORIGINAL CODE: EPIDOSNIGR3

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE PATENT HAS BEEN GRANTED

AC Divisional application: reference to earlier application

Ref document number: 3103116

Country of ref document: EP

Kind code of ref document: P

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

REG Reference to a national code

Ref country code: GB

Ref legal event code: FG4D

Free format text: NOT ENGLISH

REG Reference to a national code

Ref country code: CH

Ref legal event code: EP

REG Reference to a national code

Ref country code: DE

Ref legal event code: R096

Ref document number: 602015088298

Country of ref document: DE

REG Reference to a national code

Ref country code: IE

Ref legal event code: FG4D

Free format text: LANGUAGE OF EP DOCUMENT: FRENCH