BR112013020589B1 - Codec de áudio para suporte de modos de codificação de domínio de tempo e domínio de frequência - Google Patents

Codec de áudio para suporte de modos de codificação de domínio de tempo e domínio de frequência Download PDF

Info

Publication number
BR112013020589B1
BR112013020589B1 BR112013020589-0A BR112013020589A BR112013020589B1 BR 112013020589 B1 BR112013020589 B1 BR 112013020589B1 BR 112013020589 A BR112013020589 A BR 112013020589A BR 112013020589 B1 BR112013020589 B1 BR 112013020589B1
Authority
BR
Brazil
Prior art keywords
mode
subset
modes
frame
decoder
Prior art date
Application number
BR112013020589-0A
Other languages
English (en)
Other versions
BR112013020589A2 (pt
Inventor
Ralf Geiger
Konstantin Schmidt
Bernhard Grill
Manfred Lutzky
Michael Werner
Marc Gayer
Johannes Hilpert
Maria LUIS VALERO
Wolfgang Järgers
Original Assignee
Fraunhofer-Gesellchaft Zur Förderung Der Angewandten Forschung E.V
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer-Gesellchaft Zur Förderung Der Angewandten Forschung E.V filed Critical Fraunhofer-Gesellchaft Zur Förderung Der Angewandten Forschung E.V
Publication of BR112013020589A2 publication Critical patent/BR112013020589A2/pt
Publication of BR112013020589B1 publication Critical patent/BR112013020589B1/pt

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/167Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/10Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/028Noise substitution, i.e. substituting non-tonal spectral components by noisy source
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/022Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
    • G10L19/025Detection of transients or attacks for time/frequency resolution switching
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/012Comfort noise or silence coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/022Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/03Spectral prediction for preventing pre-echo; Temporary noise shaping [TNS], e.g. in MPEG2 or MPEG4
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • G10L19/07Line spectrum pair [LSP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/10Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation
    • G10L19/107Sparse pulse excitation, e.g. by using algebraic codebook
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • G10L19/13Residual excited linear prediction [RELP]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/22Mode decision, i.e. based on audio signal content versus external parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/06Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being correlation coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/26Pre-filtering or post-filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Quality & Reliability (AREA)
  • Algebra (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

codec de áudio para suporte de modos de codificação de domínio de tempo e domínio de frequência. um codec de áudio que suporte ambos os modos de codificação de domínio de tempo e domínio de frequência, tendo baixo atraso e uma eficiência de codificação aprimorada em termo de relação interação/distorção, é obtido pela configuração do codificador de áudio tal que o mesmo opere em diferentes modos operacionais, de modo que se o modo operacional for o primeiro modo operacional, o conjunto dependente de modo dos modos de codificação de estrutura disponíveis é dissociado do primeiro subconjunto dos modos de codificação de domínio de tempo e se sobrepõe a um segundo subconjunto dos modos de codificação de domínio de frequência, enquanto que se um modo operacional ativo for um segundo modo operacional, o conjunto dependente de modo dos modos de codificação disponível se sobrepõe a ambos os subconjuntos, ou seja, o subconjunto dos modos de codificação do domínio de tempo e o subconjunto de modos de codificação do domínio de frequência.

Description

Descrição
A presente invenção diz respeito a um codec de áudio para suporte de modos de codificação de domínio de tempo e domínio de frequência.
Recentemente, o codec MPEG USAC foi finalizado. A codificação de áudio e fala unificada [USAC | Unified Speech and Audio Coding] é um codec que codifica os sinais de áudio utilizando uma combinação da Codificação de Áudio Avançada [AAC | Advanced Audio Coding], Excitação Codificada de Transformação [TCX I Transform Coded Excitation] e a Previsão Linear de Excitação de Código Algébrico [ACELP | Algebraic Code-Excited Linear Prediction] Especificamente, o MPEG USAC utiliza uma estrutura com dimensão de 1024 amostras e permite a comutação entre as estruturas do tipo AAC de 1024 ou 8x128 amostras, estruturas TCX 1024 ou dentro de uma estrutura uma combinação de estruturas ACELP (256 amostras), estruturas TCX 256 e TCX 512.
Como desvantagem, o codec MPEG USAC não é adequado para aplicações que necessitam de pouco atraso. Aplicações em comunicações bidirecionais, por exemplo, necessitam destes atrasos curtos. Graças à dimensão da estrutura USAC que é de 1024 amostras, a USAC não é um candidato para estas aplicações de baixo atraso. No WO 2011147950, foi proposta a apresentação da abordagem USAC adequada para as aplicações de baixo atraso, restringindo os modos de codificação do codec USAC para os modos TCX e ACELP, somente. Ademais, tem sido proposto tornar as tramas da estrutura mais finas para que obedeçam as exigências de baixo atraso impostas pelas aplicações por baixo atraso.
Contudo, ainda há a necessidade de se fornecer um codec de áudio que permita a codificação de baixo atraso em uma eficiência aprimorada em termos de relação taxa/distorção. De preferência, o codec deve ser capaz de lidar eficientemente com sinais de áudio de diferentes tipos como fala e música.
Assim, é um objetivo da presente invenção fornecer um codec de áudio que ofereça baixo atraso para as aplicações de baixo atraso, mas em uma eficiência de codificação aprimorada em termos de, por exemplo, relação taxa/distorção comparada com a USAC.
Este objetivo é alcançado pelo objeto das reivindicações independentes pendentes.
Uma ideia básica subjacente à presente invenção é a de que um codec de áudio que suporte ambos os modos de codificação de domínio de tempo e de domínio de frequência, que tenha baixo atraso e uma eficiência de codificação aprimorada em termos de relação taxa/distorção, possa ser obtido se o codificador de áudio estiver configurado para a operação em diferentes modos operacionais como aquele se o modo operacional ativo for um primeiro modo operacional, um conjunto dependente de modo de estrutura; os modos de codificação disponível estão desarticulados de um primeiro subconjunto de modos de codificação de domínio de tempo, e sobrepõe-se com um segundo subconjunto de modos de codificação de domínio de frequência, enquanto que se o modo operacional ativo é um segundo modo operacional, o conjunto dependente de modos das estruturas de modos de codificação disponível sobrepõe-se com ambos os subconjuntos, ou seja, o subconjunto de modos de codificação com domínio de tempo, bem como o subconjunto de modos de codificação de domínio de frequência. Por exemplo, a decisão como para qual primeiro ou segundo modo operacional é acessado, pode ser realizada dependendo de uma taxa de bit de transmissão disponível para a transmissão do fluxo de dados. Por exemplo, a dependência da decisão pode ser tal que o segundo modo operacional seja acessado no caso de menor disponibilidade das taxas de bits de transmissão, enquanto que o primeiro modo operacional é acessado no caso de uma maior disponibilidade das taxas de bits para a transmissão. Especificamente, ao fornecer os modos operacionais ao codificador é possível evitar que o codificador escolha qualquer modo de codificação de domínio de tempo no caso das circunstâncias de codificação, como determinado pela taxa de bits de transmissão disponível, de modo que a escolha de qualquer modo de codificação de domínio de tempo muito provavelmente produziria uma perda na eficiência de codificação ao considerarmos a eficiência de codificação em termos de relação taxa/distorção em longo prazo. Para ser mais preciso, os inventores da presente aplicação descobriram que ao suprimirem a seleção do modo de codificação de qualquer domínio de tempo no caso de (relativa) alta disponibilidade de banda larga de transmissão resulta em um aumento na eficiência de codificação: enquanto que, em curo prazo, pode-se assumir que um modo de codificação de domínio de tempo está atualmente para ser o preferido sobre os modos de codificação de domínio de frequência, é muito possível que esta suposição torne-se incorreta se estiver analisando o sinal de áudio por um período mais longo. Tal análise mais longa ou antecipada, no entanto, não é possivel em aplicações em baixo atraso, e, portanto, evitar que o codificador acesse qualquer modo de codificação de dominio de tempo antecipadamente permite o alcance de uma eficiência de codificação aprimorada.
Em consonância com uma aplicação da presente invenção, a ideia expressada acima é explorada na medida em que a taxa de bits do fluxo de dados é aprimorada mais adiante: enquanto a taxa de bit é de custo bastante baixo para controlar de forma sincronizada o modo operacional do codificador e do decodificador, ou nem mesmo o custo de qualquer taxa de bit como sincronicidade é fornecida por algum outro meio, o fato de que o codificador e o decodificador operem e comutem entre os modos operacionais de forma sincronizada pode ser explorado para que se reduza a sobrecarga de sinalização para a sinalização da estrutura dos modos de codificação associados com as estruturas individuais do fluxo de dados em partes consecutivas do sinal de áudio, respectivamente. Especificamente, enquanto um associador do decodificador pode ser configurado para realizar a associação de cada uma das estruturas consecutivas do fluxo de dados com um dos conjuntos de modo independente da pluralidade dos modos de codificação de estrutura dependente de um elemento de sintaxe do modo de estrutura associados com as estruturas do fluxo de dados, o associador pode especificamente alterar a dependência do desempenho da associação dependendo do modo operacional ativo. Especificamente, a alteração da dependência pode ser assim se o modo operacional ativo for o primeiro modo operacional, o conjunto dependente do modo for desconectado do primeiro subconjunto e sobrepor-se com o segundo subconjunto, e se o modo operacional ativo é o segundo modo operacional, o conjunto dependente do modo sobrepõe-se com ambos os subconjuntos. Contudo, soluções menos rigorosas aumentando as taxas de bits são, através da exploração do conhecimento sobre as circunstâncias associadas com o modo operacional, atualmente pendente e são, no entanto, plausíveis também.
Aspectos vantajosos das aplicações da presente invenção estão sujeitos às reivindicações dependentes.
Em particular, as aplicações preferidas da presente invenção são descritas com maiores detalhes abaixo concernentes às figuras dentre as quais A Fig. 1 mostra um diagrama de bloco de umdecodificador de áudio de acordo com uma aplicação; A Fig. 2 mostra uma esquemática de um mapeamento bijetivo entre valores possíveis de elementos de sintaxe do modo de estrutura e os modos de codificação de estrutura do modo dependente estabelecido de acordo com uma aplicação; A Fig. 3 mostra um diagrama de bloco de um decodificador de domínio de tempo de acordo com uma aplicação; A Fig. 4 mostra um diagrama de bloco de um codificador de domínio de frequência de acordo com uma aplicação; A Fig. 5 mostra um diagrama de bloco de um codificador de áudio de acordo com uma aplicação; e A Fig. 6 mostra uma aplicação para codificadores de domínio de tempo e domínio de frequência de acordo com uma aplicação.
Com respeito à descrição das figuras, nota-se que as descrições dos elementos em uma figura devem igualmente aplicar-se aos elementos com o mesmo sinal de referência associado a isso na outra figura, caso não explicitamente estabelecido de outro modo.
A Fig. 1 mostra um decodificador de áudio 10 de acordo com uma aplicação da presente invenção. O decodificador de áudio compreende um decodificador de domínio de tempo 12 e um decodificador de domínio de frequência 14. Além disso, o decodificador de áudio 10 compreende um associador 16 configurado para associar cada uma das estruturas consecutivas 18a-18c do fluxo de dados 20 para um conjunto dos modos independentes de uma pluralidade 22 dos modos de codificação de estruturas que são ilustradas como exemplo na Fig. 1 como A, B e C. Pode haver mais de três modos de codificação de estrutura, e o número pode, então, ser alterado de três para algum outro mais. Cada estrutura 18a-c corresponde a uma das partes consecutivas 24a-c de um sinal de áudio 26 que o decodificador de áudio está para reconstruir a partir do fluxo de dados 20.
Para ser mais preciso, o associador 16 está conectado entre uma entrada 28 do decodificador 10 por um lado, e a entrada do decodificador de domínio de tempo 12 e o decodificador de domínio de frequência 14 por outro lado, para que forneça o mesmo com estruturas associadas 18a-c da maneira descrita em maiores detalhes abaixo.
O decodificador de domínio de tempo 12 está configurado para decodificar as estruturas tendo um de um primeiro subconjunto 30 de uma ou mais das pluralidades 22 dos modos de estrutura de codificação associado a ele e o decodificador de domínio de tempo 14 está configurado para decodificar estruturas tendo um de um segundo subconjunto 32 de uma ou mais de uma pluralidade 22 dos modos de codificação da estrutura associado a ele. O primeiro e o segundo subconjuntos são desconectados um do outro conforme ilustrado na Fig. 1. Para ser mais preciso, o decodificador de domínio de tempo 12 tem uma saída para liberar partes reconstruídas 24a-c do sinal de áudio 26 correspondente às estruturas com um dos primeiros subconjuntos 30 dos modos de codificação das estruturas associado a ele, e o decodificador de domínio de frequência 14 abrange uma saída para liberação de partes reconstruídas do sinal de áudio 26 correspondente às estruturas com um dos segundos subconjuntos 32 da estrutura dos modos de codificação da estrutura associado a ele.
Conforme mostrado na Fig.l, o decodificador de áudio 10 pode, opcionalmente, ter um combinador 34 que esteja conectado entre as saídas do decodificador de domínio de tempo 12 e o decodificador de domínio de frequência 14 por um lado, e uma saída 36 do decodificador 10 por outro lado. Especificamente, embora a Fig.l sugira que as partes 24a- 24c não se sobrepõem uma à outra, mas imediatamente segue-se uma à outra em tempo t, em cujo caso o combinador 34 pode estar faltando, também é possível que as partes 24a-24c estejam, ao menos parcialmente, consecutivas no tempo t, mas parcialmente sobreposta uma à outra como, por exemplo, com o objetivo de permitir um cancelamento de aliasing [serrilhado] de tempo envolvido com uma transformação sobreposta utilizada pelo decodificador de domínio de tempo 14, por exemplo, como é o caso da aplicação subsequentemente mais detalhada do decodificador de domínio de frequência 14.
Antes de prosseguirmos com a descrição da aplicação da Fig.l, deve-se notar que o número de modos de codificação da estrutura A-C ilustrada na Fig.l é meramente ilustrativa. O decodificador de áudio da Fig.l pode suportar mais de três modos de codificação. A seguir, os modos de codificação da estrutura do subconjunto 32 são chamados de modos de codificação de dominio de frequência, considerando que os modos de codificação da estrutura do subconjunto 30 são chamados de modos de codificação por dominio de tempo. O associador 16 direciona as estruturas 15a-c de qualquer modo de codificação de dominio de tempo 30 para o decodificador de dominio de tempo 12, e as estruturas 18a-c de qualquer modo de codificação de dominio de frequência para o decodificador de dominio de frequência 14. O combinador 34 registra corretamente as partes reconstruídas do sinal de áudio 26 como saidas pelos descodificadores por dominio de tempo e domínio de frequência 12 e 14 para que sejam arranjados consecutivamente em tempo t conforme indicado na Fig.l. Opcíonalmente, o combinador 34 pode desempenhar uma funcionalidade de adição de sobreposição entre as partes do modo de codificação por domínio de frequência 24, ou outra medida específica na transição entre as partes consecutivas imediatamente, como uma funcionalidade de adição de sobreposição, para o desempenho do cancelamento de aliasing entre as partes liberadas pelo decodificador de domínio de frequência 14. A transmissão do cancelamento de aliasing pode ser desempenhada entre as partes imediatamente subsequente a saída 24a-c pelos decodificadores de domínio de tempo e domínio de frequência 12 e 14 separadamente, ou seja, para as transições das partes do modo de codificação do domínio de frequência 24 para as partes do modo de codificação de domínio de tempo 24 e vice-versa. Para maiores detalhes concernentes às implementações, uma referência é feita para maiores detalhes das aplicações descritas abaixo.
Conforme será destacado com maiores detalhes abaixo, o associador 16 está configurado para realizar a associação das estruturas consecutivas 18a-c do fluxo de dados 20 com os modos de codificação da estrutura A-C, de modo a evitar o uso de um modo de codificação por domínio de tempo nos casos em que o uso de tal modo de codificação por domínio de tempo seja inadequado como em um caso de transmissão de taxas de bits altamente disponíveis onde os modos de codificação por domínio de tempo são passíveis de ser ineficiente em termos de relação taxa/distorção, comparado com os modos de codificação por domínio de frequência, de modo que o uso do modo de codificação da estrutura por domínio de tempo para uma determinada estrutura 18a - 18c muito provavelmente levaria a um decréscimo da eficiência de codificação.
Por conseguinte, o associador 16 é configurado para realizar a associação das estruturas para os modos de codificação da estrutura dependendo do elemento de sintaxe do modo de estrutura associados com as estruturas 18a-c no fluxo de dados 20. Por exemplo, a sintaxe de um fluxo de dados 20 pode ser configurada de modo que cada estrutura 18a-c compreenda tal elemento de sintaxe do modo de estrutura 38 para a determinação do modo de codificação da estrutura, à qual a estrutura 18a-c correspondente pertence.
Ademais, o associador 16 está configurado para operar em modo ativo de uma pluralidade dos modos operacionais, ou para selecionar um modo operacional atual de uma pluralidade de modos operacionais. O associador 16 pode realiza esta seleção dependendo do fluxo de dados ou dependendo de um sinal de controle externo. Por exemplo, como será destacado em maiores detalhes abaixo, o decodificador 10 altera seu modo operacional de modo sincronizado com a alteração do modo operacional do decodificador e, a fim de implementar a sincronicidade, o codificador pode sinalizar um modo operacional ativo e a alteração no modo ativo dos modos operacionais dentro do fluxo de dados 20. Alternativamente, o codificador e o decodificador 10 podem ser controlados em sincronismo por alguns sinais de controle externos, tais como os sinais de controle fornecidos pelas camadas inferiores de transporte como o EPS ou o RTP ou similares. O sinal de controle fornecido externamente pode, por exemplo, ser indicativo de alguma taxa de bit de transmissão disponível.
A fim de instanciar ou perceber a prevenção das seleções inadequadas ou um uso inapropriado dos modos de codificação por dominio de tempo destacados acima, o associador 16 está configurado para alterar a dependência do desempenho da associação das estruturas 18 aos modos de codificação 18 dependendo do modo operacional ativo. Especificamente, se o modo operacional ativo é o primeiro modo operacional, o conjunto de modos dependentes da pluralidade de modos de codificação de estruturas é, por exemplo, aquela mostrado no 40, que está desconectado do primeiro subconjunto 30 e sobrepõe o segundo subconjunto 32, considerando que se o modo operacional ativo é um segundo modo operacional, o conjunto dependente de modo é, por exemplo, conforme mostrado em 42 na Fig. 1 e sobrepõe-se ao primeiro e segundo subconjuntos 30 e 32.
Isto é, em consonância com a aplicação na Fig.l, o decodificador de áudio 10 é controlável através do fluxo de dados 20 ou um sinal de controle externo para alterar seu modo operacional ativo entre o primeiro e o segundo modo, alterando, assim, o conjunto de modo operacional dependente dos modos de codificação de estrutura em conformidade e adequadamente entre 40 e 42, para que de acordo com um modo operacional, o conjunto de modos dependentes 40 esteja desconectado do conjunto de modos de codificação por dominio de tempo, considerando que em outro modo operacional o conjunto de modos dependentes 42 contém ao menos um modo de codificação por dominio de tempo, bem como ao menos um modo de codificação por dominio de frequência.
Para explicar a alteração na dependência do desempenho da associação do associador 16 em maiores detalhes, é feita referência à Fig. 2 que mostra como exemplo um fragmento do fluxo de dados 20, o fragmento incluindo um elemento de sintaxe do modo da estrutura 38 associado com um determinado modo de estruturas de 18a a 18c da Fig. 1. A este respeito, nota-se brevemente que a estrutura do fluxo de dados 20 exemplificada na Fig. 1 foi aplicada com fins meramente ilustrativos, e que uma estrutura diferente pode ser aplicada também. Por exemplo, embora a estrutura de 18a a 18c na Fig.l é mostrada como simplesmente conectada ou parte continua do fluxo de dados 20 sem quaisquer intercalações entre si, tais intercalações podem ser aplicadas também. Além disso, embora a Fig. 1 sugira que o elemento de sintaxe do modo de estrutura 38 esteja contido dentro da estrutura a que se refere, este não é necessariamente o caso. Particularmente, os elementos de sintaxe do modo de estrutura 38 podem ser posicionados dentro do fluxo de dados 20 fora das estruturas 18a a 18c. Ademais, o número de elementos de sintaxe da estrutura 38 contidos dentro do fluxo de dados 20 não tem que ser igual ao número de estruturas 18a a 18c no fluxo de dados 20. Particularmente, o elemento de sintaxe do modo de estrutura 38 da Fig. 2, por exemplo, pode estar associado com mais de uma das estruturas 18a a 18c no fluxo de dados 20.
Em todo caso, dependendo da maneira que o elemento de sintaxe do modo de estrutura 38 foi inserido dentro do fluxo de dados 20, há um mapeamento 44 entre o elemento de sintaxe do modo de estrutura 38 conforme contido e transmitido através do fluxo de dados 20 e um conjunto 46 dos valores possiveis do elemento de sintaxe do modo de estrutura 38. Por exemplo, o elemento de sintaxe do modo de estrutura 38 pode ser inserido dentro do fluxo de dados 20 diretamente, ou seja, utilizando uma representação binária como, por exemplo, o PCM, ou utilizando um código de dimensão variável e/ou utilizando uma codificação de entropia, como a Huffman ou a codificação aritmética. Assim, o associador 16 pode ser configurado para extrair 48, como por decodificação, o elemento de sintaxe do modo de estrutura 38 a partir do fluxo de dados 20 como para derivar qualquer um do conjunto 46 dos valores possiveis caracterizados pelos valores possiveis serem representativamente ilustrados na Fig. 2 por pequenos triângulos. No lado do codificador, a inserção 50 é feita correspondentemente, como por codificação.
Isto é, cada valor possivel que o elemento de sintaxe do modo de estrutura 38 pode possivelmente assumir, ou seja, cada valor possivel dentro de uma gama de valores possíveis 46 do elemento de sintaxe do modo de estrutura 38, é associado com um determinado modo de pluralidade dos modos de codificação de estrutura A, B e C. Especificamente, há um mapeamento bijetivo entre os valores possíveis de conjuntos 46 por um lado e o conjunto dependente de modos dos modos de codificação de estruturas por outro lado. No mapeamento, ilustrado por uma seta de duas pontas 52 na Fig.2, as alterações dependem do modo operacional ativo. O mapeamento bijetivo 52 é parte da funcionalidade do associador 16, que altera o mapeamento 52 dependendo do modo operacional ativo. Conforme explicado a respeito da Fig.l, enquanto o conjunto dependente de modo 40 ou 42 sobrepõe-se com ambos os subconjuntos do modo de codificação da estrutura 30 e 32 no caso do segundo modo operacional ilustrado na Fig. 2, o conjunto dependente de modo é dissociado, ou seja, não contém quaisquer elementos do subconjunto 30 no caso do primeiro modo operacional. Em outras palavras, o mapeamento bijetivo 52 mapeia o domínio de valores possíveis do elemento de sintaxe do modo de estrutura 38 sobre o codomínio dos modos de codificação de estruturas, chamados de conjunto de modos dependentes 50 e 52, respectivamente. Conforme ilustrado na Fig. 1 e Fig. 2 pelo uso de linhas sólidas dos triângulos para valores possíveis do conjunto 46, o domínio do mapeamento bijetivo 52 pode permanecer o mesmo em ambos os modos operacionais, ou seja, o primeiro e o segundo modos operacionais, enquanto que o codomínio do mapeamento bijetivo 52 muda, conforme é ilustrado e descrito acima.
Entretanto, mesmo o número de valores possíveis dentro do conjunto 46 pode mudar. Isso é indicado pelo triângulo desenhado com uma linha pontilhada na Fig. 2. Para ser mais preciso, o número de modos de codificação de estrutura disponível pode ser diferente entre o primeiro e o segundo modo de codificação. Se assim o for, o associador 16 é implementado em qualquer caso, tal como o codominio do mapeamento bijetivo 52, comporta-se como destacado acima: Não há sobreposição entre o conjunto dependente de modo e o subconjunto 30 para o caso de o primeiro modo operacional estar ativo.
Dito de outra forma, nota-se o seguinte. Internamente, o valor do elemento de sintaxe do modo de estrutura 38 pode ser representado por alguns valores binários, a gama de valor possivel que acomoda o conjunto 46 de possíveis valores independentes a partir do modo operacional ativo atualmente. Para ser ainda mais preciso, o associador 16 representa internamente o valor do elemento de sintaxe da estrutura 38 com o valor binário de uma representação binária. Utilizando estes valores binários, os possíveis valores do conjunto 46 são classificados em uma escada ordinal para que os valores possíveis do conjunto 46 permaneçam comparáveis uns aos outros mesmo no caso de uma alteração do modo operacional. O primeiro valor possivel do conjunto 46 de acordo com esta escala ordinal pode, por exemplo, ser definido como um associado com a maior probabilidade entre os valores possíveis do conjunto 46, com o segundo modo dos valores possíveis do conjunto 46, sendo continuamente aquele com a próxima probabilidade inferior e assim por diante. Por conseguinte, os valores possíveis do elemento de sintaxe do modo de estrutura 38 são, assim, comparáveis um com o outro apesar de uma alteração do modo operacional. No exemplo mais recente, pode ocorrer que o dominio e o codominio do mapeamento bijetivo 52, ou seja, o conjunto de valores possiveis 46 e o conjunto dependente de modo dos modos de codificação de estrutura permaneçam o mesmo apesar da alteração no modo operacional ativo entre o primeiro e o segundo modos operacionais, mas o mapeamento bijetivo 52 altera a associação entre os modos de codificação de estrutura do conjunto dependente de modo por um lado, e os valores possiveis comparáveis do conjunto 46 por outro lado. Na aplicação mais recente, o decodificador 10 da Fig.l ainda é capaz de tomar vantagem de um codificador que atua em consonância com as aplicações explicadas subsequentemente, a saber, abstendo-se de selecionar os modos de codificação do dominio de tempo inadequado no caso do primeiro modo operacional. Pela associação mais provável dos valores possiveis dos conjuntos 46 somente com modos de codificação de dominio de frequência 32 no caso do primeiro modo operacional, enquanto utiliza a menor probabilidade de valores possiveis do conjunto 46 para os modos de codificação do dominio de tempo 30 somente durante o primeiro modo operacional, enquanto altera esta política no caso do segundo modo operacional resulta em uma maior taxa de compreensão para o fluxo de dados 20, se utilizando uma codificação de entropia para a inserção/extração do elemento de sintaxe do modo de estrutura 38 dentro/a partir do fluxo de dados 20. Em outras palavras, enquanto no primeiro modo operacional nenhum dos modos de codificação de domínio de tempo 30 pode ser associado com um valor possível de conjuntos 46 tendo associado a ele uma probabilidade maior que a probabilidade para o valor possível delineado pelo mapeamento 52 sobre qualquer modo decodificação de domínio de frequência 32, tal caso existe no segundo modo operacional, onde ao menos um modo de codificação de dominio de tempo 30 está associado com tal valor possivel tendo se associado, assim, com uma probabilidade maior que outro valor possivel associado, de acordo com o mapeamento 52, com um modo de codificação de dominio de frequência 32.
A probabilidade que acabamos de mencionar associada com valores possíveis 46 e opcionalmente utilizada para a codificação/decodificação do mesmo pode ser estática ou alterada de forma adaptativa. Diferentes conjuntos de estimativas de probabilidade podem ser utilizados por diferentes modos operacionais. No caso de alterações de probabilidade de forma adaptativa, a codificação de entropia de contexto adaptativo pode ser utilizada.
Conforme ilustrado na Fig.l, uma aplicação preferível para o associador 16 é aquela que a dependência do desempenho de uma associação depende do modo operacional ativo, e o elemento de sintaxe do modo da estrutura 38 é codificado dentro e decodificado a partir do fluxo de dados 20, tal como um número de valores possivelmente diferenciáveis dentro de um conjunto 46 é independente 25 a partir do modo operacional ativo como o primeiro ou o segundo modo operacional. Especificamente, no caso da Fig.l, o número de valores possíveis diferenciáveis é dois, como também estão ilustrados na Fig. 2, ao considerar os triângulos com as linhas sólidas. Naquele caso, por exemplo, o associador 16 pode ser configurado deste modo, se o modo operacional ativo é o primeiro modo operacional, o conjunto dependente de modo 40 abrange um primeiro e um segundo modo de codificação da estrutura
A e B do segundo subconjunto 32 dos modos de codificação da estrutura, e o decodificador de dominio de frequência 14, que é responsável por estes modos de codificação de estruturas, é configurado para usar resoluções diferentes de tempo-frequência na decodificação das estruturas com um do primeiro e segundo modos de codificação da estrutura A e B associados desta forma. Por esta medida, um bit, por exemplo, seria o suficiente para transmitir o elemento de sintaxe do modo de estrutura 38 dentro do fluxo de dados 20 diretamente, ou seja, sem qualquer codificação adicional de entropia, caracterizada por somente o mapeamento bijetivo 52 mudar mediante uma alteração do primeiro modo operacional para o segundo modo operacional, e vice-versa.
Conforme será determinado em maiores detalhes abaixo com respeito à Fig. 3 e 4, o decodificador de dominio de tempo 12 pode ser um decodificador de previsão linear por excitação de código, e o decodificador de domínio de tempo pode ser um decodificador de transformação configurado para decodificar as estruturas com qualquer um do segundo subconjunto de modos de codificação de estrutura associada deste modo, com base nos níveis de coeficiente de transformação codificados dentro do fluxo de dados 20.
Tomemos como exemplo a Fig. 3. A Fig. 3 mostra um exemplo para um decodificador de domínio de tempo 12 e uma estrutura associada com um modo de codificação de domínio de tempo para que o mesmo transforme o decodificador 10 de domínio de tempo 12 para formar uma parte correspondente 24 do sinal de áudio reconstruído 26. De acordo com a aplicação da Fig. 3 - e em consonância com a aplicação na Fig. 4, que será descrita mais adiante - o decodificador de dominio de tempo 12, bem como o decodificador de dominio de frequência, são predições lineares com base nos decodificadores configurados para obter coeficientes de filtros de previsão linear para cada estrutura a partir do fluxo de dados 12. Embora as Figs. 3 e 4 sugiram que cada estrutura 18 pode tem coeficientes de filtros de previsão linear 16 incorporadas aqui, esse não é necessariamente o caso. A taxa de transmissão LPC, na qual os coeficientes de previsão linear 60 são transmitidos dentro do fluxo de dados 12, pode der igual à taxa estrutural das estruturas 18 ou podem diferir deste ponto. Não obstante, o codificador e o decodificador podem operar sincronicamente, ou se aplicar aos coeficientes de filtro de previsão linear individualmente, com cada estrutura interpolando- as a partir da taxa de transmissão LPC sobre a taxa de aplicação LPC.
Conforme mostrado na Fig. 3, o decodificador de dominio de tempo 12 pode abranger um filtro de sintese de previsão linear 62 e um construtor de sinal de excitação 64. Conforme mostrado na Fig. 3, o filtro de sintese de previsão linear 62 é alimentado com os coeficientes de filtro de previsão linear, obtidos a partir do fluxo de dados 12 para a estrutura de modo de codificação de dominio de tempo atual 18. O construtor do sinal de excitação 64 é alimentado com um parâmetro ou código de excitação como um indice de codebook [livro de códigos] 66, obtido a partir do fluxo de dados 12 para a estrutura atualmente decodificada 18 (tendo um modo de codificação de dominio de tempo associada desta forma) . O construtor de sinal de excitação 64 e um filtro de sintese de previsão linear 62 são conectados em série de modo a liberar a parte de sinal de áudio reconstruída correspondente 24 - na saida do filtro de sintese 62. Especificamente, o construtor de sinal de excitação 64 é configurado para construir um sinal de excitação 68 utilizando o parâmetro de excitação 66 que pode ser, conforme indicado na Fig.3, contida dentro da estrutura decodificada atualmente com qualquer modo de codificação de dominio de tempo associado desta forma. O sinal de excitação 68 é um tipo de sinal residual, o envelope espectral que é formado por um filtro de sintese de previsão linear 62. Especificamente, o filtro de sintese de previsão linear é controlado pelos coeficientes de filtro de previsão linear transmitido dentro do fluxo de dados 20 para a estrutura decodificada atualmente (com qualquer modo de codificação de dominio de tempo associado a tal), de modo a formar uma parte reconstruída 24 do sinal de áudio 26.
Para maiores detalhes concernentes à possivel implementação do decodificador CELP da Fig. 3, referência é feita aos codecs conhecidos como os supracitados USAC [2] ou o codec AMR-WB+ [1], por exemplo. De acordo com os últimos codecs, o codec CELP da Fig. 3 pode ser implementado como um decodificador ACELP de acordo com qual sinal de excitação 68 é formado ao combinar um sinal de código/parâmetro controlado, ou seja, excitação de inovação, e uma excitação adaptativa continuamente adaptada resultante da modificação de um sinal de excitação finalmente obtido e aplicado para uma estrutura de codificação de dominio de tempo imediatamente precedente, de acordo com um parâmetro de excitação adaptativo também transmitido dentro do fluxo de dados 12 para a estrutura de modo de codificação de dominio de tempo decodificada 18. O parâmetro de excitação adaptativo pode, por exemplo, definir a intensidade e o ganho de atraso, prescrevendo como modificar a excitação anterior no sentido de intensidade e ganho de modo a obter a excitação adaptativa para a estrutura atual. A excitação de inovação pode ser derivada do código 66 dentro da estrutura atual, com o código definindo o número de pulsos e suas posições dentro de sinal de excitação. O código 66 pode ser usado para uma pesquisa no codebook, ou, em contrapartida - lógica ou aritmeticamente - definir os pulsos da excitação de inovação - em termos de número e localização, por exemplo.
Similarmente, a Fig. 4 mostra uma aplicação possivel para o decodificador do dominio de frequência 14. A Fig. 4 mostra uma estrutura atual 18 entrando do decodificador do dominio de frequência 14, com estrutura 18 com qualquer modo de codificação do dominio de frequência associado deste modo. O decodificador do dominio de frequência 14 abrange um modelação de ruido de dominio de frequência 70, a saida da qual está conectada com o transformador 72. A saida do retransformador 72 é, por sua vez, a saida do decodificador de dominio de frequência 14, liberando uma parte reconstruída do sinal de áudio correspondente à estrutura 18 que foi decodificada atualmente.
Conforme mostrado na Fig.4, o fluxo de dados 20 pode transformar os niveis do coeficiente de transformação 74 e os coeficientes de filtro de previsão linear 76 para estruturas com modo de codificação com dominio de frequência associados como tal. Enquanto que os coeficientes de filtro de previsão linear 76 podem ter a mesma estrutura dos coeficientes de filtros preditivos lineares associados com as estruturas com qualquer modo de codificação de dominio de tempo associados assim, os níveis de coeficiente de transformação 74 são para representar o sinal de excitação para as estruturas de dominio de frequência 18 no dominio de transformação. Conforme conhecido a partir da USAC, por exemplo, os niveis de coeficiente de transformação 74 podem ser codificados de modo diferencial ao longo do eixo espectral. A precisão da quantização dos niveis de coeficiente de transformação 74 pode ser controlada pelo fator de escala comum ou pelo fator de ganho. O fator de escala pode ser parte do fluxo de dados, e inferido como parte dos niveis de coeficiente de transformação 74. Contudo, qualquer outro esquema de quantização também pode ser utilizado. Os niveis de coeficiente de transformação 74 são alimentados para o modelador de ruído 70. O mesmo se aplica aos coeficientes do filtro de previsão linear 76 para a estrutura de domínio de frequência decodificado 18. O modelador de ruído de domínio de frequência 70 é, então, configurado para a obtenção do espectro de excitação de um sinal de excitação a partir dos níveis de coeficiente de transformação 74, e para formar este espectro de excitação espectralmente em consonância com os coeficientes do filtro de previsão linear 74, a fim de formar o espectro do sinal de excitação. Então, o modelador de ruído de domínio de frequência 70 converte os coeficientes do filtro de previsão linear 76 dentro do espectro de ponderação, de modo a corresponder à função de transferência de um filtro de síntese de previsão linear definido pelos coeficientes do filtro de previsão linear 76. Esta conversão pode envolver uma ODFT aplicada aos LPC's de modo a transformar os LPC's em valores de ponderações espectrais. Maiores detalhes podem ser obtidos com a norma USAC. Utilizando um espectro de ponderação o modelador de ruído do domínio de frequência de 70 modela - ou pondera - o espectro de excitação obtido pelos niveis de coeficiente de transformação 74, desta forma obtendo o espectro do sinal de excitação. Através da modelação/ponderação, a quantização do ruído apresentada no lado de codificação pela quantização dos coeficientes de transformação é modulada para que seja percentualmente menos significativa. O transformador 72, então, retransforma o espectro de excitação modulado como saida pelo modulador de ruido de dominio de frequência 70, de modo a obter a parte reconstruída correspondente à estrutura recém-decodifiçada 18 .
Como já mencionado anteriormente, o decodificador de dominio de frequência 14 da Fig. 4 pode suportar diferentes modos de codificação. Especificamente, o decodificador do dominio de frequência 14 pode ser configurado para aplicar diferentes resoluções de tempo-frequência na decodificação das estruturas de dominio de frequência com modos de codificação de domínio de frequência diferentes associados como tal. Por exemplo, a retransformação realizada pelo retransformador 72 pode ser uma reversão de transformação, de acordo com as partes de janelas sobrepondo-se mutuamente e consecutivas ao sinal a ser transformado, é subdividida em transformações individuais, caracterizado pelo retransformador 72 transformar uma reconstrução destas porções com janelas 78a, 78b e 78c. O combinador 34 pode, como já notado acima, compensar mutuamente a ocorrência do aliasing na sobreposição destas partes com janelas através de, por exemplo, um processo de adição de sobreposição. A reversão da transformação ou a reversão da transformação do retransformador 72 pode ser, por exemplo, uma transformação/retransfrormação criticamente amostrada que necessita de cancelamento do aliasing de tempo. Por exemplo, o retransformador 72 pode desempenhar uma MDCT inversa. Em qualquer caso, os modos de codificação de domínio de frequência A e B podem, por exemplo, diferir um do outro naquela parte 18 correspondente à estrutura atualmente decodificada 18 ou é coberta por uma parte com janela 78 - também estendida em porções precedentes e sucessivas - aqui transformando um maior conjunto de níveis de coeficiente de transformação 74 dentro da estrutura 18, ou dentro de duas subpartes com janelas consecutivas 78c e 78b - sendo mutuamente sobrepostas e estendidas em, e se sobrepondo com, as partes precedentes e as partes sucessivas, respectivamente - aqui transformando dois pequenos conjuntos de níveis de coeficiente de transformação 74 dentro da estrutura 18. Por conseguinte, enquanto o decodificador e o modulador de ruído de domínio de frequência 70 e o retransfromador 72 pode, por exemplo, realizar duas operações - modulando e retransformando - para estruturas de modo A, e mutuamente realiza uma operação por estrutura do modo de codificação de estrutura B, por exemplo.
A aplicação descrita acima para um decodificador de áudio foi especialmente projetada para aproveitar um codificador de áudio que opera em modos operacionais diferentes, a saber, de modo a alterar a seleção entre os modos de codificação da estrutura entre estes modos operacionais na medida em que os modos de codificação da estrutura de domínio de tempo não sejam selecionados em um destes modos operacionais, mas simplesmente no outro. Deve-se notar que, no entanto, as aplicações para um codificador de áudio descrito abaixo também - ao menos do modo como um subconjunto de aplicações é entendido - se adaptariam a um decodificador de áudio que não suporta diferentes modos operacionais. Isso é, ao menos, verdadeiro para aquelas aplicações de codificadores de acordo com o qual a geração do fluxo de dados não muda entre estes modos operacional. Em outras palavras, de acordo com algumas das aplicações para um codificador de áudio descrito abaixo, a restrição da seleção dos modos de codificação da estrutura para os modos de codificação do dominio de frequência em um dos modos operacionais não reflete a si mesmo dentro do fluxo de dados 12, onde o modo operacional muda é, até então, transparente (salvo pela ausência dos modos de codificação de dominio de tempo durante um destes modos operacionaisativos). Contudo, os decodificadores de áudio especialmente dedicados de acordo com as várias aplicações destacadas acima formam, juntamente com as respectivas aplicações para um codificador de áudio destacado acima, codecs de áudio que tiram vantagem adicional da restrição de seleção do modo de codificação da estrutura durante um modo operacional especial correspondente, conforme destacado acima, para condições especiais de transmissão, por exemplo.
A Fig. 5 mostra um codificador de áudio de acordo com uma aplicação da presente invenção. O codificador de áudio da Fig. 5 é geralmente indicado como 100 e compreende um associador 102, um codificador de dominio de tempo 104 e um codificador de dominio de frequência 106, com um associador 102 sendo conectado entre uma entrada 108 do codificador de áudio 100 por um lado, e as entradas do codificador de domínio de tempo 104 e o codificador de domínio de frequência 106 por outro lado. As saídas do codificador de dominio de tempo 104 e o codificador de dominio de frequência 106 estão conectados a uma saida 110 do codificador de áudio 100. Por conseguinte, o sinal de áudio a ser codificado, indicado em 112 na Fig.5, é admitido pela entrada 108 e o codificador de áudio 100 é configurado para formar um fluxo de dados 114 a partir de então.
O associador 102 é configurado para associar cada uma das partes consecutivas 116a para 116c, que corresponde à parte supracitada 24 do sinal de áudio 112, com um de um conjunto dependente de modo de uma pluralidade dos modos de codificação de estruturas (veja 40 e 42 das Figs. 1 a 4) .
O codificador de dominio de tempo 104 é configurado para codificar as partes 116a a 116c com um do primeiro subconjunto 30 de um ou mais da pluralidade 22 dos modos de codificação da estrutura associada com este, dentro de uma estrutura correspondente 118a a 118c do fluxo de dados 114. O codificador de dominio de frequência 106 é de algum modo responsável pelas partes de codificação com qualquer modo de codificação de dominio de frequência do conjunto 32 associado com este, dentro de uma estrutura correspondente 118a a 118c do fluxo de dados 114.
O associador 102 está configurado para operar em um modo ativo de uma pluralidade de modos operacionais. Para ser mais preciso, o associador 102 é configurado de modo que exatamente um da pluralidade dos modos operacionais esteja ativo, mas a seleção do modo ativo da pluralidade de modos operacionais pode mudar durante a codificação das partes 116a a 116c do sinal de áudio 112.
Especificamente, o associador 102 está configurado de modo que se o modo operacional ativo é o primeiro modo operacional, o conjunto de modos dependentes se comporta como o conjunto 40 da Fig. 1, a saber, o mesmo está desconectado do primeiro subgrupo 30 e sobrepõe-se ao segundo subgrupo 32, mas se o modo operacional ativo é um segundo modo operacional, o conjunto dependente de modo do modo de codificação se comporta com o modo 42 na Fig. 1, ou seja, a mesma sobrepõe-se ao primeiro e segundo subgrupos 30 e 32.
Como determinado acima, a funcionalidade do codificador de áudio da Fig. 5 permite o controle externo do codificador 100, de modo que o mesmo é evitado a partir da seleção desvantajosa de qualquer modo de codificação de estrutura de dominio de tempo, embora as condições externas, como as condições de transmissão, são aquelas preliminarmente selecionando qualquer estrutura de codificação de estrutura de dominio de tempo que muito possivelmente transformaria uma eficiência de codificação inferior em termos de relação taxa/distorção quando comparado com a restrição de seleção dos modos de codificação as estrutura de dominio de frequência somente. Conforme mostrado na Fig. 5, o associador 102 pode, por exemplo, ser configurado para receber um sinal de controle externo 120. O associador 102 pode, por exemplo, estar conectado a alguma entidade externa como o sinal de controle externo 120 fornecido pela entidade externa, e é indicativo de uma banda larga de transmissão disponível para uma transmissão de fluxo de dados 114. Esta entidade externa pode, por exemplo, ser parte de uma camada de transmissão inferior subjacente, sendo inferior em termos de modelo de camadas OSI. Por exemplo, a entidade externa pode ser parte de uma rede de comunicação LTE. O sinal 122 pode, naturalmente, ser fornecido baseado em uma estimativa de uma banda larga de transmissão disponível ou uma estimativa de uma média futura de banda larga de transmissão disponível. Como já observado acima, respectivo às Figs. 1 a 4, o "primeiro modo operacional" pode ser associado com a banda larga de transmissão disponível sendo inferior a um determinado limiar, considerando que o "segundo modo operacional" pode ser associado com a banda larga de transmissão disponível excedente do limiar pré-determinado, deste modo evitando o decodificador 100 a partir da escolha de qualquer modo de codificação de estrutura de domínio de tempo em condições inadequadas onde a codificação por dominio de tempo é mais passível de transformar uma compreensão mais ineficiente, a saber, se a banda larga de transmissão disponível é inferior a certos limiares.
Deve-se notar, no entanto, que um sinal de controle 120 pode também ser fornecido por alguma outra entidade como, por exemplo, um detector de fala que analisa o sinal de áudio a ser reconstruído, ou seja, 112, de modo a distinguir entre as fases de fala, isto é, os intervalos de tempo, durante o qual um componente de fala dentro de um sinal de áudio 112 é predominante, e fases de não fala, onde outras fontes de áudio como música ou as que são predominantes dentro do sinal de áudio 112. O sinal de controle 120 pode ser indicativo desta alteração das fases de fala e não fala e o associador 102 pode ser configurado para alterar entre os modos operacionais, por conseguinte. Por exemplo, nas fases de fala, o associador 102 pode entrar no "segundo modo operacional" supracitado enquanto que o "primeiro modo operacional" poderia ser associado com as fases de não fala, deste modo, obedecendo ao fato de que a escolha dos modos de codificação de estrutura de dominio de tempo durante as fases de não fala muito provavelmente resultará em compressão menos eficiente.
Enquanto o associador 102 pode ser configurado para codificar um elemento de sintese do modo de estrutura 122 (compare o elemento de sintaxe 38 na Fig. 1) no fluxo de dados 114 de modo a indicar para cada parte 116a a 116c qual modo de codificação de estrutura da pluralidade dos modos de codificação de estrutura da respectiva parte está associado, a inserção deste elemento de sintaxe do modo de estrutura 112 dentro de um fluxo de dados 114 pode não depender do modo operacional, de modo a produzir o fluxo de dados 20 com o elemento de sintaxe do modo de estrutura 38 das Figs. 1 a 4. Como já mencionado acima, a geração de fluxo de dados 114 pode ser realizada independente do modo operacional atualmente ativo.
No entanto, em termos de sobrecarga de taxa de bits, este terá que ser preferido se o fluxo de dados 114 for gerado pelo codificador de áudio 100 da Fig.5 de modo a produzir o fluxo de dados 20 discutido acima respectivo às aplicações das Figs. 1 a 4, de acordo com qual geração de fluxo de dados é adaptada vantajosamente ao modo operacional atualmente ativo.
Por conseguinte, de acordo com uma aplicação do codificador de áudio 100 da Fig. 5 adequado às aplicações descritas acima para o decodificador de áudio com respeito às Figs. 1 a 4, o associador 102 pode ser configurado para codificar o elemento de sintaxe do modo de estrutura 122 dentro do fluxo de dados 114 utilizando o mapeamento bijetivo 52 entre o conjunto de valores possiveis 46 do elemento de sintaxe do modo de estrutura 122 associado com uma parte especifica 116a a 116c por um lado, e o conjunto dependente de modo dos modos de codificação de estrutura por outro, cujo mapeamento 52 muda dependendo do modo operacional. Especificamente, a mudança pode ser tal que se o modo operacional ativo for o primeiro modo operacional, o conjunto de modos dependentes se comporta como o conjunto 40, ou seja, o mesmo é dissociado para o primeiro subconjunto 30 e sobrepõe-se ao segundo subconjunto 32, considerando que se um modo operacional ativo for o segundo modo operacional o conjunto dependente de modo é como o conjunto 42, ou seja, sobrepõe-se com ambos primeiro e segundo subconjuntos 30 e 32. Especificamente, como já observado anteriormente, o número de valores possiveis no conjunto 46 pode ser dois, independentemente do modo operacional ativo sendo o primeiro ou segundo modo operacional, e o associador 102 pode ser configurado de modo que se o modo operacional ativo for o primeiro modo operacional, o conjunto dependente de modo abrange os modos de codificação de estrutura do dominio de frequência A e B, e o codificador de dominio de frequência 106 pode ser configurado para utilizar diferentes resoluções de tempo-frequência nas codificações das partes respectivas 116a a 116c, dependendo da sua codificação da estrutura sendo o modo A ou modo B.
A Fig. 6 mostra uma aplicação para uma possivel implementação do codificador de dominio de tempo 104 e do codificador de dominio de frequência 106 correspondente ao fato já observado acima, de acordo com o qual a codificação de previsão linear de código excitado pode ser utilizada para o modo de codificação de dominio de tempo, enquanto a codificação de previsão linear de código excitado de transformação é utilizada para os modos de domínio de frequência. Por conseguinte, de acordo com a Fig. 6, o codificador de domínio de tempo 104 é um codificador de previsão linear de código excitado e o codificador de domínio de frequência 106 é um codificador de transformação configurado para codificar as partes com qualquer modo de codificação de estrutura de domínio de frequência associado, utilizando, assim, os níveis de coeficiente de transformação, e codifica o mesmo dentro das estruturas correspondente 118a a 118c para o fluxo de dados 114.
A fim de explicar uma possível implementação para o codificador de domínio de tempo 104 e o codificador do domínio de frequência 106, é feita referência à Fig. 6. Conforme a Fig. 6, o codificador de domínio de frequência 106 e o codificador de tempo 104 possuem conjuntamente ou compartilham um analisador LPC 130. Deve-se notar, entretanto, que esta circunstância não é crítica para a presente aplicação e que uma implementação diferente também pode ser utilizada de acordo com qual de ambos os codificadores 104 e 106 são completamente separados um do outro. Ademais, com respeito às aplicações do codificador, bem como as aplicações do decodificador descritas acima com respeito às Figs. 1 e 4, nota-se que a presente invenção não é restrita aos casos onde ambos os modos de codificação, ou seja, os modos de codificação da estrutura de domínio de frequência, bem como os modos de codificação da estrutura de domínio de tempo, são baseados na previsão linear. Em contrapartida, as aplicações do decodificador e do codificador também são transferíveis para outros casos onde ou um dos codificadores de dominio de tempo e a codificação de dominio de frequência são implementados de maneiras diferentes.
Voltando à descrição da Fig. 6, o codificador de dominio de frequência 106 da Fig. 6 compreende, além do analisador LPC 130, um transformador 132, um conversor de ponderações de dominio de LPC para frequência 134, um modulador de ruído de domínio de frequência 136 e um quantizador 138. O transformador 132, o modulador de ruído de domínio de tempo 136 e o quantizador 138 são serialmente conectados entre uma entrada comum 140 e uma saída 142 do codificador de domínio de frequência 106. O conversor LPC 134 é conectado entre uma saída de analisador LPC 130 e uma entrada de ponderação de modulador de ruído de domínio de frequência 136. Uma entrada do analisador LPC 130 é conectada com a entrada comum 140.
Até onde o cabe ao codificador de domínio de tempo 104, o mesmo compreende, além do analisador LPC 130, um filtro de análise LP 144 e um código com base no aproximador de sinal de excitação 146 ambos sendo realmente conectados entre uma entrada comum 140 e uma saída 148 do codificador de domínio de tempo 104. Uma entrada de coeficiente de previsão linear de LP do filtro de análise LP 144 está conectada com a entrada do analisador LPC 130.
Ao codificar o sinal de áudio 112 sendo admitido pela entrada 140, o analisador LPC 130 continuamente determina os coeficientes de previsão linear para cada parte 116a a 116c do sinal de áudio 112. A determinação LPC pode envolver a autocorrelação da determinação das partes consecutivas sobreposição ou não sobreposição - com partes de janelas do sinal de áudio - com a realização da estimativa LPC sobre as autocorrelações resultantes (opcionalmente com sujeição às autocorrelações para as janelas de atraso) como o uso de um algoritmo (Wiener-)Levison-Durbin ou algoritmo de Schur, ou outro.
Conforme descrito com respeito às Figs. 3 e 4, o analisador LPC 130 não necessariamente sinaliza os coeficientes predicativos lineares dentro do fluxo de dado 114 em uma taxa de transmissão LPC igual à taxa de estrutura de estruturas 118a a 118c. Uma taxa ainda mais alta do que esta taxa pode também ser utilizada, geralmente, o analisador LPC 130 pode determinar a informação LPC 60 e 7 6 em uma taxa de determinação LPC definida pela taxa supracitada das autocorrelações, por exemplo, com base na qual os LPC's são determinados. Então, o analisador LPC 130 pode inserir a informação LPC 60 e 76 dentro do fluxo de dados em uma taxa de transmissão LPC que pode ser inferior à taxa de determinação LPC, e os codificadores TD e FD 104 e o 106, por sua vez, pode aplicar-se aos coeficientes preditivos lineares com a mesma atualização na taxa de aplicação LPC que é mais alta que a taxa de transmissão LPC, interpolando a informação LPC transmitida 60 e 76 dentro das estruturas 118a a 118c do fluxo de dados 114. Especificamente, como o codificador FD 106 e o decodificador FD, aplicam os coeficientes LPC uma vez por transformação, a taxa de aplicação LPC dentro das estruturas FD pode ser inferior à taxa na qual os coeficientes LPC aplicados no codificador/decodificador TD são adaptados / atualizados por interpolação a partir da taxa de transmissão LPC. Como a interpolação pode ser também realizada, sincronicamente, no lado de decodificação, os mesmos coeficientes preditivos lineares estão disponíveis para os codificadores de dominio de tempo e domínio de frequência por um lado, e os decodificadores de domínio de tempo e de domínio de frequência por outro lado. Em qualquer caso, o analisador LPC 130 determina os coeficientes previsão linear para o sinal de áudio 112 em alguma taxa de determinação LPC igual ou maior que a taxa estrutura e insere o mesmo dentro do fluxo de dados na taxa de transmissão LPC que pode ser igual à taxa de determinação LPC ou menor que aquela. O filtro de análise LP 144 pode, contudo, interpolar de modo a atualizar o filtro de análise LPC na taxa de aplicação LPC maior que a taxa de transmissão LPC. O conversor LPC 134 pode ou não pode realizar a interpolação de modo a determinar os coeficientes LPC para cada transformação ou cada LPC para a conversão de ponderação espectral necessária. Com o objetivo de transmitir os coeficientes LPC, o mesmo pode estar sujeito à quantização no domínio apropriado como o domínio LSF/LSP.
O codificador de domínio de tempo 104 pode operar conforme segue. O filtro de análise LP pode filtrar as partes do modo de codificação de domínio de tempo do sinal de áudio 112 dependente da saída do coeficiente de previsão linear pelo analisador LPC 130. Na saída do filtro de análise LP 144, um sinal de excitação 150 é, então, derivado. O sinal excitação é aproximado pelo aproximador 146. Especificamente, o aproximador 146 estabelece um código como os índices do codebook ou outros parâmetros para aproximar o sinal de excitação 150 como pela minimização ou maximização de alguma medida de otimização definida, por exemplo, por um desvio de sinal de excitação 150 por um lado, e o sinal de excitação sinteticamente gerado conforme definido pelo indice de codebook por outro lado, no dominio sintetizado, ou seja, depois da aplicação do respectivo filtro de sintese de acordo com os LPC's sobre os respectivos sinais de excitação. A medida de otimização pode opcionalmente ser desvios enfatizados percentualmente em bandas de frequência percentualmente mais relevantes. A excitação de inovação determinada pelo código estabelecido pelo aproximador 146, pode ser chamado de parâmetro de inovação.
Assim, o aproximador 146 pode liberar um ou mais parâmetros de inovação por parte do modo de codificação de estrutura por dominio de tempo de modo a ser inserido dentro das estruturas correspondentes com modo de codificação de dominio de tempo associado como tal através de, por exemplo, elemento de sintaxe do modo de estrutura 122. O codificador de dominio de frequência 106, por sua vez, pode operar como se segue. O transformador 132 transforma as partes do dominio de frequência do sinal de áudio 112 usando, por exemplo, uma conversão de transformação de modo a obter um ou mais espectros por porção. O espectrograma resultante na saida do transformador 132 e admitido no modulador de ruido de dominio de frequência 136 que modula a sequência do espectro representando o espectrograma de acordo com os LPC's. Para este fim, o conversor LPC 134 converte os coeficientes preditivos linear do analisador LPC 130 dentro dos valores de ponderações de domínio de frequência de modo a ponderar espectralmente os espectros. Desta vez, a ponderação espectral é desenvolvida como resultados da função de transferência do filtro de análise LP. Ou seja, uma ODFT pode ser, por exemplo, utilizada para converter os coeficientes LPC dentro das ponderações espectrais que podem, então, ser usadas para dividir a saida do espectro, para ser o transformador 132, considerando que a multiplicação é utilizada no lado do decodificador.
A seguir, o quantizador 138 quantiza a saida de espectro de excitação resultante pelo modulador de ruido de dominio de frequência 136 dentro dos niveis de coeficiente de transformação 60 para inserção dentro das estruturas correspondentes do fluxo de dados 114.
Em consonância com as aplicações descritas acima, uma aplicação da presente invenção pode ser derivada ao modificar o codec USAC discutido na parte introdutória da especificação da presente aplicação ao modificar o codificador USAC para operar em diferentes modos operacionais de modo a refrear a escolha do modo ACELP no caso de um determinado modo dos modos operacionais. A fim de permitir o alcance de um atraso menor, o codec USAC pode ser modificado futuramente da seguinte forma: Por exemplo, independentemente do modo operacional, somente os modos de codificação de estrutura TCX e ACELP podem ser utilizados. Para conseguir um atraso menor, a dimensão da estrutura pode ser reduzida para alcançar a estruturação de 20 milissegundos. Especificamente, na apresentação de um codec USAC mais eficiente de acordo com as aplicações acima, os modos operacionais da USAC, a saber, banda estreita [NB | Narrowband] , banda larga [WB | Wideband] e superbanda larga [SWB| Super-wideband], pode ser alterado de modo a que unicamente um subconjunto adequado dos modos de codificação de estrutura geral disponivel esteja disponível dentro dos modos operacionais individuais de acordo com o subsequentemente explicado na tabela:
Figure img0001
aplicações descritas acima, o modo operacional do decodificador pode não somente ser determinado a partir do sinal externo ou do fluxo de dados exclusivamente, mas com base na combinação de ambos. Por exemplo, na tabela acima, o fluxo de dados pode indicar para o decodificador de um modo principal, ou seja, NB, WB, SWB, FB, por meio de um elemento de sintese do modo operação bruto que está presente no fluxo de dados em algumas taxas que podem ser inferiores à taxa de estrutura. O codificador insere este elemento de sintese, além dos elementos de síntese 38. O modo operacional exato, no entanto, pode necessitar de inspeção de um sinal externo adicional indicativo de uma taxa de bits disponível. No caso do SWB, por exemplo, o modo exato depende da taxa de bit disponível que permanece abaixo de 48kbps, sendo igual a, ou maior que 48kbps, e sendo inferior a 96kbps, ou sendo igual a ou maior que 96kbps.
Com respeito às aplicações acima, deve-se notar que, embora de acordo com as aplicações alternativas, é preferencial se o conjunto de toda a pluralidade dos modos de codificação de estrutura 20 com o qual as partes de estrutura/tempo do sinal de informação são associáveis consistir exclusivamente dos modos de codificação de estruturas de dominio de tempo e dominio de frequência, para que possa também haver um ou mais que um modo de codificação de estrutura que não seja um modo de codificação nem de dominio de tempo e nem de dominio de frequência.
Embora alguns aspectos tenham sido descritos no contexto de um aparelho, está claro que estes aspectos também representam uma descrição do método correspondente, onde um bloco ou dispositivo corresponde a uma etapa do método ou uma característica de uma etapa do método. De forma análoga, os aspectos descritos no contexto de uma etapa do método também representam uma descrição de um bloco ou item ou característica correspondente de um aparelho correspondente. Algumas ou todas as etapas do método podem ser executadas por (ou utilizando) um aparelho de hardware, como, por exemplo, um microprocessador, um computador programável ou um circuito eletrônico. Em algumas aplicações, uma ou mais das etapas do método mais importantes podem ser executadas por tal aparelho.
Dependendo de certas exigências da implementação, as aplicações da invenção podem ser implementadas em hardware ou em software. A implementação pode ser realizada utilizando um meio de armazenamento digital, por exemplo, um disquete, um DVD, um Blu-Ray, um CD, uma memória ROM, PROM, EPROM, EEPROM ou uma memória FLASH, tendo sinais de controle eletronicamente legíveis armazenados nela, que cooperam (ou são capazes de cooperar) com um sistema programável por computador de modo que o respectivo método seja realizado. Desta forma, o meio de armazenamento digital pode ser legível por computador.
Algumas aplicações de acordo com a invenção compreendem um suporte de dados tendo sinais de controle eletronicamente legíveis que podem cooperar com um sistema programável por computador, de modo que um dos métodos descritos neste documento seja realizado.
Geralmente, as aplicações da presente invenção podem ser implementadas como um produto do programa de computador com um código de programa, o código de programa sendo operativo para realizar um dos métodos quando o produto do programa de computador operar em um computador. O código de programa pode, por exemplo, ser armazenado em um suporte legivel por máquina.
Outras aplicações compreendem o programa de computador para realizar um dos métodos descritos neste documento, armazenados em um suporte legivel por máquina.
Em outras palavras, uma aplicação do método inventivo é, portanto, um programa de computador tendo um código de programa para realizar um dos métodos descritos neste documento, quando o programa de computador operar em um computador.
Uma aplicação adicional do método inventivo é, portanto, um suporte de dados (ou um meio de armazenamento digital, ou um meio legivel por computador) compreendendo, gravado nele, o programa de computador para realizar um dos métodos descritos neste documento. O suporte de dados, o meio de armazenamento digital ou o meio gravado são tipicamente tangíveis e/ou não transitórios.
Uma aplicação adicional do método inventivo é, portanto, um fluxo de dados ou uma sequência de sinais que representam o programa de computador para realizar um dos métodos descritos neste documento. O fluxo de dados ou a sequência de sinais pode, por exemplo, ser configurado para ser transferido através de uma conexão de comunicação de dados, por exemplo, através da Internet.
Uma aplicação adicional compreende um meio de processamento, por exemplo, um computador, ou um dispositivo lógico programável, configurado ou adaptado para realizar um dos métodos descritos neste documento.
Uma aplicação adicional compreende um computador tendo instalado nele o programa de computador para realizar um dos métodos descritos neste documento.
Uma aplicação adicional de acordo com a invenção compreende um aparelho ou um sistema configurado para transferir (por exemplo, eletrônica ou opticamente) um programa de computador para realizar um dos métodos descritos neste documento a um receptor. O receptor pode, por exemplo, ser um computador, um dispositivo móvel, um dispositivo de memória ou semelhante. O aparelho ou sistema pode, por exemplo, compreender um servidor de arquivo para transferir o programa de computador ao receptor.
Em algumas aplicações, um dispositivo lógico programável (por exemplo, um arranjo de portas lógicas programáveis) pode ser utilizado para realizar algumas ou todas as funcionalidades dos métodos descritos neste documento. Em algumas aplicações, um arranjo de portas lógicas programáveis pode cooperar com um microprocessador para realizar um dos métodos descritos neste documento. Geralmente, os métodos são preferivelmente realizados por qualquer aparelho de hardware.
As aplicações descritas acima são meramente ilustrativas para os princípios da presente invenção. É entendido que as modificações e variações das disposições e os detalhes descritos aqui serão evidentes aos especialistas na técnica. É 5 intenção, portanto, ser limitada apenas pelo escopo das reivindicações iminentes da patente e não pelos detalhes específicos apresentados para fins de descrição e explicação das aplicações do presente documento. Literatura 10 [1]: 3GPP, "Audio codec processing functions; Extended Adaptive Multi-Rate - Wideband (AMR-WB+) codec; Transcoding functions", 2009, 3GPP TS 26.290. [2]: US AC codec (Unified Speech and Audio Codec), ISO/IEC CD 23003-3 dated September 24, 2010.

Claims (18)

1. Decodificador de áudio, compreendendo um decodificador de domínio de tempo (12); um decodificador de domínio de frequência (14); um associador (16) configurado para associar cada uma das estruturas consecutivas (18a-c) do fluxo de dados (20), cada uma das quais representa um modo correspondente das partes consecutivas (24a - 24c) de um sinal de áudio, com um em cada conjunto dependente de modo de uma pluralidade (22) dos modos de codificação de estrutura caracterizado por o decodificador de domínio de tempo (12) ser configurado para decodificar estruturas (18a-c) tendo um de um primeiro subconjunto (30) de um ou mais da pluralidade (22) dos modos de codificação de estrutura associado a ele, e o decodificador de domínio de frequência (14) ser configurado para decodificar estruturas (18a-c) tendo um de um segundo subconjunto (32) de uma ou mais das pluralidades de modos de codificação associado a ele, o primeiro e segundo subconjuntos sendo desconectados um do outro em que o associador (16) é configurado para realizar a associação dependente de um elemento de sintaxe do modo de estrutura (38) associado com as estruturas (18a-c) no fluxo de dados (20), e operar em um modo ativo de uma pluralidade de modos operacionais com seleção do modo operacional ativo da pluralidade dos modos operacionais dependendo do fluxo de dados e/ou um sinal de controle externo, e mudando a dependência do desempenho da associação dependendo do modo operacional ativo.
2. O decodificador de áudio de acordo com a reivindicação 1, caracterizado por o associador (16) ser configurado tal que se o modo operacional ativo for o primeiro modo operacional, o conjunto dependente de modo (40) da pluralidade dos modos de codificação de estrutura é dissociado do primeiro subconjunto (30) e se sobrepõe ao segundo subconjunto (32), e se o modo operacional ativo for o segundo modo operacional, o conjunto dependente de modo (42) da pluralidade de modos de codificação de estrutura se sobrepõe ao primeiro e segundo subconjuntos (30, 32).
3. O decodificador de áudio de acordo com a reivindicação 2, caracterizado por o elemento de sintaxe de modo de estrutura ser codificado dentro do fluxo de dados (20) para que um número de possíveis valores diferenciáveis para o elemento de sintaxe de modo de estrutura (38) relativo a cada estrutura seja independente de um modo operacional ativo sendo o primeiro ou o segundo modo operacional.
4. O decodificador de áudio de acordo com a reivindicação 3, caracterizado por o número de possíveis valores diferenciáveis ser dois e o associador (16) ser configurado tal que, se o modo operacional ativo for o primeiro modo operacional, o conjunto dependente de modo (40) abrange um primeiro e um segundo modo de codificação de estrutura do segundo subconjunto (32) de um ou mais modos de codificação de estrutura, e o decodificador de domínio de frequência (14) é configurado para usar diferentes resoluções de tempo-frequência na decodificação das estruturas tendo o primeiro e segundo modos de codificação da estrutura associados a ele.
5. Decodificador de áudio de acordo com qualquer das reivindicações anteriores, caracterizado por o decodificador de domínio de tempo (12) ser um decodificador de previsão linear de código excitado.
6. Decodificador de áudio de acordo com qualquer das reivindicações anteriores, caracterizado por o decodificador de domínio de frequência ser um decodificador de transformação configurado para decodificar as estruturas tendo um de um segundo subconjunto (32) de um ou mais modos de codificação de estruturas associado a ele, com base nos níveis de coeficiente de transformação codificados deste modo.
7. Decodificador de áudio, de acordo com qualquer uma das reivindicações anteriores, caracterizado pelo fato de que o decodificador no domínio do tempo (12) e o decodificador no domínio da frequência são decodificadores lineares baseados em previsão configurados para obter coeficientes de filtro de previsão linear para cada quadro do fluxo de dados, em que o tempo O decodificador de domínio (12) é configurado para reconstruir partes do sinal de áudio (26) correspondentes aos quadros que possuem um dos primeiros subconjuntos de um ou mais modos de codificação de quadros associados a ele, aplicando um filtro de síntese de previsão linear, dependendo da linearidade. coeficientes de filtro de previsão para os quadros que têm um do primeiro subconjunto de um ou mais dentre a pluralidade de modos de codificação de quadros associados a ele, em um sinal de excitação de 30 construído usando índices do livro de códigos nos quadros que têm um dos primeiros subconjuntos de um ou mais dos pluralidade de modos de codificação de quadro associados a ele, e o decodificador no domínio da frequência (14) é configurado para reconstruir porções do sinal de áudio correspondente encontrar os quadros que têm um do segundo subconjunto de um ou mais modos de codificação de quadros associados ao mesmo, moldando um espectro de excitação definido por níveis de coeficiente de transformação nos quadros que têm um do segundo subconjunto associado aos mesmos, de acordo com o filtro de previsão linear coeficientes para os quadros que têm um do segundo subconjunto associado aos mesmos e transformando o espectro de excitação modelado.
8. Codificador de áudio que compreende um codificador no domínio do tempo (104); um codificador no domínio da frequência (106); e um associador (102) configurado para associar cada uma das partes consecutivas (116a-c) de um sinal de áudio (112) com um de um conjunto dependente de modo (40, 42) de uma pluralidade (22) de modos de codificação de quadro, caracterizado por codificador no domínio do tempo (104) está configurado para codificar porções que possuem um de um primeiro subconjunto (30) de um ou mais dentre a pluralidade (22) dos modos de codificação de quadro associados aos mesmos, em um quadro correspondente (118a-c) de um fluxo de dados (114), e em que o codificador no domínio da frequência (106) está configurado para codificar porções que têm um de um segundo subconjunto (32) de um ou mais dentre a pluralidade de modos de codificação de quadro associados a ele, em um quadro correspondente do fluxo de dados, em que o associador (102) está configurado para operar em um ativo de uma pluralidade de modos de operação, de modo que, se o modo de operação ativo é um primeiro modo de operação, o conjunto dependente de modo (40) da pluralidade de modos de codificação de quadro é separado ao primeiro subconjunto (30) e se sobrepõe ao segundo subconjunto (32) e se o modo de operação ativo for um segundo modo de operação, o conjunto dependente de modo da pluralidade de modos de codificação de quadro se sobrepõe ao primeiro e ao segundo subconjunto (30, 32).
9. O codificador de áudio de acordo com a reivindicação 8, caracterizado por o associador (102) ser configurado para codificar um elemento de síntese do modo de estrutura (122) dentro de um fluxo de dados (114) de modo a indicar, para cada parte, a qual modo de codificação de estrutura da pluralidade de modos de codificação da estrutura a parte respectiva está associada.
10. O codificador de áudio de acordo com a reivindicação 9, caracterizado por o associador (102) ser configurado para codificar o elemento de sintaxe do modo de estrutura (122) dentro do fluxo de dados (114) utilizando o mapeamento bijetivo entre o conjunto de valores possíveis do elemento de sintaxe do modo de estrutura associado com uma parte especifica por um lado, e o conjunto dependente de modo dos modos de codificação de estrutura por outro lado, cujo mapeamento (52) muda dependendo no modo operacional ativo.
11. O codificador de áudio de acordo com a reivindicação 8, caracterizado por o associador (102) ser configurado tal que se o modo operacional ativo for o primeiro modo operacional, o conjunto dependente de modo da pluralidade dos modos de codificação de estrutura é dissociado do primeiro subconjunto (30) e se sobrepõe ao segundo subconjunto (32), e se o modo operacional ativo for o segundo modo operacional, o conjunto dependente de modo da pluralidade de modos de codificação de estrutura se sobrepõe ao primeiro e segundo subconjuntos.
12. O codificador de áudio de acordo com a reivindicação 10, caracterizado por o número de valores possíveis no conjunto de valores possíveis ser dois e o associador (102) ser configurado tal que se o modo operacional ativo for o primeiro modo operacional, o conjunto dependente de modo compreende um primeiro e um segundo modo de codificação de estrutura do segundo subconjunto de um ou mais modos de codificação de estrutura, e o codificador de domínio de frequência é configurado para utilizar resoluções diferentes de tempo-frequência na codificação das partes tendo o primeiro e segundo modos de codificação da estrutura associados a ele.
13. O codificador de áudio de acordo com quaisquer das reivindicações de 8 a 12, caracterizado por o codificador de domínio de tempo (104) ser um codificador de previsão linear de código excitado.
14. O codificador de áudio de acordo com quaisquer das reivindicações de 8 a 13, caracterizado por o codificador de domínio de frequência (106) ser um codificador de transformação configurado para decodificar as partes tendo um de um segundo subconjunto de um ou mais modos de codificação de estrutura associado a ele, utilizando os níveis de coeficiente de transformação e codificar o mesmo dentro das estruturas correspondentes do fluxo de dados.
15. O codificador de áudio, de acordo com qualquer uma das reivindicações 8 a 14, caracterizado pelo fato de que o codificador no domínio do tempo e o codificador no domínio da frequência são codificadores baseados em predição linear configurados para sinalizar coeficientes de filtro de predição linear para cada porção do sinal de áudio (112), em que o codificador de domínio (104) está configurado para aplicar um filtro de análise de predição linear, dependendo dos coeficientes do filtro de predição linear nas partes do sinal de áudio (112) tendo um do primeiro subconjunto de um ou mais dos modos de codificação de quadro associados a ele, de modo obter um sinal de excitação (150) e aproximar o sinal de excitação usando índices do livro de códigos e inseri-lo nos quadros correspondentes, em que o codificador no domínio da frequência (106) está configurado para transformar as partes do sinal de áudio tendo um dos o segundo subconjunto de um ou mais modos de codificação de quadros associados a ele, de modo a obter um espectro e modelar o espectro de acordo com a previsão linear fi coeficientes de filtro para as porções que têm um dos segundo subconjunto associado a ela, de modo a obter um espectro de excitação, quantize o espectro de excitação em níveis de coeficiente de transformação nas estruturas que têm um do segundo subconjunto associado a ela e insira o espectro de excitação quantificado no quadros correspondentes.
16. Método de decodificação de áudio utilizando um decodificador de domínio de tempo (12) e um decodificador de domínio de frequência (14), o método compreendendo: associar cada uma das estruturas consecutivas (18a-c) do fluxo de dados (20), cada uma das quais representando um modo correspondente das partes consecutivas (24a - 24c) de um sinal de áudio, com um em cada conjunto dependente de modo de uma pluralidade (22) dos modos de codificação de estrutura, decodificar as estruturas (18a-c) tendo um de um primeiro subconjunto (30) de uma ou mais das pluralidades (22) dos modos de codificação de estrutura associado a ele pelo decodificador de domínio de tempo (12), decodificar as estruturas (18a-c) tendo um de um segundo subconjunto (32) de uma ou mais das pluralidades (22) dos modos de codificação de estruturas associado a ele pelo decodificador de domínio de frequência (14), o primeiro e o segundo subconjunto sendo dissociado um do outro; caracterizado por a associação ser dependente de um elemento de sintaxe de modo de estrutura (38) associado com as estruturas (18a-c) no fluxo de dados (20); e em que a associação é realizada em um modo ativo de uma pluralidade de modos operacionais com a seleção do modo operacional ativo de uma pluralidade dos modos operacionais dependendo do fluxo de dados e/ou de um sinal de controle externo, tal que a dependência de desempenho da associação mude dependendo do modo operacional ativo.
17. Método de codificação de áudio usando um codificador no domínio do tempo (104) e um codificador no domínio da frequência (106), o método caracterizado por a associação de cada uma das porções consecutivas (116a-c) de um sinal de áudio (112) com um em cada conjunto dependente (40, 42) de uma pluralidade (22) de modos de codificação de estrutura; porções de codificação que têm um de um primeiro subconjunto (30) de um ou mais dentre a pluralidade (22) de modos de codificação de quadro associados aos mesmos, em um quadro correspondente (118a-c) de um fluxo de dados (114) pelo domínio do tempo codificador (104); porções de codificação que têm um de um segundo subconjunto (32) de um ou mais dentre a pluralidade de modos de codificação de quadro associados a ele, em um quadro correspondente do fluxo de dados pelo codificador no domínio da frequência (106), em que a associação é realizada em um ativo de uma pluralidade de modos operacionais, de modo que, se o modo de operação ativo é um primeiro modo de operação, o conjunto dependente de modo (40) da pluralidade de modos de codificação de quadro é separado do primeiro subconjunto (30) e se sobrepõe ao segundo subconjunto (32) e se o modo de operação ativo for um segundo modo de operação, o conjunto dependente de modo da pluralidade de modos de codificação de quadros se sobrepõe ao primeiro e ao segundo subconjunto (30, 32).
18. Mídia de armazenamento não transitória tendo gravada instruções lida por um computador caracterizada por compreender instruções que quando executadas realizam o método da reivindicação 16 ou 17.
BR112013020589-0A 2011-02-14 2012-02-14 Codec de áudio para suporte de modos de codificação de domínio de tempo e domínio de frequência BR112013020589B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161442632P 2011-02-14 2011-02-14
US61/442,632 2011-02-14
PCT/EP2012/052461 WO2012110480A1 (en) 2011-02-14 2012-02-14 Audio codec supporting time-domain and frequency-domain coding modes

Publications (2)

Publication Number Publication Date
BR112013020589A2 BR112013020589A2 (pt) 2018-07-10
BR112013020589B1 true BR112013020589B1 (pt) 2021-09-21

Family

ID=71943598

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112013020589-0A BR112013020589B1 (pt) 2011-02-14 2012-02-14 Codec de áudio para suporte de modos de codificação de domínio de tempo e domínio de frequência

Country Status (19)

Country Link
US (1) US9037457B2 (pt)
EP (1) EP2676269B1 (pt)
JP (1) JP5851525B2 (pt)
KR (2) KR101751354B1 (pt)
CN (1) CN103548078B (pt)
AR (1) AR085223A1 (pt)
AU (2) AU2012217160B2 (pt)
BR (1) BR112013020589B1 (pt)
CA (1) CA2827296C (pt)
ES (1) ES2562189T3 (pt)
HK (1) HK1192793A1 (pt)
MX (1) MX2013009302A (pt)
MY (2) MY159444A (pt)
PL (1) PL2676269T3 (pt)
RU (1) RU2547241C1 (pt)
SG (1) SG192715A1 (pt)
TW (2) TWI488176B (pt)
WO (1) WO2012110480A1 (pt)
ZA (1) ZA201306872B (pt)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2535609T3 (es) 2011-02-14 2015-05-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Codificador de audio con estimación de ruido de fondo durante fases activas
US9589570B2 (en) 2012-09-18 2017-03-07 Huawei Technologies Co., Ltd. Audio classification based on perceptual quality for low or medium bit rates
EP2830052A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio decoder, audio encoder, method for providing at least four audio channel signals on the basis of an encoded representation, method for providing an encoded representation on the basis of at least four audio channel signals and computer program using a bandwidth extension
CN105723455B (zh) * 2013-11-13 2020-01-24 弗劳恩霍夫应用研究促进协会 用于编码音频信号的编码器、音频发送***和用于确定校正值的方法
EP2980790A1 (en) 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for comfort noise generation mode selection
US10699721B2 (en) * 2017-04-25 2020-06-30 Dts, Inc. Encoding and decoding of digital audio signals using difference data
US10699723B2 (en) * 2017-04-25 2020-06-30 Dts, Inc. Encoding and decoding of digital audio signals using variable alphabet size
EP3616197A4 (en) * 2017-04-28 2021-01-27 DTS, Inc. AUDIO ENCODER WINDOW SIZES AND TIME-FREQUENCY TRANSFORMATIONS
CN111788628B (zh) * 2018-03-02 2024-06-07 日本电信电话株式会社 声音信号的编码装置、声音信号的编码方法以及记录介质

Family Cites Families (127)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3432822B2 (ja) 1991-06-11 2003-08-04 クゥアルコム・インコーポレイテッド 可変速度ボコーダ
US5408580A (en) * 1992-09-21 1995-04-18 Aware, Inc. Audio compression system employing multi-rate signal analysis
BE1007617A3 (nl) * 1993-10-11 1995-08-22 Philips Electronics Nv Transmissiesysteem met gebruik van verschillende codeerprincipes.
US5784532A (en) 1994-02-16 1998-07-21 Qualcomm Incorporated Application specific integrated circuit (ASIC) for performing rapid speech compression in a mobile telephone system
CN1090409C (zh) 1994-10-06 2002-09-04 皇家菲利浦电子有限公司 采用不同编码原理的传送***
US5537510A (en) 1994-12-30 1996-07-16 Daewoo Electronics Co., Ltd. Adaptive digital audio encoding apparatus and a bit allocation method thereof
SE506379C3 (sv) * 1995-03-22 1998-01-19 Ericsson Telefon Ab L M Lpc-talkodare med kombinerad excitation
US5754733A (en) 1995-08-01 1998-05-19 Qualcomm Incorporated Method and apparatus for generating and encoding line spectral square roots
US5848391A (en) * 1996-07-11 1998-12-08 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Method subband of coding and decoding audio signals using variable length windows
JP3259759B2 (ja) 1996-07-22 2002-02-25 日本電気株式会社 音声信号伝送方法及び音声符号復号化システム
JPH10124092A (ja) 1996-10-23 1998-05-15 Sony Corp 音声符号化方法及び装置、並びに可聴信号符号化方法及び装置
US5960389A (en) 1996-11-15 1999-09-28 Nokia Mobile Phones Limited Methods for generating comfort noise during discontinuous transmission
JPH10214100A (ja) 1997-01-31 1998-08-11 Sony Corp 音声合成方法
US6134518A (en) 1997-03-04 2000-10-17 International Business Machines Corporation Digital audio signal coding using a CELP coder and a transform coder
JP3223966B2 (ja) 1997-07-25 2001-10-29 日本電気株式会社 音声符号化/復号化装置
US6070137A (en) * 1998-01-07 2000-05-30 Ericsson Inc. Integrated frequency-domain voice coding using an adaptive spectral enhancement filter
ES2247741T3 (es) * 1998-01-22 2006-03-01 Deutsche Telekom Ag Metodo para conmutacion controlada por señales entre esquemas de codificacion de audio.
GB9811019D0 (en) 1998-05-21 1998-07-22 Univ Surrey Speech coders
US6317117B1 (en) 1998-09-23 2001-11-13 Eugene Goff User interface for the control of an audio spectrum filter processor
US7272556B1 (en) 1998-09-23 2007-09-18 Lucent Technologies Inc. Scalable and embedded codec for speech and audio signals
US7124079B1 (en) 1998-11-23 2006-10-17 Telefonaktiebolaget Lm Ericsson (Publ) Speech coding with comfort noise variability feature for increased fidelity
JP4024427B2 (ja) 1999-05-24 2007-12-19 株式会社リコー 線形予測係数抽出装置、線形予測係数抽出方法、およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体
DE10084675T1 (de) 1999-06-07 2002-06-06 Ericsson Inc Verfahren und Vorrichtung zur Erzeugung von künstlichem Geräusch unter Verwendung von parametrischen Geräuschmodell-Masszahlen
JP4464484B2 (ja) 1999-06-15 2010-05-19 パナソニック株式会社 雑音信号符号化装置および音声信号符号化装置
US6236960B1 (en) 1999-08-06 2001-05-22 Motorola, Inc. Factorial packing method and apparatus for information coding
JP4907826B2 (ja) 2000-02-29 2012-04-04 クゥアルコム・インコーポレイテッド 閉ループのマルチモードの混合領域の線形予測音声コーダ
US6757654B1 (en) 2000-05-11 2004-06-29 Telefonaktiebolaget Lm Ericsson Forward error correction in speech coding
JP2002118517A (ja) 2000-07-31 2002-04-19 Sony Corp 直交変換装置及び方法、逆直交変換装置及び方法、変換符号化装置及び方法、並びに復号装置及び方法
US6847929B2 (en) 2000-10-12 2005-01-25 Texas Instruments Incorporated Algebraic codebook system and method
CA2327041A1 (en) 2000-11-22 2002-05-22 Voiceage Corporation A method for indexing pulse positions and signs in algebraic codebooks for efficient coding of wideband signals
US6701772B2 (en) 2000-12-22 2004-03-09 Honeywell International Inc. Chemical or biological attack detection and mitigation system
US7901873B2 (en) 2001-04-23 2011-03-08 Tcp Innovations Limited Methods for the diagnosis and treatment of bone disorders
US20020184009A1 (en) 2001-05-31 2002-12-05 Heikkinen Ari P. Method and apparatus for improved voicing determination in speech signals containing high levels of jitter
US20030120484A1 (en) 2001-06-12 2003-06-26 David Wong Method and system for generating colored comfort noise in the absence of silence insertion description packets
US6941263B2 (en) 2001-06-29 2005-09-06 Microsoft Corporation Frequency domain postfiltering for quality enhancement of coded speech
US6879955B2 (en) 2001-06-29 2005-04-12 Microsoft Corporation Signal modification based on continuous time warping for low bit rate CELP coding
KR100438175B1 (ko) 2001-10-23 2004-07-01 엘지전자 주식회사 코드북 검색방법
CA2388439A1 (en) 2002-05-31 2003-11-30 Voiceage Corporation A method and device for efficient frame erasure concealment in linear predictive based speech codecs
JP3646939B1 (ja) 2002-09-19 2005-05-11 松下電器産業株式会社 オーディオ復号装置およびオーディオ復号方法
US7343283B2 (en) 2002-10-23 2008-03-11 Motorola, Inc. Method and apparatus for coding a noise-suppressed audio signal
US7363218B2 (en) 2002-10-25 2008-04-22 Dilithium Networks Pty. Ltd. Method and apparatus for fast CELP parameter mapping
KR100465316B1 (ko) 2002-11-18 2005-01-13 한국전자통신연구원 음성 부호화기 및 이를 이용한 음성 부호화 방법
US7318035B2 (en) 2003-05-08 2008-01-08 Dolby Laboratories Licensing Corporation Audio coding systems and methods using spectral component coupling and spectral component regeneration
US20050091044A1 (en) 2003-10-23 2005-04-28 Nokia Corporation Method and system for pitch contour quantization in audio coding
RU2374703C2 (ru) 2003-10-30 2009-11-27 Конинклейке Филипс Электроникс Н.В. Кодирование или декодирование аудиосигнала
CA2457988A1 (en) 2004-02-18 2005-08-18 Voiceage Corporation Methods and devices for audio compression based on acelp/tcx coding and multi-rate lattice vector quantization
FI118835B (fi) 2004-02-23 2008-03-31 Nokia Corp Koodausmallin valinta
EP1852851A1 (en) 2004-04-01 2007-11-07 Beijing Media Works Co., Ltd An enhanced audio encoding/decoding device and method
GB0408856D0 (en) 2004-04-21 2004-05-26 Nokia Corp Signal encoding
CA2566368A1 (en) 2004-05-17 2005-11-24 Nokia Corporation Audio encoding with different coding frame lengths
US7649988B2 (en) 2004-06-15 2010-01-19 Acoustic Technologies, Inc. Comfort noise generator using modified Doblinger noise estimate
US8160274B2 (en) 2006-02-07 2012-04-17 Bongiovi Acoustics Llc. System and method for digital signal processing
TWI253057B (en) * 2004-12-27 2006-04-11 Quanta Comp Inc Search system and method thereof for searching code-vector of speech signal in speech encoder
US7519535B2 (en) 2005-01-31 2009-04-14 Qualcomm Incorporated Frame erasure concealment in voice communications
WO2006079350A1 (en) 2005-01-31 2006-08-03 Sonorit Aps Method for concatenating frames in communication system
US20070147518A1 (en) 2005-02-18 2007-06-28 Bruno Bessette Methods and devices for low-frequency emphasis during audio compression based on ACELP/TCX
US8155965B2 (en) 2005-03-11 2012-04-10 Qualcomm Incorporated Time warping frames inside the vocoder by modifying the residual
DE602006012637D1 (de) 2005-04-01 2010-04-15 Qualcomm Inc Vorrichtung und Verfahren für die Teilband-Sprachkodierung
EP1905002B1 (en) 2005-05-26 2013-05-22 LG Electronics Inc. Method and apparatus for decoding audio signal
US7707034B2 (en) 2005-05-31 2010-04-27 Microsoft Corporation Audio codec post-filter
US7693708B2 (en) 2005-06-18 2010-04-06 Nokia Corporation System and method for adaptive transmission of comfort noise parameters during discontinuous speech transmission
KR100851970B1 (ko) 2005-07-15 2008-08-12 삼성전자주식회사 오디오 신호의 중요주파수 성분 추출방법 및 장치와 이를이용한 저비트율 오디오 신호 부호화/복호화 방법 및 장치
US7610197B2 (en) 2005-08-31 2009-10-27 Motorola, Inc. Method and apparatus for comfort noise generation in speech communication systems
US7720677B2 (en) 2005-11-03 2010-05-18 Coding Technologies Ab Time warped modified transform coding of audio signals
US7536299B2 (en) 2005-12-19 2009-05-19 Dolby Laboratories Licensing Corporation Correlating and decorrelating transforms for multiple description coding systems
US8255207B2 (en) 2005-12-28 2012-08-28 Voiceage Corporation Method and device for efficient frame erasure concealment in speech codecs
KR20080101872A (ko) 2006-01-18 2008-11-21 연세대학교 산학협력단 부호화/복호화 장치 및 방법
CN101371296B (zh) * 2006-01-18 2012-08-29 Lg电子株式会社 用于编码和解码信号的设备和方法
US8032369B2 (en) 2006-01-20 2011-10-04 Qualcomm Incorporated Arbitrary average data rates for variable rate coders
FR2897733A1 (fr) 2006-02-20 2007-08-24 France Telecom Procede de discrimination et d'attenuation fiabilisees des echos d'un signal numerique dans un decodeur et dispositif correspondant
US20070253577A1 (en) 2006-05-01 2007-11-01 Himax Technologies Limited Equalizer bank with interference reduction
WO2007138511A1 (en) 2006-05-30 2007-12-06 Koninklijke Philips Electronics N.V. Linear predictive coding of an audio signal
US7873511B2 (en) 2006-06-30 2011-01-18 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio encoder, audio decoder and audio processor having a dynamically variable warping characteristic
JP4810335B2 (ja) 2006-07-06 2011-11-09 株式会社東芝 広帯域オーディオ信号符号化装置および広帯域オーディオ信号復号装置
US7933770B2 (en) 2006-07-14 2011-04-26 Siemens Audiologische Technik Gmbh Method and device for coding audio data based on vector quantisation
WO2008013788A2 (en) 2006-07-24 2008-01-31 Sony Corporation A hair motion compositor system and optimization techniques for use in a hair/fur pipeline
US7987089B2 (en) 2006-07-31 2011-07-26 Qualcomm Incorporated Systems and methods for modifying a zero pad region of a windowed frame of an audio signal
US20080147518A1 (en) 2006-10-18 2008-06-19 Siemens Aktiengesellschaft Method and apparatus for pharmacy inventory management and trend detection
DE102006049154B4 (de) 2006-10-18 2009-07-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Kodierung eines Informationssignals
RU2444071C2 (ru) * 2006-12-12 2012-02-27 Фраунхофер-Гезелльшафт цур Фёрдерунг дер ангевандтен Кодер, декодер и методы кодирования и декодирования сегментов данных, представляющих собой поток данных временной области
FR2911228A1 (fr) 2007-01-05 2008-07-11 France Telecom Codage par transformee, utilisant des fenetres de ponderation et a faible retard.
KR101379263B1 (ko) * 2007-01-12 2014-03-28 삼성전자주식회사 대역폭 확장 복호화 방법 및 장치
FR2911426A1 (fr) 2007-01-15 2008-07-18 France Telecom Modification d'un signal de parole
JP4708446B2 (ja) 2007-03-02 2011-06-22 パナソニック株式会社 符号化装置、復号装置およびそれらの方法
JP2008261904A (ja) 2007-04-10 2008-10-30 Matsushita Electric Ind Co Ltd 符号化装置、復号化装置、符号化方法および復号化方法
US8630863B2 (en) 2007-04-24 2014-01-14 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding audio/speech signal
CN101388210B (zh) 2007-09-15 2012-03-07 华为技术有限公司 编解码方法及编解码器
KR101513028B1 (ko) 2007-07-02 2015-04-17 엘지전자 주식회사 방송 수신기 및 방송신호 처리방법
US8185381B2 (en) 2007-07-19 2012-05-22 Qualcomm Incorporated Unified filter bank for performing signal conversions
CN101110214B (zh) 2007-08-10 2011-08-17 北京理工大学 一种基于多描述格型矢量量化技术的语音编码方法
JP5140730B2 (ja) 2007-08-27 2013-02-13 テレフオンアクチーボラゲット エル エム エリクソン(パブル) 切り換え可能な時間分解能を用いた低演算量のスペクトル分析/合成
US8566106B2 (en) 2007-09-11 2013-10-22 Voiceage Corporation Method and device for fast algebraic codebook search in speech and audio coding
CN101425292B (zh) * 2007-11-02 2013-01-02 华为技术有限公司 一种音频信号的解码方法及装置
DE102007055830A1 (de) 2007-12-17 2009-06-18 Zf Friedrichshafen Ag Verfahren und Vorrichtung zum Betrieb eines Hybridantriebes eines Fahrzeuges
CN101483043A (zh) 2008-01-07 2009-07-15 中兴通讯股份有限公司 基于分类和排列组合的码本索引编码方法
CN101488344B (zh) 2008-01-16 2011-09-21 华为技术有限公司 一种量化噪声泄漏控制方法及装置
US8000487B2 (en) 2008-03-06 2011-08-16 Starkey Laboratories, Inc. Frequency translation by high-frequency spectral envelope warping in hearing assistance devices
EP2107556A1 (en) 2008-04-04 2009-10-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio transform coding using pitch correction
US8879643B2 (en) 2008-04-15 2014-11-04 Qualcomm Incorporated Data substitution scheme for oversampled data
US8768690B2 (en) 2008-06-20 2014-07-01 Qualcomm Incorporated Coding scheme selection for low-bit-rate applications
EP2144171B1 (en) 2008-07-11 2018-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder and decoder for encoding and decoding frames of a sampled audio signal
AU2009267518B2 (en) 2008-07-11 2012-08-16 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for encoding/decoding an audio signal using an aliasing switch scheme
MY154452A (en) 2008-07-11 2015-06-15 Fraunhofer Ges Forschung An apparatus and a method for decoding an encoded audio signal
BRPI0910784B1 (pt) 2008-07-11 2022-02-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e. V. Codificador e decodificador de áudio para estruturas de codificação de sinais de áudio amostrados
ES2657393T3 (es) 2008-07-11 2018-03-05 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Codificador y descodificador de audio para codificar y descodificar muestras de audio
CA2871268C (en) * 2008-07-11 2015-11-03 Nikolaus Rettelbach Audio encoder, audio decoder, methods for encoding and decoding an audio signal, audio stream and computer program
ES2758799T3 (es) 2008-07-11 2020-05-06 Fraunhofer Ges Forschung Método y aparato para codificar y decodificar una señal de audio y programas informáticos
US8352279B2 (en) 2008-09-06 2013-01-08 Huawei Technologies Co., Ltd. Efficient temporal envelope coding approach by prediction between low band signal and high band signal
WO2010031049A1 (en) 2008-09-15 2010-03-18 GH Innovation, Inc. Improving celp post-processing for music signals
US8798776B2 (en) * 2008-09-30 2014-08-05 Dolby International Ab Transcoding of audio metadata
TWI520128B (zh) * 2008-10-08 2016-02-01 弗勞恩霍夫爾協會 多解析度切換音訊編碼/解碼方案(一)
KR101315617B1 (ko) * 2008-11-26 2013-10-08 광운대학교 산학협력단 모드 스위칭에 기초하여 윈도우 시퀀스를 처리하는 통합 음성/오디오 부/복호화기
CN101770775B (zh) 2008-12-31 2011-06-22 华为技术有限公司 信号处理方法及装置
US8457975B2 (en) 2009-01-28 2013-06-04 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio decoder, audio encoder, methods for decoding and encoding an audio signal and computer program
AR075199A1 (es) 2009-01-28 2011-03-16 Fraunhofer Ges Forschung Codificador de audio decodificador de audio informacion de audio codificada metodos para la codificacion y decodificacion de una senal de audio y programa de computadora
EP2214165A3 (en) 2009-01-30 2010-09-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus, method and computer program for manipulating an audio signal comprising a transient event
KR101441474B1 (ko) * 2009-02-16 2014-09-17 한국전자통신연구원 적응적 정현파 펄스 코딩을 이용한 오디오 신호의 인코딩 및 디코딩 방법 및 장치
ATE526662T1 (de) 2009-03-26 2011-10-15 Fraunhofer Ges Forschung Vorrichtung und verfahren zur änderung eines audiosignals
EP2446539B1 (en) 2009-06-23 2018-04-11 Voiceage Corporation Forward time-domain aliasing cancellation with application in weighted or original signal domain
CN101958119B (zh) * 2009-07-16 2012-02-29 中兴通讯股份有限公司 一种改进的离散余弦变换域音频丢帧补偿器和补偿方法
BR112012009490B1 (pt) 2009-10-20 2020-12-01 Fraunhofer-Gesellschaft zur Föerderung der Angewandten Forschung E.V. ddecodificador de áudio multimodo e método de decodificação de áudio multimodo para fornecer uma representação decodificada do conteúdo de áudio com base em um fluxo de bits codificados e codificador de áudio multimodo para codificação de um conteúdo de áudio em um fluxo de bits codificados
ES2533098T3 (es) 2009-10-20 2015-04-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Codificador de señal de audio, decodificador de señal de audio, método para proveer una representación codificada de un contenido de audio, método para proveer una representación decodificada de un contenido de audio y programa de computación para su uso en aplicaciones de bajo retardo
CN102081927B (zh) 2009-11-27 2012-07-18 中兴通讯股份有限公司 一种可分层音频编码、解码方法及***
US8423355B2 (en) 2010-03-05 2013-04-16 Motorola Mobility Llc Encoder for audio signal including generic audio and speech frames
US8428936B2 (en) 2010-03-05 2013-04-23 Motorola Mobility Llc Decoder for audio signal including generic audio and speech frames
WO2011147950A1 (en) 2010-05-28 2011-12-01 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Low-delay unified speech and audio codec
ES2535609T3 (es) 2011-02-14 2015-05-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Codificador de audio con estimación de ruido de fondo durante fases activas

Also Published As

Publication number Publication date
EP2676269A1 (en) 2013-12-25
ES2562189T3 (es) 2016-03-02
AU2012217160A1 (en) 2013-10-10
CA2827296C (en) 2016-08-30
JP2014507016A (ja) 2014-03-20
US20130332174A1 (en) 2013-12-12
US9037457B2 (en) 2015-05-19
TWI484480B (zh) 2015-05-11
JP5851525B2 (ja) 2016-02-03
KR20140000322A (ko) 2014-01-02
AR085223A1 (es) 2013-09-18
RU2547241C1 (ru) 2015-04-10
EP2676269B1 (en) 2015-12-16
SG192715A1 (en) 2013-09-30
AU2016200351B2 (en) 2017-11-30
WO2012110480A1 (en) 2012-08-23
AU2016200351A1 (en) 2016-02-11
KR101751354B1 (ko) 2017-06-27
AU2012217160B2 (en) 2016-02-18
CN103548078A (zh) 2014-01-29
BR112013020589A2 (pt) 2018-07-10
KR101648133B1 (ko) 2016-08-23
MY159444A (en) 2017-01-13
KR20160060161A (ko) 2016-05-27
RU2013141935A (ru) 2015-03-27
PL2676269T3 (pl) 2016-06-30
HK1192793A1 (zh) 2014-08-29
TW201248617A (en) 2012-12-01
TWI488176B (zh) 2015-06-11
CN103548078B (zh) 2015-12-23
TW201241823A (en) 2012-10-16
MX2013009302A (es) 2013-09-13
ZA201306872B (en) 2014-05-28
MY160264A (en) 2017-02-28
CA2827296A1 (en) 2012-08-23

Similar Documents

Publication Publication Date Title
BR112013020589B1 (pt) Codec de áudio para suporte de modos de codificação de domínio de tempo e domínio de frequência
JP6306177B2 (ja) 時間ドメイン励振信号を修正するエラーコンシールメントを用いて、復号化されたオーディオ情報を提供する、オーディオデコーダおよび復号化されたオーディオ情報を提供する方法
EP2473995B1 (en) Audio signal encoder, audio signal decoder, method for providing an encoded representation of an audio content, method for providing a decoded representation of an audio content and computer program for use in low delay applications
KR101869395B1 (ko) 예측 인코딩 및 변환 인코딩 사이에서 교번하는 낮은―지연 사운드―인코딩
BR112016009819B1 (pt) Decodificador áudio e método para fornecer uma informação de áudio decodificada utilizando uma dissimulação de erro baseada em um sinal de excitação de domínio de tempo
BR112012009447B1 (pt) Codificador de sinal de áudio, decodificador de stnai, de áudio, método para codificar ou decodificar um sinal de áudio usando um cancelamento de aliasing
AU2012217153B2 (en) Apparatus and method for encoding and decoding an audio signal using an aligned look-ahead portion
JP7026711B2 (ja) Fd/lpd遷移コンテキストにおけるフレーム喪失管理
BR112014032735B1 (pt) Codificador e decodificador de áudio com base em predição linear e respectivos métodos para codificar e decodificar
CN105723457B (zh) 从变换编码/解码过渡到预测编码/解码
KR20220066412A (ko) Lpd/fd 전이 프레임 인코딩의 예산 결정

Legal Events

Date Code Title Description
B15I Others concerning applications: loss of priority
B12F Other appeals [chapter 12.6 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B06A Patent application procedure suspended [chapter 6.1 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 14/02/2012, OBSERVADAS AS CONDICOES LEGAIS.