ES2657393T3 - Codificador y descodificador de audio para codificar y descodificar muestras de audio - Google Patents

Codificador y descodificador de audio para codificar y descodificar muestras de audio Download PDF

Info

Publication number
ES2657393T3
ES2657393T3 ES15193588.9T ES15193588T ES2657393T3 ES 2657393 T3 ES2657393 T3 ES 2657393T3 ES 15193588 T ES15193588 T ES 15193588T ES 2657393 T3 ES2657393 T3 ES 2657393T3
Authority
ES
Spain
Prior art keywords
decoder
frame
encoder
distortion
window
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES15193588.9T
Other languages
English (en)
Inventor
Jérémie Lecomte
Philippe Gournay
Stefan Bayer
Bernhard Grill
Markus Multrus
Bruno Bessette
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Application granted granted Critical
Publication of ES2657393T3 publication Critical patent/ES2657393T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/20Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/022Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

Un codificador de audio (100) para codificar muestras de audio, que comprende: un primer codificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo (110) para codificar muestras de audio en un primer dominio de codificación, teniendo el primer codificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo (110) una primera regla de alineación de tramas, siendo una alineación de tramas de AAC, una ventana de inicio de AAC y una ventana de detención de AAC ; un segundo codificador (120) para codificar muestras en un segundo dominio de codificación, teniendo el segundo codificador (120) una segunda regla de alineación de tramas diferente y utilizando el modo ACELP de AMR-WB+ con la segunda regla de alineación de tramas que es una regla de alineación de tramas de AMR de acuerdo con la que una supertrama comprende cuatro tramas de AMR de igual tamaño, teniendo el segundo codificador (120) un número de muestras de audio de periodo de encendido de la codificación, siendo una trama de AMR del segundo codificador (120) una representación codificada de un número de muestras de audio oportunamente posteriores, siendo el número igual al número de muestras de audio de tamaño de trama predeterminado; y un controlador (130) para conmutar del primer codificador (110) al segundo codificador (120) en respuesta a una característica de las muestras de audio o conmutar del segundo codificador (120) al primer codificador (110) en respuesta a una característica diferente de las muestras de audio, y para modificar la segunda regla de alineación de tramas y mantener la alineación de tramas de AAC en respuesta a conmutar del primer codificador (110) al segundo codificador (120) o del segundo codificador (120) al primer codificador (110) hasta el punto que una primera supertrama en la conmutación está comprendida de cinco tramas de AMR en lugar de cuatro tramas de AMR, superponiéndose la quinta trama de AMR respectivamente a una parte de desvanecimiento de una ventana de inicio o una ventana de detención del primer codificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo (110).

Description

5 La presente invención se encuentra dentro del campo de la codificación de audio en diferentes dominios de codificación, por ejemplo, en el dominio del tiempo y en un dominio de la transformada.
En el contexto de la tecnología de codificación del habla y de audio de baja tasa de bits, se han empleado tradicionalmente diferentes técnicas de codificación para lograr una codificación de baja tasa de bits de tales señales 10 con la mejor calidad subjetiva posible a una tasa de bits dada. Los codificadores para señales de música general / sonido buscan optimizar la calidad subjetiva mediante la conformación de una forma espectral (y temporal) del error de cuantificación de acuerdo con una curva de umbral de enmascaramiento que se estima a partir de la señal de entrada por medio de un modelo perceptual (“codificación de audio perceptual”). Por otro lado, se ha mostrado que la codificación del habla a muy bajas tasas de bits funciona de manera muy eficiente cuando se basa en un modelo
15 de producción del habla humana, es decir, empleando Codificación Predictiva Lineal (LPC) para los modelar los efectos resonantes del tracto vocal humano junto con una codificación eficiente de la señal de excitación residual.
Como consecuencia de estos dos enfoques diferentes, los codificadores de audio generales, como MPEG1 Capa 3 (MPEG = Grupo de Expertos en Imágenes en Movimiento), o MPEG2 / 4 Codificación de Audio Avanzada (AAC), en 20 general, no funcionan tan bien para las señales del habla a muy bajas tasas de datos como los codificadores de habla basados en LPC dedicados, debido a la falta de aprovechamiento de un modelo fuente del habla. A la inversa, los codificadores de habla basados en LPC, en general, no alcanzan unos resultados convincentes cuando se aplican a señales de música generales debido a su incapacidad para dar forma de manera flexible a la envolvente espectral de la distorsión de codificación de acuerdo con una curva de umbral de enmascaramiento. En lo sucesivo,
25 se describen conceptos que combinan las ventajas tanto de la codificación basada en LPC como de la codificación de audio perceptual en una misma estructura y por lo tanto describen una codificación de audio unificada que es eficiente para las señales tanto de audio general como de habla.
Tradicionalmente, los codificadores de audio perceptuales usan un enfoque basado en banco de filtros para codificar
30 de manera eficiente señales de audio y dar forma a la distorsión de cuantificación de acuerdo con una estimación de la curva de enmascaramiento.
La figura 16a muestra un diagrama de bloques básico de un sistema de codificación perceptual monofónico. Se usa un banco de filtros de análisis 1600 para establecer una correspondencia de las muestras en el dominio del tiempo 35 con componentes espectrales submuestreados. Dependiente del número de componentes espectrales, también se hace referencia al sistema como codificador de subbandas (número pequeño de subbandas, por ejemplo, 32) o codificador de transformada (número grande de líneas de frecuencia, por ejemplo, 512). Se usa un modelo perceptual (“psicoacústico”) 1602 para estimar el umbral real de enmascaramiento dependiente de tiempo. Las componentes espectrales (de “subbanda” o de “dominio de la frecuencia”) se cuantifican y se codifican 1604 de
40 manera que el ruido de cuantificación se oculta bajo la señal transmitida real y no es perceptible después de la descodificación. Esto se logra mediante la variación de la granularidad de cuantificación de los valores espectrales sobre el tiempo y la frecuencia.
Los valores de subbanda o coeficientes espectrales cuantificados y codificados por entropía se introducen junto con
45 una información complementaria en un formateador de secuencia de bits 1606, el cual proporciona una señal de audio codificada que es adecuada para transmitirse o almacenarse. La secuencia de bits de salida del bloque 1606 se puede transmitir por medio de Internet o se puede almacenar en cualquier soporte de datos legible por máquina.
En el lado del descodificador, una interfaz de entrada de descodificador 1610 recibe la secuencia de bits codificada.
50 El bloque 1610 separa los valores espectrales/de subbanda codificados por entropía y cuantificados de la información complementaria. Los valores espectrales codificados se introducen en un descodificador de entropía como un descodificador de Huffman, que se coloca entre 1610 y 1620. Las salidas de este descodificador de entropía son valores espectrales cuantificados. Estos valores espectrales cuantificados se introducen en un recuantificador, el cual realiza una cuantificación “inversa” como se indica en 1620 en la figura 16a. La salida del
55 bloque 1620 se introduce en un banco de filtros de síntesis 1622, el cual realiza una filtración de síntesis incluyendo una transformada de frecuencia/tiempo y, por lo general, una operación de cancelación de distorsión por repliegue del espectro en el dominio del tiempo como una superposición y agregación y/o una operación de aplicación de función ventana de lado de síntesis para obtener finalmente la señal de audio de salida.
60 Tradicionalmente, la codificación del habla eficiente se ha basado en la codificación predictiva lineal (LPC) para modelar los efectos resonantes del tracto vocal humano junto con una codificación eficiente de la señal de excitación residual. Los parámetros tanto de LPC como de excitación se transmiten del codificador al descodificador. Este principio se ilustra en las figuras 17a y 17b.
La figura 17a indica el lado de codificador de un sistema de codificación/descodificación basado en la codificación predictiva lineal. La entrada de habla se introduce en un analizador de LPC 1701, el cual proporciona, en su salida, unos coeficientes de filtro de LPC. Basándose en estos coeficientes de filtro de LPC, se ajusta un filtro de LPC 1703. El filtro de LPC emite una señal de audio espectralmente blanqueada, que también se denomina “señal de error de
5 predicción”. Esta señal de audio espectralmente blanqueada se introduce en un codificador residual/de excitación 1705, el cual genera unos parámetros de excitación. Por lo tanto, la entrada de habla se codifica en parámetros de excitación, por un lado, y coeficientes de LPC, por otro lado.
En el lado de descodificador ilustrado en la figura 17b, los parámetros de excitación se introducen en un
10 descodificador de excitación 1707, el cual genera una señal de excitación, la cual puede introducirse en un filtro de síntesis de LPC. El filtro de síntesis de LPC se ajusta usando los coeficientes de filtro de LPC transmitidos. Por lo tanto, el filtro de síntesis de LPC 1709 genera una señal de salida de habla reconstruida o sintetizada.
Con el tiempo, se han propuesto muchos métodos con respecto a una representación eficiente y perceptualmente
15 convincente de la señal residual (de excitación), como Excitación de MultiPulso (MPE), Excitación de Pulso Regular (RPE) y Predicción Lineal Excitada por Código (CELP).
La codificación predictiva lineal intenta producir una estimación del valor de muestra actual de una secuencia basándose en la observación de un cierto número de valores pasados como una combinación lineal de las
20 observaciones pasadas. Para reducir la redundancia en la señal de entrada, el filtro de LPC de codificador “blanquea” la señal de entrada en su envolvente espectral, es decir, esta es un modelo de la inversa de la envolvente espectral de la señal. A la inversa, el filtro de síntesis de LPC de descodificador es un modelo de la envolvente espectral de la señal. Específicamente, se sabe que el bien conocido análisis predictivo lineal autorregresivo (AR) modela la envolvente espectral de la señal por medio de una aproximación a todos los polos.
25 Por lo general, los codificadores de habla de banda estrecha (es decir, codificadores de habla con una tasa de muestreo de 8 kHz) emplean un filtro de LPC con un orden de entre 8 y 12. Debido a la naturaleza del filtro de LPC, una resolución de frecuencia uniforme es efectiva a través de la totalidad del rango de frecuencias. Esto no se corresponde con una escala de frecuencias perceptual.
30 Para combinar los puntos fuertes de la codificación basada en LPC/CELP tradicional (la mejor calidad para señales de habla) y el enfoque de codificación de audio perceptual basado en banco de filtros tradicional (el mejor para música), se ha propuesto una codificación combinada entre estas arquitecturas. En el codificador de AMRWB+ (AMRWB = Banda Ancha de MultiTasa Adaptativa) B. Bessette, R. Lefebvre, R. Salami, “UNIVERSAL
35 SPEECH/AUDIO CODING USING HYBRID ACELP/TCX TECHNIQUES”, Proc. IEEE ICASSP 2005, páginas 301 304, 2005 dos núcleos de codificación alternativos operan sobre una señal residual de LPC. Uno está basado en ACELP (ACELP = Predicción Lineal por Excitación con Código Algebraico) y, por lo tanto, es extremadamente eficiente para la codificación de señales del habla. El otro núcleo de codificación está basado en TCX (TCX = Excitación Codificada de Transformada), es decir, un enfoque de codificación basado en banco de filtros que se
40 asemeja a las técnicas de codificación de audio tradicionales para lograr una buena calidad para las señales musicales. Dependiendo de las características de las señales de señal de entrada, uno de los dos modos de codificación se selecciona durante un periodo corto de tiempo para transmitir la señal residual de LPC. De esta forma, tramas de 80 ms de duración pueden dividirse en unas subtramas de 40 ms o de 20 ms en las cuales se toma una decisión entre los dos modos de codificación.
45 La AMRWB+ (AMRWB+ = códec de Banda Ancha de MultiTasa Adaptativa Extendido), véase 3GPP (3GPP = Proyecto de Asociación de Tercera Generación) especificación técnica número 26.290, versión 6.3.0, junio de 2005, puede conmutar entre los dos modos esencialmente diferentes de ACELP y de TCX. En el modo de ACELP, una señal en el dominio del tiempo se codifica mediante excitación de código algebraico. En el modo de TCX se usa una
50 transformada rápida de Fourier (FFT = transformada rápida de Fourier) y los valores espectrales de la señal ponderada de LPC (de la que se puede obtener la excitación de LPC) se codifican basándose en una cuantificación vectorial.
La decisión de qué modos usar se puede tomar al probar y descodificar ambas opciones y comparar las relaciones 55 de señal a ruido (SNR = Relación de Señal a Ruido) segmentarias resultantes.
Este caso también se denomina decisión de bucle cerrado, ya que hay un bucle de control cerrado, que evalúa tanto las eficiencias como los rendimientos de codificación, respectivamente, y que elige entonces la que tenga la mejor SNR.
60 Se sabe bien que, para las aplicaciones de codificación de audio y habla, no es factible una transformada de bloque sin aplicación de una función ventana. Por lo tanto, para el modo de TCX se aplica una función ventana a la señal con una ventana de superposición baja con una superposición de 1/8. Esta región de superposición es necesaria para el desvanecimiento de salida de un bloque o trama anterior al tiempo que se desvanece de entrada el siguiente,
por ejemplo, para suprimir artefactos debido a un ruido de cuantificación no correlacionado en tramas de audio consecutivas. De esta manera, la tara en comparación con un muestreo no crítico se mantiene razonablemente baja y la descodificación necesaria para la decisión de bucle cerrado reconstruye al menos 7/8 de las muestras de la trama actual.
5 La AMRWB+ introduce 1/8 de tara en un modo de TCX, es decir, el número de valores espectrales que se va a codificar es 1/8 mayor que el número de muestras de entrada. Esto proporciona la desventaja de una tara de datos aumentada. Asimismo, la respuesta de frecuencia de los filtros de paso de banda correspondientes es desventajosa debido a la abrupta región de superposición de 1/8 de las tramas consecutivas.
10 Para profundizar en el detalle de la tara de código y la superposición de tramas consecutivas, la figura 18 ilustra una definición de parámetros de ventana. La ventana que se muestra en la figura 18 tiene una parte de borde de subida en el lado izquierdo, la cual se indica con “L” y también se denomina región de superposición izquierda, una región central que se indica con “1”, la cual también se denomina región de 1 o parte de derivación, y una parte de borde de bajada, que se indica con “R” y también se denomina la región de superposición derecha. Además, la figura 18
15 muestra una flecha que indica la región “PR” de reconstrucción perfecta dentro de una trama. Además, la figura 18 muestra una flecha que indica la longitud del núcleo de transformada, que se indica con “T”.
La figura 19 muestra una vista gráfica de una secuencia de ventanas de AMRWB+ y, en la parte inferior, una tabla de parámetros de ventana de acuerdo con la figura 18. La secuencia de ventanas que se muestra en la parte
20 superior de la figura 19 es ACELP, TCX20 (para una trama de 20 ms de duración), TCX20, TCX40 (para una trama de 40 ms de duración), TCX80 (para una trama de 80 ms de duración), TCX20, TCX20, ACELP, ACELP.
A partir de la secuencia de ventanas se pueden ver las regiones de superposición variadas, las cuales se superponen 1/8 exacto de la parte central M. La tabla en la parte inferior de la figura 19 también muestra que la
25 longitud de transformada “T” es siempre 1/8 más grande que la región de muestras nuevas perfectamente reconstruidas “PR”. Asimismo, se ha de indicar que no es solo el caso de las transiciones de ACELP a TCX, sino también de las transiciones de TCXx a TCXx (en el que “x” indica tramas de TCX de una longitud arbitraria). Por lo tanto, en cada bloque se introduce una tara de 1/8, es decir, nunca se alcanza el muestreo crítico.
30 Cuando se conmuta de TCX a ACELP, las muestras de ventana se descartan de la trama de FFTTCX en la región de superposición, como se indica, por ejemplo, en la parte superior de la figura 19 mediante la región marcada con 1900. Cuando se conmuta de ACELP a TCX la respuesta de entrada cero (ZIR = respuesta de entrada cero), la cual también se indica mediante la línea de puntos 1910 en la parte superior de la figura 19, se elimina en el codificador antes de la aplicación de una función ventana y se agrega en el descodificador para la recuperación. Cuando se
35 conmuta de tramas de TCX a TCX las muestras a las que se ha aplicado una función ventana se usan para un desvanecimiento cruzado. Dado que las tramas de TCX se pueden cuantificar de manera diferente, el error de cuantificación o ruido de cuantificación entre tramas consecutivas puede ser diferente y/o independiente. Con lo anterior, cuando se conmuta de una trama a la siguiente sin desvanecimiento cruzado, pueden ocurrir artefactos perceptibles y, en consecuencia, el desvanecimiento cruzado es necesario para lograr una cierta calidad.
40 A partir de la tabla en la parte inferior de la figura 19, se puede ver que la región de desvanecimiento cruzado crece con una longitud creciente de la trama. La figura 20 proporciona otra tabla con ilustraciones de las diferentes ventanas para las posibles transiciones en AMRWB+. Cuando se realiza una transición de TCX a ACELP se pueden descartar las muestras de superposición. Cuando se realiza una transición de ACELP a TCX, se puede
45 eliminar en el codificador la respuesta de entrada cero a partir de la ACELP y se agrega el descodificador para la recuperación.
A continuación se arrojará luz sobre la codificación de audio, que usa una codificación en el dominio del tiempo (TD = Dominio de Tiempo) y en el dominio de la frecuencia (FD = Dominio de Frecuencia). Asimismo, entre los dos 50 dominios de codificación, se puede usar la conmutación. En la figura 21, se muestra una línea de tiempo durante la cual una primera trama 2101 se codifica por un codificador de FD, seguida por otra trama 2103, que se codifica por un codificador de TD y que se superpone en la región 2102 con la primera trama 2101. La trama codificada en el dominio del tiempo 2103 es seguida por una trama 2105, la cual se codifica de nuevo en el dominio de la frecuencia y que se superpone en la región 2104 con la trama precedente 2103. Las regiones de superposición 2102 y 2104
55 ocurren siempre que se conmuta el dominio de codificación.
El fin de estas regiones de superposición es suavizar las transiciones. Sin embargo, las regiones de superposición pueden aún ser propensas a una pérdida de la eficiencia de codificación y a artefactos. Por lo tanto, las regiones de superposición o transiciones se eligen, a menudo, como un compromiso entre una cierta tara de la información
60 trasmitida, es decir, la eficiencia de codificación, y la calidad de la transición, es decir, la calidad de audio de la señal descodificada. Para establecer este compromiso, se ha de tener cuidado cuando se manipulan las transiciones y se diseñan las ventanas de transición 2111, 2113 y 2115 como se indica en la figura 21.
Son conceptos convencionales relativos a la manipulación de transiciones entre los modos de codificación en el
dominio de la frecuencia y en el dominio del tiempo, por ejemplo, el uso de ventanas de desvanecimiento cruzado, es decir, la introducción de una tara tan grande como la región de superposición. Se usa una ventana de desvanecimiento cruzado, desvaneciéndose de salida la trama precedente y desvaneciéndose de entrada la siguiente trama de forma simultánea. Este enfoque, debido a su tara, introduce deficiencias en una eficiencia de 5 descodificación, dado que siempre que tenga lugar una transición, la señal ya no se muestrea críticamente. Se divulgan transformadas solapadas muestreadas críticamente, por ejemplo, en J. Princen, A. Bradley, “Analysis/Synthesis Filter Bank Design Based on Time Domain Aliasing Cancellation”, IEEE Trans. ASSP, ASSP34 (5): 1153 1161, 1986, y se usan, por ejemplo, en AAC (AAC = Codificación de Audio Avanzada), véase Generic Coding of Moving Pictures and Associated Audio: Advanced Audio Coding, Norma Internacional 138187, ISO/IEC
10 JTC1/SC29/WG11 Grupo de Expertos en Imágenes en Movimiento, 1997.
Asimismo, las transiciones de desvanecimiento cruzado sin distorsión por repliegue del espectro se describen en Fielder, Louis D., Todd, Craig C., “The Design of a Video Friendly Audio Coding System for Distribution Applications”, Escrito número 17008, 17ª Conferencia Internacional de AES: HighQuality Audio Coding (agosto de 1999) y en
15 Fielder, Louis D., Davidson, Grant A., “Audio Coding Tools for Digital Television Distribution”, Número de preimpresión 5104, 108ª Convención de la AES (enero de 2000).
El documento WO 2008/071353 divulga un concepto para conmutar entre un codificador en el dominio del tiempo y en el dominio de la frecuencia. El concepto se podría aplicar a cualquier códec basado en una conmutación en el 20 dominio del tiempo/dominio de la frecuencia. Por ejemplo, el concepto se podría aplicar a la codificación en el dominio del tiempo de acuerdo con el modo de ACELP del códec de AMRWB+ y la AAC como un ejemplo de un códec en el dominio de la frecuencia. La figura 22 muestra un diagrama de bloques de un codificador convencional usando un descodificador en el dominio de la frecuencia en la rama superior y un descodificador en el dominio del tiempo en la rama inferior. La parte de descodificación de frecuencia se ejemplifica mediante un descodificador de 25 AAC, que comprende un bloque de recuantificación 2202 y un bloque de transformada de coseno discreta modificada inversa 2204. En la AAC, la transformada de coseno discreta modificada (MDCT = Transformada de Coseno Discreta Modificada) se usa como una transformación entre el dominio del tiempo y el dominio de la frecuencia. En la figura 22 la trayectoria de descodificación en el dominio del tiempo se ejemplifica como un descodificador de AMRWB+ 2206 seguido por un bloque de MDCT 2208, para combinar el resultado del
30 descodificador 2206 con el resultado del recuantificador 2202 en el dominio de la frecuencia.
Esto posibilita una combinación en el dominio de la frecuencia, al tiempo que una etapa de superposición y agregación, que no se muestra en la figura 22, se puede usar después de la MDCT inversa 2204, para combinar y de aplicar un desvanecimiento cruzado a bloques adyacentes, sin tener que considerar si se han codificado en el
35 dominio del tiempo o el dominio de la frecuencia.
En otro enfoque convencional que se divulga en el documento WO2008/071353 es evitar la MDCT 2208 en la figura 22, es decir, DCTIV e IDCTIV para el caso de la descodificación en el dominio del tiempo, se puede usar otro enfoque para la así denominada cancelación de distorsión por repliegue del espectro en el dominio del tiempo 40 (TDAC = Cancelación de Distorsión por Repliegue en el Dominio del Tiempo). Esto se muestra en la figura 23. La figura 23 muestra otro descodificador que tiene el descodificador en el dominio de la frecuencia ejemplificado como un descodificador de AAC que comprende un bloque de recuantificación 2302 y un bloque de IMDCT 2304. La trayectoria en el dominio del tiempo se ejemplifica de nuevo mediante un descodificador de AMRWB+ 2306 y el bloque TDAC 2308. El descodificador que se muestra en la figura 23 permite una combinación de los bloques 45 descodificados en el dominio del tiempo, es decir, después de la IMDCT 2304, dado que la TDAC 2308 introduce la distorsión por repliegue del espectro de tiempo necesaria para una combinación apropiada, es decir, para una cancelación de distorsión por repliegue del espectro de tiempo, directamente en el dominio del tiempo. Para ahorrar algo de cálculo, y en lugar de usar MDCT en cada primera y última supertrama, es decir, en cada 1024 muestras, de cada segmento de AMRWB+, se puede usar TDAC solo en las regiones o zonas de superposición en 128 muestras.
50 Se puede mantener la distorsión por repliegue del espectro en el dominio del tiempo normal introducida por el procesamiento de AAC, al tiempo que se introduce la distorsión por repliegue del espectro en el dominio del tiempo inverso correspondiente en las partes de AMRWB+.
Las ventanas de desvanecimiento cruzado sin distorsión por repliegue del espectro tienen la desventaja de que su
55 codificación no es eficiente, debido a que generan unos coeficientes codificados no muestreados críticamente, y agregan una tara de la información a codificar. La introducción de TDA (TDA = Distorsión por Repliegue del Espectro en el Dominio del Tiempo) en el descodificador en el dominio del tiempo, como por ejemplo en el documento WO 2008/071353, reduce esta tara, pero se podría aplicar solo a medida que las alineaciones temporales de trama de los dos codificadores coinciden las unas con las otras. De otro modo, la eficiencia de codificación se reduce de
60 nuevo. Además, el TDA en el lado de descodificador podría ser problemático, en especial en el punto de partida de un codificador en el dominio del tiempo. Después de un restablecimiento potencial, un codificador o descodificador en el dominio del tiempo producirá, por lo general, una ráfaga de ruido de cuantificación debido a la vacuidad de las memorias del codificador o descodificador en el dominio del tiempo usando, por ejemplo, LPC (LPC = codificación predictiva lineal). Llevará entonces un cierto tiempo al descodificador antes de encontrarse en un estado permanente
o estable y proporcionar un ruido de cuantificación más uniforme con el tiempo. Este error de ráfaga es desventajoso, ya que por lo general es audible.
Por lo tanto, el objeto de la presente invención es la provisión de un concepto mejorado para conmutar la 5 codificación de audio en múltiples dominios.
Este objeto se logra mediante la materia objeto de las reivindicaciones independientes.
Las realizaciones de la presente invención pueden proporcionar la ventaja de que se puede reducir la información de
10 tara, introducirse en una transición de superposición, al tiempo que se mantienen unas regiones de desvanecimiento cruzado moderadas lo cual asegura la calidad del desvanecimiento cruzado. Las realizaciones de la presente invención se detallarán usando las figuras adjuntas, en las cuales
La figura 1a muestra una realización de un codificador de audio; 15 La figura 1b muestra una realización de un descodificador de audio;
Las figuras 2a 2j muestran ecuaciones para la MDCT/IMDCT; La figura 3 muestra una realización que usa una alineación de tramas modificada;
20 La figura 4a muestra una señal cuasi periódica en el dominio del tiempo; La figura 4b muestra una señal vocal en el dominio de la frecuencia; La figura 5a muestra una señal de tipo ruido en el dominio del tiempo; La figura 5b muestra una señal no vocal en el dominio de la frecuencia; La figura 6 muestra un CELP de análisis por síntesis;
25 La figura 7 ilustra un ejemplo de una etapa de análisis de LPC en una realización; La figura 8a muestra una realización con una ventana de detención modificada; La figura 8b muestra una realización con una ventana de inicio detención modificada; La figura 9 muestra una ventana de principio; La figura 10 muestra una ventana más avanzada;
30 La figura 11 muestra una realización de una ventana de detención modificada; La figura 12 ilustra una realización con diferentes zonas o regiones de superposición; La figura 13 ilustra una realización de una ventana de inicio modificada; La figura 14 muestra una realización de una ventana de detención modificada libre de distorsión por
repliegue del espectro aplicada en un codificador; 35 La figura 15 muestra una ventana de detención modificada libre de distorsión por repliegue del espectro
aplicada en el descodificador; La figura 16 ilustra ejemplos de codificador y de descodificador convencionales; Las figuras 17a, 17b ilustran LPC para señales vocales y no vocales; La figura 18 ilustra una ventana de desvanecimiento cruzado de la técnica anterior;
40 La figura 19 ilustra una secuencia de la técnica anterior de ventanas de AMRWB+; La figura 20 ilustra ventanas usadas para transmitir en AMRWB+ entre ACELP y TCX; La figura 21 muestra una secuencia de ejemplo de tramas de audio consecutivas en diferentes dominios de
codificación; La figura 22 ilustra el enfoque convencional para la descodificación de audio en diferentes dominios; y 45 La figura 23 ilustra un ejemplo de cancelación de distorsión por repliegue del espectro en el dominio del tiempo.
La figura 1a muestra un codificador de audio 100 para codificar muestras de audio. El codificador de audio 100 comprende un primer codificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo 50 110 para codificar muestras de audio en un primer dominio de codificación, teniendo el primer codificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo 110 una primera regla de alineación de tramas, una ventana de inicio y una ventana de detención. Asimismo, el codificador de audio 100 comprende un segundo codificador 120 para codificar muestras de audio en el segundo dominio de codificación. El segundo codificador 120 tiene un número de muestras de audio de tamaño de trama predeterminado y un número de 55 muestras de audio de periodo de encendido de la codificación. El periodo de encendido de la codificación puede ser uno cierto o predeterminado, este puede ser dependiente de las muestras de audio, una trama de muestras de audio
o una secuencia de señales de audio. El segundo codificador 120 tiene una segunda regla de alineación de tramas diferente. Una trama del segundo codificador 120 es una representación codificada de un número de muestras de audio oportunamente posteriores, siendo el número igual al número de muestras de audio de tamaño de trama
60 predeterminado.
El codificador de audio 100 comprende adicionalmente un controlador 130 para conmutar del primer codificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo 110 al segundo codificador 120 en respuesta a una característica de las muestras de audio y para modificar la segunda regla de alineación de tramas
en respuesta a una conmutación del primer codificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo 110 al segundo codificador 120 o para modificar la ventana de inicio o la ventana de detención del primer codificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo 110, en el que la segunda regla de alineación de tramas permanece sin modificaciones.
5 En unas realizaciones, el controlador 130 se puede adaptar para determinar la característica de las muestras de audio basándose en las muestras de audio de entrada o basándose en la salida del primer codificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo 110 o el segundo codificador 120. Esto se indica mediante la línea de puntos en la figura 1a, a través de lo cual las muestras de audio de entrada se pueden
10 proporcionar al controlador 130. Se proporcionarán a continuación detalles adicionales acerca de la decisión de conmutación.
En unas realizaciones, el controlador 130 puede controlar el primer codificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo 110 y el segundo codificador 120 de una manera tal que ambos 15 codifican las muestras de audio en paralelo, y el controlador 130 toma la decisión acerca de la conmutación basándose en el resultado respectivo, y lleva a cabo las modificaciones antes de la conmutación. En otras realizaciones, el controlador 130 puede analizar las características de las muestras de audio y decidir qué rama de codificación usar, pero desconectando la otra rama. En una realización de este tipo, el periodo de encendido de la codificación del segundo codificador 120 se vuelve relevante, ya que antes de la conmutación, se ha de tener en
20 cuenta el periodo de encendido de la codificación, lo cual se detallará a continuación.
En unas realizaciones, el primer codificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo 110 puede comprender un transformador en el dominio de la frecuencia para transformar la primera trama de muestras de audio posteriores al dominio de la frecuencia. El primer codificador de introducción de distorsión por
25 repliegue del espectro en el dominio del tiempo 110 se puede adaptar para ponderar la primera trama codificada con la ventana de inicio, cuando la trama posterior se codifica por el segundo codificador 120 y se puede adaptar adicionalmente para ponderar la primera trama codificada con la ventana de detención cuando una trama precedente ha de codificarse por el segundo codificador 120.
30 Se ha de indicar que se pueden usar diferentes notaciones, el primer codificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo 110 aplica una ventana de inicio o una ventana de detención. En el presente caso, y para el resto se supone que se aplica una ventana de inicio antes de la conmutación al segundo codificador 120 y cuando se conmuta de vuelta del segundo codificador 120 al primer codificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo 120, la ventana de detención se aplica en el primer
35 codificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo 110. Sin pérdida de generalidad, la expresión se podría usar de forma recíproca con referencia al segundo codificador 120. Para evitar confusión, en el presente caso las expresiones “inicio” y “detención” se refieren a ventanas aplicadas en el primer codificador 110, cuando se inicia el segundo codificador 120 o después de que se detuviera.
40 En unas realizaciones, el transformador en el dominio de la frecuencia como se usa en el primer codificador de distorsión por repliegue del espectro en el dominio del tiempo 110 se puede adaptar para transformar la primera trama al dominio de la frecuencia basándose en una MDCT y el primer codificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo 110 se puede adaptar para adaptar un tamaño de MDCT a las ventanas de inicio y de detención o de inicio y de detención modificadas. Los detalles para la MDCT y su tamaño se
45 expondrán a continuación.
En unas realizaciones, el primer codificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo 110 se puede adaptar, en consecuencia, para usar una ventana de inicio y/o de detención que tiene una parte libre de distorsión por repliegue del espectro, es decir, dentro de la ventana hay una parte sin distorsión por 50 repliegue del espectro en el dominio del tiempo. Asimismo, el primer codificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo 110 se puede adaptar para usar una ventana de inicio y/o una ventana de detención que tiene una parte libre de distorsión por repliegue del espectro en una parte de borde de subida de la ventana, cuando la trama precedente se codifica por el segundo codificador 120, es decir, el primer codificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo 110 usa una ventana de 55 detención, que tiene una parte de borde de subida que está libre de distorsión por repliegue del espectro. En consecuencia, se puede adaptar el primer codificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo 110 para usar una ventana que tiene una parte de borde de bajada que está libre de distorsión por repliegue del espectro, cuando una trama posterior se codifica por el segundo codificador 120, es decir, usando una ventana de detención con una parte de borde de bajada, la cual está libre de distorsión por repliegue del
60 espectro.
En unas realizaciones, el controlador 130 se puede adaptar para iniciar el segundo codificador 120 de manera que una primera trama de una secuencia de tramas del segundo codificador 120 comprende una representación codificada de las muestras procesadas en la parte libre de distorsión por repliegue del espectro precedente del
primer codificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo 110. Dicho de otra forma, la salida del primer codificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo 110 y del segundo codificador 120 pueden estar coordinadas por el controlador 130 de manera que la parte libre de distorsión por repliegue del espectro de las muestras de audio codificadas a partir del primer codificador de
5 introducción de distorsión por repliegue del espectro en el dominio del tiempo 110 se superpone con las muestras de audio codificadas emitidas por el segundo codificador 120. El controlador 130 se puede adaptar adicionalmente para el desvanecimiento cruzado, es decir, el desvanecimiento de salida de un codificador al tiempo que se desvanece de entrada en el otro codificador.
10 El controlador 130 se puede adaptar para iniciar el segundo codificador 120 de manera que el número de muestras de audio del periodo de encendido de la codificación se superpone con la parte libre de distorsión por repliegue del espectro de la ventana de inicio del primer codificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo 110 y una trama posterior del segundo codificador 120 se superpone con la parte de distorsión por repliegue del espectro de la ventana de detención. Dicho de otra forma, el controlador 130 puede coordinar el
15 segundo codificador 120 de manera que, para el periodo de encendido de la codificación, estén disponibles unas muestras de audio sin distorsión por repliegue del espectro a partir del primer codificador 110 y, cuando solo están disponibles unas muestras de audio de distorsión por repliegue del espectro a partir del primer codificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo 110, el periodo de encendido del segundo codificador 120 ha terminado y están disponibles unas muestras de audio codificadas en la salida del
20 segundo codificador 120 de una manera regular.
El controlador 130 se puede adaptar adicionalmente para iniciar el segundo codificador 120 de manera que el periodo de encendido de la codificación se superpone con la parte de distorsión por repliegue del espectro de la ventana de inicio. En esta realización, durante la parte de superposición, las muestras de audio de distorsión por
25 repliegue del espectro están disponibles a partir de la salida del primer codificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo 110, y en la salida del segundo codificador 120 pueden estar disponibles muestras de audio codificadas del periodo de encendido, las cuales pueden experimentar un ruido de cuantificación aumentado. El controlador 130 aún se puede adaptar para un desvanecimiento cruzado entre las dos secuencias de audio codificadas de manera subóptima durante un periodo de superposición.
30 En otras realizaciones, el controlador 130 se puede adaptar adicionalmente para la conmutación desde el primer codificador 110 en respuesta a una característica diferente de las muestras de audio y para modificar la segunda regla de alineación de tramas en respuesta a la conmutación del primer codificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo 110 al segundo codificador 120 o para modificar la ventana de inicio
35 o la ventana de detención del primer codificador, en el que la segunda regla de alineación de tramas permanece sin modificaciones. Dicho de otra forma, el controlador 130 se puede adaptar para conmutar hacia adelante y hacia atrás entre los dos codificadores de audio.
En otras realizaciones, el controlador 130 se puede adaptar para iniciar el primer codificador de introducción de
40 distorsión por repliegue del espectro en el dominio del tiempo 110 de manera que la parte libre de distorsión por repliegue del espectro de la ventana de detención se superponga con la trama del segundo codificador 120. Dicho de otra forma, en unas realizaciones, el controlador se puede adaptar para el desvanecimiento cruzado entre las salidas de los dos codificadores. En algunas realizaciones, la salida del segundo codificador se desvanece en salida, al tiempo que aparecen gradualmente solo las muestras de audio codificadas de manera subóptima, es decir, con
45 distorsión por repliegue del espectro del primer codificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo 110. En otras realizaciones, el controlador 130 se puede adaptar para el desvanecimiento cruzado entre una trama del segundo codificador 120 y tramas sin distorsión por repliegue del espectro del primer codificador 110.
50 En unas realizaciones, el primer codificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo 110 puede comprender un codificador de AAC de acuerdo con Generic Coding of Moving Pictures and Associated Audio: Advanced Audio Coding, Norma Internacional 138187, ISO/IEC JTC1/SC29/WG11 Grupo de Expertos en Imágenes en Movimiento, 1997.
55 En unas realizaciones, el segundo codificador 120 puede comprender un codificador de AMRWB+ de acuerdo con 3GPP (3GPP = Proyecto de Asociación de Tercera Generación), Especificación Técnica 26.290, Versión 6.3.0 de junio de 2005 “Audio Codec Processing Function; Extended Adaptive MultiRateWide Band Codec; Transcoding Functions”, edición 6.
60 El controlador 130 se puede adaptar para modificar la regla de alineación de tramas de AMR o de AMRWB+ de manera que una primera supertrama de AMR comprende cinco tramas de AMR, en el que de acuerdo con la especificación técnica anteriormente mencionada, una supertrama comprende cuatro tramas de AMR regulares, compárense la figura 4, tabla 10 en la página 18 y la figura 5 en la página 20 de la Especificación Técnica anteriormente mencionada. Como se detallará adicionalmente más adelante, el controlador 130 se puede adaptar
para agregar una trama extra a una supertrama de AMR. Se ha de indicar que, en unas realizaciones, la supertrama se puede modificar mediante una trama adjunta al comienzo o al final de cualquier supertrama, es decir, las reglas de alineación de tramas también se adaptar al final de una supertrama.
5 La figura 1b muestra una realización de un descodificador de audio 150 para descodificar tramas codificadas de muestras de audio. El descodificador de audio 150 comprende un primer descodificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo 160 para descodificar muestras de audio en un primer dominio de descodificación. El primer codificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo 160 tiene una primera regla de alineación de tramas, una ventana de inicio y una ventana de
10 detención. El descodificador de audio 150, comprende adicionalmente un segundo descodificador 170 para descodificar muestras de audio en un segundo dominio de descodificación. El segundo descodificador 170 tiene un número de muestras de audio de tamaño de trama predeterminado y un número de muestras de audio de periodo de encendido de la codificación. Asimismo, el segundo descodificador 170 tiene una segunda regla de alineación de tramas diferente. Una trama del segundo descodificador 170 se puede corresponder con una representación
15 descodificada de un número de muestras de audio oportunamente posteriores, en el que el número es igual al número de muestras de audio de tamaño de trama predeterminado.
El descodificador de audio 150 comprende adicionalmente un controlador 180 para conmutar del primer descodificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo 160 al segundo
20 descodificador 170 basándose en una indicación en la trama codificada de muestras de audio, en el que se adapta el controlador 180 para modificar la segunda regla de alineación de tramas en respuesta a la conmutación del primer descodificador de introducción en el dominio del tiempo 160 al segundo descodificador 170 o para modificar la ventana de inicio o la ventana de detención del primer descodificador 160, en el que la segunda regla de alineación de tramas permanece sin modificaciones.
25 De acuerdo con la descripción anterior, por ejemplo, en el codificador y el descodificador de AAC, las ventanas de inicio y de detención se aplican en el codificador así como en el descodificador. De acuerdo con la descripción anterior del codificador de audio 100, el descodificador de audio 150 proporciona las componentes de descodificación correspondientes. La indicación de conmutación para el controlador 180 se puede proporcionar en
30 términos de un bit, una bandera o cualquier información complementaria junto con las tramas codificadas.
En ciertas realizaciones, el primer descodificador 160 puede comprender un transformador en el dominio del tiempo para la transformación de una primera trama de muestras de audio descodificadas al dominio del tiempo. Se puede adaptar el primer descodificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo 35 160 para ponderar la primera trama descodificada con la ventana de inicio cuando una trama posterior se descodifica mediante el segundo descodificador 170 y/o para ponderar la primera trama descodificada con la ventana de detención cuando una trama precedente se ha de descodificar mediante el segundo descodificador 170. El transformador en el dominio del tiempo se puede adaptar para transformar la primera trama al dominio del tiempo basándose en una MDCT inversa (IMDCT = MDCT inversa) y/o el primer descodificador de introducción de
40 distorsión por repliegue del espectro en el dominio del tiempo 160 se puede adaptar para adaptar un tamaño de IMDCT a las ventanas de inicio y/o de detención o de inicio y/o de detención modificadas. Los tamaños de IMDCT se detallarán más adelante.
En unas realizaciones, el primer descodificador de introducción de distorsión por repliegue del espectro en el
45 dominio del tiempo 160 se puede adaptar para usar una ventana de inicio y/o una ventana de detención que tienen una parte libre de distorsión por repliegue del espectro o libre de distorsión por repliegue del espectro. El primer descodificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo 160 se puede adaptar adicionalmente para usar una ventana de detención que tiene una parte libre de distorsión por repliegue del espectro en una parte de subida de la ventana cuando la trama precedente se ha descodificado por el segundo
50 descodificador 170 y/o el primer descodificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo 160 puede tener una ventana de inicio que tiene una parte libre de distorsión por repliegue del espectro en el borde de bajada cuando la trama posterior se descodifica por el segundo descodificador 170.
En correspondencia con las realizaciones anteriormente descritas del codificador de audio 100, se puede adaptar el
55 controlador 180 para iniciar el segundo descodificador 170 de tal modo que la primera trama de una secuencia de tramas del segundo descodificador 170 comprende una representación descodificada de una muestra procesada en la parte libre de distorsión por repliegue del espectro precedente del primer descodificador 160. El controlador 180 se puede adaptar para iniciar el segundo descodificador 170 de tal modo que el número de muestras de audio de periodo de encendido de la codificación se superpone con la parte libre de distorsión por repliegue del espectro de la
60 ventana de inicio del primer descodificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo 160 y una trama posterior del segundo descodificador 170 se superpone con la parte de distorsión por repliegue del espectro de la ventana de detención.
En otras realizaciones, el controlador 180 se puede adaptar para iniciar el segundo descodificador 170 de tal modo
que el período de encendido de codificación se superpone con la parte de distorsión por repliegue del espectro de la ventana de inicio.
En otras realizaciones, el controlador 180 se puede adaptar adicionalmente para conmutar del segundo descodificador 170 al primer descodificador 160 en respuesta a una indicación de las muestras de audio codificadas y para modificar la segunda regla de alineación de tramas en respuesta a la conmutación del segundo descodificador 170 al primer descodificador 160 o para modificar la ventana de inicio o la ventana de detención del primer descodificador 160, en el que la segunda regla de alineación de tramas permanece sin modificaciones. Se puede proporcionar la indicación en términos de una bandera, un bit o cualquier información complementaria junto con las tramas codificadas.
En ciertas realizaciones, el controlador 180 se puede adaptar para iniciar el primer descodificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo 160 de tal modo que la parte de distorsión por repliegue del espectro de la ventana de detención se superpone con una trama del segundo descodificador 170.
El controlador 180 se puede adaptar para aplicar un desvanecimiento cruzado entre tramas consecutivas de muestras de audio descodificadas de los diferentes descodificadores. Asimismo, el controlador 180 se puede adaptar para determinar una distorsión por repliegue del espectro en una parte de distorsión por repliegue del espectro de la ventana de inicio o la ventana de detención a partir de una trama descodificada del segundo descodificador 170 y el controlador 180 se puede adaptar para reducir la distorsión por repliegue del espectro en la parte de distorsión por repliegue del espectro basándose en la distorsión por repliegue del espectro determinada.
En ciertas realizaciones, el controlador 180 se puede adaptar adicionalmente para descartar el período de encendido de codificación de las muestras de audio a partir del segundo descodificador 170.
En lo sucesivo, se describirán la transformada de coseno discreta modificada (MDCT = Transformada de Coseno Discreta Modificada) y la IMDCT. La MDCT se explicará con más detalle con la ayuda de las ecuaciones ilustradas en las figuras 2a 2j. La transformada de coseno discreta modificada es una transformada relacionada con Fourier basada en la transformada de coseno discreta de tipo IV (DCTIV = Transformada de Coseno Discreta de Tipo IV), con la propiedad adicional de estar solapada, es decir, está diseñada para llevarse a cabo en bloques consecutivos de un conjunto de datos más grande, en el que bloques posteriores se solapan de manera que, por ejemplo, la última mitad de un bloque coincide con la primera mitad del bloque siguiente. Esta superposición, además de las cualidades de compactación de energía de la DCT, hace a la MDCT especialmente atractiva para las aplicaciones de compresión de señal, dado que esta ayuda a evitar que salgan artefactos de los límites de bloque. Por lo tanto, se emplea una MDCT en MP3 (MP3 = MPEG2 / 4 capa 3), AC3 (AC3 = Códec de Audio 3 de Dolby), Ogg Vorbis y AAC (AAC = Codificación de Audio Avanzada) para la compresión de audio, por ejemplo.
La MDCT fue propuesta por Princen, Johnson y Bradley en 1987, con posterioridad al trabajo anterior (1986) de Princen y Bradley para desarrollar el principio subyacente de la MDCT de la cancelación de distorsión por repliegue del espectro en el dominio del tiempo (TDAC), que se describe a continuación. También existe una transformada análoga, la MDST (MDST = Modified DST, DST Modificada, DST = Discrete Sine Transform, Transformada de Seno Discreta), basada en la transformada de seno discreta, así como otras formas, raramente usadas, de la MDCT basadas en tipos diferentes de combinaciones de DCT o de combinaciones de DCT/DST, que también se pueden usar en unas realizaciones por la transformada de introducción de distorsión por repliegue del espectro en el dominio del tiempo.
En MP3, la MDCT no se aplica a la señal de audio directamente, sino a una salida de un banco de filtros de cuadratura de polifase de 32 bandas (PQF = Filtro de Cuadratura de Polifase). La salida de esta MDCT se postprocesa mediante una fórmula de reducción de distorsión por repliegue del espectro para reducir la distorsión por repliegue del espectro típica del banco de filtros de PQF. Una combinación de este tipo de un banco de filtros con una MDCT se denomina banco de filtros hibrido o MDCT de subbanda. AAC, por otro lado, usa normalmente una MDCT pura; solo la variante de MPEG4 AACSSR (raramente usada) (por Sony) usa un banco de PQF de cuatro bandas seguido por una MDCT. ATRAC (ATRAC = Codificación de Audio de Transformada Adaptativa) usa filtros de espejo en cuadratura (QMF) apilados seguidos por una MDCT.
Como una transformada solapada, la MDCT es un poco inusual en comparación con las otras transformadas relacionadas con Fourier en que tiene la mitad de salidas que entradas (en lugar del mismo número). En particular, es una función lineal F: R2N → RN, donde R indica el conjunto de los números reales. Los 2N números reales x0, ... , x2N1 se transforman en los N números reales X0, ... , XN1 de acuerdo con la fórmula en la figura 2a.
El coeficiente de normalización delante de esta transformada, en el presente caso la unidad, es una convención arbitraria y difiere entre tratamientos. Solo está restringido el producto de las normalizaciones de la MDCT y la IMDCT, a continuación.
La MDCT inversa se conoce como IMDCT. Dado que hay diferentes números de entradas y de salidas, en principio puede parecer que la MDCT no debería ser invertible. Sin embargo, se alcanza una capacidad de inversión perfecta mediante la agregación de las IMDCT superpuestas de bloques superpuestos posteriores, lo cual causa que los errores se cancelen y que se recuperen los datos originales; esta técnica se conoce como cancelación de distorsión
5 por repliegue del espectro en el dominio del tiempo (TDAC).
La IMDCT transforma N números reales X0, ... , XN1 en 2N números reales y0, ... , y2N1 de acuerdo con la fórmula en la figura 2b. Al igual que para la DCTIV, una transformada ortogonal, la inversa tiene la misma forma que la transformada directa.
10 En el caso de una MDCT a la que se ha aplicado una función ventana con la normalización de ventana usual (véase a continuación), el coeficiente de normalización delante de la IMDCT debería multiplicarse por 2, es decir, se vuelve 2/N.
15 A pesar de la aplicación directa de la fórmula de la MDCT requeriría operaciones de O(N2), es posible calcular la misma cosa con una complejidad de solo O(N log N) mediante la factorización recursiva del cálculo, como en la transformada rápida de Fourier (FFT). También se pueden calcular las MDCT a través de otras transformadas, típicamente una DFT (FFT) o una DCT, combinada con etapas de O(N) de procesamiento previas y posteriores. Asimismo, como se describe a continuación, cualquier algoritmo para la DCTIV proporciona inmediatamente un
20 método para calcular la MDCT y la IMDCT de tamaño par.
En aplicaciones de compresión de señal típicas, las propiedades de transformada se mejoran adicionalmente mediante el uso de una función ventana wn (n = 0, ... , 2N1) que se multiplica por xn e yn en las fórmulas de MDCT y de IMDCT, anteriormente, para evitar discontinuidades en los límites n = 0 y 2N al hacer que la función vaya
25 suavemente de cero a aquellos puntos. Es decir, se aplica una función ventana a los datos antes de la MDCT y después de la IMDCT. En principio, x e y podrían tener diferentes funciones de ventana, y la función ventana también podría cambiar de un bloque al próximo, en especial para el caso en el que se combinan unos bloques de datos de diferentes tamaños, pero por simplicidad se considera en primer lugar el caso común de las funciones de ventana idénticas para bloques de igual tamaño.
30 La transformada permanece invertible, es decir, la TDAC funciona para una ventana simétrica wn = w2N1n, siempre que w cumpla la condición de Princen Bradley de acuerdo con la figura 2c.
Varias funciones de ventana diferentes son comunes, se da un ejemplo en la figura 2d para MP3 y MPEG2 AAC, y
35 en la figura 2e para Vorbis. AC3 usa una ventana derivada de Kaiser Bessel (KBD = Derivada de Kaiser Bessel), y MPEG4 AAC también puede usar una ventana de KBD.
Obsérvese que las ventanas aplicadas a la MDCT son diferentes de las ventanas usadas para otros tipos de análisis de señal, dado que estas han de cumplir la condición de Princen Bradley. Una de las razones para esta diferencia
40 es que las ventanas de MDCT se aplican dos veces, para la MDCT (filtro de análisis) y la IMDCT (filtro de síntesis).
Como se puede ver mediante la inspección de las definiciones, para N par la MDCT es esencialmente equivalente a una DCTIV, donde la entrada se desplaza N/2 y dos bloques N de datos se transforman al mismo tiempo. Mediante el examen de esta equivalencia de forma más cuidadosa, se pueden obtener fácilmente propiedades importantes
45 como TDAC.
Para definir la relación precisa para la DCTIV, se ha de observar que la DCTIV se corresponde a alternar condiciones de límite par/impar, es par en su límite izquierdo (en torno a n = 1/2), impar en su límite derecho (en torno a n = N 1/2), y así sucesivamente (en lugar de limites periódicos como para una DFT). Esto se deduce de las
50 identidades dadas en la figura 2f. Por lo tanto, si sus entradas son una serie x de longitud N, imagínese extender esta serie a (x, xR, x, xR, ...) y así sucesivamente puede imaginarse, donde xR indica x en un orden inverso.
Considérese una MDCT con 2N entradas y N salidas, donde las entradas pueden dividirse en cuatro bloques (a, b, c, d) cada uno de tamaño N/2. Si estas se desplazan N/2 (desde el término +N/2 en la definición de MDCT),
55 entonces (b, c, d) se extienden más allá del extremo de las N entradas de DCTIV, de tal modo que estas se han de “plegar” de nuevo de acuerdo con las condiciones de límite anteriormente descritas.
Por lo tanto, la MDCT de 2N entradas (a, b, c, d) es exactamente equivalente a una DCTIV de las N entradas: (cRd, abR), donde R indica inversión como antes. De esta manera, cualquier algoritmo para calcular la DCTIV se
60 puede aplicar trivialmente a la MDCT.
De forma similar, la fórmula de IMDCT como se mencionó anteriormente, es precisamente 1/2 de la DCTIV (que es su propia inversa), donde la salida se desplaza N/2 y se extiende (por medio de las condiciones de límite) a una longitud de 2N. La DCTIV inversa simplemente devolvería las entradas (cRd, abR) a partir de lo anterior. Cuando
esto se desplaza y se extiende por medio de las condiciones de límite, se obtiene el resultado que se muestra en la figura 2g. La mitad de las salidas de IMDCT son por lo tanto redundantes.
Se puede entender ahora cómo funciona la TDAC. Supóngase que se calcula la MDCT del bloque 2N (c, d, e, f)
5 superpuesto al 50 % posterior. La IMDCT entonces producirá, de forma análoga a lo anterior: (cdR, dcR, e+fR, eR+f) / 2. Cuando esto se agrega con el resultado de IMDCT anterior en la mitad superpuesta, los términos invertidos se cancelan y se obtiene simplemente (c, d), recuperando los datos originales.
Ahora está claro el origen de la expresión “cancelación de distorsión por repliegue del espectro en el dominio del
10 tiempo”. El uso de datos de entrada que se extienden más allá de los límites de la DCTIV lógica da lugar a que los datos estén sujetos a distorsión por repliegue del espectro exactamente de la misma manera que las frecuencias más allá de la frecuencia de Nyquist están sujetas a distorsión por repliegue del espectro a frecuencias más bajas, excepto que esta distorsión por repliegue del espectro ocurra en el dominio del tiempo en lugar de en el dominio de la frecuencia. Por tanto las combinaciones cdR y así sucesivamente, que tienen precisamente los signos correctos
15 para que las combinaciones se cancelen cuando se agregan.
Para N impar (que raramente se usa en la práctica), N/2 no es un número entero de manera que la MDCT no es simplemente una permutación de desplazamiento de una DCTIV. En este caso, el desplazamiento adicional por media muestra significa que la MDCT/IMDCT se vuelve equivalente a la DCTIII/II, y el análisis es análogo a lo
20 anterior. Anteriormente, la propiedad de TDAC se probó para la MDCT común lo cual muestra que agregar las IMDCT de bloques posteriores en su mitad de superposición recupera los datos originales. La derivación de esta propiedad inversa para la MDCT a la que se ha aplicado una función ventana solo es ligeramente más complicada.
25 Recuérdese de lo anterior que, cuando (a, b, c, d) y (c, d, e, f) se someten a MDCT, se someten a IMDCT y se agregan en su mitad superpuesta, se obtiene (c + dR, cR + d) / 2 + (c dR, d cR) / 2 = (c, d), los datos originales.
Ahora, se supone la multiplicación de las entradas de MDCT y las salidas de IMDCT por una función ventana de longitud 2N. Como antes, se supone una función ventana simétrica, que es, por lo tanto, de la forma (w, z, zR, wR),
30 donde w y z son vectores de longitud N/2 y R indica inversa como antes. Entonces la condición de Princen Bradley se puede escribir
35 con las multiplicaciones y sumas realizadas elemento a elemento, o de forma equivalente
invirtiendo w y z.
40 Por lo tanto, en lugar de someter a MDCT (a, b, c, d), MDCT (wa, zb, zRc, wRd) se somete a MDCT con todas las multiplicaciones realizadas elemento a elemento. Cuando esto se somete a IMDCT y se multiplica de nuevo (elemento a elemento) por la función ventana, los resultados de la última mitad de N se muestran en la figura 2h.
45 Obsérvese que la multiplicación por ½ ha dejado de estar presente, debido a que la normalización de IMDCT difiere por un factor de 2 en el caso con la aplicación de una función ventana. De forma similar, la MDCT y la IMDCT a la que se ha aplicado una función ventana de (c, d, e, f) produce, en su primera mitad N de acuerdo con la figura 2i. Cuando estas dos mitades se añaden juntas, se obtienen los resultados de la figura 2j, recuperando los datos originales.
50 En lo sucesivo, se detallará una realización en la cual el controlador 130 del lado de codificador y el controlador 180 del lado de descodificador, respectivamente, modifican la segunda regla de alineación de tramas en respuesta a la conmutación del primer dominio de codificación al segundo dominio de codificación. En la realización, se logra una transición suave en un codificador conmutado, es decir, conmutando entre codificación de AMRWB+ y de AAC.
55 Para tener una transición suave, se usa una cierta superposición, es decir, un segmento corto de una señal o una cantidad de muestras de audio, a las que se aplican ambos modos de codificación. Dicho de otra forma, en la siguiente descripción, se proporcionará una realización, en la que el primer codificador de distorsión por repliegue del espectro en el dominio del tiempo 110 y el primer descodificador de distorsión por repliegue del espectro en el dominio del tiempo 160 se corresponden con la codificación y la descodificación de AAC. El segundo codificador 120
60 y el descodificador 170 se corresponden con AMRWB+ en el modo de ACELP. La realización se corresponde con una opción de los respectivos controladores 130 y 180 en los cuales se modifica la alineación de tramas de la AMRWB+, es decir, la segunda regla de alineación de tramas.
La figura 3 muestra una línea de tiempo en la cual se muestra un número de ventanas y tramas. En la figura 3, una ventana regular de AAC 301 es seguida por una ventana de inicio de AAC 302. En la AAC, la ventana de inicio de AAC 302 se usa entre tramas largas y tramas cortas. Para ilustrar la alineación de tramas de AAC heredada, es 5 decir, la primera regla de alineación de tramas del primer codificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo 110 y del descodificador 160, en la figura 3 se muestra también una secuencia de ventanas de AAC cortas 303. La secuencia de ventanas cortas de AAC 303 se termina con una ventana de detención de AAC 304, la cual inicia una secuencia de ventanas largas de AAC. De acuerdo con la descripción anterior, se supone en la presente realización que el segundo codificador 120, el descodificador 170, 10 respectivamente, usan el modo de ACELP de la AMRWB+. La AMRWB+ usa tramas de igual tamaño de las cuales se muestra una secuencia 320 en la figura 3. La figura 3 muestra una secuencia de tramas de prefiltro de diferentes tipos de acuerdo con ACELP en AMRWB+. Antes de conmutar AAC a ACELP, el controlador 130 o 180 modifica la alineación de tramas de la ACELP de tal modo que la primera supertrama 320 está compuesta por cinco tramas en lugar de cuatro. Por lo tanto, los datos de ACE 314 se encuentran disponibles en el descodificador, al tiempo que
15 también se encuentran disponibles los datos de AAC descodificados. Por lo tanto, la primera parte se puede descartar en el descodificador, dado que esta se refiere al período de encendido de codificación del segundo codificador 120, el segundo descodificador 170, respectivamente. En general, en otras realizaciones, la supertrama de AMRWB+ se puede extender mediante la anexión de tramas también al final de una supertrama.
20 La figura 3 muestra dos transiciones de modo, es decir, de AAC a AMRWB+ y de AMRWB+ a AAC. En una realización, se usan las típicas ventanas de inicio/detención 302 y 304 del códec de AAC y la longitud de trama del códec de AMRWB+ se incrementa para superponerse con la parte de desvanecimiento de la ventana de inicio/detención del códec de AAC, es decir, se modifica la segunda regla de alineación de tramas. De acuerdo con la figura 3, las transiciones de AAC a AMRWB+, es decir, del primer codificador de introducción de distorsión por
25 repliegue del espectro de tiempo 110 al segundo codificador 120 o del primer descodificador de introducción de distorsión por repliegue del espectro de tiempo 160 al segundo descodificador 170, respectivamente, se manejan manteniendo la alineación de tramas de AAC y extendiendo la trama en el dominio del tiempo en la transición para cubrir la superposición. La supertrama de AMRWB+ en la transición, es decir, la primera supertrama 320 en la figura 3, usa cinco tramas en lugar de cuatro; cubriendo la quinta trama la superposición. Esto introduce una tara de
30 datos, sin embargo, la realización proporciona la ventaja de que se asegura una transición suave entre los modos de AAC y de AMRWB+.
Tal como se ha mencionado anteriormente, el controlador 130 se puede adaptar para conmutar entre los dos dominios de codificación basándose en la característica de las muestras de audio en el que son concebibles
35 diferentes análisis o diferentes opciones. Por ejemplo, el controlador 130 puede conmutar el modo de codificación basándose en una fracción estacionaria o una fracción transitoria de la señal. Otra opción sería que se llevara a cabo la conmutación basándose en si las muestras de audio se corresponden con una señal de habla más vocal o no vocal. Para proporcionar una realización detallada para determinar las características de las muestras de audio, en lo sucesivo, una realización del controlador 130, la cual conmuta basándose en la similitud de voz de la señal.
40 A modo de ejemplo, se hace referencia a las figuras 4a y 4b, 5a y 5b, respectivamente. Los segmentos de señal o porciones de señal de tipo impulso cuasiperiódico y los segmentos de señal o porciones de señal de tipo ruido se analizan a modo de ejemplo. En general, los controladores 130, 180 se pueden adaptar para decidir basándose en criterios diferentes, tales como blancura espectral, transitoriedad, estacionario, etc. En lo sucesivo, se da un criterio
45 a modo de ejemplo como parte de una realización. En concreto, se ilustra un habla vocal en la figura 4a en el dominio del tiempo y en la figura 4b en el dominio de la frecuencia y se analiza como un ejemplo para una porción de señal de tipo impulso cuasiperiódico y un segmento de habla no vocal como un ejemplo de una porción de señal de tipo ruido se analiza en relación con las figuras 5a y 5b.
50 En general, el habla se puede clasificar como vocal, no vocal o mixta. El habla vocal es cuasi periódica en el dominio del tiempo y armónicamente estructurada en el dominio de la frecuencia, mientras que el habla no vocal es de tipo aleatorio y de banda ancha. Además, la energía de los segmentos vocales es, en general, mayor que la energía de los segmentos no vocales. El espectro a corto plazo del habla vocal se caracteriza por su estructura fina y formante. La estructura armónica fina es una consecuencia de la cuasi periodicidad del habla y se puede atribuir a las cuerdas
55 vocales vibrantes. La estructura formante, que también se denomina envolvente espectral, se debe a la interacción de la fuente y los tractos vocales. Los tractos vocales consisten en la faringe y la cavidad bucal. La forma de la envolvente espectral que “encaja” con el espectro a corto plazo del habla vocal está asociada con las características de transferencia del tracto vocal y la inclinación espectral (6 dB/octava) debido al pulso de la glotis.
60 La envolvente espectral está caracterizada por un conjunto de picos, que se denominan formantes. Las formantes son los modos resonantes del tracto vocal. Para el tracto vocal promedio hay de 3 a 5 formantes por debajo de 5 kHz. Las amplitudes y las ubicaciones de las tres primeras formantes, las cuales ocurren, por lo general, por debajo de 3 kHz, son bastante importantes, ambas, en la percepción y la síntesis del habla. Las formantes más altas son también importantes para las representaciones de habla no vocal y de banda ancha. Las propiedades del habla
están relacionadas con los sistemas de producción del habla físicos tal como sigue. La excitación del tracto vocal con pulsos de aire de la glotis cuasi periódicos generados por la vibración de las cuerdas vocales produce el habla vocal. Se hace referencia a la frecuencia de los pulsos periódicos como frecuencia fundamental o tono. Forzar aire a través de una constricción en el tracto vocal produce un habla no vocal. Los sonidos nasales se deben al
5 acoplamiento acústico del tracto nasal con el tracto vocal, y los sonidos oclusivos se reducen mediante la reducción abrupta de la presión de aire, el cual se acumuló detrás del cierre del tracto.
Por lo tanto, una porción de tipo ruido de la señal de audio puede ser una porción estacionaria en el dominio del tiempo como se ilustra en la figura 5a o una porción estacionaria en el dominio de la frecuencia, la cual es diferente 10 de la porción de tipo impulso cuasiperiódico como se ilustra en el ejemplo en la figura 4a, debido al hecho de que la porción estacionaria en el dominio del tiempo no muestra pulsos de repetición permanente. Como se señalará más adelante, sin embargo, la diferenciación entre las porciones de tipo ruido y las porciones de tipo impulso cuasiperiódico también se pueden observar después de una LPC para la señal de excitación. La LPC es un método que modela el tracto vocal y la excitación de los tractos vocales. Cuando se considera el dominio de la frecuencia de la
15 señal, las señales de tipo impulso muestran la apariencia prominente de las formantes individuales, es decir, picos prominentes en la figura 4b, mientras que el espectro estacionario tiene un espectro bastante ancho como se ilustra en la figura 5b o, en el caso de las señales armónicas, un suelo de ruido bastante continuo que tiene algunos picos prominentes que representan tonos específicos que ocurren, por ejemplo, en una señal de música, pero que no tienen una distancia tan regular del uno al otro como la señal de tipo impulso en la figura 4b.
20 Además, las porciones de tipo impulso cuasiperiódico y las porciones de tipo ruido pueden ocurrir de una forma oportuna, es decir, esto significa que una porción de la señal de audio de tiempo es ruidosa y otra porción de la señal de audio en el tiempo es cuasiperiódica, es decir, tonal. Como alternativa o adicionalmente, la característica de una señal puede ser diferente en diferentes bandas de frecuencia. Por lo tanto, la determinación de si la señal de
25 audio es ruidosa o tonal, se puede llevar a cabo de una forma selectiva en frecuencia de manera que se considera que una cierta banda de frecuencia o varias ciertas bandas de frecuencia son ruidosas y se considera que otras bandas de frecuencia son tonales. En este caso, una cierta porción de tiempo de la señal de audio puede incluir componentes tonales y componentes ruidosos.
30 En lo sucesivo, se analizará un codificador de CELP de análisis por síntesis con respecto a la figura 6. También se pueden encontrar detalles de un codificador de CELP en el documento “Speech Coding: A tutorial review”, Andreas Spanias, Proceedings of IEEE, Vol. 84, n.º 10, octubre de 1994, páginas 15411582. El codificador de CELP como se ilustra en la figura 6 incluye un componente de predicción a largo plazo 60 y un componente de predicción a corto plazo 62. Además, se usa un libro de códigos que se indica en 64. Un filtro de ponderación perceptual W(z) se
35 implementa en 66, y un controlador de minimización de error se proporciona en 68. s(n) es la señal de audio de entrada en el dominio del tiempo. Después de haberse ponderado perceptualmente, la señal ponderada se introduce en un restador 69, que calcula el error entre la señal de síntesis ponderada en salida del bloque 66 y la señal ponderada real sW(n).
40 En general, la predicción a corto plazo A(z) se calcula por una etapa de análisis de LPC que se analizará más adelante. Dependiendo de esta información, la predicción a largo plazo AL(z) incluye la ganancia de predicción a largo plazo b y el retardo T (que también se conoce como ganancia de tono y retardo de tono). El algoritmo de CELP codifica a continuación la señal residual obtenida después de las predicciones a corto y a largo plazo usando un libro de códigos de, por ejemplo, secuencias gaussianas. El algoritmo de ACELP, en el que “A” significa “algebraico” tiene
45 un libro de códigos especifico diseñado algebraicamente.
El libro de códigos puede contener más o menos vectores, en el que cada vector tiene una longitud de acuerdo con un número de muestras. Un factor de ganancia g adapta a escala el vector de código y las muestras codificadas con ganancia se filtran por el filtro de síntesis a largo plazo y el filtro de síntesis de predicción a corto plazo. El vector de
50 código “óptimo” se selecciona de tal manera que se minimiza el error cuadrático medio perceptualmente ponderado. El proceso de búsqueda en CELP es evidente a partir del esquema de análisis por síntesis ilustrado en la figura 6. Se ha de indicar que la figura 6 solo ilustra un ejemplo de un CELP de análisis por síntesis y que las realizaciones no se deben limitar a la estructura que se muestra en la figura 6.
55 En CELP, el predictor a largo plazo se implementa, a menudo, como un libro de códigos adaptativo que contiene la señal de excitación previa. La ganancia y el retardo de predicción a largo plazo se representan mediante una ganancia y un índice de libro de códigos adaptativo, los cuales se seleccionan también mediante la minimización del error cuadrático medio ponderado. En este caso la señal de excitación consiste en la adición de dos vectores adaptados a escala mediante la ganancia, uno a partir de un libro de códigos adaptativo y uno a partir de un libro de
60 códigos fijo. El filtro de ponderación perceptual en AMRWB+ está basado en el filtro de LPC, por lo tanto la señal perceptualmente ponderada es una forma de una señal en el dominio de LPC. En el codificador en el dominio de la transformada usado en AMRWB+, la transformada se aplica a la señal ponderada. En el descodificador, la señal de excitación se puede obtener mediante la filtración de la señal ponderada descodificada a través de un filtro que consiste en la inversa de los filtros de síntesis y de ponderación. La funcionalidad de una realización de la etapa de
análisis de codificación predictiva 12 se analizará posteriormente de acuerdo con la realización que se muestra en la figura 7, usando análisis de LPC y síntesis de LPC en los controladores 130, 180 en las realizaciones correspondientes.
5 La figura 7 ilustra una implementación más detallada de una realización de un bloque de análisis de LPC. La señal de audio se introduce en un bloque de determinación de filtro, el cual determina la información de filtro A(z), es decir, la información acerca de coeficientes para el filtro de síntesis. Esta información se cuantifica y se emite como la información de predicción a corto plazo requerida por el descodificador. En un restador 786, se introduce una muestra actual de la señal y se resta un valor predicho para la muestra actual de tal manera que, para esta muestra,
10 la señal de error de predicción se genera en la línea 784. Obsérvese que la señal de error de predicción también se puede denominar señal de excitación o trama de excitación (por lo general, después de codificarse).
La figura 8a muestra otra secuencia de tiempo de ventanas que se logra con otra realización. En la realización considerada en lo sucesivo, el códec de AMRWB+ se corresponde con el segundo codificador 120 y el códec de 15 AAC se corresponde con el primer codificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo 110. La siguiente realización mantiene la alineación de tramas de códec de AMRWB+, es decir, la segunda regla de alineación de tramas permanece sin modificaciones, pero se modifica la aplicación de una función ventana en la transición del códec de AMRWB+ al códec de AAC, se manipulan las ventanas de inicio/detención del códec de AAC. Dicho de otra forma, la aplicación de una función ventana al códec de AAC será más larga en la
20 transición.
Las figuras 8a y 8b ilustran esta realización. Ambas figuras muestran una secuencia de ventanas de AAC convencionales 801 en las cuales, en la figura 8a, se introduce una nueva ventana de detención modificada 802 y, en la figura 8b, una nueva ventana de detención/inicio 803. Con respecto a la ACELP, se usa una alineación de 25 tramas similar al que se muestra tal como ya se ha descrito con respecto a la realización en la figura 3. En la realización que da como resultado las secuencias de ventanas tal como se muestra en las figuras 8a y 8b, se supone que no se mantiene la alineación de tramas de códec de AAC normal, es decir, se usan las ventanas de inicio, de detención o de inicio/detención modificadas. La primera ventana que se muestra en las figuras 8a es para la transición de AMRWB+ a AAC, donde el códec de AAC usará una ventana de detención larga 802. Se describirá 30 otra ventana con la ayuda de la figura 8b, la cual muestra la transición de AMRWB+ a AAC cuando el códec de AAC use una ventana corta, usando una ventana de AAC larga para esta transición, según se indica en la figura 8b. La figura 8a muestra que la primera supertrama 820 de la ACELP comprende cuatro tramas, es decir, es acorde a la alineación de tramas de ACELP convencional, es decir, la segunda regla de alineación de tramas. Para mantener la regla de alineación de tramas de ACELP, es decir, la segunda regla de alineación de tramas se mantiene sin
35 modificaciones, se usan unas ventanas modificadas 802 y 803 según se indica en las figuras 8a y 8b.
Por lo tanto, en lo sucesivo, se introducirán algunos detalles con respecto a la aplicación de función ventana, en general.
40 La figura 9 muestra una ventana rectangular general, en la cual la información de la secuencia de ventana puede comprender una primera parte cero, en la cual la ventana enmascara muestras, una segunda parte de derivación, en la cual las muestras de una trama, es decir, una trama en el dominio del tiempo de entrada o una trama en el dominio del tiempo superpuesta puede pasar a través sin modificaciones, y una tercera parte cero, la cual enmascara de nuevo muestras al final de una trama. Dicho de otra forma, se pueden aplicar unas funciones de
45 ventana, lo cual suprime un número de muestras de una trama en una primera parte cero, pasa a través de unas muestras en una segunda parte de derivación, y suprime entonces unas muestras al final de una trama en una tercera parte cero. En este contexto, supresión también se puede referir a la anexión de una secuencia de ceros al comienzo y/o al final de la parte de derivación de la ventana. La segunda parte de derivación puede ser tal que, la función ventana simplemente tiene un valor de 1, es decir, las muestras pasan a través sin modificaciones, es decir,
50 la función ventana conmuta a través de las muestras de la trama.
La figura 10 muestra otra realización de una secuencia de ventana o función ventana, en la que la secuencia de ventana comprende adicionalmente una parte de borde de subida entre la primera parte cero y la segunda parte de derivación y una parte de borde de bajada entre la segunda parte de derivación y la tercera parte cero. La parte de
55 borde de subida también se puede considerar como una parte de desvanecimiento de entrada y la parte de borde de bajada se puede considerar como una parte de desvanecimiento de salida. En las realizaciones, la segunda parte de derivación puede comprender una secuencia de unos para no modificar en absoluto las muestras de la trama de excitación.
60 Volviendo a la realización que se muestra en la figura 8a, la ventana de detención modificada, tal como se usa en un ejemplo que realiza una transición entre la AMRWB+ y la AAC, cuando se realiza una transición de AMRWB+ a AAC, se muestra con más detalle en la figura 11. La figura 11 muestra las tramas de ACELP 1101, 1102, 1103 y 1104. La ventana de detención modificada 802 se usa entonces para realizar una transición a AAC, es decir, el primer codificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo 110, el
descodificador 160, respectivamente. De acuerdo con los detalles anteriores de la MDCT, la ventana se inicia ya en la mitad de la trama 1102, teniendo una primera parte cero de 512 muestras. A esta parte es seguida por la parte de borde de subida de la ventana, la cual se extiende a través de 128 muestras seguidas por la segunda parte de derivación que, en esta realización, se extiende a 576 muestras, es decir, 512 muestras después de la parte de
5 borde de subida en la cual se pliega la primera parte cero, seguidas por 64 muestras más de la segunda parte de derivación, las cuales resultan de la tercera parte cero al final de la ventana extendida a través de 64 muestras. La parte de borde de bajada de la ventana con la misma da como resultado 1024 muestras, que han de superponerse con la siguiente ventana.
10 El ejemplo se puede describir también usando un pseudocódigo, que se ejemplifica mediante:
/* Conmutación de bloques basada en ataques */ Si (hay un ataque) { nextwindowSequence = SHORT_WINDOW; 15 } de lo contrario {
nextwindowSequence = LONG_WINDOW; } /* Conmutación de bloque basada en decisión de conmutación de ACELP */
20 si (la próxima trama es AMR) { nextwindowSequence = SHORT_WINDOW; } /* Conmutación de bloque basada en decisión de conmutación de ACELP para STOP_WINDOW_1152 */
25 si (la trama actual es AMR y la próxima trama no es AMR) { nextwindowSequence = STOP_WINDOW_1152; } /*Conmutación de bloque para STOPSTART_WINDOW_1152*/ si (nextwindowSequence == SHORT_WINDOW) { 30 si (windowSequence == STOP_WINDOW_1152) { windowSequence = STOPSTART_WINDOW_1152; } }
35 Volviendo a la realización que se muestra en la figura 11, existe una sección de plegado de distorsión por repliegue del espectro de tiempo dentro de la parte de borde de subida de la ventana, la cual se extiende a través de 128 muestras. Dado que esta sección se superpone con la última trama de ACELP 1104, la salida de la trama de ACELP 1104 se puede usar para la cancelación de distorsión por repliegue del espectro de tiempo en la parte de borde de subida. La cancelación de distorsión por repliegue del espectro se puede llevar a cabo en el dominio del tiempo o en
40 el dominio de la frecuencia, en línea con los ejemplos anteriormente descritos. Dicho de otra forma, la salida de la última trama de ACELP se puede transformar al dominio de la frecuencia y se puede superponer entonces con la parte de borde de subida de la ventana de detención modificada 802. Como alternativa, se pueden aplicar TDA o TDAC a la última trama de ACELP antes de superponer esta con la parte de borde de subida de la ventana de detención modificada 802.
45 El ejemplo anteriormente descrito reduce la tara generada en las transiciones. También elimina la necesidad de que se lleven a cabo modificaciones a la alineación de tramas de la codificación en el dominio del tiempo, es decir, la segunda regla de alineación de tramas. Asimismo, también adapta el codificador en el dominio de la frecuencia, es decir, el codificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo 110 (AAC), que
50 en general es más flexible en términos de la atribución de bits y la cantidad de coeficientes a transmitir que un codificador en el dominio del tiempo, es decir, el segundo codificador 120.
En lo sucesivo se describirá otra realización, la cual proporciona un desvanecimiento cruzado libre de distorsión por repliegue del espectro cuando se produce la conmutación entre el primer codificador de introducción de distorsión 55 por repliegue del espectro en el dominio del tiempo 110 y el segundo codificador 120, los descodificadores 160 y 170, respectivamente. Esta realización proporciona la ventaja de que se evita el ruido debido a TDAC, en especial a bajas tasas de bits, en el caso de procedimientos de inicio o de reinicio. La ventaja se logra mediante una realización que tiene una ventana de inicio de AAC modificada sin distorsión alguna por repliegue del espectro de tiempo en la parte derecha o en la parte de borde de bajada de la ventana. La ventana de inicio modificada es una ventana
60 asimétrica, es decir, la parte derecha o la parte de borde de bajada de la ventana termina antes del punto de plegado de la MDCT. En consecuencia, la ventana está libre de distorsión por repliegue del espectro de tiempo. Al mismo tiempo, la región de superposición se puede reducir mediante unas realizaciones hasta 64 muestras en lugar de 128 muestras.
65 En unas realizaciones, puede llevar un cierto tiempo al codificador de audio 100 o al descodificador de audio 150
antes de entrar en un estado permanente o estable. Dicho de otra forma, durante el período de inicio del codificador en el dominio del tiempo, es decir, el segundo codificador 120 y también el descodificador 170, se necesita un cierto tiempo para iniciar, por ejemplo, los coeficientes de una LPC. Para suavizar el error en el caso de un restablecimiento, en unas realizaciones, se puede aplicar una función ventana a la parte izquierda de una señal de
5 entrada de AMRWB+ con una ventana de seno corta en el codificador 120, por ejemplo, que tiene una longitud de 64 muestras. Asimismo, se puede aplicar una función ventana a la parte izquierda de la señal de síntesis con la misma señal en el segundo descodificador 170. De este modo, la ventana de seno al cuadrado se puede aplicar de un modo similar a AAC, aplicando el seno al cuadrado a la parte derecha de su ventana de inicio.
10 Mediante el uso de esta aplicación de una función ventana, en una realización, la transición de AAC a AMRWB+ se puede llevar a cabo sin distorsión por repliegue del espectro de tiempo y se puede llevar a cabo mediante una ventana de seno de desvanecimiento cruzado corto tal como, por ejemplo, 64 muestras. La figura 12 muestra una línea de tiempo que ejemplifica una transición de AAC a AMRWB+ y de vuelta a AAC. La figura 12 muestra una ventana de inicio de AAC 1201 seguida de la parte de AMRWB+ 1203 que se superpone con la ventana de AAC
15 1201 y que se superpone con la región 1202, la cual se extiende a través de 64 muestras. La parte de AMRWB+ es seguida por una ventana de detención de AAC 1205, que se superpone con 128 muestras.
De acuerdo con la figura 12, la realización aplica la ventana libre de distorsión por repliegue del espectro respectiva en la transición de AAC a AMRWB+.
20 La figura 13 muestra la ventana de inicio modificada, tal como se aplica cuando se realiza una transición de AAC a AMRWB+ en ambos lados en el codificador 100 y el descodificador 150, el codificador 110 y el descodificador 160, respectivamente.
25 La ventana que se ilustra en la figura 13 muestra que la primera parte cero no se encuentra presente. La ventana se inicia directamente con la parte de borde de subida, la cual se extiende a través de 1024 muestras, es decir, el eje de plegado se encuentra en la mitad del intervalo de 1024 que se muestra en la figura 13. El eje de simetría se encuentra entonces en el lado derecho del intervalo de 1024. Tal como se puede ver a partir de la figura 13, la tercera parte cero se extiende a 512 muestras, es decir, no hay distorsión alguna por repliegue del espectro en la
30 parte al lado derecho de la totalidad de la ventana, es decir, la parte de derivación se extiende desde el centro hasta el comienzo del intervalo de 64 muestras. También se puede observar que la parte de borde de bajada se extiende a través de 64 muestras, lo cual proporciona la ventaja de que la sección de cruce sea estrecha. El intervalo de 64 muestras se usa para un desvanecimiento cruzado, sin embargo, no se encuentra presente distorsión alguna por repliegue del espectro en este intervalo. Por lo tanto, solo se introduce una tara baja.
35 Las realizaciones con las ventanas modificadas anteriormente descritas pueden evitar la codificación de demasiada información de tara, es decir, la codificación de algunas de las muestras dos veces. De acuerdo con la descripción que se ha mostrado anteriormente, se pueden aplicar opcionalmente unas ventanas diseñadas de manera similar para la transición de AMRWB+ a AAC de acuerdo con una realización en la que se modifica de nuevo la ventana de
40 AAC, reduciendo también la superposición a 64 muestras.
Por lo tanto, la ventana de detención modificada se alarga a 2304 muestras en una realización y se usa en una MDCT de 1152 puntos. La parte izquierda de la ventana se puede hacer libre de distorsión por repliegue del espectro de tiempo mediante el comienzo del desvanecimiento de entrada después del eje de plegado de MDCT.
45 Dicho de otra forma, haciendo la primera parte cero más grande que un cuarto de la totalidad del tamaño de MDTC. La ventana de seno al cuadrado complementaria se aplica entonces a las 64 últimas muestras descodificadas del segmento de AMRWB+. Estas dos ventanas de desvanecimiento cruzado permiten obtener una transición suave de AMRWB+ a AAC mediante la limitación de la información transmitida de la tara.
50 La figura 14 ilustra una ventana para la transición de AMRWB+ a AAC tal como se puede aplicar en el lado de codificador 100 en una realización. Se puede observar que el eje de plegado es después de 576 muestras, es decir, la primera parte cero se extiende a través de 576 muestras. Esto tiene como consecuencia que la parte al lado izquierdo de la totalidad de la ventana se encuentre libre de distorsión por repliegue del espectro. El desvanecimiento cruzado comienza en el segundo cuarto de la ventana, es decir, después de 576 muestras o, dicho
55 de otra forma, justo más allá del eje de plegado. La sección de desvanecimiento cruzado, es decir, la parte de borde de subida de la ventana, puede estrecharse hasta 64 muestras de acuerdo con la figura 14.
La figura 15 muestra la ventana para la transición de AMRWB+ a ACC aplicada en el lado de descodificador 150 en una realización. La ventana es similar a la ventana descrita en la figura 14, de tal modo que la aplicación de ambas
60 ventanas a través de muestras que se están codificando y, entonces, descodificando de nuevo da como resultado una ventana de seno al cuadrado.
El siguiente pseudocódigo describe una realización de un procedimiento de selección de ventana de inicio, cuando ocurre la conmutación de AAC a AMRWB+.
Estás realizaciones también se pueden describir mediante el uso de un pseudocódigo tal como, por ejemplo:
/* Ajustar a una secuencia de ventana permitida */ 5 si (nextwindowSequence == SHORT_WINDOW) { si (windowSequence == LONG_WINDOW){
si (la trama actual no es AMR y la próxima trama es AMR) { windowSequence = START_WINDOW_AMR; }
10 de lo contrario { windowSequence = START_WINDOW; } }
15 Las realizaciones tal como se ha descrito anteriormente reducen la tara generada de la información mediante el uso de pequeñas regiones de superposición en ventanas consecutivas durante la transición. Además, estas realizaciones proporcionan la ventaja de que estas pequeñas regiones de superposición siguen siendo suficientes para suavizar los artefactos de bloqueo, es decir, para tener un desvanecimiento cruzado suave. Asimismo, reducen el impacto de la ráfaga de error debido al inicio del codificador en el dominio del tiempo, es decir, el segundo
20 codificador 120, el descodificador 170, respectivamente, mediante la inicialización del mismo con una entrada a la que se ha aplicado desvanecimiento.
Resumiendo, las realizaciones de la presente invención proporcionan la ventaja de que unas regiones de cruce suavizadas se pueden llevar a cabo en un concepto de codificación de audio de modo múltiple con una eficiencia de
25 codificación alta, es decir, las ventanas de transición introducen solo una tara baja en términos de la información adicional a transmitirse. Además, las realizaciones posibilitan el uso de codificadores de modo múltiple, al tiempo que adaptan la alineación de tramas o la aplicación de función ventana de un modo al otro.
A pesar de que algunos aspectos se han descrito en el contexto de un aparato, es evidente que estos aspectos
30 también representan una descripción del método correspondiente, donde un bloque o dispositivo se corresponde con una etapa de método o con una característica de una etapa de método. De forma análoga, los aspectos descritos en el contexto de una etapa de método también representan una descripción de un bloque o elemento o característica correspondiente de un aparato correspondiente.
35 La señal de audio codificada se puede almacenar en un medio de almacenamiento digital o se puede transmitir por un medio de transmisión tal como un medio de transmisión inalámbrico o cableado tal como Internet.
Dependiendo de ciertos requisitos de implementación, las realizaciones de la presente invención se pueden implementar en hardware o en software. La implementación se puede realizar mediante el uso de un medio de
40 almacenamiento digital, por ejemplo un disco flexible, un DVD, un CD, una ROM, una PROM, una EPROM, una EEPROM o una memoria FLASH, que tenga unas señales de control electrónicamente legibles almacenadas en el mismo, las cuales cooperan (o pueden cooperar) con un sistema informático programable de tal modo que se realice el método respectivo.
45 Algunas realizaciones de acuerdo con la invención comprenden un soporte de datos que tiene señales de control electrónicamente legibles, que pueden cooperar con un sistema informático programable, de tal modo que se realice uno de los métodos descritos en el presente documento.
En general, las realizaciones de la presente invención se pueden implementar como un producto de programa
50 informático con un código de programa, estando el código de programa operativo para realizar uno de los métodos cuando el producto del programa de informático se ejecuta en un ordenador. El código del programa se puede almacenar, por ejemplo, en un soporte legible por máquina.
Otras realizaciones comprenden el programa informático para realizar uno de los métodos descritos en el presente 55 documento, almacenados en un soporte legible por máquina.
Dicho de otra forma, una realización del método de la invención es, por lo tanto, un programa informático que tiene un código de programa para realizar uno de los métodos descritos en el presente documento, cuando el programa informático se ejecuta en un ordenador.
60 Una realización adicional de los métodos de la invención es, por lo tanto, un soporte de datos (o un medio de almacenamiento digital, o un medio legible por ordenador) que comprende, registrado en el mismo, el programa informático para realizar uno de los métodos descritos en el presente documento.
Una realización adicional del método inventivo es, por lo tanto, un flujo de datos o una secuencia de señales que representan el programa informático para realizar uno de los métodos descritos en el presente documento. El flujo de datos o la secuencia de señales se pueden configurar, por ejemplo, para transferirse por medio de una conexión de comunicación de datos, por ejemplo, por medio de Internet.
5 Una realización adicional comprende un medio de procesamiento, por ejemplo, un ordenador, o un dispositivo lógico programable, configurado para, o adaptado para, realizar uno de los métodos descritos en el presente documento.
Una realización adicional comprende un ordenador que tiene instalado en el mismo el programa informático para 10 realizar uno de los métodos descritos en el presente documento.
En algunas realizaciones, un dispositivo lógico programable (por ejemplo, un campo de matrices de puertas programables) se puede usar para realizar algunas o la totalidad de las funcionalidades de los métodos descritos en el presente documento. En algunas realizaciones, un campo de matrices de puertas programables puede cooperar
15 con un microprocesador para realizar uno de los métodos descritos en el presente documento. En general, los métodos se realizan, preferentemente, por cualquier aparato de hardware.
Las realizaciones anteriormente descritas son meramente ilustrativas de los principios de la presente invención. Se entiende que modificaciones y variaciones de las disposiciones y los detalles descritos en el presente documento
20 resultarán evidentes para los expertos en la materia. Por lo tanto, se tiene por objeto estar limitado solo por el alcance de las siguientes reivindicaciones de patente y no por los detalles específicos presentados a modo de descripción y explicación de las realizaciones en el presente documento.

Claims (12)

  1. REIVINDICACIONES
    1. Un codificador de audio (100) para codificar muestras de audio, que comprende:
    5 un primer codificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo (110) para codificar muestras de audio en un primer dominio de codificación, teniendo el primer codificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo (110) una primera regla de alineación de tramas, siendo una alineación de tramas de AAC, una ventana de inicio de AAC y una ventana de detención de AAC;
    10 un segundo codificador (120) para codificar muestras en un segundo dominio de codificación, teniendo el segundo codificador (120) una segunda regla de alineación de tramas diferente y utilizando el modo ACELP de AMRWB+ con la segunda regla de alineación de tramas que es una regla de alineación de tramas de AMR de acuerdo con la que una supertrama comprende cuatro tramas de AMR de igual tamaño, teniendo el segundo codificador (120) un número de muestras de audio de periodo de encendido de la codificación, siendo una trama
    15 de AMR del segundo codificador (120) una representación codificada de un número de muestras de audio oportunamente posteriores, siendo el número igual al número de muestras de audio de tamaño de trama predeterminado; y un controlador (130) para conmutar del primer codificador (110) al segundo codificador (120) en respuesta a una característica de las muestras de audio o conmutar del segundo codificador (120) al primer codificador (110) en
    20 respuesta a una característica diferente de las muestras de audio, y para modificar la segunda regla de alineación de tramas y mantener la alineación de tramas de AAC en respuesta a conmutar del primer codificador
    (110) al segundo codificador (120) o del segundo codificador (120) al primer codificador (110) hasta el punto que una primera supertrama en la conmutación está comprendida de cinco tramas de AMR en lugar de cuatro tramas de AMR, superponiéndose la quinta trama de AMR respectivamente a una parte de desvanecimiento de una
    25 ventana de inicio o una ventana de detención del primer codificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo (110).
  2. 2. Un método para codificar tramas de audio, que comprende las etapas de:
    30 codificar, muestras de audio en un primer dominio de codificación usando una primera regla de alineación de tramas, siendo una alineación de tramas de AAC, una ventana de inicio de AAC y una ventana de detención de AAC; codificar muestras de audio en un segundo dominio de codificación usando una regla de alineación de tramas diferente y utilizando el modo ACELP de AMRWB+ con la segunda regla de alineación de tramas que es una
    35 regla de alineación de tramas de AMR de acuerdo con la que una supertrama comprende cuatro tramas de AMR de igual tamaño, y usar un número de muestras de audio de periodo de encendido de la codificación, siendo una trama de AMR del segundo dominio de codificación una representación codificada de un número de muestras de audio oportunamente posteriores, siendo el número igual a un número de muestras de audio de tamaño de trama predeterminado;
    40 conmutar del primer dominio de codificación al segundo dominio de codificación en respuesta a una característica de las muestras de audio o conmutar del segundo dominio de codificación al primer dominio de codificación en respuesta a una característica diferente de las muestras de audio, y, modificar la segunda regla de alineación de tramas y mantener la alineación de tramas de AAC en respuesta a conmutar del primer al segundo dominio de codificación o del segundo dominio de codificación al primer dominio de codificación hasta el
    45 punto que una primera supertrama en la conmutación está comprendida de cinco tramas de AMR en lugar de cuatro tramas de AMR, superponiéndose la quinta trama de AMR respectivamente a una parte de desvanecimiento de una ventana de inicio o una ventana de detención del primer dominio de codificación.
  3. 3. Un descodificador de audio (150) para descodificar tramas codificadas de muestras de audio, que comprende:
    50 un primer descodificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo (160) para descodificar muestras de audio en un primer dominio de descodificación, teniendo el primer descodificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo (160) una primera regla de alineación de tramas, siendo una alineación de tramas de AAC, una ventana de inicio de AAC y una ventana de
    55 detención de AAC, comprendiendo el primer descodificador (160) un transformador en el dominio del tiempo para transformar una primera trama de muestras de audio descodificadas al dominio del tiempo basándose en una transformación de coseno discreta modificada inversa (IMDCT); un segundo descodificador (170) para descodificar muestras de audio en un segundo dominio de descodificación, teniendo el segundo descodificador (170) una segunda regla de alineación de tramas diferente y
    60 utilizando el modo de ACELP de AMRWB+ siendo la segunda regla de alineación de tramas una regla de alineación de tramas de AMR de acuerdo con la que una supertrama comprende cuatro tramas de AMR de igual tamaño, y teniendo el segundo descodificador (170) un número de muestras de audio de periodo de encendido de la codificación, siendo una trama de AMR del segundo descodificador (170) una representación codificada de un número de muestras de audio oportunamente posteriores, siendo el número igual al número de muestras de
    audio de tamaño de trama predeterminado; y un controlador (180) para conmutar del primer descodificador (160) al segundo descodificador (170) o conmutar del segundo descodificador (170) al primer descodificador (160) basándose en indicaciones en la trama codificada de muestras de audio, en el que el controlador (180) está adaptado para modificar la segunda regla de
    5 alineación de tramas y mantener la alineación de tramas de AAC en respuesta a conmutar del primer descodificador (160) al segundo descodificador (170) o del segundo descodificador (170) al primer descodificador
    (160) hasta el punto que una primera supertrama en la conmutación está comprendida de cinco tramas de AMR en lugar de cuatro tramas de AMR, superponiéndose la quinta trama de AMR respectivamente a una parte de desvanecimiento de una ventana de inicio o una ventana de detención del primer descodificador de introducción
    10 de distorsión por repliegue del espectro en el dominio del tiempo (160).
  4. 4. El descodificador de audio (150) de la reivindicación 3, en el que el primer descodificador (160) está adaptado para ponderar la última trama descodificada con la ventana de inicio cuando la trama posterior se descodifica por el segundo descodificador (170) y/o para ponderar la primera trama descodificada con la ventana de detención cuando
    15 se ha de descodificar una trama precedente por el segundo descodificador (170).
  5. 5. El descodificador de audio (150) de la reivindicación 4, en el que el transformador del dominio del tiempo está adaptado para transformar la primera trama al dominio del tiempo basándose en una MDCT inversa, IMDCT, y en el que el primer descodificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo (160)
    20 está adaptado para adaptar un tamaño de IMDCT a las ventanas de inicio y/o detención o de inicio y/o detención modificadas.
  6. 6. El descodificador de audio (150) de una de las reivindicaciones 3 a 5, en el que el primer descodificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo (160) está adaptado para utilizar una
    25 ventana de inicio y/o una ventana de detención que tiene una parte de distorsión por repliegue del espectro y una parte libre de distorsión por repliegue del espectro.
  7. 7. El descodificador de audio (150) de una de las reivindicaciones 3 a 6, en el que el primer descodificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo (110) está adaptado para utilizar una
    30 ventana de inicio y/o una ventana de detención que tienen una parte libre de distorsión por repliegue del espectro en una parte de borde de subida de la ventana cuando la trama precedente se descodifica por el segundo descodificador (170) y en una parte de borde de bajada cuando la trama posterior se codifica por el segundo descodificador (170).
    35 8. El descodificador de audio (150) de acuerdo con una de las reivindicaciones 6 o 7, en el que el controlador (180) está adaptado para iniciar el segundo descodificador (170), de manera que la primera trama de la secuencia de tramas del segundo descodificador (170) comprende una representación descodificada de una muestra procesada en la parte libre de distorsión por repliegue del espectro precedente del primer descodificador (160).
    40 9. El descodificador de audio (150) de una de las reivindicaciones 6 a 8, en el que el controlador (180) está adaptado para iniciar el segundo descodificador (170), de manera que el número de muestras de audio de periodo de encendido de la codificación se superpone con la parte libre de distorsión por repliegue del espectro de la ventana de inicio del primer descodificador de introducción de distorsión por repliegue del espectro en el dominio del tiempo
    (160) y la trama posterior del segundo descodificador (170) se superpone con la parte de distorsión por repliegue del 45 espectro de la ventana de detención.
  8. 10. El descodificador de audio (150) de una de las reivindicaciones 3 a 9, en el que el controlador (180) está adaptado para aplicar un desvanecimiento cruzado entre tramas consecutivas de muestras de audio descodificadas de diferentes descodificadores.
  9. 11. El descodificador de audio (150) de una de las reivindicaciones 3 a 10, en el que el controlador (180) está adaptado para determinar una distorsión por repliegue del espectro en una parte de distorsión por repliegue del espectro de la ventana de inicio o de detención de una trama descodificada del segundo descodificador (170) y para reducir la distorsión por repliegue del espectro en la parte de distorsión por repliegue del espectro basándose en la
    55 distorsión por repliegue del espectro determinada.
  10. 12. El descodificador de audio (150) de una de las reivindicaciones 3 a 11, en el que el controlador (180) está adaptado para descartar el periodo de encendido de la codificación de muestras de audio del segundo descodificador (170).
  11. 13. Un método para descodificar tramas codificadas de muestras de audio, que comprende las etapas de descodificar muestras de audio en un primer dominio de descodificación, introduciendo el primer dominio de descodificación una distorsión por repliegue del espectro de tiempo, teniendo una primera regla de alineación de tramas, siendo una alineación de tramas de AAC, una ventana de inicio de AAC y una ventana de detención de
    AAC, y mediante el uso de la transformación de una primera trama de muestras de audio descodificadas al dominio del tiempo basándose en una transformación de coseno discreta modificada inversa (IMDCT); descodificar muestras de audio en un segundo dominio de descodificación usando una segunda regla de alineación de tramas diferente y utilizando el modo CELP de AMRWB+ siendo la segunda regla de alineación de tramas una
    5 regla de alineación de tramas de AMR de acuerdo con la que una supertrama comprende cuatro tramas de AMR de igual tamaño, teniendo el segundo dominio de descodificación un número de muestras de audio de periodo de encendido de la codificación, siendo una trama de AMR del segundo dominio de descodificación una representación descodificada de un número de muestras de audio oportunamente posteriores, siendo el número igual al número de muestras de audio de tamaño de trama predeterminado;
    10 y conmutar del primer dominio de descodificación al segundo dominio de descodificación o conmutar del segundo dominio de descodificación (120) al primer dominio de descodificación basándose en indicaciones de la trama codificada de muestras de audio; modificar la segunda regla de alineación de tramas y mantener la alineación de tramas de AAC en respuesta a la
    15 conmutación del primer dominio de codificación al segundo dominio de codificación o del segundo dominio de descodificación al primer dominio de descodificación hasta el punto que una supertrama en la conmutación está comprendida de cinco tramas de AMR en lugar de cuatro tramas de AMR, superponiéndose la quinta trama de AMR respectivamente a una parte de desvanecimiento de una ventana de inicio o una ventana de detención del primer dominio de descodificación.
  12. 14. Un programa informático que tiene un código de programa adaptado para realizar el método de la reivindicación 13, cuando el código de programa se ejecuta en un ordenador o procesador.
ES15193588.9T 2008-07-11 2009-06-26 Codificador y descodificador de audio para codificar y descodificar muestras de audio Active ES2657393T3 (es)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US7985608P 2008-07-11 2008-07-11
US79856P 2008-07-11
US10382508P 2008-10-08 2008-10-08
US103825P 2008-10-08

Publications (1)

Publication Number Publication Date
ES2657393T3 true ES2657393T3 (es) 2018-03-05

Family

ID=40951598

Family Applications (2)

Application Number Title Priority Date Filing Date
ES15193588.9T Active ES2657393T3 (es) 2008-07-11 2009-06-26 Codificador y descodificador de audio para codificar y descodificar muestras de audio
ES09776858.4T Active ES2564400T3 (es) 2008-07-11 2009-06-26 Codificador y descodificador de audio para codificar y descodificar muestras de audio

Family Applications After (1)

Application Number Title Priority Date Filing Date
ES09776858.4T Active ES2564400T3 (es) 2008-07-11 2009-06-26 Codificador y descodificador de audio para codificar y descodificar muestras de audio

Country Status (21)

Country Link
US (1) US8892449B2 (es)
EP (2) EP3002750B1 (es)
JP (2) JP5551695B2 (es)
KR (1) KR101325335B1 (es)
CN (1) CN102089811B (es)
AR (1) AR072738A1 (es)
AU (1) AU2009267466B2 (es)
BR (1) BRPI0910512B1 (es)
CA (3) CA2730204C (es)
CO (1) CO6351837A2 (es)
EG (1) EG26653A (es)
ES (2) ES2657393T3 (es)
HK (3) HK1155552A1 (es)
MX (1) MX2011000366A (es)
MY (3) MY181231A (es)
PL (2) PL2311032T3 (es)
PT (1) PT3002750T (es)
RU (1) RU2515704C2 (es)
TW (1) TWI459379B (es)
WO (1) WO2010003563A1 (es)
ZA (1) ZA201100089B (es)

Families Citing this family (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101408183B1 (ko) * 2007-12-21 2014-06-19 오렌지 적응적 윈도를 갖는 변환 기반 코딩/디코딩
MX2011000375A (es) * 2008-07-11 2011-05-19 Fraunhofer Ges Forschung Codificador y decodificador de audio para codificar y decodificar tramas de una señal de audio muestreada.
KR101670063B1 (ko) 2008-09-18 2016-10-28 한국전자통신연구원 Mdct 기반의 코더와 이종의 코더 간 변환에서의 인코딩 장치 및 디코딩 장치
WO2010044593A2 (ko) 2008-10-13 2010-04-22 한국전자통신연구원 Mdct 기반 음성/오디오 통합 부호화기의 lpc 잔차신호 부호화/복호화 장치
KR101649376B1 (ko) 2008-10-13 2016-08-31 한국전자통신연구원 Mdct 기반 음성/오디오 통합 부호화기의 lpc 잔차신호 부호화/복호화 장치
US9384748B2 (en) * 2008-11-26 2016-07-05 Electronics And Telecommunications Research Institute Unified Speech/Audio Codec (USAC) processing windows sequence based mode switching
US8457975B2 (en) 2009-01-28 2013-06-04 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio decoder, audio encoder, methods for decoding and encoding an audio signal and computer program
KR101622950B1 (ko) * 2009-01-28 2016-05-23 삼성전자주식회사 오디오 신호의 부호화 및 복호화 방법 및 그 장치
US8892427B2 (en) 2009-07-27 2014-11-18 Industry-Academic Cooperation Foundation, Yonsei University Method and an apparatus for processing an audio signal
WO2011042464A1 (en) 2009-10-08 2011-04-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multi-mode audio signal decoder, multi-mode audio signal encoder, methods and computer program using a linear-prediction-coding based noise shaping
AU2011241424B2 (en) * 2010-04-14 2016-05-05 Voiceage Evs Llc Flexible and scalable combined innovation codebook for use in CELP coder and decoder
JP5882895B2 (ja) 2010-06-14 2016-03-09 パナソニック株式会社 復号装置
PL3451333T3 (pl) * 2010-07-08 2023-01-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Koder wykorzystujący kasowanie aliasingu w przód
CN102332266B (zh) * 2010-07-13 2013-04-24 炬力集成电路设计有限公司 一种音频数据的编码方法及装置
EP2619758B1 (en) 2010-10-15 2015-08-19 Huawei Technologies Co., Ltd. Audio signal transformer and inverse transformer, methods for audio signal analysis and synthesis
TWI476760B (zh) 2011-02-14 2015-03-11 Fraunhofer Ges Forschung 用以使用暫態檢測及品質結果將音訊信號的部分編碼之裝置與方法
AR085361A1 (es) 2011-02-14 2013-09-25 Fraunhofer Ges Forschung Codificacion y decodificacion de posiciones de los pulsos de las pistas de una señal de audio
RU2586838C2 (ru) 2011-02-14 2016-06-10 Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. Аудиокодек, использующий синтез шума в течение неактивной фазы
SG192721A1 (en) * 2011-02-14 2013-09-30 Fraunhofer Ges Forschung Apparatus and method for encoding and decoding an audio signal using an aligned look-ahead portion
EP2676266B1 (en) 2011-02-14 2015-03-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Linear prediction based coding scheme using spectral domain noise shaping
AR085218A1 (es) 2011-02-14 2013-09-18 Fraunhofer Ges Forschung Aparato y metodo para ocultamiento de error en voz unificada con bajo retardo y codificacion de audio
MY159444A (en) 2011-02-14 2017-01-13 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E V Encoding and decoding of pulse positions of tracks of an audio signal
JP5712288B2 (ja) 2011-02-14 2015-05-07 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 重複変換を使用した情報信号表記
AU2012217269B2 (en) 2011-02-14 2015-10-22 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for processing a decoded audio signal in a spectral domain
RU2464649C1 (ru) 2011-06-01 2012-10-20 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." Способ обработки звукового сигнала
CN105163398B (zh) 2011-11-22 2019-01-18 华为技术有限公司 连接建立方法和用户设备
US9043201B2 (en) * 2012-01-03 2015-05-26 Google Technology Holdings LLC Method and apparatus for processing audio frames to transition between different codecs
CN103219009A (zh) * 2012-01-20 2013-07-24 旭扬半导体股份有限公司 音频数据处理装置及其方法
JP2013198017A (ja) * 2012-03-21 2013-09-30 Toshiba Corp 復号装置及び通信装置
WO2013168414A1 (ja) * 2012-05-11 2013-11-14 パナソニック株式会社 音信号ハイブリッドエンコーダ、音信号ハイブリッドデコーダ、音信号符号化方法、及び音信号復号方法
IN2015DN04001A (es) * 2012-11-07 2015-10-02 Dolby Int Ab
CN109448745B (zh) * 2013-01-07 2021-09-07 中兴通讯股份有限公司 一种编码模式切换方法和装置、解码模式切换方法和装置
CN110223704B (zh) 2013-01-29 2023-09-15 弗劳恩霍夫应用研究促进协会 对音频信号的频谱执行噪声填充的装置
CN105359448B (zh) 2013-02-19 2019-02-12 华为技术有限公司 一种滤波器组多载波波形的帧结构的应用方法及设备
CN110232929B (zh) 2013-02-20 2023-06-13 弗劳恩霍夫应用研究促进协会 用于对音频信号进行译码的译码器和方法
CA2913578C (en) 2013-06-21 2018-05-22 Michael Schnabel Apparatus and method for generating an adaptive spectral shape of comfort noise
EP2830055A1 (en) * 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Context-based entropy coding of sample values of a spectral envelope
US9418671B2 (en) * 2013-08-15 2016-08-16 Huawei Technologies Co., Ltd. Adaptive high-pass post-filter
US20150100324A1 (en) * 2013-10-04 2015-04-09 Nvidia Corporation Audio encoder performance for miracast
EP2863386A1 (en) * 2013-10-18 2015-04-22 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio decoder, apparatus for generating encoded audio output data and methods permitting initializing a decoder
KR101498113B1 (ko) * 2013-10-23 2015-03-04 광주과학기술원 사운드 신호의 대역폭 확장 장치 및 방법
CN104751849B (zh) 2013-12-31 2017-04-19 华为技术有限公司 语音频码流的解码方法及装置
EP3095244A4 (en) * 2014-01-13 2017-11-15 LG Electronics Inc. Apparatuses and methods for transmitting or receiving a broadcast content via one or more networks
CN107369454B (zh) * 2014-03-21 2020-10-27 华为技术有限公司 语音频码流的解码方法及装置
CN104143335B (zh) * 2014-07-28 2017-02-01 华为技术有限公司 音频编码方法及相关装置
EP2980797A1 (en) * 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio decoder, method and computer program using a zero-input-response to obtain a smooth transition
JP6086999B2 (ja) * 2014-07-28 2017-03-01 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン ハーモニクス低減を使用して第1符号化アルゴリズムと第2符号化アルゴリズムの一方を選択する装置及び方法
EP2980795A1 (en) 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoding and decoding using a frequency domain processor, a time domain processor and a cross processor for initialization of the time domain processor
EP2980794A1 (en) 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder and decoder using a frequency domain processor and a time domain processor
FR3024581A1 (fr) * 2014-07-29 2016-02-05 Orange Determination d'un budget de codage d'une trame de transition lpd/fd
EP2988300A1 (en) * 2014-08-18 2016-02-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Switching of sampling rates at audio processing devices
WO2016142380A1 (en) 2015-03-09 2016-09-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Fragment-aligned audio coding
EP3067886A1 (en) 2015-03-09 2016-09-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder for encoding a multichannel signal and audio decoder for decoding an encoded audio signal
EP3067889A1 (en) 2015-03-09 2016-09-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method and apparatus for signal-adaptive transform kernel switching in audio coding
TWI642287B (zh) * 2016-09-06 2018-11-21 聯發科技股份有限公司 無線通訊系統中有效編碼切換方法及通訊設備
EP3306609A1 (en) 2016-10-04 2018-04-11 Fraunhofer Gesellschaft zur Förderung der Angewand Apparatus and method for determining a pitch information
CN109389984B (zh) 2017-08-10 2021-09-14 华为技术有限公司 时域立体声编解码方法和相关产品
CN109787675A (zh) * 2018-12-06 2019-05-21 安徽站乾科技有限公司 一种基于卫星语音通道的数据解析方法
CN114007176B (zh) * 2020-10-09 2023-12-19 上海又为智能科技有限公司 用于降低信号延时的音频信号处理方法、装置及存储介质
RU2756934C1 (ru) * 2020-11-17 2021-10-07 Ордена Трудового Красного Знамени федеральное государственное образовательное бюджетное учреждение высшего профессионального образования Московский технический университет связи и информатики (МТУСИ) Способ и устройство измерения спектра информационных акустических сигналов с компенсацией искажений

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5848391A (en) 1996-07-11 1998-12-08 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Method subband of coding and decoding audio signals using variable length windows
EP0932141B1 (en) * 1998-01-22 2005-08-24 Deutsche Telekom AG Method for signal controlled switching between different audio coding schemes
US6226608B1 (en) * 1999-01-28 2001-05-01 Dolby Laboratories Licensing Corporation Data framing for adaptive-block-length coding system
KR100472442B1 (ko) * 2002-02-16 2005-03-08 삼성전자주식회사 웨이브렛 패킷 변환을 이용한 오디오 압축 방법 및 그시스템
US8090577B2 (en) * 2002-08-08 2012-01-03 Qualcomm Incorported Bandwidth-adaptive quantization
EP1394772A1 (en) * 2002-08-28 2004-03-03 Deutsche Thomson-Brandt Gmbh Signaling of window switchings in a MPEG layer 3 audio data stream
AU2003208517A1 (en) * 2003-03-11 2004-09-30 Nokia Corporation Switching between coding schemes
DE10345996A1 (de) * 2003-10-02 2005-04-28 Fraunhofer Ges Forschung Vorrichtung und Verfahren zum Verarbeiten von wenigstens zwei Eingangswerten
DE10345995B4 (de) * 2003-10-02 2005-07-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Verarbeiten eines Signals mit einer Sequenz von diskreten Werten
US7739120B2 (en) * 2004-05-17 2010-06-15 Nokia Corporation Selection of coding models for encoding an audio signal
AU2004319555A1 (en) * 2004-05-17 2005-11-24 Nokia Corporation Audio encoding with different coding models
MXPA06012617A (es) * 2004-05-17 2006-12-15 Nokia Corp Codificacion de audio con diferentes longitudes de cuadro de codificacion.
US7596486B2 (en) * 2004-05-19 2009-09-29 Nokia Corporation Encoding an audio signal using different audio coder modes
KR100668319B1 (ko) * 2004-12-07 2007-01-12 삼성전자주식회사 오디오 신호의 변환방법 및 장치와 오디오 신호에적응적인 부호화방법 및 장치, 오디오 신호의 역변환 방법및 장치와 오디오 신호에 적응적인 복호화 방법 및 장치
US20070055510A1 (en) * 2005-07-19 2007-03-08 Johannes Hilpert Concept for bridging the gap between parametric multi-channel audio coding and matrixed-surround multi-channel coding
WO2007080211A1 (en) * 2006-01-09 2007-07-19 Nokia Corporation Decoding of binaural audio signals
KR101434198B1 (ko) * 2006-11-17 2014-08-26 삼성전자주식회사 신호 복호화 방법
RU2444071C2 (ru) * 2006-12-12 2012-02-27 Фраунхофер-Гезелльшафт цур Фёрдерунг дер ангевандтен Кодер, декодер и методы кодирования и декодирования сегментов данных, представляющих собой поток данных временной области
EP2015293A1 (en) * 2007-06-14 2009-01-14 Deutsche Thomson OHG Method and apparatus for encoding and decoding an audio signal using adaptively switched temporal resolution in the spectral domain
CA2730196C (en) * 2008-07-11 2014-10-21 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Method and discriminator for classifying different segments of a signal
EP2144230A1 (en) * 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Low bitrate audio encoding/decoding scheme having cascaded switches
PL2346029T3 (pl) * 2008-07-11 2013-11-29 Fraunhofer Ges Forschung Koder sygnału audio, sposób kodowania sygnału audio i odpowiadający mu program komputerowy
MX2011000375A (es) * 2008-07-11 2011-05-19 Fraunhofer Ges Forschung Codificador y decodificador de audio para codificar y decodificar tramas de una señal de audio muestreada.
BRPI0910784B1 (pt) * 2008-07-11 2022-02-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e. V. Codificador e decodificador de áudio para estruturas de codificação de sinais de áudio amostrados
PL2146344T3 (pl) * 2008-07-17 2017-01-31 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Sposób kodowania/dekodowania sygnału audio obejmujący przełączalne obejście
KR101315617B1 (ko) * 2008-11-26 2013-10-08 광운대학교 산학협력단 모드 스위칭에 기초하여 윈도우 시퀀스를 처리하는 통합 음성/오디오 부/복호화기
BRPI1005300B1 (pt) * 2009-01-28 2021-06-29 Fraunhofer - Gesellschaft Zur Forderung Der Angewandten Ten Forschung E.V. Codificador de áudio, decodificador de áudio, informações de áudio codificado e métodos para codificar e decodificar um sinal de áudio com base em uma informação de áudio codificado e em uma informação de áudio de entrada.
US8457975B2 (en) * 2009-01-28 2013-06-04 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio decoder, audio encoder, methods for decoding and encoding an audio signal and computer program
US8725503B2 (en) * 2009-06-23 2014-05-13 Voiceage Corporation Forward time-domain aliasing cancellation with application in weighted or original signal domain
WO2011042464A1 (en) * 2009-10-08 2011-04-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multi-mode audio signal decoder, multi-mode audio signal encoder, methods and computer program using a linear-prediction-coding based noise shaping
PL2473995T3 (pl) * 2009-10-20 2015-06-30 Fraunhofer Ges Forschung Koder sygnału audio, dekoder sygnału audio, sposób dostarczania zakodowanej reprezentacji treści audio, sposób dostarczania dekodowanej reprezentacji treści audio oraz program komputerowy do wykorzystania w zastosowaniach z małym opóźnieniem
KR101411759B1 (ko) * 2009-10-20 2014-06-25 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 오디오 신호 인코더, 오디오 신호 디코더, 앨리어싱-소거를 이용하여 오디오 신호를 인코딩 또는 디코딩하는 방법
EP2524371B1 (en) * 2010-01-12 2016-12-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder, audio decoder, method for encoding an audio information, method for decoding an audio information and computer program using a hash table describing both significant state values and interval boundaries

Also Published As

Publication number Publication date
KR101325335B1 (ko) 2013-11-08
US8892449B2 (en) 2014-11-18
AU2009267466B2 (en) 2013-05-16
MY181231A (en) 2020-12-21
CN102089811A (zh) 2011-06-08
RU2011104003A (ru) 2012-08-20
PT3002750T (pt) 2018-02-15
CA2871372C (en) 2016-08-23
EP3002750B1 (en) 2017-11-08
CA2730204A1 (en) 2010-01-14
TW201007705A (en) 2010-02-16
AU2009267466A1 (en) 2010-01-14
MY159110A (en) 2016-12-15
CA2871498C (en) 2017-10-17
MX2011000366A (es) 2011-04-28
WO2010003563A1 (en) 2010-01-14
ES2564400T3 (es) 2016-03-22
JP5551814B2 (ja) 2014-07-16
EP2311032B1 (en) 2016-01-06
PL3002750T3 (pl) 2018-06-29
US20110173010A1 (en) 2011-07-14
HK1223452A1 (zh) 2017-07-28
JP2011527453A (ja) 2011-10-27
AR072738A1 (es) 2010-09-15
JP2013214089A (ja) 2013-10-17
JP5551695B2 (ja) 2014-07-16
KR20110055545A (ko) 2011-05-25
BRPI0910512A2 (pt) 2019-05-28
ZA201100089B (en) 2011-10-26
CA2871498A1 (en) 2010-01-14
HK1155552A1 (zh) 2012-05-18
EP3002750A1 (en) 2016-04-06
CO6351837A2 (es) 2011-12-20
CN102089811B (zh) 2013-04-10
RU2515704C2 (ru) 2014-05-20
WO2010003563A8 (en) 2011-04-21
HK1223453A1 (zh) 2017-07-28
MY181247A (en) 2020-12-21
TWI459379B (zh) 2014-11-01
EP2311032A1 (en) 2011-04-20
CA2871372A1 (en) 2010-01-14
CA2730204C (en) 2016-02-16
PL2311032T3 (pl) 2016-06-30
BRPI0910512B1 (pt) 2020-10-13
EG26653A (en) 2014-05-04

Similar Documents

Publication Publication Date Title
ES2657393T3 (es) Codificador y descodificador de audio para codificar y descodificar muestras de audio
ES2683077T3 (es) Codificador y decodificador de audio para codificar y decodificar tramas de una señal de audio muestreada
ES2659838T3 (es) Decodificador de audio y método para proporcionar una información de audio decodificada usando un ocultamiento de errores en base a una señal de excitación de dominio de tiempo
TW201011739A (en) Audio encoder and decoder for encoding and decoding frames of a sampled audio signal
CA2739736A1 (en) Multi-resolution switched audio encoding/decoding scheme
AU2015295602B2 (en) Processor, method and computer program for processing an audio signal using truncated analysis or synthesis window overlap portions
AU2013200679B2 (en) Audio encoder and decoder for encoding and decoding audio samples
EP3002751A1 (en) Audio encoder and decoder for encoding and decoding audio samples